Całkiem niedawno pisałem, że Google patentuje gesty, przy pomocy których, mając wolne ręce za kierownicą autonomicznego samochodu, będzie można określonymi ruchami sterować np. opuszczaniem szyb, nawiewem z klimatyzacji, czy głośnością muzyki. Oprócz patentu Google kupił również firmę Flutter, która zajmuje się rozwojem i techniką gestów. Widać, że ten zakup nie tylko był potrzebny do szukania rozwiązań dla autonomicznych pojazdów. Pomysły Fluttera mogą też polepszyć i wprowadzić na nowy tor pracę z Google Glass.
Jak podaje serwis Technobuffalo, Google do patentu zarejestrowanego w 2011 roku dodaje teraz kolejne rozwiązanie, czyli ułożenia z dłoni serca. Do czego ma to służyć? Wyobraźcie sobie, że jesteście w ciekawym miejscu, np. galerii, spodobał się Wam jakiś obraz i chcecie się nim podzielić ze społecznością. Google Glass nie tylko po ułożeniu przez Was rąk w serce wykona zdjęcie, ale automatycznie udostępni je tam, gdzie chcecie. Nie trudno wyobrazić sobie przy tej okazji inne akcje, jak np. polubianie poprzez podniesienie zaciśniętej pięści z kciukiem uniesionym w górę.
Jakkolwiek nie potrafię sobie dzisiaj wyobrazić nikogo, kto chodząc dzisiaj po ulicach, siedząc w restauracji, czy jadąc autobusem komunikacji miejskiej macha przed nosem rękoma, to sam pomysł oczywiście bardzo mi się podoba. Ale znowu pojawiają się kolejne pytania. Przecież nie tylko ja muszę gestykulować przed okularami. Jak Glass będą interpretować ruchy innych osób? Tym bardziej w sytuacji, kiedy usługa się upowszechni i co druga osoba będzie miała je na nosie (myślę, że do tego dojdzie)?
Ciekawe jest również to, że jak zauważa Technobuffalo, Google przy okazji tego patentu nie używa sformułowania, które z nazwy wymieniałoby Glass, jako dedykowanego odbiorcę tych funkcji. Pisze przede wszystkim o urządzeniu montowanym na głowie z wyświetlaczem posiadającym okulary lub gogle, ale trudno inaczej te patenty odbierać niż, jako nowość która miałaby się znaleźć w Google Glass. Pytanie tylko, czy trafi do pierwszej edycji okularów, czy kolejnej?
Oprócz prozaicznych ruchów, które łatwo sobie wyobrazić, że mogłyby ułatwić oznaczanie przeglądanych treści, przerzucanie kartek w czytanej egazecie czy kartkowanym ebooku, widzę sporo możliwości, które otwarłyby się przed twórcami gier. Pole do popisu będą mieć zatem przede wszystkim programiści, którzy dostarczając nam ciekawe aplikacje, zachęcą do używania gestów.
Źródło, foto: technobuffalo