Myślałem, że z radością przyklasnę. Myślałem, że nawet podskoczę w fotelu. Myślałem, że usiądę i napiszę tekst, który poderwie także i Ciebie. Ale…, cóż… Facebook i jego asystentka głosowa… M. Hmm… Wiesz, zabrakło we mnie entuzjazmu, bo prawda jest taka, że asystentki głosowe nie należą do powalającego rynek rozwiązania. Kocham technologie mobilne, a jeszcze bardziej obsługiwać je niemal bezdotykowo, ale póki co jedynie Google spełnia moje autentyczne oczekiwania i pomaga przełamywać lody oraz rozumieć, na czym polegają podstawowe problemy związane z gadanie do sprzętu.
[showads rek=1]
Piszę o tym – chociaż do meritum [UWAGA – tutaj spoiler! ;) ] przejdę w siódmym akapicie (wiem, długo, ale warto doczytać!) – bo to wcale nie taka prosta sprawa wymyślić sobie asystentkę głosową i zintegrować ją ze swoimi produktami. Wie o tym na pewno Samsung, którego S Voice stoi w miejscu, chociaż podwaliny ma świetne. Ale od lat nie usłyszałem od tego rozwiązania niczego nowego, bardziej dopasowanego do mnie. Pierwsze zachwyty przeminęły i tyle. Cortana? Brawo Microsofcie, ale dlaczego jeszcze jej nie ma w języku polskim? Doczekam się jej w tym roku? W przyszłym? Kiedykolwiek? Niedoceniona jest za to całkowicie asystentka LG, która zawsze kiedy mam smartfon tego producenta w testach pokazuje mi, że to świetny projekt rokujący dobrze na przyszłość. Ale też tylko w języku angielskim. Tak samo, jak Siri od Apple.
Osobiście uważam, że obecność w tych usługach języka polskiego to absolutna podstawa, jeśli ktokolwiek w naszym kraju ma korzystać z obsługi swojego smartfona lub tabletu głosem. Do niedawna jeszcze tego tak nie czułem, ale sprawdź proszę – jeśli nie masz jeszcze za sobą tej przygody – jak dzisiaj obsługuje się Google Now z poziomu telefonu. No jest wyśmienicie! A zabawa jest tym bardziej przednia, że wreszcie również język polski został dodany – chociaż nieoficjalnie jeszcze – do komunikacji ze smartwatchami pracującymi na Androidzie Wear. Efekt? Już nie ruszam kalendarza – wszystkie zdarzenia dyktuję. Tak samo, jak treści wiadomości SMS, notatki do Keep, czy proste maile, najczęściej w odpowiedzi na zadane pytanie.
[showads rek=2]
Dlaczego to jest tak ultraważne? Bo nagle, mówiąc po polsku, poczułem się bliżej swojego sprzętu, niż kiedy używałem języka angielskiego! Emejzing? Tak – i to dosłownie – pełną gębą! Dlaczego? Bo Google rozpoznaje moje nawyki mówieniowe, szybkość dyktowanego tekstu oraz kontekst i to na różne sposoby. Głupi minutnik mogę ustawić na kilka sposobów. Oto one:
- OK Google ustaw timer na 5 minut
- OK Google timer na 5 minut
- OK Google minutnik na 5 minut
Niby nic takiego? Każda ta forma sprawi, że zostanie prawidłowo ustawiony minutnik. Zachęcam – spróbuj to wykorzystać na swoim smartwatchu. Co jest cechą wspólną wszystkich tych komend? Nie musisz uczyć się ich na pamięć. Po prostu dyktujesz, co ślina przyniesie Ci na język. Pewnych wariantów oczywiście nie da się nagiąć i tak poprzestawiać komunikatu, że aplikacja nie zrozumie o co nam chodzi, ale to Twoje sposoby wyrażania się są tutaj decydujące.
Piszę o tym, bo asystentka głosowa Facebook M, ma się integrować z FB w taki sposób, aby pozwolić nam zorganizować choćby jakiś event, z możliwością ustawienia kilku akcji, np. rezerwacji lokalu na urodziny, umówienia dostarczenia kwiatów oraz podstawienia auta z Ubera po solenizanta/-tkę. Fajne? Fajne! Ale czy Ty tak rzeczywiście będziesz z tego korzystać? Czy faktycznie w taki sposób podyktujesz każde polecenie, a aplikacja Facebook M przez Messengera zrobi tak, jak planujesz? Nie boisz się, że zostanie pomylona nazwa kwiaciarni, albo rodzaj kwiatów (np. wybór padnie na droższy bukiet), czy ulica dostawy? Nie – nie myślę problemami, ale zauważ, że nie nauczysz się wydawać komend swojemu urządzeniu mobilnemu, robiąc to raz na jakiś czas, przy okazji czyichś urodzin czy imienin. Z tego trzeba korzystać, w tym trzeba siedzieć, nauczyć się jakie formy się sprawdzają, a jakie nie.
Napisałem to, wszystko, bo myślę, że ten pomysł na M chwyci. Dlaczego? Bo ponad miliard ludzi używa Facebooka. Dlaczego jeszcze? Bo angielski jest językiem świata (ale lokalne edycje też muszą być, bo efektu inaczej nie będzie). Ale także dopiero wówczas, kiedy na rynek wyjdzie z prawdziwego zdarzenia headset od np. Oculusa, który będzie z tą aplikacją zintegrowany, i jak planuje Mark Zuckerberg, pozwoli na przeglądanie FB z poziomu wirtualnej rzeczywistości. Tam już nigdzie nie klikniesz. Nie tapniesz. Tam będzie Ci najwygodniej coś powiedzieć.
Skąd więc pomysł – jak napisałem w tytule – że mi coś ucieka? Otóż nie wierzę, abym był w stanie wejść tak płynnie, jak Przemek Krawczyk, który na 90sekund.pl jest ekspertem od tematyki VR, w świat wirtualnej rzeczywistości, a tym bardziej Facebooka w takim wydaniu. Wstyd się przyznać, ale Snapchat mi już odjeżdża sprzed nosa. Po prostu nie nadążam za nim. Nie czuję potrzeby wchodzenia w ten świat i – co gorsze – nie rozumiem go! A przecież brzmi to absurdalnie, skoro opiera się on na tym, na czym obecny świat, w tym mój – na ciągłej zmianie, ulotności i nietrwałości.
[showads rek=3]
Ale zwróć też uwagę, że przy okazji headsetu to też nie będzie do końca takie proste. Bo będziesz musiał/-a wykonać konkretną pracę na rzecz rzucenia okiem na wall. Obecnie wystarczy powiadomienie na smartwatchu, by wiedzieć co się dzieje. Założenie hełmu, uruchomienie aplikacji etc., to dodatkowe czynności, które będą zakładały, że włożyłeś/-aś headset nie po to, aby sprawdzić czyjś status i wyjść ze wszystkiego. Lepiej w tym kontekście klaruje mi się HoloLens, niewątpliwie jednak to głos będzie decydował o tym, jak wygodnie obsługiwać Facebooka.
No chyba, że zrobi to lepiej Google, albo Amazon z Ivoną vel Alexa.
Źródło: David Marcus (Facebook)