Laserowe oczy. Brzmi trochę sztampowo i zalatuje klasykami jak Superman czy Cyclops z X-Men. Ale pomyśl o laserowym wzroku nie z perspektywy broni tylko z perspektywy sensora, czy urządzenia odbierającego sygnały. Na przykład umieszczonego w smartfonie i pozwalającego go obsługiwać za pomocą gestów, lub porozumieć ci się z osobą mówiącą językiem migowym. Lub w biurze wyciągniętym żywcem z Raportu Mniejszości.
[showads ad=rek3]
Laserowe sensory optyczne stają się też nadzieją na rozwój robotyki, swoją drogą też rodem z SF. Przywołane w tytule robotyczne pszczoły to aktualnie opracowywane aparaty latające o wymiarach… cóż, przeciętnej pszczoły. Te wytrzymałe urządzenia mogą latać mając splątane skrzydła lub poruszać się pod wodą. Dzięki temu nadają się do wykorzystania na przykład przy poszukiwaniu ofiar katastrof lub przy zapylaniu roślin. Problemem jest to, że aktualne projekty nie mają żadnego urządzenia, dzięki któremu taki robotyczny insekt mógłby widzieć przestrzennie. Ciężko będzie przeprowadzić akcje ratunkową, gdy taki aparat wpadnie w ścianę lub pobliskie drzewo.
Rozwiązaniem tego jest lidar (ang. light detection and ranging), czyli urządzenie działające tak jak radar, ale wykorzystujące światło zamiast fal radiowych. Urządzenie emituje niewidzialne i bezpieczne dla ludzkiego oka impulsy światła (np. podczerwonego lub UV) i na podstawie czasu w jakim odbite światło dociera do odbiornika, oceniają odległość, rozmiar i kształty obiektów. Dokładnie taką samą technologie wykorzystuje Xbox Kinect oraz “bezzałogowe” samochody opracowane przez Tesla Motors. Kwestią do rozwiązania jest rozmiar.
[showads ad=rek2]
Naukowcy z University of Florida mają za zadanie zmniejszyć sensor laserowy tak, by zmieścił się w aparacie latającym wielkości owada. Finalnie, sesnor ma ważyć około 56 mikrogramów (czyli 0,056 grama). Ponadto należy opracować oprogramowanie, które będzie w stanie pracować z tak małym urządzeniem, oraz równie małą elektroniką robotycznego instekta.
[showads ad=rek1]
Znacznie bardziej praktycznym zastosowaniem tej technologii będzie jej użycie w smartfonach i technologiach ubieralnych. Celem jest stworzenie “naturalnej przestrzeni interakcji człowieka z maszyną”. Mamy już coś takiego w formie konsol do gier, przy których trzeba się namachać czy też Intel Realsense, kamera 3D (a ściślej mówiąc: kamera stereoskopowa) która ma pojawić się w laptopach oraz jako oddzielny webcam. Jednak w porównaniu do planowanych 56 mikrogramów i umieszczania sensora w naprawdę małym aparacie latającym, są to urządzenia duże i nieporęczne.
Z jednej strony ciesze się, że rozwój technologii obrał właśnie taki kierunek. Dotarliśmy do maksymalnych prędkości obliczeniowych, teraz zmniejszamy procesory, sensory i baterie. Z jednej strony, rój robotów ratowników, z drugiej strony, gdzieś z tyłu głowy, krąży filmowy Raport Mniejszości, gdzie roboty i “naturalny interfejs” służyły do inwigilacji…
[showads ad=rek3]
Źródło, foto: livescience, software, usgs.gov