Rozpoznawanie gestów, śledzenie ruchu dłoni, czy badanie głębokości obiektów, to w chwili obecnej priorytet w dziedzinie interakcji. Na rynku istnieje wiele firm, które projektują własne kontrolery pozwalające na zwiększenie przyjemności operowania w wirtualnej przestrzeni. Z jednej strony to kawałki plastiku z szeregiem przycisków, z drugiej zaś rękawice z mnóstwiem czujników badające ruch. Parę lat temu, największy wizjoner naszych czasów, Steve Jobs, w czasie jednego z wywiadów odnośnie rysika obecnego w urządzeniu konkurencji stwierdził: “Po co komu rysik skoro człowiek ma ich na ręku 10”. W punkt.

A dzisiaj Firma ManoMotion zaprezentowała oprogramowanie, dzięki któremu możliwe jest rozpoznawanie gestów… i to na mobile!!!

Oprogramowanie dostępne jest dla większości platform, więc praktycznie możliwe jest jego uruchomienie na większości urządzeniach. Poza zwykłym śledzeniem ruchu dłoni, pozwala na odczytywanie jej obecnego stanu: dłoń rozwarta czy pięść. Jest w stanie rozpoznać i oznaczyć poszczególne palce w trakcie ruchu, a także badać gesty.

Według mnie najlepszą funkcjonalnością jest możliwość analizowania głębi z wykorzystywaniem sensora głębokości, który jest doczepiany do urządzenia i jest oferowany razem z SDK. System jest w stanie określić odległość dłoni od wirtualnego przedmiotu co w przypadku AR jest niebagatelną informacją.

Całość prezentowana jest na ekranie telefonu. Pytanie czy jest to na tyle funkcjonalne, aby znalazło zastosowanie w sytuacji kiedy jedną ręką trzymamy telefon, a drugą operujemy. Wydaje się, że nie, ale pamiętać należy, że tego typu inicjatywy dokładają kolejne cegiełki do rozwoju całego środowiska XR i kiedyś znajdą zastosowanie.

Ja już dzisiaj widzę jedno: wyobraźmy sobie AR Pass-through z wykorzystaniem np. GearVR’a. Kupuję to.

wsparcie_patronite