Okulary AR, smartglasses, mixed reality… te wszystkie hasła przetaczają się przez media od wielu lat. Można odnieść wrażenie, że za każdym razem firmy oferują nam rozwiązanie, które będzie „game changerem”… według producenta. Z tym, że do tej pory zmiana gry nie nastąpiła. Przynajmniej jeszcze nie.
Projekt Aria sam w sobie nie jest czymś absolutnie nowym. Meta pracuje nad nim od niemalże 5 lat. Od 2020 roku naukowcy opracowywali metody na stworzenie narzędzia pozwalającego „rozumienie przestrzeni”. Ostatnie osiągnięcia w dziedzinie sztucznej inteligencji popchnęły badania jeszcze dalej co koniec końców doprowadziło do ogłoszenia kolejnej generacji projektu Aria. I jak wskazuje Meta, zmiany nie są „kosmetyczne”, a dotykają praktycznie każdego aspektu.
Największymi bolączkami tego typu urządzeń to marne FOV i słaba jasność. Krótka żywotność baterii czy konieczność podłączenia ich do źródła (np.: telefon) to kolejne problemy. Te cztery parametry stanowią klucz do tego, aby w końcu okulary AR wyszły z cienia. I nie mylmy ich z okularami 'smart’. Nie oferują one nic więcej poza wyświetlaczem typu HUD z prognozą pogody i aktualnie granym utworem w Spotify. Oczywiście podstawą do tego, aby rozumienie przestrzeni było realizowane jest pełen 6DoF oraz technologia SLAM. Wbrew pozorom jest ona rzadkością w lekkich okularach używanych na co dzień.
Aria gen. 2 to naprawdę kawał porządnego sprzętu
Skupmy się w takim razie na tym, co projekt Aria drugiej generacji posiada w porównaniu do pierwszej iteracji. A zmian jest naprawdę sporo. W pierwszej kolejności wszystko co związane jest ze śledzeniem położenia okularów w przestrzeni. Mowa o kamerze RGB i kamerach wspierających SLAM i 6 DoF. Pełne mapowanie przestrzeni jest niezbędne, ażeby w pełni wykorzystać potencjał technologii AR. A nie chcemy skończyć ze zwykłym ekranem „przypiętym” do lewego górnego rogu pola widzenia.
Piętą achillesową tego typu okularów pozostaje jak zawsze sposób interakcji z systemem. Musi być on intuicyjny, nieangażujący i wygodny w codziennej pracy. Nie wyobrażam sobie posiadania dodatkowego kontrolera, a tym bardziej podłączonego telefonu, który staje się jego substytutem. I niejako oczywistym staje się umieszczenie na pokładzie systemu śledzenia dłoni. Jednak po dłuższym zastanowieniu ono też nie należy do najskuteczniejszego rozwiązania. Machanie rękoma przed twarzą w przestrzeni publicznej, aby przełączyć się pomiędzy mapą, a połączeniem przychodzącym może nie być dobrze odbierane przez osoby postronne. Niemniej jednak pozostaje najskuteczniejszą metodą i dlatego Aria 2 posiada go na pokładzie. Ale uzupełnieniem jest system śledzenia wzroku, znany chociażby z urządzeń VR. Nie jest może idealny i najszybszy w interakcji, ale dyskretny.
Narzędzie dla osób z niepełnosprawnościami
Wszystko co powyżej jest nam już mniej lub bardziej znane, ale dalej robi się naprawdę ciekawie. Nowa generacja wprowadza dwa innowacyjne czujniki umieszczone w nosku. Jest to czujnik PPG do pomiaru tętna i mikrofon kontaktowy, który odróżnia głos użytkownika od głosu osób postronnych. Druga opcja to znana już technologia „wygłuszania” otoczenia stosowana chociażby w słuchawkach, jednak pomiar tętna to już coś zupełnie nowego i może być pewnym otwarciem dla nowego rynku urządzeń fitness lub wellness. Nosimy już na sobie zegarki czy obrączki rejestrujące nasze dzienne aktywności, od jakości snu po ilość spalonych kalorii. O ile sen w okularach może nie być najlepszym rozwiązanie, ale uprawianie sportu z danymi o naszej formie w czasie rzeczywistym przed oczami już staje się kuszącą opcja.
Jednak jak pokazuje poniższy materiał, możliwość generowania dźwięku przestrzennego wraz z asystentem głosowym i odrobiną AI może być wykorzystane jako pomoc dla osób z niepełnosprawnościami.
Nasza trwająca dekadę podróż w celu stworzenia kolejnej platformy obliczeniowej doprowadziła do rozwoju tych kluczowych technologii. W Meta zespoły Reality Labs Research i FAIR AI lab wykorzystają je do realizacji naszej długoterminowej wizji badawczej. Udostępnienie ich akademickim i komercyjnym laboratoriom badawczym za pośrednictwem Project Aria jeszcze bardziej rozwinie otwarte badania i publiczne zrozumienie kluczowego zestawu technologii, które naszym zdaniem pomogą ukształtować przyszłość obliczeń i AI.
Meta Blog
Istotną kwestią jest jak długo możemy wygodnie korzystać z okularów. I tutaj przychodzi niemałe zaskoczenie. Według Meta okulary wytrzymają od 6 do 7 godzin działania co jest wynikiem naprawdę przyzwoitym biorąc pod uwagę fakt ich wagi: 75 gram. Pamiętajmy, że mówimy o w pełni zintegrowanych okularach posiadających na pokładzie wszystko, od jednostki obliczeniowej po ogniwa utrzymujące zasilanie.
Jest jednak ale…
Jeśli liczycie po tym artykule, że padnie data premiery wraz z ceną i zaczniecie rewidować budżet, aby jakoś to upchnąć, nic z tego. W nadchodzących miesiącach Meta będzie dopiero przekazywać partnerom więcej szczegółów na temat czasu i dostępności urządzeń. Ale jeśli jesteście zainteresowani dostępem do Aria Gen 2 możecie się zapisać poprzez oficjalny formularz i być na bieżąco w kwestii kolejnych kroków rozwoju i ewentualnej premiery.