Tegoroczna konferencja Apple WWDC 2020 jest tuż za rogiem. W poniedziałek dowiemy się oficjalnie jakie nowości przyszykowała dla nas ekipa z Cupertino. Oczywiście jak co roku, swoje premiery będą miały nowe wersje oferowanych przez firmę systemów operacyjnych dla urządzeń stacjonarnych i mobilnych. Z perspektywy rozszerzonej rzeczywistości szczególnie istotna może okazać się najnowsza odsłona iOS oznaczona numerem 14. Podsumujmy co wiemy o nowych możliwościach systemu.

Sensor LiDAR w iPad

W tym roku premierę miał już najnowszy iPad Pro, którego zestaw kamer został rozszerzony o LiDAR. Jest to bardzo istotny krok z perspektywy sprzętowej, który znacząco poprawia jakość działania już dostępnych na urządzeniu doświadczeń AR. Najprawdopodobniej sensor znajdzie się w tegorocznych iPhone’ach, co zdecydowanie zwiększy jego grupę użytkowników. Mam również nadzieję, że wraz z nowym systemem po WWDC uzyskamy szerszy dostęp do sensora z poziomu SDK.

Za LiDAR’em stać może jednak zdecydowanie ważniejsze zadanie. Początkowo zastosowany w iPad’ach i iPhone’ach ma być jedynie preludium do zupełnie nowego urządzenia. Według spekulacji ma się on stać kluczowym elementem budowanych przez Apple okularów AR. Nie rejestruje on obrazu wideo co automatycznie rozwiązuje problem prywatności oraz zdecydowanie dokładniej radzi sobie z rozpoznawaniem otaczającej nas geometrii.

Apple LiDAR.
Projekt Gobi

Sensor nie ma być jednak używany jedynie w znany nam dzisiaj sposób. Apple rozbudowało jego możliwości na poziomie software’u o detekcję specjalnie dedykowanych kodów QR. Świadczą o tym przecieki udostępnione przez Josh Constine związane z projektem Gobi. Za tą nazwą kodową kryje się nowa aplikacja AR szykowana przez Apple, która ma ujrzeć światło dzienne wraz z premierą iOS 14. Ma ona umożliwiać rozpoznawanie przedmiotów na bazie specjalnie przygotowanych przez firmę z Cupertino kodów QR. Będzie też wyświetlać przypisane do nich kontekstowo informacje.

Cody QR z projektu Gobi.

Rozwiązanie to wydaje się technologicznym krokiem w tył. Na rynku coraz więcej rozgłosu zyskują rozwiązania oparte o Machine Learning, które potrafią rozpoznawać obiekty 3D bez dodatkowych znaczników. Na dzień dzisiejszy nie są one jednak doskonałe, a Apple zależy przede wszystkim na popularyzacji technologii AR i wykorzystaniu jej w jak najbardziej przystępny sposób. Co więcej kody mogą być rozpoznawane właśnie przy użyciu sensoru LiDAR. Ma to zapewnić kompatybilność z budowanymi przez producenta iPhone’ów okularami. O aplikacji możemy myśleć jak o odpowiedniku Apple Wallet serwującym doświadczenia AR. Ma ona być skupiona głównie wokół zakupów i początkowo używana w Apple Store oraz sieci Starbucks.

Podobnie jak w przypadku rozszerzonej rzeczywistości w kontekście audio, ciekawą koncepcję wysnuł Robert Scoble. Według niego aplikacja Gobi ma być wstępem do dużo szerzej zakrojonego planu Apple. Planu mającego zrewolucjonizować sposób w jaki robimy zakupy. W połączeniu z usługami jak Apple Pay oraz sprzętem jak okulary AR nasza interakcja ze sklepami ma się zmienić na zawsze.

Funkcja AR w aplikacji Find My

Wracając do systemu iOS 14, rozszerzona rzeczywistość ma zostać również wykorzystana w dostępnej już aplikacji Find My. Pozwalać ma na łatwiejsze wyszukiwanie przedmiotów, jak choćby słuchawek AirPods. Przedmioty mają być oznaczane w przestrzeni za pomocą trójwymiarowych baloników.

W szerszym ujęciu rozwiązania AR na platformach mobilnych przyjęły się głównie w obszarze filtrów jak te w Instagram, meblowaniu czy grach. Nowe rozwiązanie z obszaru restauracyjnego i zakupowego oraz wykorzystanie AR do szukania zaginionych przedmiotów może w znaczący sposób wpłynąć na popularyzację tej technologii. Trzymamy kciuki i do zobaczenia na WWDC!

PS. Zapraszam do śledzenia YesEyeSee w przyszłym tygodniu. Na bieżąco będziemy umieszczali informacje o nowościach związanych z rozszerzoną rzeczywistością w ramach platformy Apple.