Keynote, otwierający tegoroczną konferencję WWDC 2020 już za nami. Wydarzenie zostało przeprowadzone w pełni zdalnie, ale z zachowaniem jakości, znanej dobrze wszystkim fanom Apple. Mieliśmy szanse zobaczyć nowe wersje systemów na wszystkie oferowane platformy wraz ze sporą liczbą udostępnionych w nich usprawnień. W poprzednich latach developerskie nowości pojawiały się w końcowej części prezentacji, gdzie od 3 lat cyklicznie scenę kradł ARKit. W tym roku postawiono nacisk na ogromną zmianę jaką jest przejście z procesorów Intel, stosowanych w komputerach Mac, na opartą o ARM autorską architekturę Apple. Czy oznacza to obniżenie priorytetu dla AR w szeregach firmy z Cupertino? Sprawdźmy jak zaprezentowane nowości mogą wpłynąć na rozwój najpopularniejszej platformy rozszerzonej rzeczywistości.
Apple Spatial Audio
Pierwszym ogłoszeniem WWDC bezpośrednio związanym z AR jest przygotowany dla słuchawek AirPods Pro system dźwięku przestrzennego nazwany Spatial audio. W przeciwieństwie do Bose, o którym pisaliśmy w zeszłym tygodniu, Apple nie wycofuje się z prac nad rozwiązaniami AR w tym obszarze. Dzięki wykorzystaniu danych z akcelerometru i żyroskopu w słuchawkach, efekty dźwiękowe są przywiązane do otaczającej nas przestrzeni. Co więcej na żywo analizowane jest położenie ekranu telefonu czy tabletu względem słuchawek co sprawia, że również przesunięcie obrazu nie stanowi problemu. Nietrudno wyobrazić sobie, że słuchawki AirPods Pro staną się integralną częścią platformy AR od Apple i zdecydowanie zwiększą immersję dostarczanych doświadczeń.
Apple App Clips
App Clips to kolejna nowość zaprezentowana podczas keynote, która może mieć znaczący wpływ na platformę ARKit. Sam mechanizm uruchamiania fragmentu niezainstalowanej aplikacji nie jest odkrywczy. Android wprowadził na swojej platformie podobne rozwiązanie pod nazwą Instant Apps już kilka lat temu.
Jednak sam fakt kontekstowego wyzwolenia treści dla określonej lokacji daje już do myślenia. W przypadku przestrzennego doświadczenia AR, odniesienie do faktycznej przestrzeni ma przecież ogromne znaczenie. Fakt, że mogą one być wyzwalane przy użyciu kodu QR czy NFC daje też dodatkową referencję do konkretnego punktu w przestrzeni. Tego typu rozwiązania stosowane są już na przykład w kontekście gogli HoloLens.
Dodatkowo nowy format kodu QR zdaje się potwierdzać pojawiające się ostatnio przecieki dotyczące projektu Gobi. Ma być on bowiem rozpoznawalny przez LiDAR, sensor udostępniony niedawno wraz z premierą iPad Pro. Sam format kodu odbiega od tych, które widoczne były w wycieku. Dodatkowo, prezentowane podczas keynote przykłady pokazywały działanie używające NFC, ale próżno szukać użycia kamery i kodu QR. Pobudza to apetyt, sugerując, że czekają nas niebawem ciekawe ogłoszenia.
ARKit 4 oraz nowości w RealityKit
Nie wszystkie aktualizacje mają szansę pojawić się na scenie WWDC. W trakcie wydarzenia Apple zaktualizowało dokumentacją developerską swojej platformy. Pojawiły się w niej informacje o nowej wersji ARKit 4 oraz framework’u RealityKit.
Udostępnione zostało Depth API, czyli programistyczne narzędzia pozwalające na uzyskanie szczegółowej informacji o przestrzennej głębi wykrytej przez sensor LiDAR. Naturalny krok po dodaniu nowego rodzaju sprzętu do platformy. Same dane z LiDAR’u są używane do poprawy dostępnych już możliwości platformy jak choćby do wykrywania płaszczyzn.
Bardzo ciekawym krokiem są Location Anchors. Mechanizm pozwala przypiąć treści 3D w określonym miejscu geograficznym używając współrzędnych latitude, longitude i altitude. Takie rozwiązanie było możliwe wcześniej, wymagało jednak dodatkowej implementacji przy współpracy z GPS – sam miałem okazję pracować nad takim projektem. Zakładam, że nowa funkcjonalność ARKit pozwoli osiągnąć finalny efekt zdecydowanie łatwiej – możliwe, że Apple dopracowało też temat jakościowo. Dodatkowo ciekawe wydaje się połączenie w przyszłości Location Anchors z wprowadzonymi dla App Clips kodami QR. Wizualne powiadamianie użytkownika, o tym, że w danym miejscu znajdują się dodatkowe treści AR z moich doświadczeń jest często problematyczne.
Wsparcie dla śledzenia twarzy zostało rozszerzone do wszystkich urządzeń posiadających chip A12 i wyższej. Przypomnijmy, że wykrywanie twarzy jest jednym z najbardziej popularnych rozwiązań z obszaru AR, konsumowany choćby przez platformy takie jak Instagram czy Snapchat.
Dodana została także obsługa tekstur video oraz poprawki do mechanizmu okluzji, który korzysta z poprawionego mechanizmu wykrywania krawędzi oraz możliwości nowego sensora LiDAR.
Podsumowując
Mniejszy nacisk na platformę rozszerzonej rzeczywistości podczas Keynote WWDC nie powinien martwić. Apple wciąż intensywnie pracuje nad swoimi rozwiązaniami AR udostępniając kolejne elementy układanki. Brak głośnych nowości z interesującego nas obszaru może natomiast sugerować przygotowania do większego wydarzenia na jesieni – czyżby światło dzienne ujrzeć miał pierwszy headset od Apple? Miejmy nadzieję, że tak właśnie się stanie!