We wrześniu tego roku premierę miał najnowszy iPhone oznaczony numerem 12. W urządzeniu, podobnie jak wcześniej w iPadzie, zastosowano sensor LiDAR. Tym razem znalazł on jednak bardzo praktyczne zastosowanie. Stanowi narzędzie poprawiające możliwości robienia zdjęć w trudnych warunkach oświetleniowych. Konkretniej pomaga przy ustawianiu ostrości. Najnowszy patent firmy z Cupertino pokazuje, że w przyszłości może on dać o wiele więcej. Zastosowany w okularach AR – Apple Glass, pozwoli nam widzieć w ciemności.

Patent zatytułowany “Head-Mounted Display With Low Light Operation” opisuje wykorzystanie nowego sensora w połączeniu z okularami AR takimi jak wyczekiwane Apple Glass. Dzięki tej synergii możliwe będzie rozszerzenie możliwości naszego wzroku. Praca ludzkiego oka różni się w zależności od warunków oświetleniowych. Widzenie fotopowe, mające miejsce w dobrych warunkach oświetleniowych dostarcza dużo lepszej jakości informacje niż mezopowe czy skotopowe, które w gorszych warunkach oświetleniowych traci choćby dane dotyczące kolorów.

Gogle AR/VR wraz z sensorem LiDAR.
Gogle AR/VR wraz z sensorem LiDAR.

Zwykłe kamery rejestrują obraz w obszarze światła widzialnego podobnie jak nasze oczy. LiDAR bazuje na świetle podczerwonym, które jest zarówno emitowane jak i rejestrowane przez sensor. Dzięki temu pozwala on na detekcję głębi, a co za tym idzie geometrii otaczającej nas przestrzeni nawet w zupełnych ciemnościach.

Co więcej Apple nie ogranicza się jedynie do LiDAR’u pozostawiając sobie furtkę do użycia innych sensorów, takich jak structure light sensor, time-of-flight czy radar. Podany w dokumencie przykład bazuje jednak na sensorze LiDAR.

Autorami patentu są Trevor J. Ness oraz Fletcher R. Rothkopf, którzy już wcześniej pracowali nad technologiami z obszaru AR zajmując się mapowanie twarzy czy rozwiązywaniem problemu choroby lokomocyjnej.

Zmiana źródła obrazu w zależności od miejsca patrzenia.
Zmiana źródła obrazu w zależności od miejsca patrzenia.

Dodatkowo, Apple zajmuje się również zagadnieniami związanymi z prezentacją treści AR gdy użytkownik porusza głową i oczami. W patencie “Image Enhancement Devices With Gaze Tracking” zaproponowano połączenie parametrów widzenia użytkownika z informacją dotyczącą otoczenia. Przykładowo, w mieszanej rzeczywistości, osoby o słabszym wzroku mogą uzyskać możliwość powiększenia fragmentu obrazu.

Zaprezentowane powyżej patenty, wraz z wieloma wcześniejszymi opracowaniami pokazują, że Apple bardzo poważnie podchodzi do zagadnień związanych z rozszerzoną i mieszaną rzeczywistością. Rozwiązując kolejne problemy starają się wypracować doświadczenie optymalne dla użytkownika. Miejmy nadzieję, że ostateczny efekt ich prac w formie Apple Glass zobaczy już w krótce.