eepFocus to należący do Facebooka silnik renderujący oparty o AI. Umożliwi on w przyszłej generacji gogli VR na zminimalizowanie konfliktu VAC oraz da naturalny blur, który towarzyszy nam każdego dnia.

Czytając ten artykuł, twój wzrok skupia się na poszczególnych wyrazach i ostrość obrazu jest tutaj największa. Pozostała cześć (obszar widzenia peryferyjnego) jest w naturalny sposób rozmazana. W obecnej generacji gogli VR cały obszar FOV ma jednakową ostrość. Jest to spowodowane samą ich konstrukcją, przecież to nic innego jak wielki wyświetlacz przed naszymi oczami. Dodatkowo problemem jest stałe źródło światła wyświetlacza, które powoduje wymuszenie na naszym oku skupienie wzroku na jego całej powierzchni. Przez to brakuje nam naturalności w odbiorze symulowanego świata oraz męczy nasz wzrok (mózg, odbierając nienaturalne informacje stara się je kategoryzować). DeepFocus ma to zmienić.

Jednak największą bolączką jest tzw. VAC (vergence-accommodation conflict). Co to takiego? Jest to konflikt z dostosowaniem ostrości wzroku pomiędzy różnymi głębiami ostrości. Poniższa grafika świetnie to wyjaśnia.

vac

Aby to zobrazować, usiądźcie przed oknem. Najlepiej jeśli można przez nie zobaczyć daleką perspektywę. Następnie ustawcie palec przed oczami w odległości około 20 – 30 cm i skupcie na nim wzrok na parę sekund. Po tym czasie przenieście wzrok na okno i spróbujcie skupić wzrok na dalszej perspektywie. Spróbujcie zobaczyć obiekt jak najdalej się da. Zauważycie, że minie sporo czasu, nawet 1 sekundę (a jest to już długo), zanim oko przystosuje ostrość do dalszego widzenia. Tak mniej więcej działa konflikt zbieżności.

Wszystkie headsety VR będące na rynku to nic innego jak wielkie wyświetlacze, które znajdują się parę centymetrów od naszych oczu. Z jednej strony sama ich budowa wymuszają na nas aby skupić wzrok na fizycznym ekranie (vergence distance [odległość zbieżności]), dokładnie tak samo jak patrzymy w telefon komórkowy trzymając go w ręku. Jednocześnie symulowany, wirtualny świat karze skupiać wzrok na elementach znajdujących się w wirtualnej perspektywie oddalonej od nas o “metry” (focal distance [odległość ogniskowej]). Nasz mózg stara się robić i jedno i drugie jednocześnie co powoduje zaburzenia w widzeniu. Wpływa to na komfort użytkowania.

 

Jak twierdzą autorzy projektu DeepFocus, w przeciwieństwie do innych algorytmów opartych o AI i deep-learning, które analizują obrazy, ich algorytm przetwarza efekty wizualne zachowując jednocześnie ich wysokie rozdzielczości. Wszystko po to, aby rezultat końcowy nie pogarszał doświadczenia VR.