Wie Michael Hicks von Android Central berichtet, wurden bei einem Unity-Panel auf der GDC letzte Woche neue Details zu PSVR 2 enthüllt, einschließlich der Möglichkeiten, wie Entwickler Eye-Tracking für ihre Erlebnisse nutzen können, und der dadurch erzielten Leistungsvorteile.
Sony hat dieses Jahr auf der GDC keine vollständige PSVR 2 enthüllt, aber das Headset wurde den Entwicklern auf der Konferenz zusammen mit dem Unity-Vortrag gezeigt. Das Hauptaugenmerk lag offenbar auf den Details des Eye-Trackings des Headsets. Wie bereits berichtet, wird das Eye-Tracking von PSVR 2 in der Lage sein, foveated Rendering zu liefern. Dies bedeutet, dass ein Erlebnis die Eye-Tracking-Daten nutzt, um nur die Bereiche des Bildschirms vollständig zu rendern, auf die der Benutzer direkt schaut, während die Bereiche in der Peripherie nicht vollständig dargestellt werden. Dies kann die Leistung erheblich verbessern, wenn es richtig gemacht wird.
Laut Android Central hat der Unity-Vortrag gezeigt, dass die GPU-Frame-Zeiten bei der Verwendung von Foveated Rendering mit Eye-Tracking auf PSVR 2 um das 3,6-fache schneller sind, während sie bei der Verwendung von Foveated Rendering allein nur um das 2,5-fache schneller sind (wobei vermutlich nur die Ränder des Sichtfelds des Headsets verwischt werden, eine Technik, die häufig bei Quest-Headsets verwendet wird).
[the_ad id=“68158″]Beim Ausführen der VR Alchemy Lab-Demo mit dynamischer Beleuchtung und Schatten auf PSVR 2 fiel die Bildwiederholzeit Berichten zufolge von 33,2 ms auf 14,3 ms. In einer anderen Demo – einer 4K-Raumschiff-Demo – war die CPU-Thread-Leistung 32 % schneller und die GPU-Frame-Time sank von 14,3 ms auf 12,5 ms.
Über die Leistung hinaus haben die Entwickler auch die verschiedenen Möglichkeiten aufgezeigt, wie Eye-Tracking in PSVR-Erlebnisse implementiert werden kann. Das Headset wird in der Lage sein, „Blickposition und -drehung, Pupillendurchmesser und Blinzelzustände“ zu verfolgen.
Dies bedeutet, dass Sie in der Lage sein werden, zu vergrößern, was ein Spieler ansieht – besonders nützlich für das UI-Design – oder Augendaten zu verwenden, um sicherzustellen, dass das Spiel den richtigen Gegenstand ergreift, wenn der Spieler auf etwas schaut, das er aufheben möchte.
Die Entwickler können auch erkennen, ob der Spieler einen NPC anstarrt oder ihm sogar zuzwinkert, so dass sie individuelle Reaktionen der NPC auf diese Aktionen programmieren können. Ebenso kann das Eye-Tracking zur Zielhilfe beim Werfen von Gegenständen verwendet werden, so dass der Gegenstand anhand des Blicks des Spielers in eine Richtung geworfen wird, die seiner Absicht näher kommt.
Eye-Tracking bedeutet auch realistischere Avatare in sozialen Erlebnissen und die Möglichkeit, „Heatmaps“ der Blicke von Spielern beim Testen von Spielen zu erstellen. Dies würde es den Entwicklern ermöglichen, Rätsel und Umgebungen zu überarbeiten, um das Spielerlebnis auf der Grundlage von Eye-Tracking-Daten zu verbessern.
[the_ad id=“68158″]Letzten Monat wurde berichtet, dass Tobii „in Verhandlungen“ steht, um die Eye-Tracking-Technologie für PSVR 2 zu liefern.
Auf der Unity-Konferenz wurde auch bestätigt, dass Entwickler in der Lage sein werden, asymmetrische Multiplayer-Erlebnisse für PSVR 2 zu erstellen, bei denen ein Spieler in VR spielt, während die anderen über den Fernseher spielen. Dies war etwas, das wir auch in der ursprünglichen PSVR-Version gesehen haben.