Zitat: Original von Trineas Fehlt trotzdem das Parallax. |
Der Punkt ist doch, dass man es durch die Tiefeninformation während der Anzeige berechnen kann, da man praktisch nicht mehr ein 2D-Video sondern eine 3D-Szene zur Verfügung hat.
Edit: Habs einfach mal auf o.g. Beispielbild angewendet: http://imgur.com/g54wUM8
Rendering ist etwas verzerrt, aber ausreichend um mit der klassischen "Schiel-Methode" erkennen zu können, dass die für 3D-Wahrnehmung erforderliche Parallaxe vorhanden ist. So wie ich das sehe müsste das mit 360°-Bildern oder -Videos genau so funktionieren. Letztlich tut man dann nichts anderes, als die übliche Kugel, auf die das Video projeziert wird, mit einem Parallax Occlusion Shader zu rendern (wofür man besagte Depth Map benötigt), und dann kann man die zwei virtuellen Kameras (eine pro Auge, bzw. pro Display-Hälfte des HMDs) beliebig innerhalb dieser Kugel platzieren, d.h. weder Head-Tracking noch Rotation wären ein Problem.