Zitat: Original von King2500
Das geht so einfach nicht. Sobald du dich drehst würde die "Tiefeninformation" nicht mehr stimmen. Da bräuchte man unendlich viele Tiefeninformationen (für jeden noch so kleinen Winkel innerhalb der 360°). Deswegen lässt sich so etwas vorerst nur mit Echtzeit Rendering realisieren. |
Ich bin nicht sicher ob wir hier von der selben Sache reden. Was ich meine, ist dass man zu jedem Pixel des Videos nicht nur die Farbinformation hätte, sondern darüberhinaus die Distanz zur Kamera. Dann könnte man die 3D-Szene daraus halbwegs gut interpolieren und entsprechend anzeigen. Praktisch eine Mischung aus aufgenommenem Video und Echtzeit-3D-Rendering.
Es stellt sich dann nur die Frage, ob Kameras existieren oder überhaupt theoretisch möglich sind, die gleichzeitig Farb- und Tiefeninformationen aufnehmen, und das dann auch noch in 360°.
Nimmt man bspw. dieses Bild: http://support.nextlimit.com/download/attachmen...ationDate=1315625943000&api=v2
Hier hat man links die Szene an sich, und rechts die Tiefeninformation (je dunkler, desto weiter entfernt). Damit wäre es zumindest möglich, den kleinen Offset eines zweiten Auges darzustellen, auch wenn es an den Rändern von Objekten zu kleineren Artefakten kommt (was sich nicht vermeiden lässt, da einfach keine Informationen über die Bereiche gegeben sind, die von Objekten verdeckt werden).