Gestern hat Valve-Grafikprogrammierer Alex Vlachos auf der GDC einen Vortrag über "Fortgeschrittenes Rendering in VR" gehalten und dabei die Zuhörer mit Tipps und Tricks versorgt, wie sie ihre Spiele verbessern können. Dabei ging es nicht nur darum eine bessere Grafik zu erzielen, sondern auch darum eine möglichst gute Performance zu erreichen. Indem man Pixel, die durch die Verzerrung nicht sichtbar sind, gar nicht erst rendert, kann man etwa die Grafikkarte entlasten. Statt der bisher benötigten 457 Millionen Pixel, die für das VR-HMD Vive pro Sekunde gerendert werden mussten, kommt man nun mit 378 Millionen Pixel pro Sekunde aus - eine Einsparung von stolzen 17%.
Die VR-Website roadtovr.com hat an dem Vortrag teilgenommen und Fotos von der Powerpoint-Präsentation online gestellt. Mehr dazu findet ihr unterhalb der News bei den Links. Es wird aber erwartet, dass Valve die gesamte Präsentation auch als PDF-Datei nach der GDC veröffentlichen wird. Dort wird allerdings ein Teil fehlen, denn Vlachos hat auch einen Ausschnitt der Portal 2 VR-Techdemo vorgeführt, der für viele Tester des Headsets ein absolutes Highlight darstellte. Einer der Zuhörer hat es mitgefilmt und auf YouTube gestellt. Es zeigt den Roboter Atlas, den man mit den (ebenfalls sichtbaren) Controllern in der Demo auseinander nehmen und reparieren muss.
Update:
Valve-Programmmierer Joe Ludwig bestätigte auf Twitter, dass die Szene in der Source Engine 2 gerendert wurde.
Der augenscheinlichste Unterschied ist physically based rendering, also alle Materialien haben in etwa gleiche Werte was Glanz, Rückstrahlung, Reflexion etc angeht, wie es auch in etwa im richtigen Leben ist. Das kann auch die Unreal Engine 4, aber eben Source 1 nicht.
Das hört sich echt spannend an. Ich habe eine menge Blu-ray 3D Filme und muss noch bis zum 3D-TV warten, wäre schon cool gewesen, wenn so eine VR mit Mod vielleicht so etwas könnte. Aber so mitten im Spielgeschehen ist eh viel intensiver. Erstmal abwarten. Nicht das VR eine Eintags-Fliege bleibt.
Man kann auch 3D-Filme mit einem VR-Headset schauen. Du kannst beispielsweise dein eigenes Kino simulieren wo du den Film auf einer großen Leinwand vom besten Platz aus schauen kannst. Allerdings ist die Auflösung in VR deutlich geringer als auf einem normalen TV.
Also dieses Headset interessiert mich nicht. Aber die Grafik an sich ist wirklich sehr vielversprechend. Hoffentlich werden die echten Spiele damit auch so detailiert wie in der Techdemo wo sie ja nur wenig Räume damit modellieren.
Sieht schonmal gut aus. Machbar in Source 1?
Bisher hatten wir noch nie dynamische Schatten in Indoor Maps wenn es um Source 1 ging.
Bist du sicher, dass du Portal 2 gespielt hast?
Es ist zwar Meckern auf hohem Niveau, aber die dynamischen Schatten sind nur auf der Map dynamisch, aber NICHT auf der Portal-Gun. (zumindest erinnere ich mich so an das Spiel)
Eine solche Art der dynamischen Schatten hat ja bereits FakeFactory in der Cinematic Mod angewandt, oder?
Du musst dich einloggen, um Kommentare schreiben zu können
Du hast nicht die erforderlichen Rechte einen Kommentar zu schreiben. Solltest du eine Account-Strafe haben, findest du nähere Informationen in deinem Profil unter Verwarnungen.