Gestern hat Valve-Grafikprogrammierer Alex Vlachos auf der GDC einen Vortrag über "Fortgeschrittenes Rendering in VR" gehalten und dabei die Zuhörer mit Tipps und Tricks versorgt, wie sie ihre Spiele verbessern können. Dabei ging es nicht nur darum eine bessere Grafik zu erzielen, sondern auch darum eine möglichst gute Performance zu erreichen. Indem man Pixel, die durch die Verzerrung nicht sichtbar sind, gar nicht erst rendert, kann man etwa die Grafikkarte entlasten. Statt der bisher benötigten 457 Millionen Pixel, die für das VR-HMD Vive pro Sekunde gerendert werden mussten, kommt man nun mit 378 Millionen Pixel pro Sekunde aus - eine Einsparung von stolzen 17%.
Die VR-Website roadtovr.com hat an dem Vortrag teilgenommen und Fotos von der Powerpoint-Präsentation online gestellt. Mehr dazu findet ihr unterhalb der News bei den Links. Es wird aber erwartet, dass Valve die gesamte Präsentation auch als PDF-Datei nach der GDC veröffentlichen wird. Dort wird allerdings ein Teil fehlen, denn Vlachos hat auch einen Ausschnitt der Portal 2 VR-Techdemo vorgeführt, der für viele Tester des Headsets ein absolutes Highlight darstellte. Einer der Zuhörer hat es mitgefilmt und auf YouTube gestellt. Es zeigt den Roboter Atlas, den man mit den (ebenfalls sichtbaren) Controllern in der Demo auseinander nehmen und reparieren muss.
Update:
Valve-Programmmierer Joe Ludwig bestätigte auf Twitter, dass die Szene in der Source Engine 2 gerendert wurde.
Und bevor jemand fragt: Wir wissen nicht, in welcher Engine das gerendert wurde. Mir persönlich fällt jetzt nicht direkt etwas auf, was man nicht auch mit Source 1 machen könnte. Aber natürlich, durch die Ankündigung und alles gibt es die winzig kleine Chance dass es sich unter Umständen möglicherweise um Source 2 handeln könnte. Vielleicht. Oder Unity. Valve hat bei früheren VR-Demos bereits Unity verwendet.
Zitat: Ich frage: "In welcher Grafikengine sind die Demos programmiert?" - "Alles, was du hier siehst, ist in Unity und Steam VR entstanden. Von Indie-Entwicklern und von Valve selbst", schallt es aus der echten Welt zurück.
Eigentlich Nahe liegend, das Valve ihre neue Engine so langsam mal groß promoten sollte. Ich kann mir unter dem VR überhaupt nichts vorstellen. Ist das, wie bei einem 3D-Fernseher? Kann ich damit auch 3D-Filme auf Blu-ray 3D ansehen? Wenn dem so ist, dann wäre eine Anschaffung echt interessant.
Ich kann mir unter dem VR überhaupt nichts vorstellen. Ist das, wie bei einem 3D-Fernseher? Kann ich damit auch 3D-Filme auf Blu-ray 3D ansehen? Wenn dem so ist, dann wäre eine Anschaffung echt interessant.
Nein. Es ist schon so, dass es zwei getrennte "leicht verschobene" Bilder - 1 pro Auge gibt. Allerdings musst Du dir es so vorstellen, als hinge der Fernseher direkt auf/in deinem Auge. Der Bildauschnitt geht dann eben mit bei Kopfbewegungen. Und eben das macht den Unterschied.
Man muss es einfach ausprobieren. Ich habe bei den ersten Demos das Gefühlt habt (Project Morpheus und Rift DK2) ich müsste stellenweise Dinge wegschieben, damit ich weitergehen kann. Die Dinge waren aber natürlich nicht da. Am besten also eine Rift mal irgendwo ausleihen, oder aber zur nächsten Gamescom (o.ä.) fahren aus ausprobieren.
Es ist als wärst du selbst in der Spielewelt. Bei einem 3D-Film hast du manche Elemente die etwas weiter vorne sind und welche die etwas weiter hinten sind. Bei VR ist alles exakt so wie in der Realität, egal in welche Richtung du schaust. Es ist alles exakt so groß wie es sein sollte, wenn dort eine Person steht, dann ist die genauso hoch wie sie in der Realität wäre und du siehst sie als würde sie zwei Meter neben dir stehen. Oder hinter dir, oder wo auch immer. Du kannst um die Person herumgehen und sie von allen Seiten ansehen.
Im Grunde ist VR das Holodeck aus Star Trek, nur die Grafik ist noch nicht so gut, man kann die Dinge bisher nur sehen und nicht angreifen und man muss halt noch so ein Ding um den Kopf schnallen. Aber der Rest ist eigentlich schon ziemlich genau dort.
Sieht das geil aus ....
Jetzt braucht es als Controller nurnoch Handschuhe, die die ganzen finger tracken und auch eine Art Feedback beim Greifen geben und schwupps hätte man interessante Alternativen für Aufgaben mit komplexen Interfaces.
Ich erinnere dabei mal an die Hologramm-Interfaces in Matrix mit denen sie in Zion die Dockanlagen gesteuert haben.
Sowas wäre natürlichauch gut mit so AR-Brillen, wie der von MS möglich.
Die bisherigen Berichte waren eigentlich ziemlich positiv (bzw. ausschließlich positiv) zu den VR-Controllern von Valve. Denke die Lösung ist für den Anfang solide genug.
Wenn man genauer hinschaut, dann merkt man schon das das Rendering eher von Source 2 ist und nicht 1. Es sieht weit aus realistischer aus als in Source 1, vorallem das Lighting sieht nahezu realitäts-perfekt aus. Ich hatte anfangs das Gefühl als wäre es eine Echt-aufnahme.
Das einzige, was mir da aufgefallen ist, was erkennbar machte das es nicht realistisch ist, waren vermutlich die Texturen. Die sehen ein wenig zu... um, wie soll ichs beschreiben... zu glatt? zu sauber? zu... unrealistisch aus?
Der Realismus-Effekt könnte aber auch eher davon kommen weil es von einer Kamera gedreht wurde und darum die Qualität etwas abnimmt und somit die kleinsten Details unscharf macht, aber ansonsten, wirklich wunderschön...
Arbeitet nicht Oculus VR an einer Handschuh Controller Lösung?
Glaube da mal was gelesen zu haben. Patent usw.
Zum Video... Trotz schlechter Qualität ist die Grafik eine absolute Augenweide... Diese Animationen und das Lightning... oh ich kanns kaum erwarten Source 2 in HQ zu sehen... der wahnsinn
Arbeitet nicht Oculus VR an einer Handschuh Controller Lösung?
Glaube da mal was gelesen zu haben. Patent usw.
Zum Video... Trotz schlechter Qualität ist die Grafik eine absolute Augenweide... Diese Animationen und das Lightning... oh ich kanns kaum erwarten Source 2 in HQ zu sehen... der wahnsinn
Ja absolut. Hat mich vom Lightning und Texturen an Alien Isolation erinnert.
Sieht schon mal ganz gut aus, aber zu den Möglichkeiten von Source 2 lässt sich anhand dieser kurzen abgefilmten Szene natürlich noch nicht viel sagen. Zumal es sich ja nur um eine VR-Demo handelt.
Wäre natürlich schön, wenn demnächst noch mehr gezeigt oder gar ein Spiel angekündigt wird.
Eigentlich Nahe liegend, das Valve ihre neue Engine so langsam mal groß promoten sollte. Ich kann mir unter dem VR überhaupt nichts vorstellen. Ist das, wie bei einem 3D-Fernseher? Kann ich damit auch 3D-Filme auf Blu-ray 3D ansehen? Wenn dem so ist, dann wäre eine Anschaffung echt interessant.
Hast du ein Nexus 5? Oder einen Bekannten mit einem Nexus 5? Wenn ja dann bestell dir für ein paar Euro Google Cardboard und du kannst für wenig Geld einen ersten eindrucksvollen Einblick in VR erhalten.
Sieht schonmal gut aus. Machbar in Source 1?
Bisher hatten wir noch nie dynamische Schatten in Indoor Maps wenn es um Source 1 ging.
Ne, sieht schon nen Tick besser aus, generell recht realistisch.
Du musst dich einloggen, um Kommentare schreiben zu können
Du hast nicht die erforderlichen Rechte einen Kommentar zu schreiben. Solltest du eine Account-Strafe haben, findest du nähere Informationen in deinem Profil unter Verwarnungen.