Warum wird denn überhaupt noch DX8 unterstützt?
Wie alt ist es? Kommt der DX9 Support nicht schon mit XP?
Also ich würde als entwickler DX8 ganz schnell vergessen und mich auf DX 10 und nachfolger konzentrieren. Kompatibilität in allen ehren aber so viele Altlasten wie Mircosoft in Windows mit sich rumschleppt (Stichwort 16Bit unterstützung im 64Bit Zeitalter) braucht man im Spiele bereich nicht.
Was hat das mit Altlasten zu tun? Es gibt eben noch viele Leute die eine Dx8-Grafikkarte haben, wieso sollen die plötzlich auf das Spiel verzichten müssen, wenn sie sich momentan keine neue Hardware leisten wollen? Bei neuen Spielen (Left 4 Dead) gab es ja ohnehin schon keine Dx8-Unterstützung mehr.
Was hat das mit Altlasten zu tun? Es gibt eben noch viele Leute die eine Dx8-Grafikkarte haben, wieso sollen die plötzlich auf das Spiel verzichten müssen, wenn sie sich momentan keine neue Hardware leisten wollen? Bei neuen Spielen (Left 4 Dead) gab es ja ohnehin schon keine Dx8-Unterstützung mehr.
Ich hatte früher eine GeForce 5200 FX und die hatte auch schon DX9.c obwohl die richtig alt war. Und DX9 - Karten bekommt man heute schon für 30 Euro o.O
Ich zitiere mal die wichtigste Stelle: "Wenn ich einen Prozessor nehme, der 100 Prozent Leistung und 100 Prozent Stromverbrauch hat, und dann die Taktrate um 20 Prozent nach oben drehe, steigt der Stromverbrauch quadratisch, und zwar um 73 Prozent. Wenn ich das jetzt aber umgekehrt mache, ich reduziere die Taktrate, dann brauche ich nur noch die Hälfte des Stroms, aber gewinne 73 Prozent an Leistung wenn ich den freien Platz dazu nutze, einen zweiten Kern einzusetzen."
Nur zur Info: Dort wird auch gesagt, dass bei 16 Kernen Schluss sein soll.
[Beitrag wurde 1x editiert, zuletzt von s3m1h-44 am 17.03.2009, 21:48]
Warum wird denn überhaupt noch DX8 unterstützt?
Wie alt ist es? Kommt der DX9 Support nicht schon mit XP?
Also ich würde als entwickler DX8 ganz schnell vergessen und mich auf DX 10 und nachfolger konzentrieren. Kompatibilität in allen ehren aber so viele Altlasten wie Mircosoft in Windows mit sich rumschleppt (Stichwort 16Bit unterstützung im 64Bit Zeitalter) braucht man im Spiele bereich nicht.
Ich frage mich wirklich was du mit DX10 willst, was überflüssigeres habe ich noch nicht gesehen, die Spiele die DX10 haben, sehen damit entweder nicht besser aus (Far Cry 2) oder laufen dann vergleichsweise schlechter (Crysis), warum sollte man nicht noch eine Weile bei DX9 bleiben?
Lool die sollen das auch für die EP2 engine machen da GMOD davon sehr profitiert.
Zitat: Original von d4rth_h!jack
Ich frage mich wirklich was du mit DX10 willst, was überflüssigeres habe ich noch nicht gesehen, die Spiele die DX10 haben, sehen damit entweder nicht besser aus (Far Cry 2) oder laufen dann vergleichsweise schlechter (Crysis), warum sollte man nicht noch eine Weile bei DX9 bleiben?
Schlechte beispiele genannt. FC2 läuft unter DX10 um einige schneller und crysis sieht netter aus aber ausnutzen tun beide games DX10net wirklich.
Scheu dir mal STALKER Clear Sky an, Story is zwar lame aber darum gehts net.
Grafik sieht an einigen stellen fast fotorealistisch aus (nicht überall aber in den sümpfen zb sehr oft) und es läuft auchnoch um einiges schneller unter DX10
DX10 bringt imonoch nich viel da es kaum games gibt diees ausnutzen aber das wird sich ändern.
____________________________________
[Beitrag wurde 4x editiert, zuletzt von TK:ONE am 18.03.2009, 11:22]
Ich zitiere mal die wichtigste Stelle: "Wenn ich einen Prozessor nehme, der 100 Prozent Leistung und 100 Prozent Stromverbrauch hat, und dann die Taktrate um 20 Prozent nach oben drehe, steigt der Stromverbrauch quadratisch, und zwar um 73 Prozent. Wenn ich das jetzt aber umgekehrt mache, ich reduziere die Taktrate, dann brauche ich nur noch die Hälfte des Stroms, aber gewinne 73 Prozent an Leistung wenn ich den freien Platz dazu nutze, einen zweiten Kern einzusetzen."
Nur zur Info: Dort wird auch gesagt, dass bei 16 Kernen Schluss sein soll.
obs wirklich 70% mehr gibt, bleibt abzuwarten.
und wer weiß ob bei 16 kernen wirklich schluß ist? wer weiß schon was die welt von morgen für leistung benötigen wird
allerdings entwickelt sich die hardware viel zu schnell bzw. die softwareentwickler kommen der hardwareentwicklung nicht im geringsten hinterher.
wie lange hat z.b die 64-bit architektur gebraucht bis sie jetzt einigermaßen beim heimanwender angekommen ist? 2003 wurden die ersten prozessoren von amd mit der 64-bit technologie für den heimgebrauch eingeführt und jetzt erst so 2008 etablierte sich das ganze (wenn man das ganze schon so nenen kann. ich für meinen teil möchte nicht mehr auf 64-bit verzichten )
auch wenn man sieht wie wenig software überhaupt von mehrkernprozessoren und gpu´s profitieren. schon erschreckend wie langsam da die entwicklung vorangeht.
hight end pc´s der endverbraucher haben 4 cpu kerne (core i7 8 (wenn auch "nur" 4 echte)) und eine oder mehrere high end grafikkarten.
was da an rechenpower in den pc´s schlummert ist eigentlich der wahnsinn.
wenn alle programme die cpu´s richtig ausnutzen würden und gpgpu nützen würden (also CUDA von nvidia und STREAM von ati) dann wären wir wirklich mal nen schritt weiter bei der softwareentwicklung
____________________________________
[Beitrag wurde 1x editiert, zuletzt von Speedy Gonzalez am 18.03.2009, 14:12]
die ganzen source games sind cpu lastig richtig? was kann ich denn so einstellen, dass die CPU entlastet wird? AA und AF kann ich ruhig hoch stellen, wenn ich eine starke grafikkarte habe?