BF1 Hardware

Alles über den WW1-Shooter und seine Erweiterungen

Moderator: Moderatoren

Antworten
Benutzeravatar
[FtN|GT] Bob Sacamano
Geschäftsmodell
Beiträge: 1101
Registriert: 09.06.2004, 20:53
Wohnort: B - Südost 36

BF1 Hardware

Beitrag von [FtN|GT] Bob Sacamano » 28.06.2016, 08:18


So. Nachdem ich mir jetzt hunderte (äußerst ermüdende) Beiträge über "Amd vs. Nvidia" durchgelesen habe, möchte ich das Thema mal von einer etwas anderen Seite beleuchten.

Klar, es gibt deutliche Unterschiede zwischen den Herstellern. Aber was bei Grafkkarten letztlich wirklich zählt, sind die verbauten Prozessoren und deren Befehlssatz[1]. Denn an den Befehlssatz hat jedes Spiel seine eigenen Ansprüche - Die Frostbyte-Engine zum Beispiel benutzt sehr viel Multiplikationen auf der Grafikkarte[2].

Man unterscheidet zwischen essenziellen und nicht-essenziellen Grafik-Befehlen. Nicht-essentiell sind Befehle, die aus anderen Befehlen zusammengesetzt werden können. Beispielsweise ist eine Addition(+) nicht-essentiell, denn Minus mal Minus ergibt Plus[3]. Jede Grafikkarte kann essentielle Befehle mit einer bestimmten Geschwindigkeit abarbeiten. Und diese Geschwindigkeit kann man messen - Man spricht dabei von dem Befehlssatz-Profil[4].

Um maximale grafische Wertigkeit zu erlangen, kann man zwei (oder mehr) Grafikkarten mit komplementären Befehlssatz-Profil kombinieren. Je nach Spiel steckt man dann den Monitor um.

Es gibt aber auch viel unkompliziertere Möglichkeiten, um maximale grafische Wertigkeit zu erreichen: Dazu nimmt man zwei Grafikkarten, deren Befehlssatz-Profile sich ergänzen, mischt diese mit etwas Öl, 300ml Milch, zwei Bananen und verrührt alles gründlich im Mixer. Den fertigen Shake trinkt man bis zu zwei Stunden nach dem Spielen - bzw. für Langzeit-Spieler zwischen den Mahlzeiten.






[1] https://de.wikipedia.org/wiki/Befehlssatz
[2] https://www.researchgate.net/profile/Ab ... 000000.pdf
[3] https://en.wikipedia.org/wiki/Instructi ... operations
[4] https://en.wikipedia.org/wiki/GPU_Corre ... _Set_Score
[fullalbumimg]984[/fullalbumimg]

Benutzeravatar
Roland von Gilead
verdammt coole sau
Beiträge: 13279
Registriert: 02.07.2003, 20:05
Wohnort: wo die Kühe wilder als die Frauen sind !
Kontaktdaten:

Beitrag von Roland von Gilead » 28.06.2016, 08:45

.... da der Beitrag ähnlich sinnvoll ist wie die "AMD vs Nvidia Diskussion", hättest du ihn auch direkt in dem enstprechenden Thread recht unauffällig unterbringen können. Chance vertan, sag ich nur ....
[fullalbumimg]804[/fullalbumimg]
Bild Bild Bild Bild

Benutzeravatar
Blade
Geschäftsmodell
Beiträge: 1543
Registriert: 17.01.2006, 23:34
Wohnort: Gießen/Wettenberg

Beitrag von Blade » 28.06.2016, 16:31

Omg, muss roland da leider beipflichten

Ich hol schon ma wieder das popcorn raus.

G3cko
Geschäftsmodell
Beiträge: 1374
Registriert: 11.11.2006, 13:28

Beitrag von G3cko » 28.06.2016, 21:21

Weiß zwar auch nicht ob das einen neuen Thread benötigt hätte aber fassen wir einmal zusammen:

- der VRAM spielt aufgrund des unified GDDR5 RAMs der Kosnole einen wichtige Rolle. 6 bis 8GB sollten es mittelfristig schon sein. Besonders bei lieblosen Konsolenports wird man das sehen, aber auch bei Spielen, welche die Ressourcen der Konsolen ausschöpfen werden.

- Die Anforderungen an das DX Level wird nicht sehr hoch sein. Der verbaute Chip in den Konsolen verfügt über das Featurelevel DirectX 11.2
Vielleicht wird es Spiele geben die Features darüberhinaus bieten, aber das wird die Ausnahme bleiben. Zudem wohl in keinem Fall ein k.O. Kriterium, da dies ein Extraaufwand für den PC bedeutet.
Welche Grafikkarte unterstützt welches Featurelevel:
http://www.3dcenter.org/news/welche-gra ... d-software

Nutzung der Compute Ressourcen moderner GPUs
Nvidias Grafikkarten basieren seit 8800GTX (2006) auf einer 1D Shader Architektur, AMD seit 7970 (2011). Diese Architekturform erlaubt es Grafikkarten flexibel auch für andere Aufgaben zu missbrauchen. (zB High Perforamnce Computing (HPC) in Rechenzentren oder bekanntestes Beiespiel PhysX) Nvidia konnte so damals AGEIAs Technologie aufkaufen und so die Berechnungen anstatt auf der dedizierten Physik-Karte auf der Grafikkarte ausführen.

Da Grafikkarten heutezutage für beide Märkte (Gaming und HPC) designt werden ging AMD einen Schritt weiter und implementierte eine Art Hyperthreading für welchselnde Anforderungen. (Grafik- und Compute-Befehle) Dies versteht man unter dem Begriff "Asynchronous Shader".
https://www.youtube.com/watch?v=v3dUhep0rBs
(leider gibt es kein besser verständlichers Video.)

Asynchronous Shader ist nicht nur ein Feature für eine Performanceverbesserung, sondern erlaubt eine bessere Gesamtauslastung der Grafikkarte. Speziel eben des bei Games häufig brachliegenden Computing-Bereichs. Deswegen sind die Konsolenentwickler sehr intessiert. 20-30% Performance lässt man sich nicht entgehen.

Auch für DICE ist das ein großes Thema. Irgendwo hatte ich mal einen Link hier gepostet.

Raytracing mittels Compute
Aktuelle Spiele basierten alle auf Rasterisierungs-Verfahren der Berechnung. Dies erlaubt bereits bei geringen Ressourcen ein gutes Ergebnis. Die Anfänge der 3D-Berechnung lassen Grüßen. Mit steigendem Aufwand und dem Ziel des Fotorealismus wird diese Art der Berechnung aber immer aufwändiger.
Bei Raytracing verhält es sich genau umgekehrt. Man braucht bereits viel Rechenleistung, damit das Ergebnis überhaupt nach was aussieht. Ist jedoch ersteinmal ein gewisser Punkt erreicht, ist das Ergebnis deutlich besser. Das liegt in der Art der Berechnung. Hier wird ein Strahl (Ray) ausgehend vom Betrachter rückwärts zur Lichquelle berechnet. Dies natürlich tausendfach. Das Ergebnis sieht nicht nur"besser" aus, es ist absolut korrekt.
Bild

Rasterisierungs-Verfahren habe enorme Schwierigkeiten mit Spiegelungen. Wer einmal darauf achtet, wird festellen wie schlecht selbst modernste Spiele-Engines hier abschneiden, und wie die Entwickler tricksen um diesem Performanceproblem schlicht aus dem Weg zugehen:
https://www.youtube.com/watch?v=L7QMQKC0HF8

Raytracing kennt übrigens fast Jeder. Die meisten 3D-Animationsfilme werden so umgesetzt. Ebenso Rendering, also Verfahren wo der PC deutliche mehr Zeit hat, als in einem Spiel (Echtzeit)
https://www.youtube.com/watch?v=aKqxonOrl4Q
https://www.youtube.com/watch?v=BpT6MkCeP7Y
https://www.youtube.com/watch?v=pm85W-f7xuk
https://upload.wikimedia.org/wikipedia/ ... 0_edit.png
http://www.pxleyes.com/blog/2010/03/5-t ... aytracing/

Spannend sind daher nun die ersten wirklichen Versuche Raytracing mittels Asynchronous Shader in Spielen einzusetzen. Interessant ist hier die Info, dass bei einer Raytracing-Berechung der Compute-Teil der Graka gleichzeitig aktiv sein muss, wie auch der Grafik-Teil welcher letztendlich das Bild an den Monitor sendet.
https://www.youtube.com/watch?v=C9eMciZGN4I

GTX9xx Grafikkarten werden Raytracing nicht einsetzten können. Da der Chip "anhalten" muss um von Compute-Berechnungen in Grafikberechnungen zu wechseln und umgekehrt. Asynchronous Shader wird hier nur in Software unterstützt und von der CPU emuliert. Daher auch der Performanceverlust in den Benchmarks. Ein Feature zu emulieren, was nur dazu da ist Performance zu generieren ist daher sehr sinnfrei.
GTX10xx Karten sind nun in der Lage zwischen Compute- und Grafikberechnungen zu wechseln.
GCN kann diese Berechnungen parallel abarbeiten, was deutlich mehr Performance verspricht. Je neuer jedoch die GCN-Architektur desto besser die parallele Nutzung.

Falls ich etwas vergessen haben sollte, gerne ergänzen.
Bild

Benutzeravatar
[FtN|GT] Bob Sacamano
Geschäftsmodell
Beiträge: 1101
Registriert: 09.06.2004, 20:53
Wohnort: B - Südost 36

Beitrag von [FtN|GT] Bob Sacamano » 30.06.2016, 05:24

Dazu ein historischer Überblick:

Heutige Grafikkarten-Generationen unterstützen Raytracing. Der fachliche Begriff ist physically-based Rendering: Die Bilder, die auf dem Monitor erscheinen, werden sehr aufwändig über kleinste physikalische Schaltungen gerändert.

Noch vor wenigen Jahren existierte diese Technik nicht. Physikalische Schaltungen konnte man nicht fertigen und somit war auch physically-based Rendering nicht möglich. Statt Physik benutzten damalige Grafikkarten reine Magie, wie beispielweise die Mystique (Matrox, 1997) und die Voodoo 3 (3dfx, 1998). Um diese Grafikkarten zu betreiben, waren verschiedene Rituale nötig: Rechner neustarten, Windows neuinstallieren, Jungfrauen opfern (zumeist männliche).

Viele Gamer waren mit dieser Situation unzufrieden bzw. fürchteten um ihr Leben. Abhilfe schaffte dann ab 1999 die GeForce-Serie von Nvidia. Wie der Name verrät, handelt es sich bei einer GeForce um eine Hybrid-Grafikarte: Sie sollte die Brücke schlagen zwischen Physik (vgl. g-Kraft[1]) und Magie (vgl. The Force[2]). Von solchen Grafikkarten profitieren besonders Spiele von LucasArts.



[1] https://de.wikipedia.org/wiki/G-Kraft#P ... Grundlagen
[2] https://en.wikipedia.org/wiki/The_Force ... %29#Impact

Benutzeravatar
[FtN|GT] Bob Sacamano
Geschäftsmodell
Beiträge: 1101
Registriert: 09.06.2004, 20:53
Wohnort: B - Südost 36

Beitrag von [FtN|GT] Bob Sacamano » 05.07.2016, 12:59

Die Entscheidung für eine Grafikkarte wurde hier öfters als eine Wahl zwischen "Pest und Cholera" bezeichnet. Das ist natürlich Quatsch.

Jedoch sollte man vor dem Kauf unbedingt einen Blick auf die Hersteller-spezifische Mortalitätsrate werfen. Folgende Grafik zeigt eine leicht höhere Sterblichkeit von Nvidia-Käufern. Naheliegend, denn dieser Käufer-Gruppe bleibt weniger Geld für ausreichende Nutrition.

Der Abstand zwischen AMD und Nvidia fällt im Winter deutlicher aus. Hier haben AMD-Käufer einen Vorteil: Die Abwärme der Karten hilft, die kalte Jahreszeit zu überleben.
[hide=.]pdf("/tmp/gpu_mort_2014.pdf", 5, 4); par(oma=c(0,0,0,0)); par(mar=c(2,2,2,1)+.5); m <- matrix(c(1, 1.4, 1.2, 2.3), nrow=2, dimnames=list(c("AMD","Nvidia"), c("Mai - Okt","Nov - Apr"))); barplot(m, beside=T, col=c("red","green"), ylab="Mortalität", main="Mortalität 2014/2015", ylim=c(0,3)); legend("topleft", row.names(m), fill=c("red", "green"), inset=0.05); dev.off(); system("convert -alpha remove -alpha off -density 150 /tmp/gpu_mort_2014.pdf /tmp/gpu_mort_2014.png")[/hide]
Dateianhänge
gpu_mort_2014.png
AMD vs. Nvidia 2014/2015

Benutzeravatar
Roland von Gilead
verdammt coole sau
Beiträge: 13279
Registriert: 02.07.2003, 20:05
Wohnort: wo die Kühe wilder als die Frauen sind !
Kontaktdaten:

Beitrag von Roland von Gilead » 05.07.2016, 13:59

:lol: sehr geil auf den Punkt gebracht ....
[fullalbumimg]804[/fullalbumimg]
Bild Bild Bild Bild

Benutzeravatar
no-robot
Geschäftsmodell
Beiträge: 2789
Registriert: 11.10.2005, 14:38
Wohnort: Gemeinde Teuchern

Beitrag von no-robot » 21.10.2016, 06:27

koennen wir das thema jetzt beenden?

man kriegt langsam einen zuviel! :RoM:

Benutzeravatar
Roland von Gilead
verdammt coole sau
Beiträge: 13279
Registriert: 02.07.2003, 20:05
Wohnort: wo die Kühe wilder als die Frauen sind !
Kontaktdaten:

Beitrag von Roland von Gilead » 21.10.2016, 08:01

das Thema war seit einem Viertel Jahr begraben - du hast es aufgeweckt, du Flocke ....
[fullalbumimg]804[/fullalbumimg]
Bild Bild Bild Bild

Benutzeravatar
Licherkette
Administrator
Administrator
Beiträge: 1288
Registriert: 08.12.2002, 13:46
Wohnort: Langenselbold

Beitrag von Licherkette » 21.10.2016, 08:30

Jetzt begeht es sogar schon Zellteilung :sick: :hehehe:
Wissen ist Macht, nix Wissen macht auch nix

Benutzeravatar
Lord_Vader
Geschäftsmodell
Beiträge: 4909
Registriert: 14.10.2002, 10:02
Wohnort: Duisburg
Kontaktdaten:

Beitrag von Lord_Vader » 07.11.2016, 13:53

Bild
<~>
Meine Threema ID: 9CATSS5P

Antworten