BF1 Hardware

Alles über den WW1-Shooter und seine Erweiterungen

Moderator: Moderatoren

Antworten
G3cko
Geschäftsmodell
Beiträge: 1374
Registriert: 11.11.2006, 13:28

Beitrag von G3cko » 26.08.2016, 17:10

Man kann auch AMD mal hypothetisch aus dem Spiel lassen und das ganze nur mit Nvidia durchspielen. Vielleicht fällt dir das leichter. Ich glaube dich überfordert das.

GTX1060 300€ 6GB
GTX1060 300€ 3GB

Wenn beide Karten nahezu das gleiche kosten, aber die eine mehr bietet, so hat diese natürlich das bessere P/L-V auch wenn du vom VRAM natürlich jetzt noch nicht soviel hast. Das ist ja das lustige am VRAM. Man wünscht sich erst dann mehr wenn man merkt, dass man zuwenig hat. Zwischenschritte gibt es da nicht. Wer mal in ein solches Limit gelaufen ist, sei es durch zu hohe Einstellungen, weiß dass man sich dort ganz schnell bei 1fps wieder findet.

Brand aktuell ein Test Custom vs Custom:
https://www.computerbase.de/2016-08/msi ... -1920-1080

Die GTX1060 ist 3-5% schneller als die RX480.
Die preiswerteste lieferbare GTX1060 Custom bei einem deutschen Shop kostet 290€
Die Preiswerteste lieferbare RX480 Custom kostet bei einem deutschen Shop 299€

Die RX480 ist stark vergriffen. Normalerweise wäre diese preiswerter. Aber auch so kannst du dich bei annähernd gleichen Preispunkt nun zwischen 3-5% Performance oder 33% mehr VRAM entscheiden. Selbst wenn es sich um zwei Karten eines Herstellers handeln würde, so wäre die Entscheidung für mich klar. Ich denke, dass du das genauso siehst, sonst hättest du zB nicht zu einer GTX670 mit 4GB gegriffen. Aber hier ist dir deine Engstirnigkeit einfach im Weg um das mal zu akzeptieren. Akzeptier doch dass du bei Nvidia den vermeintlichen "Premium"-Aufpreis zahlst, so wie bei Apple. ;)
Bild

Benutzeravatar
Roland von Gilead
verdammt coole sau
Beiträge: 13183
Registriert: 02.07.2003, 20:05
Wohnort: wo die Kühe wilder als die Frauen sind !
Kontaktdaten:

Beitrag von Roland von Gilead » 26.08.2016, 17:54

Meine letzten Worte an dich bevor ich dich jetzt (hoffentlich) endgültig ignoriere:



Die GTX1060 ist 3-5% schneller als die RX480.
Die preiswerteste lieferbare GTX1060 Custom bei einem deutschen Shop kostet 290€
Die Preiswerteste lieferbare RX480 Custom kostet bei einem deutschen Shop 299€

Die RX480 ist stark vergriffen. Normalerweise wäre diese preiswerter. Aber auch so kannst du dich bei annähernd gleichen Preispunkt nun zwischen 3-5% Performance oder 33% mehr VRAM entscheiden. Selbst wenn es sich um zwei Karten eines Herstellers handeln würde, so wäre die Entscheidung für mich klar. Ich denke, dass du das genauso siehst, sonst hättest du zB nicht zu einer GTX670 mit 4GB gegriffen. Aber hier ist dir deine Engstirnigkeit einfach im Weg um das mal zu akzeptieren. Akzeptier doch dass du bei Nvidia den vermeintlichen "Premium"-Aufpreis zahlst, so wie bei Apple.
Finde den Fehler, ich weiss es ist schwer ....... :lol:

https://pics.computerbase.de/5/7/5/1/9/ ... 940923.svg
Zuletzt geändert von Roland von Gilead am 27.08.2016, 08:59, insgesamt 1-mal geändert.
[fullalbumimg]804[/fullalbumimg]
Bild Bild Bild Bild

Benutzeravatar
[FtN|FH] Galli
Kuschelaligator
Beiträge: 6332
Registriert: 21.07.2004, 22:24
Wohnort: GE

Beitrag von [FtN|FH] Galli » 26.08.2016, 18:56

tequilio hat geschrieben: Verfolge aufmerksam seit posting 1 , habe es nie anders verstanden. Keine Ahnung wie man so auf auf über 300 antworten u 3300 klicks kommt
Bild :D :lol: :D
Galli, proud member of the "Erdferkel-Gilde"Bild
1200 Beiträge im alten Forum
"Libertas Populi!"

Benutzeravatar
tequilio
Geschäftsmodell
Beiträge: 2131
Registriert: 24.06.2005, 19:06

Beitrag von tequilio » 26.08.2016, 20:26

[FtN|FH] Galli hat geschrieben:
tequilio hat geschrieben: Verfolge aufmerksam seit posting 1 , habe es nie anders verstanden. Keine Ahnung wie man so auf auf über 300 antworten u 3300 klicks kommt
Bild :D :lol: :D
:lol: haha der is gut

öhm gecko? roland hat es dir sogar fett hervorgehoben :D
Bild

G3cko
Geschäftsmodell
Beiträge: 1374
Registriert: 11.11.2006, 13:28

Beitrag von G3cko » 29.08.2016, 22:38

Wie gesagt, wären es 2 Karten eines Herstellers würde jeder ohne zu zögern 3-5% Leistung gegen 33% mehr VRAM eintauschen. Ergo besseres p/L-V.

Im übrigen: wusstet ihr, das Grafikkarten mit doppelten Speicher in der Regel 2-3% langsamer sind? Das liegt an dem höheren Verwaltungsaufwand. Immer wieder bei diversen Tests von custom Designs mit doppelten Speicher zu sehen. Das ander sich natürlich mit der Zeit und steigenden Anforderungen.
Bild

Benutzeravatar
Roland von Gilead
verdammt coole sau
Beiträge: 13183
Registriert: 02.07.2003, 20:05
Wohnort: wo die Kühe wilder als die Frauen sind !
Kontaktdaten:

Beitrag von Roland von Gilead » 30.08.2016, 22:07

.... wer eine GTX970 hat und auf HD spielt, ist mit der Karte ausreichend bedient.
Hab die Profiles von BF4 umkopiert inkl. VGA Einstellung - hab im Schnitt 90-120 frames (unter BF4 mit identischen Einstellungen 160-200 Fps).
OK die Wüstenmap ist nicht ganz anspruchsvoll, wer aber auf 60Hz zockt kann mit der Karte denke ich nix falsch machen.

GTX970-980-1060-RX470-RX480 sollte alle dicke reichen. Bin gespannt, wie Gallis 670 mit 4GB sich schlägt, ich tippe die wird auch noch genügend frames bringen!
[fullalbumimg]804[/fullalbumimg]
Bild Bild Bild Bild

Benutzeravatar
[FtN|FH] Galli
Kuschelaligator
Beiträge: 6332
Registriert: 21.07.2004, 22:24
Wohnort: GE

Beitrag von [FtN|FH] Galli » 31.08.2016, 04:15

Roland von Gilead hat geschrieben: GTX970-980-1060-RX470-RX480 sollte alle dicke reichen. Bin gespannt, wie Gallis 670 mit 4GB sich schlägt, ich tippe die wird auch noch genügend frames bringen!
Ja so vermute ich auch wie schon geschrieben, da tequililo schrieb das er mit seiner 660 oc 90 fps hat bin ich umso mehr zuversichtlich, ist halt "nur" ne aufgebohrte Frostbyte was soll da schon so krass Performance ziehen denk ich mir. Ne neue Graka wirds dennoch irgendwann sein mal gucken, werd mal die Temperatur im Auge behalten gerade jetzt im Sommer.
Galli, proud member of the "Erdferkel-Gilde"Bild
1200 Beiträge im alten Forum
"Libertas Populi!"

Benutzeravatar
tequilio
Geschäftsmodell
Beiträge: 2131
Registriert: 24.06.2005, 19:06

Beitrag von tequilio » 31.08.2016, 06:57

[FtN|FH] Galli hat geschrieben:
Roland von Gilead hat geschrieben: GTX970-980-1060-RX470-RX480 sollte alle dicke reichen. Bin gespannt, wie Gallis 670 mit 4GB sich schlägt, ich tippe die wird auch noch genügend frames bringen!
Ja so vermute ich auch wie schon geschrieben, da tequililo schrieb das er mit seiner 660 oc 90 fps hat bin ich umso mehr zuversichtlich, ist halt "nur" ne aufgebohrte Frostbyte was soll da schon so krass Performance ziehen denk ich mir. Ne neue Graka wirds dennoch irgendwann sein mal gucken, werd mal die Temperatur im Auge behalten gerade jetzt im Sommer.
Korrekt
Ich hab dann auf einem 64er gezockt, da ging bei meiner (660ti oc) in der Stadt bei Punkt c die Frames runter. Hatte dort stellenweise 65-75.
Außerhalb , 80-90.
Ich wechsle mit großer Sicherheit, meine hat aber auch schon 4 Jahre am Buckel u hat gute Dienste erwiesen was p/l angeht
Bild

Benutzeravatar
tequilio
Geschäftsmodell
Beiträge: 2131
Registriert: 24.06.2005, 19:06

Beitrag von tequilio » 31.08.2016, 07:00

http://www.pcgameshardware.de/Battlefie ... s-1206197/

Könnte euch auch interessieren, dx11 besser als dx12
Weil Beta??

@fusi hast du nicht am Resolution scale herum gebastelt? Siehe mein Link, da solltest die Finger davon lassen und Standard setzen
Bild

Benutzeravatar
Roland von Gilead
verdammt coole sau
Beiträge: 13183
Registriert: 02.07.2003, 20:05
Wohnort: wo die Kühe wilder als die Frauen sind !
Kontaktdaten:

Beitrag von Roland von Gilead » 31.08.2016, 07:14

Interessanter Bericht, das DX12 unter nvidia langsamer ist als dx11 hatte ich gerechnet, das es aber auch bei AMD Karten der Fall ist, damit hätte ich nicht gerechnet:
Auch bei der zweiten Messreihe, diesmal mit einer Radeon R9 Fury X nebst Radeon Software Crimson 16.8.2, liefert DirectX 12 nicht das, was von der neuen API erwartet wird: Auch die AMD-Grafikkarte rechnet unter DX12 langsamer als unter DX11 - obwohl Battlefield 1 in der spieleigenen Konsole sogar "with async compute" nennt und die Fiji-GPU somit optimal ausgelastet werden sollte. Immerhin fällt der Einbruch unter DX12 nicht so groß aus wie bei der Geforce, sofern man die höchste Auflösung ausklammert (Speichermangel).

Dieses Verhalten ändert sich dramatisch, sobald der Prozessor der Limitfaktor ist - Low-Level-APIs wie DX12 und Vulkan glänzen vor allem hier, als Prozessor-Entlaster. Entsprechende Tests liefern wir am Mittwochmorgen nach.

hier ein ähnlicher vergleich bei der gamestar:

http://www.gamestar.de/spiele/battlefie ... 01876.html

Nutzen wir einen deutlich langsameren FX 6300-Prozessor von AMD, kann die RX 480 zumindest unter Full HD durch DirectX 12 zulegen, während die GTX 1060 in allen Auflösungen und sowohl bei maximalen als auch bei mittleren Details im Vergleich zu DX11 durch die Bank fps verliert. In WQHD und 4K ereilt dieses Schicksal dann auch die RX 480.

Ein weiteres Problem mit DirectX 12 besteht abseits sinkender durchschnittlicher Bilder pro Sekunde: Während es unter DirectX 11 mit dem FX 6300 und beiden gestesten Grafikkarten nur zu Beginn einer Partie kurz zur kleinen Nachladerucklern kommt, ist das Spielgefühl unter DirectX 12 spürbar weniger gleichmäßig.

Das fällt vor allem zu Pferd negativ auf, da wir hier sehr schnell unterwegs sind und die kleinen Ruckler in den Animation durch die Third-Person-Perspektive noch besser wahrnehmen können. Viele Spieler berichten außerdem von Abstürzen unter DirectX 12, die unter DirectX 11 nicht auftreten sollen, wobei das Spiel auf unseren Testsystemen unter beiden Schnittstellen stabil lief.

Nach aktuellen Stand ist DirectX 12 also nicht optimal in Battlefield 1 integriert, man darf allerdings nicht vergessen, dass es sich nur um eine Open Beta handelt. Außerdem könnten Messungen mit anderen Grafikkarten oder Prozessoren unserer bisherigen Erfahrung mit DirectX 12 nach durchaus erfreulichere Ergebnisse zu Tage bringen, es besteht also noch Anlass zur Hoffnung. Unter DirectX 11 überzeugt die Technik von Battlefield 1 dagegen bereits jetzt schon auf ganzer Linie.
erinnert mich irgendwie an BF4 & die mantle API
[fullalbumimg]804[/fullalbumimg]
Bild Bild Bild Bild

Benutzeravatar
Fussballgott
Geschäftsmodell
Beiträge: 2351
Registriert: 10.12.2002, 15:48
Wohnort: Ruhrpott

Beitrag von Fussballgott » 31.08.2016, 08:08

tequilio hat geschrieben:@fusi hast du nicht am Resolution scale herum gebastelt? Siehe mein Link, da solltest die Finger davon lassen und Standard setzen
Jepp, hab da alles auf 100% gedreht. Lief damit auch immer noch flüssig in 1440p. Allerdings hab ich keinen vorher/nachher Vergleich ob das grafische Auswirkungen hat.
"Ich habe viel von meinem Geld für Alkohol, Weiber und schnelle Autos ausgegeben...
Den Rest habe ich einfach verprasst."

George Best

Benutzeravatar
Roland von Gilead
verdammt coole sau
Beiträge: 13183
Registriert: 02.07.2003, 20:05
Wohnort: wo die Kühe wilder als die Frauen sind !
Kontaktdaten:

Beitrag von Roland von Gilead » 31.08.2016, 08:54

hab das auch auf 100% gestellt, sieht bei mir genauso aus wie in BF4 ...
Zuletzt geändert von Roland von Gilead am 31.08.2016, 10:53, insgesamt 1-mal geändert.
[fullalbumimg]804[/fullalbumimg]
Bild Bild Bild Bild

Benutzeravatar
Roland von Gilead
verdammt coole sau
Beiträge: 13183
Registriert: 02.07.2003, 20:05
Wohnort: wo die Kühe wilder als die Frauen sind !
Kontaktdaten:

Beitrag von Roland von Gilead » 31.08.2016, 10:53

G3cko hat geschrieben:.... Wer etwas langlebiges sucht sollte auf Vega mit HBM2 warten. Kommt vermutlich pünktlich zum BF1 Launch. Dann hat man genug Leistung und alle wichtigen Features für die nächsten 4 Jahre. Nvidias Asynchronous Compute ist mit Pascal auf dem Niveau von GCN aus dem Jahr 2011...

Nvidia grast noch schnell ein paar Fanboys ab, solange AMD nicht liefert. Gegen Vega sieht man am Ende kein Land. (wird wohl noch etwas länger so sein)
G3cko hat geschrieben:...
Sehr interessant wird auf jedenfall der kleine Vega. Preislich wird mann schauen müssen wo sich AMD mit HBM2 positioniert. Wenn man hier auch agressiv in den Markt geht und wer weiß wie lange die neue Fertigung wieder genutzt wird auf jeden Fall eine klasse Grafikkarte. Kommt auch pünktlich zum BF1 Release.
G3cko hat geschrieben: ....
Verständlich das Vega nur released wird wenn es passende Games gibt. BF1 ist so ein Titel und ich bin gespannt ob die Leaks mit Release im Oktober stimmen. Anderer seits reicht die Leistung meiner Karte aktuell noch aus.
.... vielleicht verschiebt sich ja der BF1 release jetzt auch :cry:
High-End-GPU Vega von AMD definitiv erst in der 1. Jahreshälfte 2017
die "kann" bis Juni/2017 gehen .... :gruebel:

http://www.hardwareluxx.de/index.php/ne ... -2017.html



:hehehe: ... ich weiss es ist gemein, aber mittlerweile hab ich Spass dran :twisted:
[fullalbumimg]804[/fullalbumimg]
Bild Bild Bild Bild

G3cko
Geschäftsmodell
Beiträge: 1374
Registriert: 11.11.2006, 13:28

Beitrag von G3cko » 31.08.2016, 17:17

Naja in der Folie steht enthusiast Chip Vega. Polaris ist aber bei AMD ein Performance Chip. Das sagt nicht über High-end welche bei amd unter xx90 bezeichung läuft. Vega kommt laut aktuellen Gerüchten in 2 Chip Variationen. Die Folie ist da leider nicht ganz so Aussagekraftig.


Laut einigen Usern liefert dice wohl eine sehr gute Grafik bei sehr genügsamen Anforderungen. Das ist schön und schade zu gleich. Ich meine früher hat dice schon neue Maßstäbe in Sachen Grafik gesetzt. Die frostbite engine wird aber breit verwendet. Vom rennfahrspiel bis plants Vs zombies. Der Fokus ist einfach ein anderer. Hinzu kommen steigende monitorauflösungen. Und solange man für diese 800euro Grafikkarten braucht, werden diese sich schwer durchsetzen. So aber finde ich einen 21:9 Monitor aber langsam auch interessant.

Es verwundert bin ich über die aktuelle dx12 Umsetzung. Der overhead wird zwar bereits reduziert und asynchron shaddr ist wohl auch schon aktiv (wohl der Grund weshalb amd nicht soviel Performance verliert) aber so ganz rund scheint die API noch nicht zu arbeiten. Naja ist ja noch alles Beta, aber da muss man sagen , dass die Entwickler von AoS technisch einen exzellenten Job abgeliefert haben und das schon vor Monaten. Auch wenn die frostbite engine sicherlich komplexer und auch nicht von 0 designet wurde etwas ernüchternd für EA. Ich gehe davon aber aus, dass sich hier noch einiges tut. Vulkan Support wird die engine sicherlich auch bekommen.

Wie gesagt es ist aktuell noch eine Beta. In der Alpha war der Button noch nicht einmal aktiv. Auch sturtzt das Spiel mit nvidia Karten aktuell über mehrere Generationen und alle spie hinweg ab. Da gibt es noch einige Baustellen bis zum finalen release und selbst dann ist das Spiel bekanntlich immer noch nicht final... ;)
Bild

Benutzeravatar
ftn|smokin'
sie nannten ihn viagra
Beiträge: 2571
Registriert: 28.06.2003, 15:09
Wohnort: NRW

Beitrag von ftn|smokin' » 31.08.2016, 18:03

Ich bin wohl raus. Graka zu alt. Unfassbar! :RoM:
Angeblich habe ich nicht den korrekten Treiber drauf, hab ich aber. Wixbude da :RoM: :RoM:
BildBildBild

Antworten