270°
ABGELAUFEN
Gainward Phantom GeForce GTX 980 für 439,95 € @ Hitmeister.de
Gainward Phantom GeForce GTX 980 für 439,95 € @ Hitmeister.de
ElektronikHitmeister Angebote

Gainward Phantom GeForce GTX 980 für 439,95 € @ Hitmeister.de

Preis:Preis:Preis:439,95€
Zum DealZum DealZum Deal
Bei Hitmeister.de gibt es die Gainward Phantom GeForce GTX 980 für 439,95 € inkl. Versand.
Der Versand erfolgt über Snap-Hunter.

Die Mindfactory Gruppe ist auch mit dem Preis runtergegangen, hier wäre sie ab 449.- € bei Vibu zu haben. Wer auf Nummer sicher gehen will, sollte sie hier kaufen:

PVG ansonsten 493,96 € @ Digitalo.de

Erwähnenswert ist auch die EVGA 4GB GDDR5 PCIe GTX980 ACX 2.0
Diese Karte wird ebenfalls von Snap-Hunter auf Hitmeister.de angeboten, Preis hierfür 458.- €.
PVG 534,99 € @ Computeruniverse.de

Chip: GM204-400-A1 "Maxwell" • Chiptakt: 1203MHz, Boost: 1304MHz • Speicher: 4GB GDDR5, 1800MHz, 256bit, 230GB/s • Shader-Einheiten/TMUs/ROPs: 2048/128/64 • Rechenleistung: 4927GFLOPS (Single), 205GFLOPS (Double) • Fertigung: 28nm • Leistungsaufnahme: >165W (TDP), 11W (Leerlauf, gemessen) • DirectX: 12.0 (Feature-Level 12-1) • OpenGL: 4.5 • OpenCL: 1.2 • Vulkan: 1.0 • Shader Modell: 5.0 • Schnittstelle: PCIe 3.0 x16 • Gesamthöhe: Triple-Slot • Kühlung: 3x Axial-Lüfter • Anschlüsse: DVI, Mini HDMI 2.0, 3x Mini DisplayPort 1.2 • Externe Stromversorgung: 1x 8-Pin PCIe + 1x 6-Pin PCIe • Abmessungen: 274x112mm • Besonderheiten: NVIDIA G-Sync, 4-Way-SLI, werkseitig übertaktet • Herstellergarantie: zwei Jahre

34 Kommentare

Hab die Karte damals bei Getgoods für 350€ geschossen. Der Kühler taugt leider überhaupt nichts. Das Teil betreibt Thermal Throttling selbst in einem verdammt gut belüfteten Gehäuse.

Verfasser

Hab zwar selbst eine MSI 4G, doch Luftkühler kommen bei mir grundsätzlich runter.

Palau

Hab zwar selbst eine MSI 4G, doch Luftkühler kommen bei mir grundsätzlich runter.



Wird aber bei den wenigsten der Fall sein. Ich habe den Kühler gegen einen Raijintek Morpheus getauscht, womit ich die Karte Semi-Passiv kühlen kann. Ein neuer Kühler kostet dann eben auch mal schnell 50 € extra, womit man auch gleich zu einem anderen Modell mit ordentlichem Kühler greifen kann.

Wer zur jetzigen Zeit noch eine Nvidia kauft ist selber schuld. Die DX12/Vulkan Fähigkeiten sind unter aller sau!

der Händler hat auch viele andere Sachen deutlich unter dem Vergleichspreis...glaube eher, dass da was stinkt.

Kommentar

jokergermanydevu

Wer zur jetzigen Zeit noch eine Nvidia kauft ist selber schuld. Die DX12/Vulkan Fähigkeiten sind unter aller sau!


Wie immer auf dem Markt gilt: Abwarten und Tee trinken. Die neuen Generationen stehen doch schon fast vor der Tür. Mal sehen wie da die Verhältnisse sind.

kann die mit der 390 nitro mithalten?

GTX 980 seit Witcher 3 im PC und höchst zufrieden. Performance ist top. Zum Kühler kann ich nichts sagen.

Verfasser

michidermc

kann die mit der 390 nitro mithalten?



R9 390 ohne x, ja.

jokergermanydevu

Wer zur jetzigen Zeit noch eine Nvidia kauft ist selber schuld. Die DX12/Vulkan Fähigkeiten sind unter aller sau!

Naja, die fehlenden DX12 Funktionen werden auch Treiberupdates nicht nachliefern. Also für die Zukunft rausgeschmissenes Geld. Da hat NVIDIA echt Bock ist gebaut.

jokergermanydevu

Wer zur jetzigen Zeit noch eine Nvidia kauft ist selber schuld. Die DX12/Vulkan Fähigkeiten sind unter aller sau!



Im Gegenteil!!! Haben ja schön abgecasht die letzten 2 Jahre.
Und die Fanboys werden ende des Jahre fleißig für 600€ auf GTX 1080 mit DX12 Features aufrüsten!!!

...und storno.

aber man bekommt als Entschädigung einen Gutschein über 0,05€! Wenn das nichts is...

Nice, aber hab meine schon vor 1,5 Jahren für 400€ geholt. Egal was die Nvidia Hater sagen, ich finde es hat sich gelohnt

Der Kühler sieht komisch aus

wer es noch irgendwie aushält mit seiner aktuellen graka, sollte hier nicht zuschlagen:

tweakpc.de/new…ak/

Ich habe mir letzte Woche für effektive 260€ auch noch eine Strix 970 gekauft und bin absolut zufrieden. Bei meinem 430 Watt Netzteil und dem viel zu hohen Stromverbrauch bei Radeon reicht mir das mindestens für die nächsten 2 Jahre. Pascal hin oder her. Für 1080p ideal

1of16

...und storno. aber man bekommt als Entschädigung einen Gutschein über 0,05€! Wenn das nichts is...


war doch klar
stornomeister

DamiLe

Ich habe mir letzte Woche für effektive 260€ auch noch eine Strix 970 gekauft und bin absolut zufrieden. Bei meinem 430 Watt Netzteil und dem viel zu hohen Stromverbrauch bei Radeon reicht mir das mindestens für die nächsten 2 Jahre. Pascal hin oder her. Für 1080p ideal



Ein brauchbares 430W NT hätte auch ne R9 390 gepackt, die nächsten Jahre reicht die dir auch nur wenn Nvidia was an ihrer Treiberpolitik ändert und dir FHD reicht.
Die letzten Gens inkl. meiner fallen immer weiter hinter ihre ehemaligen AMD Pendants (vorallem Hawaii) zurück.

DamiLe

Ich habe mir letzte Woche für effektive 260€ auch noch eine Strix 970 gekauft und bin absolut zufrieden. Bei meinem 430 Watt Netzteil und dem viel zu hohen Stromverbrauch bei Radeon reicht mir das mindestens für die nächsten 2 Jahre. Pascal hin oder her. Für 1080p ideal



Der Preis ist angemessen. Zum Normalpreis hätte sich die Radeon mehr gelohnt, aber so ist das ein guter Deal

storno Meister einmal cold immer cold

DamiLe

Ich habe mir letzte Woche für effektive 260€ auch noch eine Strix 970 gekauft und bin absolut zufrieden. Bei meinem 430 Watt Netzteil und dem viel zu hohen Stromverbrauch bei Radeon reicht mir das mindestens für die nächsten 2 Jahre. Pascal hin oder her. Für 1080p ideal



Hab ebenfalls meine alte GTX 760 für 90€ + den Division Key für 40€ verkauft, also effektiv 170€ bezahlt. Kann mich ebenfalls nicht beklagen.

jpsns

Hab die Karte damals bei Getgoods für 350€ geschossen. Der Kühler taugt leider überhaupt nichts. Das Teil betreibt Thermal Throttling selbst in einem verdammt gut belüfteten Gehäuse.


Jap hatte mal ne Gainward 680

Wir wissen ja mittlerweile dass das für VR alles nicht reicht. Da müssen schnellere Karten folgen

tobiwan80

Naja, die fehlenden DX12 Funktionen werden auch Treiberupdates nicht nachliefern. Also für die Zukunft rausgeschmissenes Geld. Da hat NVIDIA echt Bock ist gebaut.



jokergermanydevu

Wer zur jetzigen Zeit noch eine Nvidia kauft ist selber schuld. Die DX12/Vulkan Fähigkeiten sind unter aller sau!



Man muss die Sache schon ein wenig differenzierter betrachten. Genauso könnte man behaupten, dass AMDs Leistung vor DX12 bisher unter aller Sau war. Der DX11 Treiber von Nvidia ist da schon gut optimiert, im Gegensatz zu AMD.
Zudem sollte nicht vergessen werden, dass bisher noch nichtmal eine Hand voll Spiele existieren, die DX12 (aus)nutzen. Es werden sicherlich dieses Jahr noch ein paar kommen, aber wer weiß, welche von den Spielen man tatsächlich dann auch spielen wird. Von daher existiert der Nutzen von DX12 vorerst nur auf dem Papier.

Denn eins sollte man immer bedenken: Eine Grafikkarte kauf man sich, wenn man sie braucht und nicht für die Zukunft. Denn mit letzteres kann man nur auf den Allerwertesten fallen. Und in Anbetracht dessen ist Nvidia zum heutigen Stand mit einer 980 Ti immernoch eine gute Wahl.

Marcoschi

Man muss die Sache schon ein wenig differenzierter betrachten. Genauso könnte man behaupten, dass AMDs Leistung vor DX12 bisher unter aller Sau war.


Du meinst DX11?

Marcoschi

Denn eins sollte man immer bedenken: Eine Grafikkarte kauf man sich, wenn man sie braucht und nicht für die Zukunft. Denn mit letzteres kann man nur auf den Allerwertesten fallen. Und in Anbetracht dessen ist Nvidia zum heutigen Stand mit einer 980 Ti immernoch eine gute Wahl.


Wer jetzt mehr als 400€ für eine Grafikkarte ausgibt die Maximal noch 1 Jahr gute Dienste leistet,
(Ich erwarte von so einer teuren Grafikkarte mehr, als nur "ausreichende Details und Auflösungen")
insbesondere wenn in den nächsten Monaten die Nachfolgegeneration kommt, ist selber Schuld.

Will mir selber nen Gaming PC zusammenstellen, da mein 2009 gekaufter Pseudo-Gamingnotebook (Musste Kompromisse eingehen...) dank DX10 Only einige Spiele schon nicht mehr starten lässt, aber die paar Monate wird man sich jawohl noch Gedulden können.
Es sei denn man kauft sich sowieso jedes Jahr ne neue Grafikkarte, dann kann man nur mal daran appellieren was man damit dem Gamingmarkt antut, wenn man Nvidias Machenschaften unterstützt...

jokergermanydevu

Du meinst DX11?


Je nachdem welchen Kontext. AMDs Treiber entfaltet erst ab DX12 seine Leistung. Nvidias Treiber sind bereits vorher schon gut optimiert. Dafür ist der Nutzen bei DX12 kaum sichtbar.

jokergermanydevu

...., aber die paar Monate wird man sich jawohl noch Gedulden können.


Das ist ja das Dilemma, Warten kannst du immer. Das ist ein nie endender Teufelskreis. Nehmen wir an, dass die neuen Karten im Herbst verfügbar sind. Was hilft Einem das im jetzigen Augenblick? Richtig, leider nichts.
Des Weiteren könnte es passieren, dass Intel dann neue CPUs vorstellt, die im Winter kommen sollen, warte ich dann wieder drei weitere Monate?
Wer Leistung haben möchte/braucht und das Geld für so eine Karte ausgeben will und kann, der erhält bis zur Nachfolge -Generation eine brauchbare Karte. Sollten die neuen Karten dann im Herbst kommen, hat er der Benutzer ein halbes Jahr Nutzen davon gehabt und verkauft sie halt dann wieder. Ob das Preis/Leistungstechnisch Sinn macht, dürfte für viele Käufer von hochpreisigen High-End Produkten nicht wirklich von Belang sein.
Ich stimme dir da zu, wer warten kann, der sollte das tun, insbesondere als Preisbewusster Spieler, aber dann braucht man diese Karte halt auch nicht. Und damit wären wir wieder bei dem Punkt, dass man sich Hardware kaufen sollte, wenn sie gebraucht wird. Und wenn jemand Leistung will, dann kommt er an einer 980 ti oder Fury X nicht herum.

jokergermanydevu

Es sei denn man kauft sich sowieso jedes Jahr ne neue Grafikkarte, dann kann man nur mal daran appellieren was man damit dem Gamingmarkt antut, wenn man Nvidias Machenschaften unterstützt...



Ich bezweifle, dass sich der gemeine Käufer auch nur im geringsten dafür interessiert, was er welchem Hersteller antut durch den Kauf oder Nicht-Kauf einen Produktes. Sei es nun ein Auto von Audi oder ein iPhone von Apple. Informierst du dich bei jedem Produkt über die Unternehmens-Philosophie?

jokergermanydevu

Du meinst DX11?

Marcoschi

Ich bezweifle, dass sich der gemeine Käufer auch nur im geringsten dafür interessiert, was er welchem Hersteller antut durch den Kauf oder Nicht-Kauf einen Produktes. Sei es nun ein Auto von Audi oder ein iPhone von Apple. Informierst du dich bei jedem Produkt über die Unternehmens-Philosophie?


Das ist Schwachsinn.
Ja, die AMD Treiber waren nicht so optimiert. Das konnte sich A AMD nicht leisten und B ist die Optimierung schwierig, wenn 90% der Titel Anti-AMD Software namens Gameworks einsetzen.

Die DX11 Optimierung hat aber nichts mit der DX12 Leistung von Nvidia zu tun. Nvidia unterstützt nämlich schlicht einige DX12 Features nicht.

Ich versuche es, aber "informieren" ist etwas komplett anderes als "nicht interessieren".
Ich schreibe diese Nachricht hier um die Leute zu erreichen die sich interessieren, aber nicht informiert haben bzw. dafür keine Zeit haben.

jokergermanydevu

Das ist Schwachsinn. Ja, die AMD Treiber waren nicht so optimiert. Das konnte sich A AMD nicht leisten und B ist die Optimierung schwierig, wenn 90% der Titel Anti-AMD Software namens Gameworks einsetzen.


Du bestätigst also gerade meinen "Schwachsinn"? Über die Gründe dafür habe ich ja keine Wertung gegeben.
Wenn wir aber darüber objektiv reden wollen, dann vergisst du, dass AMD und Nvidia sich in einem Konkurrenzkampf befinden. Es ist daher völlig legitim sich in eine bessere Position rücken zu wollen. Entwickler werden nicht dazu gezwungen Gameworks zu nutzen. Zudem ist es nicht Nvidias verschulden, wenn AMD Geldprobleme hat. Auch ist es nicht Sorge des Kunden, dass AMD mit Gameworks Probleme hat. Nach dieser Argumentation wäre ja Intel auch der Böse, weil AMD mit ihrer Prozessorsparte nicht zurechtkommt.

Zumal AMD doch das gleiche mit TressFX versucht. Außerdem ist ein großer Teil von Gameworks mittlerweile für die Öffentlichkeit verfügbar.

jokergermanydevu

Die DX11 Optimierung hat aber nichts mit der DX12 Leistung von Nvidia zu tun. Nvidia unterstützt nämlich schlicht einige DX12 Features nicht.


Habe ich auch nicht anders behauptet. Mir ging es schlicht darum, dass Nvidia für die DX12 Leistung angeprangert wurde. Es aber außer Acht gelassen wird, dass man vor DX12 mit Nvidia bisher besser gefahren ist, da AMD hier schlechter abgeschnitten hat. Und man genauso AMD anprangern könnte für ihre bisherige Leistung.
Ich kenne die Problematik um die fehlenden Asynchronous Compute Shader. Allerdings stehen tausende Spiele mit DX11 und tiefer, die bei Nivida besser optimiert sind, gegenüber die ersten zwei oder drei DX12-Spielen, die mit AMD besser laufen. Gemeckert wird aber über Nvidia, obwohl der Nachteil vorerst nur auf dem Papier besteht. Bis DX12 wirklich zum Standard neuer Spiele geworden ist und dank fehlender Asynchronous Compute Shader zu einem praktischen Nachteil wird, ist die 980 Ti doch längst Altmetall.
Die 9xxer Reihe von Nvidia mag zwar nichts für die Zukunft sein. Das Gleiche lässt sich aber auch für die Fury sagen, denn AMD hat es immernoch nicht geschafft HDMI 2.0 zu integrieren. Damit ist die Nutzung eines UHD TVs mit 60hz nicht möglich.

jokergermanydevu

Ich schreibe diese Nachricht hier um die Leute zu erreichen die sich interessieren, aber nicht informiert haben bzw. dafür keine Zeit haben.


Es ist schon naiv zu glauben, du könntest die Kaufabsicht von Menschen zu Gunsten AMDs ändern, obwohl Nvidias Gameworks die grafische Qualität eigentlich aufwertet.

Wenn du schon Leute informieren willst, dann über den Mist, den Nvidia mit der 970 gemacht hat mit dem 3,5-GB-Problem. Dieser Aspekt ist wenigstens gerechtfertigt.


jokergermanydevu

Das ist Schwachsinn. Ja, die AMD Treiber waren nicht so optimiert. Das konnte sich A AMD nicht leisten und B ist die Optimierung schwierig, wenn 90% der Titel Anti-AMD Software namens Gameworks einsetzen.

Marcoschi

Zumal AMD doch das gleiche mit TressFX versucht.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35464-amd-tressfx-und-nvidia-hairworks-im-detail.html

Um die Haare realistisch zu berechnen setzt NVIDIA allerdings, anders als AMD, nicht auf eine offene GPGPU-Schnittstelle, sondern auf das Hauseigene PhysX.

Marcoschi

Außerdem ist ein großer Teil von Gameworks mittlerweile für die Öffentlichkeit verfügbar.

jokergermanydevu

Die DX11 Optimierung hat aber nichts mit der DX12 Leistung von Nvidia zu tun. Nvidia unterstützt nämlich schlicht einige DX12 Features nicht.

Marcoschi

Das Gleiche lässt sich aber auch für die Fury sagen, denn AMD hat es immernoch nicht geschafft HDMI 2.0 zu integrieren. Damit ist die Nutzung eines UHD TVs mit 60hz nicht möglich.

jokergermanydevu

Ich schreibe diese Nachricht hier um die Leute zu erreichen die sich interessieren, aber nicht informiert haben bzw. dafür keine Zeit haben.



Sind sie ja auch
http://jokergermany.bplaced.net/nbberatung/shopNoteBeratung.php#Marktmissbrauch
Die (viel zu klein) ausgefallenen Milliardenstrafen bestätigen dies

Die Entwickler von GameWorks dürfen gar nicht für AMD optimieren.
Nvidia hat absichtlich stellen im Code eingebaut um AMD zu blockieren




TressFX können beide Gleichberechtigt nutzen!


Auch wenn ich hierfür gerne Quellen sehen würde, ist es doch seltsam, dass sie nicht gleich alles veröffentlichen

Marcoschi

Habe ich auch nicht anders behauptet. Mir ging es schlicht darum, dass Nvidia für die DX12 Leistung angeprangert wurde. Es aber außer Acht gelassen wird, dass man vor DX12 mit Nvidia bisher besser gefahren ist, da AMD hier schlechter abgeschnitten hat. Und man genauso AMD anprangern könnte für ihre bisherige Leistung.


Mag sein, liegt aber A in der Vergangenheit und B liegt das an den Problemen die DX11 bereitet, wenn man nicht für jedes Spiel einzeln den Treiber anpasst.


Schwachsinn, dafür gibt es DisplayPort.
Marcoschi

Es ist schon naiv zu glauben, du könntest die Kaufabsicht von Menschen zu Gunsten AMDs ändern, obwohl Nvidias Gameworks die grafische Qualität eigentlich aufwertet.


Wo wertet denn Gameworks die grafische Qualität auf? oO


Das ist blos eine Vermutung. AMD hat dafür keine Belege. Ich rede auch nicht von den Gameworks-Entwicklern, sondern Spiele-Entwickler.



Es mag ja sein, dass Nvidia sehr hohe Tesselation Stufen verwendet, dies ist aber bereits Jahre bekannt und AMD hätte sich längst an die Gegebenheiten anpassen können. Es ist nicht Nvidias Aufgabe andere Grafikkartenanbieter zu berücksichtigen.


Dann nehme ich das zurück. Das ändert dennoch nichts an der restlichen Aussage.



http://www.overclock3d.net/articles/gpu_displays/nvidia_making_gameworks_source_code_publicly_available/1#
Zugegeben, offiziell erst seit kurzem. Entwickler konnten aber bereits etlichen Zeiten je nach Lizenzmodell Einsicht verlangen, wie ich weiter oben zitiert habe.

Zudem ist es nicht seltsam, denn wie vorhin geschrieben, in einem Konkurrenzkampf möchte man sich vor anderen Mitbewerbern positionien. z.b. indem man nicht alles preisgibt. Völlig normales Verhalten in einer Technologiebranche. Das hat nichts mit Nvidia zu tun. Nur weil AMD komplett offene Schnittstellen bewirbt, muss dass nicht jeder andere Hersteller auch.



Das soll jetzt eine Erklärung für was sein? Dass AMD bisher zu faul und/oder nicht fähig war und es noch immer ist? Denn noch wird DX12 nicht standardmäßig eingesetzt! Ich finde AMDs Vorarbeit zu DX12 ja sehr löblich, dass hilft mir aber bei den aktuell Verwendeten nur wenig.

jokergermanydevu

Die Entwickler von GameWorks dürfen gar nicht für AMD optimieren. Nvidia hat absichtlich stellen im Code eingebaut um AMD zu blockieren

http://www.gamestar.de/hardware/praxis/grafikkarten/3269799/nvidia_gameworks.html

Hauptkritiker an GameWorks ist Richard Huddy, AMDs Chief Gaming Scientist. ... Einen konkreten Beleg für eine unfaire Benachteiligung von Radeons durch GameWorks konnte Huddy jedoch nicht liefern. ..., dass Entwickler-Studios ... den kompletten Source Code verlangen dürfen und so umfangreich analysieren und sowohl für Nvidia- als auch AMD-Grafikkarten optimieren können.

jokergermanydevu

TressFX können beide Gleichberechtigt nutzen!

jokergermanydevu

Auch wenn ich hierfür gerne Quellen sehen würde, ist es doch seltsam, dass sie nicht gleich alles veröffentlichen

jokergermanydevu

Mag sein, liegt aber A in der Vergangenheit und B liegt das an den Problemen die DX11 bereitet, wenn man nicht für jedes Spiel einzeln den Treiber anpasst.

Marcoschi

Das Gleiche lässt sich aber auch für die Fury sagen, denn AMD hat es immernoch nicht geschafft HDMI 2.0 zu integrieren. Damit ist die Nutzung eines UHD TVs mit 60hz nicht möglich.

jokergermanydevu

Wo wertet denn Gameworks die grafische Qualität auf? oO

http://www.gamestar.de/hardware/praxis/grafikkarten/3269799/nvidia_gameworks.html

• VisualFX beinhaltet Grafikeffekte wie die Umgebungsverdeckung HBAO+, die temporale Kantenglättung TXAA, die Schattendarstellung PCSS und HFTS oder auch die bekannte Haar-Simulation HairWorks. • Physik-Teil hier finden sich Simulationen wie PhysX oder die Stoffdarstellung Clothing. • OptiX For Games Ray Tracing simuliert Licht und dessen Verhalten sowie Interaktion mit Objekten realistisch.


Nope, kein Schwachsinn. TVs haben in der Regel keinen Displayport, genauso wenig wie AVRs. Da helfen auch keine Adapter. Es wird maximal nur HDMI 1.4 verwendet und damit lediglich 30Hz, wenn kein HDMI2.0-Funktionalität vorhanden ist.


Du willst mich auf den Arm nehmen oder?





jokergermanydevu

Die Entwickler von GameWorks dürfen gar nicht für AMD optimieren. Nvidia hat absichtlich stellen im Code eingebaut um AMD zu blockieren

jokergermanydevu

Auch wenn ich hierfür gerne Quellen sehen würde, ist es doch seltsam, dass sie nicht gleich alles veröffentlichen

Marcoschi

Zudem ist es nicht seltsam, denn wie vorhin geschrieben, in einem Konkurrenzkampf möchte man sich vor anderen Mitbewerbern positionien. z.b. indem man nicht alles preisgibt. Völlig normales Verhalten in einer Technologiebranche. Das hat nichts mit Nvidia zu tun. Nur weil AMD komplett offene Schnittstellen bewirbt, muss dass nicht jeder andere Hersteller auch.

jokergermanydevu

Mag sein, liegt aber A in der Vergangenheit und B liegt das an den Problemen die DX11 bereitet, wenn man nicht für jedes Spiel einzeln den Treiber anpasst.

Marcoschi

Das Gleiche lässt sich aber auch für die Fury sagen, denn AMD hat es immernoch nicht geschafft HDMI 2.0 zu integrieren. Damit ist die Nutzung eines UHD TVs mit 60hz nicht möglich.

Marcoschi

[quote=jokergermanydevu] Wo wertet denn Gameworks die grafische Qualität auf? oO

http://www.gamestar.de/hardware/praxis/grafikkarten/3269799/nvidia_gameworks.html

• VisualFX beinhaltet Grafikeffekte wie die Umgebungsverdeckung HBAO+, die temporale Kantenglättung TXAA, die Schattendarstellung PCSS und HFTS oder auch die bekannte Haar-Simulation HairWorks.

Marcoschi

• Physik-Teil hier finden sich Simulationen wie PhysX oder die Stoffdarstellung Clothing.

Marcoschi

• OptiX For Games Ray Tracing simuliert Licht und dessen Verhalten sowie Interaktion mit Objekten realistisch.



Wie mit dem damaligen Assassin's Creed Patch, der DX 10.1 entfernte da er angeblich fehlerhaft war und einen unglaublichen Boost für AMD Karten brachte. Ein von Nvidia gesponsertes Spiel...
Oder der Batmangate, wo AA absichtlich für AMD Karten optimsch ausgeschaltet wurde, aber ausgeschaltet wurden die Berechnungen dafür dagegen nicht, dass die AMD Karten es berechnen durften. Ein von Nvidia gesponsortes Spiel...
Oder Ark, der innerhalb einer Woche einen DX12 Patch im September bekommen sollte. Nach dem klar wurde, dass Nvidia Karten unter DX12 ein großes Problem haben, war davon keine Rede mehr. Ein von Nvidia gesponsortes Spiel.
Oder Project Cars und viele andere Nvidia gesponsorten Titel, welche eigentlich einen DX12 Patch erhalten sollten...

Marcoschi

http://www.overclock3d.net/articles/gpu_displays/nvidia_making_gameworks_source_code_publicly_available/1# Zugegeben, offiziell erst seit kurzem. Entwickler konnten aber bereits etlichen Zeiten je nach Lizenzmodell Einsicht verlangen, wie ich weiter oben zitiert habe.


Die Entwickler müssen aber ein NDA unterschreiben, dürfen also über nichts sprechen.
Der jetzt veröffentlichte SourceCode kann ein ganz anderer sein, als der der im closed Source drin ist.
Genauso wie der jetzt veröffentlichte SourceCode noch lange nicht der sein muss, der in Nvidia gesponsorten Titel eingebaut wird...



Und es ist genau das, wovor man die Leute aufklären sollte...
Wäre Ashes of the Singularity ein Nvidia Titel, würde es Asynchronous Shader nicht nutzen, denn Nvidia hat gefordert diese für Nvidia UND AMD aus zu schlaten.
Will man sich wirklich so als Konsumvieh mißbrauchen lassen, dass man eine Holzgrafikkarte hochhält und die Kunden verarscht?
Oder die von dir schon erwähnten 3,5GB statt 4 GB, was Nvidia momentan nur entschärfen kann, da sie jedes Spiel daran anpassen. Sobald das weg ist, war es das...

Marcoschi

Das soll jetzt eine Erklärung für was sein? Dass AMD bisher zu faul und/oder nicht fähig war und es noch immer ist? Denn noch wird DX12 nicht standardmäßig eingesetzt! Ich finde AMDs Vorarbeit zu DX12 ja sehr löblich, dass hilft mir aber bei den aktuell Verwendeten nur wenig.


Der Scherz ist, dass AMD Karten kontinuierlich in Tests zulegen.
Die AMD Karten, die man vor 3 Jahren gekauft hat schlagen heute in der Regel ihre damaligen Nvidia Konkurrenten.
Die Halbwertszeit von AMD Karten ist einfach viel länger.

Marcoschi

jokergermanydevu Schwachsinn, dafür gibt es DisplayPort. Nope, kein Schwachsinn. TVs haben in der Regel keinen Displayport, genauso wenig wie AVRs. Da helfen auch keine Adapter. Es wird maximal nur HDMI 1.4 verwendet und damit lediglich 30Hz, wenn kein HDMI2.0-Funktionalität vorhanden ist.


Nutzt du deinen Computer am TV?


Du willst mich auf den Arm nehmen oder?


Dafür gibt es Alternativen



Physx ist genau der Grund dafür, warum wir keine wirkliche Gameplayverändernde Physik haben.
Denn wenn es nicht auf allen Systemen läuft, kann es nur EyeCandy sein. Vielen Dank Nvidia..



Ray Tracing gibt es nur dank Gameworks...

jokergermanydevu

... Assassin's Creed ... Batmangate ... Ark ... Project Cars .. viele andere ...


Nichts für Ungut, aber weder du noch ich haben Kenntnisse über interne Geschäftsprozesse. Es wird immer irgendein Spiel geben, wo AMD oder Nvidia Mist bauen. Es bringt auch nichts Mutmaßungen anzustellen, da wir nicht wissen können, ob die Schuld AMD, Nvidia oder den Entwickler-Studios zuzuschreiben ist.

jokergermanydevu

Die Entwickler müssen aber ein NDA unterschreiben, dürfen also über nichts sprechen.


Das ändert ja nichts an den internen Abläufen. Die Entwickler-Studios haben also dennoch die Möglichkeit Anpassungen für beide Hersteller zu machen.

jokergermanydevu

Und es ist genau das, wovor man die Leute aufklären sollte...


Vor was möchtest du denn nun warnen?
- Dass Nvidia den Entwickler-Studios Libraries mit GameWorks zur Verfügung stellt um den eigenen Programmieraufwand zu minimieren und verständlicherweise AMD nicht berücksichtigen will?
- Oder dass noch nicht verwendete Asynchronous Compute Shader irgendwann zu keinem Nutzen bei Nvidia führen?
- Oder einfach alles was Nvidia so macht?

jokergermanydevu

Der Scherz ist, dass AMD Karten kontinuierlich in Tests zulegen. Die AMD Karten, die man vor 3 Jahren gekauft hat schlagen heute in der Regel ihre damaligen Nvidia Konkurrenten. Die Halbwertszeit von AMD Karten ist einfach viel länger.


Kann sein, kann ich mich nicht zu äußern. Ich führe keine regelmäßigen Tests durch. Mir ist es auch herzlich egal wer nun wen schlägt. Ich verwende die Karte, die am ehesten meine Wünsche erfüllen kann und das ist zu Zeit Nvidia.

jokergermanydevu

Nutzt du deinen Computer am TV?


Ja, das mache ich. Sogar soweit, dass der UHD-TV mein einziger angeschlossener Bildschirm ist, da man hier noch von dem IPS-Glow und Bleeding aktueller Monitore über 27 Zoll verschont bleibt. Dies ist mit ein Grund, warum ich eine Nvidia Karte mit HDMI2.0 verwende. Vielleicht ändert sich das mit AMD Polaris.

jokergermanydevu

Dafür gibt es Alternativen


Gäbe es die nicht, würden wir auch nicht drüber diskutieren.

jokergermanydevu

Physx ist genau der Grund dafür, warum wir keine wirkliche Gameplayverändernde Physik haben. Denn wenn es nicht auf allen Systemen läuft, kann es nur EyeCandy sein. Vielen Dank Nvidia..


Schiebst du jetzt ernstaft Nvidia die Unfähigkeit der Entwickler-Studios zu?! Nvidia bringt mit PhysX eine mögliche Lösung. Es ist nicht das Problem. Sollen sie doch Havok nutzen oder eine komplette Eigenentwicklung.


Nimm es mir nicht übel, das Ping-Pong Spiel war ja ganz nett. Aber es läuft langsam nur noch darauf hinaus, einzelne Aussagen des jeweils anderen herauszufischen und zu widerlegen. Dass wir beide unterschiedliche Ansichten haben, ist denke ich offensichtlich geworden.



jokergermanydevu

... Assassin's Creed ... Batmangate ... Ark ... Project Cars .. viele andere ...

jokergermanydevu

Die Entwickler müssen aber ein NDA unterschreiben, dürfen also über nichts sprechen.


Ich soll keine Mutmaßungen anstellen und du stellst die Mutmaßung an dass die Entwickler Studios Anpassungen für beide Hersteller machen dürfen, merkst du was?

jokergermanydevu

Ich soll keine Mutmaßungen anstellen und du stellst die Mutmaßung an dass die Entwickler Studios Anpassungen für beide Hersteller machen dürfen, merkst du was?



Tu ich nicht. Ich beziehe mich auf bereits angegebenen Quellen:

dass Entwickler-Studios ... den kompletten Source Code verlangen dürfen und so umfangreich analysieren und sowohl für Nvidia- als auch AMD-Grafikkarten optimieren können. Beweise für eine Manipulation der DLLs oder gezielt der Performance fehlen AMD jedoch und allein, dass die Möglichkeit dafür besteht, reicht für ein Urteil nicht aus. Zudem spricht gegen die Behauptung, dass Nvidia Entwicklern auf Wunsch auch den gesamten GameWorks-Code zur Verfügung stellt und somit Einblick erlaubt.



Desweiteren wird auch das von dir genannte Project Cars angesprochen:

Ebenfalls immer wieder in den Raum geworfen werden Vermutungen über mögliche Zahlungen von Nvidia an Spiele-Entwickler, um die Verwendung von GameWorks zu sichern. Das Gerücht kam etwa letztes Jahr mit dem Start von Project Cars auf, dass auf Radeon-Karten deutlich schlechter lief als auf vergleichbaren Geforce-Modellen. Hier hatte sich schlussendlich aber der Entwickler Slightly Mad Studios selbst zu Wort gemeldet und derlei Gerüchten strikt widersprochen. Man habe weder von AMD noch Nivdia finanzielle Unterstützung erhalten


Dein Kommentar
Avatar
@
    Text