-64°
ABGELAUFEN
Gainward GeForce GTX 570 Phantom für 182,48 €

Gainward GeForce GTX 570 Phantom für 182,48 €

ElektronikAllyouneed Angebote

Gainward GeForce GTX 570 Phantom für 182,48 €

Preis:Preis:Preis:182,48€
Zum DealZum DealZum Deal
Hab grade bei MeinPaket die Gainward GeForce GTX 570 Phantom für 178,58 € + 3,90 € Versand = 182,48€.

Nächster Idealo Preis 264,17€.

Für den Preis muss der Gutscheincode IDEALO8 oder GEIZHALS8 im Warenkorb angegeben werden.

Die Karte ist sicher nicht mehr die jüngste liefert aber nach wie vor eine wirklich gute Grafik. Ich hab die Karte selbst seit 1 1/2 Jahren im Einsatz.
Auch Crysis 3 oder das aktuelle TombRaider läuft mit High Details / Full HD (nur nicht mehr mit Ultra)
Zudem ist sie wirklich schön leise.
Bei PCGames Hardware erhält sie die Note 1,99 (4/2011) und bei bi-tech.net 8/10 Punkten (02/2011).
Auf Amazon vergeben 51 Kunden durchschnittlich eine stattliche 4,5.


Testberichte:
http://www.bit-tech.net/hardware/2011/02/14/gainward-geforce-gtx-570-phantom-review/1
tweakpc.de/har…php
compiware-forum.de/ind…696

9 Kommentare

Leider viel zu teuer!

Für das Geld gibts bereits ne viel schnellere 7870 inkl NeverSettle.

cold. für den preis kriegt man ne 7870, die schneller, neuer und weniger strom verbraucht

Aber ist halt dann auch ne ATI und keine GeForce.
Obd das nun gut oder schlecht ist muss jeder für sich selbst entscheiden.
Für mich käme eine ATI nie in Frage, allein schon wg PhysX..

Das wird ja auch so oft benutzt ne?

Und wenn dann meist nur auf CPU Ebene... lächerliches Argument.

fabsimilian

Aber ist halt dann auch ne ATI und keine GeForce. Obd das nun gut oder schlecht ist muss jeder für sich selbst entscheiden. Für mich käme eine ATI nie in Frage, allein schon wg PhysX..



Für das Geld gibts auch bereits ne GTX 660 und selbst die ist schneller!
Sorry es gibt wirklich gar kein Argument, 180€ für ne Gtx 570 auszugeben :P

Für das gleiche Geld gibt es auch schon eine minimal schnellere GTX 660. Wer's braucht auch mit dem sinnlosen "InGame Bonus Package" für World of Tanks usw.
geizhals.at/de/…660

thesan

Für das gleiche Geld gibt es auch schon eine minimal schnellere GTX 660. Wer's braucht auch mit dem sinnlosen "InGame Bonus Package" für World of Tanks usw.http://geizhals.at/de/?cat=gra16_512&sort=p&bpmax=&filter=+Liste+aktualisieren+&asuch=&asd=on&v=e&plz=&dist=&xf=1439_GTX+660

bekommste bei der gtx 660 doch auch

Wattebaellchen

Das wird ja auch so oft benutzt ne? Und wenn dann meist nur auf CPU Ebene... lächerliches Argument.



Wir wollen doch sachlich bleiben..
PhysX ist ist immer auf einer Nvidia GPU.
Es gibt lediglich Middleware für andere Grakas die dann auf der CPU rennt wie Havok von Intel. Ist aber in keinem Fall vergleichbar.
Wenn ihr mal Spiele wie Borderlands 2, Arkham City, Mafia 2 usw auf einem ATI oder nicht PhysX System gespielt habt und danach mit einer PhysX fähigen Karte will man nicht mehr was anders. Wirklich beeindruckend.

Die GTX 570 braucht in der Tat mehr Strom als eine 660er, hat aber auch höhere anti-aliasing raten und kann höhere Auflösungen besser ansteuern ohne in Szenen mit vielen Polygonen/Vercites so schnell in die Knie zu gehen wie eine 660er.
Andererseits schafft eine 660er höhere Anisotropische Filter Raten und liefert so ein "weicheres" Bild.
Dennoch würde ich eine GTX570 er 660er vorziehen.
Wenn dann zu einer 660Ti greifen, welche aber erst bei 234€ (laut idealo) anfangen, was aber immerhin fast 30% mehr sind.

Du hast keine Ahnung

Physx ist eine Physikengine die in vielen Spielen verwendet wurde (Havok hat momentan definitv Oberwasser) und in den meisten Fällen lief eh alles über die CPU.

Manche Spiele die Physx benutzt haben, hatten dann Effekte die nur über die Grafik berechnet werden konnten, was auch locker mit ner AMD gehen würde... aber Nvidia wills ja für sich haben und das kommt immer weniger gut an.

Das kannst du dir bald eh alles in die Haare schmieren, da sowohl die neue Playstation als auch die neue Xbox mit AMD Hardware ausgestattet werden, also werden Spieleentwickler sich an den standarisierten Möglichkeiten der AMD GPUs orientieren, statt auf den Nvidia Murks zu setzen.

Dein Kommentar
Avatar
@
    Text