[Mindfactory Gruppe] XFX Radeon R9 Fury X jetzt noch günstiger.
293°Abgelaufen

[Mindfactory Gruppe] XFX Radeon R9 Fury X jetzt noch günstiger.

43
eingestellt am 16. Aug 2016
Die Mindfactory Gruppe hat den Preis jetzt nochmal von 419€ auf 399€ gesenkt.
Am beste zu Vergleichen ist die Karte mit der GTX 980 ti von NVIDIA - aber das könnt ihr alle aus meinem letzten Deal auslesen.

Am günstigsten ist die R9 Fury X bei Drive City mit 402,49€ - wer bei mindfactory zwischen 0 und 6 Uhr bestellt zahlt keinen Versand, somit 399€

43 Kommentare

Verfasser

Hier könnt ihr alles auslesen

Alter Deal

Ah, jetzt kommt AMD in die Puschen

Höt-chen von mir.

Ich bin jetzt nicht der AMD-Hater, hatte selber über Jahre hinweg ATIs und AMDs wegen dem PLV, aber wenn man schon so viel Geld ausgibt, dann kann man lieber für einen Zehner mehr direkt zur GTX 1070 greifen.

350 Watt TDP? Hot

NOT

Verfasser

Edewechter

Ich bin jetzt nicht der AMD-Hater, hatte selber über Jahre hinweg ATIs und AMDs wegen dem PLV, aber wenn man schon so viel Geld ausgibt, dann kann man lieber für einen Zehner mehr direkt zur GTX 1070 greifen.


Bei nem 10er mehr kriegst nen günstigen kühler von Gainward oder ein Referenzdesign.. und mit DX12 und besonders Vulkan ist die Fury X der 1070 weit voraus (bis zu 50%)..
durch den HBM Speicher wird die Grafikkarte bei höher Auflösung immer besser (im Vergleich zu anderen Karten)...

Ist jedem sich selbst überlassen.. ich mag AMD mehr.

Guter Deal! Sehr Hot!
Allerdings werd ich bei sowas trotzdem sauer...
Toshiba "Q"300 steht zwar für Qualität 300, allerdings sind die Versandkosten erst bei einem Einkaufswert von 100€ entfallen.
Da das Produkt nur 99€ kostet, wollte uns der Anbieter hier ein wenig hinters licht führen und wir sollen noch, wie der Anbieter schreibt, "etwas dazulegen".

Fazit:
Ich denke, dass der Verkäufer ein Mitarbeiter von Toshiba ist, aufgrund des dazulegens einer weiteren Ware.

Mit freundlichen Grüßen

Stefanski Parakusja Pinto Gyula
Schnäppchenbewerter
Qualität und Know-How seit 1840

Edewechter

Ich bin jetzt nicht der AMD-Hater, hatte selber über Jahre hinweg ATIs und AMDs wegen dem PLV, aber wenn man schon so viel Geld ausgibt, dann kann man lieber für einen Zehner mehr direkt zur GTX 1070 greifen.


Edewechter

Ich bin jetzt nicht der AMD-Hater, hatte selber über Jahre hinweg ATIs und AMDs wegen dem PLV, aber wenn man schon so viel Geld ausgibt, dann kann man lieber für einen Zehner mehr direkt zur GTX 1070 greifen.





BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA
BLA BLA

Edewechter

Ich bin jetzt nicht der AMD-Hater, hatte selber über Jahre hinweg ATIs und AMDs wegen dem PLV, aber wenn man schon so viel Geld ausgibt, dann kann man lieber für einen Zehner mehr direkt zur GTX 1070 greifen.


Ja und Vulkan und dx12 ist ja so weit verbreitet. Und wer sagt dir das Nvidia in Zukunft seine Treiber nicht auch besser an dx12 und Vulkan anbinden wird?

[Irgendwas mit Asnyc Shader]
[Irgendwas mit Vulcan]
[Irgendwas mit Firestrike]
[Irgendwas mit Firestrike Nicht!]
[Irgendwas mit DX12]
[Irgendwas mit Nvidia verarscht seit Jahren Kunden]
[Irgendwas mit ...]

Bearbeitet von: "mactron" 16. Aug 2016

Verfasser

Edewechter

Ich bin jetzt nicht der AMD-Hater, hatte selber über Jahre hinweg ATIs und AMDs wegen dem PLV, aber wenn man schon so viel Geld ausgibt, dann kann man lieber für einen Zehner mehr direkt zur GTX 1070 greifen.



Das hat nur wenig mit den Trebern zu tun, sonder generell wie eine GPU funktioniert. Stichwort Async Shader. Vulcan und DX12 ist die Zukunft.

mactron

[Irgendwas mit Asnyc Shader][Irgendwas mit Firestrike][Irgendwas mit Firestrike Nicht!][Irgendwas mit DX12][Irgendwas mit Nvidia verarscht seit Jahren Kunden][Irgendwas mit ...]



ich würde noch einfügen: unter 400€ schlagen wir alle zu, Fury X und 1070

SwubzzDa ist wahrscheinlich so ein 17-jähriger kleiner Junge, der sich im 1. Lehrjahr befindet. Angestellt als IT-ler und sich am Nachmittag mit seinen beiden Schwestern rumkämpfen muss.

mMn ist die Karte zu teuer. Für 350€ ne Überlegung wert, bei 400€ schlagen nur AMD Fanboys zu.

Verfasser

Lorgoyf

mMn ist die Karte zu teuer. Für 350€ ne Überlegung wert, bei 400€ schlagen nur AMD Fanboys zu.


Für 349€ kriegst ne normale Fury, die man mit Glück (shader freischaltung und/oder OC) auf das Level einer Fury X bekommt.

Lorgoyf

mMn ist die Karte zu teuer. Für 350€ ne Überlegung wert, bei 400€ schlagen nur AMD Fanboys zu.



Dann hast Du aber keine Wasserkühlung, wie bei dieser Karte

Edewechter

Ich bin jetzt nicht der AMD-Hater, hatte selber über Jahre hinweg ATIs und AMDs wegen dem PLV, aber wenn man schon so viel Geld ausgibt, dann kann man lieber für einen Zehner mehr direkt zur GTX 1070 greifen.


Ob du jetzt die AIO-Kühllösung mit der summenden/piependen Pumpe oder die Referenzkarte erwähnst.... Bei der Referenzkarte kann man wenigstens die Lüftergeschwindigkeit via Afterburner regeln.
Ich finde, dass das Argument mit der Vulkan-API nicht besonders zieht. Klar, sehr gute Leistungszuwächse... bei einem Spiel. Das war doch damals mit Mantle genau so, es gibt nur eine Handvoll Engines und somit Spiele, die diese low level api unterstützen.
Im ComputerBase-Test-Parcours liegt die 1070 in FHD gute 16 % vor der Fury X, unter WQHD sind es 12 %.
Der Stromverbrauch ist dann natürlich auch wieder ein Grund sich für die GTX 1070 zu entscheiden. Hier verbraucht die Fury X rund 50 % mehr. Nicht vernachlässigbar, wie ich finde.
Quelle: GeForce GTX 1070 im Test : Effizient viel Leistung zum hohen Preis

Verfasser

Edewechter

Ob du jetzt die AIO-Kühllösung mit der summenden/piependen Pumpe oder die Referenzkarte erwähnst.... Bei der Referenzkarte kann man wenigstens die Lüftergeschwindigkeit via Afterburner regeln.Ich finde, dass das Argument mit der Vulkan-API nicht besonders zieht. Klar, sehr gute Leistungszuwächse... bei einem Spiel. Das war doch damals mit Mantle genau so, es gibt nur eine Handvoll Engines und somit Spiele, die diese low level api unterstützen.Im ComputerBase-Test-Parcours liegt die 1070 in FHD gute 16 % vor der Fury X, unter WQHD sind es 12 %.Der Stromverbrauch ist dann natürlich auch wieder ein Grund sich für die GTX 1070 zu entscheiden. Hier verbraucht die Fury X rund 50 % mehr. Nicht vernachlässigbar, wie ich finde.Quelle: GeForce GTX 1070 im Test : Effizient viel Leistung zum hohen Preis



Damit gebe ich dir uneingeschränkt recht, für leute die bereits einen FreeSync Monitor haben und dadurch AMD vorziehen, ist der Preis aber durchaus inordnung.
Danke für deinen konstructiven beitrag.

Edewechter

Ich bin jetzt nicht der AMD-Hater, hatte selber über Jahre hinweg ATIs und AMDs wegen dem PLV, aber wenn man schon so viel Geld ausgibt, dann kann man lieber für einen Zehner mehr direkt zur GTX 1070 greifen.



sogut wie alle zukünftigen aaa spiele werden mit dx12 oder vulcan erscheinen!
allein schon weil alle etablieretn grafikengines es unterstützen
außerdem muss man sich nur mal die letzten aaa spielen anschauen
jetzt schon hat der großteil dx12

Hab mir die Fury nitro letztens für 299 auch bei MF geholt.
Hat schreckliches Spulenfiepen und der Vram reicht nicht für Nightmare Texturen bei DOOM.
Das mit dem Ram könnte ich bei einer 300€ Karte Akzeptieren (spulenfiepen natürlich überhaupt nicht) aber bei einer 400€ Karte tu ich mir da schon schwer!

die summende/piepende Pumpte ist aber behoben, war nur in den ersten Revisionen der Fall.

ich warte noch auf die 490x modelle von amd.

Avatar

GelöschterUser209738

Genau die richtige Karte um die Alpha von Ashes of Singularity zu zocken Der Rest holt sich nvidia.

Bearbeitet von: "Nickelig" 16. Aug 2016

Edewechter

Ich bin jetzt nicht der AMD-Hater, hatte selber über Jahre hinweg ATIs und AMDs wegen dem PLV, aber wenn man schon so viel Geld ausgibt, dann kann man lieber für einen Zehner mehr direkt zur GTX 1070 greifen.



Vor einem dreiviertel Jahr als die 980Ti in den ersten Dx12-Tests langsamer geworden sind statt schneller hat nVidia uns optimierte Treiber versprochen. Ich warte immer noch. Wann kommt diese Zukunft?

Mir persönlich - auch als jemand der generell AMD bervorzugt - mit den 4GB (ja, auch wenns HBM ist) einfach nicht zukunftssicher genug. Mit 8GB wäre ich jetzt seeeehr schwach geworden.
Mal gucken was in nächster Zeit noch von AMD kommt, spätestens zu BF1 würde ich mir eigentlich schon gern einen 144Hz WQHD Monitor mit FreeSync kaufen und das gerne in Verbindung mit einer Karte, die auch die nötigen FPS auf den Monitor zaubert.



Also, ich versuch dir mal den Unterschied zwischen den APIs zu erklären.
EA Games / DICE hat alle großen Grafikhersteller um eine neue API gebeten, weil DX11/OpenGL nicht so geil sind.
AMD sagte "Klar machen wir", Nvidia hat gar nichts gemacht.
Daraufhin wurde Mantle erschaffen, eine solide AMD API die in BF4 z.B. einen guten Mehrwert bot.
Mantle wurde auf lange sicht aber wieder verworfen und eingestellt, da etwas viel größeres anstand, nämlich Vulkan, eine Queloffene API die als ein neuer Standard für alle Hersteller gelten würde. Mit Mantle hat man aber viel Erfahrungen gesammelt und diese auch in die Arbeit für das Vulkan Konsortium der "Khronos Group" einfließen lassen. Denn Vulkan basiert quasi auf Mantle. Der Vorteil an Vulkan ist, die API ist auch mit Windows 7 und Windows 8 kompatibel,nicht wie DX12 lediglich auf Windows 10 lauffähig. Ansonsten ist es eigentlich egal ob Vulkan oder DX12, denn beide sind in der Lage von der GCN-Architektur stark zu profitieren, die AMD seit 2011 konsequent weiterenteickelt hat. Beide APIs profitieren von den Async Compute Units auf den AMD-Karten, welche Nvidia bis heute nicht auf ihren Karten verbaut hat. Da aktuelle Spielekonsolen mit AMD APUS versehen sind, verfügen auch die über die GCN-Architektur und sind damit fähig von den neuen APIs zu profitieren. Deshalb wird ein Umschwung auf DX12/Vulkan nicht mehr all zu lange dauern, denn die Konsolen haben einen großen Einfluss auf die Spielebranche und Microsoft verteilt Windows 10 und damit DX12 an jeden der es nicht will.


Vulkan hat sich noch nicht groß verbreitet (Welch ein Wunder, den Treiber gibts auch erst seit 2016), aber DX12 kommt mit allen großen Titeln die dieses Jahr noch anstehen und das wird nicht aufhören sondern mehr werden. Viele ältere Spiele werden gerade auf DX12 nachgepatched und viele Entwickler warten auf ihre Gameengine (UE4 z.B.) dass diese mit DX12 Kompabilität nachgepatcht wird.

Bearbeitet von: "chillerholic" 16. Aug 2016

MSI R9 Nano verkaufen und auf die Fury X wechseln? Macht das bei WQHD einen spürbaren Unterschied?
Die Nano soll eh nicht ewig bleiben, aber glaube irgendwie dass die durch ihre winzigen Maße nen besseren Werterhalt hat bis die 490x kommt. Oder was meint ihr?

Verfasser

tiMon

MSI R9 Nano verkaufen und auf die Fury X wechseln? Macht das bei WQHD einen spürbaren Unterschied?Die Nano soll eh nicht ewig bleiben, aber glaube irgendwie dass die durch ihre winzigen Maße nen besseren Werterhalt hat bis die 490x kommt. Oder was meint ihr?


Nano und Fruy X sind der gleiche chip.. bei der Fury X nur höher getaktet... macht absolut keinen Sinn, das sind höchstens 3-4Fps unterschied.
Bearbeitet von: "SwubzzDa" 16. Aug 2016

SwubzzDa

Nano und Fruy X sind der gleiche chip.. bei der Fury X nur höher getaktet... macht absolut keinen Sinn, das sind höchstens 3-4Fps unterschied.


Quatsch mit Soße, es geht nicht um die 50 Mhz höheren Takt, sondern die ganz andere Konfiguration der Karten.
256 \x09vs 224 Texture Mapping Units.
4,096 vs \x093,584 Shading Units.
64 vs 56 Compute Units.
Die Nano hat nur einen halb so hohen Stromverbrauch und viel weniger Leistung weil sie eben nicht identisch mit einer Fury X ist!

Nano Chip: Fiji XT CA
Fury Chip: Fiji Pro
Fury X Chip: Fiji XT C8
Bearbeitet von: "chillerholic" 16. Aug 2016

SwubzzDa

Nano und Fruy X sind der gleiche chip.. bei der Fury X nur höher getaktet... macht absolut keinen Sinn, das sind höchstens 3-4Fps unterschied.




Falsch. Die R9 Nano hat genau wie die Fury X 4096 Stream Prozessoren !
Der Chip der R9 Nano ist eine extrem auf Volt gebinnte Variante des vollen Fiji Chips der Fury X.

Siehe auf der AMD seite:
amd.com/de-…/r9
Bearbeitet von: "souldk" 16. Aug 2016

evergrace

Und wer sagt dir das Nvidia in Zukunft seine Treiber nicht auch besser an dx12 und Vulkan anbinden wird?


Die können da noch so viel optimieren, selbst die neue Titan X und 1080 hat keine Async Compute Units eingebaut.

souldk

Falsch. Die R9 Nano hat genau wie die Fury X 4096 Stream Prozessoren !Der Chip der R9 Nano ist eine extrem auf Volt gebinnte Variante des vollen Fiji Chips der Fury X.Siehe auf der AMD seite:http://www.amd.com/de-de/products/graphics/desktop/r9



Hast offenbar Recht, hab mich da wohl geirrt, war immer der Meinung die Nano hätte quasi einen Fury / beschnittenen Fury X Chip.
computerbase.de/the…te/
Wie kommen aber die 10%-14% Differenz zu stande, wenn es nur die 5% mehr GPU-Takt sind?
Bearbeitet von: "chillerholic" 16. Aug 2016

chillerholic

Wie kommen aber die 10%-14% Differenz zu stande, wenn es nur die 5% mehr GPU-Takt sind?



Das liegt in der Limitierung durch das geänderte Powerlimit begründet. Fiji ist da ähnlich wie Polaris. Der Takt sagt nicht so viel aus. Bestimmend ist das Powerlimit und somit auch in gewissem Sinne die Volt.
Die R9 Nano könnte mit mehr Stromanschlüssen und höheren Powerlimit die Fury X vermutlich übertrumpfen, dank des extrem gebinnten Chips. Im Overclocking versteht sich.
Da es aber keine Nano mit mehr als einem Achtpin gibt, werden wir das leider nie sehen ...

Habe bei 420 damals zugeschlagen.

Weder die Pumpe gluckert noch gibts sonst irgendwelche Probleme.
Dank Sapphire Trixx lässt sich die Lüfterspeed anpassen und somit rennt die Karte mit 4-5 % im Idle und Max bei 25.

Wird eigentlich nie wärmer wie 60 Grad trotz "Silent" Einstellung.

War aber nicht so einfach in meinem Nanoxia unterzubringen, da mein Alpenföhn Himalaya 2 so groß ist und der Radiator nicht oben an den Deckel gepasst hat.

Kein Vergleich zur alten Sapphire 7970 OC Standheizung.

Bearbeitet von: "Akchosen" 16. Aug 2016

chillerholic

Also, ich versuch dir mal den Unterschied zwischen den APIs zu erklären.



Alles gut und richtig bis auf die Prognose.

Wenn du mehr als die Hälfte deines Marktes mit der Umstellung auf Vulkan ausschließt, wirst du nicht für Vulkan programmieren. Ist einfach so.
Man kann nicht nur danach gehen was besser ist oder was effizienter rechnet sondern muss auch gucken was der Markt verlangt. Und der sagt laut Steam Survey Stand Juli 2016 57% Nvidia und 25% AMD.

chillerholic

Also, ich versuch dir mal den Unterschied zwischen den APIs zu erklären.



Ja das ist so, aber zum einen ist es nicht AMD die Vulkan an sich gefordert haben und zum anderen ist es eher der OEM-Markt der die Masse bestimmt und nicht wir Bastler. Was mich wirklich immer richtig stört bei AMD ist, dass sie es jedesmal verka***** einen vernünftigen Produktlunch zu machen. Ich selbst hab zwar auch ne Asus Rog Matrix 7970 und bereue den kauf nicht, aber rein vom Marketing und der Leistungsklasse schiele ich schon auf ne 1070/1080, aber werde auf Vega warten.

Jo Nvidia ist geldgeil, scheiße und teuer.
Das können sie aber nur sein, solange AMD es nicht packt in Sachen Effizienz, Leistung oder Preis schlagkräftige Argumente zu liefern.

Die 480 war wieder so ein Ding. Schön Hype generieren, dann die Ernüchterung, es gibt zwei Versionen, und nur die schlechte Version wird günstig. Dann keine Custom Designs.
Währenddessen kann Nvidia sich schön auf der (überteuerten) 1070 ausruhen und anschließend ganz gelassen die 1060 mit zig Custom Designs rausbringen die mal wieder teurer, aber auch kühler und effizienter ist.

shreebles

Alles gut und richtig bis auf die Prognose.Wenn du mehr als die Hälfte deines Marktes mit der Umstellung auf Vulkan ausschließt, wirst du nicht für Vulkan programmieren. Ist einfach so.



Du vergisst, dass auch Nvidia nicht um DX12 und Vulkan herum kommt. Über kurz oder lang gibt es halt für alle neuen und viele alten Spiele DX12/Vulkan Support. Nvidia schneidet hier einfach so schlecht ab, weil sie sich nicht mehr auf ihren besseren DX11 Treiber verlassen können. Bisher musste AMD immer mehr GFLOPS auf die Karten hauen weil ihr DX11-Treiber scheiße war. (Vergleich R9 390 5,120 GFLOPS vs GTX970 3,494 GFLOPS) Jetzt sieht man, dass Nvidia auch nur mit Wasser kocht und deren Karten unter DX12 halt keine überschüssige Rechenpower durch Async Shading in FPS wandeln kann, sondern wegen der niedrigeren GFLOPs und fehlenden AC-Einheiten auf einmal schlechtere Ergebnisse liefert als unter DX11. AMDs DX11-Treiber hat einen zu großen CPU-Overhead und DX11 war nur für synchrones Arbeiten ausgelegt, das Problem gibt es bei DX12/Vulkan nicht mehr und auf einmal schließt AMD von hinten auf. Es ist total egal wie die Marktanteile sind, Nvidia kann Programmierer schwer davon abhalten jetzt DX12 und Vulkan in ihre Spiel einzubauen. Die müsssen halt aktuelle Technologien verwenden. Man schließt Nvidia ja auch nicht aus, Vulkan ist mit Nvidia kompatibel, die sind ja Teil des Konsurtiums (Apple ist der Einzige der sich weigert), die sind nur einfach seit Jahren nicht mit der Zeit gegangen. Die 7970 von YankieVans gibt es seit 2011 und die hat schon GCN 1.0 und eine AC-Einheit gehabt. Seit 2011 hat sich AMD auf neue Technologien vorbereitet und ihre GPU-Architektur an die Zukunft gerichtet. Bei Nvidia ist in der Hinsicht einfach Stillstand. Wie gesagt, egal ob DX12 oder Vulkan AMD performt bei beiden viel besser als unter DX11. Selbst wenn sich Vulkan nicht durchsetzen sollte, DX12 wird der neue Standard, ob Nvidia das gefällt oder nicht.

YankieVans

Ja das ist so, aber zum einen ist es nicht AMD die Vulkan an sich gefordert haben und zum anderen ist es eher der OEM-Markt der die Masse bestimmt und nicht wir Bastler.


Das ist richtig, der OEM Markt macht den meisten Umsatz und ist der wichtigste Kunde. Deshalb hat AMD auch Polaris vor Vega vorgezogen (Das war halt eine reine Marketingentscheidung die ich AMD aufgrund ihrer finanziellen Situaltion auch nicht ankreiden kann, die brauchen halt Kohlen). Aber auch der OEM-Markt hat keine Gewalt darüber, welche neuen APIs auf den Markt kommen bzw ob Hersteller DX12 Support einbauen. Warum sollten sie auch, DX11 Support wird es ja wohl auch weiterhin geben.

YankieVans

Ja das ist so, aber zum einen ist es nicht AMD die Vulkan an sich gefordert haben und zum anderen ist es eher der OEM-Markt der die Masse bestimmt und nicht wir Bastler.



Ja deswegen warte ich auch auf Vega, zumal ich hoffe das es ähnlich wie bei ner 7970 laufen wird, das die Leistung mit zunehmender Treiberanpassung steigt (mittelfristig) und nicht wie man in Test so ließt sinkt wie bei Nvidia-Karten aus der gleichen Generation. Das stimmt mit dem OEM-Markt, daher auch die Anmerkung das nicht AMD Vulkan gefordert hat sondern die Publisher/Entwickler. Hier ist AMD auch frühzeitig den richtigen Weg mit Mantel gegangen, das zahlt sich anscheinend aus. ;-)

YankieVans

Das stimmt mit dem OEM-Markt, daher auch die Anmerkung das nicht AMD Vulkan gefordert hat sondern die Publisher/Entwickler. Hier ist AMD auch frühzeitig den richtigen Weg mit Mantel gegangen, das zahlt sich anscheinend aus. ;-)



Bisher unter DX11 war es für die Entwickler ja auch ein Rätselraten was am Ende raus kommt, mit quelloffenen APIs wie Vulkan gibt es das Problem nicht mehr. Jeder Entwickler der darauf verzichtet, schießt sich ja selber ins Bein. Die Entwickler und Publisher sind also an einer Durchsetzung von Vulkan interessiert. Zumal Vulkan auch gleich eine Linuxunterstützung mit daher bringt und sich auf Linux deshalb als eine OpenGL überlegene API durchsetzen wird. Bisher war es ja nur Valve die DX11 auf Linux portiert haben, aber sobald die auf Vulkan umspringen um den Linuxmarkt mit Spielen zu füttern, läuft das eh von ganz alleine. Ich warte auch auf Vega, so viel Zeit muss sein. Ich kauf sicher in 2016 keine Karten mehr ohne Async Compute.
Bearbeitet von: "chillerholic" 16. Aug 2016

Hab die Kommentare jetzt nit gelesen, aber auch von meiner Seite aus nen random Flame:

Wer gibt 400 Euro für ne Fury aus, wenn es für 400 ebenso eine Ti mit Top Kühler gibt und vereinzelt auch schon ne 1070 für 400 glatt zu haben ist?

Dein Kommentar
Avatar
@
    Text