Erster Test des R600

- OCinside.de PC Forum
https://www.ocinside.de

-- News
https://www.forum-inside.de/forums.cgi?forum=8

--- Erster Test des R600
https://www.forum-inside.de/topic.cgi?forum=8&topic=1586

Ein Ausdruck des Beitrags mit 46 Antworten ergibt bei 3 Antworten pro Seite ca. 16 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 79.83 Gramm Papier.


-- Veröffentlicht durch Dodger am 15:58 am 12. April 2007

Mal ein paar Bilder

Ich glaube, die Karte ist größer als 65nm. :lol:


-- Veröffentlicht durch BlackHawk am 9:49 am 20. März 2007

Also bei Guru3D im Cebit Artikel (AMD/ATI Bereich) steht folgendes:


Oy! Even worse! I had a couple of meetings with board-partners like TUL (PowerColor) and HiS Technology. These were supposed to be NDA (disclosed) meetings with a presentation of new R600 based product.

AMD decided to pull the plug on these presentations as they really do not have anything to show. The way it is right now is that the press-briefings have been delayed towards likely the end of April. I still believe we'll see four models of the R600 based chipset. I think one of the biggest issues right now is the low yield levels due to data leakage (successful working products). It was rumored at the CeBIT that at the initial launch only 30,000 products will be available "World-wide"! That's both retail and OEM (which takes easily half of the products).

I so hope that AMD-ATI can get past the problems as we need that high-level of competition in the desktop graphics cards market. This is good for everyone, including NVIDIA.

NDA or not, I quickly had a chance to observe two R600 based PC's at a selection of manufacturers who where kind enough to demo them despite AMD being against it.

The rumors are true, the card photos you have seen are correct and so is power consumption. I can't get you any numbers on performance as it was not available. The new Ruby demo is looking very good for sure though. But for now I honestly do not have anything new to add other than the rumors on the web are pretty much on par.

Right let's move into the actual pictorial. Loads to show, lots to see !


Das sieht mir eher nicht nach 65nm aus sondern, wie oben betont, nach den alten Bildern und Gerüchten. Aber warten wir es mal ab... ;)

mfg BlackHawk


-- Veröffentlicht durch BlackHawk am 0:04 am 19. März 2007


Zitat von Redirion um 19:34 am März 18, 2007
ja das mit 65nm hat sich inzwischen verbreitet! Sehr interessant!


Ist für mich leider nur ein Anzeichen dafür das der R600 vom Verbrauch, der Abwärme und der Leistung her nicht mit nVidia (ausreichend) konkurrieren konnte. Ansonsten hätten sie den R600 auf den Markt gebracht und nicht auf das Kapital verzichten müssen was Ihnen in den letzten Monaten, in nicht geringem Umfang, durch die Lappen gegangen ist.

Das Tragische an der Sache ist das, wenn endlich gescheite Karten von AMD/ATI auf den Markt kommen, nVidia ebenso genug Zeit bis dahin hatte Ihre neuen Versionen vorzubereiten. Das wird für AMD/ATI wirklich ganz ganz schwer...

mfg BlackHawk

(Geändert von BlackHawk um 0:05 am März 19, 2007)


-- Veröffentlicht durch Redirion am 19:34 am 18. März 2007

ja das mit 65nm hat sich inzwischen verbreitet! Sehr interessant!


-- Veröffentlicht durch DocDoom am 23:42 am 17. März 2007

und der inquirer will mal wieder das neuste rausgefunden haben. das die den R600 noch auf 65nm umgestellt haben und daher die verzögerungen kommen.


naja bin ja mal gespannt. solange ich alle games noch ruckelfrei spielen kann is mir das dingen eh wurst.


Mfg
Doc


-- Veröffentlicht durch SPYcorp am 10:20 am 7. März 2007

Ein und der selbe Artikel, nur über 2 Seiten.
Und wirklich Handfeste Infos hat der auch nicht (wie alle anderen bis jetzt auch)
Ich sach einfach mal abwarten. Irgendwas muß die doch können außer Heizen *g
Außerdem hat sowohl ATI als auch Nvidea mit Treiberoptimieren (damit mein ich nicht das 3D Mark gecheate) noch einiges reißen können.


-- Veröffentlicht durch BlackHawk am 21:15 am 6. März 2007

Hier mal ein paar Infos über den R600:

Warum er so spät kommt

und über die (schlechte) Performance

Klingt überzeugend und logisch, würde alle Berichte und Befürchtungen leider bestätigen! :(

mfg BlackHawk


-- Veröffentlicht durch H2OKopf am 13:30 am 5. März 2007

Jo genau.....

Das is vileicht ein Punkt in dem die ATIs besser sind aber ein wirklichen sinn hatt das einfach nicht.


-- Veröffentlicht durch kammerjaeger am 23:23 am 4. März 2007

Richtig. :thumb:
Kein normal denkender Mensch wird eine XTX mit einer GT koppeln, sollten schon in etwa gleiche Specs haben. ;)


-- Veröffentlicht durch Henro am 21:50 am 4. März 2007

naja das ware vorteil ist doch wenn man eine karte hat an die man nicht mehr so leicht rankommt aber eine karte von z.b. der nachfolgeserie mit halbwegs identischen hw-settings (z.B. 16pipes/256bit speicher interface) zusammenstecken kann und somit in der späteren erweiterung bessere möglichkeiten hat an ne passende karte zu kommen.


-- Veröffentlicht durch H2OKopf am 13:49 am 4. März 2007

Aber das Kombinieren von anderen Karten modellen is voll der quatsch. Ich habe mal meine mit einer anderen Langsameren Karte zusammen geschlossen.

Das ende vom lied war das meine Einzelne Graka genauso gut war wie die beiden zusammen. Das Problem is halt das meine Karte so extrem gebremst wird das das absolut keinen sinn macht.

Bei mir is nur der Vorteil das ich nicht sone Masterkarte brauche wie es für die x1900XTX der fall ist.


-- Veröffentlicht durch kammerjaeger am 8:58 am 26. Feb. 2007

Das ja nicht. Aber man kann z.B. eine X1900XT mit einer X1950XT kombinieren o.ä.. Mit NVidia geht das nicht!

Abgesehen davon ist die Wirkung von CF oft besser als bei SLI. Beispiel Prey in 1600x1200:
Da ist der Vorteil eines 7900GTX-SLI ggü. der Single-Karte gerade mal 24%. Bei der X1950XTX sind es locker 81% Vorsprung für das CF-Gespann, d.h. die Mehrleistung des Grafiksystems wird auch fast 1:1 ausgenutzt, obwohl der Rest des Systems gleich bleibt!

Wie Du daher auf nur 70% Effektivität kommst, ist mir ein Rätsel. Mit solchen unsinnigen Behauptungen kommen wir hier nicht weiter!

Natürlich gibt es Spiele, bei denen weder SLI noch CF etwas bringen, aber das liegt dann an der Engine und gilt für CF und SLI gleichermaßen...


-- Veröffentlicht durch skynet am 5:48 am 26. Feb. 2007


Zitat von kammerjaeger um 0:30 am Feb. 25, 2007

Zitat von H2OKopf um 19:07 am Jan. 20, 2007

noch ein vorteil von Crossfire ist das du ach zwei verschiedene Karten nehmen kannst. Das ist eigentlich sinnlos wil die schnellere Kate da nur Ausgebrems wird



Aber dafür bist Du nicht darauf angewiesen, eine identische Karte zu finden, die es am Markt in dem Moment vielleicht nicht mehr gibt, sondern kannst nach Schnäppchen schauen... ;)




yeah, genau...

nen -mal auf die aktuellen karten bezogen- 16 shader kärtchen mit nem 12 shader kärtchen kombinieren... wo dann 70% effektivität rauskommt  @ CF, macht also eine leistung von 16,8 shadern... :lol:

aus 100fps werden dann 105fps... wie sinnig... X-D


-- Veröffentlicht durch kammerjaeger am 0:30 am 25. Feb. 2007


Zitat von H2OKopf um 19:07 am Jan. 20, 2007

noch ein vorteil von Crossfire ist das du ach zwei verschiedene Karten nehmen kannst. Das ist eigentlich sinnlos wil die schnellere Kate da nur Ausgebrems wird



Aber dafür bist Du nicht darauf angewiesen, eine identische Karte zu finden, die es am Markt in dem Moment vielleicht nicht mehr gibt, sondern kannst nach Schnäppchen schauen... ;)


-- Veröffentlicht durch SPYcorp am 20:24 am 24. Feb. 2007

Ist zwar schon 2 Wochen alt, aber hier noch ein paar Pixx (und  Theorien) zum R600

http://overclockers.com/articles1411/

Allein der Lüfter brauch 24 Watt, das ganze Geschoß genehmigt sich warsch. bis zu 240 Watt.
NEIN, sowas kommt mir nicht in den PC. Die sind doch nichtmehr ganz knusper. Die sollten sich mal endlich auch in Richtung Energieeffizienz bemühen.
Und der Monsterlüfter spricht ne deutliche Sprache, was die für ne Wärmeverlustleistung haben wird
Über einen Crossfireverbund will ich mal garnicht erst nachdenken :ugly:
Wenn das so weitergeht, muß ich meinen PC noch extra Absichern wie nen Geschirrspüler.

(Geändert von SPYcorp um 20:29 am Feb. 24, 2007)


-- Veröffentlicht durch H2OKopf am 19:07 am 20. Jan. 2007

Bei den Neuen Karten von ATI ist das genauso wie bei NV. Meine x1950pro hat auch so einen Anschluss da nennt sich das nur nicht SLI Brücke sondern da ist das eine Crossfire Brücke aber vom Prinzip her ist das genau das selbe ber noch ein vorteil von Crossfire ist das du ach zwei verschiedene Karten nehmen kannst. Das ist eigentlich sinnlos wil die schnellere Kate da nur Ausgebrems wird:thumb::thumb:


-- Veröffentlicht durch Irrwisch am 12:57 am 11. Jan. 2007

bin auf das teil schon richtig gespannt!
kann sie mir zwar nicht leisten aber trotzdem... :ocinside:

:)

was mir bei diesem bild aufgefallen ist, die karte hat wie ne NV einen anschluss für SLI! :noidea:
sollte das nicht anders sein??:lol:


-- Veröffentlicht durch BlackHawk am 12:03 am 11. Jan. 2007

und ich betone es nochmal: es ist noch nichtmal sicher das die hier gezeigten benchmarkwerte echt sind - wahrscheinlich ist die ganze sache ein fake!

also abwarten und tee trinken ;)

mfg BlackHawk

(Geändert von BlackHawk um 12:03 am Jan. 11, 2007)


-- Veröffentlicht durch Maddini am 19:26 am 10. Jan. 2007

nene die wird nie so groß, wird angeblich kürzer als eine 8800GTX, ich müsstn ur noch das bild finden

edit: da hab ich was dazu gefunden

klick


Darüber hinaus wurde den Kollegen die Information zugespielt, dass Grafikkarten mit dem R600 offenbar in zwei verschiedenen Größen erscheinen sollen. So wird es die Consumer-Version, die für den Endkunden bestimmt ist, eine Länge von neun Zoll besitzen. Dies entspricht etwa 23 cm und damit weniger als die Abmessungen von nVidias Flaggschiff, der GeForce 8800 GTX (ComputerBase-Test), die in etwa 28 cm lang ist. Die Version des R600, die ihren Weg in Workstations und OEM-PCs finden wird, soll dagegen sogar zwölf Zoll groß sein. Mit einer Länge von rund 30 cm würde man damit vieles bisher Dagewesene in den Schatten stellen.


(Geändert von Maddini um 19:28 am Jan. 10, 2007)


-- Veröffentlicht durch Irrwisch am 18:55 am 10. Jan. 2007

ich hab mich hier mal bischen durchgelesen und hab dann bei google "R600" eingetippt :)

das hat er bei den bildern ausgespuckt... http://www.ixbt.com/short/images/amd_ati-R600_3d.jpg

ich weiss nicht ob es ein scherz oder sonst was sein soll... aber wenn die echt so groß ist, bekommen die meisten echte probelme mit dem ding :noidea:

(Geändert von Irrwisch um 18:56 am Jan. 10, 2007)


-- Veröffentlicht durch Hitman am 13:31 am 10. Jan. 2007

@Scorpius

stimmt. Dennoch: Vorher bei Intel alle: Bähh, Intel.

Früher: Bähh Nvidia.

Heute ist es eben andersrum. Komischerweise gibt es viel weniger Menschen die jetzt rummaulen, obwohl es genug Intel,Nvidia User gibt.

Der ganze PC-Markt ist nunmal ein einziges Hoch und Tief und da kann man nie pauschal sagen wann es runter und wann es hoch geht.


-- Veröffentlicht durch spraadhans am 12:47 am 10. Jan. 2007

also abwarten und tee trinken


-- Veröffentlicht durch Scorpius am 11:34 am 10. Jan. 2007

Irgendwie find ichs hirnverbrannt sich an Benches von Grafikkarten aufzugeilen und zu sagen die und die is nu die Beste und der Rest ist Müll und den Gebetsteppich in Richtung der jeweiligen Hauptsitze ausrollen.
1. weil sie noch nicht am Markt ist
2. hat die dann eh fast keiner weil se preisleistungsmässig oberschlecht sind und se sich eh keiner kauft außer Einzelkinder mit zu dummen eltern oder leute die nix besseres mit ihrem Geld anzufangen wissen.
3. Wen juckts wer die schnellste hat? Wirklich interessant ist nur die mittelklasse oder obere mittelklasse.
4. Wechselt das eh dauernt weil ATI/AMD und NV ja eh nen anderen Zyklus haben.


-- Veröffentlicht durch cheech2711 am 10:26 am 10. Jan. 2007


Zitat von N omega G um 2:09 am Jan. 4, 2007
ist bisschen spät, habs mir nicht durchgelesen, aber wie siehts mit dem aa+af aus? nvs ist ja ziemlich gut, um einiges besser als der von ati atm. wurde da auch nachgebessert? wenn nicht, würde den g80 vorziehen.



in einem von 5-6 Benches, liegt der G80 knapp vorne;) allerdings sind die Unterschiede nicht soooooo markant, aber die ATI liegt mal klar vorne
ps: jetzt wo´se mit den Prozzis schon keine Chance mehr haben, schlägt AMD auf dem Graka markt zurück:thumb:


-- Veröffentlicht durch BlackHawk am 11:13 am 8. Jan. 2007

da habe ich ja nichts gegen, was anderes sage ich ja auch nicht :)

und wie gesagt, wenn es dabei bleibt könnte nvidia ein halbes jahr vorsprung haben - mal abwarten :thumb:

mfg BlackHawk

(Geändert von BlackHawk um 11:13 am Jan. 8, 2007)


-- Veröffentlicht durch spraadhans am 10:26 am 8. Jan. 2007

und warum soll NV nicht auch mal erster sein?


-- Veröffentlicht durch BlackHawk am 9:51 am 8. Jan. 2007

das weiss ich auch, nur ging es da nicht drum ;)

vielmehr ist es eine anspielung darauf das genau dieser umstand, wenn es so läuft wie oben beschrieben, nvidia in die hände spielen wird und ati machtlos zuschauen darf / wird.

aber wie gesagt, nur wenn ati nichts weiteres als high end karten auf den markt bringt!

mfg BlackHawk


-- Veröffentlicht durch kammerjaeger am 2:14 am 7. Jan. 2007

Im Moment ist außer dem DX10-Markt preis/leistungs-technisch der gesamte Markt doch fest in ATIs Hand.
Vergleichen wir mal etwa preisgleiche Karten:

- 100,-: X1650Pro schneller als 7600GS
- 130,-: X1650XT schneller als 7600GT
- 170,-: X1950Pro schneller als 7900GS
- 240,-: X1950XT 256MB schneller als 7950GT 512MB
bei jeweils besserer Bildqualität für ATI.

Erst ab der 400,-Klasse (8800GTS) hat ATI momentan nichts entgegenzusetzen.
Ich könnte mir gut vorstellen, daß NVidia für die DX10-Mittelklasse noch eine Weile braucht. Dann wird ATI aber nicht lange auf sich warten lassen. Interesant wird es aber erst, wenn wirklich größere Mengen Komplett-PCs von Dell, Medion, HP etc. mit Vista in den Markt kommen. Erst dann ist wirklich Marktpräsenz gefragt, denn dann kommen auch die Ansprüche auf solche Karten.... ;)


-- Veröffentlicht durch BlackHawk am 1:26 am 7. Jan. 2007


Zitat von kammerjaeger um 0:06 am Jan. 6, 2007

Zitat von H2OKopf um 22:53 am Jan. 5, 2007

Die von ATI könnten sich ja mal ein bissel beeilen.



Gute Dinge reifen eben etwas länger...  ;)




wenn amd bis zur cebit allerdings nur ihre high end produkte an den mann bringt um nvidia zu überholen halte ich das dennoch für einen grossen vorteil für nvidia. sie können bis dahin ihre bisherigen karten überarbeiten, haben somit (theoretisch) mehr erfahrung und können ihr wissen ausbauen. zumal für amd das weihnachtsgeschäft bezüglich dx10 karten (high end) gelaufen ist und nvidia wohl zur cebit die neuen mainstreamkarten raus bringt (bzw. danach). wenn amd da wirklich nur mit den teuren karten kommt macht nvidia das geld mit dem grösstem zweig: den mainstreamkarten im mittleren preissegment und kann evtl. mit refresh chips direkt kontern! :winke:

*spätes edit*

im übrigen ist der test wahrscheinlich nen fake. es sollen werte 1:1 von computerbase übernommen worden sein und der entsprechende redakteur gibt dazu keinen kommentar ab. das kann man aber ganz gut @ cb bzw. im internet nachlesen :)

wir werden es schon irgendwann mitbekommen wie schnell der r600 wirklich ist keine angst ;)

mfg BlackHawk

(Geändert von BlackHawk um 1:44 am Jan. 7, 2007)


-- Veröffentlicht durch AgentOrange996 am 15:29 am 6. Jan. 2007

genau... wie Meister Röhrig zu sagen pflegt... "Nönönö, gut Ding will Weil haben her Günzelsen!"


-- Veröffentlicht durch kammerjaeger am 0:06 am 6. Jan. 2007


Zitat von H2OKopf um 22:53 am Jan. 5, 2007

Die von ATI könnten sich ja mal ein bissel beeilen.



Gute Dinge reifen eben etwas länger...  ;)


-- Veröffentlicht durch H2OKopf am 22:53 am 5. Jan. 2007

Diese Karte ist ja absolut der Wahnsinn. Ich finde es nur schade das diese karten erst so spät erscheinen sollen. Die von ATI könnten sich ja mal ein bissel beeilen.

:hotline:


-- Veröffentlicht durch razzzzia am 15:17 am 5. Jan. 2007

erster 3slot-kühler? *gg*


-- Veröffentlicht durch N omega G am 3:08 am 5. Jan. 2007


Zitat von newatioc um 9:55 am Jan. 4, 2007
Ich denke, der Test ist ein Fake...
Oder warum habe ich ZUUUFÄLLIG keine Bilder im Web gefunden?
Lasse mich hier auch gerne eines besseren belehren:thumb:



dürfen noch nicht veröffentlicht werden, weil es vielleicht vorabversionen sind. (kühler etc)

sonst kommt ja gleich sowas wie: omg ist der groß oder omg is der klein, der muss ja sau laut sein.


-- Veröffentlicht durch newatioc am 9:55 am 4. Jan. 2007

Ich denke, der Test ist ein Fake...
Oder warum habe ich ZUUUFÄLLIG keine Bilder im Web gefunden?
Lasse mich hier auch gerne eines besseren belehren:thumb:


-- Veröffentlicht durch kammerjaeger am 8:59 am 4. Jan. 2007

Naja, ein Nachteil wäre das "fehlende" DX10.

Du mußt Dir halt überlegen, ob Du in nächster Zeit auf Vista/DX10 gehen willst und solange mit einer Karte auskommst oder ob Du jetzt noch mehr Frames haben willst... ;)


-- Veröffentlicht durch Henro am 8:57 am 4. Jan. 2007


Zitat von Maddini um 8:14 am Jan. 4, 2007
naja aber hier vergleichen wir ja die beiden top modelle nicht ne mittel karte mit einer high end.

nebenbei kenn ich keinen der 7tage die woche 8h spielt und das einganzes jahr. aber es sei dahingestellt wieviel kosten mehr entstehen, wer sich so eine karte leisten kann kann auch mit mehr verbrauch leben.

viel interessanter ist wann die ersten karten erscheinen sollen :thumb:

aber wenn ich mir den bench so anschau, wärs doch günstiger mir um mom 230€ ne X1900XT crossfirekarte zu holen.

hab ich auch die leistung bei etwas mehr verbrauch als eine 8800GTX.

das einzige was dann noch fehlt is ein board und ein stärkeres nt, wobei NT muss eh ein stärkeres her :lol:

(Geändert von Maddini um 8:21 am Jan. 4, 2007)



also ich leiste mir so einiges und achte trotzdem auf den verbrauch ... wenn ich weniger geld in strom investiere kann ich mehr geld für equipment ausgeben ;)


-- Veröffentlicht durch Maddini am 8:14 am 4. Jan. 2007

naja aber hier vergleichen wir ja die beiden top modelle nicht ne mittel karte mit einer high end.

nebenbei kenn ich keinen der 7tage die woche 8h spielt und das einganzes jahr. aber es sei dahingestellt wieviel kosten mehr entstehen, wer sich so eine karte leisten kann kann auch mit mehr verbrauch leben.

viel interessanter ist wann die ersten karten erscheinen sollen :thumb:

aber wenn ich mir den bench so anschau, wärs doch günstiger mir um mom 230€ ne X1900XT crossfirekarte zu holen.

hab ich auch die leistung bei etwas mehr verbrauch als eine 8800GTX.

das einzige was dann noch fehlt is ein board und ein stärkeres nt, wobei NT muss eh ein stärkeres her :lol:

(Geändert von Maddini um 8:21 am Jan. 4, 2007)


-- Veröffentlicht durch AssassinWarlord am 7:15 am 4. Jan. 2007

@jäger...naja das ist kein problem...wenn der zocker erst ne X1650 Pro oder ne 7600Gt drinnen hatte, die ja recht stromsparend ist, und dan diese graka drinnen hat, sind die 70W mehrleistung recht leicht zu realisieren. und es gibt genug, die länger als 8 stunden zocken ^^ kenne da auch einige persönlich :lol:


-- Veröffentlicht durch N omega G am 2:09 am 4. Jan. 2007

ist bisschen spät, habs mir nicht durchgelesen, aber wie siehts mit dem aa+af aus? nvs ist ja ziemlich gut, um einiges besser als der von ati atm. wurde da auch nachgebessert? wenn nicht, würde den g80 vorziehen.


-- Veröffentlicht durch kammerjaeger am 1:59 am 4. Jan. 2007


Zitat von AssassinWarlord um 21:20 am Jan. 3, 2007
oh das sind schon über 50€ mehr im jahr was man dan da an stromkosten zahlt ^^



Ach ja?
Für 50€ müsstest Du schon 8 Stunden pro Tag 70W Mehrbelastung haben. Das hält kaum ein Zocker durch, selbst wenn der Verbrauch unter Vollast so viel höher liegen würde, was ich nicht glaube.... ;)


-- Veröffentlicht durch AssassinWarlord am 21:20 am 3. Jan. 2007

oh das sind schon über 50€ mehr im jahr was man dan da an stromkosten zahlt ^^


-- Veröffentlicht durch Maddini am 19:52 am 3. Jan. 2007

wer sich so neine karte leisten kann, dem sind die 5€ mehr im jahr zur konkurrenz egal :lol: (als durschschnitt gerechnet)

und wenns idle wieder so wird wie bei der x19xxer serie sind sie eher sparsamer


-- Veröffentlicht durch VoooDooo am 16:33 am 3. Jan. 2007

die 8800 kann auch max. 180 ziehen was sie aber so gut wie nie tut. Das gleiche beim R600, also wayne!!!


-- Veröffentlicht durch faulpelz am 16:18 am 3. Jan. 2007

230Watt soll die karte ziehen?
haben die einen am appel?
das würde sogar mir nich gut tuen obwohl mir der verbrauch grossteils egal ist.
wenn das stimmen sollte dann sehe ich keine zukunft für den r600
der wird in der luft zerfetzt von sämtlichen hardwareforen einschliesslich unserem :lol:


-- Veröffentlicht durch Dodger am 14:42 am 3. Jan. 2007

Auf der englischsprachigen Seite Level 505 gibt es einen ersten Test von ATI´s neuer Grafikkartengeneration.
Keine Ahnung, ob´s echt ist oder nicht, jedenfalls zieht der R600 alles andere ab.

Die englische Bild-Zeitung, äh, der Inquirer behauptet, dass das Release der Karten noch bis Anfang März auf sich warten lassen könnte.
Bis dahin könnte durchaus schon ein Refresh des G80 in Reichweite sein.

Beide News gefunden auf 3DCenter


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de