sapphire hd 5770 vapor-x

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- sapphire hd 5770 vapor-x
https://www.forum-inside.de/topic.cgi?forum=3&topic=7496

Ein Ausdruck des Beitrags mit 69 Antworten ergibt bei 3 Antworten pro Seite ca. 23 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 114.76 Gramm Papier.


-- Veröffentlicht durch rage82 am 16:48 am 19. Aug. 2010

standard zum testen würde ich den stability test (der ohne benchmark, der läuft bis man abbricht) nehmen.


@vapor-x
zaubern kann der natürlich auch nicht, du hast eine ordentliche temperaturentwicklung auf engstem raum, da kann der nur aufdrehen um dem entgegenzuwirken.

was das auslesen betrifft, kann ich dir leider keine info geben, das letzte mal hab ich sli in aktion gesehen, als es noch für scanline interleaving stand ;)


-- Veröffentlicht durch k3im am 15:14 am 19. Aug. 2010

Habe hie rirgendwie ein Verständnis Problem mit meinem beiden Karten.
Nach 1 h BFBC2 zocken habe ich folgende Werte:



Dabei ist wohl GPU1 die obere Karte (steckt Monitor drinn) und GPU2 die untere.



Ich verstehe nicht warum die untere Karte so warm ist bzw. wieso die obere so kalt. Dadurch das die obere Karte ja kaum Frischluft bekommt sondern eher noch aufgeheizte Luft von der unteren.

Mit GPU-Z kann ich die zweite Karte auch nie richtig auslesen. Wenn ich in dem Pull Down Menü die andere Karte auswähle zeigen mir die Clock Sensoren gar nix an und die andere Idle Werte.

Ausserdem sagt Afterburner GPU1 46 Grad aber die GPU1 ist ja rechts in GPU-Z zu sehen und ist eben wärmer. Oder vertauschen die beiden Programme beide Karten?

Die Temp Unterschiede der beiden Karten machen mich total Kirre.

BTW heisst es ja in Tests der Vapor-X Kühler wäre sehr leise allerdings kann ich das nicht bestätigen. Unter Last ist das alles schon was Laut.

Wenn ich bei Furmark nen Test mache (Max Heat) Gehen die locker über 100 Grad, habe dann lieber mal abgebrochen. Ich weiss das GPUs das aushalten, hätte aber gedacht die Kühlung wäre besser. Was sind denn die Standard einstellungen mit denen man Furmakr durchlaufen lässt?


Ädit!

Also, man kann glaube ich sagen das Afterburner die GPUs vertauscht. Everest und GPU-Z nennen beide die gleiche GPU GPU1.



(Geändert von k3im um 15:44 am Aug. 19, 2010)


-- Veröffentlicht durch rage82 am 20:02 am 18. Feb. 2010

das runtertakten der x2 kommt eher daher, das man eine maximale TDP einhalten will, um die kosten für den kühler nicht explodieren zu lassen.

zum zweiten steht in den offiziellen pci-express spezifikationen, das ein karte maximal mit 2*6pol steckern zusätzlich versorgt werden darf, damit stehen offiziell maximal 300w zur verfügung.


-- Veröffentlicht durch k3im am 15:52 am 18. Feb. 2010

Kleine Korrektur. Da habe ich mich wohl zu früh gefreut. Also ich hatte mich eh vertan. Der Speicher war nicht auf 1440 sondern auf 1435.

Hatte also im CCC bei Overdrive beide Karten auf 950/1435. 3D Murks angeschmissen und beim ersten Screen hing es sich auf. Sieht sio aus als müsse ich mich langsam rantasten :( Bei meiner 2900XT Single Karte konnte ich die Werte die mir Overdrive nach dem Auto Tune serviert hatte Problemlos nutzen.

Ich frage mich allerdings eh wie weit ich komme. Geht ein CF denn so Problemlos überhaupt zu übertakten? Bei einer X2 werden die GPUs ja auch eher runtergetaktet.. ?!?!

Naja, Speicher auf Stock (1200) und GPU 880 anstatt 860 lief 3dMurks auf jeden Fall durch.

Gibt es ein Tool mittlerweile das die Karten auslesen kann? (Temps usw.)
Riva Tuner 2.24 erkennt die 5xxx Karten nicht.

Gruß!


-- Veröffentlicht durch elkubo am 17:43 am 17. Feb. 2010

wow 1440 für den speicher, da bin ich ja neidisch :)

bin gerade dabei meine karte (5750) zu "justieren"^^ bei 1440 kommt aber bei 3demark 06 n "blackscreen"...


-- Veröffentlicht durch k3im am 16:18 am 17. Feb. 2010

Hei Ho!

Beide Karten jetzt mit Overdrive auf 950/1440. Werde Freitag oder Samstag mal OC Werte posten. :thumb:

Gruß!


-- Veröffentlicht durch k3im am 20:25 am 4. Feb. 2010

Ist das normal das beim ATI Overdrive neuerdings so ein komisches buntes Streifen Bild angezeigt wird?

Wollte beide Adapter mal "max" mit dem CCC OCen und dann ggf. neue Werte posten. Dieses Bild ist allerdings sehr komisch, bzw. man kann ja irgendiwe keinen Fortschritt erkennen.

jr000ß


-- Veröffentlicht durch rage82 am 12:47 am 13. Jan. 2010

alles klar, selbst crysis holt 100%. sei dir meines neides gewiss ;)


und danke für deine mühe :)


-- Veröffentlicht durch k3im am 10:35 am 13. Jan. 2010


Zitat von rage82 um 0:49 am Jan. 13, 2010

könntest du eventuell noch crysis testen? egal ob warhead oder normal. und das dann bitte mit sehr hohen msaa-einstellungen ;) und einmal ohne. will mal wissen ob das am vram knabbern kann bei max-quality :)



Imprssion



Optisch natürlich auch Super so ein CF. Die LEDs im Kühler sind  doch ganz nett und werden auch nicht wirklich erwähnt.

Bidddö!!

Single Karte ohne AA 1920x1200 Very High



Single Karte 8xAA 1920x1200 Very High



CF ohne AA 1920x1200 Very High



CF 8xAA 1920x1200 Very High




-- Veröffentlicht durch rage82 am 7:53 am 13. Jan. 2010

haha, stimmt du hast recht. kann man eigentlich nicht verwechseln... vielleicht sollte ich den laborbericht nochmal kontrollieren, wer weiss was ich da so verzapft hab gestern abend....



-- Veröffentlicht durch kammerjaeger am 1:03 am 13. Jan. 2010


Zitat von rage82 um 0:49 am Jan. 13, 2010
ne, ich meinte dieses "blinded by the lights" ding ;) da musste ich erstmal an E.L.O. denken und war doppelt geschockt als das lied dann losging, da war mir der lokale winamp dann freundlicher gesinnt :lol:



Aber das ist doch Manfred Mann... :noidea:




Zitat von rage82 um 0:49 am Jan. 13, 2010

könntest du eventuell noch crysis testen? egal ob warhead oder normal. und das dann bitte mit sehr hohen msaa-einstellungen ;) und einmal ohne. will mal wissen ob das am vram knabbern kann bei max-quality :)



Stimmt, wäre interessant!


-- Veröffentlicht durch rage82 am 0:49 am 13. Jan. 2010

ne, ich meinte dieses "blinded by the lights" ding ;) da musste ich erstmal an E.L.O. denken und war doppelt geschockt als das lied dann losging, da war mir der lokale winamp dann freundlicher gesinnt :lol:


könntest du eventuell noch crysis testen? egal ob warhead oder normal. und das dann bitte mit sehr hohen msaa-einstellungen ;) und einmal ohne. will mal wissen ob das am vram knabbern kann bei max-quality :)


-- Veröffentlicht durch k3im am 0:33 am 13. Jan. 2010

Ich wollte hier gar keine Musik Diskusion lostreten, nur ein bissel untermalung.

@ rage: Wennn du mit dem letzten Lied "Evil Eye" von "Fu Manchu" meinst, so ist dsa für mich, als Kind der 90er, absoluter purer Rock. Da gibt es keinen Sinn oder Verstand..... einfach nur Rock. Punkt.

@ kammerjäger: ... bestimmt wäre ich gerne jemand, der sehr viel für Pink Floyd übrig hat. Tief in mir drin habe ich das auch bestimmt, aber eigentlich ist "one of these days" vom Thema her für mich der inbegriff von Stalker. Seit ich zum ersten mal die Trailer gesehen habe und so ein komisches Tschernobyl Gefühl hatte... das passt für mich einfach. Mehr nicht. (Leider)

Besser nicht drüber nachdenken.


-- Veröffentlicht durch kammerjaeger am 0:29 am 13. Jan. 2010

Letzteres würde zumindest vom Titel her passen. Schließlich hebt der PC jetzt fast ab... :lol:

Von der Stimmung her wäre z.B. auch "Marooned" passend gewesen!

(Geändert von kammerjaeger um 0:33 am Jan. 13, 2010)


-- Veröffentlicht durch rage82 am 0:23 am 13. Jan. 2010

also das letzte lied hättest du dir sparen können und lieber wish you were here oder learning to fly nehmen können :lol:


-- Veröffentlicht durch kammerjaeger am 0:19 am 13. Jan. 2010


Zitat von rage82 um 0:06 am Jan. 13, 2010

der einzige punkt, wenn das also in die knie gehen wird, ist wenn dein lokaler vram am ende ist. das scheint aber auch noch nicht vorzukommen. die 1024 sind dann wohl ausreichend.



Richtig. Das ist auch der Punkt, warum die Unterschiede in Deinen Links teilweise anders ausfielen, als es mit einer 5770 der Fall ist. Die getestete 3850 wurde da schon beim Speicher schnell der limitierende Faktor.



@ k3im
Stehst Du auf Pink Floyd? Ein Kollege hat nämlich ein Buch über Pink Floyd selbst geschrieben! Leider hat er es versäumt, sich damit mal bei div. Verlagen vorzustellen, aber ich habe tatsächlich ein unveröffentlichtes Exemplar von ihm bekommen! :godlike:


-- Veröffentlicht durch k3im am 0:16 am 13. Jan. 2010


Zitat von rage82 um 0:06 am Jan. 13, 2010
hätte ich auf keinen fall so erwartet muss ich zugeben......



Knaller wa. Ich behalte den kram einfach. Macht mich bestimmt gefühlte 2 Jahre fröhlich................  *blindend by the DX lights*...............

Wenn ihr die DX11 Geschichten bei der Unigine Sache sehen könntet.... ein Traum.


-- Veröffentlicht durch rage82 am 0:06 am 13. Jan. 2010

hätte ich auf keinen fall so erwartet muss ich zugeben.

der einzige punkt, wenn das also in die knie gehen wird, ist wenn dein lokaler vram am ende ist. das scheint aber auch noch nicht vorzukommen. die 1024 sind dann wohl ausreichend.


-- Veröffentlicht durch kammerjaeger am 23:26 am 12. Jan. 2010


Zitat von k3im um 23:12 am Jan. 12, 2010

Fangen wir mit was leichtem an. 3d Mark 06 brachte kaum was neues. Das hatte man ja auch fast genau so voraus gesagt.

Eine Karte: 15251 3D Marks
Zwei Karten: 17258 3D Marks



Genau:


Zitat von kammerjaeger um 23:24 am Jan. 6, 2010
Der 3DMark06 sagt noch nicht viel über die Spieleleistung, zumal mehr GPU-Leistung nur z.T. in 3DMark-Punkte umgesetzt wird. So wirst Du mit dem CF nur ca. 2.000-2.500 Punkte mehr erreichen, in einigen Spielen wirst Du es aber klar merken... ;)



Wenn man sich dagegen dann die Stalker-Benches in HQ anschaut...


-- Veröffentlicht durch k3im am 23:12 am 12. Jan. 2010

So! Auf gehts.

Einfach beim lesen das hier hören. Danke. Ohren gespitzt? Gut!

System:

Phenom II 945@3Ghz
4GB Gskill @1066
Asrock A780GXH/128M
Sapphire 5770 Vapor-x bzw. X2

Fangen wir mit was leichtem an. 3d Mark 06 brachte kaum was neues. Das hatte man ja auch fast genau so voraus gesagt.

Eine Karte: 15251 3D Marks
Zwei Karten: 17258 3D Marks

Weiter zu Counter Strike Source Stress Test. Habe ich einfach mal so mit reingenommen.

1920x1200
Alles auf High
Reflect all
8 x MSAA
16 x AF
Full HDR

Eine Karte: 284,97 FPS
Zwei Karten: 331.38 FPS

Lied schon zu Ende? Hier gehts weiter.

Unigine Heaven:

1920x1200
DX11
High
Tesselation: Yo
AA und AF 4x

Eine Karte: 17 FPS ; 427 Punkte
Zwei Karten: 31,1 FPS ; 782 Punkte

Musik schon wieder vorbei? Da

Devil May Cry 4 Benchmark@
1920x1200
MSAA 8X
Text: xtreme hoch
Schatten: xtreme hoch
Quali: xtreme hoch

Single Karte:



Zwei Karten:



SMOKIN SICK STYLE ALDER EVIL EYE

Call of Pripyat:

Auflösung: 1920x1200
Preset: Ultra
Renderer: Enh. Full. dyn lighting (DX11)

Eine Karte:



Zwei Karten:



PLUS +++ Das:



Eine Karte:



Zwei Karten:



Have PhUn?!?!?

Los gehts!!!


(Geändert von k3im um 23:54 am Jan. 12, 2010)


-- Veröffentlicht durch k3im am 17:53 am 11. Jan. 2010


Zitat von rage82 um 17:41 am Jan. 11, 2010
mit anderen worten:

mit standarttakt tut alles?



Jap. Wahrscheinlich Board zu schwach (Busmässig)?. Vielleicht werde ich irgenwann mal mit den Spannungnen hantieren. Oder bringt das gar nix?

Heute habe ich keine Zeit mehr zu Benchen weil ich nicht zu Hause bin. Leider muss ich ja jetzt alle Benches die ich mit der Single Karte gemacht habe nochmal machen da die auf 3,45 Ghz gemacht wurden. (Reicht es wenn ich CF einfach deaktiviere im CCC?)

Habe bisher nur einmal CoP Benchmark auf 3Ghz mit beiden Karten laufen lassen, aber was ich gesehen habe gefiel auf jeden Fall :punk:

(Geändert von k3im um 12:58 am Jan. 12, 2010)


-- Veröffentlicht durch rage82 am 17:41 am 11. Jan. 2010

mit anderen worten:

mit standarttakt tut alles?


-- Veröffentlicht durch k3im am 15:47 am 11. Jan. 2010

Sauber. Würde gerne weitermachen. 2 Karten eingebaut etc. Finde aber die Option nicht um CF zu aktivieren. Wirklich famos.
Catalyst A.I. habe ich auf Advanced gestellt. Finde es einfach nicht. (Oder geht es einfach nicht? Neustes CCC Paket gezogen. Nichts.

ÄDIT. Man bin ich dumm. Ich würde gerne verscheigen wie dumm ich bin aber ich dachte wirklich die CF Brücken wären symetrisch und es wäre somit egal wie rum sie druff sind.

Ich schäme mich .... ein bisschen

WEITERÄDIT und weitergeschämt.

Wie es aussieht hat das ganze, also die Tatsache das das CF im CCC nicht erkannt wird, eher was mit meiner CPU Freq. zu tun. Wenn ich die CPU übertakte (FSB PCIE Async, FSB 230, NB 1800 = 2070 und Ram auf 800 ergibt das 3450 CPU) wirds eben nicht erkannt. Werde dem ganzen mal auf den Grund gehen müssen.

(Geändert von k3im um 16:01 am Jan. 11, 2010)


(Geändert von k3im um 16:50 am Jan. 11, 2010)


-- Veröffentlicht durch kammerjaeger am 22:38 am 10. Jan. 2010

Eigentlich ganz gut...


-- Veröffentlicht durch k3im am 19:21 am 10. Jan. 2010

Wenn ich niederschmetternde Ergebnisse gibts werde ich das eben holen. Für meins gibts ja auch noch ein paar Euronen denke ich.

Wie stehts mit OC bei dem Brett? Weisst du das zufällig?


-- Veröffentlicht durch kammerjaeger am 14:48 am 10. Jan. 2010

Das hat 8x. ;)
Wäre nur ein paar Euro teurer gewesen trotz besserer Ausstattung und Southbridge.
"You get what you pay for..."


-- Veröffentlicht durch k3im am 12:23 am 10. Jan. 2010

Werd ich machen. Call of Prypjat habe ich hier in der Collectors Box liegen :) So wie S.O.T und C.S. Alles Collectors Ed. bzw. Radiation Pack. :punk:
Da ich aber kaum Zeit habe bin ich immer noch nicht durch SoT durch :lol:

Far Cry 2 Benche ich dann auch. Crysis hat doch auch ein Benchmark oder?

Werde auf jeden Fall mal ausgiebige Werte liefern. Single Betrieb VS. CF.

Übrigens steht bei den anderen Asrock Brettern A785 und 790 auch immer nur grün @16x mode und orange @4x mode oder habe ich da was falsch verstanden?


-- Veröffentlicht durch rage82 am 12:05 am 10. Jan. 2010

bitte mach mal mit ein paar benchmarks vergleichsmessungen.

zum bsp. stalker - call of prypiat. da gibts ein extra benchprogramm, dafür braucht man das spiel nicht. und halt was du sonst noch so testen kannst, nur keine 3d mark sachen, damit erreichen wir keine aussagekraft.

es gibt z.b. noch den aquamark 3, der ist aber zu alt um nützllich zu sein und sehr cpu abhängig.

devil may cry 4 hat auch ein eigenes benchmarkprogramm

wenn vorhanden, crysis, coh oder ähnliches mit integrierten funktionen.


-- Veröffentlicht durch k3im am 11:56 am 10. Jan. 2010

Klasse. Ich spiele in 1920 x 1200. AA und AF hatte ich bisher meist aus. Wollte ich eigentlich ändern. :) Mal abwarten.
Werde, wenn die Karte da ist, mal Clear Sky testen. Das geht nämlich mit vollen Quali Einstellugen und der o.g. Auflösung zimlig in die Knie.

Eigentlich bin ich im vergleich zu meiner vorigen Karte sehr gut bedient mit einer Vapor-X. Vielleicht geht die von HWV ja wirklich zurück. Mal sehen was sie bringt.

Finde es trotzdem bescheuert CF zu verbauen wenn es nicht die volle Leistung bringt. Dann hätten sie es weglassen können und noch bissel SATA hier und PCI da verbauen können.


-- Veröffentlicht durch rage82 am 11:38 am 10. Jan. 2010

in diesem link steht die wahrheit, und zwar im letzten post ;)

da steht nirgends der zusammenhang zwischen speicherbandbreite der karten und der pci-e transferrate. der pci-e bus muss für wesentlich mehr genutzt werden. der protokoll overhead wird überall herausgerechnet (5000(MBit/s)/8(Bit) und dann noch der 8B/10B-code. macht 500MB/s), aber was ist mit den paketen die gebraucht werden, rein um den betreib aufrecht zu erhalten? nack,ack usw. das alles lässt die effizienz sinken und die effektive datenrate sinkt, je kleiner die pakete, desto schlimmer.
dazu kommen noch interrupts vom pci-e device, sowie interrupts der cpu.


vor allem aber wirst du den unterschied merken, wenn dir der speicher der grafikkarte ausgeht. natürlich wird das erst ab auflösungen von 1920*1080 mit AA interessant. aber wie weit sind wir von dieser auflösung noch entfernt? 1680*1050 mit hohem fsaa kommt auch schon in diese regionen, je nach spiel.

edit: es lässt sich nur schwer untermauern, wenn man auf messungen mit dem gleichen chipsatz besteht, aber wenn man betrachtet, das hier bei 1280*1024 gleichstand zwischen den chipsätzen herrscht (teilweise mit vorteilen für den p45), bei höheren auflösungen der x48 aber streckenweise über 50% mehr rausholt (wic, crysis,ut3), dann ist das eindeutig auf pci-e zu schieben.

(Geändert von rage82 um 12:12 am Jan. 10, 2010)


-- Veröffentlicht durch kammerjaeger am 9:40 am 10. Jan. 2010

Das ist ein Test auf unterschiedlichen Chipsätzen (X38 vs. P45) und daher nur die halbe Wahrheit (Begründung siehe Link unten!).
Natürlich kann es in extremen Scenarien (sehr hohe Auflösung mit hohem AA/AF) zu "Einschränkungen" kommen, aber das betrifft nur ganz wenige Spiele und der Effekt ist wirklich verschwindend gering.

Vielleicht sollte k3im erst mal sagen, in welcher Auflösung er spielen will, denn der Effekt wird erst ab FullHD wirklich merkbar.

Hier ist auch technisch sehr schön klar gestellt, warum ein PCIe2.0 x8-Slot bei keiner einzigen erhältlichen Nvidia-Karte und allen ATI-Karten bis zur 4890 eine Bandbreitenlimitierung haben kann! Nur die 4870 X2 und wahrscheinlich die 58xx kommen da an ihre Grenzen...
Dass eine 3850 auf einem PCIe2.0 x8-Slot Einbußen von 10% hat, ist also rein technisch völlig unlogisch, der reicht sogar ein x4-Slot, um nicht an die Bandbreitenlimitierung zu geraten (genau wie bei der 4830/4850! ;)


-- Veröffentlicht durch rage82 am 0:57 am 10. Jan. 2010

hardcover pcgh.

hab noch ein 10% beispiel von einer 3850

pcgh


-- Veröffentlicht durch kammerjaeger am 0:50 am 10. Jan. 2010

Link?


-- Veröffentlicht durch rage82 am 0:33 am 10. Jan. 2010

eine 4870/1g verliert bei cod4 ca 15% bei pcie 1.1 16x im gegensatz zu pcie 2.0 16x.

1-2% bei den meisten spielen, von daher sollte man auch schauen was man spielt ;)

edit: eher bei den allermeisten spielen ;)

(Geändert von rage82 um 0:50 am Jan. 10, 2010)


-- Veröffentlicht durch kammerjaeger am 0:05 am 10. Jan. 2010


Zitat von k3im um 21:26 am Jan. 9, 2010
Also wenn das alles stimmt ist das schwer enttäuschend. Wieso verbaue ich denn als Hersteller halbgare Technik. Welche User besorgen sich denn 2 Grafikkarten?
Idioten wie ich, die nicht auf die 5870 warten wollen oder enthusiasten. Dann hätten die den 2ten PCI-E Slot echt weg lassen können oder was. Für mich ist das kein CF wenn nicht beide Slots max. Geschwindigkeit bringen. Das fühlt sich sc'*?=e an da zwei 150 €uro Karten drauf zu fahren :(



Tja, darüber sollte man sich vorher Gedanken machen! Die wenigsten Chipsätze können 2x PCIe2.0 x16 im CF. Dazu gehören lediglich die X38/X48/X58 auf der Intel-Seite. Sämtliche S.1156-User gehen auch da leer aus, obwohl es der neueste Sockel überhaupt am Markt ist. Auch der häufig für S.775 verkaufte P45, das Flaggschiff der P-Reihe, hat keine zwei x16-Slots.
Bei AMD hast Du zumindest zwischen 785G, 790G und 790X die Wahl, wenn der zweite Slot PCIe2.0 x8 können soll, was dann einem PCIe1.0 x16 entspricht und somit keinerlei Limitierung Deiner Karte bedeutet. Aber Dein 780G kann das leider nicht.
Du kannst also nicht dem Hersteller die Schuld dafür geben, wenn Du Dich für den falschen Chipsatz entscheidest, denn genau dafür baut der Hersteller unterschiedliche Chipsätze, damit jeder bekommt was er will und bezahlen will...
Ein zweiter oder dritter PCIe, der nur mit "halber" Geschwindigkeit arbeitet, macht trotzdem Sinn. So braucht man ihn z.B. für schnelle RAID-Controller oder die von rage82 angesprochene PhysX-Lösung.  ;)


-- Veröffentlicht durch rage82 am 23:01 am 9. Jan. 2010

jede karte nutzt ihren eigenen videospeicher, es bleibt also pro karte bei 1gb sozusagen.

zum thema x16 slot:
diese boards sind zum beispiel geeignet eine vollwertige x16 graka, die aber nur für zusatzaufgaben gedacht sind, einzubauen (physx).





-- Veröffentlicht durch k3im am 22:01 am 9. Jan. 2010


Zitat von kammerjaeger um 19:26 am Jan. 9, 2010
Nein, da es ein PCIe2.0 x4-Slot ist, entspricht er in der Bandbreite einem PCIe1.0 x8! Somit sollte die Bandbreite noch kein Problem darstellen, die "Einbußen" nur bei max. 1-2% liegen. ;)




P.S. Das hatte ich schon verstanden und gelsen. Ich WILL mich aber aufregen weil mich beide Karten zusammen 335 €uronen gekostet haben. 1-2 % Naja. Zumindest ist der Verbrauch und die Lautstärke auch besser als bei einer 5870.

Doofe Frage. Hat man eigentlich Theoretisch bei so einem CF 2 GB Vram oder wird nur die GPU Leistung fast verdoppelt?

jr000ß


-- Veröffentlicht durch k3im am 21:26 am 9. Jan. 2010

Also wenn das alles stimmt ist das schwer enttäuschend. Wieso verbaue ich denn als Hersteller halbgare Technik. Welche User besorgen sich denn 2 Grafikkarten?
Idioten wie ich, die nicht auf die 5870 warten wollen oder enthusiasten. Dann hätten die den 2ten PCI-E Slot echt weg lassen können oder was. Für mich ist das kein CF wenn nicht beide Slots max. Geschwindigkeit bringen. Das fühlt sich sc'*?=e an da zwei 150 €uro Karten drauf zu fahren :(

Soll ich denn die von HWV flashen falls sie keine 800 SPU's hat? Für ein repräsentatives Ergebnis brauche ich ja wohl zwei vollwertige 5770er. Oder zählt die 14 Tage Sache dann Theoretisch nicht? Andererseits würden sie es ja gar net merken. Derjeneige der die Karte dann bekommen würde, falls so eine Ware wieder in den Verkauf geht, hätte ja dann viel Freude weil er nix machen muss. Und wenn Sie mir beim flashen kaputt geht hab ich ja Garantie oder nicht?

Ist das ärgerlich jetzt. Aber 2 x PCI-E 16x und dann in Klammern so ein Mist. Das ist für mich wie 2 x Volle Packungen Kippen (1 x 21 und 1 x 10)

Man bin ich angesickt. :lol:


-- Veröffentlicht durch kammerjaeger am 19:26 am 9. Jan. 2010

Nein, da es ein PCIe2.0 x4-Slot ist, entspricht er in der Bandbreite einem PCIe1.0 x8! Somit sollte die Bandbreite noch kein Problem darstellen, die "Einbußen" nur bei max. 1-2% liegen. ;)


-- Veröffentlicht durch rage82 am 18:57 am 9. Jan. 2010

nope, der ist dann wohl nur mit pci-e*4 angebunden. damit wirst du wohl nur enttäuschende ergebnisse einfahren. also beeil dich mit testen, die 14 tage rückgabefrist wirst du sicher in erwägung ziehen :)


-- Veröffentlicht durch k3im am 18:55 am 9. Jan. 2010

Kann mir jemand dazu was sagen? Am Montag kommt meine 2te Karte von HWV. So stehts auf der Homepage von Asrock.

A780GXH/128M

Expansion / Connectivity
- 2 x PCI Express 2.0 x16 slots (green @ x16 mode, orange @ x4 mode)
- 1 x PCI Express 2.0 x1 slot
- 2 x PCI slots
- Supports ATI™ CrossFireX™ and Hybrid CrossFireX™

Wie jetzt? Orange nur im 4xmode bei keine Ahnung was für Karten aber im CF 2x16 Fach oder was?


-- Veröffentlicht durch kammerjaeger am 23:24 am 6. Jan. 2010

Der 3DMark06 sagt noch nicht viel über die Spieleleistung, zumal mehr GPU-Leistung nur z.T. in 3DMark-Punkte umgesetzt wird. So wirst Du mit dem CF nur ca. 2.000-2.500 Punkte mehr erreichen, in einigen Spielen wirst Du es aber klar merken... ;)


-- Veröffentlicht durch k3im am 17:41 am 6. Jan. 2010

Hast scho recht :) Crysis im Natural mod läuft Super flüssig. :) Kann ich sehr zufrieden sein. Bin mal auf das Crossfire System gespannt!


-- Veröffentlicht durch rage82 am 18:56 am 5. Jan. 2010

hast du mal was ordentliches getestet? übrigens ist in der aktuellen pcgh ein test mit alten grakas, da ist auch die 2900xt dabei, kann dir mal vergleichswerte nachreichen

edit:
beide karten mit standardtakt:
auflösung 1680*1050 4*msaa 2900xt|5770
anno 1404   23,7|35,4
dirt2   25,2|45,7
cod6:mw2   30,6|64,2
fallout3  19,3|45,1


ich glaube deutlicher kann man es nicht sehen. 50-120% performanceplus ;)

(Geändert von rage82 um 19:32 am Jan. 5, 2010)


-- Veröffentlicht durch k3im am 12:44 am 5. Jan. 2010

Habe mir Gestern die Vapor-X zu gelegt. Nächste Woche kommt dann die zweite. Ganz gut bei der full retail ist, das ein Dirt 2 Coupon mit dabei war.

Die Leistung betrachte ich mit etwas gemischten Gefühlen. Habe mit der 5770 eine 2900XT ersetzt.

Mein Model war eine Vapor-X mit 720 Shader Einheiten. Der Bios flash gestaltet sich allerdings sehr einfach. Da hat Sapphire gute Arbeit geleistet. Allerdings ist es eine Frechheit keinen Preisnachlass zu geben weil man eben noch Eigenleistung in ein Produkt stecken muss um das zu bekommen wofür man bezahlt hat.
Die GPU bei meiner Karte lässt sich per Overdrive auf 950Mhz übertakten. Leider macht mein Speicher schon bei 1230 zu :(.

Mit meinem Prozzi auf 3,3 Ghz und übertakteter Karte (Catalyst 9.12) komme ich auf 16299 Punkte im 3Dmurks06. Das ist irgendwie sehr enttäuschend wenn ich mir überlege das die XT übertaktet auf 848 GPU und 888 Ram 13240 Punkte bringt. (Bei Prozzi 3,0!)

Ist das dennoch ein normales Ergebnis?

(Geändert von k3im um 12:45 am Jan. 5, 2010)


-- Veröffentlicht durch kammerjaeger am 0:24 am 4. Jan. 2010

:noidea:
1. Kaum noch ein Hersteller setzt auf den Originalkühler, die meisten Hersteller verbauen den offenen Heatpipekühler (Beispiel), während der Vapor-X bei der 5770 ja nicht einmal Heatpipes zu haben scheint...
2. Selbst der Werkskühler von ATI ist idle praktisch unhörbar, erst unter Last wird er wahrnehmbar. Die Aftermarket-Lösungen, die aktuell verwendet werden (s.o.), sind load i.d.R. noch besser als der Standard-Kühler. Alternativ kann man bei Bedarf für 10,- einen Accelero L2 Pro nachrüsten, das ist immer noch günstiger als der Aufpreis für die Vapor-X und kühlt sehr leise und effektiv (Test).

Daher finde ich den Aufpreis für die Vapor-X viel zu hoch, zumal ich nicht glaube, dass sie besser ist als der Aftermarket-Kühler, den die meisten Hersteller verbauen.

Btw.: Powercolor verbaut o.g. AC-Kühler auf der
"Play!".


-- Veröffentlicht durch rage82 am 22:59 am 3. Jan. 2010

sie ist leiser als die referenzkühler


-- Veröffentlicht durch kammerjaeger am 22:40 am 3. Jan. 2010

Richtig. Aber was soll eigentlich so toll sein an der Vapor-X? Etwa die gigantischen 10MHz mehr GPU-Takt??? :noidea:
Ich wüsste nicht, warum man dafür 25,- mehr ausgeben sollte...


-- Veröffentlicht durch k3im am 20:16 am 3. Jan. 2010

Die vapor-X kann ja mit dem Bios Update wieder auf 800 Stream Prozessoren gebracht werde. Auf der Sapphire Seite steht dabei: Note :

The warranty term will not change after executing this bios update.

Wie hab ich das denn nun zu verstehen? Das sich an den Garantie Ansprüchen nichts ändert und man nach wie vor 24 Monate Garantie hat?


-- Veröffentlicht durch Rulinator am 15:03 am 3. Jan. 2010

genau von diesen titeln spreche ich. mafia 2 und crysis 2 vorran.

nicht so massenbekannt aber sehnlichst erwartet von mir ist rfactor 2, angeblich soll das auch dx11 unterstützen...


-- Veröffentlicht durch rage82 am 11:08 am 3. Jan. 2010

die xbox grafik-einheit kann bereits seit erscheinen mit tesselation umgehen, bei der ps3 weiss ich es nicht.


-- Veröffentlicht durch k3im am 10:09 am 3. Jan. 2010

Die kriegen das schon hin mit der Portierung. Soll ja diesmal auch gemacht werden. Bei den Effekten sehe ich da keine Probleme.
Die Kantenglättung bei der PS3 ist einfach grottig weil nicht vorhanden. Mich wunderte imme rschon warum die Grafik so grässlig ist trotz der "hohen" Auflösung der PS3.

Spiele auf dem selben Monitor wie mit dem PC und die Grafik ist manchmal echt zum weglaufen. Als ich damals die PS3 bekommen habe fand ich das echt ne Frechheit.
Aber die Leute die keine Ahnung haben bzw. wo die letzte Konsole ne PS2 war und die nur CS 1.6 gedaddelt habe waren natürlich schwer begeistert.


-- Veröffentlicht durch kammerjaeger am 9:58 am 3. Jan. 2010

Fragwürdig finde ich dabei, dass im Video unten Xbox 360 und PS3 vermerkt sind. Aber wie sollte sowas darauf zu realisieren sein? Da wird den Konsolen-Usern eine Grafik vorgegaukelt, die in Realität dann ganz anders sein wird... ;)
Für PC-User sehe ich da keine Probleme, da man eben gerade mit DX11 nicht alles über Texturen machen muss.

(Geändert von kammerjaeger um 10:00 am Jan. 3, 2010)


-- Veröffentlicht durch k3im am 9:37 am 3. Jan. 2010

Wenn du Crysis 2, Mafia 2, Alan Wake, Unreal Engine 3 (Weiss der Teufel wieviele Spiele wieder darauf zurückgreifen werden :punk: ) usw. usw. meinst, also ich gehe da schwer von aus. Die wären ja schön blöd sich das durch die Lappen gehen zu lassen.

Wenn man sich z.B. die Cryengine 3 anschaut tippe ich mal drauf das die Texturen etc. ohne neue Kompressionstechnologie gar nicht in den GraKaRam passen würden.


-- Veröffentlicht durch Rulinator am 2:07 am 3. Jan. 2010

das video ist krass, der unterschied ist deutlich.

wollte mir im frühjahr die hd 5850 holen, dx11 soll ja für vista noch kommen, wollte vorerst nicht auf seven gehen.

kann man denn davon ausgehen, das auch die großen spiele in dx11 kommen werden? sonst lohnt sich der spaß auch nicht wirklich. wenn ich das so sehe im video krieg ich bock drauf...


-- Veröffentlicht durch kammerjaeger am 0:09 am 3. Jan. 2010

Im Spiel.

Btw.: Hier sieht man sehr schön, was DX11 bringt. Selbst die sonst stärkere 4890 lässt man ca. 20% hinter sich mit der 5770.

(Geändert von kammerjaeger um 0:23 am Jan. 3, 2010)


-- Veröffentlicht durch k3im am 23:20 am 2. Jan. 2010


Zitat von kammerjaeger um 15:42 am Jan. 2, 2010
... was man aber abschalten kann...



Der Kerl hier zeigt ganz anschaulich was die Tessalation bewirken kann (oder auch nicht) ...  bei minute 2 gehts los!  Kerl :thumb:

Wie kann man das denn bei Bedarf abschalten? Im CCC oder in den Spielen selber? Wäre in den Spielen, je nach intensität, irgendwie am besten.


(Geändert von k3im um 1:30 am Jan. 3, 2010)


-- Veröffentlicht durch kammerjaeger am 15:42 am 2. Jan. 2010

Richtig. DX11 ist bei vergleichbarer Optik klar schneller als DX10. Erst Tessalation macht es langsam, was man aber abschalten kann...


-- Veröffentlicht durch rage82 am 13:49 am 2. Jan. 2010

habt ihr euch mal gedanken gemacht, warum das so sein könnte?

ich habs schonmal in nem andern thread geschrieben.


dx11 IST schneller, wenn also ein spiel nachträglich nen dx11 pfad implementiert bekommt, wird eine dx11-karte schneller rendern als wenn sie das unter dx10 machen müsste.
Das ganze klappt aber nur bis zu dem punkt, wenn tesselation ins spiel kommt. man kann mit tesselation JEDES spiel beliebig komplex machen und damit eine geforce 980GTX² und eine ATI 9970 von 2015 in die knie zwingen. je runder es wird, desto mehr gehen die karten daran kaputt.

komischerweise will niemand sehen, das die vorteile von dx10 und wohl auch dx11 direkt in optik-aufwertungen umgemünzt wurden, diese aber meistens bei solchen details die einem nur bei screenshots auffallen.


-- Veröffentlicht durch k3im am 13:11 am 2. Jan. 2010

Also nach dem was hier steht....

Sobald meine 5870 da ist werde ich natürlich alle Benches durchlaufen lassen :) Aber Texturkompressionen und die Performance Steigerungen durch das neue Compute Shading sehen doch ganz viel versprechend aus. Ich kann mich natürlich wie du schon sagst auch täuschen und dsa ganze falsch verstehen. Es kommt ja auch immer ein bissel auf die Fähigkeiten der Programmieren von Spielen an obs nu ein Performance Fresser wird oder nicht.



(Geändert von k3im um 13:12 am Jan. 2, 2010)


-- Veröffentlicht durch Blackout am 12:53 am 2. Jan. 2010

dann bist du herzlichst dazu eingeladen unter der rubrik benchmark den Unigine benchmark durchführen zu lassen

einmal dx9 einmal dx10 und einmal dx11
dann sag mir bitte wieviel frames du in jedem dieser tests hattest,
danke

soll nicht böse gemeint sein aber, könnte dir die augen öffnen
es ist klar dass die grafik unter dx 10 und dx11 wunderschön ist kein zweifel
doch die leistung heutiger karten lässt einfach auf diesem sektor zu wünschen übrig
und ich denke kaum dass man deshalb gleich 4 kartem im cf nehmen muss damit das spielen Spass macht


-- Veröffentlicht durch k3im am 12:02 am 2. Jan. 2010

Ausserdem verspricht man sich eben von DX11 einen Leistungzuwachs und nicht wie bei DX10 Leistungseinbrüche. Wenn DX11 also in neue Spiele implementiert wird und man eine Karte hat die es unterstützt muss das lang nicht heissen das sie dann in die Knie geht nur weil es kein ATI High End Modell ist.

ATI bringt die nächste GraKa Generation erst 2011 d.h. das bis dahin alle 5770er Besitzer bei DX11 Titel schlecht dran wären das ist aber nicht der Fall. DX11 ist glaube ich schon ein Kaufargument das man nicht unterschätzen darf. Ich zumindest verspreche mir viel davon.


-- Veröffentlicht durch Invasion am 11:26 am 24. Dez. 2009


Zitat von Tesmopart um 11:05 am Dez. 21, 2009
Ich habe vor mir die Sapphire hd 5770 vapor-x für 141.- € zu kaufen. Ein Kumpel von mir hat die Sapphire hd 5770 mit dem normalen ATI Layout.
Was das OCen angeht ist die Karte die er hat super: Default 850 / 1200,
oc 945 / 1445. Die Karte läuft absolut stabil, nur die entstehende Hitze führt zu Problemen. Die Frage die ich mir jetzt stelle ist, ob die vapor-x Kühlung eine weitaus bessere ist als die von ATI. Ich selbst hab noch nie eine Karte mit vapor-x gehabt, weiß aber das auch früher schon Karten mit dieser Kühlung verkauft wurden und hoffe das vielleicht der eine oder andere von euch damit gute oder schlechte Erfahrung gemacht hat.



Ich habe die normale sapphire 5770 mit dem neuen Kühler Design.

Die macht auch 945 / 1445 und die Temp geht nie über 68° bei 80% Lüfter. Bei 40% sind es dann 72°
Besser kann das die Vapor-x auch nicht.

Das neue Kühler Design scheint also besser zu sein, als der alte Klotz.

Invasion


-- Veröffentlicht durch Blackout am 6:33 am 23. Dez. 2009

wenn sie hast dan poste mal deine benchmarkergebnisse
in der benchmark rubrik bin gespannt.


-- Veröffentlicht durch Tesmopart am 20:00 am 22. Dez. 2009

Da kannst Du mal sehen was für ein Potenzial diese Karte hätte, wenn man das Speicherinterface nicht auf 128bit kastriert hätte. In meinem System läuft eine i7 940 CPU im Moment auf default mit 2993 mhz. Ich habe mir den Lüfter Coolink SWiF2-120P Retail für meinen CPU Kühler bestellt, um die Leistungsfähigkeit der CPU besser ausnutzen zu können. Ich vermute mit einem Takt von ca. 3400 mhz und der übertakteten 5770 müsste ich auch in die Nähe von 20000 Punkten bei 3d mark 06 kommen, aber wie gesagt die hd 4890 ist schon eine klasse Karte und hat sicherlich Performance Vorteile und doch denke ich das der Kauf ein Schritt zurück wäre. I think green, passt im Prinzip nicht beim Ocen und doch finde ich es klasse, wenn ich mal so z.B. ein bisschen im Internet surfe die Grafikkarte und auch die CPU den Verbrauch drastisch zurück fahren.  


-- Veröffentlicht durch Blackout am 22:27 am 21. Dez. 2009

naja meiner meinung nach sind bei reiner standardleistung
16% mehr bei der gesamtperformance schon viel.



und meine 4890 läuft auf

 RAM-Takt: 1155 MHz (975 MHz) = +18%
 Width: 256 bit
 Bandwith: 147.2 GB/s
 Core-Takt: 1050 MHz (850 MHz) = +24%
 Shaders: 800 (DX 10.1)
 Fillrate: 16.9 GPixel/s | 42.2 GTexel/s

was bei einem phenom x4 @ 4000mhz über 20.000punkte im 3d mark 06 bringt




das mit der leistungsaufnahme stimmt zwar aber wenn man von ca
15-25 mehrleistung ausgeht wird diese wieder etwas relativiert



ist aber deine entscheidung

bis dx11 spruchreif wird breuchen wir eh viel schnellere grafikkarten


-- Veröffentlicht durch Tesmopart am 20:37 am 21. Dez. 2009

Du hast recht, die hd 4890 ist etwas schneller, aber ich finde der Unterschied ist nicht all zu groß und was mich an der 4890 am meisten stört ist das sie ständig mächtig Strom zieht und nicht wie 5000er Serie die Leistung der Verwendung anpasst. Ich habe auch schon mal über eine Wasserkühlung nachgedacht, schrecke aber vor den Preisen zurück. Gerade habe ich einen sehr viel versprechenden Test gelesen "http://extreme.pcgameshardware.de/grafikkarten/82068-review-sapphire-radeon-hd5770-vapor-x-im-pcghx-check.html#a10". In dem Test wird das Potenzial, aber auch eine Schwäche der Karte beschrieben und das Ganze nicht reißerisch dargestellt. Das Speicherinterface wurde ja auf 128bit reduziert, denn ansonsten wäre die Karte für den Preis ein richtiges Schnäppchen, denn was das Übertakten und die Kühlung angeht soll die Karte hervorragend sein. Ich denke ich werde mir die Karte erst einmal kaufen und wenn ich annähernd die Leistung und vor allem die niedrigen Temps unter Volllast erreiche bin ich absolut zufrieden.:niko:


-- Veröffentlicht durch Blackout am 16:02 am 21. Dez. 2009

solltest du mit wasser kühlen wollen, dann die im ati design

solltest du normal mit luft kühlen, dann solltest du die vapor nehmen.
da leiser und leistungsfähiger.

meiner meinung nach zahlt es sich mehr aus eine 4890-er zu nehmen ca gleicher preis aber schneller.

performance




(Geändert von Blackout um 16:29 am Dez. 21, 2009)


-- Veröffentlicht durch Tesmopart am 11:05 am 21. Dez. 2009

Ich habe vor mir die Sapphire hd 5770 vapor-x für 141.- € zu kaufen. Ein Kumpel von mir hat die Sapphire hd 5770 mit dem normalen ATI Layout.
Was das OCen angeht ist die Karte die er hat super: Default 850 / 1200,
oc 945 / 1445. Die Karte läuft absolut stabil, nur die entstehende Hitze führt zu Problemen. Die Frage die ich mir jetzt stelle ist, ob die vapor-x Kühlung eine weitaus bessere ist als die von ATI. Ich selbst hab noch nie eine Karte mit vapor-x gehabt, weiß aber das auch früher schon Karten mit dieser Kühlung verkauft wurden und hoffe das vielleicht der eine oder andere von euch damit gute oder schlechte Erfahrung gemacht hat.


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de