X800 GT / X800 RX

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- X800 GT / X800 RX
https://www.forum-inside.de/topic.cgi?forum=3&topic=5844

Ein Ausdruck des Beitrags mit 187 Antworten ergibt bei 3 Antworten pro Seite ca. 63 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 314.34 Gramm Papier.


-- Veröffentlicht durch Redirion am 16:40 am 28. Sep. 2005

Hi Leute

Hab mir bei Norskit am Samstag zur Happy Hour die X800GT von Powercolor bestellt. Sie ist heute eingetroffen.

Gedacht ist sie erstmal nur als Übergangskarte.. mal gucken, was ich mir demnächst so hole. Ich musste sie kaufen, da mir meine schöne 128mb 9800pro@xt (bios mod) kaputt gegangen ist... alles nur aufgrund des Asrock Dual-Sata2... hab beim Ocen FSB/PCIE Sync gelassen, weil ich dachte, dass sich das nicht mit auf den AGP Takt bezieht. Offenbar war es aber so und in Folge dessen wurde meine Grafikkarte durch einen zu hohen AGP Takt zerstört. :(

Erste Eindrücke:
-Es war Hitman Contracts dabei !
Laut Powercolor sollte ja "Pazific Fighter" dabei sein. Bin sehr beruhigt, dass es doch ein Spiel ist, wo ich persönlich mehr mit anfangen kann^^
Hier der Link von den eigentlichen Beilagen (ganz unten)
http://www.powercolor.com/product.asp?id=75

-Die Grafikkarte hat offensichtlich 1,6ns Ram ! Hab ich da einen Glückstreffer gelandet oder haben die den nur verbaut, weil er die Spezifikationen nicht erfüllt und somit doch mit 2,0ns ram gleichzusetzen ist?

Hier ein Screenshot von dem Test auf Hardwaresecrets.com(hier in diesem Thread hat das einer auf Seite 18 gepostet) vom Ram :
http://www.hardwaresecrets.com/fullimage.php?image=1745
Es ist klar zu erkennen, dass es sich um 2,0ns ram handelt - so wurde es jedenfalls auch bei allen anderen Reviews angegeben.

dazu haben sie noch einen Link von Samsung angegeben :
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/256Mbit/K4J55323QF/K4J55323QF.htm

Auf meinen Chips steht aber eindeutig GC16 - also bis 600mhz spezifiziert :)

Atuner hat die Grafikkarte leider nicht erkannt und Everest behauptet, dass es eine X800SE sei 0o. Najo offensichtlich falsch ausgelesen(obwohl Everest angeblich die X800GT unterstützt).
Übertaktungsergebnisse, kann ich erstmal noch nicht liefern, da ich dafür heute wohl nicht mehr die Zeit finde. Werd das jedenfalls mit Rivatuner versuchen. Spätestens dann wird sich ja herausstellen, ob ich wirklich so guten Ram erwischt habe :)

Edit :
das wird zwar vermutlich keiner lesen, aber ich hab inzwischen mal n bissl rumgetestet.
Die Grafikkarte schafft mit Standardkühlung und tempgesteuerten Lüfter stabile 600/528 . Ich denk mal mit besserer Chipkühlung (für mehr als 600mhz, muss ich den Lüfter auf 100% stellen..) und Speicherkühlung, ist da durchaus noch mehr drin ;)  

(Geändert von Redirion um 0:03 am Okt. 2, 2005)


-- Veröffentlicht durch DooM1987 am 15:39 am 28. Sep. 2005

weil das irgendwo bei den news stand.. atinews oder wo das war.. habs auch gelesen gehabt


-- Veröffentlicht durch kammerjaeger am 2:33 am 28. Sep. 2005


Zitat von Fairy um 20:16 am Sep. 27, 2005
nein nur GTO² welche nur speziell von Sapphire in limitierter Stückzahl und nur bei Alternate bzw Madmoxx verkauft werden haben eine Garantie das man sie problemlos auf 16pipes ohne Hardwaremod flashen kann.



Und wie kommst Du auf die Idee, daß Sapphire diese Karten nur an Alternate und mad-moxx geliefert haben soll, obwohl sie noch nicht einmal zu den Distributoren gehören? :blubb:


-- Veröffentlicht durch Fairy am 20:16 am 27. Sep. 2005

nein nur GTO² welche nur speziell von Sapphire in limitierter Stückzahl und nur bei Alternate bzw Madmoxx verkauft werden haben eine Garantie das man sie problemlos auf 16pipes ohne Hardwaremod flashen kann.

bei den normalen GTO's ist das mehr als ungewiss die Club3D X800GTO die ich gesehen habe hat nur eine R423 drauf.
und ob die R480 freischaltbar sind steht auch in den Sternen,weil es diese ja auch auf der X800GT gibt welche ja auch bekanntlich R480 chips haben und bisher nicht freischaltbar sind.

mfg

(Geändert von Fairy um 20:19 am Sep. 27, 2005)


-- Veröffentlicht durch Beomaster am 18:33 am 27. Sep. 2005


Zitat von Fairy um 17:49 am Sep. 24, 2005
X800 GTs mit dem R423 Chip lassen sich freischalten :)



X800GTOs mit R480 auch, einige sollen sogar den guten Samsung 1,6ns droff haben
für unter 200€ die Performance einer X800XT (oder mehr) :godlike:


-- Veröffentlicht durch Fairy am 14:38 am 27. Sep. 2005

x800gt gibts nur als pci-e afaik^^


-- Veröffentlicht durch marqus am 11:37 am 27. Sep. 2005

und welche AGP Karten haben den R423 Chip? Woher weiss ich das?

danke


-- Veröffentlicht durch Fairy am 17:49 am 24. Sep. 2005

X800 GTs mit dem R423 Chip lassen sich freischalten :)


-- Veröffentlicht durch smoke81 am 14:19 am 12. Sep. 2005

Test bei Hardwaresecrets


-- Veröffentlicht durch smoke81 am 1:54 am 10. Sep. 2005

Und sie rockt! :thumb:

...
Topic aus der Versenkung hol


-- Veröffentlicht durch X1ALPHA am 8:36 am 9. Sep. 2005


Zitat von marqus um 0:28 am Sep. 9, 2005
Danke dir, dann ist das ja ne gute Karte. Taugt denn die "Ati, Powered by Ati" Karte bei Snogard was? Denn sonst gibts ja keine zu diesem preis, oder?
Was unterscheidet denn dann wirklich leistungsmässig die X800XT PE von der X850XT???

danke euch



Ich habe die Karte. Es ist eine ASUS!:thumb:


-- Veröffentlicht durch Judgi am 8:14 am 9. Sep. 2005


Zitat von marqus um 23:28 am Sep. 8, 2005
Danke dir, dann ist das ja ne gute Karte. Taugt denn die "Ati, Powered by Ati" Karte bei Snogard was? Denn sonst gibts ja keine zu diesem preis, oder?
Was unterscheidet denn dann wirklich leistungsmässig die X800XT PE von der X850XT???

danke euch



die X850XT(520/1080) liegt leistungsmäßig noch knapp hinter einer X800XTPE (520/1120) !
Was die X850er besser können als die X800 habe ich mich auch Nächtelang gefragt... :noidea: ..selbst bei ATIs HP finde ich keinen nennenswerten Unterschiede...aber irgendwas kann die 850er Hardwareseitig besser als die X800 - und nen anderen Chip hat sie auch drauf (R481 zu R420 bei X800)
;)


-- Veröffentlicht durch marqus am 23:28 am 8. Sep. 2005

Danke dir, dann ist das ja ne gute Karte. Taugt denn die "Ati, Powered by Ati" Karte bei Snogard was? Denn sonst gibts ja keine zu diesem preis, oder?
Was unterscheidet denn dann wirklich leistungsmässig die X800XT PE von der X850XT???

danke euch


-- Veröffentlicht durch Judgi am 18:35 am 8. Sep. 2005


Zitat von marqus um 18:23 am Sep. 8, 2005
Da haste recht. Kurz nochmal: die XT PE ist wo anzusiedeln, wenn man eine Rangliste aufstellen will? Vor oder nach XL und was heisst PE und überhaupt...


Über XL  -> sie ist das Topmodell aus der 800er-Reihe. PE = Platinum Edition = Höherer GPU- und Ram-Takt :thumb:


-- Veröffentlicht durch marqus am 18:23 am 8. Sep. 2005

Da haste recht. Kurz nochmal: die XT PE ist wo anzusiedeln, wenn man eine Rangliste aufstellen will? Vor oder nach XL und was heisst PE und überhaupt...


-- Veröffentlicht durch smoke81 am 18:13 am 8. Sep. 2005

X800 Pro gibts für ~ 200,-

Da kann man auch noch die 50,- für eine XT PE (snogard.de) drauflegen ;)


-- Veröffentlicht durch marqus am 18:06 am 8. Sep. 2005

Tja, das mittelding wäre gut. bis 170 würde ich gehen. Aber lieber für eine gute ATI als für Nvidia. auch weil ich einen ATI wasserkühler habe...
X800pro? gibbet da nix interessantes. Mit OC-möglichkeiten...


-- Veröffentlicht durch smoke81 am 17:44 am 8. Sep. 2005


Zitat von marqus um 17:43 am Sep. 8, 2005
Hm, das ist schade, dass keine GT als AGP gibt. Welche sollte ich mir denn jetzt kaufen. Ich suche halt noch ne AGP Karte für die Übergangszeit. Möchte BF2 noch besser spielen können, als es mit der 9800er geht. das ist zwar ausreichend, aber bisschen besser wäre nicht schlecht. Ist denn die X800XT oder pro oder wie die alle heissen zu empfehlen? Welcher Hersteller und welcher Chip macht da wohl die beste Figur?

danke,
markus



Wieviel möchtest Du denn ausgeben?

Empfehlenswert für AGP wäre im Moment:
6800 Standard - ab 130,-
X800XT (PE) - ab 250,-


-- Veröffentlicht durch marqus am 17:43 am 8. Sep. 2005

Hm, das ist schade, dass keine GT als AGP gibt. Welche sollte ich mir denn jetzt kaufen. Ich suche halt noch ne AGP Karte für die Übergangszeit. Möchte BF2 noch besser spielen können, als es mit der 9800er geht. das ist zwar ausreichend, aber bisschen besser wäre nicht schlecht. Ist denn die X800XT oder pro oder wie die alle heissen zu empfehlen? Welcher Hersteller und welcher Chip macht da wohl die beste Figur?

danke,
markus


-- Veröffentlicht durch smoke81 am 17:35 am 8. Sep. 2005

X800GT Roundup


-- Veröffentlicht durch smoke81 am 17:12 am 8. Sep. 2005


Zitat von marqus um 17:02 am Sep. 8, 2005
weiss schon jemand, ob es eine x800GT als AGP geben wird? Gibts da was Neues?

danke



Sehr wahrscheinlich nicht.

Angeblich soll es die R520-Derivate (RV515,RV530 etc.) als AGP geben.


-- Veröffentlicht durch marqus am 17:02 am 8. Sep. 2005

weiss schon jemand, ob es eine x800GT als AGP geben wird? Gibts da was Neues?

danke


-- Veröffentlicht durch smoke81 am 15:12 am 8. Sep. 2005


Zitat von Henro um 14:56 am Sep. 8, 2005
ok dann hab ich noch ne letzte frage : wie siehts midder kühlung aus ? is die ausreichen und leise oder würde sich n anderer kühler lohnen ?



Keine Ahnung. Musst mal kammerjaeger fragen.
Es hat ja jeder auch andere Vorstellungen, was leise bedeutet.

Ich denke allerdings, dass die X800GT relativ leise ist und würde sie erstmal mit dem Standardlüfter betreiben.


-- Veröffentlicht durch Henro am 14:56 am 8. Sep. 2005

ok dann hab ich noch ne letzte frage : wie siehts midder kühlung aus ? is die ausreichen und leise oder würde sich n anderer kühler lohnen ?


-- Veröffentlicht durch smoke81 am 14:59 am 7. Sep. 2005


Zitat von Henro um 14:40 am Sep. 7, 2005
ok danke dir :thumb:



Bitte ;)

Für normale Ansprüche und 1280x1024 (mit 2 bis 4-fach AA, je nach Game) ein guter Kompromiss, wie man an dem Test bei hardwareluxx sehen kann :thumb:


-- Veröffentlicht durch Henro am 14:40 am 7. Sep. 2005

ok danke dir :thumb:


-- Veröffentlicht durch smoke81 am 14:30 am 7. Sep. 2005

Hier noch etwas zur X800GT

Diese konnte auf 600 Mhz Chiptakt gebracht werden :godlike:

Theoretisch ist die X800 von der Füllrate her überlegen. ABER 256 MB werden immer wichtiger und da kann die GT punkten. Das merkt man schon jetzt in HL2 und BF2.

In der PCGamesHardware 10/05 ist ein Vergleich von PCI-E Karten.
Getestet wurde mit 3 Games: SC3, Riddick, BF2.
Hierbei sind X800GT-256 und X800-256 gleichauf, die GT sogar minimal besser :thumb:

Das dürfte Dir doch bei einer Kaufentscheidung helfen :lol:

Wie schon öfter von mir gesagt: Bei (in etwa) identischer Füllrate lieber mehr Takt als Pipes. :godlike:

Hätten die beiden Karte absolut identische Füllraten (und Speicherbandbreiten), einmal mit 12 und einmal mit 8 Pipes, so hätte die 12 Pipe-Karte in 90% der Games keine Chance.


(Geändert von smoke81 um 14:40 am Sep. 7, 2005)


-- Veröffentlicht durch Henro am 14:18 am 7. Sep. 2005

jo aber wie du an kammers benchs siehts machens die 12 pipes wieder wett ...

weiterin kein plan :blubb:


einfacher wärs ja wenns irgendwo freischalt erfolge bei den x800gts geben würde ;)


-- Veröffentlicht durch smoke81 am 14:16 am 7. Sep. 2005


Zitat von Henro um 14:10 am Sep. 7, 2005
ne ich wollte definitiv nicht über 150€ ... also steh ich nun vor der frage : x800GT-256 oder x800-128 :noidea:


kein Plan :blubb:



Bei den billigen X800-128 ist der Speicher nur mit 350 DDR getaktet. Folglich um einiges langsamer als eine X800GT-256 ;)

Bei selbem Preis würde ich daher klar die GT nehmen.


-- Veröffentlicht durch Henro am 14:10 am 7. Sep. 2005

ne ich wollte definitiv nicht über 150€ ... also steh ich nun vor der frage : x800GT-256 oder x800-128 :noidea:


kein Plan :blubb:


-- Veröffentlicht durch BUG am 13:11 am 7. Sep. 2005

..ob 128 oder 256MB würde ich vom Preis abhängig machen. Wenn du die 256MB nur wenig mehr kostet, dann nimm diese. :)

cu
BUG


-- Veröffentlicht durch Henro am 12:10 am 7. Sep. 2005

hmpf ... das wäre für mich das kaufausschlagende argument gewesen.

jetzt weiß ich nicht was ich machen soll ... bisste dir sich das die werte gleich sind ?


-- Veröffentlicht durch kammerjaeger am 11:56 am 7. Sep. 2005


Zitat von Henro um 9:21 am Sep. 7, 2005
super das du das machst :thumb:


sagen mal könntest du vieleicht X800-128MB Werte dazupacken ? Weil die liegt preislich ~auf gleichem niveau wie die x800GT



Vielen Dank! :thumb:

Leider keine X800-128, die ich auspacken könnte greifbar. Dürfte aber kaum unter der X800-256 liegen...


-- Veröffentlicht durch Henro am 9:21 am 7. Sep. 2005

super das du das machst :thumb:


sagen mal könntest du vieleicht X800-128MB Werte dazupacken ? Weil die liegt preislich ~auf gleichem niveau wie die x800GT


-- Veröffentlicht durch kammerjaeger am 10:09 am 5. Sep. 2005

So, ein paar Aquamark-Werte wurde nachgereicht (siehe letzte Seite). :thumb:

(Geändert von kammerjaeger um 10:09 am Sep. 5, 2005)


-- Veröffentlicht durch smoke81 am 19:02 am 3. Sep. 2005


Zitat von kammerjaeger um 18:56 am Sep. 3, 2005
@ BUG

Ich war selbst überrascht, wie schlecht sie ist. Aber auch an der 6600 Diamond im Vergleich zur 6600GT kann man sehen, wie sensibel die 6xxx beim 05er auf Takt reagieren: Je 25% mehr GPU- und Speichertakt ergeben eine lineare Steigerung von 25%.




Ja.
Bei den 6600GTs reicht sogar oft eine Steigerung nur beim RAM aus, um relativ große Leistungssteigerungen zu erfahren.


-- Veröffentlicht durch kammerjaeger am 18:56 am 3. Sep. 2005

@ BUG
Die X800GT hat nur 8 Pipes. ;)


Zum Aquamark:
Zu den meisten Karten kann ich den Wert gerne nachliefern.


Was die 6800 im 05er angeht:
Ich war selbst überrascht, wie schlecht sie ist. Aber auch an der 6600 Diamond im Vergleich zur 6600GT kann man sehen, wie sensibel die 6xxx beim 05er auf Takt reagieren: Je 25% mehr GPU- und Speichertakt ergeben eine lineare Steigerung von 25%.



-- Veröffentlicht durch smoke81 am 16:17 am 3. Sep. 2005

Einfluss der Vertexshader:

6800LE 128MB 8/4 @ 410/950 - 3.312 Punkte


Wie man sieht, sind die Vertex-Einheiten im 3DMark05 zusammen mit einer 6800er relativ wichtig.

Erst bei höheren Auflösungen + AA wird der RAM-Takt entscheidender.


-- Veröffentlicht durch smoke81 am 16:02 am 3. Sep. 2005

Die 6800er ist eher füllratenlimitiert.

Config:
T-Bred 1700+ @ 11 * 205  -> 2,25GHz
ASRock k7upgrade Via KT880
2x 512MB PC400 @205MHz 2,5-3-3-8  (nur 2,6GB/s)
Nvidia 77.30, Settings auf Standard
3DMark05 1.0.0
Win XP SP2

6800LE 128MB 8/6 @ 410/700 - 3.379 Punkte
6800LE 128MB 8/6 @ 410/950 - 3.615 Punkte

Software-Update:
Nvidia 78.01, Settings auf Standard
3DMark05 1.2.0

6800LE 128MB 8/6 @ 410/950 - 3.593 Punkte


Mit AA bzw. höheren Auflösungen ist die 6800er sicher besser, da sie noch einige Reserven in der Bandbreite besitzt.
Eine 6600GT dagegen skaliert fast linear mit steigendem Ram-Takt.

EDIT:
Auch ein Beweis für meine Theorie, dass bei GPUs (zumeist) Takt mehr bringt als Pipes. ;)

(Geändert von smoke81 um 16:03 am Sep. 3, 2005)


-- Veröffentlicht durch BUG am 14:55 am 3. Sep. 2005


Zitat von kammerjaeger um 14:32 am Sep. 3, 2005
Ok, dann noch ein paar Werte und die Karten inkl. Taktung und Speichermenge:

Config:
A64 3000+ @FSB260 -> 2,34GHz
ASRock 939DUAL-SATA2
2x 512MB PC400 @214MHz 2,5-3-3-8
Omega-Treiber 5.6, Settings auf Standard
Nvidia 77.50, Settings auf Standard

3DMark2001:
9800Pro 128MB @ 380/680 19.900 Punkte
X800GT 256MB @ 475/980 - 21.300 Punkte
X800 256MB @ 400/700 - 22.700 Punkte
6600 128MB @400/800 - 18.100 Punkte
6600GT 128MB @500/1.000 - 20.300 Punkte
6800 128MB @325/700 - 20.900 Punkte
6800GT 256MB @350/1.000 - 22.900 Punkte

3DMark03:
9800Pro 128MB @ 380/680 6.100 Punkte
X800GT 256MB @ 475/980 - 8.600 Punkte
X800 256MB @ 400/700 - 9.800 Punkte
6600 Diamond 128MB @400/800 - 7.000 Punkte
6600GT 128MB @500/1.000 - 8.500 Punkte
6800 128MB @325/700 - 9.400 Punkte
6800GT 256MB @350/1.000 - 11.500 Punkte

3DMark05:
9800Pro 128MB @ 380/680 2.300 Punkte
X800GT 256MB @ 475/980 - 4.000 Punkte
X800 256MB @ 400/700 - 4.400 Punkte
6600 Diamond 128MB @400/800 - 2.700 Punkte
6600GT 128MB @500/1.000 - 3.400 Punkte
6800 128MB @325/700 - 3.200 Punkte
6800GT 256MB @350/1.000 - 4.900 Punkte

...wieso is die X800 GT mit 475/980 langsamer als die X800 mit 400/700?! :blubb: ..die haben doch beide 12 Pipes oder?! ..oder hast du du versehentlich die Werte "vertauscht"?



Was extrem auffällt, ist die Limitierung der 6800 durch den niedrigen Speichertakt beim 05er. Da wird sie sogar von der 6600GT geschlagen. ;)

..da limitiert was anderes, an Bandbreite mangelt es der 6800 mit Sicherheit nicht (hat ja dank 256Bit deutlich mehr zu bieten als die 6600GT). Aber die 6600 hat in etwa (dank der 500 MHz CoreTakt) die Selbe Füllrate und Pixelshader Leistung der 6800 mit 12 Pipes und 325 MHz. Dazu kommt noch, dass die VertexShader Leistung der 6600GT höher ist als die der 6800 und der Murks05 ist recht Vertex Shader lastig, ein Grund wieso auch die ATI Karten sehr gut performen (ausgezeichneter Vertex-Shader Speed). :)

Edit: ..bei mir kommt ne 6800 bei 12 Pipes @ 375 MHz Core Takt und 400 MHz Speichertakt (2x400) auf knapp 4200 Punkte im 05er Murks (Treiber auf standard). Bei default Takt (325/700) und freigeschallteten 16 Pipes + 6 Vertex Shader auch knapp ~4200 Punkte.

Du kannst mal noch den Aquamurks dazu benchen. :thumb:

cu
BUG

(Geändert von BUG um 15:17 am Sep. 3, 2005)


-- Veröffentlicht durch kammerjaeger am 14:32 am 3. Sep. 2005

Ok, dann noch ein paar Werte und die Karten inkl. Taktung und Speichermenge:

Config:
A64 3000+ @FSB260 -> 2,34GHz
ASRock 939DUAL-SATA2
2x 512MB PC400 @214MHz 2,5-3-3-8
Omega-Treiber 5.6, Settings auf Standard
Nvidia 77.50, Settings auf Standard

3DMark2001:
9800Pro 128MB @ 380/680 19.900 Punkte
X800GT 256MB @ 475/980 - 21.300 Punkte
X800 256MB @ 400/700 - 22.700 Punkte
6600 128MB @400/800 - 18.100 Punkte
6600GT 128MB @500/1.000 - 20.300 Punkte
6800 128MB @325/700 - 20.900 Punkte
6800GT 256MB @350/1.000 - 22.900 Punkte

3DMark03:
9800Pro 128MB @ 380/680 6.100 Punkte
X800GT 256MB @ 475/980 - 8.600 Punkte
X800 256MB @ 400/700 - 9.800 Punkte
6600 Diamond 128MB @400/800 - 7.000 Punkte
6600GT 128MB @500/1.000 - 8.500 Punkte
6800 128MB @325/700 - 9.400 Punkte
6800GT 256MB @350/1.000 - 11.500 Punkte

3DMark05:
9800Pro 128MB @ 380/680 2.300 Punkte
X800GT 256MB @ 475/980 - 4.000 Punkte
X800 256MB @ 400/700 - 4.400 Punkte
6600 Diamond 128MB @400/800 - 2.700 Punkte
6600GT 128MB @500/1.000 - 3.400 Punkte
6800 128MB @325/700 - 3.200 Punkte
6800GT 256MB @350/1.000 - 4.900 Punkte

Aquamark3:
9800Pro 128MB @ 380/680 49.000 Punkte
X800GT 256MB @ 475/980 - Wert weiß ich nicht mehr 100%ig genau, hab vergessen ihn zu notieren, afaik ca. 58.000
X800 256MB @ 400/700 - 65.700 Punkte
6600 Diamond 128MB @400/800 - 49.900 Punkte
6600GT 128MB @500/1.000 - 58.200 Punkte
6800 128MB @325/700 - 57.100 Punkte
6800GT 256MB @350/1.000 - 65.800 Punkte

Hoffentlich kann ich die Tage noch eine X800 XL/XT dazu als Vergleich nehmen. :thumb:
Aber ich denke, es hilft vielen schonmal bei der Kartenfindung...

Was extrem auffällt, ist die Limitierung der 6800 durch den niedrigen Speichertakt beim 05er. Da wird sie sogar von der 6600GT geschlagen. ;)

(Geändert von kammerjaeger um 11:27 am Sep. 29, 2005)


-- Veröffentlicht durch smoke81 am 12:11 am 3. Sep. 2005

@ kammer

Wäre gut, wenn Du bei der X800(GT) Speicherausstattung und Taktung mit angibst, da es da schon wesentliche Unterschiede gibt.

Die X800GT gefällt mir echt. Hab doch letztens irgendwo einen Test gelesen (hardwareluxx?) da haben sie die GPU auf satte 600 Mhz übertakten können... ;)

Aber mal schauen, was die nächste Generation so mit sich bringt. Meine übertaktete 6800LE schafft ja auch 3400 Points in 3DMark05, da lohnt sich der Umstieg bei den derzeitigen Mainstream-Modellen nicht wirklich...


-- Veröffentlicht durch kammerjaeger am 23:40 am 2. Sep. 2005

Werte sind bei den Grafikkarten alle unübertaktet. ;)


-- Veröffentlicht durch Rulinator am 19:03 am 2. Sep. 2005

nur 4900 pkt? :noidea:


-- Veröffentlicht durch kammerjaeger am 19:00 am 2. Sep. 2005

Update der Benchmarks:
Eine 6600GT (128MB GDDR3) und eine 6800GT (die vollwertige mit 256MB) sind dazu gekommen.

Config:
A64 3000+ @FSB260 -> 2,34GHz
ASRock 939DUAL-SATA2
2x 512MB PC400 @214MHz 2,5-3-3-8
Omega-Treiber 5.6, Settings auf Standard
Nvidia 77.50, Settings auf Standard

3DMark2001:
X800GT - 21.300 Punkte
X800 - 22.700 Punkte
6600 @400/800 - 18.100 Punkte
6600GT - 20.300 Punkte
6800GT - 22.900 Punkte

3DMark03:
X800GT - 8.600 Punkte
X800 - 9.800 Punkte
6600 @400/800 - 7.000 Punkte
6600GT - 8.500 Punkte
6800GT - 11.500 Punkte

3DMark05:
X800GT - 4.000 Punkte
X800 - 4.400 Punkte
6600 @400/800 - 2.700 Punkte
6600GT - 3.400 Punkte
6800GT - 4.900 Punkte

Spätestens beim 05er merkt man doch, wie schnell der 6600er Serie die Puste ausgeht

Benchmarks mit X800 Pro/XL und 6800 LE/nonLE werden bei Gelegenheit folgen...


-- Veröffentlicht durch kammerjaeger am 22:36 am 1. Sep. 2005

Ok, ok, ich bin ja schon dabei...

Benchmarks ergänzt mit Radeon X800. Weiter Benches mit 6800(GT) folgen...

Config:
A64 3000+ @FSB260 -> 2,34GHz
ASRock 939DUAL-SATA2
2x 512MB PC400 @214MHz 2,5-3-3-8
Omega-Treiber 5.6, Settings auf Standard
Nvidia 77.50, Settings auf Standard

3DMark2001:
X800GT - 21.300 Punkte
X800 - 22.700 Punkte
6600 @400/800 - 18.100 Punkte

3DMark03:
X800GT - 8.600 Punkte
X800 - 9.800 Punkte
6600 @400/800 - 7.000 Punkte

3DMark05:
X800GT - 4.000 Punkte
X800 - 4.400 Punkte
6600 @400/800 - 2.700 Punkte

Bedenkt man den Mehrpreis der X800 von mind. 20-30% bei nur ca. 10% Mehrleistung, so hält sich die GT auch in diesem Vergleich sehr wacker. :thumb:

to be continued...


-- Veröffentlicht durch Fouche am 2:34 am 1. Sep. 2005

mal nach vorne schieben das der gute kammerjaeger auch ja net vergißt zu testen....:lol:...;)


-- Veröffentlicht durch Henro am 21:10 am 27. Aug. 2005

die x800gt hat doch aber n 256bit speicherinterface oder ?

und wie siehts mit freischalten aus ? gibs da software und is überhaupt n chip mit deaktivierten pipes drauf ?


-- Veröffentlicht durch Beschleunigen am 19:04 am 26. Aug. 2005

die PCIe versionen des NV40 dürfen gern etwas teurer sein. immerhin sind die PCIe 68GTs alles verkappte Ultras.  auf AGP karten fehlt nicht nur die SLI möglichkeit; auch die karten PCBs unterscheiden sich in layout und bestückung von den AGP-ultra platinen (wandlerzahl, anzahl der stützspannungsanschlüsse und wahrscheinlich auch PCB layer).

wie gesagt: bei PCIe sind's bei GT und Ultra identische boards und mir ist auch noch keine GT untergekommen, die nach einem kühlerwechsel (auf zalman vf700cu) nicht mit ultra-bios lief (425/1100mhz). der gravierendste unterschied ist mitunter 2.0ns (GT) zu 1.6ns (Ultra) RAM. jedoch wirkt sich das nur bei OC aus. man muss schon schlechte 2ns module erwischen, dass selbige die 550MHz statt der üblichen 500MHz nicht schaffen.

(..)

mfg
tobi

(Geändert von Beschleunigen um 19:50 am Aug. 26, 2005)


-- Veröffentlicht durch Fairy am 17:32 am 26. Aug. 2005

eben die sind ziemlich teuerer als die AGP Versionen darum ist die x800gt
oder die X800GTO (was vorhin gelesen habe) ganz gut.


-- Veröffentlicht durch smoke81 am 14:33 am 26. Aug. 2005


Zitat von kammerjaeger um 2:05 am Aug. 26, 2005
Sie hat halt "nur" 8 Pipes, aber dafür recht hohen Takt. Gedacht als Konkurrent zu 6600GT/6800, nicht 6800GT/Ultra.   ;)



Wobei der Vergleich 6800 <-> X800GT wohl am interessantesten wäre.
Wer in AGP noch eine Mainstream-Karte sucht, ist zur Zeit bei der 6800er am Besten aufgehoben (130,-) :thumb:


Ich finde das im PCI-Express/Mainstream-Bereich NVidia nicht wirklich konkurrenzfähig ist (erst Geforce 7 - abwarten bis ATI R520 kommt). Die Karten sind zumeist zu teuer, v.a. stöt mich der Aufpreis von 20% (6800GT) bis 50% (6800) gegenüber den AGP-Pendants.


-- Veröffentlicht durch kammerjaeger am 2:05 am 26. Aug. 2005

Sie hat halt "nur" 8 Pipes, aber dafür recht hohen Takt. Gedacht als Konkurrent zu 6600GT/6800, nicht 6800GT/Ultra.   ;)


-- Veröffentlicht durch DooM1987 am 1:26 am 26. Aug. 2005

die x800gt soll ja eher eine abgespeckte version sein oder? :noidea:


-- Veröffentlicht durch kammerjaeger am 0:22 am 26. Aug. 2005

Ich werde es bald testen... ;)


-- Veröffentlicht durch marqus am 0:14 am 26. Aug. 2005

ja aber kompensieren denn die 4 pipes den niedrigeren takt?


-- Veröffentlicht durch kammerjaeger am 23:45 am 25. Aug. 2005

Standard bei der X800 ist 400/700MHz. Wie hoch sie geht, ist von Karte zu Karte unterschiedlich...
Dafür hat sie eben 4 Pipes mehr. ;)


-- Veröffentlicht durch marqus am 22:45 am 25. Aug. 2005

ist die sehr viel niedriger getaktet, oder bekommt man die X800 auf GT Niveau? wird gehen, oder, aber dafür geht halt die GT auch wieder höher...


-- Veröffentlicht durch kammerjaeger am 22:42 am 25. Aug. 2005


Zitat von marqus um 13:38 am Aug. 25, 2005
Gibts denn ne x800GT für AGP? Bis jetzt hab ich keine gefunden?



Noch nicht. Ob sie kommt, ist aber ungewiss.
Alternative ist die X800. 4 Pipes mehr, aber niedriger getaktet. Preise um 180,-. ;)


-- Veröffentlicht durch Philipp Stottmeister am 17:00 am 25. Aug. 2005

Ich stelle die AGP Aperature Size immer auf 16MB. Die Karten heute benötigen die AGP Aperature Size nicht mehr, da sie sowieso genug Speicher drauf haben und der Ram auffem Board eh zu lahm ist. Also runter damit :thumb:


-- Veröffentlicht durch DooM1987 am 15:16 am 25. Aug. 2005

ne - bisjetzt gibts keine


-- Veröffentlicht durch marqus am 13:38 am 25. Aug. 2005

Gibts denn ne x800GT für AGP? Bis jetzt hab ich keine gefunden?


-- Veröffentlicht durch DooM1987 am 12:23 am 25. Aug. 2005

ja das meine ich. bringt also nichts =/

naja 200-250€ als schüler für 256mb karte sind etwas zuviel da sich drunter kaum was lohnt


-- Veröffentlicht durch Beschleunigen am 9:44 am 25. Aug. 2005

shared memory? hast du ein notebook oder meinst du das AGP fenster (AGP aperature size) ?

was man da einstellt ist schall und rauch. auf AGP systemen hab' ich immer die gleiche grösse gewählt, die auch physikalisch auf dem grafikboard sitzen.

(..)

mfg
tobi


-- Veröffentlicht durch DooM1987 am 9:36 am 25. Aug. 2005

wie ist das eig. im bios man kann ja shared memory einstellen.. da 1,5gb reichen würden für bf2, kann ich da von 2gb, 512mb shared memory machen? oder bringt das überhaupt nichts?


-- Veröffentlicht durch Beschleunigen am 8:26 am 25. Aug. 2005


spiele nur mit 1024er, da war alles auf high bis auf texturen wegen zu wenig ram, super flüssig


jepp. speicher und vram. meine 3GB maschine bewegt 1280 pixel in bf2 sogar noch mit allem was geht incl. 4xMSAA (gc) / FW@HQ no optis.

(..)

mfg
tobi


-- Veröffentlicht durch DooM1987 am 8:02 am 25. Aug. 2005

hab ohne oc so wies jetzt auch grad läuft 8,9-9k im 3d mark03 :)

@beschleunigen
spiele nur mit 1024er, da war alles auf high bis auf texturen wegen zu wenig ram, super flüssig

(Geändert von DooM1987 um 8:05 am Aug. 25, 2005)


-- Veröffentlicht durch Beschleunigen am 5:16 am 25. Aug. 2005

teste mal battlefield² mit 1280pixeln. da fängt meine FX nämlich das straucheln an und man muss effekte zurückschrauben. 128MB sind echt zu wenig. da kann man in doom³ doch auch nur die medium texturen wählen..


(..)

mfg
tobi


-- Veröffentlicht durch kammerjaeger am 2:27 am 25. Aug. 2005


Zitat von DooM1987 um 2:18 am Aug. 25, 2005
hmm naja meine 6800le is da wohl doch noch nen ganzes stück besser was ich bisher so gelesen hab. sie hat ja 12/6.. da lohnt sich unter 200€ rein garnichts wie ich das sehe.. nachteil ist halt DDR1 und 128MB.. die leistung hat sie aber dafür



Wieviel macht sie denn ohne OC mit 12/6 im 3DMark03?
Wenn ich mir Deine obigen Werte so ansehe, hat sie gegen die X800GT schlechte Karten... ;)
Aber ich teste es ja auch noch mit der 6800 im Vergleich.


-- Veröffentlicht durch DooM1987 am 2:18 am 25. Aug. 2005

hmm naja meine 6800le is da wohl doch noch nen ganzes stück besser was ich bisher so gelesen hab. sie hat ja 12/6.. da lohnt sich unter 200€ rein garnichts wie ich das sehe.. nachteil ist halt DDR1 und 128MB.. die leistung hat sie aber dafür


-- Veröffentlicht durch kammerjaeger am 19:12 am 24. Aug. 2005

@ BUG

Liegt leider nicht bei.



@ smoke81

Inzwischen gibt es auch X800 für AGP, die sind preislich mit ca. 180,- auch nicht zu verachten. ;)


-- Veröffentlicht durch Fouche am 14:52 am 24. Aug. 2005


Zitat von kammerjaeger um 18:53 am Aug. 22, 2005
PowerColor.
Zum OC komme ich erstmal nicht, zuviel Streß... ;)





mir brauchst die nicht schicken...
ich komm auch zu dir zum testen...:lol:


-- Veröffentlicht durch smoke81 am 14:47 am 24. Aug. 2005

Ganz klare Budget-Empfehlung:
PCI-Express: X800 GT
AGP: 6800 (mit Einschränkungen 6800LE)

(Geändert von smoke81 um 14:48 am Aug. 24, 2005)


-- Veröffentlicht durch BUG am 14:14 am 24. Aug. 2005


Zitat von kammerjaeger um 2:20 am Aug. 24, 2005
Zum Board: Ja, hat den ULi 1695.
Entgegen einigen Berichten im Netz schafft meins jedoch nichtmal ganz FSB280, was ich aber eher auf die CPU und Bios-Version (eben Beta-Status...) schiebe als auf das Board.
Grund: Der Multi wird nach dem Abspeichern im Bios nicht immer wirklich übernommen, wodurch ich keinen kleinen Multi als 9x fahren kann. Und für mehr als ca. 2,5GHz scheint es bei der CPU mit 1,45V nicht zu reichen...

..liegt dem Board eigentlich dieser SLI bzw. CrossFire Adapter / Riser-Card bei, oder muß man die extra kaufen? :)

cu
BUG


-- Veröffentlicht durch DooM1987 am 11:12 am 24. Aug. 2005

sieht aus wie das alte :)


-- Veröffentlicht durch kammerjaeger am 9:00 am 24. Aug. 2005


Zitat von DooM1987 um 4:11 am Aug. 24, 2005
ist deins denn auch Reference 2?
Link



klick ;)


-- Veröffentlicht durch DooM1987 am 4:11 am 24. Aug. 2005

ist deins denn auch Reference 2?
Link




Übrigens gibt es die X800 inzwischen vergleichbar günstig, zumindest als 128MB-Version für AGP und PCIe. Wird interessant, was mehr bringt. Mehr Speicher und GPU-Takt oder 4 weitere Pipes?



Ich denk da wird es keinen bedeutenden unterschied geben.
hab da nen ganz gutes beispiel:

6800LE nonOC 8/4 @ 6,4k 3d marks
6800LE nonOC 12/4 @ 7,5k 3d marks
6800LE 335/800 (300/700) 8/4 @ 7,3k 3d marks

ich schätze mal bei 350 chiptakt wären auch 7,5k drin gewesen


-- Veröffentlicht durch kammerjaeger am 2:20 am 24. Aug. 2005


Zitat von kammerjaeger um 0:14 am Aug. 24, 2005
Ergebnisse auf einem Nforce4-4x sowie weitere Karten als Vergleich folgen



;)
Kommt doch alles noch...
Sowohl eine 6800 als auch evtl. die 6800GT sowie die X800 werden wohl noch getestet. Übrigens gibt es die X800 inzwischen vergleichbar günstig, zumindest als 128MB-Version für AGP und PCIe. Wird interessant, was mehr bringt. Mehr Speicher und GPU-Takt oder 4 weitere Pipes?

Zum Board: Ja, hat den ULi 1695.
Entgegen einigen Berichten im Netz schafft meins jedoch nichtmal ganz FSB280, was ich aber eher auf die CPU und Bios-Version (eben Beta-Status...) schiebe als auf das Board.
Grund: Der Multi wird nach dem Abspeichern im Bios nicht immer wirklich übernommen, wodurch ich keinen kleinen Multi als 9x fahren kann. Und für mehr als ca. 2,5GHz scheint es bei der CPU mit 1,45V nicht zu reichen...

(Geändert von kammerjaeger um 2:28 am Aug. 24, 2005)


-- Veröffentlicht durch DooM1987 am 2:14 am 24. Aug. 2005

ja schön, is das Board das mit dem neuem ULi Chipsatz ? Möcht ich auch holen.

Achso und zum Test; Deine X800 GT hat 256Mb Ram und kostet rund 160€ da solltest du schon eine andere von nv aussuchen :)
die 128MB Version davon hat 392/350 MHz Taktung zum Preis von 130€.

hmm wie ich sehe hat nv nicht viel auswahl in der Preisklasse, ab 170€ gibts ne 6800LE danach kommt ne 6600GT. Könntest du diese auch noch Testen? Wäre mir dann echt ne überlegung Wert ne neue Karte zu kaufen.


-- Veröffentlicht durch kammerjaeger am 0:14 am 24. Aug. 2005

So, mal erste Ergebnisse:

Karte ist da, Layout schön klein (also auch für Barebones etc. geeignet).
Standard-Taktung liegt bei 475/490MHz (bzw. 475/980MHz).
Getestet bisher nur in einem ASRock 939DUAL-SATA2, welches mit den Standard-Treibern recht niedrige Werte im 3DMark05 erreicht (erhoffe da durch neue Chipsatz-Treiber eine Verbesserung). Daher liefere ich auch die Ergebnisse einer
6600 Diamond (400/800MHz) mit, Ergebnisse auf einem Nforce4-4x sowie weitere Karten als Vergleich folgen.
Alle Werte ohne GraKa-OC, Benchmarks auf 100er-Werte gerundet!

Config:
A64 3000+ @FSB260 -> 2,34GHz
2x 512MB PC400 @214MHz 2,5-3-3-8
Omega-Treiber 5.6, Settings auf Standard
Nvidia 77.50, Settings auf Standard

3DMark2001:
X800GT - 21.300 Punkte
6600 Dia. - 18.100 Punkte

3DMark03:
X800GT - 8.600 Punkte
6600 Dia. - 7.000 Punkte

3DMark05:
X800GT - 4.000 Punkte
6600 Dia. - 2.700 Punkte

So, die erste Runde ging klar an den Neuling. :thumb:
Mal sehen, was die größeren Brüder zu sagen haben und wie sich die niedriger getaktete 256bit-Konkurrenz von Nvidia schlägt... ;)


-- Veröffentlicht durch DooM1987 am 20:50 am 22. Aug. 2005

schick mir eine ich mach das:lol:


-- Veröffentlicht durch kammerjaeger am 18:53 am 22. Aug. 2005

PowerColor.
Zum OC komme ich erstmal nicht, zuviel Streß... ;)


-- Veröffentlicht durch Fairy am 10:50 am 22. Aug. 2005

testest du dann auch danach mal wie gut man die ocen kann?

Welche hast du bestellt?


-- Veröffentlicht durch DooM1987 am 10:28 am 22. Aug. 2005

na hoffentlich.. bin nämlich kurz davor nen neues mainboard zu kaufen.. evtl. ja dann mit pcie :)


-- Veröffentlicht durch kammerjaeger am 8:44 am 22. Aug. 2005

Noch nicht. Hatte Freitag auf die Karte gehofft, wird aber wohl erst heute kommen... ;)


-- Veröffentlicht durch DooM1987 am 8:13 am 22. Aug. 2005

@kammerjäger
wie siehts aus, schon getestet? =)


-- Veröffentlicht durch Fairy am 7:56 am 22. Aug. 2005

gibts endlich mal erste user tests?


-- Veröffentlicht durch FalloutBoy am 1:10 am 22. Aug. 2005

kommt dat dingen denn jeze noch füa AGP ? .. hat dajmd nE pLan .. wär ganz goil so :lol:


-- Veröffentlicht durch Fouche am 0:40 am 22. Aug. 2005

ich sach ja...NV - vs - ATI... :lol:

auch wenn ich als 'leie' nur die hälfte verstehe,interesant ists trotzdem:thumb:

(Geändert von Fouche um 0:41 am Aug. 22, 2005)


-- Veröffentlicht durch Judgi am 19:20 am 21. Aug. 2005


Zitat von VoooDooo um 12:51 am Aug. 21, 2005
ich wart schon seit ein paar Seiten das dieser Thread endlich zu gemacht wird!!!



mmmnajaaa umbenennen würd eigentlich reichen... :giveup:


-- Veröffentlicht durch VoooDooo am 12:51 am 21. Aug. 2005

ich wart schon seit ein paar Seiten das dieser Thread endlich zu gemacht wird!!!


-- Veröffentlicht durch kammerjaeger am 11:38 am 21. Aug. 2005


Zitat von Beschleunigen um 11:18 am Aug. 21, 2005
um nochmal auf das thema ATI und HDR zu kommen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=243358

(..)

mfg
tobi



Was will und dieser Mann damit sagen??? :noidea:

Ist doch nur die Wiederholung dessen, was Du schon mehrfach gesagt hast und was schon mehrfach revidiert wurde!

Nvidia kann zwar z.Zt. "besseres" HDR als ATI, aber immer noch kein echtes HDR. Das ändert sich auch nicht, selbst wenn Du die gleichen Argumente noch 100x bringst. ;)

Laß es einfach gut sein, die Diskussion ist nur noch ermüdend und sinnlos.
Du wirst nie ATI kaufen, aber das ist auch gut so, denn Konkurrenz belebt den Markt....

(Geändert von kammerjaeger um 11:39 am Aug. 21, 2005)


-- Veröffentlicht durch Beschleunigen am 11:18 am 21. Aug. 2005

um nochmal auf das thema ATI und HDR zu kommen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=243358

(..)

mfg
tobi


-- Veröffentlicht durch supercomputerms am 8:37 am 21. Aug. 2005

hi

@Judgi

hast ja eigentlich Recht :lol:, mich wundert nur ein wenig, dass es nirgends detailierte Fakten oder Stellungnahmen von NVIDIA oder ATI gibt:noidea:


-- Veröffentlicht durch Judgi am 22:37 am 20. Aug. 2005


Zitat von skynet um 17:05 am Aug. 20, 2005
doch, NV hat ECHTES HDR! udn das schon seit weit über nem jahr... ATI hats erst mit R520... wenn überhaupt. :lol:



ich denk Nvidia hats mit 16 bit und Ati mit 8bit - und 32 müsstens eigentlich sein -sogesehen habens beide nicht und am wenigsten hats ATI - deshalb sind die langsamer...:blubb:  ich denk ne X800 kann das auch schon... .... genauso schlecht wie die 6800er !!?? muharr

ach geht mir wech mit eurem Rumgezicke...." meine Karte ist aba schöner/ besser/ höher/ weiter als deine^^  - aber sehr interessant zu verfolgen eure Keiferei hier :lol:

Ihr zankt über Faktoren die 99,5% der Ottonormaluser garnicht raffen... oder inGame nicht sehen...
Ich denk da so an den Computerladen umme Ecke : " jaja..der U-Guru Chip auf dem Abit bringt locker 40% mehr Leistung... "  - lol von was denn ?? 40% mehr Lesedurchsatz auf den Sensoren oder was ...:lol:
na da wird man ja gut beraten was ??

- ich warte erstmal "LostCoast" ab - ma sehen wie Valve das hintrickst mit dem HDR... für beide Karten

Soll übrigens das ERSTE Game mit ECHTEM HDR sein ... !! :noidea: was man nich alles so liest...^^


Die Frage nach den Games die Shader 3.0 unterstützen steht übrigens immernoch offen !!! - welche sind's denn nun - für welches von den 3 Games die da in Frage kämen soll ich jetzt ne NV kaufen... ?? oder warens doch schon 5 Spiele :noidea: - ach Stalker evtl. jaaaa wann kommt das jetzt ?? 2009 ??


und denkt dran : je höhäär - desto wenigäär...

nix für ungut... :godlike::ocinside:


-- Veröffentlicht durch skynet am 17:05 am 20. Aug. 2005

doch, NV hat ECHTES HDR! udn das schon seit weit über nem jahr... ATI hats erst mit R520... wenn überhaupt. :lol:


-- Veröffentlicht durch MiCrO am 13:44 am 20. Aug. 2005

Wenn ich das hier richtig verstehe hat Nvidia ja auch noch kein richtiges hdr oder?

Allerdings handelt es sich hier höchstwahrscheinlich nicht um "echtes" HDR, da dieses von aktuellen Grafikkartengenerationen noch nicht unterstützt wird. nVidia bietet zwar mit der GeForce 6-Serie schon eine Genauigkeit von 16 Bit pro Kanal, dies erfüllt jedoch nicht die Anforderungen von HDR, das ja 32 Bit für jeden Kanal vorschreibt.


-- Veröffentlicht durch Beschleunigen am 9:20 am 20. Aug. 2005


hi

@beschleunigen

ganz langsam, was bei der Geforce6 HDR heisst, ist genausoviel HDR wie bei Radeon

Denn:
http://3dfusion.de/forum/showthread.php?p=129582#post129582
http://www.forumdeluxx.de/forum/showthread.php?t=145852
http://de.wikipedia.org/wiki/HDR



ist humbug -> geh' ins 3Dcenter und sprich mit demirug oder aths.

für richtiges "high-dynamic-range" benötigt eine GPU FP16_Blending ROPs. die hat ATI nunmal nicht. also kann man auf ATI karten nur mit blooming und blending HDR faken, bzw. man kann die fehlenden ROPs über die pixelshader emulieren. was bei einem 2.x shader theoretisch unendlich langsam wird. geschätzt etwa faktor 1:10 bei gleichem content.

sollte eine FP16 emulation über die pixelshader tatsächlich gleichschnell oder sogar schneller sein, als die hardware unterstützung, so muss man sich nicht fragen wie das realisiert wurde, sondern vielmehr wo jetzt wieder getrickst wurde.


(..)

mfg
tobi

(Geändert von Beschleunigen um 12:10 am Aug. 20, 2005)


-- Veröffentlicht durch DooM1987 am 16:22 am 19. Aug. 2005


Zitat von kammerjaeger um 19:00 am Aug. 18, 2005

Zitat von DooM1987 um 18:07 am Aug. 18, 2005

edit:
hat nun jemand ne x800gt ?? ich denk sie passt sehr gut ins preis & leistungsverhältnis für 150€



Morgen sollen die ersten Exemplare bei mir eintreffen. Ich hoffe, daß ich Zeit zum Testen finde... ;)






dann bin ich mal gespannt auf ergebnisse, evtl. nimmt mein bruder so eine


-- Veröffentlicht durch supercomputerms am 14:50 am 19. Aug. 2005

hi

@beschleunigen

ganz langsam, was bei der Geforce6 HDR heisst, ist genausoviel HDR wie bei Radeon:lol:

Denn:
http://3dfusion.de/forum/showthread.php?p=129582#post129582
http://www.forumdeluxx.de/forum/showthread.php?t=145852
http://de.wikipedia.org/wiki/HDR

:ocinside:

(Geändert von supercomputerms um 14:55 am Aug. 19, 2005)


-- Veröffentlicht durch Beschleunigen am 19:07 am 18. Aug. 2005

dieses jahr ist für mich keine grafikkarte mehr drin. allenfalls eine 6800XT oder sowas für eins der alten systeme.

in 3 monaten brauch' ich ne stange geld für xbox360, oblivion und einen anständigen hochauflösenden fernseher.

(..)

mfg
tobi


-- Veröffentlicht durch kammerjaeger am 19:00 am 18. Aug. 2005


Zitat von DooM1987 um 18:07 am Aug. 18, 2005

edit:
hat nun jemand ne x800gt ?? ich denk sie passt sehr gut ins preis & leistungsverhältnis für 150€



Morgen sollen die ersten Exemplare bei mir eintreffen. Ich hoffe, daß ich Zeit zum Testen finde... ;)


-- Veröffentlicht durch BUG am 18:16 am 18. Aug. 2005

..also bei mir bleibts Winkelabhängig, jedenfals bei 8x und bei 16x (laut AF Tester) auch wenn es immernoch etwas anders (besser) aussieht als ganz ohne SSAA. Aber das hat für mich keinen praktischen nutzen, SSAA kostet bei mir einfach viel zu viel Leistung. Desweiteren stört mich die Winkelabhängigkeit nicht wirklich (hat mich bei ATI auch nicht gestört) nur das Flimmern im Q Modus nervt mich was sich zum Glück mit HQ größtenteils beheben lässt (leider aber eben auch in Verbdinung mit einem Leistungseinbruch ggü. dem Q-Modus der von nVidia empfoheln wird).

cu
BUG

(Geändert von BUG um 18:18 am Aug. 18, 2005)


-- Veröffentlicht durch skynet am 18:10 am 18. Aug. 2005


Zitat von BUG um 12:02 am Aug. 17, 2005

Bei SSAA gibts immernoch optimiertes AF, die Winkelabhängigkeit bleibt bzw. ist weiterhin vorhanden.

cu
BUG



nein, das ist ja grade das schöne, es ist 100% nicht winkelabhängig, darfst dir das gerne auch nochmal von demirug oder aths erklären lassen. :)


-- Veröffentlicht durch DooM1987 am 18:07 am 18. Aug. 2005


Zitat von Philipp Stottmeister um 17:15 am Aug. 18, 2005

--> eure begründungen sind doch nur alibis. der wahre grund ist doch wohl eher das begrenzte bugdet, sonst hättet ihr eure erfahrungen nicht auf der low-enthusiast entry class gesammelt, sondern ebenfalls Ultras ins system gehängt -> die hat keine leistungs-defizite.



Ich denke eher das der Großteil hier zwar die Möglichkeiten hätte aber in Anbetracht der derzeitigen Innovationszyklen den Geist besitzt nicht 500€ für ne Grafikkarte auszugeben.
Dadurch ergibt sich auch der Vorteil das man sein veraltetes Top-modell nicht noch monatelang nachdem der Nachfolger auf dem Markt ist gut reden muss um seine (sinnlose) Investition vor anderen und sich selbst zu rechtfertigen.


Meine Meinung. :thumb:

(Geändert von Philipp Stottmeister um 17:17 am Aug. 18, 2005)




... ob wenn sich die leute ne 68ultra kaufen für 3xx€ statt ne 78gt für 360 oder ne gtx für 400.. das ist sinnlos :)

edit:
hat nun jemand ne x800gt ?? ich denk sie passt sehr gut ins preis & leistungsverhältnis für 150€

(Geändert von DooM1987 um 18:09 am Aug. 18, 2005)


-- Veröffentlicht durch Philipp Stottmeister am 17:15 am 18. Aug. 2005


--> eure begründungen sind doch nur alibis. der wahre grund ist doch wohl eher das begrenzte bugdet, sonst hättet ihr eure erfahrungen nicht auf der low-enthusiast entry class gesammelt, sondern ebenfalls Ultras ins system gehängt -> die hat keine leistungs-defizite.



Ich denke eher das der Großteil hier zwar die Möglichkeiten hätte aber in Anbetracht der derzeitigen Innovationszyklen den Geist besitzt nicht 500€ für ne Grafikkarte auszugeben.
Dadurch ergibt sich auch der Vorteil das man sein veraltetes Top-modell nicht noch monatelang nachdem der Nachfolger auf dem Markt ist gut reden muss um seine (sinnlose) Investition vor anderen und sich selbst zu rechtfertigen.


Meine Meinung. :thumb:

(Geändert von Philipp Stottmeister um 17:17 am Aug. 18, 2005)


-- Veröffentlicht durch kammerjaeger am 16:16 am 18. Aug. 2005


Zitat von Beschleunigen um 13:50 am Aug. 18, 2005
das sagt der typ mit der roten fahne und dem stapel ATI karten im lager..

:lol:

(..)

mfg
tobi



:blubb:

Im Gegensatz zu Dir hab ich schließlich beide Hersteller in meinen Rechnern.... ;)



-- Veröffentlicht durch VoooDooo am 14:39 am 18. Aug. 2005


Zitat von Rulinator um 13:05 am Aug. 18, 2005
ich liebe es :blubb:


ich auch ;) :blubb: !!!


-- Veröffentlicht durch Beschleunigen am 13:50 am 18. Aug. 2005

das sagt der typ mit der roten fahne und dem stapel ATI karten im lager..

:lol:

(..)

mfg
tobi


-- Veröffentlicht durch kammerjaeger am 13:05 am 18. Aug. 2005


Zitat von Beschleunigen um 9:44 am Aug. 18, 2005

quote mal bitte, wo ich das geschrieben habe.



Gerne. Als Ergänzug zu BUG:


Zitat von Beschleunigen um 13:09 am Aug. 11, 2005

wer sich das vollpreis-produkt kauft, kriegt von den "schattenseiten" auch herzlich wenig mit.





Zitat von Beschleunigen um 12:07 am Aug. 16, 2005

der witz ist doch, dass keiner von euch überhaupt kohle hat, eine ultra zu kaufen und dann über irgendwelche internet-tests oder erfahrungen mit der light-version einer karte  (FX-XT, GF68LE uws) meint, erfahrungswerte abgeben zu können.

faktisch sieht's übrigens so aus, dass man auf NVidia hardware einfach mehr content bekommt --> ups.. was'n ein content ?

--> eure begründungen sind doch nur alibis. der wahre grund ist doch wohl eher das begrenzte bugdet, sonst hättet ihr eure erfahrungen nicht auf der low-enthusiast entry class gesammelt, sondern ebenfalls Ultras ins system gehängt -> die hat keine leistungs-defizite.

(..)

mfg
tobi




Man sollte zumindest wissen, was man selber geschrieben hat.
Aber Markenblindheit treibt oft seltsame Blüten... :lol:



-- Veröffentlicht durch Rulinator am 13:05 am 18. Aug. 2005

ich liebe es :blubb:


-- Veröffentlicht durch BUG am 11:35 am 18. Aug. 2005


Zitat von Beschleunigen um 9:44 am Aug. 18, 2005
..wozu?  man braucht doch nur die alleinstellungsmerkmale der IHVs vergleichen. da gäbe es bei ATI dann 6xMSAA und bei NV etliche andere (SM3, HDR, SuperSampling etc.).  für den durchschnittzocker machts fps technisch keine unterschiede (innerhalb einer preisklasse).

..da wären noch Gamma Korrigiertes FSAA, 3DC Textur Kompression und Treiber Optimierungen die man meist nutzen kann ohne das Texturen anfangen zu flimmern/grieseln und Supersampling gibts auf der ATI mit dem DX-Tweaker. Auf 3rd Party Tools sind mehr oder weniger beide angewiesen oder nutzt du den 8xS Modus?


Nur hat tobi eben damit angefangen, daß ja alles unter einer 6800U PCIe Dreck wäre, von ATI ganz zu schweigen...  

quote mal bitte, wo ich das geschrieben habe.

..naja, mehr oder weniger durch die Blume, jedenfals kommt es so rüber:


ATI ist für kinder, söhne und kleine brüder.  leute, die ausser der windows-maus nichts schwingen können. die quasi mit 2 jahre alter technik leben können.  plattformübergreifend ist ATI jedenfalls keinesfalls. neben den technischen defiziten, also der 2. grund dieses crap nicht zu kaufen.

.
.
.

--> eure begründungen sind doch nur alibis. der wahre grund ist doch wohl eher das begrenzte bugdet, sonst hättet ihr eure erfahrungen nicht auf der low-enthusiast entry class gesammelt, sondern ebenfalls Ultras ins system gehängt -> die hat keine leistungs-defizite.



:ohwell:

cu
BUG

(Geändert von BUG um 11:37 am Aug. 18, 2005)


-- Veröffentlicht durch Beschleunigen am 9:44 am 18. Aug. 2005


mach doch mal ein NV - vs - ATI Thread auf wo sich jeder mal so auslassen kann....


wozu?  man braucht doch nur die alleinstellungsmerkmale der IHVs vergleichen. da gäbe es bei ATI dann 6xMSAA und bei NV etliche andere (SM3, HDR, SuperSampling etc.).  für den durchschnittzocker machts fps technisch keine unterschiede (innerhalb einer preisklasse).


Nur hat tobi eben damit angefangen, daß ja alles unter einer 6800U PCIe Dreck wäre, von ATI ganz zu schweigen...  


quote mal bitte, wo ich das geschrieben habe.

(..)

mfg
tobi


-- Veröffentlicht durch Fouche am 1:15 am 18. Aug. 2005

das ja schade...da die karte mich sehr interesiert...


mach doch mal ein NV - vs - ATI Thread auf wo sich jeder mal so auslassen kann....:blubb::lol::blubb:


-- Veröffentlicht durch kammerjaeger am 22:08 am 17. Aug. 2005

So sollte es zumindest sein. Nur hat tobi eben damit angefangen, daß ja alles unter einer 6800U PCIe Dreck wäre, von ATI ganz zu schweigen... ;)

Also back to topic:
Z.Zt. sind wohl nur PCIe-Versionen der X800GT im Anflug (bzw. heute beim Importeur eingetroffen), ob AGP kommt ist noch unklar.


-- Veröffentlicht durch Fouche am 16:11 am 17. Aug. 2005

ok,kinders,
nachdem ihr euch hier ja nu über high-end grakas austobt,
können wir dann wieder zu theme kommen? :lol:

also ich hät immer noch gern gewußt ob diese x800 gt/rx als AGP-version verfügbar sein wird oder nicht?
weiß da jemand was?

3/4 des Threads bestehen immerhin schon aus antworten über 68** und höher (bzw. das passende gegenstück von ATI)...hier gehts doch eigentlich nur um mitteljklassekarten,oder?:noidea:


-- Veröffentlicht durch TheOne am 15:21 am 17. Aug. 2005

Ich spiel sogar noch auf 1024*768 ... Mit ner Radeon 9500 non-Pro ist nicht wirklich viel drinne.. :waterfall: --> :cry: Aber hey.. Ich kann sogar Earth mit Medium Details zocken ohne das es irgendwie ruckelt. auch bei größeren Gefechten oder ich bilde es mir nur ein :blubb: :lol:


-- Veröffentlicht durch BUG am 12:02 am 17. Aug. 2005


Zitat von skynet um 6:29 am Aug. 17, 2005

Zitat von BUG um 4:34 am Aug. 16, 2005

1280x1024 (/960) + 8xAF und 2x oder 4xFSAA.




du bist sehr anspruchslos, unter 1600*1200 4xAA/8xAF geht bei mir garnix!

in zweifelsfall auch 1600*1200 8xSSAA/2xAF(G70), kommt dann aufs gleiche raus wie oben, aber mit ner besseren BQ(100% unoptimiertes AF).

..naja das ist bei mir schon Ultra High Quality, dafür müste ich erst wieder meinen IIYama CRT auspacken und anstöpseln, desweiteren limmitiert dann auf jeden Fall meine 128MB VRam auf der GT. ;)

Bei SSAA gibts immernoch optimiertes AF, die Winkelabhängigkeit bleibt bzw. ist weiterhin vorhanden.

cu
BUG


(Geändert von BUG um 15:59 am Aug. 17, 2005)


-- Veröffentlicht durch DooM1987 am 11:50 am 17. Aug. 2005


Zitat von kammerjaeger um 10:07 am Aug. 17, 2005

Zitat von Beschleunigen um 10:06 am Aug. 17, 2005
welche einstellung?  warte mal..

ps. du musst auch auf vergrösserte ansicht oder "view image" klicken.



Hab ich getan, ändert nix an den Fransen und Treppchen... ;)


Btw.: Bei den Screenies ist nicht eine einzige Action-Scene dabei. Was bringen mir 50-70fps im Stehen, wenn bei der ersten Explosion der Gegner dreimal um mich herum laufen kann, bevor sich mein Bild wieder bewegt und ich reagieren kann???


(Geändert von kammerjaeger um 10:14 am Aug. 17, 2005)



allerdings.. mit dem zoom sind die fransen weg bei mir :)

seid lieb zueinander..:lol:


-- Veröffentlicht durch Beschleunigen am 10:54 am 17. Aug. 2005


Schau Dir mal irgendeinen Bench (3dMark03/05, Aquamark3) an oder beobachte mal die Framerate mit Fraps (da läßt es sich sogar schwarz auf weiß hinterher in der frapssec.txt nachlesen ). Wenn Du es dann immer noch nicht glauben solltest, dann liegt das nicht an Deinen Augen...  


das ist so, seit es video-spiele gibt. es ist nicht relevant. zeig mir mal lieber deine frameraten - du lustiger "ich weiss alles, kann aber nichts beweisen" typ.

und:

wer hier was an den augen hat, hast du grad wieder selbst bewiesen.

lesen! alter! lesen!


kropf, denn selbst wenn die framerate temporär auf die hälfte knicken würde, wäre es für die halbe sekunde, die es vielleicht dauert, mit 30frames immernoch flüssig.
gothic² z.b. ist incl. SSAA sogar noch mit 20fps flüssig. letztendlich liegts auch am spiel, was wann noch flüssig wirkt.



das heisst nichts anderes, als dass es normal ist, dass sowas vorkommt.
und dass es so selten und kurzzeitig passiert, dass es nicht drastisch ist.
wäre es drastisch, hätt' ich ein anderes system oder ein anderes spiel respektive eine andere spiel-einstellung.

--> ich hab' übrigens 3GB RAM und hatte schon vor einem jahr zwei. das kompensiert so einiges.

-> und weil ich um 12 ein date hab' bin ich jetzt raus. kannst du für die nachwelt noch ein paar pics von deiner roten rakete posten. auf fraps komplett-logs sch****e ich - die sehen bei jeder hardware und bei jeder spiel kacke aus --->  bin gegen 17.30h wieder zuhause.



(..)

mfg
tobi

(Geändert von Beschleunigen um 10:58 am Aug. 17, 2005)


-- Veröffentlicht durch kammerjaeger am 10:47 am 17. Aug. 2005

Ich hab FarCry schon auf so vielen Systemen gespielt und erlebt, von LowBudget bis HighEnd, mit ATI und Nvidia. Daher denke ich schon, mir mehr als nur ein Urteil erlauben zu können, wahrscheinlich eher als Du, da bei Dir immer die Nvidia-Brille im Weg ist. Bei mir ist es alles andere als Spekulation, sondern objektive Erfahrungswerte.
Es ist völlig normal, daß in bestimmten Situationen die Framerate drastisch einbricht, ob in Spielen oder Benchmarks, ob mit ATI oder Nvidia. Falls Dir das noch nie aufgefallen ist, solltest Du mal zum Arzt gehen, denn irgendwas stimmt dann mit Deinen Augen nicht.  ;)
Schau Dir mal irgendeinen Bench (3dMark03/05, Aquamark3) an oder beobachte mal die Framerate mit Fraps (da läßt es sich sogar schwarz auf weiß hinterher in der frapssec.txt nachlesen ;)). Wenn Du es dann immer noch nicht glauben solltest, dann liegt das nicht an Deinen Augen... :lol:

Kannst uns ja mal von Deiner Wunderconfig die frapssec.txt zeigen, aber dabei bitte nicht stehenbleiben...
Ich komme frühestens heute Nachmittag an mein Spiele-Sys, aber ich denke, jeder (außer Dir) ist sich der Tatsache bewußt, daher kosten mich die "Beweise" nur unnötig Zeit, in der auch ich Geld verdienen muß.

Btw.: Ein Vorführ-System bei uns im Laden läuft auch Nvidia-basierend, das hat genau die gleichen Eigenschaften, was unterschiedliche Frame-Raten im Spiel angeht. Welche Vergleichsmöglichkeiten hast Du???

(Geändert von kammerjaeger um 10:54 am Aug. 17, 2005)


-- Veröffentlicht durch Beschleunigen am 10:37 am 17. Aug. 2005


Willst Du mir ernsthaft erzählen, daß ein Spiel, welches im Stand in engen Räumen 60fps anzeigt, bei actionlastigen Szenen immer noch super flüssig ist???

Das ist weder bei ATI noch bei Nvidia so.

Sorry, aber Du stellst Dich immer mehr ins rough.



ich erzähle dir sogar, dass speziell im fall FC, die framerate in räumen drastisch höher ist, als etwa in aussenleveln, aber von deiner seite ist ausser spekulativen gelaber, noch rein gar nichts gekommen.  provokation, unterstellung und halt spekulationen.  das wirkt wirklich kompetent. es ist übrigens unwichtig, wie ein kropf, denn selbst wenn die framerate temporär auf die hälfte knicken würde, wäre es für die halbe sekunde, die es vielleicht dauert, mit 30frames immernoch flüssig.
gothic² z.b. ist incl. SSAA sogar noch mit 20fps flüssig. letztendlich liegts auch am spiel, was wann noch flüssig wirkt.

ich hab' jetzt aber auch genug zeit mit deinem kack hier in den sand gesetzt -> muss jetzt noch ein bissl geld verdienen.

falls es dein system und kenntnis-stand zulässt, kannst du ja auch noch ein paar pics posten.  von den mörderframeraten wenn viele gegner auf dich eindreschen.

ich denke aber, dass jeder sehen wird, der das hier verfolgt: dass es bei NV hardware einfach mehr möglichkeiten gibt, als bei den mitbewerbern..

was einem gefällt - oder was der bildschirm hergibt - muss und kann jeder individuell entscheiden. fakt ist für mich, dass ich einfach flexibler bin, als du.  ich kann meine eindrücke, wie wir sehen, belegen.. du auch?


(..)

mfg
tobi

(Geändert von Beschleunigen um 10:38 am Aug. 17, 2005)


(Geändert von Beschleunigen um 10:41 am Aug. 17, 2005)


-- Veröffentlicht durch kammerjaeger am 10:28 am 17. Aug. 2005

Willst Du mir ernsthaft erzählen, daß ein Spiel, welches im Stand in engen Räumen 60fps anzeigt, bei actionlastigen Szenen immer noch super flüssig ist??? :blubb:

Das ist weder bei ATI noch bei Nvidia so.

Sorry, aber Du stellst Dich immer mehr ins rough. ;)

(Geändert von kammerjaeger um 10:28 am Aug. 17, 2005)


-- Veröffentlicht durch Beschleunigen am 10:24 am 17. Aug. 2005


Btw.: Bei den Screenies ist nicht eine einzige Action-Scene dabei. Was bringen mir 50-70fps im Stehen, wenn bei der ersten Explosion der Gegner dreimal um mich herum laufen kann, bevor sich mein Bild wieder bewegt und ich reagieren kann???


:lol:  wäre es so, wie du es hier (ohne es je gesehen oder erlebt zu haben) hinstellst, würde ich 30m quer über die strasse gehen, bei meinem nachbarn klingeln und mir meine alte POV-ultra wiederholen, die ich im gegeben habe.   dann hätte ich 2 karten im SLI und mein nachbar könnte mir (ob des wg. der fehlenden hardware nicht mehr brauchbaren rechners)
keine arbeit mehr abnehmen.

es ist aber nicht so drastisch, wie du hier in den raum spekulierst.

(..)

mfg
tobi


(Geändert von Beschleunigen um 10:26 am Aug. 17, 2005)


-- Veröffentlicht durch kammerjaeger am 10:07 am 17. Aug. 2005


Zitat von Beschleunigen um 10:06 am Aug. 17, 2005
welche einstellung?  warte mal..

ps. du musst auch auf vergrösserte ansicht oder "view image" klicken.



Hab ich getan, ändert nix an den Fransen und Treppchen... ;)


Btw.: Bei den Screenies ist nicht eine einzige Action-Scene dabei. Was bringen mir 50-70fps im Stehen, wenn bei der ersten Explosion der Gegner dreimal um mich herum laufen kann, bevor sich mein Bild wieder bewegt und ich reagieren kann???


(Geändert von kammerjaeger um 10:14 am Aug. 17, 2005)


-- Veröffentlicht durch Beschleunigen am 10:06 am 17. Aug. 2005


Da bleib ich lieber bei 1280x1024 mit 4xAA/8xAF und hohen Details.
Wer sich von diesen Screenies begeistern läßt, muß entweder blind oder markenblind sein...



in welche einstellung?  warte mal.. da muss ich erstmal an die .cfg vergisst du grad' dass man auf einer Nvidia karte auch ohne HDR spielen kann?

1280High4xAA/8xAF ohne HDR

ps. du musst auch auf vergrösserte ansicht oder "view image" klicken. und immer im hinterkopf behalten: es gibt nicht nur HDR an oder aus ;)
es gibt diverse konfigurations-parameter und abseits der sm3 spielereien auch noch supersampling und mixed mode(s).

(..)

mfg
tobi

(Geändert von Beschleunigen um 10:25 am Aug. 17, 2005)


-- Veröffentlicht durch kammerjaeger am 10:05 am 17. Aug. 2005


Zitat von Beschleunigen um 9:59 am Aug. 17, 2005

reiche hier nochmal FC-HDR nach, weil ja immer erzählt wird,
wie unspielbar doch die framerate ist.

FC auf einer 6800Ultra mit HDR noch spielbar!



Wenn ich mir die ausgefransten Kanten angucke, könnte ich :gulp:
Sieht aus, als wenn ich in der Bildbearbeitung viel zu hohen Kontrast und max. Schärfe reinknalle...

Da bleib ich lieber bei 1280x1024 mit 4xAA/8xAF und hohen Details.
Wer sich von diesen Screenies begeistern läßt, muß entweder blind oder markenblind sein... :lol:


(Geändert von kammerjaeger um 10:06 am Aug. 17, 2005)


-- Veröffentlicht durch Beschleunigen am 9:59 am 17. Aug. 2005

die hoffnung stirbt ja bekanntlich zuletzt, obwohl ATI wirklich eine glanzleistung hinlegen sollte. die hinken zeitlich ja soweit hinterher, dass sie schon die nachfolgergeneration releasen könnten. zumindest wirkt es, als hätten sie eine generation ausgelassen.

dass das alles solange dauert, mag auch (nebensächlich) daran liegen, dass die wenigsten user einen X2 zuhause haben, der für eine karte mit mehr als 16 pipes das A und O ist. Selbst dem grössten DAU sollte nicht entgangen sein, dass die "alten" generationen oberhalb von 2.2/2.4 GHz nicht mehr skalieren

reiche hier nochmal FC-HDR nach, weil ja immer erzählt wird,
wie unspielbar doch die framerate ist.

FC auf einer 6800Ultra mit HDR noch spielbar!

(..)

mfg
tobi

(Geändert von Beschleunigen um 10:03 am Aug. 17, 2005)


(Geändert von Beschleunigen um 10:05 am Aug. 17, 2005)


-- Veröffentlicht durch kammerjaeger am 9:55 am 17. Aug. 2005


Zitat von DooM1987 um 8:32 am Aug. 17, 2005
also der HL2 und Far Cry Bench wundert mich doch sehr. Die 7800GTX schneidet dann doch um einiges besser ab als die X850 XT-PE, obwohl beide Spiele immer besser auf ATI basis liefen.



Du darfst ja auch nicht vergessen, daß die 7800er eine Generation weiter ist. Wenn man dann überlegt, daß die X850XT in fast allen Spielen mit der 7800GT mithält (außer den üblichen Nvidia-Domänen wie D3 und Riddick) und diese teilweise sogar schlägt (besonders in hohen Auflösungen), dann stehen die Zeichen für die neue ATI-Generation, welche ja schon in den Startlöchern steht, ganz eindeutig auf Sieg!  ;)


-- Veröffentlicht durch MiCrO am 9:51 am 17. Aug. 2005

Das ist ja auch schon die neue kartengeneration die zu vergleichen wäre schwachsinn wenn dann mit der neuen ati mit r520 aber so :lol:


-- Veröffentlicht durch DooM1987 am 8:32 am 17. Aug. 2005

also der HL2 und Far Cry Bench wundert mich doch sehr. Die 7800GTX schneidet dann doch um einiges besser ab als die X850 XT-PE, obwohl beide Spiele immer besser auf ATI basis liefen.


-- Veröffentlicht durch Beschleunigen am 8:28 am 17. Aug. 2005


..in der 1280er auflösung @highest läuft farcry in den aussenlevels mit 35-60fps und in den innenleveln mit über 50-80fps.

ich weiss also nicht, woher du diese erfahrung hast - ich kann das auf meiner single-ultra nicht nachvollziehen.
..aber sicher nich mit HDR. Desweiteren muß man auf FSAA verzichten was auch nich jedermans Sache ist.



natürlich mit HDR - > was denkst du denn?


..F.E.A.R läuft auf beiden Karten eher "bescheiden" bei Full Details (ohne Soft Shadows, mit Soft Shadows unspielbar). Desweiteren ist das alles noch Beta, wir reden nochmal drüber wenn das Spiel fertig ist.



LOL --> FEAR läuft @max (1024pixel, ohne softshadows) echt sahne.
Zumindest bleibt's immer im spielbaren bereich (über 30fps)

(..)

mfg
tobi

(Geändert von Beschleunigen um 9:01 am Aug. 17, 2005)


-- Veröffentlicht durch skynet am 6:29 am 17. Aug. 2005


Zitat von BUG um 4:34 am Aug. 16, 2005

1280x1024 (/960) + 8xAF und 2x oder 4xFSAA.




du bist sehr anspruchslos, unter 1600*1200 4xAA/8xAF geht bei mir garnix!

in zweifelsfall auch 1600*1200 8xSSAA/2xAF(G70), kommt dann aufs gleiche raus wie oben, aber mit ner besseren BQ(100% unoptimiertes AF).


-- Veröffentlicht durch skynet am 6:27 am 17. Aug. 2005


Zitat von BUG um 20:30 am Aug. 16, 2005

F.E.A.R läuft auf beiden Karten eher "bescheiden" bei Full Details (ohne Soft Shadows, mit Soft Shadows unspielbar). Desweiteren ist das alles noch Beta, wir reden nochmal drüber wenn das Spiel fertig ist.




http://www.3dcenter.de/artikel/geforce_7800_gt/bench4.php


mit ner ATI würde ich das spiel nichtmal anrühren, essei ich stehe auf diashow effekte. :lolaway:


-- Veröffentlicht durch Vegeta2 am 3:52 am 17. Aug. 2005

ich les mir die diskusionen jedenfalls sehr gerne durch ;) man lernt ja dabei was ;) nur das ich nun nicht mehr weiß welche karte für mich die bessere ist ;)

ich steh zwar voll auf effekte und kantenglättung und so ;) komm aber nicht mehr klar ob für mich ne 68gt@u oder meine x800xl besser ist o.O
x800xl scheint schneller zu sein(wobei ich mir da nichtmal so sicher bin!!!)
aber sie kann definitiv weniger darstellen ! (was ich schade finde ;) da ich nicht fake hdr erzwingen kann, ich pfeif drauf ob es fake ist oder nicht, beim spielen seh ich das nicht, aber da mir diese option fehlt (wie auch andere s3 dinger) bin ich doch schon etwas traurig!)

den was nvidia bei der fx reihe falsch gemacht hat, hat nvidia bei der 6 reihe nihct falsch gemacht
dafür ati durch fehlende s3 etc komponenten
dabei find ich ati zwecks nutzerfereundlichkeit und omega treiber besser ;) gute quali bei weniger geschwindigkeitsverlust (mir reicht gut + alle effekte bei guter geschwindigkeit, ich brauch keine ultra quali da da mein moni eh nicht mehr mitmacht^^) und deswegen bin ich voll in da zwickmühle mit meinen kleinen hirn ^^
was ist besser? x800xl oder 68gt?!? und ich spiel auch noch viel css (bz wenn ich mal spiele meist dann nur das, alles andere teste ich nur gerne an, und da würd ich halt alles gerne sehen^^)
ach das leben ist schon kommpliziert o.O
da erinner ich mich an nen spruch:
den milchzahn in der linken hand, nen colt in der rechten
womit kacke wegmachen, entscheide dich :D

schoen ich bin am ende ;)
achso danke beschleunigen für die antwort ;) das mit volt etc war mir ja klar ^^ aber hätt ja sein können das die noch nen paar extras mehr hat ;) aber  zum  glück nicht^^
danke für die antwort ^^

so mein kleines gehirn hat gesprochen :D


-- Veröffentlicht durch TheOne am 1:36 am 17. Aug. 2005

Hey Tobi bringt gute Argumente und der Rest auch :) Perfekt. So stell ich mir diskutieren vor. das owned alles :lol:


-- Veröffentlicht durch Rulinator am 21:59 am 16. Aug. 2005

@ beschleunigen

du bist krank! einfach krank! du solltest neuer chef von nvidia werden, denn du verzapfst zeug was dir ein großteil auch abnimmt! :blubb:

nvidia-freak, aber richtig! :lol: :thumb:


tipp: es werden noch einige shooter erscheinen, die auf NV karten prächtig funzen, während man dann für die ATI karte einen käufer sucht.. LOL ^^


:ohno: es werden auch noch einige shooter erscheinen, die auf ati karten prächtig funzen, während man dann für die nvidia karte einen käufer sucht.. LOL ^^ :lol:

@ thema

x800 gt un 6800 liegen gleich auf. lassen wir die optimierungen für best. spiele doch mal außen vor, den das hebt sich alles eh gegenseitig auf! :thumb:

mfg rulinator

(' ')


-- Veröffentlicht durch skynet am 21:30 am 16. Aug. 2005

stellt auf 2xAF und 8xSSAA und schon habt ihr kein flimmern und highquality AF, denn 2xAF filtert die NV noch ohne optimierungen und winkelunabhängig, und SSAA hat 100% unoptimiertes AF inkl.

fazit: G70 mit SSAA genießen und TSSAA = subba BQ. :)


-- Veröffentlicht durch BUG am 20:30 am 16. Aug. 2005


Zitat von Beschleunigen um 12:07 am Aug. 16, 2005
..wie oft man dir noch sagen muss, dass ATI kein HDR kann.. ? wer dieses preudo blending immernoch mit fp_blending gleichzusetzen versucht, hat etwas elementares nicht verstanden.

..bis auf das Tone Mapping ist es imho sehr ähnlich. FSAA funzt hier auf den Radeon Karten durch das Blending leider auch nicht.


..in der 1280er auflösung @highest läuft farcry in den aussenlevels mit 35-60fps und in den innenleveln mit über 50-80fps.

ich weiss also nicht, woher du diese erfahrung hast - ich kann das auf meiner single-ultra nicht nachvollziehen.

..aber sicher nich mit HDR. Desweiteren muß man auf FSAA verzichten was auch nich jedermans Sache ist.



geflame zw. ATI und NV kann ich nicht nachvollziehen. ATI hat rein gar nichts, was gegen NV anstinken könnte. insofern erübrigt sich flamen.

..das gleiche hast du schon zu FX Zeiten gesagt, die meisten sehen aber inzwischen ein, dass die Radeon 9700/9800 die besseren Karte war. Was nützen die Features, wenn sie zu langsam sind?!


das AF grieseln im von euch ständig angeführten "quality modus" ist völlig irrelevant. ich kennen keinen involvierten NV user, der diese einstellung nutzt.
..es ist der standard Modus den nVidia im Treiber vorgibt. ..nVidia sagt dazu auch was anderes. ;)


"Quality" mode offers users the highest image quality while still delivering exceptional performance

"High Quality" mode is designed to give discriminating users images that do not take advantage of the programmable nature of the texture filtering hardware, and is overkill for everyday gaming. Image quality will be virtually indistinguishable from "Quality" mode, however overall performance will be reduced. Most competitive solutions do not allow this level of control. Quantitative image quality analysis demonstrates that the NVIDIA "Quality" setting produces superior image fidelity to competitive solutions therefore "High Quality" mode is not recommended for benchmarking.




fear läuft heute schon sch****e auf ATI hardware. unreal3 wird da keinen unterschied machen. in doom³ und auch dem kommenden Q4, hat ATI schon heute das nachsehen..

..F.E.A.R läuft auf beiden Karten eher "bescheiden" bei Full Details (ohne Soft Shadows, mit Soft Shadows unspielbar). Desweiteren ist das alles noch Beta, wir reden nochmal drüber wenn das Spiel fertig ist.


Der witz ist doch, dass keiner von euch überhaupt kohle hat, eine ultra zu kaufen und dann über irgendwelche internet-tests oder erfahrungen mit der light-version einer karte  (FX-XT, GF68LE uws) meint, erfahrungswerte abgeben zu können.
..nein, der Witz is, dass es hier z.B. um die X800GT oder 6600GT geht, allso alles andere als "Highend" und die 6600GT ist mitnichten "besser".

cu
BUG


-- Veröffentlicht durch DooM1987 am 18:09 am 16. Aug. 2005


Zitat von Falcon um 10:48 am Aug. 16, 2005
sry für OT , aber wann kommen eigentlich die neuen ATIs ?
würde mich mal interresieren was die so auf dem kasten haben..



Mindfactory hat für morgen 25 bestellt, allerdings für 180€ laut Geizhals..
wenige in 1-2 Wochen, die meisten in 3-4 Wochen.. gugg halt mal nach den Lieferzeiten bei Geizhals.


-- Veröffentlicht durch Beschleunigen am 14:12 am 16. Aug. 2005

@vegata

ich habe eine PCIe ultra (referenzkarte), die hat einen GPU takt von 425MHz und 1100MHz RAMtakt.  OC geht immer, soviel ist klar.
nur im 2D betrieb schaltet sie auf 400/1100mhz herunter.

(m)eine ultra hatte ich bisher auf 450/1250MHz mit dem zalman vf700 kühler. da ich (wenn ich spiele) wg. des TFTs nur die 1280x1024er auflösung nutze, ist das OC aber nicht wirklich relevant.

soll heissen: ich fahre idR. 425mhz GPU clock und 1200mhz RAMtakt.
das reicht völlig (auch für den HQ modus).


gibs unterschiede zwischen na ultra und na 6800GT?


bei AGP gibt's unterschiede (weniger wandler, nur einen stromanschluss etc). bei PCIe gibts nicht wirklich unterschiede. GT und Ultra sind da identische karten schätze mal, dass sie deshalb so günstig sind, die sich nur in grösse des kühlkörpers und in ihrem BIOS (takt und spannung; die GT hat 1.3V und 350/1000, die ultra hat 1.4V und 425/1100mhz takt) unterscheiden.
die restliche ausstattung ist gleich. oft ist auch der 2.0ns RAM auf den GTs, nicht sonderlich schlechter, als der 1.6ns RAM der ultra.

-> RAMtakt und daraus resultierende füllrate/bandbreite sind für HDR das A und O.  das maximal mögliche kann man auch nur, mit der fettesten karte erreichen.  tut mir echt leid, dass die LEs und NUs so schlecht performen -> ist aber nicht mein bier -> ist eher sparzwang an der falschen stelle (wenn man bock auf optik hat).


(..)

mfg
tobi

(Geändert von Beschleunigen um 14:37 am Aug. 16, 2005)


-- Veröffentlicht durch Vegeta2 am 13:56 am 16. Aug. 2005

@beschleunigen

gibs unterschiede zwischen na ultra und na 6800GT?

also ich denk mal nur im oc berreich wegen der spannung
aber  sonst schaffen die 6800gt auch 400/1100
müsste doch dann das selbe sein oda? o.O

mein armes kleines hirn :(((
ich weiss nich was ich haben will
meine x800xl mit zalman behalten oder ne 6800gt@u o.O


-- Veröffentlicht durch Beschleunigen am 12:07 am 16. Aug. 2005


..das trifft bis jetzt auch nur auf FarCry zu, in Splinter Cell behebt der aktuelle Patch dieses Manko, hier gibts jetzt SM2.0 und HDR auch für ATI Karten und HDR ist imho in FarCry nur auf der 7800 oder 6800 SLI "spielbar".




..lieber so, also massig Features die man aus Performance Gründen eh nicht einsetzen kann! Mir ist es auf jeden Fall so lieber als ein langsamerer R400 der sich gerade so auf R350 niveau hält.


wie oft man dir noch sagen muss, dass ATI kein HDR kann.. ? wer dieses preudo blending immernoch mit fp_blending gleichzusetzen versucht, hat etwas elementares nicht verstanden.

in der 1280er auflösung @highest läuft farcry in den aussenlevels mit 35-60fps und in den innenleveln mit über 50-80fps.

ich weiss also nicht, woher du diese erfahrung hast - ich kann das auf meiner single-ultra nicht nachvollziehen.

in der 1024er auflösung hat man im schnitt 15fps mehr.

geflame zw. ATI und NV kann ich nicht nachvollziehen. ATI hat rein gar nichts, was gegen NV anstinken könnte. insofern erübrigt sich flamen.

das AF grieseln im von euch ständig angeführten "quality modus" ist völlig irrelevant. ich kennen keinen involvierten NV user, der diese einstellung nutzt.

im 3D center hab' ich gestern mit Razor mal eine modifizierte nvapps.xml ausgebrütet..

aber damit können ATI fans eh nichts anfangen. also lass' ich den NV-freak-shice, an dieser stelle mal weg.

ATI ist für kinder, söhne und kleine brüder.  leute, die ausser der windows-maus nichts schwingen können. die quasi mit 2 jahre alter technik leben können.  plattformübergreifend ist ATI jedenfalls keinesfalls. neben den technischen defiziten, also der 2. grund dieses crap nicht zu kaufen.

ich weiss - ich weiss --> ihr habt alle nur einen CRT und dualschirm oder openGL rendering, nutze eh nur ich.. das aber schon seit 4 jahren. und sogar produktiv und finanziell erfolgreich.

gähn.  propagiert ruhig weiter den ATI kram. ich freu' mich auf die threads, wenn ATIs R520 draussen ist, und jeder mit einer X800 anfängt zu kotzen und weinen gleichzeitig.

dann wird euch jeder für den tipp, die shader2 karten zu kaufen, dankbar sein.

fear läuft heute schon sch****e auf ATI hardware. unreal3 wird da keinen unterschied machen. in doom³ und auch dem kommenden Q4, hat ATI schon heute das nachsehen..

aber die ist ja so endgeil schneller, dass man damit leben kann -> stimmts?

ist sicher für viele von euch relevant, die karte zu haben, die 55 statt 51fps schafft..  und den technologischen nachteil kann man sich psychologisch schönreden, wenn man sich als ATI user einen kurbelt, dass der (umschaltbare) default-modus der konkurenzkarte, zu fehldarstellung neigt.

der witz ist doch, dass keiner von euch überhaupt kohle hat, eine ultra zu kaufen und dann über irgendwelche internet-tests oder erfahrungen mit der light-version einer karte  (FX-XT, GF68LE uws) meint, erfahrungswerte abgeben zu können.

faktisch sieht's übrigens so aus, dass man auf NVidia hardware einfach mehr content bekommt --> ups.. was'n ein content ?

--> eure begründungen sind doch nur alibis. der wahre grund ist doch wohl eher das begrenzte bugdet, sonst hättet ihr eure erfahrungen nicht auf der low-enthusiast entry class gesammelt, sondern ebenfalls Ultras ins system gehängt -> die hat keine leistungs-defizite.

(..)

mfg
tobi



(Geändert von Beschleunigen um 12:29 am Aug. 16, 2005)


-- Veröffentlicht durch Falcon am 10:48 am 16. Aug. 2005

sry für OT , aber wann kommen eigentlich die neuen ATIs ?
würde mich mal interresieren was die so auf dem kasten haben..


-- Veröffentlicht durch kammerjaeger am 9:45 am 16. Aug. 2005


Zitat von Cr0w um 4:49 am Aug. 16, 2005
Ich gieß mal Öl ins Feuer:

NVidia nur noch mit Flimmern?

Dieser Test/Bericht bestätigt mal wieder die bessere Bildqualität von ATI gegenüber NVidia ;)



Bin mal gespannt, was tobi jetzt wieder dagegen hält, denn Fakten, die gegen Nvidia sprechen, läßt er nie lange auf sich sitzen... :lol:


@ BUG
Ich glaub, wir können uns den Mund fusselig reden, er wird es nie verstehen wollen.
Wer einmal Golf fährt, wird auch weiterhin Golf fahren, obwohl der Corolla schon seit >10 Jahren nicht ohne Grund weltweit das meistverkaufte Auto ist, da er einfach zuverlässiger und ausgewogener ist. ;)

P.S.: Ich fahre keinen von beiden...


-- Veröffentlicht durch Cr0w am 4:49 am 16. Aug. 2005

Ich gieß mal Öl ins Feuer:

NVidia nur noch mit Flimmern?

Dieser Test/Bericht bestätigt mal wieder die bessere Bildqualität von ATI gegenüber NVidia ;)


-- Veröffentlicht durch BUG am 4:34 am 16. Aug. 2005


Zitat von Beschleunigen um 15:00 am Aug. 11, 2005
^^ stellt sich nur die frage, ob man sich lieber auf synthetische benchmurkse einen kurbelt oder ob man anständig Doom³ oder Quake4 shootern möchte.. tipp: es werden noch einige shooter erscheinen, die auf NV karten prächtig funzen, während man dann für die ATI karte einen käufer sucht.. LOL ^^

..ein schlechter flame Versuch. ;)




ich frag' mich allen ernstes, was ihr unter "leistung" bzw. unter "besser" versteht..

..1280x1024 (/960) + 8xAF und 2x oder 4xFSAA.

Dazu kommt noch das man die NV Karten auf HQ stellen muß damit das AF nicht "grieselt". Bei ATI ist es wurst, selbts mit AI=HIGH sind kaum unterschiede zu AI=OFF oder AI=LOW zu erkennen, da grieselt nix und "brilinear" (AI=HIGH) fällt auch nicht wirklich auf.

Ganz im Gegenteil zu nVidia, der aktuelle 3D-Center Bericht macht es mal wieder deutlich. Aber ok, du bist ja auch einer der Quincunx AA nutzt bzw. auf Wischiwaschi Texturen steht, vieleicht gefällt dir ja auch dein dein griseliges AF im Quality Modus. ;)



mag ja sein, dass ich ganzen negativa nicht feststellen kann, weil ich keine 1600er auflösung zur verfügung habe, aber auf normalem DX9 niveau nehmen sich beide karten nichts. ausser, dass ATI andere mechanismen für die framerate einsetzt. hier wird z.b. nur brillinear gefiltert und es wird intern auch nur mit 24bittiger shader-präzision gerechnet, wohingegen NVidia mit 32bittiger genauigkeit arbeitet.

..die DX9 bzw SM2.0 Shader sind alle so geschrieben, dass 24Bit ausreicht, da kannst du mit 128 Bit Genauigkeit rechnen, dass Ergebnis bleibt das gleiche, nur der Rechenaufwand ist Größer.


..wenn man also die ganzen zusätzlichen features aussen vor lässt, hat man weder hier, noch da einen frameraten-sieger.
..doch und der heist meist ATI. Da der NV4x in Verbindung mit dem aktuellen ForceWare Treibern und Default Einstellungen ein sichtbar schlechteres Bild als die Konkurenz liefert.


..erwischt man aber eines von den spielen, die schon HDR oder SM3 features unterstützen, liegt die NV generell 100% vor der ATI, weil (mit welcher framerate auch immer) NV dann noch etwas auf den schirm bekommt, was ATI nichtmal anzeigen kann.

..ich weiss - ich weiss - das ist alles nichtig und eine karte mit der darstellungs-qualität des vorletzten jahres, reicht den meisten aus (weil ja die framerate angepasst wurde) - aber wer irgendwie wert auf "alles" legt, was ein spiel zu bieten hat - muss auch eine NV karte nutzen

..das trifft bis jetzt auch nur auf FarCry zu, in Splinter Cell behebt der aktuelle Patch dieses Manko, hier gibts jetzt SM2.0 und HDR auch für ATI Karten und HDR ist imho in FarCry nur auf der 7800 oder 6800 SLI "spielbar".



die balance zw. spielbarkeit und optik zu finden obliegt ja gottlob jedem selbst, auch wenn es bei ATI einfacher ist (die kann ja nichts anzeigen, was ordendlich leistung kostet)

..lieber so, also massig Features die man aus Performance Gründen eh nicht einsetzen kann! Mir ist es auf jeden Fall so lieber als ein langsamerer R400 der sich gerade so auf R350 niveau hält.


..jedenfalls geht mir nicht ein, wieso man immer von der "besseren" leistung bei ATI karten ausgeht - wie kann etwas besser sein, das nur eingeschränkte features bietet?   und wer sagt, dass man neue funktionen, die den bild content verbessern können, unbedingt mit höhstmöglicher auflösung oder antialiasing paaren muss? schon zu voodoo zeiten sah oftmals eine geringe auflösung mit zusätzlichen effekten "besser" (wieder dieser subjektiv-ausdruck) aus, als in hoher auflösung z.b. ohne kantenglättung.
..mag sein, aber auch die zu  Voodoo Zeiten gab es einige, die die absolut nicht verstehen konnten wie man sich eine Karten kaufen kann die nur in 16 Bit rendert.


wer sich halbwegs auskennt weiss, dass HDR ein elementar wichtiges feature auf dem weg zu fotorealistischer grafik ist. genau, wie auch die höhere interne präzision. wer das wegquatschen will, weiss nicht, wovon er redet.

habt ihr eigentlich alle 6 monate ne neue karte im rechner, dass euch die zukunfts-tauglichkeit nicht interessiert?  

ich wäre als noob voll angepisst, wenn mir einer die ATI x800XL empfiehlt und ich dann in 6 monaten abgehakt bin, nur weil ATI dann auch SM3 am start hat und meine karte dann technisch zum alten eisen zählt. ich wäre schon sauer, weil mir splinter-cell CT die anständige optik auf der "besseren" oder "schnelleren" karte verwehrt und ich in der gleichen optik spielen muss, wie eine geforce4 oder eine spielkonsole (xbox-port, daher auch keine SM2 unterstützung).

..wie gesagt, mit dem aktuellen Patch gibts HDR und SM2.0 auch für ATI. :) ..meine Meinung zu HDR in Verbindung mit einer einzelenen 6800 kennst du ja. Imho nich zu gebrauchen da zu langsam.


..an anderes szenario sind TFT user. die haben mit 100fps "mehr" sorgen, als mit frameraten zw. 50 und 60 (incl. der gewünschten effektdichte) - bei zuviel fps muss man nämlich auf vsync umschalten oder mit tearing leben. NVidia bietet jetzt endlich wieder die möglichkeit einen tripple-buffer zu nutzen --> sehr vorbildlich!
..imho nur in D3D und das gibts imho bei ATI inzwischen auch. :)



ich nutze einige PC systeme parallel und es wäre sicher nicht der finanzielle gau, irgendwo eine ATI karte reinzustecken.. aber warum sollte ich mir das antun.. ?  mein bruder mit seiner XT oder meine eigenen prägenden erfahrungen mit einer behelfskarte (kurz vor release der GF6-PCIe musste ich mit einer X600Pro auskommen) haben mir genug
"spass" bereitet - sowas kaufe ich sicher nicht wieder.

da hab' ich "besser" wenn ich mit neuen effekten spielen kann - spielbar bekommt man alles.  1600x1200 mit 16facher kantenglättung ist marketing-schwachsinn, den jeder anständige supersampling modus in auflösung XY entkräften kann.

damals musste ich mir immer anhören wie grottig doch die 59FX ist..  die ATI 9600 hat genausogute / genausoschlechte shader2 leistung und dieses blafasel.. ende vom lied: auf meiner FX läuft heute noch BF2 mit 1280er auflösung und AA/AF und SSAA, wo gegen die 9600XT (obwohl sie doppelt soviel RAM hat) mächtig den spass versaut, weil man auf selbiger nur die 8x6 auflösung flüssig nutzen kann, was auf 2 von 3 TFTs echt mistig aussieht. wer damals lieber zur 9600 gegriffen hat, statt zur FX (weil das hier ja immer empfohlen wurde), hat heute bei battlefield2 echt die pappnase auf. aber dafür vergleichbare werte in benchmurksen wg. der 2.0 shader. wie sinnlos das ist, offenbahrt sich dann erneut, wenn man z.b. Doom³ auf den beiden karten zu zocken versucht. die kleine ATI macht echt ne superhässliche diashow, wo man bei der FX noch 2 stufen hochschalten kann und trotzdem noch doppelt soviele fps hat.

Kammerjaeger hat es schon auf den Punkt gebracht, damals hat sicherlich keiner jemanden Empfohlen statt der FX5900 eine 9600xy zu kaufen, zwischen den beiden Karten lag ein deutlicher Preißunterschied zugunsten ATI. Der Konkurent zu FX9500 war die 9700/9800 Pro und die war auf jeden Fall der deutlich bessere Allrounder!


sry 4 OT, aber das passte grad gut, weil wieder die gleichen user an einer vergleichbaren diskussion beteiligt sind. mit immer noch der gleichen empfehlung: ATI kaufen, NV braucht kein mensch. und tobi ist der einzige, der mehr als ein display nutzt.. ausserdem übertaktet der immer so weit, dass es sowieso nicht vergleichbar ist ;)
..naja du hast dir kürzlich selber etwas ins Bein geschossen mit dem Vergleich AGP vs. PCIe und vergleichst dabei dein A64 mit einem Barton auf Sockel A Basis. Selbst der billigste Single Channel K8 Semperon versägt einen K7 3200+ meist problemlos. ..is aber auch wurscht ..kauf du deine nV Karten weiter und erfreu sich am griseligen AF im Quality Modus, langsamen HDR und am Quincunx FSAA. :thumb:

ps.: ..Supersampling FSAA geht mit dem DX Tweaker auf Radeon Karten auch, sowas nutzen nur die wenigsten da es einfach zu viel Leistung kostet was auf der GF6 auch so ist. Nur die 7800 bitete imho eine Sinnvolle Alternative. :)

cu
BUG


-- Veröffentlicht durch Beschleunigen am 4:34 am 16. Aug. 2005



Ich weiß zwar nicht, wie Du auf diesen hirnrissigen Blödsinn kommst, aber
1. war nicht die 9600-Serie die Konkurrenz zur FX5900, sondern eher 9700/9800. Die 9600 stand eher der FX5700 ggü., wer da in fast allen belangen die Nase vorn hat, sollte klar sein. Aber Du vergleichst hier einmal mehr wieder Äpfel mit Birnen...



gähn.. dann spul' doch nochmal die rolle mit der shaderleistung ab.. das hat mich schon vorletztes jahr sehr amüsiert.. :lol:



2. spiele ich sogar mit einer 9550 Extreme ohne OC BF2 in 1024x768 und mit mittleren Details super flüssig



schön für dich. ich krieg' bei sowas augen-karzenome. aber jedem das seine - meinem brüderchen gehts mit der 9600XT nicht so gut, wie mir mit meiner ultra oder dir, mit deiner roten rakete.



Ich hab dafür nur eine Erklärung, warum Du darauf kommst:
Entweder bist Du zu blöd, um mit ATI-Karten umzugehen (bitte nicht persönlich nehmen ), oder Du steckst sie in die falschen Systeme oder aber Du willst sie einfach nur schlechtreden.



die problematik mit ATI karten liegt ganz woanders. ich erwarte nicht dass du sowas verstehst.  in systeme stecke ich sie in der regel auch nicht - da ich sich wenn dann überhaupt "in systemen stecken hatte".
Ja! ich werde jede negative erfahrung mit ATI karten kundtun. das werde ich mir sicher nicht von einem kleinen verkäufer verbieten lassen.
mach weiter deine ATI werbung und halt dich aus der technik raus - davon verstehst du nicht mehr, als im marketing-prospekt steht. ich spule hier jetzt auch nicht wieder die ganzen fehlerberichte ab - die kannst du dir aus der suche fischen, wenn du wirklich nicht über defizite bei ATI karten aufgeklärt sein solltest (nicht persönlich nehmen)



Wenn Deine Aussagen wenigstens der Wahrheit entsprechen würden, dann könnte ich Dich in Deiner Meinung zu Grafikkarten vielleicht auch mal ernst nehmen. Nur leider gibst Du mir dazu echt keinen Grund...



ähm.. ich frage mich, was du dir einbildest - hier solche unterstellungen vom stapel zu lassen - > aber echt: sch**** drauf, was du ernst nimmst.

(..)

mfg
tobi


(Geändert von Beschleunigen um 4:36 am Aug. 16, 2005)


-- Veröffentlicht durch kammerjaeger am 2:15 am 16. Aug. 2005


Zitat von Beschleunigen um 15:00 am Aug. 11, 2005

damals musste ich mir immer anhören wie grottig doch die 59FX ist..  die ATI 9600 hat genausogute / genausoschlechte shader2 leistung und dieses blafasel.. ende vom lied: auf meiner FX läuft heute noch BF2 mit 1280er auflösung und AA/AF und SSAA, wo gegen die 9600XT (obwohl sie doppelt soviel RAM hat) mächtig den spass versaut, weil man auf selbiger nur die 8x6 auflösung flüssig nutzen kann, was auf 2 von 3 TFTs echt mistig aussieht. wer damals lieber zur 9600 gegriffen hat, statt zur FX (weil das hier ja immer empfohlen wurde), hat heute bei battlefield2 echt die pappnase auf.



Ich weiß zwar nicht, wie Du auf diesen hirnrissigen Blödsinn kommst, aber
1. war nicht die 9600-Serie die Konkurrenz zur FX5900, sondern eher 9700/9800. Die 9600 stand eher der FX5700 ggü., wer da in fast allen belangen die Nase vorn hat, sollte klar sein. Aber Du vergleichst hier einmal mehr wieder Äpfel mit Birnen...
2. spiele ich sogar mit einer 9550 Extreme ohne OC BF2 in 1024x768 und mit mittleren Details super flüssig

Ich hab dafür nur eine Erklärung, warum Du darauf kommst:
Entweder bist Du zu blöd, um mit ATI-Karten umzugehen (bitte nicht persönlich nehmen ;)), oder Du steckst sie in die falschen Systeme oder aber Du willst sie einfach nur schlechtreden.
Wenn Deine Aussagen wenigstens der Wahrheit entsprechen würden, dann könnte ich Dich in Deiner Meinung zu Grafikkarten vielleicht auch mal ernst nehmen. Nur leider gibst Du mir dazu echt keinen Grund... :lol:


-- Veröffentlicht durch Falcon am 1:53 am 16. Aug. 2005

von wegen qualität... ich habe mittlerweile sehr viele Nvidia und Ati karten gehabt, mit den ganzen Nvidia's habe ich noch nie probleme gehabt (1xGF4MX,2xGF3TI200,1xGF4TI4200,1x6800)....
bei den ATI's sind mir bisher alle abgeraucht... eine 9600XT, eine zwei 9800Se und 3x 9800Pro..... und kein mensch weiß warum , habe die nie übertaktet.

über nvidia kann ich hingegen nix schlechtes sagen, solide leistung und qualität. und wenn man nicht gerade den billig schrott kauft (also hersteller)
bekommt man auch nen guten lüfter... hab im moment auf meiner 6800 von MSI den standard lüfter per integrierter lüfterregelung auf kleinster stufe laufen und sie ist sogut wie unhörbar... warm wird sie deswegen trotzdem nicht wirklich.


-- Veröffentlicht durch BDKMPSS am 22:09 am 15. Aug. 2005

Gott sei dank, dass das ganze gelaber um SM3.0 / 32 Bit mit dem R500 ein ende hat. war mit dem R300 GENAUSO nur anders herum: Ati DX9, NV DX8.1 bis die FXer kamen, die die schlechtesten Karten des jahrhunderts wahren.

Desweiteren: was bringen mir SM3.0, wenn die Frameraten extrem einbrechen und das game nicht unbedingt mehr spaß macht? wenn die story schrott ist oder wird (1xdurch -> langweilig) bringen mir 20, sich bewegende, lichtquellen mehr auch nichts.

naja was solls. Ich hasse NV (seit dem 3dFX aufkaufen mit anschliesendem wegwerfen der erkentnisse und schrottigem nachbau der guten sachen) das wird auch immer so bleiben, weil sie einfach nichts bis zu ende denken.
Habe es auch schon öfter versucht mich NV wieder anzunähern (z.B.: Nforce 2, G50er u.s.w) Schnell u.s.w sind sie, aber stabil, stromsparend, effektif, preiswert (eher auf preis leistung bezogen , nicht auf billig), hoch qualitativ (ich erinnere nur an Topics wie: "Hilfe Bauteil X ist von meiner 6600er gefallen/durchgebrannt!!! Hilfe!!!!!!!!!")?

Mir solls egal sein. werde mir wohl in zukunft die Next-gen Intel-Platformen (endlich wieder stromsparend+Hochwertig+schnell wie immer) zulegen und !eine! Ati karte. Macht ihr was ihr wollt.
NV verrecke! PC's back to the (linux-)roots! Zoggt nur mit NV zum arbeiten mit gelegendlichem Zoggen sind sie auf jeden nicht geeignet. Und kommt mir nicht mit CAD. auf dem echten CAD markt haben die nichts zu suchen


(Geändert von BDKMPSS um 21:55 am Aug. 16, 2005)


-- Veröffentlicht durch Philipp Stottmeister am 21:34 am 15. Aug. 2005


Zitat von kammerjaeger um 13:16 am Aug. 11, 2005
@ Vegeta2

Vergiss es. Ich hab von einer 6800GT auf eine X800XL gewechselt und es nie bereut. ;)

Das, was tobi hier zu seinen Lieblingen zum Besten gibt, stellt in der Praxis keine Relevanz dar. Daß die X800XL bei hohen Quali-Settings der 6800GT davonrennt (bzw. einfach "runder" läuft, unabhängig von irgendwelchen Benchmarks) und dabei ab Werk schon leisere Kühler verwendet, scheint er immer gerne unterschlagen zu wollen...

(Geändert von kammerjaeger um 13:17 am Aug. 11, 2005)



also ich habe von ner Gigabyte 6800GT auf ne X800Pro von ASUS gewechselt und es nicht bereut. Selbst das sie nur noch 12 pipes hta, juckt mich recht wenig. Die ASUS geht schweinisch gut zu ocen => siehe benchmarks in meiner sig.
Das ist noch nicht mal das maximum! :thumb:


-- Veröffentlicht durch Fouche am 19:49 am 15. Aug. 2005

mich interesiert eigentlich nur ob es diese Karte auch als AGP version geben wird und wenn ja,wann?


keiner ne ahnung ???...:megacry:...




(Geändert von Fouche um 18:04 am Aug. 16, 2005)


-- Veröffentlicht durch Beschleunigen am 15:00 am 11. Aug. 2005

^^ stellt sich nur die frage, ob man sich lieber auf synthetische benchmurkse einen kurbelt oder ob man anständig Doom³ oder Quake4 shootern möchte.. tipp: es werden noch einige shooter erscheinen, die auf NV karten prächtig funzen, während man dann für die ATI karte einen käufer sucht.. LOL ^^

ich frag' mich allen ernstes, was ihr unter "leistung" bzw. unter "besser" versteht..

mag ja sein, dass ich ganzen negativa nicht feststellen kann, weil ich keine 1600er auflösung zur verfügung habe, aber auf normalem DX9 niveau nehmen sich beide karten nichts. ausser, dass ATI andere mechanismen für die framerate einsetzt. hier wird z.b. nur brillinear gefiltert und es wird intern auch nur mit 24bittiger shader-präzision gerechnet, wohingegen NVidia mit 32bittiger genauigkeit arbeitet.

wenn man also die ganzen zusätzlichen features aussen vor lässt, hat man weder hier, noch da einen frameraten-sieger.

erwischt man aber eines von den spielen, die schon HDR oder SM3 features unterstützen, liegt die NV generell 100% vor der ATI, weil (mit welcher framerate auch immer) NV dann noch etwas auf den schirm bekommt, was ATI nichtmal anzeigen kann.

ich weiss - ich weiss - das ist alles nichtig und eine karte mit der darstellungs-qualität des vorletzten jahres, reicht den meisten aus (weil ja die framerate angepasst wurde) - aber wer irgendwie wert auf "alles" legt, was ein spiel zu bieten hat - muss auch eine NV karte nutzen.

die balance zw. spielbarkeit und optik zu finden obliegt ja gottlob jedem selbst, auch wenn es bei ATI einfacher ist (die kann ja nichts anzeigen, was ordendlich leistung kostet).

jedenfalls geht mir nicht ein, wieso man immer von der "besseren" leistung bei ATI karten ausgeht - wie kann etwas besser sein, das nur eingeschränkte features bietet?   und wer sagt, dass man neue funktionen, die den bild content verbessern können, unbedingt mit höhstmöglicher auflösung oder antialiasing paaren muss? schon zu voodoo zeiten sah oftmals eine geringe auflösung mit zusätzlichen effekten "besser" (wieder dieser subjektiv-ausdruck) aus, als in hoher auflösung z.b. ohne kantenglättung.

wer sich halbwegs auskennt weiss, dass HDR ein elementar wichtiges feature auf dem weg zu fotorealistischer grafik ist. genau, wie auch die höhere interne präzision. wer das wegquatschen will, weiss nicht, wovon er redet.

habt ihr eigentlich alle 6 monate ne neue karte im rechner, dass euch die zukunfts-tauglichkeit nicht interessiert?  

ich wäre als noob voll angepisst, wenn mir einer die ATI x800XL empfiehlt und ich dann in 6 monaten abgehakt bin, nur weil ATI dann auch SM3 am start hat und meine karte dann technisch zum alten eisen zählt. ich wäre schon sauer, weil mir splinter-cell CT die anständige optik auf der "besseren" oder "schnelleren" karte verwehrt und ich in der gleichen optik spielen muss, wie eine geforce4 oder eine spielkonsole (xbox-port, daher auch keine SM2 unterstützung).

an anderes szenario sind TFT user. die haben mit 100fps "mehr" sorgen, als mit frameraten zw. 50 und 60 (incl. der gewünschten effektdichte) - bei zuviel fps muss man nämlich auf vsync umschalten oder mit tearing leben. NVidia bietet jetzt endlich wieder die möglichkeit einen tripple-buffer zu nutzen --> sehr vorbildlich!  

ich nutze einige PC systeme parallel und es wäre sicher nicht der finanzielle gau, irgendwo eine ATI karte reinzustecken.. aber warum sollte ich mir das antun.. ?  mein bruder mit seiner XT oder meine eigenen prägenden erfahrungen mit einer behelfskarte (kurz vor release der GF6-PCIe musste ich mit einer X600Pro auskommen) haben mir genug
"spass" bereitet - sowas kaufe ich sicher nicht wieder.

da hab' ich "besser" wenn ich mit neuen effekten spielen kann - spielbar bekommt man alles.  1600x1200 mit 16facher kantenglättung ist marketing-schwachsinn, den jeder anständige supersampling modus in auflösung XY entkräften kann.

damals musste ich mir immer anhören wie grottig doch die 59FX ist..  die ATI 9600 hat genausogute / genausoschlechte shader2 leistung und dieses blafasel.. ende vom lied: auf meiner FX läuft heute noch BF2 mit 1280er auflösung und AA/AF und SSAA, wo gegen die 9600XT (obwohl sie doppelt soviel RAM hat) mächtig den spass versaut, weil man auf selbiger nur die 8x6 auflösung flüssig nutzen kann, was auf 2 von 3 TFTs echt mistig aussieht. wer damals lieber zur 9600 gegriffen hat, statt zur FX (weil das hier ja immer empfohlen wurde), hat heute bei battlefield2 echt die pappnase auf. aber dafür vergleichbare werte in benchmurksen wg. der 2.0 shader. wie sinnlos das ist, offenbahrt sich dann erneut, wenn man z.b. Doom³ auf den beiden karten zu zocken versucht. die kleine ATI macht echt ne superhässliche diashow, wo man bei der FX noch 2 stufen hochschalten kann und trotzdem noch doppelt soviele fps hat..

sry 4 OT, aber das passte grad gut, weil wieder die gleichen user an einer vergleichbaren diskussion beteiligt sind. mit immer noch der gleichen empfehlung: ATI kaufen, NV braucht kein mensch. und tobi ist der einzige, der mehr als ein display nutzt.. ausserdem übertaktet der immer so weit, dass es sowieso nicht vergleichbar ist ;)



(..)

mfg
tobi

(Geändert von Beschleunigen um 15:39 am Aug. 11, 2005)


-- Veröffentlicht durch N omega G am 14:56 am 11. Aug. 2005

wenn die nv fans mal was posten wollen, dann doch bisschen mehr benchmarks:



das zum thema, die 6600gt sieht kein land mehr, die 6800 hier hat sogar 256mb!

dass ati in d3 suckt, wissen wir ja...






edit: nochn zitat von hardwarezone.com: "The Radeon X800 GT is one card that will give the NVIDIA GeForce 6800 a good fight, especially when overclocked."

ich hab nur mal ne seite genommen, welche die "nv fans" auch benutzt haben...

ob x800gt oder 6800 wird der preis entscheiden, abe rich persönlich würde zur ati greifen.

PS ich benutze crt und ich bin glücklich mit, neben mir steht ein 15''tft für den 2trechner und ich bereue nicht, dass ich immer noch nen crt hab (tft ist schon schöner, aber 400-600 öcken für nen gescheiten 19'' auszugeben, lohnt sich einfach nicht)


(Geändert von N omega G um 15:03 am Aug. 11, 2005)


-- Veröffentlicht durch Vegeta2 am 13:33 am 11. Aug. 2005

ja hab ich auch grad gesehen xD
ne will schon die 256 mb version o.O
sonst hätt ich ja meine le behalten können :thumb:


-- Veröffentlicht durch BUG am 13:32 am 11. Aug. 2005

..ich würde sagen den Rest per PM (wenn interesse besteht), dass is die kleine Asus mit 128MB, deswegen der "günstige" Preiß.

cu
BUG


-- Veröffentlicht durch Vegeta2 am 13:30 am 11. Aug. 2005


Zitat von kammerjaeger um 13:16 am Aug. 11, 2005
@ Vegeta2

Vergiss es. Ich hab von einer 6800GT auf eine X800XL gewechselt und es nie bereut. ;)

Das, was tobi hier zu seinen Lieblingen zum Besten gibt, stellt in der Praxis keine Relevanz dar. Daß die X800XL bei hohen Quali-Settings der 6800GT davonrennt (bzw. einfach "runder" läuft, unabhängig von irgendwelchen Benchmarks) und dabei ab Werk schon leisere Kühler verwendet, scheint er immer gerne unterschlagen zu wollen...

(Geändert von kammerjaeger um 13:17 am Aug. 11, 2005)



ich hab von na 6800le mit 16/5 385/385 zu na x800xl gewechselt!!!

und ok die x800xl ist schon viel besser.
aber bei der gt die ganzen effekte o.O und dann sollte die ja doch noch besser sein o.o



und mit fear stimmt, bei na x800xl geht die performance echt in keller!!!!


@bug, wieso ist die so billig o.O andere 6800gts agp find ich nur für 250€ o.O''''


wo wohnste? nähe berlin??? dann wirds vielleicht was o.O
hätte damit nich gerechnet o.o

ahh ich bin nun total verwirrt o.o

*wein*
leistungsmässig müsst doch die 6800gt besser sein als die xl o.O
ok die xl ist teurer, hat auch vivo, aber vivo brauch ich net

und was schaft die gra ka @ bug? hat die noch packung?


-- Veröffentlicht durch Rulinator am 13:18 am 11. Aug. 2005

ganz genau, kammerjger! :thumb:

jemand der beide karten hatte, kann ein urteil fällen.

jemand der nur ne gt oder nur ne xl hat, ist natürlich stets der meinung, seine sei die bessere! :blubb:


-- Veröffentlicht durch BUG am 13:18 am 11. Aug. 2005


Zitat von Vegeta2 um 13:11 am Aug. 11, 2005
wenn ihr so weitermacht krieg ich depressionen
würde am liebesten meine x800xl mit zalman gegen ne 6800GT tauschen *wein*

hätte die ja auch kaufen können!
also 319€ für die x800xl o.O nur wegen css---
WAHHHH :blubb:

oda will jemand gegen ne 6800gt tauschen ? xD

einzig gute is das die vivo hat, und jetzt halt zalman o.o
aber 6800gt hat mehr performance und mehr effekte o.O
WAHHHHH
hört auf
nein nein nein ahhhh :blubb:

..kannst meine GT (Asus V9999GT) gerne haben, ich leg auch noch nen fuffi drauf. :)

cu
BUG

(Geändert von BUG um 13:20 am Aug. 11, 2005)


-- Veröffentlicht durch kammerjaeger am 13:16 am 11. Aug. 2005

@ Vegeta2

Vergiss es. Ich hab von einer 6800GT auf eine X800XL gewechselt und es nie bereut. ;)

Das, was tobi hier zu seinen Lieblingen zum Besten gibt, stellt in der Praxis keine Relevanz dar. Daß die X800XL bei hohen Quali-Settings der 6800GT davonrennt (bzw. einfach "runder" läuft, unabhängig von irgendwelchen Benchmarks) und dabei ab Werk schon leisere Kühler verwendet, scheint er immer gerne unterschlagen zu wollen...

(Geändert von kammerjaeger um 13:17 am Aug. 11, 2005)


-- Veröffentlicht durch BUG am 13:15 am 11. Aug. 2005


Zitat von Beschleunigen um 13:09 am Aug. 11, 2005
..wer sich das vollpreis-produkt kauft, kriegt von den "schattenseiten" auch herzlich wenig mit.  ich könnte vielleicht schattenseiten provozieren, wenn ich auf ein CRT umsteige und dann noch höhere auflösungen mit absurderen AA modi kreuzen könnte, aber der TFT vorschritt bewahrt mich vor solchen schattenseiten. -> da gab's bisher noch nichts, was nicht läuft. incl. FEAR.

..na dann stell mal in F.E.A.R. die Soft Shadows ein. ;)

cu
BUG


-- Veröffentlicht durch Vegeta2 am 13:11 am 11. Aug. 2005

wenn ihr so weitermacht krieg ich depressionen
würde am liebesten meine x800xl mit zalman gegen ne 6800GT tauschen *wein*

hätte die ja auch kaufen können!
also 319€ für die x800xl o.O nur wegen css---
WAHHHH :blubb:

oda will jemand gegen ne 6800gt tauschen ? xD

einzig gute is das die vivo hat, und jetzt halt zalman o.o
aber 6800gt hat mehr performance und mehr effekte o.O
WAHHHHH
hört auf
nein nein nein ahhhh :blubb:


-- Veröffentlicht durch Beschleunigen am 13:09 am 11. Aug. 2005


Mir fällt jetzt auch kein Spiel oder Programm ein welches Exclusiv Features von ATI nutzen würde welche die Gefirce 6 Generation nicht auch "darstellen" könnte (naja vieleicht ne TruForm oder 3DC Techdemo).


gibt's denn da auch irgendwas exclusives, wo man als käufer etwas von hätte?



Letztendlich stellen deine verlinkten Bilder auch nur die Goldene Seite dar, die schatten Seite (z.B. Performance, Kanten bzw. Shader flimmern oder Aliasing bzw unschöne Moiré-Muster sieht man darauf leider nicht).



wer sich das vollpreis-produkt kauft, kriegt von den "schattenseiten" auch herzlich wenig mit.  ich könnte vielleicht schattenseiten provozieren, wenn ich auf ein CRT umsteige und dann noch höhere auflösungen mit absurderen AA modi kreuzen könnte, aber der TFT vorschritt bewahrt mich vor solchen schattenseiten. -> da gab's bisher noch nichts, was nicht läuft. incl. FEAR.

(..)

mfg
tobi


-- Veröffentlicht durch spraadhans am 12:55 am 11. Aug. 2005

ausserdem wird es auch versionen mit 128bit speicherinterface und gddr2/1 geben, sodass der performance vorteil wohl dahin schmelzen wird.

bleibt abzuwarten, ob die karte in stückzahlen verfügbar sein wird und wie die preisgestaltung ausfällt, da 6800 und 6600gts schon ab 140 euros zu haben sind...


-- Veröffentlicht durch BUG am 21:52 am 10. Aug. 2005

FarCry fällt flach da es kein HDR für ATI Karten gibt (auser ggf die TechDemo) und selbst wenn es HDR geben würde, würden die Screenshots fast identisch aussehen was irgendwie auch nix bringt um ATI "hervorzuheben". Die Doom3 "Zusatz Shader" funzen imho mit dem 3Mood Tool nicht auf ATI Karten.

Mir fällt jetzt auch kein Spiel oder Programm ein welches Exclusiv Features von ATI nutzen würde welche die Gefirce 6 Generation nicht auch "darstellen" könnte (naja vieleicht ne TruForm oder 3DC Techdemo). ;)

Letztendlich stellen deine verlinkten Bilder auch nur die Goldene Seite dar, die schatten Seite (z.B. Performance, Kanten bzw. Shader flimmern oder Aliasing bzw unschöne Moiré-Muster sieht man darauf leider nicht). ;)

cu
BUG

(Geändert von BUG um 21:57 am Aug. 10, 2005)


-- Veröffentlicht durch Beschleunigen am 21:19 am 10. Aug. 2005

glaub ich gern - meine ultra bringts dabei auch nur noch auf 30-48 fps.

aber man kann ja 2 karten verSLIen.. ;)

postet doch mal ein paar coole shots von ATI karten aus doom und farcry..

(..)

mfg
tobi


-- Veröffentlicht durch BUG am 20:57 am 10. Aug. 2005

@Tobi
..bei dem "HDR-Grad" wäre FarCry teilweise "unspielbar" da man ständig geblendet wird, die Performance ist auch nich gerade das Gelbe vom Ei (schon garnich bei der 6800nU oder 6600GT). ;)

Offset-Mapping aka Virtual-Displacement Mapping kann imho schon der R200. :)

cu
BUG


-- Veröffentlicht durch Beschleunigen am 19:10 am 10. Aug. 2005

lustiges kartenraten.

welcher shot gehört wohl, zu welchem IHV ? ist beides farcry.. ;)

tipp: eins ist eine X800 von ATI, das andere ist NV's NV40 - aber welches ist von wem.. :noidea:





kann eine ATI karte eigentlich
Offsetmapping

das finde ich nämlich gar nicht schlecht..

(..)

mfg
tobi

(Geändert von Beschleunigen um 19:16 am Aug. 10, 2005)


-- Veröffentlicht durch kammerjaeger am 19:00 am 10. Aug. 2005

Mal wieder typisch tobi...
Reitet regelmäßig auf Shader 3.0 rum, sucht dann aber ein Spiel als Leistungsvergleich raus, das selbst eine GF4MX in 1024x768 flüssig spielen kann. :blubb:

@ BUG
So siehts aus. :thumb:
Deshalb sag ich ja, daß die X800GT in ihrer Preisklasse ggü. 6600GT ud 6800LE die beste Architektur hat, da sie die Vorteile beider Karten vereint und somit der teureren 6800 das Leben verdammt schwer macht. ;)


-- Veröffentlicht durch Beschleunigen am 15:26 am 10. Aug. 2005

@bug

kommt hin :thumb:

@kammerjäger

ich sehe hier nicht so die vorteile für die ATI karte



(..)

mfg
tobi

(Geändert von Beschleunigen um 15:48 am Aug. 10, 2005)


-- Veröffentlicht durch BUG am 14:28 am 10. Aug. 2005


Zitat von kammerjaeger um 14:10 am Aug. 10, 2005
@Beschleunigen
Komisch nur, daß die 6800 trotzdem gegen die 6600GT verliert. Da hilft ihr auch DDR3 nicht... :lol:

..liegt am hohen Chiptakt der 6600GT, die Pixel- und die Vertex-Shader sind bedingt durch den hohen Takt der 6800nU überlegen. Erst wenn der 6600GT die Bandbreite ausgeht kann sich die 6800nU etwas absetzen (pasiert aber je nach Spiel meist erst in 1280x1024 und mindetens 2xFSAA, bei 4xFSAA wird es noch deutlicher)

Desweiteren taktet die 6800nU in der AGP Version imho mit 325 und nicht mit 350 MHz und die 6600GT ist imho egal ob PCIe oder AGP mit 500 MHz Chiptakt ausgestattet (@Sky). Die 6800nU sollte aber mit etwas OC (~350 MHz) zur 6600GT aufschließen können und bei 380 bis 400 MHz sollte sie schon auf jeden Fall etwas vor der 6600GT liegen. In hohen Auflösungen + FSAA sogar recht deutlich (bis zu Faktor 2).

cu
BUG


-- Veröffentlicht durch kammerjaeger am 14:10 am 10. Aug. 2005

Was hilft alleine die Füllrate, wenn sie von aktuellen Spiele-Engines nicht genutzt wird???
Schau Dir mal div. Benchmarks an, dann wirst Du erkennen, daß eine 6800 in 90% aller Engines und (flüssig spielbaren) Settings das Nachsehen gegen die 6600GT hat. ;)

Die Leistung einer Karte nur alleine an der Füllrate festzumachen halte ich für mehr als nur engstirnig...


@ Beschleunigen
Komisch nur, daß die 6800 trotzdem gegen die 6600GT verliert. Da hilft ihr auch DDR3 nicht... :lol:


-- Veröffentlicht durch skynet am 13:05 am 10. Aug. 2005


Zitat von kammerjaeger um 9:59 am Aug. 10, 2005


Oder nimm eine 6600GT gegen eine 6800. Da sieht es für die 6800 gar nicht gut aus (trotz geringerer Pipe-Anzahl und halbem Speicherinterface, Test siehe unten).

Die X800GT wird 45% mehr GPU-Takt und 40% mehr Speichertakt haben als eine 6800. Da helfen die 4 Pipes der 6800 auch nicht mehr viel.



die 6800er bügelt ne 6600GT in so ziemlich allen...

6800 AGP:
4200M füllrate - 22.40GB bandbreite

6800 PCIe:
4200M füllrate - 22.40GB bandbreite

6600GT AGP:
3600M füllrate - 14.40GB bandbreite

6600GT PCIe:
4000M füllrate - 16.00GB bandbreite

X800GT 128MB:
3800M füllrate - 24.96GB bandbreite

X800GT 256MB:
3800M füllrate - 31.36GB bandbreite


heißt im klartext, bei NV gibt es AF 4free, bei ATI dafür AA....


wie du siehst kann schon aus reiner leistungs hinsicht ne 6600GT nicht schneller sein als ne 6800(12 pipes), was du meinst ist sicherlich ne 6800LE mit 8 pipes...

p.s. es gibt die 6600GT auch mit 256MB inzwischen, genauso wie es schon die 6800 seit langem mit 256MB gibt... die karten dürften sich dank gleichem speicherausbau deutlich besser gegen die X800GT schlagen. :)


-- Veröffentlicht durch Beschleunigen am 11:13 am 10. Aug. 2005


Gerade in den Paradedisziplinen von Nvidia (synthetische Benchmarks wie 3DMark und Aquamark sowie D3 und Riddick) wird die 6800 ja sogar von der 6600GT klar geputzt, auch mit 8xAF. Und das trotz der geringeren Pipe-Anzahl und 128bit. D3 mit 8xAF  


du solltest noch F.E.A.R. , Quake4 und die unreal3 engine mit in die parade-disziplinen für NV karten aufnehmen.. dann ist alles, was auf dem spielsektor wichtig ist, auf NV's seite. ATI kann dann nur noch bei tombraider AOD und FC (ohne eye-candy-features) punkten.

ähm.. der gravierende unterschied zw. der normalen 68er und der 66GT ist DDR1 zu DDR3.

mit DDR3 geht sehr viel mehr. das konnte man damals sogar schon bei der FX57U beobachten - die legte gegen die FX57U mit DDR1 deutlich zu, obwohl es sonst keine änderungen gab (waren beide 400er flipchip cores).

(..)

mfg
tobi

(Geändert von Beschleunigen um 11:17 am Aug. 10, 2005)


-- Veröffentlicht durch kammerjaeger am 9:59 am 10. Aug. 2005


Zitat von skynet um 8:59 am Aug. 10, 2005
nur solange du kein AF dazuschaltest... weil das braucht keine bandbreite sondern füllrate, und da stinkt die X800GT gegen die 6800 gehörig ab. =)



Nur wegen der 4 Pipes? :lol:
Das gleicht sie locker durch den Takt wieder aus. Vergleich mal eine X800Pro mit einer X800XL. Die Pro hat einen um 19% höheren GPU-Takt, dafür hat die XL einen um 11% höheren Speichertakt und 4 Pipes mehr.
In den meisten Fällen kann die Pro sehr gut mit der XL mithalten, auch mit AF...
Oder nimm eine 6600GT gegen eine 6800. Da sieht es für die 6800 gar nicht gut aus (trotz geringerer Pipe-Anzahl und halbem Speicherinterface, Test siehe unten).

Die X800GT wird 45% mehr GPU-Takt und 40% mehr Speichertakt haben als eine 6800. Da helfen die 4 Pipes der 6800 auch nicht mehr viel.




Zitat von skynet um 8:59 am Aug. 10, 2005

und das x800gt dingens ist eh nur 10% schneller als ne 6600GT im schnitt.... also wird sie von ner 6800 niedergebügelt, besonders mit viel AF. ;)



:lol:
Gerade in den Paradedisziplinen von Nvidia (synthetische Benchmarks wie 3DMark und Aquamark sowie D3 und Riddick) wird die 6800 ja sogar von der 6600GT klar geputzt, auch mit 8xAF. Und das trotz der geringeren Pipe-Anzahl und 128bit. D3 mit 8xAF ;)

Die Pipes der 6800 würden erst bei sehr hohen Auflösungen mit hohen Quali-Settings zum Tragen kommen, nur leider ist die Karte aufgrund der limitierten Bandbreite in aktuelleren Engines nicht in der Lage, dies flüssig darzustellen. Der Ansatz, so eine Karte zu bauen, ist also genauso unsinnig wie eine FX5200 mit 256MB...
Pipes wollen auch mit Bandbreite ausgestattet sein, sonst können sie nicht vernünftig zur Geltung kommen.

Die X800GT geht einen ähnlichen Weg wie die 6600GT, nur eben mit doppeltem Speicherinterface!
Daher wird sie wohl eine 6800 locker in die Tasche stecken...



-- Veröffentlicht durch skynet am 8:59 am 10. Aug. 2005

nur solange du kein AF dazuschaltest... weil das braucht keine bandbreite sondern füllrate, und da stinkt die X800GT gegen die 6800 gehörig ab. =)

und das x800gt dingens ist eh nur 10% schneller als ne 6600GT im schnitt.... also wird sie von ner 6800 niedergebügelt, besonders mit viel AF. ;)


-- Veröffentlicht durch kammerjaeger am 3:08 am 10. Aug. 2005

Wenn überhaupt, dann nur minimal.
Vergleicht man eine X800 mit einer 6800, so geht der Vergleich eher zugunsten der X800 aus (von D3 und Riddick abgesehen), obwohl sie kaum höher getaktet ist als die 6800. Die 6800LE ist praktisch eine 6800 mit nur 8 Pipes, die X800GT hingegen ist besonders beim Speicher sogar höher getaktet als eine X800Pro, also deutlich höher getaktet als eine X800, ebenfalls jedoch mit "nur" 8 Pipes.
Selbst wenn man also 6800 und X800 auf ein Level stellt, so wird die 6800LE kein Land gegen die X800GT sehen. Ich denke sogar die 6800 wird es verdammt schwer haben aufgrund der geringen Speicherbandbreite...  ;)


-- Veröffentlicht durch skynet am 2:41 am 10. Aug. 2005


Zitat von kammerjaeger um 23:52 am Aug. 8, 2005

Zitat von Rulinator um 20:29 am Aug. 8, 2005

tjoa, die is jedenfalls besser als ne 6600 gt, sollte auf 6800 le/non niveau liegen! 256 bit rulez! :godlike:



Sollte klar über der 6800LE liegen, da wesentliche höhere Taktraten bei gleicher Pipe-Anzahl und Speicheranbindung... ;)






ne 6800er hat aber das bessere pro-takt ergebniss... =)


-- Veröffentlicht durch poschy am 23:35 am 9. Aug. 2005

dann hätt ich mir die 100€ für die 6800gt ja spaaren können :>

soviel zock ich eh ned :>


-- Veröffentlicht durch kammerjaeger am 23:33 am 9. Aug. 2005


Zitat von poschy um 23:21 am Aug. 9, 2005
öhm.. hört sich irgendwie wie ne 6600gt mit 256 bit an oder ? :)



So siehts aus! Daher: Mehr Leistung für gleiches Geld... :thumb:


-- Veröffentlicht durch poschy am 23:21 am 9. Aug. 2005

öhm.. hört sich irgendwie wie ne 6600gt mit 256 bit an oder ? :)


-- Veröffentlicht durch Kauernhoefer Speedy am 22:02 am 9. Aug. 2005

klingt wirklich gut. Bin auf erste Testergebnisse  gespannt.
malinsaugefass für zweitrechner :thumb: da werkelt mom. noch ne gute alte 9800er


-- Veröffentlicht durch kammerjaeger am 23:52 am 8. Aug. 2005


Zitat von Rulinator um 20:29 am Aug. 8, 2005

tjoa, die is jedenfalls besser als ne 6600 gt, sollte auf 6800 le/non niveau liegen! 256 bit rulez! :godlike:



Sollte klar über der 6800LE liegen, da wesentliche höhere Taktraten bei gleicher Pipe-Anzahl und Speicheranbindung... ;)


-- Veröffentlicht durch Judgi am 22:53 am 8. Aug. 2005

die 850er darfste eigentlich nicht mitzählen, weil anderer Chip - bleiben 10 ! ( stimmt doch - oder verpeil ich das gerade :blubb: ?  ) und was ist nun schlimm daran ? Ati ist doch noch harmlos gegen die Produktpalette von NV.... :lol:


-- Veröffentlicht durch Pilskiller666 am 21:02 am 8. Aug. 2005

Mhh 8 Pixelpipelines:noidea:

X800SE
X800GT
X800
X800Pro
X850Pro
X800XL
X800XT
X800XT PE
X850XT
X850XT PE

Ich komme auf 12 verschiedene x800er:blubb:
(128er und 256MB Karten mitgerechnet)




(Geändert von Pilskiller666 um 21:24 am Aug. 8, 2005)


-- Veröffentlicht durch Rulinator am 20:29 am 8. Aug. 2005

wir haben ein sticky zur ati un ein sticky zur nvidia! :blubb:

@ thema

tjoa, die is jedenfalls besser als ne 6600 gt, sollte auf 6800 le/non niveau liegen! 256 bit rulez! :godlike:


-- Veröffentlicht durch kammerjaeger am 19:56 am 8. Aug. 2005

Golem

Klingt ja nicht schlecht!
Hoher Takt, 256bit, GDDR3 (wahlweise 128MB und 256MB), und das alles zum Einsteigerpreis!
Da wird es eng für 6600GT / 6800LE... ;)


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de