neue graka

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- neue graka
https://www.forum-inside.de/topic.cgi?forum=3&topic=3751

Ein Ausdruck des Beitrags mit 62 Antworten ergibt bei 3 Antworten pro Seite ca. 21 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 104.78 Gramm Papier.


-- Veröffentlicht durch sakic am 15:32 am 9. März 2004

ich habe nun nicht alles gelesen aber ich würde sagen jeder sollte sich die karte kaufen dier er will !!


ich tendiere aber auch auf die seite von ATI sie sind zur zeit einfach besser. Das sage ich nicht nur weil ic hauch eine habe sondern weil ich mit der super zufrieden bin !
ich kann battlefield mit 1280*1024*32 uocken mit 6fach AA und 16fach AF das sagt wohl alles und das super flüssig !! und es ist keiner 9800xt oder sowas sondern ne 9700 pro!


-- Veröffentlicht durch david am 14:10 am 9. März 2004

@angel: :lol: Würd mal nich die Klappe so weit aufreißen! Ich kann ja verstehen das du Nvidia verteidigen willst aber sorry:

Ich habe selbst NVidia Karten deshalb kann ich wohl unteerscheiden was besser ist und die 9800 Pro ist einfach schneller als ne 5900 (U) vor allem bei den Shadern und von AA und AF brauch ich auch net groß reden. Die FX sind von der Rohleistung echt gut aber mit der Idee Shader in 32bit zu berechnen hat sich Nvidia wohl ins eigene Fleisch geschnitten. Wenn dus nicht glaubst --> Schau meine Sig an da steht alles drin.

My 2 Cents

David


-- Veröffentlicht durch kammerjaeger am 8:49 am 9. März 2004


Zitat von Beschleunigen am 12:15 am März 8, 2004

AA höher als 2fach einzustellen, wenn man eine TFT auflösung von 1280x1024 pixel fährt, grenzt an uninformierten schwachsinn.

daher ist es sch****egal, ob bei diesen auflösungen 4fach oder 8fach AA zu starken einbußen führt.. macht euch mal klar, wie AA funktioniert



Damit hast Du völlig recht.
Aber das Problem ist auch nicht das AA, sondern AF. Dort brechen die Nvidia sehr viel stärker ein und 8x AF bringt auch auf Deinem TFT Vorteile. ;)


-- Veröffentlicht durch tdsangel am 0:51 am 9. März 2004


Zitat von david am 12:29 am März 7, 2004
ATI ist nunmal besser. Es sagt ja niemand das man damit nicht zocken kann .. nur das die ATI besser ist! Und wegen den Treibern:

Nvidia hat einen sehr schelchten Treibersupport wenn du an die Nforce2 Treiber denkst .. falsch programmierte IDE Treiber die das ganze System lahmlegen .. kaputte Soundtreiber etc.

David



ach komm... nicht schon wieder... hatten wir das nicht schon 1000 mal?!
ati ist besser
nvidia ist besser

die zweite zeile ist wahr,
die erste zeile ist falsch

omfg....

kommt immer drauf an wofuer du die brauchst. und jetzt fresse bitte


-- Veröffentlicht durch BUG am 13:51 am 8. März 2004

..du tipst richtig. :thumb: Ein Paar grundlegende Dinge kann ich, aber von "echter" Programierung (besonders Shader) bin ich noch weit entfernt. Aber ich lese mich gelegentlich schlau und das 3DCenter Froum hilft dabei ungemein. :) Besonders Demirug hats voll drauf. :thumb:

..hier steht ne Menge diesbezüglich zu lesen. :)

http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?s=&threadid=126163

cu
BUG


-- Veröffentlicht durch Beschleunigen am 13:27 am 8. März 2004

wenn ein speichermodul die vorgesehene und errechenbare taktung erreicht, dann ist das i.d.R. ein indikator dafür, dass es mit weniger spannung, als vorgesehen arbeitet.

wie kommst du darauf, dass die "register" zu klein sind? erklär mir das mal.. ich glaube nämlich dass du von "registern" und "shadern" nicht so die ahnung hast.. das ist nicht böse gemeint - aber kannst du coden?

ich tippe auf nein.

mfg
tobi


-- Veröffentlicht durch BUG am 12:46 am 8. März 2004


Zitat von Beschleunigen am 9:50 am März 8, 2004
also nochmal zum kapieren und mitmeisseln.

2.2 ns speicher ist, mit seiner nominellen spannung in der lage
454 mhz zu leisten. (1000:2.2=454mhz)

2.8 ns speicher ist, mit seiner nominellen spannung in der lage
357 mhz zu leisten. (1000:2.8=357)

das jeweil x2 wegen der DDR funktion ergibt dann 908 respektive
714 mhz.

dass einige karten etwas mehr spannung anlegen, zusammen mit streuung in der produktion und ggf. in einheit mit guten umgebungsbedingungen und speicherkühlern, lässt dann nochmal ein plus von 10-25% takt zu.



..wenn das immer so wäre, dann gäbe es die Probleme mit den Infineon Chips nicht. Denn auf meiner Karten waren 3,3NS verbaut und er zeigte ab 300 MHz schon Bildfehler. Das geht nich nur mir so, dass gleiche Problem haben/hatten andere auch obwohl 3,3NS für ~303MHz Specifiziert sind. Von den vieleicht +10 bis 20% OC Potential will ich hier noch nichmal sprechen (wäre in dem Fall absoluter Overkill). Also es muß nicht immer so sein, dass man anhand der NS den Max Takt ermitteln kann, die NS geben imho nur einen "groben" Richtwert an.

Ich habe mich mal bei Samsung etwas umgeschaut.



http://www.samsung.com/Products/Semiconductor/GraphicsMemory/DDRSDRAM/128Mbit/K4D263238E/K4D263238E.htm

VDD/VDDQ = 2.8V ± 5% for -GC25
VDD/VDDQ = 2.5V ± 5% for -GC2A/33/36/40/45


..hier sieht man auch sehr schön, dass der 2,5NS Speicher mit 2,8 Volt läuft, die anderen alle mit 2,5 Volt und ggf noch weniger. :)

Was für 2,2NS Speicher (Hersteller) kommt auf den nonltra und Ultra Modellen zum Einsatz? Wennes auch Samsung wäre, müsste der zum Teil Handeselektiert sein, da Samsung diesen Speicher auf ihrer Hompage nicht im PDF aufführt.

Die Shader aktueller FX Karten werden Geschwindigkeitstechnich eher an ihre grenzen stoßen als die von ATI da die Register der FX Karten viel zu klein sind. Wie das bei den neuen Karten aussieht, wird sich erst noch zeigen müssen. ;)

cu
BUG


-- Veröffentlicht durch Crusader am 12:39 am 8. März 2004

joop man kann sich heute mehr oder weniger aussuchen welche karte einem besser gefällt bzw wo man grad glück hat und eine günstig erwischt - erst in ferner zukunft könnte sich eine der beiden erzrivalen mehr oder weniger etablieren aber bis dahin können wir in aller seelenruhe abwarten und tee trinken *g*

i persönlich verwende ebenso wenig aa jedoch af weshalb bei mir auch fast nur die rohleistung zählt bei 1152*864 @32bit - mir war nur der preis wichtig und eine möglichst niedrige taktrate und damit weniger verlustwärme wegen meiner wasserkühlung aber das ist eben reine ansichtssache ;)

gruß
-crusader-


-- Veröffentlicht durch Beschleunigen am 12:15 am 8. März 2004

solange es sich nicht um PC exclusiv titel handelt, werden die spieleschmieden sicher überhaupt nichts an irgendwas anpassen.

die meisten games kommen sowohl auf dem PC als auch auf sämtlichen konsolen heraus.

die sehen dann immer so aus, wie das schwächste glied der kette zulässt.

sicher kann der PC ne höhere auflösung darstellen, als z.b. PS2, Cube oder XBOX - allerdings ist das dann auch schon die einzige optische verbesserung.

und in den 2 spielen, die ich nicht auf irgendeiner konsole habe, z.b. battlefield oder age of empires, sehe ich leider keinen unterschied, ob ich 8fach AF oder 4fach AF benutze.. laufen tut beides wunderbar.

AA höher als 2fach einzustellen, wenn man eine TFT auflösung von 1280x1024 pixel fährt, grenzt an uninformierten schwachsinn.

daher ist es sch****egal, ob bei diesen auflösungen 4fach oder 8fach AA zu starken einbußen führt.. macht euch mal klar, wie AA funktioniert

wenn ihr euch schon die nächste ATI kauft, weil die festverdrahteten shader am limit sind, werden die ganzen FX59 karten noch konkurenzfähig sein.

für heutige games ist es eh egal - die laufen auf jeder karte a la FX59 oder 98pro/XT spielbar.

einzig die videoeingänge, sofern vorhanden, sind bei ATI nutzlos.

hat schonmal jemand eine DVD via ATI-Eingang aufgenommen? grottig schlechte bandbreite..

mfg
tobi


-- Veröffentlicht durch Crusader am 11:58 am 8. März 2004



dass es schwachsinnig ist, tests von januar mit alten treibern für vergleiche heranzuziehen.

tobi



interessanter vergleich mit den tests aus januar aber was genau willst du uns damit sagen? *gg*

wie unschwer im Forum zu erkennen ist sind die catalyst 3.9 treiber allem anschein nach die schnellsten für ATI und wenn mich nicht alles täuscht wurde bei tomshardware dieser verwendet ;) guckst hier



dass NV einfach seit jeher die besseren karten produziert.



nun nvidia hat einen größeren marktanteil da geb ich dir recht allerdings unter berücksichtigung das ati vor einiger zeit keine große bedrohung für nvidia dargestellt hat - nicht umsonst geht es nirgends rasanter zu als bei der halbleiterentwicklung á la grafikchips

was 2.2ns  2.8ns und noch viele andere nanosekunden angeht sollte man bedenken das seit der quantispeed technology oder zu gut deutsch pro-mhz-leistung reine zahlen keine gewichtung mehr haben (siehe athlon 64 blabla *g*)

jaaa da wären wir auch an dem punkt der wärme entwicklung - mehr mhz mehr verlustwärme usw - siehst du es wirklich als vorteil an mehr mhz zu haben und dafür einen lauten kühler wie nvidia einer leiseren ati vorzuziehen (hab gesehn das du ne heatpipe verwendest - das betrifft allerdings nicht die masse ;) )

mehr spannung mehr leistung führt zur höheren abwärme und wenn ich was in meine wasserkühlung integriere halte ich es für angebrachter leistungssparende faktoren einzubinden wie weniger mhz dafür mehr "köpfchen" der gpu



dass ATI schnell an die kotzgrenze kommt, wenn shader verlangt werden, die ATI hardwareseitig nicht verdrahtet hat - die NV aber aufgrund des shader-arrays zur verfügung stellen kann.



meinetwegen - dann zeig das doch auch bitte anhand mehrerer aktuellen spiele - jaaa aquamark kennen wir bereits und wir wissen auch das jedes spiel in zukunft die doom3 engine haben wird :lol:

nein mal im ernst schalte mal alles auf maximum (aa und af) und vergleiche dann nochmal die karten ohne oc !! :blubb:

naja egal wie dem auch sei - keine karte wird auf dauer das versprechen was auf dem karton steht - wie einige schon sagten sind viele spieleschmieden darauf bedacht mit grafikkartenherstellern in koopertaion zu gehn was dazu beiträgt das keine ultimative karte sondern vielmehr ein spezieller software optimierter chip erscheine wird

wie gesagt is nur meine meinung - net böse sein :thumb:

gruß
-crusader-

(Geändert von Crusader um 12:02 am März 8, 2004)


-- Veröffentlicht durch Beschleunigen am 9:50 am 8. März 2004

also nochmal zum kapieren und mitmeisseln.

2.2 ns speicher ist, mit seiner nominellen spannung in der lage
454 mhz zu leisten. (1000:2.2=454mhz)

2.8 ns speicher ist, mit seiner nominellen spannung in der lage
357 mhz zu leisten. (1000:2.8=357)

das jeweil x2 wegen der DDR funktion ergibt dann 908 respektive
714 mhz.

dass einige karten etwas mehr spannung anlegen, zusammen mit streuung in der produktion und ggf. in einheit mit guten umgebungsbedingungen und speicherkühlern, lässt dann nochmal ein plus von 10-25% takt zu. das ist bei halbleitern und speicherchips die generelle streuung, die auch von normalen RAM modulen bekannt ist.

10 - 20% über der spezifikation sind immer drin.

mfg
tobi

ps. ich bin übrigens der meinung,

dass der shadermark sch****egal und unwichtig ist. ich kaufe doch keine 800 mark oder 400 euro karte, um mir benchmarks anzugucken.
ausser natürlich AQUAMARK ---> da bekomme ich nämlich 53000 punkte.

dass man nicht über irgendwann erscheinende spiele sinnieren sollte, sondern wenn man schon zockt, das zockt, was verfügbar ist und auch diese proggis zum vergleichen nimmt.

dass es schwachsinnig ist, tests von januar mit alten treibern für vergleiche heranzuziehen.

dass ATI schnell an die kotzgrenze kommt, wenn shader verlangt werden, die ATI hardwareseitig nicht verdrahtet hat - die NV aber aufgrund des shader-arrays zur verfügung stellen kann.

dass NV einfach seit jeher die besseren karten produziert.

dass neben der spieleleistung auch andere faktoren wichtig sind (HW monitor, video-eingänge mit guter bandbreite, support von prof. und semiprof anwendungen, support, verarbeitung etc.)

puh! jetzt will ich aber frühstück.

bis später

tobi


-- Veröffentlicht durch BUG am 23:51 am 7. März 2004

...wir werden sehen. :lol:

cu
BUG


-- Veröffentlicht durch FGB am 23:45 am 7. März 2004

alles klar BUG. dann hab ich jetzt verstanden was du damit meinst und halte aus voller überzeugung dagegen :thumb::lol:

ich werd mich dann melden wenn sisko und ich die karten getestet haben..

Fabian


-- Veröffentlicht durch BUG am 23:39 am 7. März 2004


Zitat von FGB am 23:16 am März 7, 2004
aber auch wenn ddr1 mittlerweile sehr ausgereift ist und die ausbeute entsprechend gut ist kann man doch nicht per se sagen dass alle 2.8er bei 2.8volt den gleichen speed schaffen wie 2.2er oder willst du das damit sagen?

Fabian (ich werd hier noch bekloppt :lolaway:)

..nein kann man so pauschal nicht sagen, deswegen geb ich em 2,2NS Speicher ja 10 MHz mehr OC Potential. *g* ;)

Der Speicher egal ob 2,2 / 2,5 oder 2,8NS kommt unter Garantie aus der selben Produktionsstrasse und vermutlich auch vom selben Wafer. Es wäre einfach viel zu teuer für jeden Speicher eine eigene Produktionsstrasse zu fahren.

cu
BUG

(Geändert von BUG um 23:47 am März 7, 2004)


-- Veröffentlicht durch cheech2711 am 23:38 am 7. März 2004

also gegenüber einer 9600xt ist die fx5900xt eindeutig besser auch mit aa und af , kannste im internet alle testvergleiche anschauen, die 5900xt bügelt die 9600xt in bis auf einen test(9600xt einen punkt vorne) so weg:thumb:


-- Veröffentlicht durch FGB am 23:16 am 7. März 2004

aber auch wenn ddr1 mittlerweile sehr ausgereift ist und die ausbeute entsprechend gut ist kann man doch nicht per se sagen dass alle 2.8er bei 2.8volt den gleichen speed schaffen wie 2.2er oder willst du das damit sagen?

Fabian (ich werd hier noch bekloppt :lolaway:)


-- Veröffentlicht durch BUG am 23:13 am 7. März 2004


Zitat von FGB am 23:08 am März 7, 2004
zumindest muss der 2.2er speicher doch auch in der produktion einer gewissen selektion unterliegen damit man sicher sein kann, das ein gewisser mindesttakt innerhalb der spezifizierten spannung erreicht werden kann.
das es serienstreuung gibt ist mir auch vollkommen klar.
ich wollte nur sagen dass die anforderungen an 2.2er ram hoch wohl höher sind als an 2.8er ram.

Fabian


..je nachdem wie gut die Ausbeute ist, und DDR1 Speicher läuft recht gut von der Ausbeute (*insider* ;)). Die Hersteller stellen ja jetzt alle schon auf GDDR3 um. :)

Bei Infineon in Leipzig stellt man seit ende letzten Jahres haupsächlich schon DDR2 Arbeitsspeicher her. ;)

cu
BUG

(Geändert von BUG um 23:14 am März 7, 2004)


-- Veröffentlicht durch FGB am 23:10 am 7. März 2004


Zitat von BUG am 23:08 am März 7, 2004

Zitat von FGB am 23:04 am März 7, 2004
ich pack es nicht. ich kann mir nicht vorstellen dass 2.2ns ram bei gleicher spannung nur 10mhz besser geht als 2.8ns ram.. bei bestem willen nicht. sorry..

naja. wenn sisko und ich unsere karten haben wissen wir mehr.

Fabi


..mache glauben auch nich, dass man aus nem Duron 1400 nen Athlon XP 2600+ machen kann. ;)

@Loomes
..jau der bin ich. :)

cu
BUG


(Geändert von BUG um 23:09 am März 7, 2004)



doch bug, so weit bin ich auch schon. bitte versuch mich jetzt nicht als noob darzustellen nur weil ich sage dass es qualitative unterschiede zwischen 2.2er und 2.8er speicher gibt.


-- Veröffentlicht durch FGB am 23:08 am 7. März 2004

zumindest muss der 2.2er speicher doch auch in der produktion einer gewissen selektion unterliegen damit man sicher sein kann, das ein gewisser mindesttakt innerhalb der spezifizierten spannung erreicht werden kann.
das es serienstreuung gibt ist mir auch vollkommen klar.
ich wollte nur sagen dass die anforderungen an 2.2er ram hoch wohl höher sind als an 2.8er ram.

Fabian


-- Veröffentlicht durch BUG am 23:08 am 7. März 2004


Zitat von FGB am 23:04 am März 7, 2004
ich pack es nicht. ich kann mir nicht vorstellen dass 2.2ns ram bei gleicher spannung nur 10mhz besser geht als 2.8ns ram.. bei bestem willen nicht. sorry..

naja. wenn sisko und ich unsere karten haben wissen wir mehr.

Fabi


..mache glauben auch nich, dass man aus nem Duron 1400 nen Athlon XP 2600+ machen kann. ;)

@Loomes
..jau der bin ich. :)

Den Mod würde ich selber machen, ich habe auch schon ne Idee wie  und wo er gemacht wird.

cu
BUG

(Geändert von BUG um 23:11 am März 7, 2004)


-- Veröffentlicht durch Loomes am 23:07 am 7. März 2004

Nabend,

Hmm ich lese hier immer VCore Mod.....ist das bei der Aopen Aeolus den möglich? Meine läuft zwar auch mit 475/800 aber ein bissel mehr kann ja schließlich nie schaden....nich wahr.

Also wenn da einer von euch genauere Infos hat *zuBUGrüberschau*

Bist du der BUG aus dem 3DCenter Forum? Ja ne


-- Veröffentlicht durch KakYo am 23:04 am 7. März 2004

ich glaube in diese Richtung geht das...;)

Nur mal so ma Rande. Der 3,3ns Speicher meiner 9800 läuft auch auf knapp 400MHz, 398 um genau zu sein. Der ist auch schon "default-overclocked" (340 statt 300). Der wird auch entsprechend mit mehr Spannung arbeiten! Habs net gemessen, aber wird schweineheiss.


-- Veröffentlicht durch FGB am 23:04 am 7. März 2004

ich pack es nicht. ich kann mir nicht vorstellen dass 2.2ns ram bei gleicher spannung nur 10mhz besser geht als 2.8ns ram.. bei bestem willen nicht. sorry..

naja. wenn sisko und ich unsere karten haben wissen wir mehr.

Fabi


-- Veröffentlicht durch BUG am 23:04 am 7. März 2004

..wenn sie aus der selben Produktion kommen ja. :) Da müsste man im Datenblatt schaun ob der Speicher da mit aufgeführt ist, eine gewisse Qualitätsprüfung/Kontrolle wird ggf auch statt finden, aber die Speicher werden meist auch so gelabelt, wie der Markt den Speicher braucht. Man kann das sehr gut mit den CPU Herstellern vergleichen. :)

cu
BUG


-- Veröffentlicht durch Sisko am 23:03 am 7. März 2004

Dann wird halt n VMod. drauf geklatscht und gut ist ;)

Werd mal sehen, wenn sie da ist wieviel Volt der Ram bekommt!!


Der Sisko


-- Veröffentlicht durch FGB am 23:00 am 7. März 2004

ok , das mag sein. also meinst du das schnellerer speicher mehr spannung braucht und nur aufgrund der spannung weiter übertaktet werden kann und nicht etwa weil er eine niedrigere zugriffszeit hat.
also könnte man laut deiner rechnung auch 3.0ns speicher overvolten und würd ähnliche übertaktungsergebnisse erzielen wir mit 2.8er oder 2.2er speicher.

ist es das, was du sagen willst ?

Fabian


-- Veröffentlicht durch BUG am 22:56 am 7. März 2004

..ich glaub du verstehst mich nich. ;) Wieviel Volt der Speicher bekommt hängt nicht von der Karte selber ab. Das steht im Datenblatt des Speicherherstellers. Wenn der Speicher Hersteller im Datenblatt für seinen 2,2NS Speicher 2,8 Volt angibt, wird die Karte, auf der der Speicher zum einstaz kommen soll, vermutlich auch mit 2,8 Volt laufen. :)

cu
BUG


-- Veröffentlicht durch FGB am 22:53 am 7. März 2004

also ich weiß nicht ob du nicht verstehst um was es mir geht oder es nicht verstehen willst :mad: :

wir sind uns doch einig dass die 5900 XT eine vmem von 2.5 hat.

und ich möchte nur sagen, dass der speicherspeed einen unterschied im übertakten macht, auch bei 2.5volt.

Fabian


-- Veröffentlicht durch BUG am 22:50 am 7. März 2004

..der 2,2NS Speicher auf den FX5900 und 5900U hat auch 2,8 Volt.

cu
BUG


-- Veröffentlicht durch FGB am 22:48 am 7. März 2004

ja.. aber mit dem unterschied, dass die leadteks 2.8er ram haben.. wenn da diese fehlserie overvoltet gehen die auch bis 900...

mir gehts nur darum, mit 2.5volt und 2.2ns ram über 900 zu kommen um zu zeigen, dass 2.2er speicher bei gleicher spannung mehr bringt als 2.8er speicher...

Fabian


-- Veröffentlicht durch BUG am 22:45 am 7. März 2004

..wenn deine Karte so hoch geht, dann hat sie "vermutlich" eine höhere Speicherspannung. Wenn nicht (was ich nicht glaube) dann habe ich völligen Blödsinn erzählt/geschrieben. ;) Die Leadtek FX 5900XT lässt sich ja gelegentlich auch so hoch (900 MHz) takten, dass sind dann vermutlich auch die Karten, die jetzt von der Rückrufaktion betroffen sind (zu hohe Speicherspannung). ;)

cu
BUG


-- Veröffentlicht durch FGB am 22:39 am 7. März 2004

ok , dann würdest du mir aber zustimmen, dass es am speicher liegt, wenn ich meine xfx auf weit über 900 mhz bekomme bei gleicher spannung und identischem pbc oder?

Fabian


-- Veröffentlicht durch BUG am 21:16 am 7. März 2004

..jup ich habe die AOpen und sie läuft ohne Probleme auf 450 Chip und 800MHz (2x400) Speichertakt. Beim Chip geht auch nochn bissel mehr, aber der original Kühler taugt nix, der Speicher is bei 800 fast am ende, hier begrenzt jetzt die Vcore und die fehlende Speicherkühlung. Hatte aber noch keine Lust/Zeit für nen Vcore Mod. ;)

cu
BUG


(Geändert von BUG um 21:17 am März 7, 2004)


-- Veröffentlicht durch FGB am 20:58 am 7. März 2004

du hast die aopen aeolus oder ? :noidea:

ich werd auf jeden fall ergebnisse posten, von der XFX XT karte, wenn es dich interessieren sollte.

wie auch immer diese karte auf 5950 niveau kommt - du musst mir doch recht geben, dass sie eine ordentliche leistung bringt wenn 500/1000 möglich sind oder 480/980 oder nicht?

wie hoch hast du deine aopen denn gebracht ?

Fabian


-- Veröffentlicht durch BUG am 20:31 am 7. März 2004

Also auf meiner Karte ist das definitiv so. Mein 2,8NS Speicher läuft nur mit 2,5 Volt, der Speicher auf den 5900 Karten wird aber mit 2,8 Volt betrieben. :)

Dein Beispiel mit dem PC266 Speicher hinkt etwas, ganz einfach deshalb da dieser Speicher nimmer hergestellt wird. Du Vergleichst quasi TBredA mit TBredB und da ist klar das der TBredA den kürzeren zieht. ;)

cu
BUG


-- Veröffentlicht durch FGB am 20:22 am 7. März 2004

das was du zum doom III geschrieben hast geht in ordnung. in der finalen version der engine sollen die fx karten aber auch unter arb2 laufen, wenn man JC's aussagen vertrauen kann, da er wirklich ein wenig nvidia treu zu sein scheint ;)

mit dem speicher und den latenzzeiten muss ich dir aber ein wenig widersprechen. meiner ansicht nach haben die speicher unterschiedlicher zugriffszeiten bei gleich spannung doch größere unterschiede.

nehmen wir als beispiel pc266 und pc433 ram. beide arbeiten mit effektiven 2.5 volt nennspannung. zieht man deine bemessung zur grundlage müssten sich beide speicherchips innerhalb einer kleinen range bewegen, taktfrequenz-technisch. tuen sie aber nicht, ich habe selten pc266 module gesehen, die annährend pc433 performance erreichen.

die meisten 2.8ns basierten karten kommen auf xt karten mehr oder weniger knapp über 800mhz. die xt karten von XFX mit 2.2ns speicher kommen immer locker auf mehr als 900mhz speichetakt, was auch ohne die ddr-verdoppelung deutlich mehr als deine 10mhz unterschied sind.

ich denke also nicht, dass sich das so einfach sagen lässt, das es realtiv egal ist ob auf den xt karten 2.8er oder 2.2er speicher verbaut sind.

leider basieren meine infos auch nur auf berichten, ich habe über die Xt karten und ihre unterschiede viel auf futuremark und anderen englischsprachigen foren gelesen und es wird eben spekuliert ob es sich bei den XFX karten um 2.2 oder um 2.0 ns speicher handelt, was natürlich noch einen unterschied machen würde.

das erste was ich machen werde wenn ich die karte in den händen habe ich nachschauen, welcher speicher tatsächlich verbaut ist und welche spannung effektiv anliegt, das kann man ja einfach an den entsprechnden elkos messen.

fakt ist auf jeden fall, dass die XFX karten im gegensatz zu vielen anderen XT karten auf 5950 ultra niveau gebracht werden können, bei gleichem PBC.

Fabian


-- Veröffentlicht durch BUG am 20:10 am 7. März 2004


Zitat von FGB am 19:52 am März 7, 2004
...und ganz so irrelevant ist die zugriffszeit des speichers auch nicht. wenn du sagst, dass die XT's alle weniger vmem haben, dann wirds die XT mit 2.2ns trotzdem weiter bringen als eine mit 2.8ns.



..ok, aber ich versuch dir das mal näher zu bringen. Eine Speicher wird ähnlich hergestellt wie eine CPU, beide werden aus Silizium "gegossen". Nun nehmen wir mal einen Athlon XP 2000+ (TBred-B JIUHB Kern) und vergleichen ihm mit einem Athlon XP 1700+ (mit TBred-B JIUHB Kern). Ich glaube du weist jetzt auf was ich hinnaus will, so ähnlich is das beim Speicher auch. Der Aufdruck ist fast egal, wichtig is was drinn steckt und welche Vcore der Speicher hat. Im Grunde genommen stammen die 2,8NS und 2,2NS Speicher aller aus der Selben Produktion, was es für Speicher letztendlich ist entscheidet die Vcore. Mit dem 2,2NS is im "günstigsten" Fall vieleicht ~10 MHz mehr möglich (bei gleicher Vcore wie der 2,8NS Speicher). Es kann aber genausogut passieren, dass sich der "2,8NS Speicher" besser takten lässt bei gleicher Vcore. ;)

..und jetzt noch ne Sache zu Doom3, wenn die FX nich nen eigenen Renderpfad spendiert bekommen hätte wo die Shader mit FX12 oder FP16 berechnen werden dürfen, wären beide Karten wieder gleich schnell oder die ATi schneller. ;)

ATI nutzt ja in D3 den normalen ARB2 Renderpfad, ein eigener Renderpfad würde nur minnimalle Geschwindigkeits verbesserungen mit sich bringen da der ARB2 Pfad schon nahezu optimal auf der ATI Hardware läuft. Der Aufwand lohnt sich hier einfach nicht, bei der FX ist der Optimierungs Spielraum etwas größer da der Chip halt im default Renderpfad ziemlich "unefizient" arbeitet was mit entsprechendem Programieraufwand aber weitestgehend augeglichen werden kann. Die Mühe machen sich aber die wenigsten, JC scheint da ne Ausnahme zu sein und fühlt sich vieleicht auch mit NV Hardware ein wenig "verbunden". ;)

cu
BUG

(Geändert von BUG um 20:13 am März 7, 2004)


-- Veröffentlicht durch kammerjaeger am 19:53 am 7. März 2004

@ BUG

So ist es. :thumb:

Ich hasse es auch, wenn Tests nicht praxisnah sind. Ob 500 oder 450 fps bei Q3 ist wirklich Banane... :lol:

Um es nochmal zu sagen: Solange die Karten in der Lage sind, Auflösungen ab 1024x768 und höher mit 8xAF und 2xAA in allen Spielen flüssig zu liefern, sollte man auch mit diesen Settings testen.
Warum mit weniger Qualität testen, als die Karte kann? Bei einem Sportwagen fragt auch kein Mensch nach der Kofferaumgröße oder dem Stadtverbrauch, da zählt eher Kurvenlage, Beschleunigung, Durchzug und Endgeschwindigkeit... :lol:

Für Karten >150,- zählt nur die Leistung bei maximal machbarer Optik. Sonst würde eine GF3 immer noch reichen, damit ist alles spielbar was der Spiele-Markt aktuell hergibt.  ;)


-- Veröffentlicht durch FGB am 19:52 am 7. März 2004

ist alles richtig. die XFX hat zwar auch das XT layout, aber der speicher läuft schon per default mit 800 anstatt 700mhz. es ist eine der einzigen XT karten, die ohne probleme auf 5950 niveau gebracht werden können.

ich bekomme die karte dienstag oder mittwoch, es wird dann natürlich ein review geben.

im schnitt soll die xfx 5900xt zwischen 475 und 520 GPU und 950 und 1020 DDR gehen.

ich bin auf jeden fall sehr gespannt...und ganz so irrelevant ist die zugriffszeit des speichers auch nicht. wenn du sagst, dass die XT's alle weniger vmem haben, dann wirds die XT mit 2.2ns trotzdem weiter bringen als eine mit 2.8ns.

kannst dir das review ja mal durchlesen, ich weiß ja dass du versuchst alles objektiv zu sehen und nicht auf krampf einem lager angehörst - ich im übrigen auch nicht. ob AMD oder Intel oder ATI oder Nvidia.. das ganze geflame und rumgelaber geht mir ehrlich gesagt ganz schön auf den Sack. Jede Marke hat Ihre vor und Nachteile und keiner ist "dumm" wenn es jetzt das eine oder andere Produkt kauft. Es wird ja auch niemand gezwungen eine Marke anstelle einer anderen zur kaufen..

Fabian


-- Veröffentlicht durch moskito99 am 19:47 am 7. März 2004

und schnell genug sind sie eh beide..:-)))


-- Veröffentlicht durch BUG am 19:43 am 7. März 2004

..wenn die Karte das XT Layout hat könnte es problematisch werden mit dem neuen Bios. Meine XT bekommt mit dem FX5900U Bios weniger Vcore als mit dem originalen Bios, mit dem 5950 Bios is das sicherlich nich viel anders wenn das Layout nich passt.

Was auf dem Speicher Aufgedruckt ist is eh irrelevant, wichtig is, dass der Speicher die nötige Vcore bekommt. Wenn der "2,2NS" nur mit 2,5 statt 2,8 Volt wie der "2,8NS Speicher" läuft nützt dir das auch nix. ;)

cu
BUG

(Geändert von BUG um 19:45 am März 7, 2004)


-- Veröffentlicht durch FGB am 19:34 am 7. März 2004

ich denke das es keine spiele geben wird, die jemals das volle spektrum an 2.0 shadern ausnutzen werden. directx9 bietet ja den vollen 3.0 support und ich denke das hier der nv40 vorteile bieten wird.

DIII ist für NV besser, HL2 für ATI -- so what.

ich hab mir jetzt bewußt eine XFX 5900XT bestellt für 180 Euro mit 2.2ns speicher, der laut herstellerangaben 970mhz zulässt. spielt man dort das 5950 bios rauf wird vgpu erhöht und sollte dem chip auch ein noch besseres oc bringen. eine schlechte wahl ist meine karte bestimmt nicht, auch wenn es für 20-30 euro mehr eine 9800pro gibt. ich vertraue einfach darauf, dass sich die DIII engine durchsetzen wird, wenn das spiel vor HL2 rauskommen sollte.

und zur quali ohne AA und AF: da ist NV wirklich besser.. schau dir mal die bildquali an, hardwareluxx hat da einen netten test gemacht "XFX 5900XT Review". Mit Filtern liegt ATI nicht nur speed sondern auch qualimäßig klar vorne, das will ich gar nicht bestreiten.

Fabian


-- Veröffentlicht durch BUG am 18:42 am 7. März 2004

..wieso sollen die Texturen bei standard settings auf ATI Karten schlechter aussehen als bei NV?! Es is doch eher so, dass die NV Karten erst bei AF meist das qualitativ bessere Bild liefern (nicht so stark Winkelabhängig wie ATI). Ohne AF und AA sehen beide Karten ~gleich aus (oder sollten gleich aussehen wenn der Treiber keinen Mist baut).

Das Problem bei nVidia ist aber der Speed, auch wenn das AF nen Tick besser aussieht, 8x AF haut bei der FX ganz gut rein, wohingegen 8x AF bei ATI immer nutzbar ist (auch wenn manche Texturen nur 2x gefiltert werden wenn der Chip bzw das Abtastmuter der Meinung is, dass dies aussreicht).

Treiber Probleme gibt es auf beiden Seiten, wer aber mit seinem PC umgehen kann, findet immer irgendwo ne Lösung. Ich habe beide Karten (FX 5900XT & Radeon 9500@9600Pro) hier und ich weis mir eigentlich immer zu helfen wenn mal was nicht funzt so wie es sollte.

Wer sich ne 9800 Pro kauft und FSAA nich min. auf 2x und AF auf 8x nutzt is selber schuld. Gerade das FSAA reist bei ATI noch gut was raus da dies mit Gammakorektur arbeitet. Selbst auf der 9600 is 2xFSAA und 8x AF fast immer nutzbar.

..und die Sache mit den Shadern, also der Shadermark 2.0 läuft auf meiner FX 5900XT @ 450/800 und Deto53.03 oder 56.55 sehr bescheiden. Die übertaktete 9500 geht hier um einiges besser. Aber zum Glück bestehen die Spiele nicht zu 90% aus Shadern (und schon garnicht 2.0 Shader), daher is der Praxis-Bezug dieses Benchmarks mehr oder weniger hinfällig auch wenn er Zeigt das die NV Karten hier und da einige Schwächen haben.

Aber es zeigen sich auch erste anzeichen bzgl der Shaderschwäche NV´s, die FarCry Demo (eigentlich ein Spiel aus TWIMTBP) läuft auf den ATI Karten immerhin mit über 100 2.0 Shadern, auf den FX Karten kommen nur ca. ~60 2.0 Shader zum Einsatz trotz Full Details.

Desweiteren sind wir uns glaub ich einig, dass Q3 auf aktuellen NV sowie aktuellen ATI Karten mehr als aussreichend schnell läuft. Imho is das kein Grund ATi vorzuwerfen langsamer zu sein nur weil die FX5950 500 FPS bringt und die 9800XT "nur" 450FPS. :blubb:

cu
BUG


-- Veröffentlicht durch moskito99 am 18:31 am 7. März 2004

also meine 9800er ist duch den 4.2 nicht schneller geworden. blieb gleich :-)

wie gesagt...mittwoch scanne ich die page mit den benches mal ein...

vielleicht ist ja auch der neue forceware der grund, dass die 9800pro preislich so nah bei der 5900xt liegt, denn als der bench gemacht wurde, war die 9800 pro noch rund 100 euro teurer als ne 5900xt..und da war ne 5900xt oft genauso schnell wie ne 9800pro..

am mittwoch scanne ich den benchmark mal ein..


-- Veröffentlicht durch FGB am 17:24 am 7. März 2004

naja.. ne ordentliche 9600xt kostet 140 und ne 5900xt kostet 160..  ich denke es sind beide karten in frage kommend wenn man ca. 150 ausgeben möchte...

klar gibts auch 9600xt's für 130, aber ich spreche hier von den big brands wie sapphire..

ich muss ganz ehrlich sagen, dass ich die 5900xt nicht für so schlecht halte wie sie manchmal hier geschrieben wird.

fangemeinde hin und her.. ne 5900xt bietet deutlich mehr als qIII in 800x600... die geht schon ganz gut ab meine ich.

außerdem muss man auch immer genau schauen wie die kompatibilität ist und der herstellersupport an games für die karten. ich denk es gibt objektiv mehr leute die mit ATI treibern probleme haben als mit aktuellen forcewavetreibern von nvidia.

und wenn man sich jetzt mal anschaut wie die zukunft aussieht, sollte man kommende engines betrachten und nicht ältere engines wie die qIII engine.. TWIMTBP ist schon was nettes für nvidia, wenn man sich mal doom III benches anschaut. genau so nett wie hl2 benches für ATI karten sind.

aber da noch keines der beiden games final ist, ist das alles nur spekulation. ebenso ist es spekulation, auf welchen der beiden züge die meisten spielehersteller aufspringen werden.

in der vergangenheit waren stets die id-software engines wegweisend, aber es muss ja nicht dabei bleiben.

mit voller filterung brechen die ati's weniger ein als die nvidias und sehen auch noch schöner aus, das ist unbetritten. aber ich bestreite ganz klar, dass jeder spieler auch filter nutzen möchte. wahrscheinlich greifen mehr ati usern zu filtern, weil einfach die quali ohne filter schlechter ist als die von nvidia.

ist schon kontrovers finde ich. wer weiß schon ob sich das blatt nicht irgendwann wendet und die nvidiakarten vorne liegen weil die speicherbandbreite einfach wesentlich höher ist.. oder ob nicht viel mehr shader eingesetzt werden, was wieder ati aufgrund der chiparchitektur zugute kommen würde... keiner weiß es. ;)

die chipzukunft bleibt ebenfalls spekulativ, also sollte man betrachten wie es heute ausschaut mit nv35/38 oder eben r350/360.

Fabian


-- Veröffentlicht durch kammerjaeger am 17:13 am 7. März 2004

@ Fabian

Die 9600XT liegt auch preislich weit unter der FX5900XT, daher hinkt der Vergleich etwas. Die 9800Pro ist kaum teurer als die 5900XT und somit die klar bessere Wahl, zumal sie i.d.R. locker auf XT-Niveau kommt. ;)

Eine Karte dieser Klasse kauft man sich nicht um in 800x600x16bit Quake3 zu spielen, sondern um die volle Grafikpracht aktueller Spiele geniessen zu können.
Daher sollten auch Qualitätssettings ohne starken Einbruch spielbar bleiben.
Und genau hier ist ATI (besonders in der 200,- Klasse) eben eine Nasenlänge vorn...  :thumb:


@ moskito
Mit dem Cat. 4.2 haben auch die Radeon in der Leistung zugelegt, daher hat sich in der Tendenz nichts geändert.

(Geändert von kammerjaeger um 17:15 am März 7, 2004)


-- Veröffentlicht durch moskito99 am 16:31 am 7. März 2004

der aufgeführte benchmark/test ist leider von ANFANG januar...

ich hatte vor 3 wochen irgendwo benches gesehen mit den neueren forceware treibern, und da hat ne 5900XT oft sogar ne 9800pro geschlagen...und mit den neuen forcewaretreibern haben die NV deutlich zugelegt...

bitte nicht falsch verstehen: ich hab ja selber ne 9800pro die auf über 9800xt niveau läuft...aber ich war schon etwas geschockt, als ich gesehen hab wie aktuell die 5900xt gut gg ne 9800pro bestehen konnte...

das ganze waren benches in einer zeitung. mittwoch werde ich die wieder in den händen halten und mach dann mal nen scan...den jeder will ja beweise..:-)

ich vermute allerdings, dass es nicht mit 4xaa und 8xaf war...


-- Veröffentlicht durch THCCryjack am 16:29 am 7. März 2004



'Mein reden seit ´76... Bin ab der GeForce3 Ti 500 auf ne Radeon 8500 gewechselt weil ich mich mich meiner gierigen Blicke auf Radeon Systeme nicht mehr länger erwehren wollte...

Man sieht es ja auch deutlich an den Verkaufszahlen... das Ati nvidia innerhalb eines Jahres gleichgezogen hat...

Der NV40 wird den weiteren Weg der GeForce Reihe bestimmen... wenn jetzt nichts utltra innovatives dabei rumkommt ergeht es nvidia genauso wie voodoo mit ihrem 3dfx... "übertreib"



-- Veröffentlicht durch FGB am 16:24 am 7. März 2004

es sollte aber bei dem geflame, was man hier lesen kann, gesagt werden, dass die FX karten ohne eingeschaltete filter eine bessere qualität haben als die ati karten. also nicht nur mehr rohspeed sondern auch sauberere texturen.

Auch die AF Leistung ist sehr gut.

Es gibt momentan durchaus Argumente, anstelle einer Radeon 9600XT eine FX5900XT zu kaufen, weil die Karte einfach eine höhere Rohleistung hat und besonders auch in hohen Auflösungen viel weniger stark einbricht als die Radeon.

Man muss immer bedenken, dass die Filter usw. nicht jedermanns Sache sind.

Das beste Preis/Leistungsverhältnis haben derzeit eindeutig die FX5900XT Karten mit 2.2 ns Speicher, denn die lassen sich zu 100% auf 5950 Niveau tunen, oder eben für ein paar Euronen mehr ne 9800pro.

Fabian


-- Veröffentlicht durch kammerjaeger am 15:11 am 7. März 2004


Zitat von Beschleunigen am 12:52 am März 7, 2004

wenn du sagst, ATI ist einfach besser, dann stimmt das schlichtweg nicht. in den benches und auflösungen, in denen sich eine ATI vor eine FX setzt, beträgt der vorsprung nur frames im nichtigen bereich (bsp. 123 zu 128 oder ähnlich)

in vielen spielen, besonders in ID shootern, kann die NV karte die ATI sogar deutlich schlagen. da macht jede billig FX-XT eine "teure" ATI-XT nass.




:lol:

Ich finde einen Unterschied von 82,7 fps zu 57,0 fps bzw. 61,4 zu 38,3 fps alles andere als nichtig.  ;)
9800XT vs. FX5950 Ultra - UT2003
9800XT vs. FX5950 Ultra - Nascar 2004

Sobald 8x anisotropische Filterung eingeschaltet wird, brechen die FX enorm ein.
Call of Duty basiert auf der überarbeiteten Q3-Engine (von id-Software), und auch dort ist der Vorsprung der ATI mit 8xAF extrem (auch wenn Du bei id-Shootern das Gegenteil behauptest...):
id-Engine
Auch hier ist ein Unterschied von 70,3 zu 48,7 fps zu verzeichnen.

Also erst informieren und dann reden. ;)
Denn sonst musst Du Dir den Vorwurf gefallen lassen, daß Du entweder noch nie eine aktuelle ATI in der Hand bzw. im Rechner hattest oder noch nie mit 8xAF gespielt hast. ;)

Nicht daß wir uns falsch verstehen:
Die FX ab 5700 sind in aktuellen Spielen und mit Standard-Settings sehr schnell (z.T. schneller als vergleichbare ATI), aber mit hoher Qualität und bei der kommenden Spielegeneration (mit verstärkt PixelShader2.0) geht ihnen viel schneller die Luft aus. ;)
Das fing mit Tomb Raider AoD an und wird bei Far Cry um so deutlicher. Mal sehen, wie es bei Stalker wird... 9800XT vs. FX5950 Ultra - Nascar

(Geändert von kammerjaeger um 15:12 am März 7, 2004)


-- Veröffentlicht durch david am 15:06 am 7. März 2004

Hast du schonmal den Shaderbenchmark gesehen? Ne 9600XT stampft die 5950 Ultra restlos ein! Und wenn 4xAA an ist kannste die FX in die Tonne kloppen!

David


-- Veröffentlicht durch Beschleunigen am 12:52 am 7. März 2004

das mit den IDE treibern mag ich ja noch einsehen. obwohl, die auch nur mit manchen IDE geräten probs hatten.. mein alter aopen-brenner zum beispiel.. das stimmt schon.

aber das problem mit den audio-treibern liegt bei realtek. wer den soundstorm benutzt (über koax oder lichtleiter) kennt diese sorgen nicht. die probs gab's nur bei den analogen ausgängen und die werden vom ALC650 (realtek) versorgt.

wenn du sagst, ATI ist einfach besser, dann stimmt das schlichtweg nicht. in den benches und auflösungen, in denen sich eine ATI vor eine FX setzt, beträgt der vorsprung nur frames im nichtigen bereich (bsp. 123 zu 128 oder ähnlich)

in vielen spielen, besonders in ID shootern, kann die NV karte die ATI sogar deutlich schlagen. da macht jede billig FX-XT eine "teure" ATI-XT nass.

nicht falsch verstehen: ich würdige das preis-leistungs-verhältnis von ATI durchaus - aber ich bin seit dem NV4 bei NV und bleibe auch über den NV40 hinaus bei NV.

abschliessend: ATI hat gute DX9 technik - allerdings fest verdrahtete shader! --> NV nutzt ein shader array --> die evtl. vorteile werden noch zum tragen kommen, allerdings habe ich die glaskugel auch grad verliehen und wir werden sehen was passiert.

mfg
tobi


-- Veröffentlicht durch blueart am 12:50 am 7. März 2004




wenn du dir ne NV kaufst, brauchst du nicht lange suchen. da funzt jeder treiber mit jedem spiel und clocken geht eigentlich auch sehr ordendlich, ohne viel zu "modden".. :noidea:

naja, wahrscheinlich sind die NV user einfach zufrieden und brauchen so das GRAKA forum nicht voll-spammen.

mfg
tobi



besser hätte man es nicht ausdrücken können! :thumb:

ich hab seit kurzem eine 5900 non-ultra@ultra und bin bestens zufrieden!

und weil bei den benchmarks bei ati ein paar pünktchen mehr rum kommen, laufen die spiele mit NV-karten auch absolut flüssig!

aber wahrscheinlich kommt jetzt jemand daher und behauptet, es ist bei spielen ein unterschied zu sehn, wenn man bei 3DMurks 6600pkt statt 6300 pkt hat!

ich hatte letzten samstags die möglichkeit, mir den unterschied zwischen einer 9600pro, 9800pro, 5600ultra und meiner 5900non-ultra anzusehn....
und man mag es kaum glauben, aber war bein zocken kein unterschied zusehn!!

es lief übrigens: "far cry demo, UT2004 demo und call of duty".


-- Veröffentlicht durch david am 12:29 am 7. März 2004

ATI ist nunmal besser. Es sagt ja niemand das man damit nicht zocken kann .. nur das die ATI besser ist! Und wegen den Treibern:

Nvidia hat einen sehr schelchten Treibersupport wenn du an die Nforce2 Treiber denkst .. falsch programmierte IDE Treiber die das ganze System lahmlegen .. kaputte Soundtreiber etc.

David


-- Veröffentlicht durch Beschleunigen am 12:10 am 7. März 2004

man o man - immer das selbe..

wieso behauptet ihr immer, dass die FX zu stark einbricht ? habt ihr immer noch die FX58 im kopf oder hebt ihr ATI in den himmel, weil ihr selbst nur ATI habt ?

ich zocke battlefield mit 4fach AA und 4fach AF @ 1024 ---> wunderbar!

beim Aquamark kriege ich 53000 punkte.

ATI scheint aber hier im forum besser supportet zu werden, immerhin ist das GRAKA forum ja voll mit posts zum ATI thema... suche treiber.. sucher mod... suche dies... suche das..

wenn du dir ne NV kaufst, brauchst du nicht lange suchen. da funzt jeder treiber mit jedem spiel und clocken geht eigentlich auch sehr ordendlich, ohne viel zu "modden".. :noidea:

naja, wahrscheinlich sind die NV user einfach zufrieden und brauchen so das GRAKA forum nicht voll-spammen.

mfg
tobi


-- Veröffentlicht durch opf1985 am 8:31 am 7. März 2004

:moin:

wo hast du die für 150 gesehen ?


mfg opf1985


-- Veröffentlicht durch fredyhawk am 17:22 am 6. März 2004

Also ich würd dir zu einer ATI Radeon 9800 (non Pro)  raten die habe ich schon für 150€ gesehen.
MFG Fredy


-- Veröffentlicht durch THCCryjack am 16:15 am 6. März 2004

also wenn du Bildqualität möchtest... AF und AA, dann auf jeden Fall ne Radeon...

... richtig, eine GeForce ist schneller. Aber wehe du drehst an der Qualitätsschraube... dann bricht Sie ein. Eine 9600XT hat eindeutig das bessere Preis- Leistungsverhältnis...

Oder Du legst wirklich noch 50 euro drauf und du bekommst Leistung und Qualität satt mit ner 9800pro. Die ja zur Zeit sehr günstig (schnief) angeboten werden...


-- Veröffentlicht durch Mindscorcher am 14:19 am 6. März 2004

jetzt wo die radeon 9800 pro so wenig kosten würde ich ja so eine nehmen aber wenns unbedingt billig sein soll dann wäre doch eine Geforce FX 5900XT net schlecht ;)


-- Veröffentlicht durch opf1985 am 13:44 am 6. März 2004

:ocinside:

also zu den preisen entweder ne :
1.radeon 9600 pro max 120 €
2. radeon 9600 xt für ca 150 €
oder 3. fx 5700 ultra für ca 170 €
bei den 3en ist die fx bei standardt oder qualitäts settings die schnellste!


mfg opf1985


-- Veröffentlicht durch kammerjaeger am 13:00 am 6. März 2004

Bis 150,-:  Radeon 9600XT


-- Veröffentlicht durch ZeNtaU am 11:45 am 6. März 2004

MOIN
also ich wollte mir eine neue graka kaufen weiss aber net welche ich nehmen soll??

PS:die graka sollte neicht über 150? gehen

Grüße ZeNtaU


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de