GeForce 6800 Ultra (NV40)

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- GeForce 6800 Ultra (NV40)
https://www.forum-inside.de/topic.cgi?forum=3&topic=3936

Ein Ausdruck des Beitrags mit 78 Antworten ergibt bei 3 Antworten pro Seite ca. 26 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 129.73 Gramm Papier.


-- Veröffentlicht durch Beschleunigen am 10:42 am 22. April 2004

der bridge-chip soll ja nicht zum einsatz kommen (bei den billig-modellen)

lt. zeitung soll die einstiegs- und mainstreamklasse das im NV integrierte interface (pci-x) nutzen..

nunja.. wie werden es sehen..

mfg
tobi


-- Veröffentlicht durch Eisenblut am 13:16 am 21. April 2004

Es ist für die Verfügbarkeit der Plattformen eigentlich ziemlich egal, ob nVidia die Chips vom Interface für PCI-E oder AGP auslegt, da alle Karten mit deren Bridgechip an das jeweils andere Format angepasst werden kann. Der Nachteil ist aber, dass der Chip ein paar Dollar extra kostet, was sich natürlich gerade bei den billigeren Karten bemerkbar machen wird.


-- Veröffentlicht durch Beschleunigen am 9:39 am 21. April 2004

in der ct von vorgestern stand drin, dass NV die mainstream und einstiegsklasse des NV40 nur für pci-ex plant. soll dann in 1-2 monaten in den handel kommen..

wenn das stimmt und NV diesen plan nicht verwirft, werden alle, die noch eine "alte" sockel A plattform nutzen, eine lange nase machen oder das teure NV40 modell kaufen müssen..

meine persönliche schwelle liegt übrigens preislich bei 379-399€

mfg
tobi


-- Veröffentlicht durch THCCryjack am 5:05 am 21. April 2004

... oh oh. nvidia... hoffentlich haben die wirklich noch was im Ärmel sonst sieht es zappenduster aus Montag, 19.04.2004 ...


-- Veröffentlicht durch DocDoom am 16:46 am 20. April 2004

das die firmen mehr in dem entwicklungsköcher sitzen haben, merkt man allein daran das viele projekte parallel bearbeitet werden (NV35/38, R400 (R500), R420), aber es dauert halt immer nen bisschen länger die serienreife zu schaffen.


-- Veröffentlicht durch Crusader am 13:54 am 20. April 2004

jo ne damit meine ich net das es schon serienreif originalverpackt in der schublade liegt :)

ich wollte damit nur zum ausdruck bringen das prototypen schon länger vorliegen und noch ausbalanciert werden

immo hat es ati auch noch net nötig eine gegenkraft für nvidia auf dem markt zu bringen - letztendlich sind karten dieser leistungsdimension immo verschwendete energie

ich würde keinem ernsthaft raten 500 EUR für etwas auszugeben was noch keine testroutinen hinter sich hat - die karten wären zum einen lauter als gedacht (soll ja nicht gleich im testlabor durchbrenen) und die treiber sind auch noch nicht serienreif

pc von 10 jahren technologievorspung war auch nirgends die rede (meinerseits) - zur serien reifen fertigung müssen allerdings einige monate lang die chips auf herz und nieren getestet werden ;)

eben - kein user braucht immo ernsthaft karten dieser dimension .. mit ner r9800 oder fx5900 dürften die meisten gut bedient sein zumal diese exemplare für unter 200 EUR recht erschwinglich sind :)

MfG.
-Crusader-


-- Veröffentlicht durch DocDoom am 13:30 am 20. April 2004

wenn ati und nvidia schon alles in der schublade hatten, bevor es überhaupt publik gemacht wurde wäre ati nie auf den R420 gewechselt, sondern hätte seelenruhig auf den launch des nv 40 gewartet und dann den R400 gebracht. das selbe spiel hatten wir doch gerade erst als der NV35 ne bauchlandung hingelegt hat, da nvidia allerdings auch nicht sofort nen NV38 zur hand (obwohl beide parallel entwickelt wurden)

es kann ja durchauss sein das die firmen auf dem papier schon ein bisschen weiter sind, aber die verstecken auf keinen fall die technik von in 10 jahren vor uns !!!

und im eigendlichen sinne ist es mir auch ziehmlich egal, solange die spiele eh nicht hinter der hardware herkommen !!!


-- Veröffentlicht durch Crusader am 11:38 am 20. April 2004

tjaa solange es noch genug menschen gibt die bereitwillig mehr als 225 EUR für ne grafikkarte ausgeben wird sich da nicht viel ändern ;)

im grafikkartensegment wird eben nun mal jährlich die leistung etwa verdoppelt - daran ist eigntlich nichts ungewöhnliches

zu den superrechnern kann ich nur sagen das die seit beträchtlicher zeit existieren - allerdings eher für kommerzielle zwecke (video-technik)

die geplanten termine sind verständlich - die produzenten geben nie ihre modernste technologie auf den markt (den trumpf spielt man erst wenns nötig ist ) - bei denen gehört das schon zum alten eisen ;)

jap was man beeinflussen kann wird man zweifelsohne an einhalten können :)

die wechselwirkung der produzenten lässt sich nun mal nicht vermeiden - wie du oben schon erwähnt hast werden infos 2-3 jahre vorher ausgeschüttet

optimal für die konkurrenz ein gegenstück auf dem markt zu bringen ohne unnötig ressourcen zu verschwenden

@skynet


achja, macht euch auf NV45 gefasst

klingt alles vielversprechend jedoch bevorzuge ich für meinen teil grafikkarten die maximal knapp über 200 EUR kosten

da wurde ich noch nie schlecht bedient und der wiederverkaufswert kann sich sehn lassen was man von einem 500EUR+ flaggschiff nicht so einfach behaupten kann ;)

interessanter wäre eine variante auf dem oberen mainstream segment - da wo noch oc-potential zur verfügung steht

ich bin mir nicht ganz sicher wie weit man eine 475mhz/1200mhz karte noch pushen kann - denke die fahren schon hart am limit :noidea:

MfG.
-Crusader-

(Geändert von Crusader um 11:44 am April 20, 2004)


-- Veröffentlicht durch Krieger79 am 11:09 am 20. April 2004

Also naja... es ist ja keine verschwörung sondern meine/unsere meinung...

was deie theorie da angeht :"GPUs werden wie CPUs in den momentan modernsten verfügbaren Verfahren gefertigt"

nun da sage ich mal so... habe schon mal gehört das sich paar spinner mit dem bereich "schnellster pc der welt" duellieren.-.... und da sind die taktraten jenseits der 10 GHz somit weis ja nicht ob wirklich alles so gefertigt wird wie es von dir erzählt wird....

ausserdem kommen termine für 2-3 jahre im vorraus in die zeitschriften wann welche CPU geplannt ist... naja ok damit es nicht auffällt verschiebt es sich immer um paar tage aber sie ist zu dem zeitpunkt da... eigenartig oder?? :noidea:

das müssen nicht nur genies dort sein sondern auch wahrsager :lolaway:

das gleiche wird "MEINER MEINUNG" (insofern ist es ein freies land, also kann ich sagen was ich mir denke) das gleiche bei den Grafikkarten sein.... das ist alles eine absprache....

GRUSS :godlike:


-- Veröffentlicht durch SchlitzerMcGourgh am 10:24 am 20. April 2004

Also ich habe mir das ganze hier durchgelesen mit dem ergebniss, das was beschleunigen schreibt, das träumt er, danke dir, lange nicht mehr so gelacht :lol:

@rest werden wir sehen wenn die ati draußen ist! also nicht flamen und träumen wie...


-- Veröffentlicht durch CMOS am 7:42 am 20. April 2004

ja und auf r700 und nv88 :crazy: war mal wieder langweilig oder ?


-- Veröffentlicht durch skynet am 4:25 am 20. April 2004

:lol:

die final 6800U hat 75MHz mehr core also 475MHz :godlike:

und ramtakt wird wohl auch auf 1.2GHz gepumpt :eek:


achja, macht euch auf NV45 gefasst :devil:

(Geändert von skynet um 4:26 am April 20, 2004)


-- Veröffentlicht durch Eisenblut am 1:12 am 20. April 2004

Vom Inquirer:
Radeon X800PRO will beat NV40 Ultra


-- Veröffentlicht durch sakic am 20:41 am 19. April 2004

also ich als ati user finde die 6800 ultra auch nicht schlecht nur werde ich aufjeden fall warten bis der r420 rasu ist dann entscheide ich ob ati oder nv denn ich bin nciht so einer nv ist sch****e ati ist geil bla bla bla ich kaufe die karte die schnell ist und preisgünstig ist

so sehe ich das


gruß sakic man wird ja sehen was der r420 bringt es wäre naturöci hschon gut wenn er mindestens ebenwertig ist


-- Veröffentlicht durch DJ am 18:03 am 19. April 2004

@bug jupp ich hoffe dass ati es abschafft das winkelabhaengige AF aber ich glaube nicht daran und wie wir festgestellt haben man muss ein toll haben um es zu sehen oder eben anscheinend waere es gut sichtbar bei einigen spielen aber bei den meisten nicht weil das problem zb. nicht vorkommt beim boden vor einem und bei den meisten spielen starrt man oft dahin. :) Ach ja habe ich schon erwaehnt dass die 6800 mir sehr gut gefaellt und ich eine will. :)


-- Veröffentlicht durch BUG am 17:00 am 19. April 2004

@DJ
...ich würde dich gerne mal hören wenn der R420 kein Winkelabhängiges AF haben sollte *g* :lol: (wird aber vermutlich nicht passieren). Imho fällt es wirklich kaum auf, ich habe ja beide Karten hier (R300 & NV35) und man sieht die Unterschiede meist nur wenn man richtig danach sucht (Screenshot + Bildbearbeitungs Prog + Zoom), es gibt nur ganz wenige Spiele wo es auch beim Spielen etwas deutlicher auffällt (ich habe glaub ich keins davon).

cu
BUG

(Geändert von BUG um 17:00 am April 19, 2004)


-- Veröffentlicht durch DJ am 16:45 am 19. April 2004

So wie die NV40 leistungsteschnisch aussieht habe ich noch nie ne karte gesehen die von einer generation zu naechsten so ein sprung gemacht hat in allem in der leistung in der transistorzahl im verbrauch.
Einziger krasser kritikpunkt sind die eingefuehrten winkelabhaengen af cheats a la ati sowas konnte die nv35 sogar schons besser , schade dass nvidia sich auf ati level herunter setzt und jetzt auch hardware maessig besch****t naja mal kucken viele tester sagten das problem waere beim spielen nicht so sichtbar. Meiner meinung kann ati villeicht leistungstechnisch gleichziehen aber dann hat nvidia noch immer das bessere produkt wegen mehr features also muss ati die kunden bei der stange halten mit den billigeren preisen als die konkurrenz. Mal abwarten wenn die ati 420'er released wird was die dann wirklich kann.


-- Veröffentlicht durch faulpelz am 15:10 am 19. April 2004

natürlich würden die gerne aufschliessen aber von denen redet keiner.
ich meine das sie noch viel besseres in der testphase haben.
wenn du siehst das deine topkarte gut ist aber nicht ganz an die topkarte einer anderen firma ranreicht dann wartest du einfach en bischen ab und bringst dann wieder ne fettere karte raus.
weil die interressiert weniger der haupmarktanteil als der gewinn. wenn sie nen markanteil von sagen wer mal 30% ham dann bringen se ne neue karte raus und sehn das se nicht ganz die beste ist O.K.
dann schauen sie sich an wieviel umsatz sie trotzdem mit der karte machen weil es ja die nv oder ati fanatiker gibt. reicht ihnen der umsatz oder übertrifft sogar ihre berechnungen dann lassen sie die karten im umlauf bis sie langsam aber sicher die nächste generation bringen somit können sie mit den lahmen karten noch dicken umsatz machen obwohl sie schon viel beseres im petto haben.

du hast schon recht das NV es gejuckt hat das ati an sie rankommt.
was meinste wieso die so früh schon den NV40 vorgestellt haben???
weil sie zeigen wollten das sie auch noch was können und haben das auch noch clever gemacht denn die fehler die der NV40 jetzt hat oder besser gesagt die festgestelt wurden von den testern können sie dann bis zum eigentlichen releasetermin ausbaden.und dann zieht erst ati nach und dessen chip wird mit sicherheit auch kinderkrankheiten haben die erst gefunden und ausgebadet werden müssen und in der zeit hat NV schon unmengen an umsatz gemacht mit nem guten(hoffentlich)chip dem man vertrauen kann während ati noch arbeiten muss.aber ich glaub wenn se wollten könnten se noch mehr drauflegen aber sie haben halt so kalkuliert das ati wieder genausogut ist oder schlechter denn man brauch nicht mehr auszugeben als man muss um den chip für 600€ zu verkaufen.
das mein ich damit.man brauch doch nicht hingehen nen superchip auf den markt zu schmeissen mit viel kosten für die firma der alles andere feddisch macht und 40% der leute kaufen ihn wenn man hingehen kann nen guten chip auf den markt zu schmeissen mit weniger kosten für die firma der so gut ist um an der spitze bischen zu kämpfen und trotzdem kaufen ihn 40% der leute für die 600€.
also verstanden was ich mein??


-- Veröffentlicht durch Eisenblut am 14:42 am 19. April 2004

@faulpelz & Krieger79

Eure Verschwörungsfantasien entbehren jeder Grundlage. Eine CPU und eine GPU sind komplett anders aufgebaut. Die meisten Transistoren bei CPUs werden für Cache verwendet, während GPUs fast nur aus Logikbausteinen bestehen. Zudem sind die Tricks, die bei CPUs zu den höheren Taktraten führte wie die längere Pipeline bei GPUs nicht einsetzbar.

GPUs werden wie CPUs in den momentan modernsten verfügbaren Verfahren gefertigt, die Umsetzung vom Forschungsstadium bis zur Produktionsreife ist in keiner anderen Branche so schnell wie hier. Von daher ist also auch nie viel Reserve zu dem gerade lieferbaren Produkt.

Und bei der Konkurrenz zwischen den Firmen wäre es Wahnsinn, nicht das maximal mögliche Potenzial herauszuholen. Meint ihr wirklich, dass nVidia die letzten beiden Jahre voller Freude zugesehen hat, wie ATI ihnen ständig Marktanteile abgenommen hat? Und würde S3 oder XGI nicht liebendgern zu den beiden Marktführern mindestens aufschliessen, indem sie mal eben die Taktfrequenzen ihrer GPUs vervielfachen?


-- Veröffentlicht durch faulpelz am 13:57 am 19. April 2004

@krieger:
stimmt schon was du sagst stimm ich dir zu ich denk auch die haben schon vieeel dickere karten da und bringen die nur nicht raus.
wieso soll ein gpu nicht über 1ghz gehen können???cpu's können das doch auch und da ist nicht viel anders dran.die könnten das locker wenn se wollten aber die betonung liegt ja auf WENN.
das argument mit der kühlung das sie dann zu aufwendig wär is auch schwachsinn weil sie sich da ganz locker leicht was aussem ärmel zaubern könnten


-- Veröffentlicht durch MCSlash am 13:32 am 19. April 2004

Naja bescheuert ist das ganz sicher nicht.
Ich finde es wirklich sehr nützlich, hab aber leider kein Geld für zwei Bildschirme.


-- Veröffentlicht durch CMOS am 10:25 am 19. April 2004


alle wollen nur viele frames, stimmts? und shader 2.0 --> auch wenn die nicht in spielen auffallen, aber man kann sich ja vor den PC setzen und shadermark angucken..


jo aber auf die 6800er lechzen mit ihrem 3.0 shader:lol::lol:

und nur wegen dem superdupi dualview kaufen sich höchstens 5% aller user hier ne nv.

"eine fx 5950 ultra + 2 tft´s ... das ist für die meisten halt schlichtweg zu teuer oder, wie für mich zu bescheuert (das geld leg ich woanders besser an)"


-- Veröffentlicht durch Krieger79 am 17:46 am 18. April 2004

Also meine meinung dazu :

Alles schwachsinn... die haben dort schon technologien die erst in 5 Jahren präsentiert werden... es ist in unserer zeit blödsinn zu reden das irgendwas ZUKUNFTSSICHER ist, da sich die sockel ändern wie der wind dreht, und nun PCI-Express und so weiter, langsam ist es mir schon egal wer vorne ist.... ich schaue mir alle 1-2 Jahre bischen um nah dem was ich brauche und kaufe das was im PREIS/LEISTUNGS ergebniss am besten abschneidet....

Also ich werde nun nicht ins geschäft rennen und mit nen FX 64bit Athlon kaufen und schon lange keine neue ATI oder Nvidia karte, is doch alles blödsin, die preise sind zuerst auf 500€ und in 6 Monaten hauen sie dir die karte zu einem Spiel im package dazu... voll übertrieben....

Also ich finde , darüber zu diskutieren obe Nvidia oder ATI vorne sein wird ist volle zeit verschwendung, da geh ich doch lieber raus spazieren.... es wird Nvidia eine karte rausbringen und dann ATI,  Fakt ist das ATIs karte irgendwas kleines haben wird die sie wieder zur referenz machen wird und dann kommt wieder Nvidia und so weiter, es war immer schon so und es wird immer so bleiben....

glaubt ihr echt das die Firmen das Maximum vorstellen, die haben wahrscheinlich schon karten mit ganz anderen SLOTS und Taktungen (weit über 1 GHz Speichertaktungen und so weiter) dort liegen , aber bringen immer nur in kleinen Steigungen die kraten raus damit die Blödis die immer das beste haben wollen jedes halbe jahr wieder 500€ und so ausgeben, aber bitte, is ja richtig so... ich warte ein halbes bis ein jahr und kaufe die karte dann viel billiger, wen überhaupt...

meine meinung und einstellunge dazu

GRUSS :godlike:


-- Veröffentlicht durch AssassinWarlord am 17:39 am 18. April 2004

ich werde dir mal eine ausgeben ;):lol:


-- Veröffentlicht durch Ossi am 17:23 am 18. April 2004

Also ich denke mal das der NV40 gut abgehen wird aber keiner weiss wie der R420 abgeht. Am 4.Mai ist ja Launch.

Naja wer schenkt mir ne R420 X800XT?


-- Veröffentlicht durch AssassinWarlord am 16:16 am 18. April 2004

das ist ja wie im Priziep mit den CPUs...Intel...AMD...beide versuchen marktfürher zu werden, und immer wird der eine vom anderen vom Thron geschupst.
Aber auch da kann ein Nebenbuler dazukommen, wie z.B. VIA C3 (glaube ich zwar weniger aber egal), oder der Power4GEAR CPU, die glaube ich schon jetzt schneller sind, als die Intel oder AMD CPUs, aber die laufen nur mit Apple OS zusammen...noch...


-- Veröffentlicht durch kammerjaeger am 15:34 am 18. April 2004


Zitat von Ossi am 13:32 am April 18, 2004
Naja erstmal hab ich gehört das der Deltachrome rauskommt , wie du schon sagtest für den Mainstream sind, danach soll der Deltachrome 2 rauskommen der bei 3DMark2001 die 20k knacken soll. (Angeblich) zum Schluss weiss ich das die S3 Destination rauskommt mit DDR-II und DX10 Kompatibilität. GLaube SIs bringt noch nen neuen Mobile Chip raus.



Ich bin auch auf S3 gespannt, auch wenn die erste Generation schon Verspätung hat. Aber denen traue ich für die nahe Zukunft mehr zu als XGI.

Was die 20k angeht:
Da bin ich mal gespannt, denn 3DMark-Punkte alleine sind nicht alles.
Mit einer Xabre400 kam man im 3DMark2001 auch auf das Niveau einer GF3TI (ca. 7.000-8.000 Punkte in Standard-Systemen). Leider brach dabei die Performance zwischendurch so stark ein, daß man auf absolut unspielbare Frameraten fiel (nicht nur im Bench, auch in Spielen). Dieses Problem hat kein mir bekannter Treiber gelöst, trotz diverser Updates...
Was helfen also hohe Durchschnittswerte (und somit gute Benchmarks), wenn die Min-fps im Keller sind?
Aber hoffen wir das Beste für S3, dann kommt mal wieder Schwung in die Bude. ;)


-- Veröffentlicht durch Beschleunigen am 15:08 am 18. April 2004

naja, meinetwegen..

aber die graka in joshua (rechner im keller) - ist eh nur eine TNT2pro

die schafft doch gar keine 60 frames pro auge.. LOL

ich musste damals viel mit dem elsa-support rumdoktorn damit das ding
richtig lief.. die sagen jedenfalls, dass 120 Hz BWF reichen.

da man bei der TNT2 sowieso eher auf 800x600 spielt, hat das CRT auch mehr Hz (ich glaube 150)..

vernünftige TFTs?  es gibt keine schlechten TFTs, die RGB Farbräume bieten.. da ich sehr viel mit RGB mache, werden die schon vernünftig sein.. ;)  Besonders die von NEC

aber auch die alten samsungs, die ich noch zu D-mark zeiten gekauft habe (ca. 1799,--), waren immer sehr hochwertig (obwohl es damals nicht so sehr auf die "marketing-trächtigen" schaltzeiten ankam)


Sein Daddy hat auch ne größere Firma und Beruf Sohn ist schon was schönes.
 LOL   meine bekannten haben schon fast durch die bank eigene kinder.. hoffentlich bekommt mein sohn nicht die prägung "von beruf sohn" verpasst, nur weil ich hier unmengen computer sch****e und unterhaltungs-elektronik rumstehen habe.

greets
to!



(Geändert von Beschleunigen um 15:34 am April 18, 2004)


-- Veröffentlicht durch BUG am 14:46 am 18. April 2004

@Beschleunigen
..ich kenne auch einige (nein eigentlich nur einen persöhnlich) der zwei TFT´s sein eigen nennt und sie nebeneinander stehen hat. Sein Daddy hat auch ne größere Firma und Beruf Sohn ist schon was schönes. ;)

...was willst du denn mit nem Monitor der 120 Hz in 1024x768 schafft?! ..der stellt dann in 1024x768 für jedes Auge auch nur 60Hz dar wenn man die Brille aktiviert und 60Hz Pro Auge ist alles andere als "Flimmerfrei". Also 1024x768 sollte schon mit "mindestens" 150 Hz laufen was mir aber immernoch zu wenig wäre, da kähme für mich nur 800x600 in Frage bei ~170 Hz oder so.

80% der Leute haben irgendwelche 85khz "Gurken" im Zimmer stehen, die mit ach und Krach 100 Hz in 1024x768 schaffen oder halt nen TFT wo das sowieso nicht funktioniert.

..ich neidisch? ..auf deine FX? ..never! ..vieleicht auf die beiden TFT´s (wenns vernünftige sind). Aber den rest kannst behalten! :biglol:

Edit:
..ich glaube nur FutureMark weis genau ob im Treiber erlaubte/unerlaubte Optimierungen vorhanden sind. ..und der 56.72 ist nicht "FutureMark Aproved" für die FX Karten (Shader-Replacement, hat aber nix mit dem Shader Compiler im Treiber zu tun!). Installier den 52.16 inkl FutureMark 340 Patch, dann weist du wie schnell deine Karte im 3DMark wirklich ist!

cu
BUG

(Geändert von BUG um 15:06 am April 18, 2004)


-- Veröffentlicht durch Beschleunigen am 14:37 am 18. April 2004

@bug


brauchen aber auch nen Monitor mit mindestens 120 khz um bei 800x600 noch flimmerfrei zocken zu können.


quatsch! im keller steht ein rechner mit billigem 21" highscreen monitor (107 khz) --> daran läuft auch eine elsa revelator bei 1024er auflösung oder niedriger @ 120Hz - 150Hz

ansonsten bist du doch nur neidisch (die sites sind sich einig, dass der 56.72er treiber, nicht cheatet)

auch schade dass du nur kinder kennst, die alle mit einem monitor zufrieden sind.  bei der WG meines kumpelz (netzwerk mit 12 rechnern auf 4 etagen mit server im keller --> hat jeder 2 monitore laufen)

greets

einer mit mehr punkten, als bug


-- Veröffentlicht durch Ossi am 13:32 am 18. April 2004

Naja erstmal hab ich gehört das der Deltachrome rauskommt , wie du schon sagtest für den Mainstream sind, danach soll der Deltachrome 2 rauskommen der bei 3DMark2001 die 20k knacken soll. (Angeblich) zum Schluss weiss ich das die S3 Destination rauskommt mit DDR-II und DX10 Kompatibilität. GLaube SIs bringt noch nen neuen Mobile Chip raus.


-- Veröffentlicht durch BUG am 13:27 am 18. April 2004

..wird sich noch zeigen, die aktuellen S3 Karten sind ja eher für den Mainstrem Markt (Radeon 9600, FX5700) bestimmt. Aber die Tri TMU´s sind eine feine Sache. Mal schaun was S3 (VIA) da demnächst noch so auf Lager hat.

cu
BUG


-- Veröffentlicht durch Ossi am 13:15 am 18. April 2004

Mich würde aber auch nicht nur ATI o. NVidia interessieren sondern der S3 Deltachrome 2 oder der Destination mit DX10 von S3.


-- Veröffentlicht durch BUG am 13:09 am 18. April 2004

@Beschleunigen
..mit der Meinung stehts du allerdings nahezu alleine da. ;) ..deine 3DMark Punkte sind sowieso gecheatet aber is ja eh wurscht, wer Spielt 3DMark?! ..Aquamark ist auf beiden Karten nahezu gleich schnell.

DualView braucht keine Sau beim zocken (auser vieleicht du) und ATI wird im nächsten Chip vermutlich auch kein sochen DualView Modus einbauen. (die Masse braucht ihn einfach nicht)

Shadermark hin oder her, das Teil zeigt was der Chip Shadermässig drauf hat, und der NV35/38 hat nunmal nix drauf, in der Beziehung hat aber NV deutlich nachgebssert --> siehe NV40.

FarCry auf FX Karten mit 1.1 Patch sieht fast so aus wie mit 1.1 Shadern bzw High Detail statt VeryHigh und auf High Detail sind die ATI Karten auch deutlich schneller. Imho gibt es keine Karte die FarCry mit Ultra/Very High Detail und voller Shader Prezession (2.0 & 3.0) durchgängig flüssig darstellen kann (die Geforce 6800 kann man leider noch nicht kaufen, und die Shader-Bildqualität lässt derzeit auch noch zu wünschen übrig), und wenn du die ganze Zeit an den Himmel gucken must um 70 oder 80 FPS zu haben bite schön, so komme ich mit meiner FX auch knapp auf die durchschnitswerte. ;) ...die FPS auf den 8-Pipe ATI Karten sind desweiteren deutlich stabiler (egal ob mit oder ohne Patch) als auf den FX Karten, da sind sich nahezu alle Reviewer einig (siehe 3DC, THG, Hardocp, usw..)!

Der FSAA mit quincunx is doch schrott, dass verwäscht einfach nur die Texturen da eine art Blure Fiter drüber gelegt wird, imho is der einzige FSAA Modus der auf den derzeitigen FX Karten zu gebrauchen ist der 2x Modus. Der -S Modus sieht zwar auch nett aus, allerdings bei aufwendigen & aktuellen Spielen viel zu lahm genauso wie der 4x Modus.

Pluspunkt für NV ist nur der AF Modus, der nicht so stark Winkelabhängig ist wie bei ATI, dafür bei höhem AF Grad (8x) deutlich langsamer. NV ist aber hier mit dem NV40 den selben weg wie ATI gegangen. Wenn du das DualView benötigts um über zwei Bildschirm zu zocken bitte schön, kannst ja weiterhin die NV Karten dafür kaufen, aber bitte versuch nich den ganze Leuten hier einzureden NV sei für sie besser (ich wette hier gibt es nich mehr als ne Hand voll Leute die zwei hochwertige TFT´s ihr eigen nennen und sie auch so nutzen wie du). ;)

Zweiter Pluspunkt wäre ggf der 3D Brillen support, für dich leider uninteresant da auf TFT´s nicht nutzbar, alle anderen brauchen aber auch nen Monitor mit mindestens 120 khz um bei 800x600 noch flimmerfrei zocken zu können.

cu
BUG


-- Veröffentlicht durch Beschleunigen am 12:02 am 18. April 2004

@kammerjäger

das ist schön, dass du auf diese weise deine langeweile bekämpfst, aber ich kann mich z.b. über leistung in farcry nicht beklagen..
auch ist es schön, dass alle user gleiche ansprüche stellen. jeder braucht viele  frames in spielen - keiner braucht dualview oder gute svhs eingänge, HW-monitor oder taktmanagement.. alle wollen nur viele frames, stimmts? und shader 2.0 --> auch wenn die nicht in spielen auffallen, aber man kann sich ja vor den PC setzen und shadermark angucken.. das ist nicht so eine zeitverschwendung, wie ein spiel zu spielen oder ein video zu schneiden..

auch sehen wir in farcry keinen unterschied, ob da nur 4fach AF oder 8fach AF eingestellt ist..

AA nutze ich zum spielen immer nur quincunx --> das ist ausreichend schnell und leistungsfähig.. aber das gibt's bei ATI nicht.. kann man also nicht vergleichen.. quincunx ist optisch ansprechender (besonders in farcry), als 4fach.. die nächste gleichwertige stufe, wäre 6xs oder 8xs, aber auch das haben ATI karten nicht..

ansonsten kannst du dir die gängigsten benches gern auf meiner HP anschauen..  in den 3 standard benches (3D01, 3D03 und AM3) steht die karte echt gut da.  

und wenn du schon vergleiche zwischen karten anstellst, dann vergleiche bitte alle funktionen.. schade nur, dass man ne ATI karte nur auf basis der game-frames mit einer NV vergleichen kann.. andere gemeinsame funktionen haben die karten nämlich nicht..

ich denke, es ist ein pillermann problem.. wer kein geld für 2 monitore hat, braucht sie nicht. wer keine dualschirm funktion hat, braucht sie nicht. wer nicht 240 km/h mit dem auto erreicht, findet raser sch****e..

naja, wayne.. i

das ist allgemein vergleichbar:



und das:



bei dieser taktung:



und wie ich immer wieder gern betone: auch bei 2 schirm betrieb

spiel mal X2 (sehr geiles game) auf ner ATI karte in der 2560x1024er auflösung (4fach AF, 3fach AA) - ach sch****e, das passt ja gar nicht auf einen bildschirm LOL

in allen anderen  spielen ist die leistung mehr als ausreichend. es ist egal, ob ein game mit 30 oder 35 bzw. mit 120 oder 150 frames läuft.. flüssig ist flüssig.

mit den shadern stimme ich zu. die sind echt schwer anzusprechen bei NV karten.. aber: ein spiel besteht nicht nur aus shader-code.  ein laie erkennt bei farcry nichtmal, dass sich das multitexturing zwischen vers. 1.0 und 1.1 ändert (kannst du auch auf meiner HP angucken)

nochwas: gerade bei farcry brechen die min.frames auf ATI karten zu weit ein (unter 20 frames) ---> bei meiner karte liegen die durchschnittsframes nicht bei 80 ---> nur bei 70, aber meine min frames sacken nie unter 25-30 frames ein ---> es ist also spielbarer.

dass selbst die AF modi nicht vergleichbar sind, kann man bei 3dcenter angucken und nachlesen..

ich bleibe dabei. für den ausgewachsenen anwender, mit anspruch an funktionalität und ausstattung bleiben die grossen von NV die erste wahl. wenn man nur spielen will und geld sparen muss: ATI oder ne XBOX.

apropos xbox: da kommt doom3 auch auf spielbare frameraten (mit nem NV chip), aber weil es das noch nicht gibt: zocke ich jetzt erstmal eine runde suffering.

zum thema preis/leistung zitiere ich mal einen älteren test von p3dnow


Sapphire Radeon 9800XT: (2966,0 fps : ab 415 EUR)
MSI FX5900XT: (2874,9 fps : ab 187 EUR)
Asus Radeon 9600XT: (1957,0 fps : ab 169 EUR)  



Den ganzen test, gibt's hier!

so long

(Geändert von Beschleunigen um 12:34 am April 18, 2004)


-- Veröffentlicht durch kammerjaeger am 11:45 am 18. April 2004


Zitat von Beschleunigen am 11:23 am April 18, 2004


eure sichtweise ist viel zu begrenzt..

im aquamark bekomme ich mit meiner FX ca. 53000 punke..




Mit dem Statement finde ich Deine Sichtweise sehr begrenzt, wenn Du Dich an 1-2 Benchmarks aufgeilst. ;)

Da könnte ich sogar dagegenhalten, das eine FX5900 im 3DMark2001 gerade mal auf dem Niveau einer TI4400 oder 9500nonPro ist.

Egal welchen Benchmark man nimmt, er spiegelt alleine nie die Realität wieder.


Was mich eben an den FX-Karten stört sind zwei Punkte:

1. AF ist praktisch Pflicht bei einer Karte >150,- (während man auf AA verzichten kann...). Gerade mit 8xAF haben aber die FX-Karten ggü. ATI klar das Nachsehen.

2. Die Rohleistung (3DMark2001) und PS2.0-Leistung (FarCry, TR AoD etc.) der FX-Karten kommt nicht an ATI ran.


Ich habe alle möglichen Karten in diversen Spielen/Benchmarks miteinander verglichen und komme immer wieder zu folgenden Empfehlungen in den entsprechenden Preisklassen (nur aktuell erhältliche Karten):

<  50,-:  keine halbwegs vernünftige Spielekarte neu erhältlich, nur GF4MX 128bit (evtl. onboard, z.B. auf Biostar M7NCG 400 oder Epox 8RGMI) interessant
~   70,-:  Radeon 9200 besser als FX5200 (Achtung: keine 64bit kaufen!)
~   95,-:  Radeon 9600 besser als FX5600 (Achtung: keine 64bit kaufen!)
~ 125,-:  Radeon 9600Pro besser als FX5700
~ 175,-:  Radeon 9700Pro besser als FX5700U und FX5900XT
~ 225,-:  Radeon 9800Pro besser als FX5900
darüber: Radeon 9800XT besser als FX5950U, aber die Preisklasse halte ich für Quatsch, da der Mehrpreis in keiner Relation zur Mehrleistung steht. ;)

Ergänzungen sind gern gesehen.


-- Veröffentlicht durch AssassinWarlord am 11:37 am 18. April 2004

mal sehen, waas die zukunft bringt...ich glaube auch, das ATI besser sein wird in der leistung, allerdings vergessen hier viele, das S3 mitlerweile schon eine neue High-End Graka angekündight hat, die nochmal ordentlich zulegen wird...XGI wird glaube ich nicht so recht mithalten können...aber S3 schon.

Jedenfals schaut ne Voodoo unter Glide wesenlich besser aus in der Qualli...


-- Veröffentlicht durch Beschleunigen am 11:23 am 18. April 2004

eure sichtweise ist viel zu begrenzt..  ihr tut so, als würde sich eine graka nur durch die frames definieren. wie ist es denn mit ausstattung?
hardware-monitor, taktmanagement, qualität der ein- und ausgänge, treibersupport, dualview-möglichkeit, openGL usw.

im aquamark bekomme ich mit meiner FX ca. 53000 punke..

und den dualview support möchte ich nicht mehr hergeben.. auch wenn ich kein unternehmen bin..  --->  2 TFTs sehen nämlich nicht nur geil aus, die kann man auch wunderbar unter windows, linux und in spielen nutzen.. der NV treiber ist min. so umfangreich, wie die matrox versionen; allerdings mit spielbarer leistung (siehe X² @ 2560x1024).

dass sich das ein ATI user nicht vorstellen kann, kann ich gut verstehen, denn immerhin ist der ATI-Dual-Support lächerlich schlecht und völlig unbrauchbar zum arbeiten und spielen. was man also noch nicht in aktion gesehen hat, kann man auch schlecht vermissen. als damals die farb-TVs erfunden wurden, war es den eingeschworenen schwarz/weiss guckern, auch schwer zu erklären, wo genau der vorteil liegt..

die ATI karten, sind sch****e für die massen.  das waren sie auch immer.
wer also nur spielen will und gern 5 frames mehr hat, als der bruder mit der richtigen, ausgewachsenen graka.. soll ruhig sowas kaufen. nur darf man dann nicht anfangen zu weinen, wenn man merkt, dass man bei ATI nicht über den Tellerrand gucken kann und auch nur das bekommt, was man bezahlt hat..

mfg
tobi

ps. wenn ich die wahl zwischen 2 autos habe, die annähernd das gleiche kosten, und die auch beide schneller als 220km/h fahren (meinetwegen eines 225 und das andere 228km/h, dann kaufe ich das auto, mit der besseren ausstattung; bei ATI sitze ich auf velours; bei NV auf leder)

(Geändert von Beschleunigen um 11:35 am April 18, 2004)
:noidea:

(Geändert von Beschleunigen um 11:40 am April 18, 2004)


(Geändert von Beschleunigen um 11:42 am April 18, 2004)


-- Veröffentlicht durch WiseGuy am 11:02 am 18. April 2004


60k im aquamark is doch jetzt ein witz... ich schaffe mit meiner SE@Pro schon 45k... sorry ... aber nvidia wird wohl von Ati überholt ohne eingeholt zu werden.

nvidia wird wohl ab 2005 mit S3 und XGI um den zweiten Platz kämpfen müssen...

Das sieht mit mir langsam nach nem 3dfx Syndrom aus...



Da lach ich doch nur. 60k für eine neue karte ist eine sehr respektabele leistung. in 3dmark 2k3 wurde die punkteanzahl ja verdoppelt. Und ich denke nicht das ATI nvidia überrennen kann. Denn die letzten chips waren ja noch auf den alten geforce 1 karten aufgebaut.

MfG WiseGuy


-- Veröffentlicht durch darkcrawler am 2:56 am 18. April 2004

ja genau - ati ist unser held:godlike::thumb::lolaway:;)


-- Veröffentlicht durch N omega G am 1:05 am 18. April 2004

also ich finde ati hat nvidia schon längst überholt... wenn ich mir mal die preise anschaue... 5900 für über 300 öcken, wobei eine 9800Pro 200-220 kostet und dazu noch viel schneller ist..

irgendwie langt nvidia immer in die sch****e! shader 3.0 wer brauchtn sowas überhaupt? wenn mal spiele rauskommen wo man das braucht bzw vorteilhafter ist, dann ist die karte schon eh zu alt. also ich kann atis entscheidung nachvollziehen mit dem "aufrüsten" des R360...

und wie nvidia immer versucht die leute zu verarschen ist ja auch das letzte... schon bei der präsentation haben die 3dmark mit 800*600 durchlaufen lassen statt mit standard 1024*768....

atis R420 sollte auch schneller sein als der nv40, ati 16 pipes und 600mhz takt und nvidia 400mhz und auch 16 pipes. ich hab zwar net viel ahnung von der architektur, aber schon jetzt sind die taktraten von ati langsamer und die ati karten sind trotzdem schneller!

mal sehen was ati vorlegt, aber ich bin mir ziemlich sicher die ati karte wird schneller sein, als die nvidia und wenn die bildquali noch besser wird, dann gute nacht nvidia...

ich weiß man könnte denken ich bin ein atifan, aber das täuscht ;)

bin selber von nvidia auf ati umgestiegen und bereue es nicht!


-- Veröffentlicht durch THCCryjack am 23:41 am 17. April 2004

60k im aquamark is doch jetzt ein witz... ich schaffe mit meiner SE@Pro schon 45k... sorry ... aber nvidia wird wohl von Ati überholt ohne eingeholt zu werden.

nvidia wird wohl ab 2005 mit S3 und XGI um den zweiten Platz kämpfen müssen...

Das sieht mit mir langsam nach nem 3dfx Syndrom aus...


-- Veröffentlicht durch Desertdelphin am 16:45 am 16. April 2004

Ich als NVIDIA nicht mögel obwohl ich eine 4200 hab *G* muss sagen:

Schöne Karte: was will man mit 8fach FSAA ?!?! Das war doc das was bei der karte sch****e ist oder?!?!

Naja und bei vielen Games sieht FSAA schlechter aus als ohne finde ich weiß auch nicht...

Naja schöne Karte aber WENN die NEUE ATI mit 16 Pipes genauso schnell ist wie die neue NVidia gibts einen Haken für Nvidia:

DIe neue ATI ist nur ne weiterentwicklung mit mehr Takt, schnellerem Speicher und verdoppelter Piplineanzahl im groben jedenfalls... WEnn ati damit schon die NEUENNTWICKLUNG von Nvidia parolie bieten kann!?!?

Naja dekt selbst weiter  :lol:

:ocinside:


-- Veröffentlicht durch N omega G am 16:19 am 16. April 2004

mit zukunftssicher meinte ich die schnelligkeit der karte und nicht die anschlüsse.

dual-view? ich brauch zum beispiel das nicht und die meisten auch nicht! firmen, die sowas brauchen, holen sich ne matrox...


-- Veröffentlicht durch darkcrawler am 15:26 am 16. April 2004

zukunftssicherheit?
inner it-branche, ich bitte euch, ihr macht euch lächerlich darüber zu diskutieren;)


Zitat von SchlitzerMcGourgh am 13:23 am April 16, 2004
so langsam übernehmen glaube ich die traumtänzer die welt :lol:



jo, den eindruck hab ich hier in letzter zeit auch


-- Veröffentlicht durch Beschleunigen am 13:56 am 16. April 2004

@nomega


die karte ist jedenfalls zukunftsicher, aber momentan würde sie niemandem was bringen


UNWAHRSCHEINLICH!

eine AGP karte wird wohl kaum zukunftssicher sein, wenn pci-ex in den startlöchern steht.

ferner wird sich ati warm anziehen müssen, der nv40 ist eigentlich das, was der nv45 hätte werden sollen. die quantensprünge in der leistung zeigen eigentlich auch, dass eine generation übersprungen wurde..

lohnen tut es sich jedenfalls für das alte sockel a system nicht mehr.. in meinem fall.

und solange immer noch benches und games dazwischen sind, die mit 30 frames vor sich hin dümpeln, finde ich das nicht brachial oder innovativ.

bei ATIs nächster generation interessiert mich eigentlich weniger, ob die schneller oder annähernd gleichschnell sind.. mich interessiert, wann es bei ATI endlich einen brauchbaren dual-view modus gibt. der ist bei NV ungeschlagen (matrox mal ausser acht gelassen)

greets
to

mfg
tobi


-- Veröffentlicht durch SchlitzerMcGourgh am 13:23 am 16. April 2004

so langsam übernehmen glaube ich die traumtänzer die welt :lol:


-- Veröffentlicht durch darkcrawler am 13:06 am 16. April 2004


Zitat von david am 18:50 am April 15, 2004

Zitat von TwP am 18:18 am April 15, 2004
ich find das so laecherlich


von wegen ne 5950 U is manchmal schneller als ne 9800xt


Das wär mal was ganz neues ..

David



ne 9800 ist immer schneller, ja nee, ist klar:blubb:


-- Veröffentlicht durch Eisenblut am 13:00 am 16. April 2004

Du hast schlicht den Grund für dieses Verhalten bei ein paar Benches & Setting3 nicht gelesen/verstanden/sehen wollen. Es macht keinen Sinn, bei einer GF6800 mehr als das neue 4xAA auszuwählen, die Modi darüber sind uneffektiv in Qualitätssteigerung und Leistungsverlust. Dass ist auch im Text von Leonidas erwähnt worden. Stattdessen liefert die 6800 genug Leistung, dass man besser eine Auflösung höher geht. Und da es um IQ geht, ist dies eine nachvollziehbare Entscheidung von nVidia, die aber sicherlich problematisch sein könnte für Leute mit TFTs. Wenn ich mir aber den Unterschied bei meiner ATI 9800 zwischen 4xAA und 6xAA ansehe, dann ist da nicht viel, zudem sind TFTs für UT2004 & Co. immer noch nicht perfekt.


-- Veröffentlicht durch Ossi am 11:19 am 16. April 2004



:lolaway: ich lach mich schlapp ne GeForce 6800U fällt bei Qualitäts Einstellung hinter ne 9800 XT ...

Also ich finde sie nicht Atemberaubend... hatte mehr erwartet... lest den Test bei 3Dcenter.de durch. ;)

(Geändert von Ossi um 11:56 am April 16, 2004)


-- Veröffentlicht durch Xylant am 10:01 am 16. April 2004

Die neue ati xt hat 16 pipes siehe hier:
X800 Pro Codename R420 wird am 26.04.2004 vorgestellt und verfügt über besagte 12 Pixel Pipelines
X800 XT Codename R420 wird für den Monat Mai erwartet und soll über die volle Anzahl von 16 Pipelines verfügen.
X800 SECodename R420 soll das untere Ende der High End Beschleuniger bilden und ganze acht 8 Pixel Pipelines verfügen.
X800 XT Codename R423 (PCI Express) wird wie die AGP 8x Variante mit 16 Pixel Pipelines ausgestattet.


-- Veröffentlicht durch N omega G am 1:40 am 16. April 2004

1. wenn die ati 12 pipes hat, was ich gehört hab, dann müsste die ati knapp langsamer sein...
2. ich glaub ich hab bei tweakpc.de gelesen, dass die ati karte "nur" 10k im 3dmark bringen soll...

wenn das alles stimmt, müsste doch die mainstream variante mit den 12 pipes des nv40 der konkurrent für den R420 sein und ati kann dann den preis auch net so hoch ansetzen, weil die abgespeckte version vom nv40 weniger als 300 öcken kosten soll!

ich bin echt gespannt was ati rausbringt!

ich glaub aber auch kaum, dass ati mit sich sowas machen lässt.


wenn die ati wirklich nur 12 pipes hat, dann sind die 10k, die von tweakpc erwähnt werden gar net so falsch :blubb:


-- Veröffentlicht durch Master of Puppetz am 23:48 am 15. April 2004

Trinken wir erst mal nen Tee z'samm und warten ab:thumb:.
Vielleicht macht ATI ja auch das:
:toilet:
mit der 6800:lol:


-- Veröffentlicht durch WiseGuy am 23:27 am 15. April 2004

Aber besser eingeschlagen als die 5800 hat sie ja.
die konnte damals der 9700pro nur knapp das wasser reichen.
wenn das so weiter geht wird das ja lusitg hier


-- Veröffentlicht durch lucker am 22:20 am 15. April 2004

und mir isses scheisegal......


-- Veröffentlicht durch Ceylon am 21:45 am 15. April 2004

Es ist eher eine Erfahrungsfrage... (ein gebranntes Kind scheut das Feuer!)... ;)


-- Veröffentlicht durch Kojak am 21:12 am 15. April 2004

nividia ist quasi der intel unter den grakas :)


das ganze spekulieren bringt ja eh nix, schauen wir mal was ati nachlegt und dann sind wir schlauer.
Das entwickelt sich hier langsam wieder wie immer zu einer glaubensfrage :)


-- Veröffentlicht durch tdsangel am 21:07 am 15. April 2004

ähm, man muss bedenken, dass die ganzen bisherigen geforce Karten weiterentwicklungen der GF 256 sind / waren...
dashier ist zum größten Teil eine Neuentwicklung (daher resultiert wahrscheinlich die relativ geringe Transistoren Anzahl im Vergleich zu der Anzahl der Pipelines im Vergleich zur FX)
!!!

und:
lbl a
output ati ist besser
output stimmt nicht, nvidia ist besser
goto a


-- Veröffentlicht durch N omega G am 20:35 am 15. April 2004


Zitat von Ceylon am 19:55 am April 15, 2004
Sorry Leute, aber ich denke nicht, dass Ati noch eine Chance haben wird...

2 1/2 Jahre(GeForce 4) musste ich nun warten bis Nvidia endlich wieder eine gescheite Karte herausbringt und jetzt ist es soweit!

Freu mich! :godlike:



naja mal schauen...

nvidias karten werden sau heiß, haben hohe taktraten und sind trotzdem langsamer (siehe 5950U)

also ich denke nicht, dass die ati langsamer sein wird...  ich nehme mal an wird auch so zwischen 11k und 15k punkte bringen...

abe rmal ehrlich was bringen dir 150 frames bei ut2k4, 100 reichen doch auch :thumb:

die karte ist jedenfalls zukunftsicher, aber momentan würde sie niemandem was bringen :lol:


-- Veröffentlicht durch Ceylon am 19:55 am 15. April 2004

Sorry Leute, aber ich denke nicht, dass Ati noch eine Chance haben wird...

2 1/2 Jahre(GeForce 4) musste ich nun warten bis Nvidia endlich wieder eine gescheite Karte herausbringt und jetzt ist es soweit!

Freu mich! :godlike:


-- Veröffentlicht durch Gibtnix am 19:25 am 15. April 2004

Also ich bin mir auch sicher, dass ne FX 5950 Ultra manchmal schneller als ne 9800 XT ist, weil eine 9800 XT hat eine geringere Speicherbandbreite als eine 5950 Ultra.


-- Veröffentlicht durch david am 18:50 am 15. April 2004


Zitat von TwP am 18:18 am April 15, 2004
ich find das so laecherlich


von wegen ne 5950 U is manchmal schneller als ne 9800xt


Das wär mal was ganz neues ..

Die Karte is für den Preis auch net soo dolle! ATI bringt sicher eh wieder was besseres raus was die neuen NVs wieder einstapmft.

Aber warten wir mal die Tests der ATIs ab. 20k im 3dmurks2003?? :)

David


-- Veröffentlicht durch TwP am 18:18 am 15. April 2004

ich find das so laecherlich


von wegen ne 5950 U is manchmal schneller als ne 9800xt


-- Veröffentlicht durch HellerSebastian am 17:07 am 15. April 2004

Naja ich hab ich damit abgefunden das sich die hw spierale sehr schnell dreht...

heute noch 2,45 ghz athlon xp mit 9800xt = ultimum
                  2,17 ghz athlon xp mit 9600xt= mitend

und morgen sind die systeme veraltet und doom 3 ruckelt wie sau... :(


-- Veröffentlicht durch opf1985 am 16:33 am 15. April 2004

:moin:

:megaeek: ...sch****x und ich hab mir jetzt wieder ne neue 9800xt bestellt..... :rocket:  ...aber wenn ati wieder eins draufsetzt, dann gehst ab hier :rush: :zocken:


mfg opf1985


-- Veröffentlicht durch Crusader am 22:40 am 14. April 2004

@lucker

GameStar

11865 pkt !!   *gg*

MfG.
-Crusader-


-- Veröffentlicht durch Gibtnix am 19:05 am 14. April 2004

Fette Karte....:godlike::respekt:


-- Veröffentlicht durch Eisenblut am 18:24 am 14. April 2004

Und wenn du verstehen würdest, was du schreibst, dann hättest du erkannt, dass dies an dem extrem schlecht ausgelegten 8xAA liegt, der auch bei dieser Karte nur Leistung zieht, ohne Qualität zu bringen. Da ist es besser, eine Auflösung hochzuschalten und auf das hervorragende 4xAA zu gehen. Zudem sind dort ATI und nVidia von der Qualität extrem gut vergleichbar und 6xAA ist auch bei ATi keine große Verbesserung mehr.


-- Veröffentlicht durch SebasTian am 18:18 am 14. April 2004

LOL lest euch mal bei 3dcenter druch die Karte is in manchen spielen hinter ner 9800xt ..... auch wenns nur 5-10 fps sind ..... z.B. Dungeon Siege


Soooo Toll Find ich die karte nicht ..... mal sehen was ATI Bringt ....

(Geändert von SebasTian um 18:19 am April 14, 2004)


-- Veröffentlicht durch Ceylon am 18:00 am 14. April 2004

Die Karte wird/ist bombig... ist bei Nvidia immer so... Wenn die letzte Serie sh... war,  wird die darauffolgende Serie PHAT! :D


-- Veröffentlicht durch lucker am 17:47 am 14. April 2004

hey , warum issn da kein test vom 3dmark03 ?


-- Veröffentlicht durch deadalive am 17:01 am 14. April 2004

netter Chip. aber wer weiß was ATI bringt, hoffentlich wieder was besseres....
ned denken das ich was gegen NVIDIA hab, nur die FX Serie fand ich ned so der Brüller


-- Veröffentlicht durch MCSlash am 16:36 am 14. April 2004

:godlike:

Oh shit..
Das ist ja der Hammer die Karte.
Da kannste ja jedes Spiel auf 1600x1200 spielen.. hrhr


-- Veröffentlicht durch Eisenblut am 16:33 am 14. April 2004

Ebend. Guckst du hier.


-- Veröffentlicht durch SchlitzerMcGourgh am 16:27 am 14. April 2004

wir brauchen keine topics 3 mal! einfach mal die augen aufmachen!


-- Veröffentlicht durch faulpelz am 16:13 am 14. April 2004

:wow: 60,000 im aquamark 1,1Ghz speichertakt.................und die sind noch nicht feddisch mit der karte..........und wenn ati wieder wie letztes mal noch einen drauflegt dann:wusch::zocken:


-- Veröffentlicht durch sneakerchen am 16:05 am 14. April 2004

ich glaub, dass die ati karte noch geiler abgeht aba nunja...

http://www.chip.de/artikel/c_artikel_11772621.html


-- Veröffentlicht durch Donni am 15:46 am 14. April 2004

www.de.tomshardware.com/graphic/20040414/index.html

bin normal kein NVIDIA Fan,aber nach den ich diesen test gelesen habe,könnte ich leicht einer werden...:lol::lol:

Donni

:godlike:NVIDIA:godlike:


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de