Benutzername:   Noch nicht registriert?
Passwort:   Passwort vergessen?
iB Code Einmal klicken um den Tag zu öffnen, nochmal klicken zum Schliessen

Top Smilies
Beitrag

HTML ist on für dieses Forum

IkonCode ist on für dieses Forum

SMILIES LEGENDE ansehen

Beitragsoptionen Möchten Sie Ihre Signatur hinzufügen?
Wollen Sie per Email über Antworten informiert werden?
Wollen Sie Emoticons in Ihrem Beitrag aktivieren?
 

Beitragsrückblick für Help!!! (die neuesten Beiträge zuerst)
Rulinator Erstellt: 20:06 am 18. Juli 2005

Zitat von kammerjaeger um 19:55 am Juli 18, 2005
So siehts aus. :thumb:


@ Beschleunigen

Ich schwafele nix nach, nur war dies der einzige Test, den ich auf die Schnelle gefunden habe, der den Sachverhalt sauber getrennt mit und ohne AF zeigt.
Meine persönlichen Erfahrungen decken sich damit (und die von Rulinator bei anderen Spielen wohl auch...).
Außerdem suche ich nicht bewußt Engines aus, bei denen die FX schlecht aussieht, denn UT2003/2004 läuft auf beiden Karten gut. Nur war dies eben ein Spiel, welches garantiert keinen SM2.0 nutzt. Deshalb mußte ich so einen alten Test nehmen, was Du unsinnigerweise mal wieder kritisierst. Drehst Du alles so, wie Du es brauchst???

Und daß eine FX 5950U mal eben locker 56.000 Aquamarks ohne extremes OC, Bios-Mods, Treiber-Optimierung  etc. bringt, kannst Du Deiner Oma erzählen, aber doch bitte nicht uns!!!
THG testet nunmal (wie auch alle anderen Testseiten und Zeitschriften) ohne jegliche Änderung an Treibern und Hardware, nur so kann man real vergleichen.
Du hingegen setzt jedesmal Deine Extrem-Modding-Werte gegen die Standard-Werte anderer Karten. :blubb:
Da fragt sich doch wohl, wer hier befangen ist...

Was die Diskussion der Qualität angeht:
Ich bin der Fakten viel mehr bewußt, als Du es mir zuzutrauen scheinst. Nur siehst Du in Deiner Marken-Blindheit scheinbar die Tatsachen nicht so, wie sie sind!
Komisch z.B., daß außer Dir wohl kaum jemand bei ATI matschiges Bild sieht. Trotzdem kommt das Argument von Dir immer wieder...
Was glaubst Du wohl, warum Nvidia die Qualität bei der GF6 ggü. der FX runtergesetzt hat? Richtig, weil man es nur mit der Lupe sehen kann, aber absolut nicht wahrnimmt. Daher interessiert es keine Sau, ob man Qualitätssettings in einem nicht wahrnehmbaren Maß reduziert zugunsten der Performance. Wenn doch, wäre Nvidia diesen Weg bestimmt nicht auch gegangen.  

Btw.: Ich hab in einem Zweitrechner eine 6600GT und hatte auch schon eine 6800GT, aber die 6800GT ist aufgrund diverser Treiber-Probs und im Vergleich zu X800XL schlechterer Performance und Qualität rausgeflogen, während die 6600GT ohnehin nur im "Ersatzrechner" schlummert.
Und verkaufen tue ich Geforce-Karten auch fleißig, obwohl ich i.d.R. ATI bevorzuge.
Mir kann also keiner Befangenheit unterstellen...

(Geändert von kammerjaeger um 19:57 am Juli 18, 2005)



:thumb:

man man, die diskussionen hören nie auf! :blubb:

ich sehe das so, wie bei amd und intel, in diesem fall ist ati amd und nvidia intel. intel ist größer, populärer und teurer, aber amd ist mittlerweile besser! genau so isses auch mit nvidia und ati, nvidia ist besser und größer, und auch teurer, denn ne x800 xl ist mindestens auf 68gt niveau, doch um die 20/30 € teurer, zumindest bei dem shop bei dem ich bestelle! :blubb:

nvidia setzt auf technik, die nat. gut un schön ist, aber nicht benötigt wird(sh3), und ati bietet leistung, die auch voll genutzt werden kann, undüberflüssiges lassen sie weg!

und wie gesagt, im preis liegen ati-karten vorn, man bekommt für sein geld das was es wert ist (ich meine sapphire x800 xl für 270€, ich seh net ein, 30 € mehr zu zahlen, für eine 68gt, die genau so gut ist, bzw bei qualitätseinstellungen, die mir wichtig sind, schlechter!

so isses, is doch klar, dass die die ne nvidia haben nvidia als besser darstellen, un ati-haber ati besser dastehen lassen, aber ich würd sagen, das blatt hat sich gewendet, ati bietet zumindest derzeit einfach das bessere verhältnis preis-leistung!

wenn mich dafür jetzt jmd killt, soll er ruhig, aber er kann die tatsache net bestreiten, un wenn, dann bitte beispiel! :thumb:

edit:

bin ich der einzige, der meint, dass atkarten im normalen betrieb, also desktop oder so, dass die da nen besseres bild haben als nvidia? bei meinen karten wars jetzt immer so, und mit der 59xt konnte ich nur 75 hz bildwiederholfrequenz machen, mit meiner damaligen 96pro un jetzht mit meiner 97pro gehen 85 hz! :blubb:

(Geändert von Rulinator um 20:20 am Juli 18, 2005)
kammerjaeger Erstellt: 19:55 am 18. Juli 2005
So siehts aus. :thumb:


@ Beschleunigen

Ich schwafele nix nach, nur war dies der einzige Test, den ich auf die Schnelle gefunden habe, der den Sachverhalt sauber getrennt mit und ohne AF zeigt.
Meine persönlichen Erfahrungen decken sich damit (und die von Rulinator bei anderen Spielen wohl auch...).
Außerdem suche ich nicht bewußt Engines aus, bei denen die FX schlecht aussieht, denn UT2003/2004 läuft auf beiden Karten gut. Nur war dies eben ein Spiel, welches garantiert keinen SM2.0 nutzt. Deshalb mußte ich so einen alten Test nehmen, was Du unsinnigerweise mal wieder kritisierst. Drehst Du alles so, wie Du es brauchst???

Und daß eine FX 5950U mal eben locker 56.000 Aquamarks ohne extremes OC, Bios-Mods, Treiber-Optimierung  etc. bringt, kannst Du Deiner Oma erzählen, aber doch bitte nicht uns!!!
THG testet nunmal (wie auch alle anderen Testseiten und Zeitschriften) ohne jegliche Änderung an Treibern und Hardware, nur so kann man real vergleichen.
Du hingegen setzt jedesmal Deine Extrem-Modding-Werte gegen die Standard-Werte anderer Karten. :blubb:
Da fragt sich doch wohl, wer hier befangen ist...

Was die Diskussion der Qualität angeht:
Ich bin der Fakten viel mehr bewußt, als Du es mir zuzutrauen scheinst. Nur siehst Du in Deiner Marken-Blindheit scheinbar die Tatsachen nicht so, wie sie sind!
Komisch z.B., daß außer Dir wohl kaum jemand bei ATI matschiges Bild sieht. Trotzdem kommt das Argument von Dir immer wieder...
Was glaubst Du wohl, warum Nvidia die Qualität bei der GF6 ggü. der FX runtergesetzt hat? Richtig, weil man es nur mit der Lupe sehen kann, aber absolut nicht wahrnimmt. Daher interessiert es keine Sau, ob man Qualitätssettings in einem nicht wahrnehmbaren Maß reduziert zugunsten der Performance. Wenn doch, wäre Nvidia diesen Weg bestimmt nicht auch gegangen.  

Btw.: Ich hab in einem Zweitrechner eine 6600GT und hatte auch schon eine 6800GT, aber die 6800GT ist aufgrund diverser Treiber-Probs und im Vergleich zu X800XL schlechterer Performance und Qualität rausgeflogen, während die 6600GT ohnehin nur im "Ersatzrechner" schlummert.
Und verkaufen tue ich Geforce-Karten auch fleißig, obwohl ich i.d.R. ATI bevorzuge.
Mir kann also keiner Befangenheit unterstellen...

(Geändert von kammerjaeger um 19:57 am Juli 18, 2005)
Rulinator Erstellt: 17:46 am 18. Juli 2005

unterschied eins ist,
dass ATIs AF schon immer minderwertig war und auf jedenfall schlechter, als das AF der GF FX. es lag eher auf dem niveau eines geforce6 im Q modus.



ne, als ich kurz ne 5900xt hatte, brach die nicht nur wegen 16x af ein, sondern sah auch schlechter aus, als paar tage später 16x af auf meiner 97pro, welche nicht einbrach, hab das auf screenshots vergleichen können! (das spiel war übrignes nfsu2) :thumb:
Beschleunigen Erstellt: 17:14 am 18. Juli 2005

Wie man sieht, bricht die 5950Ultra allein durch 8xAF um 36,5% ein, die 9800XT hingegen nur um 17,9%.
Und das hat mit Shader2.0-Schwäche noch gar nix zu tun.



stimmt.  nur mit 2 gravierenden unterschieden.

unterschied eins ist,
dass ATIs AF schon immer minderwertig war und auf jedenfall schlechter, als das AF der GF FX. es lag eher auf dem niveau eines geforce6 im Q modus.

unterschied zwei ist,
dass jeder bench von THG, der von mir nachgestellt werden konnte, deutlich höhere ergebnisse bringt. bsp. AM3: lt. THG sollte eine FX5950U ca. 44.000 punkte bringen. in der realität macht sie aber 12.000 punkte mehr..

wenn ich das auf UT übertrage, wonach die FX bei THG auf 60fps @1024 pixel 4x AA / 8x AF kommt, hat eine reale karte sicherlich nochmal 10 fps mehr. wobei mir die 60fps reichen würden -> ein TFT reagiert mitunter zickig, wenn man ohne vsync mehr fps reinjagd, als angezeigt werden können.

irgendwelche alten tests sind wohl kaum repräsentativ.  ein tipp: geh mal im 3d center lesen, womit sich die beiden IHVs ihre leistung zusammen-mogeln und überdenk' dann mal, deine laienhafte vorstellung von einem NV38 grafikboard.

du schwafelst immer nur das nach, was irgendwo im netz steht und fügst regelmäßig die links ein, wo eine FX besonders schlecht gegen eine 9800 aussieht.

das ist wohl eher  befangenheit eines ATI fans, als fachwissen. sicher muss nicht jeder verkäufer wissen, wie AF oder eine pixelpipeline funktioniert, allerdings sollte jemand, der so fundierte benches in rennen führt und vehement mit marketing parolen gegen fakten antritt, auch wissen, wovon er redet.

einmal noch: ATIs BQ war immer grausig, besonders im bezug auf AF und deren winkelabhängigkeit.  du kannst nichtmal den 4x modus einer FX mit dem 8x modus einer ATI vergleichen. letztere hat das vermatschtere bild.

lass' uns im 3Dcenter darüber weiterquatschen - dort gibt's mehr fachidioten, die dir besser das vermitteln können, was offensichtlich in deinem erfahrungsschatz fehlt.

das soll keine attacke sein, aber ich befürchte, dass du sogar eine GF7 mit einer GF6 vergleichen würdest.

meine FX war immer schnell..

(..)

mfg
tobi

(Geändert von Beschleunigen um 17:18 am Juli 18, 2005)
kammerjaeger Erstellt: 14:51 am 18. Juli 2005

Zitat von Beschleunigen um 11:51 am Juli 18, 2005

Ich meinte auch nicht die Qualität des AF, sondern die Performance. Und da brach die FX nunmal deutlich ein.
Und dies zu diskutieren ist sehr wohl wichtig, wenn er vor der Frage steht, ob er sich diese Karte kaufen soll!



meinetwegen. dann stell es aber nicht so hin, als würde eine FX mit oder wegen des perfektes AF's einbrechen. wenn die FX einbricht, dann wg. übermäßigem shader2.0 gebrauch, den sie mit der 32bittigen präzision nicht schnell genug darstellen kann.



Stimmt nicht. Selbst bei alten Spielen, die noch gar kein Shader 2.0 unterstützen, ist der Einbruch der FX59xx  mit 8xAF sehr deutlich spürbar (sogar stärker als mit 4xAA !!!) und stärker als bei der ATI-Konkurrenz (9700/9800-Reihe):
UT2003 ohne AA/AF
UT2003 mit 8xAF und/oder 4xAA
Wie man sieht, bricht die 5950Ultra allein durch 8xAF um 36,5% ein, die 9800XT hingegen nur um 17,9%.
Und das hat mit Shader2.0-Schwäche noch gar nix zu tun.

Weniger Antworten Mehr Antworten
Beschleunigen Erstellt: 11:51 am 18. Juli 2005

Ich meinte auch nicht die Qualität des AF, sondern die Performance. Und da brach die FX nunmal deutlich ein.
Und dies zu diskutieren ist sehr wohl wichtig, wenn er vor der Frage steht, ob er sich diese Karte kaufen soll!



meinetwegen. dann stell es aber nicht so hin, als würde eine FX mit oder wegen des perfektes AF's einbrechen. wenn die FX einbricht, dann wg. übermäßigem shader2.0 gebrauch, den sie mit der 32bittigen präzision nicht schnell genug darstellen kann. würde eine gleich-alte ATI karte in 32bit shader-präzision rechnen müssen, was sie in hardware gar nicht kann, hätte sie auch drastisch weniger leistung. die FX ist im gamer-segment falsch angesiedelt gewesen; im quadro bereich erfreut sie sich ob ihrer technik grosser beliebtheit.


aber ich würde niemals, niemals, selbst wenn ich jetzt noch ne agp-karte kaufen würde, eine 128-Bit Karte kaufen, bei der 6600 gt ist das so, als wenn du mit dem kopf durch eine 12,8 cm röhre willst! bei 25,6 cm würds nämlich passen!


es geht. ich hab' schon einige 66er getestet. die sind auf jedenfall der 9800pro von ATI und auch der FX59 vorzuziehen. ich hatte ein billige Palit 6600GT (500/1000mhz) und eine Leadtek GTe (550/1120mhz). letztere ist eine uneingeschränkte empfehlung, wenn man sie günstig schiessen kann.

und ehrlich gesagt performen die GTe's besser, als man erwarten würde. der höhere speichertakt gleicht einiges aus. wenn du die 6600er aufgrund ihrer bandbreite zum brechen kriegen willst, musst du schon 1280 mit 4x AA aktivieren.
selbst 2x AA und quincunx wuppt die noch in der 1280er auflösung.
trotzdem kann man heute (mitte 2005) nicht mehr zu einer 128mb karte raten.

nicht, wenn man "brauchbar" so definiert, dass eine 66GT die unterste schmerzgrenze bildet. und die 66GT ist die unterste schmerzgrenze für angenhemes zocken (etwas oberhalb des FX/9800pro niveaus).


ich würd auch zu ner 6800 le raten, wenn du die gut oced und etwas glückl mit den pipes hast, dann haste praktisch ne 6800 gt!  


das ist humbug. erstmal ist heute nichtmehr davon auszugehen, dass man einen freischaltbaren chip bekommt, da der NV4x nicht mehr produziert wird. dann wäre noch anzumerken, dass die karte nicht nur reduzierte takte hat, sondern auch nur auf DDR1 RAM zugreifen kann, der gegen einen GT DDR³RAM auch nur halb so gross ist. wenn man dann noch berücksichtigt, dass sich auch eine GT sehr gut OCen lässt, kann man nur feststellen, dass zw. LE und GT welten und meere liegen.

(..)


mfg
tobi

(Geändert von Beschleunigen um 11:52 am Juli 18, 2005)
PapaC Erstellt: 11:43 am 18. Juli 2005
Very thx Leute Besorg mir dann ne6800er :thumb:

mfg
Rulinator Erstellt: 11:27 am 18. Juli 2005
ich würd auch zu ner 6800 le raten, wenn du die gut oced und etwas glückl mit den pipes hast, dann haste praktisch ne 6800 gt! :thumb:

aber ich würde niemals, niemals, selbst wenn ich jetzt noch ne agp-karte kaufen würde, eine 128-Bit Karte kaufen, bei der 6600 gt ist das so, als wenn du mit dem kopf durch eine 12,8 cm röhre willst! bei 25,6 cm würds nämlich passen! :thumb::thumb::thumb:
spraadhans Erstellt: 10:59 am 18. Juli 2005
genau so ist es.

die 6800le liegt aber mittlerweile auf dem selben preisniveau wie eine 9800pro und ist meiner meinung nach damit sogar noch die bessere wahl...
kammerjaeger Erstellt: 10:50 am 18. Juli 2005

Zitat von Beschleunigen um 8:19 am Juli 18, 2005


und kam mit AF nicht gut klar. Gerade in diesen Bereichen hat sich Nvidia deutlich weiterentwickelt.  


das ist zwar inkorrekt, aber über die FX zu diskuttieren, ist heute: 2.5 jahre
nach ihrer einführung nicht mehr obsolet.

-> die FX hatte das beste AF, das NV je implementiert hat. seit dem ging es rapide abwärts (winkelabhängigkeit, reduzierung der stages etc.) - der GF6 hat schon ein gewaltig schlechteres AF, als der NV3x. die darstellung der GF7 auf diesem bereich ist so induskutabel, dass man das AF am besten komplett deaktiviert. schade nur, dass es selbst dann noch flimmert und man als user genötigt ist, den LOD zu verstellen, was wenigstens auf dem NV4x eine linderung brachte. auf dem GF7 hat das keine funktion.



Ich meinte auch nicht die Qualität des AF, sondern die Performance. Und da brach die FX nunmal deutlich ein.
Und dies zu diskutieren ist sehr wohl wichtig, wenn er vor der Frage steht, ob er sich diese Karte kaufen soll!


Was den Preis angeht:
Natürlich ist die 6800GT eine für Spieler sinnvolle Karte, aber >200,- ist nunmal manchen Käufern viel zu viel.
Wer nur ca. 100,- ausgeben kann oder will, für den ist z.Zt. die 9800Pro die bessere Wahl. Da hilft es nix, daß eine 6800GT schneller wäre...

(Geändert von kammerjaeger um 10:55 am Juli 18, 2005)
×