|
Beschleunigen
aus Hannover offline
OC God 22 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
Ich weiß zwar nicht, wie Du auf diesen hirnrissigen Blödsinn kommst, aber 1. war nicht die 9600-Serie die Konkurrenz zur FX5900, sondern eher 9700/9800. Die 9600 stand eher der FX5700 ggü., wer da in fast allen belangen die Nase vorn hat, sollte klar sein. Aber Du vergleichst hier einmal mehr wieder Äpfel mit Birnen...
| gähn.. dann spul' doch nochmal die rolle mit der shaderleistung ab.. das hat mich schon vorletztes jahr sehr amüsiert..
2. spiele ich sogar mit einer 9550 Extreme ohne OC BF2 in 1024x768 und mit mittleren Details super flüssig
| schön für dich. ich krieg' bei sowas augen-karzenome. aber jedem das seine - meinem brüderchen gehts mit der 9600XT nicht so gut, wie mir mit meiner ultra oder dir, mit deiner roten rakete.
Ich hab dafür nur eine Erklärung, warum Du darauf kommst: Entweder bist Du zu blöd, um mit ATI-Karten umzugehen (bitte nicht persönlich nehmen ), oder Du steckst sie in die falschen Systeme oder aber Du willst sie einfach nur schlechtreden.
| die problematik mit ATI karten liegt ganz woanders. ich erwarte nicht dass du sowas verstehst. in systeme stecke ich sie in der regel auch nicht - da ich sich wenn dann überhaupt "in systemen stecken hatte". Ja! ich werde jede negative erfahrung mit ATI karten kundtun. das werde ich mir sicher nicht von einem kleinen verkäufer verbieten lassen. mach weiter deine ATI werbung und halt dich aus der technik raus - davon verstehst du nicht mehr, als im marketing-prospekt steht. ich spule hier jetzt auch nicht wieder die ganzen fehlerberichte ab - die kannst du dir aus der suche fischen, wenn du wirklich nicht über defizite bei ATI karten aufgeklärt sein solltest (nicht persönlich nehmen)
Wenn Deine Aussagen wenigstens der Wahrheit entsprechen würden, dann könnte ich Dich in Deiner Meinung zu Grafikkarten vielleicht auch mal ernst nehmen. Nur leider gibst Du mir dazu echt keinen Grund...
| ähm.. ich frage mich, was du dir einbildest - hier solche unterstellungen vom stapel zu lassen - > aber echt: sch**** drauf, was du ernst nimmst. (..) mfg tobi (Geändert von Beschleunigen um 4:36 am Aug. 16, 2005)
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 8369 Tagen | Erstellt: 4:34 am 16. Aug. 2005
|
|
BUG
aus BW offline
OC God 24 Jahre dabei !
AMD Ryzen 7 3400 MHz @ 4700 MHz 75°C mit 1.2 Volt
|
Zitat von Beschleunigen um 15:00 am Aug. 11, 2005 ^^ stellt sich nur die frage, ob man sich lieber auf synthetische benchmurkse einen kurbelt oder ob man anständig Doom³ oder Quake4 shootern möchte.. tipp: es werden noch einige shooter erscheinen, die auf NV karten prächtig funzen, während man dann für die ATI karte einen käufer sucht.. LOL ^^
| ..ein schlechter flame Versuch.
ich frag' mich allen ernstes, was ihr unter "leistung" bzw. unter "besser" versteht..
| ..1280x1024 (/960) + 8xAF und 2x oder 4xFSAA. Dazu kommt noch das man die NV Karten auf HQ stellen muß damit das AF nicht "grieselt". Bei ATI ist es wurst, selbts mit AI=HIGH sind kaum unterschiede zu AI=OFF oder AI=LOW zu erkennen, da grieselt nix und "brilinear" (AI=HIGH) fällt auch nicht wirklich auf. Ganz im Gegenteil zu nVidia, der aktuelle 3D-Center Bericht macht es mal wieder deutlich. Aber ok, du bist ja auch einer der Quincunx AA nutzt bzw. auf Wischiwaschi Texturen steht, vieleicht gefällt dir ja auch dein dein griseliges AF im Quality Modus.
mag ja sein, dass ich ganzen negativa nicht feststellen kann, weil ich keine 1600er auflösung zur verfügung habe, aber auf normalem DX9 niveau nehmen sich beide karten nichts. ausser, dass ATI andere mechanismen für die framerate einsetzt. hier wird z.b. nur brillinear gefiltert und es wird intern auch nur mit 24bittiger shader-präzision gerechnet, wohingegen NVidia mit 32bittiger genauigkeit arbeitet.
| ..die DX9 bzw SM2.0 Shader sind alle so geschrieben, dass 24Bit ausreicht, da kannst du mit 128 Bit Genauigkeit rechnen, dass Ergebnis bleibt das gleiche, nur der Rechenaufwand ist Größer.
..wenn man also die ganzen zusätzlichen features aussen vor lässt, hat man weder hier, noch da einen frameraten-sieger.
| ..doch und der heist meist ATI. Da der NV4x in Verbindung mit dem aktuellen ForceWare Treibern und Default Einstellungen ein sichtbar schlechteres Bild als die Konkurenz liefert.
..erwischt man aber eines von den spielen, die schon HDR oder SM3 features unterstützen, liegt die NV generell 100% vor der ATI, weil (mit welcher framerate auch immer) NV dann noch etwas auf den schirm bekommt, was ATI nichtmal anzeigen kann. ..ich weiss - ich weiss - das ist alles nichtig und eine karte mit der darstellungs-qualität des vorletzten jahres, reicht den meisten aus (weil ja die framerate angepasst wurde) - aber wer irgendwie wert auf "alles" legt, was ein spiel zu bieten hat - muss auch eine NV karte nutzen
| ..das trifft bis jetzt auch nur auf FarCry zu, in Splinter Cell behebt der aktuelle Patch dieses Manko, hier gibts jetzt SM2.0 und HDR auch für ATI Karten und HDR ist imho in FarCry nur auf der 7800 oder 6800 SLI "spielbar".
die balance zw. spielbarkeit und optik zu finden obliegt ja gottlob jedem selbst, auch wenn es bei ATI einfacher ist (die kann ja nichts anzeigen, was ordendlich leistung kostet)
| ..lieber so, also massig Features die man aus Performance Gründen eh nicht einsetzen kann! Mir ist es auf jeden Fall so lieber als ein langsamerer R400 der sich gerade so auf R350 niveau hält.
..jedenfalls geht mir nicht ein, wieso man immer von der "besseren" leistung bei ATI karten ausgeht - wie kann etwas besser sein, das nur eingeschränkte features bietet? und wer sagt, dass man neue funktionen, die den bild content verbessern können, unbedingt mit höhstmöglicher auflösung oder antialiasing paaren muss? schon zu voodoo zeiten sah oftmals eine geringe auflösung mit zusätzlichen effekten "besser" (wieder dieser subjektiv-ausdruck) aus, als in hoher auflösung z.b. ohne kantenglättung.
| ..mag sein, aber auch die zu Voodoo Zeiten gab es einige, die die absolut nicht verstehen konnten wie man sich eine Karten kaufen kann die nur in 16 Bit rendert.
wer sich halbwegs auskennt weiss, dass HDR ein elementar wichtiges feature auf dem weg zu fotorealistischer grafik ist. genau, wie auch die höhere interne präzision. wer das wegquatschen will, weiss nicht, wovon er redet. habt ihr eigentlich alle 6 monate ne neue karte im rechner, dass euch die zukunfts-tauglichkeit nicht interessiert? ich wäre als noob voll angepisst, wenn mir einer die ATI x800XL empfiehlt und ich dann in 6 monaten abgehakt bin, nur weil ATI dann auch SM3 am start hat und meine karte dann technisch zum alten eisen zählt. ich wäre schon sauer, weil mir splinter-cell CT die anständige optik auf der "besseren" oder "schnelleren" karte verwehrt und ich in der gleichen optik spielen muss, wie eine geforce4 oder eine spielkonsole (xbox-port, daher auch keine SM2 unterstützung).
| ..wie gesagt, mit dem aktuellen Patch gibts HDR und SM2.0 auch für ATI. ..meine Meinung zu HDR in Verbindung mit einer einzelenen 6800 kennst du ja. Imho nich zu gebrauchen da zu langsam.
..an anderes szenario sind TFT user. die haben mit 100fps "mehr" sorgen, als mit frameraten zw. 50 und 60 (incl. der gewünschten effektdichte) - bei zuviel fps muss man nämlich auf vsync umschalten oder mit tearing leben. NVidia bietet jetzt endlich wieder die möglichkeit einen tripple-buffer zu nutzen --> sehr vorbildlich!
| ..imho nur in D3D und das gibts imho bei ATI inzwischen auch.
ich nutze einige PC systeme parallel und es wäre sicher nicht der finanzielle gau, irgendwo eine ATI karte reinzustecken.. aber warum sollte ich mir das antun.. ? mein bruder mit seiner XT oder meine eigenen prägenden erfahrungen mit einer behelfskarte (kurz vor release der GF6-PCIe musste ich mit einer X600Pro auskommen) haben mir genug "spass" bereitet - sowas kaufe ich sicher nicht wieder. da hab' ich "besser" wenn ich mit neuen effekten spielen kann - spielbar bekommt man alles. 1600x1200 mit 16facher kantenglättung ist marketing-schwachsinn, den jeder anständige supersampling modus in auflösung XY entkräften kann. damals musste ich mir immer anhören wie grottig doch die 59FX ist.. die ATI 9600 hat genausogute / genausoschlechte shader2 leistung und dieses blafasel.. ende vom lied: auf meiner FX läuft heute noch BF2 mit 1280er auflösung und AA/AF und SSAA, wo gegen die 9600XT (obwohl sie doppelt soviel RAM hat) mächtig den spass versaut, weil man auf selbiger nur die 8x6 auflösung flüssig nutzen kann, was auf 2 von 3 TFTs echt mistig aussieht. wer damals lieber zur 9600 gegriffen hat, statt zur FX (weil das hier ja immer empfohlen wurde), hat heute bei battlefield2 echt die pappnase auf. aber dafür vergleichbare werte in benchmurksen wg. der 2.0 shader. wie sinnlos das ist, offenbahrt sich dann erneut, wenn man z.b. Doom³ auf den beiden karten zu zocken versucht. die kleine ATI macht echt ne superhässliche diashow, wo man bei der FX noch 2 stufen hochschalten kann und trotzdem noch doppelt soviele fps hat.
| Kammerjaeger hat es schon auf den Punkt gebracht, damals hat sicherlich keiner jemanden Empfohlen statt der FX5900 eine 9600xy zu kaufen, zwischen den beiden Karten lag ein deutlicher Preißunterschied zugunsten ATI. Der Konkurent zu FX9500 war die 9700/9800 Pro und die war auf jeden Fall der deutlich bessere Allrounder!
sry 4 OT, aber das passte grad gut, weil wieder die gleichen user an einer vergleichbaren diskussion beteiligt sind. mit immer noch der gleichen empfehlung: ATI kaufen, NV braucht kein mensch. und tobi ist der einzige, der mehr als ein display nutzt.. ausserdem übertaktet der immer so weit, dass es sowieso nicht vergleichbar ist 
| ..naja du hast dir kürzlich selber etwas ins Bein geschossen mit dem Vergleich AGP vs. PCIe und vergleichst dabei dein A64 mit einem Barton auf Sockel A Basis. Selbst der billigste Single Channel K8 Semperon versägt einen K7 3200+ meist problemlos. ..is aber auch wurscht ..kauf du deine nV Karten weiter und erfreu sich am griseligen AF im Quality Modus, langsamen HDR und am Quincunx FSAA. ps.: ..Supersampling FSAA geht mit dem DX Tweaker auf Radeon Karten auch, sowas nutzen nur die wenigsten da es einfach zu viel Leistung kostet was auf der GF6 auch so ist. Nur die 7800 bitete imho eine Sinnvolle Alternative. cu BUG
AMD Ryzen 5800X3D @ 4.7GHz | Asus Strix B550-E | 2x NV GTX690 2x2GB Quad-SLi -or- RTX3080 Strix | 32GB DDR4
|
Beiträge gesamt: 5729 | Durchschnitt: 1 Postings pro Tag Registrierung: Juli 2001 | Dabei seit: 8999 Tagen | Erstellt: 4:34 am 16. Aug. 2005
|
|
|
|
kammerjaeger
aus Versehen offline
Real OC or Post God ! 23 Jahre dabei !
Intel Core i3 3100 MHz mit 1.10 Volt
|
Zitat von Cr0w um 4:49 am Aug. 16, 2005 Ich gieß mal Öl ins Feuer: NVidia nur noch mit Flimmern? Dieser Test/Bericht bestätigt mal wieder die bessere Bildqualität von ATI gegenüber NVidia 
| Bin mal gespannt, was tobi jetzt wieder dagegen hält, denn Fakten, die gegen Nvidia sprechen, läßt er nie lange auf sich sitzen... @ BUG Ich glaub, wir können uns den Mund fusselig reden, er wird es nie verstehen wollen. Wer einmal Golf fährt, wird auch weiterhin Golf fahren, obwohl der Corolla schon seit >10 Jahren nicht ohne Grund weltweit das meistverkaufte Auto ist, da er einfach zuverlässiger und ausgewogener ist. P.S.: Ich fahre keinen von beiden...
PC1: i3-2100, HD 5870, 8GB /// PC2: X3 435@3,22GHz, HD 5750, 4GB /// PC3: X3 400e@2,3GHz @0,99V, HD 5670, 4GB /// Mein Spielmobil
|
Beiträge gesamt: 30834 | Durchschnitt: 4 Postings pro Tag Registrierung: Jan. 2003 | Dabei seit: 8461 Tagen | Erstellt: 9:45 am 16. Aug. 2005
|
|
|
|
Beschleunigen
aus Hannover offline
OC God 22 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
..das trifft bis jetzt auch nur auf FarCry zu, in Splinter Cell behebt der aktuelle Patch dieses Manko, hier gibts jetzt SM2.0 und HDR auch für ATI Karten und HDR ist imho in FarCry nur auf der 7800 oder 6800 SLI "spielbar".
|
..lieber so, also massig Features die man aus Performance Gründen eh nicht einsetzen kann! Mir ist es auf jeden Fall so lieber als ein langsamerer R400 der sich gerade so auf R350 niveau hält.
| wie oft man dir noch sagen muss, dass ATI kein HDR kann.. ? wer dieses preudo blending immernoch mit fp_blending gleichzusetzen versucht, hat etwas elementares nicht verstanden. in der 1280er auflösung @highest läuft farcry in den aussenlevels mit 35-60fps und in den innenleveln mit über 50-80fps. ich weiss also nicht, woher du diese erfahrung hast - ich kann das auf meiner single-ultra nicht nachvollziehen. in der 1024er auflösung hat man im schnitt 15fps mehr. geflame zw. ATI und NV kann ich nicht nachvollziehen. ATI hat rein gar nichts, was gegen NV anstinken könnte. insofern erübrigt sich flamen. das AF grieseln im von euch ständig angeführten "quality modus" ist völlig irrelevant. ich kennen keinen involvierten NV user, der diese einstellung nutzt. im 3D center hab' ich gestern mit Razor mal eine modifizierte nvapps.xml ausgebrütet.. aber damit können ATI fans eh nichts anfangen. also lass' ich den NV-freak-shice, an dieser stelle mal weg. ATI ist für kinder, söhne und kleine brüder. leute, die ausser der windows-maus nichts schwingen können. die quasi mit 2 jahre alter technik leben können. plattformübergreifend ist ATI jedenfalls keinesfalls. neben den technischen defiziten, also der 2. grund dieses crap nicht zu kaufen. ich weiss - ich weiss --> ihr habt alle nur einen CRT und dualschirm oder openGL rendering, nutze eh nur ich.. das aber schon seit 4 jahren. und sogar produktiv und finanziell erfolgreich. gähn. propagiert ruhig weiter den ATI kram. ich freu' mich auf die threads, wenn ATIs R520 draussen ist, und jeder mit einer X800 anfängt zu kotzen und weinen gleichzeitig. dann wird euch jeder für den tipp, die shader2 karten zu kaufen, dankbar sein. fear läuft heute schon sch****e auf ATI hardware. unreal3 wird da keinen unterschied machen. in doom³ und auch dem kommenden Q4, hat ATI schon heute das nachsehen.. aber die ist ja so endgeil schneller, dass man damit leben kann -> stimmts? ist sicher für viele von euch relevant, die karte zu haben, die 55 statt 51fps schafft.. und den technologischen nachteil kann man sich psychologisch schönreden, wenn man sich als ATI user einen kurbelt, dass der (umschaltbare) default-modus der konkurenzkarte, zu fehldarstellung neigt. der witz ist doch, dass keiner von euch überhaupt kohle hat, eine ultra zu kaufen und dann über irgendwelche internet-tests oder erfahrungen mit der light-version einer karte (FX-XT, GF68LE uws) meint, erfahrungswerte abgeben zu können. faktisch sieht's übrigens so aus, dass man auf NVidia hardware einfach mehr content bekommt --> ups.. was'n ein content ? --> eure begründungen sind doch nur alibis. der wahre grund ist doch wohl eher das begrenzte bugdet, sonst hättet ihr eure erfahrungen nicht auf der low-enthusiast entry class gesammelt, sondern ebenfalls Ultras ins system gehängt -> die hat keine leistungs-defizite. (..) mfg tobi (Geändert von Beschleunigen um 12:29 am Aug. 16, 2005)
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 8369 Tagen | Erstellt: 12:07 am 16. Aug. 2005
|
|
|
|
Beschleunigen
aus Hannover offline
OC God 22 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
@vegata ich habe eine PCIe ultra (referenzkarte), die hat einen GPU takt von 425MHz und 1100MHz RAMtakt. OC geht immer, soviel ist klar. nur im 2D betrieb schaltet sie auf 400/1100mhz herunter. (m)eine ultra hatte ich bisher auf 450/1250MHz mit dem zalman vf700 kühler. da ich (wenn ich spiele) wg. des TFTs nur die 1280x1024er auflösung nutze, ist das OC aber nicht wirklich relevant. soll heissen: ich fahre idR. 425mhz GPU clock und 1200mhz RAMtakt. das reicht völlig (auch für den HQ modus).
gibs unterschiede zwischen na ultra und na 6800GT?
| bei AGP gibt's unterschiede (weniger wandler, nur einen stromanschluss etc). bei PCIe gibts nicht wirklich unterschiede. GT und Ultra sind da identische karten schätze mal, dass sie deshalb so günstig sind, die sich nur in grösse des kühlkörpers und in ihrem BIOS (takt und spannung; die GT hat 1.3V und 350/1000, die ultra hat 1.4V und 425/1100mhz takt) unterscheiden. die restliche ausstattung ist gleich. oft ist auch der 2.0ns RAM auf den GTs, nicht sonderlich schlechter, als der 1.6ns RAM der ultra. -> RAMtakt und daraus resultierende füllrate/bandbreite sind für HDR das A und O. das maximal mögliche kann man auch nur, mit der fettesten karte erreichen. tut mir echt leid, dass die LEs und NUs so schlecht performen -> ist aber nicht mein bier -> ist eher sparzwang an der falschen stelle (wenn man bock auf optik hat). (..) mfg tobi (Geändert von Beschleunigen um 14:37 am Aug. 16, 2005)
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 8369 Tagen | Erstellt: 14:12 am 16. Aug. 2005
|
|
|
|
BUG
aus BW offline
OC God 24 Jahre dabei !
AMD Ryzen 7 3400 MHz @ 4700 MHz 75°C mit 1.2 Volt
|
Zitat von Beschleunigen um 12:07 am Aug. 16, 2005 ..wie oft man dir noch sagen muss, dass ATI kein HDR kann.. ? wer dieses preudo blending immernoch mit fp_blending gleichzusetzen versucht, hat etwas elementares nicht verstanden.
| ..bis auf das Tone Mapping ist es imho sehr ähnlich. FSAA funzt hier auf den Radeon Karten durch das Blending leider auch nicht.
..in der 1280er auflösung @highest läuft farcry in den aussenlevels mit 35-60fps und in den innenleveln mit über 50-80fps. ich weiss also nicht, woher du diese erfahrung hast - ich kann das auf meiner single-ultra nicht nachvollziehen.
| ..aber sicher nich mit HDR. Desweiteren muß man auf FSAA verzichten was auch nich jedermans Sache ist.
geflame zw. ATI und NV kann ich nicht nachvollziehen. ATI hat rein gar nichts, was gegen NV anstinken könnte. insofern erübrigt sich flamen.
| ..das gleiche hast du schon zu FX Zeiten gesagt, die meisten sehen aber inzwischen ein, dass die Radeon 9700/9800 die besseren Karte war. Was nützen die Features, wenn sie zu langsam sind?!
das AF grieseln im von euch ständig angeführten "quality modus" ist völlig irrelevant. ich kennen keinen involvierten NV user, der diese einstellung nutzt.
| ..es ist der standard Modus den nVidia im Treiber vorgibt. ..nVidia sagt dazu auch was anderes. "Quality" mode offers users the highest image quality while still delivering exceptional performance "High Quality" mode is designed to give discriminating users images that do not take advantage of the programmable nature of the texture filtering hardware, and is overkill for everyday gaming. Image quality will be virtually indistinguishable from "Quality" mode, however overall performance will be reduced. Most competitive solutions do not allow this level of control. Quantitative image quality analysis demonstrates that the NVIDIA "Quality" setting produces superior image fidelity to competitive solutions therefore "High Quality" mode is not recommended for benchmarking.
fear läuft heute schon sch****e auf ATI hardware. unreal3 wird da keinen unterschied machen. in doom³ und auch dem kommenden Q4, hat ATI schon heute das nachsehen..
| ..F.E.A.R läuft auf beiden Karten eher "bescheiden" bei Full Details (ohne Soft Shadows, mit Soft Shadows unspielbar). Desweiteren ist das alles noch Beta, wir reden nochmal drüber wenn das Spiel fertig ist.
Der witz ist doch, dass keiner von euch überhaupt kohle hat, eine ultra zu kaufen und dann über irgendwelche internet-tests oder erfahrungen mit der light-version einer karte (FX-XT, GF68LE uws) meint, erfahrungswerte abgeben zu können.
| ..nein, der Witz is, dass es hier z.B. um die X800GT oder 6600GT geht, allso alles andere als "Highend" und die 6600GT ist mitnichten "besser". cu BUG
AMD Ryzen 5800X3D @ 4.7GHz | Asus Strix B550-E | 2x NV GTX690 2x2GB Quad-SLi -or- RTX3080 Strix | 32GB DDR4
|
Beiträge gesamt: 5729 | Durchschnitt: 1 Postings pro Tag Registrierung: Juli 2001 | Dabei seit: 8999 Tagen | Erstellt: 20:30 am 16. Aug. 2005
|
|
|
|