» Willkommen auf News «

Notebook
offline



VERBANNT
19 Jahre dabei !

Intel Core 2 Duo
2400 MHz @ 2700 MHz


Ob Cheaten oder nicht:
Schaut euch doch mal Benchmarks von SPIELEN an, nicht nur 3DMark und co.
Da liegt ATI immer etwas vorne.
Lediglich bei 1024 kann Nvidia manchmal ca. 10 fps raussschinden...bloß wer kauf sich bitte ne X800 XT PE oder 6800 Ultra, um Quake 3 in dieser Auflösung bei 500 fps zu spielen?
Werden Auflösung und Qualitätseinstellungen hochgedreht, kann Nvidia meistens einpacken, und das zählt ja wohl eher bei Karten dieses Kalibers.
Gut, 7800 GTX und X1800 XT liefern sich zwar ein Kopf-an-Kopf-Rennen, mal liegt Nvidia vorne, mal ATI (je nach Spiel und Einstellung), aber es ist doch hier schon bemerkenswert, dass ATI mit 8 Pipes weniger besser abschneidet als Nvidia.
Schaut auch mal Half Life 2 an, da zählen nicht nur fps...auf Nvidia sieht das Spiel richtig beschissen aus, auf ATI absolut geil.

Und was sagt uns das?
Einfach nur "mehr und mehr" geht nicht immer auf.
Die 7800 GTX ist quasi der - hrhrhr :yucky: - Prescott mit 4 Ghz der Grafikkarten.:lol:

Beiträge gesamt: 1568 | Durchschnitt: 0 Postings pro Tag
Registrierung: Jan. 2005 | Dabei seit: 7041 Tagen | Erstellt: 14:29 am 14. Okt. 2005
Henro
aus Berlin
offline



Real OC or Post God !
22 Jahre dabei !

Intel Core i9
3300 MHz @ 4600 MHz mit 1.3 Volt



Zitat von QnkeI um 14:04 am Okt. 14, 2005

Zitat von kammerjaeger um 13:18 am Okt. 14, 2005

Zitat von Henro um 13:09 am Okt. 14, 2005
also wenn man euch so reden hört dann müsste alles cheaten sein was nicht = max. Quali ist. Und da das bei beiden nicht so ist cheaten ja wohl beide.



Wenn man es so sieht, dann schon. :thumb:

Ich persönlich sehe es eben nur als Cheat an, wenn man z.B. benchmarkspezifische Routinen in den Treiber einbaut, die bei speziellen Programmen die Quali runtersetzen (und dabei ist Nvidia sehr oft erwischt worden, ATI afaik nur einmal...) oder aber einen Treiber insgesamt ggü. dem Vorgänger in der Quali runtersetzt, um im Kampf um die Benchmark-Krone gut auszusehen. ;)

Der ganze Streit um die angeblich besseren Filtermethoden ist meiner Meinung nach unsinnig, da der Qualitätsunterschied viel zu gering ist, um darüber zu streiten.
Aber manche Freaks spalten eben gerne Haare...




Wie war es denn bei ATI mit den optimierten MipMaps?? Die haben sich sogar automatisch ausgeschaltet, wenn man es entdecken könnte. Das nennst du nicht benchmarkspezifische Routinen?? Und nVidia wurde auch nur einmal erwischt, genauso wie ATI. Danach war es bekannt und nVidia hat nicht weitere Cheats eingebaut.

ATI hat bei der X800 auch die Quali runtergesetzt um gegen nVidia zu bestehen. Und das sah man in Screenshots etc.




dagegen halte ich mal das keine Nvidia karte ne bessere quali bietet als die GF4 ;)

Warum bloß liefern neuere karten schlechtere bildquali ? ;)


@ NoteBook : Wer will denn freiwillig n Prescott ???

Beiträge gesamt: 15120 | Durchschnitt: 2 Postings pro Tag
Registrierung: Juli 2001 | Dabei seit: 8327 Tagen | Erstellt: 15:32 am 14. Okt. 2005
QnkeI
aus Wolfenbüttel
offline


OC God
20 Jahre dabei !

AMD Athlon 64 X2 Dual Core
2200 MHz



Zitat von Notebook um 14:29 am Okt. 14, 2005
Ob Cheaten oder nicht:
Schaut euch doch mal Benchmarks von SPIELEN an, nicht nur 3DMark und co.
Da liegt ATI immer etwas vorne.
Lediglich bei 1024 kann Nvidia manchmal ca. 10 fps raussschinden...bloß wer kauf sich bitte ne X800 XT PE oder 6800 Ultra, um Quake 3 in dieser Auflösung bei 500 fps zu spielen?
Werden Auflösung und Qualitätseinstellungen hochgedreht, kann Nvidia meistens einpacken, und das zählt ja wohl eher bei Karten dieses Kalibers.
Gut, 7800 GTX und X1800 XT liefern sich zwar ein Kopf-an-Kopf-Rennen, mal liegt Nvidia vorne, mal ATI (je nach Spiel und Einstellung), aber es ist doch hier schon bemerkenswert, dass ATI mit 8 Pipes weniger besser abschneidet als Nvidia.
Schaut auch mal Half Life 2 an, da zählen nicht nur fps...auf Nvidia sieht das Spiel richtig beschissen aus, auf ATI absolut geil.

Und was sagt uns das?
Einfach nur "mehr und mehr" geht nicht immer auf.
Die 7800 GTX ist quasi der - hrhrhr :yucky: - Prescott mit 4 Ghz der Grafikkarten.:lol:



ATI hätte ziemlich gestänkert wenn HL² auf nV-Karten besser gewesen wäre.

Dir ist nicht zufällig aufgefallen das ATI und nVidia Spiele kaufen??? Die Publisher drucke bestimmt net freiwillig die Logos auf die Packung und binden sie ins Spiel ein :lol:

Beiträge gesamt: 7473 | Durchschnitt: 1 Postings pro Tag
Registrierung: Mai 2003 | Dabei seit: 7655 Tagen | Erstellt: 18:38 am 14. Okt. 2005
kammerjaeger
aus Versehen
offline



Real OC or Post God !
21 Jahre dabei !

Intel Core i3
3100 MHz mit 1.10 Volt



Zitat von QnkeI um 18:38 am Okt. 14, 2005

ATI hätte ziemlich gestänkert wenn HL² auf nV-Karten besser gewesen wäre.

Dir ist nicht zufällig aufgefallen das ATI und nVidia Spiele kaufen??? Die Publisher drucke bestimmt net freiwillig die Logos auf die Packung und binden sie ins Spiel ein :lol:



Das einzige Spiel, wo es definitiv wohl kräftig Geld für das Abschiedswerk von John Carmack gab, ist D3. Da kann man mit wenigen Änderungen der ini-Datei bei ATI-Karten bis zu 40% Leistung ohne spürbaren Quali-Verlust rausholen.
Ansonsten zahlt ATI oder Nvidia zwar für das Logo, an der Engine wird dadurch aber nix geändert. Die Aussagen, daß Spiele auf einer Karte besser laufen, nur weil ein Logo draufpappt, sind Quark.
Einzig SC3 legt noch die Vermutung nahe, von Nvidia beeinflusst zu sein, denn warum sollte man auf SM2.0 gänzlich verzichten, wenn es nicht wirklich schlechter aussieht als SM3.0, aber deutlich besser als der Vorgänger?


PC1: i3-2100, HD 5870, 8GB /// PC2: X3 435@3,22GHz, HD 5750, 4GB /// PC3: X3 400e@2,3GHz @0,99V, HD 5670, 4GB ///  Mein Spielmobil

Beiträge gesamt: 30834 | Durchschnitt: 4 Postings pro Tag
Registrierung: Jan. 2003 | Dabei seit: 7762 Tagen | Erstellt: 19:09 am 14. Okt. 2005
Beomaster
aus Dresden
offline



Real OC or Post God !
22 Jahre dabei !

AMD Phenom II
3200 MHz @ 3675 MHz
59°C mit 1.400 Volt


hm, also was ich bei ATI definitiv vermissen würde wäre HDR, das sieht ja mal sowas von geil aus, hab zwar nicht den direkten Vergleich, z.B. FarCry ATI vs NV, nur das fehlen von HDR dürfte ATI mit einer Möglicherweise besseren Bildquali schwer ausgleichen


[SiLa] BF2 BattleClan
Orgelgott

Beiträge gesamt: 19351 | Durchschnitt: 2 Postings pro Tag
Registrierung: Feb. 2002 | Dabei seit: 8093 Tagen | Erstellt: 19:17 am 14. Okt. 2005
QnkeI
aus Wolfenbüttel
offline


OC God
20 Jahre dabei !

AMD Athlon 64 X2 Dual Core
2200 MHz



Zitat von kammerjaeger um 19:09 am Okt. 14, 2005

Zitat von QnkeI um 18:38 am Okt. 14, 2005

ATI hätte ziemlich gestänkert wenn HL² auf nV-Karten besser gewesen wäre.

Dir ist nicht zufällig aufgefallen das ATI und nVidia Spiele kaufen??? Die Publisher drucke bestimmt net freiwillig die Logos auf die Packung und binden sie ins Spiel ein :lol:



Das einzige Spiel, wo es definitiv wohl kräftig Geld für das Abschiedswerk von John Carmack gab, ist D3. Da kann man mit wenigen Änderungen der ini-Datei bei ATI-Karten bis zu 40% Leistung ohne spürbaren Quali-Verlust rausholen.
Ansonsten zahlt ATI oder Nvidia zwar für das Logo, an der Engine wird dadurch aber nix geändert. Die Aussagen, daß Spiele auf einer Karte besser laufen, nur weil ein Logo draufpappt, sind Quark.
Einzig SC3 legt noch die Vermutung nahe, von Nvidia beeinflusst zu sein, denn warum sollte man auf SM2.0 gänzlich verzichten, wenn es nicht wirklich schlechter aussieht als SM3.0, aber deutlich besser als der Vorgänger?





Glaube an nichts, was du nicht selber gefälscht hast :thumb:

Beiträge gesamt: 7473 | Durchschnitt: 1 Postings pro Tag
Registrierung: Mai 2003 | Dabei seit: 7655 Tagen | Erstellt: 23:09 am 14. Okt. 2005
BUG
aus Trossingen
offline


OC God
22 Jahre dabei !

Intel Core 2 Duo
1800 MHz @ 3200 MHz
75°C mit 1.45 Volt


..also wenn man bei ATI --> AI=OFF macht, ist oder sollte keine Applications Specifische "Optimierung" mehr aktiv sein (also Cheatfrei). Bei nVidia geht das nicht, da laufen immer Applications Spezifische Optimierungen mit egal was man im Treiber einstellt man hat nichmal einen Button dafür. Ganz schlimm wohl bei Doom3 --> ShaderReplacement und man kann es nicht deaktivieren. ATI macht das auch, aber nur bei AI=LOW oder HIGH.

Was hier mit dem Mipmaps angedeutet wurde, hat nix mit Cheat und "Vertuschung" zu tun. Der Treiber Analysiert die Textur und entscheidet selber ob brilinear oder Trilinear gefiltert wird um Füllrate zu sparen. Wenn man jetzt eingefärbte Texturen nutzt, erkennt das der Treiber und schaltet auf Trilineare Filterung um da die Texturen zu unterschiedlich sind (meist grün/ rot) um einen "brauchbaren bzw flimmerfreien" Übergang zu erreichen. Das machen übrigens auch beide (ATI und nVidia), besonders bei UT2003/2004 da das hier deutlich Füllrate spart. Andere Spiele sind davon meist weniger betroffen wobei bei ATI mit AI=HIGH imho immer "brilinear" Filtert, bei AI=OFF bis auf wenige Ausnahmen immer voll Trilinear.

Was das HDR angeht, ohne FSAA is das für mich ein unnützes Feature, dann lieber "fake" HDR über die PixelShader wo dann auch FSAA funzt und das funzt auf ATI und nVidia Hardware und fast genauso aussieht wie "echtes HDR" (siehe HL2 Lost Coast). :)

Einen Nachteil sehe ich nur bei den Programierern, die müssen ein paar Überstunden machen, rein optisch gibts nur minimale Unterschiede dafür ist es aber idR schnell(er) als "echtes" und mit FSAA nutzbar. :)

cu
BUG


Intel E4300 @ 3200MHz | Abit FP-IN9 SLI | ATI HD3850 256MB
Notebook | Zepto 6214W | C2D 2.0GHz | Geforce 7600go 512MB

Beiträge gesamt: 5725 | Durchschnitt: 1 Postings pro Tag
Registrierung: Juli 2001 | Dabei seit: 8300 Tagen | Erstellt: 3:16 am 15. Okt. 2005
DJ
aus Luxemburg
offline



OC God
22 Jahre dabei !

Intel Pentium IV
2400 MHz @ 3078 MHz
50°C mit 1.70 Volt


Nicht zu vergessen bei ati das truform debakel zuerst mit der ati 8500 das trueform hypen und das blaue vom himmel herunterluegen im endeffekt gab's 2 oder 3 spiele die es richtig konnten , aber davor kamen noch anderen ati grafikkarten raus die auch alle das trueform konnten bis es ploetzlich bekannt wurde dass nur die 8500'er es noch hardware maessig konnte und die anderen es per software machten , und iergendwann verschwand es auch aus den treibern. Sauber ati. :thumb: :lol:

Zusaetzlich hat es ati noch immer nicht gepackt 3d brillen zu unterstuezen , naja okay 3d brillen sind aktuell kein faktor genau so wie trueform, aber nvidia supported sie noch immer weiter und nicht so wie ati sorry aber es bleibt dabei nvidia hat die besseren treiber und verprellt die kunden nicht so wie ati.

Und zu den spiele optimierungen HL2 wurde extra sch****e programmiert dass es nur gut auf ati's graka's am anfang lief ich habe noch nie ein solchen sch**** gesehen als engine.

Im endeffekt besch****en beide, nur bei ati hat es immer uebelsten nachgeschmack siehe trueform siehe HL2.


CU

Beiträge gesamt: 8177 | Durchschnitt: 1 Postings pro Tag
Registrierung: April 2002 | Dabei seit: 8047 Tagen | Erstellt: 9:32 am 15. Okt. 2005
QnkeI
aus Wolfenbüttel
offline


OC God
20 Jahre dabei !

AMD Athlon 64 X2 Dual Core
2200 MHz



Zitat von BUG um 3:16 am Okt. 15, 2005
..also wenn man bei ATI --> AI=OFF macht, ist oder sollte keine Applications Specifische "Optimierung" mehr aktiv sein (also Cheatfrei). Bei nVidia geht das nicht, da laufen immer Applications Spezifische Optimierungen mit egal was man im Treiber einstellt man hat nichmal einen Button dafür. Ganz schlimm wohl bei Doom3 --> ShaderReplacement und man kann es nicht deaktivieren. ATI macht das auch, aber nur bei AI=LOW oder HIGH.

Was hier mit dem Mipmaps angedeutet wurde, hat nix mit Cheat und "Vertuschung" zu tun. Der Treiber Analysiert die Textur und entscheidet selber ob brilinear oder Trilinear gefiltert wird um Füllrate zu sparen. Wenn man jetzt eingefärbte Texturen nutzt, erkennt das der Treiber und schaltet auf Trilineare Filterung um da die Texturen zu unterschiedlich sind (meist grün/ rot) um einen "brauchbaren bzw flimmerfreien" Übergang zu erreichen. Das machen übrigens auch beide (ATI und nVidia), besonders bei UT2003/2004 da das hier deutlich Füllrate spart. Andere Spiele sind davon meist weniger betroffen wobei bei ATI mit AI=HIGH imho immer "brilinear" Filtert, bei AI=OFF bis auf wenige Ausnahmen immer voll Trilinear.

[...]

cu
BUG



Bei nVidia kann man alle Optimierungen mit dem Qualitätsregler ausschalten. Dreht man ihn auf "Höchste Qualität" sind alle Optimierungen abgeschaltet!

Zu den Mipmaps: Man kann es schön reden, ja.

Beiträge gesamt: 7473 | Durchschnitt: 1 Postings pro Tag
Registrierung: Mai 2003 | Dabei seit: 7655 Tagen | Erstellt: 12:39 am 15. Okt. 2005
kammerjaeger
aus Versehen
offline



Real OC or Post God !
21 Jahre dabei !

Intel Core i3
3100 MHz mit 1.10 Volt



Zitat von DJ um 9:32 am Okt. 15, 2005

Zusaetzlich hat es ati noch immer nicht gepackt 3d brillen zu unterstuezen , naja okay 3d brillen sind aktuell kein faktor genau so wie trueform, aber nvidia supported sie noch immer weiter und nicht so wie ati sorry aber es bleibt dabei nvidia hat die besseren treiber und verprellt die kunden nicht so wie ati.



1. Hab ich eine 3D-Brille auch schon mit ATI genutzt. Die Treiber/Karten-Unterstützung sollte bei solchen Sachen in den Händen des Brillenherstellers liegen (was i.d.R. auch so ist, wenn man von den Elsa-Modellen absieht), nicht bei der GraKa. Schließlich macht auch ein Mainboard-Hersteller keinen Support z.B. für USB-Drucker, nur weil man sie anschließen kann.
2. Hast Du schonmal mit so einer Brille gespielt? Wenn Du mal innerhalb einer halben Stunde Kopfschmerzen haben willst, dann tu es! Nicht ohne Grund haben sie sich nie wirklich durchgesetzt... ;)

Und wieso verprellt ATI Kunden? Immerhin haben sie einen fast identischen Marktanteil. ;)




PC1: i3-2100, HD 5870, 8GB /// PC2: X3 435@3,22GHz, HD 5750, 4GB /// PC3: X3 400e@2,3GHz @0,99V, HD 5670, 4GB ///  Mein Spielmobil

Beiträge gesamt: 30834 | Durchschnitt: 4 Postings pro Tag
Registrierung: Jan. 2003 | Dabei seit: 7762 Tagen | Erstellt: 13:25 am 15. Okt. 2005