ATI Cheatet vermutlich

- OCinside.de PC Forum
https://www.ocinside.de

-- News
https://www.forum-inside.de/forums.cgi?forum=8

--- ATI Cheatet vermutlich
https://www.forum-inside.de/topic.cgi?forum=8&topic=1027

Ein Ausdruck des Beitrags mit 80 Antworten ergibt bei 3 Antworten pro Seite ca. 27 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 134.72 Gramm Papier.


-- Veröffentlicht durch Ratber am 0:05 am 25. Mai 2004

;)


-- Veröffentlicht durch svenska am 22:04 am 24. Mai 2004


Zitat von AlexW am 7:44 am Mai 24, 2004
ich kritisch ?!..

was die technik anbelangt lohnt es sich nimmer en Kopp zu machen, warum auch ?!

es hätte kein Aas was gemerkt davon wenn nicht irgend eine der Testseiten mit ihrem gefummele die Texturen ausgemalt hätte :wink:

wusste einer von eich in den 80er davon das BSE im Umlauf war ?! auch in D...gerade in D ?? es hat keine Sau interessiert.... nur wenn einer ins Fernsehen kommt der en bissle :crazy: aufgrund der nachfolgen da kommt auf einmal alles ans Licht...

erzähl mir nix von kritisch..ich mach mir nen ganz anderen Kopp. z.B. das wir von unsere werten Herrn Landesführern ständig immer mehr aufs Kornb genommen werden anstatt mir stress wegen so einer sch**** GraKa zu machen :lol:

und jetzt kommt mir nicht mit ich wäre im falschen Forum:lol:



muh


-- Veröffentlicht durch BUG am 11:56 am 24. Mai 2004


Zitat von AlexW am 7:44 am Mai 24, 2004

es hätte kein Aas was gemerkt davon wenn nicht irgend eine der Testseiten mit ihrem gefummele die Texturen ausgemalt hätte :wink:

..wenn man die Texturen einfärbt, rendert die ATI Karte voll Trilinear! ..deswegen ist es keinem aufgefallen. In Spielen wo es sehr sehr selten zu sehen ist, hat man es auf das generell etwas schlechtere AF und auf die Winkelabnhängigkeit der ATI Karten geschoben ohne es weiter zu untersuchen.

Man ist ATI nur auf die Schliche gekommen, als man bemerkt hat, dass die Karte mehr Füllrate hat (bzw schneller ist) als sie bei voller Trilinearer Filterung hätte haben dürfen. Anschliesend hat man sich auf die Suche gemacht (durch IQ Vergleiche) wieso das so ist und ist auch fündig geworden.

cu
BUG


-- Veröffentlicht durch AlexW am 7:44 am 24. Mai 2004

ich kritisch ?!..

was die technik anbelangt lohnt es sich nimmer en Kopp zu machen, warum auch ?!

es hätte kein Aas was gemerkt davon wenn nicht irgend eine der Testseiten mit ihrem gefummele die Texturen ausgemalt hätte :wink:

wusste einer von eich in den 80er davon das BSE im Umlauf war ?! auch in D...gerade in D ?? es hat keine Sau interessiert.... nur wenn einer ins Fernsehen kommt der en bissle :crazy: aufgrund der nachfolgen da kommt auf einmal alles ans Licht...

erzähl mir nix von kritisch..ich mach mir nen ganz anderen Kopp. z.B. das wir von unsere werten Herrn Landesführern ständig immer mehr aufs Kornb genommen werden anstatt mir stress wegen so einer sch**** GraKa zu machen :lol:

und jetzt kommt mir nicht mit ich wäre im falschen Forum:lol:


-- Veröffentlicht durch svenska am 3:03 am 24. Mai 2004


Zitat von AlexW am 18:45 am Mai 23, 2004
sich über sowas nen Kopp zu machen :blubb:

hab da ganz andere Sorgen :lolaway: is das nicht sch****egal was wer mit seinen Treibern macht ?!

beim Autokauf und beim Metzger wird man genauso übers Ohr gehauen



da sieht man, dass de noch zu jung und zu kritisch bist ;)


-- Veröffentlicht durch BUG am 0:35 am 24. Mai 2004


Zitat von AlexW am 18:45 am Mai 23, 2004
sich über sowas nen Kopp zu machen :blubb:

hab da ganz andere Sorgen :lolaway: is das nicht sch****egal was wer mit seinen Treibern macht ?!

beim Autokauf und beim Metzger wird man genauso übers Ohr gehauen


..also ich würde mich aufregen, wenn ich Super Benzin Tanke (und bezahle) und nur Normal Benzin bekomme. ;) ..beim Fleischer wäre es mir auch nich egal, wenn ich Kalb haben will kann und der/die mir eine 6 jahre alte Kuh andrehen würde. ;)

cu
BUG


-- Veröffentlicht durch AlexW am 18:45 am 23. Mai 2004

sich über sowas nen Kopp zu machen :blubb:

hab da ganz andere Sorgen :lolaway: is das nicht sch****egal was wer mit seinen Treibern macht ?!

beim Autokauf und beim Metzger wird man genauso übers Ohr gehauen


-- Veröffentlicht durch Blade1972 am 18:40 am 23. Mai 2004


Zitat von kammerjaeger am 1:23 am Mai 21, 2004
Dann hast Du wohl eine Montagskarte erwischt... :lol:

Bei mir verwischt nix, es erscheint eher alles schärfer als auf der TI4200 die ich vorher hatte... ;)

Jep das sehe ich auch so :thumb: Hab einige 4er Tis in meinen Kisten gehabt und von der Bildquali is ATI besser. Das war schon bei der 8500er so. Zum Cheat Thema es machen wohl beide Hersteller so ihre Optimierungen und damit muß man wohl zum Teil Leben :ohwell: . Im Endeffekt zählt aber, zumindset für mich, das alle Games in möglichst hoher Quali ruckelfrei laufen. Alles andere is nur "Markenhuldigung" :godlike: basta. ;) :lol:


-- Veröffentlicht durch svenska am 18:15 am 23. Mai 2004

@eisenblut

genau diese artikel habe ich mir auch reingezogen und hab der argumentation nichts hinzuzufügen. ATI hat handlungbedarf. ich weis
nicht, warum das stört, einfach nen checkbutton im control pannel zu machen, wo man diese "optimierung" ausschalten kann. ;)


-- Veröffentlicht durch Eisenblut am 16:13 am 23. Mai 2004


Zitat von wasi am 13:31 am Mai 23, 2004

Zitat von AlexW am 12:39 am Mai 20, 2004
ich weiss nicht was man sich so aufregt ?!

laufen die spiele flüssig oder nicht mit dem cheat ?!

ja,... also was noch ?!

mit dem blosen Auge hätte kein schwein den unterschid gemerkt



absolut zustimm!!!



Das ist hier überhaupt nicht das Problem. Es ist egal, wieviel Prozent Bildqualität verlorengeht für wieviel Prozent Performancegewinn. Die genaueste Argumentation dazu ist bisher bei Sudhian Media, wobei der auch dort vorliegende Link zum Tech Report zeigt, warum das Verhalten von ATI schlicht schäbig ist.

Ansonsten schliesse ich ein Zitat vom 3D Center an, der sicherlich eine gute Zusammenfassung ist:

"Richtig und auch unsererseits hervorzuheben ist der Punkt, daß die neue ATi-"Optimierung offensichtlich kaum Bildqualität kostet, dies also im realen Spiel-Alltag kaum oder nicht wahrzunehmen sein wird. Insofern kann man durchaus von einer recht idealen Optimierung sprechen, bei welche viel Performance für wenig Bildqualität getauscht wird. Ironischerweise müsste dies dann aber auch für nVidia´s brilinearen Filter gelten, denn dieser hat letztlich den fast identischen Effekt wie die neue ATi-"Optimierung ..."


-- Veröffentlicht durch Ratber am 13:39 am 23. Mai 2004

Ich hab ne 10x Taschenlupe für die Spezialisten.

Nur 50€ :biglol:


-- Veröffentlicht durch wasi am 13:31 am 23. Mai 2004


Zitat von AlexW am 12:39 am Mai 20, 2004
ich weiss nicht was man sich so aufregt ?!

laufen die spiele flüssig oder nicht mit dem cheat ?!

ja,... also was noch ?!

mit dem blosen Auge hätte kein schwein den unterschid gemerkt



absolut zustimm!!!


-- Veröffentlicht durch kammerjaeger am 1:23 am 21. Mai 2004

Dann hast Du wohl eine Montagskarte erwischt... :lol:

Bei mir verwischt nix, es erscheint eher alles schärfer als auf der TI4200 die ich vorher hatte... ;)


-- Veröffentlicht durch skynet am 0:55 am 21. Mai 2004


Zitat von BUG am 20:36 am Mai 20, 2004
@skynet
..stell den Schieberegler im ATI Treiber auf die milltlere Position + übernehmen. Anschliesend saugst du dir das rtool bei 3Dcenter und stellst AF auf APP + den gewünschten AF Level (würde 8x empfehlen). Dann sollte die Radeon auf alles Stages TRI Filtern und das einzige was es jetzt ggf zu bemängeln gibt, wäre die Winkelabhängigkeit vom AF. Auf der Boden Textur sollten aber keine Unterschiede auffallen, die bekommt eigentlich immer volles AF. Eine Buuug-Welle sollte eigentlich nicht zu sehen sein.

Wenn du wischi waschi Texturen hast, stimmt mit deiner Textureinstellung (LOD) im Radeon Treiber was nich.

cu
BUG



ämmm, ich rede von wischi waschi schon auffm desktop, bios etc.

wirkt alles leicht verschwommen b.z.w. wirkte, die karte ist ja eh tot(speicher abgefallen)


-- Veröffentlicht durch BUG am 20:36 am 20. Mai 2004

@skynet
..stell den Schieberegler im ATI Treiber auf die milltlere Position + übernehmen. Anschliesend saugst du dir das rtool bei 3Dcenter und stellst AF auf APP + den gewünschten AF Level (würde 8x empfehlen). Dann sollte die Radeon auf alles Stages TRI Filtern und das einzige was es jetzt ggf zu bemängeln gibt, wäre die Winkelabhängigkeit vom AF. Auf der Boden Textur sollten aber keine Unterschiede auffallen, die bekommt eigentlich immer volles AF. Eine Buuug-Welle sollte eigentlich nicht zu sehen sein.

Wenn du wischi waschi Texturen hast, stimmt mit deiner Textureinstellung (LOD) im Radeon Treiber was nich.

cu
BUG


-- Veröffentlicht durch skynet am 20:18 am 20. Mai 2004


Zitat von Eisenblut am 21:20 am Mai 19, 2004
@Skynet
Die 9800 hat die "Optimierung" nicht, über die hier geschrieben wird. Diese kommt nur bei der 9600 und der X800 zum Einsatz.




dennoch ist das bild verwaschen im gegensatz zu ner GF4 :hell:


-- Veröffentlicht durch Ratber am 17:56 am 20. Mai 2004

Eben das sag ich ja die ganze Zeit.

Ohne direkten Vergleich merkt man nur die großen Schritte und die brauchen schon etwas länger als einige Monate Differenz in der Technik.

Das Programm spielt natürlich auch ne Rolle.

Un obendrein merkt man vonner Bombastgrafik eh nur was wenn man mal stehenbleibt und genau hinsieht.

Wenn ich bei BF42 middem Kampfjäger einen Angriff nach dem anderen fliege würde mir nichtmal nen Würfelförmiger Jeep auffallen weil alles was sich bewegt und nicht die eigene Farbe hat wird alle gemacht ;) :lol:


-- Veröffentlicht durch AlexW am 12:39 am 20. Mai 2004

ich weiss nicht was man sich so aufregt ?!

laufen die spiele flüssig oder nicht mit dem cheat ?!

ja,... also was noch ?!

mit dem blosen Auge hätte kein schwein den unterschid gemerkt


-- Veröffentlicht durch Ratber am 22:52 am 19. Mai 2004

Ja auf was beziehste dich dann ?

Was aus dem DAC kommt ist das Signal und durchläuft nurnoch nen Analoges Filter.

Was da beim AAL passiert gehöhrt noch zur Berechnung.

Da muß jeder Hersteller selber sehen was sache ist.
In dem Falle geb ich dir natürlich recht aber das betrifft mich eh nicht denn ich lege mehr wert auf Flüssiges Spielen als auf ne Highenddiashow ;) :lol:


-- Veröffentlicht durch Eisenblut am 21:20 am 19. Mai 2004

@Skynet
Die 9800 hat die "Optimierung" nicht, über die hier geschrieben wird. Diese kommt nur bei der 9600 und der X800 zum Einsatz.

@Ratber
Das sind nun aber zwei ganz verschiedene Angelegenheiten. Die EMV brauchte einen Tiefpass, der bei vielen Karten schlecht ausgelegt war und die Darstellung des schon berechneten Bildes im analogen Bereich nach dem RAMDAC versaute. Hier haben wir es mit einem digitalen Filter auf Chipebene zu tun, noch vor dem Wandlung.


-- Veröffentlicht durch Ratber am 20:07 am 19. Mai 2004

Die Filtergeschichten sind ja nu schon Asbach.

Das Theater ging irgendwann 96 los als die damals Neue EMV-Richtlinie gegriffen hat und alle Grakahersteller Filter hinterm Ramdac einbauen musten.

Manchmal gehts gut ,manchmal nicht.Egal welcher Hersteller (Produktionsbedingt)

Ich Löte meine einfach passend zurecht oder reiße se ganz raus (Überbrücken reicht ja schon) dann is ruh ;)


-- Veröffentlicht durch skynet am 18:52 am 19. Mai 2004


Zitat von BUG am 10:36 am Mai 18, 2004
..also ATi hat es zugegeben das sie nicht mehr voll Trilinear Filtern auch wenn die Application dies erfordert. Also eigentlich ein Cheat! ATi Rechtfertigt sich abder dadurch, dass man es nicht oder kaum sieht und man Screenshotvergleiche auf Bit-Ebene oder in unnatürlichen Umgebungen (extrem hoher Gama Wert) untersuchen muß um einen Unterschied feststellen zu können. Desweiteren ist dieser Filter schon seit der 9600 im Einsatz und keinem ist es bisher negativ aufgefallen.

Man ist ja quasi nur duch Zufall auf diesen Cheat gekommen, die Karte war teilweise schneller als sie unter Verwendung diverser Filter hätte sein sollte.

----------------------------------------------

There has been a lot of discussion about our trilinear filtering algorithms recently.

The objective of trilinear filtering is to make transitions between mipmap levels as near to invisible as possible. As long as this is achieved, there is no "right" or "wrong" way to implement the filtering.

We have added intelligence to our filtering algorithm to increase
performance without affecting image quality. As some people have
discovered, it is possible to show differences between our filtering
implementations for the RADEON 9800XT and RADEON X800. However, these differences can only be seen by subtracting before and after screenshots and amplifying the result. No-one has claimed that the differences make one implementation "better" than another.

Our algorithm for image analysis-based texture filtering techniques is
patent-pending. It works by determining how different one mipmap level is from the next and then applying the appropriate level of filtering. It only applies this optimization to the typical case - specifically, where the mipmaps are generated using box filtering. Atypical situations, where each mipmap could differ significantly from the previous level, receive no optimizations. This includes extreme cases such as colored mipmap levels, which is why tests based on color mipmap levels show different results. Just to be explicit: there is no application detection going on; this just illustrates the sophistication of the algorithm.

We encourage users to experiment with moving the texture preference slider from "Quality" towards "Performance" - you will see huge performance gains with no effect on image quality until the very end, and even then, the effect is hardly noticeable. We are confident that we give gamers the best image quality at every performance level.

Microsoft does set some standards for texture filtering and the company's WHQL process includes extensive image quality tests for trilinear filtering and mipmapping. CATALYST passes all these tests - and without application detection, which could be used if you wanted to get a lower-quality algorithm go undetected through the tests.

Finally, ATI takes image quality extremely seriously and we are confident that we set the bar for the whole industry. We don't undertake changes to our filtering algorithms lightly, and perform considerable on-line and off-line image analysis before implementing changes. This algorithm has been in public use for over a year in our RADEON 9600 series products, and we have not received any adverse comments on image quality in that time. If anyone does find any quality degradation as a result of this algorithm, they are invited to report it to ATI. If there is a problem, we will fix it.


----------------------------------------------

..nunja, das kann jetzt jeder sehen wie er will. Ich für meinen Teil halte die Optimierung für Sinvoll, aber nur wenn man die Möglichkeit hat diese auch zu deaktivieren! Für die Reviewer ist es z.B. extrem wichtig unter gleichen Bedingungen Karten miteinander zu vergleichen. Aber einen kleinen Hoffnungsschimmer gibt es, im letzten Satz erwähnt ATI "If there is a problem, we will fix it". ..nunja wollen wir mal hoffen das ATI da einen Schalter einbaut. Ich vermute aber eher nicht, und nVidia wird  seinen brilinearen Filter vermutlich auch nicht deaktivieren. :ohwell:

cu
BUG



komisch... keinem aufgefallen ?

also mein wechsel von der Ti4200 zur 9800pro... da ist es mir aufgefallen, steht auch noch irgentwo das ich mit der 9800pro ganz zufreiden war nur das bild recht verwaschen wirkt im gegensatz zur 4200er.

nun weiß ich auch warum, weil die sch****e nicht richtig gefiltert wurde und dadurch sind die schlieren entstanden.

naja, noch ein grund mehr weiterhin auf die NV40 abzuziehlen und mir auch zukaufen.


-- Veröffentlicht durch AlexW am 17:36 am 19. Mai 2004

bestümmt,...wieder ein Grund mehr sich aufs Treffen zu freuen:thumb:


-- Veröffentlicht durch Henro am 15:48 am 19. Mai 2004



mein Ar*** is nen Luftballon



Sieht das nicht komisch aus ? :lol:


-- Veröffentlicht durch Ratber am 15:34 am 19. Mai 2004

Jaja,woe war nochmal der Kommentar zu MS Kundendatensammelaktion mit Datenbank ?


"Reines Versehen"


Klar und mein Ar*** is nen Luftballon ;) :lol:


-- Veröffentlicht durch svenska am 13:09 am 19. Mai 2004


Zitat von hasufell am 12:45 am Mai 19, 2004
beim neuen Omega Treiber

"Added and removed a LOT of tweaks, ATI changed some internal settings and some old tweaks won't work anymore from now on."

der Bri is damit nich gemeint oder? :noidea:




nee ich glaube nicht. aber dieser satz steht schon seit den 4.4 da ;)


-- Veröffentlicht durch Henro am 13:09 am 19. Mai 2004

jo stimmt ... der omega war ja immer auf quali getrimmt ...

kann die vieleicht jemand mal gegeneinander benchen ?


-- Veröffentlicht durch hasufell am 12:45 am 19. Mai 2004

beim neuen Omega Treiber

"Added and removed a LOT of tweaks, ATI changed some internal settings and some old tweaks won't work anymore from now on."

der Bri is damit nich gemeint oder? :noidea:


-- Veröffentlicht durch BUG am 11:58 am 19. Mai 2004

..eine PR Mitteilung hört sich nie böse an wenn über das eigene Produckt gesprochen wird. ;)

cu
BUG


-- Veröffentlicht durch Henro am 22:19 am 18. Mai 2004

Hier mal die news dazu von Hardtecs4u.com :

Aufgrund eines interessanten Phänomens bei einem Test der PC Games Hardware haben unsere Kollegen der Computerbase die Texturfilterung der ATi Radeon Familie einmal genauer unter die Lupe genommen. Offensichtlich schaffen sie 20% mehr Texelfüllrate als eigentlich rechnerisch möglich. Eine genauere Untersuchung führte dann zum Schluss, daß ATi wohl Treiberoptimierungen vorgenommen hat, die dies verursachten. Einige Tage später gab Richard Huddy, der Chef der europäischen Developer Relations ein erstes Statement ab: "Alle cheaten".


Für alle die sich selbst einen Eindruck der Situation machen wollen gibt es einen Artikel, der mehr Hintergründe zur Sache enthüllt. Der Kern des Streites kreist um eine Erkennung eingefärbter Mipmap-Level und das Ausschalten der Optimierung bei einer optischen Überprüfung mit gefärbten Mipmaps. Dies stellt laut Computerbase einen eindeutigen Täuschungsversuch dar.

Letztendlich hat ATi nun heute eine offizielle Stellungnahme abgegeben. In ihr widerspricht ATi dass eine Treiberoptimierung dieser Art existiert. Solange die Übergänge zwischen den Mipmap-Leveln so unsichtbar wie möglich seien gäbe es keinen eindeutig "richtigen" oder "falschen" Weg die Filterung zu implementieren. ATi habe einen intelligenten Filteralgorithmus, der die Performance erhöht, ohne optische Einbußen zur Folge zu haben.


"[Der Algorithmus] ...funktioniert durch Analyse inwiefern sich ein Mipmap Level vom nächsten unterscheidet, um dann den angemessenen Filterlevel darauf anzuwenden. Er wendet diese Optimierung nur auf den typischen Fall an - Speziell, wenn Mipmaps durch Box Filtering generiert werden. In atypischen Situationen, wo sich jeder Mipmap-Level signifikant von dem Anderen unterscheidet gibt es keine Optimierung. Dies beinhaltet extreme Fälle wie eingefärbte Mipmaps, und ist der Grund warum Tests die auf diesen eingefärbten Mipmap-Leveln basieren unterschiedliche Ergebnisse liefern. Nur um es deutlich zu machen: Es gibt keine Benchmarkerkennung. Es zeigt nur die Raffinesse des Algorithmus."

ATi scheint in diesem Fall unschuldig zu sein. Eine Optimierung der Treiber durch einen intelligenten Algorithmus, bei dem keine optischen Nachteile auftreten ist kein Cheating. Die Tatsache, daß dieser Algorithmus sich noch im Patentierungsverfahren befindet hat ATi wohl daran gehindert gleich mit offenen Karten zu spielen.


Hört sich doch gar nicht sooo böse an ;)


-- Veröffentlicht durch Ratber am 19:46 am 18. Mai 2004

Tja und mir wäre der Verschwendete Slot auch wichtig.

Sollen se wenigstens die Rückseite der Graka inne Breite ziehen denn da ist Platz genug und der Kühlkörper ist dann auch günstiger angebracht ;)


-- Veröffentlicht durch svenska am 19:35 am 18. Mai 2004


Zitat von Ratber am 19:32 am Mai 18, 2004
Wie wärs denn mal mit "Weniger abwärme= Weniger Lüfter= Ein Slot reicht ;) :lol:



da der erste pci slot eh mitm agp port shared, is mir das wurst, ob dieser wegfällt, ich hab noch 5 bzw 6 andere :biglol:

aber mit der abwärme haste natürlich -angesichts der neuen wärmeentwicklungen bei cpu und grakachips- recht ;):)


-- Veröffentlicht durch Ratber am 19:32 am 18. Mai 2004

Wie wärs denn mal mit "Weniger abwärme= Weniger Lüfter= Ein Slot reicht ;) :lol:


-- Veröffentlicht durch svenska am 18:54 am 18. Mai 2004

also ich sach mal so:

eine option im CP=sache aus der welt :thumb:

oder 2 alternative:
von mir aus soll das so bleiben, dann aber bitte die (extreme)
winkelabhängigkeit ab 4x AF usw. verbessern :thumb:


-- Veröffentlicht durch Ratber am 15:39 am 18. Mai 2004

Mir alles Ladde.

Karte Läuft und was ich noch nie gesehen hab kann ich auch nicht vermissen.

Warum sollte ich micht also dem Leistungsterror ergeben und die Situation auch noch ankurbeln ? ;)


-- Veröffentlicht durch Henro am 15:24 am 18. Mai 2004

naja, aber generell kann man schon sagen das ati karten die weitaus kühleren waren/sind und auch die kühler im vergleich zu nvidia karten leiser und kleiner waren.

sieht man ja auch an den jetzigen chips das nvidia viel mehr transistoren hat und viel mehr strom benötigt als ati ... wer wird wohl kühler sein ;) ?


-- Veröffentlicht durch Ozzy am 15:10 am 18. Mai 2004

obwohl man in sachen kühler schon sagen muss das zb asus und msi bei den fx modellen wesentlich leisere angeboten haben als das referenzteil. glaube, so schlimm wird das garnicht. ich machs nicht von der lautstärke abhängig, sondern von berichten der ersten user. wir selbst wissen immernoch am besten, was taugt und was nicht.
aber ich seh es schon kommen. halflife 2 benches wird ati voll abgehen, doom 3 wird nvidia voll abgehen. ohje, das wird (für mich zumindest) wieder ein 6-monate-entscheidungsmarathon... bis ich mich endlich für eine von beiden entscheide...:blubb:


-- Veröffentlicht durch kammerjaeger am 12:38 am 18. Mai 2004


Zitat von Eisenblut am 12:21 am Mai 18, 2004
@kammerjaeger

Spekulationen über noch zu liefernde Serienkarten sollten wir wohl aussenvorlassen



Sag ich doch. ;)
Die Realität der verbauten Lüfter sieht leider meist anders aus als im Referenzdesign.
Schließlich darf der Kühler nix kosten, soll aber gut kühlen um die Rücklaufquote niedrig zu halten. Was die Hersteller daraus machen, werden wir sehen...


-- Veröffentlicht durch Eisenblut am 12:21 am 18. Mai 2004

@kammerjaeger

Spekulationen über noch zu liefernde Serienkarten sollten wir wohl aussenvorlassen, aber die zum Test versendeten Karten sind wohl alle nur unter extrem harten 3D Bedingungen gelaufen und in keinem Bericht zu den Karten mit funktionierendem Lüftermanagement ist von einer sonderlich unangenehmen Lautstärke berichtet worden. Aber die 5,5 Sone sind einfach Blödsinn, richtiger sind ca. 2,5 Sone, so laut sind 9800Pro & Co.


-- Veröffentlicht durch SchlitzerMcGourgh am 11:36 am 18. Mai 2004

das sieht so langsam aus wie der ich kann den unterschied zwischen 150 und 100 hz sehen...


-- Veröffentlicht durch BUG am 10:36 am 18. Mai 2004

..also ATi hat es zugegeben das sie nicht mehr voll Trilinear Filtern auch wenn die Application dies erfordert. Also eigentlich ein Cheat! ATi Rechtfertigt sich abder dadurch, dass man es nicht oder kaum sieht und man Screenshotvergleiche auf Bit-Ebene oder in unnatürlichen Umgebungen (extrem hoher Gama Wert) untersuchen muß um einen Unterschied feststellen zu können. Desweiteren ist dieser Filter schon seit der 9600 im Einsatz und keinem ist es bisher negativ aufgefallen.

Man ist ja quasi nur duch Zufall auf diesen Cheat gekommen, die Karte war teilweise schneller als sie unter Verwendung diverser Filter hätte sein sollte.

----------------------------------------------

There has been a lot of discussion about our trilinear filtering algorithms recently.

The objective of trilinear filtering is to make transitions between mipmap levels as near to invisible as possible. As long as this is achieved, there is no "right" or "wrong" way to implement the filtering.

We have added intelligence to our filtering algorithm to increase
performance without affecting image quality. As some people have
discovered, it is possible to show differences between our filtering
implementations for the RADEON 9800XT and RADEON X800. However, these differences can only be seen by subtracting before and after screenshots and amplifying the result. No-one has claimed that the differences make one implementation "better" than another.

Our algorithm for image analysis-based texture filtering techniques is
patent-pending. It works by determining how different one mipmap level is from the next and then applying the appropriate level of filtering. It only applies this optimization to the typical case - specifically, where the mipmaps are generated using box filtering. Atypical situations, where each mipmap could differ significantly from the previous level, receive no optimizations. This includes extreme cases such as colored mipmap levels, which is why tests based on color mipmap levels show different results. Just to be explicit: there is no application detection going on; this just illustrates the sophistication of the algorithm.

We encourage users to experiment with moving the texture preference slider from "Quality" towards "Performance" - you will see huge performance gains with no effect on image quality until the very end, and even then, the effect is hardly noticeable. We are confident that we give gamers the best image quality at every performance level.

Microsoft does set some standards for texture filtering and the company's WHQL process includes extensive image quality tests for trilinear filtering and mipmapping. CATALYST passes all these tests - and without application detection, which could be used if you wanted to get a lower-quality algorithm go undetected through the tests.

Finally, ATI takes image quality extremely seriously and we are confident that we set the bar for the whole industry. We don't undertake changes to our filtering algorithms lightly, and perform considerable on-line and off-line image analysis before implementing changes. This algorithm has been in public use for over a year in our RADEON 9600 series products, and we have not received any adverse comments on image quality in that time. If anyone does find any quality degradation as a result of this algorithm, they are invited to report it to ATI. If there is a problem, we will fix it.


----------------------------------------------

..nunja, das kann jetzt jeder sehen wie er will. Ich für meinen Teil halte die Optimierung für Sinvoll, aber nur wenn man die Möglichkeit hat diese auch zu deaktivieren! Für die Reviewer ist es z.B. extrem wichtig unter gleichen Bedingungen Karten miteinander zu vergleichen. Aber einen kleinen Hoffnungsschimmer gibt es, im letzten Satz erwähnt ATI "If there is a problem, we will fix it". ..nunja wollen wir mal hoffen das ATI da einen Schalter einbaut. Ich vermute aber eher nicht, und nVidia wird  seinen brilinearen Filter vermutlich auch nicht deaktivieren. :ohwell:

cu
BUG


-- Veröffentlicht durch kammerjaeger am 1:50 am 18. Mai 2004


Zitat von Eisenblut am 1:18 am Mai 18, 2004
Das sich die falsche Information der Gamestar so hartnäckig hält.... Die nVidia 6800 ist zwar lauter als die X800, aber leiser als z.B. eine 9800, siehe Beschreibung bei 3D Center. Bei der Karte von Gamestar war die Lüfterregelung defekt, deshalb lief das Teil auf Höchstdrehzahl, was dementsprechend laut ist. Serienkarten werden diesen Fehler nicht zeigen.



Glaubst Du ernsthaft, daß sie im harten 3D-Betrieb unter Last leise ist?

Was nutzt das Referenzdesign, wenn die Verkaufsvarianten aus Kostengründen ganz andere Lüfer benutzen.  :noidea:

Schließlich scheint bei Deinem Link die 9800XT auch leiser zu sein als die niedriger getaktete Pro. :blubb:
Und somit hat man wohl eher eine laute 9800Pro erwischt, die nicht den Durchschnitt repräsentiert...

Bei den verschiedenen FX59xx-Modellen kann ich die Bewertung der Lautstärke absolut nicht teilen. Ist mir völlig unklar, wie die zu solchen Einschätzungen kommen, zumal die verwendeten Karten nicht genau genannt wurden. Ich würde eine solche Karte jedenfalls nicht als "nicht wahrnehmbar" bezeichnen...


Daher würde ich lieber die fertigen Karten abwarten.

Entweder werden die 6800 durch gute (und somit teure) Lüfter noch teurer oder sie werden trotz Lüfterregelung bei 3D alles andere als leise sein...
Stromverbrauch und schlechte Übertaktbarkeit sind nunmal bekannt, an eine Minimal-Kühlung ist also wohl nicht zu denken, besonders wenn der Sommer kommt. ;)


-- Veröffentlicht durch Eisenblut am 1:18 am 18. Mai 2004

Das sich die falsche Information der Gamestar so hartnäckig hält.... Die nVidia 6800 ist zwar lauter als die X800, aber leiser als z.B. eine 9800, siehe Beschreibung bei 3D Center. Bei der Karte von Gamestar war die Lüfterregelung defekt, deshalb lief das Teil auf Höchstdrehzahl, was dementsprechend laut ist. Serienkarten werden diesen Fehler nicht zeigen.


-- Veröffentlicht durch kammerjaeger am 0:03 am 18. Mai 2004


Zitat von Crusader am 22:09 am Mai 17, 2004

ps: jo ati mag auch beim filtern cheaten aber nen "lüfter sei leise cheat" wirds dafür wohl bei nvidia nur in kühnsten träumen  geben :lol:



Doch, kein Problem...

Musst nur das Spiel in 2D darstellen, dann muss die Karte nicht viel rechnen und kann runtergetaktet werden. So läuft sie auch bei reduzierter Lüfterdrehzahl.  :lol: ;)


-- Veröffentlicht durch Crusader am 22:09 am 17. Mai 2004

also ich spiele grundsätzlich nur mit 100hz un dan mein moni da nur bis 1152*864 pixel geht is da eben sense auf meinem 17"

da sehe ich alles scharf was scharf sein soll un wenn net wird eben kanteglättung aktiviert (dafür wurde sie ja entwickelt)

von daher hab ich lieber meine 100hz @ 1152*864 also ne flackershow @ 1600*1200

bei den meisten tft's is doch auch bei 1280*1024 sense oder?
von daher ... wayne interessierts =)

ps: jo ati mag auch beim filtern cheaten aber nen "lüfter sei leise cheat" wirds dafür wohl bei nvidia nur in kühnsten träumen  geben :lol:

MfG.
-Crusader-


-- Veröffentlicht durch DJ am 20:24 am 17. Mai 2004

jupp bei den meisten spielen merke ich in jeder stufe bis 1600*1200 einen unterschied mehr kann mein schrim nicht aber 1600*1200 packt mein schirm keine 85 hz also nehme ich nur 1280*1024.


-- Veröffentlicht durch Henro am 20:00 am 17. Mai 2004

ut2k4 sieht man ne höhere auflösung deutlich an !


-- Veröffentlicht durch BUG am 19:40 am 17. Mai 2004

..die Textur Auflösung hat damit nur wenig zu tun, anhand der Texturen kann man mit sicherheit nicht feststellen welche Auflösung gerade genutzt wird. Man würde die Unterschiede nur an den "Treppchen" sehen.

Je näher man an eine Textur zoomt, desdo höher wird sie auch aufgelöst (jedenfals bis zur Auflösung die die Textur hat). Is die Textur größer als die Auflösung des Bildschirms, wird halt nur ein Teil der Textur auf dem Bildschirm dargestellt.

cu
BUG

(Geändert von BUG um 19:44 am Mai 17, 2004)


-- Veröffentlicht durch Ratber am 19:34 am 17. Mai 2004

worauf ich hinaus will ist das die Auflösung nix btringt wenn Texturen usw. ganixcht soweit reichen ;)


Bei Q1 gabs beim Voodopatch auch die Streitfragfe ob 640 oder 800 aber das war am Ende ladde da die Texturen ab 640 eh nicht feiner wurden.

Oder anders:

Ein 320er Bild bleibt auch auf 2048 Interpoliert weiterhin ein 320er Bild denn Bildinfoirmationen sind eben nicht zu vermehren ;)


-- Veröffentlicht durch BUG am 19:25 am 17. Mai 2004

..ich weis nich ganz worauf du hinaus willst, aber wenn ich nen 100 Zoll Monitor habe der 2048x1536 mit 100Hz darstellen kann, würde ich die Auflösung nutzen und ich würde bei der Monitor Größe mit Sicherheit deutlich unterschiede zu 1600x1200 feststellen können.

cu
BUG


-- Veröffentlicht durch Ratber am 19:21 am 17. Mai 2004

Nimm um Himmelswillen nen 100 Zöller oder sonstwas.

Ich sagte dioch schon 2x das der Monitor es darstellen kann.


Also nochmal


Was ist mit 2048er oder mehr auflösung bei zb. UT2k4 oder nem anderen derzeitigem Titel ?


-- Veröffentlicht durch BUG am 19:11 am 17. Mai 2004


Zitat von Ratber am 19:02 am Mai 17, 2004

Kannste es sehen oder nicht ?


..auf den ersten Blick wohl nicht --> Bildschirm zu klein. Wenn man aber einen 22 Zoll Monitor oder größer nimmt, könnte man man die Unterschiede wohl wieder feststellen.

cu
BUG


-- Veröffentlicht durch Ratber am 19:02 am 17. Mai 2004


Zitat von BUG am 18:53 am Mai 17, 2004
..bei mir geht ich glaub maximal 1920x1440, aber da habe ich nur noch 60 oder 70Hz was mir viel zu wenig ist. 1600x1200 geht noch mit 85 oder 90 Hz was noch ok is. :) Bei so hohen Auflösugen is dann aber der Monitor zu klein um noch deutlich Unterschiede zwichen 1600 und 1900 feststellen zu können.

cu
BUG




Ich sagte ja das ich vorraussetze das der Monitor es darstellen kann.

also Größe und Bandbreite entsprechend.


Kannste es sehen oder nicht ?


-- Veröffentlicht durch Master of Puppetz am 18:57 am 17. Mai 2004

Dann doch lieber bei 1600x1200 noch AA rein (wenn ers denn packt).


-- Veröffentlicht durch BUG am 18:53 am 17. Mai 2004

..bei mir geht ich glaub maximal 1920x1440, aber da habe ich nur noch 60 oder 70Hz was mir viel zu wenig ist. 1600x1200 geht noch mit 85 oder 90 Hz was noch ok is. :) Bei so hohen Auflösugen is dann aber der Monitor zu klein um noch deutlich Unterschiede zwichen 1600 und 1900 feststellen zu können.

cu
BUG


-- Veröffentlicht durch Ratber am 18:16 am 17. Mai 2004

Die Gegenfrage wäre ob du bei den heutigen Spielen auch nen Unterschied bei 2048x1536 oder mehr sehen würdest (Das der Monitor es darstellen kann setze ich mal vorraus) ??


-- Veröffentlicht durch BUG am 17:49 am 17. Mai 2004

..also ich seh den Unterschied zwichen 1024x768 und 1600x1200 auch beim zocken. :) ..und wenn es das Spiel zulässt und mein PC schnellgenug ist zocke ich auch in 1600x1200. Mir reicht aber auch 1024x768 zum zocken, alles was drunter is sieht teilweise arg Pixelig auf meinem 19 Zoll Monitor mit Streifenmaske aus was ich als "unschön" empfinde. Auf einem normalen 15 oder 17 Zoll Monitor könnte ich mich vermutlich aber mit 800x600 anfreunden (nur mit dem Monitor inzwichen nimmer). ;)

cu
BUG


-- Veröffentlicht durch Ratber am 17:34 am 17. Mai 2004

Und welches Game liefert Tatsächlich soviele Details das es sich auch lohnt ? ;)

Das Argument habe ich auch schon früher gehöhrt als es um 640 oder 800 ging und dennoch hat keiner nen echten Unterschied sehen klönnen wenn er ohne zu wissen welche Aufklösung nun sache ist anner Kiste gedaddelt hat.

Es gibt ja auch welche die "nur" in 1600x1200 Zocken und Stein&Bein Schwören das es die einzig ware auflösung ist. ;)


-- Veröffentlicht durch DJ am 17:26 am 17. Mai 2004

@ratber nicht schlimm :) , ich finde aber tortzdem nicht dass ne graka der mid-range klasse ein paar jahre haelt wenn so ne karte lange gut ist dann sind 2 jahre naja ich spiele auch bei 1280*1024 am liebsten.
:)


-- Veröffentlicht durch Ratber am 17:21 am 17. Mai 2004

Yo,statt edit hab ich den Zitatbutton erwischt


-- Veröffentlicht durch Henro am 17:13 am 17. Mai 2004

musst ja deswegen nicht gleich 2 mal posten :lol:


-- Veröffentlicht durch Ratber am 17:04 am 17. Mai 2004

@Henro




Und du nutzt ne Matrox Karte oder ?



Korrekt,ne Matrox hab ich auch aber meine Aktuelle ist die GF4-4400 von Anfang 2002 und se wird es auch noch mindestens ein Jahr bleiben bis ich dann was neues holen werden/Muß.



Ich weiß worauf du hinaus willst aber da muß ich dich enttäuschen.

Ich hab mir niemals ne Spitzenkarte geholt denn die 5% mehr an Leistung darf man meist mit bis zu 60% mehr Preis bezahlen obwohl man se dann eh nur zu 70% nutzen kann was dann unterm Strich ne Milchädchenrechnung dh. Geldverschwendung ist.

Stattdessen hole ich mir ne Solide Karte der 2. Leistungsklasse und die reicht für gewöhnlich für einige Jahre ;)


(Geändert von Ratber um 17:20 am Mai 17, 2004)


-- Veröffentlicht durch hasufell am 16:03 am 17. Mai 2004

wieso, die Parhelia is doch gar net so übel :)

edit: R

(Geändert von hasufell um 16:03 am Mai 17, 2004)


-- Veröffentlicht durch Henro am 15:46 am 17. Mai 2004


Zitat von Ratber am 15:21 am Mai 17, 2004

Zitat von BUG am 14:19 am Mai 17, 2004
@Philly
..ist ein guter Einwand, allerdings kann man das auch erreichen wenn man selber die Details oder Textur bzw Filter Qualität runter schraubt wenn es auf VeryHigh nicht mehr flüssig läuft. Wieso darf der Chip-Hersteller bestimmen welche quali die is die ich haben möchte?! ..ich habe nix gegen diese Optimierungen, aber dass versteckspiel kann ich nicht gutheißen und ich möchte die Möglichkeit haben selber zu entscheiden ob ich Qualität oder Performance haben möchte.

[Übertriebene Darstellung: ON]
..in 2 Jahren haben wir durch den Optimierungswahn dann wieder Geforce2 niveau erreicht, 2x bi-AF obwohl man im Treiber 16xTRI AF eingestellt hat. Das kann es eigentlich nich sein oder?!
[Übertriebene Darstellung: OFF]

Ich würd die 10 oder 15% mehr Leistung vermutlich auch lieber haben wenn man kaum einen Qualitätsunterschied sieht, aber wo fängt er an und wo hört dieser Optimierungs wahn auf? Wenn der Mathelehrer sagt ich soll Sinus exakt beschreiben und ich frei Hand ne Sinus ähnliche Kuve auf den Zettel zeichne is das auch --> 6 setzen!

cu
BUG







Alles Jahre wieder das gleiche Geschreie aber dennoch rennen alle inne Läden uhnd Kaufen als obs morgen nix mehr gäbe :lolaway: ;)



Und du nutzt ne Matrox Karte oder ? ;)


-- Veröffentlicht durch DJ am 15:36 am 17. Mai 2004

@ratber naja die werbefachleute sind eben besser ausgebildet als die konsumenten. :lol:

@bug jupp wennn es so waere , waere das natuerlich der ideal zustand standard volle leistung und bei bedarf kann ich alle "features" richtig nutzen und keine halben filter usw.


-- Veröffentlicht durch Ratber am 15:21 am 17. Mai 2004


Zitat von BUG am 14:19 am Mai 17, 2004
@Philly
..ist ein guter Einwand, allerdings kann man das auch erreichen wenn man selber die Details oder Textur bzw Filter Qualität runter schraubt wenn es auf VeryHigh nicht mehr flüssig läuft. Wieso darf der Chip-Hersteller bestimmen welche quali die is die ich haben möchte?! ..ich habe nix gegen diese Optimierungen, aber dass versteckspiel kann ich nicht gutheißen und ich möchte die Möglichkeit haben selber zu entscheiden ob ich Qualität oder Performance haben möchte.

[Übertriebene Darstellung: ON]
..in 2 Jahren haben wir durch den Optimierungswahn dann wieder Geforce2 niveau erreicht, 2x bi-AF obwohl man im Treiber 16xTRI AF eingestellt hat. Das kann es eigentlich nich sein oder?!
[Übertriebene Darstellung: OFF]

Ich würd die 10 oder 15% mehr Leistung vermutlich auch lieber haben wenn man kaum einen Qualitätsunterschied sieht, aber wo fängt er an und wo hört dieser Optimierungs wahn auf? Wenn der Mathelehrer sagt ich soll Sinus exakt beschreiben und ich frei Hand ne Sinus ähnliche Kuve auf den Zettel zeichne is das auch --> 6 setzen!

cu
BUG







Alles Jahre wieder das gleiche Geschreie aber dennoch rennen alle inne Läden uhnd Kaufen als obs morgen nix mehr gäbe :lolaway: ;)


-- Veröffentlicht durch hasufell am 15:06 am 17. Mai 2004

hast recht bug

man müsste das selbst bestimmen können, ob man diesen brei...äh bri möchte ;)


-- Veröffentlicht durch BUG am 14:19 am 17. Mai 2004

@Philly
..ist ein guter Einwand, allerdings kann man das auch erreichen wenn man selber die Details oder Textur bzw Filter Qualität runter schraubt wenn es auf VeryHigh nicht mehr flüssig läuft. Wieso darf der Chip-Hersteller bestimmen welche quali die is die ich haben möchte?! ..ich habe nix gegen diese Optimierungen, aber dass versteckspiel kann ich nicht gutheißen und ich möchte die Möglichkeit haben selber zu entscheiden ob ich Qualität oder Performance haben möchte.

[Übertriebene Darstellung: ON]
..in 2 Jahren haben wir durch den Optimierungswahn dann wieder Geforce2 niveau erreicht, 2x bi-AF obwohl man im Treiber 16xTRI AF eingestellt hat. Das kann es eigentlich nich sein oder?!
[Übertriebene Darstellung: OFF]

Ich würd die 10 oder 15% mehr Leistung vermutlich auch lieber haben wenn man kaum einen Qualitätsunterschied sieht, aber wo fängt er an und wo hört dieser Optimierungs wahn auf? Wenn der Mathelehrer sagt ich soll Sinus exakt beschreiben und ich frei Hand ne Sinus ähnliche Kuve auf den Zettel zeichne is das auch --> 6 setzen!

cu
BUG


-- Veröffentlicht durch Philly am 14:04 am 17. Mai 2004

Also. ich äussere mich mal zu den "cheaterein"

ich finde das GAR nicht schlimm! Wenn mir dadurch 5FPS mehr Bilder pro Sekunde winken, und nur minimalst schlechtere Bildquali ist das doch TOP!

Was soll der Mist mit der Aufregung? Wenn der Anwender doch ein flotteres Game hat, mit fast gleichbleibender Qualität ?

Man will doch nicht behauptet, das es besser ist, Far Cry "etwas" ruckeliger zu spielen, dafür aber angeblich "tolle" Qualität, anstatt das Game flüssig und trozdem in guter Quali spielen zu können?!

Ich finde es gut, das von Treiber zu Treiber die Performance angehoben wird. Dabei ist es mir egal ob ATI oder NVidia!

Unter Strich will ich gute Performance, bei 2-4x AA und 2-4x AF. Von mir aus können die da Cheaten wie sie wollen, wenn nur die Quali gut ist, und alles Ruckelfrei läuft!

MFG


-- Veröffentlicht durch BUG am 9:06 am 17. Mai 2004

..so wie es aussieht Cheatet nVidia mit dem 61.11 auch etwas, im 60er gabs ja für den NV40 die Option den "bri" Filter auf "Full-Tri" zu schallten, im 61.11 gibt es den Button auch noch, er hat aber keine Auswirkung, aber vieleicht isses ja auch nur ein "Bug". ;) ..wäre auf jeden Fall wünschenswert, wenn beide Hersteller dem Anwender überlassen wie genau der Chip Filtern soll. Die können ja meinetwegen alle "Optimierungen" im default Modus aktivieren, aber man sollte einem wenigsten die Option lassen die Optimierungen zu "deaktivieren".

cu
BUG


-- Veröffentlicht durch DJ am 2:44 am 17. Mai 2004

na gut dass ich noch nicht am ueberlegen war ob ich die neue nvidia kaufe oder die neue ati und wieder hat ati es sich bei mir verschiessen , ts ts.


-- Veröffentlicht durch hasufell am 23:56 am 16. Mai 2004

is ja zum heulen...subjektiv werde ich das wahrscheinlich nie wahrnehmen, aber gut ;)

und ja, es is trotzdem ne sauerei...vom Prinzip her, nicht weil die Bildqualität schlechter wird

(Geändert von hasufell um 23:57 am Mai 16, 2004)


-- Veröffentlicht durch svenska am 22:32 am 16. Mai 2004

des spielchen ist schon uralt, jeder will doch sein produkt glänzen lassen und verkaufen, als gamer ist das für mich natürlichen schlechtes brot :(


-- Veröffentlicht durch Ratber am 21:51 am 16. Mai 2004

wieso anfangen ?


angerfangen haben se schon vor über 10 Jahren.

Das ist nur die x'te Runde im Spielchen und bestimmt nicht die letzte ;) :lol:


-- Veröffentlicht durch Blade1972 am 21:05 am 16. Mai 2004

Na super is ja doll erst Nvida un jetzt fangen die ATI Fuzis auch noch an ... dat is langsam echt zum ab:gulp: Mhmm ma sehen wieviel der "Cheattreiber" ausmacht ...


-- Veröffentlicht durch Philipp Stottmeister am 20:43 am 16. Mai 2004

Ati ist bestimmt wegen des technisch unterlegenen Chips in Bedrängnis geraten, und hat dann noch schnell am Treiber was gedreht. :lol:


-- Veröffentlicht durch Eisenblut am 20:09 am 16. Mai 2004

Die Bedeutung solch eines Vorgehens kann man bei der Meldung des 3D Center vom 10. Mai erkennen.

"Eine exzellente Übersicht der Radeon X800XT Platinum Edition vs. GeForce 6800 Ultra Benchmark-Ergebnisse vom R420-Launch gibt es im nV News Forum zu begutachten. Aus den gesammelten Werten konnte dabei folgendes geschlossen werden: Bei 4x Anti-Aliasing ohne anisotropen Filter liegt üblicherweise die nVidia-Karte vorn, während hingegen bei Aktivierung des anisotropen Filter, egal ob mit oder ohne Anti-Aliasing, üblicherweise die ATi-Karte das Rennen macht. "

Das wäre also genau auf das von Computerbase gefundene Verhalten zurückzuführen. Und wenn dies Bestand hat, dann ist das eigentlich nur mit den Cheats von nVidia bei 3D Mark letztes Jahr zu vergleichen, vielleicht sogar schlimmer, da versucht wird, bewusst Spuren zu verwischen.


-- Veröffentlicht durch DJ am 17:59 am 16. Mai 2004

boah das waere wirklich starker tobak dagegen war das hardware cheaten ja nur peanuts. :(


-- Veröffentlicht durch Ratber am 17:58 am 16. Mai 2004

Och ,so wild ist das nu auch nicht denn reihum wird von jedem Hersteller geschummelt.

Letztens Nvidia,jetzt Ati,Morgen sonstwer.

Das Spielchen geht schon seit 94/95 so seit die Masse den PC entdeckt hat und wo DAUS kaufen wird auch geschummelt und augenwischerei betrieben ;)


-- Veröffentlicht durch BUG am 17:40 am 16. Mai 2004

http://www.computerbase.de/artikel/hardware/grafikkarten/versteckspiele_atis_texturfilter/1

..naja mal schaun was sich daraus noch ergibt, scheint so als ob ATI im Treiber eine Erkennung eingebaut hat, die sofort erkennt wenn man mit eingefärbeten MipMaps arbeitet und dann voll TRI-Filtert. Das ist fast schon vorsätzliches Cheaten, da man versucht den Cheat mit fast allen Mitteln zu verstecken. R300 und R350/360 sind davon wohl nicht betroffen.

Also wenn sich das wirklich bewarheitet, dann gibts ein dickes negativ von mir! Beim RV350/360 (9600) kann ich es noch verstehen, aber bei einem HighEnd Chip wie der R420 muß das nun wirklich nicht sein. :( ..und wenn ATI meint, dass das so ok is, dann sollte man wenigstens dazu stehen und nich solche "Versteckspiele" spielen.

cu
BUG

(Geändert von BUG um 18:22 am Mai 16, 2004)


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de