Pervers :)

- OCinside.de PC Forum
https://www.ocinside.de

-- News
https://www.forum-inside.de/forums.cgi?forum=8

--- Pervers :)
https://www.forum-inside.de/topic.cgi?forum=8&topic=1413

Ein Ausdruck des Beitrags mit 73 Antworten ergibt bei 3 Antworten pro Seite ca. 25 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 124.74 Gramm Papier.


-- Veröffentlicht durch darkcrawler am 0:09 am 28. Okt. 2005


Zitat von N omega G um 2:51 am Okt. 22, 2005

nur im 3dmark schneller? wers glaubt. ist es euch eigentlich egal, dass die karte schneller ist und dazu noch bessere bildquali liefert? hauptsache man kann sich an punkten aufgeilen...



junge, wenn es in den ersten reviews so ist kann ich auch nix für ;)


-- Veröffentlicht durch Falcon am 11:00 am 22. Okt. 2005

wtf, unter dice oder was?


-- Veröffentlicht durch skynet am 10:41 am 22. Okt. 2005

macht nix, die GTX von shamino rockt das ding weg... 810MHz core! :godlike:

810 x 24 = 19.440M/s
1000 x 16 = 16.000M/s


ich glaube ATI hat da nen kleines problem, sobald shamino eine der neuen 512MB karten mit 1.4ns bekommt! :godlike:


-- Veröffentlicht durch N omega G am 2:51 am 22. Okt. 2005


Zitat von skynet um 2:31 am Okt. 22, 2005
die frage ist was diesmal verschwindet... die zäune sind ja schon sogut wie weg... :biglol: :lol:



die werden wiederkommen...  skynet ich bezweifle, dass du dir ne ati jemals neutral angesehen hast, deswegen wirst du auch von den meisten (allen wäre evt übertrieben) als fanboy abgestempelt und nicht beachtet!
btw nicht nur in diesem forum.

solltest das mal tun, denn dann sieht es schon anders aus.

nur im 3dmark schneller? wers glaubt. ist es euch eigentlich egal, dass die karte schneller ist und dazu noch bessere bildquali liefert? hauptsache man kann sich an punkten aufgeilen...

btw: sampsa hat ne x1800xt mit 1ghz core und 2ghz ram laufen gehabt.
hab schon paar tage nicht ins forum geschaut, aber er bencht die glaub ich grad durch... bin schon mal gespannt...:thumb:

(Geändert von N omega G um 2:52 am Okt. 22, 2005)


-- Veröffentlicht durch skynet am 2:31 am 22. Okt. 2005

die frage ist was diesmal verschwindet... die zäune sind ja schon sogut wie weg... :biglol: :lol:


-- Veröffentlicht durch darkcrawler am 1:40 am 22. Okt. 2005


Zitat von QnkeI um 20:10 am Okt. 17, 2005
Back2Topic: Bei dem Test bei PC-Welt liegen X1800 und 7800GTX gleichauf!

edit: Nein, eigentlich ist die 7800GTX fast überall ein wenig schneller :godlike::thumb:

(Geändert von QnkeI um 20:11 am Okt. 17, 2005)



jo, so wies aussieht ist die ati nur im 3d-quark schneller :lol:

gut durch die treiber wird sich da noch einiges drehen lassen, nimmt man an


-- Veröffentlicht durch QnkeI am 21:11 am 17. Okt. 2005


Zitat von kammerjaeger um 21:09 am Okt. 17, 2005
Bevor sie Nvidia verbaut haben... ;)




Ja und zur Voodoo Banshee kam die 3D Revelator


-- Veröffentlicht durch kammerjaeger am 21:09 am 17. Okt. 2005

Bevor sie Nvidia verbaut haben... ;)


-- Veröffentlicht durch QnkeI am 20:55 am 17. Okt. 2005


Zitat von kammerjaeger um 20:38 am Okt. 17, 2005

Zitat von QnkeI um 19:40 am Okt. 17, 2005

Die Elsa-Brille wurde nie für nVidia gebaut, sondern für Elsa Grakas...



Und was hat Elsa wohl für Chips verbaut? ;)




3DfX Voodoo


-- Veröffentlicht durch kammerjaeger am 20:38 am 17. Okt. 2005


Zitat von QnkeI um 19:40 am Okt. 17, 2005

Die Elsa-Brille wurde nie für nVidia gebaut, sondern für Elsa Grakas...



Und was hat Elsa wohl für Chips verbaut? ;)


-- Veröffentlicht durch QnkeI am 20:10 am 17. Okt. 2005

Back2Topic: Bei dem Test bei PC-Welt liegen X1800 und 7800GTX gleichauf!

edit: Nein, eigentlich ist die 7800GTX fast überall ein wenig schneller :godlike::thumb:

(Geändert von QnkeI um 20:11 am Okt. 17, 2005)


-- Veröffentlicht durch QnkeI am 19:40 am 17. Okt. 2005


Zitat von kammerjaeger um 12:17 am Okt. 16, 2005
@ QnkeI



Und nur weil die Elsa-Brille der Marktführer war, kann man nicht den Support auf die GraKa-Hersteller abwälzen, besonders wenn die Elsa-Brille eben nur für Nvidia gebaut wurde! Warum also sollte ATI sie supporten? Oder soll ATI womöglich auch noch 3dfx-Support in die Treiber integrieren, nachdem sie von Nvidia geschluckt wurden? :noidea:





Das habe ich ja nicht gesagt. Außerdem supported nVidia die Elsa-Brillen au net. Der Treiber unterstützt sie, mehr net. Der unterstützt auch mittlerweile 10 andere Brillen, unter anderem die Asus-Brille.

Die Elsa-Brille wurde nie für nVidia gebaut, sondern für Elsa Grakas...


-- Veröffentlicht durch kammerjaeger am 12:17 am 16. Okt. 2005

@ QnkeI

Was glaubst Du, warum die Brillen bei ebay noch fleißig gehandelt werden? Weil sie selten jemand wirklich intensiv nutzt und das Teil bald wieder in der Ecke liegt!
Die meisten User wollen sowas einfach nur mal ausprobieren und sind dann i.d.R. schnell wieder runter von der Idee...
Und da immer wieder neue User die alten Karten bekommen, tauchen auch immer wieder neue (bzw. die gleichen alten) Fragen auf, was die Foren am Leben erhält. Aber es würde keinem wehtun, wenn sie endlich aussterben, bis man eine vernünftige, qualitativ hochwertige und kopfschmerzfreie Alternative entwickelt hat. ;)

Und nur weil die Elsa-Brille der Marktführer war, kann man nicht den Support auf die GraKa-Hersteller abwälzen, besonders wenn die Elsa-Brille eben nur für Nvidia gebaut wurde! Warum also sollte ATI sie supporten? Oder soll ATI womöglich auch noch 3dfx-Support in die Treiber integrieren, nachdem sie von Nvidia geschluckt wurden? :noidea:

Es gibt noch div. andere Hersteller. Aber weil die entweder keine Probs haben, der Support des Herstellers gut läuft oder aber der Support inzwischen eingestellt wurde, bekommt man von denen nicht mehr viel mit...


-- Veröffentlicht durch DJ am 12:12 am 16. Okt. 2005

@henro jupp so ist es , wie bug es sagte. :=)

@qnkeI jupp es gibt noch ne grosse gemeinde und die meisten haben eben die elsa's weil die kann man noch immer billig bekommen. :)

Der spiele support ist gleich null ich hatte als halbwegs aktuelles spiel css probiert der effekt war da leider war er nicht besonders gut und das zielkreuz und die schrift waren komplett im eimer. Die spiele wo ich den effekt am besten hinbekommen habe ware zb das alte unreal tournament, ich muesste mal das neue ut damit testen wie gut der effekt da ist. Hmm jetzt wie ich daran danke doom3 teste ich auch mal weil Aliens versus Predator war voll der kick mit brille und doom3 ist auch aehnlich dunkel. :)


-- Veröffentlicht durch BUG am 12:02 am 16. Okt. 2005

@Henro
..nein geht nicht, funzt nur auf CRT mit mindestens 100 Hz (das sind dann 50 Hz pro Auge was aber recht unangenehm ist). Mit 120 Hz wird es gerade so "erträglich", 140 oder 160 Hz sind dann schon "brauchbar".

cu
BUG


-- Veröffentlicht durch Henro am 11:54 am 16. Okt. 2005

tja und ich hab ne hornhautverkrümung und kann die deshalb nicht gebrauchen :(


Gehen die teile eigentlich auch auf tfts ?


-- Veröffentlicht durch QnkeI am 11:51 am 16. Okt. 2005


Zitat von kammerjaeger um 11:19 am Okt. 16, 2005


Nur weil Nvidia den Elsa-Support übernommen hat, um mal wieder ein Pseudo-Feature ohne Marktrelevanz mehr zu haben, kann man doch nicht grundsätzlich den Support von Brillen-Herstellern auf die GraKa-Hersteller abwälzen...  :blubb:




Das siehst du falsch. Wenn du mal ein bisschen googelst, merkst du das um 3D-Brillen allgemein und hier in Deutschland zu 99% um die 3D Revelator noch eine riesen Gemeinde besteht. Die Brillen gehen bei eBay für 20-30 Euro wech.

Leider ist der Spiele-Support echt sch****e. Kriege RCT3 nicht mit Brille zum laufen.


-- Veröffentlicht durch kammerjaeger am 11:19 am 16. Okt. 2005


Zitat von DJ um 17:39 am Okt. 15, 2005
@kammerjaeger

1) Also der support lag noch nie bei den 3d brillen herstellern



Natürlich! Ich hab so ein Teil sogar noch im Keller liegen! Hersteller ist  A-win, die Brille hieß Magic3D. Leider wurde der Support inzwischen eingestellt, da wie gesagt wohl solche Karten auf dem Markt keinerlei Relevanz hatten. Aber damals mußte man immer die Treiber der Brille vom Hersteller laden. ;)

Nur weil Nvidia den Elsa-Support übernommen hat, um mal wieder ein Pseudo-Feature ohne Marktrelevanz mehr zu haben, kann man doch nicht grundsätzlich den Support von Brillen-Herstellern auf die GraKa-Hersteller abwälzen...  :blubb:


-- Veröffentlicht durch kammerjaeger am 11:04 am 16. Okt. 2005


Zitat von Ino um 15:13 am Okt. 15, 2005
lesen und alle fresse halten :lol:



Zitat:
"Bitte beachten Sie: Für den Test der Radeon X1800 XL konnte uns ATI nur eine Beta-Version des Referenztreibers Catalyst 5.10 zur Verfügung stellen. Die Testergebnisse sind daher nur als vorläufig zu betrachten und können nur einen groben Anhaltspunkt über die Leistungsfähigkeit des Grafikchips geben."
;)


-- Veröffentlicht durch BUG am 23:33 am 15. Okt. 2005


Zitat von DJ um 17:39 am Okt. 15, 2005

1) Also der support lag noch nie bei den 3d brillen herstellern die am meisten verbreitete die alle baugleich sind mit der elsa brille (asus usw.) (welche ich ueberigens habe) werden direkt von den grafikkarten herstellern unterstuezt als es elsa noch gab war es ein grafikkarten treiber der offiziell nur mit elsa grafikkarten gehen sollte, als elsa zum x-ten mal kaputt ging uebernahm nvidia aber den support welcher noch immer gut ist , siehe nicht wie ati bei trueform.
Ich bin in dem punkt eben nicht deiner meinung es waren immer die grafikkarten treiber die den support haten es gab nie so was wie nen eignen brillen treiber der kein grafikkarten treiber war und rede nicht von den sachen die sich nie durchsetzten einzig alleine die modelle wie  die elsa brille wurden in groesseren mengen verkauft und hatten ein gutes preis leistungs verhaeltniss.

..ich bin zwar nicht Kammerjaeger , aber ich glaube er sieht das ähnlich. Wenn du Stereo Treiber brauchst, belib einfach bei nVidia. Aber was glaubst du wieviel % hier im Forum oder generell eine Elsa 3D Brille haben + einen Monitor auf dem das auch praktisch nutzbar ist? ;)

..ich selber haben auch ne Elsa 3D Revelator, aber meinen 115kHz 19" CRT habe ich schon längst gegen einne deutlich kleineren und stromsparenderen TFT getauscht und die Brille verstaubt in der Schrankwand.


Den identischen marktanteil halte ich fuer ein geruecht , wegen den qualitaetsproblemen in punkto treiber , seltsame fehler bei neuen spielen , quali der referenz luefter  (sterben zu schnell) usw, nicht zu reden , ich sehe es jede lan mindestens doppelt soviele ati's sterben oder haben probleme mit games als nvidia graka's. Die meisten hatten damals 9800'er karten gekauft und sind entaeuscht und haben nun wieder nvidia. Ob's ati mit neuen treibern und der neuen x1x00 serie wieder rausreisst bezeifele ich den auch die x8x0 serie war nicht besonders berauschend in den aufgezaehlten punkten.
..also das nimmt sich imho nix, ich kenne mindestens genausoviel Leute die mit ihren nVidia Karten (FX & 6600/6800 Serie) probleme haben, die Fehlerquelle sitzt "meist" direkt vor dem Monitor und weis sich oft nicht zu helfen, dass is dann der Punkt wo ich meistens einspringe und Hilfestellung leisten muß. Allerdings ist auf den LAN's wo ich gelegentlich unterwegs bin mehr ATI Hardware (Radeon 9000, 9600, 9700/9800) vertreten.

Vor ein paar Jahren war das noch anderes, da hatten die Mehrzahl eine Geforce 2, 3 oder 4MX und TI) am laufen + einige Ausenseiter mit Radeon 7500 oder 8500 / Voodoo 3, 4, 5 und dann noch die mit Komplettrechnern und ATI Rage 128 schlagmichtot. ;)

Die Truform Sache hat ATI übrigens jetzt komplett aus dem Programm genommen, seit dem Catalyst 5.9 gibt es keinen Truform support mehr (selbts der R200 bzw. die 8500 hat mit dem Treiber kein Truform support mehr). Laut ATI ist diese Technologie vom Markt nicht richtig angenommen worden und man will dieses Feature nicht weiter mit sich "rumschleppen". Wer Truform will muß den Catalyst 5.8 oder älter installieren. :(

Ich kann ATI zwar verstehen, aber man hätte es ruig weiter mit "rumschleppen" können auch wenn keiner mehr für Truform entwickelt.

cu
BUG


-- Veröffentlicht durch DJ am 17:39 am 15. Okt. 2005

@kammerjaeger

1) Also der support lag noch nie bei den 3d brillen herstellern die am meisten verbreitete die alle baugleich sind mit der elsa brille (asus usw.) (welche ich ueberigens habe) werden direkt von den grafikkarten herstellern unterstuezt als es elsa noch gab war es ein grafikkarten treiber der offiziell nur mit elsa grafikkarten gehen sollte, als elsa zum x-ten mal kaputt ging uebernahm nvidia aber den support welcher noch immer gut ist , siehe nicht wie ati bei trueform.
Ich bin in dem punkt eben nicht deiner meinung es waren immer die grafikkarten treiber die den support haten es gab nie so was wie nen eignen brillen treiber der kein grafikkarten treiber war und rede nicht von den sachen die sich nie durchsetzten einzig alleine die modelle wie  die elsa brille wurden in groesseren mengen verkauft und hatten ein gutes preis leistungs verhaeltniss.

2) Jau und sogar mehrere stunden schon,  es gibt spiele da ist der effekt sau gut gemacht zb. AVP , und ich hatte keine kopfschmerzen das ist nur ne frage des richtigen anpassens und keiner zu schlimmen sehfehlern der eignen augen. Zusaetzlich muss man natuerlich einen highendschirm haben der 120-160 hz hat (ich habe nen 22 zoll) bei der gewaehlten aufloesung da die hz zahl halbiert wird dann geht's auch mit dem kopf ohne brummen. Aber es bleibt halt nur ein gimmick darum hat es sich nie durchgesetzt

3) Den identischen marktanteil halte ich fuer ein geruecht , wegen den qualitaetsproblemen in punkto treiber , seltsame fehler bei neuen spielen , quali der referenz luefter  (sterben zu schnell) usw, nicht zu reden , ich sehe es jede lan mindestens doppelt soviele ati's sterben oder haben probleme mit games als nvidia graka's. Die meisten hatten damals 9800'er karten gekauft und sind entaeuscht und haben nun wieder nvidia. Ob's ati mit neuen treibern und der neuen x1x00 serie wieder rausreisst bezeifele ich den auch die x8x0 serie war nicht besonders berauschend in den aufgezaehlten punkten.


-- Veröffentlicht durch Ino am 15:13 am 15. Okt. 2005

lesen und alle fresse halten :lol:


-- Veröffentlicht durch BUG am 13:53 am 15. Okt. 2005


Zitat von QnkeI um 12:39 am Okt. 15, 2005
Bei nVidia kann man alle Optimierungen mit dem Qualitätsregler ausschalten. Dreht man ihn auf "Höchste Qualität" sind alle Optimierungen abgeschaltet!

100%tig NEIN!

..bei HQ wird nur versucht immer Trilinear zu filtern (bis auf wenige Ausnahmen wie UT2003/2004) und das AF passt soweit auch bis auf die Winkelabhängigkeit. ShaderReplacement oder sonnstige Optimierungen sind immer aktiv, da macht nVdia auch keinen großen Reibach draus, die sagen sogar offiziell das sie Applications Specifisch "Optimieren".

ATI hat Applications Specifische Optimierungen immer abgestritten bis sie AI Vorgestellt haben, bei AI=OFF sollen angeblich keine Aplications Specifischen Optimierungen (Workarounds) mehr aktiv sein.

Diese Applications Specifischen Optimierungen sind auch nich unbedingt "schlecht" für den User jedenfals solang die Optimierungen keinen negativen & sichtbaren Einfluß auf die Darstellungs Qulaität haben. So kann man sich über ~20% mehr Performance freuen. Gegen diese Optimierungen spricht allerdings, dass sie auf jedes Spiel explizit angepasst werden muß und das die Programierer des Spiels diesen Weg meist weniger mögen. Desweiteren kann es im Spiel zu Situationen kommen wo diese Optimierungen nicht wirken, oft werden diese "Optimierungen" sogar nur an diverse Time Demos angepasst um zu Zeigen das der neue Treiber "schneller" ist. Im Spiel selber spürt man davon dann recht wenig.

Man müsste das Spiel halt mehrmals durchsspielen und alle konstellationen durchtesten damit diese Optimierungen für den Spieler von nutzen sind bzw effektiv genutzt werden. Also recht aufwendig für ATI oder nVidia, je nachdem wie genau sie es nehmen. ;)

cu
BUG


-- Veröffentlicht durch kammerjaeger am 13:25 am 15. Okt. 2005


Zitat von DJ um 9:32 am Okt. 15, 2005

Zusaetzlich hat es ati noch immer nicht gepackt 3d brillen zu unterstuezen , naja okay 3d brillen sind aktuell kein faktor genau so wie trueform, aber nvidia supported sie noch immer weiter und nicht so wie ati sorry aber es bleibt dabei nvidia hat die besseren treiber und verprellt die kunden nicht so wie ati.



1. Hab ich eine 3D-Brille auch schon mit ATI genutzt. Die Treiber/Karten-Unterstützung sollte bei solchen Sachen in den Händen des Brillenherstellers liegen (was i.d.R. auch so ist, wenn man von den Elsa-Modellen absieht), nicht bei der GraKa. Schließlich macht auch ein Mainboard-Hersteller keinen Support z.B. für USB-Drucker, nur weil man sie anschließen kann.
2. Hast Du schonmal mit so einer Brille gespielt? Wenn Du mal innerhalb einer halben Stunde Kopfschmerzen haben willst, dann tu es! Nicht ohne Grund haben sie sich nie wirklich durchgesetzt... ;)

Und wieso verprellt ATI Kunden? Immerhin haben sie einen fast identischen Marktanteil. ;)




-- Veröffentlicht durch QnkeI am 12:39 am 15. Okt. 2005


Zitat von BUG um 3:16 am Okt. 15, 2005
..also wenn man bei ATI --> AI=OFF macht, ist oder sollte keine Applications Specifische "Optimierung" mehr aktiv sein (also Cheatfrei). Bei nVidia geht das nicht, da laufen immer Applications Spezifische Optimierungen mit egal was man im Treiber einstellt man hat nichmal einen Button dafür. Ganz schlimm wohl bei Doom3 --> ShaderReplacement und man kann es nicht deaktivieren. ATI macht das auch, aber nur bei AI=LOW oder HIGH.

Was hier mit dem Mipmaps angedeutet wurde, hat nix mit Cheat und "Vertuschung" zu tun. Der Treiber Analysiert die Textur und entscheidet selber ob brilinear oder Trilinear gefiltert wird um Füllrate zu sparen. Wenn man jetzt eingefärbte Texturen nutzt, erkennt das der Treiber und schaltet auf Trilineare Filterung um da die Texturen zu unterschiedlich sind (meist grün/ rot) um einen "brauchbaren bzw flimmerfreien" Übergang zu erreichen. Das machen übrigens auch beide (ATI und nVidia), besonders bei UT2003/2004 da das hier deutlich Füllrate spart. Andere Spiele sind davon meist weniger betroffen wobei bei ATI mit AI=HIGH imho immer "brilinear" Filtert, bei AI=OFF bis auf wenige Ausnahmen immer voll Trilinear.

[...]

cu
BUG



Bei nVidia kann man alle Optimierungen mit dem Qualitätsregler ausschalten. Dreht man ihn auf "Höchste Qualität" sind alle Optimierungen abgeschaltet!

Zu den Mipmaps: Man kann es schön reden, ja.


-- Veröffentlicht durch DJ am 9:32 am 15. Okt. 2005

Nicht zu vergessen bei ati das truform debakel zuerst mit der ati 8500 das trueform hypen und das blaue vom himmel herunterluegen im endeffekt gab's 2 oder 3 spiele die es richtig konnten , aber davor kamen noch anderen ati grafikkarten raus die auch alle das trueform konnten bis es ploetzlich bekannt wurde dass nur die 8500'er es noch hardware maessig konnte und die anderen es per software machten , und iergendwann verschwand es auch aus den treibern. Sauber ati. :thumb: :lol:

Zusaetzlich hat es ati noch immer nicht gepackt 3d brillen zu unterstuezen , naja okay 3d brillen sind aktuell kein faktor genau so wie trueform, aber nvidia supported sie noch immer weiter und nicht so wie ati sorry aber es bleibt dabei nvidia hat die besseren treiber und verprellt die kunden nicht so wie ati.

Und zu den spiele optimierungen HL2 wurde extra sch****e programmiert dass es nur gut auf ati's graka's am anfang lief ich habe noch nie ein solchen sch**** gesehen als engine.

Im endeffekt besch****en beide, nur bei ati hat es immer uebelsten nachgeschmack siehe trueform siehe HL2.


-- Veröffentlicht durch BUG am 3:16 am 15. Okt. 2005

..also wenn man bei ATI --> AI=OFF macht, ist oder sollte keine Applications Specifische "Optimierung" mehr aktiv sein (also Cheatfrei). Bei nVidia geht das nicht, da laufen immer Applications Spezifische Optimierungen mit egal was man im Treiber einstellt man hat nichmal einen Button dafür. Ganz schlimm wohl bei Doom3 --> ShaderReplacement und man kann es nicht deaktivieren. ATI macht das auch, aber nur bei AI=LOW oder HIGH.

Was hier mit dem Mipmaps angedeutet wurde, hat nix mit Cheat und "Vertuschung" zu tun. Der Treiber Analysiert die Textur und entscheidet selber ob brilinear oder Trilinear gefiltert wird um Füllrate zu sparen. Wenn man jetzt eingefärbte Texturen nutzt, erkennt das der Treiber und schaltet auf Trilineare Filterung um da die Texturen zu unterschiedlich sind (meist grün/ rot) um einen "brauchbaren bzw flimmerfreien" Übergang zu erreichen. Das machen übrigens auch beide (ATI und nVidia), besonders bei UT2003/2004 da das hier deutlich Füllrate spart. Andere Spiele sind davon meist weniger betroffen wobei bei ATI mit AI=HIGH imho immer "brilinear" Filtert, bei AI=OFF bis auf wenige Ausnahmen immer voll Trilinear.

Was das HDR angeht, ohne FSAA is das für mich ein unnützes Feature, dann lieber "fake" HDR über die PixelShader wo dann auch FSAA funzt und das funzt auf ATI und nVidia Hardware und fast genauso aussieht wie "echtes HDR" (siehe HL2 Lost Coast). :)

Einen Nachteil sehe ich nur bei den Programierern, die müssen ein paar Überstunden machen, rein optisch gibts nur minimale Unterschiede dafür ist es aber idR schnell(er) als "echtes" und mit FSAA nutzbar. :)

cu
BUG


-- Veröffentlicht durch QnkeI am 23:09 am 14. Okt. 2005


Zitat von kammerjaeger um 19:09 am Okt. 14, 2005

Zitat von QnkeI um 18:38 am Okt. 14, 2005

ATI hätte ziemlich gestänkert wenn HL² auf nV-Karten besser gewesen wäre.

Dir ist nicht zufällig aufgefallen das ATI und nVidia Spiele kaufen??? Die Publisher drucke bestimmt net freiwillig die Logos auf die Packung und binden sie ins Spiel ein :lol:



Das einzige Spiel, wo es definitiv wohl kräftig Geld für das Abschiedswerk von John Carmack gab, ist D3. Da kann man mit wenigen Änderungen der ini-Datei bei ATI-Karten bis zu 40% Leistung ohne spürbaren Quali-Verlust rausholen.
Ansonsten zahlt ATI oder Nvidia zwar für das Logo, an der Engine wird dadurch aber nix geändert. Die Aussagen, daß Spiele auf einer Karte besser laufen, nur weil ein Logo draufpappt, sind Quark.
Einzig SC3 legt noch die Vermutung nahe, von Nvidia beeinflusst zu sein, denn warum sollte man auf SM2.0 gänzlich verzichten, wenn es nicht wirklich schlechter aussieht als SM3.0, aber deutlich besser als der Vorgänger?





Glaube an nichts, was du nicht selber gefälscht hast :thumb:


-- Veröffentlicht durch Beomaster am 19:17 am 14. Okt. 2005

hm, also was ich bei ATI definitiv vermissen würde wäre HDR, das sieht ja mal sowas von geil aus, hab zwar nicht den direkten Vergleich, z.B. FarCry ATI vs NV, nur das fehlen von HDR dürfte ATI mit einer Möglicherweise besseren Bildquali schwer ausgleichen


-- Veröffentlicht durch kammerjaeger am 19:09 am 14. Okt. 2005


Zitat von QnkeI um 18:38 am Okt. 14, 2005

ATI hätte ziemlich gestänkert wenn HL² auf nV-Karten besser gewesen wäre.

Dir ist nicht zufällig aufgefallen das ATI und nVidia Spiele kaufen??? Die Publisher drucke bestimmt net freiwillig die Logos auf die Packung und binden sie ins Spiel ein :lol:



Das einzige Spiel, wo es definitiv wohl kräftig Geld für das Abschiedswerk von John Carmack gab, ist D3. Da kann man mit wenigen Änderungen der ini-Datei bei ATI-Karten bis zu 40% Leistung ohne spürbaren Quali-Verlust rausholen.
Ansonsten zahlt ATI oder Nvidia zwar für das Logo, an der Engine wird dadurch aber nix geändert. Die Aussagen, daß Spiele auf einer Karte besser laufen, nur weil ein Logo draufpappt, sind Quark.
Einzig SC3 legt noch die Vermutung nahe, von Nvidia beeinflusst zu sein, denn warum sollte man auf SM2.0 gänzlich verzichten, wenn es nicht wirklich schlechter aussieht als SM3.0, aber deutlich besser als der Vorgänger?


-- Veröffentlicht durch QnkeI am 18:38 am 14. Okt. 2005


Zitat von Notebook um 14:29 am Okt. 14, 2005
Ob Cheaten oder nicht:
Schaut euch doch mal Benchmarks von SPIELEN an, nicht nur 3DMark und co.
Da liegt ATI immer etwas vorne.
Lediglich bei 1024 kann Nvidia manchmal ca. 10 fps raussschinden...bloß wer kauf sich bitte ne X800 XT PE oder 6800 Ultra, um Quake 3 in dieser Auflösung bei 500 fps zu spielen?
Werden Auflösung und Qualitätseinstellungen hochgedreht, kann Nvidia meistens einpacken, und das zählt ja wohl eher bei Karten dieses Kalibers.
Gut, 7800 GTX und X1800 XT liefern sich zwar ein Kopf-an-Kopf-Rennen, mal liegt Nvidia vorne, mal ATI (je nach Spiel und Einstellung), aber es ist doch hier schon bemerkenswert, dass ATI mit 8 Pipes weniger besser abschneidet als Nvidia.
Schaut auch mal Half Life 2 an, da zählen nicht nur fps...auf Nvidia sieht das Spiel richtig beschissen aus, auf ATI absolut geil.

Und was sagt uns das?
Einfach nur "mehr und mehr" geht nicht immer auf.
Die 7800 GTX ist quasi der - hrhrhr :yucky: - Prescott mit 4 Ghz der Grafikkarten.:lol:



ATI hätte ziemlich gestänkert wenn HL² auf nV-Karten besser gewesen wäre.

Dir ist nicht zufällig aufgefallen das ATI und nVidia Spiele kaufen??? Die Publisher drucke bestimmt net freiwillig die Logos auf die Packung und binden sie ins Spiel ein :lol:


-- Veröffentlicht durch Henro am 15:32 am 14. Okt. 2005


Zitat von QnkeI um 14:04 am Okt. 14, 2005

Zitat von kammerjaeger um 13:18 am Okt. 14, 2005

Zitat von Henro um 13:09 am Okt. 14, 2005
also wenn man euch so reden hört dann müsste alles cheaten sein was nicht = max. Quali ist. Und da das bei beiden nicht so ist cheaten ja wohl beide.



Wenn man es so sieht, dann schon. :thumb:

Ich persönlich sehe es eben nur als Cheat an, wenn man z.B. benchmarkspezifische Routinen in den Treiber einbaut, die bei speziellen Programmen die Quali runtersetzen (und dabei ist Nvidia sehr oft erwischt worden, ATI afaik nur einmal...) oder aber einen Treiber insgesamt ggü. dem Vorgänger in der Quali runtersetzt, um im Kampf um die Benchmark-Krone gut auszusehen. ;)

Der ganze Streit um die angeblich besseren Filtermethoden ist meiner Meinung nach unsinnig, da der Qualitätsunterschied viel zu gering ist, um darüber zu streiten.
Aber manche Freaks spalten eben gerne Haare...




Wie war es denn bei ATI mit den optimierten MipMaps?? Die haben sich sogar automatisch ausgeschaltet, wenn man es entdecken könnte. Das nennst du nicht benchmarkspezifische Routinen?? Und nVidia wurde auch nur einmal erwischt, genauso wie ATI. Danach war es bekannt und nVidia hat nicht weitere Cheats eingebaut.

ATI hat bei der X800 auch die Quali runtergesetzt um gegen nVidia zu bestehen. Und das sah man in Screenshots etc.




dagegen halte ich mal das keine Nvidia karte ne bessere quali bietet als die GF4 ;)

Warum bloß liefern neuere karten schlechtere bildquali ? ;)


@ NoteBook : Wer will denn freiwillig n Prescott ???


-- Veröffentlicht durch Notebook am 14:29 am 14. Okt. 2005

Ob Cheaten oder nicht:
Schaut euch doch mal Benchmarks von SPIELEN an, nicht nur 3DMark und co.
Da liegt ATI immer etwas vorne.
Lediglich bei 1024 kann Nvidia manchmal ca. 10 fps raussschinden...bloß wer kauf sich bitte ne X800 XT PE oder 6800 Ultra, um Quake 3 in dieser Auflösung bei 500 fps zu spielen?
Werden Auflösung und Qualitätseinstellungen hochgedreht, kann Nvidia meistens einpacken, und das zählt ja wohl eher bei Karten dieses Kalibers.
Gut, 7800 GTX und X1800 XT liefern sich zwar ein Kopf-an-Kopf-Rennen, mal liegt Nvidia vorne, mal ATI (je nach Spiel und Einstellung), aber es ist doch hier schon bemerkenswert, dass ATI mit 8 Pipes weniger besser abschneidet als Nvidia.
Schaut auch mal Half Life 2 an, da zählen nicht nur fps...auf Nvidia sieht das Spiel richtig beschissen aus, auf ATI absolut geil.

Und was sagt uns das?
Einfach nur "mehr und mehr" geht nicht immer auf.
Die 7800 GTX ist quasi der - hrhrhr :yucky: - Prescott mit 4 Ghz der Grafikkarten.:lol:


-- Veröffentlicht durch QnkeI am 14:04 am 14. Okt. 2005


Zitat von kammerjaeger um 13:18 am Okt. 14, 2005

Zitat von Henro um 13:09 am Okt. 14, 2005
also wenn man euch so reden hört dann müsste alles cheaten sein was nicht = max. Quali ist. Und da das bei beiden nicht so ist cheaten ja wohl beide.



Wenn man es so sieht, dann schon. :thumb:

Ich persönlich sehe es eben nur als Cheat an, wenn man z.B. benchmarkspezifische Routinen in den Treiber einbaut, die bei speziellen Programmen die Quali runtersetzen (und dabei ist Nvidia sehr oft erwischt worden, ATI afaik nur einmal...) oder aber einen Treiber insgesamt ggü. dem Vorgänger in der Quali runtersetzt, um im Kampf um die Benchmark-Krone gut auszusehen. ;)

Der ganze Streit um die angeblich besseren Filtermethoden ist meiner Meinung nach unsinnig, da der Qualitätsunterschied viel zu gering ist, um darüber zu streiten.
Aber manche Freaks spalten eben gerne Haare...




Wie war es denn bei ATI mit den optimierten MipMaps?? Die haben sich sogar automatisch ausgeschaltet, wenn man es entdecken könnte. Das nennst du nicht benchmarkspezifische Routinen?? Und nVidia wurde auch nur einmal erwischt, genauso wie ATI. Danach war es bekannt und nVidia hat nicht weitere Cheats eingebaut.

ATI hat bei der X800 auch die Quali runtergesetzt um gegen nVidia zu bestehen. Und das sah man in Screenshots etc.


-- Veröffentlicht durch kammerjaeger am 13:18 am 14. Okt. 2005


Zitat von Henro um 13:09 am Okt. 14, 2005
also wenn man euch so reden hört dann müsste alles cheaten sein was nicht = max. Quali ist. Und da das bei beiden nicht so ist cheaten ja wohl beide.



Wenn man es so sieht, dann schon. :thumb:

Ich persönlich sehe es eben nur als Cheat an, wenn man z.B. benchmarkspezifische Routinen in den Treiber einbaut, die bei speziellen Programmen die Quali runtersetzen (und dabei ist Nvidia sehr oft erwischt worden, ATI afaik nur einmal...) oder aber einen Treiber insgesamt ggü. dem Vorgänger in der Quali runtersetzt, um im Kampf um die Benchmark-Krone gut auszusehen. ;)

Der ganze Streit um die angeblich besseren Filtermethoden ist meiner Meinung nach unsinnig, da der Qualitätsunterschied viel zu gering ist, um darüber zu streiten.
Aber manche Freaks spalten eben gerne Haare...


-- Veröffentlicht durch Henro am 13:09 am 14. Okt. 2005

also wenn man euch so reden hört dann müsste alles cheaten sein was nicht = max. Quali ist. Und da das bei beiden nicht so ist cheaten ja wohl beide.


-- Veröffentlicht durch DJ am 10:51 am 14. Okt. 2005

@kammerjaeger klar kann es sein dass du ne ati hast , die "optimierungen" sind sichtbar bei ati zwar nicht immer und selten richtig qualitaetsmindernd aber sie sind da also bleibt es fuer mich cheats insbesondere weil der user sie nicht wegschaltung und die volle features haben kann mit denen aber immer geprahlt wird , sorry bei ati fuehle mich noch immer mehr verarscht wie bei nvidia.  


-- Veröffentlicht durch kammerjaeger am 1:18 am 14. Okt. 2005

Nö. Aufgedeckt haben die Cheats bei Nvidia div. Testseiten und User, aber nicht Nvidia selbst. Nvidia mußte sie dann aber notgedrungen zugeben, da sie für jedermann sichtbar waren...

Ati hingegen hat lediglich in Bereichen gearbeitet, die man nicht wahrnimmt. Sowas nennt man Optimierung, nicht Cheat!   ;)


-- Veröffentlicht durch QnkeI am 19:59 am 13. Okt. 2005


Zitat von HomerIII um 19:27 am Okt. 13, 2005
:blubb:


NV hat ja NIE gecheatet.......:gulp:
LEUTE ES REICHT!!!! ich kanns nimma hörn......



Das hat nie einer gesagt. nVidia hat gecheatet und hat die Cheats offen gelegt. Es ging darum, das einige meinem nVidia würde nur cheaten und ATI hätte ja die wahre Leistung und ATIs Cheats wären net so schlimm wie die von nVidia.

Fakt ist: Beide haben gecheatet. nVidia hat die Cheats aufgedeckt und ATI vertuscht sie bis heute.


-- Veröffentlicht durch HomerIII am 19:27 am 13. Okt. 2005

:blubb:


NV hat ja NIE gecheatet.......:gulp:
LEUTE ES REICHT!!!! ich kanns nimma hörn......


-- Veröffentlicht durch QnkeI am 14:46 am 13. Okt. 2005


Zitat von Notebook um 17:07 am Okt. 12, 2005
Ob ATI cheatet oder nicht, sie haben es jedenfalls nicht nötig, da sie bisher in Sachen Leistung (insbesondere bei Qualitätseinstellungen) immer einen Vorsprung vor Nvidia hatten.



HÄÄ??? :ultragoil:

Du weißt doch garnet ob sies net nötig haben, da es von ATI keine cheatfreien Treiber für aktuelle Chips gibt....

Denken, überdenken, dann schreiben... :lol:


-- Veröffentlicht durch Ino am 14:37 am 13. Okt. 2005

notebook und skynet ich glaube ihr werdet mal beste freunde!:lol::lol::lol:


-- Veröffentlicht durch skynet am 1:53 am 13. Okt. 2005


Zitat von Notebook um 17:07 am Okt. 12, 2005
Ob ATI cheatet oder nicht, sie haben es jedenfalls nicht nötig, da sie bisher in Sachen Leistung (insbesondere bei Qualitätseinstellungen) immer einen Vorsprung vor Nvidia hatten.



only: :lol:


-- Veröffentlicht durch Notebook am 17:07 am 12. Okt. 2005

Ob ATI cheatet oder nicht, sie haben es jedenfalls nicht nötig, da sie bisher in Sachen Leistung (insbesondere bei Qualitätseinstellungen) immer einen Vorsprung vor Nvidia hatten.


-- Veröffentlicht durch Henro am 15:55 am 12. Okt. 2005


Zitat von skynet um 15:51 am Okt. 12, 2005

Zitat von Henro um 15:48 am Okt. 12, 2005
tatsache ist auch das die bildqualität mit einem aktuellen treiber auf ner GF6800 schlechter ist als mit nem älteren treiber !



die neuen treiber sind auch optimiert für den G70, und da sind sie einwandfrei!

zumal die BQ besser geworden ist! :thumb:



Gut ... optimiert auf den G70 heißt dann bei allen anderen Bildquali runter bloß weils noch nicht optimal programmiert ist oder weil der G70 noch schneller sein soll ? ;)


Wenn man dass mal verfolgt hat dann war es bißher immer so das kurz vor der neuen generation die alte auf einmal langsamer geworden ist (bessere BQ) und die neue dann schneller (schlechtere BQ).

Zufall ?

Eher unwarscheinlich.

Alles Marketing. Ich sag ja nicht das die unterschiede wie Tag und Nacht waren aber sie sind nunmal da und verschaffen immer eine um ein paar % größere Lücke zwischen den generationen.

Um auch besitzer gerade noch aktueller hardware zu einem neukauf zu bewegen ? Warscheinlich ;)


-- Veröffentlicht durch skynet am 15:51 am 12. Okt. 2005


Zitat von Henro um 15:48 am Okt. 12, 2005
tatsache ist auch das die bildqualität mit einem aktuellen treiber auf ner GF6800 schlechter ist als mit nem älteren treiber !



die neuen treiber sind auch optimiert für den G70, und da sind sie einwandfrei!

zumal die BQ besser geworden ist! :thumb:


-- Veröffentlicht durch Henro am 15:48 am 12. Okt. 2005

tatsache ist auch das die bildqualität mit einem aktuellen treiber auf ner GF6800 schlechter ist als mit nem älteren treiber !


-- Veröffentlicht durch Scorpius am 15:45 am 12. Okt. 2005

Ständig das ATI vs NVIDIA geflame. Es cheaten beide NVIDIA genauso wie ATI ... ATI fummelt an den Treibern rum wenn NVIDIA mal wieder besser is und umgekehrt isses genauso. Da haben beide keine reine Weste, auch wenn des manche ATI oder NVIDIA Jünger wohl so sehen wollen. Namen nenn ich jetzt absichtlich keine.
Könnte man bei ATI die "Cheats" auch abschalten wie bei NVIDIA wärs ok. Aber so wie es im moment ausschaut spielt NVIDIA ein bisschen "fairer" und das ist nicht irgendwelches Fangeschwätz sondern Tatsache.


-- Veröffentlicht durch kammerjaeger am 12:55 am 12. Okt. 2005


Zitat von QnkeI um 12:18 am Okt. 12, 2005

Hä ??? Da passt nur: :ultragoil:

Die Optimierungen von nVidia waren auch nur bei Standbildern zu erkennen, du Nase! Aber ATI ist ja noch so dreist und schaltet sie ab, wenn man sie entdecken könnte !!



Na dann hast Du bei einigen Sachen wirklich nicht hingeschaut oder es einfach nicht gemerkt, weil Dir die Vergleichsmöglichkeiten fehlten!
Die ersten Cheat-Treiber zu FarCry waren eine Katastrophe, der Unterschied nicht nur bei Standbildern zu sehen! ;)

Und das alles nur, weil ATI damals die Performance-Krone hatte...
Momentan hat Nvidia mit der aktuellen 7xxx-Serie leicht die Nase vorn (nachdem die FX-Reihe Schrott war und man erst mit der 6800 wieder Anschluß gefunden hatte), da können sie auch wieder auf Qualität gehen, bis ATI zurückschlägt.
So ist es ein ständiges hin und her...




-- Veröffentlicht durch QnkeI am 12:18 am 12. Okt. 2005


Zitat von kammerjaeger um 23:56 am Okt. 11, 2005

Zitat von skynet um 22:12 am Okt. 11, 2005

Zitat von QnkeI um 19:12 am Okt. 11, 2005


nVidia hat die Cheats offen gelegt und man kann sie abstellen. ATI ist ja so dreist und verheimlicht sie sogar!! Sobald man die MipMaps anzeigen lässt, werden se abgeschaltet :yucky:




eben!
das war die größte frechheit, die ATI je begangen hat!



Seit wann legt Nvidia Cheats offen? Die wechseln doch die Treiber wie die Unterhosen! Da ist für jeden Benchmark der passende Treiber dabei. Das weiß jeder, aber es wird seitens Nvidia nie von Cheats geredet... ;)

Der Unterschied ist eben, daß man bei ATI meist nur Optimierungen macht, die man nicht wahrnimmt (höchstens bei Standbildern mit der Lupe...). Das sind also eher Treiber-Optimierungen für ein maximales fps/Qualitäts-Verhältnis.
Bei Nvidia hingegen sieht man den Unterschied teilweise deutlich (siehe damals erste Cheat-Treiber für FarCry). Und zufälligerweise kommen bei Nvidia die Cheat-Treiber immer genau dann, wenn ATI-Karten gerade die Performance-Krone zurückgeholt haben... :blubb:





Hä ??? Da passt nur: :ultragoil:

Die Optimierungen von nVidia waren auch nur bei Standbildern zu erkennen, du Nase! Aber ATI ist ja noch so dreist und schaltet sie ab, wenn man sie entdecken könnte !!

Und bei nVidia kann man seit der Forceware 70 über den Qualitätsregler die Optimierungen an- und abschalten.

Bei ATI geht das bis heute nicht. Und deswegen hat ATI immernoch vollwertige Cheat-Treiber.

Achja: ATI hat für die X1800 bestimmt auch nen neuen Treiber rausgebracht, und da werden se die Cheats nicht entfernt haben, sondern auch wieder nen bisschen mehr Cheats eingebaut haben um nen so großen Abstand wie möglich zu nVidia zu bekommen.

Nimm ATI nicht so in Schutz, die sind mit ihren Cheats bis jetzt am dreistesten!


-- Veröffentlicht durch Ino am 6:36 am 12. Okt. 2005


Zitat von N omega G um 23:34 am Okt. 11, 2005

Zitat von Ino um 22:36 am Okt. 11, 2005
wer skynet ist auch ;)



wieso? damit man gemeinsam über ihn lästern kann? (@sky  NEIN nicht wegen neid)

@ino hast ja auch schon vor wochen mal so nen skynet-fan-spruch abgelassen. was isn mit dir los? :blubb:



ich bin halt ein wahrhaftiger fan :lol:

nein! ich finde einfach immer wieder lustig mitzulesen wie sich die leute mit ihm streitet mehr ist das auch ned!!! da gab es schon solche sachen das ich fast vor lachen draufgegangen ist;)

und der typ ist eigentlich ganz ok finde ich wenn man über ein paar sachen wegsieht ;)


-- Veröffentlicht durch skynet am 0:53 am 12. Okt. 2005

nö, die neuen treiber für dualcore z.v. ist nix mit cheat, sondern einfach nur die treiberlast auf die 2. kern abgewälst... dadruch kann man ne menge frames rausholen!

und auch sind die neuen treiber, ohne DC deutlich schneller geworden!
und das obwohl die BQ deutlich verbessert wurde, jetzt flimmert es nichtmal mehr auf quality beim G70...

und warte im übigen mal den 82er forceware ab.... da gibt es ne "kleine" überraschung! :)


-- Veröffentlicht durch kammerjaeger am 23:56 am 11. Okt. 2005


Zitat von skynet um 22:12 am Okt. 11, 2005

Zitat von QnkeI um 19:12 am Okt. 11, 2005


nVidia hat die Cheats offen gelegt und man kann sie abstellen. ATI ist ja so dreist und verheimlicht sie sogar!! Sobald man die MipMaps anzeigen lässt, werden se abgeschaltet :yucky:




eben!
das war die größte frechheit, die ATI je begangen hat!



Seit wann legt Nvidia Cheats offen? Die wechseln doch die Treiber wie die Unterhosen! Da ist für jeden Benchmark der passende Treiber dabei. Das weiß jeder, aber es wird seitens Nvidia nie von Cheats geredet... ;)

Der Unterschied ist eben, daß man bei ATI meist nur Optimierungen macht, die man nicht wahrnimmt (höchstens bei Standbildern mit der Lupe...). Das sind also eher Treiber-Optimierungen für ein maximales fps/Qualitäts-Verhältnis.
Bei Nvidia hingegen sieht man den Unterschied teilweise deutlich (siehe damals erste Cheat-Treiber für FarCry). Und zufälligerweise kommen bei Nvidia die Cheat-Treiber immer genau dann, wenn ATI-Karten gerade die Performance-Krone zurückgeholt haben... :blubb:


-- Veröffentlicht durch N omega G am 23:34 am 11. Okt. 2005


Zitat von Ino um 22:36 am Okt. 11, 2005
wer skynet ist auch ;)



wieso? damit man gemeinsam über ihn lästern kann? (@sky  NEIN nicht wegen neid)

@ino hast ja auch schon vor wochen mal so nen skynet-fan-spruch abgelassen. was isn mit dir los? :blubb:


-- Veröffentlicht durch Scare4 am 23:22 am 11. Okt. 2005

yo,die drecksäcke werden gesponsert....bah is dad ekelhaft...^^

abgesehen davon...ich kenne weder macci noch shamino(abgesehen von seinen 17433points@05 und nen FX57 @ 3,8GHz^^ alias Admin on VR-Zone))...habe mich ehrlich gesagt da auch noch nie für interessiert...hauptsache meine kiste läuft und friesst mir nicht die haare vom kopf:lol:

(Geändert von Scare4 um 23:26 am Okt. 11, 2005)


-- Veröffentlicht durch skynet am 22:56 am 11. Okt. 2005


Zitat von QnkeI um 22:54 am Okt. 11, 2005

Naja in meinen Augen gibt es nicht "Die besten OCer" sondern "Die OCer mit dem meisten Geld".

Weil ocen ist keine Kunst! Dazu muss man nix gelernt haben sondern nur Geld Geld Geld um sich 30 CPUs und 60 Grakas zu kaufen und durchzutesten, welche am besten geht.



die kaufen sich nix, die bekommen ALLES umsonst! :thumb:


-- Veröffentlicht durch skynet am 22:55 am 11. Okt. 2005


Zitat von Ino um 22:36 am Okt. 11, 2005
wer skynet ist auch ;)





-- Veröffentlicht durch QnkeI am 22:54 am 11. Okt. 2005


Zitat von skynet um 22:13 am Okt. 11, 2005

Zitat von Gibtnix um 22:08 am Okt. 11, 2005
wer issen "Macci"?:noidea:



einer der 5 besten OCer der welt!


und der beste(shamino) setzt im übrigen auf NV und hat ne GTX auf 811MHz geprügelt! :godlike:



Naja in meinen Augen gibt es nicht "Die besten OCer" sondern "Die OCer mit dem meisten Geld".

Weil ocen ist keine Kunst! Dazu muss man nix gelernt haben sondern nur Geld Geld Geld um sich 30 CPUs und 60 Grakas zu kaufen und durchzutesten, welche am besten geht.


-- Veröffentlicht durch Ino am 22:36 am 11. Okt. 2005

wer skynet ist auch ;)


-- Veröffentlicht durch Falcon am 22:20 am 11. Okt. 2005

haha.

wer macci is sollte man schon wissen ;)


-- Veröffentlicht durch Gibtnix am 22:15 am 11. Okt. 2005

aha, thx:thumb:

btw: kann gar nicht sein, dass das die besten OCer der Welt sind, denn....

...das bin ich MUHAHAHA:blubb::ocinside:


-- Veröffentlicht durch skynet am 22:13 am 11. Okt. 2005


Zitat von Gibtnix um 22:08 am Okt. 11, 2005
wer issen "Macci"?:noidea:



einer der 5 besten OCer der welt!


und der beste(shamino) setzt im übrigen auf NV und hat ne GTX auf 811MHz geprügelt! :godlike:


-- Veröffentlicht durch skynet am 22:12 am 11. Okt. 2005


Zitat von QnkeI um 19:12 am Okt. 11, 2005


nVidia hat die Cheats offen gelegt und man kann sie abstellen. ATI ist ja so dreist und verheimlicht sie sogar!! Sobald man die MipMaps anzeigen lässt, werden se abgeschaltet :yucky:




eben!
das war die größte frechheit, die ATI je begangen hat!


-- Veröffentlicht durch Gibtnix am 22:08 am 11. Okt. 2005

wer issen "Macci"?:noidea:


-- Veröffentlicht durch Falcon am 22:03 am 11. Okt. 2005


Zitat von Dodger um 18:01 am Okt. 11, 2005
Ein Finne hat seine neue X1800XT auf 877,5/1980 MHz (default: 625/1500 MHz) hochgetaktet und damit 12278 Punkte im 3DM05 erzielt.
Hier zu sehen
Damit ist die eine Karte schneller als ein 7800GTX-SLI-Gespann mit Standardtaktung...



"ein Finne"

man das war Macci !!!


-- Veröffentlicht durch HomerIII am 20:09 am 11. Okt. 2005

evt. macht die cpu ja ned so viel aus ;) WETTE was das eh nur die gametests zum testen gelufen sind. tja evt iss die karte heiß & laut & teuer
aber wenn sie schnell is -> das is ja die haupsache :thumb:
und wozu gibts wasserkuehlungen ;)


-- Veröffentlicht durch QnkeI am 19:12 am 11. Okt. 2005


Zitat von Notebook um 19:08 am Okt. 11, 2005

Zitat von QnkeI um 18:51 am Okt. 11, 2005
Wer weiß was ATI diesmal für Cheats in ihre Treiber eingebaut hat :lolaway:



Was für ein dummer Kommentar - warum sollen die cheaten? Das macht doch eher Nvidia :yucky: .
Klar ist ein FX mit 3,6 Ghz eine Granate, die schon was hochreißt, aber selbst mit einer "normalen" CPU wäre das sicher ein fetter Score.:thumb:
Und das nur mit Luftkühlung (die GraKa) - erstaundlich!:thumb:



nVidia hat die Cheats offen gelegt und man kann sie abstellen. ATI ist ja so dreist und verheimlicht sie sogar!! Sobald man die MipMaps anzeigen lässt, werden se abgeschaltet :yucky:


-- Veröffentlicht durch Notebook am 19:08 am 11. Okt. 2005


Zitat von QnkeI um 18:51 am Okt. 11, 2005
Wer weiß was ATI diesmal für Cheats in ihre Treiber eingebaut hat :lolaway:



Was für ein dummer Kommentar - warum sollen die cheaten? Das macht doch eher Nvidia :yucky: .
Klar ist ein FX mit 3,6 Ghz eine Granate, die schon was hochreißt, aber selbst mit einer "normalen" CPU wäre das sicher ein fetter Score.:thumb:
Und das nur mit Luftkühlung (die GraKa) - erstaundlich!:thumb:


-- Veröffentlicht durch QnkeI am 18:51 am 11. Okt. 2005

Wer weiß was ATI diesmal für Cheats in ihre Treiber eingebaut hat :lolaway:


-- Veröffentlicht durch Gibtnix am 18:31 am 11. Okt. 2005


Zitat von Scare4 um 18:28 am Okt. 11, 2005
Na toll...inkl. nem FX57 der mit 3,6GHz läuft:blubb:...Allein bei dem Takt haste wahrscheinlich schon 10k Point bei 05:lol:




bei ner 2MB PCI GraKa nicht... :ugly::lol:


-- Veröffentlicht durch Scare4 am 18:28 am 11. Okt. 2005

Na toll...inkl. nem FX57 der mit 3,6GHz läuft:blubb:...Allein bei dem Takt haste wahrscheinlich schon 10k Point bei 05:lol:


-- Veröffentlicht durch Gibtnix am 18:05 am 11. Okt. 2005

zwar nett, aber das ist aber ein Vergleich von Äpfeln mit Birnen imo. Schließlich kann man auch die 7800GTX übertakten


-- Veröffentlicht durch Dodger am 18:01 am 11. Okt. 2005

Ein Finne hat seine neue X1800XT auf 877,5/1980 MHz (default: 625/1500 MHz) hochgetaktet und damit 12278 Punkte im 3DM05 erzielt.
Hier zu sehen
Damit ist die eine Karte schneller als ein 7800GTX-SLI-Gespann mit Standardtaktung...


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de