Nvidia cheatet wieder?

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- Nvidia cheatet wieder?
https://www.forum-inside.de/topic.cgi?forum=3&topic=4023

Ein Ausdruck des Beitrags mit 26 Antworten ergibt bei 3 Antworten pro Seite ca. 9 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 44.91 Gramm Papier.


-- Veröffentlicht durch CMOS am 20:10 am 6. Mai 2004


ich bin nämlich schon viele jahre aus dem reinen spielealter heraus und spiele lieber mit  pc-programmen, die geld aufs konto spülen oder mit der xbox.


der grösste witz dabei ist ja, dass ich älter bin als du:lol:
also nix für ungut ... ich sag ja immer jedem das seine :thumb:


-- Veröffentlicht durch Crusader am 18:52 am 6. Mai 2004

@Beschleunigen

nun ja ich möchte es auch um gottes willen nicht abstreiten das die karten dazu in der "lage" sind rechenoperationen der cpu zu entlasten jedoch sind diese karten nicht primär dafür ausgelegt !

ich bin mir nicht ganz im klaren ob wir einander vorbeireden aber ich rede hier von videoschnittkarten (zB pinnacle dv 500)

wo die vorteile einer solchen karte grade bei intensivenr echenleistungen liegen muss ich ja hoffentlich nicht erklären ;)

MfG.
-Crusader-


-- Veröffentlicht durch Beschleunigen am 17:35 am 6. Mai 2004


Wenn du eine zweite PCI Karte einstecken würdest, dürfte der Span oder Strecht Modus (2560x1024) auch nicht funktionieren. Die ATI Karte verhält sich da genauso.  


davon rede ich doch die ganze zeit. sie kann es hardwareseitig nicht.


Aber wenn du dir nochmal deinen ersten Post durchlesen würdest, klingt das als ob Dual-View bei ATI überhaubt nicht funktionieren oder man ihn nirgends nutzen könnte


ok. zugegeben. aber die einschränkungen kotzen schon gewaltig, wenn man diese funktionen hatte/hat und braucht. und brauchen tut (man tut nicht tut gebrauchen) es nunmal jeder, der mit video- und audioeditoren arbeitet.


Desweiteren bieten imho alle Programme/Anwendungen einen "FensterModus" womit sich die Anwednung ggf auch über mehrere Bildschirme "verteilen" lässt auch wenn man keinen Span Modus besitzt.


und leider stimmt genau das nicht. es kann sein, dass mitlerweile mainstreamsoftware, wie nero, office und was es da nicht alles gibt, gut im fenster laufen, aber gerade spezielle software, die auch die graka-hardware zu nutzen weiss, ist da sehr zickig und auf fixe grössen beschränkt. sämtliche bluebox und effekt programme, die ich hier für die videoproduktion einsetze, laufen generell nicht im fenster. auch edition dv nicht. aber das sind auch alles keine 50 euro oder bundle programme.  

ich will aber keinesfalls sagen, dass der dual-view modus nicht auch zu irgendwas nutzbar wäre. ne etwas grössere desktopfläche, ist sicher für viele leute interessant und brauchbar.  nur ist halt der SPAN mode, das, was für spiele und videobearbeitung notwendig ist. ich rede nicht von videoschnitt mit studio oder premiere (wobei auch premiere im span modus übersichtlicher ist)

auch audioeditioren (gerade für mehrkanalton) sind in der doppelten horizontalen übersichtlicher (weil man einen grösseren ausschnitt vor der nase hat, wie bei video-tools halt)

@cmos


ch korrigiere mich, du bist konsumgeil und arrogant!
aber wird wohl so ne profilierungsgeschichte sein, die da bei dir abgeht.



danke für die blumen. habe ich wohl den kern getroffen, was ?
arrogant ist ansichtssache. fakt bleibt: mein rechner ist ein arbeitstier mit spieleleistung. kein spiele PC auf dem mal nebenbei ein video kodiert wird. das ist ein kleiner, aber feiner unterschied. ich bin nämlich schon viele jahre aus dem reinen spielealter heraus und spiele lieber mit  pc-programmen, die geld aufs konto spülen oder mit der xbox.

@crusader

ich halte das ganze nicht gerade für ein lukratives geschäft - grade was karten dieser dimension angeht sind die nicht für arbeitszwecke sonder primär für 3d-anwendungen (games) konzipiert !

das geschäft ist lukrativer als du denkst. und sowohl aktuelle DX9 karten von ATI, als auch von NVidia sind per software in der lage, der cpu renderarbeit abzunehmen. gerade bei der videobearbeitung ist eine gute DX9 karte bis zu 10x schneller, als die reine CPU render lösung bei standardsoftware. pinnacle verkauft z.b. eine umgebaute ati karte im bundle mit edition dv für schlappe 1000euro  (die karte ist eine umgebaute radeon, die statt des 2. ausgangs und des tv-out, einen anschluss für einen rgb kontrollmonitor hat)  
die NV38 karten werden auch zu anderen konditionen verkauft (für den doppelten bis dreifachen preis, als quadro für prof. anwender, die sogar verclustert werden können)


-- Veröffentlicht durch Crusader am 16:17 am 6. Mai 2004


...sowas wird es vermutlich bei ATI in absehbarer Zeit nicht geben
eben denn wenn es marktwirtschaftlich sinn ergeben würde wäre es für ati bestimmt kein problem das technisch umzusetzen

ich halte das ganze nicht gerade für ein lukratives geschäft - grade was karten dieser dimension angeht sind die nicht für arbeitszwecke sonder primär für 3d-anwendungen (games) konzipiert !

MfG.
-Crusader-


-- Veröffentlicht durch CMOS am 16:07 am 6. Mai 2004


habt ihr kiddis auch noch anderes im kopf, als benchmarks und spiele?
es könnten sich ja mal die erwachsenen zu wort melden



ich korrigiere mich, du bist konsumgeil und arrogant!
aber wird wohl so ne profilierungsgeschichte sein, die da bei dir abgeht.


-- Veröffentlicht durch BUG am 16:05 am 6. Mai 2004

@Tobi
...in dem Fall hast du recht, der Span oder Strecht Modus funktioniert auf ATI Karten nicht, dass Pinnace Studio kenn ich leider nicht. Das ist aber auch die einzigste Beschränkung auf ATI Karten. Wenn du eine zweite PCI Karte einstecken würdest, dürfte der Span oder Strecht Modus (2560x1024) auch nicht funktionieren. Die ATI Karte verhält sich da genauso.

Aber wenn du dir nochmal deinen ersten Post durchlesen würdest, klingt das als ob Dual-View bei ATI überhaubt nicht funktionieren oder man ihn nirgends nutzen könnte. Desweiteren bieten imho alle Programme/Anwendungen einen "FensterModus" womit sich die Anwednung ggf auch über mehrere Bildschirme "verteilen" lässt auch wenn man keinen Span Modus besitzt.

..wenn du den Span Modus unbedingt brauchst (und THG schreibt auch das man ihn "meistens" nur für Spiele gebrauchen kann) dann musst du wohl oder übel bei NV blaiben, sowas wird es vermutlich bei ATI in absehbarer Zeit nicht geben.

cu
BUG

(Geändert von BUG um 16:07 am Mai 6, 2004)


-- Veröffentlicht durch Crusader am 15:32 am 6. Mai 2004

jo nvidia cheatet mal "wieder" (immer noch :lol:)

Benchmark-Betrug bei Far Cry?


Nach den Angaben der Kollegen von Chip Online soll NVIDIA wiederholten Males seine Treiber angepasst und optimiert haben, um bessere Ergebnisse beim Benchmarken des 3D-Shooters Far Cry zu erreichen. Demnach handelt es sich um den noch nicht offiziell freigegeben ForceWare 61.11, der sich seit einigen Tagen inoffiziell im Netz befindet. In Verbindung mit dem Treiber und der von Chip Online getesteten GeForce 6800 Ultra Extreme, sind einige Auffälligkeiten zu Tage getreten. So erreicht die Karte fast doppelt so gute Ergebnisse wie eine GeForce 6800 Ultra mit der Version 60.72, die bei den meisten RADEON X800-Tests verwendet wurde.

Die bei Far Cry sehr gut abschneidende RADEON X800 XT erreichte bei einer Auflösung von 1600x1200 und 4x AA sowie 8xAF Werte von 41 fps, eine GeForce 6800 Ultra Extreme auf einmal 40,3 fps, obwohl die „normale“ Ultra mit dem 60.72er-Treiber auf 23 fps kam. Das dies wieder stark nach dem Thema Optmierungen aussieht wird auch an einem weiteren Beispiel schnell klar. Benennt man die „FarCry.exe“-Datei beispielsweise in „FartCry.exe“ um, so ist die Ultra Extreme plötzlich wieder 10 fps langsamer und erreicht die für eine um 50MHz schneller laufenden Karte korrekten Werte.

Ein offizielles Statement von NVIDIA ließ dazu verlauten, das man „bei Far Cry einerseits einen vorhandenen Treiberbug (z-culling) beseitigt, zum anderen die Treiber weiter auf das Spiel und dessen Benchmark optimiert hat". Diese Verbesserungen werden also als normale Tatsache bezeichnet und auch in Zukunkft weiterhin vorgenommen.

Unserer Meinung nach ist es ganz klar, dass NVIDIA in Zugzwang geraten ist und in letzter Sekunde mit dem 61.11 und der 6800 Ultra Extreme versucht die Nachteile gegenüber der X800 XT Platinum wett zu machen. Das so etwas aber auch ganz schnell nach hinten losgehen kann, sieht man an dem Beispiel der vorherigen Treiber-Optimierungen, die zur Lasten der Bildqualität ging. Wir dürfen also gespannt sein, wie sich die Situation weiterhin entwickelt.


(quelle: k-hardware)

ich sag da ma lieber nix weiter dazu - der text sagt alles ;)

MfG.
-Crusader-


-- Veröffentlicht durch Postguru am 15:14 am 6. Mai 2004

@Beschleunigen ..  ich werd dir gleich eine vor die nuss geben ...  mit solchen behaubtungen .. ich sehe deine anspielung echt als anmaßung an .. von meiner seite aus bist du hier des Kind .....nebenbei .. kannst du jedes Programm benutzen  welchens für zusatzoptionen  eigene Fenster benutzt .. dann  klappt es ohne weiteres auch auf ati karten dies zubenutzen ..  z.b. Maxon Cinema  da kannst du den renderscreen auf den 2. monitor "auslagern" und überdeckst nicht den Konstukionsscreen ...   aber  auch so ...  hab ich derzeit was gegen Flachbildschirme ...  die einschränkungen sind zu gross als das ich meinen CRT in Rente schick ....  


-- Veröffentlicht durch Coolzero2k1 am 8:23 am 6. Mai 2004

In diesem Fall muss ich beschleunigen recht geben!


-- Veröffentlicht durch Beschleunigen am 8:18 am 6. Mai 2004

@bug

das glaube ich kaum. zitat THG:  


Grafikkarten von ATI

Auch ATI Radeon-Grafikkarten unterstützen den Betrieb mit mehreren Monitoren. Allerdings beschränkt sich der Betrieb lediglich auf Dual View und den Klon-Modus. Der für die meisten Spiele benötigte horizontale oder vertikale Span ist mit ATI-Boards nicht möglich. Viele Anwender verwechseln die Möglichkeit, Windows-Fenster im Dual-View-Modus auf beide Monitore auszuweiten mit H-Span. Mit echtem H-Span, bei dem beide Monitore als ein einzelnes großes Display gehandhabt werden hat dies aber nichts gemeinsam!

Verwaltet wird die Multi-Display-Konfiguration durch die Software HydraVision, die bei ATI als separater Download in zwei Versionen erhältlich ist.



ich füge noch hinzu, dass h-span nicht nur von spielen, sondern z.b. auch von pinnacle  edition dv genutzt wird. dass ati den 2. ausgang ansteuert, wie eine 2. graka hatte ich selbst schon geschrieben. wenn ich das wollte, würde ich auch noch eine pci karte einstecken, dann hätte ich 3 bildschirme. dazu fehlen aber dann wirklich die anwendungen.

aber vielleicht mache ich mir den spass und vergleiche mal nv40 mit der neuen ATI karte. kostet zwar ein wochenende zeit, aber ich lasse mich ja gern davon überzeugen, dass die jungs von THG im unrecht sind..

wann kann man die dinger denn kaufen?


benutzen kann man die monitore so oder so ...  und die 2 oder 3 spiel die es gibt  die die möglichkeit haben auf 2 monitoren zu laufen .. gerechtfertigen die sache auf keinen fall sich nicht für eine ATI zu entscheiden ..  


habt ihr kiddis auch noch anderes im kopf, als benchmarks und spiele?
es könnten sich ja mal die erwachsenen zu wort melden. für mich gibt's nämlich noch nen arsch voll anderer dinge, als zu spielen.

und: NEIN!  es ist nicht das gleiche, ob man 1x 2560x1024 fährt, oder 2x 1280x1024. ersteres heisst SPAN, letzteres DUAL-VIEW.  bei beiden modi unterscheiden sich die hardwarebeschleunigungsfunktionen des NV chips.



mfg
to!


-- Veröffentlicht durch Postguru am 23:55 am 5. Mai 2004

ich verstehe den schwachsinn von Beschleunigen nicht ...   ist doch schnuppe ob nun  ein einzelner screen auf den 2 monitoren  ausgegeben wird oder ob es 2 getrennte sind ..    d.h.  ist nun egal ob man 1x 2560x 1024 hat oder 2x 1280x1024 ...   hat ...

benutzen kann man die monitore so oder so ...  und die 2 oder 3 spiel die es gibt  die die möglichkeit haben auf 2 monitoren zu laufen .. gerechtfertigen die sache auf keinen fall sich nicht für eine ATI zu entscheiden ..  


-- Veröffentlicht durch CMOS am 19:31 am 5. Mai 2004

du hast mich falsch verstanden:lol:
das war ein zitat von beschleunigen


-- Veröffentlicht durch BUG am 18:36 am 5. Mai 2004

ATi's 24 Bit ist kein Cheat, dass is die mindest Vorrausetzung für DirectX9. Eher is nVidia´s FP16 oder FX12 ein Cheat, wenn diverse DirectX9 Shader damit dargestellt werden und wenn der Programierer mindesten FP24 vorschreibt!

cu
BUG


-- Veröffentlicht durch CMOS am 18:23 am 5. Mai 2004

@beschleunigen
man könnte dir auch unterstellen konsumgeil zu sein.
was du unbedingt brauchst, ist für mich zb total unwichtig.

zur cheaterei der graka companies sag ich, daß die alle cheaten.
nur! wenn nv es nicht schafft, mit all den features und der technik der 6800u deutlich besser zu sein, wie ati mit der vermeindlich technisch benachteiligten x800xt


dass ati keine 32 bit zustande bekommt, ist natürlich kein cheat.
dann ist das schon peinlich ;)


-- Veröffentlicht durch BUG am 17:13 am 5. Mai 2004

@Tobi
...ich glaub du verdrehst hier die Warheit etwas. DualMonitoring funktioniert auf ATI Karten ohne Probleme. Das funktioniert genauso wie als wenn du eine zweite PCI Grafik Karte in den Rechner stecken würdest. Zum "arbeiten" (Photoshop, CAD, usw...) ist der DualMonitoring support von ATI durchaus zu gebrauchen. Was ATI nicht richtig funktioniert, is das zocken über zwei Bildschirme in so einer "gestrechten" Auflösung. Da wird bei ATi nur der primäre Bildschrim zu hälfte angezeigt, der zweite geht auf Standby oder bleibt auf den Desktop.

Bei nVidia ist aber der DualMonitoring support "einfacher" zu handhaben, die nView Treiber einstellungen sind imho komfortabler und ausgereifter als die Hydravisions Software von ATI. Aber wenn man z.B. nVidia nicht kennt, kommt man auch ohne Probleme mit der ATI Hydravisions Software zurecht. Nen Kumpel nutzt z.b. auf zwei 21 Zoll Eizo CRT's eine Radeon 9500 mit der er recht gut zurecht kommt.

cu
BUG


-- Veröffentlicht durch zen am 15:22 am 5. Mai 2004

:lol:

sorry, bin gerade mitten im server wechsel und konnte noch nicht alles uploaden :) wird aber in den nächsten tagen alles fertig sein ( hoff ich mal ) aber danke für den hinweis :thumb:


-- Veröffentlicht durch Steppenwolf am 15:06 am 5. Mai 2004

wir kommen glaub ein wenig vom Thema ab, ;)

@zen
Du solltest den Link in deiner Sig vllt.  ändern, oder ist das Absicht dass man nochmal umgeleitet wird ;)
Auf der Seite funktionieren auch nicht alle Links.
Aber das "shoot" Bild is echt cool. Habs mir als gleich als Hintergrund gemacht.

MfG sTeppe


-- Veröffentlicht durch zen am 14:33 am 5. Mai 2004


Zitat von Beschleunigen am 11:33 am Mai 5, 2004
ich kann mir das nicht vorstellen.

von den paar anwendern im eigenen bekanntenkreis, nutzen diejenigen,
die ich als profis bezeichnen möchte, täglich 2 bildschirme. egal, ob linux oder windoof..

von 10 leuten, haben vielleicht 3 noch CRTs und davon haben 2 nur eines.

aber vielleicht ist es, wie bei beamern. während meine "armen" bekannten sowas im leben nicht brauchen und auch verteufeln, kenne ich widerum genug "arbeitsame" kollegen, die bereits einen beamer haben und darauf auch nicht mehr verzichten wollen.

kennt ihr das echt nicht, oder ist das schlichtweg ignoranz ?

es müssen doch noch mehr leute hier im forum sein, die mit dem computer geld verdienen.. sicher werden im umfeld meines kleinen bruders, mehr leute anzutreffen sein, die noch mit einer  röhre spielen. aber hier unter uns webdesignern und informatikern gehören dual-schirm arbeitsplätze einfach zum standard. es geht auch überhaupt nicht ohne.

ich habe hier sogar schon leute angesteckt. gesehen! auch gekauft! tobi am telefon penetriert, wie man es anständig konfiguriert..

wirklich schön, ist es auch eigentlich nur, wenn man etwas tiefer in die tasche greift und 2 TFTs kauft. aber auch auf 2 billigen aldi röhren mit ner alten geforce MX funktioniert das wunderbar (unter linux).

möglich wäre natürlich, dass die wenigsten foren-nutzer den computer für die tägliche arbeit benutzen.. aber egal, ob webdesign oder video- und grafikbearbeitung.. wer es kennt und nutzt, kann nicht mehr drauf verzichten. das ist wie ein handy oder die pivot funktion bei TFT displays.

ihr solltet mal nicht vergessen, dass wir TFT nutzer an die native auflösung unserer TFTs gebunden sind. wir können, wenn der bildschirmplatz nicht ausreicht, nicht einfach auf die nächsthöhere auflösung hochschalten. das geht nicht. wir können die arbeitsfläche mit der richtigen grafikkarte aber verdoppeln. leider nicht mit ati karten.

darum geht es. und der preisvorteil bei ATI ist nicht so gross, dass ein nutzer auf features verzichten kann/will, die er jahrelang hat und auch benötigt, nur damit das spiel mit 40, statt mit 36 frames läuft..

da habe ich lieber 4 frames weniger und brauche zum arbeiten nicht noch einen weiteren computer. wird wohl ein middleway sein..

greets
to!

ps. von einem neuen record im 3d mark kann ich leider nicht leben, das ernährt meine kleine familie einfach nicht.

pps. dass ein ati nutzer nur einen bildschirm braucht, ist doch nachvollziehbar. der 2. hätte keine sinnvolle funktion und die meisten games zockt man ja eh auf einem schirm. aber wir haben das jahr 2004 und nicht mehr 1999. seit 2002 stehen in unserem grossraumbüro (10 mitarbeiterplätze) an jedem rechner 2 Acer TFTs in 17" - und das obwohl die hälfte der belegschaft überhaupt nicht spielt. auf der arbeit mit matrox karten sowieso nicht.




1. nicht jeder hat die kohle sich zwei TFT`s zu kaufen
2. jemand der seine kiste hauptsächlich zum arbeiten benutzt ist auch zufrieden mit ner guten alten matrox oder ner älteren geforce.
3. vor allem webdesigner und photoshop user meiden TFT`s wie die pest, die farbdarstellung ist einfach nur zum kotzen und auch teuere TFT`s kommen im moment an einen wirklich guten CRT ( zB. llyama ) nicht ran ! also lieber nen gescheiten CRT als zwei TFT`s.
4. ein gescheiter user misst sich nicht an der anzahl seiner bildschirme, ich bin bis jetzt immer super zurecht gekommen mit nur einem CRT egal ob webdesign oder photoshop, mir genügt es vollkommen auch ohne *matrix* feeling. wieso sollte das nicht *ohne* gehn ?
5. zur sachen videobearbeitung, das 25.000 euro AVID system an meiner alten schule war ja ganz nett mit 2 CRT`s, dual prozessor, 3 gig ram etc... aber von der bedienung her recht sch****e ( ohne zwei monitore konnte man GAR nix machen ) da gefiel mir das halb so teure pinnacle system bei weitem besser, das lief auf nur einem bildschirm und war von der bedienung her leichter verständlich und komfortabler als das teure AVID. was nützt mir ein zweitbildschirm voller tools von denen ich die meisten eh nich regelmässig benutze ?
6. ich vertshe deine aufregung nicht, momenten geben sich ATI und NVIDIA eh nich viel in sachen performance also kannst du doch locker bei NVIDIA bleiben wenn sie dir alles optionen anbieten die du benötigst ? also wo genau ist das problem ?


-- Veröffentlicht durch Steppenwolf am 14:29 am 5. Mai 2004

sorry wenn ich mich hier als kleiner dummer Schüler auch ma mit einmisch, aber wie dir vllt. entgangen ist, sind gute TFTs immer noch recht teuer. Und ich als armer kleiner Schüler habe einfach keine 400-500€ nur um mir nen TFT zu kaufen auf dem ich dann au halbwegs ordentlich zoggn kann. Oder besser noch 2. Ich hab s grad mal geschafft, endlich von meinem 17" auf nen 19" umzusteigen (alles CRTs). Und auch die Leute in meiner Umgebung haben so gut wie alle noch CRTs. Außer den Ausnahmen, die so Bonzeneltern haben, die ihren Kiddies mal zum Geburtstag nen 17" TFT in Arsch schieben. Nicht das ich was dagegen hätte,... ;)

MfG sTeppe


-- Veröffentlicht durch BlackHawk am 11:40 am 5. Mai 2004

also ich gehöre auch zu den 99% und stimme denen mal auch vollkommen zu. wenn ich in meinem freundeskreis, in der brufsschule oder auf der arbeit mal rumgucke, dann sehe ich keinen einzigen rechner der 2 monitore betreibt oder dies in zukunft betreiben möchte.

aber ausnahmen stellen da nunmal die regel... dan gehörst du wohl dann dazu :)

wegen cheaterei, speed und hitze:

ati scheint imo wohl etwas besser zu sein (vom chip.de 800er review mal abgesehn) - aber die ersten karten werden es zeigen :thumb:

mfg BlackHawk


-- Veröffentlicht durch Beschleunigen am 11:33 am 5. Mai 2004

ich kann mir das nicht vorstellen.

von den paar anwendern im eigenen bekanntenkreis, nutzen diejenigen,
die ich als profis bezeichnen möchte, täglich 2 bildschirme. egal, ob linux oder windoof..

von 10 leuten, haben vielleicht 3 noch CRTs und davon haben 2 nur eines.

aber vielleicht ist es, wie bei beamern. während meine "armen" bekannten sowas im leben nicht brauchen und auch verteufeln, kenne ich widerum genug "arbeitsame" kollegen, die bereits einen beamer haben und darauf auch nicht mehr verzichten wollen.

kennt ihr das echt nicht, oder ist das schlichtweg ignoranz ?

es müssen doch noch mehr leute hier im forum sein, die mit dem computer geld verdienen.. sicher werden im umfeld meines kleinen bruders, mehr leute anzutreffen sein, die noch mit einer  röhre spielen. aber hier unter uns webdesignern und informatikern gehören dual-schirm arbeitsplätze einfach zum standard. es geht auch überhaupt nicht ohne.

ich habe hier sogar schon leute angesteckt. gesehen! auch gekauft! tobi am telefon penetriert, wie man es anständig konfiguriert..

wirklich schön, ist es auch eigentlich nur, wenn man etwas tiefer in die tasche greift und 2 TFTs kauft. aber auch auf 2 billigen aldi röhren mit ner alten geforce MX funktioniert das wunderbar (unter linux).

möglich wäre natürlich, dass die wenigsten foren-nutzer den computer für die tägliche arbeit benutzen.. aber egal, ob webdesign oder video- und grafikbearbeitung.. wer es kennt und nutzt, kann nicht mehr drauf verzichten. das ist wie ein handy oder die pivot funktion bei TFT displays.

ihr solltet mal nicht vergessen, dass wir TFT nutzer an die native auflösung unserer TFTs gebunden sind. wir können, wenn der bildschirmplatz nicht ausreicht, nicht einfach auf die nächsthöhere auflösung hochschalten. das geht nicht. wir können die arbeitsfläche mit der richtigen grafikkarte aber verdoppeln. leider nicht mit ati karten.

darum geht es. und der preisvorteil bei ATI ist nicht so gross, dass ein nutzer auf features verzichten kann/will, die er jahrelang hat und auch benötigt, nur damit das spiel mit 40, statt mit 36 frames läuft..

da habe ich lieber 4 frames weniger und brauche zum arbeiten nicht noch einen weiteren computer. wird wohl ein middleway sein..

greets
to!

ps. von einem neuen record im 3d mark kann ich leider nicht leben, das ernährt meine kleine familie einfach nicht.

pps. dass ein ati nutzer nur einen bildschirm braucht, ist doch nachvollziehbar. der 2. hätte keine sinnvolle funktion und die meisten games zockt man ja eh auf einem schirm. aber wir haben das jahr 2004 und nicht mehr 1999. seit 2002 stehen in unserem grossraumbüro (10 mitarbeiterplätze) an jedem rechner 2 Acer TFTs in 17" - und das obwohl die hälfte der belegschaft überhaupt nicht spielt. auf der arbeit mit matrox karten sowieso nicht.


(Geändert von Beschleunigen um 11:47 am Mai 5, 2004)


(Geändert von Beschleunigen um 11:57 am Mai 5, 2004)


-- Veröffentlicht durch slash am 11:22 am 5. Mai 2004


Zitat von Beschleunigen am 9:35 am Mai 5, 2004
hallo?

ist das für euch etwas neues ?  seit es grafikkarten gibt, wird auf diese weise optimiert. das ist absolut nix neues.
mfg
tobi



Ja richtig....das habe ich genauso geschrieben...:blubb:

Und ansonsten kann ich kammerjäger nur absolut zustimmen. Die 2- Monitor Geschichte dürfte für 99% der Kunden, die sich solche Grakas eben zum Spielen zulegen, nichtig sein.


-- Veröffentlicht durch kammerjaeger am 10:15 am 5. Mai 2004


Zitat von Beschleunigen am 9:35 am Mai 5, 2004

ich brauche nämlich 2 verknüpfte bildschirme (2x 1280er TFTs) und die dazugehörigen funktionen des grakatreibers.

ATI hat also auf diese weise wieder enttäuscht. zu teuer in der anschaffung, da nur zum spielen geeignet.



Das Thema hatten wir hier ja schon oft genug.

Ich glaube, Du bist der Einzige hier im Forum, der einen echten Nutzen aus zwei Monitoren zieht.
Da immer wieder drauf rumzureiten, macht keinen Sinn. Oder wie Du es sagst: "das thema hat einen langen grauen bart"

ATI baut seine Karten nicht für Dich persönlich, sondern für die breite Masse.
Daher geht ATI in meinen Augen den richtigen Weg, denn für den Großteil aller Gamer treffen sie mit ihrer Entscheidung für die Performance ins Schwarze. ;)

Außerdem hat es ATI mit der X800 wohl geschafft, die schnellere, kühlere und auch noch preiswertere Karte zu bauen. Was also soll (von Dir persönlich und Deiner Nutzung mal abgesehen) jetzt  noch für NVidia sprechen?
Für 99% aller Gamer dürfte die nächste Karte ganz objektiv eine ATI sein, wenn man sich nicht durch Medien und/oder eigene Erfahrungen markenabhängig macht...


-- Veröffentlicht durch Beschleunigen am 9:35 am 5. Mai 2004

hallo?

ist das für euch etwas neues ?  seit es grafikkarten gibt, wird auf diese weise optimiert. das ist absolut nix neues.

es ist zwar schön, dass das thema cheaterei seit 2 jahren in den foren breitgetreten wird, es ist aber trotzdem seit anbeginn der grakas üblich.

egal, ob es damals zu voodoo zeiten war, oder zu zeiten von TNT1-2 oder bei einführung der geforces.

wo soll denn der hersteller optimieren, wenn grade keine fehler zur beseitigung stehen? soll er 6 monate nach kaufdaturm hausbesuche machen und andere speicherchips auf die graka löten?

es ist humbug drübernachzudenken, weil es schlichtweg seit ewig so ist.

über den culling bug in farcry habe ich schon häufig gelesen. wenn das update kommt, ist doch bestimmt auch mit besserer leistung auf älteren karten zu rechnen.. ausserdem wird die performance sowieso noch ansteigen, wenn die karten erstmal in breiterer masse am markt sind.

nimm doch das beispiel NV35/38  --> der hat angefangen mit 44000 punkten im aquamark und meiner liegt jetzt, einige monate nach dem kauf, schon bei über 53000 punkten..

ich schätze mal, dass niemand mitbekommt, wenn jedes 3. von 100 frames geringer an 45° kanten gefiltert wird, als das 2. oder 8.
es merkt doch keiner einen unterschied, dass ati hardwareseitig  nur mit 24bit genauigkeit rechnet, während NVidia 32 bit präzäsion einsetzt.
wenn NV softwareseitig auf 24 bit heruntergeht, ist das cheaten.. dass ati keine 32 bit zustande bekommt, ist natürlich kein cheat.

wie gesagt: das thema hat einen langen grauen bart und es ist immer noch, wie damals, vor langer langer weile.

ob nun cheat hin oder her. 30-40 frames sind bei keinem spiel der bringer. weder auf ner ati, noch auf ner NV karte.  allerdings dürften ati karten höhstens die hälfte kosten. denn immerhin bieten sie nichts, ausser frames in spielen. dual-schirm unterstützung, wie bei NV oder matrox üblich, sucht man, trotz 2er monitorausgänge, vergeblich. das macht die karte ausschliesslich für spieler interessant. schade, dass ich damit mal wieder nichts anfangen kann. ich brauche nämlich 2 verknüpfte bildschirme (2x 1280er TFTs) und die dazugehörigen funktionen des grakatreibers.

ATI hat also auf diese weise wieder enttäuscht. zu teuer in der anschaffung, da nur zum spielen geeignet.

mfg
tobi


-- Veröffentlicht durch slash am 9:02 am 5. Mai 2004

Jo habe ich auch gerade gelesen! Tja, nVidia in Panik!:moin:
Aber ist ja nix neues, dass man hier und da ein wenig die Bildqualität herunterschraubt, etc...:blubb: Benchmark- Blender ebend. Der Leistungssprung, falls man das mal so nennen mag, ist ja wirklich enorm. Irgendwas ist da auf jeden Fall faul!


-- Veröffentlicht durch s2 am 8:56 am 5. Mai 2004

Hallo Jungs.
Habt ihr das oder das schon gelesen?
Nvidia cheatet wieder? Ich bin ja ziemlich neutral und habe zur zeit auch noch ne Nvidia im Rechner aber wenn das wahr ist wär es ja der Hammer.


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de