Benutzername:   Noch nicht registriert?
Passwort:   Passwort vergessen?
iB Code Einmal klicken um den Tag zu öffnen, nochmal klicken zum Schliessen

Top Smilies
Beitrag

HTML ist on für dieses Forum

IkonCode ist on für dieses Forum

SMILIES LEGENDE ansehen

Beitragsoptionen Möchten Sie Ihre Signatur hinzufügen?
Wollen Sie per Email über Antworten informiert werden?
Wollen Sie Emoticons in Ihrem Beitrag aktivieren?
 

Beitragsrückblick für FX 5900 von MSI (die neuesten Beiträge zuerst)
DJ Erstellt: 13:15 am 15. Sep. 2003
jup directx 9 schreibt wegen ati 24 bit vor sage ich doch , microsoft hatte die entscheidungen zwischen so wie es ati macht und so wie es nvidia macht. Dass die shader zu langsam sind ist ja wohl klar. jup das entspricht dem was was gesagt wurde , die 2.0 shader laufen unter 32 zu langsam und 24 gibt es nicht (was ich nicht verstehe wenn man 32 kann und keine 24 und wieso man 24 nimmt das ist ne bescheuerte zahl) und 16 ist dann eben da damit die ueberhaupft vernuenftig laufen. Erinnert mich an iergendwie an die 16 bit farbtiefe diskussion von 3dfx gegen nvidia, naja die haetten eben nicht die 3dfx ingenieure uebernehemen sollen. :lol:
Das truefrom debakel ist dass die zur zeiten der 8500'er riesig die fresse aufriessen trueform hier und truefrom (ich find das feature super) da leider wurde dann die einheit aus der hardware rausgenommen so ein beschiss (sonst haette ich mir ne 9700 geholt). Jup das meinte ich, die karten haben das zu koennen auch wenn das speed dann nicht okay ist, jeder maekelt an den shaderleistungen der fx (zu recht ausser nvidia schafft es wie immer das per treiber) rum aber es gibt viele normale features die die ati's nie richitg hinbekamen oder bis heute hinbekommen. Das jetzige fsaa von ati ist dafuer aber top.
Naja mal kucken dafuer dass das spiel ende des monats rauskommt habe ich extrem wenig vom spiel gesehne bis jetzt es muesste ja jetzt schon gold sein ich glaube nicht daran.
BUG Erstellt: 5:42 am 15. Sep. 2003
...ich glaub du verwechselt da was, DirectX9 schreibt vor, dass mit mindesten 24 Bit FP Rendergenauigkeit gearbeitet werden muß, und genau das macht ATI (die kann ganrix anderes). 32Bit FP is bei nVidia nur ein "Werbefeature" die Shader sind aber mit 32Bit FB einfach zu langsam, aus dem grund schalltet NV ja auch die Shader auf INT12 oder 16 Bit FP um nich ganz den Anschluß an die 24Bit FP von ATI zu verlieren! John Carmack sagt auch das die 2.0 Shader Leistung der FX nich das "gelbe" vom Ei sind.


Update 09/05: We emailed id Software guru, John Carmack about his experience with NV3x hardware on Pixel Shading performance, and this was his reply:
GD: John, we've found that NVIDIA hardware seems to come to a crawl whenever Pixel Shader's are involved, namely PS 2.0..

Have you witnessed any of this while testing under the Doom3 environment?

"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."

John Carmack


..welches Truform Debakel meinst du? :noidea: ..und wenn du jetzt das bi AF des R200 Chips ansprichst, das ging auch nich ander´s die Hardware lässt nur bi-AF zu. Desweiteren war es imho so genau richtig, schau dir mal die tri-AF Leistung der Geforce4 TI reihe an, die war zum Teil langsamer als das der GF3, an den bi-AF speed von ATI R200 Karten is keine der NV Karten gekommen bzw war es bei aktuellen Spieln auf der NV Hardware nich einsetzbar, auf der ATI schon (selbt 16x AF hat auf der ATI sogut wie keine Leistung gekostet) auch wenn´s nich ganz so schön ausgesehen hat wie bei der GF3 & 4TI.

Am R200 war imho nur das FSAA nich zu gebrauchen, es sah zwar nett aus, war aber VIEL zu langsam da hier das alte Supersampling verfahren (aus Geforce1 & 2 Zeiten) Verwendung fand. ATI hatte zwar bei der Presentation des R200 was von Multisampling AA gesagt, allerdings is da wohl ein Fehler in der Hardware wodurch dies nie aktiviert bzw im Treiber freigeschalltet wurde.

...offizieller Release Termin von HL2 is immernoch 30.09.2003 bzw November, alle anderen Meldungen wurden bislang von Valve oder sonnstigen Distributoren NICHT bestätigt.

http://www.heise.de/newsticker/foren/go.shtml?read=1&msg_id=4184362&forum_id=47223

cu
BUG

(Geändert von BUG um 6:09 am Sep. 15, 2003)
DJ Erstellt: 5:13 am 15. Sep. 2003
ich bezog micht nicht auf cheatmark 2003 sondern genau auf das von ut 2003 und das es keine moeglichkeit gibt bei ati die voelle qualitaet zu bekommen, das mit der hardware mag ich nicht so recht glauben aber okay ich nicht der ati experte. Zu doom naja also das spiel kommt meiner meinung nach spaetestens maerz raus und half-life 2 fruehstens im januar in dem punkt haben es beide verbockt. Mal kucken was dann an graka's raus ist aber das uebliche spiel von ati dass sachen gar nicht moeglich sind wie frueher das trilineare filtering + andere sachen und dann das truefrom debakel naja sowas wird immer schnell vergessen naja was solls ati muss noch lange arbeiten bis die bei mir die scharte ausgewetzt haben.
Alle zeichen deuten aber darauf hin dass valve und nvidia nicht mehr die besten freunde sind , und leute die sogar seit immer mit nvidia zusammenarbeiten (john) wettern so gegen ati wie valve jetzt das mit nvidia macht sorry ich finde ne sauerei sonder gleichen den filter bug hattne auch nur die nvidia's oder beser gesagt bei den nvidia's waere das nicht zu loesen obwohl der fehler beim texturmelten bei valve lag und deren lausige kontrolel der eignen engine ne ne wer einmal so gelogen hat , hat bei mir kein vertrauen mehr. Dass nicht mehr aus der fx rauszuholen ist liegt an valve das ist ja wohl logisch, wer sein spiel mit ati's bundeln will und so verkaufen will kann nicht sagen es geht mit der konkurrenz super , zum must have naja mal sehen. Ich nene es noch immer nicht nvidia pfad weil es ne kruecke ist und sogar deren 5x mal loesung naja die arbeiten eben lausig mehr kann ich dazu nicht sagen , sorry alle mir bekannten fakten deuten auf genau das hin , wahrscheinliche verzoegerung beim release, zusammenarbeit mit ati, af probleme mit non ati karten, die brauchen john's hilfe usw aber dann sich weit aus dem fenster haengen usw.
Den artikel kenne ich zeigt genau das problem auf dass man auf pixelshader 2.0 setzt und so automatisch nvidia schlecht aussehen lassen kann weil mircosoft von ati sich "diktieren" lies wie der hase zu laufen hat. Und es zeigt wie ich sagte das muss von nvidia per treiber geloest werden weil nvidia eben auf effizienz setzt und nicht aug rohleistung , war meiner meinung nach ein fehler.
BUG Erstellt: 15:32 am 14. Sep. 2003
...naja das darf man ^^ so nich im Raum stehen lassen, ATI hatte nur einen Cheat beim Catalyst 3.2 für dem 3DMark03 sonnst nich. Was du vieleicht als Cheat ansiehst is, dass adaptive Winkelverhalten beim Anisostropischen Filter der ATI Karten, aber das lässt sich nich ändern das is in der ATI Hardware so vorgesehen, von daher Filtert die FX reihe (wenns im Treiber richtig Programiert wurde, was derzeit aber je nach Treiber nich der Fall is) etwas besser als die ATI.

...bei OpenGL bleibt einem auch nix ander´s über und wie gesagt die FX arbeitet in DoomIII mit 16 Bit FloatPoint Präzesion, die ATI mit 24Bit daher is die FX auch ein wenig schneller. In DoomIII kommen imho auch nich allzuviele Shader sachen zum Einsatz die nich auch mit PS1.1. oder 1.3 realisiert werden könnten und die PS1.1 & 1.3 hat nVidia bei der FX Serie von den Geforce 3 & 4TI Reihen übernommen. Doom3 kommt "irgendwann" ende nächsten Jahres, und wer jetzt ne Karte für Doom3 kauft der gehört imho "bestraft". Bis Doom3 erhältlich is, haben nVidia und ATI ihre neuen HighEnd sowie Mainstream Produckte auf dem Markt die vermutlich billiger und in Doom3 schneller sind als jetzige HighEnd Karten.

Ich kann mir auch beim besten Willen nicht vorstellen das Valve nVidia einen "reindrücken" möchte, das hat nix mit TechnologiePartner zu tun. HL2 is ein "must-have" Game und ich bin mir ziemlich sicher, dass mit der FX einfach nich mehr viel aus der HL2 Engine rauszuholen is. Ohne nVidia Pfad würde die FX noch viel schlechter dastehen.

..in Sachen nVidia & Shaderleistung kann ich dir den 3DCenter Artikel ans Herz legen.

http://www.3dcenter.de/artikel/cinefx/

Stellen wir nun unseren NV30 seinen Konkurrenten aus dem Hause ATi gegenüber, wird er von der Pro-Takt-Leistung erst einmal überfahren. ATi kommt hier mit 8 Textureinstruktionen und zusätzlichen 8 Arithmetik Operationen angerauscht. Durch den höhren Coretakt kann der NV30 zwar etwas Boden gut machen, aber selbst damit kommt er zum Beispiel nur auf 2600 MTO/s + 700 MAO/s oder 2000MTO/s + 1000 MAO/s.

Die Universal FPU, welche der Shader Core darstellt, erlaubt es Texturops gegen Arithmetikops im Verhältnis 2:1 einzutauschen (siehe nachfolgendes Diagramm). Der R300 Chip als Radeon 9700 Pro kommt aber auch ohne diese Balance-Option auf 2600 MTO/s + 2600 MAO/s. Von dieser Rohleistung kann nVidia nur träumen (oder versuchen, einen NV30 auf 1 GHz hochzutakten). Neben dem Preis für die bessere Pro-Takt-Leistung geht nun auch der Preis für die bessere Gesamt-Rohleistung an den R300.

---[schnipp]---

Der R300 erreicht wie bereits erwähnt sein Maximum von 5200 MI/S beim Verhältnis von 1:1 und fällt zu den beiden Extremfällen (nur Textur- bzw. nur Arithmetik-Anweisungen) auf 2600 MI/s ab. Treten die Texturenoperationen nicht paarweise auf, erreicht der NV30 konstant 2000 MI/s und kommt damit nicht einmal dort in Bereiche der R300-Rohleistung, wo der R300 seine größten Schwächen hat.

Abschließend kann man sagen, dass der NV30 zwar weit weniger anfällig für Rohperformanceverluste durch widrige Umstände als der R300 ist. Der R300 wiederum verfügt über so viel Rohperformance, dass er die Verluste verschmerzen kann. Dem NV30 fehlt hier ganz klar die Rechenleistung der Combiner, die er ja beim PS 2.0 nicht einsetzten kann.

Ein nach den Empfehlungen von ATi geschriebener oder mit dem im DX9-SDK enthaltenen Compiler erzeugter 2.0-Pixelshader ist nun leider genau so aufgebaut, das er alle diese Probleme forciert. Solche Shader benutzen immer viele Temp-Register und haben die Textureanweisungen als Block gebündelt. Auch ein 1.4-Pixelshader ist genau nach diesem Prinzip aufgebaut.

nVidia wird also sich dieser Probleme annehmen müssen, und zwar besser heute als morgen. Microsoft arbeitet bereits an einem SDK Update, welches eine neue Version des Compilers enthält, der Shader auch so compilieren kann, das sie mit weniger Temp-Register auskommen und die Texturezugriffe immer nur in 2er Blöcken einfügt. Nur wenn die Entwickler 1.4-Pixelshader benutzen oder nur einen 2.0 Shader erzeugen, ist die Aktion von Microsoft zwar ein gut gemeinter Zug, aber für nVidia recht nutzlos. Daher wird nVidia das Problem im Treiber lösen müssen.


cu
BUG

(Geändert von BUG um 15:54 am Sep. 14, 2003)
DJ Erstellt: 12:39 am 14. Sep. 2003
@hadobrand die 128'er , 256 halte ich im moment noch immer fuer den vollen overkill ausser die spielst jedes spiel mit 1600*1200 und maximalem af und aa dann ist die leicht schneller bei gleichem chip/ramtakt.

@bug ach so das war das 5 mal laenger teil hmm also nvidia sagt aber nix davon und laut dem was man mir sagt ist das abvolute sch****e geworden obwohl die 5 mal laenger daran programmierten. Naja ich glaube eher valve hatte keine kompetenten leute fuer sowas und die spiele die in cooperation mit nvidia entstehen setzen auch massenhaft schader ein und das sieht das richtig lecker aus , naja ist eben nvidia die ziehen immer gerne ihr eigenes ding durch das kann manchmal nach hinten losgehen wenn zb. microsoft nicht mitzieht usw.
Naja also john  war begeistert von den moeglichkeiten soviel dazu die anderen sind nur zufaul die moeglichkeiten zu nutzen (oder koennen kein opengl) und haengen an ihrem kleinkraemeirischen directx 9 fest (john weiss wieso er noch immer auf opengl setzt). Das problem von nvidia war (ist) wirklich die uebernahme von microsoft der ati weise als defakto was ich damals schon als bescheuert fand. Nvidia unterschaetze ati nicht nvidia war ueberrascht das microsoft das so uebernahm (den ati shader ansatz). Ich glaub nicht dass ati sich ausruht marktfuehrer ist trotz aller mieser kritik und schlechter produkt palette noch immer nvidia. Zum cheaten nach der diskussion ueber tricks bei ut 2003 finde ich dass nvidia und ati cheaten aber die cheats von ati finde ich ne groessere sauerei als die von nvidia (nvidia verliert dabei wenigstens nicht an qualitaet, sichtbar). Naja mal sehen ob der user ne wahl bekommt oder nicht solange die treiber nicht offiziel gibt warte ich mal ab.
Weniger Antworten Mehr Antworten
Hadobrand Erstellt: 11:49 am 14. Sep. 2003
erstmal danke an DJ für die Info´s!

Also ehrlich mal: Das is alles nur eine Sache der Treiber! Nvidia wird das HL2 prob noch hinbekommen, ich werd mich jetzt mal nach ner FX bei e-bay umschaun...

eine wichtige Frage noch, soll ich die FX mit 128 MB oder lieber 256 MB nehmen????


cu Hado
BUG Erstellt: 2:01 am 14. Sep. 2003

Zitat von DJ am 1:38 am Sep. 14, 2003
...wie kommst du auf den renderpfad die haben einen standard directx 9 und nen fallback mit directx 8.1 wo hast du den nv3x renderpfad hergezaubert...



...schlagmichtot, muß ich suchen aber Valve hat extra mit NV zusammen einen Pfad geschrieben (was bis zu 5mal länger gedauert hat als die normalen Shaderanweisungen nach HLSL), wo die Karte zwichen 16 und 32 FP switchen darf und wo die Shader eine andere instruktions Reihenfolge bekommen (eine die der nVidia Hardware besser liegt als der standard HLSL Compiler). Valve hat aber betohnt, dass dies eine "Ausnahme" war und sie in zukünftige Karten keine solche "Extrawürste" egal welcher IHV machen werden. Um die Shaderleistung haben sich die IHV´s zu kümmern und nich Valve!


Das Problem is, dass nVidia mit ihren 2.0+ Shadern wieder eine Extrawurst machen wollten. Daher is es etwas "umständlich" diese Shader zu Programieren bzw kommen sie mir dem standard DirectX9 Pfad (HLSL) nich richtig oder nur uneffizient zurecht. Die FX Shader benötigen eine besondere "Hingabe" und das will sich idR kein Software Hersteller antun. Das Problem für NV war, dass ATI zu schnell mit ihrem R300 auf dem Markt waren und ATI auf Microsoft druck ausgeübt hat DirectX9 endlich fertig zu stellen (kann man ja auch durchaus verstehen), dadurch ist allerdings nVidia ein wenig in Bedrängnis geraten weil sich der nv30 immer wieder verspätete. Nvidia hatte ATi unterschätzt bzw einfach Pech da ihre Shader nicht rechtzeitig in der DirectX SDK "Beachtung" gefunden haben. Dies soll ja der Deto50 etwas kompensieren, er analysiert welche Shader im Spiel/Anwendung verwendet werden und schreibt sie in eine für die FX besser abzuarbeitende Reihenfolge um. Die derzeitigen Benches zeigen dadurch eine um etwa ~10% höhere Shader Performance. Zukünftige optimierunge werden ~vieleicht nochmal 5 bis 10% bringen, aber an die Shaderleistung der ATI Karten kommt NV vermutlich dennoch nicht ran. nVidia kann nur versuchen, im NV40 wieder alles auszubügeln, die derzeitigen FX Karten sind in der PS1.4 & 2.0 den ATI Karten unterlegen. Allerdings ruht sich ATI auf ihren "Loorberen" auch nich aus, dass wird wie früher 3DFX vs nVidia nur das anstelle 3DFX jetzt ATI steht.

...was vieleicht noch zu sagen ist, man wird HL2 auf der FX5900 Ultra ohne Probleme mit vollen Details spielen können sie wird in etwa auf Radeon 9700 nonPro niveau "zurückfallen". Die FX hat ihre stärken wo ander´s, z.B. kann sie die Stencil Buffer (DoomIII macht davon gebrauch) schnell abarbeiten und sie hat eine hohe Fillrate was idR. auch nich von Nachteil is. Was allerdings "anzumäklen" ist, dass nVidia die Treiber Cheaterei lassen soll, wenn man qualität einstellt soll auch qualität rauskommen. Sie können meinetwegen noch 10 "Schaltpulte" in den Teiber packen wo man dies und das ein/ausstellen kann, aber sie dürfen aus TRI AF kein "BRI" AF (mischung aus bi&tri) machen oder einfach die FP Präzession runterregeln. Dann sollten sie imho wenigstens zur etwas schlechteren Shader Performance stehen aber qualität bleibt erhalten bzw dem User die Auswahl lassen was ihm lieber wäre.

cu
BUG

(Geändert von BUG um 15:27 am Sep. 14, 2003)
DJ Erstellt: 1:38 am 14. Sep. 2003
siehe offizielle verlautbarung von nvidia und das was valve bis jetzt sagt sogut kann die zusammenarbeit ja wohl nicht sein oder darf sein wegen sponsor ati, wie kommst du auf den renderpfad die haben einen standard directx 9 und nen fallback mit directx 8.1 wo hast du den nv3x renderpfad hergezaubert ?? Jup mal warten ob microsoft das macht wenn ja sehe ich keine probleme dass beide dann gleich schnell sind. Unter opengl stellt das ja wohl keine probleme da.
BUG Erstellt: 19:33 am 13. Sep. 2003
..sorry, aber das glaubts du ja wohl selber nich. (*böses Valve* ) Valve arbeitet auch mit nVidia zusammen, die haben extra für die NV3x Serie nen eigenen Renderpfad bzw Shaderoptimierungen eingefügt, glaubst du die machen das um NV zu ärgern da hätten sie sich das auch sparen können und die FX hätte im standard DirectX9 Pfad rendern müssen. Die wollen HL2 verkaufen, und das Geschäfft lassen sie sich gatrantiert durch ATI nicht vermiesen. Die PS1.4 und 2.0 Leistung is einfach schlecht (im vergelich zu ATI) und bei spielen wo dieser Shader zum Einsatz kommen (TombRaider, Aquamark, HL2 usw...) wird die FX dem R3x0 wohl nie das Wasser reichen können. ...ggf ändert sich das ein wenig wenn Microsoft die neue SDK von DirectX freigibt wodurch die FX Shader ggf etwas effizienter arbeiten können, aber ob das "reicht" um mit ATI gleichzuziehen steht in den Sternen.

cu
BUG

(Geändert von BUG um 19:34 am Sep. 13, 2003)
DJ Erstellt: 19:21 am 13. Sep. 2003
jupp was aber nicht erklaerbar war weil alle anderen test (normal qaulity usw) war die fx schneller man ging von nem bug aus und das war mit einer alpha version. Jupp im moment mit 16 bit precsion und anscheinend aber mit der qualitaet wie wenn es ati 24bit waere , mal sehen was noch alles kommt. Der "wunder" deto 50 ist jetzt schon bei 51 und zickt noch immer rum wie die hoelle dass die quali nicht okay ist weiss ich auch aber noch 1-2 revisionen dann stimmen quali und leistung ich wuerde das nicht als cheaten betrachten man hat schliesslich massenhaft arbeit wegen valve die sich auch noch weigern richtig mit nvidia zusammen zu arbeiten wegen ati, aquamark lasse ich mal aussen vor. Die ursache der ganzen diskussion liegt an valve ohne cooperation von valve mit ati waeren solchen sachen nie passiert, naja was solls.
×