|
|
|
Beschleunigen
aus Hannover offline
OC God 21 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
genau! gib dich der illusion hin, dass irgendwann mal erscheinende titel, besser auf ner ATI laufen.. LOL weder von HL2 noch von D3 gibt's ein release date. da aber beide spiele auch auf der xbox erscheinen, wird NV wohl nicht so "sucken", wie du es gern hättest. was für NV spricht ? bessere treiber besserer dual-view-support besserer HW monitor und bessere video eingänge zum aufnehmen von SVHS signalen. zukunftssicherer ist das shader-array der FX ebenfalls. ein shader array kann nämlich dynamisch fungieren, während ATI nur auf die shader zugreifen kann, die hardwareseitig verdrahtet sind. beispiel (ganz billig): ati hat einen A und einen B shader für DX9 das spiel möchte gern einen A und dann einen B shader --> kein problem. dann möchte das spiel 2 x den B shader ---> pass 1 shader B dann im 2ten pass nochmal shader B ---> kein thema. wenn das spiel jetzt nach einem C shader fragt, ist dieser nicht vorhanden und ATI "suckt" --- das shader array von NV ist flexibel und via software/compiler anpassbar.. die kann dann auch shader C bereitstellen. dass ATI schneller ist (unter 10 frame bei den topmodellen bsp. 103 zu 112 f/s), liegt daran, dass sie ungenauer rechnen. was machen denn die ATI kunden, wenn plötzlich 32bit genauigkeit gefragt ist ? stimmt. die kaufen dann ne neue karte.. schön dass ATI so billig ist.. mfg tobi
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 7813 Tagen | Erstellt: 10:54 am 28. Feb. 2004
|
|
|
|
|
BUG
aus Trossingen offline
OC God 23 Jahre dabei !
Intel Core 2 Duo 1800 MHz @ 3200 MHz 75°C mit 1.45 Volt
|
ha pixel & vertex shader 2.0+ bringt garnix sie ham nur an der DX9 spezifikation vorbeientwickelt genauso den DX9.1 den NV wollte (is auf ihre karten hingeschnitzt) wird es nie geben
| ...haben sie nicht, um Pixel und Vertex Shader 3.0 konform zu sein, war es die für NV die einzige Möglichkeit das so zu machen, dass die erste und zweite FX Serie noch nicht 3,0 ready ist liegt einzig daran, das NV die Transistoren ausgegangen sind. Ein Chip mit ~200mio Transistoren und mehr in 0.13µ der auch noch kühlbar und eine entsprechende Ausbeute haben soll war zu dem Zeitpunkt einfach nicht realisierbar. DirectX 9.1 gibt es nicht, und wude durch Fehlinformationen der Presse gepusht. Es gab nie ein 9.1, es wird nie ein 9.1 geben! Das hat nix mit NV oder sonnst wem zu tun, irgendein Depp hat irgendwo mal in einem Nvidia Dokument was von 9.1 gelesen (es ging hier aber nur um eine SDK Update) und hat es mit den bis zu 60% in Verbindung gebracht die der Shader Compiler ab dem Deto 50 erreichen kann, aber sogut wie nie erreicht.
und zur next generation pixel & vertex shader 3.0 wir noch ne ewichkeit nicht gebraucht wenn der mal notwendig ist ,ist die graka schonwieder viel zu lame!!
| ..wer sagt das? ..du? ...da Pixel und Vertex Shader 3.0 in DirectX9 inbegriffen ist, wird es auch recht einfach, dies in vorhandene DirectX9 Engines einzubinden. Man muß nur die Shader mit dem Mircosoft HLSL Shader Compilter im 3.0 Modus compilieren und schon hat man im günstigsten Fall einen 3.0 Shader der zwar genauso aussieht wie ein 2.0 Shader, aber im günstigsten Fall nur halb soviele Rechenoperationen benötigt. Bessere und schönere Effekte wird man damit auch machen können, ob dann aber der Speed reicht ist wieder eine Andere frage. Der 3.0 Support ist auf jeden Fall nich ganz unwichtig (schon garnicht für NV), denn die Programierer haben einen gewissen "Spieltrieb" und wenn die vorhandene Hardware 3.0 Shader kann, werden sie mit sicherheit auch einige Effekte über 3.0 relaisieren. ATI wird dies durch brachiale 2.0 Shader Speed ausgleiche müssen, da das R300 Design (R420 is auch nur ein gepushter R300) eigentlich komplett ungeeignet für 3.0 Shader ist. Man hätte den komletten Chip umdesignen müssen, der nie erscheinende R400 war eigentlich als 3.0 Chip geplant, man hat ihn aber aus Geschwindigkeitsgründen aufgegeben und ins R500 Project verschoben. (Der R400 hatte vermutlich gute 3.0 Leistung, aber schlechtere 2.0 Leistung als der R300 Chip)
wartet hald die echten DX9 games ab und ihr werdet sehen das NV suckt.---> http://www.de.tomshardware.com/graphic/20030912/half-life-01.html#directx_9_fullprecisionperformance
| ..das die aktuellen NV Karten da ^^ schlecht abscheiden bestreiet keiner, da brauch man auch nich drauf rumhacken. Liegt einfach daran, dass NV nicht genügend Transistoren hatte um DirectX9 "schnell" zu implementieren. (..wird sich aber im NV40 ändern da dieser in 0.11µ Hergestellt wird, dem NV 30 und 35 fehlt es einfach an aussreichend Registern weshalb die Pipes nicht effizient genutzt werden können. NV wuste zum Design Zeitpunkt auch nicht genau, wie DirectX9 mal werden würde, durch die enorme Verzögerung des NV30 und dem schnellen erscheinen des R300 war ATI hier deutlich im Vorteil, Microsoft stürtze sich halt auf die erste verfügbare 2.0 Hardware und das war der ATI Chip.
ich war überzeugter NV fan (binn es mit meiner GF4 Ti 4600 immer noch) aber meine nächste karte wird sicher ne ATI (mit dem FX hat NV foll nen griff ins KLO gemacht ) entscheidend für mich ist einfach der bilqualitätsvorteil den ATI deutlich hat denn leistung haben alle highend grakas genugh MSI FX 5900 XT 207.- Sapphir attlantis 9800 PRO 221.- ASUS FX 5900 264.- alles beim händler um die ecke und die ATI ist mit abstand auch noch die schnellste der drei !!! --->bestes preis leistungsverhältniss --->beste bildqualität also spricht bei mir absolut nix mehr für ne NV m.f.g. JVC
| ..is dein gutes Recht, würde derzeit auch ne ATI Karte kaufen, da NV nix vergleichbares bietet. cu BUG (Geändert von BUG um 12:57 am Feb. 29, 2004)
Intel E4300 @ 3200MHz | Abit FP-IN9 SLI | ATI HD3850 256MB Notebook | Zepto 6214W | C2D 2.0GHz | Geforce 7600go 512MB
|
Beiträge gesamt: 5725 | Durchschnitt: 1 Postings pro Tag Registrierung: Juli 2001 | Dabei seit: 8443 Tagen | Erstellt: 12:55 am 29. Feb. 2004
|
|
|
|
|
|
|