Der Schnellste Grafikchip der Welt!

- OCinside.de PC Forum
https://www.ocinside.de

-- News
https://www.forum-inside.de/forums.cgi?forum=8

--- Der Schnellste Grafikchip der Welt!
https://www.forum-inside.de/topic.cgi?forum=8&topic=504

Ein Ausdruck des Beitrags mit 19 Antworten ergibt bei 3 Antworten pro Seite ca. 7 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 34.93 Gramm Papier.


-- Veröffentlicht durch GLOW am 18:50 am 15. Dez. 2002

Jupp ne TI4200 reicht noch völlig aus


-- Veröffentlicht durch MrMo am 1:09 am 15. Dez. 2002

ja das mit dem gewicht ist auch so eine sache!
also wenn man den rechener häufig zu irgendwelchen lans transportiert, würde ich die graka besser abmoniteren, da man da vielleicht den agp port rausreißt oder beschädigt! ;)

aber ich weis nicht die karte wird ja frühestens in einem jahr ausgenützt und was nützt mir des jetzt?

also jetzt bin ich doch mit meiner gf4 ti 4200 noch voll zufirieden!


-- Veröffentlicht durch Megaturtel am 2:03 am 8. Dez. 2002

@Crusader WAS?????

DOOM III nur mit Nvidea? Also schließlich war es Jean Carmack der gesagt hat: "Mit der Radeon Mobility 9000 wird auch das Notebook in der Lage sein DOOM III mit vollen Details zu spielen!"

Des weiteren würde ich auch net allzuviel auf die Nvidea Benches legen, genauso wie die Preise! Wenn die Graka schnell ist als ne 9700 Pro wird die GeforceFX uff jeden fall teuerer sein als die Radeon, denn man kanns sich ja leisten!
Wenn die jedoch langsamer ist, dann wird sie natürlich nen bissel billiger sein!

Cu Meg

Cu Meg


-- Veröffentlicht durch skynet am 1:52 am 8. Dez. 2002

pfff, würde sie mir auch kaufen wenn sie 60db vonsich geben würde, hauptsache P-O-W-E-R alles andere ist nebensächlich und irrelevant


-- Veröffentlicht durch Crusader am 23:34 am 7. Dez. 2002

Die FX is net schlecht aber so schwer das sie am mobo befestigt werden muss... übelst schwer und kann bei unsachgemäßem hin-und her schieben des Gehäuses zum Abbruch der Karte führen.. ne Danke also für 400€ (welche sowieso 500-600€ sein werden) ist es mir net wert so ein Brüllmonster(Lautstärke!!) mit Abbruchgefahr zu kaufen.. mal sehn ob sich da noch was tut.. letztendlich läuft ja Doom3 nur mit Nvidia-Karten... zumindest bis jetzt ;)


-- Veröffentlicht durch darkcrawler am 22:27 am 3. Dez. 2002

spekuliertopics find ich zum :snore:


-- Veröffentlicht durch Sonic am 22:22 am 3. Dez. 2002

pah...gf fx...ati baut wenigstens leise karten (die r9700 ist kaum hörbar... finde ich)


-- Veröffentlicht durch skynet am 22:19 am 3. Dez. 2002

weil das teil den AGP port dennoch grillen würde *gg*


-- Veröffentlicht durch naKruul am 15:57 am 3. Dez. 2002

oh man wieso gibts AGP Pro wenn man das Ding ans Netzteil anschließt?!?


-- Veröffentlicht durch Itanium am 19:54 am 2. Dez. 2002

der preis *heul*


-- Veröffentlicht durch darkcrawler am 11:06 am 2. Dez. 2002

pah, die benches kommen von nvidia, wers glaubt  :lolaway:


bei jeder neuen gefurz-generation das gleiche:crazy:


-- Veröffentlicht durch Desertdelphin am 18:10 am 29. Nov. 2002

das wird auch noch was irgentwann ;-)

Die Benchs sind von NVidia und ohne Punkte. WEr sagt net das die alle mit 8rfach AA und Anistrophonischem usw gemacht sind??? da isse sicher mehr als 2 mal so schnell. aber das ist da die ati auch!!!


-- Veröffentlicht durch Pampeldibuh am 17:01 am 29. Nov. 2002

das bild von morrorwind sieht sch****e und unreal aus- kaum eine wasserfläche spiegelt so extrem- bekommen die das nicht realistischer hin wasser ist doch nicht aus chrom


-- Veröffentlicht durch Zerberus am 21:31 am 28. Nov. 2002

:wow:goil!!!:respekt:


-- Veröffentlicht durch gammelmon am 20:46 am 28. Nov. 2002

:wow: guckt euch aber die benches an *mundauftischkantknall*
mir ist bei solchen ergebnisse die laut stärke egal.....und 400€ sind auch nicht die welt (nach weinachten :wink:)


-- Veröffentlicht durch DJ am 19:48 am 28. Nov. 2002

jup darum liebaeugle ich auch mit ner radeon 9700 pro die sollen ziemlich leise sein, aber naja die leistungwerte die die neue nvidia hat sind krass gut.

CU


-- Veröffentlicht durch Coolzero2k1 am 19:05 am 28. Nov. 2002

@dj ja das kannste laut sagen! hatte mal ne abit ti 4200 otes! Das ding is vielleicht sch****e laut!!!


-- Veröffentlicht durch DJ am 18:45 am 28. Nov. 2002

hmm sch****e wollte ja keine geforce fx kaufen weil kracht macht wie ne sau , 2 steckplaetze weg frisst und mega heizt aber 400 euro ist sau billig fuer einen ersten preis, hmm villeicht schaft ein hersteller ne silent version oder wir muessen alle neuen graka an ne wakü stecken :)

CU


-- Veröffentlicht durch MrMo am 15:54 am 28. Nov. 2002

Live aus Las Vegas: Demos & Benchmarks



Als erstes Highlight der COMDEX 2002 lud NVidia in eines der Top-Casinos in Las Vegas, das Bellagio, ein. CEO Jen-Hsun Huang zeigte sich stolz, nach etwa 1.500 Mannjahren Arbeit und 400 Millionen Dollar Entwicklungskosten den NV30 endlich als konkretes Produkt vorzeigen zu können.

Eine pikante Hintergrund-Information zur Namensgebung des Geforce FX gab Huang gleich zu Anfang der Präsentation bekannt: Das "FX" entstammt - wer hätte das gedacht - dem Firmennamen "3dfx". Schließlich hatte man nach der Übernahme von 3dfx auch gleich 130 Mitarbeiter des Ex-Erzfeindes in die eigenen Reihen gestellt; und laut Ex-3dfx-Chef Gary Taroli (Vater des "T-Buffers") haben die Ex-3dfx-Mitarbeiter etwa zur Hälfte der Entwicklungsarbeit des Geforce FX geleistet - ein guter Grund also für eine namentliche Würdigung.

Um die Vorzüge der neuen GPU-Generation gleich zu visualisieren, kamen neben beeindruckenden NVidia-eigenen Demos auch die Spiele-Entwickler von Command & Conquer III, Unreal II und Everquest II mit ihren Demonstrationen zum Zuge - allesamt mit so noch nicht dagewesenen, super-detaillierten und absolut flüssigen 3D-Animationen.

Damit aber die ganze Theorie von der "ersten völlig frei programmierbaren GPU" und vom "größten Entwicklungssprung, den NVidia jemals gemacht hat", den konkreten Nutzen des Geforce FX nicht in allzu weite Ferne rückt, wurden mitten in die Demonstration kurz auch mal ein paar handfeste Benchmarks gemischt. Damit steht fest: NVidias bisheriges Flaggschiff Geforce4-Ti-4600 ist Anfang nächsten Jahres höchstens noch ein Einsteigermodell. Andersherum ausgedrückt: Der Geforce FX ist locker doppelt so schnell - und damit wohl auch von ATIs Radeon 9700 Pro nicht zu stoppen.

hier ein paar benschmarkergebnisse:


Referenzboard - GeForceFX mit DDR-II-Speicher



Ein erstes Referenzboard - bestückt mit dem GeForce-FX-Chip und DDR-II-Speicher von Samsung - wurde von Nvidia auf der Comdex in Las Vegas im laufenden Betrieb gezeigt.

Die AGP-8x-Grafikkarte benötigt - wie auch ATIs Radeon-9700- und 9500-Reihe - eine zusätzliche Strominfusion mittels externem Stecker. Die mit 500 MHz sehr hohe Taktfrequenz der GeForce-FX-GPU erreicht NVidia mit auf 0,13 Mikrometer reduzierten Strukturbreiten und indem der NV30 vollständig mit Kupfer statt Aluminium gefertigt wird. Die einzelnen Transistoren besitzen eine 25 Prozent schnellere Schaltzeit und sind in ihrer Stromaufnahme um 36 Prozent reduziert worden.
DDR-II-Speicher mit über 1 Gigahertz Taktfrequenz
Der DDR-II-Speicher von Samsung läuft laut NVidia mit einer effektiven Taktrate von 1 Gigahertz (2 x 500 MHz). Durch die dramatisch bessere Zykluszeit des DDR-Speichers der zweiten Generation sind sogar Taktraten von über 1 Gigahertz möglich. In diesem Zusammenhang sei erwähnt, dass die Speicherschnittstelle der GeForce-FX-GPU lediglich 128 Bit breit angelegt ist. Demzufolge ergibt sich ein theoretisches Bandbreiten-Limit von 15,6 Gigabyte pro Sekunde (128 Bit = 16 Byte * 1 Ghz dividiert durch 1.024³ Bytes).
Standard-Ausgänge auf der Stirnseite
Auf der Stirnseite der Grafikkarte zeigten sich mit einem VGA-, S-Video- und DVI-I-Ausgang die "üblichen Verdächtigen", um weitere Bildschirm-Geräte an der Grafikkarte andocken zu lassen.

hier ein paar bilder zur karte selbst:




Kinobilder - High-Precision-Color und Intellisample



Ein weiterer in der GeForce-FX-Engine implementierter Bestandteil der DirectX-9-API ist die Farbraumtiefe von 128 Bit im Floating-Point-Format. Der Standard wird auch in Kino-Produktionen (Beispiele sind Monster AG oder Shrek) eingesetzt.

High Precision-Color im Floating Point Format ist fester Bestandteil der CineFX-Engine vom GeForce FX. Das bedeutet, dass sämtliche Vertex und Pixel Shader - sprich die CineFX-Engine - mit einer Farbgenauigkeit von 128 Bit arbeiten. Nvidia lässt dem Entwickler jedoch die Wahl sich auf eine 16-Bit oder 32-Bit-Farbgenauigkeit pro Farbkomponente festzulegen. Bei 16 Bit ergeben sich insgesamt 2^64 darstellbare Farben (jeweils 16 Bit für die R-, G-, B- und Alpha-Komponente), bei einem 128 Bit großen Farbraum verdoppelt sich die Farbgenauigkeit dementsprechend. Das obere Bild, aus dem Spiel Morrowind, veranschaulicht den "Echtheitsgrad" von reflekierendem Wasser.


Intellisample - Jetzt mit 8-fachem Anti-Aliasing
Nvidias GeForce-FX-GPU baut seine Kantenglättungs-Methoden für den Open-GL- und Direct-3D-Bereich weiter aus. Unter Direct-3D gibt's jetzt den 6XS-Modus, was dem 1,5-fachen des bekannten 4XS-Modus entspricht. Dabei ist die Kantenglättung ein Misch-Modus zwischen Multi-Sampling und Super-Sampling. Desweiteren hat Nvidia für beide APIs (Open GL und Direct 3D) ihr bekanntes Supersampling-Verfahren auf einen maximal 8-fachen Wert erhöht. Um die Effizienz weiter zu steigern, stellt der GeForce FX neben einem Z-Kompressionsverfahren (=Tiefeninformation) auch eine verlustfreie 4:1 Farb-Kompression für ihr Anti-Aliasing bereit.

hier ein bild vom Spiel Morrorwind:


Überblick - Spezifikationen und mögliche Preise



Der Grafikchip:
Core: GeForce FX (Codename NV30)
Transistoranzahl: 125 Millionen
Gehäuse: Flip-Chip BGA
Herstellungsprozess: Kupfer und 0,13 Mikrometer
Taktrate: 500 MHz
Schnittstelle: AGP-8x
Speicheranbindung: 128 Bit
Maximale Verarbeitungsgeschwindigkeit: 8 Pixel pro Taktzyklus, 16

Texturen pro Durchgang
Geometrie-Berechnung: Vertex Shader 2.0+
Schattier-Berechnungen: Pixel Shader 2.0+

Die 3D-Features:
API: DirectX-9-kompatibel, Open GL 1.3
Light Speed Memory Architecture III: Für die Bandbreiten-Optimierung (vor allem Z-Koordinaten-Berechnung) zuständig.

Intellisample: maximal 8-faches Anti-Aliasing, dazu unter Direct-3D eine Mischform aus Multi- und Supersampling (6XS-Kantenglättung), 128 TAP Anisotropisches Filtering

High-Precision-Floating-Point-Color: 64 oder 128 Bit Farbgenauigkeit

Frame Buffer Post-Processing Effects: Automatische Gamma-Korrektur in Spielen und Anwendungen, um für das aktuelle Pixel den korrekten Helligkeitswert zu berechnen.

Weitere Besonderheiten: Vertex- und Geometrie Displacement Mapping, Shadow Buffer, Procedural Shading

Die 2D-Features:
Digital Vibrance Conrol: Für eine exakte Farbtrennung (R,G,B), Intensität und Schärfe, im Treiber integriert
RAMDACs: Zwei à 400 Megahertz
TwinView, Dual Ausgang für zwei unabhängige Bildschirme
MPEG2-Beschleunigung: Motion Compensation und IDCT (invers diskrete Cosinus Transformation)

Preise für GeForce-FX-Karten:
Über den Endkunden-Preis herrscht noch Ungewissheit. Uns vorliegende Quellen sprechen von amerikanischen Straßenpreisen, die bei etwa 370 US-Dollar liegen. Für den europäischen Markt würde dies einem angepeilten Enkundenpreis von knapp über 400 Euro entsprechen. Damit wäre man zum jetzigen Zeitpunkt sogar etwas günstiger als Grafikkarten auf Basis des ATI Radeon 9700 Pro.

Quelle: chip.de


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de