nVidia übernimmt bzw. kauft ULI

- OCinside.de PC Forum
https://www.ocinside.de

-- News
https://www.forum-inside.de/forums.cgi?forum=8

--- nVidia übernimmt bzw. kauft ULI
https://www.forum-inside.de/topic.cgi?forum=8&topic=1449

Ein Ausdruck des Beitrags mit 67 Antworten ergibt bei 3 Antworten pro Seite ca. 23 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 114.76 Gramm Papier.


-- Veröffentlicht durch DJ am 11:56 am 23. Dez. 2005

jo uli gibts nicht mehr dass hatten wir doch durch und so richtig hat das keinen gestoert. :lol:


-- Veröffentlicht durch Netterzyp2004 am 14:05 am 20. Dez. 2005

Koennen wir jetzt back ---> Topic ?! :noidea:


-- Veröffentlicht durch Henro am 22:34 am 19. Dez. 2005

jo aber hör bitte nicht auf davon zu erzählen ... deine aufrüsst/abrüsst/aufrüsst aktionen sind zum schiesen :lol:


;)


-- Veröffentlicht durch AssassinWarlord am 18:24 am 19. Dez. 2005

hmm...ich glaube, ich stehe in der grupe 2 aber alleine da :waterfall: wo bleibt meine unterstützung :noidea:
:lolaway:

habe ja nur die FX5600 genommen, weil die mir einer "geschenkt" hatt, weil ich nen 1800+ XP rumfliegen hatte, mit dem ich nix anfangen konnte und ich dringend ne neue graka brauchte für mein neues system (womit ich mein jetziges celeron system meine, und mein baldiges noch neueres 1Ghz Donnervogel system) hatt ja erst die voodoo3 drinnen, war aber nicht meine->kumpel wollte die wieder haben-> :megacry: -> GF4mx420 organisiert->und nun neues system :D

ich gucke ständig bei ebay nach wildcats, aber die sind mir alle viel zu teuer da ;(


-- Veröffentlicht durch N omega G am 18:19 am 19. Dez. 2005


Zitat von Bones um 17:50 am Dez. 19, 2005
Ich arbeite im Moment in ner Psychiatrie, ich glaub ich werd mal nen Prof anregen das ATI/NV Fanboy Syndrom offiziel als Geisteskrankheit zu deklarieren. Vielleicht gibts dann bald Hilfe für euch armen Skalven eurer krankhaften Überzeugungen, bevor die ersten entführten Passagierflugzeuge in Grafikkartenproduktionssätten fliegen...:lol:
Nicht böse sein nur Spaß;)




:lol::thumb:

das erste wirklich "sinnvolle" in diesem topic


-- Veröffentlicht durch Bones am 17:50 am 19. Dez. 2005

Ich arbeite im Moment in ner Psychiatrie, ich glaub ich werd mal nen Prof anregen das ATI/NV Fanboy Syndrom offiziel als Geisteskrankheit zu deklarieren. Vielleicht gibts dann bald Hilfe für euch armen Skalven eurer krankhaften Überzeugungen, bevor die ersten entführten Passagierflugzeuge in Grafikkartenproduktionssätten fliegen...:lol:
Nicht böse sein nur Spaß;)


-- Veröffentlicht durch X1ALPHA am 17:21 am 19. Dez. 2005


Zitat von Netterzyp2004 um 15:39 am Dez. 19, 2005
<----Fights 4 NV!



Tausch das "Fight" durch "Die" aus! :P


-- Veröffentlicht durch Netterzyp2004 am 15:39 am 19. Dez. 2005

<----Fights 4 NV!


-- Veröffentlicht durch HomerIII am 15:32 am 19. Dez. 2005


2.gruppe 3dfx, wildcat.


:lol::lol::lol:


-- Veröffentlicht durch N omega G am 0:01 am 19. Dez. 2005

herrlich hier gibt es 2 gruppen, die durch einander streiten.

1.gruppe: ati vs nv (dazu gehöre ich auch)
2.gruppe 3dfx, wildcat.

obwohl das thema "nv übernimmt uli" heißt. :blubb:



















:lol:


-- Veröffentlicht durch X1ALPHA am 23:31 am 18. Dez. 2005


Zitat von skynet um 15:58 am Dez. 17, 2005

Zitat von X1ALPHA um 14:09 am Dez. 17, 2005


@all Nvidia User:
Unten Rechts bei Windows, da steht START ... jaha das ist kein pixeliges Logo sondern da steht wirklich start.



neiheiiinnn.... weil es steht unten links... :kidding:

und ich erkenne es wuderbar... naja, habe ja auch ne NV karte... da kommt kein pixelmüll aussm ausgang wie bei ner ATI öfters... wo ganze zäune verschwinden, die wäde aussehn als wenn man frisch gegengekotzt hätte etc. :lol:



Sorry hatte einen anderen Style! :lol:

Was bei ATi Pixelmüll ist, ist bei Nvidia das normale Bild! :thumb:


-- Veröffentlicht durch BUG am 17:37 am 17. Dez. 2005


Zitat von DJ um 17:02 am Dez. 17, 2005
@bug und genau mit den ut texturen hatte ich gemacht boah war das geil damals ne extra cd nur mit den hammer geilen texturen. :)

..ja sah nich schlecht aus, hatte mir damals extra eine S3 Savage 2K ausgeliehen denn mit den S3 Metall Treibern lief das deutlich besser und runder als auf meiner GeForce. :)

Auf der GeForce hatte ich diesbezüglich ständig Treiber Probleme bei UT mit Hi-Res Texturen und dann lief es irgediwe nur mit spezial Patch unter OpenGL. War also auch wieder nur so eine "Bastel Lösung". ;)

cu
BUG


-- Veröffentlicht durch DJ am 17:02 am 17. Dez. 2005

@bug und genau mit den ut texturen hatte ich gemacht boah war das geil damals ne extra cd nur mit den hammer geilen texturen. :)


-- Veröffentlicht durch Henro am 17:01 am 17. Dez. 2005

so siehts aus ... schick mal ne cad karte durch n 3d benchmark :blubb:


es fährt auch kein mensch mit nem flugzeug auf der straße obwohl es vieeeeeeeeel mehr ps hat als n auto ;)


-- Veröffentlicht durch BUG am 16:17 am 17. Dez. 2005


Zitat von AssassinWarlord um 14:17 am Dez. 17, 2005
btw. ich meine ja die realizm800, die mit 64GB/s speicheranbindung, 24Pipes,...


d ist zwar als test nur ne 6800Ultra und ne x800XT PE, aber da sieht mans doch recht deutlich, wie derbe der unterschied

http://images.anandtech.com/graphs/wildcat%20realizm%20800_03240560339/6692.png

..das is doch egal und der Bench SPECView (ich weis nich ob du dir den mal angeschaut hast) is extra für CAD Karten gedacht! Die Karte ist und bleibt ein reiner CAD beschleuniger. Aber am Unterschied Realizm 200 vs. 800 kannst du dir ja mal ausrechen wie es bei Doom3 aussehen könnte --> "vieleicht" 10 statt 5 FPS. :lol:

SPECView sagt aber absolut nix über die Gaming Performance aus! Der Benchmark besteht nur aus "Strichen" und ein paar Flächen wie halt bei CAD Anwednungen üblich.

cu
BUG

(Geändert von BUG um 16:22 am Dez. 17, 2005)


-- Veröffentlicht durch skynet am 15:58 am 17. Dez. 2005


Zitat von X1ALPHA um 14:09 am Dez. 17, 2005


@all Nvidia User:
Unten Rechts bei Windows, da steht START ... jaha das ist kein pixeliges Logo sondern da steht wirklich start.



neiheiiinnn.... weil es steht unten links... :kidding:

und ich erkenne es wuderbar... naja, habe ja auch ne NV karte... da kommt kein pixelmüll aussm ausgang wie bei ner ATI öfters... wo ganze zäune verschwinden, die wäde aussehn als wenn man frisch gegengekotzt hätte etc. :lol:


-- Veröffentlicht durch AssassinWarlord am 14:17 am 17. Dez. 2005

rechts?:noidea:
da steht bei mir 14:18

btw. ich meine ja die realizm800, die mit 64GB/s speicheranbindung, 24Pipes,...


d ist zwar als test nur ne 6800Ultra und ne x800XT PE, aber da sieht mans doch recht deutlich, wie derbe der unterschied







(Geändert von AssassinWarlord um 14:36 am Dez. 17, 2005)


-- Veröffentlicht durch X1ALPHA am 14:09 am 17. Dez. 2005

@Bug
Danke endlich habe ich diese Seite wieder wo Nvidia die Hosen runter lassen muss.

@all
Ich kaufe mir nächsten Monat eine X1800 XL und werde damit die beste Qualität auf dem Bildschrim geliefert bekommen. Und Nvidia sieht nur die Matschtexturen.

@all Nvidia User:
Unten Rechts bei Windows, da steht START ... jaha das ist kein pixeliges Logo sondern da steht wirklich start.


-- Veröffentlicht durch BUG am 13:46 am 17. Dez. 2005


Zitat von AssassinWarlord um 12:58 am Dez. 17, 2005
Ich bin immer noch der festen überzeugung, das diese Wildcat jede 780GTX oder 1800xt überbügelt, nur der preis ist eben etwa shoch vür eine...1400€ ist nicht wenig, aber für diese leistung was die bieten kann wenn man sich nur mal die tech. daten anschaut :godlike:

..es is wirklich nur ne CAD Karte, die D3D Treiber sind alles andere als "spieletauglich". Ich habe auch irgendwo mal nen Bench vom ShaderMark gesehen, die Karte lag imho irgendwo auf FX5200 niveau. ;)

http://www.anandtech.com/video/showdoc.aspx?i=2307&p=12

cu
BUG


-- Veröffentlicht durch BUG am 13:31 am 17. Dez. 2005


Zitat von DJ um 13:07 am Dez. 17, 2005
Bs , ich habe mit meiner geforce 1 ddr immer unter 32 bit farben gespielt und es lief sehr gut, ich habe teilweise schon mit meiner tnt2 ultra mit 32 bit farben gespielt. Darum hat man bei nividia ja auch 32 bit genommen damit es besser aussieht weisst du da ist es mir schnurz dass in 16 bit die 3dfx besser aussah, dabei hatten die 3dfx immer das textur groessen problem was bei nvidia nicht bestand

..da warst du einer der wenigen, ich habe selbst auf meinet Gefroce 2 Pro die meiste Zeit in 16 Bit gezockt da mit 32Bit einfach viel zu viel Leistung gekostet hat, 32Bit habe ich mir nur bei älteren Titeln geleistet was aber nich wirklich besser ausgesehen hat als auf meiner damaligenn V3 3000. Das Textur Problem war damals auch keins, da kein Spiel wirklich hochauflösenden Texturen verwendet hat (vom UT S3 Textur-Paket mal abgesehen). Mag sein, dass das u.a. die Schuld von 3DFX gewesen ist aber mit 16 oder 32MB V-RAM war auch damals irgdnwo eine Grenze für hochauflösende Texturen. Mit dem VSA100 hat man aber auch hier aufgeschlossen und hatte darüber hinaus noch FSAA anzubieten. Wenn ich mir DUUM3 und Co so anschaue, vermisse ich die hochauflösenden Texturen heute immernoch. :(


echt ihr heult ner firma nach die wirklich sch****e war auch bevor nvidia ne linke tour durchzog , nach der voodoo 1 kamm nix mehr die voodoo 2 war ein speed update mehr nicht (obwohl die karte der absolute hammer war hatte selber eine) , und danach alles war absoluter schrott die voodoo 5500'er war gut aber das war viel zu spaet , sorry 3dfx ist selber an der situation schuld. Die hatten nur gute add on board's stand alone loesungen von 3dfx waren alle schrott.
..also Schrott ist imho was anderes, 3DFX bot bis zum Schluß ein ausgeglichenes Feature Set, dinge wie T&L und 32 Bit Rendering hat man anfangs einfach bei Seite geschoben da es keinen wirklichen Markt dafür gab (abgesehen vom Marketing und wie man sieht hat das bei dir voll gegriffen!). ;)

Schrott war imho damals nur die ATI Rage Serie und SIS (6326) würde ich auch als solches bezeichnen, die ein oder andere unbekannte Firam mag es vieleicht auch noch gegeben haben.

cu
BUG

(Geändert von BUG um 13:33 am Dez. 17, 2005)


-- Veröffentlicht durch DJ am 13:07 am 17. Dez. 2005

@Bug  quote "
..damals was 32Bit Rendering nicht praxistauglich da meist zu langsam! Fasst jeder der eine TNT oder TNT2 hatte, hat auf 16 Bit gespielt. Das hat sich so richtig erst ab der Geforce3 geändert denn diese war für durchgängig 32Bit schnellgenug. Die 3DFX Karten haben desweiteren ein deutlich besserer 16 Bit Bild (weniger Dithering) geliefert als nVidia unter 16 Bit da die 3DFX Karten interen alles mit 22Bit Genauigkeit gerechnet haben. "

Bs , ich habe mit meiner geforce 1 ddr immer unter 32 bit farben gespielt und es lief sehr gut, ich habe teilweise schon mit meiner tnt2 ultra mit 32 bit farben gespielt. Darum hat man bei nividia ja auch 32 bit genommen damit es besser aussieht weisst du da ist es mir schnurz dass in 16 bit die 3dfx besser aussah, dabei hatten die 3dfx immer das textur groessen problem was bei nvidia nicht bestand , echt ihr heult ner firma nach die wirklich sch****e war auch bevor nvidia ne linke tour durchzog , nach der voodoo 1 kamm nix mehr die voodoo 2 war ein speed update mehr nicht (obwohl die karte der absolute hammer war hatte selber eine) , und danach alles war absoluter schrott die voodoo 5500'er war gut aber das war viel zu spaet , sorry 3dfx ist selber an der situation schuld. Die hatten nur gute add on board's stand alone loesungen von 3dfx waren alle schrott.



-- Veröffentlicht durch Falcon am 12:59 am 17. Dez. 2005


Zitat von nummer47 um 12:57 am Dez. 17, 2005

Zitat von Henro um 12:53 am Dez. 17, 2005
naja sei es wie es ist ... sich im high end segment um n paar % zu streiten is eh fürn arsch ...

viel wichtiger ist mir das ich gestern n coolen abend mit meinen freunden verbracht hab ;)




wenigstens einer hat ncoh bezug zur realität !

mir gehts ähnlich..



mir ist beides wichtig ?


:lolaway:


-- Veröffentlicht durch AssassinWarlord am 12:58 am 17. Dez. 2005

weis einer, wie schnell die speicheranbindung einer x1800xt oder der 7800gtx ist? liegt die den auch schon bei 64GB/s wie bei der realizm wildcat 800? wen nein, dan hatt sich das thema schon erledigt welche graka den nun schneller ist. die Wildcat hatt nicht nur da was gutes, auch in anderen punkten ist diese graka einfach eine overkill graka, udn wer jetzt schreibt das ist en cat graka, mit deer man nix anfangen kann, hatt sich damit noch nicht beschäftigt, den die karte ist im D3D genauso schnell wie im Open GL, hatt auch DX9+ und Pixelshader3, halt all das was es momentan so gibt an high end zeugs.

Ich bin immer noch der festen überzeugung, das diese Wildcat jede 780GTX oder 1800xt überbügelt, nur der preis ist eben etwa shoch vür eine...1400€ ist nicht wenig, aber für diese leistung was die bieten kann wenn man sich nur mal die tech. daten anschaut :godlike:

(Geändert von AssassinWarlord um 13:00 am Dez. 17, 2005)


-- Veröffentlicht durch nummer47 am 12:57 am 17. Dez. 2005


Zitat von Henro um 12:53 am Dez. 17, 2005
naja sei es wie es ist ... sich im high end segment um n paar % zu streiten is eh fürn arsch ...

viel wichtiger ist mir das ich gestern n coolen abend mit meinen freunden verbracht hab ;)




wenigstens einer hat ncoh bezug zur realität !

mir gehts ähnlich..


-- Veröffentlicht durch Henro am 12:53 am 17. Dez. 2005

naja sei es wie es ist ... sich im high end segment um n paar % zu streiten is eh fürn arsch ...

viel wichtiger ist mir das ich gestern n coolen abend mit meinen freunden verbracht hab ;)


-- Veröffentlicht durch BUG am 10:30 am 17. Dez. 2005


Zitat von N omega G um 1:37 am Dez. 17, 2005
was sagt uns das?



:ocinside: :thumb: :godlike: :ocinside:

cu
BUG


-- Veröffentlicht durch N omega G am 1:37 am 17. Dez. 2005


Zitat von kammerjaeger um 1:14 am Dez. 17, 2005

Zitat von skynet um 0:56 am Dez. 17, 2005
jaja, man beachte bitte mal die minimum frames der GTX und die der x1800xt... was sagt und das? GTX = flüssig, ati = diashow! :lol:



:ohno:
Gerade die MinFPS gehen bei ATI mit größer werdender Auflösung kaum zurück, während Nvidia extrem einbricht!
Selbst die "alte" X850XT PE läßt bei den minimalen Frameraten eine 7800GT ab 1280x1024 alt aussehen, 7800GTX und X1800XL liegen auf einem Niveau bei 1280x1024 und in 1600x1200 hat die ATI klar die Nase vorn...



was sagt uns das? trolle und fanboys ändern sich nie!


-- Veröffentlicht durch kammerjaeger am 1:14 am 17. Dez. 2005


Zitat von skynet um 0:56 am Dez. 17, 2005
jaja, man beachte bitte mal die minimum frames der GTX und die der x1800xt... was sagt und das? GTX = flüssig, ati = diashow! :lol:



:ohno:
Gerade die MinFPS gehen bei ATI mit größer werdender Auflösung kaum zurück, während Nvidia extrem einbricht!
Selbst die "alte" X850XT PE läßt bei den minimalen Frameraten eine 7800GT ab 1280x1024 alt aussehen, 7800GTX und X1800XL liegen auf einem Niveau bei 1280x1024 und in 1600x1200 hat die ATI klar die Nase vorn...


-- Veröffentlicht durch BDKMPSS am 1:08 am 17. Dez. 2005

LEUTE ES GEHT UM "nVidia übernimmt bzw. kauft ULI" nicht um "GTX512 besser/schlechter als x1800xt"

macht doch einfach ein neues topic auf: "welche grafikkarte schneidet derzeit am besten in sinnlosen Auflösungen und Grafik-Einstellungen ab"
oder "welche graka setzt mein geld am besten in 97,8% wärme, 2,1% nutzlose und 0,1% genutzte leistung um"

BACK TO TOPIC


-- Veröffentlicht durch kammerjaeger am 1:07 am 17. Dez. 2005


Zitat von skynet um 17:13 am Dez. 16, 2005
rechne mal lieber in %%%... weil unter 1600 oder 1280(wenn denn da nicht schon die CPU limitiert) sinds mehr als nen dutzend frames....



Unsinn! Dort wird der Unterschied sogar prozentual geringer!
Wer es nicht glaubt, für den hab ich mal den von Dir zitierten Test verlinkt: klick
Du hast wohl genau deshalb diese Auflösung gewählt und den Test nicht verlinkt, weil man Dir dann schwerer widersprechen kann... :blubb:

Btw: Kaum ein Gamer nutzt inzwischen noch große Röhrenmonitore, auf denen 2048x1536 möglich wären, da sie nunmal nicht LAN-tauglich sind! Abgesehen davon sind sowohl auf der X1800XT als auch auf der 7800GTX 512MB viele Spiele bei dieser Auflösung mit AA/AF unspielbar langsam! Viel wichtiger sind daher in meinen Augen für weit über 90% aller Gamer Benches mit 1280x1024. Und da nehmen sich die Kontrahenten nicht viel... ;)


-- Veröffentlicht durch skynet am 0:56 am 17. Dez. 2005

jaja, man beachte bitte mal die minimum frames der GTX und die der x1800xt... was sagt und das? GTX = flüssig, ati = diashow! :lol:

ati ist und bleibt die nummer zwei, da ändern sich auch bis mitte 2006 nix mehr drann, im pbrigen kommt anfang des jahres die 7800 ultra... in 0.09µ :thumb:

was glaubst du was die mit der XTPE macht? :lol:

rischtisch... sie wird vernichtet! :godlike:


-- Veröffentlicht durch N omega G am 0:41 am 17. Dez. 2005

skynet du zeigst uns vom werk aus übertaktete gtx.



außerdem hat doch ati ein bios veröffentlich mit dem alle x1800xt mit 700 core laufen sollen, speichertakt wurde auch angehoben, sollen also praktisch die xt pe takt schaffen. :noidea:  irgenwo gelesen :blubb:

der direkte konkurrent zur gtx 512 ist der r580 und gegen den sieht die gtx kein land. soll ende januar/anfang februar kommen :godlike:

(Geändert von N omega G um 0:41 am Dez. 17, 2005)


-- Veröffentlicht durch BDKMPSS am 19:34 am 16. Dez. 2005

du sagst es:

who cares


BACK TO TOPIC


-- Veröffentlicht durch skynet am 19:16 am 16. Dez. 2005

mit HQ verliert ne GTX unter 1280 2-3 frames... unter 1600 nur noch 1-2....

also who cares?




(Geändert von skynet um 19:17 am Dez. 16, 2005)


-- Veröffentlicht durch BUG am 17:27 am 16. Dez. 2005


Zitat von skynet um 17:13 am Dez. 16, 2005
rechne mal lieber in %%%... weil unter 1600 oder 1280(wenn denn da nicht schon die CPU limitiert) sinds mehr als nen dutzend frames....

..dafür flimmerts bei nVidia bei Q^^ und mit HQ fällt sie meist hinter die X1800XT. ..aber wayne, kauft man halt zwei von den 700$ 7800GTX 512MB Biestern die man fast nirgends mehr bekommt, dann is man auch mit HQ schnller. ;)

*Benzin ins Feuer gieß*

cu
BUG


-- Veröffentlicht durch skynet am 17:13 am 16. Dez. 2005

rechne mal lieber in %%%... weil unter 1600 oder 1280(wenn denn da nicht schon die CPU limitiert) sinds mehr als nen dutzend frames....


-- Veröffentlicht durch Rulinator am 17:10 am 16. Dez. 2005

omg wie geil 3 frames mehr!!! :ohno:


-- Veröffentlicht durch skynet am 16:58 am 16. Dez. 2005


Zitat von Henro um 16:16 am Dez. 16, 2005

also ich sehe da im oberen bereich überall 24 ... das lässt  mich vermuten das beide gleich schnell sind.

oder hab ich die vernichtung übersehen ?

















-- Veröffentlicht durch Henro am 16:51 am 16. Dez. 2005

also ich mochte 3dfx nicht ... weil alle eine hatten nur ich nicht.


-- Veröffentlicht durch BUG am 16:28 am 16. Dez. 2005


Zitat von nummer47 um 16:08 am Dez. 16, 2005

ich versteh nciht wie man da mitleid haben kann...

Is einfach absolutes missmanagement von 3dfx. die haben einfahc nen trend verschlafen! die V5 5500 war sowieso kaum zu bekommen und hat geheizt wie sau.... der geforce 2 gts war einfach der bessere chip. punkt.

..ganz unschuldig war nVidia wirklich nich am Untergang von 3DFX.

http://www.hardware-durchblick.de/html/special/aktenvidia05.htm

..eigentlich ziemlich "link" das ganze, aber leider funktioniert Marktwirtschaft und Kapitalismus so und nVidia hat es stratigisch perfekt bis zum Schluß durchgezogen. :(

@DJ
..damals was 32Bit Rendering nicht praxistauglich da meist zu langsam! Fasst jeder der eine TNT oder TNT2 hatte, hat auf 16 Bit gespielt. Das hat sich so richtig erst ab der Geforce3 geändert denn diese war für durchgängig 32Bit schnellgenug. Die 3DFX Karten haben desweiteren ein deutlich besserer 16 Bit Bild (weniger Dithering) geliefert als nVidia unter 16 Bit da die 3DFX Karten interen alles mit 22Bit Genauigkeit gerechnet haben.

cu
BUG


-- Veröffentlicht durch Henro am 16:16 am 16. Dez. 2005


Zitat von skynet um 15:36 am Dez. 16, 2005

Zitat von N omega G um 21:25 am Dez. 14, 2005

von vernichtet kann keine rede sein. gegen die 512er hat sie keine chance, ist ja verständlich. aber die normale gtx versägt die x1800xt im cf meistens.
guck dir fear an, da vernichtet sie sogar die 512er im sli. ( und bei dem bench wo ich gesehen hab, hatte die ati alte treiber und nv hatte q und net hq!)

trotzdem ist sli immo die angenehmere lösung, cf steckt ja noch in den kinderschuhen :thumb:

*ups* jetzt habe ich meinen eigenen post ignoriert, konnte aber nicht anders :lol:



F.E.A.R.


soviel zum thema sone popelige X1800XT krüppel-krücke ohne echtes HDR und ohne vollwertiges SM3.0 macht ne 512er platt... und dann noch im SLI... :lolaway:




also ich sehe da im oberen bereich überall 24 ... das lässt  mich vermuten das beide gleich schnell sind.

oder hab ich die vernichtung übersehen ?


-- Veröffentlicht durch nummer47 am 16:08 am 16. Dez. 2005


Zitat von AssassinWarlord um 13:59 am Dez. 16, 2005
ey was? 3dfx vermisst keiner :blubb::blubb::blubb: alles klar...schau mal in den diversen riesigen foren von 3dfx nach, wieviel 10000e user da rumschwirren...und von wegen die wollten 16bit das 16bit länger standart bliebe, die konnten nur nicht anders, für die war der 16bit modus noch völlig ausreichend, da es damals keinen unterschied machte, ob 16bit + Glide oder 32bit, man hatt keinen unterschied gesehen. nVidia waren die, die da gedrängelt haben mit ihrer 32bit TNT gurke. ATI war da eher nicht so der bringer mit ihrer Rage...Aber als 3dfx es gesehen hatt, das sich die menscheit durch zahlen beeinflussen läst, haben auch die eingegriffen und schnell mal ne GPU mit 32bit gebastelt. Das hat dan mit ihre pläne durcheinander gebracht, auch weil nVidia mit ihrer GF2 dan mächtig ins zeug legte. darum muste 3dfx auch erstmal nen Rampage ableger rausbringen, den VSA100, weshalb dan auch die rampage entwicklung etwas aufgehalten worde. die V5-5500 ist ja bekanntlich im glide modus schneller als die GF2 GTS, und schaut dazu noch besser aus in sachen grafik. Als Beispiel nenne ich mal UT.
Für den tod von 3dfx ist eigentlich nur nVidia zuständig, wiel nVidia es für unheimlich witzig fand, mal eben 3dfx zu verklagen, weil die angeblich ne technologie geklaut haben, nur weil nvidia die technologie gerade selber erfunden hatt und 3dfx das auch :blubb:. natürlich stimmte das nicht, und die klage gegen 3dfx war verloren, also 3dfx war unschuldig. nur durften sie währen der klage nichts mehr produzieren und forschen. das war ihr untergang




ich versteh nciht wie man da mitleid haben kann...

Is einfach absolutes missmanagement von 3dfx. die haben einfahc nen trend verschlafen! die V5 5500 war sowieso kaum zu bekommen und hat geheizt wie sau.... der geforce 2 gts war einfach der bessere chip. punkt.


-- Veröffentlicht durch DJ am 15:59 am 16. Dez. 2005

@assassin klar :lol: , aktuell reichen nicht mal 32 bit farben aber du hast ja voll die peilung. :lol: Und es war nicht nur nvidia die immer sich auf 32 bit farben behaupteten auch viele user und auch john carmack.

@bones ja frueher hatte ich uli , nen image schaden bekommt man nicht gerettet durch nen chipsatz der ausnahmweise keine probleme macht. Ich gebe dir recht dass der aktuelle top ist/war das aendert aber nichts mehr daran dass der karren vorher im dreck war nvidia hatte 3dfx auch aufgekauft als es denen wieder besser ging so laeuft das halt die wo nicht ganz kaputt gehen kann man dann billig aufkaufen.

@x1alpha dein gutes recht. ;)


-- Veröffentlicht durch Steffen545 am 15:52 am 16. Dez. 2005

:lolaway:


-- Veröffentlicht durch skynet am 15:36 am 16. Dez. 2005


Zitat von N omega G um 21:25 am Dez. 14, 2005

von vernichtet kann keine rede sein. gegen die 512er hat sie keine chance, ist ja verständlich. aber die normale gtx versägt die x1800xt im cf meistens.
guck dir fear an, da vernichtet sie sogar die 512er im sli. ( und bei dem bench wo ich gesehen hab, hatte die ati alte treiber und nv hatte q und net hq!)

trotzdem ist sli immo die angenehmere lösung, cf steckt ja noch in den kinderschuhen :thumb:

*ups* jetzt habe ich meinen eigenen post ignoriert, konnte aber nicht anders :lol:



F.E.A.R.


soviel zum thema sone popelige X1800XT krüppel-krücke ohne echtes HDR und ohne vollwertiges SM3.0 macht ne 512er platt... und dann noch im SLI... :lolaway:


-- Veröffentlicht durch X1ALPHA am 14:47 am 16. Dez. 2005

Und seit dem Tag an hasse ich Nvidia! :thumb:


-- Veröffentlicht durch Bones am 14:46 am 16. Dez. 2005


Zitat von DJ um 11:58 am Dez. 16, 2005
1)
2) Uli , sorry keiner zieht sich sowas freiwillig rein so wie die sich den ruf ruiniert hatten wundert mich das nvidia ueberhaupt noch dafuer was zahlen musste. Kann sein dass uli aktuell wieder besser wurde aber das hat viel zu lange gedauert.





Na klar sehr qualifitziert, hast du Witzbold mal einen neuen Chipset von denen unter den Fingern gehabt ? Ich habe im letzten halben Jahr 23 GAMER + OC PCs an Kunden ausgeliefert die mit ULIs Chipsätzen ausgerüstet waren und alle waren sie einfach nur Super. Kein Board hat gezickt oder früh zu gemacht. Und der Preis hat gestimmt.


-- Veröffentlicht durch AssassinWarlord am 13:59 am 16. Dez. 2005

ey was? 3dfx vermisst keiner :blubb::blubb::blubb: alles klar...schau mal in den diversen riesigen foren von 3dfx nach, wieviel 10000e user da rumschwirren...und von wegen die wollten 16bit das 16bit länger standart bliebe, die konnten nur nicht anders, für die war der 16bit modus noch völlig ausreichend, da es damals keinen unterschied machte, ob 16bit + Glide oder 32bit, man hatt keinen unterschied gesehen. nVidia waren die, die da gedrängelt haben mit ihrer 32bit TNT gurke. ATI war da eher nicht so der bringer mit ihrer Rage...Aber als 3dfx es gesehen hatt, das sich die menscheit durch zahlen beeinflussen läst, haben auch die eingegriffen und schnell mal ne GPU mit 32bit gebastelt. Das hat dan mit ihre pläne durcheinander gebracht, auch weil nVidia mit ihrer GF2 dan mächtig ins zeug legte. darum muste 3dfx auch erstmal nen Rampage ableger rausbringen, den VSA100, weshalb dan auch die rampage entwicklung etwas aufgehalten worde. die V5-5500 ist ja bekanntlich im glide modus schneller als die GF2 GTS, und schaut dazu noch besser aus in sachen grafik. Als Beispiel nenne ich mal UT.
Für den tod von 3dfx ist eigentlich nur nVidia zuständig, wiel nVidia es für unheimlich witzig fand, mal eben 3dfx zu verklagen, weil die angeblich ne technologie geklaut haben, nur weil nvidia die technologie gerade selber erfunden hatt und 3dfx das auch :blubb:. natürlich stimmte das nicht, und die klage gegen 3dfx war verloren, also 3dfx war unschuldig. nur durften sie währen der klage nichts mehr produzieren und forschen. das war ihr untergang


-- Veröffentlicht durch X1ALPHA am 13:27 am 16. Dez. 2005


Zitat von DJ um 11:58 am Dez. 16, 2005

3) ATI vs Nvidia geflame , meine meinung , aktuell ist nvidia in allen bereichen da vor dem konkurrenten, machen weniger laerm die nvidia teile , sind billiger und besser verarbeitet, und noch immer besserer treiber, ueber speed und grafikqualitaet in ein einzelnen spielen oder benches laesst sich streiten (aber die unterschiede sind ziemlich gering so dass die anderen sachen wichtiger sind) , aber bei nvidia ist die 2 karten loesung einfach aktuell besser umgesetzt.



Bla bla bla ...


-- Veröffentlicht durch DJ am 11:58 am 16. Dez. 2005

1) 3dfx vermisst keiner , die wollten 16 bit farben zu lange als standard behalten und brachten nur noch schrott raus , ein gute produkt alleine macht noch keine gute firma sie waren pioniere aber danach kam nix mehr.

2) Uli , sorry keiner zieht sich sowas freiwillig rein so wie die sich den ruf ruiniert hatten wundert mich das nvidia ueberhaupt noch dafuer was zahlen musste. Kann sein dass uli aktuell wieder besser wurde aber das hat viel zu lange gedauert.

3) ATI vs Nvidia geflame , meine meinung , aktuell ist nvidia in allen bereichen da vor dem konkurrenten, machen weniger laerm die nvidia teile , sind billiger und besser verarbeitet, und noch immer besserer treiber, ueber speed und grafikqualitaet in ein einzelnen spielen oder benches laesst sich streiten (aber die unterschiede sind ziemlich gering so dass die anderen sachen wichtiger sind) , aber bei nvidia ist die 2 karten loesung einfach aktuell besser umgesetzt.

4) wann kommt endlich die Kategorie flame im forum dann koenen die leute das sich tot flamen und die anderne werden verschont davon. :lol: :ocinside:


-- Veröffentlicht durch N omega G am 21:25 am 14. Dez. 2005


Zitat von skynet um 19:30 am Dez. 14, 2005

Zitat von Rulinator um 17:00 am Dez. 14, 2005
bei chipsätzen ist nvidia vorne, bei grafikprozessoren ati! :biglol:



wo das denn? ich kann mich glaube ich dunkel drann erinnern, das NV in führung liegt.... und mit SLI wird die ATI riege sogar im wahrsten sinne des wortes vernichtet! :devil:



von vernichtet kann keine rede sein. gegen die 512er hat sie keine chance, ist ja verständlich. aber die normale gtx versägt die x1800xt im cf meistens.
guck dir fear an, da vernichtet sie sogar die 512er im sli. ( und bei dem bench wo ich gesehen hab, hatte die ati alte treiber und nv hatte q und net hq!)

trotzdem ist sli immo die angenehmere lösung, cf steckt ja noch in den kinderschuhen :thumb:

*ups* jetzt habe ich meinen eigenen post ignoriert, konnte aber nicht anders :lol:


-- Veröffentlicht durch Scare4 am 20:06 am 14. Dez. 2005

ohhh nein,bitte nicht wieder das NV vs. ATI geflame:-/

Aber irgendwie hat skynet wohl ne Suchengine entwickelt mit dem Wort NVIDIA...und sobald die Machine was ausspuckt das einer den Satz NVIDIA vs. ATI bringt, kommt er und postet^^


-- Veröffentlicht durch naKruul am 19:55 am 14. Dez. 2005

:tired:

and ausserdem WAYNE?!


-- Veröffentlicht durch skynet am 19:30 am 14. Dez. 2005


Zitat von Rulinator um 17:00 am Dez. 14, 2005
bei chipsätzen ist nvidia vorne, bei grafikprozessoren ati! :biglol:



wo das denn? ich kann mich glaube ich dunkel drann erinnern, das NV in führung liegt.... und mit SLI wird die ATI riege sogar im wahrsten sinne des wortes vernichtet! :devil:


-- Veröffentlicht durch Nitrex am 17:25 am 14. Dez. 2005

pssst.. Assassin..

den Post vom Ruli net beachten ;)

(Geändert von Nitrex um 17:25 am Dez. 14, 2005)


-- Veröffentlicht durch AssassinWarlord am 17:23 am 14. Dez. 2005

keine der beiden liegt vorne, es ist 3dlabs, nur kann sich diese karten keiner leisten ;( darum von der konkurenz ausgeschlossen...

(Geändert von AssassinWarlord um 17:24 am Dez. 14, 2005)


-- Veröffentlicht durch Steffen545 am 17:12 am 14. Dez. 2005

@Rulli:  :crazy: :fu:

(Geändert von Steffen545 um 17:13 am Dez. 14, 2005)


-- Veröffentlicht durch N omega G am 17:10 am 14. Dez. 2005


Zitat von Rulinator um 17:00 am Dez. 14, 2005
bei chipsätzen ist nvidia vorne, bei grafikprozessoren ati! :biglol:



sowas sollteste nicht sagen, das gibt wieder geflame :blubb:

@all bitte diesen post von ruli nicht beachten :lol:


-- Veröffentlicht durch Rulinator am 17:00 am 14. Dez. 2005

bei chipsätzen ist nvidia vorne, bei grafikprozessoren ati! :biglol:


-- Veröffentlicht durch BUG am 16:23 am 14. Dez. 2005

..ich habe im engeren Freundeskreis z.B. drei Asrock S939 Dual SATA2 mit ULI Chipsatz verbaut. :)

@Erselbst
..die SB600 soll demnächst kommen und angeblich recht vernünftig ausfallen, steckt ne menge "nohau" von SiliconImage mit drinn bzgl des IDE/SATA Teils, bleibt noch abzuwarten ob sich die USB Performace auch verbessert hat. :)

..also stören tut es mich schon, gerade die neuen ULI Chipsätze sind sehr vielversprechend. Hoffentlich werden die jetzt nicht eingestampft!

http://www.ocworkbench.com/2005/uli/m1697launch/g1.htm

Das ABit UL8 finde ich z.B. sehr geil. :)



cu
BUG


-- Veröffentlicht durch AssassinWarlord am 16:16 am 14. Dez. 2005

hmm, die haben mal was gutes gebaut, also wurde es zur konkuenz von nVidia und schon musten die was dagegen unternehmen, also den laden aufkaufen :blubb: wie damals mit 3dfx :waterfall:

geld regiert die welt :(


-- Veröffentlicht durch DJ am 15:48 am 14. Dez. 2005

Also mich stoerst null das merkt sowieso keiner wer hatte den schon was von uli.


-- Veröffentlicht durch QnkeI am 14:37 am 14. Dez. 2005


Zitat von ErSelbst um 11:16 am Dez. 14, 2005
Vielleicht entwirft ja ATi selbst mal ne brauchbare Southbridge?! :ultragoil:



Der war geil :ultragoil:


-- Veröffentlicht durch kammerjaeger am 11:39 am 14. Dez. 2005


Zitat von BUG um 11:10 am Dez. 14, 2005

..naja mal sehen was das wird, entweder werden die ULI Chipsätze heiß und buggy, oder die nVidia Chipsätze kühl und "ausgewogen". ;)



:lol: :thumb:

Ich finde es schade, daß gerade jetzt, wo sich ein Hersteller im Aufwind befindet und sich vom langsamen, instabilen, inkompatiblen Image der alten ALi-Chipsätze verabschiedet hat, nun ein mehr als ernstzunehmender Konkurrent vom Markt verschwindet. Da inzwischen fast alle Chipsätze auf etwa gleich hohem Niveau arbeiten (ULi, Nvidia, ATI, SiS, VIA, Intel) und nicht mehr solche Performance-Unterschiede existieren, kann die Vielfalt nur gut tun. Das gleiche Scenario würde ich mir auch im GraKa-Bereich wünschen, statt im Gamer-Bereich nur mit ATI und Nvidia leben zu müssen... ;)


-- Veröffentlicht durch Bones am 11:35 am 14. Dez. 2005

sch****e... Kaum macht ULI wieder super chipsätze, schon kommt der Verderber Nvidia um es zu nichte zu machen....


-- Veröffentlicht durch ErSelbst am 11:16 am 14. Dez. 2005

Vielleicht entwirft ja ATi selbst mal ne brauchbare Southbridge?! :ultragoil:


-- Veröffentlicht durch BUG am 11:10 am 14. Dez. 2005

http://www.theinquirer.net/?article=28331

http://www.nvidia.com/object/IO_28250.html

..naja mal sehen was das wird, entweder werden die ULI Chipsätze heiß und buggy, oder die nVidia Chipsätze kühl und "ausgewogen". ;) Interesannt auch was bei ATI jetzt wird, schließlich koppeln die ihre Northbidge meist mit der ULI Southbridge.

cu
BUG


OCinside.de PC Forum
© 2001 - 2021 www.ocinside.de