Nvidia tritt ATI erneut in Hintern.

- OCinside.de PC Forum
https://www.ocinside.de

-- News
https://www.forum-inside.de/forums.cgi?forum=8

--- Nvidia tritt ATI erneut in Hintern.
https://www.forum-inside.de/topic.cgi?forum=8&topic=1208

Ein Ausdruck des Beitrags mit 84 Antworten ergibt bei 3 Antworten pro Seite ca. 28 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 139.71 Gramm Papier.


-- Veröffentlicht durch Philipp Stottmeister am 18:31 am 18. Feb. 2005

Aber 'das' SLi realisiert sich in meinen Augen durch zwei Voodoo 2 Karten, die in PCI Steckplätzden sitzen. Und zwei CHips auf einer Platine ...
Man siehe nur die Rage FurryMax oder Volari V8 Dou. Beide Dreck. Ich habe noch keine Lösung gesehen, die ordentlich funzt. Und für die 3D1 braucht man ein spezielles Mainboard.


-- Veröffentlicht durch AssassinWarlord am 19:15 am 17. Feb. 2005

3dfx hatts ja so gelöst, das man einfach mehrere GPUs auf ein PCB lötet :) was ja mitlerweile Gigabyte und Asus auch macht :thumb: omit währen diese beiden grakas eigentlich auch noch für AGP geignet, wenn man den diese als AGP bauen würde


-- Veröffentlicht durch Henro am 9:33 am 17. Feb. 2005

is ja alles schön und gut nur mitlerweile über 4 jahre her und damit schnee von gestern !


btw. wäre SLI seit dem separieren der graka auf den AGP-port mehr schlecht als recht zu bewerkstelliegen gewesen ... nämlich erst mit der letzten spec. die 2 ports vorsieht. ;)

Allerdings war dann schon der PCIe zug losgefahren ;)


-- Veröffentlicht durch AssassinWarlord am 7:13 am 17. Feb. 2005

genau :( NV hat 3dfx sozusagen geplättet, und das mit geld :(

nun sind die Patente bei nVidia, und nVidia verkauft die an andere weiter, wie z.B. intel. Intes OnBoard Graka, die Extrem Graphics, diese nutzt z.B. die FXT1 Komprimierung :) was das bild natürlich besser aussehen läst, als z.b. die S3TC Komprimierung :)

und nVidia hatt nun endlich mal begriffen, wie das mit dem SLI geht, wobei 3dfx das schon integriert hatte, seit der Voodoo1 :buck:, also alle 3dfx Chips die je gebaut wurden, sind vom chip her SLI fähig :)


-- Veröffentlicht durch Philipp Stottmeister am 18:17 am 16. Feb. 2005

joah, und viele patente von denen übernommen.:lol:


-- Veröffentlicht durch N omega G am 17:35 am 16. Feb. 2005

also hat nv 3dfx zerstört?:noidea:

:hell:


-- Veröffentlicht durch QnkeI am 12:43 am 16. Feb. 2005


Zitat von Ino um 6:33 am Feb. 16, 2005

Zitat von QnkeI um 1:59 am Feb. 16, 2005
Jo mit dem Sage wärs richtig abgegangen. Da hätte nVidia mit T&L nach Hause gehen können.

Ach ich könnt heuln, das 3DfX pleite gemacht hat.



die haben gar ned pleide gemacht! die wurden blos aufgekauft und das ist was anderes als pleide machen! die hätten genug kohle gehabt um weiter zu machen!



Sie haben pleite gemacht ! nVidia hat nur die Namen und Patente (und Mitarbeiter) aufgekauft. Die Firma war insolvent. Voll in den roten Zahlen.


-- Veröffentlicht durch AssassinWarlord am 7:06 am 16. Feb. 2005

glaube ich nicht...nVidia hatt ja 3dfx damals verklagt, da 3dfx "angeblich" ne Technologie von nVidia geklaut hatt :blubb:. Währen dem Prozess musste aber 3dfx ihre Produktion vorrübergehend Still legen, solange der Prozess anhielt. Als der Prezess zu ende war, und 3dfx natürlich unschuldig ist, hatte 3dfx nicht mehr so viele Finanzen, das richte nicht mehr, um die Produktion zu Finanzieren :( da ja keine karten mehr verkauft werden konnten, da keine meh hergestellt wurden. Darum muste 3dfx Insolvenz anmelden, und nVidia war so "gnädig" und hatte den 3dfx leuten wenigstens noch ein "bissel" geld gegeben, um genauer zu sein 112 Millionen US Dollar. Damit ist 3dfx seit dem 15.12.2000 offiziel nicht mehr da :cry:


-- Veröffentlicht durch Ino am 6:33 am 16. Feb. 2005


Zitat von QnkeI um 1:59 am Feb. 16, 2005
Jo mit dem Sage wärs richtig abgegangen. Da hätte nVidia mit T&L nach Hause gehen können.

Ach ich könnt heuln, das 3DfX pleite gemacht hat.



die haben gar ned pleide gemacht! die wurden blos aufgekauft und das ist was anderes als pleide machen! die hätten genug kohle gehabt um weiter zu machen!


-- Veröffentlicht durch QnkeI am 1:59 am 16. Feb. 2005

Jo mit dem Sage wärs richtig abgegangen. Da hätte nVidia mit T&L nach Hause gehen können.

Ach ich könnt heuln, das 3DfX pleite gemacht hat.


-- Veröffentlicht durch AssassinWarlord am 19:35 am 15. Feb. 2005

ich weis, Voodoo6k klingt auch nicht schlecht, aber man muss es eben auch manchmal voll ausschreiben :biglol:

Jo, und damals wo die rampage rauskommen sollte, war die schon so schnell wie ne GF3, die nVidia auch erstma angekündigt hatte. Ich habe bis jetzt nur von 2 Typen gelesen, die ne Rampage haben, aber nur ne Undertaktete version, und natürlich ohen Sage Unit, da es die damals noch nicht gab, die sollte erst später auf den Rampages kommen :godlike:


-- Veröffentlicht durch QnkeI am 13:43 am 15. Feb. 2005


Zitat von AssassinWarlord um 21:18 am Feb. 14, 2005
es heist Voodoo 5 6000 ;) wen schon 3dfx dan richtig :godlike:



:lol: Du Outsider. Unter Freax und Fans hieß die immer Voodoo 6000 oder einfach nur Voodoo 6.

3DfX war so geilo, man. Eine Woche vor der Veröffentlichung des Rampage machten se pleite. Und der Rampage war ein Überflieger. Der konnte den ganzen sch**** der jetz erst mit Geforce FX und so kommt !!


-- Veröffentlicht durch AssassinWarlord am 7:02 am 15. Feb. 2005

genau, absoluter 3dfx Fan :godlike: 3DFX :godlike:


-- Veröffentlicht durch fremder am 0:00 am 15. Feb. 2005

:lol:
Die Worte eines 3dfx Fanatikers:lol:


-- Veröffentlicht durch AssassinWarlord am 21:18 am 14. Feb. 2005

es heist Voodoo 5 6000 ;) wen schon 3dfx dan richtig :godlike:


-- Veröffentlicht durch Die Bombe am 0:49 am 14. Feb. 2005

:lol:


-- Veröffentlicht durch QnkeI am 23:03 am 11. Feb. 2005

Jaaaaaaaaaaaaa geil. Voodoo 6000 is back :hell:


-- Veröffentlicht durch SFVogt am 16:02 am 11. Feb. 2005

...unparteiisch??? ...die benches kommen von "ati news.de" ....das sagt ja wohl alles....

und die mehr-leistungsaufnahme beruht ja wohl darauf, das nvidia den chip mit mehr transistoren bietet bzw mit viel mehr features (SM3) bestückt ist als die ati bretter...

...und zum gewischt der karte wäre ja auch zu sagen das bei nvidia karten die hersteller auch andere kühler designs auswählen können...


-- Veröffentlicht durch Philipp Stottmeister am 17:42 am 10. Feb. 2005

Also bei 700g fällt keien graka aussem lot. dafür gibts ja den schnippel, damit man die arretieren kann. Aber mal soviel zum Unparteiischkeit der Site :blubb:

suchen sich gleich mal die schwersze karte raus. Warum keine mit Referenzkühler?! :noidea::blubb::blubb:

dumme site :gulp:


-- Veröffentlicht durch CMOS am 9:21 am 8. Feb. 2005

und ich hatte ne 96 pro, 98pro, ne 98xt und mittlerweile 3 x800 pro vivo ... treiber probs gabs seit der 96er, aber mit den x800er kam mir dann das grosse kotzen. Bildflackern, schlechte Treiber und keine der 3 Karten lief "fehlerfrei" mit 16 pipes !

ATI ist für mich erst mal schnee von gestern, denn für den selben preis, den man für so ne shice x800 pro hinlegt bekommt man ein solides stück technik mit namen 6800gt.

tja eingebaut, treiber druff und fertig .. kein Flackern mehr nichts, einfach nur geschmeidig :thumb:  btw ich hab die Leadtek mit 700gr und ? wo ist das prob ?  ... gründe suchen wo´s keine gibt ist sinnlos :lol:

und 10W mehr Leistungsaufnahme ist ja nun mehr als lächerlich und bestimmt kein argument.

so long ... ein einstiger ATI verfechter, der die schnauze gestrichen voll hat von den kanadischen fischertechnikern !


-- Veröffentlicht durch skynet am 1:18 am 29. Jan. 2005


Zitat von N omega G am 20:19 am Jan. 28, 2005
@sky fehlen noch 2 andere bilder!

außerdem testen die unparteiisch. ich bezweifle überhaupt, dass du jemals nen R300 und höher gehabt hast. über ati und nv kurz: der schon paar jährchen alte R300 ist viel fortschrittlicher als die fx5900. (soweit ich das sehen kann)
nv baut seit der ti4xxx reihe nichts was man kaufen sollte. (in meinen augen)





fast 800 gramm wiegt die 6800GT! mehr als mein kupfercpukühler, respekt. beim bewegen des rechners, wird man wahrscheinlich seine 500 euro graka im rechner kullern hören/sehen :thumb:

edit: wenn ich mich nich irre, sind doch die hersteller für den kühler verantwortlich und nicht ati!




ich hatte ne 9800pro du hansi, also höher als r300 :kidding:


-- Veröffentlicht durch kammerjaeger am 23:18 am 28. Jan. 2005


Zitat von N omega G am 20:19 am Jan. 28, 2005

edit: wenn ich mich nich irre, sind doch die hersteller für den kühler verantwortlich und nicht ati!



Wahre Worte. :thumb:

Aber manche wollen eben die Wahrheit nicht sehen, wenn sie ihnen nicht gefällt... :lol:


-- Veröffentlicht durch N omega G am 20:19 am 28. Jan. 2005

@sky fehlen noch 2 andere bilder!

außerdem testen die unparteiisch. ich bezweifle überhaupt, dass du jemals nen R300 und höher gehabt hast. über ati und nv kurz: der schon paar jährchen alte R300 ist viel fortschrittlicher als die fx5900. (soweit ich das sehen kann)
nv baut seit der ti4xxx reihe nichts was man kaufen sollte. (in meinen augen)





fast 800 gramm wiegt die 6800GT! mehr als mein kupfercpukühler, respekt. beim bewegen des rechners, wird man wahrscheinlich seine 500 euro graka im rechner kullern hören/sehen :thumb:

edit: wenn ich mich nich irre, sind doch die hersteller für den kühler verantwortlich und nicht ati!

(Geändert von N omega G um 20:27 am Jan. 28, 2005)


-- Veröffentlicht durch kammerjaeger am 9:03 am 28. Jan. 2005


Zitat von skynet am 4:17 am Jan. 28, 2005


ob nun der lüfter ausfällt oder die ganze karte....

zur garantie muss sie dennoch.

kommt also aufs selbe raus. :kidding:



Nö, die meisten nutzen die Gelegenheit und nehmen einfach einen neuen Kühler (z.B. den VGA Silencer). ;)
So spart man sich das wochenlange Warten und wertet die Karte gleich noch auf...


-- Veröffentlicht durch skynet am 4:17 am 28. Jan. 2005


Zitat von kammerjaeger am 2:34 am Jan. 28, 2005
Einen Lüfter kann man aber schnell mal wechseln, bei der GPU wird das schon deutlich schwieriger... :lol:
Ich hab auch schon Ausfälle mit der 6600GT gehabt, prozentual eindeutig mehr als bei allen bisher verkauften ATI-Karten.

Eine Diskussion zu führen, warum ATI nicht das gelbe vom Ei sein soll, dürfte sinnlos sein. Du findest wahrscheinlich auch noch positive Argumente für den hohen Stromverbrauch und die laute Kühlung einiger FX-Karten (insbesonders FX5800) sowie die extrem schwache Shader-Leistung und die Einbrüche mit 8xAF bei der FX...  :blubb:

NVidia hat zwischen der GF4TI und der 6xxx-Reihe leider keine Grafikkarten fabriziert, sondern "a lot of waste"..... :lol:




ob nun der lüfter ausfällt oder die ganze karte....

zur garantie muss sie dennoch.

kommt also aufs selbe raus. :kidding:



von einer ATI-FAN-SITE:






(Geändert von skynet um 4:24 am Jan. 28, 2005)


-- Veröffentlicht durch AlexW am 2:36 am 28. Jan. 2005

ah nein Mod schnell close das fängt an auszuarten :blubb:


-- Veröffentlicht durch kammerjaeger am 2:34 am 28. Jan. 2005

Einen Lüfter kann man aber schnell mal wechseln, bei der GPU wird das schon deutlich schwieriger... :lol:
Ich hab auch schon Ausfälle mit der 6600GT gehabt, prozentual eindeutig mehr als bei allen bisher verkauften ATI-Karten.

Eine Diskussion zu führen, warum ATI nicht das gelbe vom Ei sein soll, dürfte sinnlos sein. Du findest wahrscheinlich auch noch positive Argumente für den hohen Stromverbrauch und die laute Kühlung einiger FX-Karten (insbesonders FX5800) sowie die extrem schwache Shader-Leistung und die Einbrüche mit 8xAF bei der FX...  :blubb:

NVidia hat zwischen der GF4TI und der 6xxx-Reihe leider keine Grafikkarten fabriziert, sondern "a lot of waste"..... :lol:


-- Veröffentlicht durch skynet am 23:44 am 27. Jan. 2005

dafür das schon zigtausende 6600GT's vertickt wurden sind ist die ausfallquote sehr gering, wenn ich da an die lüfterausfälle der 9800er serie denke...


könnte man ja genauso draus schließen das die digner net getaugt haben(ok, ati karten allgemein sind nicht das gelbe vom ei, aber das steht hier janicht zu debatte).


-- Veröffentlicht durch N omega G am 21:53 am 27. Jan. 2005

naja ich kenn 2 leute, die sich eine 6600gt geholt haben. beim einen lief sie nichtmal standardtakt und bei der anderen ist sie abgeraucht, als er sie um 10 mhz core übertaktet hat.

in beiden fällen waren die temps i.o.

hf mit nv;)

ich hab ne 9800Pro und ich werde die so lange behalten bis etwas gescheites aufn markt kommt! 6600GT und 6800LE sind einfach nur shice, weil sie zu anfällig sind!

wie die allerneuesten revisionen sind, weiß ich leider nicht. sollte aber keine dramatische änderung der todesrate geben.


-- Veröffentlicht durch AlexW am 2:17 am 26. Jan. 2005

ich hab ja exra gesagt mit anderem Kühler meine güte...

und soooo warm werden die 6600gt dann au nicht

zum. nicht die goile MSI:blubb:


-- Veröffentlicht durch Henro am 2:04 am 26. Jan. 2005

nope ... mehr pipes und n 256bit speicherinterface kannste nicht mal eben durch OCen wett machen !

Und spannungserhöhung bei ner 66GT ??? Na dann prost mahlzeit ... die rauchen ja so schon ab wie die fliegen ;)


-- Veröffentlicht durch AlexW am 1:56 am 26. Jan. 2005


Zitat von Henro am 19:52 am Jan. 25, 2005

Zitat von AlexW am 18:31 am Jan. 25, 2005
mit ner LE ? echt :noidea: übel...

dann sollte es mit der 6600gt ja auch locker gehen....

mehr oder wehniger :wink:....




mit der 66GT geht nix mit freischalten !




ja...aber ihre Leistung + OCbarkeit machen das wieder wett :thumb:

schau dir doch mal an wie die MSI 6600GT 128MB Karten mit nem vernünftigen Kühler abgehen und vonnem Vmod habe ich auch schon was gelesen :noidea: wobei man bei der mit nem Tool die Spannungen glaub sogar einstellen können soll

kA,..werd danach nochma gucken


-- Veröffentlicht durch kammerjaeger am 20:41 am 25. Jan. 2005


Zitat von AssassinWarlord am 18:43 am Jan. 25, 2005
@kammerjaeger ...vorsicht...:danger:...
auch einer, der sich nach dem tote von 3dfx nicht weiter mit der technologie beschäftigt hat...



Wieso? Auf welchem Weltmarkt hat es denn noch eine Rolle gespielt?
Nur weil die Technik weiterlebt, muß sie nicht wichtig für den Massenmarkt sein... ;)


-- Veröffentlicht durch Henro am 19:52 am 25. Jan. 2005


Zitat von AlexW am 18:31 am Jan. 25, 2005
mit ner LE ? echt :noidea: übel...

dann sollte es mit der 6600gt ja auch locker gehen....

mehr oder wehniger :wink:....




mit der 66GT geht nix mit freischalten !


-- Veröffentlicht durch AssassinWarlord am 18:43 am 25. Jan. 2005

@kammerjaeger ...vorsicht...:danger:...
auch einer, der sich nach dem tote von 3dfx nicht weiter mit der technologie beschäftigt hat...


-- Veröffentlicht durch AlexW am 18:31 am 25. Jan. 2005

mit ner LE ? echt :noidea: übel...

dann sollte es mit der 6600gt ja auch locker gehen....

mehr oder wehniger :wink:....


-- Veröffentlicht durch Henro am 17:11 am 25. Jan. 2005

na dann renn halt :lol:


Ich würd mir aber auch eher ne 6800LE holen als die X800 ... allein weil man die fast 100%ig mehr oder wehniger freischalten kann ... also 6800 niveau kriegt man damit eigentlich immer hin.


-- Veröffentlicht durch AlexW am 13:42 am 25. Jan. 2005

:blubb: jaaaa... die preise ändern sich alle forz-minuten :blubb: von daher :wusch: ist die graka veraltet wenn man die kauft und 30min für en heimweg braucht :lol:


-- Veröffentlicht durch Henro am 13:27 am 25. Jan. 2005

wobei ja die x800 PEG preilich der 66gt gleichkommt und leistungsmässig besser sein soll ;)


-- Veröffentlicht durch AlexW am 11:40 am 25. Jan. 2005


Zitat von darkcrawler am 3:20 am Jan. 25, 2005

Zitat von AlexW am 23:03 am Jan. 24, 2005
Wie schon tausendfach erwähnt wurde und überall zu lesen ist.

SLI ist für Privatanwender einfach nix ausser sie sind fraggeil was Benches angeht :wink: nicht wahr ?? du gewisser jemand ?

:lol:...

ich wette das einer der nächsten Pixar Filme einer der ersten mit Nvidia Demo als Vorspann kommt so wie wir es aus einigen games bereits kennen :blubb:



na, hier spricht doch nur der glatte neid
hier muss ich (ausnahmsweise ;) ) mal sky recht geben

wenn ich die kohle hab und evtl. noch 2 dicke 20" tfts, dann würden hier längst 2 GT's im SLI werkeln

da ist NV nunmal im moment die bessere wahl (schonmal was von image/innovation gehört) und ati hat rein nix gegenzusetzen, parallelisierung ist nunmal die zukunft

und da @PCI-E wiederum ati nix in vergleichbarer preisklasse zu bieten hat, kommt ne 6600er aufs kommende PCI-E gigabyte ;)

(und ja, ich hab z.Z. ne 9800er drin )

(Geändert von darkcrawler um 3:22 am Jan. 25, 2005)




Neid würde ich das so nicht nennen... zum einen werde ich mir Anfang Februar ein AMD64 Sys (hab bis jetzt ja "nur" den Laptop) mit einer 6600GT gönnen...hätte ich mehr Geld wärs auch ne 6800GT aber selbst wenn ich die Kohle hätte würde ich mir kein SLI zulegen da ich def. keinen Unterschied erkenne zwischen dem Bild einer 6800GT und dem Bild 2er 6800GT im SLI (und jaaaa ich habe es schon sehen dürfen real).

Man abgesehen von der Lautstärke und der Stromfresserei die mit den Monsterkarten entsteht... schau mal selbst sky sein NT reicht nitt aus für sein SLI :lol: er meinte auch er hohlt sich ein zweites

Eigentlich auch fast Sinnlos da drüber zu :discuss: schliesslich kann sich jeder das kaufen was er gerne hätte :blubb: oder etwa nicht ?

Man sollte nur nicht so weit gehen andere zu beleidigen wenn sie eine Frage über ihr Sys gestellt bekommen mit dem Sie im Internet weiträumig "angeben" und dann gleich die Rechner anderer "schlecht" zu machen... das hat nix mehr mit einer Gemeinschaft zu tun.. ich hoffe derjenige sieht das mal etwas ein...

Angeben ist ja ok... aber andere zu beleidigen ist nicht wirklich die feine Art... :wink:

und jaaa ich geben zu... ich als ATI Fan werde mir auch ne 6600GT holen.. zur Zeit sind die wirklich preislich nicht schlecht.... ich hoffe es lohnt sich auch ;)


-- Veröffentlicht durch kammerjaeger am 9:06 am 25. Jan. 2005


Zitat von darkcrawler am 3:20 am Jan. 25, 2005

ati hat rein nix gegenzusetzen, parallelisierung ist nunmal die zukunft



Das glaub ich weniger.

1. werden schon Boards gebaut, bei denen man sogar unterschiedliche Karten reinstecken kann: klick

2. hat sich SLI bei 3dfx nicht wirklich durchgesetzt, sondern ist schnell wieder in der Versenkung verschwunden. Ich glaube auch diesmal, daß es nicht massenmarktfähig ist, da es einfach einem zu kleinen Käuferkreis vorbehalten bleibt. Die Nachteile besonders auf der Kostenseite sowie im aufwändigeren Treiber-Bereich und Mainboard-Layout werden sich genausowenig durchsetzen, wie es auch Dual-Prozessor-Systeme nicht wirklich in den Desktop-PC-Bereich geschafft haben. Heute baut man lieber zwei Kerne in eine CPU, bei Grafikkarten wird es ähnlich sein (siehe hier). Aber SLI wird in meinen Augen nur ein kurzfristiges Marketing-Spiel bleiben. In drei Jahren wird es schnell wieder vom Markt verschwunden sein.... ;)


-- Veröffentlicht durch AssassinWarlord am 7:08 am 25. Jan. 2005

hm, in so nem test, wo die die ASUS Dual 600GT getestet haben, haben die doch so wie ich da mitbekommen habe, nur gedacht, das die beiden anschlüsse für ein SLI zuständig sei, natürlich wieder mit ner weiteren Asus Dual graka. doch was ist, wen man nur einen dieser anschlüss für ein SLI braucht, und den 2. kann man dan zur weiterführung an eine 3. Dual Graka hängen, von der aus wird dan ne 4. angestöpselt und so weiter und so weiter...

kann es so nicht auch sein?:noidea:


-- Veröffentlicht durch darkcrawler am 3:20 am 25. Jan. 2005


Zitat von AlexW am 23:03 am Jan. 24, 2005
Wie schon tausendfach erwähnt wurde und überall zu lesen ist.

SLI ist für Privatanwender einfach nix ausser sie sind fraggeil was Benches angeht :wink: nicht wahr ?? du gewisser jemand ?

:lol:...

ich wette das einer der nächsten Pixar Filme einer der ersten mit Nvidia Demo als Vorspann kommt so wie wir es aus einigen games bereits kennen :blubb:



na, hier spricht doch nur der glatte neid
hier muss ich (ausnahmsweise ;) ) mal sky recht geben

wenn ich die kohle hab und evtl. noch 2 dicke 20" tfts, dann würden hier längst 2 GT's im SLI werkeln

da ist NV nunmal im moment die bessere wahl (schonmal was von image/innovation gehört) und ati hat rein nix gegenzusetzen, parallelisierung ist nunmal die zukunft

und da @PCI-E wiederum ati nix in vergleichbarer preisklasse zu bieten hat, kommt ne 6600er aufs kommende PCI-E gigabyte ;)

(und ja, ich hab z.Z. ne 9800er drin )

(Geändert von darkcrawler um 3:22 am Jan. 25, 2005)


-- Veröffentlicht durch skynet am 0:36 am 25. Jan. 2005


Zitat von Postguru am 19:29 am Jan. 24, 2005
skynet pisst sich ans bein ..wenn ATIs nächste Grafikchip  die 4fache geschwindigkeit hat als eine nv45 GPU (utraversion) hat ..  und er noch an der letzten Pfändung knappern musste weil sein Stromerzeuger  ihm ne nette stomrechnung presendtierte ..:lol::lol:



wiegut das das nicht passieren wird, der R520 ist ja wieder nur nen aufgebohrter R300. :tired:

dementsprechend lame wird das teil. :biglol:


(Geändert von skynet um 3:31 am Jan. 25, 2005)


-- Veröffentlicht durch AlexW am 0:04 am 25. Jan. 2005

Dafür bräuchte man ja ertst das passende Plugin bzw. die Config File für die Treiber :blubb:

wenn sowas da ist dann wirds sicherlich auch für CAD interessant... das spricht aber auch mehr Firmen und Ausbildungsstätten an als Privatzeichner...:blubb:


-- Veröffentlicht durch Henro am 23:52 am 24. Jan. 2005

jo das war ja von vornherein klar das SLI nur was für entusiasten ist ... inkl. der kleinen CAD-nische ;)


-- Veröffentlicht durch AlexW am 23:49 am 24. Jan. 2005

:lol: jo ebend .... naja mal sehen was kommt

imho ist klar:

für Privat bringt SLI nix und DoubleGPU-SLI :blubb: erst recht nischt

ausser man ist skill und fragjäger bzw. ein benchgeiler mit zuviel Geld :blubb:

(Geändert von AlexW um 23:49 am Jan. 24, 2005)


-- Veröffentlicht durch Henro am 23:46 am 24. Jan. 2005

jep für den durchbruch muss es erstmal n blockbuster wie pixar z.B. sein damits auch für andere interessant wird ... wenn DAS erstmal durch ist - immerhin macht pixar nur vollanimierte filme - dann kommen auch alle anderen die auch eigentlich nur special efekts machen denn da is zeit auch geld.

wer sich mal die HDR3 bonusDVD reingezogen hat wird wissen wovon ich spreche :lol:


-- Veröffentlicht durch AlexW am 23:43 am 24. Jan. 2005

das kommt auch noch alles dazu...

und wenn ein einziger Film mit Nvidia-Demo als Vorspann kommt und dort u.a. mit SLI Logo von mir aus geworben wird...

die rennen doch alle wie die blöden los und holen sich en SLI System....DANN klingelts nochmal richtig in den Kassen...

wobei ich mich selber grad verarscht vorkomme weil Nvidia ja auch einfach so ne KinoWerbung kaufen könnte...

aber dann können sie nicht damit werben das das IHR Film ist :blubb:

hmmmmm


-- Veröffentlicht durch Henro am 23:41 am 24. Jan. 2005

ach jetzt hat das ganze auch n zusammenhang :lol:


OK hört sich in sich erstmal schlüssig an ... aber ich glaube nicht das es am finanziellen hapert ...

was ich mir noch vorstellen könnte is das se SLI als Image-Vorbote im privatmarkt verwenden, zusätzlich natürlich für ihre Graka kohle kassieren und nicht zu vergessen auch bei allen anderen chipsatzherstellern lizensgebühren kassieren ;)


-- Veröffentlicht durch AlexW am 23:33 am 24. Jan. 2005

Nvidia sucht nach Märkten wo sie eine art monopol in kurzer zeit erreichen können

schonmal en film sonsored oder rendered by "Grafikkartinhersteller XY" gesehen ? nein

ausserdem gibt es schon seit einiger zeit gerüchte das Nvidia versucht sich bei Filmschmieden wie z.B. Disney und Pixar einzudeichseln und sie zu überzeugen das ihr Systeme mit SLI usw blabla die Filme ncoh ansehnlicher und vor allen Dingen vieeeeeel schneller rendern lassen würden

bisher übernehmen diese Arbeit "normale" Prozessoren

eine GPU bzw ein GPU-verbund könnte das vieeeel schneller :wink:

allerdings muss man auch eine Softwareumsetzung dafür haben was wiederum eine schulung der programmierer vorraussetzt und genau deswegen gibbet das NOCH nicht :blubb:

ergo muss Nvidia kohle inne kasse zu bekommen um das ganze irgendwie überzeugend zu gestalten und denen anzudrehen

EIN EINZIGER Film reicht doch schon um bei Nvidias Leuten die $ Zeichen in die Augen zu brutzeln...:blubb:

nur dazu muss es erstmal kommen

und um das zu finanzieren schmeissen sie das fast fertige SLI wie sie es sich vorstellen erstmal als kleines SLI mit 2 oder bald auch 4 GPUs für den Privatmarkt raus :blubb:


-- Veröffentlicht durch Henro am 23:27 am 24. Jan. 2005

wahr gesprochen aber was hat das mit den videoschnitzern zu tun ? :noidea:


-- Veröffentlicht durch AlexW am 23:25 am 24. Jan. 2005

wie geht denn der Trend in den letzten jahren ?

etwa fertigstellen und perfektionieren und dann auf den Markt werfen ?

oder bei 50% fertigstellung sagen "ab auf den markt damit" und dann mit Updates upgrades bzw. neuen besseren Artikeln kommen...

na ? schwere frage ?

:lol:

für den Anwender ist doch wichtig das er für wenig geld möglichst viel bekommt bzw. bei uns ne ordentliche lsitungssteigerung... imho wäre ein upgrade von So-A mit 9800Pro das beste en A64 Winchester mit 6800gt oder x800xt

das ist en ordentlicher leistungsschub...

SLI bringt dann nicht mehr viel was für den normalen anwender einen ersichtlichen akufgrund bieten würde,...

SLI ist ja auch nicht für den "normalen" anwender gedacht sondern für Freaks :blubb: und das nicht mal primär sondern lediglich als geldeintreiberei... behaupte ich mal so in den raum gestellt...

den wahren sinn werden wir bald erleben denke ich mal...


-- Veröffentlicht durch Henro am 23:21 am 24. Jan. 2005

na siehste ... warum nicht gleich so :thumb:


Wobei sich für mich immernoch die kosten/nutzen frage stellt.

N Systemumstieg kostet immer Zeit und Geld. Dazu kommt n hocher anschaffungspreis (kompletter neukauf).

Warum nicht also beim altbewährten system bleiben und da eventuelle viele billige 1HE DualOpterons kaufen ?


Was Nvidia natürlich machen könnte wäre n planmässiges minusgeschäft um die technik erstmal einzubringen und dann mit der 2. generation geld zu verdienen.


-- Veröffentlicht durch AlexW am 23:15 am 24. Jan. 2005

ich hab bis jetzt 3 oder 4 news im Netz darüber gelesen und es ist Tatsache so das Nvidia bald in Hollywood einsteigt :wink: inwiefern und bei wem usw. weisch nett....

Nvidia versucht sich auf jedenfall in den Markt einzubringen :wink: sie müssen die Jungs da oben nur noch überzeugen das das Entwickeln und beabreiten und rendern der Filme mit ihren Systemen schneller geht als mit dem bisherigen sagen wir mal am veralterndem System

Das Games durch SLI besser laufen und sich das verkaufen lässt ist in der Entwicklungsebene bei Nvidia nur ein nutzbarer ""Nebeneffekt""

(Geändert von AlexW um 23:17 am Jan. 24, 2005)


-- Veröffentlicht durch Henro am 23:11 am 24. Jan. 2005

ich mein die grütze die du da oben schon wiede loslässt ... und da du grad mal wieder n postanfall hast sieht man ja am forenindex ...


-- Veröffentlicht durch AlexW am 23:07 am 24. Jan. 2005

wie meinen ?:noidea:


-- Veröffentlicht durch Henro am 23:06 am 24. Jan. 2005


Zitat von AlexW am 23:03 am Jan. 24, 2005
Wie schon tausendfach erwähnt wurde und überall zu lesen ist.

SLI ist für Privatanwender einfach nix ausser sie sind fraggeil was Benches angeht :wink: nicht wahr ?? du gewisser jemand ?

:lol:...

ich wette das einer der nächsten Pixar Filme einer der ersten mit Nvidia Demo als Vorspann kommt so wie wir es aus einigen games bereits kennen :blubb:



wasn los alter ? heut mittag konnte man sich noch ganz gediegen mit dir unterhalten ... und nu ? Trink ma n tee ;)


-- Veröffentlicht durch AlexW am 23:03 am 24. Jan. 2005

Wie schon tausendfach erwähnt wurde und überall zu lesen ist.

SLI ist für Privatanwender einfach nix ausser sie sind fraggeil was Benches angeht :wink: nicht wahr ?? du gewisser jemand ?

:lol:...

ich wette das einer der nächsten Pixar Filme einer der ersten mit Nvidia Demo als Vorspann kommt so wie wir es aus einigen games bereits kennen :blubb:


-- Veröffentlicht durch kammerjaeger am 22:44 am 24. Jan. 2005

BTW:
Man sollte bei der ganzen Diskussion um SLI & Co. nicht vergessen, wie "groß" der praktische Nutzwert ist. Und gerade in diesem Punkt sieht es nicht gerade rosig aus: klick

Ergo:
Wer benchmarkgeil ist, der soll sich ruhig über zig parallele GPU´s freuen.
Wer klar denken kann, der kann darauf gerne verzichten... ;)


-- Veröffentlicht durch Henro am 22:25 am 24. Jan. 2005

ja das is klar ... kann ich zwar nicht mitreden weil ich nie ne 3dfx karte hatte aber von der sicht aus versteh ichs schon ;)


-- Veröffentlicht durch AssassinWarlord am 22:12 am 24. Jan. 2005

3dfx hat was anderes...das ist uns im herzen geblieben :)


-- Veröffentlicht durch Henro am 21:55 am 24. Jan. 2005

klaro :beer:


aber sobald der support einer firma eingestellt ist isse so ziemlich tot ;)


-- Veröffentlicht durch AssassinWarlord am 20:00 am 24. Jan. 2005

@Henro ich wollte dich nicht angreifen, aber ich hatte mich irgendwie gedemütigt gefült, da du in meinen Augen was gegen 3dfx geschrieben hast, und 3dfx ist in meinen augen noch lange nicht tot, solche leute gibts nämlich immer noch, die viel mit 3dfx zu tuhen haben :)

tut mir leid :sadden:
freunde?

(Geändert von AssassinWarlord um 20:05 am Jan. 24, 2005)


-- Veröffentlicht durch Postguru am 19:29 am 24. Jan. 2005

skynet pisst sich ans bein ..wenn ATIs nächste Grafikchip  die 4fache geschwindigkeit hat als eine nv45 GPU (utraversion) hat ..  und er noch an der letzten Pfändung knappern musste weil sein Stromerzeuger  ihm ne nette stomrechnung presendtierte ..:lol::lol:


-- Veröffentlicht durch Crusader am 19:20 am 24. Jan. 2005

es ist schon erstaunlich mit wie wenig aufwand eine verbitterte substanzlose diskussion entstehen kann .. zu den dual chips auf einer platine sollte gesagt sein das es bisher nur wenige wenn nicht sogar nur ein board gibt welches dieses feature wenn man es so nennen darf unterstützt..


damit stampfst du alles ein, selbst in 2048er auflösung mit allem was geht haste dann noch im JEDEM game wo die CPU net limitiert über 100fps.
richtig damit wird nicht nur die konkurrenz sondern auch das letzte quentchen vernunft eingestampft .. wie weit muss man eigentlich gehn um zu merken das man sich auf dem holzweg befindet .. die sachen werden nur produziert wenn eine gewisse nachfrage vorhanden ist sonst wirds auch für die teuer die meinen im kapital zu schwimmen un meines erachtens haben diese leute besseres zu tun als vorm pc zu hocken aber egal


jo aber erstmal sind die anschaffungskosten enorm und meine stromrechnung dann auch
ganz genau aber manche scheint es nicht  zu kümmern verschwenderisch mit kostbaren ressourcen umzugehn

klar .. leistung bringts aber wayne interessiert das paar monate später..

das is wieder mal so ein sinnlos-topic was die qualität hierzulande immer mehr in den bach zieht .. wen interessieren den solche schwanzvergleich-news die nicht massentauglich sind .. wieso soll nvidia ati in den hintern treten .. es ist wirklich immer das gleiche ati hin nvidia her .. die aussage schleift doch ganz gewaltig aber weitere kommentare verkneif ich mir lieber ^^

mfg.
-crusader-


-- Veröffentlicht durch Henro am 18:28 am 24. Jan. 2005


Zitat von AssassinWarlord am 17:35 am Jan. 24, 2005
@Henro, wie war des :noidea: wenn man keine ahnung hat, einfach mal die ..... naja du weist schon ;)

von wegen theoretisch, kennst dich also nicht wirklich mit 3dFX aus wa? schonmal dran gedacht, das nicht nur 3dfx Grakas Baute mit 3dfx GPUs ;)




Willste mich jetzt hier anpissen weilde 3DFX studiert hast oder wie ?


Das wir nur n bruchteil dessen sehen was es gibt bzw. was möglich ist ist MIR bekannt ! Hatte mich nur nicht getraut dir das so offen zu sagen weil du ansonsten wieder mit irgendwelchen prollgeschwärme angefangen hättest was in meinen augen total lächerlich ist !

Erinner nur an letztens mit A64 und Rambus :lol:


Das ding is ganz einfach mal das man für solche karten immer auch speziellen unterbau braucht. Weiß nicht obs vieleicht sogar kostengünstiger ist sich einfach mal 2 große 19" schränke mit DualOpterons in 1HE gehäusen hinzustellen und die rechnen zu lassen ...

Was geht und was es gibt is letztenendes immernoch ne kosten/nutzenfrage ... von verfügbarkeit gar nicht zu sprechen ;)

Also das nächste mal die fresse halten karte nochmal überdenken :beer: ;)

(Geändert von Henro um 18:34 am Jan. 24, 2005)


-- Veröffentlicht durch AssassinWarlord am 17:35 am 24. Jan. 2005

@Henro, wie war des :noidea: wenn man keine ahnung hat, einfach mal die ..... naja du weist schon ;)

von wegen theoretisch, kennst dich also nicht wirklich mit 3dFX aus wa? schonmal dran gedacht, das nicht nur 3dfx Grakas Baute mit 3dfx GPUs ;)


-- Veröffentlicht durch SchlitzerMcGourgh am 16:28 am 24. Jan. 2005


Zitat von AlexW am 16:23 am Jan. 24, 2005
unendlich ?

na dann find mal den passenden Chipsatz und das Board dazu die das packen...

ich schätze bei 128 ist momentan das technische maximum erreicht...

das theoretische ist immer unendlich :wink:



du sagst ja auch nur das was sky geschrieben hat, finde den chipssatz dazu...


-- Veröffentlicht durch AlexW am 16:23 am 24. Jan. 2005

unendlich ?

na dann find mal den passenden Chipsatz und das Board dazu die das packen...

ich schätze bei 128 ist momentan das technische maximum erreicht...

das theoretische ist immer unendlich :wink:


-- Veröffentlicht durch skynet am 14:17 am 24. Jan. 2005

nvidia kann auch 64 koppeln.... wenns denn nen chipsatz geben würde der das unterstützt.

die GPU auf jedenfall ist multi-GPU fähig mit unendlich vielen GPU's, so wie ich das schon von den spezis bei 3DC mitbekommen habe.


(Geändert von skynet um 14:19 am Jan. 24, 2005)


-- Veröffentlicht durch AlexW am 10:54 am 24. Jan. 2005

:wayne:

tcha so wie es aussieht jagen die einen :posten:records und die anderen holen sich einen an ihren 3Dmurks punkten einen runter :wink:

aber datt verstehst du eh nich :wink:

zur Sache:

Nvidia plant schon länger in Hollywood einzusteigen um die Pixar und Sineyfilme rendern zu dürfen...die werden immer noch über Prozessoren bearbeitet und Nvidia will das dies durch ihre GraKas geschieht und genau da wird das SLI seinen richtigen nutzen finden wenn man später mal auf 32 oder mehr GPUs in einem Verbund kommt


-- Veröffentlicht durch Jean Luc am 8:31 am 24. Jan. 2005

3DFX...:godlike:


-- Veröffentlicht durch Henro am 8:20 am 24. Jan. 2005

3dfx konnte es auch nur theoretisch ... und ?

Was hat man dann davon ?


-- Veröffentlicht durch AssassinWarlord am 6:56 am 24. Jan. 2005

mal schaun obs nVidia endlich ma gebacken bekommt, genausoviele grakas wie damals bei 3dFX in nem SLI verbund zu nehmen, den 3dfx konnte schon 32 GPUs koppel, und nVidia gerade mal 4...aber wenn die des noch hinbekommen, dan wird des bestimmt nur noch fürs Millitär interessant, den für einen normalen user, oder einen "erweiterten" User wie Sky ;), ist das viel zu überdiemensioniert, da braucht man ja nen eigenes Mini-Atomkraftwerk, um das dingens mit strom zu versorgen. und da braucht man ja noch mindestens 16 Opterons, um die leistung zu nutzen...natürlich dan mit 2TB Arbeitsspeicher und 10TB HDDs die mit 17000U/min drehen :blubb:


-- Veröffentlicht durch skynet am 1:43 am 24. Jan. 2005

wers brauch und hat dem wird das net stören. :lol:


-- Veröffentlicht durch kammerjaeger am 23:38 am 23. Jan. 2005


Zitat von skynet am 21:56 am Jan. 23, 2005
geht eher dadrumm das es auch mit dem NV45 möglich ist. :biglol:

stelle die 2x2 6800 Ultra mit jeweils 512MB für jeden core vor(also 2048MB insgesammt).

damit stampfst du alles ein, selbst in 2048er auflösung mit allem was geht haste dann noch im JEDEM game wo die CPU net limitiert über 100fps. :devil:



... und nur für den Grafik-Teil des PC einen Stromverbrauch und Kostenfaktor, welche jeweils die Werte meines kompletten PC´s übersteigen. :blubb:


-- Veröffentlicht durch skynet am 23:23 am 23. Jan. 2005

mehr leistung brauch man(n) immer *grunzgrunz*


-- Veröffentlicht durch Henro am 22:52 am 23. Jan. 2005

hehe ... abwarten ;)

du bring erstmal deine 2 ultras an start und schau mal ob man noch mehr leistung brauchen könnte :thumb:


-- Veröffentlicht durch skynet am 22:32 am 23. Jan. 2005

werden wir ja sehn, aber der NV48 mit seinen 24pipes und 512MB 4x....


ich bekomme gleich nen orgasmus. :blubb:


-- Veröffentlicht durch Henro am 22:26 am 23. Jan. 2005

jo aber erstmal sind die anschaffungskosten enorm und meine stromrechnung dann auch ;)

Aber goil isses allemale :thumb:


Wobei ... wenn Nvidia per treiber dafür sorgt das die DualLösungen auch auf nicht-sli boards laufen ... gehen die dann nicht gefahr das wenns auch die großen als duallösung geben würde dann keiner mehr sli boards bräuchte ?


-- Veröffentlicht durch skynet am 21:56 am 23. Jan. 2005

geht eher dadrumm das es auch mit dem NV45 möglich ist. :biglol:

stelle die 2x2 6800 Ultra mit jeweils 512MB für jeden core vor(also 2048MB insgesammt).

damit stampfst du alles ein, selbst in 2048er auflösung mit allem was geht haste dann noch im JEDEM game wo die CPU net limitiert über 100fps. :devil:


-- Veröffentlicht durch Henro am 21:31 am 23. Jan. 2005

hört sich doch gut an ...

Aber obs 4x66GT im verbund bringen ? Wenn die dann nicht deutlich schneller sind als ne einzelne 6800Ultra dann bringts das doch gar nicht !


-- Veröffentlicht durch skynet am 21:25 am 23. Jan. 2005


Die Informationen, die wir die letzte Woche über in München sammeln konnten, waren äußerst umfangreich und so möchten wir an dieser Stelle noch ein paar Meldungen zu nVidias SLI-Technologie zusammen tragen, die schon in naher Zukunft von Bedeutung sein dürften.

Zuerst sei erwähnt, dass der mit dem ForceWare-Treiber der 7xer-Serie mögliche „SLI-Zwang“ für nicht unterstützte Spiele ein inoffizielles Feature für erfahrene User bleiben wird. Vielmehr soll der nächste offizielle Treiber eine Updatefunktion für weitere Spieleprofile bieten, die für Spiele, die laut nVidia von Bedeutung sind und auf einwandfreien Betrieb im SLI-Modus getestet wurden, in unregelmäßigen Abständen zum Download angeboten werden sollen. Mehr als 50 kB sollten hier pro Update nicht zu Buche schlagen.

Darüber hinaus teilte nVidia gegenüber ComputerBase mit, dass Gigabytes 3D1, eine Dual-6600-GT auf einem PCB, derzeit zertifiziert wird und somit offizielle Unterstützung des Grafikkartenriesen erhält. Letztendlich habe man nichts gegen eine derartige Lösung, mit deren Realisierung man allerdings im Vorfeld nie gerechnet hätte.

Auch was SLI auf Mainboards mit Chipsätzen der Konkurrenz anbelangt, zeigte man sich offen. So werde man den Betrieb per Treiber auf jedem Chipsatz zulassen, der nVidias Zertifizierungskriterien erfüllt - den Varianten aus dem Hause VIA sollte SLI also theoretisch nicht verwehrt bleiben.

Eine interessante Aussage konnten wir noch im Zusammenhang zu Asus' EN6600GT Dual, einem Technologiependant zur 3D1, aufschnappen. So soll die fertige Karte im Gegensatz zum Gigabyte-Modell über den bekannten SLI-Connector verfügen und mit Hilfe eines neuen ForceWare-Treibers, der SLI auf bis zu vier GPUs möglich machen wird, auch im Doppelpack um die Wette rendern können. Betrachtet man die Bilder der EN6600GT Dual genau, so fallen tatsächlich zwei Steckplätze pro Karte auf, die eventuell dafür zuständig sein könnten, zwei dieser Karten über zwei Asus-eigene Kabelverbindungen zu verkoppeln. Jeder der Chips könnte dann aber nur noch über PCI Express 4x angesprochen werden.



quelle: ComputerBase


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de