Der lang erwartete XGI Test!

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- Der lang erwartete XGI Test!
https://www.forum-inside.de/topic.cgi?forum=3&topic=4068

Ein Ausdruck des Beitrags mit 57 Antworten ergibt bei 3 Antworten pro Seite ca. 19 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 94.80 Gramm Papier.


-- Veröffentlicht durch Philly am 15:18 am 2. Juni 2004

Mist...jetzt hab ich mir schon die XGI gekauft :blubb: die ABit sähe geiler aus


-- Veröffentlicht durch Breaker10 am 23:55 am 1. Juni 2004


Habe gerade gesehen das Abit auch mal eine Duo V8 hergestellt hat :)



-- Veröffentlicht durch tdsangel am 19:07 am 1. Juni 2004


Zitat von QnkeI am 15:42 am Mai 18, 2004

Zitat von tdsangel am 19:29 am Mai 17, 2004
1. hab haeufiger schon ne v5 6000 bei egay gesehen... sind immer so fuer ca 600 bis 1000 euro weggegangen-- hatten ein eigenes externes netzteil!!!
2. hab ne v5 5500 ... ist genauso lahm wie ne gf2, nur ohne t&l :/
3. wer heult hier rum, dass nvidia dualcoreloesungen soviel saft brauchen?! die xgi braucht ueber 120 watt maximal!!!
4. ati und nvidia brauchen beide nen externen stromanschluss :P

5. :) braucht einer ein wakücase!? -> sbt *argh*



aehm.... die ersten gf2 muessten noch VOR der v5500 zu haben gewesen sein... zumindest in europa... ich wollte damals naemlich eine v5500 haben, hab die aber nicht gekriegt und dann die gf2... im nachhinein auf jeden fall die bessere wahl...

Als die V5 rauskam hat noch keiner von Gf2 gesprochen. Die Voodoo 6000 konnte 4xFSAA (<
Der Einführungspreis in Deutschland war 1.299 DM.

Ich mag meine Ti4200, die brauch keine extra-Saftleitung und mit VMod und VMem krieg ich die noch auf Ti4600 ;) wenn ich bald ma die Potis hab


-- Veröffentlicht durch QnkeI am 21:04 am 26. Mai 2004

konnte die nich sogar 16x FSAA :noidea:


-- Veröffentlicht durch fredyhawk am 21:51 am 25. Mai 2004

@onkel: Hi ich glaub du hast was verwechselt , die Voodoo  5 5500 konnte 4 x FSAA. Und die V5 6000 kann sogar 8x FSAA. Das Antialisung ist so der Hammer von der 6000 *neidisch*
MFG Fredy


-- Veröffentlicht durch BlackHawk am 21:07 am 24. Mai 2004

hier nochmal nen link zu einem review der XGI Volari Duo V8 Ultra 256MB auf hexus.net:

klick mich

very disappointing :lol:

btw. unterstützt deine ergebnisse ;)

mfg BlackHawk


-- Veröffentlicht durch QnkeI am 15:42 am 18. Mai 2004


Zitat von tdsangel am 19:29 am Mai 17, 2004
1. hab haeufiger schon ne v5 6000 bei egay gesehen... sind immer so fuer ca 600 bis 1000 euro weggegangen-- hatten ein eigenes externes netzteil!!!
2. hab ne v5 5500 ... ist genauso lahm wie ne gf2, nur ohne t&l :/
3. wer heult hier rum, dass nvidia dualcoreloesungen soviel saft brauchen?! die xgi braucht ueber 120 watt maximal!!!
4. ati und nvidia brauchen beide nen externen stromanschluss :P

5. :) braucht einer ein wakücase!? -> sbt *argh*



Als die V5 rauskam hat noch keiner von Gf2 gesprochen. Die Voodoo 6000 konnte 4xFSAA (<
Der Einführungspreis in Deutschland war 1.299 DM.

Ich mag meine Ti4200, die brauch keine extra-Saftleitung und mit VMod und VMem krieg ich die noch auf Ti4600 ;) wenn ich bald ma die Potis hab


-- Veröffentlicht durch Jamaicaman am 7:37 am 18. Mai 2004

sei doch froh das ich die getestet hab.
Das hab ich nur für dich getan :blubb: ;)

(Geändert von Jamaicaman um 7:38 am Mai 18, 2004)


-- Veröffentlicht durch tochan01 am 22:29 am 17. Mai 2004

na das war doch mal ein netter und "aufschlussreicher" testbericht. das man ein schlechtes produkt nur gut verpacken muss damit es jemand kauft ist ihrmit bewiesen... :blubb:

hey, das war ein scherz, nicht hauen. hab mir schon gedacht das das teil.... sagen wir mal, nicht ganz das preis leistungs verhältnis pringt wie ATI aber das das dingen so grottig ist, is schon ein ding. ich würd die bald wieder raus nehmen und in die Vitrine legen. in 2 jahrzehnten is die bestimmt gut geld wert für sammler so selten wie die ist ;)

wenn ich mir den screen von söldner angucke (oder war das battelfield V.) ;), kommt da beim zocken doch nie freude auf oder? tja, hättest mal auf mich gehört, aber ne... ;)


-- Veröffentlicht durch deadalive am 19:44 am 17. Mai 2004


Zitat von tdsangel am 19:29 am Mai 17, 2004
1. hab haeufiger schon ne v5 6000 bei egay gesehen... sind immer so fuer ca 600 bis 1000 euro weggegangen-- hatten ein eigenes externes netzteil!!!
2. hab ne v5 5500 ... ist genauso lahm wie ne gf2, nur ohne t&l :/
3. wer heult hier rum, dass nvidia dualcoreloesungen soviel saft brauchen?! die xgi braucht ueber 120 watt maximal!!!
4. ati und nvidia brauchen beide nen externen stromanschluss :P

5. :) braucht einer ein wakücase!? -> sbt *argh*




zu 2.  so lahm wie ne gf2 ??  würd mir reichen... ich kann mit meiner Gf2 alles zocken, un in einer Quali die mir ausreicht.

guckst du Seite 4 ;)

ich weiß das es sinnlos wäre.

was bringt mir ein System mit 4 P200pro CPU's wenn ich einfach nen P3 800 nehmen kann??  nüx....  aber is einfach was besonderes...

mir gehts nie wirklich um die Leistung, es muß nur was besonderes sein.  



zu 3. bei XGI kann ich den Stromverbrauch noch Nachvollziehn, nur Nvidia hat mehr Möglichkeiten, da mehr Kapital, als XGI. Und gibts überhaupt ne Dual-GPU Karte von NV ?


naja, aber wir wollen ja hier kein Streit anfagen. ;)


-- Veröffentlicht durch tdsangel am 19:29 am 17. Mai 2004

1. hab haeufiger schon ne v5 6000 bei egay gesehen... sind immer so fuer ca 600 bis 1000 euro weggegangen-- hatten ein eigenes externes netzteil!!!
2. hab ne v5 5500 ... ist genauso lahm wie ne gf2, nur ohne t&l :/
3. wer heult hier rum, dass nvidia dualcoreloesungen soviel saft brauchen?! die xgi braucht ueber 120 watt maximal!!!
4. ati und nvidia brauchen beide nen externen stromanschluss :P

5. :) braucht einer ein wakücase!? -> sbt *argh*


-- Veröffentlicht durch deadalive am 19:09 am 17. Mai 2004

ne Voodoo 5 6000 hört sich interesant an, aber sicher unbezahlbar, falls es jemand gibt der eine hat und die verkaufen will....

Aber 4 GPUs hrt sich schon lässig an :godlike:

:lol:


-- Veröffentlicht durch QnkeI am 18:14 am 17. Mai 2004

die 5500 is ja auch noch offiziell in deutschland erschienen ;)

Die Sparversionen waren Voodoo 4 mit dem VSA100

Es gab:
Voodoo 4 4000
Voodoo 4 4500
Voodoo 5 5000
Voodoo 5 5500 2xGPUs
Voodoo 5 6000 4xGPUs + externes NT


-- Veröffentlicht durch deadalive am 17:44 am 17. Mai 2004


Zitat von QnkeI am 14:20 am Mai 17, 2004

Zitat von deadalive am 21:33 am Mai 16, 2004
Müßten da nicht noch ein paar Prototypenkarten rumfliegen??

*lechz* das wär doch was feines :thumb::lol:



die Voodoo 5 6000 is ja in Amerika rausgekommen...bei eBay kriegste manchmal noch Voodoo 5500 ;) mit 2 GPUs.

Von der Rampage gabs glaub ich 2-3 Prototypen. Aber ohne richtige Treiber und mit Chipfehlern sin die nich zu gebrauchen. Die hatten schon DVI.





na wer sagts den, hier is eine  egay  Dual Chip Voodoo 5500 un ich hab kein Geld mehr... :cry: sowas muß irgendwann mal her

/EDIT  die gibts da ja zu Hauf... mindestens 5 Stück..... :blubb::lol:

(Geändert von deadalive um 17:46 am Mai 17, 2004)


-- Veröffentlicht durch kammerjaeger am 16:59 am 17. Mai 2004


Zitat von BUG am 9:40 am Mai 17, 2004


Die plötzlichen SlowDowns die Jamaicaman beschrieben hat, sind vermutlich auf das AFR zurückzuführen, die sollte es bei der Singel Lösung nicht geben.




Das glaube ich erst, wenn ich Ergebnisse und Erfahrungen der Single-Lösungen kenne.

Begründung:
Die gleiche Charakteristik hatten auch Xabre-Karten. Hohe Durchschnittsraten, die zwischendurch auf unspielbare Werte einbrechen.

Somit scheint es eher ein grundsätzlicher Fehler in den Treibern zu sein. ;)


-- Veröffentlicht durch QnkeI am 14:20 am 17. Mai 2004


Zitat von deadalive am 21:33 am Mai 16, 2004
Müßten da nicht noch ein paar Prototypenkarten rumfliegen??

*lechz* das wär doch was feines :thumb::lol:



die Voodoo 5 6000 is ja in Amerika rausgekommen...bei eBay kriegste manchmal noch Voodoo 5500 ;) mit 2 GPUs.

Von der Rampage gabs glaub ich 2-3 Prototypen. Aber ohne richtige Treiber und mit Chipfehlern sin die nich zu gebrauchen. Die hatten schon DVI.


-- Veröffentlicht durch BUG am 9:40 am 17. Mai 2004


Zitat von Philipp Stottmeister am 9:26 am Mai 17, 2004
Wenn schon die Dual GPu so 'bescheiden' abschneidet, wie sieht es dann erst bei Single GPU aus? Und dann gibt es ja noch die abgespeckten Versionen V3 und V5 ...
DIe müssen ja richtig :gulp: sein

..ich habe hier doch schon paar mal geschrieben, dass die Single Lösung teilweise schneller als die Dual Lösung ist! ..die beiden Chips bremsen sich teilweise gegenseitig aus, da die Kopplung mittesl AFR realisiert wurde.

AFR ist die billigste, einfachste und zugleich schlechteste Lösung zwei Chips miteinander zu koppeln! XGI ist diesen Weg gegangen, weil sich AFR auch bei fast fertig designten Chips leicht "anflanschen" lässt. Das war nur eine "Notlösung", was dabei rausgekommen ist sieht man ja^^.

Die plötzlichen SlowDowns die Jamaicaman beschrieben hat, sind vermutlich auf das AFR zurückzuführen, die sollte es bei der Singel Lösung nicht geben.

cu
BUG

(Geändert von BUG um 9:43 am Mai 17, 2004)


-- Veröffentlicht durch Philipp Stottmeister am 9:26 am 17. Mai 2004

Wenn schon die Dual GPu so 'bescheiden' abschneidet, wie sieht es dann erst bei Single GPU aus? Und dann gibt es ja noch die abgespeckten Versionen V3 und V5 ...
DIe müssen ja richtig :gulp: sein


-- Veröffentlicht durch razzzzia am 8:31 am 17. Mai 2004

ers jetz gelesen den Test aber is doch immerwieder faszunierend was meine olle 9500pro so alles inne Tasche steckt. FarCry @1280x1024 4xAF 2xAA, high Details - immer brav über 20Fps, meist so ~25, das reicht mir.


-- Veröffentlicht durch THCCryjack am 21:56 am 16. Mai 2004

Yo da gibts doch auch ne Dual 9800pro... die haben da bestimmt nicht nur ein sample gebaut. Wäre der Hammer... hier nochmal

@ QnkeI

ja das wird wohl das Problem sein... die Synchronisation. Is zwar ein blödes Beispiel aber es ist auch schwierig 2 Motoren in einem Auto zu synchronisieren... da beide nie gleiche Werte erreichen und immer ein Abstrich in der Leistung gemacht werden muss.


-- Veröffentlicht durch krauser am 21:50 am 16. Mai 2004

da muss ich doch glatt wieder an meine Voodoo2 SLI denken :thumb:
:godlike::godlike::godlike::godlike::godlike::godlike:

die hat damals alles gebash0rt :lol:


-- Veröffentlicht durch deadalive am 21:33 am 16. Mai 2004

Müßten da nicht noch ein paar Prototypenkarten rumfliegen??

*lechz* das wär doch was feines :thumb::lol:


-- Veröffentlicht durch QnkeI am 21:13 am 16. Mai 2004

Mehrere GPUs sind dann sinnvoll wenn sie gut miteinander kommunizieren...

entweder beide ein bild, was recht schwer is, wenn man die leistung ordentlich nutzen will, da einer sich dann z.b. auf die und die effekte spezialisert und der andere die und die...oder einer bastelt bild und anderer effekte... diese möglichkeit is eigentlich recht unlukrativ.

eher, wie bei XGI oder 3DfX, das der eine schon das nächste Bild berechnet ;) Da is VSync dann die Bremse ;)

Am besten war noch der V100-Chip von 3DfX...und der Rampage war der Überhammer!! der hatte alles, was jetz erst kommt ;) der hatte n extra Chip für spezial-effekte und so...

der V100-Chip war völlig dynamisch. Du konntest bis zu 128 davon miteinander verdrahten.

die Voodoo 6000 hatte ja 4! die hatte auch n externes NT ;) einfach nur geiL!! Das war Rechenpower vom feinsten.

Rampage hätte 3DfX wieder ungeschlagen an die Spitze gebracht. Fast frei taktbar und erweiterbar ;) 1 Woche vor der Veröffentlichung is 3DfX pleite gegangen. 3DfX sin für mich immernoch die größten. Wenn ich ma ordentlich schotter habe, werde ich die alten Leute zusammen trommeln und die neu gründenhoffentlich gibt mir nVidia die Technologie wieder :cry:


-- Veröffentlicht durch deadalive am 17:55 am 16. Mai 2004

ich weiß das es sinnlos wäre.

was bringt mir ein System mit 4 P200pro CPU's wenn ich einfach nen P3 800 nehmen kann??  nüx....  aber is einfach was besonderes...

mir gehts nie wirklich um die Leistung, es muß nur was besonderes sein. :thumb:

Aber mit 256bit und 2 GPUs würde die Karte richtig rocken...


-- Veröffentlicht durch BUG am 17:50 am 16. Mai 2004

..bei einer GF2 würde das nix bringen, da kannst du den Chiptakt anheben wie du willst, die Karte ist und bleibt Bandbreitenlimitierend. Ein 256Bit Speicherinterface würde ihr gut stehen und dann könnte auch die zweite GPU sinn machen. ;)

cu
BUG


-- Veröffentlicht durch deadalive am 17:47 am 16. Mai 2004

warum, die NV Karten hätten dann nen eigenen Onboard-Reaktor ...
damit köntest dein komplettes System und dein Haus noch mit versorgen..

hmm... neee..  dürfte grad so für die Karte reichen :lol:

Aber ATI wär doch echt lässig...

aber ich hätte gern ne Geforce 2 GTS oder PRO mit 2 GPUs, meine Gf2 GTS rennt nämlich wie Sau...
NFSU mit hohen Details flüssig :thumb:


-- Veröffentlicht durch Philly am 17:43 am 16. Mai 2004

Von NV ??? Gott bewahre...wieviele Stecker vom NT sollen denn da dann dran ?!

4 ??!?!?

Eigenes 550W Netzteil ?

Neee danke... 2x 9600XT Chips wäre richtig geil...die lassen sich hammer takten auf 500MHZ min, und sind dabei sehr kalt...


-- Veröffentlicht durch deadalive am 17:40 am 16. Mai 2004

Schade schade......

die Karte hätte unter Umständen Potential.....
aber bei der mießen Leistung würd ichse au zurückgeben...

aber es sollte ne Dual-GPU Karte von ATI oder Nvidia geben :godlike:
alleine wegen der Optik.....


-- Veröffentlicht durch QnkeI am 15:47 am 16. Mai 2004

jo die 5900XT is das beste was de zurzeit kriegen kannst für wenig geld ;)


-- Veröffentlicht durch Philly am 14:49 am 16. Mai 2004

*g* ich wusste es...ich war stiller Leser...und nach Seite 2 wurde mir klar, das du diese Entscheidung auf den nächsten Seiten rückgängig mcahen wirst...


Und ich hatte Recht :thumb:

Das wäre pure Geldverschwendung gewesen..die Karten sind einfach nicht reif!

weder Hardware mäßig, noch Treiber!


-- Veröffentlicht durch X Man am 14:12 am 16. Mai 2004

@Jamaicaman

gute Entscheidung!!!:thumb::thumb::thumb:


-- Veröffentlicht durch BUG am 13:47 am 16. Mai 2004



cu
BUG


-- Veröffentlicht durch Jamaicaman am 13:41 am 16. Mai 2004

Da bin ich wieder, und BUG wirds vielleicht freuen ;)

Ich hab die VERDAMMTE DRECKS sch****EN DRECK KAGGE MÜLL
XGI zurück gegeben <<<<<<<<<<<<<

Das war zum Kotzen , bis auf CS war alles unspielbar,
Battlefield > Grafikkfehler, FarCry > Grafikfehler + starkes rukeln,
Need for Speed > ruckeln, Aquamark > abstürze usw.

Hab mich dann doch von euch breitschlagen lassen und dafür ein dickes DANKE an alle!

Hab die Karte gegen ne Leadtek FX5900XT getauscht und dann noch 20 € druff geknallt und nochn Epox 8rda3+ mitgenommen. Alles läuft flüssig und spielbar. Aquamark sinds nun 39k punkte 3dmark03 5500
und was noch viel besser ist!
Die Karte macht problemlos Taktraten von ner FX5900Ultra mit!
450 Chip und 900 Ram sind kein ding :thumb:


-- Veröffentlicht durch deadalive am 20:17 am 15. Mai 2004

ohhh jeeee....

ich war ja lange von der Karte überzeugt, ich wußte zwar das sie nicht soo eine Leistung hat.
Aber soo schlecht..... hät ich nun auch ncht werwartet... mein Gott....
aber mit nem gescheiten Treiber würde die Karte sicher um einiges besser sein.

Aber die Optik ist und bleibt :godlike:

Aber was bringts wenn se nix taugt... schade schade.... :cry:


-- Veröffentlicht durch cheech2711 am 22:55 am 14. Mai 2004

Oh Mann wat ne Gurke:blubb: meine FX5700 non Ultra lüppt da besser


-- Veröffentlicht durch QnkeI am 22:31 am 14. Mai 2004

was denn?? 3DfX-Treiber werden heutzutage auch von privaten entwickelt, die nie zugang zu den codes hatten :thumb:

aber @FGB es is doch erschreckend, das alles was SIS so früher an Grafik verbrochen hat jetz bei XGI is...das fängt mit der schlechten Übersetzung an ;)...


-- Veröffentlicht durch FGB am 22:00 am 14. Mai 2004

wär mal ne maßnahme den server zu hacken, vielleicht liegen irgendwo die quellcodes ... im ordner "alpha-state drivers" :lol:

ÄDIT: Liebe XGI Mitarbeiter, das war kein Aufruf zum Hacken des Servers , sondern ein SCHERZ :thumb:

Fabi


-- Veröffentlicht durch HITAC am 21:58 am 14. Mai 2004

Vielleicht gibts ja mal irgendweche Hobby-Treiberentwickler die da was Besseres liefern. :D


-- Veröffentlicht durch FGB am 21:56 am 14. Mai 2004

ich werd mal was suchen, leider ist die XGI website ebenso schlecht wie die treiber..

Fabi


-- Veröffentlicht durch BUG am 21:47 am 14. Mai 2004

..ich glaub dir schon, nen Link würde mir aber dennoch gefallen. ;) ..aber is mir dann auch wurscht, für mich is XGI = SIS, bzw muß sich XGI nicht gegen SIS behaupten da SIS die GrafikKarten Sparte komplett an XGI abgetreten hat. Die zukünftigen intigrierten Grafiklösungen in SIS Chipsätzen werden vermutlich auch von XGI kommen.

cu
BUG


-- Veröffentlicht durch FGB am 21:38 am 14. Mai 2004

nett aber schlecht recherchiert von hartware.net. SIS hält keine mehrheit an XGI und XGI ist wie schon gesagt aus teilen von SIS und Trident hervorgegangen, aber ein eigenständiges unternehmen und keine tocherfirma von SIS.

es ist mir müßig das jetzt 10 mal zu schreiben und mir dann 100 andere quellen durchzulesen in denen einer vom anderen abgeschrieben hat.

ich bin wie gesagt seit der gründung von XGI aktionär und war durchaus in der lage mir das emissionsprospekt durchzulesen.

glaub es einfach oder lass es. über fakten kann man schlecht diskutieren. ;)

Fabi


-- Veröffentlicht durch BUG am 21:32 am 14. Mai 2004

Seit Anfang Juni ist das Grafik-Business der taiwanesischen Mainboard- und Grafikchipentwickler von SiS (Silicon Integrated Systems) in die Tochterfirma XGI (Xabre Graphics Inc.) ausgelagert. Dort sollen Medium- bis High-End Grafiklösungen entwickelt werden. In Kürze werden sich Grafikchips für Notebooks dazu gesellen, denn mit der gestern bekannt gegebenen Übernahme der Grafik-Division von Trident Microsystems wird das entsprechende Know-How eingekauft. XGI will dadurch auf mehreren Ebenen mit ATI und nVidia konkurrieren. Die Grafikchips von XGI sollen beim Fabrikationspartner von SiS, UMC (United Microelectronics Corporation), in Taiwan in 130nm Prozesstechnologie gefertigt werden.
Trident strukturiert sich dagegen um und wird sich auf ''Digital Media'' konzentrieren. Der im letzten Jahr angekündigte Trident XP4 Grafikchip hatte es ja nur als Mobile-Version auf den Markt geschafft.


http://www.hartware.net/news_33415.html

cu
BUG


-- Veröffentlicht durch FGB am 21:27 am 14. Mai 2004

XGI ist auch keine tocherfirma von SIS. Stimmt einfach nicht.. glaubs mir.


-- Veröffentlicht durch BUG am 21:26 am 14. Mai 2004

..naja aber "fast". ;) ..XGI is ne Tochterfirma von SIS, genauso wie S3 ne TochterFirma von VIA ist. Man kann imho die beiden schon in einen Korb stecken. :)

cu
BUG


-- Veröffentlicht durch FGB am 21:22 am 14. Mai 2004

nein BUG. stimmt ganz und gar nicht.  teile des kerns sind aus dem SIS Xabre hervorgegangen und SIS ist auch der Hersteller von XGI Karten, aber XGI ist damit nicht gleich SIS.

genaugenommen wurde XGI aus teilen von Trident und SIS Knowledge gegründet, ist vollkommen eigenständig.

AMD ist auch nicht IBM und Asrock ist nicht ASUS.

Fabi

(Geändert von FGB um 21:25 am Mai 14, 2004)


-- Veröffentlicht durch BUG am 21:16 am 14. Mai 2004

XGI = SIS ;)

cu
BUG


-- Veröffentlicht durch FGB am 20:21 am 14. Mai 2004

ich will es mal so sagen. als aktionär von XGI hat man gewisse einblicke in die ansatzzahlen der grafikkarten. die "duo" lösung ist mit abstand die schlechteste verkaufte grafikkarte ihrer klasse. für XGI, die bis 2007 weltmarkführer werden wollen eine verlustgeschichte ohne ende. auch wenn es für das image von XGI wichtig wäre die treiber zu verbessern und so die kunden zufriedenzustellen ist es ökonomisch sinnvoller, nicht mehr viel geld in die treiber zu stecken, sondern in die entwicklung der nachfolgerkarten.

daher wage ich zu behaupten, dass sich an den treibern nicht mehr viel ändern wird. die "revolution" wird es nicht geben..

um intel und sis und via und nvidia und ati in den absatzzahlen von grafikchips überholen will dann geht dass nur mit einer großoffensive..so bitter das für die user der aktuellen XGI produkte auch ist..

Fabi

(Geändert von FGB um 20:23 am Mai 14, 2004)


-- Veröffentlicht durch QnkeI am 20:08 am 14. Mai 2004

wenn das wörtchen "wenn" nicht wär :lol:

die brauchen erstma n "Treiber" und kein Proggi, das alles weichkaut, und die Graka das nurnoch digital zu analog wandeln brauch ;)

n Anfang wär echtes FSAA...

alter fürn ordentlichen Treiber brauchen die noch Monate ;)


-- Veröffentlicht durch SchlitzerMcGourgh am 19:52 am 14. Mai 2004


Zitat von QnkeI am 19:01 am Mai 14, 2004
sowas nenn ich doch ma erfolgreiche übereiferte Entiwcklung und Veröffentlichung!!

Wo du hast bei 3DMark 3500 Punkte !! Ich mit meiner Ti4200-8X schaff ja schon knapp 2000

:lolaway:  :lolaway:  :lolaway:

Alter bei aller liebe aber die Karte zu behalten grenzt echt an Rinderwahnsinn



ja aber deine ti4200 schafft eben nur 2000 punkte! auch wenn sie älter ist!!! hahahaha

ich glaube wenn es für die duo nen richtigen treiber gibt dann rockt das ding locker 4500 punkte im 3dmark... und dann werden die games auch alle auf high spielbar sein!


-- Veröffentlicht durch N omega G am 19:02 am 14. Mai 2004

@ jamaicaman

schreib doch eine beschwerde-mail an den XGI ;)

optik is echt top!:)


-- Veröffentlicht durch QnkeI am 19:01 am 14. Mai 2004

sowas nenn ich doch ma erfolgreiche übereiferte Entiwcklung und Veröffentlichung!!

Wo du hast bei 3DMark 3500 Punkte !! Ich mit meiner Ti4200-8X schaff ja schon knapp 2000

:lolaway:  :lolaway:  :lolaway:

Alter bei aller liebe aber die Karte zu behalten grenzt echt an Rinderwahnsinn


-- Veröffentlicht durch Jamaicaman am 18:53 am 14. Mai 2004

ohoh worauf hab ich mich eingelassen???



egal ich bleib eisern


-- Veröffentlicht durch Jean Luc am 18:11 am 14. Mai 2004

Ja also ich finds auch cool, daß Du das gewagt hast.:thumb:

Ist aber schade das die Karte nicht mehr Leistung bringt.:cry:

Trotzdem für Dich :clap: !!!


-- Veröffentlicht durch FGB am 17:46 am 14. Mai 2004

vielen dank für den testbericht. shame on XGI, dass die immer noch nicht weiter sind mit dem treiber..

und wenn du die karte verkaufen willst dann meld dich bei mir. ich würd dann einen testbericht für ocTreff.de draus machen und nen vmod noch dazu.

Fabi


-- Veröffentlicht durch Sneje am 17:20 am 14. Mai 2004

:thumb:
Danke für den Test und dafür, dass du ein grosses Risiko auf dich genommen hast.
Dafür gibt's :godlike:

Nichtsdestotrotz werde ich mir keine XGI holen.
(Rein optisch macht sie sich aber wirklich sehr gut :))


-- Veröffentlicht durch BUG am 17:14 am 14. Mai 2004

*kommentarverkneif*

btw.: ..Ruby läuft auf meiner FX auch nich besser. :biglol:

cu
BUG


-- Veröffentlicht durch Jamaicaman am 17:04 am 14. Mai 2004

So heut war es so weit!
wie versprochen liefer ich euch den XGI Test!

Also dann los.
Fangen wir beim Lieferumfang an. Die XGI presäntiert sich in einem riesigen Karton von Club 3d.
Beim öffnen des Deckels guckt man ins schwarze. Die Karte ist gut verpackt in in schwazen Schaumstoff.

Nach abnehmen des oberen Schaumstoffdeckels erblicken
4 CDs
( Treiber CD, XGI Under Sea Lab,PowerDirector 2.0 ME und
WinDVD 4.0) die Welt. Umzingelt von zahlreichen Kabeln und adptern.
Darunter wären DVI adapter video in / out adapter, chinch kabel, ersatzbefestigungsclips für den GPU Kühler
(warum hab ich zwar nicht so wirklich verstanden - gehen die davon aus dann man die Karte zerlegt???)
und ein Casebadge von der Firma Club3d.
Auch eine Bedienungsanleitung darf nicht fehlen, leider ist diese Stark bearbeitungsbedürftig. Zum teil schlecht übersetzt und zudem wird in der Einbaumontage die Karte als Radeon 9600 angegeben.

Unter den ganzen kabeln und Adaptern liegt sie nun die XGI Volari Duo V8 Ultra.


Einmal in der Handgenommen bemerkt man erst warum der Karton so schwer war. Die Karte ist mit zwei Vollkupferkühlern ausgestattet.
Der Kühler für die Gpus werden mit zwei 40er Lüftern ausgestattet.
Auf der Rückseite der Graka befindet sich ein Passivkühlkörper der sich über die ganze Karte hinstreckt. Das eigengewicht der Karte beträgt knappe 600 Gramm!!!



Der einbau in den PC geht dann einfach von statten, das einzige worauf geachtet werden sollte, sind die 2 freien Stromanschlüsse, denn Adapter für den Stromanschluss ist nicht im Lieferumfang enthalten. Zudem sollte ein 400 Watt Netzgerät zur Verfügung stehen.

Alles eingebaut und Festgeschraubt geht es zum ersten Start.



Knöpfen gedrückt und die zwei lüfter erstrahlen in einem freundlichen blau, leider wird dies von dem hohen betriebsgeräusch getrübt.
( fällt bei mir aber nicht auf da mein CPU Lüfter alles erdenkliche übertönt :) )

Nach dem bootvorgang verlangt Windows XP den treiber.
Da aber auf der CD nur Treiber Version 1.00.00 vorhanden ist, habe ich den nicht verwendet und zum testen den
WHQL Treiber 1.02.52 und 1.03.52 benuzt.

Die installation erledigt sich mit einem doppelklick wie von selbst, ohne komplikationen. Ein reboot und die Karte ist einsatzfähig.
Der Treiber umfasst sehr viele utilities wie z.B. PowerManager Dieser dient zur Überwachung der GPU Temperaturen/Voltage und Drehzahlen der lüfter. Auch Warnsignale können bei zu hoher Temperatur ausgegeben werden.
Auch der Betrieb mit zwei monitoren oder ein Monitor plus TV Gerät funktionieren einwandfrei. Es Besteht auch die Funktion den Desktop auf 2 Monitore zu splitten, was ich persöhnlich ganz praktisch finde.
(noch mehr platz für sinnlose Icons ;) )




So kommen wir zu den lang erwarteten Benchmarks und Gametests!

Kommen wir zu meiner Testumgebung:
MOBO:     ECS K7S6A 4xAGP
CPU:        AMD Athlon 1700+JIUHB@2133Mhz (2600+)
RAM:        512MB DDR
HDD:        Samsung 80gb 7200u/min 2mb Cache UDMA133
GRAKA:    :) Volari duo V8 ultra

So zuerst die Test und Benches mit dem Reactor Driver 1.02.52

fangen wir mit FarCry an.
Leider ist ein flüssiges Spielen schon auf mittlerer Stufe nicht mehr möglich da das spiel mehr ruckelt als Läuft, auf low ist das kein ding mehr, alles Super flüssig, leider Überschattet von Treiber bugs wie ihr in Bild 1 sehen werdet. Der Volari war es nicht gegeben das Wasser dazustellen (leider)



hier nochmals deutlich die wenigen details!



Zu Counterstrike möchte ich nicht weiter eingehen, dies läuft konstant mit 100fps, was man auch von so einem alten Spiel vermuten sollte.

Auch Need for Speed underground habe ich getestet, dies lief auch schon unter meinen Radeon 8500 Zeiten mit allen Details sehr flüssig.
Was man von der Volari nicht behaupten kann. Need for Seed Gestartet und der Ruckelkampf ging los, erst auf niedrigeren Details wurde es spielbar. Worüber ich sehr erärgerd bin da das Spiel unter meinen Favoriten zählt.

Battlefield Vietnam wird in den nächsten Tagen getestet.

zu den Benches:



Aquamark erreichte 22321 Punkte was mir eigendlich sehr wenig vorkommt, da auf anderen Hardwaresites wesentlich mehr erreicht wurde. Vielleicht liegt es auch an meiner Testumgebung. Das K7S6A ist schließlich nicht das Topboard :lol:

Futuremark schloss mit folgenden Punkten ab:



Nun zu den 1.03.52 Treiber Test!

Den Bug bei Farcry haben die Programmieren erfolgreich behoben!



leider war eine Prefomancesteigerung nicht möglich. Wie gehabt low details.

Auch Need for Speed läuft nur unwesentlich besser.

Benches!
Futuremark:



eine kleine Steigerung!

Aquamark verweigert seinen dienst mit dem 1.03.52 Treiber. Bei der Berechnung der Punktzahl --->>> ABRUCH REBOOT :noidea: )

Die Bildqualität ohne FSAA ist in Ordnung bei eingeschalteten FSAA
allerdings unakzeptabel. (blur Filter)

In sachen Treiber muss XGI noch ne menge tun, den Inkompatibilität und Teilweise aus heiterem himmel eintretende Prefomance einbuchungen sind zu verbuchen. Ich denke dass noch ne menge nicht
gezeigtes Potenzial in der Karte steckt!!! Hoffentlich setzen sich die Programmierer mal auf den Arsch!



Trotz allem bin ich für die XGI, nicht umbedingt der Prefomance sonder der Architektur wegen. Für mich als elektronik und Computerfreak gibt es nichts schöneres und interesanteres als diese Karte auf dem Markt!
Zudem ist ein Konkurrenzprodukt der Nvidia und Ati Chips was gutes für unseren Geldbeutel!

So das wars fürs erste!
wenn ich was für euch testen soll sagt mir bescheid!
(oc versuche sind noch nicht geplant)

PS: übrigens die Ruby Demo von Ati läuft auf der XGI, zwar nur mit max 5 fps aber es läuft. Bei meinem Kumpel mit ner ATI Radeon 9700 wurden die komischerweise Texturen nicht Angezeigt.



achja und! BUG ... jetzt schreibt nicht ich habs gewusst! ;):lol::lol:

:nabend:





OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de