xfx Geforce 8800GTS zur GTX Patchen ?!?

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- xfx Geforce 8800GTS zur GTX Patchen ?!?
https://www.forum-inside.de/topic.cgi?forum=3&topic=7137

Ein Ausdruck des Beitrags mit 27 Antworten ergibt bei 3 Antworten pro Seite ca. 9 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 44.91 Gramm Papier.


-- Veröffentlicht durch HellerSebastian am 0:31 am 15. Juni 2007

@ beschläunigen trotzdem danke für die info´s die 8800gtx scheint ja extem viel besser mit dem game zurecht zu kommen - schade

die 37 fps sind bei mir in 1024 mit allen detail aber ohne af und aa!!!


-- Veröffentlicht durch ScreamSchrei am 18:09 am 14. Juni 2007

So habs getestet... naja es geht mit 32-38FPS. Paar Sachen runter geschraubt... hm muss sagen Lost Planet macht fun :biglol:

Meine Wahl ist die AMD CPU. Dabei bleibts... Beweggründe gibt es mehrere dazu. Is ja auch wurscht... für das was ich mache reicht die AMD CPU alle mal.. und bis die ersten Spiele kommen bei der die CPU nicht mehr ausreicht dauert es noch nen ganzes weilchen.. bis dahin ist dann wahrscheinlich schon die nächste System erneuerung angesagt.

Was Mainboard und Ram betrifft... i know.. alles schon geplant.


-- Veröffentlicht durch Beschleunigen am 15:37 am 14. Juni 2007

würde ich nicht tun. der intel hat locker 30% mehr leistung als gleichgetaktete athlons.

mainboard und ram brauchst du eh neu und ne intel cpu, die mehr als 3ghz packt bekommst du für 150-200 euro (6420 oder 6600).


(..)

mfg
tobi


-- Veröffentlicht durch ScreamSchrei am 14:31 am 14. Juni 2007

Naja es kommt ja nächsten Monat ein neues System. Da fliegt die 939 eh. Kommt ne anständige AMD CPU rein (AM2 6000+ ^^) mit nForce 590 Chipsatz. Die 939 wird dann als Server herhalten und das alte Serversystem wird vertickt. ^^

Zwar mag Intel besser sein mit dem C2D jedoch ist er mir ehrlich gesagt zu teuer... ich sehe nicht ein wieso ich so viel mehr ausgeben soll. Intel war mir schon immer zu teuer und seit 9 Jahren die ich schon mit PC's zutun hab, hab ich immer eine AMD CPU gehabt. Ich wechsel nemmer auf Intel.. ist nen Macke meinerseits -g-

Zumal die AM2 CPU genug Power haben dürfte mit dem DDR2.

(Geändert von ScreamSchrei um 15:32 am Juni 14, 2007)


-- Veröffentlicht durch Beschleunigen am 14:25 am 14. Juni 2007

als ich das gebencht habe, hatte ich auch noch einen grützigen AMD-prozessor und langsamen DDR1-ram.

heute ist das zwar anders, aber LP interessiert mich am PC trotzdem nicht, weil ich das spiel für die xbox360 habe und auch damit online spiele ;)

die werte auf unterschiedlichen systemen sind in LP ähnlich - siehe thread im 3DC. cave z.b. ist stark CPU limitiert.

ansonsten würde ich SLi nicht mit der AMD-CPU realisieren - die ist viel zu lahm für anständige skalierung.


(..)

mfg
tobi


-- Veröffentlicht durch ScreamSchrei am 14:17 am 14. Juni 2007

Naja im Bench hatte ich auch hohe DX10 Werte. Im Spiel selbst dann witzigerweise nicht mehr. Bench waren es sogar bessere als deine. Ka wieso es im Spiel dann so stark saugt.. wie gesagt ich teste es nachher aber mal aus.


-- Veröffentlicht durch Beschleunigen am 7:48 am 14. Juni 2007


Zitat von HellerSebastian um 1:11 am Juni 14, 2007
Beschläunigen schreib mal bitte die werte bei lost planet mit und ohne dual channel - wäre das möglich. sry for spam

p.s. lost planet ist das erste spiel das auf der x1900xt@x mal richtig abkackt mit 37 fps! in 1024x768! :( muss wohl doch neue hw her wenn die neuen spiele kommen blöd nur das man für die x1900 wohl nix mehr bekommt.





auf dem Core2Duo habe ich lost planet noch nicht angeschaut. auf dem alten X2-system war die performance unter DX9 und DX10 in ordnung:





nachbenchen - ohne dualchannel - ist nicht möglich. der X2 ist schon einen raum weitergewandert und auf dem c2d habe ich - wie gesagt - noch nicht mit lost planet gebencht.


(..)

mfg
tobi

(Geändert von Beschleunigen um 7:56 am Juni 14, 2007)


-- Veröffentlicht durch ScreamSchrei am 6:24 am 14. Juni 2007

Also... habe gerade eben Lost planet angefangen... die G80GTX kaggt voll ab bei dem Spiel. Details Hoch etc volles HDR eben maximum einstellungen macht sie nicht mit. Kaggt sie mit 11FPS ab.

Soviel also dazu... werd die 2. Karte damit also sehr gewiss kaufen. Denn wie ich mir dachte wird die GTX extremst gefordert mit DX10. Hätte mich auch gewundert wenn nicht... ;)

Edit: Achja... werde heut Abend mal niedrigere Einstellungen testen ob se da auch so abkaggt.

(Geändert von ScreamSchrei um 7:27 am Juni 14, 2007)


-- Veröffentlicht durch HellerSebastian am 1:11 am 14. Juni 2007

Beschläunigen schreib mal bitte die werte bei lost planet mit und ohne dual channel - wäre das möglich. sry for spam

p.s. lost planet ist das erste spiel das auf der x1900xt@x mal richtig abkackt mit 37 fps! in 1024x768! :( muss wohl doch neue hw her wenn die neuen spiele kommen blöd nur das man für die x1900 wohl nix mehr bekommt.


-- Veröffentlicht durch rage82 am 22:34 am 13. Juni 2007


Zitat von nummer47 um 16:55 am Juni 13, 2007
weils mit der gtx ja so stark ruckelt... nicht zum aushalten..

lass die so! wenn sie kaputt is hast du hinterher nur trouble.



rofl, ich geh wetten ein, es gibt situationen in spielen, da wird eine gtx, die mit maximum quality bei spielen zu tun hat abkacken,

ich denke er ist sich bewusst das er die garantie verliert, und das es sein geld ist, das den jordan von der feuchten seite her kennen lernt...


-- Veröffentlicht durch ScreamSchrei am 22:24 am 13. Juni 2007

Naja soweit beschäftigt habe ich mich damit noch nicht... nur normalerweise kann man ja davon ausgehen das DX10 aufwändiger sein dürfte und daher mehr Rechenleistung abverlangt. Daher meine annahme..

Was das Grafik auf Zukunft anbelangt... fakt ist das erst Jahresende eine neuer Chip von nVidia erscheinen wird. Bis dahin gibt es die ersten DX10 Spiele nun mal schon.. da ich die aber auf maximum zocken will ist eine 2.Karte nicht abwägig.. wie gesagt die Spiele erscheinen ja bald bzw demnächst und da ist es schon noch ein weilchen hin zu einem neuen Chip. Zumal ich erstmal sehen will ob er 2 GTX im SLI-Verbund schlägt.

Natürlich ist es wahr das DX9 auch besser mit der GTX läuft... klar aber das ist ja wohl der kleinste Kaufanreiz für eine solche Karte. Zumindest meine Meinung..

Ich werde mal die 2 DX10 dinger austesten... aber kaufen werde ich die 2. Karte wahrscheinlich doch.


-- Veröffentlicht durch Beschleunigen am 20:51 am 13. Juni 2007

grafikleistung kauft man nicht auf vorrat oder mit blick in die zukunft, sondern für jetzt und heute.

mit einer G80GTX/ULtra bist du auch unter DX9 besser unterwegs, als mit zwei alten geforces - gerade in sachen qualität. da gewinnst du selbst in SLi-optimierten spielen ca. 75% mehrleistung + besseres AF. in spielen, die mit SLi nichts anfangen können, liegt die mehrleistung min. bei 250%.
Performance Rating Qualität (für das SLi-setup kannst du ja die werte der GX2 nehmen)

irgendwo im netz geisterten auch schon frameraten von crysis rum und es sah für G80 sehr gut aus - was aus verschiedenen gründen auch verständlich ist, denn sehr viele potenzielle käufer haben einen G80.

mit Lost Planet Demo kannst du schon jetzt die leistung unter DX9 und DX10 vergleichen. da habe ich ca. 5fps mehr unter vista/DX10 als unter DX9/XP.

von call of juarez gibt es auch einen DX10-Benchmark.


(..)

mfg
tobi

(Geändert von Beschleunigen um 21:02 am Juni 13, 2007)


-- Veröffentlicht durch ScreamSchrei am 19:44 am 13. Juni 2007

Ich will ja erstmal den RAM der GTX austesten.. ^^

Einfach so mach ich das ned.. wobei ich ehrlich gesagt am überlegen bin mir übernächsten Monat noch ne 2. zu kaufen zwecks SLI. Dann brauch ich se auch nimmer patchen ;)

Ausserdem redet ihr alle von DX9. Wer sagt das DX10 Spiele soooo pralle laufen werden mit der 88er GTX? Ich bin mir da noch ned so sicher... daher auch meine Überlegung mit der 2. oder dem patchen.

Ich hab mir die Karte nur zugelegt weil ich Hellgate London zocken will und nen paar andere angekündigte DX10 Spiele... für DX9 hätte ich meine 2x 79er GT im SLI Verbund behalten können. Also abwarten Tee trinken... ich bin wie gesagt noch nicht überzeugt das sie soooooo pralle im DX10 sind.

Zumal ich meine Spiele immer gern auf maximal Einstellungen zock. Was wohl bei DX10 auch sehr stark an der Leistung saugen wird.

(Geändert von ScreamSchrei um 20:46 am Juni 13, 2007)


-- Veröffentlicht durch nummer47 am 16:55 am 13. Juni 2007

weils mit der gtx ja so stark ruckelt... nicht zum aushalten..

lass die so! wenn sie kaputt is hast du hinterher nur trouble.


-- Veröffentlicht durch ScreamSchrei am 20:53 am 11. Juni 2007

Kann ich ja mal probieren... morgen mal ran machen :thumb:


-- Veröffentlicht durch rage82 am 20:46 am 11. Juni 2007

wenn du den speichertakt vorher testest und sicher sein kannst, das er die werte einer ultra aushält, dann ist das ja kein problem


-- Veröffentlicht durch ScreamSchrei am 20:43 am 11. Juni 2007

Naja war ja mal ne Frage wert... ;)

Ja/ein also ich kenne noch keine Möglichkeit unter Vista ne GTX hoch zu schrauben. In so fern würde es schon was bringen.... aber an den Ram hab ich dabei nicht gedacht -g-


-- Veröffentlicht durch Beschleunigen am 20:26 am 11. Juni 2007

eigentlich auch nicht. die ultra verwendet die A3 revision des G80; auf der GTX wird wurde rev. A2 verbaut.

dann hat die ultra auch schnelleren speicher (1.0ns vs. 1.1ns auf der GTX).

wenn das gutgeht, ist es zufall oder nur temporär.


(..)

mfg
tobi


-- Veröffentlicht durch Maddini am 20:21 am 11. Juni 2007

naja dann könntest die GTX einfach übertakten. kommt auf das selbe ;)


-- Veröffentlicht durch ScreamSchrei am 19:53 am 11. Juni 2007

Mal ne Frage von mir... kann man denn wenigstens eine GTX auf eine Ultra Flashen? Würde das auch was bringen?


-- Veröffentlicht durch Beschleunigen am 9:20 am 7. Juni 2007

was für eine beknackte idee ist das denn? :noidea: die karten sind ja wohl mal komplett unterschiedlich (PCB, GPU, RAM, Spannungen).


(..)

mfg
tobi


-- Veröffentlicht durch Ferhan am 6:52 am 7. Juni 2007

ich danke euch beiden das is doch mal wenigstens ne klare aussage und nicht so eine tolle antwort wie "nein" ! :D

danke nochmal :)


-- Veröffentlicht durch rage82 am 1:21 am 7. Juni 2007

man kann lediglich das bios der gts mit einem bios der gtx flashen, aber das bringt nur den vorteil, das deine gts standardmäßig ohne übertaktungstools nen höheren takt hat, mehr shader musste anbauen...


-- Veröffentlicht durch kammerjaeger am 1:07 am 7. Juni 2007

Weil technisch weder die Pipes noch die Speichermenge vorgesehen sind... ;)
Und schonmal das Platinenlayout angeschaut?

(Geändert von kammerjaeger um 1:08 am Juni 7, 2007)


-- Veröffentlicht durch Ferhan am 0:42 am 7. Juni 2007

und gibts auch ne begründung ?:noidea:


-- Veröffentlicht durch t4ker am 23:11 am 6. Juni 2007

NEIN!


-- Veröffentlicht durch Ferhan am 21:50 am 6. Juni 2007

Hi,

ich hab mal gehört das man eine GTS zur GTX Patchen kann wenn die piplines nicht beschädigt sind stimmt das ?

PS: Ich habe eine xfx Geforce 8800 GTS XXX 640 MB


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de