» Willkommen auf Grafikkarten OC «

SFVogt
aus Dresden
offline



OC God
19 Jahre dabei !

Intel Core i7
2667 MHz


...versteh ich auch nicht...warum ist ne gute le immer nur eine le die "fehlerfrei" mit 16/6 läuft???

...selbst wenn die nur mit 12/5 laufen tut, hat sie die leistung einer 6800non-ultra...da hat man schon ca 50€ gespart und die leistung einer besseren karte...

...die le-karten lassen sich dabei noch saugut ocen...was im 05er auch schon mal an die 1000pkt ausmachen kann...

hatte mal ne leadtek le die ging auch nur bis 12/6...beim letzten quad traten massive fehler auf selbst unter windows...bei 12/6 und 460/915 @ 1.4V hatte ich 4500pkt im 05er...welche 6600gt macht diese pkt-zahl???

...da kann einer sagen was er will...die 6800le mit ihrem tuningpotenzial ist die preisleitungsbombe schlecht hin...ca 220€ für die leistung einer standart 6800gt bei der freischaltung aller pipes und vertex einheiten bei übertaktung...


Meine Bewertungen: ebay | hardwareluxx | planet3dnow | ocinside

Beiträge gesamt: 3231 | Durchschnitt: 0 Postings pro Tag
Registrierung: Juli 2004 | Dabei seit: 7214 Tagen | Erstellt: 13:56 am 9. Feb. 2005
JoBe
aus Oberding
offline


OC Newbie
20 Jahre dabei !

AMD Opteron
2400 MHz mit 1.5 Volt


Muss ja nicht auf 16/6 gehn, aber wenn sie schneller als ne 6600GT wird, würd ich sie auf jeden Fall behalten. Hoffen kann man ja mal ;-)

Beiträge gesamt: 32 | Durchschnitt: 0 Postings pro Tag
Registrierung: Dez. 2003 | Dabei seit: 7423 Tagen | Erstellt: 14:33 am 9. Feb. 2005
Beschleunigen
aus Hannover
offline



OC God
21 Jahre dabei !

Intel Core i7
3800 MHz @ 5000 MHz
90°C mit 1.425 Volt


ähm,

so ungern ich meinen senf zu den neuen karten dazugebe:

lasst diese freischalt-naivität fallen.  unterm strich sind LE's
durch redundanz ausgesonderte chips, die alle fehler haben.

ob ihr die jetzt sofort seht, ob die karte durchknallt oder ob
es erst bei späteren titeln in erscheinung tritt, ist völlig schnuppe.

technisch gesehen ist der 66er die bessere karte. es sind einige
fehler behoben worden, die in der 68 version noch vorhanden sind
(z.b. fehler im vp)..   auch gibt's die 66er bereits mit video-eingängen..

das interface würde ich nicht zu stark bewerten. mein 256bittiges interface auf der FX wird mir bei der marktsituation auch keine vorteile bringen..

es liegt nämlich an den spiele-entwicklern, was eine karte leisten kann.
auf rohpower kommt es nicht mehr an.  in der theorie reichen die 30GB/sek meiner FX für extrem hohe auflösungen mit AA aus.. aber in der realität  begrenzt die anzahl der shader und pipelines den transfer mehr, als die bandbreite.

die tendenz ist dahingehend, dass man nur noch das bekommt, was man auch bezahlt hat.  es ist hart, aber so siehts nunmal aus.

eine freigeschaltete karte ist immer eine potenzielle fehlerquelle.. wenn dann mal irgendwann probs auftreten, werdet ihr schon wissen, was ich meine..

bsp.  2600mhz sind ne tolle sache auf der CPU.. aber was nutzt es, wenn man damit zwar benchen, aber nicht 8 stunden am stück stabil arbeiten kann.. ?!

oder: meine geOCte FX lief fast 2 jahre sauber mit 575 mhz GPU takt (standard sind 475mhz)..  alle benches und alltags-situationen laufen sauber und schnell.. tja, aber es gibt immer mal ausreisser.. z.b. NFSU2..
da kann ich maximal 550mhz GPU takt geben..  gleiches bild in HL2 und V2..

es ist nicht immer alles in ordnung, nur weil es augenscheinlich oder temporär den anschein hat. wartet erstmal ab, wie sich freigeschaltete karten im langzeit-test bewähren.. wenn dann wieder neue games erscheinen oder andere benchmarks..  


mfg
tobi


www.TobiWahnKenobi.com

Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag
Registrierung: April 2003 | Dabei seit: 7669 Tagen | Erstellt: 14:46 am 9. Feb. 2005
Beschleunigen
aus Hannover
offline



OC God
21 Jahre dabei !

Intel Core i7
3800 MHz @ 5000 MHz
90°C mit 1.425 Volt


man sollte auch immer vom "worst-case" ausgehen.. nämlich dass sich gar nichts freischalten lässt..

dann kann die 66GT an der 68er ganz gut vorbeiziehen.. zumindest wenn das stimmt, was ich zu dem thema in der c't gelesen habe.

mfg
tobi


www.TobiWahnKenobi.com

Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag
Registrierung: April 2003 | Dabei seit: 7669 Tagen | Erstellt: 14:47 am 9. Feb. 2005
JoBe
aus Oberding
offline


OC Newbie
20 Jahre dabei !

AMD Opteron
2400 MHz mit 1.5 Volt


Mag sein, dass die 6800le irgendwann  mal nicht so läuft, wie sie sollte, aber das Risiko gehe ich ein. Die LE ist zwar das Abfallprodukt, aber der Chip ist immer noch der gleiche wie der auf den schnellen 6800ern.
Ungemoddet ist die 6800le schon deutlich langsamer, als die 6600GT, dafür läuft sie nicht am Limit und hat meistens noch Luft nach oben. Ich hab mir einige Benchmarks angesehen, da ist die 6800le in fast keinem schneller als die 6600GT, auch nicht mit 1600x1200er Auflösung. Aber wenn man ein paar Pipelines freischalten kann, dann zieht sie der 6600GT deutlich davon. Auch mit FSAA geht geht die Karte mit dem 256bittigen Speicherinterface nicht so schnell in die Knie, das benutz ich recht gern, weil ich einen TFT hab, der max. nur 1024x768 unterstützt.
Man hört ja öfters, dass die 6600GTs mit AGP einfach abrauchen und ich hab echt kein Bock drauf, dauernd Angst um meine teure Hardware haben zu müssen.
Es gibt ja mehrere Gründe, warum man einen Chip aussondert. Es kann sein, dass er einfach den höheren Takt nicht aushält, die Pixel-Pipelines und Vertex-Shader jedoch vollkommen intakt sind. Oder dass es zu wenige Chips für die 6800er und 6800les gibt und man deshalb vollwertige verwendet, um den Engpass zu beheben.
Meiner Meinung nach ist es schon mal nen Versuch wert. Ich glaube nicht, dass ich später mal Probleme mit der Karte haben werde, wenn doch, bin ich im Nachhinein schlauer und lern was draus.

Beiträge gesamt: 32 | Durchschnitt: 0 Postings pro Tag
Registrierung: Dez. 2003 | Dabei seit: 7423 Tagen | Erstellt: 15:21 am 9. Feb. 2005
Beschleunigen
aus Hannover
offline



OC God
21 Jahre dabei !

Intel Core i7
3800 MHz @ 5000 MHz
90°C mit 1.425 Volt



naja - das problem ist einfach, dass kein hersteller irgendwelche chips anhand der möglichen taktung labelt.  es greift einzig die redundanz.  da testet niemand den takt.

um auf nem TFT mit kantenglättung zu zocken, reicht selbst meine FX noch locker aus (und ich spiele dann meist 1280x1024 2AA/8AF)..
bei kleineren auflösungen bekomme ich je nach stellung der bildschirmskalierung AA auch für lau.

um AGP mache ich mir generell keine gedanken mehr. meinetwegen können die karten da alle nach dem ersten einschalten explodieren.
das mit den brückenchips ist eh nur eine (taktfeindliche) übergangslösung. die nächsten generationen werden wohl nur noch für PEG erscheinen. schade für die, die jetzt ein AGP 939 system ownen.. die kaufen dann neben der graka gleich noch ein neues board.

ich für meinen teil werde jedenfalls nichts mehr in die  32bit AGP maschine einbauen.. ;)    falls morgen oder übermorgen  mein neuer rechner kommt, denke ich bestenfalls drüber nach, was ich aus der alten kiste noch ausbaue und welche PEG karte ich kaufen gehe..  allerdings muss ich mal sagen, dass ich mich überhaupt nicht genötigt fühle, eine neue graka zu kaufen.

für die 5 spiele, die mir gefallen, reicht selbst eine GF2/3 völlig aus. ich rede von gothic1+2, diablo1+2, morrowind und AOE.. LOL

greets
tobi


www.TobiWahnKenobi.com

Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag
Registrierung: April 2003 | Dabei seit: 7669 Tagen | Erstellt: 15:55 am 9. Feb. 2005
jodokus
aus Häscher
offline



OC Newbie
19 Jahre dabei !

AMD Barton
1833 MHz @ 2205 MHz
51°C mit 1.8 Volt


Ich komme mit meiner Gigabyte 6800nu bei 16/6 Pipelines auf 340/820 @ 1,2V. Das entspricht ja nicht ganz einer 6800GT und konnte demnach auch nicht als solche ausgezeichnet sein, aber mir reichts. Oder mit welcher Spannung wird normalerweise eine GT betrieben. Mit 1,3 V komme ich nochmal 30 MHZ GPU höher, aber ich hab' keine Lust meine Karte zu schrotten:blubb:
Wie kommt es eigentlich, dass sich der Speicher so gut OC'en laesst ? Hat das auch einen Haken, also kürzere Lebensdauer oder kaum sichtbare Bildfehler oder Hitze ? Und bei welchen Anwendungen hilft ein schnellerer Speicher ?

#edit:

Gute PEG-Karte soll ja die Radeon X800XL sein mit 16 Pipes und 256 MB GDDR für ca. 250-300 Eur. Ist halt Ati, aber die sind ja auch ganz ok -> siehe auch andere threads

(Geändert von jodokus um 17:06 am Feb. 9, 2005)


Asus A7N8X-E dl, Corsair XMS DDR333 1024MB 2-2-2-5-1, Gigabyte GV-N68128DH 16/5 @ 345/835, Bequiet 450W, Chieftec CS-601 blau

Beiträge gesamt: 61 | Durchschnitt: 0 Postings pro Tag
Registrierung: Jan. 2005 | Dabei seit: 7036 Tagen | Erstellt: 16:01 am 9. Feb. 2005
Beschleunigen
aus Hannover
offline



OC God
21 Jahre dabei !

Intel Core i7
3800 MHz @ 5000 MHz
90°C mit 1.425 Volt



Ich komme mit meiner Gigabyte 6800nu bei 16/6 Pipelines auf 340/820 @ 1,2V. Das entspricht ja nicht ganz einer 6800GT und konnte demnach auch nicht als solche ausgezeichnet sein, aber mir reichts. Oder mit welcher Spannung wird normalerweise eine GT betrieben. Mit 1,3 V komme ich nochmal 30 MHZ GPU höher, aber ich hab' keine Lust meine Karte zu schrotten
Wie kommt es eigentlich, dass sich der Speicher so gut OC'en laesst ? Hat das auch einen Haken, also kürzere Lebensdauer oder kaum sichtbare Bildfehler oder Hitze ? Und bei welchen Anwendungen hilft ein schnellerer Speicher ?



speicherfrequenz mal anbindung ist gleich bandbreite.. bandbreite ist nötig, wenn zu hoher auflösung noch AA hinzukommt.. wenn also intern mit noch grösserer auflösung gerechnet wird.

der witz ist einfach, dass ich keine "gute" nvidia karte kenne, die bandbreitenlimitiert ist..  die geforce²GTS mal ausgenommen..

die FX ist sicher mit 30GB/sek nicht in der bandbreite limitiert und der 6800ter wird es auch nicht anders gehen.

ein angemessener takt auf der GPU kann da schon gewaltiger an der leistung drehen..  allerdings sind heutige karten aufgrund ihrer spannungsversorgung und ausbeute nicht einfach mit "mehr" saft zu betreiben. man riskiert mehr denn je, einen totalausfall. allerdings soll es auch so sein. der kunde bekommt, was er bezahlt. mehr nicht.

eigentlich traurig, dass man eine 256bittige karte mit fetter bandbreite ausrangieren muss, nur weil die spiele-entwickler sie nicht mehr berücksichtigen.

mfg
tobi


www.TobiWahnKenobi.com

Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag
Registrierung: April 2003 | Dabei seit: 7669 Tagen | Erstellt: 16:15 am 9. Feb. 2005
BlackHawk
aus Ratingen
offline



OC God
21 Jahre dabei !

Intel Core i7
2933 MHz mit 1.145 Volt


irgendwie stimmt das ja schon, aber andererseits ist die 59xx serie auch relativ langsam (in den neuen spielen).

ich konnte das ja zum glück sehr schön vergleichen:


Albatron FX5900PV (GeForce FX 5900)

525/950MHz mit "UltraLowLatency Bios" Mod bei 1.5v

vs.

Sparkle SP-AG40DT (GeForce 6800NU)

365/864MHz mit 16pipes bei 1.4v


dabei ging die 6800er karte aber ab wie ein zäpchen, egal ob es 12 oder 16 pipes waren (in 3dmark03 punkten gesprochen: ~1500points unterschied)!

egal ob bf42.dc, farcry oder doom3, die 6800er karte lief ja ja fast doppelt so schnell, bei dazu noch besserer bildqualität!

auf bandbreite kommt es also nicht nur an, ich denke, das sich der 5900er chip einfach in die falsche richtung entwickelt hat - sozusagen!
ich war mit meiner karte damals ja super zufrieden, aber als ich dann merkte, wieviel power in der 6800er gpu/karte (wie auch immer) steckt, da ist das doch schon ein wenig faszinierend.

p.s. mit der schlechten qualität der 6800le/nu/gt karten für <300€ muss ich dir teilweise recht geben!

aber ich muss da meinem vorredner recht geben, es macht einen unterschied ob du eine karte erwischst die ausgemustert wurde weil:

- sie zu schlecht taktbar war und für eine gt/ultra nicht ausreichte

- defekte shader oder pipes besitzt

- einfach aufgrund von mangelnden low cost chips runter gelabelt wurden (sehr unwahrscheinlich)

meine sparkle hatte zum beispiel das phänomen, das sie mit fastwrites bis 365/864MHz taktbar war, ab dann jedoch nach gewisser zeit hänger auftraten.
ohne fastwrites gab es das problem erst ab ~410/864MHz - bei deutlich weniger leistung!

hinzu kommt das von dir schonmal erwähnte problem der zu geringen speichermenge im falle von extremen aa und af einsatzes!
damals wollte ich das ja nicht ganz glauben, bzw. mir reichte es das die grafikkarte alles ohne probs bei 1024x768 darstellen konnte.

seit ich jedoch den tft habe und eigentlich fast nur noch in 1280x1024er auflösung spiele (abgesehen von quake3 dank "ultimativer" cfg), recihte diese leistung eben nicht mehr!
war mir das einsetzen von aa und af mit der 5900er noch zu leistungshungrig, hab ich es mit dem kauf der 6800er karte gerne aktiviert (bis hin zum maxmimalen).
bei den neueren spielen jedoch (ich spiele gerne mal hl2 und cs:s) reichen die 128mb der normalen karten bei weitem nicht mehr aus!

schnelle drehungen sind nicht mehr möglich ohne das es rapide ruckelt um dann wieder geschmeidig zu laufen (besonders bei vielen mitspielern).

und genau aus dem grund hab ich mir eine Sparkle SP-AG40GPT mit GeForce 6800GT chipsatz gekauft!

vorerst keine sorgen mehr um zukünftige spielegenerationen (ich hab auch nicht vor mir in den nächsten monaten eine neue zu holen bzw. auf pcie umzusteigen), und vor allem:

hl2 läuft endlich perfekt mit dem tft zusammen! :)

achja... was ich auch noch sagen wollte/muss:

die 6800er gpu lässt sich endlich richtig gut takten (bis zu 432MHz bei 1.4v statt 1.3v) - sprich hier werden wahrscheinlich die (hoch)qualitativen chips eingesetzt!
keine pipes und shaderfehler, und nicht empfindlich reagierend in bezug auf fastwrites bzw. spannungserhöhung (gibt es bei den kleineren 6800ern ja auch)!

wenn man aber ne gescheite LE/NU/GT für <300€ bekommt, hat man es auch nicht wirklich schlecht... an mehr leistung für das geld kommt man nunmal zur zeit nicht - man braucht nur das quäntchen glück :thumb:

mfg BlackHawk

(Geändert von BlackHawk um 17:09 am Feb. 9, 2005)


Schreibe kurz - und sie werden es lesen. Schreibe klar - und sie werden es verstehen. Schreibe bildhaft - und sie werden es im Gedächtnis behalten!

Beiträge gesamt: 9291 | Durchschnitt: 1 Postings pro Tag
Registrierung: Juli 2002 | Dabei seit: 7934 Tagen | Erstellt: 17:04 am 9. Feb. 2005
Beschleunigen
aus Hannover
offline



OC God
21 Jahre dabei !

Intel Core i7
3800 MHz @ 5000 MHz
90°C mit 1.425 Volt


ich muss mal gucken, was ich für PEG gescheites bekomme. in den sockel A stecke ich jedenfalls nichts mehr und die FX war meine letzte AGP karte..

was dann für PEG im rechner landet, muss ich mal sehen. die gf6 ist mir schon zu lange am markt, als dass ich die noch zum vollen preis kaufe. ausserdem würde ich mich über den krach und die fehlenden eingänge nur ärgern.

erst wenn in meinem a64 auch eine gescheite graka wohnt, schalte ich den barton endgültig ab.. bis das passiert muss also die wakü-fx noch zeigen, wie man ihr potenzial nutzbar macht.. (bsp. wasserpatch f. hl2)

mfg
tobi


www.TobiWahnKenobi.com

Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag
Registrierung: April 2003 | Dabei seit: 7669 Tagen | Erstellt: 18:26 am 9. Feb. 2005