|
|
|
Beschleunigen
aus Hannover offline
OC God 21 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
ähm, so ungern ich meinen senf zu den neuen karten dazugebe: lasst diese freischalt-naivität fallen. unterm strich sind LE's durch redundanz ausgesonderte chips, die alle fehler haben. ob ihr die jetzt sofort seht, ob die karte durchknallt oder ob es erst bei späteren titeln in erscheinung tritt, ist völlig schnuppe. technisch gesehen ist der 66er die bessere karte. es sind einige fehler behoben worden, die in der 68 version noch vorhanden sind (z.b. fehler im vp).. auch gibt's die 66er bereits mit video-eingängen.. das interface würde ich nicht zu stark bewerten. mein 256bittiges interface auf der FX wird mir bei der marktsituation auch keine vorteile bringen.. es liegt nämlich an den spiele-entwicklern, was eine karte leisten kann. auf rohpower kommt es nicht mehr an. in der theorie reichen die 30GB/sek meiner FX für extrem hohe auflösungen mit AA aus.. aber in der realität begrenzt die anzahl der shader und pipelines den transfer mehr, als die bandbreite. die tendenz ist dahingehend, dass man nur noch das bekommt, was man auch bezahlt hat. es ist hart, aber so siehts nunmal aus. eine freigeschaltete karte ist immer eine potenzielle fehlerquelle.. wenn dann mal irgendwann probs auftreten, werdet ihr schon wissen, was ich meine.. bsp. 2600mhz sind ne tolle sache auf der CPU.. aber was nutzt es, wenn man damit zwar benchen, aber nicht 8 stunden am stück stabil arbeiten kann.. ?! oder: meine geOCte FX lief fast 2 jahre sauber mit 575 mhz GPU takt (standard sind 475mhz).. alle benches und alltags-situationen laufen sauber und schnell.. tja, aber es gibt immer mal ausreisser.. z.b. NFSU2.. da kann ich maximal 550mhz GPU takt geben.. gleiches bild in HL2 und V2.. es ist nicht immer alles in ordnung, nur weil es augenscheinlich oder temporär den anschein hat. wartet erstmal ab, wie sich freigeschaltete karten im langzeit-test bewähren.. wenn dann wieder neue games erscheinen oder andere benchmarks.. mfg tobi
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 7669 Tagen | Erstellt: 14:46 am 9. Feb. 2005
|
|
|
JoBe
aus Oberding offline
OC Newbie 20 Jahre dabei !
AMD Opteron 2400 MHz mit 1.5 Volt
|
Mag sein, dass die 6800le irgendwann mal nicht so läuft, wie sie sollte, aber das Risiko gehe ich ein. Die LE ist zwar das Abfallprodukt, aber der Chip ist immer noch der gleiche wie der auf den schnellen 6800ern. Ungemoddet ist die 6800le schon deutlich langsamer, als die 6600GT, dafür läuft sie nicht am Limit und hat meistens noch Luft nach oben. Ich hab mir einige Benchmarks angesehen, da ist die 6800le in fast keinem schneller als die 6600GT, auch nicht mit 1600x1200er Auflösung. Aber wenn man ein paar Pipelines freischalten kann, dann zieht sie der 6600GT deutlich davon. Auch mit FSAA geht geht die Karte mit dem 256bittigen Speicherinterface nicht so schnell in die Knie, das benutz ich recht gern, weil ich einen TFT hab, der max. nur 1024x768 unterstützt. Man hört ja öfters, dass die 6600GTs mit AGP einfach abrauchen und ich hab echt kein Bock drauf, dauernd Angst um meine teure Hardware haben zu müssen. Es gibt ja mehrere Gründe, warum man einen Chip aussondert. Es kann sein, dass er einfach den höheren Takt nicht aushält, die Pixel-Pipelines und Vertex-Shader jedoch vollkommen intakt sind. Oder dass es zu wenige Chips für die 6800er und 6800les gibt und man deshalb vollwertige verwendet, um den Engpass zu beheben. Meiner Meinung nach ist es schon mal nen Versuch wert. Ich glaube nicht, dass ich später mal Probleme mit der Karte haben werde, wenn doch, bin ich im Nachhinein schlauer und lern was draus.
|
Beiträge gesamt: 32 | Durchschnitt: 0 Postings pro Tag Registrierung: Dez. 2003 | Dabei seit: 7423 Tagen | Erstellt: 15:21 am 9. Feb. 2005
|
|
Beschleunigen
aus Hannover offline
OC God 21 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
naja - das problem ist einfach, dass kein hersteller irgendwelche chips anhand der möglichen taktung labelt. es greift einzig die redundanz. da testet niemand den takt. um auf nem TFT mit kantenglättung zu zocken, reicht selbst meine FX noch locker aus (und ich spiele dann meist 1280x1024 2AA/8AF).. bei kleineren auflösungen bekomme ich je nach stellung der bildschirmskalierung AA auch für lau. um AGP mache ich mir generell keine gedanken mehr. meinetwegen können die karten da alle nach dem ersten einschalten explodieren. das mit den brückenchips ist eh nur eine (taktfeindliche) übergangslösung. die nächsten generationen werden wohl nur noch für PEG erscheinen. schade für die, die jetzt ein AGP 939 system ownen.. die kaufen dann neben der graka gleich noch ein neues board. ich für meinen teil werde jedenfalls nichts mehr in die 32bit AGP maschine einbauen.. falls morgen oder übermorgen mein neuer rechner kommt, denke ich bestenfalls drüber nach, was ich aus der alten kiste noch ausbaue und welche PEG karte ich kaufen gehe.. allerdings muss ich mal sagen, dass ich mich überhaupt nicht genötigt fühle, eine neue graka zu kaufen. für die 5 spiele, die mir gefallen, reicht selbst eine GF2/3 völlig aus. ich rede von gothic1+2, diablo1+2, morrowind und AOE.. LOL greets tobi
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 7669 Tagen | Erstellt: 15:55 am 9. Feb. 2005
|
|
jodokus
aus Häscher offline
OC Newbie 19 Jahre dabei !
AMD Barton 1833 MHz @ 2205 MHz 51°C mit 1.8 Volt
|
Ich komme mit meiner Gigabyte 6800nu bei 16/6 Pipelines auf 340/820 @ 1,2V. Das entspricht ja nicht ganz einer 6800GT und konnte demnach auch nicht als solche ausgezeichnet sein, aber mir reichts. Oder mit welcher Spannung wird normalerweise eine GT betrieben. Mit 1,3 V komme ich nochmal 30 MHZ GPU höher, aber ich hab' keine Lust meine Karte zu schrotten Wie kommt es eigentlich, dass sich der Speicher so gut OC'en laesst ? Hat das auch einen Haken, also kürzere Lebensdauer oder kaum sichtbare Bildfehler oder Hitze ? Und bei welchen Anwendungen hilft ein schnellerer Speicher ? #edit: Gute PEG-Karte soll ja die Radeon X800XL sein mit 16 Pipes und 256 MB GDDR für ca. 250-300 Eur. Ist halt Ati, aber die sind ja auch ganz ok -> siehe auch andere threads (Geändert von jodokus um 17:06 am Feb. 9, 2005)
Asus A7N8X-E dl, Corsair XMS DDR333 1024MB 2-2-2-5-1, Gigabyte GV-N68128DH 16/5 @ 345/835, Bequiet 450W, Chieftec CS-601 blau
|
Beiträge gesamt: 61 | Durchschnitt: 0 Postings pro Tag Registrierung: Jan. 2005 | Dabei seit: 7036 Tagen | Erstellt: 16:01 am 9. Feb. 2005
|
|
Beschleunigen
aus Hannover offline
OC God 21 Jahre dabei !
Intel Core i7 3800 MHz @ 5000 MHz 90°C mit 1.425 Volt
|
Ich komme mit meiner Gigabyte 6800nu bei 16/6 Pipelines auf 340/820 @ 1,2V. Das entspricht ja nicht ganz einer 6800GT und konnte demnach auch nicht als solche ausgezeichnet sein, aber mir reichts. Oder mit welcher Spannung wird normalerweise eine GT betrieben. Mit 1,3 V komme ich nochmal 30 MHZ GPU höher, aber ich hab' keine Lust meine Karte zu schrotten Wie kommt es eigentlich, dass sich der Speicher so gut OC'en laesst ? Hat das auch einen Haken, also kürzere Lebensdauer oder kaum sichtbare Bildfehler oder Hitze ? Und bei welchen Anwendungen hilft ein schnellerer Speicher ?
| speicherfrequenz mal anbindung ist gleich bandbreite.. bandbreite ist nötig, wenn zu hoher auflösung noch AA hinzukommt.. wenn also intern mit noch grösserer auflösung gerechnet wird. der witz ist einfach, dass ich keine "gute" nvidia karte kenne, die bandbreitenlimitiert ist.. die geforce²GTS mal ausgenommen.. die FX ist sicher mit 30GB/sek nicht in der bandbreite limitiert und der 6800ter wird es auch nicht anders gehen. ein angemessener takt auf der GPU kann da schon gewaltiger an der leistung drehen.. allerdings sind heutige karten aufgrund ihrer spannungsversorgung und ausbeute nicht einfach mit "mehr" saft zu betreiben. man riskiert mehr denn je, einen totalausfall. allerdings soll es auch so sein. der kunde bekommt, was er bezahlt. mehr nicht. eigentlich traurig, dass man eine 256bittige karte mit fetter bandbreite ausrangieren muss, nur weil die spiele-entwickler sie nicht mehr berücksichtigen. mfg tobi
www.TobiWahnKenobi.com
|
Beiträge gesamt: 3727 | Durchschnitt: 0 Postings pro Tag Registrierung: April 2003 | Dabei seit: 7669 Tagen | Erstellt: 16:15 am 9. Feb. 2005
|
|
BlackHawk
aus Ratingen offline
OC God 21 Jahre dabei !
Intel Core i7 2933 MHz mit 1.145 Volt
|
irgendwie stimmt das ja schon, aber andererseits ist die 59xx serie auch relativ langsam (in den neuen spielen). ich konnte das ja zum glück sehr schön vergleichen: Albatron FX5900PV (GeForce FX 5900) 525/950MHz mit "UltraLowLatency Bios" Mod bei 1.5v vs. Sparkle SP-AG40DT (GeForce 6800NU) 365/864MHz mit 16pipes bei 1.4v dabei ging die 6800er karte aber ab wie ein zäpchen, egal ob es 12 oder 16 pipes waren (in 3dmark03 punkten gesprochen: ~1500points unterschied)! egal ob bf42.dc, farcry oder doom3, die 6800er karte lief ja ja fast doppelt so schnell, bei dazu noch besserer bildqualität! auf bandbreite kommt es also nicht nur an, ich denke, das sich der 5900er chip einfach in die falsche richtung entwickelt hat - sozusagen! ich war mit meiner karte damals ja super zufrieden, aber als ich dann merkte, wieviel power in der 6800er gpu/karte (wie auch immer) steckt, da ist das doch schon ein wenig faszinierend. p.s. mit der schlechten qualität der 6800le/nu/gt karten für <300€ muss ich dir teilweise recht geben! aber ich muss da meinem vorredner recht geben, es macht einen unterschied ob du eine karte erwischst die ausgemustert wurde weil: - sie zu schlecht taktbar war und für eine gt/ultra nicht ausreichte - defekte shader oder pipes besitzt - einfach aufgrund von mangelnden low cost chips runter gelabelt wurden (sehr unwahrscheinlich) meine sparkle hatte zum beispiel das phänomen, das sie mit fastwrites bis 365/864MHz taktbar war, ab dann jedoch nach gewisser zeit hänger auftraten. ohne fastwrites gab es das problem erst ab ~410/864MHz - bei deutlich weniger leistung! hinzu kommt das von dir schonmal erwähnte problem der zu geringen speichermenge im falle von extremen aa und af einsatzes! damals wollte ich das ja nicht ganz glauben, bzw. mir reichte es das die grafikkarte alles ohne probs bei 1024x768 darstellen konnte. seit ich jedoch den tft habe und eigentlich fast nur noch in 1280x1024er auflösung spiele (abgesehen von quake3 dank "ultimativer" cfg), recihte diese leistung eben nicht mehr! war mir das einsetzen von aa und af mit der 5900er noch zu leistungshungrig, hab ich es mit dem kauf der 6800er karte gerne aktiviert (bis hin zum maxmimalen). bei den neueren spielen jedoch (ich spiele gerne mal hl2 und cs:s) reichen die 128mb der normalen karten bei weitem nicht mehr aus! schnelle drehungen sind nicht mehr möglich ohne das es rapide ruckelt um dann wieder geschmeidig zu laufen (besonders bei vielen mitspielern). und genau aus dem grund hab ich mir eine Sparkle SP-AG40GPT mit GeForce 6800GT chipsatz gekauft! vorerst keine sorgen mehr um zukünftige spielegenerationen (ich hab auch nicht vor mir in den nächsten monaten eine neue zu holen bzw. auf pcie umzusteigen), und vor allem: hl2 läuft endlich perfekt mit dem tft zusammen! achja... was ich auch noch sagen wollte/muss: die 6800er gpu lässt sich endlich richtig gut takten (bis zu 432MHz bei 1.4v statt 1.3v) - sprich hier werden wahrscheinlich die (hoch)qualitativen chips eingesetzt! keine pipes und shaderfehler, und nicht empfindlich reagierend in bezug auf fastwrites bzw. spannungserhöhung (gibt es bei den kleineren 6800ern ja auch)! wenn man aber ne gescheite LE/NU/GT für <300€ bekommt, hat man es auch nicht wirklich schlecht... an mehr leistung für das geld kommt man nunmal zur zeit nicht - man braucht nur das quäntchen glück mfg BlackHawk (Geändert von BlackHawk um 17:09 am Feb. 9, 2005)
Schreibe kurz - und sie werden es lesen. Schreibe klar - und sie werden es verstehen. Schreibe bildhaft - und sie werden es im Gedächtnis behalten!
|
Beiträge gesamt: 9291 | Durchschnitt: 1 Postings pro Tag Registrierung: Juli 2002 | Dabei seit: 7934 Tagen | Erstellt: 17:04 am 9. Feb. 2005
|
|
|
|
|