Benutzername:   Noch nicht registriert?
Passwort:   Passwort vergessen?
iB Code Einmal klicken um den Tag zu öffnen, nochmal klicken zum Schliessen

Top Smilies
Beitrag

HTML ist on für dieses Forum

IkonCode ist on für dieses Forum

SMILIES LEGENDE ansehen

Beitragsoptionen Möchten Sie Ihre Signatur hinzufügen?
Wollen Sie per Email über Antworten informiert werden?
Wollen Sie Emoticons in Ihrem Beitrag aktivieren?
 

Beitragsrückblick für ATT kostet wertvolle Punkte im Bench... (die neuesten Beiträge zuerst)
rage82 Erstellt: 20:28 am 1. Sep. 2008
der wirkungsgrad liegt bei über 80%, ist ca 20% last.

es sind 16w, aber wenn wir das ganze jetzt schon wieder klein reden wollen dann sind es immerhin über 400% mehr als das was taker so behauptet


ich habe so 25-30w behauptet, und du gehst wie immer vom schlechtesten fall aus.

du könntest auch einfach sagen, jo das macht mehr als 10% aus
kammerjaeger Erstellt: 18:45 am 1. Sep. 2008
Aha, 21W sind schon anders als 30W, zumal Du dabei auch noch den Wirkungsgrad des NT einberechnet hast, wodurch die GPU nur effektiv ca. 16W ausmacht (je nach Wirkungsgrad!)...

(Geändert von kammerjaeger um 18:47 am Sep. 1, 2008)
spraadhans Erstellt: 9:18 am 1. Sep. 2008
Hatte seinerzeit mit der x1950gt so um die 10w durch bloße taktabsenkung gespart, als Nebeneffekt kann man natürlich die lüfter auf minimum regeln, bzw. ganz deaktivieren.

Kann also das Ergebnis beim G80 ganz gut nachvollziehen.

rage82 Erstellt: 22:50 am 28. Aug. 2008
nein, nicht bei einem g80. dort senke ich die taktraten von speicher und gpu, gpu-core spannung kann man per software schliesslich nicht absenken


edit:

so nachdem ich die letzten Tage kühlschrank und tiefkühltruhe ausgemessen hab, hab ich das Messgerät jetzt wieder am rechner.

grakatakt: 600/1600/1000: 142W
              : 153/405/255: 121W

macht also 21W aus, oder schöner ausgedrückt komme ich auf 10 Euro ersparnis im jahr, blos weil ich ne zusätzliche software installiert hab (bei 8h täglichem betrieb und 18c/kwh)

(Geändert von rage82 um 13:17 am Aug. 31, 2008)
kammerjaeger Erstellt: 22:45 am 28. Aug. 2008
Kann mich da t4ker nur anschließen. 30W sind übertrieben, sofern Du nicht die 3D-Taktraten als Vergleich nimmst! Schließlich ist im 2D-Betrieb die Taktrate ohnehin schon abgesenkt...
Weniger Antworten Mehr Antworten
rage82 Erstellt: 18:12 am 28. Aug. 2008
mit einem energiemessgerät? :noidea:
t4ker Erstellt: 18:10 am 28. Aug. 2008
man sollte zwischen GDRR4 und GDDR3 unterscheiden-> bei GDDR4 bringts immerhin ein bischen was.... bei GDDR3 fast nix. Bei meiner 8800GS spart man 3 Watt. Keine Ahnung wie du bitte auf 30 Watt kommst!
rage82 Erstellt: 17:09 am 28. Aug. 2008
@taker

es gehört hier zwar nicht her, aber da liegst du ein wenig falsch
4870 vram runtertakten z.b.

bei meiner g80 gts liegen da etwa 25-30w zwischen dem standardtakt und den minimalen taktraten
t4ker Erstellt: 16:53 am 28. Aug. 2008
wenn du nicht auch die GPU Spannung abgesetzt hast sparst du vllt 3-5 Watt= Unmengen :lol: mich hauts weg!

Stell mir das bei dir so vor dass du nur die Taktraten runtergestellt hast und dein Gewissen beruhigst. Bist aber nicht alleine!!!

mfg
NecRoZ Erstellt: 13:13 am 28. Aug. 2008

Zitat von spraadhans um 8:16 am Aug. 28, 2008
Ich hab mit meiner 1950gt die ATT für Profile und somit automatisches under-/overclocking verwendet und war sehr zufrieden.

hab beim kauf und ausloten der maximalfrequenzen natürlich auch alles ab dem 03 getestet und m.W. auch bessere Werte als ohne ATT herausbekommen...

Vermutlich wohl eher ein Systemproblem...



hmm, es liegt meiner meinung wohl an der neuen verison, da ich mit dem alteren omega afaik auch bessere ergebnisse hatte  :noidea:

ja auto-overclock hab ich auch (im 2d betrieb 200/200) und spaar so UNMENGEN an strom


ich werde dann nach hoffentlich erfolgreichem pinmod nochmal mit dem omega benchen, aber dieses gefummel beim pinmod macht mich krank:godlike:
×