ATT kostet wertvolle Punkte im Bench...

- OCinside.de PC Forum
https://www.ocinside.de

-- Benchmark Ergebnisse
https://www.forum-inside.de/forums.cgi?forum=22

--- ATT kostet wertvolle Punkte im Bench...
https://www.forum-inside.de/topic.cgi?forum=22&topic=74

Ein Ausdruck des Beitrags mit 17 Antworten ergibt bei 3 Antworten pro Seite ca. 6 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 29.94 Gramm Papier.


-- Veröffentlicht durch rage82 am 20:28 am 1. Sep. 2008

der wirkungsgrad liegt bei über 80%, ist ca 20% last.

es sind 16w, aber wenn wir das ganze jetzt schon wieder klein reden wollen dann sind es immerhin über 400% mehr als das was taker so behauptet ;)


ich habe so 25-30w behauptet, und du gehst wie immer vom schlechtesten fall aus.

du könntest auch einfach sagen, jo das macht mehr als 10% aus ;)


-- Veröffentlicht durch kammerjaeger am 18:45 am 1. Sep. 2008

Aha, 21W sind schon anders als 30W, zumal Du dabei auch noch den Wirkungsgrad des NT einberechnet hast, wodurch die GPU nur effektiv ca. 16W ausmacht (je nach Wirkungsgrad!)...

(Geändert von kammerjaeger um 18:47 am Sep. 1, 2008)


-- Veröffentlicht durch spraadhans am 9:18 am 1. Sep. 2008

Hatte seinerzeit mit der x1950gt so um die 10w durch bloße taktabsenkung gespart, als Nebeneffekt kann man natürlich die lüfter auf minimum regeln, bzw. ganz deaktivieren.

Kann also das Ergebnis beim G80 ganz gut nachvollziehen.


-- Veröffentlicht durch rage82 am 22:50 am 28. Aug. 2008

nein, nicht bei einem g80. dort senke ich die taktraten von speicher und gpu, gpu-core spannung kann man per software schliesslich nicht absenken ;)


edit:

so nachdem ich die letzten Tage kühlschrank und tiefkühltruhe ausgemessen hab, hab ich das Messgerät jetzt wieder am rechner.

grakatakt: 600/1600/1000: 142W
              : 153/405/255: 121W

macht also 21W aus, oder schöner ausgedrückt komme ich auf 10 Euro ersparnis im jahr, blos weil ich ne zusätzliche software installiert hab ;) (bei 8h täglichem betrieb und 18c/kwh)

(Geändert von rage82 um 13:17 am Aug. 31, 2008)


-- Veröffentlicht durch kammerjaeger am 22:45 am 28. Aug. 2008

Kann mich da t4ker nur anschließen. 30W sind übertrieben, sofern Du nicht die 3D-Taktraten als Vergleich nimmst! Schließlich ist im 2D-Betrieb die Taktrate ohnehin schon abgesenkt... ;)


-- Veröffentlicht durch rage82 am 18:12 am 28. Aug. 2008

mit einem energiemessgerät? :noidea:


-- Veröffentlicht durch t4ker am 18:10 am 28. Aug. 2008

man sollte zwischen GDRR4 und GDDR3 unterscheiden-> bei GDDR4 bringts immerhin ein bischen was.... bei GDDR3 fast nix. Bei meiner 8800GS spart man 3 Watt. Keine Ahnung wie du bitte auf 30 Watt kommst!


-- Veröffentlicht durch rage82 am 17:09 am 28. Aug. 2008

@taker

es gehört hier zwar nicht her, aber da liegst du ein wenig falsch ;)
4870 vram runtertakten z.b.

bei meiner g80 gts liegen da etwa 25-30w zwischen dem standardtakt und den minimalen taktraten ;)


-- Veröffentlicht durch t4ker am 16:53 am 28. Aug. 2008

wenn du nicht auch die GPU Spannung abgesetzt hast sparst du vllt 3-5 Watt= Unmengen :lol: mich hauts weg!

Stell mir das bei dir so vor dass du nur die Taktraten runtergestellt hast und dein Gewissen beruhigst. Bist aber nicht alleine!!!

mfg


-- Veröffentlicht durch NecRoZ am 13:13 am 28. Aug. 2008


Zitat von spraadhans um 8:16 am Aug. 28, 2008
Ich hab mit meiner 1950gt die ATT für Profile und somit automatisches under-/overclocking verwendet und war sehr zufrieden.

hab beim kauf und ausloten der maximalfrequenzen natürlich auch alles ab dem 03 getestet und m.W. auch bessere Werte als ohne ATT herausbekommen...

Vermutlich wohl eher ein Systemproblem...



hmm, es liegt meiner meinung wohl an der neuen verison, da ich mit dem alteren omega afaik auch bessere ergebnisse hatte  :noidea:

ja auto-overclock hab ich auch (im 2d betrieb 200/200) und spaar so UNMENGEN an strom


ich werde dann nach hoffentlich erfolgreichem pinmod nochmal mit dem omega benchen, aber dieses gefummel beim pinmod macht mich krank:godlike:


-- Veröffentlicht durch spraadhans am 8:16 am 28. Aug. 2008

Ich hab mit meiner 1950gt die ATT für Profile und somit automatisches under-/overclocking verwendet und war sehr zufrieden.

hab beim kauf und ausloten der maximalfrequenzen natürlich auch alles ab dem 03 getestet und m.W. auch bessere Werte als ohne ATT herausbekommen...

Vermutlich wohl eher ein Systemproblem...


-- Veröffentlicht durch kammerjaeger am 23:29 am 27. Aug. 2008

Sehr CPU-unabhängig ist Devil May Cry 4. Gibt es als Demo mit inegriertem Bench oder als reinen Benchmark. Ist jedoch als Konsolenumsetzung sehr performant, arbeitet aber teilweise mit sehr intensiven Lichteffekten.


-- Veröffentlicht durch rage82 am 20:59 am 27. Aug. 2008

company of heroes hat einen, crysis hat einen, trackmania nations is graphisch auch ned die höhe der zeit, hat aber einen.

ansonsten fällt mir noch FEAR ein, das hat auch einen, is aber auch shader 3-generation


-- Veröffentlicht durch NecRoZ am 20:54 am 27. Aug. 2008

ah sch****e... welches Source-spiel hat denn den benchmark, also nicht den lost coast bench sonder den im tunnel mit dem feuer usw (ausser css

ich lad trotzdem mal lost coast :P
gibts noch andre halbwegs aktuelle spiele benchmarks (Freeware) ?
für WiC muss ich wieder die DVD rauskramen -.-"  spiel ja nur den multi und der braucht keine
;)


-- Veröffentlicht durch NecRoZ am 20:39 am 27. Aug. 2008

ja die gedanken hab ich mir auch gemacht :noidea:

auf meinem system werden spiele die technisch dem 2003er entsprechen garantiert halbwegs flüssig laufen, aber dennoch könnte dies vor allem für leute mit schwächeren systemen interessant sein.

leider hab ich im moment keinen ordentlichen spiele-benchmark, aber eventuell kann ich mal den ingame-bench von World in Conflict sowie HL2 testen;)


ich habe den 03er auch mehrmals getestet, ich vermute sehr stark, dass die treibereinstellungen auf "performance" beim ATT alte shadermodels behindert
:noidea:

highest framerate bei "wings of fury" ohne ATT/CCC ist knapp 2000FPS mit ATT nur etwa 1200/1300...


BRB ich benchmarke WiC und lade wieder HL2 über steam ^^


-- Veröffentlicht durch rage82 am 18:00 am 27. Aug. 2008

recht interessant und wie sieht das ganze bei programmen/spielen aus?


um ehrlich zu sein sind mir die 3dmark-punkte sch****egal, solange die spiele meiner wahl in meiner geforderten auflösung mit möglichst hohem AA und, falls möglich, auf 2 monitoren flüssig laufen ;)


und wenn es sich im 3mark06 fast gar nicht auswirkt, würde ich den 03er sicherheitshalber nochmal testen, ob da nicht irgendwas im hintergrund aktiv war.

aber selbst wenn: ein spiel, das vom aufwand her dem 3dmark03 entspricht, wird mit sicherheit auch mit dem CCC laufen.

und selbst wenn, man muss es ja nicht installieren ;)


-- Veröffentlicht durch NecRoZ am 17:40 am 27. Aug. 2008

hallo, ic hhabe heute aus testzwecken wieder mal gebenchet, mit ATT (wie immer) mit CCC und mit beiden ausgeschalten... die ergebnisse waren imo erschrecken :O

testsystem ist steht in der signatur, die taktraten könnt ihr an nem scrrenshot ablesen (sind etwas anders wie in der signatur)

gebenchet wurde mit 3dmark06 und  3dmark03, jeweils die aktuellste version mit fixes usw.

treiber usw sind alle auf den screenies zu sehen!


test-sys:



3dmark06:

mit ATT:

ohne ATT und CCC:



3dmark03

mit ATT:

mit CCC:

ohne ATT und CCC:

unschwer zu erkennen das sich ATT in 06er kaum beeinflusst, dafür im 03er umso mehr...  natürlich sind in beidem, CCC sowie ATT alle regler auf performance, kein Vsync usw...



(Geändert von NecRoZ um 17:41 am Aug. 27, 2008)

EDIT: ich sehe grad mir isn kleiner fehler unterlaufen beim 06er ohne ATT/CCC, da hab ich den screenie überschrieben, aber die differenz war etwa 10 mehr ohne ATT/CCC;)

(Geändert von NecRoZ um 17:45 am Aug. 27, 2008)


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de