Festplattenperformance auf der Spur

- OCinside.de PC Forum
https://www.ocinside.de

-- Benchmark Ergebnisse
https://www.forum-inside.de/forums.cgi?forum=22

--- Festplattenperformance auf der Spur
https://www.forum-inside.de/topic.cgi?forum=22&topic=86

Ein Ausdruck des Beitrags mit 37 Antworten ergibt bei 3 Antworten pro Seite ca. 13 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 64.86 Gramm Papier.


-- Veröffentlicht durch GenialOmaT am 13:24 am 9. April 2011

Hätte den ultimativen Test parat und zwar CATIA V5.. Leeres Programmfenster braucht auf nem Standard Notebook ca. 2 Minuten zum laden, mit ner Velociraptor weniger als halb so viel und mit einer SSD oder einem schnellen USB Stick ca. 10 Sekunden..

Allerdings sehen die Resultate nicht so vielversprechend aus, wie ich gedacht habe und wenn man sich mal die Preise der aktuellen Velociraptor (die für SATA 6gbit) Modelle anschaut, z.B. 600GB für 179 Euro (Vergleich billigste 600GB SSD für 872 Euro) finde ich die gar nicht so unnötig wie du sagst.. Ist auf jedenfall ein deutlicher Unterschied zu einer normalen HDD und da spreche ich aus Erfahrung..

Da ich im Moment nur normale Festplatten habe, werde ich das mit dem Shortstroking trotzdem mal probieren und dann mal den CATIA Start messen..


-- Veröffentlicht durch Hitman am 12:05 am 13. Nov. 2010

Ja, es war genau 1 Sekunde schneller.

Das war auch die Zeit, die einige Programme schneller oder langsamer waren. Ich habe es damals mit ner Kamera im Hintergrund aufgenommen und später die Videos miteinander verglichen. Fazit war:

Short-Stroke ist genauso wie Raid-0 für den Std.-Anwender eine Nonsense Lösung, die außer hohen Transferraten im hohen KB bis MB Bereich nichts verbessert, nein sogar durch den Wegfall des Speicherplatzes verschlechtert.

Es ist also immer noch so, dass eine SSD einfach ungeschlagen ist. Wobei ich persönlich immer noch auf eine intelligente Festplatten-Hybrid-Platte warte. Denn eigentlich braucht man nur eine 20GB SSD mit einer Festplatte (Größe völlig Hupe) kombinieren. Die SSD sollte dann Dateien mit Dateien kleiner als 1MB automatisch erkennen und dort speichern. Denn bei großen MB Bereichen sind Festplatten in der Transferrate fast ebenbürtig. Das wäre so in etwa die Seagate Momentus XT, die aber leider ihre 4GB SSD-Bereich dazu nutzt, Programme, welche öfter aufgerufen werden, auf diesem Bereich zu speichern damit sie beim nächsten Start beschleunigt werden.


-- Veröffentlicht durch kammerjaeger am 23:32 am 12. Nov. 2010


Zitat von Hitman um 15:13 am Nov. 12, 2010

Das habe ich gemacht. Das Fazit ist, dass sich die Zugriffszeit dann wieder auf den Wert einpendelt, wie es bei einer kompletten Raid-0 Partition wäre. Heißt: Bei 2 x 1TB = 2TB und 2x 100GB  + 2x 900GB kommt dieselbe Datenrate und Zugriffszeit heraus. Nur wenn ich 2x100GB Partitioniere dann wird die geringere Zugriffszeit angezeigt.



Das ist klar, nicht ohne Grund habe ich gesagt, dass so etwas mit HDTune & Co. nicht messbar ist, weil HDTune nicht nur die erste Partition testet! Und aus diesem Grund habe ich ebenfalls nach der Bootzeit gefragt, wenn eine zweite Partition eingerichtet ist, auf die aber nicht zugegriffen wird!
Dein ShortStroke ist/war ja auch auf einem RAID. Insofern wird RAID mit RAID verglichen, die Initialisierungszeit des RAID dürfte gleich sein, unabhängig von der Partitionierung.

Daher noch einmal meine Frage:
Ändert sich die Bootzeit (nach der RAID-Initialisierung), wenn neben der ShortStroke-Partition eine zweite Partition eingerichtet wird? Bitte Zeit in Sekunden angeben! Denn nur das ist ein echter Beweis dafür, dass ShortStroke tatsächlich einen echten Vorteil bringt ggü. einer sinnvollen Partitionierung für System/Software/Auslagerungsdatei und separater reiner Datenpartition!


-- Veröffentlicht durch Hitman am 15:13 am 12. Nov. 2010

"Viel interessanter finde ich jedoch die Frage:
Was passiert, wenn Du den Rest des RAID als Partition erstellst. Messbar anhand von Benches dürfte es nicht sein, ob dann die Performance der Systempartition (ShortStroke) gleich bleibt, wenn sie nicht auf die weiteren Partitionen zugreift. Aber Du kannst messen, ob sich die Windows-Bootzeit ändert. Falls ja, liegt es an der Zugriffszeit, welche sich aber meiner Meinung nach nicht ändern dürfte, sofern während des Bootvorgangs nicht auf die zweite Partition zugegriffen wird."

Das habe ich gemacht. Das Fazit ist, dass sich die Zugriffszeit dann wieder auf den Wert einpendelt, wie es bei einer kompletten Raid-0 Partition wäre. Heißt: Bei 2 x 1TB = 2TB und 2x 100GB  + 2x 900GB kommt dieselbe Datenrate und Zugriffszeit heraus. Nur wenn ich 2x100GB Partitioniere dann wird die geringere Zugriffszeit angezeigt.

Die Bootzeitenmessung ist relativ. Ansich ist es schneller, aber nur nach dem Raid-Initialisieren. Man spart im Endeffekt 0 denn die Bootzeit wird durch den Raid Modus wieder ausgebremst. Man hat dieselbe Bootzeit wie mit einer Einzelplatte.

Und im Test waren eben nur die Transferraten erhöht, alles andere war gleich. Die 1 Sekunde schneller oder auch langsamer habe ich als Messtolleranz gesehen, denn das ist gar nichts. Jegliche Programme haben mehr oder weniger schnell geladen, es war nirgends ein "Sprung" zu sehen.

Es gibt in meinen Augen nur eine Möglichkeit Short-Stroke + Speicherplatz zu haben. Vom Denken her. Leider ist dies mit HDTune nicht messbar.
Und zwar, wenn man Short-Stroke mit 2 Festplatten macht als eine Partition. Die andere Partition im Raid-Menü erstellen aber in Windows unformatiert lassen. Dadurch wird Windows nicht den gesamten Festplattenbereich absuchen oder darauf zugreifen, sondern nur in dem Short-Stroke Teil. Danach muss man mit Truecrypt die 2te Partition verschlüsseln. Die Partition wird auch weiterhin als unformatiert angezeigt.

Wenn ich jetzt die 2te Partition mounte, dann wird meine Zugriffszeit wieder auf das Niveau von 2 x 1TB runtergezogen, weil ja dann wieder auf die gesamte Festplatte zugegriffen wird. Also kann ich in der Zeit z.B. meine Daten kopieren, verschieben oder sonst was. Wenn ich dann fertig bin, dismounte ich meine 2te Partition.

Damit wird Windows wieder nur auf meine 2 x 100GB zugreifen, welche ja am Anfang der Festplatten liegen und daher meine Transferraten und Zugriffszeiten geringer sein.

Das ist aber nur Thorie, denn das kann man so mit HDTune nicht messen, da kommt nichts bei raus. Es macht aber vom logischen Denken einen Sinn. Denn wenn Windows nur 200GB "sieht" als Partition, so kann es dort auch nur suchen und zugreifen. Und das ist der schnelle Bereich. Wenn ich jetzt Mounte ist wieder der gesamte 2TB Bereich sichtbar und zugreifbar, auch der langsame Teil, wodurch meine Zugriffszeit und Transferrate wieder abnimmt.
Dismounte ich nun, hat Windows wieder nur 200GB zur Verfügung und ist wieder im schnellen Bereich.

Aber generell: Raid-0 taugt nichts für Std. Anwender. Ohne ein zweites Raid-0 ist es sinnlos.

"Ich dachte halt ich warte eben mit der SSD bis ich ein Board mit Sata III habe."

Kein Vorteil. Selbst die Crucial ist nur im großen Dateienbereich schneller. Also hast du in Benchmarks nur bessere Transferraten. Die dir aber in deinem PC überhaupt keinen Vorteil bringen. Das Wichtigste sind die Zugriffe bei sehr kleinen Dateien. Und da ist eine SSD mit Sandforce Controller (egal welche) oder Intel Controller um Längen schneller als eine Festplatte oder ein Raid-0 (mit wievielen Festplatten auch immer).

"Mine Systempartition ist im Moment 100GB. Davon sind fast 60 GB belegt."

Meinst du das ändert sich in der nächsten Zeit noch viel? Wenn ja: 120GB SSD kaufen. Wenn nein: 80GB Intel SSD kaufen.

"Ist halt die Frage 170 €uro ausgeben oder bissel Performance mit der vorhandenen Hardware rauskitzeln. "

Das ist eine falsche Frage. Die Frage ist eigentlich: Bist du bereit, Geld auszugeben für etwas, was du nicht brauchst? Denn SSDs beschleunigen dir "nur" den Bootvorgang, das Laden von Programmen, die Ladezeiten bei Spielen wird geringer. Die Dauertransferrate kannst du getrost vergessen. Außerdem, wenn du am Tag nur einmal bootest, wenn du nur einmal Firefox aufmachst und das dann den ganzen Tag anhast. Wenn du Photoshop aufrufst und das dann minimiert weiter laufen lässt. In all diesen Fällen bringt dir eine SSD gar nichts. Denn du hast das Zeug dann im Ram liegen und das ist eh schon der schnellste Teil im Rechner. Nur wenn du das dann schließt, neu aufrufst, oder du schneidest Videos während des Spielens und Surfens mit deiner zweiten Tastatur an den Füßen......

Ich persönlich habe im Notebook eine SSD weil ich es gerne lautlos haben wollte. Ich bereue es nicht. Die 80GB reichen, meine Daten liegen auf einer 2,5" externen USB-Festplatte, ebenso Spiele.


-- Veröffentlicht durch kammerjaeger am 13:27 am 12. Nov. 2010

@ Hitman
Interessant finde ich, dass beim 2TB-RAID die Datenrate nicht wirklich abfällt und selbst zum Ende hin auf einem Level mit dem ShortStroke ist. Lediglich die Zugriffszeit ist beim ShortStroke besser. Üblicherweise sollte auch beim RAID die Datenrate abfallen, hier ist sie konstant auf 175-180MB/sec, also sogar doppelt so hoch wie die Einzelplatte bei 1TB, aber vorher nicht schneller... :noidea:

Viel interessanter finde ich jedoch die Frage:
Was passiert, wenn Du den Rest des RAID als Partition erstellst. Messbar anhand von Benches dürfte es nicht sein, ob dann die Performance der Systempartition (ShortStroke) gleich bleibt, wenn sie nicht auf die weiteren Partitionen zugreift. Aber Du kannst messen, ob sich die Windows-Bootzeit ändert. Falls ja, liegt es an der Zugriffszeit, welche sich aber meiner Meinung nach nicht ändern dürfte, sofern während des Bootvorgangs nicht auf die zweite Partition zugegriffen wird.

(Geändert von kammerjaeger um 13:34 am Nov. 12, 2010)


-- Veröffentlicht durch k3im am 10:29 am 12. Nov. 2010


Zitat von Hitman um 9:16 am Nov. 12, 2010
http://www.computerbase.de/forum/showthread.php?t=730591&highlight=short+stroke

????

Nein wenn du ein Raid-0 mit 80GB machst dann fehlen dir einfach 420GB. Die darfst du nämlich nicht nutzen sonst ist der Short-Stroke Effekt weg.



Das ist schon klar ;) Auf die 420 GB würde ich ja dann auch verzichten. Ich dachte halt ich warte eben mit der SSD bis ich ein Board mit Sata III habe.

Mine Systempartition ist im Moment 100GB. Davon sind fast 60 GB belegt. Wenn ich mich bei einer SSD genauso verhalten würde, müsste es schon eine 120er sein. Ich denke die 60GB Teile bekomme ich sonst sehr schnell in die Knie.

Ist halt die Frage 170 €uro ausgeben oder bissel Performance mit der vorhandenen Hardware rauskitzeln.



-- Veröffentlicht durch Hitman am 9:16 am 12. Nov. 2010

http://www.computerbase.de/forum/showthread.php?t=730591&highlight=short+stroke

"Der Plan wäre also die beiden 250GB Platten im Raid0 mit Shortstroke auf meinem Hauptrechner fürs BS laufen zu lassen. Ich denke 80GB sollten bei den beiden Platten die dann in der Summer so um die 460Gb ergeben ein gutes Ergebnis liefern. "

????

Nein wenn du ein Raid-0 mit 80GB machst dann fehlen dir einfach 420GB. Die darfst du nämlich nicht nutzen sonst ist der Short-Stroke Effekt weg.

Wirklich günstiger ist es da direkt eine SSD zu kaufen. Für 100€ bekommt man schon eine mit 64GB die dann für Betriebssystem, Programme locker reichen sollten. 120GB kosten ca. 170€.

Es sei denn du wartest ein wenig, weil bald der Launch der neuen Intel ist. Und da nehme ich an werden die Preise fallen. Das ist aber auch nur eine Vermutung.


-- Veröffentlicht durch rage82 am 8:05 am 12. Nov. 2010


Zitat von kammerjaeger um 23:13 am Nov. 11, 2010



Zitat von k3im um 16:44 am Mai 3, 2010

Welche Faustregel gibt es denn für die Aufteilung? Bei TH haben sie glaube ich als Besipiel eine 1 TB Platte mit 3 Plattern a ca 333 GB genommen. Von jedem Platter 10% macht 100GB.
Soll ich dann für die Partition 25 GB veranschlagen? Der Verlust von dem rest macht mir nix aus.

...

Wichtig ist glaube ich das man erstmal weiss welche Bereich der Platte für Short Stroke genutzt werden kann bis die Performance Einbußen anfangen. Wie kriegt man das raus?



Wie gesagt: Lass mal HDTune laufen. Dort siehst Du sehr schön, ab wann die Kurve tendenziell abfällt. Meist liegt das bei ca. 20% der Gesamtkapazität. Der Unterschied zu 10% dürfte verschwindend gering sein, sich jedoch schnell relativieren, wenn die Kapazität von 10% nahezu erschöpft ist.



(Geändert von kammerjaeger um 23:32 am Nov. 11, 2010)



wobei short stroke mehr bringt, wenn man die partition minimal hält, zwischen 10 und 20% liegen mehr wegstrecke als zwischen den ersten 10%, aber messtechnisch sicher mal interessant zu wissen, wieviel es tatsächlich ist.


-- Veröffentlicht durch kammerjaeger am 23:13 am 11. Nov. 2010

Selbst mit Short Stroke kommt eine HDD nie an die Zugriffszeit einer SSD ran! Man rückt zwar einer WD VelociRaptor ziemlich nah auf die Pelle was die Zugriffszeit angeht (die bei der Raptor bei ca. 7,0-7,5ms real liegt während man mit ShortStroke auf "normalen" Platten ca. 8-9ms erreicht), aber wird nicht annähernd an SSDs ran kommen (0,1-0,2ms).

Bei Deinem "Knecht" stellt sich die Frage, ob Ladezeiten so wichtig sind, wenn dort nur gelegentlich mal zu zweit gegeneinander gespielt wird. Dafür Geld auszugeben oder Speicherplatz zu verschenken halte ich für fragwürdig...




Zitat von k3im um 16:44 am Mai 3, 2010

Welche Faustregel gibt es denn für die Aufteilung? Bei TH haben sie glaube ich als Besipiel eine 1 TB Platte mit 3 Plattern a ca 333 GB genommen. Von jedem Platter 10% macht 100GB.
Soll ich dann für die Partition 25 GB veranschlagen? Der Verlust von dem rest macht mir nix aus.

...

Wichtig ist glaube ich das man erstmal weiss welche Bereich der Platte für Short Stroke genutzt werden kann bis die Performance Einbußen anfangen. Wie kriegt man das raus?



Wie gesagt: Lass mal HDTune laufen. Dort siehst Du sehr schön, ab wann die Kurve tendenziell abfällt. Meist liegt das bei ca. 20% der Gesamtkapazität. Der Unterschied zu 10% dürfte verschwindend gering sein, sich jedoch schnell relativieren, wenn die Kapazität von 10% nahezu erschöpft ist.



Nochmal zur SSD:
Ordentliche Vertreter mit Samsung- oder Sandforce-Controller sind mit 60-64GB für <100,- zu haben. Sollte man kein TRIM nutzen können (z.B. unter XP), empfehlen sich jedoch komplette Backups der System-SSD, die man in regelmäßigen Abständen zurück spielt, nachdem die SSD mal gelöscht wurde. So hat man nie das Problem einbrechender Performance.
Intel X25-M-SSDs sind zwar beim lesen schnell (genau wie Crucial RealSSD C300), kranken aber in der Schreibrate. Stärkere Allround-Vertreter sind da die aktuellen Sandforce SF-1200-Modelle oder Samsungs PB22-J oder 470-Serie.


(Geändert von kammerjaeger um 23:32 am Nov. 11, 2010)


-- Veröffentlicht durch k3im am 22:30 am 11. Nov. 2010

Hey Ho!

Ich überlege immo mir ne SSD zu kaufen, einfach so weil ich es könnte, allerdings will ich eigentlich nicht mehr Stück für Stück mein System aufrüsten und eventuell erst beim nächsten mal (MoBo, Prozzi wechsel) in der Richtung was unternehmen.

Momentan habe ich meinen Rechner, um den es geht, und einen Rechenknecht. Zur Verfügung habe ich die schon erwähnten 2x250 GB Spinpoint, eine 500 GB und eine 1TB Platte.

Eine der beiden Spinpoints läuft immo im Knecht soll heissen falls ich mich zu dem nun folgenden entschliessen sollte muss ich 2 Rechner neu installern.

Der Plan wäre also die beiden 250GB Platten im Raid0 mit Shortstroke auf meinem Hauptrechner fürs BS laufen zu lassen. Ich denke 80GB sollten bei den beiden Platten die dann in der Summer so um die 460Gb ergeben ein gutes Ergebnis liefern.

Verbessern müsste sich doch durch diese Aktion auch die Zugriffszeit auf die Auslagerungsdatei oder nicht?

Im Knecht würde ich dann die 500GB unterbringen, eventuell auch mit Short Stroke, der ist eigentlich nur für Multiplayer, sprich zu zweit DODSource oder Strategie Spiele gegeneinanderr zocken.
Im Hauptrechner wären dann die beiden 250er plus die 1 TB Platte.

Aus Bastelgründen würde ich das natürlich schon machen. Einfach um mal wieder was zu frimeln.

Lohnt sich denn der Aufwand oder habe ich irgendwo einen Denkfehler?

Gruß!

(Geändert von k3im um 22:31 am Nov. 11, 2010)


(Geändert von k3im um 22:32 am Nov. 11, 2010)


-- Veröffentlicht durch Hitman am 7:56 am 17. Mai 2010

Oder einfach rechtsklick: Kompatibilitätsmodus auf XP stellen und starten...


-- Veröffentlicht durch k3im am 22:37 am 16. Mai 2010

HDTach verweigert den Dienst unter Win 7 :( Müsste also eine Platte an einen XP Rechner hängen und nochmal probieren oder warten bis ich neu aufsetze, dann mal eben XP druff, Sweep Point rausfinden und ab dafür :)


-- Veröffentlicht durch kammerjaeger am 23:12 am 3. Mai 2010

Für den Test kannst Du die laufende Platte nehmen.

Btw.: 10% halte ich für übertrieben. Die meisten Platten fangen erst zwischen 20 und 30% an, in der Datenrate abzubauen. Lediglich die Zugriffszeit geht mit zunehmender Größe konstant hoch.

P.S.: Hab gerade mal eine alte ExcelStor 40GB SATA getestet. In der Datenrate schafft sie zwar nicht die Hälfte, aber bei der Zugriffszeit macht sie meine 500er locker platt (mit HDTune gemessene 12,8ms). :lol:

(Geändert von kammerjaeger um 23:29 am Mai 3, 2010)


-- Veröffentlicht durch k3im am 22:10 am 3. Mai 2010

Muss die Platte dafür denn formatiert sein oder kann ich die so wie sie ist partinioniert und alles testen.
Da ich ja zwei davon im Sys habe wäre es halt einfacher wenn ich die zweite für den Test nehmen würde. Sind ja baugleich die Dinger.
Ausserdem kann ich schlecht formatieren weil ich mein Sys immo nicht verändern kann und will :)


-- Veröffentlicht durch Hitman am 20:18 am 3. Mai 2010

Du hast mein Problem gefunden weswegen ich momentan hake ;)

Laut mehreren Informationen erstellt Windows die Partitionen vom Schnellsten zum Langsamsten Teil. Daher wird deine erste Partition immer auf der schnelleren Spur sein.

Wie du richtig erkannt hast, kann man das jedoch mit keinem mir bekannten Tool nachprüfen, denn HDTune kann nur eine Festplatte, nicht aber eine Partition auf Geschwindigkeit testen.

Wenn du wissen willst, welcher Bereich noch schnell ist, dann schließe die Platte als Zweitlaufwerk an und starte HDTach. Damit siehst du eine rote Kurve. Just in dem Segment indem die Leistung nur noch abwärts geht, davor ist dein Sweep Point. Nen Richtwert gibt es da nicht. Da du den Rest eh nicht nutzen willst, mach doch den Sweep Point für Windows und dann eine 5GB Partition für die Auslagerungsdatei.


-- Veröffentlicht durch k3im am 16:44 am 3. Mai 2010

Die Idee von kammer mit den kleinen Platten finde ich ganz gut. Habe selber hier 2  250er Spinpoint.
Wenn ich jetzt eine davon nehmen würde für diese short stroke Sache und da nur Windows drauf laufen lasse.
Welche Faustregel gibt es denn für die Aufteilung? Bei TH haben sie glaube ich als Besipiel eine 1 TB Platte mit 3 Plattern a ca 333 GB genommen. Von jedem Platter 10% macht 100GB.
Soll ich dann für die Partition 25 GB veranschlagen? Der Verlust von dem rest macht mir nix aus. Das mounten bei Bedarf würde mich also erstmal gar nicht interessieren.
Welche Tools bräuchte man denn dafür? Nur mal angenommen. :thumb:
Oder reicht es einfach nur auf HD0 eine Partition von 25 GB anzulegen, und der Rest bleibt unformatiert.
Legt das Windoof Formatierungstool dann die erste Partition automatisch auf dem äußersten Teil der Scheibe an?  (Soll doch außen sein wegen Rotationsgeschw. oder nicht :noidea: Dachte früher immer wäre innen damit der Lesekopf nen kurzen Weg hat)

Allerdings sind 25 GB für Windows und alle Programme doch ein bissel wenig. 4-6 GB kann man erstmal noch für die Auslagerungsdatei abziehen, das summiert sich.

Wichtig ist glaube ich das man erstmal weiss welche Bereich der Platte für Short Stroke genutzt werden kann bis die Performance Einbußen anfangen. Wie kriegt man das raus?

Gruß!


-- Veröffentlicht durch Hitman am 18:05 am 1. Mai 2010

Leute, welche Spiele soll ich testen? Ich werde den Testparcour nochmal komplett neu durchlaufen lassen, später dann auch im Raid-0.

Ich brauche noch ein paar Anregungen. Wie bei CB werde ich I-Tunes installieren und nach der Ladezeit gucken. OpenOffice installieren. 4,7GB Isos kopieren und hin und her schieben.

Aber bei welcher Spiele-Demo gehts auch nach Ladezeit?


-- Veröffentlicht durch Hitman am 13:46 am 23. April 2010

"Warum sollte der Lesekopf im normalen Windows-Betrieb bei meinem Beispiel auf die weiteren Partitionen zugreifen, wenn ich nicht explizit Daten von dort aufrufe?"

Frag mich nicht. Ich teste ja später mit deinem Vorschlag und einen wenn ich nur eine Partition in der Gesamtgröße mache. Von daher: In Arbeit ;)

"Insofern wäre doch die Windows-Performance die gleiche, als wenn ich den Rest unpartitioniert lasse. Genau das ist mein Anliegen! "

Mag ja sein. Ändert aber nichts ;)  Ich kenne den Vorgang des Betriebssystems nicht. Ich weiss nur, dass das kein Short Stroke mehr ist, weil du eben durch die Partition Windows auf Reisen schickst. Ob das nur mit Windows ist: kA.
Ob das mit anderen Parametern anders ist: kA.

Ich weiss ja eigentlich noch nichtmals ob Short-Stroke aktiv ist, weil ich nicht sehen kann wo die Partition überhaupt liegt.


-- Veröffentlicht durch kammerjaeger am 13:21 am 23. April 2010

@ rage82 & Hitman

Warum sollte der Lesekopf im normalen Windows-Betrieb bei meinem Beispiel auf die weiteren Partitionen zugreifen, wenn ich nicht explizit Daten von dort aufrufe? Sofern ich Windows, Auslagerungsdatei und die wichtigsten Programme auf der kleinsten Platte habe, sehe ich keinen Grund, warum die Köpfe auf die Idee kommen sollten, auf die anderen Partitionen zuzugreifen (vom Virenscan mal abgesehen...)!
Insofern wäre doch die Windows-Performance die gleiche, als wenn ich den Rest unpartitioniert lasse. Genau das ist mein Anliegen! ;)


@ Hitman
Du kannst ja mal einfach den verbleibenden Rest der Platte partitionieren und dann schauen, ob sich an der Bootzeit etwas ändert (erst der zweite Bootvorgang dürfte hier relevant sein, weil beim ersten Mal evtl. noch die neue Partition wie ein neues Gerät initialisiert/erkannt wird).

(Geändert von kammerjaeger um 13:26 am April 23, 2010)


-- Veröffentlicht durch Hitman am 12:59 am 23. April 2010

@Papst
Du bist entweder faul oder hast keine Lust. Hab dir gestern schon gesagt: Was du wissen willst: Schreibs rein.

Ich habe Bootzeiten mit Stoppuhr gestoppt. Für ein Programm laden jedoch keine benutzt. Ich kann aber, wenn jemand einen Test haben möchte mir sagen WIE ich das testen soll? Ein Programm laden? Welches?

@rage82
so ist es. Ich wollte eigentlich diese: "Ey ich hab ne Raptor, ihr könnt mich alle mal" Sprüche ad absurdum führen. Leider habe ich selber keine mit der ich nen Gegentest machen kann, aber gerne lass ich mir Tests zeigen.

@Kammerjäger
Nein es gibt kein Tool für so einen Benchmark. Aber der HDTune in der Pro Version besitzt den Haken: Short Stroke. Damit simulierst du eine Festplattengröße von XX GB welche am Anfang der Festplatte ist.

Du verschenkst den Rest ja nicht. Das war ja der Test. Sagen wir so:
Wenn du deine gesamte Platte nutzen willst hast du in etwa dieses Bild:


Wenn du jetzt die ersten 40GB der Festplatte nutzt hast du das hier:


So, Short-Stroke bedeutet, dass das Betriebssystem nicht auf die gesamte Platte sondern nur auf die ersten Bereiche der Festplatte zugreift. Wenn ich also jetzt eine Partition erstelle am Anfang der Platte (macht Windows automatisch), so kann ich diesen schnellen Bereich mit der niedrigeren Zugriffszeit nutzen (haben übrigens Firmen gemacht so wie ich das gelesen habe, in einem Raid-0 mit unzäligen Platten, weil die so genauso schnell wie die damaligen SCSI waren)

Wenn ich jetzt den Rest der Platte unformatiert lasse, kann Windows z.B. nicht auf die Partition zugreifen. Das bedeutet, dass Windows seinen Schreib-/Lesekopf auch nicht auf diese Spuren nutzt. Und da ich ja jetzt nur auf dem schnellen Bereich zugreife, wird auch nur dessen Geschwindigkeit genutzt.

Den Rest der Platte kann man mit Truecrypt mounten. Dort lagern dann Spiele, Musik, Filme. Während ich also mit Windows arbeite habe ich die Partition dismounted und nutze die schnelle Geschwindigkeit. Will ich jetzt einen Film gucken, Musik hören oder Spiele spielen mounte ich die Platte und habe wieder die Gesamtgeschwindigkeit der Festplatte von dem oberen Bild. Was aber kaum auffällt.

Die 40GB sind der Ultimate Sweep Point. Bei ca. 100GB hat man mit dieser Festplatte den Sweep Point. Das heißt ab dort geht es unaufhörlich mit der Datenrate nach unten, und der Zugriffszeit nach oben. Das bedeutet: Man hat ca. 100GB von 1400 als "Schnellbereich" und 1300GB als "Datengrab".

Und das Preis/Leistungs Verhältnis ist somit um längen besser als eine teure Raptor zu kaufen.

(Geändert von Hitman um 12:59 am April 23, 2010)


-- Veröffentlicht durch rage82 am 10:20 am 23. April 2010

einen kleinen.

der vorteil bei dieser variante kommt ja daher, das der schreib/lesekopf nur in dem kleinen partitionierten bereich arbeiten muss und diesen, außer bei abschaltung, nicht verlässt.

nutzt du den rest, kann es vorkommen das der kopf gerade arbeit auf einer anderen partition verrichtet (und dabei wird es wohl egal sein, welches os verwendet wird) und dann zwischen den partitionen hin und herspringt, voila ein ganz normales festplatten verhalten.

dies soll hier verhindert werden, daher würde sich eine ein platter laufwerk mit hoher datendichte, aber geringer kapazität, günstig erworben, für dieses szenario eignen um den (allerdings ja sehr günstigen) kapazitätsverlust in grenzen zu halten und die performance, ich würde mal sagen ordentlich zu erhöhen, bei quasi 0 erhöhung der lautstarke ala einer alten raptor.
(welch ein toller satz... grammatikalisch :lol: )


-- Veröffentlicht durch kammerjaeger am 0:03 am 23. April 2010

Btw.: Gibt es denn ein Benchmark-Tool, dass die Performance einzelner Partitionen einer Platte testet? Denn warum sollte ich den "Rest" einer Platte einfach verschenken, wenn eine simple Aufteilung in eine kleine und schnelle Boot-Partition sowie eine langsamere Daten-Partition den gleichen Effekt hat?
HDTune testet ja leider immer die ganze Platte bzw. den gesamten partitionierten Bereich, auch wenn ich mehrere Partitionen habe.

Sinnvoll wäre doch eigentlich folgende Aufteilung:
Man nehme zwei kleine bis mittlere Platten, von denen bei Platte eins die erste Partition als Windows-Partition eingerichtet wird. Bei der zweiten Platte wird ebenfalls ein kleiner Teil als Partition für Programme eingerichtet, bei denen die Zugriffszeit und Datenrate ebenfalls wichtig sind (z.B. Spiele, wenn man immer Erster auf der Karte sein will).
Den restlichen Platz der beiden Platten kann man dann für Daten nutzen, die nicht so performance-sensibel sind.
So hätte man mit minimalem Kostenfaktor reichlich Platz und trotzdem hohe Performance.

Oder hab ich da einen Gedankenfehler drin? :noidea:


-- Veröffentlicht durch The Papst am 22:27 am 22. April 2010

Beeindruckende Werte. Berichte mal, wie sich das ganze im Alltag bemerkbar macht.


-- Veröffentlicht durch Hitman am 22:15 am 22. April 2010

Also weder mit diesem noch mit einem anderen Tool habe ich es hinbekommen.

Daher lass ich es erstmal. Kleiner Zwischenbericht:
Getestet wurde momentan 1600Mhz, 2400Mhz, 2400Mhz defragmentiert
40GB Partition mit Windows gemacht, der Rest unformatiert.
4GB DDR-2 @ 667Mhz, ATI 4550, Coolermaster UCP700, Seagate 1500GB 7200 U/Min. Intel Q6600.

PCMark Vantage, HDTUNE, HDTACH, ATTO

SuperPi: 31,6s ; 21,2s; 21,2s
wprime (32): 29,5s ; 26s ; 19,4s (!!!)
wprime (1024): 933,6s ; 840,8s ; 615s (!!!)

HDTUNE
min: 61,6 MB/s
max: 126,1 MB/s
average: 100,2 MB/s
ms: 15,6ms

HDTUNE SHORT STROKE 40GB: (selbe Platte!)
min: 111 MB/s
max: 126,1 MB/s
avg: 123,5 MB/s
ms:8,4ms   (!!!!!!!!!!!!!!!!)

Weiter Tests folgen natürlich. Habe alles mit Screenshots hier, falls jemand was haben möchte. PCMARK Score der Festplatte war unbewegt, ATTO hatte nur wenige Messtolleranzen. Ansich kann man sagen, kein Unterschied für die Festplatte ansich bei 1600Mhz, 2400Mhz oder mit einer Defragmentierung mithilfe von 0&0 mit der NAME Defrag.

Wieso WPRIME durch die Defragmentierung so schnell geworden ist entzieht sich meinem Verständnis. Kann mir da einer aushelfen?

Short Stroke Werte sind wie erwartet unglaublich hoch. Im nachhinein ärger ich mich, nicht den Sweep Spot und den Ultimate Sweep Spot ausgelotet zu haben. Der Sweep Spot ist der Punkt, an dem die Festplatte noch sehr hohe Datenraten bietet auf dem Anfang der Festplatte. Der Ultimate Sweep Point lässt dabei noch weniger Schwankungen zu, ist somit der schnellste Bereich einer Festplatte.

Die Short Stroke Zugriffszeit ist beachtlich und liegt bei 8,4ms. Das ist im Vergleich bei normalem benuten der Festplatte von 15,6ms schon fast die Hälfte!                


-- Veröffentlicht durch rage82 am 19:08 am 17. April 2010

manche sachen wird man erst beim benutzen feststellen, so funktioniert bei meinem v-lite rc1 auf dem netbook die heimnetzgruppen nicht richtig, beim beitreten passiert einfach nichts.


-- Veröffentlicht durch Hitman am 19:03 am 17. April 2010

Hab mir jetzt notiert was ich mit vlite entfernt habe. Mal sehen, nach und nach sollte man doch rausfinden. Wenn es gar net geht dann kann ich damit auch leben, muss ich eben nachträglich alles sinnlose in Windows entfernen.

PS: Laut dem ATTO Test hat Short Stroking übrigens funktioniert.


-- Veröffentlicht durch rage82 am 18:45 am 17. April 2010

bootvis funktioniert seit vista nicht mehr, soweit ich das weiss. falls doch, darfst du hier gerne schreiben wie du es geschafft hast :)


@kammer
short-stroke wird nicht nur die bootzeit beeinflussen, sondern das ganze OS ein wenig beschleunigen. mit der richtigen, günstigen platte (eine hochintegrierte, mit einem platter ausgestattete variante) erhälst du also mehr als nur eine verringerte bootzeit, ohne kosten einer längeren shutdown-dauer.


-- Veröffentlicht durch Hitman am 18:18 am 17. April 2010

Dafür brauch ich ja nur ein neues Board ;)

Der Ruhezustand ist schnell. Ich glaub am Längsten brauch noch das Booten des Bios und einbinden der gesamten Hardware....

Bootvis werde ich auch noch testen.

Ich hänge gerade an den Einstellungen von vlite, mit dem man eigentlich die Installations-DVD verkleinern kann. Leider aber funktioiert das "nicht so gut". Er mault bei mir nach jeglicher Änderung herum.

Ich probiere jetzt erst die großen Sachen wegzulassen und dann nach und nach und berichte was geht und was man lieber lassen sollte. Frisst natürlich alles Zeit wie Butter.


-- Veröffentlicht durch kammerjaeger am 17:37 am 17. April 2010


Zitat von Hitman um 13:23 am April 16, 2010
Mein normaler PC dagegen ist nur an wenn ich wirklich was machen will, wie Filme umwandeln. Da wäre es schön wenn er schneller gebootet ist.



Dafür gibt es auch andere Möglichkeiten als Short-Stroke oder SSD & Co, ohne dabei auf Speicherplatz verzichten zu müssen oder teures Geld zu zahlen. Man braucht nur das richtige Board und/oder die passenden Tools! So z.B. "Instant Boot" von ASRock. Damit dauert zwar das Herunterfahren länger, aber dafür geht der Windows-Boot selbst bei zugemüllten Systemen in wenigen Sekunden! ;)

Ansonsten schöner Bericht. :thumb:


-- Veröffentlicht durch rage82 am 17:21 am 17. April 2010

mitunter kann im raid-0 die zugriffszeit sogar leicht höher liegen, von daher gibt es wesentlich mehr fälle, in denen sich das raid-0 im windowsbetrieb zum nachteil auswirkt, als zum vorteil (zumindest bei festplatten).

die velociraptor bringt vorteile. sie hat eine signifikant niedrigere zugriffszeit als "normale" 3,5" platten. aber wie die tests von hitman beweisen werden, kann man auch eine passende normale platte kaufen und unter verlust von speicherplatz der raptor auf den pelz rücken.

ich habe gerade mal treesize über meinen windowsordner gejagt:
win7 pro
12,8gb
64500 dateien
0,2mb durchschschnittliche dateigröße


-- Veröffentlicht durch Hitman am 15:15 am 17. April 2010

Den Cache kann man getrost ignorieren. Da haben sich damals schon zu ganz kleinen Cache-Größen Einige dran aufgehangen.

Es macht kaum einen Unterschied aus, ob eine Festplatte 16MB oder 32MB oder sogar 64MB hat. Das sind marginale Unterschiede, denn ansich wird die Datei immer nur vom langsamen Magnetspeicher der Festplatte gelesen.

"Wie klein genau ist denn die Windows Durchschnittsdatei? "
Argh ich weiss ich hab dazu eine Angabe im Computerbase Forum gesehen. Ich such es dir gerne raus. Geb mir bitte etwas Zeit dafür.

Gibt keine Prügel. Nur eine einfache Antwort: Ein RAID-0 bringt bei WINDOWS rein gar nichts. 0, nada, nichts.
Ich weiss dass viele ein Raid-0 gemacht haben mit ihren Festplatten und ich war einer von ihnen. Nachdem sich aber herausstellte dass EIN Raid-0 nichts bringt, bin ich auf 2 Raid-0 umgestiegen damals mit meinen Maxtor Festplatten.

Die Controller für Raid-0 und Raid-1 sind nicht schlecht. Jedoch ist das Einsetzen eines solchen Raids einfach nur Unsinn für Normalanwender. Raid-1 braucht immer eine zweite Festplatte in Reserve die man nicht nutzen kann.

Und Raid-0 wie oben. Man kann wenn man nur EIN Raid-0 hat entweder Lesen oder Schreiben. Wenn wir also jetzt ein Raid-0 haben, und deswegen eine doppelte Lese und Schreibgeschwindigkeit können wir trotzdem nur Lesen-Schreiben-Lesen-Schreiben. Pro Unterbrechung kommt die Zugriffszeit der einzelnen Festplatte hinzu. Was bedeutet, der Vorteil hebt sich auf.

Man hat dieselbe Geschwindigkeit wenn man von Festplatte A auf Festplatte B kopiert. Weil hier kann man gleichzeitig Lesen von A und auf B schreiben.

Daher braucht man also um die volle Lese/Schreibstärke nutzen zu können auch ein zweites Raid-0 um darauf wiederum zu lesen/schreiben.

Die Zugriffszeit wird kaum geändert bei einem Raid-0, wo wir wieder bei MB/s - Zugriffszeit wären, was glaube ich oben mit dem Auto-Vergleich gut rüber kommt. Was nützt dir wenn du 250km/h fahren kannst aber immer nur in der Stadt fährst?


-- Veröffentlicht durch k3im am 14:50 am 17. April 2010

Sehr interessant. Was bisher nicht so ganz hervorgeht (oder ich habs ueberlesen) ob und wie wichtig der Cache für den Lese bzw. Schreibzugriff ist. :noidea:
Wie klein genau ist denn die Windows Durchschnittsdatei?

Auch auf die Gefahr hin jetzt verbal verprügelt zu werden  :punch: in wie weit würde sich denn ein RAID 0 für Windows eignen wenn es eine Velociraptor nicht tut?
Ich weiss hier gehts nur um Single Platten aber jedes Board bringt ja mittlerweile einen Raid Controller mit, die doch bestimmt mittlerweile ga rnicht mal mehr so schlecht sind oder doch?

(Geändert von k3im um 14:51 am April 17, 2010)


-- Veröffentlicht durch Hitman am 11:31 am 17. April 2010

So, dann mal was bisher gemacht wurde:

PC:
Prozessor: Intel Q6600 @1600Mhz & 2400Mhz (Boxed)
Mainboard: MSI P45 FR-3
Arbeitsspeicher:4 x 1GB DDR2 667Mhz
Grafikkarte: ATI 4550
Netzteil: Coolermaster UCP 700W
Laufwerk: IDE LG DVD Brenner
Festplatte: Seagate 1,5TB 7200.11 mit 7200U/Min

Der erste Wert ist mit 1600Mhz, der zweite mit 2400Mhz:

Booten Kaltstart: 52s / 45s
Ruhezustand (herunterfahren): 10s / 7s
Ruhezustand (hochfahren): 30s / 30s

Es wurden noch folgende Benchmarks laufen gelassen:
SuperPi 1MB; wPrime; PCMark Vantage; HD Tach, HD Tune Pro (inkl. Short-Stroke Test) ; Atto

Jetzt werde ich die Festplatte mit O&O Defrag aufräumen lassen mit der COMPLETE Methode. Danach alle Tests noch einmal machen.

Danach wird der Test gemacht mit nur einer Partition auf der Festplatte.

Und danach der gesamte Test mit der mit vLite abgespeckten Windows 7 Version.


-- Veröffentlicht durch rage82 am 13:31 am 16. April 2010


Zitat von Hitman um 13:23 am April 16, 2010


Zur Raptor: Wie oben. Die Raptor hat ca. 7ms Zugriffszeit. Eine mit Short-Stroke verkleinerte Partition kommt auf ca. 9ms bei einer konstanten Lese/Schreibrate von 120MB/s über die gesamte Größe.




achso, ich dachte das wäre eine generell gültige aussage.
der gedanke wäre hier, die kleinste raptor günstig einzukaufen und dasselbe durchführen. der gewinn dürfte bei einer standard desktop platte sicher höher ausfallen, aber schneller is schneller... wenn der aufpreis stimmt ;)


-- Veröffentlicht durch Hitman am 13:23 am 16. April 2010

Nein.  :lol:

Ich kann es noch nicht ganz erklären aber ich arbeite an einer Methode mit der man zum einen Short-Stroke benutzen kann, zum anderen aber auch Daten schreiben kann. Wie du sagst darf die Partition nicht formatiert sein, jedenfals nicht für Windows sichtbar. Das will ich mit einem Truecrypt-Datenträger vermeiden. Wenn Windows startet kann er auf die mit Truecrypt verschlüsselte Partition nicht zugreifen und brauch deswegen auch weniger Zugriffszeit. Die Windows-Partition befindet sich am Anfang der Festplatte.
Wenn man also Daten nun speichern oder abrufen will, mountet man die "versteckte" Partition einfach und DANACH hat man evtl. Leistungseinbrüche weil man dann auf seine Daten zugreift. Da man aber nicht ständig irgendwelche Daten hin und her schiebt, zudem ja immer eine Sicherung haben sollte könnte man dort z.B. Filme lagern, die Partition wieder dismounten und Windows würde wieder nicht darauf zugreifen können, ferner die Zugriffszeit wieder erniedrigt werden.
Alles noch Theorie, das Problem ist ein Programm zu finden was das überhaupt messen kann....

Zur Raptor: Wie oben. Die Raptor hat ca. 7ms Zugriffszeit. Eine mit Short-Stroke verkleinerte Partition kommt auf ca. 9ms bei einer konstanten Lese/Schreibrate von 120MB/s über die gesamte Größe.

"also da du geschrieben hast, was getestet werden soll, aber nicht mit was dieser test dann durchgeführt wirdl, schlage ich einfach mal den pc-mark vantage vor. der zeigt ja auch einzel ergebnisse die zielführend sein sollten. "

Ich möchte das anhand einer Seagate 1,5TB Platte mit 5400U/Min machen. Denn das sind die momentan am günstigsten zu erwerbenen Plattengrößen. Ich kann das auch danach mit einer 250GB 5400U/Min 2,5" Notebookfestplatte machen. Deswegen suche ich momentan noch nach Methoden die Festplatten zu testen. An einen PC-mark Test hatte ich nicht gedacht. Danke.

"aufgrund der mess(un)genaugkeit noch die frage, wie du die bootzeit misst?"
Mit ner Stoppuhr. Messungenauigkeiten sind für mich ca. 1sek. Gemessen wird dann vom Starten des PCs bis zum erscheinen des Windows-Desktops. Da keine extra Programme in den Autostart kommen dürfte es keine Unterschiede geben.

Naja, ich boote mein System ca. 1 mal am Tag mit dem Notebook. Wenn überhaupt. Meistens ist die Kiste 24/7 an. Mein normaler PC dagegen ist nur an wenn ich wirklich was machen will, wie Filme umwandeln. Da wäre es schön wenn er schneller gebootet ist.
Deswegen auch der Ruhezustand sehr interessant da er ja aus dem Ram auf die Festplatte und dann von Festplatte in Ram schreibt.


-- Veröffentlicht durch rage82 am 12:24 am 16. April 2010

da du im LT was von short-stroking geschrieben hast, solltest du dazuschreiben, dass du beim verwenden der verkleinerten windows-partition den rest gar nicht erst formatierst, oder zumindest nicht mountest, da ansonsten die vorhandenen vorteile wieder hopps gehen (können).


ich bin mal auf die ausführung gespannt, warum eine (veloci)raptor fürs OS nichts bringt. die i/o-werte und zugriffszeiten einer raptor sind "besser" als bei einer normalen platte. thg hat ja leider "damals" nur mit einer sas platte zum vergleichen getestet. aber die war der desktop-platte in allen belangen überlegen. gut, die hatte natürlich die doppelten rpm.


also da du geschrieben hast, was getestet werden soll, aber nicht mit was dieser test dann durchgeführt wirdl, schlage ich einfach mal den pc-mark vantage vor. der zeigt ja auch einzel ergebnisse die zielführend sein sollten.

aufgrund der mess(un)genaugkeit noch die frage, wie du die bootzeit misst? mir ist leider immer noch kein tool bekannt, dass diesen job seit vista erledigen kann.

zum verkleinern sei gesagt, dass ich damit keinerlei vorteile erreicht habe. allerdings habe ich dies mit dem RC1 getestet und von daher mal schauen, es steht auf dem netbook bald mal die installation von win7 an. das rebooten alle 2 stunden passiert manchmal wirklich zu ungünstigen zeitpunkten :lol:

edit: fehler hier, fehler da...

(Geändert von rage82 um 12:26 am April 16, 2010)


-- Veröffentlicht durch Hitman am 12:10 am 16. April 2010

Ich frage mich gerade welche Möglichkeit der Informationsvermittlung die Beste ist. Eine wäre euch mit Informationen, die nur versierte Computernutzer verstehen, zuzubomben. Das möchte ich nicht. Wenn hier Diskussionen entstehen: "Warum etwas so ist" spreche ich das gerne später an.

Worum gehts?
Fast jeder hat eine Festplatte im Computer. Diese ist momentan als genau das abgestempelt worden, was Computerspezialisten schon seit Jahren pauken: Das Langsamste im gesamten Computer!

Warum?
(vereinfacht) Eine Festplatte besitzt Magnetscheiben und Schreib-/Leseköpfe die sie über die Magnetscheiben positionieren muss. Dafür benötigt ein Schreib-/Lesekopf eine bestimmte Zeit. Diese nennt man Umgangssprachlich Zugriffszeit. Deshalb Umgangssprachlich, weil im Festplattenbereich oft mit verschiedenen Zugriffszeiten hantiert wird. Die häufigste angewandte Zugriffszeit ist die mittlere (und somit Durchschnittliche) Zugriffszeit bis eine Datei gelesen oder geschrieben wird.

Gibt es da nicht noch sowas wie MB/s? Wenn die höher sind ist doch alles schneller oder nicht?
Genau das ist ein weit verbreiteter "Aberglaube".

Ein leicht verständliches Beispiel: (leicht überspitzt)
Stellen wir uns den Festplattensektor mal in Form von Autos vor.

Wir haben 3 Autos. Das erste Auto ist ein Elektrofahrzeug.
Das zweite Auto ist ein Audi A4. Und das dritte Fahrzeug ist ein Wohnwagen.

Das Elektroauto schafft maximal 70km/h, diese Geschwindigkeit wird nach 0,1s erreicht. Das Elektroauto kann also aus dem Stand heraus voll beschleunigen, dafür passt nur der Fahrer rein.
Der Audi A4 schafft maximal 170km/h, diese Geschwindigkeit erreicht er nach 10s. Mittlerer Platz.
Der Wohnwagen schafft 130km/h, diese Geschwindigkeit erreicht er nach 15s. Er kann aber seinen gesamten Haushalt mitnehmen.

Jetzt stellen wir uns folgende Szenarien vor:
Autobahn (lange Strecken, ohne Höchstlimit),Landstraße (ab und zu langsamere Kurven, Straßenecken, 100km/h), Stadtverkehr (Stop-n-Go, viele Ampeln, 50km/h).

Auf der Autobahn wird der A4 durch seine Höchstgeschwindigkeit in Führung gehen. Gefolgt vom Wohnwagen der eine recht passable Geschwindigkeit hinbekommt und als letztes das Elektroauto welches nur auf 70km/h kommt.
Auf der Landstraße liegt der Wohnwagen hinten. Er kann nur schwer beschleunigen, ist träge und schafft daher kaum eine hohe Geschwindigkeit. Der Audi hat nun bei vielen Kurven seine Probleme. Das Elektroauto kann fast durchgängig mit voller Geschwindigkeit fahren, da die Beschleunigungszeit kaum vorhanden ist.
Im Stadtverkehr wird es dann noch krasser. Der Wohnwagen ist wieder am Langsamsten. Er kann durch seine niedrige Beschleunigung immer nur hinterherfahren. Der Audi sieht da besser aus, ist jedoch kaum schneller, da auch er an Straßenkreuzungen warten muss, an Ampeln halten und somit seine hohe Geschwindigkeit nicht ausnutzen kann.
Das Elektroauto fährt seinen Konkurrenten einfach weg. Es kann direkt auf die 50km/h beschleunigen und ist daher viel schneller weg.

Jetzt unsere Auflösung:
Das Elektroauto ist die Intel Postville SSD. Sehr geringe Zugriffszeit, dafür aber je nach SSD auch beschränkt in der Schreibrate. Die Speicherkapazität ist sehr gering.

Der Audi A4 ist eine Western Digital Raptor/Velociraptor mit einer erniedrigten Zugriffszeit durch die hohe Umdrehungszahl und einer hohen Datenrate. Mittlere Speicherkapazität.

Der Wohnwagen ist eine sehr große Datenfestplatte mit 1,5TB. Sie erreicht zwar auch hohe Transferraten, kann diese aber auch nur ausspielen wenn es um große Dateien geht. Die Zugriffszeit ist die schlechteste. Dafür auch die höchste Speicherkapazität.

Die Autobahn sind riesige Dateien wie z.B. Videomaterial.
Die Landstraße sind große Programme, Musikdateien, Bilder.
Die Stadt ist wie das Betriebssystem und Programme.

Fazit
Jetzt kommt der Knackpunkt. Wie bei allen Computerteilen kommt es jetzt nämlich darauf an, was man mit seinem Computer eigentlich macht. Wenn man nur munter mit Windows und Programmen arbeitet sollte man zu einer SSD greifen. Diese ist eine enorme Beschleunigung für kleine Dateien. Und Windows besteht zum größten Teil aus sehr kleinen Dateien.
Wenn man viel speichern möchte sollte man zu einem Preis/Kapazität Modell greifen. Die Unterschiede sind sehr gering zwischen Datenplatten, auf 1ms und 10MB/s kommt es da nicht an. Man wird das kaum merken im normalen Gebrauch.
Wer nun viele Videodateien bearbeitet der wird evtl. zu einer WD Raptor oder Velociraptor greifen. Es ist ein Märchen, dass es sich lohnt eine WD Raptor für das Betriebssystem zu kaufen. Dazu aber später mehr.

Frage an euch:
Ich habe vor in den nächsten Tagen eine Testroutine zu fahren.
Dabei habe ich vor Windows 7 Ultimate zu verwenden.

Zum einen die normale Version installieren, Benchmarks laufen lassen.
Dann installieren mit einer verkleinerten Parition für Windows.
Dann dasselbe nur mit nachheriger Defragmentierung.
Eine mit vlite verkleinerte Windows Version installieren.
mit kleinerer Parition
mit defrag

Dazu noch in allen Fällen den Ruhezustand austesten und die Bootzeit festhalten. Dasselbe mit und ohne zusätzliche Effekte in Windows.

Falls ihr noch eine Idee habt bitte posten!

Gruß Onkelhitman  :oldman:



OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de