Test: Schnellerer Systemstart durch Defragmentieren??

Defragmentierung… ein Thema um das viel gestritten wird und auch ich mir nach all den Jahren keine eindeutige Meinung gebildet habe. Nun wollte ich meiner Unklarheit selbst mal etwas auf die Pelle rücken und einen Test machen, um genau zu sein werden es sogar 2 Tests sein.

Getestet wird die Defragmentierung anhand des Systemstarts. Die Zeit wird vorher und nachher gemessen. Die Differenz schafft hoffentlich Klarheit.
Die Messung der Zeit erfolgt mit einer Stoppuhr, weil Bootvis mit SATA Platten nicht zurecht kommt und Boottimer.exe ungenau bei Passworteingaben wird.

Defragmentiert werden die Testrechner mit dem kostenpflichtigen Programm O&O Defrag 11 Pro. Die Testversion läuft 30 Tage voll funktionsfähig und sollte für einen Test oder das jährliche defragmentieren reichen. Das Programm könnt ihr auf der Produktseite herunterladen, dazu müsst ihr vorher noch eure Daten eingeben (Fakedaten+Trashmail).
Oder zieht die Testversion von mir:
Download section
OODefrag11ProfessionalGer [.exe]
OODefrag11Professional64Ger [.exe]

Fragen wie „Warum denn das Programm?“ oder Anmerkungen wie „So eine Mistsoftware?!“ bitte per Mail an mich und nicht in die Comments.


Test 1:
Computer: AMD Athlon X2 64 Dual Core 3800+, 2GB RAM, 160GB HDD, aktuelles Windows XP SP3, System etwa 1 Jahr und 3 Monate alt.

C:\ ist mit 150GB die Heimat von System, Programmen, Alles, Arbeitsrechner eben. Für Fragmentierung wunderbar geeignet. Die erste Analyse bestätigt das nahezu erschreckend gut:
test-defragmentierung-hilft-beim-systemstart-analyse1
Der Fragmentierungsgrad von 65% ist jenseits von Gut und Böse.

Nun habe ich den Computer heruntergefahren und mit einer Stoppuhr (musste leider sein) die Startzeit gemessen. Es zählt die Zeit vom Drücken des Power-Knopfes bis hin zum Domänenloginbildschirm via Strg+Alt+Entf. Da dieser Rechner an einer Domäne angemeldet und ein Passwort notwendig ist stoppe ich die Zeit vor dem Loginbildschirm, schließlich würde die Passworteingabe die Zeit verfälschen.

1. Start – Vorher:
0-8 Sekunden: Schwarzer Bildschirm
8-18 Sekunden: Mainboard, BIOS, Systemkram
18-36 Sekunden: Windows Boot Bildschirm mit laufendem Balken
36-71 Sekunden: Übernehmen der Computer- und Netzwerkeinstellungen, übernehmen der Sicherheitsrichtlinien und solcher Domänenkram.
71. Sekunde: Login Bildschirm

Nun wurde defragmentiert bis der Rechner qualmt. 2x die SPACE Methode und 1x die STEALTH Methode. Achtung: je nach Festplattengröße dauert das Stunden.
Danach:
test-defragmentierung-hilft-beim-systemstart-analyse2
Weniger als 1% fragmentiert, also gut 60% weniger fragmentiert im Vergleich zum letzten Stand, das sollte doch die Geschwindigkeit boosten, oder nicht?

2. Start – Nachher:
0-8 Sekunden: Schwarzer Bildschirm
8-17 Sekunden: Mainboard, BIOS, Systemkram
17-34 Sekunden: Windows Boot Bildschirm mit laufendem Balken
34-69 Sekunden: Übernehmen der Computer- und Netzwerkeinstellungen, übernehmen der Sicherheitsrichtlinien und solcher Domänenkram.
69. Sekunde: Login Bildschirm

Okay, das lassen wir erstmal so stehen. Übersichtliche Tabelle mit den Werten und Auswertung am Ende des Artikels!

Update: (TestPC 1 #2) Nachträglicher Test:
Dieser Testcomputer wurde mit PageDefrag und dem cmd Befehl „defrag c: -b“ weiterbearbeitet. Anschließend habe ich die Prefetch Dateien gelöscht.

Hier die Werte danach:
0-7 Sekunden: Schwarzer Bildschirm
7-17 Sekunden: Mainboard, BIOS, Systemkram
17-32 Sekunden: Windows Boot Bildschirm mit laufendem Balken
32-62 Sekunden: Übernehmen der Computer- und Netzwerkeinstellungen, übernehmen der Sicherheitsrichtlinien und solcher Domänenkram.
62. Sekunde: Login Bildschirm

Ich schätze von diesen 3 Methoden profitiert das 2. Testsystem mehr, 7 Sekunden schneller ist bei diesem PC aber auch schon sehr gut. Den 2. PC teste ich später.


2. Test:
Computer: Core 2 Duo E8400, 4GB RAM, 300GB HDD, aktuelles Windows XP SP3, System genau 1 Jahr alt.

Seines Zeichens mein Heimrechner, C:\ beinhaltet mein System und ist 50GB groß. Der Rest wird auf die anderen Partitionen verteilt. P:\ enthält meine Programme und ist daher genauso anfällig für Fragmentierung. Daher liegt das Augenmerk jetzt auf C: und P:.
test-defragmentierung-hilft-beim-systemstart-analyse3
Fast 40% Fragmentierung auf der Systempartition und mehr als 70% auf der Programmpartition, das sollte doch eine optimale Testvoraussetzung sein! 🙂

Getestet wird vom Drücken des Power-Knopfes bis zu dem Punkt an dem ICQ fertig geladen hat und die Kontaktliste anzeigt. ICQ ist das letzte Programm, dass sich bei meinem Autostart mitstartet und stellt daher das Ende der Zeitmessung. Nur ein Konto, kein Passwort, Login erfolgt also automatisch.

1. Start – Vorher:
0-12 Sekunden: Schwarzer Bildschirm
12-31 Sekunden: Mainboard, BIOS, Systemkram
31-65 Sekunden: Windows Boot Bildschirm mit laufendem Balken, Windows XP Login (automatisch)
65-137 Sekunden: Alle Programme starten
137. Sekunde: Fertig!

Nicht der Burner, geb ich zu. Irgendwie kommt es mir so vor, dass Windows XP nach 1 Jahr Benutzung – unabhängig von derbster Monsterhardware – stinkend langsam wird. Kann man tun, was man will, cleanen und aufräumen wie man möchte, keine Chance. Heimlich eingebauter Microsoft Mechanismus um zum Kauf neuer Betriebssysteme anzuregen oder sowas.
Naja jedenfalls auch hier, alle Partitionen mit 2x SPACE neu sortiert, hier ist der neue Stand:
test-defragmentierung-hilft-beim-systemstart-analyse4
Na, das ist doch mal nen Bild! Geilo. Neustart!

2. Start – Nachher:
0-12 Sekunden: Schwarzer Bildschirm
12-32 Sekunden: Mainboard, BIOS, Systemkram
32-66 Sekunden: Windows Boot Bildschirm mit laufendem Balken, Windows XP Login (automatisch)
66-140 Sekunden: Alle Programme starten
140. Sekunde: Fertig!

Ernüchternd… langsamer geworden.


Fassen wir zusammen:

Test Nr.Differenz Checkpoint 1Differenz Checkpoint 2Differenz Checkpoint 3Differenz Checkpoint 4
TestPC 1+/- 0– 1– 2– 2
TestPC 1 #2+/- 0– 1– 4– 9
TestPC 2+/- 0+ 1+ 1+ 3

Alle Werte in Sekunden | – X = schneller/besser | + X = langsamer/schlechter | Differenzwerte im Vergleich zum jeweiligen Originalwert (siehe „Start Vorher/Nachher“ oben)

Der Computer auf Arbeit startete also 2 Sekunden schneller nach der Defragmentierung, mein Heimrechner wurde sogar 3 Sekunden langsamer. Mit Berücksichtigung der Messschwankung erreichen wir ein klares Fazit:

Defragmentieren beschleunigt nicht den Systemstart.
Selbst der Autostart meines Heimrechners hat nicht davon profitiert, dass die Fragmentation von über 70% auf 0% berichtigt wurde. Die Programmen wurden nicht schneller geladen. Der reine Systemstart bis zum Windows Desktop (also bis zur Anmeldung) konnte durch das Defragmentieren der Systempartition ebenfalls nicht beschleunigt werden.


Der Test ist gelungen, meine Meinung zum Thema „defragmentieren“ habe ich mir jetzt gebildet auch wenn ich andere Ergebnisse begrüßt hätte.
Gibt es Meinungen zum Ablauf, zu den Werten, den Ergebnissen? Beschwerden, Vorschläge, Lob, ich nehme gern alles entgegen! Kommentare sind offen und Mail wird regelmäßig gelesen 🙂

Weitergabe oder Verwendung des Tests nur mit voller Quellen- und Autorangabe! Ich bitte euch, seid fair.

28 Kommentare

  1. Hallo Hannes,

    ich vermisse bei dem Test PageDefrag ( http://technet.microsoft.com/de-de/sysinternals/bb897426.aspx ).

    Ich denke, bei aktuellem SATA-Platten mit NCQ sowie großem Cache dürfte Fragmentierung kaum noch ins Gewicht fallen. Früher gab es das nicht und die Eckdaten von Festplatten waren schlechter.

    Das windowseigene Defragmentierungsprogramm optimiert die Dateianordnung nach der Ladereihenfolge beim Systemstart. Hattest du diese Option beim Testen an?

    Ansonsten finde ich deinen Test gut, weil hier mal wieder der aktuelle Stand der Technik aufgezeigt wird.

    Gruß Michael

  2. Schöner Test.

    Ich kann da auch absolut keinen Unterschied mehr feststellen.

    Trotzdem mache ich es alle 2-3 Wochen mal, ist wohl auch irgendeine eine Gewissenssache 😀

    Nutze in letzter Zeit meistens Defraggler, aber gibt ja hunderte Programme zum Defragmentieren.

  3. Richtig, ich glaube auch, dass es heutzutage eher eine Sache der Gewohnheit oder des Vorurteils ist, dass Defragmentieren das System beschleunigt.
    Ich habe bis jetzt auch jeden fremden Rechner defragmentiert, den ich sauber machen sollte, einfach wegen diesem allgemeinen Urteil, dass die Geschwindigkeit zunehmen soll.
    Ab jetzt werde ich mir das wohl 2 Mal überlegen, immerhin kostet das immer viel Zeit.

  4. Meine Frage wäre, nach welchen Kriterien die Defragmentierungsalgorithmen vorgehen? Afaik ist der Zugriff auf die Daten, die am Anfang der Scheibe stehen, schneller, als auf den äußeren Bahnen. Wenn man also die zum Start zu ladenden Dateien alle auf die vorderen Sektoren legt, sollte der Systemstart beschleunigt werden.

    Weiterhin halte ich das warten bis zum Login-Screen als nicht ausreichend. Sobald ich mich eingeloggt habe, fängt mein System nochmals massiv an zu rödeln. Und auch erst dort fangen die problematischen Dateien an. Das System selbst wird zu Beginn aufgesetzt und die meisten Systemdateien werden wohl nie mit einer Fragmentierung belastet. Anders sieht es da bei Dateien von installierter Software aus, die tlw. bei jeder Verwendung erweitert werden (z.B. Logs).

    Da du nun defragmentiert hast, wird ein weiterer Test nicht möglich sein. Allerdings wäre die Zeit interessant, die das System gebraucht hat, um nach der Passworteingabe in einen ruhenden Stand zu gelangen.

  5. Beim 2. Test (mein Homerechner) habe ich deine Maßnahme berücksichtigt. Dort habe ich das System alle Programme aus dem Autostart fertig laden lassen. Dort war die Programmpartition, wie du vermutet hast, total fragmentiert. Aber selbst dort (73% auf 0%) hat das Defragmentieren den Autostart nicht beschleunigt.
    Beim 1. System konnte ich nur bis zum Login gehen weil das mit dem Passwort nur die Testergebnisse ungenau gemacht hätte (wie beschrieben).

    Was den Algorithmus angeht musst du wohl O&O fragen. Aber allgemein hat O&O Defrag unter den kostenpflichtigen Programmen einen guten Stellenwert und von einer 50€ teuren Software sollte man optimale Algorithmen schon erwarten. Also ich hoffe einfach mal, dass die Entwickler von O&O sich Gedanken gemacht haben, wie sie die Cluster bewegen, dass das System die beste Leistung erzielen kann.
    Das hat aber anscheinend nicht gereicht.

  6. Soo, meines wissenstandes nach is defragmentieren schon son bisschen sinnvoll…Da Dateien ja in Sektoren abgespeichert werden und am ende steht dann noch, wo der nächste sektor is, die die datei voll macht und so weiter…FAZIT: wenn die sektoren alle nacheinander sind, was durchs Defragmentieren passieren soll, wird ein hin und her springen des Lesekopfes ersparrt, somit schont es die HDD…
    weiter: zudem habe ich mal gehört, dass die Festplatte Alphabetisch abgesucht wird. Von daher würde es sich anbieten die „Complete/Name“ Methode von O&O zu nutzen…in wie weit das zur optimierung führt, kann ich nicht sagen…

    Und O&O bietet noch ne schicke funktion, nennt sich „Offline Defragmentierun“…kann man irgendwo in den einstellungen aktivieren, damit werden auch die dateien mal defragmentiert, die sonst in Benutzung sind (manche wissen vlt schon, was ich meine: Die Systemdateien)…was dann mit etwas glück zu einer gewünschten optimierung führen könnte 😉

    Kannst du ja auch nochmal ausprobieren, vielleicht hilft das ja weiter für die optimierung…versuch wäre es wert 😉

  7. Alter, wie immer, alles klein schreiben oder tatsächlich auf die Groß- und Kleinschreibung achten aber ein Mix ist echt schrecklich 😀

    So nee, zum Thema:

    Wie Defragmentierung an sich funktioniert, wissen wir wohl.
    „meines wissenstandes nach“ – Fakten, Quellen, Links??
    Wenn ich nach Wissensständen oder nach Hören-Sagen berichten würde, wäre dieser Test hinfällig. Dann würde ich einfach schreiben, was die Massen im Netz sagen. Mir geht es jedoch um Fakten. Bewiesene, nachvollziehbare, im Idealfall selbst durchgeführte Tests zum Beispiel 😉

    „habe ich mal gehört“ – Jo im Netz hört man viel. Ist wie Twitter, 95% Rauschen. Schwer die 5% schönen Töne zu finden. Man darf schließlich nicht alles glauben was Google verlinkt und daher auch mein eigener Test.

    O&O Hilfe soll die SPACE Methode am meisten Zeit verbrauchen daher bin ich davon ausgegangen, dass dort auch die beste Optimierung erreicht wird. Aber keine Ahnung, war nur meine Vermutung, jetzt ist eh zu spät ^^

    „damit werden auch die dateien mal defragmentiert, die sonst in Benutzung sind“ – Die Systemdateien sind doch immer in Benutzung? Vom Initialisieren von Windows bis zum Shutdown kommst du z.B. nicht an die Pagefile, ausser du deaktivierst den Service. Wie kommt O&O Defrag da denn ran? „Mal“ nicht in Benutzung trifft da ja nicht zu.

    Anyway, heute nachmittag folgt der Test mit 2 weiteren Methoden (PageDefrag und „defrag c: -b“), mal sehen ob ich den Systemstart damit beschleunigen kann.

  8. Das windowseigene Defragmentierprogramm optimiert die Reihenfolge der Dateien für den Systemstart. So weit ich mich noch an Windows erinnern kann, kann das O&O-Defrag auch.

    btw, kennst du JKDefrag http://jkdefrag.8qm.de/? Das Programm kann hinter viel benutzten Dateien noch etwas Platz lassen, so dass die von Mea Culpa angesprochene Problematik gelöst ist.

    Wer Hardcore drauf ist, der lässt Pagedefrag bei jedem Booten und beim Shutdown jkdefrag über alle Laufwerke laufen 😉

  9. Richtig lustig finde ich es erst dann, wenn Leute mit SSDs ihre „Festplatte“ defragmentieren. lol

    Meiner Erfahrung nach bringt es auf aktuellen Festplatten wirklich nicht mehr viel. Gerade beim Booten schon gar nicht. Beim Bootvorgang liest das BS viele kleine Dateien. Selbst wenn diese vielen kleinen Dateien alle für sich schön hintereinander stehen, rast der Lesekopf immer noch wie ein bekloppter über die Platte. Da würde es nur etwas bringen, wenn die Dateien auch noch schön hintereinander stehen würden. Ich habe aus Spaß mal ein Image, 16 GB groß auf dem Rechner gehabt, das in mehrere 100 Einzelteile zerpflückt war. Wenn ich diese eine Datei kopiert habe, kam ich auf einen Transferrate von etwa 40MB/sec. Nach dem defragmentieren dieser Datei kam ich beim kopieren auf einen Transferrate von über 45MB/sec. Woran es aber genau lag, daran, dass der Lesekopf nicht ständig hin und her rattern muss, oder daran, dass die Datei weiter innen stand, weiß ich natürlich nicht. Beim Booten hat es auch bei mir keinen Unterschied gemacht (Gemessen: 1 Sekunde schneller).

  10. SSDs… ach ja. Möchte mir irgendein Herstellen ein SSD Produkt zuschicken, ich ergänze den Test hier ausführlich um dieses Produkt! 😀
    Edit: Ich hab ein paar bekannte SSD Hersteller angeschrieben, ob sie eine Platte sponsoren wollen. Mit etwas (verdammt viel) Glück kann ich den Test auch in diesem Punkt erweitern.

    Das wird auch nochmal interessant, wenn ich mir demnächst eine kaufe. Ich weiß nur noch nicht ob ich es wage, in der Preisklasse unter 200€ zu kaufen. Ich glaube mit den dann sicher minderwertigen SSDs hab ich dann wenig Spaß.

    Aber ich bin derzeit auf der Suche und auch das wird diesen Test dann beizeiten ergänzen 🙂

  11. Also ich denke mal, Du bist das Thema mit falschen Erwartungen, aber auch dem einen oder anderen Fehler angegangen. Erste und wohl wichtigste Aufgabe einer Defragmentierung ist sicherlich nicht ein bessere (Boot)Geschwindigkeit, sondern eben die Zusammenführung der einzelnen Dateifragmente (nona, daher auch der Name des Programmtyps). Die Zusammenführung erhöht die Chance einer notwendigen Datenwiederherstellung ganz enorm und schont zudem noch die Hardware, weil die Leseköpfe der Festplatte nicht ganz so irre hin- und herbewegt werden müssen. Dadurch verringert sich zwar grundsätzlich, aber eben nur als Nebeneffekt, die Anlieferungsdauer der angeforderten Daten an die übrigen Komponenten des Computers. Doch je besser (in diesem Falle schneller) die „restliche“ Hardware ist, desto geringer wirkt sich diese minimal verkürzte Anlieferungszeit bei jeder Art von Messung aus! [Wir reden hier schließlich von Millisekunden (wenn überhaupt).] Wenn dann, wovon ich bei Deinem Test ausgehe, die bisherigen Prefetch-Dateien nicht gelöscht wurden und daher noch auf die alten, jetzt aber nicht mehr zutreffenden Clusternummern verweisen, brauchst Du Dich über eine sogar längere Bootzeit gar nicht zu wundern. Schließlich wurde der Lesekopf der Festplatte (vom OS) in bester Absicht, wenn auch vollkommen unverschuldet, an die falsche Stelle abkommandiert, und musste unverrichteter Dinge umkehren. Sodann musste die derzeitige, also neue (=richtige) Position der gesuchten Datei ermittelt (und in der Prefetch-Datei notiert) werden, um im zweiten Durchgang endlich ans gewünschte Ziel zu gelangen. Zudem beherrschen die wenigsten Defragmentierungsprogramme, weil von MS eigentlich nie vorgesehen und daher indirekt von diesem torpediert (MS nennt das schützen), die Defragmentierung der so (fast) alles entscheidenden MFT (das ist der Nachfolger der FAT [und damit ist die File Allocation Table selbst und nicht das danach benannte Dateisystem gemeint]), sodass sich das Einlesen des Inhaltsverzeichnisses der Festplatte noch immer genau so lange hinzieht, wie es vor der Defragmentierung der „sonstigen“ Dateien der Fall war. Zum Thema Defragmentierung gibt’s unter anderem auf der Website von JkDefrag, aber auch im erst unlängst von TuneUp(Utilities) verfassten Newsletter (weitere) interessante Informationen. (Wer am Newsletter interessiert ist, möge sich bei mir melden.)

  12. Durchaus begründete Kritik. Die Gedanken sind alle nachvollziehbar.

    Und ich dachte eine Defragmentierung wäre grundsätzlich wegen der Performance empfohlen.
    „wieder zur verborgenen Performance verhelfen“
    „Festplatten stets eine optimale Leistung entfalten“
    (O&O Defrag Beschreibung)

    Es klingt in deren Beschreibung zumindest so, dass die performancesteigernde Wirkung bei dem Programm im Vordergrund steht, von Magnetkopfschonung ist überhaupt nicht die Rede.

    Es ist schade, dass so teure Software ihren Dienst nicht richtig macht. Bestimmte Tricks scheinen ja so offentlichlich zu sein: Pagefile defragmentieren, Systemdateien hintereinander schreiben, Prefetch danach säubern. Warum zur Hölle kann eine kommerzielle Software das nicht von allein?

  13. Update:
    @vmk:
    Hab grad das Testsystem 1 mit dem PageDefrag beglückt. Hat nichts gebracht, alle Systemdateien bestanden nur aus 1 Fragment, da war das nach 1 Sekunde schon erledigt.
    Ich denke also, dass O&O Defrag Pro sich diese Dateien „unbemerkt“ auch vorgeknöpft hat.

    Ausserdem hab ich gleich noch dem cmd Befehl „defrag c: -b“ drüberlaufen lassen und den Prefetch Ordner geleert.

    Der Neustart war am Ende 7 Sekunden schneller, also immerhin 11% schneller als das defragmentierte System (13% zum Originalsystem) und damit immerhin ein Schritt in die richtige Richtung. Vorausgesetzt unsere Richtung lautet jetzt mal „Wie beschleunige ich mein System durch Defragmentieren?“

  14. Hi Hannes,
    Ich kann dein bisherigen Test nur bestätigen.
    Die meisten Defragler haben nur unmerklich was gebracht.
    *
    Es gibt aber zwei Defrag-Software die eine neue eigene Logik bei Anordnung der Daten auf Boot (C:) benutzen.
    00 Defrag12, neu erschienen.
    UltimativeDefragFree, ist kostenlos und wenig bekant.

    http://de.ghacks.net/2008/05/23/ultimate-defrag/

    http://www.chip.de/bildergalerie/CHIP-Tipp-Festplatte-im-Griff-mit-Ultimate-Defrag-Galerie_32514108.html
    *
    Versuche einen zweiten Test.
    1) OO-Defrag12, Zonen Aktivieren und Optimize.
    2) UltimateDefrag12 Free , Automatik, bei Option alles anklinken.( Die Zeitangabe dort stimmen nicht)

    Da beide alle neu ordnen müssen, dauert es etwa eine Stunde bis fertig.
    Der Subjektive Verbesserung ist deutlich.
    Ich benutze OO auf meinen Duo-Core E8600 und Ultimate auf meinem Alten Amilo Kt600 Laptop .

    Auf beiden Rechnern UltimateDefrag nachträglich zum Priorisieren.
    Was die Sache interessant macht ist die Tatsache, dass der Anwender Dateien und Ordner bestimmen kann die auf den schnellsten Bereich lagern sollen.
    So kann man zum Beispiel Spiele und Anwendungen auf schnellsten Bereichen lagern. Grüße

  15. das defragmentieren hat auch andere vorteile. hat man wenig speicher frei gehabt während größere dateien auf die platte geschrieben werden, so werden die in die freien verfügbaren stellen zerstückelt. ist dieser vorgang zeitkritisch, z.b. wenn man eine aufnahme macht die eine mindest-datenrate erfordert, so könnte dabei die schreibgeschwindigkeit so absinken, dass die aufnahme abbricht. will man eine zerstückelte datei brennen, so kann man gut sehen, trotz sata2-festplatte mit ncq greift ständig die burn-proof-funktion des brenners, beim automatischen vergleichen nach dem brennvorgang sieht man dass die lesegeschwindigkeit der festplatte (bei einem peak-wert von 140mb/s und einem dauer-wert von über 70 mb/s, gemessen im geräte-manager beim nvidia-eintrag zum sata2-controller, die die einen nvidia-chip aufm mainboard haben wissen was ich meine) teilweise auf unter 1 mb/s absinkt. dadurch verlängert sich sowohl der brennvorgang als auch der „vergleichen“-durchgang von jeweils 5 minuten auf ziemlich lange…und das nur weil die daten zerstückelt vorlagen…

  16. Habe da auch mal ne Frage.
    Wie sieht das aus , beim starten von Spielen.
    Habe jetzt letztens erst mehrere male die Defrag von Ashampoo Winoptimizer durchgeführt um das laden der Maps zu bescheunigen.
    Gemessen habe ich die verbesserung nicht , jedoch kommt es mit vor , als wenn die Maps schneller geladen werden.
    Zuletzt habe ich es mit Call of Duty Modern Warfare 2 gehabt.
    Würde mich freuen , wenn das mal ausgiebig geteste wird da ich immer die vermutung hatte, dass die maps schneller geladen werden , wenn die Datein nicht so zerstückelt sind.

    Danke sehr 🙂

  17. Rein von der Theorie würde ich dem zustimmen. Größere Mapfiles, die ja zumeist noch in riesengroßen .pak Dateien oder anderen Archiven gehortet werden, werden vermutlich schneller geladen wenn diese Bündel nicht zerstückelt erst zusammengesicht werden müssen.
    Ich würde allerdings den Zeitgewinn auf weniger als 5% schätzen, dafür ist so ein Ladevorgang einfach nicht intensiv genug.
    Zumal ab Windows Vista sowieso eine automatische Dauer-Defragmentierung im Hintergrund aktiv ist, weshalb die Defragmentierung seit Windows XP eine aussterbende Technik ist.
    Aber unter XP könnte man ja versuchen den Unterschied zu messen. Leider habe ich in meinem PC eine SSD und Windows 7, kann also Defragtests nicht mehr effektiv durchführen.

    Freiwillige für den Tests werden im Artikel natürlich mitsamt Ergebnissen verewigt 😉

  18. Die Preise von SSDs findest du ja überall, z.B. gh.de.
    Sie läuft auf jeden Fall schneller, vergleichbare Tests kann ich nicht machen da ich weder diesen PC noch Windows XP habe.
    Aber ich glaube Performancevergleiche SATA vs SSD gibt es mittlerweile auch genug 🙂

  19. Besten Dank! Ist wohl dann auch für den letzten der Beweis, dass Defrag unter NTFS nichts bringt. Aber die Tools werden immer weiter angeboten. Ich finde es witzig und habe seit XP kein Defrag mehr gemacht.

Schreibe einen Kommentar