Wie sich die Festplattengröße auf die Leistung auswirkt. Spindeldrehzahl der Festplatte

Die Geschwindigkeit der Datenübertragung über den Disk-Interface-Bus ist bei weitem nicht der einzige Parameter, der die Geschwindigkeit der gesamten Festplatte beeinflusst. Im Gegenteil, die Leistung von Festplatten mit gleichem Schnittstellentyp variiert teilweise stark. Was ist der Grund?

Tatsache ist, dass eine Festplatte eine Sammlung verschiedenster elektronischer und elektromechanischer Geräte ist. Die Geschwindigkeit der mechanischen Komponenten der Festplatte ist der Geschwindigkeit der Elektronik, zu der auch die Busschnittstelle gehört, deutlich unterlegen. Die Gesamtleistung der Festplatte wird leider an der Geschwindigkeit der langsamsten Komponenten gemessen. Der „Flaschenhals“ bei der Datenübertragung zwischen Laufwerk und Computer ist genau die interne Übertragungsrate – ein Parameter, der durch die Geschwindigkeit der Festplattenmechanik bestimmt wird, die einer der Gründe für die Laptop-Reparatur ist. Daher wird in den modernsten PIO-4- und UltraDMA-Austauschmodi die maximal mögliche Schnittstellenbandbreite während der realen Arbeit mit dem Laufwerk fast nie erreicht. Um die Geschwindigkeit mechanischer Komponenten sowie des gesamten Antriebs zu bestimmen, müssen Sie die folgenden Parameter kennen.

Die Rotationsgeschwindigkeit der Disks ist die Anzahl der Umdrehungen, die die Platten (einzelne Disks) der Festplatte pro Minute machen. Je höher die Geschwindigkeit, desto schneller werden die Daten geschrieben oder gelesen. Der typische Wert für diesen Parameter für die meisten modernen EIDE-Platten beträgt 5400 U/min. Einige neuere Laufwerke haben Discs, die sich mit 7200 U/min drehen. Die bisher erreichte technische Grenze von 10.000 U/min ist in den SCSI-Laufwerken der Seagate Cheetah-Serie implementiert.

Die durchschnittliche Suchzeit ist die durchschnittliche Zeit, die benötigt wird, um die Kopfanordnung von einer willkürlichen Position zu einer spezifizierten Spur zum Lesen oder Schreiben von Daten zu positionieren. Der typische Wert dieses Parameters für neue Festplatten liegt zwischen 10 und 18 ms, und die Zugriffszeit von 11-13 ms kann als gut angesehen werden. Die schnellsten SCSI-Modelle haben eine Zugriffszeit von weniger als 10 ms.

Durchschnittliche Zugriffszeit - die durchschnittliche Zeitspanne von der Ausgabe eines Befehls für eine Operation mit einer Platte bis zum Beginn des Datenaustauschs. Dies ist ein zusammengesetzter Parameter, der die durchschnittliche Suchzeit sowie die halbe Rotationsperiode der Platte enthält (unter Berücksichtigung der Tatsache, dass sich die Daten in einem beliebigen Sektor auf der gewünschten Spur befinden können). Der Parameter bestimmt die Verzögerung bis zum Beginn des Lesens des benötigten Datenblocks sowie die Gesamtleistung bei der Arbeit mit einer großen Anzahl kleiner Dateien.

Interne Übertragungsrate – Die Rate, mit der Daten zwischen der Festplattenschnittstelle und den Medien (Platten) ausgetauscht werden. Die Werte für diesen Parameter unterscheiden sich beim Lesen und Schreiben deutlich. Sie werden durch die Rotationsgeschwindigkeit der Discs, die Aufzeichnungsdichte, die Eigenschaften des Positioniermechanismus und andere Parameter des Laufwerks bestimmt. Diese Geschwindigkeit hat einen entscheidenden Einfluss auf die Geschwindigkeit des Laufwerks im eingeschwungenen Zustand (beim Lesen eines großen massiven Datenblocks). Eine Überschreitung der Gesamttransferrate gegenüber der internen wird nur erreicht, wenn Daten zwischen der Schnittstelle und dem Cache-Speicher der Festplatte ausgetauscht werden, ohne sofort auf die Platten zuzugreifen. Daher beeinflusst ein weiterer Parameter die Geschwindigkeit des Antriebs, nämlich ...

... die Größe des Cache-Speichers. Cache-Speicher ist ein gewöhnlicher elektronischer RAM, der auf einer Festplatte installiert ist. Nach dem Lesen von der Festplatte werden die Daten gleichzeitig in den Computerspeicher und in den Cache-Speicher übertragen. Wenn diese Daten erneut benötigt werden, werden sie nicht von den Platten, sondern aus dem Cache-Puffer gelesen. Dadurch können Sie den Datenaustausch erheblich beschleunigen. Um die Effizienz des Caches zu verbessern, wurden spezielle Algorithmen entwickelt, die die am häufigsten verwendeten Daten identifizieren und im Cache ablegen, was die Wahrscheinlichkeit erhöht, dass beim nächsten Aufruf Daten aus dem elektronischen RAM benötigt werden – ein sogenannter „Cache-Hit“. " wird passieren. Je größer der Cache-Speicher ist, desto schneller arbeitet die Festplatte normalerweise.

Bei der Bewertung der Leistung von Festplatten sind die meisten wichtige Eigenschaft ist die Baudrate. Gleichzeitig beeinflussen eine Reihe von Faktoren die Geschwindigkeit und die Gesamtleistung:

  • Anschlussschnittstelle - SATA / IDE / SCSI (und für externe Laufwerke - USB / FireWare / eSATA). Alle Schnittstellen haben unterschiedliche Baudraten.
  • Cache- oder Puffergröße Festplatte... Eine Erhöhung der Puffergröße erhöht die Datenübertragungsrate.
  • Unterstützung für NCQ, TCQ und andere Algorithmen zur Verbesserung der Leistung.
  • Datenträgervolumen. Je mehr Daten Sie schreiben können, desto länger dauert das Lesen der Informationen.
  • Informationsdichte auf den Platten.
  • Und selbst das Dateisystem beeinflusst die Geschwindigkeit des Datenaustauschs.

Aber wenn wir zwei nehmen Festplatte das gleiche Volumen und die gleiche Schnittstelle, dann ist der entscheidende Leistungsfaktor Drehzahl der Spindel.

Was ist eine Spindel

Die Spindel ist eine einzelne Achse in der Festplatte, auf der mehrere Magnetplatten installiert sind. Diese Platten werden in einem genau definierten Abstand an der Spindel befestigt. Der Abstand sollte so sein, dass die Leseköpfe beim Drehen der Platten gleichzeitig lesen und schreiben können.

Damit die Disc richtig funktioniert, muss der Spindelmotor in der Lage sein, die Magnetplatten Tausende von Stunden lang gleichmäßig zu laufen. Daher ist es nicht verwunderlich, dass manchmal Festplattenprobleme speziell und überhaupt nicht mit Fehlern im Dateisystem zusammenhängen.

Der Motor ist für die Rotation der Platten verantwortlich und ermöglicht so den Betrieb der Festplatte.

Was ist Spindeldrehzahl

Die Spindeldrehzahl bestimmt, wie schnell sich die Platten während des normalen Festplattenbetriebs drehen. Die Rotationsgeschwindigkeit wird in Umdrehungen pro Minute (U/min) gemessen.

Die Rotationsgeschwindigkeit beeinflusst, wie schnell der Computer Daten von der Festplatte abrufen kann. Bevor die Festplatte die Daten lesen kann, muss sie diese erst finden.

Die Zeit, die benötigt wird, um zum angeforderten Gleis / Zylinder zu gelangen, wird aufgerufen Zeit suchen (suchen Latenz)... Nachdem sich die Leseköpfe auf die gewünschte Spur / den gewünschten Zylinder bewegt haben, müssen Sie warten, bis sich die Platten drehen, damit sich der gewünschte Sektor unter dem Kopf befindet. Das heißt Rotationslatenzzeit und ist eine direkte Funktion der Spindeldrehzahl. Das heißt, je höher die Spindeldrehzahl, desto geringer die Rotationsverzögerung.

Die gesamten Suchzeitverzögerungen und Rotationsverzögerungen bestimmen die Geschwindigkeit des Datenzugriffs. In vielen Programmen zum Schätzen der Festplattengeschwindigkeit ist dieser Parameter Zugriff auf Datenzeit.

Was beeinflusst die Spindeldrehzahl der Festplatte

Die meisten Standard-3,5-Zoll-Festplatten haben heute eine Spindeldrehzahl von 7200 U/min. Bei solchen Platten ist die Zeit, in der eine halbe Umdrehung abgeschlossen ist ( durchschn. Rotationslatenz) beträgt 4,2 ms. Die durchschnittliche Suchzeit für diese Laufwerke beträgt etwa 8,5 ms, was den Zugriff auf Daten in etwa 12,7 ms ermöglicht.

WD Raptor-Festplatten haben eine Rotationsgeschwindigkeit der Magnetplatten von 10.000 U/min. Dies reduziert die durchschnittliche Spin-Delay-Zeit auf 3 ms. Die "Raptoren" haben auch Platten mit kleinerem Durchmesser, wodurch die durchschnittliche Suchzeit auf ~ 5,5 ms reduziert werden konnte. Die resultierende durchschnittliche Datenzugriffszeit beträgt ca. 8,5 ms.

Es gibt mehrere SCSI-Modelle (wie das Seagate Cheetah), die Spindeldrehzahlen von bis zu 15.000 U/min haben, und ihre Platten sind sogar langsamer als die des WD Raptor. Ihre durchschnittliche Rotationslatenz beträgt 2 ms (60 Sek. / 15.000 U/min / 2), die durchschnittliche Suchzeit beträgt 3,8 ms und die durchschnittliche Datenzugriffszeit beträgt 5,8 ms.

Discs mit einer hohen Spindeldrehzahl haben niedrige Werte sowohl für die Suchzeiten als auch für die Spin-Verzögerungen (auch bei wahlfreiem Zugriff). Es ist klar, dass 5600- und 7200-Spindelantriebe eine geringere Leistung haben.

Gleichzeitig ist der Unterschied beim sequentiellen Zugriff auf Daten in großen Blöcken unbedeutend, da es keine Verzögerung beim Datenzugriff gibt. Daher wird empfohlen, Festplatten regelmäßig zu defragmentieren.

So ermitteln Sie die Spindeldrehzahl einer Festplatte

Bei einigen Modellen steht die Spindeldrehzahl direkt auf dem Aufkleber. Es ist nicht schwer, diese Informationen zu finden, da es nur wenige Optionen gibt - 5400, 7200 oder 10.000 RpM.

Eine Festplatte ist ein Gerät mit geringer, aber ausreichender Geschwindigkeit für den täglichen Bedarf. Aufgrund bestimmter Faktoren kann es jedoch viel weniger sein, wodurch sich der Start von Programmen verlangsamt, das Lesen und Schreiben von Dateien verlangsamt und die Arbeit im Allgemeinen unbequem wird. Indem Sie eine Reihe von Aktionen ausführen, um die Geschwindigkeit der Festplatte zu erhöhen, können Sie eine spürbare Leistungssteigerung im Betriebssystem erzielen. Sehen wir uns an, wie Sie Ihre Festplatte in Windows 10 oder anderen Versionen dieses Betriebssystems beschleunigen können.

Mehrere Faktoren beeinflussen die Geschwindigkeit einer Festplatte, von der Kapazität bis zum BIOS-Einstellungen... Einige Festplatten haben generell eine niedrige Betriebsgeschwindigkeit, die von der Spindeldrehzahl (Umdrehungen pro Minute) abhängt. Alte oder billige PCs haben normalerweise eine Festplatte mit einer Geschwindigkeit von 5600 U / min und in moderneren und teureren - 7200 U / min.

Objektiv gesehen sind dies vor dem Hintergrund anderer Komponenten und Fähigkeiten von Betriebssystemen sehr schwache Indikatoren. HDD ist ein sehr altes Format, und sie werden es langsam ersetzen. Zuvor haben wir bereits ihren Vergleich durchgeführt und erklärt, wie lange SSDs halten:

Wenn ein oder mehrere Parameter den Betrieb der Festplatte beeinflussen, beginnt diese noch langsamer zu arbeiten, was für den Benutzer merklich spürbar wird. Um die Geschwindigkeit zu erhöhen, können sowohl die einfachsten Methoden zum Organisieren von Dateien als auch zum Ändern des Betriebsmodus der Festplatte durch Auswahl einer anderen Schnittstelle verwendet werden.

Methode 1: Reinigen der Festplatte von unnötigen Dateien und Schmutz

Diese scheinbar einfache Aktion kann die Festplattenleistung beschleunigen. Der Grund, warum es wichtig ist, die Sauberkeit der Festplatte zu überwachen, ist sehr einfach - eine Überbelegung wirkt sich indirekt auf die Betriebsgeschwindigkeit aus.

Auf Ihrem Computer kann viel mehr Müll sein, als Sie denken: alte Windows-Wiederherstellungspunkte, temporäre Daten von Browsern, Programmen und dem Betriebssystem selbst, unnötige Installationsprogramme, Kopien (doppelte Dateien desselben) usw.

Es ist zeitaufwändig, es selbst zu reinigen, daher können Sie verschiedene Programme verwenden, die sich um das Betriebssystem kümmern. Sie können sie in unserem anderen Artikel kennenlernen:

Wenn Sie keine zusätzliche Software installieren möchten, können Sie die integrierte Windows-Tool berechtigt Datenträgerbereinigung... Dies ist natürlich nicht so effizient, aber es kann auch nützlich sein. In diesem Fall müssen Sie die temporären Browserdateien, von denen es auch viele gibt, selbst löschen.

Sie können auch ein zusätzliches Laufwerk erstellen, auf das Sie Dateien verschieben können, die Sie nicht wirklich benötigen. Dadurch wird die Hauptfestplatte mehr entladen und beginnt schneller zu arbeiten.

Methode 2: Umsichtige Verwendung des Dateidefragmentierers

Einer der beliebtesten Tipps zum Beschleunigen der Festplatte (und des gesamten Computers) ist das Defragmentieren von Dateien. Dies gilt wirklich für HDDs, daher ist es sinnvoll, es zu verwenden.

Was ist Defragmentierung? Diese Frage haben wir in einem anderen Artikel bereits ausführlich beantwortet.

Es ist sehr wichtig, diesen Prozess nicht zu überbeanspruchen, da er sich nur negativ auswirkt. Einmal alle 1-2 Monate (je nach Aktivität des Benutzers) reicht völlig aus, um den optimalen Zustand der Dateien aufrechtzuerhalten.

Methode 3: Reinigungsstart

Diese Methode wirkt sich nicht direkt auf die Geschwindigkeit der Festplatte aus. Wenn Sie der Meinung sind, dass der PC beim Einschalten langsam bootet, Programme sehr lange zum Starten brauchen und der Grund dafür der langsame Betrieb der Festplatte ist, dann ist dies nicht ganz richtig. Aufgrund der Tatsache, dass das System gezwungen ist, die erforderlichen und unnötige Programme, und die Festplatte hat eine begrenzte Verarbeitungsgeschwindigkeit für Windows-Anweisungen, und es tritt ein Verlangsamungsproblem auf.

Sie können mit dem Autoloading umgehen, indem Sie unseren anderen Artikel verwenden, der am Beispiel von Windows 8 geschrieben wurde.

Methode 4: Geräteeinstellungen ändern

Eine langsame Festplattenleistung kann auch von den Betriebsparametern abhängen. Um sie zu ändern, müssen Sie verwenden "Gerätemanager".

Methode 5: Korrektur von Fehlern und fehlerhaften Sektoren

Die Geschwindigkeit der Festplatte hängt vom Zustand der Festplatte ab. Wenn es Dateisystemfehler gibt, kaputte Sektoren, können selbst einfache Aufgaben langsamer verarbeitet werden. Es gibt zwei Möglichkeiten, bestehende Probleme zu beheben: Verwenden Sie spezielle Software verschiedener Hersteller oder eingebaute Windows-Check Festplatten.

Wie Sie HDD-Fehler beheben, haben wir bereits in einem anderen Artikel behandelt.

Methode 6: Ändern Sie den HDD-Verbindungsmodus

Nicht einmal sehr modern Hauptplatinen unterstützen zwei Standards: den IDE-Modus, der überwiegend für ältere Systeme geeignet ist, und den AHCI-Modus, der neuer und für den modernen Einsatz optimiert ist.

Aufmerksamkeit! Diese Methode ist für fortgeschrittene Benutzer. Mach dich bereit für mögliche Probleme mit dem Laden des Betriebssystems und anderen unvorhergesehenen Folgen. Obwohl die Wahrscheinlichkeit ihres Auftretens äußerst gering ist und gegen null tendiert, ist sie immer noch vorhanden.

Während viele Benutzer die Möglichkeit haben, die IDE auf AHCI umzustellen, wissen sie oft nicht einmal davon und nehmen die geringe Geschwindigkeit der Festplatte in Kauf. Und doch ist das genug effizienter Weg HDD-Beschleunigung.

Zuerst müssen Sie überprüfen, welchen Modus Sie haben, und Sie können dies über tun "Gerätemanager".

  1. Klicken Sie unter Windows 7 auf "Anfang" und fang an zu tippen "Gerätemanager".

    Klicken Sie in Windows 8/10 auf "Anfang" Rechtsklick und auswählen "Gerätemanager".

  2. Filiale suchen "IDE ATA / ATAPI-Controller" und erweitern Sie es.

  3. Sehen Sie sich die Namen der angeschlossenen Laufwerke an. Namen findet man oft: "Standard-Serial-ATA-AHCI-Controller" oder "Standard-PCI-IDE-Controller"... Aber es gibt auch andere Namen - alles hängt von der Konfiguration des Benutzers ab. Enthält der Name die Worte "Serial ATA", "SATA", "AHCI", dann erfolgt die Verbindung über das SATA-Protokoll, bei IDE ist alles gleich. Der Screenshot unten zeigt, dass die AHCI-Verbindung verwendet wird - Schlüsselwörter sind gelb hervorgehoben.

  4. Wenn es nicht möglich ist, den Verbindungstyp zu bestimmen, können Sie im BIOS / UEFI nachsehen. Es ist leicht zu bestimmen: welche Einstellung in das BIOS-Menü geschrieben wird, auf welche eingestellt ist dieser Moment(Screenshots mit der Suche nach dieser Einstellung sind etwas niedriger).

    Wenn der IDE-Modus verbunden ist, müssen Sie mit dem Registrierungseditor zu AHCI wechseln.


    Wenn diese Methode bei Ihnen nicht funktioniert hat, sehen Sie sich unter dem folgenden Link andere Methoden zum Aktivieren von AHCI unter Windows an.

    Wir haben die üblichen Lösungen für das Problem im Zusammenhang mit der langsamen Geschwindigkeit der Festplatte besprochen. Sie können die HDD-Leistung steigern und die Arbeit mit dem Betriebssystem reaktionsschneller und angenehmer machen.

Wie viel Geschwindigkeit hart Beeinflusst die Festplatte die Gesamtleistung des PCs?

Füttern Sie den Tester-Browser von Festplatten und allen Flash-Laufwerken nicht mit Brot, sondern lassen Sie sie einen ausgefallenen spezifischen Benchmark laufen, der zeigt, wie viele "Papageien" oder "Io-Hunde" dieses oder jenes Modell darin zeigen. Alle möglichen "iometer", "pisimarks" und andere "yo!-Marks" sind in der Regel speziell entwickelt, um den Unterschied zwischen den Scheiben bei bestimmten Operationen am besten zu demonstrieren. direkt mit diesen Scheiben. Und sie (Benchmarks und Rezensenten :)) erfüllen ihren Zweck hervorragend und geben uns, den Lesern, viele Denkanstöße, welches Festplattenmodell in diesem oder jenem Fall bevorzugt wird.

Aber Festplatten-Benchmarks (und auch Browser!) sagen dem durchschnittlichen Benutzer wenig darüber, wie (und wie stark) es sich verbessern (oder verschlechtern) wird. der Komfort seiner täglichen Arbeit Mit persönlicher Computer ob dieser oder jener Datenträger in seinem System installiert wird. Ja, wir wissen, dass zum Beispiel eine Datei / ein Verzeichnis doppelt so schnell ist unter idealen Bedingungen auf unsere Festplatte geschrieben oder von ihr gelesen oder, sagen wir, 15% schneller wird "Vyndovs laden" durchgeführt - oder besser gesagt, nicht sie selbst, auf unserem speziellen Computer, sondern zuvor auf einem anderen aufgezeichnet, für uns völlig unverständlich und wie in der Regel ist es bereits ein veralteter PC, ein besonderes Muster, das eine sehr distanzierte Beziehung zu unserem geliebten PC haben kann. Nehmen wir an, wir jagen einem brandneuen teuren Modell der Scheibe hinterher, nachdem wir alle möglichen "autoritativen" Rezensenten gelesen haben, werden wir Geld ausgeben und nach Hause kommen und absolut nichts, außer dem Bewusstsein, dass wir nach subjektiver Meinung etwas Cooles gekauft haben, werden wir es nicht spüren ... Das heißt, unser PC "lief" und "lief" weiter, er "flog" überhaupt nicht. :)

Und die Sache ist, dass in Wirklichkeit die "Rückkehr" von der Leistung des Disk-Subsystems in der Regel merklich durch den nicht augenblicklichen Betrieb der übrigen Subsysteme unseres Computers maskiert wird. Als Ergebnis, selbst wenn wir eine dreimal schnellere (laut Profilbenchmarks) Festplatte installieren, fühlt sich unser Computer im Durchschnitt dreimal schneller an, und subjektiv werden wir bestenfalls den Grafikeditor und unser geliebtes Spielzeug spüren. Ist das das, was wir von dem Upgrade erwartet haben?

In diesem kurzen Artikel versuchen wir, ohne den Anspruch zu erheben, eine umfassende Berichterstattung über dieses facettenreiche Thema zu sein, eine Antwort auf das zu geben, was schließlich in der Realität warten von einem Plattensubsystem mit der einen oder anderen "Benchmark" -Leistung. Hoffentlich ermöglicht dies dem aufmerksamen Leser, durch das Thema zu navigieren und zu entscheiden, wann und wie viel er für eine andere "sehr feste" Festplatte ausgeben möchte.

Methodik

Der beste Weg, den Beitrag der Geschwindigkeit des Disk-Subsystems zur tatsächlichen Arbeit des PCs abzuschätzen, ist besser ... richtig! - am Beispiel der ganz "echten Arbeit" dieses PCs. Das hierfür am besten geeignete und weltweit anerkannte Tool ist mittlerweile der professionelle Benchmark BAPCo SYSmark 2007 Preview (der übrigens viel Geld kostet). Dieser Industrietest simuliert die reale Arbeit eines Benutzers mit einem Computer, der außerdem sehr aktiv ist, indem er tatsächlich (oft parallel) verschiedene gängige Anwendungen startet und Aufgaben durchführt, die für die eine oder andere Art von Benutzeraktivität typisch sind - Lesen, Bearbeiten, Archivieren usw. Sonstiges Details zum Gerät und zur Bedienung von SYSmark 2007 sind in der Computerliteratur und auf der Website des Herstellers () mehrfach beschrieben, sodass wir uns hier nicht davon ablenken lassen. Wir betonen nur die Hauptsache – die Ideologie dieses Tests liegt darin, dass er hier gemessen wird durchschnittliche Reaktionszeit (Antwort) eines Computers auf Benutzeraktionen, also genau der Parameter, nach dem ein Mensch den Komfort seiner Arbeit mit einem PC beurteilt, ob sein eiserner Freund "kriecht", "läuft" oder "fliegt".

Leider wurde SYSmark 2007 Preview schon vor längerer Zeit veröffentlicht, und obwohl es regelmäßig vom Hersteller gepatcht wurde (wir verwenden hier die Version 1.06 für Juli 2009), enthält es im Kern Anwendungen, die bei weitem nicht die neuesten sind, um das Jahr 2005. Aber wir selbst, sind wir immer Wir benutzen am meisten letzte Version Programme? Viele fühlen sich zum Beispiel unter Windows XP immer noch sehr wohl (und testen sogar neue Hardware darunter!), ganz zu schweigen davon, dass sie nicht von dem uns auferlegten Multi-Dollar-"Wettrüsten der Büros" inspiriert sind von einem bekannten Redmonder Unternehmen. Daher können wir davon ausgehen, dass SYSmark 2007 für den "durchschnittlichen" PC-Benutzer immer noch relevant ist, zumal wir es hier auf dem neuesten Betriebssystem - Windows 7 Ultimate x64 - ausführen. Nun, wir können dem Unternehmen BAPCo nur wünschen, die Folgen der Finanzkrise in der IT-Branche schnell zu überwinden und freizugeben neue Version SYSmark basierend auf Anwendungen von 2010-2011

Basierend auf den Ergebnissen der SYSmark 2007 Preview-Tests insgesamt und entsprechend der Subtests E-Learning, VideoCreation, Productivity und 3D, die wir in diesem Fall für zwei moderne PC-Systemkonfigurationen durchgeführt haben (basierend auf Intel-Prozessoren Core i7 und i3) und fünf "Referenz"-Laufwerke unterschiedlicher "Festplatten"-Leistung (also nur 10 getestete Systeme), ziehen wir in diesem Artikel Rückschlüsse darauf, wie stark eine bestimmte Festplatte den Komfort des Benutzers mit einem PC beeinflusst, dann es ist, wie sehr es sich ändern wird der Durchschnitt Reaktionszeit des Computers auf die Aktionen eines aktiven Benutzers.

Aber natürlich beschränken wir uns nicht auf ein SYSmark. Neben der Überprüfung der "Festplattenabhängigkeit" einzelner Anwendungen, Tests und komplexer Benchmarks werden wir zu den Einschätzungen zum Einfluss der Festplatte auf die Gesamtsystemleistung die Systemtests des mehr oder weniger modernen Futuremark PCMark . "hinzufügen". Vorteilspaket. Der PCMark-Ansatz ist zwar synthetischer als der von SYSmark, misst jedoch in verschiedenen Mustern auch die Geschwindigkeit des "gesamten" Computers bei typischen Benutzeraufgaben und berücksichtigt auch die Leistung des Disk-Subsystems (viele auch zum ausführlichen PCMark Vantage geschrieben, daher gehen wir hier nicht auf Details ein). Wir haben auch versucht, einen brandneuen (dieses Jahr) Intel-Test () zu gewinnen. Es ist im Ansatz SYSmark etwas ähnlich, aber in Bezug auf die Arbeit mit Multimedia-Inhalten, obwohl es nicht die durchschnittliche Benutzerreaktionszeit schätzt, sondern die gesamte Ausführungszeit eines komplexen Szenarios. Die Festplattenabhängigkeit dieses Tests erwies sich jedoch als die kleinste (fast nicht vorhanden) und völlig unauffällig, daher haben wir diesen Langzeit-Benchmark nicht für alle Konfigurationen durchgeführt und werden seine Ergebnisse in diesem Artikel nicht demonstrieren.

Testkonfigurationen

Für die ersten Experimente haben wir zwei grundlegende System-Desktop-Konfigurationen ausgewählt. Der erste von ihnen basiert auf einem der produktivsten "Desktop"-Prozessoren Intel Core Prozessor i7-975 und das zweite - auf dem jüngsten (zum Zeitpunkt dieses Schreibens) Desktop-Prozessor aus der Intel Core i3-Linie - das i3-530-Modell mit einem Preis von etwas mehr als 100 US-Dollar. Daher werden wir die Auswirkungen der Geschwindigkeit des Disk-Subsystems sowohl für einen Top-End-PC als auch für einen kostengünstigen modernen Desktop überprüfen. Letzteres ist übrigens in seiner Leistung durchaus mit der moderner Top-End-Notebooks vergleichbar, sodass wir den dritten zusammen mit den „zwei Fliegen mit einer Klappe“ schlagen. :) Die spezifischen Konfigurationen sahen so aus:

1. Top-Desktop (oder Workstation):

  • Intel Core i7-975 Prozessor (HT und Turbo Boost aktiviert);
  • ASUS P6T-Motherboard basierend auf Intel X58-Chipsatz mit ICH10R;
  • 6 GB Triple-Channel-DDR3-1333-Speicher (Zeiten 7-7-7);

2. Günstiger Desktop (sowie Media Center oder Top-End-Laptop):

  • Intel Core i3-530 Prozessor (2 Kerne + HT, 2,93 GHz);
  • Biostar TH55XE-Motherboard (Intel H55-Chipsatz);
  • 4 GB Dual-Channel-DDR3-1333-Speicher (Zeiten 7-7-7);
  • Videobeschleuniger AMD Radeon HD 5770.

Wir wählten die Referenz-Disk-Subsysteme, die für diese Konfigurationen als Systemlaufwerke fungierten, aufgrund der Tatsache, dass sie einen Schritt von ungefähr 50 MB / s in der maximalen sequentiellen Lese- / Schreibgeschwindigkeit darstellen würden:

  1. typische SATA-SSD auf MLC-Speicher (≈250 MB/s Lesen, ≈200 MB/s Schreiben);
  2. ein typisches 3,5-Zoll-SATA 7K mit 1 TB (≈150 MB / s Lesen / Schreiben);
  3. schnelle 2,5-Zoll-SATA 7K mit 500 GB (≈100 MB/s Lesen/Schreiben);
  4. SATA - "Siebentausender" kleiner Kapazität mit Lese- / Schreibgeschwindigkeit im Bereich von 50 MB / s;
  5. Notebook SATA - "Fünftausender" mit Lese- / Schreibgeschwindigkeit im Bereich von 50 MB / s.

Eine solche Abstufung ermöglicht es uns, ohne an private Modelle gebunden zu sein, ein bedingtes Raster von Referenzpunkten zusammenzustellen, anhand dessen wir das Verhalten dieser oder jener Platte als Systemplatte in Computern der oben beschriebenen Konfigurationen ungefähr vorhersagen können, wie sowie mittlere und einige alte. In unseren Experimenten, wie spezifische Modelle Für jeden der fünf Punkte sprachen folgende Festplatten:

  1. Patriot TorqX PFZ128GS25SSD (IDX MLC SSD 128 GB);
  2. Hitachi Deskstar 7K1000.C HDS721010CLA332 (1 TB);
  3. Seagate Momentus 7200.4 ST950042AS (500 GB);
  4. Hitachi Travelstar 7K100 HTS721010G9SA00 (100 GB);
  5. Toshiba MK1246GSX (5400 U/min, 120 GB).

Wir betonen, dass unsere Testkonfigurationen nicht darauf abzielen, die Auswirkungen dieser spezifischen (von uns in diesen Tests verwendeten) Festplattenmodelle zu bewerten, sondern diese Konfigurationen tatsächlich die "Interessen" nicht nur bestimmter Desktops, sondern auch (indirekt) Media Center repräsentieren, Mini-PCs und leistungsstarke Laptops. Und lassen Sie sich vom Modell der verwendeten Grafikkarte nicht verwirren - die überwältigende Mehrheit der hier gezeigten Benchmark-Ergebnisse hängt nicht wesentlich (oder überhaupt nicht) von der Leistung des Videobeschleunigers ab.

Die Geschwindigkeit der Laufwerke selbst

Bevor wir zu den Ergebnissen unserer Studie über die Festplattenabhängigkeit der Systemleistung übergehen, werfen wir einen kurzen Blick auf die Leistung der Laufwerke selbst, die wir auf unsere traditionelle Weise bewertet haben - mit speziellen Festplatten-Benchmarks. Die durchschnittliche Direktzugriffsgeschwindigkeit dieser Laufwerke ist in der folgenden Tabelle dargestellt.

Klar ist, dass die SSD mit ihren typischen 0,09 ms außer Reichweite ist, der Desktop 7K bewegt seinen Schnurrbart etwas schneller als der Laptop 7K, obwohl beispielsweise das Hitachi 7K100-Modell bei der durchschnittlichen Zugriffszeit mit 3,5 . mithalten kann -Zoll "Siebentausender" der letzten Jahre, mit einer ähnlichen Kapazität und Geschwindigkeit des linearen Zugriffs. Letzteres für unsere Referenzscheiben ist in der folgenden Abbildung dargestellt.

Das 5K von Toshiba ist in diesem Parameter etwas schneller als das 7K von Hitachi 7K100, ist diesem aber in Bezug auf die Direktzugriffszeit unterlegen. Lassen Sie uns sehen, was sich für die typische Arbeit eines Desktops als wichtiger herausstellt und ob es einen wirklichen Unterschied zur Verwendung dieser Festplatten verschiedener Klassen gibt.

Als interessante Information nebenbei geben wir einen Indikator an, mit dem Windows 7 mit seinem eingebauten Benchmark die Brauchbarkeit des einen oder anderen Referenzlaufwerks bewertet.

Wir betonen, dass Windows 7 für beide Testsysteme den HD 5770-Videobeschleuniger mit 7,4 Punkten (bei Grafik und Spielgrafik) bewertet hat, und der Prozessor und der Speicher erhielten Bewertungen von 7,6 bzw. 7,9 für das ältere und 6,9 und 7, 3 für das jüngste unserer Testsysteme. Festplatten sind somit das schwächste Glied in diesen Systemen (laut Windows 7). Umso auffälliger sollte theoretisch ihr Einfluss auf die Gesamtsystemleistung des PCs sein.

Das letzte in diesem Abschnitt ist das PCMark Vantage reine Festplatten-Benchmark-Diagramm, das die typische Anordnung ausgewählter Laufwerke in traditionellen Festplattentests zeigt, bei denen ähnliche Tests von Rezensenten verwendet werden, um ihr hartes Urteil zu fällen.

Mehr als fünffacher Vorsprung von SSD gegenüber HDD in diesem speziellen Benchmark (PCMark Vantage, HDD Score) - das sind derzeit typische Positionen (in einigen anderen Desktop-Benchmarks ist der Abstand jedoch noch geringer). Beachten Sie übrigens, dass die Ergebnisse von Festplattentests äußerst schwach von der Systemkonfiguration abhängen - sie sind ungefähr gleich für Prozessoren, die sich im Preis um das 10-fache unterscheiden, und sind auch innerhalb der Fehlerspanne für x64 und . gleich x86-Fälle. Außerdem stellen wir fest, dass die ältere der ausgewählten Festplatten in puncto „Pure Disk“-Performance etwa doppelt so schnell ist wie die jüngere. Mal sehen, wie sich diese 5- bis 10-fache Lücke in den Festplatten-Benchmarks auf die tatsächliche Arbeit des PCs auswirkt.

Systemweite Testergebnisse

Sowie uns "vorausgesagt" Windows-Index 7 gibt es keinen praktischen Unterschied zwischen Systemen mit den beiden niedrigsten der ausgewählten Referenzplatten, obwohl es sich um Platten unterschiedlicher Klassen (7200 und 5400 U/min) handelt. Interessant ist auch, dass die produktiven Modelle der SATA 7K-Formfaktoren 3,5 und 2,5 Zoll sind, die sich in der Kapazität um die Hälfte unterscheiden (lesen - beim älteren bewegen sich die Köpfe bei der gleichen systemweiten Leistung etwa halb so viel) Test), fast eineinhalb Mal - entsprechend der Geschwindigkeit des linearen Zugriffs und spürbar - entsprechend der Geschwindigkeit des wahlfreien Zugriffs, und so verhalten sich diese beiden Modelle in echten PCs fast gleich, d wird deine "menschlichen" Empfindungen zwischen solchen Systemen nicht spüren Nein Komfortunterschiede bei typischen Anwendungen. Aber nach einem Upgrade von einem unserer Junior-Benchmark-Festplattensubsysteme auf eines von ihnen wird die Steigerung durchschnittlich etwa 15% betragen (denken Sie daran, dass sie sich in der reinen Festplattenleistung um etwa die Hälfte unterscheiden!). Dies ist eine ziemlich aktuelle Situation sowohl für einen Laptop (Ersetzen eines veralteten 5K-Modells durch ein geräumiges Top-7K-Modell) als auch für einen Desktop (Upgrade eines alten 7K-Modells auf ein neues Terabyte-Modell).

Aber sind 15 % viel oder wenig? Der Autor dieser Zeilen ist der Meinung, dass dies tatsächlich sehr wenig ist! Tatsächlich ist dies fast die Grenze unserer sensorischen Differenzierung (≈1 dB). Wir als biologische Individuen spüren deutlich den Unterschied in der Zeit der Prozesse (und nehmen den Unterschied bei anderen "analogen" Werten wahr), wenn dieser Unterschied mindestens 30-40 Prozent beträgt (dies entspricht ungefähr 3 dB der logarithmischen Skala unserer Wahrnehmung verschiedener äußerer Reize). Ansonsten ist uns das im Allgemeinen egal. :) Und noch besser ist es, wenn der Zeitunterschied zwischen den Prozessen das Doppelte (6 dB) beträgt. Dann werden wir definitiv sagen, dass sich das System / der Prozess deutlich beschleunigt hat. Dies ist jedoch leider bei weitem nicht der Fall des oben gezeigten Diagramms mit SYSmark 2007. Wenn Sie also nach dem Upgrade der Festplatte nicht gezielt mit einer Stoppuhr in der Hand sitzen oder spezielle Festplatten-Benchmarks durchführen, werden Sie kaum etwas darüber wissen Erhöhen Sie Ihren Arbeitskomfort!

Ein etwas anderer Fall ist das Upgrade von HDD auf SSD. Hier wird beispielsweise im Rahmen des älteren Laptop-Modells die Steigerung der durchschnittlichen systemweiten Leistung etwa 30 % betragen. Ja, wir können es fühlen. Aber wir können kaum sagen, dass das System anfing zu "fliegen". Selbst im Fall eines Top-End-Desktop-PCs führt die Verwendung einer SSD anstelle einer einzelnen HDD zu einer Reduzierung der durchschnittlichen PC-Reaktionszeit auf Benutzeraktionen um nur 20-40 % (dies entspricht einem 5- bis 10-fachen Unterschied in die Geschwindigkeit der Festplatten selbst!). Das möchte ich gar nicht zu gesonderten privaten Problemen im Zusammenhang mit . sagen aktive Nutzung Diskette, werden Sie nicht "wow!" sagen. Aber im Großen und Ganzen wird die Situation nicht so rosig, wie es manchmal von Festplattentestern beschrieben wird. Darüber hinaus ist der Einsatz von SSD in schwachen PCs kaum zu empfehlen, wie dieser Grafik zu entnehmen ist – der Arbeitskomfort wird durchschnittlich auf Höhe der individuellen Unterscheidbarkeitsschwelle steigen. Und Sie werden die größte Wirkung von SSDs in leistungsstarken PCs spüren.

Allerdings ist nicht alles so traurig! Wenn man beispielsweise die Situation in verschiedenen SYSmark 2007-Mustern analysiert, kann man zu den folgenden Schlussfolgerungen kommen. Wenn Sie also Aufgaben eines bestimmten Profils ausführen (in diesem Fall mit 3D und dem E-Learning-Szenario arbeiten), gibt es wirklich fast keinen Unterschied, welche Festplatte Sie gleichzeitig verwenden (der Unterschied zwischen unseren Senior- und Junior-Rappern beträgt 5 -15% "ununterscheidbar" von uns) ... Und hier macht es absolut keinen Sinn, Geld für ein neues auszugeben schnelle Fahrt! Auf der anderen Seite können Sie jedoch bei einer Reihe von Aufgaben (insbesondere dem VideoCreation-Skript, das aktiv Video- und Audiobearbeitung verwendet) immer noch die "Brise in Ihren Ohren" spüren: für einen leistungsstarken Desktop, der den durchschnittlichen PC reduziert Die Reaktionszeit auf Benutzeraktionen durch die Verwendung einer SSD kann das geschätzte 2-fache erreichen (siehe das Diagramm unten), und für ein weniger leistungsstarkes Desktop-System sowie einen Top-End-Laptop die Vorteile der Verwendung einer SSD in Videoerstellungs- und Produktivitätsszenarien sind ziemlich offensichtlich (in VideoCreation verhalten sich übrigens Top-End-Festplatten sehr anständig). Damit kommen wir noch einmal zu dem Postulat, das unseren Zähnen auferlegt wird: universelle Lösungen existiert nicht, und die Konfiguration Ihres PCs muss ausgewählt werden, abhängig von den spezifischen Aufgaben, die Sie darauf lösen werden.


Aber kein einziges "Sismmark"! .. Wir haben auf unseren 10 Referenzsystemen auch genügend traditionelle Tests und Benchmarks durchgeführt, um zumindest eine gewisse Festplattenabhängigkeit aufzudecken. Leider sind die meisten dieser Tests so konzipiert, dass sie den Einfluss des Plattensystems auf die Testergebnisse neutralisieren. Daher weder in zahlreichen Spielen, noch im komplexen 3DMark Vantage, noch in SPEC viewperf und einer Reihe anderer Aufgaben, darunter Video-Encoding in x264 HD Benchmark 3.0 und Intel HDxPRT 2010 Tests (und erst recht in verschiedenen Prozessor- und Speichertests) gibt es keine "Festplattenabhängigkeit" ist uns nicht aufgefallen. Das heißt, wir waren einfach ehrlich davon überzeugt, was wir eigentlich erwartet haben. Aus diesem Grund haben wir hier übrigens nicht die traditionelle Methode zum Testen der Prozessoren der Site-Site verwendet, die hauptsächlich Benchmarks in individuelle Anwendungen... Die Ergebnisse dieser zahlreichen, aber für das Thema dieses Artikels "unnützen" Aufgaben lassen wir natürlich weg. Eine andere Sache ist ein weiterer umfassender Test zur Beurteilung der Gesamtsystemleistung eines PCs - PCMark Vantage. Schauen wir uns die Ergebnisse für unsere Referenzsysteme und Fälle von 32- und 64-Bit-Ausführungen von Anwendungen an.




Es ist töricht, das Offensichtliche zu leugnen - laut PCMark Vantage Benchmark-Methode ist der Vorteil von Systemen mit SSDs nicht zu leugnen und manchmal mehr als doppelt so groß wie die jüngeren unserer Benchmark-Festplatten (aber immer noch nicht 10-mal). Und auch hier ist der Unterschied zwischen schnellen Desktop- und Laptop-Festplatten nicht so offensichtlich. Und das alles ist in der "uns gegebenen Wirklichkeit", wie Sie wissen, "in den Empfindungen" nicht zu unterscheiden. In diesem Fall ist es optimal, sich auf den "oberen" Block "PCMark" dieser Diagramme zu konzentrieren, der den "Haupt"-Index der Gesamtsystemleistung dieses Benchmarks zeigt.

Ja, man kann argumentieren, dass dies in gewissem Sinne "Synthetik" ist, viel weniger realistisch als die Nachahmung der Benutzerarbeit in Tests wie SYSmark. Allerdings berücksichtigen PCMark Vantage-Muster viele solcher Nuancen, die in SYSmark noch nicht verfügbar sind. Daher haben sie auch das Recht auf Leben. Und die Wahrheit ist, wie Sie wissen, "irgendwo in der Nähe" (und diese Übersetzung ist, wie Sie wissen, ungenau). :)

Fazit

Unsere erste Studie zur Disk-Abhängigkeit der systemweiten Performance moderner Top-End- und Midrange-PCs am Beispiel von einem Dutzend Referenzkonfigurationen hat gezeigt, dass ein einfacher Benutzer bei den meisten traditionellen Aufgaben kaum (in seinen Gefühlen aus dem Computer) ein großer Unterschied zur Verwendung einer schnelleren oder langsameren Festplatte von denen, die jetzt auf dem Markt sind oder vor nicht allzu langer Zeit verkauft wurden. In den meisten Aufgaben, die nicht direkt mit Konstanten zusammenhängen aktive Arbeit mit einer Festplatte (Kopieren, Schreiben und Lesen einer großen Menge von Dateien mit maximaler Geschwindigkeit) ist die Festplattenabhängigkeit der Systemleistung entweder gar nicht vorhanden oder nicht so groß, dass wir es wirklich gefühlt haben (gefühlt haben), indem wir die durchschnittliche Reaktionszeit von das System zu unserem Handeln. Auf der anderen Seite gibt es natürlich etliche Aufgaben (zB Videobearbeitung, professionelles Arbeiten mit Fotos etc.), bei denen eine Plattenabhängigkeit auffällt. Und in diesem Fall kann der Einsatz von Hochleistungsplatten und insbesondere SSDs unser PC-Erlebnis positiv beeinflussen. Aber ein Smart Drive und eine SSD sind kein Allheilmittel. Wenn Ihr Computer nicht schnell genug arbeitet, dann ist es sinnvoll, das Upgrade strikt nach den Aufgaben anzugehen, die mit Hilfe dieses PCs gelöst werden sollen. Um nicht plötzlich die Frustration zu erleben, Geld ohne echten Nutzen auszugeben.

  • Übersetzung

Dies ist eine Übersetzung der Antwort von superuser.com auf die Frage nach den Auswirkungen von freiem Speicherplatz auf die Leistung. Übersetzer

Beschleunigt das Freigeben von Speicherplatz Ihren Computer?

Das Freigeben von Speicherplatz beschleunigt Ihren Computer nicht, zumindest nicht allein. Dies ist ein wirklich verbreiteter Mythos. Dieser Mythos ist so verbreitet, weil das Auffüllen Ihrer Festplatte oft gleichzeitig mit anderen Prozessen stattfindet, die traditionell kann verlangsamen * Ihren Computer. Die SSD-Leistung kann abnehmen, wenn sie sich füllt, dies ist jedoch vergleichsweise neues Problem typisch für SSD und für normale Benutzer sogar subtil. Im Allgemeinen ist der Mangel an freiem Speicherplatz nur ein rotes Tuch für den Stier ( lenkt die Aufmerksamkeit ab - ca. Übersetzer).

Ca. Autor: * „Slowdown“ ist ein sehr weit gefasster Begriff. Hier verwende ich es in Bezug auf Prozesse im Zusammenhang mit I / O (dh wenn Ihr Computer mit reinen Berechnungen beschäftigt ist, hat der Inhalt der Festplatte keine Auswirkungen), oder in Bezug auf den Prozessor und im Wettbewerb mit Prozessen, die viele Prozessorressourcen verbrauchen (dh Antivirus scannt eine große Anzahl von Dateien)

Zum Beispiel solche Phänomene wie:

  • Dateifragmentierung. Dateifragmentierung ist ein Problem ** jedoch der Mangel an freiem Speicherplatz, obwohl es einer der viele Faktoren ist nicht der Einzige Fragmentierung verursachen. Grundmomente:
    Ca. Autor: ** Zersplitterung Einflüsse auf SSDs aufgrund der Tatsache, dass sequentielles Lesen in der Regel deutlich schneller ist als Random Access, obwohl SSDs nicht die gleichen Einschränkungen wie mechanische Geräte haben (auch in diesem Fall garantiert das Fehlen einer Fragmentierung keinen sequentiellen Zugriff aufgrund von Verschleißverteilung und ähnlichen Prozessen ). In fast allen typischen Anwendungsfällen ist dies jedoch kein Problem. Unterschiede in der SSD-Leistung aufgrund von Fragmentierung sind normalerweise für die Prozesse zum Starten von Anwendungen, Booten eines Computers und anderen unsichtbar.
    • Die Wahrscheinlichkeit einer Dateifragmentierung hängt nicht von der Menge des freien Speicherplatzes ab. Dies hängt von der Größe des größten zusammenhängenden freien Speicherplatzes auf der Festplatte ab (d. h. den "Lücken" des freien Speicherplatzes), die von oben begrenzt die Menge an freiem Speicherplatz. Eine weitere Abhängigkeit ist die Methode, die das Dateisystem beim Platzieren von Dateien verwendet (dazu später mehr).
      Zum Beispiel: Wenn 95 % des Speicherplatzes auf der Festplatte belegt sind und alles, was frei ist, durch einen zusammenhängenden Block dargestellt wird, dann neue Datei wird mit einer Wahrscheinlichkeit von 0% fragmentiert ( es sei denn, das normale Dateisystem fragmentiert Dateien nicht absichtlich - ca. der Autor) (auch die Möglichkeit einer Fragmentierung der zu expandierenden Datei hängt nicht vom freien Speicherplatz ab). Auf der anderen Seite besteht eine sehr hohe Wahrscheinlichkeit der Fragmentierung auf einer Platte, die zu 5 % mit gleichmäßig verteilten Daten gefüllt ist.
    • Bitte beachten Sie, dass die Dateifragmentierung die Leistung beeinträchtigt nur wenn auf diese Dateien zugegriffen wird. Zum Beispiel: Sie haben eine schöne, defragmentierte Festplatte mit vielen freien "Speicherplätzen" darauf. Eine typische Situation. Alles funktioniert gut. Irgendwann kommen Sie jedoch in eine Situation, in der keine großen freien Blöcke mehr vorhanden sind. Sie laden einen großen Film herunter und die Datei ist sehr fragmentiert. Es wird Ihren Computer nicht verlangsamen.... Ihre Bewerbungsdateien und andere Dateien, die in einwandfreiem Zustand waren, werden nicht sofort fragmentiert. Das Laden des Films kann natürlich länger dauern (allerdings sind die typischen Bitraten von Filmen so viel niedriger als die Lesegeschwindigkeit Festplatte es wird wahrscheinlich unbemerkt bleiben), es kann sich auch auf die I / O-Leistung auswirken, während der Film geladen wird, aber sonst ändert sich nichts.
    • Obwohl die Fragmentierung ein Problem ist, wird es oft durch Zwischenspeichern und Puffern vom Betriebssystem ausgeglichen, und Hardware-... Lazy Write, Read-Ahead und mehr können helfen, durch Fragmentierung verursachte Probleme zu lösen. Im Allgemeinen bist du merke nichts bis der Fragmentierungsgrad zu hoch wird (ich wage sogar zu behaupten, dass Sie nichts bemerken werden, solange Ihre Auslagerungsdatei nicht fragmentiert ist)
  • Ein weiteres Beispiel ist die Suchindizierung. Angenommen, Sie haben die automatische Indizierung aktiviert und das Betriebssystem implementiert sie nicht sehr gut. Wenn Sie immer mehr indizierte Dateien auf Ihrem Computer speichern (Dokumente und dergleichen), dauert die Indizierung länger und kann sich im weiteren Verlauf spürbar auf die beobachtete Computerleistung auswirken und I / O- und CPU-Zeit auffressen die selbe Zeit. Dies hängt nicht mit dem freien Speicherplatz zusammen, sondern mit der Menge der indizierten Daten. Die Erschöpfung des Speicherplatzes erfolgt jedoch gleichzeitig mit der Einsparung mehr Inhalt, so stellen viele die falsche Beziehung her.
  • Antiviren. Dies ist dem Suchindex-Beispiel sehr ähnlich. Nehmen wir an, Sie haben ein Antivirenprogramm, das Ihre Festplatte im Hintergrund scannt. Du hast immer mehr mehr Dateien für das Scannen beginnt die Suche, immer mehr E / A- und Prozessorressourcen zu verbrauchen, was möglicherweise die Arbeit beeinträchtigt. Auch hier hängt das Problem mit der Menge des gecrawlten Inhalts zusammen. Mehr Inhalt bedeutet weniger freien Speicherplatz, aber ein Mangel an freiem Speicherplatz ist nicht die Ursache des Problems.
  • Installierte Programme. Nehmen wir an, Sie haben viele Programme installiert, die beim Hochfahren Ihres Computers gestartet werden, was die Bootzeit verlängert. Diese Verlangsamung tritt auf, weil viele Programme geladen werden. Gleichzeitig belegen installierte Programme Speicherplatz auf der Festplatte. Folglich verringert sich gleichzeitig mit der Verzögerung der Freiraum, was zu falschen Schlussfolgerungen führen kann.
  • Viele andere ähnliche Beispiele können angeführt werden, die Illusion Verknüpfen von Speicherplatz und Leistungseinbußen.

Das Obige veranschaulicht einen weiteren Grund für die Verbreitung dieses Mythos: Obwohl der Mangel an freiem Speicherplatz nicht direkt für die Verlangsamung verantwortlich ist, können die Deinstallation verschiedener Anwendungen, das Löschen von indizierten und gecrawlten Inhalten usw. manchmal (aber nicht immer, solche Fälle würden den Rahmen dieses Textes sprengen) führt zu Zunahme Leistung aus anderen Gründen als dem freien Speicherplatz. Dadurch wird auf natürliche Weise Speicherplatz frei. Folglich besteht auch ein falscher Zusammenhang zwischen "mehr freiem Speicherplatz" und "schnellerem Computer".

Suchen: Wenn Ihr Computer aufgrund einer großen Anzahl von installierte Programme und so weiter, und Sie klonen genau Ihre Festplatte auf eine größere Festplatte und erweitern dann die Partitionen, um mehr freien Speicherplatz zu erhalten, der Computer wird nicht durch eine Handbewegung schneller. Die gleichen Programme werden geladen, die gleichen Dateien werden auf die gleiche Weise fragmentiert, der gleiche Indexierungsdienst funktioniert, es ändert sich nichts trotz der Zunahme des freien Speicherplatzes.

Hat es etwas damit zu tun, einen Ort zu finden, an dem die Dateien abgelegt werden können?

Nein, nicht verbunden. Hier gibt es zwei wichtige Punkte:

  1. Ihre Festplatte sucht nicht nach einem Speicherort für Dateien. Festplatte dumm. Er ist nichts. Es ist ein großer Block adressierbaren Speichers, der blind gehorcht Betriebssystem in Sachen Unterkunft. Moderne Laufwerke sind mit ausgeklügelten Caching- und Puffermechanismen ausgestattet, die entwickelt wurden, um Betriebssystemanforderungen basierend auf menschlicher Erfahrung vorherzusagen (einige Laufwerke wissen sogar darüber Bescheid) Dateisysteme Oh). Aber im Wesentlichen sollte die Festplatte als großer, dummer Datenspeicherbaustein betrachtet werden, der manchmal mit leistungssteigernden Funktionen ausgestattet ist.
  2. Ihr Betriebssystem sucht auch nicht nach einer Platzierung. Es gibt keine "Suche"... Es wurden große Anstrengungen unternommen, um dieses Problem zu lösen, da es ist entscheidend für die Leistung von Dateisystemen. Die Daten befinden sich auf Ihrer Festplatte, wie durch das Dateisystem definiert, zum Beispiel FAT32 (alte Computer mit DOS und Windows), NTFS (neuere Windows-Systeme), HFS + (Mac), ext4 (einige Linux-Systeme) und viele andere. Sogar das Konzept einer "Datei" oder eines "Verzeichnisses" ( "Ordner" - ca. Übersetzer) ist nur das Ergebnis eines typischen Dateisystems: Festplatten kennen solche Bestien wie "Dateien" nicht. Einzelheiten sind außerhalb des Rahmens dieses Textes. Im Wesentlichen enthalten jedoch alle gängigen Dateisysteme eine Möglichkeit, den freien Speicherplatz auf einer Platte zu verfolgen, und daher ist das "Suchen" nach freiem Speicherplatz unter normalen Umständen (dh im normalen Zustand des Dateisystems) nicht erforderlich. Beispiele:
    • NTFS enthält eine Master-Dateitabelle, die spezielle Dateien (wie $ Bitmap) und viele Metadaten enthält, die die Festplatte beschreiben. Grundsätzlich verfolgt es nachfolgende freie Blöcke, sodass Dateien auf die Festplatte geschrieben werden können, ohne die Festplatte jedes Mal scannen zu müssen.
    • Ein weiteres Beispiel, ext4 hat eine Entität namens "Bitmap-Zuordnung", eine Verbesserung gegenüber ext2 und ext3, die hilft, die Position freier Blöcke direkt zu bestimmen, anstatt die Liste der freien Blöcke zu scannen. Ext4 unterstützt auch "faule Allocation", d. h. im Wesentlichen das Betriebssystem, das Daten in den RAM puffert, bevor sie auf die Festplatte geschrieben werden, um sie zu akzeptieren beste Lösung bei der Platzierung, um die Fragmentierung zu reduzieren.
    • Viele andere Beispiele.
Könnte es darum gehen, Dateien hin und her zu verschieben, um beim Speichern lange genug zusammenhängenden Speicherplatz zuzuweisen?

Nein, das passiert nicht. Zumindest in keinem der mir bekannten Dateisysteme. Die Dateien sind einfach fragmentiert.

Der Vorgang des "Verschiebens von Dateien hin und her, um einen langen, zusammenhängenden Block auszuwählen" heißt Defragmentierung... Dies passiert nicht beim Schreiben von Dateien. Dies geschieht, wenn Sie das Festausführen. zumindest in neu Windows-Systeme Dies geschieht automatisch nach einem Zeitplan, aber das Schreiben einer Datei ist nie ein Grund, diesen Vorgang zu starten.

Gelegenheit vermeiden Die Notwendigkeit, Dateien auf diese Weise zu verschieben, ist der Schlüssel zur Leistung von Dateisystemen, und der Grund, warum die Fragmentierung auftritt und die Defragmentierung ein separater Schritt ist.

Wie viel freien Speicherplatz sollten Sie auf der Festplatte lassen?

Das ist eine schwierigere Frage, und ich habe schon viel geschrieben.

Grundregeln zu befolgen:

  • Für alle Arten von Discs:
    • Das Wichtigste ist, genügend Platz zu lassen für den Computer selbst effektiv nutzen... Wenn der Speicherplatz knapp wird, benötigen Sie möglicherweise eine größere Disc.
    • Viele Dienstprogramme zur Festplattendefragmentierung benötigen einen minimalen freien Speicherplatz (es scheint, als ob es mit Windows im Lieferumfang enthalten ist). schlimmsten Fall benötigt 15% freien Speicherplatz) für seine Arbeit. Sie verwenden diesen Speicherplatz, um fragmentierte Dateien vorübergehend zu speichern, während andere Objekte verschoben werden.
    • Lassen Sie Platz für andere Betriebssystemfunktionen. Wenn Ihr Computer beispielsweise nicht über viel physischen RAM verfügt und der virtuelle Speicher mit einer dynamischen Auslagerungsdatei aktiviert ist, sollten Sie genügend freien Speicherplatz für die Auslagerungsdatei lassen. maximale Größe... Wenn Sie einen Laptop im Ruhezustand haben, benötigen Sie genügend freien Speicherplatz, um die Ruhezustandsdatei zu speichern. Das sind die Dinger.
  • Über SSD:
    • Für optimale Zuverlässigkeit (und in geringerem Maße Leistung) sollte auf der SSD etwas freier Speicherplatz vorhanden sein, der, ohne auf Details einzugehen, verwendet wird, um die Daten gleichmäßig auf der Festplatte zu verteilen, um zu vermeiden, dass ständig an derselben Stelle geschrieben wird (was dazu führt, dass Ressourcenverbrauch) ... Das Konzept der freien Speicherplatzreservierung wird als Überbereitstellung bezeichnet. Das ist wichtig, aber viele SSDs haben den benötigten freien Speicherplatz bereits zugewiesen... Das heißt, Festplatten haben oft zehn Gigabyte mehr Speicherplatz, als sie dem Betriebssystem anzeigen. Billigere Laufwerke erfordern oft, dass Sie einen Teil des Speicherplatzes nicht zugewiesen lassen. Aber bei der Arbeit bei Festplatten mit erzwungenen Ersatzlaufwerken ist dies nicht erforderlich... Es ist wichtig sich das zu merken zusätzlicher Platz wird oft nur von nicht zugewiesenen Bereichen genommen... So nicht immer Die Option funktioniert, wenn Ihre Partition die gesamte Festplatte einnimmt und Sie etwas freien Speicherplatz darauf lassen. Bei der manuellen Umschuldung müssen Sie Ihre Partition kleiner als die Festplattengröße machen. Sehen Sie in Ihrem SSD-Benutzerhandbuch nach. TRIM und Garbage Collection und ähnliche Dinge haben ebenfalls Einfluss, aber sie würden den Rahmen dieses Textes sprengen.

Ich persönlich kaufe normalerweise neue Scheibe größer, wenn ich noch etwa 20-25% freien Speicherplatz habe. Das hat nichts mit Performance zu tun, gerade wenn ich so weit bin - es bedeutet, dass der Speicherplatz bald knapp wird, was bedeutet, dass es Zeit ist, eine neue Festplatte zu kaufen.

Wichtiger als das Nachverfolgen des freien Speicherplatzes ist, sicherzustellen, dass die geplante Defragmentierung dort aktiviert ist, wo sie benötigt wird (nicht auf einer SSD), damit Sie nie an einen Punkt gelangen, an dem sie groß genug ist, um einen spürbaren Effekt zu haben.

Nachwort

Es gibt noch eine Sache, die erwähnt werden sollte. Eine der anderen Antworten auf diese Frage erwähnt, dass SATA-Halbduplex nicht die Möglichkeit bietet, gleichzeitig zu lesen und zu schreiben. Dies ist zwar tatsächlich der Fall, stellt jedoch eine grobe Vereinfachung dar und steht in keinem Zusammenhang mit den hier erörterten Leistungsproblemen. In Wirklichkeit bedeutet es einfach, dass keine Daten übertragen werden können. von Draht gleichzeitig in zwei Richtungen. aber