Wie viel Platz frei auf HDD oder SSD zu lassen?

In der informellen (d. H. journalistischen) Technologiepresse und in Online-Technologie-Blogs und Diskussionsforen stößt man häufig auf anekdotische Ratschläge, etwas Speicherplatz auf Festplatten oder Solid-State-Laufwerken frei zu lassen. Verschiedene Gründe dafür sind angegeben oder manchmal überhaupt kein Grund. Als solche haben diese Behauptungen, obwohl sie in der Praxis vielleicht vernünftig sind, eine mythische Luft über sie. Zum Beispiel:

  • Sobald Ihre Festplatte(en) zu 80% voll ist, sollten Sie betrachten Sie sie voll, und Sie sollten sofort entweder Dinge löschen oder ein Upgrade durchführen. Wenn sie treffen 90% sie sollten jedoch Ihre eigene persönliche Hose als tatsächlich in Brand setzen und mit einer angemessenen Unmittelbarkeit reagieren, um dies zu beheben. (Quelle.)

  • Um die Garbage Collection bei maximaler Effizienz am Laufen zu halten, zielen traditionelle Ratschläge darauf ab, 20 bis 30 Prozent Ihres Laufwerks leer zu halten. (Quelle.)

  • Mir wurde gesagt, ich sollte ungefähr 20% kostenlos auf einer HD lassen, um eine bessere Leistung zu erzielen, dass eine HD wirklich langsamer wird, wenn sie fast voll ist. (Quelle.)

  • Sie sollten Platz für die Auslagerungsdateien und temporäre Dateien lassen. Ich lasse derzeit 33% Prozent frei und gelobe, nicht unter 10 GB freien Festplattenspeicher zu kommen. (Quelle.)

  • Ich würde normalerweise 15% sagen, jedoch mit wie große Festplatten sind jetzt adays, solange Sie genug für Ihre temporären Dateien und Auslagerungsdatei haben, technisch sind Sie sicher. (Quelle.)

  • Ich würde 10% Plus unter Windows empfehlen, da Defrag nicht ausgeführt wird, wenn nicht so viel frei auf dem Laufwerk ist, wenn Sie es ausführen. (Quelle.)

  • Sie möchten im Allgemeinen etwa 10% frei lassen, um eine Fragmentierung zu vermeiden (Source.)

  • Wenn Ihr laufwerk ist konsequent mehr als 75 oder 80 Prozent voll, Upgrade auf eine größere SSD ist eine Überlegung wert. (Quelle.)

Gab es Forschungen, die vorzugsweise in einer von Experten begutachteten Zeitschrift veröffentlicht wurden, zu dem Prozentsatz oder der absoluten Menge an freiem Speicherplatz, die für bestimmte Kombinationen von Betriebssystemen, Dateisystemen und Speichertechnologien erforderlich ist (z. B. Magnetplatte vs. Festkörper)? (Idealerweise würde eine solche Forschung auch den Grund erklären, die spezifische Menge an verwendetem Speicherplatz, z. B. um zu verhindern, dass dem System der Swap-Speicherplatz ausgeht, oder um Leistungsverluste zu vermeiden.)

Wenn Sie wissen, dass solche Forschung wäre ich Ihnen dankbar, wenn Sie Antworten konnte, mit einem link zu und eine kurze Zusammenfassung der Ergebnisse. Danke!

9 answers

Gab es Forschungen, die vorzugsweise in einer Peer-Review-Zeitschrift veröffentlicht wurden [...]?

Dafür muss man viel weiter als 20 Jahre zurückgehen, von der Systemadministration oder auf andere Weise. Dies war ein heißes Thema, zumindest in der Welt der PC-und Workstation-Betriebssysteme, vor über 30 Jahren; die Zeit, als die BSD-Leute das Berkeley Fast File System entwickelten und Microsoft und IBM das High Performance File System entwickelten.

Die literatur zu beiden von seinen Schöpfern diskutiert die Art und Weise, wie diese Dateisysteme so organisiert wurden, dass die Blockzuweisungsrichtlinie eine bessere Leistung ergab, indem versucht wurde, aufeinanderfolgende Dateiblöcke zusammenhängend zu machen. Diskussionen darüber und darüber, dass die Menge und der Ort des freien Speicherplatzes, der für die Zuweisung von Blöcken übrig bleibt, die Blockplatzierung und damit die Leistung beeinflusst, finden Sie in den zeitgenössischen Artikeln zu diesem Thema.

Es sollte ziemlich offensichtlich sein, zum Beispiel von der beschreibung des Blockzuordnungsalgorithmus des Berkeley FFS, dass, wenn in der aktuellen und sekundären Zylindergruppe kein freier Speicherplatz vorhanden ist und der Algorithmus somit den Fallback der vierten Ebene erreicht ("Wenden Sie eine erschöpfende Suche auf alle Zylindergruppen an"), die Leistung der Zuweisung von Disc-Blöcken leidet ebenso wie die Fragmentierung der Datei (und damit die Leseleistung).

Es sind diese und ähnliche Analysen (diese sind bei weitem nicht die einzigen Dateisystemdesigns, die darauf abzielten, die layout-Richtlinien der Dateisystem-Designs der Zeit) , auf denen die empfangene Weisheit der letzten 30 Jahre aufgebaut hat.

Zum Beispiel: Das Diktum im Originalpapier, dass FFS weniger als 90% voll gehalten werden sollte, damit die Leistung nicht leidet, die auf Experimenten der Schöpfer beruhte, kann selbst in Büchern über Unix-Dateisysteme, die in diesem Jahrhundert veröffentlicht wurden, unkritisch wiederholt werden (z. B. Pate2003 S. 216) . Nur wenige Leute stellen dies in Frage, obwohl Amir H. Majidimehr es tatsächlich tat das Jahrhundert zuvor, sagen, dass xe in der Praxis nicht einen spürbaren Effekt beobachtet hat; nicht zuletzt wegen der üblichen Unix-Mechanismus, der die letzten 10% für Superuser Verwendung reserviert, was bedeutet, dass eine 90% volle Scheibe ist effektiv 100% voll für Nicht-Superuser sowieso (Majidimehr1996 S. 68) . So auch Bill Calkins, der vorschlägt, dass man in der Praxis bis zu 99% mit Disc-Größen des 21. discs in moderner Größe reichen aus, um noch viel unfragmentierten freien Speicherplatz zum Spielen zu haben (Calkins2002 s. 450).

Letzteres ist ein Beispiel dafür, wie empfangene Weisheit falsch werden kann. Es gibt andere Beispiele dafür. So wie die SCSI-und ATA-Welten von logischer Blockadressierung und Zonenbitaufzeichnung eher alle sorgfältigen Berechnungen von Rotationslatenz im BSD-Dateisystemdesign aus dem Fenster geworfen haben, so ist die physikalische Mechanik von SSDs vielmehr werfen aus dem Fenster den freien Speicherplatz erhalten Weisheit, die auf Winchester Discs gilt.

Bei SSDs wirkt sich die Menge des freien Speicherplatzes auf dem gesamten Gerät, d. H. Auf allen Volumes auf der Disc und dazwischen, sowohl auf die Leistung als auch auf die Lebensdauer aus. Und die Grundlage für die Idee, dass eine Datei in Blöcken mit zusammenhängenden logischen Blockadressen gespeichert werden muss, wird durch die Tatsache unterboten, dass SSDs keine Platten zum Drehen haben und zu denen sie gehen müssen suchen. Die Regeln ändern sich wieder.

Bei SSDs ist die empfohlene Mindestmenge an freiem Speicherplatz tatsächlich mehr als die traditionellen 10%, die aus Experimenten mit Winchester-Discs und Berkeley-FFS vor 33 Jahren stammen. Anand Lal Shimpi gibt zum Beispiel 25%. Dieser Unterschied wird durch die Tatsache verstärkt, dass dies freier Speicherplatz über das gesamte Gerät sein muss, während die 10% - Zahl innerhalb jedes einzelnen FFS-Volumes und somit davon beeinflusst wird, ob man partitionierungsprogramm weiß, den gesamten Speicherplatz zu trimmen, die nicht zu einem gültigen Datenträger durch die Partitionstabelle zugeordnet ist.

Es wird auch durch Komplexitäten wie TRIM-Aware-Dateisystemtreiber, die freien Speicherplatz innerhalb von Disc-Volumes trimmen können, und die Tatsache, dass SSD-Hersteller selbst auch bereits weisen unterschiedliche Grade von reserviertem Speicherplatz zu Das ist nicht einmal sichtbar mit dem Gerät (dh dem Host) für verschiedene Zwecke wie Garbage Collection und tragen nivellierung.

Bibliographie

 12
Author: JdeBP,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2020-01-16 01:02:21

Obwohl ich nicht darüber sprechen kann, dass " Forschung "von" Peer Reviewed Journals " veröffentlicht wird - und ich mich nicht auf diese für die tägliche Arbeit verlassen möchte - kann ich über die Realitäten von Hunderten von Produktionsservern unter einer Vielzahl von Betriebssystemen über viele Jahre sprechen:

Es gibt drei Gründe, warum eine vollständige Festplatte die Leistung verringert:

  • Hunger nach freiem Speicherplatz: Denken Sie an temporäre Dateien,Updates usw.
  • Dateisystemverschlechterung: Die meisten Dateisysteme leiden unter ihrer Fähigkeit optimal legen Sie Dateien, wenn nicht genügend Platz vorhanden ist
  • Verschlechterung der Hardware-Ebene: SSDs und SMR-Festplatten ohne genügend freien Speicherplatz zeigen einen verringerten Durchsatz und-noch schlimmer-eine erhöhte Latenz (manchmal um viele Größenordnungen)

Der erste Punkt ist trivial, zumal kein vernünftiges Produktionssystem jemals Swap-Speicherplatz für dynamisch expandierende und schrumpfende Dateien verwenden würde.

Der zweite Punkt unterscheidet sich stark zwischen Dateisystemen und Workload. Für Windows system mit gemischter Arbeitsbelastung erweist sich eine 70% - Schwelle als durchaus verwendbar. Bei einem Linux ext4-Dateisystem mit wenigen, aber großen Dateien (z. B. Videoübertragungssystemen) kann dies bis zu 90+%betragen.

Der dritte Punkt ist Hardware-und firmwareabhängig, aber insbesondere SSDs mit einem Sandforce-Controller können bei hohen Schreibarbeitslasten im freien Block gelöscht werden, was zu Schreiblatenzen führt, die um Tausende von Prozent steigen. Wir lassen normalerweise 25% auf der Partitionsebene frei und beobachten dann eine Füllrate von unter 80%.

Empfehlungen

Mir ist klar, dass ich erwähnt habe, wie man sicherstellt, dass eine maximale Füllrate erzwungen wird. Einige zufällige Gedanken, keiner von ihnen "Peer Review" (bezahlt, gefälscht oder real), aber alle von Produktionssystemen.

  • Verwenden Sie Dateisystemgrenzen: /var gehört nicht zum Stammdateisystem.
  • Überwachung, überwachung, überwachung. Verwenden Sie eine vorgefertigte Lösung, wenn sie zu Ihnen passt, analysieren Sie sonst die Ausgabe von df -h und lassen Sie die Alarmglocken für den Fall los. Dieser kann Sie von 30 Kerneln auf einem Root-fs mit automatischen Upgrades speichern, die ohne die Autoremove-Option installiert und ausgeführt werden.
  • Wiegen Sie die mögliche Störung eines FS-Überlaufs gegen die Kosten ab, um ihn überhaupt größer zu machen: Wenn Sie sich nicht auf einem eingebetteten Gerät befinden, verdoppeln Sie möglicherweise einfach diese Kosten für root.
 48
Author: Eugen Rieck,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2020-06-12 13:48:39

Gab es irgendwelche Forschungen...geben Sie entweder den Prozentsatz oder die absolute Menge an freiem Speicherplatz an, die für bestimmte Kombinationen von Betriebssystemen, Dateisystemen und Speichertechnologien erforderlich ist...?

In 20 Jahren Systemadministration bin ich noch nie auf Recherchen gestoßen, in denen der Bedarf an freiem Speicherplatz in verschiedenen Konfigurationen detailliert beschrieben wurde. Ich vermute, das liegt daran, dass Computer so unterschiedlich konfiguriert sind, dass dies aufgrund der schieren Anzahl möglicher Systeme schwierig wäre Systemkonfigurationen.

Um zu bestimmen, wie viel freier Speicherplatz ein System benötigt, müssen zwei Variablen berücksichtigt werden:

  1. Der minimale Speicherplatz, der benötigt wird, um unerwünschtes Verhalten zu verhindern, das selbst eine flüssige Definition haben kann.

    Beachten Sie, dass es nicht hilfreich ist, den erforderlichen freien Speicherplatz allein durch diese Definition zu definieren, da dies dem Äquivalent entspricht, dass es sicher ist, 80 Meilen pro Stunde in Richtung einer Mauer zu fahren, bis Sie genau mit dem Punkt kollidieren es.

  2. Die Rate, mit der Speicher verbraucht wird, , die eine zusätzliche variable Menge an zu reservierendem Speicherplatz vorschreibt, damit das System nicht abgebaut wird, bevor der Administrator Zeit hat zu reagieren.

Die spezifische Kombination von Betriebssystem, Dateisystemen, zugrunde liegender Speicherarchitektur sowie Anwendungsverhalten, virtueller Speicherkonfiguration usw. schafft eine ziemliche Herausforderung für einen, der definitive Freiraumanforderungen bereitstellen möchte.

Deshalb gibt es so viele "Nuggets" Ratschläge da draußen. Sie werden feststellen, dass viele von ihnen eine Empfehlung zu einer bestimmten Konfiguration abgeben. Zum Beispiel: "Wenn Sie eine SSD haben, die Leistungsproblemen unterliegt, wenn Sie sich der Kapazität nähern, bleiben Sie über 20% freier Speicherplatz."

Da es keine einfache Antwort auf diese Frage gibt, besteht der richtige Ansatz zur Identifizierung des minimalen freien Speicherplatzbedarfs Ihres [[30]} - Systems darin, die verschiedenen generischen Empfehlungen im Lichte der spezifischen Ihres Systems zu berücksichtigen konfigurieren, dann einen Schwellenwert festlegen, überwachen und bereit sein, ihn nach Bedarf anzupassen.

Oder Sie könnten einfach mindestens 20% freien Speicherplatz behalten. Es sei denn, Sie verfügen über ein 42 TB RAID 6-Volume, das durch eine Kombination aus SSDs und herkömmlichen Festplatten und einer vorab zugewiesenen Auslagerungsdatei unterstützt wird... (das ist ein Witz für die ernsten Leute.)

 28
Author: I say Reinstate Monica,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2020-06-12 13:48:39

Natürlich könnte sich ein Laufwerk selbst (HDD oder SSD) nicht weniger darum kümmern, wie viele Prozent davon verwendet werden, abgesehen davon, dass SSDs zuvor ihren freien Speicherplatz für Sie löschen können. Die Leseleistung ist genau gleich und die Schreibleistung kann auf SSD etwas schlechter sein. Wie auch immer, die Schreibleistung ist auf einem fast vollen Laufwerk nicht so wichtig, da kein Speicherplatz zum Schreiben vorhanden ist.

Ihr Betriebssystem, Ihr Dateisystem und Ihre Anwendungen erwarten dagegen freien Speicherplatz jederzeit verfügbar. vor 20 Jahren war es typisch für eine Anwendung zu überprüfen, wie viel Speicherplatz Sie auf dem Laufwerk hatten, bevor Sie versuchen, Ihre Dateien dort zu speichern. Heute erstellt die Anwendung temporäre Dateien, ohne Ihre Erlaubnis einzuholen, und stürzt normalerweise ab oder verhält sich fehlerhaft, wenn sie dies nicht tun.

Dateisysteme haben eine ähnliche Erwartung. Beispielsweise reserviert NTFS einen großen Teil Ihrer Festplatte für MFT, zeigt Ihnen diesen Speicherplatz jedoch weiterhin als frei an. Wenn Sie Ihre NTFS-Festplatte über 80 füllen% von seiner Kapazität erhalten SieMFT-Fragmentierung was sich sehr real auf die Leistung auswirkt.

Darüber hinaus hilft freier Speicherplatz in der Tat gegen die Fragmentierung regulärer Dateien. Dateisysteme neigen dazu, Dateifragmenation zu vermeiden, indem sie je nach Größe den richtigen Ort für jede Datei finden. Auf einer nahezu gefüllten Festplatte haben sie weniger Optionen, sodass sie schlechtere Entscheidungen treffen müssen.

Unter Windows wird auch erwartet, dass Sie genügend Speicherplatz für die Auslagerungsdatei, die bei Bedarf wachsen kann. Wenn nicht, sollten Sie erwarten, dass Ihre Apps gewaltsam geschlossen werden. Mit sehr wenig Swap-Raum kann in der Tat verschlechtern die Leistung.

Selbst wenn Ihr Swap eine feste Größe hat, kann ein vollständiger Ausfall des Systemdatenträgers Ihr System zum Absturz bringen und / oder es nicht bootbar machen (Windows und Linux gleichermaßen), da das Betriebssystem erwartet, dass es während des Bootens auf die Festplatte schreiben kann. Also ja, wenn Sie 90% der Festplattennutzung erreichen, sollten Sie Ihre farben, die in Flammen stehen. Nicht einmal habe ich Computer gesehen, die nicht richtig booten konnten, bis die letzten Downloads entfernt wurden, um dem Betriebssystem ein wenig Speicherplatz zu geben.

 11
Author: Dmitry Grigoryev,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2017-10-05 10:10:07

Für SSDs sollte etwas Speicherplatz übrig sein, da die Umschreibrate dann zunimmt und sich negativ auf die Schreibleistung der Festplatte auswirkt. Die 80% voll ist sicher wert wahrscheinlich für alle SSD festplatten, einige neueste modelle kann auch mit 90-95% belegt kapazität.

Https://www.howtogeek.com/165542/why-solid-state-drives-slow-down-as-you-fill-them-up/

 8
Author: Jaroslav Kucera,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2017-10-04 11:52:59

Die" Regeln " variieren je nach Ihren Anforderungen. Und es gibt Sonderfälle, wie zum Beispiel ZFS: "Bei 90% Kapazität wechselt ZFS von Performance - zu Space-Based Optimization, was massive Performance-Implikationen hat.". Ja, dies ist ein Design Aspekt von ZFS...nicht etwas, das durch Beobachtung oder anekdotische Beweise abgeleitet wurde. Offensichtlich ist dies weniger ein Problem, wenn Ihr ZFS-Speicherpool ausschließlich aus SSDs besteht. Selbst mit sich drehenden Scheiben können Sie jedoch gerne 99% oder 100 erreichen% wenn Sie mit statischem Speicher umgehen und keine erstklassige Leistung benötigen-zum Beispiel Ihre persönliche Lieblingsfilmsammlung aller Zeiten, die sich nie ändert und bei der Sicherheit Priorität 1 hat.

Als nächstes btrfs-ein Extremfall: Wenn der freie Speicherplatz zu niedrig wird (ein paar MByte), können Sie den Punkt ohne Rückkehr erreichen. Nein, das Löschen von Dateien ist keine Option, da Sie nicht können. Es gibt einfach nicht genug Platz, um Dateien zu löschen. btrfs ist eine KUH (copy-on-write) dateisystem, und Sie können einen Punkt erreichen, wo Sie metadaten können nicht mehr geändert werden. Zu diesem Zeitpunkt können Sie Ihrem Dateisystem weiterhin zusätzlichen Speicher hinzufügen (möglicherweise funktioniert ein USB-Stick), dann Dateien aus dem erweiterten Dateisystem löschen, dann das Dateisystem verkleinern und den zusätzlichen Speicher erneut entfernen). Auch dies ist ein Aspekt, der durch das - Design des Dateisystems verursacht wird.

Personen, die Ihnen "echte (ernsthafte) Daten" geben können, sind wahrscheinlich diejenigen, die sich mit "echter (ernsthafter) Speicherung"befassen. Twisty ' s (gute) Antwort mentiones hybrid-Arrays (bestehend aus massiven Mengen an billigen langsam Spinnen, viele schnelle Spinnscheiben, viele SSDs...) die in einer Unternehmensumgebung betrieben werden, in der der Hauptbegrenzungsfaktor die Geschwindigkeit ist, mit der der Administrator Upgrades bestellen kann. Gehen von 16 T zu 35 T kann nehmen 6 months...so am Ende erhalten Sie ernsthaft gesicherte Berichte, die vorschlagen, Ihren Alarm auf 50% einzustellen.

 7
Author: Klaws,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2017-10-05 15:05:30

Es gibt viele, viele Faktoren, die in sehr setup-spezifischen Mengen zum Ergebnis beitragen. Es gibt also keine Hard-and-Fast-Zahl, die nur als Funktion dieser Parameter gemessen werden kann. (Das ist wahrscheinlich der Grund, warum andere Benutzer keine spezifischen Forschungen zu diesem speziellen Thema durchführen - zu viele Variablen, um etwas Schlüssiges zu kompilieren.)

  • Hard

    • HDD hat alle seine Sektoren jederzeit zugeordnet. Es ist also absolut egal, wie viele von ihnen enthalten aktuelle Benutzerdaten. (Für den Controller enthalten alle Sektoren jederzeit einige Daten, er liest und überschreibt sie nur wie angegeben.)
    • Der SSD-Controller hingegen (de)ordnet seine Sektoren dynamisch zu, ähnlich einem Dateisystem. Was diesen Job bei höheren Nutzungen schwieriger macht. Wie viel schwieriger es ist und wie stark dies die beobachtbare Leistung beeinflusst, hängt davon ab:
      • Die Leistung des Controllers und die Qualität der Algorithmen
      • Write-Last
      • Zu einem gewissen grad, gesamtlast (um dem Controller Zeit für die Garbage Collection zu geben)
      • Space overprovision (einige Hersteller lassen den Kunden sogar vorbestellen oder dynamisch ändern)
  • Dateisystem

    • Verschiedene Dateisysteme sind für unterschiedliche Lasten und Hostverarbeitungsanforderungen ausgelegt. Dies kann in gewissem Maße durch Formatparameter optimiert werden.
    • FS schreiben leistung ist eine funktion von freien raum und fragmentierung, lesen leistung ist eine funktion von nur Fragmentierung. Es verschlechtert sich allmählich von Anfang an, so dass die Frage ist, wo Ihre erträgliche Schwelle liegt.
  • Ladeart

    • Write-Heavy Load betont das schnelle Auffinden und Zugreifen auf neue freie Blöcke
    • Read-Heavy Load betont die Konsolidierung verwandter Daten, damit sie mit weniger Overhead gelesen werden können
 4
Author: ivan_pozdeev,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2017-10-06 11:25:39

Eine Sache, die bei mechanischen Antrieben zu beachten ist, ist, dass der Durchsatz der Außenkante höher ist als der innere. Dies liegt daran, dass es mehr Sektoren pro Umdrehung für den größeren Umfang der Außenseite gibt.

Wenn das Laufwerk die Kapazität erreicht, nimmt die Leistung ab, da nur langsamere innere Sektoren verfügbar sind.

Für eine tiefere Analyse siehe https://superuser.com/a/643634

 3
Author: Wes Toleman,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2017-10-05 09:32:46

Dies hängt von der beabsichtigten Verwendung des Laufwerks ab, aber im Allgemeinen sind 20% bis 15% freier Speicherplatz eine gute Antwort für das Drehen von Festplatten, und 10% oder mehr sind gut für SSDs.

Wenn dies das Hauptlaufwerk auf dem Computer ist und Dateien verschoben werden können, sollte 20% freier Speicherplatz erhebliche Verlangsamungen verhindern. Dadurch kann im gesamten Laufwerk genügend offener Speicherplatz vorhanden sein, damit Daten nach Bedarf verschoben und kopiert werden können. Ein sich drehendes Laufwerk funktioniert am besten, wenn sich die freien Speicherorte näher an den Originaldaten befinden, während Sie sich in einem SSD Der physische Standort hat keinen Einfluss auf die tägliche Leistung. Daher sollte das spinnende Laufwerk aus rein Leistungsgründen mehr freien Speicherplatz haben. Auf der SSD verringert der reduzierte freie Speicherplatz die Langlebigkeit des Laufwerks, verringert jedoch nicht die Leistung. Versuchen wir, temporäre Daten und zufällige Download-Dateien an den am wenigsten verwendeten Speicherorten zu speichern, damit sie die Zellennutzung auf dem gesamten Laufwerk ausgleichen können.Andernfalls altert ein Teil des Laufwerks viel schneller als der Rest. Einige neuere SSDs können intelligent ordnen Sie Dateien so an, dass sich der leere Speicherplatz bewegt, ältere Laufwerke tun dies jedoch möglicherweise nicht.

Wenn es sich um ein Medien-oder Langzeitspeicherlaufwerk handelt, sollten 5% bis 10% frei sein, und 10% wären vorzuziehen, wenn es sich um eine sich drehende Festplatte handelt. Sie benötigen nicht so viel freien Speicherplatz, da für dieses Laufwerk selten Daten verschoben werden müssen, sodass die Leistung nicht annähernd so wichtig ist. Der freie Speicherplatz ist hauptsächlich nützlich, damit fehlerhafte Sektoren verworfen und ersetzt werden können und Dateien zusammenhängender sind.

Ich würde kein Laufwerk länger als einen Tag über 95% Kapazität hinausschieben, es sei denn, es gibt einen sehr guten, klaren Grund.

 3
Author: user3685427,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2017-10-06 13:25:15