Guckux
Ich möchte ja keinen Streit vom Zaun brechen, aber wenn ich etwas lese wie:
"Würde mir imho eigentlich keine QLC SSDs kaufen. Niemals als Bootlaufwerk."
Schüttel ich persönlich den Kopf. Wieso?
Anmerkung: manches mag als subjektiv ausgelegt werden, vieles sind auch Fakten.
Früher gab es nur Festplatten auf Magnetbasis, ich lass ich jetzt mal MFM und RLL weg, zu alt
Eine typische Festplatte ist ein Magnetspeicher, hat rotierende Scheiben, über welche idR mehrere Köpfe mit minimalem Abstand sich bewegen. Die Geschwindigkeit solch einer Festplatte wird primär definiert über die Rotationsgeschwindikeit der Magnetscheibe (typisch consumer: 5,400 und 7,200rpm, Enterprise 10,000 und 15,000 rpm) und die Datendichte und 2tens über die sogenannten seek-Zeiten, welche die Zeit bemisst, in der ein Kopf von einer Spur zu einer anderen benötigt (consumer >>3ms, Enterprise ca 3ms).
Diese Werte definieren eine sogenannte "sustained" Transferrate, sprich EIN Lese ODER EIN Schreibvorgang. Resultierend daraus hat man eine "maximale" Datentransferrate - also zB beim kopieren einer 10GB großen Datei von einem Medium zu einem anderem.
Typisch sind Werte beim Lesen/Schreiben von bis zu 220MB/s / 160MB/s.
Eine SSD oder NVMe ist eine "logische Festplatte" aus Speicherchips ohne rotierende Scheibe - der wirklich wahre Vorteil sind die nicht "vorhandenen" Seeks (ca 0.03ms - ein hundertstel von der Magnetplatte).
Eine SATA-SSD kann den SATA-Bus durchaus ausreizen, eine NVME wird direkt an die PCI-Express-lanes angebunden. Auf dem SATA-Bus sind hierdurch lockere 500MB/s realisierbar und im NMVE-Bereich Werte von 3,000MB/s keine Seltenheit mehr.
Die 2te Definition eines Massenspeichers, wird über randomized access definiert, Maßeinheit sind die sogenannten IOPS (Input/Output per Second). Meiner Meinung nach der "interessanteste" Wert.
Typische consumer SATA-Festplatten haben meist bis 170 IOPS, Enterprise-Festplatten durchaus um die 300 IOPS.
Diese IOPS sind abhängig von der sek-Geschwindigkeit und nicht nur von Spur zu Spur, wesentlich relevanter über viele Spuren hinweg - und hier gewinnt die Enterprise-Fraktion mal so richtig...
SATA-SSDS haben idR angegebene IOPS von durchaus um die 80,000 (das ca 400-fache einer Magnetplatte) und eine NVMe irgendwo zwischen 200,000 und 500,00 (round about, unterschiedlich bei Lesen und Schreiben und je nach verwendeten Speicherchips, SLC (Single Bit), "2Bit", TLC (3Bit) und QLC (4Bit).
TLC und QLC-Massenspeichern ist häufig ein SLC-"cache" vorgeschaltet, der über seine Größe, welche unterschiedlich sein kann, den langsameren TLC oder QLC-Speicher "entlastet". Ist dieser "gefüllt" und kommt dem Schreiben auf dem langsameren nicht mehr hinterher, bricht die Geschwindigkeit ein - für den typischen Anwender meist nicht spürbar - außer er kopiert zig GBs in einem Rutsch.
Denn: ein einzelner Datei-Stream ist ein "untypischer" Anwendungsfall, bei einem Systemstart werden neben dem "Brocken" eines Kernels (13MB im macOS High Sierra) und wenigen anderen Dateien im Bereich von wenigen MB viele anderen Dateien geladen. Das macOS High Sierra hat ein Verzeichnis /System/Library von 7.6 GB, verteilt auf >> 500,000 Dateien (=> durchschnittliche Dateigröße 15kB).
Es wird nicht alle "geladen", aber einiges...
Wenn man sich dergleichen zu Gemüte führt und "visualisiert", ergibt sich logischerweise der größte Geshwindkeitszuwachs durch die schnelleren Zugriffszeiten und nicht durch den hohen Durchsatz. Denn - beim Starten des Betriebssystems wird auf tausende von Dateien zugegriffen und geladen, aber nicht die Masse an großen Dateien...
So, ich hoffe ich habe keine großen Patzer hinterlassen und habe jetzt auch gelernt, daß MLC KEIN 2-Bit Speicher ist, sondern nur für MULTI-Bit steht, also auch für TLC und QLC
Ein Sonderfall im Consumerbereich, welcher aus dem Enterprise resultiert ist der HSM (Hierarchical Storage Management) - bei Apple Fusion Drive genannt und auch als "SSHD" (Solid State Hard Disk) benannt.
HSM habe ich kennengelernt als eine Kombination eines Festplattenspeichers mit Band-Technologie - Dateien, auf welche lange nicht zugegriffen wird, werden auf Magnetbänder ausgelagert (wesentlich günstiger, "sicherer" und auch energieeffizienter, ideal bei Langzeitarchiven).
Später wurden "caches" in die Magnetspeicher eingebaut von wenigen MBs...
Fusion realisiert den HSM über die Kombination einer SSD und eines Magnetspeichers - das Datenmanagement übernimmt das macOS.
SSHD beinhaltet alles auf einer Magnetplatte, dort ist im Controller zB 8GB SLC-Speicher eingebaut, Datenmanagement vom Plattencontroller.
Auch heutige Enterprise Storage-Systeme realisieren das, EMC hat (oder hatte) Systeme, welche auch 3-stufig geschaltet wurden, Vorne Flash (SSD), dahinter SAS (Enterprise Magnet-Platten) und zuletzt NL-SAS (Near-Line SAS, in meinen Augen SATA). Dadurch war es möglich, bei rund 40 Platten mit 40TB netto (mehrere Raid5 und Raid6 Verbünde) dauerhaft >15,000 IOPs beim nächtlichen Backup zu liefern - Backup ist DER Stresstest schlechthin .
Wer es praktisch ausprobieren möchte: es ist recht einfach, aber zeitintensiv:
Bootvorgang mit SATA-Magnetplatte stoppen.
Bootvorgang mit SATA-SSD stoppen.
Bootvorgang mit NVME-SSD stoppen.
Der massiv größte Unterschied liegt zwischen Magnet zu SSD.
Meine Erfahrung war mit Windows7: 1min Magnetplatte, dann auf SSHD, nach dem 4ten oder 5ten Starten, nur noch ca 15sec...
Aber QLC deswegen zu verteufeln - nö, da sind meist 32 oder 64GB SLC-cache vorgeschaltet - das MERKT keiner (wie schrieb mal die c't: Das ein Anwender einen Performance-Gewinn im täglichen Betrieb verspürt, muss die Performance mind. Faktor 2 sein).
So, genug geschrieben - jetzt dürft ihr mich "zerlegen"