Synology oder XPENOLOGY???
Welche NIC verbaut?
Um schreiben oder kommentieren zu können, benötigst du ein Benutzerkonto.
Du hast schon ein Benutzerkonto? Melde dich hier hier an.
Jetzt anmeldenHier kannst du ein neues Benutzerkonto erstellen.
Neues Benutzerkonto erstellenSynology oder XPENOLOGY???
Welche NIC verbaut?
Soo, nun. bin ich endlich weiter. Und ich denke auch "wieder" am Ziel angekommen.
Es ist eine erneute Installation der XPenlology 6.2.3 DSM Version geworden, da ich mit allen Anderen OS nicht grün werde.
Entweder fehleranfällig (NAS Dienste fallen aus, sind nicht erreichbar. Z.B. Time Machine) oder der Speed passt nicht oder das System der HDD Raid Modi passt mir nicht.
Nun ja, es ist ein Raid 6 aus 6 Disks geworden mit je 3TB WD Red, Intel NIC X540-T2 und hat einen Durchsatz mit dem ich zufrieden bin.
Läuft sauber und lässt sich sehr gut bedienen über das Webinterface.
Danke an Alle für den tollen Input, die Erfahrungsberichte und Teilnahme zu meiner Wegfindung.
System ist Nativ (Baremetal) installiert mit Loader 1.03b:
ASRock Fatal1ty Z170 ITX
Intel Core i5-6400
16GB GSkill Aegis
X540-T2 NIC 2x10G RJ45
6xWD Red 3TB
Fractal Design Node 304
Ja die Hardware ist Kanonen auf Spatzen, aber Bastelspass und auch falls mal was auf dem Server erledigt werden muss ist dann auch berücksichtigt.
VM Installationen sind ja auch noch vorgesehen.
Ja genau das soll es darlegen 😁 sehr angenehmer Speed finde ich...
Das Thema ist auch echt easy, wenn die Hardware passt gehts locker.
Wofür stehen eigentlich die Zahlenwerte rechts unter "How fast" - soll das dann heissen 2965MB/s?
Das Netzwerk möchte ich auch haben...
Wenn Du mir wirklich imponieren möchtest, machst Du das nochmal mit dem util "Helios LanTest"? (Wird von Helios kostenlos zur Verfügung gestellt, und nicht vergessen, in den Preferences "large Files" einstellen). Dem vertrau ich ein bisschen...
Stimmt,Hardware langweilt sich. Aber ein wenig Reserve ist immer gut...
Sehr gutes Build, gefällt mir.
Hmm, für ein NAS würde ich persönlich immer auf ECC-Support achten...
Ja hatte ich auch im Kopf, aber kein ZFS also nicht soo schlimm...da BTRFS
Und Synology baut die ECC DIMM auch eher in den Großen ein.
Nein ich nutze keinen NVME Cache, es sind 6 Platten in RAID 6 reine Drehkörper.
Und es ist als 3615XS konfiguriert was keinen NVME unterstützt findet. Hatte mal mit 918+ gespielt aber das mochte ich nicht da fehlt mir dann die PCIe Unterstützung für meine 10G Karte.
Ich hatte auch bei FreeNAS ansatzweise so guten Durchsatz aber nur mit 32GB RAM und ZFS, was ohne ECC fatal sein kann...
Daher bin ich mit dem Ergebnis derzeit sehr konform.
Also die 3TB Platten erwarte ich von einer einzelnen schon um die 200MB/s - deckt sich dann auch mit den gemessenen RAID-Speeds, 4x ca 200MB schreiben sind 800MB/s und 6x 200MB lesen bringt etwas mehr, sollten Ansicht lockere 4 Stellen sein, aber die 900 können sich allemal sehen lassen... Viel mehr geht bei 10Gb auch nicht, theoretisch zB mit ftp sollte man auf etwa 1150MB/s kommen können...
Relativiert aber die Werte von dem diesem seltsamen anderem "Performance" Speedmesser
Ich finde das wirklich faszinierend, aber verstehen kann ich das nicht.
Die WD-RED 3TB bringen es lesend auf max. 180MB/s
Sechs solcher Platten unter RAID 6 dürften eine Lese-Performance von max 720MB/s (4x Einzelperformance) liefern. Wo kommt die Leseperformance von 1.100 MB/s her? Da sich die Schreib-Performance mit RRAID 6 nicht ändert, dürften hier auch max. 180MB/s möglich sein. Wo kommen die 900MB/s her?
Das kann IMHO höchstens mit RAID 0 gehen, und das wird kaneske ja hoffentlich nicht machen...
Und mit dem Setting bekommst Du ohne Caching 900 MB/s schreibend hin? Wenn ja, kann ich das nicht verstehen/nachvollziehen. Oder übersehe ich da was...?
Sechs solcher Platten unter RAID 6 dürften eine Lese-Performance von max 720MB/s (4x Einzelperformance) liefern. Wo kommt die Leseperformance von 1.100 MB/s her? Da sich die Schreib-Performance mit RRAID 6 nicht ändert, dürften hier auch max. 180MB/s möglich sein.
RAID5/6 hat eine theoretische Leseperformance von <Summe Disks> * Einzelperformance, das theoretische Schreiben liegt bei <Summe Disks - Parity disks> * Einzelperformance.
Getestet wird mit einem 3GB großer Datei, die passt auch mal locker in den Arbeitsspeicher - das ist nicht zu vergessen!
Deshalb verwende ich zB für Festplatten"Messungen" nur bonnie, bei dem Programm kommt auch gleich die Empfehlung mit, Testgrößen anzugeben, welche doppelt so groß wie der Arbeitsspeicher zu sein hat um chaching-Algorithmen zu "eliminieren".
Wenn die WD also echte 180MB/s bringt, sind die theoretisch-physikalischen Lesewerte bei R6 bei rund 6x 180 = 1080MB/s und Schreibperformance bei 4x 180 = 720MB/s - die Paritätsberechnung kann man zu heutigen Zeiten "vernachlässigen".
Wenn die WD also echte 180MB/s bringt, sind die theoretisch-physikalischen Lesewerte bei R6 bei rund 6x 180 = 1080MB/s und Schreibperformance bei 4x 180 = 720MB/s - die Paritätsberechnung kann man zu heutigen Zeiten "vernachlässigen".
Hmm, bist Du Dir da sicher?
Lesen: Im Normalfall ließt der Controller doch nur die "nicht Parity Platten" also hier nicht 6x180 MB/s, sondern 4x180 MB/s.
Schreiben: RAID 6 basiert doch auf RAID 5 und weist eine andere Paritätsstufe auf. Dies macht es dramatisch sicherer als RAID 5, was sehr wichtig ist, aber auch eine dramatische Schreibstrafe mit sich bringt. Für jede Schreiboperation müssen die Datenträger die Daten lesen, die erste Parität lesen, die zweite Parität lesen, die Daten schreiben, die erste Parität schreiben und schließlich die zweite Parität schreiben. Dies führt zu einer "sechsfachen Schreibstrafe". In unserem Beispiel also (6x180 MB/s)/6 = 180 MB/s
Wenn das Speicher-Caching bei Synology so gut funktioniert ist das ja auch egal. Nur wenn VMs und weitere Anwendungen hinzukommen steht entsprechend weniger Cache zur Verfügung.
Ja, da bin ich mir sicher - vielleicht schreib ich mal noch nen kleinen RAID-Artikel, wie zu physischen Festplatten, Durchsatz, IOPs im Vergleich zu SSD/NVME.
RAID5 besteht aus mind. 3 Festplatten, es existiert ein Parity-"bit" im Verbund, bei Raid6 sind es 2parities.
Der Datensatz besteht wird über n-1, respektive n-2 Festplatten verteilt geschrieben und wird behandelt wie das Schreiben und lesen von stripped Data, also vergleichbar bei einem Spiegel.
Nicht zu verwechseln, wenn ein Datensatz GEÄNDERT wird, dies gibt im R5 und R6 einen massiv höheren IO (ein viel mehr an IOPs), da der Datensatz gelesen werden muss (mit parity check), geändert wird und wieder geschrieben wird (und dazu die Party berechnet) - egal ob 1bit, ein Byte oder ein kB geändert wird. Für Datenbank tödlich, gerade und vor allem für die Redo-logs zB - da dies primär ein endloser Schreibprozess ist (EMC recommended - kommt in dem Falle idR auf nen Spiegel, also R1 oder R10).
Wenn man nur einen task auf dem Volume laufen hat, ist das nicht sooo schlimm, schlimm wird es erst, wenn viele unterschiedliche streams auf den Volumen laufen, also mehrere Applikationen, in dem Falle hat man ein gutes Buffering zu haben mit intelligenten Queue-management - oder man stirbt und wartet "ewig" auf die Daten...
und die Paritätsberechnung haben in den 90igern teure Raid-Cache-Controller mit Batterie-gepufferten-ECC-Ram erledigt, heute macht das ne CPU mit dem kleinen linken Zeh
Leseperformance geht dann also über "alle Platten" und Schreibperformance weniger die Paritätsplatten...
Also nicht zu verwechseln mit Raid3, welches ein Raid0 mit Paritätsplatte darstellt. Eine Art dieser Implementierung setzt meines Wissens netapp in seinen Filtern um, allerdings mit "sehr intelligenter" Technik und brachialer FileServer-performance, die besten FileServer, welche ich kenne (und mit die Teuersten )