Backup Server (NAS) Selbstbaulösung oder Fertiglösung
- sunraid
- Unerledigt
-
-
Unraid wird dann auch gleich wie die Bibel verteidigt, mir ist das echt wumpe, es ist und bleibt ein System für alles außer wichtige Daten denn da ist Essig mit dem Konzept.
Nein ich sagte es ist sehr gut geeignet um HW und Energie zu schonen/sparen.
Wieso keine wichtigen Daten? Unraid kann Ausfallsicherheit von bis 2 Platten garantieren. Zusätzlich ist jede Platte direkt Mount/lesbar. Oder um es mal so zu sagen, gehen dir mehr als 2 Platten kaputt kommt man bei Unraid immer noch an die Daten der anderen Platten, je nach Fehler sogar noch an Teile der defekten Platten. Letzteres geht in einem Raid/SHR eben nicht. Sprich die Wahrscheinlichkeit Daten zu verlieren ist geringer.
Ja sag ich doch, es ist nicht arrogant sondern einfach nicht das was man erwartet wenn man ein richtiges n+2 System haben will.
Ok, fassen wir zusammen. Du kennst nur"richtige" (alleine das ist schon pure Arroganz) n+2 Systeme. Du meinst weil Du etwas von einem n+2 System erwartest müsste der Rest der Welt genug das gleiche auch... Gott das tropft vor Arroganz.
einen wegen meiner N100 (die Dinger fressen aber auch gut Strom) oder einem ollen anderen System das gut im Idle verbraucht, denn sobald wir über Docker sprechen ist der ganze Optimierung Wahnsinn eh hinfort, dann kannst gleich was performantes nehmen und viele composes selbst hosten…
Du möchtest als0 sagen, sobald der N100 Last Durch Docker hat braucht er mehr und verweilt weniger in den tieferen C-Pkg states? Sicher richtig, wobei das von den Dockern abhängt. Ein Unbound+Adguard ist kaum markant bzgl. Last bemerkbar, während ein nextcloud schon ein W zusätzlich kostet. Mein Mini N100 braucht am Tag so 200Wh-300Wh. Der Treadersteller redet von reiner NAS Anwendung und weisst auf die Ugreen NAS hin. Die sind nicht wirklich zu empfehlen da sie Probleme miT ASPM haben, sprich hoher Stromverbrauch.
Diese Argumentation geht am Problem vorbei. Eine Server- oder NAS-HDD ist dafür ausgelegt im Dauerbetrieb zu laufen, d.h.für ca. 8760 Betriebsstunden im Jahr. Bei einer Consumer-HDD werden hingegen vom Hersteller nur ca. 2000 Betriebsstunden pro Jahr zugrundegelegt.
Diese Argumentation habe ich im Kontext von Unraid gebracht und genau da geht sie nicht am Problem vorbei. Da eben kein Raid drehen bei einem Datenzugriff nicht alle Platten des Raidverbundes hoch (bzw. müssen permanent laufen) sondern nur die auf der die entsprechend gebrauchten Daten liegen. Alle anderen Platten sind im Spindown.
Für Dienste genutzte Daten sind auf einem NVME/SSD Cache der verhindert das die Magnetdatenträger zu oft laufen.
Steckt man in sein Konzept etwas Gehirnschmalz spart man unwahrscheinlich Geld und Energie. Meine NAS HDD waren früher nach einigen Jahren Dauerlauf fertig. Selbst eine non-NAS Consumer Toshiba MG09/MG10 oder Seagate Exos lebt Jahre länger in einem Unraid System weil sie eben Selten läuft.
Wenn ich diese HDD nun in einem NAS betreibe, dann ist nicht mehr gewährleistet, dass sie regelmäßig runterfährt, so wie in einem Desktop, der ausgeschaltet wird, wenn Du Feierabend machst. Abhängig von den laufenden Diensten (Filesharing, etc.) auf dem Server/NAS kann es durchaus passieren, dass sie für längere Zeit im Dauerbetrieb läuft. Ob die HDD das mitmacht, ist fraglich.
Du hast wirklich das Konzept von Unraid nicht verstanden. Dienste (Adguard, Nextcloud, Unbound, Paperless etc.) laufen nicht auf Magnetdatenträgern (kann man machen aber dann ist man einfach dumm), sprich im Array, sondern auf dem Cache (SSD/NVME). Auf diesen Cache/Pool werden auch Daten gelegt die z.B. von Filesharing kommen. Dadurch laufen Magnetplatten sehr selten an. Ich habe Platten in meinem Unraid Server die laufen Tagelang nicht an.
-
Keine Arroganz sondern best practice, sag ich ja, Unraid wird dann wie ein Apple gepriesen, ist aber nicht aller Schluss des Konzeptes.
Ich komme bei einem degradierten RAID mit 2 Parity Drives auch an die Daten, wenn beide Paritys weg sind, lesend ja aber ich komme ran.
Das ein rebuild arg sein kann weiß ich auch, wichtiges lege ich aber nicht im Grab ins Cache wenn ich es schnell brauche, da mag ich persönlich zuverlässig und schnell auf dem Blech dran kommen und nicht pseudo schnell via Cache. Sorry aber arrogant ist es immer noch nicht, es ist nicht das allerwelt schick einfach und arg so geil Konzept, es ist das was die großen anbieten und man auch selber aufsetzen kann.Nicht JBOD mit Parity sonder einfach ein echter Verbund, und eine EXOS fliegt raus wenn sie soll oder muss, nicht wenn sie Schrott geht.
Ich persönlich hab ein cold Spare liegen bei gleicher Revision, weiß ja nicht wie wichtig eure Daten sind aber Filme Musik und anderer Media Krams ist Nixwert gegen Bilder meiner Kinder, Dokumenten und Unterlagen sowie Projekten.
Da gehe ich halt persönlich keine Kompromisse ein, ich gebe nur meine persönliche Präferenz wieder und nicht was das Must have ist.In bei Docker ist der Kleinkram den du da erwähnst sicherlich stromsparend aber wenn man sowas mit ein paar mehr richtigen Composes laufen lassen wird dann ist das auch auf nem N100 niemals im unteren 2-Stelligen Bereich wenn die Arbeiten.
Leerlauf kann jeder Service gut, aber man nutz sowas ja dann auch, oder? -
MPC561 Vergleichen wir doch einfach mal eine WD Blue 4 TB (WD40EZAX) mit einer WD Red Plus 4TB (WD40EFPX). Beide Platten unterscheiden sich lediglich im Bezug auf die Tauglichkeit für Dauerbetrieb und die Garantie, sowie den Preis: Die WD Red Plus kostet 3,50€ mehr.
WD Blue 4TB vs. WD Red Plus 4TB
Lohnt es sich wirklich für diese Preisdifferenz ein Risiko einzugehen? Oder nehme ich gleich die WD Red Plus und bin auf der sicheren Seite?
-
Das ein rebuild arg sein kann weiß ich auch, wichtiges lege ich aber nicht im Grab ins Cache wenn ich es schnell brauche, da mag ich persönlich zuverlässig und schnell auf dem Blech dran kommen und nicht pseudo schnell via Cache.
Und schon wieder. Du hast das Cache Konzept von Unraid nicht verstanden. Ich schreib es jetzt nochmal: Cache Syno und Rest der Welt != Cache Unraid
Lese Dich bitte ein bevor Du sowas schreibst...
Unraid wird dann wie ein Apple gepriesen, ist aber nicht aller Schluss des Konzeptes.
Ist es sicher nicht. Es gibt bei Unraid vs. Raid für jedes System Pro und Cons. Und man muss für sich entscheiden was man wirklich bracht. Nur sollte das System das man ausbuht schon verstanden haben. Und das haben weder Du noch Mieze.
Ich persönlich hab ein cold Spare liegen bei gleicher Revision, weiß ja nicht wie wichtig eure Daten sind aber Filme Musik und anderer Media Krams ist Nixwert gegen Bilder meiner Kinder, Dokumenten und Unterlagen sowie Projekten.
Das ist bei mir genau so. Auch andere wichtige Dokumente. Aber, die sicher ich auf einen 2. Unraid Server und zusätzlich noch auf einen 3. Server der an meinem 2. Wohnsitz ist. Zu glauben auf einem Server wären Daten sicher ist illusorisch.
In bei Docker ist der Kleinkram den du da erwähnst sicherlich stromsparend aber wenn man sowas mit ein paar mehr richtigen Composes laufen lassen wird dann ist das auch auf nem N100 niemals im unteren 2-Stelligen Bereich wenn die Arbeiten.
Wer braucht das?
Der Threadersteller hat nach Backup NAS gefragt, nicht nach komplexen Composes.
Vergleichen wir doch einfach mal eine WD Blue 4 TB (WD40EZAX) mit einer WD Red Plus 4TB (WD40EFPX). Beide Platten unterscheiden sich lediglich im Bezug auf die Tauglichkeit für Dauerbetrieb und die Garantie, sowie den Preis: Die WD Red Plus kostet 3,50€ mehr.
Lohnt es sich wirklich für diese Preisdifferenz ein Risiko einzugehen? Oder nehme ich gleich die WD Red Plus und bin auf der sicheren Seite?In dem Fall ja warum nicht. Nur...
Ich kaufe eher im 16-20TB Bereich bei Platten ein und da ist die Preisdifferent schonmal etwas höher, pro Platte mal gerne über 100 Euro, her unten zwischen Exos und WD Red lachhafte 125 Euro Unterschied. Bei 11 Platten in jedem meiner Mainserver schon "etwas" Geld mehr:
Noch dazu gibt es mitunter mit Server HW andere Probleme. Speziell bei NVME, hier ist die WD Red NVME ein Paradebeispiel. Diese unterstützt kein ASPM. Sicher sinnvoll bei einem professionellem Hochverfügbarkeitssystem, aber Nonsens im Homebereich. Kostet pures Geld an der Steckdose.
-
MPC561 Also die günstigste 16TB HDD ist laut Preisvergleich die Seagate Exos X - X16 16TB und die ist ebenfalls geeignet für Dauerbetrieb.
Fazit: Es gibt keinen vernünftigen Grund mehr eine Desktop HDD für einen Server/NAS zu kaufen.
-
Nochmal zum Thema Stromverbrauch:
Hier ein Link zu einem Anwendungsfall eines Forenkollgen unter Unraid:
29 Docker Container laufen. Darunter Dienste wie Adguard, Unbound, Oscam, Radarr, Plex, Paperless, TVHeadend, ja sogar Home Assistant und Nextcloud. Das System braucht 11,5W im Mittel.
Aber das System ist auch perfekt konfiguriert.
-
Oscam macht 2024 aber auch kein Sinn mehr
-
Ich brauche komplexe Composes, andere sicher auch, ich buhe das Unraid nicht aus, ich wehre mich gegen die Missionierung.
Ich hab den bums schon verstanden, auch das mit deren Cache, das ist für mein Empfinden echt sagen wir mal nicht so gut.
Dem TE würde ich doch eher ein fertig NAS raten, da hat es dann ein Datengrab ohne Stress, meine 923+ lief auch ohne merklichen Mangel…
Aber wenn man basteln mag dann sogar nen 8-Kern Ryzen mit Proxmox und dann ne VM mit durchgereichtem SATA auf ARC aufsetzen und nebenbei noch diverse Dinge in Proxmox mit abfrühstücken, hast gleich nen kleines HomeLab. -
Ich brauche komplexe Composes, andere sicher auch
Na ja schön. Der Threadersteller vermutlich nicht. Was sind für Dich komplexe composes?
ich wehre mich gegen die Missionierung.
Wenn Du wirklich die Unterschiede der Systeme verstanden hast hindere ich Dich sicher nicht das am besten zu Dir passende einzusetzen.
Nur die meisten kennen die Unterschiede eben nicht und stellen sich überteuerte 8 Bay Synos mit SHR2 und paar Dockern hin, die 100W Leistungsaufnahme haben und Uralte ARM oder Celeron Prozessoren.
Dann das nächste Problem wenn sich Leute zum Selbstbau entschliessen:
Gemäss den Kafka Zitat: "Lieber haben und nicht brauchen als brauchen und nicht haben." wird mit Megakanonen auf kleinste Spatzen geschossen oder Leuten die einen Spatz wollen ein Seeadler empfohlen.
Dadurch wird Geld und Energie ohne Ende verschwendet. Selbstbau kann mit dem oben von mir erwähnten System wesentlich günstiger sein und trotzdem Syno HW Performance um ein vielfaches toppen.
Ich hab den bums schon verstanden, auch das mit deren Cache, das ist für mein Empfinden echt sagen wir mal nicht so gut.
Was ist an dem Unraid Konzept nicht so gut verglichen mit einem Syno Cache zum Beispiel?
-
MPC561 Wie du geschrieben hast, läuft bei dir auch PaperlessNGX.
Ich scanne meine Dokumente an einem Brother MFC-J5335DW und sende sie mit Samba an meinen Server. SMB ist am Server und am Drucker eingerichtet. Alles tutti.
Leider bekomme ich bei mehr als 10 Dokumenten den Fehler, dass der Speicher voll ist.
Am Server kommt während dem Scan-Vorgang nichts an.
Der MFC scannt alle Dokumente und schickt sie nach dem Job-Ende zum Server.
Der MFC füllt den Speicher bis zum letzten Bit voll.
Dann kommt die Fehlermeldung.
Gibt es da für SMB irgendeine Einstellung?
Wenn ich vom MFC zum PC scanne und als Ziel das Consume-Verzeichnis vom Server eingestellt habe, dann schickt der MFC die Daten nach jedem Dokument zum Server.
Ich hoffe ich habe mich hier verständlich ausgedrückt.
Ich denke mal, dass es eher ein Problem mit dem MFC ist.
Das er nicht überträgt, wenn der Speicher zur Neige geht.
Im Moment fahre ich OMV für ein paar Tests in einer VM.
Habe den Server mit Clonezilla über Samba in eine VM unter VMware Fusion mit angelegtenDatenträgern gespiegelt.
-
Sorry Blue,Missverständnis, ich nutze kein Paperless. Das war ein Forenkollege mit den 29 Dockercontainern. Ich hab nur adguard, unbound, Plexiglas, Jellyfin, TinyMediamanager, Orcaslicer, Prusaslicer, Superslicer, Tasmocompiler, Homeassistant, Mqqt, Nextcloud und den LogitechMediaServer. Davon sind aber nur ca. 7 permanent aktiv.
Gruss,Jörg
-
Keine Ursache. Du bist zwar auch ab und zu etwas spooky, aber 29 Container sind Overkill
Im Grunde ging es ja eher um den Brother MFC und das Verhalten bei Samba.
-
Hmm ich hab aufm VPS 71 Container laufen, wie gesagt stark use-case abhängig…
Aber da sind halt OIDC Sachen mit bei und Paperless mit eigener DB sowie nen Outline Wiki …
Wenn du erstmal angefangen hast mit Docker oder Kubernetes gehts schnell, Domain mit CNAME und dann kannst den ganzen Krams fix selbst hosten.
Und meine 923+ war damit stark am kotzen, naja ich auch hab Deutsche Glasfaser, jede IP auf meinem Anschluss ist eine vom NAT Routing eines des einen Anbieters, da kannst Blacklisting vergessen.
Will einfach auch nur damit ausdrücken dass ein FileServer jedes fast 08/15 NAS sein kann darf je nach NIC dann halt mit dem passenden I/O und wenn es das multitool lite mit Docker sein soll dann gerne etwas mehr RAM und CPU Power, wenn du aber flexibel sein magst kann’s bald echt ne 5700x oder sowas werden und dann Proxmox mit besagten VMs zu NAS (kann dann auch nen TrueNAS sein) und Cloudinit Image-Templates für die Services, dann kannst sogar noch Windows drauf nageln als VM und nebenher damit noch per RDP Dinge anstellen… -
kaneske schon mal Mac OS for Docker versucht? Auf meinem lohnt sich das wohl nicht.
Du scheinst hier wohl meine letzte Hoffnung zu sein.
Kannst Du mir vielleicht bei dem Speicher-Problem beim Scannen helfen?
Wie ich bereits erwähnte, verbinde ich den Brother zum Server über SMB.
Der Scan-Job wir über den Brother gestartet.
Es erweckt den Eindruck, dass der Brother die Daten erst nach dem letzten Dokument überträgt.
Sind es zu viele Dokumente und Daten, dann kommt der Fehler "Speicher voll".
Es besteht nur noch die Möglichkeit den Job abzubrechen. Die Daten sind verloren.
Ich schreibe extra erweckt, weil ich mir nicht sicher bin, ob in irgendeinem Cache vom Server irgendwo etwas abgelegt wird, bevor es im Consume-Verzeichnis erscheint.
Kann ich nicht glauben, weil ich, in der Konfiguration des Brother, das Consume-Verzeichnis als Ziel eingestellt habe. Oder werden die Daten erst in einen Cache vom Server geschrieben und dann erst in das Consume-Verzeichnis geleitet?
Das eventuell der Cache vom Server größer ist als der Speicher vom Drucker?
Das würde einiges erklären. Wäre aber ein Armutszeugnis für das SMB-Protokoll.
Habe es bis jetzt sogar schon mit minimal SMB1 versucht
Zugriffsrechte sind auch richtig eingestellt.
-
bluebyte Da Multifunktionsgerät neben Scan-to-SMB meistens auch Scan-to-Mail und Scan-to-Fax anbieten, werden Scanjobs immer komplett auf dem Gerät aufbereitet, um dann komplett als Datei in einem Rutsch an den Server geschickt zu werden. Aus diesem Grund dürfte die Ursache des Problems mit hoher Wahrscheinlichkeit beim Brother liegen, dem bei größeren Jobs der Speicher ausgeht. Bei Geräten für dem (semi)professionellen Einsatz kann man oft den Speicher erweitern, um Abhilfe zu schaffen, aber da die Geräte proprietäre DIMMs verwenden, sind diese Module nicht nur sehr teuer, sondern auch schwer zu beschaffen.
Als Alternative bleibt da nur noch das Aufteilen des Scanjobs in mehrere, kleine Aufträge.
-
-
Wünsche euch ein frohes neues Jahr 2025.
Die Diskussion hier ging ja echt in die verschiedensten Richtungen.
Leider bin ich mit der Entscheidung - welches Motherboard und welche CPU - für mein vorhaben geeignet ist, immer noch nicht weitergekommen. Gut, diese werde ich auch selbst treffen müssen.
Testweise habe ich den Backupserver (Unraid) mit den vorhandenen Komponenten und einem geliehenen überdimensionierten Board mit Ryzen CPU aufgebaut.
Das erste Testbackup mit rsync (ssh) und LuckyBackup ist noch in 2024 - gestern - erfolgreich durchgelaufen.
-
sunraid Herzlichen Glückwunsch und ein frohes neues Jahr! Falls Du trotz der höheren idle power consumption bei Ryzen bleiben möchtest, dann schau dir auch mal den Homeserver-Bauvorschlag der c't von vor 1 Jahr an. Mach auch mal ein paar Messungen mit einem Energiekostenmessgerät, um einen Eindruck vom tatsächlichen Stromverbrauch an der Steckdose zu bekommen, welcher letztendlich für die Betriebskosten entscheidend sind.
-
Leider bin ich mit der Entscheidung - welches Motherboard und welche CPU - für mein vorhaben geeignet ist, immer noch nicht weitergekommen. Gut, diese werde ich auch selbst treffen müssen.
Dann lass Dich im Unraid Forum beraten. Aber schonmal hier_
Wir separieren logisch nach 3 grossen Anwendungsfällen:
1.) NAS + Docker Services und einfache office VMs (oder HA VM) und bis zu 8-9 Datenträger
2.) NAS + Docker Services und komplexere office VMs und bis zu 12 Datenträger
3.) Komplexe VMs (gif. für Gaming auch) und nebenbei NAS + Docker Services
Wobei ich von Usecase 3.) nichts halte, da würde ich Proxmox oder was vergleichbares hernehmen.
Zu den Usecase Details:
1.) Einsteiger NAS mit guter und zukunftssicherer Leistung (vergleichbar mit einem i5-7400T)
- Asrock N100m (120 Euro)
- BeQuiet BN341 (550W) (80 Euro) oder bei weniger als 6x HDD nimmt man PicoPSU 160W + Leicke 156W Netzteil
- 32 GB RAM (60 Euro)
- ASM1166 PCIe SATA Karte (6xSATA) (35 Euro) oder auch als M.2 Karte möglich
Bei Nutzung von SR-IOV via RDP geht eine Windows 11 VM im Surf- Officebetrieb recht gut. Plex/Jellyfin/Emby Transcoding geht einfach via der iGPU mit bis zu 3-4 parallelen Streams bei HDR und aktivem Tonemapping
Das Board hat einen x16 Steckplatz und einen x1. So kann man eine 10GBit Karte in den x16 Slot stecken, die SATA Ports via den M.2 ASM1166 auf 8 Ports erweitern und hat den x1 Slot frei für ggf. einen PCIe zu M.2 Adapter, wobei die NVME dann nur mit einer Lane arbeiten würde.
2.) NAS etwas mehr VM Leistung als 1.)
- Gigabyte B760m DS3H
- BeQuiet BN341 (550W) (80 Euro)
- 32 GB RAM (60 Euro)
- ASM1166 PCIe SATA Karte (6xSATA) (35 Euro)
- Prozessor je nach gewünschter VM Anzahl und Leistung frei wählbar
3.) bewerte ich nicht.
Ryzen Systeme sind fast immer nicht energiesparend zu bekommen und eignen sich mit Threadripper Prozessor, ATX Boards mit ggf. multiplen Grafikkarten eher für usecase 3.)
Die Vorschläge oben sind vielfach getestet, da die aktuellen Standard Vorschläge für Unraid Einsteiger und auch sehr energiesparend. Zum Beispiel Das BeQuiet Netzteil wurde von uns ausgemessen und ist im Lowload Bereich sehr effizient, fast so gut wie eine PicoPSU und besser als so gut wie alle Platinium Netzteile.
Im Idle mit nur einer NVME und korrekt konfiguriert brauchen die Usecases:
1.) 5-6W im Idle
2.) 9-10W im Idle
Ich empfehle Dir Usecase 1.)
Gruss,
Joerg
PS: ECC Systeme habe ich aussen vor gelassen. Die sind teuer, auf die ein oder andere Art und Weise.