Beiträge von Mieze

    MPC561 Der religiöse Eifer mit dem Du hier Deine Ideen bewirbst, beweist eine fehlende professionelle Distanz und legt die Verdachtsdiagnose "Pseudoexperte" nahe. Ich nehme dich daher auch nicht mehr ernst. Außerdem habe ich dich nicht der Lüge bezichtigt, sondern nur Deine Angaben in Zweifel gezogen. Das ist ein Unterschied, denn der Lügner weiß, dass er etwas falsches erzählt, der Pseudoexperte hingegen nicht.


    Darüber hinaus noch folgende Anmerkungen:

    • Schön, dass Asrock ein undokumentiertes Feature nutzbar gemacht hat, welches von Intel nicht offiziell freigegeben wurde. Das haben die mit Overclocking bei B-Chipsätzen in der Vergangenheit auch schon öfters gemacht, aber es ist auch schon oft vorgekommen, dass Intel im Nachhinein die Einhaltung offizieller Spezifikationen erzwungen hat. Aus diesem Grund würde ich mich nicht darauf verlassen, dass es nach dem nächsten Firmware-Update noch so ist, es sei denn du verzichtest grundsätzlich auf Updates.
    • Komisch, dass NAS-Hersteller wie z.B. QNAP ihre auf PC-Hardware basierenden 8-Bay-Geräte nur mit Netzteilen in der 250W-Klasse ausstatten. Aber vielleicht sind die ja so geil auf den Kundenkontakt bei Reklamation, dass die das absichtlich machen. Im Übrigen kommt kein vernünftiger Privatanwender auf die Idee, seinen Server mit mehr als 8 Platten auszustatten, es sei denn er bekäme seinen Strom als Deputat vom Arbeitgeber, denn dann kann ich auch mit Strom heizen. ;)
    • Das Unrat-Forum (sorry, aber wieder mein schräger Humor ;) ) ist definitiv keine zuverlässige Informationsquelle. Ich würde mich da eher auf zitierfähige Quellen verlassen, falls ich nicht das nötige Equipment habe, um aussagekräftige Messungen selbst durchzuführen. Was für Experten dort unterwegs sein müssen zeigt auch die Aussage, dass eine Intel X710 gewaltig ziehen würde. ;)
    • Der Silverstone-Controller mag einer der bessern sein, aber generell hat jeder aktive SATA-Port einen erheblichen Einfluss auf die Idle Power Consumption, weshalb man mit dem Abschalten von ungenutzten Ports ordentlich Strom sparen kann. Da ist eine zusätzliche Karte nur ein Notlösung.
    • Für 10Gbit Ethernet sollte man auch eine leistungsfähige CPU haben. Der N100 liegt eher auf dem Niveau eines Haswell oder Skylake Core i5.

    Damit ist genug gesagt und was mich betrifft, ist diese Diskussion abgeschlossen, denn ich habe keine Lust auf einen Unraid-Dschihad. ;)

    Die Fehlermeldungen bezüglich fehlender Dateien sind normal und sollten den Bootvorgang nicht behindern. Der Installer ist ja auch nur ein abgespecktes MacOS, bei dem nur essentielle Funktionen aktiv sind.


    Installierst Du MacOS auf eine eigene SATA-SSD bzw. NVMe? Falls nein, dann können die Bootloader der anderen Betriebssysteme dem Installer tatsächlich Probleme bereiten. Evtl. auf dem Laufwerk vorhandene Partitionen können ebenfalls dafür verantwortlich sein. Mit Linux oder Windows formatierte Platten sind zur Installation von MacOS problematisch. Idealerweise nimmt man ein eigenes Laufwerk, welches vorher komplett bereinigt sein sollte, selbst die EFI-Partition sollte mit dem Festplattendienstprogramm erstellt werden. Falls weitere Laufwerke vorhanden sind, kann man sie zur Installation deaktivieren oder das SATA-Kabel abziehen.

    MPC561 Entschuldige bitte, wenn ich so direkt werde, aber dein letzter Beitrag ist so voller Fehler, dass Du ihn am besten gleich wieder löschst.


    • Ein 550W-Netzteil für einen Homeserver ist nicht nur absoluter Overkill, sondern treibt auch den Stromverbrauch in die Höhe, weil Netzteile bei Schwachlast ziemlich Ineffizient (<=75%) arbeiten. 300W wären völlig ausreichen, aber da diese Netzteil inzwischen vom Markt verschwunden sind, kommen eher 400-450W in Frage.
    • PCIe-SATA-Karten sind wegen ihres hohen Stromverbrauchs wenn möglich zu vermeiden. Das gilt auch für den ASM1166. Ganz schlechte Empfehlung!
    • Der Intel N100 unterstützt laut Intel maximal 16GB RAM. Es mach daher überhaupt keinen Sinn ihn mit 32GB RAM auszustatten.
    • Meine Bemerkung über Netzwerkkarten ohne ASPM in PEG-Slot und deren Auswirkung auf den Stromverbrauch hattest du offensichtlich übersehen. Daher keine gute Idee ein Mainboard ohne zweiten PCIe 16x-Slot zu empfehlen.
    • Deine Angaben zur Idle Power Consumption sind völliger Unsinn und wurden definitiv nicht mit dem genannten Bequiet-Netzteil an der Steckdose gemessen. Falls Du solche Messwerte bekommen hast, dann solltest Du Dir Equipment besorgen, welches im Schwachlastbereich ordentliche Ergebnisse liefert. Für eine PicoPSU erscheinen die Werte schon eher plausibel.

    sunraid Herzlichen Glückwunsch und ein frohes neues Jahr! Falls Du trotz der höheren idle power consumption bei Ryzen bleiben möchtest, dann schau dir auch mal den Homeserver-Bauvorschlag der c't von vor 1 Jahr an. Mach auch mal ein paar Messungen mit einem Energiekostenmessgerät, um einen Eindruck vom tatsächlichen Stromverbrauch an der Steckdose zu bekommen, welcher letztendlich für die Betriebskosten entscheidend sind.

    bluebyte Da Multifunktionsgerät neben Scan-to-SMB meistens auch Scan-to-Mail und Scan-to-Fax anbieten, werden Scanjobs immer komplett auf dem Gerät aufbereitet, um dann komplett als Datei in einem Rutsch an den Server geschickt zu werden. Aus diesem Grund dürfte die Ursache des Problems mit hoher Wahrscheinlichkeit beim Brother liegen, dem bei größeren Jobs der Speicher ausgeht. Bei Geräten für dem (semi)professionellen Einsatz kann man oft den Speicher erweitern, um Abhilfe zu schaffen, aber da die Geräte proprietäre DIMMs verwenden, sind diese Module nicht nur sehr teuer, sondern auch schwer zu beschaffen.

    Als Alternative bleibt da nur noch das Aufteilen des Scanjobs in mehrere, kleine Aufträge. :(

    bergemichel Ja, natürlich meine ich den, aber bei den vielen Einträgen ist es nahezu unvermeidlich, dass man etwas übersieht. Außerdem haben Asrock-Boards die meisten Fehler in den ACPI-Daten und sind ein Garant für Probleme. Habe da so meine Erfahrungen gemacht und vermeide diese Marke seitdem.


    Bei meiner letzten Neuinstallation gab es auch Probleme. Die Installation hing, weil es Fehler in der config.plist gab, obwohl ich eine funktionsfähige Konfiguration für eine ältere OC-Version als Ausgangspunkt hatte.

    Grundsätzlich sollte die System Definition so gut wie möglich der eigenen Hardware entsprechen, daher iMac19,1 weil das ein Coffee Lake ist.


    Prüfe nochmal das UEFI-Setup und stelle sicher, dass folgende Einstellungen vorgenommen wurden:

    • Fast Boot: aus
    • CSM: aus (das aktiviert sich gerne von selbst, wenn es Probleme beim Booten gibt!!!)
    • Thunderbolt: aus
    • CFG Lock: aus
    • VT-x: an
    • Above 4G-decoding: an
    • XHCI Hand-off: an
    • OS type: Win 8.1/10

    Dann ist mir aufgefallen, dass Du nicht die im Guide empfohlenen SSDTs aus der OC-Distribution verwendest, sondern aufgeblähte mit diversen zusätzlichen Patches. Da solltest Du evtl. mal auf die minimalen Versionen, welche mit OC im Ordner Docs/AcpiSamples/Binaries mitgeliefert werden wechseln. Das wäre auch eine mögliche Erklärung für die vielen ACPI-Fehler im Boot-Log.


    In deiner config.plist solltest Du außerdem folgende Änderungen vornehmen:

    • UEFI->APFS->MinDate = -1
    • UEFI->APFS->MinVersions = -1

    Den OpenCore Log brauchst Du inzwischen nicht mehr, weil der Kernel ja gebootet wird und das Problem daher nicht bei OC liegen kann.

    bergemichel Ok, dann kannst Du fürs erste -v wieder zu den Bootargs hinzufügen zwecks einfacherem Debugging. Beim iMac19,1 wird die IGPU nur zur Beschleunigung einiger Rechenaufgaben benutzt, jedoch nicht um ein Display zu betreiben. Das wird über die AAPL,ig-platform-id konfiguriert, welche in diesem Fall 0300913E sein sollte. Am Besten Du liest Dir den betreffenden Abschnitt im OpenCore Install Guide noch mal durch.

    bergemichel Bau die RX580 wieder ein und konfiguriere die IGPU für den Betrieb ohne Display (black screen issue). Ändere die Kext-Reihenfolge, so dass VirtualSMC an zweiter Stelle direkt nach Lilu kommt. Setze XhciPortLimit auf false, da dieser Patch bei neueren MacOS-Versionen Probleme machen kann. Ich sehe auch keinen Grund dafür die Kext XHCI-unsupported einzubinden. Checke auf noch mal, ob die BIOS-Einstellungen so wie im Guide beschrieben sind.


    Falls das alles nichts hilft, dann nimm mal das Kernel-Flag "-v" heraus, weil es manchmal dazu führen kann, dass der Bootvorgang hängt, wenn auf die GUI umgeschaltet wird.

    MPC561 Vergleichen wir doch einfach mal eine WD Blue 4 TB (WD40EZAX) mit einer WD Red Plus 4TB (WD40EFPX). Beide Platten unterscheiden sich lediglich im Bezug auf die Tauglichkeit für Dauerbetrieb und die Garantie, sowie den Preis: Die WD Red Plus kostet 3,50€ mehr.


    WD Blue 4TB vs. WD Red Plus 4TB


    Lohnt es sich wirklich für diese Preisdifferenz ein Risiko einzugehen? Oder nehme ich gleich die WD Red Plus und bin auf der sicheren Seite?

    Unraid hat eine andere Philosophie als ein e.g. Raid-System. Der Fokus liegt damit auf HW zu schonen und Energie zu sparen. Das wird sich durch ein reduzieren der Dauerschreibleistung erkauft. Dafür ist es überhaupt kein Problem Consumer Platten einzusetzen.

    Diese Argumentation geht am Problem vorbei. Eine Server- oder NAS-HDD ist dafür ausgelegt im Dauerbetrieb zu laufen, d.h.für ca. 8760 Betriebsstunden im Jahr. Bei einer Consumer-HDD werden hingegen vom Hersteller nur ca. 2000 Betriebsstunden pro Jahr zugrundegelegt. Daran orientiert sich die elektrische und mechanische Auslegung der HDD und die Garantie. Wenn ich diese HDD nun in einem NAS betreibe, dann ist nicht mehr gewährleistet, dass sie regelmäßig runterfährt, so wie in einem Desktop, der ausgeschaltet wird, wenn Du Feierabend machst. Abhängig von den laufenden Diensten (Filesharing, etc.) auf dem Server/NAS kann es durchaus passieren, dass sie für längere Zeit im Dauerbetrieb läuft. Ob die HDD das mitmacht, ist fraglich. In jedem Fall erhöht sich dadurch die Ausfallwahrscheinlichkeit und Hersteller/Händler werden jegliche Garantieleistungen ablehnen. Wenn Du bereit bist dieses Risiko zu tragen, dann spricht nichts dagegen eine Consumer-HDD in einem NAS/Server einzusetzen.

    MPC561 Vielleicht solltest Du das mit der Autokorrektur mal ausprobieren, denn es stimmt. Mein Humor mag sehr speziell sein, aber wenn ich es schon mit einem Smily kennzeichne, dann sollte es doch verständlich sein, oder?


    greecedrummer Verglichen in einem Unternehmen, sind die Datenmengen, die auf einen Heimserver landen in den allermeisten Fällen gering. Wenn man Anschaffungskosten, Stromverbrauch und Lärmentwicklung in die Waagschale wirft, dann läuft es letztendlich darauf hinaus, dass eine NVMe als Datengrab die einzige praktikable Lösung ist, falls man die Bandbreite von 10Gbit Ethernet im Heimnetz wirklich ausnutzen will.

    greecedrummer Was Desktop HDDs angeht, so gebe ich dir völlig recht. Im Dauerbetrieb halten die meisten nicht mal 2 Jahre durch und sind ein Garant für Probleme. Glücklicherweise sind NAS-Festplatten aber inzwischen recht preiswert geworden und es gibt eigentlich keinen Vernünftigen Grund mehr der gegen die Anschaffung einer NAS-tauglichen HDD sprechen würde.


    Bei SSDs muss ich Dir hingegen entschieden widersprechen, denn ich habe seit 2012 immer Homeserver gehabt, die seit 2013 auch eine SSD als Systemlaufwerk und seit 2016 auch für Daten haben. Grundsätzlich sind viele Schreibvorgänge für keine SSD gesund, so dass man sich immer Gedanken darüber machen sollte, was und wieviel auf die SSD geschrieben wird. Das gilt sowohl für SATA-SSDs als auch für NVMes und bei der Anschaffung sollte man stets ein Auge auf die TBW und die Leerlaufleistung werfen. Meiner Erfahrung nach ist das 600-fache der Kapazität ein vernünftiger Wert für die TBW. Ich hatte eine Samsung 980 Pro 1TB 2 Jahre als Datenplatte in einem Hackintosh-Server und danach noch ein weiteres Jahr in einem Ubuntu Server 22.04, ohne dass diese dabei merklich gelitten oder Probleme bereitet hätte. Im Gegenteil ist die Lebensdauer noch immer bei 100% und die geschriebene Datenmenge ist auch nicht wesentlich höher als bei einem Desktop mit vergleichbarer Datenmenge. Die SATA-SSD von Kingston, welche ich zuvor im Hackintosh-Server hatte, hat ebenfalls keine Probleme gemacht und verrichtet noch immer in einem Desktop ihren Dienst. Billige SSDs mit einer geringen TBW können hingegen innerhalb weniger Monate merklich Lebensdauer einbüßen, egal ob in Desktop oder im Server. Aber ja, es kommt halt immer darauf an, wieviel auf die SSD geschrieben wird und man sollte unnötige Schreibvorgänge grundsätzlich vermeiden. Das ist auch einer der Gründe, warum ich nichts von Unraid (die Autokorrektur möchte daraus Unrat machen, vielleicht nicht ohne Grund ;) ) und Co. halte.


    Ich persönlich verwende Ubuntu Server. Die Installation ist zwar etwas schwieriger, aber wer schon mal Linux installiert hat, bekommt das auch hin. Samba und Netatalk als File- bzw. Timemachine-Server aufzusetzen sollte auch kein Problem sein, sofern man keinen AD DC aufsetzen will. Darüber hinaus ist Ubuntu Server kostenlos verfügbar.


    ZFS für einen Homeserver ist eigentlich Overkill und ich kann mir nur schwer Szenarien vorstellen, bei denen das Sinn machen würde, zumal Ubuntu sich inzwischen ebenfalls langsam von ZFS verabschiedet. Ext4 erfüllt alle Anforderun gen und ist auch Standard bei Ubuntu Server.


    Die beste Kombination aus Leistung, Datensicherheit und Preis erzielt man mit einer Kombination aus NVMe und HDD. Aktive Daten auf die NVMe (schnell genug für 10Gbit Ethernet) und Backups auf eine HDD (Time Machine und Server-Backups). RAID kann man sich mit dieser Konfiguration auch sparen. Um die Serverdaten zu sichern kann man mit rsnapshot eine periodische Sicherung der NVMe auf die HDD konfigurieren. rsnapshot verwendet eine ähnliche Backupstrategie wie Time Machine und die Konfiguration ist in der Ubuntu Server Dokumentation beschrieben.

    sunraid Für die gebotene Leistung ist das Mainboard viel zu teuer. Ich würde ein sparsames µATX-Board mit Sockel 1700 von Gigabyte oder MSI (sind meistens energieeffizienter als ASUS oder Asrock) empfehlen, welches einen zweiten PCIe 16x Slot mit 4 Lanes hat, der am Chipsatz hängt, um dort die 10GB Netzwerkkarte zu installieren, so wie dieses hier:

    GIGABYTE B760M Gaming X DDR4


    Auf den zweiten PCIe 16x Slot sollte man aus Gründen der Energieffizienz auf keinen Fall verzichten. Falls Deine Netzwerkkarte kein ASPM unterstützt (wie z. B. die Intel X520) und Du sie in den Prozessor-Slot steckst, dann verhindert sie, dass die CPU C-States höher als C2 nutzen kann und die Idle Power Consumption steigt erheblich. Installierst Du sie hingegen in einen Steckplatz, der dam Chipsatz hängt, dann funktionieren auch höhere C-States problemlos damit.


    Als CPU würde ich einen Core i3-12100, oder falls Du viele VMs nutzen möchtest auch einen Core i5-12400 nehmen. Damit hast Du die Leistung eines vollwertigen Servers mit einem minimalen Stromverbrauch. Dazu 16 oder 32 GB DDR4, je nachdem, was Du mit dem System machen möchtest.


    Ich habe mir im Frühjahr ein ähnliches System, jedoch aus Kostengründen noch mit Sockel 1200, zusammengebaut und komme im Leerlauf auf 20W mit aktiver Netzwerkverbindung (gemessen an der Steckdose). Meine Konfiguration ist folgende:

    Gigabyte B560M DS3H V3

    Intel Core i5-11400

    32 GB DDR4 RAM

    Intel X520 DA-1

    2 NVMe (Samsung 970 Evo 500GB + Kioxia Exceria Plus 2TB)

    WD Red 4TB 3,5" HDD (für Time Machine Backups)

    BeQuiet Pure Power 300W


    Der Server wird als SAMBA AD Domain Controller, Time Machine Server und SAMBA-Fileserver (in einer VM) genutzt und bietet noch reichlich Spielraum für zusätzliche VMs oder weitere Dienste.

    Ich dachte das Problem mit der Erstinstallation wäre inzwischen gelöst und es ginge nur noch um den Treiber, der eine KP verursacht. War aber meinem Beitrag deutlich zu entnehmen, dass ich das so interpretiert habe.


    Egal, für die Erstinstallation empfiehlt es sich eher auf zuverlässige Komponenten zu setzten, z. B. indem man sich eine RTL8111-Karte bzw. einen USB-Ethernetadapter besorgt, oder die Installation auf einem anderen Rechner durchführt, um anschließend die SSD in das entsprechende Zielsystem zu transplantieren.


    PS: Ich erzeuge meine USB-Sticks zum Installieren immer mit "Mist", denn die sind vollständig, so dass man eine Installation zur Not auch ohne Internet durchführen kann.


    bluebyte Es ist wohl offensichtlich, dass es in Deinem Beitrag nur darum ging, mir eins reinzuwürgen. Wenn Du ein Problem mit mir hast, dann solltest Du das im Privaten mit mir ausdiskutieren, oder mich einfach ignorieren.

    potatosackaka Wieso "SecureBoot" auf "Disabled" setzen? Normalerweise ist dass nur für Updates nötig, aber nicht um einen Ethernettreiber einzubinden, es sei denn, die Kext macht etwas komisches? Bist Du dir sicher, dass Du die aktuelle Version installiert hast? Einige ältere hatten Bugs, die zu KPs oder ähnlichen Problemen führten.

    Einen funktionsfähigen Treiber auf Basis der Treiber für Linux, die ja im Source Code verfügbar sind, hinzubekommen ist nicht sonderlich schwierig. Wenn es aber darum geht die letzten Macken zu beseitigen und die Performance zu optimieren, damit der Treiber so perfekt funktioniert wie unter Linux, dann sind Datenblätter des Chip-Herstellers praktisch unverzichtbar, weil MacOS und Linux sich doch zum Teil sehr unterscheiden. Intel veröffentlicht die vollständige Dokumentation zu allen Chips, von Broadcom gibt es einige geleakte Datenblätter, die wenigstens einen Einblick in die innere Architektur erlauben, aber von Mellanox gibt es keine öffentlich Dokumentation. Ich bezweifle daher, dass ich es ohne Dokumentation besser hinbekommen kann als Apple. Aus diesem Grund verspüre ich wenig Motivation so ein Projekt zu beginnen.