ok, nach ein paar Stunden lesen/schauen muss ich zugeben, ist ein unraid-Selbstbau für mich jetzt doch interessant....
Ich "scheitere" aber gerade an der Hardwareauswahl, vielleicht habt ihr noch Tipps:
Das ganze soll am Ende nicht viel größer als das bislang von mir favorisierte DS1522+ sein (muss in einem Kallax Platz finden), im Idealfall nicht teurer sein und sich vom Stromverbrauch auch in dessen Rahmen bewegen (52.06 W (Zugriff), 16.71 W (HDD-Ruhezustand)).
Von der Größe würde ein Fractal Node 304 sehr gut passen, aber die Auswahl an ITX Boards mit 6 SATA Anschlüssen für mögliche HDDs beschränkt sich zum einen auf Intel (wäre jetzt nicht soo schlimm) und zum anderen scheinbar von ein paar sehr teuren Serverboards abgesehen auf das ASRock H370M-ITX, was extrem schwierig zu ergattern ist.
Evtl. könnte man ja aber auch ein 4port Board + M.2-->SATA Adapter nutzen (bei LTT gesehen)
Was würdet ihr für ein Setup empfehlen für bis zu 6 HDDs + M.2 Cache/VMs in möglichst klein und stromsparend, gerne mit >=2,5GE?
P.S.:
wofür ist das ganze geplant?
- NAS für den madvr-HTPC, sowie für den ganzen Rest im Haus
- Ablösung eines NUCs mit diversen Docker-Containern
- ggf VMs zum Testen (ohne Beschleunigung)
- kein Transcoding, keine performanten (Gaming-)VMs
P.P.S.:
Synology erlaubt seit neuestem (als erstes auf der DS923+) auch die NVMEs als Speicherpool zu nutzen, also müssen VMs etc. nicht mehr zwingend auf den drehenden Platten liegen
Alles anzeigen
Soo, nach knapp einem Jahr kann ich endlich auch erste eigene Erfahrungen zum Thema unraid beitragen.
Ich habe seit September einen unraid Server und dort mit dem mittlerweile abgelaufenen, kostenlosen Testmonat etwas rumgespielt (ich warte noch auf deren erneutes Angebot für die richtige Lizenz).
Die unraid Experten mögen mich gerne berichtigen/ergänzen, wenn ich nachfolgend Quatsch schreibe Ich kenne unraid jetzt erst wenige Wochen.
Es folgt ein Erfahrungsbericht, der sicherlich vieles bereits erwähnte zusammenfasst/bestätigt, vielleicht ist aber auch noch was hilfreiches für einzelne dabei...
Meine Idee ist es, zukünftig das Syno-NAS und den Docker-Server durch unraid abzulösen und die Sysnology-Diskstation nur noch als Backup-Ziel für unraid zu verwenden.
Hardware
ich habe zufällig ein ziemlich gut passendes China-Board für die obigen Anforderungen gefunden, womit das ganze losging und bisher in folgendem endete:
- CWWK J6413 NAS Motherboard (6x Sata, 3x 2,5GE, 2x M.2, 2x SODIMM, USB-A onboard, Konsolenport...)
- 2x 32GB DDR4 (non-ECC)
- 2x 1TB M.2 (als redundanter Cache)
- 3x 18TB Toshiba MG09 (als Disk-Array mit 1 parity)
- Fractal Node 304
- Xilence XP400R6 v2.31 400W
ohne die HDDs kam ich hier mit ein bisschen Kabelage und dem nötigen USB-Stick auf ziemlich genau 500€
Ich vergleiche das im folgenden mit meiner Synology DS418j (ca. vor einem Jahr für 150€ bei Kleinanzeigen ergattert) mit 4x 18TB Toshiba MG09 im SHR.
Die Toshiba Platten habe ich im Januar und Oktober 2023 erworben für den identischen Angebotspreis, die Dinger werden scheinbar einfach nicht mehr günstiger
Stromverbrauch
So interessant das Board für den Einsatzzweck auch ist, gerade der JMB585 SATA Portmultiplier macht Probleme beim Stromsparen, da er kein Standby kann: er verhindert Pkg C-States größer C3
Das hat zur Folge, dass der Server minimal (alle HDDs im Spindown) noch ca. 16-17W verbraucht. Wenn Platten laufen, kann man ca. 5W pro Platte hinzurechnen.
Da auf dem Rechner aber zukünftig auch docker Container laufen sollen, wird der eh nie ganz schlafen gehen, von daher ist das Problem vielleicht zu vernachlässigen...ich bin gespannt, was er dann im Betrieb wirklich verbraucht...
Aber aktuell vergleiche ich nur die reine NAS-Funktionalität zur Synology, d.h. es laufen auf beiden Systemen keine VMs/docker.
Das DS418j hab ich an der gleichen Steckdose gemessen.
Wenn es sich schlafen gelegt hat, verbraucht es nur 4,79W, im Betrieb mit den 4 Platten 24,74W. (kommt also auch hier gut hin mit 5W/HDD)
Andere unraid-Installationen kommen durchaus in die gleiche Region, nur ist das Zusammenstellen der geeigneten stromsparenden Hardware ein Hobby für sich und teils auch recht aufwendig bzw. vergleichsweise teuer (z.B. das Ergattern von älterer HW bei Kleinanzeigen). Der eingesparte Stromverbrauch sollte ja auch im Verhältnis zum Invest stehen...
Es gibt auch fertige NAS (z.B. bestimmte QNAP), die man von USB mit z.B. unraid booten kann.
Meine beiden Geräte sind übrigens derzeit mit 1GE angeschlossen und headless betrieben.
Einrichtung
Beide Systeme sind mit etwas RAID-/Netzwerk-KnowHow schnell eingerichtet. Unraid ist natürlich viel mächtiger von seinen Möglichkeiten und Erweiterungen, was sich dann auch darin wiederspiegelt, dass man sehr schnell bei der Installation von mehr oder weniger notwendigen Plugins angelangt ist, diese kommen aus der großen community und sind dadurch oft keine offiziellen unraid-Plugins.
Was mich z.B. wunderte ist, dass es von Haus aus nichtmal ein Backup-Tool für unraid-Shares gibt, aber immerhin genug (Skript-)Lösungen auf RSYNC-Basis. Die Konfig auf dem USB-Stick kann bei unraid in der Cloud gesichert werden, wenn man das möchte.
Cache
Bei Synology wurden zwei M.2 SSDs in der DS damals als "Schreib- und Lesecache" eingeführt, und wenn ich das Marketing richtig verstanden habe, genau eine fürs Lesen und eine fürs Schreiben.
Bei unraid gibt es nur genau den Cache. Dieser ist ein reiner Schreibcache. Ein Lesecache macht auch wenig Sinn, da hier die Daten eh vom Array erstmal auf die SSD kommen müssten. Daten, die oft bzw. von mehreren Clients gelesen werden, legt man dann evtl. direkt nur auf den SSD-Cache. Man kann unraid nicht so einstellen, dass die Daten auf dem Array liegen und er z.B. eine Datei beim Lesen auf den Cache kopiert und da z.B. einen Tag liegen lässt, falls sie erneut gelesen werden möchte und danach dort wieder löscht.
Bei Synology dagegen, durchlaufen scheinbar alle Daten den Lesecache und dadurch werden anscheinend die SSDs "verheizt".
Den unraid Schreibcache finde ich sehr gut gelöst. Man entscheidet pro share, wohin die Daten geschrieben werden: direkt auf das (langsame) Disk-Array, nur auf das Cache-Drive, oder eben als eigentlichen Cache zuerst auf das schnelle Cache-Drive von dem sie auch wieder schnell gelesen werden können, bis sie von dem "mover"-Prozess (standard: täglich, nachts) auf das Disk-Array verschoben werden.
Synology wird das Verschieben vermutlich instant durchführen. Bei unraid empfiehlt es sich, das CacheDrive aus mehreren Disks redundant zu bauen (bei mir 2x M.2 SSDs), da die Daten hier ansonsten bis zu 24h ohne parity rumliegen.
Zusätzlichen noch schnelleren Cache lässt sich über viel RAM und entsprechende Konfig erzielen. Linux-Systeme nutzen standardmäßig bis zu 20% des RAM als Cache für Daten, die übers Netzwerk übertragen werden. Das kennt ihr z.B. von der Windows-Anzeige der Kopierrate, die erst ganz schnell anfängt und dann i.d.R. absinkt. Diesen Wert kann man auf (je)dem Server anpassen, d.h. bis nahezu zur Größe des RAMs kann man dann entsprechend mit Netzwerkgeschwindigkeit Daten übertragen (ins RAM), danach werden die Daten instant auf den (ggf. langsamer angebundenen) SSD-Cache geschrieben. Bei schneller Netzwerk- aber langsamer SSD-Anbindung macht das u.U. Sinn.
Spätestens dann sollte man sich natürlich Gedanken um eine USV und ECC-RAM machen...
Hochfahren der Platten
Die Platte(n) im unraid starten zuverlässig nur dann, wenn lesend drauf zugegriffen wird, bzw. nachts wenn der mover-Prozess neue Daten vom (Schreib-)Cache auf die Platten verschiebt und eben nur die benötigten Platten (zum Lesen nur die eine Datenplatte, zum Schreiben die Platte die "dran" ist + parity).
Bei meiner Synology muss man schon die ca. 10min HDD-Spindown erwischen, um den idle-Stromverbrauch zu messen. Vielleicht etwas übertrieben, aber ja, die Platten springen leider andauernd wieder an. DAS nervt am meisten bei Synology (ich vermute, dass ist bei anderen Herstellern ähnlich). Ich gehe davon aus, dass es am SMB/NETBIOS-Protokoll liegt gepaart mit dem Umstand, dass das Betriebssystem nunmal auf dem Platten-Array liegt. Gefühlt fährt das Array für jeden Broadcast oder Log-Eintrag hoch. Bei bestimmten Dienste, die permanent Daten schreiben, wenn auch nur Logs, legen die Platten sich logischerweise gar nicht mehr schlafen. Ob mittlerweile bei Synology das Betriebssystem rein auf die Cache-SSDs installiert werden kann, um dieses Problem zu umgehen, weiß ich nicht, als Speicherpool können sie mittlerweile ja genutzt werden.
Fazit
Die Cache-Funktionalitäten von unraid gepaart mit dem Board was zwei M.2 Ports bietet, haben mich überzeugt. Die vielfältigen Erweiterungsmöglichkeit natürlich auch.
Ob jetzt alle oder nur 1-2 Platten anspringen stört mich (und die modernen Festplatten heutzutage) eher weniger, aber wenn dadurch etwas Strom und Lautstärke eingespart wird, nehme ich das gerne mit.
Vom Stromverbrauch tun sich die beiden Systeme bei mir aktuell wohl nicht viel, da die DS zum einen immer nur kurz schläft und mein unraid im Gegenzug recht viel im idle verbraucht. Ich wer mir demnächst noch 2 Shelly PlugS holen für einen Langzeitvergleich. (bzw. 3, da der docker-Server ja perspektivisch auch abgelöst werden soll)
Dass der SATA Controller sich nicht schlafen legt, stört mich dabei schon etwas, aber als Lösung müsste ich entweder auf ein ganz anderes Board/CPU/Kühler-Set umsteigen oder auf einen M.2-Port verzichten und auf einen PCIe-Controller wechseln (ein M.2 Port teilt sich bei diesem Board die Lane mit dem PCIe Slot, also nur entweder-oder). Mal sehen...