Wenn ich neu kaufen wollte würde ich auch einen Ryzen nehmen,
AMD beschneidet seine CPUs nicht so sehr wie Intel.
Bei Intel war es immer so dass nur die i3 ECC RAM (mit passendem Chipsatz) unterstützen von den Desktop CPUs.
(Sinn ist, dass die auch für ganz kleine Server herangezogen werden)
Anosnten brauchts gleich einen teuren Xeon bei Intel.
Bei AMD unterstützen auch viele Desktop Boards ECC-RAM (schreib hier grad auf einem Zen3 System mit Gigabyte Board + ECC-RAM)
Bzgl Stromsparsamkeit: Ein weites und schwieriges Feld
...da muss man mal nach Tests suchen die den Idle Strombedarf testen der gewünschten Komponenten.
Im allgemeinen gilt natürlich, was nicht verbaut ist zieht keinen Strom.
Geizhals.de hat da schöne Filter die ich gerne für eine grob Auswahl heranziehe von entsprechenden Komponenten....
Meinen Homeserver hab ich hier gerade erst auf unRAID umgezogen.
(hätte ich schon viel eher machen sollen ...große Empfehlung)
Dabei hab ich aber zum Teile alte Teile weiterverwendet.
Daraus kann ich sagen, auch ein älterer i3 kann reichen...
man sollte dann sicher nicht versuchen zig VMs auf der Kiste auszuführen.
Viel RAM nutzt unRAID sehr effektiv als Cache
In dem Zuge hab ich auf 10GbE aufgerüstet, da habe ich billige Realtek Karten (in dem Fall von Asus) genommen....
Kleinere Dateien (5GB rum bei mir) gehen dann mit 600-800MB über die Leitung, sehr nett...
Sobald auf Platte geschrieben wird bricht die Performance von unRAID komplett ein, das ist prinzipbedingt.
Details sollte man sich auf der unRAID Webseite anschauen, bzgl. des Warum...
Also imho ist ein SSD Cache Pflicht:
Auch hier arbeitet unRAID etwas anders als man es vielleicht von anderen Systemen kennt.
Die Daten liegen immer entweder/oder auf dem SSD_Cache oder den HDDs.
Also sollte man imho auf dem Cache auch Redundanz fahren.
Hier bietet UNRAID afaik nur RAID1 Funktionalität.
Man braucht also Paar weise gleiche Kapazität.
Die Pärchen kann man dann wieder zu einem Cache Pool zusammenschließen:
z.B. 2x 250GB , 2x 500 und 2x 1TB SSD
Dann Könnte man einen SSD Cache Pool mit 1750GB Nutzkapazität bauen....
Es können auch mehrere Cache Pools erstellt werden.
Die Cache Regeln werden pro Share festgelegt.
Darüber bin ich gestolpert, und hatte es bei meiner Planung zuerst nicht berücksichtigt, daher der Hinweis.
(Auch hier der Hinweis: mal die Doku rein zuschauen um zu verstehen wie unraid hier arbeitet )
Und als letztes noch der Tipp, wer viele SATA Anschlüsse benötigt.
(Wenn man zusätzlich SATA SSDs als Cache verwendet gehen, die einem erstaunlich schnell aus.... )
Nehmt nur Boards deren Onboard Sata Anschlüsse über den Chipsatz/Southbridge gehen.
Boards mit >6 SATA Anschlüssen haben fast immer noch irgendeinen Marvell/Asmedia whatever Chip drauf für die zusätzlichen Ports.
Aus leidvoller Erfahrung: Diese Chips sind Schrott und im besten Fall nur grotten lahm
Bei billigen Sata PCIe Karten gilt das natürlich auch, meist sind die gleichen Chips drauf gelötet.
Wenn man mehr als die 6 Ports braucht:
Schaut euch nach SAS Karten um:
Karten mit LSI/Broadcom SAS2008 SAS3008 Chip sind hier Empfehlenswert und insbesondere der ältere SAS2008 auch günstig zu bekommen.
Diese Karten haben meist zwei SAS Anschlüsse, je SAS Anschluss gehen vier SATA Devices.
Passende Kabel gibt es günstig bei Amazon, auf den SAS Stecker Typ achten, da gibt es verschiedene: Einfach die Nummer der Karte mit der Nummer des Kabel vergleichen.
Die Karten gibt es in zwei Geschmacksrichtungen:
Raid-Karte und HBA-Karte:
die Raid Variante kann die Platten nicht 1:1 durchschleusen zum OS. Das wird aber für unraid/truenas und Co benötigt.
Es wird die HBA-Variante benötigt. Oder auch IT-Mode Firmware genannt.
Die funktioniert als "dummer" Festplatten Controller ...genau das will man hier.
Man kann bei den SAS2008/SAS3008 basierten Karten die Firmware drüber flashen und so aus einer RAID Karte eine HBA Karte machen.
Je nach Hersteller der Karte ist der Prozess mehr oder minder aufwendig, da die Hersteller dieses Crossflashing zum Teil versuchen zu unterbinden.
Ich habe hier Karten genommen von irgendeinem chinesischen Hersteller,
die scheinbar auf dem Referenzdesign von Broadcomm/LSI basieren. (Solche Karten gibt es zuhauf bei Amazon/eBay/Aliexpress...)
Hier kann man direkt die Firmware tauschen.
(und natürlich die Karte auch schrotten ..also erst sich sicher sein, dass man weiß was man tut )
Für Stromsparende Kisten sind die SAS Dinger vermutlich nichts, die werden recht heiß, man sollte irgendwie einen Lüfter direkt auf die Karten gerichtet haben,
in üblichen 19" Server Gehäusen ist das ja meist direkt durch den Lufstrom gegeben, bei Tower Gehäusen nicht unbedingt
(Text ist länger geworden als ich wollte ,
aber vielleicht hilft es dem ein oder anderen der noch nicht so tief in der Materie ist einen Einstieg zu finden )