Re: Hardware- oder Software-RAID?

Autor: Frank Thommen <lists.uugrn_at_drosera.ch>
Datum: Fri, 06 Sep 2013 13:49:03 +0200
On 05.09.13 23:10, Raphael Eiselstein wrote:
> On Sun, Sep 01, 2013 at 11:56:07PM +0200, Frank Thommen wrote:
>> Tja, *das* waere natuerlich wunderschoen, scheitert aber definitiv
>> an der Finanzierung und der Groesse der aktuell verfuegbaren SSDs:
>> Es stehen sechs 2.5"-Slots zur Verfuegung und im Maximalausbau
>> moechten wir 4 TB Nettodaten.  Das geht mit RAID-6 oder
>> RAID-5+Hotspare gerade noch.  Mit SSDs bezahlbar leider nicht ;-)
>
> Ich möchte an dieser Stelle ausdrücklich vor RAID 5/6 warnen, insbesondere
> wenn man eine defekte Platte einmal rebuilden möchte. Die Schreibperformance
> ist auch mit Batteriegepuffertem Cache unterirdisch im Vergleich zum
> RAID 1+0 Setup bei ansonsten identischer Hardware.
>[...]
> Unter FreeBSD und inzwischen auch unter Linux (seit debian wheezy)
> verwende ich ZFS im Mirror-Betrieb. Das würde ich für reine Daten-Pools
> jederzeit bevorzugen, unter FreeBSD geht auch / auf ZFS, erfordert
> allerdings etwas mehr Erfahrung bzw. eine höhere Frustrtationstoleranz
> ;-)

Hmm.  Ist ZFS unter Linux unterdessen stabil und funktionell genug fuer 
einen operativen Betrieb?  Das Letzte was ich gehoert habe - ist aber 
schon eine Weile her - hat sich anders angehoert.  Der Server wird unter 
CentOS 6 laufen, denn unsere gesamte Umgebung ist CentOS basiert.

/ wird nicht auf diesem RAID liegen.


> 4TB netto aus 6x2.5" Slots ist natürlich sehr sportlich, aber mit
> verfügbarer Hardware durchaus schon machbar.

Unterdessen sind es erst mal 4 x 1 TB (2.5"), ggf. kaufen wir spaeter 
noch Platten dazu....

> Beispiel:
>
> * 2x1TB Platten für System, Software und Bewegungsdaten als klassisches Software RAID1
>    --> (HDD0|HDD1) (Mirror)

System und Bewegungsdaten kommen auf 2 x 100 GB SSD (RAID-1).

> * 4x2TB Platten (zB WD20NPVX) als ZFSv28 Pool für Massendaten
>    zusammengesetzt aus 2x mirror, entspricht einem RAID 1+0
>    --> (HDD2|HDD3)-(HDD3|HDD5) (2x Mirror als Pool)

Das Volume/RAID/Pool fuer Massedaten besteht aus 4(-6) x 1 TB 
2.5"-Platten. Bei 4 Platten verliere ich mit RAID-10 gleich viel wie mit 
RAID-5+Hotspare, aber je mehr Platten ich habe, desto mehr Platten 
verliere ich.  Ist der Performanceverlust mit - Software! - RAID-5 mit 
modernen CPUs (es gibt einen Xeon E5-2690, 8-Core, 2.9 GHz) wirklich so 
dramatisch?


> IMHO sinnvoll bei ZFS ist, dass man dedizierte Platten verwendet, ...
>
> [...]
>
> Nachteile von ZFS
> * benötigt viel Erfahrung

Die kriegt man nur, wenn man es verwendet, wenn man noch keine Erfahrung 
hat :-)


> [...]
> * "Mehr RAM.". "Aber ich hab hab' doch schon …" "…MEHR RAM!"

Gibts da eine Faustregel?  1 GB RAM / TB disk?  Das duerfte kein Problem 
sein.  Der Server hat 32 GB RAM.  Ich moechte es nur nicht komplett fuer 
ZFS verbrauchen.


> * MEHR RAM!

OK, verzichte dafuer auf vier Cores.


> Schreibperformance mit ZFS bekommt man durch zusätzliche Nutzung von
> SSDs als nichtflüchtiger Cache (ZIL, ARC). [...]

Guter Tipp.  Danke.


> [...]
> Nicht vergessen: MEHR RAM!

OK, ich opfere dafuer das redundante Netzteil


> HW-RAID ist normalerweise eine "ohne Aufwand glücklich werden für viel
> Geld"-Lösung, dafür oft recht unflexibel. Außer man hat sehr hochwertige
> RAID-Controller mit viel Eigenintelligenz etwa für VirtualDisks oder
> Logical Drives. HW-RAID *nur* mit Batterie oder SSD-Cache verwenden.

Der RAID-Controller ist onboard im Server (HP Smart Array P420i/1GB, 
keine Batterie aber "long term data retention with flash back write 
cache", was wohl dieselbe Funktionalitaet hat/haben soll)


> [...]
> PS: Mehr RAM!

Leider reicht das Geld jetzt nicht mehr fuer den Server ;-)


frank

-- 
UUGRN e.V. http://www.uugrn.org/
http://mailman.uugrn.org/mailman/listinfo/uugrn
Wiki: https://wiki.uugrn.org/UUGRN:Mailingliste
Archiv: http://lists.uugrn.org/
Empfangen am 06.09.2013

Dieses Archiv wurde generiert von hypermail 2.2.0 : 06.09.2013 CEST