IT-Qualitätssicherung: Standardisierte Ermittlung von Dienstverfügbarkeiten?

Autor: Raphael H. Becker <Raphael.Becker_at_gmx.de>
Datum: 13.12.2006
Hallo zusammen,

jeder weiss, dass Provider / Dienstleister in ihren AGB Verfügbarkeiten
garantieren. Und je nach Vertragsvolumen sind das dann mehr oder weniger
9en hinter dem Komma ... 99% bedeutet aufs Jahr gerechnet einen
Gesamtausfall von ca 87-88h pro Jahr. 

Wenn ich Kunde bin, dann muss ich entweder eigene Messungen machen oder
den Daten des Anbieters Glauben schenken. 

Wenn ich Anbieter bin, denke ich mir für den Kunden eine Zahl aus oder
... tu was genau? Als Anbieter ist man darüberhinaus ja oft auch selbst
Kunde irgendwo.

Wenn ich Anbieter bin, kaufe ich ja u.U. auch externe Dienste ein (Strom, 
Internet, Server), etwaige Nichterreichbarkeit der eigenen angebotenen 
Dienste und ggf. daraus entstehende Finanzielle Belastungen muss ich ggf. 
auch belastbar(!) an meinen Anbieter weitergeben.

Es ist schon schwer genug, eigene Infrastruktur mit vertretbarem Aufwand
auf z.B. 99% zu halten (Redundanz, Backups, Migrationskonzepte, ... )

Wie erstellt man eine belastbare(!) und standardisierte(welche Norm?)
Statistik über die Verfügbarkeit angebotener Dienste?

Vermutlich ist das Thema insgesamt zu weit gespannt für eine kompakte
Antwort, deswegen die beiden Grundfragen:

* Wie ermittel ich selbst belastbare Verfügbarkeiten meiner eigenen
  Infrastruktur? (Konzept, Software)

* Welche Normen und "Best Practise"-Empfehlungen gibt es? 
  (Literatur, Pointer)

MfG
Raphael Becker

PS: nein, es brennt nirgends. Mich interessiert nur das Thema.

-- 
Raphael Becker                                    http://rabe.uugrn.org/
                      http://schnitzelmitkartoffelsalat.und.rahmspin.at/
.........|.........|.........|.........|.........|.........|.........|..


-- 
http://mailman.uugrn.org/mailman/listinfo/uugrn


Received on Wed Dec 13 11:29:07 2006

Dieses Archiv wurde generiert von hypermail 2.1.8.

Weitere Links: