[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

IT-Qualitaetssicherung: Standardisierte Ermittlung von Dienstverfuegbarkeiten?


Hallo zusammen,

jeder weiss, dass Provider / Dienstleister in ihren AGB Verfuegbarkeiten
garantieren. Und je nach Vertragsvolumen sind das dann mehr oder weniger
9en hinter dem Komma ... 99% bedeutet aufs Jahr gerechnet einen
Gesamtausfall von ca 87-88h pro Jahr. 

Wenn ich Kunde bin, dann muss ich entweder eigene Messungen machen oder
den Daten des Anbieters Glauben schenken. 

Wenn ich Anbieter bin, denke ich mir fuer den Kunden eine Zahl aus oder
... tu was genau? Als Anbieter ist man darueberhinaus ja oft auch selbst
Kunde irgendwo.

Wenn ich Anbieter bin, kaufe ich ja u.U. auch externe Dienste ein (Strom, 
Internet, Server), etwaige Nichterreichbarkeit der eigenen angebotenen 
Dienste und ggf. daraus entstehende Finanzielle Belastungen muss ich ggf. 
auch belastbar(!) an meinen Anbieter weitergeben.

Es ist schon schwer genug, eigene Infrastruktur mit vertretbarem Aufwand
auf z.B. 99% zu halten (Redundanz, Backups, Migrationskonzepte, ... )

Wie erstellt man eine belastbare(!) und standardisierte(welche Norm?)
Statistik ueber die Verfuegbarkeit angebotener Dienste?

Vermutlich ist das Thema insgesamt zu weit gespannt fuer eine kompakte
Antwort, deswegen die beiden Grundfragen:

* Wie ermittel ich selbst belastbare Verfuegbarkeiten meiner eigenen
  Infrastruktur? (Konzept, Software)

* Welche Normen und "Best Practise"-Empfehlungen gibt es? 
  (Literatur, Pointer)

MfG
Raphael Becker

PS: nein, es brennt nirgends. Mich interessiert nur das Thema.

-- 
Raphael Becker                                    http://rabe.uugrn.org/
                      http://schnitzelmitkartoffelsalat.und.rahmspin.at/
.........|.........|.........|.........|.........|.........|.........|..



-- 
http://mailman.uugrn.org/mailman/listinfo/uugrn