Im Jahr 2005 versank das Münsterland in Schneemassen. Elbe und Donau fluteten 2013 mit „Jahrhunderthochwassern“ das Land. Und im vergangenen Jahr wütete ein Flächenbrand in den Wäldern vor den Toren Berlins. Wenn ein Rechenzentrum wegen solcher Naturkatastrophen vom Netz geht, muss ein zweites Rechenzentrum umgehend einspringen können. Dieses sollte natürlich weit genug von seinem „Zwilling“ entfernt sein, um nicht von der gleichen Katastrophe betroffen zu sein. Für dieses Prinzip der „Georedundanz“ hat das Bundesamt für die Sicherheit in der Informationstechnik (BSI) jüngst neue Richtlinien veröffentlicht.
Auch die höchste Verfügbarkeit eines Rechenzentrums nützt nichts, wenn es – wenn auch nur vorübergehend – seinen Betrieb einstellen muss. Deshalb gibt es bei hoch- und höchstverfügbaren Rechenzentren immer einen Kontrapart, der zumindest alle geschäftskritischen Daten und Systeme ein zweites Mal vorhält. Als „hochverfügbar“ gilt dabei laut BSI eine maximale Ausfallrate von 0,01 Prozent der Laufzeit, also knapp eine Stunde pro Jahr. Ein „höchstverfügbares“ Rechenzentrum kann sich sogar nur wenig mehr als fünf Minuten Ausfallzeit erlauben. Das entspricht 0,001 Prozent maximaler Ausfallrate.