nach oben

News

Hochverfügbarkeit für Mikro-Rechenzentren
26. März 2018 -

Rack PDUs für mehr Autarkie beim Edge-Computing

100 Prozent Belastbarkeit, keine Ausfälle, maximale Schnelligkeit sowie geringe Latenzzeiten – das sind Anforderungen an IT-Infrastrukturen, die heutzutage als Standard vorausgesetzt werden. Doch mit der Anbindung an zentrale Großrechenzentren können diese Anforderungen schon aufgrund der Masse an Datenübertragungen, die kontinuierlich zunimmt, oft nicht mehr abgebildet werden – insbesondere dann, wenn Unternehmen oder Organisationen viele weltweit verteilte Niederlassungen haben. Edge Computing, also die Verlagerung von Rechenleistung an den Rand eines Netzwerkes und näher an die betroffenen Nutzer bzw. Anwendungen, hat sich daher als wichtiger Trend und echte Erweiterung zu Großrechenzentren entwickelt. Für den Aufbau und die Ausstattung von Edge-Rechenzentren gibt es mittlerweile sehr viele Möglichkeiten. Eine davon ist das Mikro-Rechenzentrum. Hier ist die komplette Infrastruktur in einem bzw. sehr wenigen IT-Schränken untergebracht – eine gute Lösung, um vor-Ort Rechenleistung mit geringer Latenz zur Verfügung zu stellen. Doch was den Mikro-Rechenzentren in den meisten Fällen fehlt, ist ein einfacher und wirksamer Hochverfügbarkeitsschutz bei Problemen und Ausfällen. Denn auch dann sollen sie autark und selbstständig vor Ort den Betrieb aufrechterhalten.

Risikoanalyse – das A und O für alle Rechenzentren

Bei der Planung von Edge- oder Mikro-Rechenzentren sind deshalb ähnliche Überlegungen notwendig wie für ein großes, zentrales Rechenzentrum. An vorderster Stelle steht dabei die integrierte Risikoanalyse der Geschäftsprozesse. Sie macht sichtbar, welches Schutz- bzw. Verfügbarkeitsniveau ein Edge- oder Mikro-Rechenzentrum am jeweiligen Standort benötigt. Folgende Bereiche sollten bei dieser Risikoanalyse genau unter die Lupe genommen werden: Geschäftsrisiken im Falle eines Ausfalls inklusive Umsatzausfälle oder Regressforderungen, geografische Vorrausetzungen, vorhandene Sicherheitsstandards, externe WAN-Verbindung und interne Datenanbindung sowie umgebende Infrastruktur wie Stromversorgung und Kühlsystem. Außerdem sind dabei die Parameter Verfügbarkeit, Redundanz, Stabilität und Kapazität zu erörtern.

Die Risikoanalyse endet mit der Definition des erforderlichen Schutzniveaus. Abhängig von den Anforderungen  unterscheidet man dafür drei verschiedene Stufen. Im Falle von Stufe 1 sind Ausfälle zwar akzeptabel – wenn der Schutz und die Erhaltung des IT-Equipments bzw. der darauf gespeicherten Daten trotzdem gewährleistet sind. Diese Stufe peilen beispielsweise Dienstleistungs- oder Handelsunternehmen an, die IT-Anwendungen nur zur internen Verwaltung einsetzen und deren Prozesse und Aufgaben am Kunden nicht unmittelbar IT-gesteuert sind. Stufe 2 tritt in Kraft, wenn die Ausfälle nicht lebens- oder existenzbedrohend sind und bei Störungen ein kontrolliertes Herunterfahren und wieder Hochfahren des IT-Betriebs akzeptabel ist – also dann, wenn Unternehmen mit kurzzeitigen Ausfällen der IT zurechtkommen und trotzdem ihr Kerngeschäft weiter verfolgen können. Stufe 3 beinhaltet Anwendungen, die sehr kritisch sind und einen absolut unterbrechungsfreien Betrieb gewährleisten müssen. Sie gilt für Krankenhäuser, Polizei, Banken, die Betreiber kritischer Infrastrukturen oder andere Unternehmen, für die die jeweilige Anwendung hochgradig geschäftskritisch ist.

Spezialherausforderung im Mikro-Rechenzentrum: vor-Ort-Fachpersonal

Zusätzlich haben Edge- oder Mikro-Rechenzentren in der Regel mit einer ganz speziellen Herausforderung zu kämpfen: Am einzelnen Standort steht kein Fachpersonal für den Betrieb der IT bzw. der physikalischen Infrastruktur zur Verfügung. Normalerweise werden die kleinen Edge- oder Mikrorechenzentren von der Zentrale aus überwacht und gesteuert und nur in Ausnahmefällen wird Fachpersonal zur Problembehebung an einen Standort geschickt. Dafür sorgen unter anderem serielle Konsolenserver, die einen Fernzugriff auf Netzwerkkomponenten und bestimmte Sever-Typen zulassen oder intelligente Rack PDUs – Power Distribution Units, die über das Netzwerk und mit eingebauter Schaltfunktion für einzelne Auslässe einen Reset der Stromversorgung ermöglichen. Bei fehlender WAN-Verbindung ermöglichen Rack PDUs oder Konsolenserver außerdem oft einen Ersatzzugriff – beispielsweise über eine Mobilfunkverbindung. Doch was passiert, wenn die Verbindung zu einem Mikro- oder Edge-Rechenzentren komplett abreißt und somit eine Fernwartung bzw. ein Fernmanagement nicht möglich sind? Dann sollten Edge- oder Mikro-Rechenzentren über autarke Notfalllösungen verfügen. Dafür braucht es aber ein entsprechendes Management. Doch wie ist das – ohne großen Zusatzaufwand – möglich?

Mehr Autarkie: Rack PDUs zum zentralen Management-Tool für Edge- oder Mikro-Rechenzentren erweitern

Die Lösung ist in der Tat einfacher als man zunächst annehmen würde. Eine Rack PDU  ist in jedem Mikro-Rechenzentrum vorhanden und verfügt in den meisten Fällen bereits über eine Netzwerkverbindung und ein gewisses Maß an Management-Intelligenz. Mit der entsprechenden Optimierung könnte sie über ein lokales Netzwerk mit allen anderen Komponenten kommunizieren und so zur zentralen Steuereinheit des peripheren Rechenzentrums werden, die im Notfall die Autarkie des Mikro-Rechenzentrums gewährleisten würde. So ein lokales, unabhängiges Mikro-Rechenzentrum könnte Daten sicher speichern, Applikationen selbstständig betreiben und im Notfall eigenständig für Abhilfe sorgen.

Mehr Autarkie: Rack PDUs zum zentralen Management-Tool für Edge- oder Mikro-Rechenzentren erweitern

Die Lösung ist in der Tat einfacher als man zunächst annehmen würde. Eine Rack PDU  ist in jedem Mikro-Rechenzentrum vorhanden und verfügt in den meisten Fällen bereits über eine Netzwerkverbindung und ein gewisses Maß an Management-Intelligenz. Mit der entsprechenden Optimierung könnte sie über ein lokales Netzwerk mit allen anderen Komponenten kommunizieren und so zur zentralen Steuereinheit des peripheren Rechenzentrums werden, die im Notfall die Autarkie des Mikro-Rechenzentrums gewährleisten würde. So ein lokales, unabhängiges Mikro-Rechenzentrum könnte Daten sicher speichern, Applikationen selbstständig betreiben und im Notfall eigenständig für Abhilfe sorgen.

Diese Unabhängigkeit, die das Edge-Rechenzentrum durch dieses zentrale Management-Tool erhalten würde, wäre bei weitem nicht der einzige Vorteil einer Rack PDU-Erweiterung und -Optimierung.

Hinzu kommen zum Beispiel Einsparungen beim Platzbedarf und den Kosten. Denn eine Rack PDU verfügt bereits über Funktionen wie Netzwerkanbindung, sie kann messen und mit Sensoren kommunizieren. Die anderen Infrastrukturkomponenten des Edge-Rechenzentrums könnte man mit der entsprechenden Software ganz einfach per Plug and Play an die zentrale Steuerung per Rack PDU koppeln. Somit wäre der Aufwand in Bezug auf die Installation von neuen Geräten oder bei einem Austausch sehr gering. Auch Firmware Updates oder neue Konfigurationen ließen sich einfach und schnell durchführen.

Dabei wäre es egal, ob im Edge-Rechenzentrum Produkte verschiedener Hersteller implementiert sind. Denn die intelligente Steuerung per Rack PDU würde über das integrierte Gateway laufen, das die verschiedenen Geräte entsprechend in einem „out-of-Band-Netzwerk“ zusammenfasst. Alle Geräte würden ihre Daten an die zentrale Steuereinheit PDU geben. Diese würde die Informationen bündeln, die Datenprotokolle vereinheitlichen und an das primäre Netzwerk weiterreichen. Damit gäbe es nicht mehr für jedes Gerät eine eigene IP-Adresse, sondern nur noch für die PDU selbst. So würde die Rack PDU zum zentralen Gateway werden, das die Kommunikation zwischen Zentralrechenzentrum und Edge-Rechenzentrum um ein Vielfaches vereinfachen und potenzielle Sicherheitsrisiken minimieren würde. Denn eine IP-Adresse bietet weniger Angriffsfläche als viele. Der out of Band-Zugang ließe sich zudem um einen zweiten erweitern, der an ein Mobilfunknetz angeschlossen ist. So könnte man bei einem Ausfall der Festnetzinternetanbindung die Kommunikation über das Mobilfunknetz sichern und das Mikro-Rechenzentrum wäre wieder erreichbar. Außerdem übernimmt  die PDU auch weitere Funktionen wie beispielsweise das Strom-Monitoring.

Ein Blick in die Zukunft

Um die Hochverfügbarkeit von Mikrorechenzentren zu gewährleisten, gilt es, ein breites Lösungsspektrum zu schaffen, das mehrere individuelle Einsatzszenarien abbilden kann, höchst kompatibel ist und technologischen Standards entspricht. Redundante Standorte und Virtualisierung bilden hier noch einen interessanten Ansatz. Sie basieren auf dem Zusammenschluss von mehreren Mikro-Rechenzentren zu einem Verbund. Wenn dann eines der Mikro-Rechenzentren ausfällt, ließe sich die Lücke durch ein anderes im Verbund schließen, bis die Probleme am ausgefallenen Standort behoben sind. Voraussetzung dafür ist, dass die Daten kontinuierlich gespiegelt werden und Anwendungen schnell auf einen anderen Standort umgezogen werden können. Außerdem braucht es dafür wiederum eine gute Anbindung der Edge-Rechenzentren – das ist hierzulande teilweise noch eine Herausforderung, vor allem in ländlichen Gebieten.

Klar ist: Mikro-Rechenzentren bleiben Mikro-Rechenzentren. Ihre Verfügbarkeit hängt im Wesentlichen auch davon ab, welche Absicherung das umgebende Gebäude bereitstellt. Da Egde-Rechenzentren aber oft nicht in eigens dafür entwickelten und gebauten Gebäuden untergebracht sind, wird man hinsichtlich Verfügbarkeit und Management immer schneller an Grenzen stoßen als bei großen, zentralen Rechenzentren. Das liegt in der Natur der Sache. Edge-Rechenzentren mittels Rack PDU-Erweiterung intelligenter und „managebarer“ zu machen, ist ein sehr erfolgversprechender und effizienter Schritt für die Bewältigung der steigenden Anforderungen an Edge-Infrastrukturen. Deswegen arbeiten wir bei Vertiv bereits intensiv daran.

Autoren:

Dr. Peter Koch
Vice President Solutions for Europe, Middle East & Africa, Vertiv

Thomas Hofbauer
Product Manager Power Distribution Systems