The pressure on today’s data centres is growing exponentially. Driven by the proliferation of the IoT, Big Data and cloud-based business and storage solutions, more data than ever before have to be transmitted, processed and stored at ever increasing speeds. To keep up, data centres must now be built with increased flexibility, scalability and ease of management in mind whilst supporting higher speed applications at the same time. Design considerations as well component selection at the physical layer of a data centre play a crucial role in achieving this.
Zeitgleich mit der Entwicklungsgeschwindigkeit neuer Technologien und der weitgreifenden Digitalisierung der Wirtschaft wächst auch der Anforderungskatalog an die Rechenzentren. Der Ruf nach leistungsstarker IT sowie funktionierender Infrastruktur wird immer lauter. Im selben Atemzug gewinnen jedoch auch Schlagworte wie Kosteneffizienz, Platzersparnis und Nachhaltigkeit zunehmend an Bedeutung und zwingen Planer und Betreiber zum Umdenken. Eine mögliche Lösung, die allen Ansprüchen gerecht werden soll, ist eine neue Art der Klimatisierung: Wassergekühlter Doppelboden.
„Edge-Computing“ ist die Echtzeit-Datenverarbeitung direkt dort oder zumindest in der Nähe des Ortes, wo die Daten generiert werden, sei es von Personen oder von angeschlossenen IoT-Geräten (Internet of Things, Internet der Dinge). Die Bezeichnung „Edge“ beschreibt die Randlage im Verhältnis zum zentralen „Kern“. Das Edge-Computing dient als eine dezentrale Erweiterung bzw. Ergänzung der Cloud und des zentralen Rechenzentrums.
Ressourcenschutz wurde bei der Konzeption des Data Center DC 10 in Ostermiething (Österreich) groß geschrieben. Der 2018 fertiggestellte Neubau mit einer Mindestverfügbarkeit von 99,98% (TSI Level 3 erweitert) ist das erste Rechenzentrum, dessen Nachhaltigkeit mit dem Gold-Zertifikat der ÖGNI ausgezeichnet wurde. Einen wichtigen Beitrag zur Nachhaltigkeit leistet die natürliche Kühlung mit Flusswasser. Abgesichert wird die ununterbrochen bereitszustellende Kühlleistung maschinell: durch vier Ammoniak-Kaltwassersätze ‚BluAstrum‘ von GEA.
Überhitzung (93 Prozent), Feuer (91 Prozent) und Erschütterungen (88 Prozent) sind die Hauptgründe für Rechenzentrumsausfälle. Das ist ein Ergebnis der Studie „Entwicklung und Zukunft der Rechenzentren 2018“. Die Untersuchung wurde von dem Expertengremium der 7Alliance in Auftrag gegeben, einem Zusammenschluss von sieben Firmen, durch deren gebündeltes Knowhow Unternehmen größtmögliche IT-Sicherheit erreichen können.
Rechenzentren (RZ) machen einen bemerkenswerten Teil des Stromverbrauchs aus. Mit der Energie, die deutsche Server und Data Center benötigen, könnten Millionen Privathaushalte versorgt werden. Allein die in Frankfurt am Main angesiedelten Rechenzentren benötigen zusammen mehr elektrische Energie als der größte Stromkunde der Main-Metropole, der Frankfurter Flughafen.
Zunehmenden Leistungsanforderungen begegnen Betreiber von Rechenzentren verstärkt mit der Virtualisierung ihrer Infrastruktur. Neben den Effizienzgewinnen bedeutet dieses Vorgehen aber auch neue Komplexität. Besonders bei Unterbrechungen in der Stromversorgung droht ohne ausreichende Sicherheitsvorkehrungen Datenverlust. Simon Feger, Product Support Manager bei Eaton zeigt, wie sich Rechenzentrumsbetreiber auf den Ernstfall vorbereiten können.
Digitale Netzinfrastruktur wird in Zukunft, vergleichbar mit der lebenserhaltenden Funktion eines feingliedrigen Arterien- und Venennetzes im menschlichen Körper, große Datenströme über terrestrische Glasfaser- und Funknetze verteilen. Große Datenmengen werden ständig innerhalb von Unternehmen, zwischen verschiedenen Standorten sowie diversen Servern in Rechenzentren verteilt.