Hardware-Infrastruktur – die Trumpfkarte in einer virtualisierten Welt

CloudIAASNetzwerkeVirtualisierung

Die Hardware-Infrastruktur eines Rechenzentrums muss die nötige Rechenleistung erbringen, wobei zugleich Stromverbrauch und Kühlungsbedarf so niedrig wie möglich gehalten werden müssen. Es ist eine Gratwanderung, aber Verlässlichkeit ist ein Muss – bei einem Rechenzentrum, das die Vorgaben nur zu bestimmten Zeiten erfüllt, kann man nicht von einem erfolgreichen Design sprechen.

Verbesserungen messbar machen
Beim PUE-Wert (Power Usage Effectiveness), ein von der Organisation Green Grid eingeführter Messwert, handelt es sich um einen der wichtigsten Kennwerte, mit dem die Leiter von Rechenzentren den Erfolg ihrer eigenen Einrichtungen beurteilen können.

Obwohl mithilfe des PUE-Werts die Verlässlichkeit und die Effizienz eines Rechenzentrums gemessen werden können, ist er nicht als Grundlage dafür gedacht, Ihr Rechenzentrum als schlecht und andere Datenzentren als gut zu bewerten, obwohl dies im Markt so aufgefasst zu werden scheint. Der Wert sollte stattdessen als ein Maß des Fortschritts gesehen werden, hin zu einer effizienteren Nutzung von Ressourcen.

Zunächst einmal lässt sich feststellen, dass sich mithilfe von Virtualisierung die Rechenlast flexibler im Rechenzentrum verteilen lässt. Früher bewältigten Rechenzentren unternehmenswichtige Rechenlasten durch den Einsatz von wuchtigen Hardware-Servern, zusammen mit eigenen Zusatzstromaggregaten und Kühlanlagen; heutzutage können virtuelle Server überall im gesamten Datenzentrum verschoben werden.

Unter dem Gesichtspunkt des Designs lässt dies den herkömmlichen Ansatz weniger effizient erscheinen. Das Konzept des „Hot Spots“, den man durch Verstärkung des Kaltluftstroms beseitigt, existiert in der virtuellen Welt nicht. Diese „Hot Spots“ können überall im Rechenzentrum auftreten, abhängig von der Rechenlast und welche Ressourcen der virtuelle Server nutzt.
Stattdessen gibt eine Reihe von Maßnahmen, die getroffen werden können, um effiziente Stromversorgung und Kühlung zu garantieren, während gleichzeitig sichergestellt wird, dass die Vorteile der Virtualisierung genutzt werden können. Die erste Maßnahme ist die Aufteilung des Rechenzentrums in heiße und kalte Gänge. Dabei wird der jeweilige Luftstrom – entweder heiß oder kalt – eingefangen und auf bestimmte Bereiche begrenzt, so dass der Kühlvorgang so effizient wie möglich durchgeführt werden kann.

Bei der zweiten Maßnahme werden Einhausungen benutzt zum passiven Temperatur-Management. Dies betrifft das Design von Gehäuseschränken, Kabeln und Belüftungsanlagen, die die Server, Switches und Datenspeicheranlagen beherbergen. Es mag sich eher nebensächlich anhören, aber wenn in der Phase des Designs der Hardware-Umgebung Fehler passieren, kann dies die laufenden Betriebskosten des Rechenzentrums massiv erhöhen.

Beim passiven Temperatur-Management wird der Luftstrom so geleitet, dass die warme IT-Abluft effektiver abgeführt wird. Diese Methode nutzt die physikalischen Eigenschaften von Heißluft aus und führt sie schneller von den Geräten ab, es wird also den Geräten selbst keine Kaltluft zugeführt, da dies den Stromverbrauch zusätzlich erhöhen würde.

Auf und ab: Zukunftsplanung

Die praktische Umsetzung dieses Ansatzes bei energieeffizienten Einrichtungen, darunter der Einsatz von passiven Temperatur-Management-Verfahren, hat im Durchschnitt zu einer Senkung des Stromverbrauchs um 15 Prozent und der Kühlungskosten um 38 Prozent geführt. Über die Lebensdauer eines Rechenzentrums gerechnet kann dies enorme Einsparungen bedeuten davon ausgehend, dass bereits in der Planungsphase die richtigen Entscheidungen getroffen wurden.

Es ist von großer Bedeutung, dass beim Entwurf und Bau von neuen Rechenzentren dieses Wissen um Hardware-Infrastrukturen und passive Luftkühlung praktisch genutzt wird, außerdem muss man sich bewusst sein, welche Anforderungen Virtualisierung und Cloud-Computing an ein Rechenzentrum stellen. Die beiden Ansätze stellen ein Rechenzentrum vor je unterschiedliche Herausforderungen.

Obwohl es wesentlich einfacher ist, neue Server virtuell aufzusetzen, sind virtuelle Server-Anordnungen meist eher statisch, was die Zahl der verwendeten VMs betrifft. Der wichtigste Faktor bei der Implementierung ist daher die Mobilität der virtuellen Maschinen.

In ähnlicher Weise können Bereiche, in denen vermehrt Hitze entsteht (Hot-Spots), an verschiedenen Stellen im Rechenzentrum auftreten, da die leistungsfähigeren virtuellen Maschinen im System verschoben werden können, um ihnen in optimaler Weise Ressourcen zur Verfügung zu stellen. Was die Hardwareseite der IT betrifft, bedeutet dies, dass das Design des Rechenzentrums in puncto Strom-, Kühlungs- und Wärmemanagement einheitlich gestaltet werden muss.

DCIM-Tools (Data Centre Infrastructure Management) können diese Informationen den übergeordneten IT-Management-Plattformen zur Verfügung stellen, um die virtuellen Maschinen darauf abzustimmen.

Modulares Denken
Einer der neuesten Trends ist der Wandel hin zum modularen Rechenzentrum. Seine Bestandteile sind fertige Bausteine, sowohl Hardware als auch Virtualisierungs-Software, von Firmen wie VCE mit dem VBlock-Konzept bis hin zu IBM, die komplette ISO-Container mit Rechenzentrums-Bauteilen zusammenstellt. Das Hauptziel hinter diesen Lösungsangeboten, unabhängig von der Modulgröße, ist die schnellere Lieferung der Rechenzentrums-Ressourcen an den Kunden.

Als Teil der modularen Design-Phase müssen alle Aspekte der Stromversorgung, Verkabelung und Support-Dienstleistungen genau durchdacht werden. Dazu gehört, wie man die vorhandene Fläche am besten ausnutzt, sowohl um die einzelnen Gehäuseschränke herum als auch die zur Verfügung stehende Gesamtfläche.

Dies ist deshalb wichtig, da der Platz in diesen modularen Umgebungen begrenzt ist. Es ist daher äußerst schwierig, am Design Änderungen vorzunehmen, sobald die Einzelteile zusammengesetzt und in das modulare System eingepasst wurden. Denken Sie über das erforderliche Change Management und den Lieferprozess nach; wenn Sie sich nicht zu 100% sicher sind, welche Kapazitäten und IT-Ressourcen in den nächsten drei Jahren vonnöten sein werden, ist der modulare Ansatz vielleicht nicht optimal für Sie.

Modulares Design kann dann mit größerer Strom-Effizienz glänzen, wenn es kundenspezifisch erstellt und entwickelt wird, um bestimmte Bedürfnisse zu erfüllen. Das bedeutet, dass sämtliche Hardware- und Software-Komponenten bei Baubeginn spezifiziert werden, anstatt nach und nach den Gerätepool aufzustocken. Um es noch mal zu wiederholen – man kann hier die Chance nutzen und den Stromverbrauch und den Bedarf an Kühlung von Anfang an verringern, außerdem können redundante Stromkosten, die den PUE-Wert senken, eliminiert werden.

Die Zahl der Kabel in diesen Implementierungen kann ebenfalls die Kühlmethode beeinflussen. Wenn die Kabelschächte mit Kabeln vollgestopft sind, wird mehr Strom und mehr Kühlung benötigt, um die notwendige Kaltluft  durch sie einzublasen. Diese Mehrkosten können gesenkt werden, indem von Anfang an auf effizienteres Kabelmanagement  gesetzt wird. Durch die wachsende Bedeutung von Hochgeschwindigkeitskabeln und Glasfaser-Technologien wie 40Gb und 100Gb Ethernet wird dieser Aspekt in Zukunft an Bedeutung verlieren.

Unabhängig davon, was Sie über die Zukunft der IT denken – die Grundlage für erfolgreiche Projekte, die den Anforderungen entsprechen, ist die Infrastruktur, auf der Hardware, Software und Daten aufbauen. Indem Sie analysieren, wie diese Komponenten zusammengesetzt sind, können und sollen der Stromverbrauch und die Nutzeffizienz verbessert werden.

Lesen Sie auch :