Energiewende im Rechenzentrum

CloudGreen-ITIAASInnovationNetzwerk-ManagementNetzwerke

Umweltbewusstsein, Kosteneinsparung, Imagepflege, Behördenauflagen – wer sich als Betreiber von Rechenzentren mit grüner IT befasst, hat verschiedene Beweggründe. Am meisten zu denken geben seit einiger Zeit die Stromkosten, die den Großteil der IT-Kosten ausmachen, und damit das Thema Energieeffizienz. »Power Usage Effectiveness«, kurz PUE, lautet international das Maß der Dinge. Je kleiner der Wert, desto besser fällt die Bilanz aus, da ressourcenschonend gearbeitet wird.

Tatsächlich lässt sich bis hin zum Netzwerk einiges tun, um die Energiebilanz im Rechenzentrum zu verbessern.

Kombination von Methoden

Damit die Energiewende im Rechenzentrum Realität werden kann, muss man verschiedene Methoden kombinieren und schrittweise umsetzen. Zu den effektivsten zählt die Virtualisierung von Servern, Storage und Netzwerkkomponenten. Damit verbunden sind Konsolidierungseffekte und eine größere Dichte des Equipments.

Ebenso spielt das Design der Räume, der Racks und der Kabelführung eine große Rolle, da alles zusammen das Ausmaß der Klimatisierung und damit den Stromverbrauch bestimmt.

Hinzu kommt die Art der Klimatechnik, insbesondere deren kreative Gestaltung, etwa mittels Free Cooling. Klimatechnik zählt potenziell zu den größten Stromfressern. Laut Gartner werden bis zu 50 Prozent der Stromkosten für Kühlung aufgewendet.

Ressourcenschonende Herstellung der Hardware

Nicht zu unterschätzen ist der Einsatz energieeffizienter Hardware. Wie es darum bestellt ist, lässt sich in Projektausschreibungen einfach abfragen und vergleichen. Wer sich Green IT in voller Konsequenz auf die Fahnen schreibt, sollte bei der Anschaffung zusätzlich darauf achten, dass die Produkte ressourcenschonend hergestellt wurden.

Die Homepage des Netzwerkspezialisten Brocade.

 

Konsolidierung der IT-Infrastruktur

Die Virtualisierung von Clients und Applikationen sowie die verbesserte Bandbreite von Wide Area Networks (WAN) haben dazu beigetragen, dass sich Rechenzentren einfacher und ohne Leistungseinbußen zusammenlegen lassen. Ideale Bedingungen herrschen natürlich bei der Planung auf der berühmten »grünen Wiese«, aber auch der Umbau bestehender Gebäude kann einiges in Sachen Energieeffizienz bringen.

Konsolidierungsmaßnahmen in der IT-Infrastruktur dämmen den Hardware-Bedarf ebenso ein wie den Flächenbedarf und reduzieren durch verringerte Baumaßnahmen letztlich auch den »Physical Footprint«, also die Umweltzerstörung durch Versiegelung von Flächen.

Server: Stromfresser Nummer eins

Server und Rackaufbau sind mit die größte Herausforderung auf dem Weg zur Energieeffizienz. Immer mehr IT-gestützte Prozesse ließen Datenaufkommen und Anzahl der Server regelrecht »explodieren«. Server wurden zu den Stromfressern Nummer eins, laufen rund um die Uhr, sind aber trotzdem im Durchschnitt nur zu 20 Prozent ausgelastet.

Virtualisierung und Bündelung mehrerer Maschinen auf einer Plattform führt zu deutlich effizienterem Betrieb und einer Auslastung um die 50 Prozent. Je höher der Grad an virtualisierten Servern, desto günstiger fällt auch der Energieeffekt aus. Im Green IT Datacenter von Brocade in San José etwa müsste der Server-Virtualisierungsgrad bei durchschnittlich mehr als 75 Prozent liegen, um die Energieeffizienz überhaupt noch verbessern zu können.

Höhere Racks lassen die Luft besser zirkulieren

Aber auch der Rack-Aufbau trägt seinen Anteil zur Energieeffizienz bei: Höhere Racks bieten einfach mehr Stauraum. Dicht gepackt und mit »blind« verschlossenen freien Einschüben entsteht zudem eine klimatechnisch günstigere Luftzirkulation.

In bestehenden Räumen lassen sich höhere Racks unter Umständen nur über die Aufgabe des traditionell doppelten Bodens und alternative Führung der Kabelstränge erreichen, etwa gebündelt in Overhead-Schächten. Dies ist oft ohnehin zu empfehlen, um Hitzestau zu vermeiden.

Überhitzung durch Konsolidierung

Überhitzung kann natürlich auch durch Konsolidierungsmaßnahmen entstehen. Hier kommt es nun darauf an, die Racks so anzuordnen, dass die gegenüberliegenden Geräte eines Gangs jeweils kühle Luft ansaugen oder aber erwärmte Luft abgeben. Dies vermeidet Überhitzung und vermeidet, dass die Klimaanlagen des Rechenzentrums auf Hochtouren arbeiten, um die Raumtemperatur konstant niedrig zu halten. Der Rackaufbau folgt also dem Kalt-/Warmgangprinzip.

Kühlung in einem Datenzentrum von Brocade.

arüber hinaus wird die warme Abluft nicht mehr nach hinten abgegeben, sondern wie durch einen Kamin nach oben geblasen. Entscheidend sind hier Kaltgangeinhausung oder komplette Abschirmung der Rackrückseiten in den Kaltgängen, die verhindert, dass sich der Kaltgang durch die auf- und anschließend wieder absteigende Warmluft aufwärmt.

Bis zu 26 Grad Umgebungstemperatur

Tatsächlich kommen moderne Rechenzentren mit weniger Kühlung aus als oft angenommen. Der American Society of Heating, Refrigerating and Air-Conditioning Engineers zufolge sind Umgebungstemperaturen von rund 26 Grad verkraftbar, ohne dass die Verfügbarkeit gefährdet wäre.

Wenn man bedenkt, dass jedes Grad Celsius weniger mit rund fünf Prozent höherem Stromverbrauch erkauft wird, lässt sich umgekehrt leicht ausrechnen, was durch eine höhere Temperatur eingespart werden kann.

Die Virtualisierung von IT-Infrastruktur macht jedoch vor Storage und Netzwerk nicht halt. Hocheffiziente Unified Storage-Architekturen konsolidieren Daten, Applikationen und virtuelle Maschinen auf ein und derselben Plattform im Netzwerk. Virtualisierung, Deduplizierung und Kompressionsmechanismen verlangsamen das Datenwachstum, verringern den Ressourcenbedarf und vereinfachen das Management. Ähnliche Bestrebungen gibt es auch im Netzwerkbereich.

Frustrierend komplexe Netzwerke

Noch managen IT-Abteilungen zwei bis drei parallel laufende Netzwerke: Ein Speichernetzwerk, das hoch zuverlässig sein muss, und ein Datennetzwerk mit schwankender Performance, das zudem oftmals frustrierend komplex ist. Jedes dieser Netzwerke benötigt separate Hardware und Kabel. Eine solche Infrastruktur beansprucht nicht nur massiv Zeit, sondern belastet durch hohe Kosten und gewaltigen Energieverbrauch sowohl das Budget der IT-Abteilung als auch die Umwelt.

Konvergenz 2.0 – Das intelligente Netzwerk

Letztlich geht es um ein einziges, hochverfügbares Netzwerk, das so intelligent ist, dass es unterschiedliche Typen von Datenverkehr erkennt und entsprechend festgelegter Regeln bearbeitet. Das spart nicht nur Kosten und Zeit, sondert verbessert auch die Leistung des Netzwerks und reduziert die Kabelmenge.

Heutzutage sind Informationen und Applikationen virtualisiert und können sich überall in der Cloud befinden. Die Netzwerkinfrastruktur muss sich dieser Entwicklung anpassen.

Ethernet ist als Netzwerktechnologie etabliert und verbindet primär Server im Local Area Network (LAN) für den Transport von Applikationsdaten. Das Fibre Channel (FC) Netzwerk hingegen übermittelt typischerweise Speicherdaten im Storage Area Network (SAN). Für eine Konvergenz müssen beide Arten von Datenverkehr über ein einziges Netzwerk transportiert werden. Möglich wird dies durch Fibre Channel over Ethernet (FCoE). Dabei werden FC-Speicherdaten in Ethernet-Frames verpackt, so dass nun sowohl Ethernet- als auch FC-Traffic über dasselbe Netzwerk laufen kann.

Einsparpotenzial durch gemeinsame Infrastruktur

Nutzt der gesamte Datenverkehr eine gemeinsame physische Infrastruktur, ergibt sich daraus ein erhebliches Einsparpotenzial, etwa für Verkabelungen und Hardware, sowie eine bessere Nutzung der Ressourcen. Da das klassische Ethernet jedoch Einschränkungen hinsichtlich einer verlustfreien Übertragung und Performance unterliegt, wurde der Standard »Data Center Bridging« (DCB) – eine Art verbessertes Ethernet-Protokoll – entwickelt. Damit können auch die hohen Anforderungen von Speichernetzwerken erfüllt werden.

Was die Netzwerkkonfiguration anbelangt, so ist es möglich, den Aggregations-Layer komplett abzuschaffen und Edge und Core Netze direkt miteinander zu verbinden. Dadurch vereinfacht und reduziert sich nicht nur die gesamte Topologie. Dank modularer Switche mit hoher Portdichte verbessert sich zudem die Energieeffizienz.

Effizienter mit Ethernet Fabrics

Mit ihren das Netzwerk revolutionierenden Eigenschaften sind Ethernet Fabrics nicht nur für ein leistungsfähigeres, sondern auch für ein einfacheres und energieeffizientes Netzwerk gemacht. Die flachen Netzwerktopologien reduzieren den Hardwarebedarf und somit auch den Energiebedarf erheblich.

Wer den Erfolg seiner Bemühungen gerne von unabhängiger Seite bestätigt haben möchte, kann sich seit ein paar Monaten über die TU Berlin um eines der bekanntesten deutschen Umweltsiegel bewerben: Der »Blaue Engel« steht auch bei Rechenzentren für den Umweltschutz.

Der Autor, Leo Kappeler, ist Director Systems Engineering DACH, beim Netzwerkausstatter Brocade.

Lesen Sie auch :