Energiekosten in Rechenzentren steigen drastisch

Green-ITInnovationNetzwerke

Die Energiekosten bilden jetzt schon den Löwenteil der Kosten in Rechenzentren. Nach einer Studie von Gartner verschärft sich die Situation, weil viele Unternehmen jetzt in neue IT-Hardware investieren.

Die Kosten für Energie sind der am schnellsten wachsenden Posten in Rechenzentren und machen derzeit etwa zwölf Prozent aller Betriebskosten eines Rechenzentrums aus. Das geht aus einer Studie des Marktforschungsunternehmens Gartner hervor.

Nach Ansicht der Marktforscher wird sich das durch die hohe Stromaufnahme von Rechenzentren verursachte Kostenproblem in den nächsten Jahren noch verschärfen. Denn nach der Wirtschaftskrise investieren viele Unternehmen wieder in ihre Hardware. Laut Gartner werden in den nächsten zwei Jahren pro Jahr um fünf Prozent mehr Server verkauft.

Stromverbrauch genau erfassen
Gartner-Analyst Rakesh Kumar meint, dass Unternehmen deshalb ihren Stromverbrauch noch wesentlich genauer und umfassender als bisher analysieren müssten. Die IT-Verantwortlichen sollten den Stromverbrauch im ganzen Rechenzentrum, innerhalb des Gebäudes und bei allen Komponenten messen. Dazu gehören insgesamt sechs Bereiche: Gebäude, elektrische Module, Komponenten innerhalb des Gebäudes, Racks, IT-Hardware und virtuelle Maschinen (VM).

Nur wenige Unternehmen nutzen bisher systematisch den etablierten Wert für die Energie-Effizienz von Rechenzentren, den so genannten PUE-Wert (Power Utilization Efficiency). Er ergibt sich aus dem Gesamtstromverbrauch eines Rechenzentrums geteilt durch die Energieaufnahme der IT-Komponenten.

Laut Gartner wird der PUE-Wert aber spätestens 2015 zum allgemeinen Standard in Rechenzentren werden und 80 Prozent der großen Betreiber werden die Stromaufnahme kontinuierlich bei allen Komponenten im Rechenzentrum messen.