»Unternehmen wollen die Vorteile der Virtualisierung auch im Speicher-Bereich nutzen«

CloudData & StorageStorageVirtualisierung

ITespresso.de: Was bewegt Unternehmen, auf virtuelle Speicherinfrastrukturen zu setzen?

Guido Klenner: Sie wollen die Vorteile, die sie aus virtuellen Server-Umgebungen kennen, auch im Speicherbereich nutzen. Das sind: effiziente Ressourcen-Nutzung, Skalierbarkeit, Flexibilität und effizientes Management.

Und warum ist zunächst die Server-Virtualisierung durchgestartet und die Speichervirtualisierung erst mit Verzögerung?

Das Thema hatte sich irgendwie nie so richtig durchgesetzt, auch wenn sich HP schon seit Jahren mit Speichervirtualisierung beschäftigt. Der Grund war ganz einfach, dass viele IT-Leute immer genau wissen wollten, wo die Daten ihrer Applikationen liegen. Man hatte das Gefühl, dass man zum Optimieren der Performance genau wissen muss, auf welcher Spindel welches Datum liegt. Das ist ein ganz natürliches Verhalten…

Was hat sich geändert?

Die Server-Virtualisierung hat völlig neue Aspekte in die IT gebracht. Statt für eine Applikation eine dedizierte Hardware zu haben, die nur zu 20 oder 30 Prozent ausgelastet ist, kann ich mehrere virtuelle Server auf einer leistungsstarken Maschine betreiben und erreiche eine Auslastung von 80 Prozent. Und ich kann diese virtuellen Server schnell implementieren, ohne wie früher in den Beschaffungsprozess, den Einkauf, zu müssen, wo es je nach Firma auch mal ein halbes Jahr dauert, bis man neue Server bekommt. Dadurch, dass man neue virtuelle Server innerhalb von Stunden bereitstellen kann, ist man sehr flexibel geworden und kann sehr leicht reagieren, wenn die Geschäftsanforderungen das verlangen.

Die physikalischen Server hatten einen Direct Attached Storage – da braucht man sich um den Speicher keine großen Gedanken zu machen. Nur ist man mit diesem Direct Attached Storage in einer virtuellen Server-Umgebung nicht flexibel genug, denn man muss weiterhin neue Hardware anschaffen, um eine Plattenerweiterung vorzunehmen. Daher hat man auch die Speicherumgebung virtualisiert – der vermeintliche Nachteil, nicht mehr zu wissen, welches Datum auf welcher Festplatte liegt, wurde über Bord geworfen. Man hat einfach gesagt: ich will die Vorteile der Virtualisierung nutzen.

HP proklamiert in diesem Zusammenhang die »Converged Infrastructur«. Was ist darunter zu verstehen?

Wir sehen eine Konvergenz der unterschiedlichen IT-Bereiche: Server, Netzwerk und Speicher. Ein Administrator von virtuellen Maschinen beispielsweise, der will nicht nur den Server installieren, sondern auch die entsprechenden Speicherkapazitäten aus dem Speicherpool holen und dafür nicht erst beim Admin des Speichers nachfragen müssen.

Die Grenzen, die man früher hatte, verschwinden immer mehr. In einer Converged Infrastructure haben wir Pools definiert – im Server-Bereich etwa von Rechenleistung, im Netzwerkumfeld von Bandbreiten und Durchsatz und im Speicherbereich von Speicherkapazitäten. Und es kommt eben darauf an, aus diesen Pools unterschiedliche Kapazitäten zur Verfügung zu stellen, je nachdem welchen Service-Level der Endanwender braucht. Es geht nicht mehr um einzelne Geräte, sondern darum, aus den individuellen Anforderungen der Abteilungen für mein Unternehmen Service-Level zu definieren und diese zu bedienen.

Wie ändern sich dadurch die Organisation und die Aufgaben der IT?

Grundsätzlich wird es weiter verschiedene Teams geben, etwa eines dass sich darum kümmert, dass die Netzwerkinfrastruktur funktioniert. Aber es verändern sich die Aufgaben der Administratoren. Die bestehen nicht mehr primär darin, einzelne Devices – ein Disk-Array-System, einen Switch oder einen Server – zu managen, zu warten und zu pflegen, sondern in der Definition von Services-Leveln und wie man diese Service-Level mit der vorhandenen Infrastruktur abbildet, so dass die richtigen Ressourcen zugeordnet sind.

Hört sich komplex an…

Ist es auch, denn die Anforderungen sind bei jedem Kunden andere. Nehmen Sie ein mittelständisches Unternehmen mit Strukturvertrieb – da brauchen Sie zum Beispiel mobile Geräte und Zugriffe auf die zentrale IT. Da werden ganz andere Sicherheitsmechanismen benötigt als in einem Bürogebäude, wo alle Anwender in einem internen Netz arbeiten. Und wenn Sie dann noch eine Forschungs- und Entwicklungsabteilung haben, die nach höchster Sicherheit verlangt, aber auch mit Kollegen in Asien zusammenarbeiten muss, dann müssen auch deren Anforderungen definiert und umgesetzt werden.


Letztlich hat jedes Unternehmen vollkommen unterschiedliche Anforderungen und deshalb wird man auch weiterhin nicht auf eine IT-Abteilung verzichten können. Nur deren Arbeitsweise und Anforderungen werden auf eine ganz andere Ebene gehoben und unterstützen mehr die Geschäftsprozesse.

Das heißt, die IT-Abteilung wird zu einer Art Dienstleister für andere Abteilungen?

Genau das bringen Virtualisierung und Cloud Computing oder IT-as-a-Service mit sich. Der Gedanke ist ähnlich wie beim Strom: Licht an kostet Geld, Licht aus spart Geld. Und das ist auch die Anforderung von Kunden und Fachabteilungen. Die wollen nicht für eine Infrastruktur zahlen, die sie gar nicht nutzen – es muss punktgenau abgerechnet werden.

Diese Dienstleistung kann von der IT-Abteilung bezogen, aber auch extern zugekauft werden bei einem Cloud-Anbieter. Eine solche Public Cloud birgt natürlich gewisse Risiken, denn man weiß ja nicht, was die Infrastruktur des Anbieters taugt. Stichwort: Amazon. Wenn ich dort meine geschäftskritischen Applikationen habe und es gibt einen Ausfall wie vor einigen Wochen, dann kann das schon ziemlich kritisch werden.

Man muss sich daher sehr genau überlegen, welche Clouds man nimmt. Wir bei HP vertreten das Konzept der Hybrid Cloud, also einer gemischten Landschaft aus traditioneller IT, Private Cloud und Public Cloud.

Und welche Variante taugt für welchen Anforderungsfall?

Man muss genau hinschauen. Ich habe zum Beispiel einen Kundenfall, da wollte ein Unternehmen das Backup auslagern. Die IT musste eruieren, welche Ersparnisse das bringt, und dabei stellte sich raus, dass es in der Firma zwei Arten von Daten gibt: die, die sich problemlos auslagern lassen, weil sie nicht geschäftskritisch sind, und die Daten der Forschungsabteilung, die ihr Intellectual Property auf jeden Fall intern gesichert haben will.

Da gibt es keine Kostenersparnis, weil die interne Backup-Architektur weiterhin betrieben werden muss. Vielleicht nicht mehr mit der gleichen Kapazität wie zuvor, aber die Tape-Libraries und das Personal werden gebraucht.

Welche Rolle spielen Solid State Drives mittlerweile in virtualisierten Speicherumgebungen?

Wenn ich eine große Datenbank habe, dann kann beispielsweise eine Analyse zur Erschließung neuer Geschäftspotenziale sehr lange dauern. Da helfen SSDs, die Prozesse schneller abzuarbeiten und schnell Ergebnisse zu liefern – dass heißt nicht innerhalb von Tagen, sondern Stunden oder Minuten.

Das Problem ist aber, dass SSDs sehr teuer sind. Wenn ich die SSDs nur für diese eine Anwendung einsetze, die ich vielleicht nur einmal im Monat fahre, dann stehen sie den Großteil der Zeit nur unnütz herum. Was ich brauche, ist eine Intelligenz, die solche Anforderungen erkennt und die Daten dynamisch verschiebt.

In unseren 3PAR-Systemen gibt es dafür die so genannte automatische Optimierung. Diese registriert, wann wie häufig auf einen Datenblock zugegriffen wird und verschiebt diesen auf eine SSD, wenn es viele Zugriffe gibt. Andere Daten, auf die nicht mehr zugegriffen wird, werden auf Speicher der Klasse 2 geschoben, etwa SATA-Festplatten.

Denn üblicherweise ist es bei einer Datenbank so, dass ich von beispielsweise 100 GByte Daten nur 10 oder 20 GByte tatsächlich aktuell benutze. Bei den bisherigen Technologien wurde die ganze 100-GByte-Datenbank auf eine SSD gepackt, womit man aber 80 Prozent Kapazität verschenkt hat beziehungsweise mit kaufen musste, auch wenn sie nicht gebraucht hat.

Für diese Bereitstellung von Speicherkapazität nach Bedarf brauche ich aber Automatismen, darum kann sich kein Administrator kümmern. Der weiß typischerweise ja gar nicht, welche Applikation in einer virtuellen Umgebung welche Anforderungen hat, und er kann auch nicht permanent am Monitor sitzen und Performance-Tools kontrollieren. Wenn er eine Performance-Spitze entdeckt und anfängt, Ressourcen umzuverteilen, dann ist die Spitze vielleicht schon wieder vorbei. Die Speichersysteme selbst müssen intelligent genug sein, der Administrator hinterlegt nur die Regeln dafür.

Die Übernahme von 3PAR hat sich also für HP gelohnt, weil sie eine innovative Technologie erhalten haben?

Auf alle Fälle. Die 3PAR-Technologie unterstützt die automatische Optimierung sehr stark und erlaubt es, dynamisch auf Lastwechsel zu reagieren. Das funktioniert wie beim Herz, das schnell zu schlagen beginnt, wenn sie vom Sofa aufstehen und eine Treppe hinauf laufen, weil es das Blut schneller durch den Körper pumpt. So verhält es sich auch bei einem Array-System, wo die 3PAR-Technologie die zusätzlichen Anforderungen erkennt und sich zusätzliche Ressourcen holt. Typische Array-Systeme, wie sie auch von unseren Mitbewerbern angeboten werden, können das nicht liefern.


Und wenn eine Anwendung plötzlich weniger Speicher benötigt, wird dieser auch wieder freigegeben?

Das macht unsere ausgefeilte Thin-Provisioning-Technologie, die wir komplett in Hardware gegossen haben und mit der wir effizienter sind als reine Software-Lösungen. Dieser ASIC (Application Specific Integrated Circuit) ist in der Lage zu erkennen, wenn nur Nullen in einen Festplattenbereich geschrieben werden.

Das ist zum Beispiel bei einer Datenbank der Fall, die auf 100 GByte angelegt ist, die vielleicht in drei Jahren benötigt werden, von denen man erst einmal aber nur 10 GByte braucht. Diese Datenbank allokiert die ganzen 100 GByte Speicher zur Sicherheit, um nicht irgendwann ins Nirvana zu schreiben. Dadurch werden Speicherkapazitäten unnötig gebunden.

Unser ASIC erkennt, dass die Datenbank nur Nullen schreibt und allokiert den Speicher nicht. Erst wenn tatsächlich echte Daten kommen, gibt er den Speicher frei.

Genauso ist es z.B. bei einer Testumgebung im SAP-Bereich, die erst 500 GByte braucht, nach Abschluss der Tests aber nur noch ein paar rudimentäre Daten mit 50 GByte hält. 450 GByte werden gelöscht und mit Nullen beschrieben und der ASIC gibt diese Speicherbereiche automatisch wieder frei, so dass sie von anderen Applikationen verwendet werden können. Aber das kann nur dieser ASIC, da gibt es keine andere Lösung am Markt, die das so anbietet.

Was spricht technologisch gesehen noch für Speichersysteme von HP aus Ihrer Sicht?

Die Mandantenfähigkeit. Das ist vergleichbar mit einem VPN. Ich habe eine Hardware, ein Array-System, das von allen Usern genutzt werden kann. Aber ich kann innerhalb dieses Array-Systems so genannte Virtual Private Arrays aufbauen, abgeschottete Bereiche, die einen eigenen System-Administrator haben, eigene Zugangsberechtigungen und eigene Definitionen für das Lastverhalten.

Bis zu 1024 virtuelle Arrays können auf einem physikalischen Array eingerichtet werden und damit etwa in einer Firmenumgebung für eine strikte Trennung der Forschungsabteilung vom Sales-Bereich sorgen. In der Vergangenheit hatte da jeder ein eigenes Array stehen, weil jeder eine eigene Infrastruktur wollte. Das war wenig effizient, bedeutete hohen Management-Aufwand und hohe Kosten. Mit unseren 3PAR-Systemen können wir das komplett eliminieren und eine effiziente Lösung anbieten.

Herr Klenner, vielen Dank für das Gespräch.

Lesen Sie auch :