Die fünf wichtigsten Punkte zum Virtualisierungs-Erfolg
Virtualisierung in der Praxis

CloudData & StorageIT-ManagementIT-ProjekteNetzwerk-ManagementNetzwerkeServerStorageVirtualisierung

Virtualisierung ist nicht einfach nur die Installation von passender Software. Wer das Potenzial voll ausschöpfen will, muss ganzheitlich denken. Vor allem Storage entscheidet über Hopp oder Topp.

Virtualisierung als Kostensparer

Das angespannte Wirtschaftsklima lässt Unternehmen rigoros IT-Projekte auf Eis legen, die nicht binnen eines Jahres rentabel sind. An sich gute Aussichten für Virtualisierungs-Vorhaben. Pluspunkte wie ein effizienterer Datacenter-Betrieb, sinkende Risiken, niedrigere Betriebskosten, erhöhte Flexibilität und eine schnelle Rentabilität der Investitionen überzeugen auch den letzten Kostensparer und machen Virtualisierungs-Projekte zu einem Muss. Wer das Potenzial aber voll ausschöpfen will, muss wirklich ganzheitlich denken.

Datencenter müssen heute effizienter, agiler und dynamischer werden. Die Gründe dafür liegen auf der Hand: Ein Großteil der eingesetzten Ressourcen ist unproduktiv oder schlicht Geldverschwendung. Pauschal gesagt sind 90% der Server-Ressourcen, 70% der Speicher-Ressourcen und 50% der Netzwerkressourcen unnütz. Als schneller Weg zum Effizienz-Erfolg gilt die Server-Virtualisierung.

Dennoch sind CIOs heute mit ungewollten Komplexitäten und Problemen an anderer Stelle konfrontiert. Damit Virtualisierung einen maximalen geschäftlichen Mehrwert und Kostenspareffekt hat, ist eben die ganzheitliche Perspektive ratsam.


1. Bewertung der virtuellen Umgebung

Prinzipiell gilt: Was nicht quantifizierbar ist, ist auch nicht optimierbar. Um die aktuelle Situation im Rechenzentrum abschätzen und bewerten zu können, empfiehlt es sich vor und nach der Einführung eines Virtualisierungsprojektes quantifizierbare Eckdaten zu erfassen. Aus diesem Vorher-Nachher-Vergleich lassen sich die Kosten und die operative Effektivität ableiten. Abhängig von den Zielsetzungen und den Anforderungen eines Unternehmens gibt es verschiedene Kriterien, die in eine solche Auswertung einfließen können. Hier sind einige Kriterien als Beispiele:

– Performance von Applikationen
– Wiederherstellungzeiten bei performancerelevanten Problemfällen
– Erfolgsrate bei der Lösung von Performanceproblemen
– Verfügbarkeit und Kosten ungeplanter Downtimes
– Zeit für die Bereitstellung neuer Applikationen
– Kosten für Strom, Stellplatz und Kühlung

Entscheidend für die Bewertung ist zudem, dass die gesamte Umgebung – Storage, Netzwerk, physische Server und virtuelle Serverumgebung – berücksichtigt wird.


2. Unified Storage verbessert die Flexibilität im Datacenter

Der Ansatz verschiedener Datenspeicher für Primärdaten und Sekundärdaten und wiederum andere für Archiv, Backup, Disaster Recovery sind Szenarien, die nicht in die virtuelle Welt passen. Der Einsatz von unterschiedlichen Storage-Systemen bedeutet dedizierte Fachkenntnisse, was wiederum einen der wesentlichen Vorteile von Virtualisierung – die Reduzierung des Verwaltungsaufwands – aushebelt.

CIOs sollten sich also nach einer glücklicheren Verbindung von virtuellen Servern und Storage umsehen, mit einem Wort oder besser einem Begriff: »Unified Storage«. Eine Unified Storage-Architektur ist eine einheitliche Plattform mit einheitlichen Tools. Einmal entsprechend geschult, können Administratoren jeder Applikation Speicherressourcen zuteilen. Unified Storage kann auch verschiedene Protokolle bedienen und ist damit flexibel genug, um beispielsweise im Hauptrechenzentrum für Fibre Channel eingesetzt zu werden und am Disaster Recovery-Standort für iSCSI. So entsteht eine extrem vereinfachte Datenspeicher-Umgebung, deren schnelle Rentabilität und verringerte Risiken sich auch auf der geschäftlichen Ebene auszahlen.


3. Datensicherheit – die Risiken von Plattenausfällen minimieren

Virtualisierung bedeutet, dass wenige Systeme mehr Aufgaben erfüllen. Die Konsolidierung auf weniger Maschinen ohne ein entsprechendes Niveau an Datensicherheit führt naturgemäß zu einem gesteigerten Risiko für Unternehmen. Die Storage-Infrastruktur, die eine virtuelle Umgebung unterstützt, muss daher hoch robust sein. Verloren gegangene Daten oder Systeme sollten mithilfe von Snapshot-Technologien möglichst schnell und auf einem möglichst aktuellen Stand wiederherstellbar sein. Nur so wird das Risiko vor Datenverlust, Downtime oder Unterbrechungen in Geschäftsabläufen minimiert, die zu Haftungsfragen, Umsatzeinbußen und Produktivitätsverlust führen können.

CIOs sollten sich daher stets für eine Datensicherheitslösung entscheiden, die den besonderen Bedürfnissen ihres Unternehmens am besten gerecht wird. Nur so können die Folgen fehlerhafter Daten sowie von System- oder Standortausfällen minimiert und Informationen sicher gespeichert werden. De facto geht es darum, die Risiken gegen die Kosten abzuwägen.


4. Thin Provisioning – Speicherplatz schneller liefern und effizienter nutzen

Die Server-Virtualisierung erlaubt es, dass neue Services ganz einfach verteilt werden können. Um alle Vorteile der Server-Virtualisierung ausschöpfen zu können, sollten Unternehmen in der Lage sein, auch Speicher mit derselben Flexibilität und Geschwindigkeit bereit zu stellen. Denn dann lassen sich Kapazitäten effizienter nutzen, Markteinführungen für neue Applikationen beschleunigen und der ROI verbessern.

Traditionell war Storage-Provisioning umständlich und zeitaufwändig. Speicherplatz wurde applikationsbezogen und regelmäßig im Übermaß verteilt, um das Datenwachstum bereits einzuplanen. Ein weit effizienterer und flexibler Ansatz ist Thin Provisioning. Mit dieser Methode sind Administratoren in der Lage, Speicherplatz schrittweise und nach Bedarf hinzuzufügen. Thin Provisioning trägt nicht nur dazu bei, ungenutzten Speicher zurückzugewinnen, sondern auch dazu, Speicherplatz blitzschnell zuzuweisen. So wird nicht nur die Storage-Effizienz erheblich verbessert. Vielmehr sind Applikationen rascher einsatzbereit oder aktualisiert.


5. Datendeduplizierung – maximale Effizienz

Datendeduplizierung verbessert die Storage-Effizienz noch weiter, besonders in virtuellen Server-Umgebungen. Datacenter können mithilfe der Datendeduplizierung erstaunliche Kapazitäts-Einsparungen von 50 Prozent und mehr beim Primärspeicher und sogar bis zu 95 Prozent in Backup- und Archivumgebungen erzielen.

Dies führt zu einer verbesserten Verteilung der Ressourcen und zu erheblichen Kosteneinsparungen. Deduplizierung funktioniert nach folgendem Prinzip: mehrfach vorhandene Datenkopien werden aufgespürt und entfernt. So werden Redundanzen beseitigt und der Bedarf an Speicherplatz gesenkt.

Datendeduplizierung ist eine der wichtigsten Technologien, wenn es um die Verbesserung von Storage-Effizienz geht und in virtuellen Umgebungen geradezu ein Muss. Die Virtualisierung von Servern tendiert von Natur aus dazu, redundante Daten zu erzeugen wie beispielsweise immer wieder dasselbe Betriebssystem oder dieselbe Anwendungssoftware. Deduplizierung sorgt für Abhilfe und erlaubt es Unternehmen, alle Vorteile der Virtualisierung voll auszuschöpfen und dennoch weniger physischen Storage zu nutzen und zu managen.


Erst die richtige Kombi macht Virtualisierung erfolgreich

Technologien wie Thin Provisioning, Datendeduplizierung und Snapshots sind für sich genommen schon sehr leistungsstark. Kombiniert in einer Unified Storage Umgebung entfalten sie jedoch ihre ganzes Potenzial und verstärken die Vorteile der Server-Virtualisierung. CIOs, die Virtualisierung aus einem breiteren Blickwinkel betrachten und umsetzen, haben mehr davon.

Autor: Thomas Höfer, Marketing Director Germany, NetApp