Warum auch die Speicherung virtualisiert werden muss

CloudData & StorageStorageVirtualisierung

Mit VMWare, Hyper-V und Xen wurden bereits Rechner und Prozessor-Power von der reinen Hardware-Welt abgetrennt – so liefern die Software-Produkte virtuelle Desktops und Server-Arbeitsplätze an verschiedenste Gerätschaften. “Was die mit der Rechenpower machen, verfolgen wir mit den Speichern”, erklärt Datacore-Gründer George S. Teixera anlässlich der Vorstellung der neuesten Version seines Storage-Hypervisors.

Storage-Virtualisierung nimmt Nutzern technische Einzelheiten ab

Speichervirtualisierung hat zum Ziel, dem Nutzer und dem Administrator die Arbeit mit vielen einzelnen Speichern abzunehmen. “Ob Sie jetzt Storage-Cluster von Dell, Hitachi, HP, EMC, NetApp oder sonst jemandem haben oder in der Cloud beziehungsweise auf USB-Sticks speichern, sollte eigentlich keine Rolle mehr spielen – wichtig ist, dass Sie Ihren Speicher verwalten und optimieren können”, summiert der CEO.

Die verschiedenen Storage-Lösungen seien sogar innerhalb des Angebots einzelner Hersteller nicht immer kompatibel – bei HP seien etwa die EVA-Speichersysteme, die zugekauften 3PAR-Lösungen und die in Servern verkauften Storage-Arrays untereinander nicht verträglich, bei Dell gäbe es noch Probleme mit der Harmonie von Equallogic, Exanet und anderen Storage-Zukäufen. Doch letztendlich sei das dem Kunden vollkommen egal – er wolle nur mehr, schnelleren und funktionierenden Speicher auf Tastendruck, wolle auf größere Speichersysteme wechseln, ohne sich mit den Hardware-Details und einem Migrationsplan herumärgern zu müssen, und er wolle die Sicherheit seiner Daten gewährleistet haben, ohne ich mit gesonderter Backup-Software beschäftigen zu müssen.

All dies führt Teixera als Grund dafür an, wieso sein Unternehmen DataCore sich bereits seit 15 Jahren mit Speicheroptimierung und -virtualisierung beschäftigt – doch bis zum Hype um die Desktop-Virtualisierung und den Werbeslogan von “Big Data” hätte sich fast niemand damit beschäftigt, dass im Grunde auch die Speicher per Software abstrahiert werden müssen.

Und “Big Data – was ist das überhaupt?”, lästert Teixera über Marketing-Hülsen. IBM nehme den Begriff vor allem für die Analyse großer Datenmengen her, Storage-Anbieter wie EMC und NetApp für die Speicherung großer Datenmengen und Datenbankprofis wie Oracle für das Abrufen und Bearbeiten riesiger Datensatz-Mengen. Aber Big Data könne auch den Umgang mit den unzähligen unstrukturierten Web-Infos meinen – und so weiter und so fort. “Aber wo liegen die vielen Infos? – Auf Speichern, mit denen man umgehen muss!”.

“Bring your own disk”- BYOD aus Speichersicht

Speicher müssen optimiert und verwaltet werden. Und genau da setzt die Storage-Virtualization an: Ein eigener Hypervisor trennt die technischen Storage-Komponenten wie Medien, Bandbreiten und deren optimale Nutzung von der eigentlichen Hardware ab. DataCore verkündet, dass auch aktuelle Speichertrends (etwa die Diversifizierung auf SSDs, Flash-Speicher, Big SATA oder Private Cloud Sevices) und die Consumerisierung der IT (vor allem BYOD – scherzhaft “bring your own disk” genannt) den Wert von geräteunabhängiger Speichervirtualisierung verstärken.

Ob nun Speicher vom einen oder anderen Speichermedium, von der Cloud oder anders woher kommt, ist damit völlig egal: Bei Nutzung der Storage-Virtualisierung steht für den Kunden immer nur ein Laufwerk im Vordergrund. Dass im Hintergrund viele Platten und andere Medien stehen, dass die Daten automatisch ein zweites Mal gespeichert werden und dass Cache-Speicher die Sicherung beschleunigt (neuerdings mit bis zu einem Terabyte Zwischenspeicher), übernimmt der Storage-Hypervisor automatisch. Auch die Aufteilung der genutzten Speicher in “Storage Tiers” ist automatisiert: Wichtigere, häufig genutzte Daten werden dann von selbst auf dem schnellsten Speicher gesichert, weniger geschäftskritische auf andere Speichermedien.

Das Produkt “SANsymphony-V R9” soll all die offenen Fragen rund um die Speichervirtualisierung beantworten, erklärt der Firmenchef, dessen Arbeit einst aus dem Versuch der NASA in Florida entstand, Kommunikation von Bodenstationen mit Satelliten und Abwehrsystemen zu optimieren – die Mitgründer von Datacore entstammten allesamt aus diesem Umfeld, schwärmt Teixera von den Gründertagen. Die Storage-Anbieter wie FalconStor und NetApp, aber auch Service-Profis wie IBM hätten die Ideen der Datacore-Mannschaft “gestohlen” und in ihren eigenen Produkten umgesetzt –  würden aber die vollständige Speicher-Virtualisierung nie liefern können. Mitbewerber Citrix ginge das Thema nur von der Desktop-Seite an, Quest von der Backup- und Replizierungswarte, NetApp nur von der Verwaltung großer (und eigener) Storage-Angebote.

Der Speicher-Hypervisor übernimmt Disk-Pooling (also die Zusammenfassung mehrerer Speichermedien in eines), Highspeed-Caching, asynchrone Fernreplizierung, Spiegelung, ständige Datensicherung und Wiederherstellung, Load Balancing, Überwachung, Snapshots des gegenwärtigen Speicherstatus und die Migration zu anderen Speichermedien. Der Virtualisierungs-Layer über die gesamte Speicher-Infrastruktur zentralisiert das Management, zeigt an, welche Speichermedien am stärksten belastet sind und stellt über die Administrations-Tools Wege zur Verfügung, einfach nur zusätzlichen Speicherplatz für bestimmte Anwendungen zu reservieren.

Ob SAN, DAS, NAS oder andere Speicherformen sowie verschiedene Infrastrukturen und Protokolle wie FibreChannel, iSCSI oder Arrays von SAS-Platten – das sei nun vollkommen egal. Der Hersteller nennt das Ergebnis “Storage Infrastructure as a Service” und will seine Software künftig auch Dienstleistern, die Cloud-Speicherservices und Storage-Lösungen verkaufen, “vermieten” (ähnlich dem Service-Modell von Red Hat Enterprise Linux). Das neue SANsymphony ist, wie man es in Deutschland nennt, “mandantenfähig”, kann also seine Dienste und deren Nutzung “aufteilen”. So will man vor allem auch Anbieter von Cloud-Speicher oder Storage-Management-Appliances als Kunden gewinnen. Und “Kunden in Euopa gehen am liebsten zum lokalen Dienstleister”, weiß der in Portugal geborene US-Amerikaner.

Und auch, wenn sich der Produktname SANsymphony nach goßen Speichernetzen in riesigen Unternehmen anhört: Die Mehrzahl von DataCores Kunden besteht aus mittelgroßen Unternehmen; den größten Anteil machen die Europäer und darunter die Deutschen aus. Die Speichervirtualisierung laufe auch hervorragend mit Desktop-Virtualisierung zusammen – und bei diesen sieht Teixera künftig die größten Marktzuwächse für Microsofts Hyper-V. Natürlich binde man seine Storage-Software auch als Plug-ins in VMWare- und Citrix-Umgebungen ein – jeder Nutzer oder Administrator könne beim Speichermanagement in “seiner” Umgebung bleiben.

Lesen Sie auch :
Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen