Neue Storage-Lösungen denken mit
Intelligente Speicherung als realistischer Zukunftsraum

Data & StorageIT-ManagementIT-ProjekteNetzwerk-ManagementNetzwerkeStorage

Eine neue Option für die Datensicherung kann dem willkürlichen Speichern von Daten – ohne diese vorher auf ihren Wert zu prüfen – ein Ende setzen.

Speicherbedarf wächst exponential

Neue Storage-Lösungen denken mit

Das Wachstum bei den Netzwerk-Speichersystemen hält schon eine geraume Zeit an. Wir haben jetzt Festplatten mit Network-Attached-Storage – NAS bezeichnet an das lokale Netzwerk angeschlossene Massenspeichereinheiten zur Erweiterung der Speicherkapazität) und Direct-Attached Storage – (DAS – bezeichnet den direkt ohne Speichernetzwerk an einen Server angeschlossenen Massenspeicher) direkt von der Stange, die in Windeseile 1 Terabite an zusätzlicher Speicherkapazität bieten können.

Es gibt gute Gründe weshalb viele Unternehmen jetzt mehr Daten speichern müssen. Die gesetzlichen Anforderungen an die Unternehmensführung sind hinsichtlich dessen, was gesichert werden muss und wie lange es aufzubewahren ist, sehr speziell. Mittlerweile rackern sich die Netzwerkmanager damit ab, einen Ort für die Speicherung all der Multimediadateien und Anhänge zusätzlich zu den entscheidungsrelevanten Daten zu finden.


Neue Techniken als Ausweg

Neue Storage-Lösungen denken mit

Wenn man davon ausgeht, dass das zu sichernde Datenvolumen eher immer weiter zunehmen als abnehmen wird, liegt es auf der Hand, dass die Speicherkapazität erhöht werden muss und zwar fast jährlich. Aber ist die ständige Erweiterung der Hardware – auch wenn der Preis pro Terabite schrittweise fällt – sowohl wünschenswert als auch finanziell machbar? Gibt es vielleicht noch eine andere Möglichkeit?

Ein Schritt nach vorn könnten intelligente Backup-Systeme sein, die die Dateien darauf durchsieben, was denn nun gesichert werden soll und dabei feststellen, ob diese Daten a) es wirklich wert sind, aufbewahrt zu werden oder b) irgendwo im Netzwerk repliziert sind, bevor sie gespeichert werden sollen. Es braucht seine Zeit, aber die wichtigsten Anbieter sind zumindest dabei, diese Erfordernis zu erkennen und bemühen sich um Möglichkeiten, das “Single Instancing” (eine Technologie, bei der jede Datei nur einmal an einem zentralen Ort gespeichert wird) in ihre Produkte zu integrieren. Dies gilt auch für komplizierte Technologien wie die “Byte-Level De-Duplication”. Mittels der De-Duplication werden die Daten zuerst analysiert bevor sie für die Speicherung kopiert werden und mit einem einzigen zentralen Backup abgeglichen, das anderswo gespeichert ist. Wenn die Datei oder Einzelteile davon bereits repliziert sind, speichert das System nur einen Verweis auf den einzigen Lagerort der Daten – aber nicht die Daten selbst. Das ist eine runde Sache und verringert die Kapazitätsbedarf durchschnittlich um das 20-bis 25-fache, meinen Anbieter, obwohl es dabei signifikante Schwankungen gibt – je nach Datentyp, der gesichert werden soll.

Die Administratoren werden bald in dem Genuss schwelgen können, akkurate automatisierte Backups zu haben, die nach vorgegebenen Regeln selbständig die Dateien selektieren, die gesichert werden sollen. Aber das klingt noch zu schön um wahr zu sein.

Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen