Storage-Technologie: IBM meldet Performance-Rekord

Big DataData & StorageStorage

IBM setzt seine Software auf Basis des General Parallel File System (GPFS) in Clustern zu je zehn Systemen voller 8-Core-Prozessoren ein. Diese können jeweils auf 6,8 TByte Solid State Drives (SSD) zugreifen. Auf dieser Hardware-Basis sei die Storage-Plattform mit ihrer aktuellen Datenverwaltungssoftware in der Lage, besagte 10 Milliarden Dateien in einer Dreiviertelstunde zu verarbeiten. Ein gleichgearteter Test war in 2007 durchgeführt worden. Der damalige Rekordwert lag bei einer Milliarde Files in drei Stunden.

Der wesentliche Schritt zu dieser Performance-Steigerung läge im GPFS-Einsatz, betont IBM. Das Dateisystem unterstütze voll den Einsatz von Multi-Core-Prozessoren und honoriere die schnelle SSD-Hardware. Das mache Datentransfers und Input/Output-Operationen derart effizient.
»Die heutige Demonatration der Skalierbarkeit von GPFS sollte den Weg öffnen zu neuen Produkten, die schon bald in der Multi-Zetabyte-Welt spielen«, freut sich Doug Balog, im Konzern für die Storage-Plattform zuständig.

Seiner Ansicht nach habe man damit das Potential geschaffen, alle Datenbestände und Umgebungen eines Unternehmens auf einer singulären Unified-Plattform zu vereinen. Dadurch könne den IT-Administratoren eine Menge Aufwand beim Daten-Management erspart werden. Aufgaben wie Datenplatzierung, alternde Bestände, Backup-Kontrolle und Datei-Migration würden vereinfacht, verspricht Balog. Als erste »Big Data«-Lösung habe IBM seinen berühmten Watson-Cluster im Angebot. Weitere werden folgen.

Lesen Sie auch :