Big-Data – na und?

Big DataData & StorageSoftware

Jedes Jahr scheint in der IT-Branche ein neuer Megatrend die Karten grundlegend neu zu mischen. Einige Trends bewirken eine echte Revolution (beispielsweise das Web), andere steigen hoch wie Schaum, um wenig später still und heimlich in sich zusammenzufallen. Wer redet heute noch von Green-IT oder SOA? Nicht falsch verstehen: Diese Themen sind immer noch aktuell, aber die Etiketten verblassen. Im letzten Jahr redeten alle über »Cloud-Computing«, 2012 scheint das Jahr von »Big-Data« zu werden. Egal welche Fachzeitschrift man aufschlägt, welche Konferenz oder Fachmesse man besucht – das Thema ist schon da: Achtung, Big-Data!

Natürlich müssen sich IT-Manager mit den stets weiter wachsenden Datenvolumina ernsthaft befassen. Aber doch nicht erst heute! Relationale Datenbanken, Data-Warehouses, Analytische BI – all das hat mit »Big-Data« zu tun, auch wenn es bis vor kurzem den Begriff noch nicht gab. Wieso also jetzt der Hype um Big-Data? Ganz einfach: weil sich das Datenwachstum in einem Maße verselbständigt hat, das vor wenigen Jahren noch nicht vorstellbar war – Analysten gehen von einer Verzehnfachung der Datenmengen alle fünf Jahre aus, das ist schon eine ganz neue Qualität.

Big-Data entstehen, ohne dass Mitarbeiter hier direkt beteiligt sind, vor allem bei Transaktionen und Interaktionen, etwa im Social-Media-Umfeld, bei Online-Transaktionen oder durch immer mehr multimediale Inhalte. Aus den anfallenden Daten können Organisationen wichtige Erkenntnisse ziehen, aber dazu müssen sie in Echtzeit verarbeitet und gespeichert werden.

Im Unterschied zu bisherigen Technologien zur Bewältigung großer Datenmengen spielen die Erfassung und Speicherung nicht mehr die entscheidende Rolle, sondern die performante Verarbeitung. Big-Data ist so gesehen ein Thema der IT-Prozesse. Damit am Ende die Ergebnisse stimmen, müssen die Prozessabläufe funktionieren und mit Big-Data umgehen können. Geschäftsprozesse umfassen heute immer mehr Anwendungen, Plattformen und Abteilungen.
Ob sich die dabei verwendeten Anwendungen und Server in physischen, virtualisierten, Cloud-basierten oder wie auch immer gemischten Umgebungen befinden, spielt nur eine untergeordnete Rolle. Wichtig ist, dass alle Komponenten mit einer rasant steigenden Datenmenge zurechtkommen.

Automatisierung auf allen Ebenen
Diese Weiterentwicklung in Richtung einer dynamischen und komponentenbasierten IT bedeutet, dass auch Automatisierungstechnologien zur Unterstützung der Geschäftsprozesse für die neuen IT-Landschaften eingesetzt werden müssen.

In vielen Unternehmen stößt die IT dabei deutlich an ihre Grenzen, weil die Systeme nicht als Ganzes automatisiert sind. »Als Ganzes« bedeutet, dass Automatisierung drei Bereiche umfassen muss: Die Infrastruktur, die Anwendungen und die Prozesse. Das Steuern der IT auf Basis von Skripts oder gar der Versuch, mit manuellen Mitteln Schritt zu halten, ist zu langsam, zu fehlerträchtig, nicht Compliance-konform und kann mit dem Wachstum nicht Schritt halten. Vor allem ist es einfach zu teuer.

In Unternehmen wird erwartet, dass die IT automatisch und rechtzeitig die benötigten Ressourcen zur Verfügung stellt. Um in einer sich ständig verändernden IT-Umgebung effiziente und vor allem automatisch ablaufende Prozesse zu realisieren, benötigt man daher eine zentrale Automatisierungslösung. IT-Automatisierung muss dabei so viel Intelligenz in das IT-Prozessmanagement einfließen lassen, dass jederzeit alle Ressourcen rechtzeitig bereit stehen, seien es Datenbanken, Server oder Rechner in der Cloud.

Automatisierung sorgt dabei natürlich auch dafür dass der Chor der Anwendungen und der Output aus diesen richtig orchestriert wird. Wer auf eine umfassende Automatisierungslösung zur Steuerung der IT setzt, der kommt nicht nur mit Big Data zurecht, dem ist übrigens auch egal, wie der Trend von morgen heißt.

(Stefan Zeitzen, Senior Vice President Sales & Services, UC4 Software)

Lesen Sie auch :