Das Ende von Excel

Big DataData & StorageOffice-AnwendungenSoftware

Trotz aller angepriesenen Vorteile im Hinblick auf Qualität, Funktionalität und Stabilität schaffen es die meisten technischen Innovationen nie, ein Massenprodukt zu werden. Der Grund hierfür ist der Widerstand der Benutzer gegen Veränderungen. Eine neuere Studie bei Fortune 500-Unternehmen hat gezeigt, dass fast zwei Drittel aller größeren Veränderungen in Unternehmen an diesem Widerstand scheitern (siehe “Beyond the wall of resistance” von Rick Mauer). Trotz des Wandels in der Industrie, in der Daten für die meisten Organisationen zu einem wertvollen Aktivposten geworden sind, erfolgt die Datenanalyse und die Gewinnung betriebswirtschaftlich wichtiger Einblicke auf dem Desktop immer noch mit Microsoft Excel. Excel ist das Arbeitspferd der Datenanalyse, und viele Unternehmen bleiben ihm treu, trotz aller Kompromisse bei Geschwindigkeit, Bedienkomfort oder Skalierbarkeit, die es einem aufnötigt.

Auch heute noch rangiert Excel über den Business Intelligence-Tools der Enterprise-Klasse. Nach Angaben von Gartner sind 70 bis 80 Prozent aller Business Intelligence-Projekte zum Scheitern verurteilt. Excel hätte allein von seinen Features und seiner Funktionalität her längst abgelöst werden müssen, besonders vor dem Hintergrund der heute in den Unternehmen vorhandenen Datenmengen. Wir kennen das alle, das Gewirr von Pivot-Tabellen, Tortendiagrammen und die gefürchtete “Eieruhr”, während wir darauf warten, dass Formeln berechnet und Daten verarbeitet werden. Warum haben wir alle so viel Geduld mit Excel als tagtäglich eingesetztes Instrument zur Verwaltung und Analyse von Datenbeständen?

Die Grenzen von Excel

Excel wurde nicht für die heutigen Arbeitsweisen ausgelegt; es kann keine blitzschnellen Analysen durchführen, es kann nicht einmal die Daten bedarfsgerecht zusammenstellen, und doch sieht man Anwender im Vertrieb, in Wissenschaft und Technik, im Marketing und in den Vorständen weiterhin über ihre CEOs gebeugt beim Versuch, ihre Daten in ein Programm zu zwängen, das ursprünglich 1982 entwickelt wurde. In den zahlreichen Excel-Foren im Internet sind Aussagen wie diese nicht selten:

“Arbeite gerade an einer 552 MB großen Datei… und die enthält nur die Daten der ersten 3 Monate des Geschäftsjahres”

Als Datenbankanwendung fällt Excel bei Tests der Datenqualität und -genauigkeit aus einem einfachen Grunde durch: Es ist anfällig für Eingabefehler. Es zählt außerdem nicht zu den besten “Collaboration-Tools” – die Bearbeitung durch mehrere Benutzer ist problematisch. Da es vor allem eine Office-Lösung ist, ist seine Fähigkeit zur Interaktion mit Web-basierten Lösungen begrenzt. Reporting-Fähigkeiten sowie Sicherheit und Performance lassen ebenfalls zu wünschen übrig.

Excel basiert auf Office-Dateien, die sich bekanntlich duplizieren, kopieren, zusammenfügen und multiplizieren lassen, so dass letztendlich mehrere Versionen der Wahrheit vorliegen können. Da Excel jedoch mit Daten arbeitet, sollte es immer nur eine einzige Instanz und Datenausgabe geben.

Mit Big Data ist “gut genug” nicht mehr ausreichend

Sicherlich denken viele Unternehmen, dass Excel eigentlich doch seinen Zweck gut genug erfüllt. Tatsächlich ist “gut genug” der Grund dafür, dass Excel so lange überleben konnte. Jedoch ist eine nur zufriedenstellende Lösung nicht geeignet, einem Unternehmen einen Wettbewerbsvorteil zu verschaffen. Daten sind Macht. Sie werden heute im enormen Umfang gesammelt und ausgewertet. Und schon morgen werden diese Daten nicht mehr nur gespeichert, sondern in Echtzeit untersucht, um einen sofortigen Nutzen daraus zu schöpfen. Nach erfolgter Auswertung der Daten werden diese passend entsorgt, um Speicherplatz zu sparen. Es gibt bereits Lösungen, die den Ansprüchen der heutigen Business-Anwender Rechnung tragen und den Prozess der Datenvorbereitung und -behandlung vereinfachen. Diese Lösungen beschleunigen den Entwicklungszyklus bis zum fertigen Produkt und erlauben es den Verantwortlichen, Datenabfragen schneller durchzuführen und im Handumdrehen aussagefähige Business-Informationen zu gewinnen.

Aufgrund der erzielten Fortschritte im Bereich der Machine-to-Machine (M2M)-Technologie wird eine automatisierte, aus Echtzeit-Datenbanken heraus angestoßene Entscheidungsfindung bald Realität sein. Der Mensch wird dann die Rolle der Kontrollinstanz übernehmen, um den automatisierten Entscheidungsfindungsprozesss (über eine mobile App oder Weboberfläche) zu moderieren.

Die Technologie entwickelt sich rasend schnell weiter, und wir werden bald fortschrittliche Mechanismen zur Hand haben, um die Prozesse zu vereinfachen. Es ist an der Zeit, das Monopol von Excel zu brechen und sich neuen, schnellen Datenbanken zuzuwenden, die in der Lage sind, die heute im Wert mit kostbarem Rohöl vergleichbaren Informationen freizusetzen.

Aus der Perspektive eines Entscheidungsträgers kann dies natürlich mit einem gewissen Risiko verbunden sein, denn das Management muss zunächst den Widerstand der Benutzer gegen Neuerungen überwinden. Und Unternehmen, für die Excel wirklich “gut genug” ist, haben natürlich auch keinen wirklichen Grund, etwas daran zu ändern. Ein Änderungsbedarf ist allerdings bei denjenigen Unternehmen gegeben, deren Wertschöpfung von der Analyse ihrer Daten abhängt. Für diese ist es an der Zeit, das volle Analysepotenzial für große Datenbestände zu erschließen. Und es ist an der Zeit, dass solche Analysen auf der vorhandenen marktüblichen PC-Hardware verfügbar sind, d. h. auf normalen Laptops oder mobilen Geräten.

Diese Möglichkeiten sind bereits jetzt verfügbar und warten darauf, dass sich die Unternehmen der Grenzen von Excel bewusst werden und die Alternativen zum bekannten Spreadsheet erkunden.

Lesen Sie auch :