Wie funktioniert modernes Webmonitoring?
Soziales Data Mining

Big DataData & StorageIT-ManagementIT-ProjekteNetzwerk-ManagementNetzwerke

Administratoren sehen in der Regel auf die Funktionsfähigkeit technischer Netze. Doch die IT-Abteilung bekommt zunehmend wirtschaftlich relevante Aufgaben, zum Beispiel das weitaus kompliziertere Monitoring der weltweiten sozialen Netze.

Viele Wege führen nach Rom – von Data Mining und BI

Unternehmer wünschen Entscheidungshilfen, die aus dem Data Mining im Web und Auswertungs-Software im Sinne von Business Intelligence besteht. Die Auswertung ist nicht einfach, die Mittel dazu muss der Admin bereitstellen. Wie so ein Web-Monitoring abläuft, beschreibt Prof. Dr. Peter Gentsch.

Die Notwendigkeit,  für die Öffentlichkeitsarbeit und für Kundenbeziehungen auch das Social Web im Blick zu behalten, haben inzwischen die meisten Unternehmen erkannt. Das Spektrum der Vorgehensweisen dafür unterscheidet sich allerdings enorm: angefangen von der  laienhaften Nutzung öffentlich zugänglicher Tools wie Blogsuchen oder Ranking-Pages über den Einsatz von kommerziellen, vornehmlich redaktionellen Monitoring-Diensten bis hin zur Verwendung von professionellen Webmonitoring-Lösungen sind die Ansätze in der Unternehmenspraxis qualitativ sehr verschieden. Hinter dem Ansatz professioneller Analyse-Tools stecken viele Verfahren und Technologien, die von der Web-Suche über Data Mining bis hin zur Business Intelligence reichen – nur in der richtigen Kombination kommt auch ein sinnvolles Ergebnis.

Software alleine reicht nicht: Am Anfang eines jeden Webmonitoring-Prozesses steht immer die Frage, was der Auftraggeber durch die Analyse der Kommunikation im Web erfahren möchte. Und was ist das für seine Arbeit entscheidungsrelevante Wissen? Die Antworten darauf bestimmen Umfang und Tiefe sowie Methodik und Verfahren des Webmonitoring. Daher findet im Vorfeld des Webmonitoring eine ausführliche Abstimmung zwischen Auftraggeber und Webmonitoring-Dienstleister statt. Erst am Ende dieser Phase steht das Analysedesign fest.

Bild 1: Die 5 Phasen des Web-Monitoring

Sobald das Webmonitoring-System auf die festgelegten Parameter eingestellt wurde, kann mit der zweiten Phase des Webmonitoring – der Datenerhebung – begonnen werden. Hier werden die relevanten Beiträge und Informationen im Netz  automatisch erfasst und in der sich anschließenden Datenaufbereitung bereinigt, klassifiziert und archiviert.  Danach schließt sich die Phase der Datenanalyse an. Zum Schluss müssen die Resultate den Entscheidungsträgern so präsentiert werden, dass sie auf einen Blick verstehen, welche Konsequenzen sie aus dem neu gewonnenen Informationen ziehen müssen. Nur wenn dies in einer verständlichen und geschäftsrelevanten Form geschieht, kann das Webmonitoring sein volles Potential für die Prozessoptimierung entfalten.


Durch Automatisierung die Datenmenge bewältigen

Da Webmonitoring ein noch sehr junges Feld der Onlineforschung ist, gibt es bisher noch keine Standards für Verfahren und Technologien in den jeweiligen Webmonitoring-Phase. So existieren aktuell sehr unterschiedliche Ansätze.

Der essentiellste Unterschied dieser Ansätze besteht in der Form der Datenerhebung. Einige Anbieter lehnen sich hierbei sehr an die manuelle Methodik der Inhaltsanalyse an, die bereits seit Jahren in der klassischen Medienbeobachtung eingesetzt wird. Die Grenze dieses Ansatzes ist die schiere Masse an vorhandenen relevanten Beiträgen und Informationen im Netz. Um repräsentative, zuverlässige Ergebnisse aus den riesigen Datenmengen generieren zu können, setzten professionelle Webmonitoring-Anbieter daher auf die Automatisierung der Datenerhebung und -aufbereitung.

Dieser zweite Ansatz, der aus der Informatik stammt, versucht durch den Einsatz einer für das Web 2.0 entwickelten Spider- und Crawler-Technologie daher die gesamte relevante Kommunikation zu erfassen.

Unterschiedliche Methoden für verschiedene Fragestellungen
Dagegen existieren in der ersten Phase des Webmonitoring-Prozesses keine so grundlegenden Unterschiede. Prinzipiell steht hinter jedem Webmonitoring-Auftrag immer die gleiche Hauptfragestellung: Wer spricht wo, wann, wie viel, was und wie über ein bestimmtes Thema? Je nach Fokus des Auftraggebers ergeben sich allerdings andere Analyseschwerpunkte. So interessieren den PR-Verantwortlichen beispielsweise eher die Meinungsführer und Multiplikatoren, um diese gezielt in einen Dialog einbinden zu können. Im Interesse des Produktmanagements stehen dagegen eher die Wünsche der Kunden, um das Produkt so genau wie möglich darauf hin abstimmen zu können. Werber richten ihren Blick indessen zumeist auf die Motive der Zielgruppe, um größtmöglichen Erfolg mit ihren Kampagnen erzielen zu können.  So liegt es auf der Hand, dass das Erkenntnisziel grundlegend bestimmt, welche Suchverfahren, Analysen und Methoden im Webmonitoring-Prozess eingesetzt werden. Nicht die Technik steht im Vordergrund, sondern die Auswahl der richtigen Methode.


Screening vs. Monitoring

Steht das Analyseziel fest, werden als erstes die Suchtermini definiert, mit deren Hilfe die relevanten Beiträge im Netz gefunden werden sollen. Hier gibt es zwei Optionen: Zum einen den offenen, »eindimensionalen« Ansatz, der nach einem bestimmten Begriff sucht und desto besser funktioniert, je spezieller der Suchterminus ist. Denn es ist offensichtlich, dass der Suchterm »iPod« validere Ergebnisse erzeugen wird als der Suchterm »Golf«. Zum anderen gibt es den gerichteten, »mehrdimensionalen« Ansatz, der den Begriff vorab in einen Kontext einbettet, wie etwa »iPod AND quality«. So können gezielt spezielle Aspekte zu einem Thema, Produkt oder Namen auf effiziente Weise untersucht werden.

Sobald das Suchkonzept festgelegt und das Webmonitoring-System parametrisiert wurde, beginnt die Datenerhebung, die das Rohmaterial für die spätere Auswertung liefert. Hier wird vor allem zwischen zwei Verfahren unterschieden: dem Screening und dem Monitoring. Das Screening durchforstet das gesamte Internet und muss als exploratives Erhebungsverfahren verstanden werden. Beim Monitoring dagegen werden vorher festgelegte Quellen im Netz kontinuierlich auf Beiträge zu dem interessierenden Thema durchsucht.

Vergegenwärtigt man sich die Anzahl der vorhandenen Webseiten weltweit, werden die Vorteile des jeweiligen Ansatzes schnell klar. Durch das Screening werden auch Beiträge von Quellen, die vorher nicht bekannt waren, erfasst: Allerdings dauert hier die Datenerhebung entsprechend länger. Beim Monitoring werden dagegen relevante Beiträge nahezu in Echtzeit entdeckt, jedoch nicht auf Quellen, die man vorher nicht im Blick hatte. »Die Kombination dieser beiden Verfahren bietet den größten Nutzen«, meint zum Beispiel Norman Heinze,  Senior Analyst der Business Intelligence Group (B.I.G.).


Das »Framework« – Herzstück des Webmonitoring

Algorithmen und Methoden für Suche und Auswertung sind beispielsweise in der Software B.I.G des gleichnamigen Unternehmens implementiert. Die Datenerhebung und -aufbereitung dieses Webmonitoring-Anbieters funktioniert über eine aus Modulen zusammengesetzte Architektur, dem sogenannten »B.I.G. Screen Framework«. Durch das »Discovery« Modul – bestehend aus einer eigens für das Social Web entwickelten Spider-Sammlung – werden zunächst die relevanten Dokumente über externe Suchmaschinen gefunden. Dieses Modul fungiert daher als Schnittstelle zum Framework. Die Fundstücke werden anschließend von »Crawlern« heruntergeladen, während die »Parser« die Dokumente in ihre Bestandteile aufspalten. Das wiederum ermöglicht eine erste Kategorisierung durch das »Classification «-Modul.

Bild 2: Die schematische Darstellung typischer Webmonitoring Technologie

Sind die Daten gesammelt und in einer Dokumentenbibliothek gespeichert, werden sie automatisiert aufbereitet. Spam wird gelöscht, irrelevante Beiträge aussortiert und Threads zusammengefügt. Um beispielsweise Zeitreihen- und Relevanzanalysen ermöglichen zu können, werden d
abei auch die Meta-Daten der Beiträge – wie Name des Autors, Erstellungsdatum, Backlinks etc. – archiviert.

Aus Daten wird Wissen
In der nächsten Phase der Datenanalyse werden je nach Fragestellung und entsprechendem Analysedesign aus einer Vielzahl vorhandener Methoden und Verfahren die erfolgversprechendsten gewählt, um Themen, Trends und Meinungen zu bestimmen. Vor allem Verfahren aus dem Text- und Data-Mining – angepasst an die Anforderungen des Web 2.0 – bieten angesichts der großen Datenmenge hierbei die größten Vorteile. Korpus-linguistische Methoden greifen auf ganze Wortschätze zurück, die auch an Spezialgebiete wie etwa Fachjargon oder Jugendsprache angepasst werden können. Meinungsführer werden mithilfe der Erstellung von Quellennetzen identifiziert und anschließend über die Anzahl der Postings, ihre Vernetzung und ihre Reichweite quantitativ sowie über die inhaltlichen Aussagen und ihren Schreibstil qualitativ bewertet. Über die archivierten Metadaten kann durch eine spezielle Relevanzmetrik sowohl die Bedeutung der Quelle als auch die des einzelnen Beitrages automatisiert bestimmt werden. Letzteres setzt allerdings voraus, dass die Daten auch auf Beitragsebene erfasst wurden.


Cockpit-Lösung für Echtzeit-Reporting

Bild 3: Beispiel einer „Cockpit“ Lösung des Anbieters Business Intelligence Group

Schlussendlich müssen die Ergebnisse des Webmonitoring-Prozesses präsentiert werden. Die in einem  punktuellen, explorativen Screening gewonnenen Erkenntnisse werden in der Regel in einer Präsentation oder einem Workshop vorgestellt, um anschließend die daraus notwendigen Konsequenzen zur Diskussion zu stellen. 

Für das kontinuierliche Monitoring dagegen ist eine webbasierte Management-Oberfläche die vielversprechendste Lösung. Die Integration eines solchen Dashboards oder Cockpits in die Software-Umgebung des Kunden erhöht dabei die Nutzungshäufigkeit und damit die Chance, dass es von den Anwendern auch wirklich angenommen wird. Denn viele Anwender haben bereits unzählige Reporting-Systeme und Tools, die sie täglich aufrufen müssen. Die Integration des Cockpits in die Softwareumgebung kommt diesem Umstand entgegen.

Zusätzlich hält eine Alert-Funktion per E-Mail, RSS Feed und sogar SMS den Nutzer über plötzliche oder ungewöhnliche relevante Entwicklungen auf dem Laufenden. Solche Push-Dienste haben einen hohen Informationswert und nehmen den Anwendern viel Arbeit ab. Gleichzeitig wird auch hierdurch erreicht, dass die Anwender das Cockpit regelmäßig nutzen.

Die Kernherausforderung des Webmonitoring liegt nicht zuletzt im Sprung der Präsentation von reiner Information zu entscheidungsrelevantem Wissen. Nur letzteres unterstützt Manager in ihren Entscheidungsprozessen. »Um genau dies sicherzustellen, haben wir uns dafür entschieden, bewährte Methoden der Business Intelligence wie Benchmark-Vergleiche, Top-Listings oder Scorecards  für die Darstellung der Webmonitoring-Ergebnisse im Cockpit zu verwenden.«, erklärt Norman Heinze seine Software. Auf diese Weise könne der Anwender auf einen Blick erfassen, was die Informationen für das Unternehmen bedeuten und welche Konsequenzen daraus gezogen werden müssen, erklärt der IT-Experte.

Er gibt sich überzeugt: »Nur so kann Webmonitoring zu mehr Effizienz und Erfolg führen.«  Die Anwendungsgebiete des Webmonitoring sind dabei vielfältig: von CRM über Vertrieb und Marketing bis hin zum »Issue Management« kann fast jeder Unternehmensbereich optimiert werden.


Der Autor

Prof. Dr. Peter Gentsch ist Chief Analyst bei der Business Intelligence Group und Lehrstuhlinhaber des Albert Berner-Stiftungslehrstuhles für CRM. Vorher war er viele Jahre als Consultant und Coach für namhafte Industrie- und Dienstleistungsunternehmen tätig. Er hat zahlreiche Projekte im Bereich CRM, Business Intelligence und E-Business geleitet und durchgeführt. Zudem ist Prof. Dr. Peter Gentsch Autor zahlreicher national und international ausgezeichneter Veröffentlichungen sowie gefragter Seminarreferent und Keynote-Speaker zum Thema CRM und Innovationsmanagement. Seine aktuellen Projekte beschäftigen sich mit Trend-Management, Online Sreening & Monitoring sowie mit dem Einsatz von Web 2.0-Methoden und Technologien in Unternehmen.