In vielen Unternehmen fallen mittlerweile täglich unüberschaubare Mengen Daten an. Eifrig wird alles gesammelt, was nicht bei drei auf dem Baum ist. Oft genug ist dabei gar nicht klar, wozu man diese Daten überhaupt benötigt. Prinzipiell ist es zwar keine schlechte Idee, auch die sowieso anfallenden Daten, die man möglicherweise später einmal brauchen könnte, vorsorglich zu sichern. Aber leider unterbleibt meist eine Trennung in aktuell werthaltige Daten und solche, die man vorsorglich archiviert. Was in welche Gruppe fällt und vor allem, welche Daten man möglicherweise noch gar nicht zur Verfügung hat – aber eigentlich benötigt –, dazu braucht man eine vernünftig ausgearbeitete Strategie. Statt im Voraus zu klären, welche Fragen beantwortet werden müssen, gehen viele heute noch den umgekehrten Weg: Welche Daten hat man und zu welcher Frage könnten sie als Antwort dienen? Pascal Albrecht hält ein leidenschaftliches Plädoyer für ein deutlich stärker strukturiertes Vorgehen.
Dos and Don’ts in der digitalen Analyse
Viele Schweizer Unternehmen tun sich schwer, Web-Daten gezielt zu ihren Gunsten einzusetzen, wie Avinash Kaushik elegant betont:
„I can’t say it any better, HiPPO’s (Highest Paid Person's Opinion) rule the world, they over rule your data, they impose their opinions on you and your company customers …”
Dieses Problem ist aber nicht auf ein inkompetentes Management zurückzuführen. Vielmehr versäumen Unternehmen, das Thema „Digital Analytics” in den eigenen Reihen zu kultivieren und bestimmt sowie zielgerichtet zu positionieren.
Aus der Zusammenarbeit mit Unternehmen und Persönlichkeiten in unterschiedlichsten Industrien in den letzten Jahren lassen sich sieben zentrale Erkenntnisse, welche Unternehmen daran hindern, das volle Potenzial ihrer Daten zu erkennen und auszuschöpfen, ableiten:
Finger weg vom perfekten Wurf
Die Sammlung und Auswertung von Daten ist als iterativer Prozess zu verstehen. Wer sich intensiv mit den gesammelten Daten beschäftigt, erkennt sofort, welche weiteren Messpunkte für eine erweiterte Analyse notwendig sind. Bei vorhandenen Ressourcen (Zeit und Geld) ist natürlich nicht von einem „Let’s track everything“-Konzept abzuraten. Jeder weitere Datenpunkt lässt das Analystenherz zwar höher springen, bringt aber eine extra Portion an Komplexität und kostenintensiveren Wartbarkeiten mit sich. Zudem verlängert sich beim Versuch, alle Eventualitäten vorab abzudecken, die Umsetzungszeit. Multipliziert man diese mit den Releasezyklen der Web- und IT-Entwicklung, führt dies schnell zu einer Projektzeitspanne von einem halben Jahr, bis die erwünschten Daten endlich einlaufen. Fokussieren Sie sich erst auf ein einfaches Messkonstrukt und machen damit Ihre ersten Gehversuche, bis Sie sich sicher fühlen und die Notwendigkeit erkennen, neue Messdaten zu sammeln.
Nicht selten muss man mit ansehen, wie kostbare Zeit und Potenzial für die Perfektionierung der Datenqualität und die Gewährleistung unnötiger Messanforderungen vergeudet werden: „Alles messen, sonst stehen uns die notwendigen Daten nächstes Jahr nicht zur Verfügung.“ Konzentrieren Sie sich auch als eingefleischter Digital-Analyst erst auf die Fragestellung und suchen dann nach den notwendigen Lösungen. Dies bringt uns bereits zum nächsten Punkt.
Erst die Frage, dann die Erkenntnis
Die berühmte „Grüne-Wiese-Analyse“ bringt fast jeden Analysten auf die Palme. Ein solches Projekt entsteht meistens aus der Erwartung heraus, dass die planlose Anwendung statistischer Modelle (heute auch Machine Learning genannt) auf zufällig gewählte Datensätze zu schlagkräftigen Erkenntnissen führt. Mit einer strukturierten Herangehensweise und der entsprechenden Erfahrung können Analysten auch in solchen Projekten auf Gold stoßen. Dies benötigt jedoch viel Zeit und führt nicht immer zum vom Auftraggeber (Management) erwünschten Ergebnis.
Die Entwicklung und Priorisierung von Fragestellungen und Hypothesen kann als eine der zentralsten Aufgaben eines Analysten erachtet werden. Ein guter Analyst versteht sich gut mit Zahlen, ein hervorragender Analyst hört zu und beobachtet. Die vier wichtigsten Pflichten eines Analysten: Zuhören, beobachten, übersetzen und überzeugen.
„Die vier wichtigsten Pflichten eines Analysten: Zuhören, beobachten, übersetzen und überzeugen.“
Erst wenn er sich mit den Herausforderungen der Entscheidungsträger auseinandersetzt, ist er fähig, die Datensammlung und -auswertung daran auszurichten. Für diese Empfehlung ist der nächste Punkt von zentraler Bedeutung.
Analysten benötigen Sonnenlicht
Webdaten werden anhand von Scripts gesammelt, in Datenbanken gespeichert, in Business Intelligence und Reporting-Tools visualisiert und anhand von Algorithmen ausgewertet. Man kann somit bestens nachvollziehen, weshalb sich das Management bei der Platzierung des digitalen Analytics-Teams für die IT-Abteilung entscheidet. Hier ist jedoch Vorsicht geboten! Gerade aus der vorhergehenden Empfehlung, Analysten am aktiven Austausch über Hypothesen, Fragestellungen und Entscheidungen teilhaben zu lassen, ist eine Angliederung bei den Entscheidungsträgern als Stabsstelle unabdingbar. Nicht selten kommt die Frage im Management auf: „Was? Wir hätten dafür Daten zur Verfügung? Jetzt haben wir uns bereits entschieden.“ Stellen Sie sich die regulatorischen und politischen Informationswege in einem größeren Unternehmen vor. Machen Sie sich in einer ruhigen Minute einmal Gedanken über Ihre internen Informationsflüsse. Sind diese den Bedürfnissen der Entscheidungsfindung angepasst?
Analysen ≠ Reporting
Immer wieder fällt das verzerrte Verständnis bezüglich der Themen Reporting und erweiterte Analysen ins Augenmerk. Controlling- und Reporting-Dashboards sollen lediglich den Zweck der Kontrolle von Maßnahmen erfüllen und keine konkreten Handlungsempfehlungen ausspucken. Die Arbeit mit den Daten ist ein fortlaufender Prozess, das einmalige Aufsetzen eines Dashboards beantwortet keine Hypothesen oder Fragestellungen. Erst das Heranziehen anderer kontextueller Daten, die Segmentierung und das Vergleichen der Messwerte können als analytischer Prozess erachtet werden. Trauern Sie nicht der allwissenden Glaskugel nach, sondern halten Sie den Prozess zwischen Fragestellung, Datensammlung und -auswertung im Gange und fördern Sie die kritische Auseinandersetzung mit den Daten. Daten, Tools und Dashboards sind lediglich Mittel zum Zweck.
„Daten, Tools und Dashboards sind lediglich Mittel zum Zweck.“
Die Anzahl Besuche ist keine KPI
„Der Begriff Key Performance Indicator (KPI) bzw. Leistungskennzahl bezeichnet in der Betriebswirtschaftslehre Kennzahlen, anhand derer der Fortschritt oder der Erfüllungsgrad hinsichtlich wichtiger Zielsetzungen oder kritischer Erfolgsfaktoren innerhalb einer Organisation gemessen und/oder ermittelt werden kann.“ So steht es für jedermann nachlesbar in Wikipedia.
Ja, es gibt sie, die Online-Marketing-Spezialisten, welche anhand der Anzahl ihrer Website-Besuche oder der Absprungrate (ein Besucher besucht lediglich eine Seite und verlässt darauf die Website unmittelbar) gemessen werden. Als „Erfüllungsgrad hinsichtlich wichtiger Zielsetzungen“ können wir dies nicht gelten lassen, vielmehr stützt man sich lediglich auf starre Messgrößen bekannter Web-Analyse-Tools (z. B. Google Analytics oder Adobe Analytics). Nehmen Sie sich genug Zeit und entwickeln Sie „echte KPIs“, es lohnt sich. Ein Beispiel: Verwenden Sie bei der Bewertung gewisser Besuchsgruppen Punktesysteme: Ein Besucher liest z. B. eine Produktseite = 1 Punkt, ein weiterer meldet sich für Ihren Newsletter an = 3 Punkte, der Dritte nimmt an Ihrem Wettbewerb teil = 2 Punkte. Mit einem solchen System sind nun verschiedene Marketing-Aktivitäten zu messen wie z. B. die Budgetierung verschiedener Akquisitionskanäle.
„Datensilos sind out!“
Die große Datenparty
Datensilos sind out! Die Daten technisch zu zentralisieren, den Zugriff darauf aber zu demokratisieren, das ist die entscheidende Herausforderung. Daten stellen für viele Unternehmen eine zentrale Ressource dar, um die richtigen Entscheidungen zu treffen oder neue Dienstleistungen daraus abzuleiten. Nur wer die notwendigen Messdaten kombinieren und jederzeit abrufen kann, wird in der großen Datenschlacht gewinnen. Aber aufgepasst! Eine reine Fixierung auf Korrelationen und maschinengetriebene Modellorgasmen ohne gesunden Menschenverstand führt nicht selten zu falschen Entscheidungen. Als Beispiel die sogenannte Filterbubble: Viele Websites (z. B. Amazone oder Youtube) schlagen dem Besucher aufgrund seines vergangenen Surfverhaltens Produkte oder Inhalte vor und personalisieren somit die komplette Website. Dieser Effekt ist von den Besuchern nicht immer erwünscht und endet in Verwirrungen. Auch statistische Zusammenhänge ohne tatsächliche Kausalitäten, wie z. B. der abnehmende Trend der Benutzung von Internet Explorer und der abnehmenden Mordrate in Amerika scheinen ein Zufall zu sein (http://einfach.st/gizmo3).
Eine gesunde Mischung zwischen Intuition und gezielter Datenanreicherung ist offenbar ein unschlagbares Konzept.
Aktivieren, nicht nur sammeln
Last, but not least: Daten sollten nicht nur für die Erkenntnisgewinnung und Modellierung gesammelt werden. Sobald Kunden und Cookies geclustert (statistische Vorgehensweise, um Interaktionen und Nutzer aufgrund ihrer ähnlichen Verhaltensweisen und Ausprägungen zu gruppieren) sind, müssen diese entsprechend „aktiviert“ werden. Was ist unter dem Begriff „Datenaktivierung“ zu verstehen? Das Unternehmen Oracle liefert eine einfache Erklärung: „Der Daten-Output ist das herausforderndste Element der Datenaktivierung. Es gilt nun, bei den Daten die Spreu vom Weizen zu trennen und die aufgebauten Datensegmente mit ihren internen und externen Marketingpartnern zu teilen“ (http://einfach.st/oracle2).
Die Datenaktivierung besteht aus Themenfeldern wie z. B. Website-Personalisierung, Retargeting (gezielte Ansprache über bezahlte Werbung), Vorschlagssysteme in E-Shops, den Interessen angepasste Newsletter und viele weitere Maßnahmen des digitalen Marketings.