Das Thema Data Driven Company ist in aller Munde und viele Unternehmen investieren in Data Tools, Machine Learning und Fachkräfte. Aber die meisten Unternehmen schaffen es nicht, einen Mehrwert aus den Investitionen zu generieren. Der Return on Data ist nicht vorhanden. Woran liegt das, was sind typische Fehler und Stolpersteine und welche Lösungen gibt es? Lesen Sie im folgenden „Data Manifest“-Artikel des Business-Intelligence-Experten Christoph Kelzenberg, was Sie unbedingt beachten sollten.
Das Data Manifest
der Bauplan für ein erfolgreiches datengetriebenes Unternehmen
Datengetriebene Unternehmen werden ihrer Konkurrenz überlegen sein!
„Unternehmen, die es verstehen Insights und Aktionen aus ihren Daten zu gewinnen, werden 85 % mehr Umsatz generieren und 25 % mehr Deckungsbeitrag erzielen“, Quelle: McKinsey, 2021.
Unternehmen mit einer guten Daten-DNA sind somit in der Lage, mehr Geld pro Visit, pro Neukunde und Bestandskunde zu generieren.
Daten sind das neue Öl! Ein Vergleich, der die Relevanz der Daten als Asset und somit den Einfluss der Daten im Ansatz richtig widerspiegelt. Aber im Gegensatz zum Öl gelten folgende weitere positive Eigenschaften für Daten:
- Wenn man Daten nutzt, werden sie nicht aufgebraucht.
- Daten werden umso wertvoller, wenn man diese mit anderen Daten anreichert.
- Daten können einfach geteilt, kopiert und genutzt werden, somit steigt der Wert der Daten exponentiell.
- Die Anzahl der Daten steigt rasant und ist im Gegensatz zum Öl keine endliche und zunehmend knapper werdende Ressource.
Aber …
Viele Unternehmen schaffen es nicht, aus dem Öl andere wertvolle Produkte, wie zum Beispiel Benzin oder Diesel, herzustellen und somit aus dem Rohstoff einen Mehrwert zu generieren. Denn „gute“ Daten müssen ähnlich wie Öl erst einmal gefunden, dann aufbereitet und zu einem Produkt entwickelt werden. Diese wichtige Fähigkeit der Inwertsetzung nennt man im Datenkontext „Data Literacy“. Letztendlich bedeutet dies, aus den Daten Produkte zu generieren, um den Umsatz und die Kundenzufriedenheit zu erhöhen bzw. die Kosten und künftigen Risiken zu minimieren (siehe Abbildung 1).
Viele Unternehmen bezeichnen Daten als ein wertvolles Asset, dieses wird aber oft nicht wie eines behandelt! Es fehlen häufig Data-Experten, Data Governance, Kultur und Prozesse, um den Wert der Daten heben zu können. Das investierte Budget in Data-Technologie und -Ressourcen (FTEs) steht häufig in keinem Verhältnis zum erhofften Mehrwert, sodass allein durch diese Lücke viele Data-Projekte zum Scheitern verurteilt sind.
Welches sind nun die wichtigsten Elemente, um im Bereich Data erfolgreich zu sein bzw. welche wichtigen Bausteine fehlen in den meisten Unternehmen?
1. Eine unternehmensweite Datenstrategie
Es gibt keine unternehmensweite Datenstrategie bzw. niemand hat die Verantwortung für diese im Unternehmen. Verantwortlichkeiten und Daten sind in Silos gefangen. Die komplexe Fülle an Datenquellen, deren Menge und Diversität kann nicht mehr professionell „nebenbei“ gemanagt werden. Die Technologie im Data-Bereich hat sich in den letzten Jahren rasant weiterentwickelt. Das Thema Data ist mittlerweile zu komplex und zu groß geworden, sodass es nicht mehr professionell in bestehenden Unternehmensstrukturen und Prozessen umgesetzt werden kann.
Strategische Vorgehensweise zur Lösung des Problems
Es ist essenziell wichtig, eine gesamtheitliche Datenstrategie im Unternehmen zu haben. Deren Entwicklung ist Aufgabe eines Chief Data Officer oder einer ähnlichen Person zusammen mit den Stakeholdern. Diese Position muss im Topmanagement platziert werden, damit das Thema Data in Abstimmung mit den Unternehmenszielen/Purpose und den anderen Abteilungen zielgerichtet umgesetzt werden kann. Die Datenstrategie soll nicht nur technologisch ausgearbeitet werden, im Sinne „Wie speichere ich die Daten?“, sondern bis hin zur Aktivierung der Daten – „Was ist der Mehrwert für das Unternehmen?“.
Hier kommt es zum Aufbau eines neuen cross-funktionalen Unternehmensbereichs, der nicht mehr so „nebenbei“ von einem CIO, CFO, CMO oder CTO verantwortet wird.
Daten und zum Beispiel Informationstechnologie (IT) sind nicht dasselbe, beide Bereiche erfordern unterschiedliche Managementansätze und Hintergrundwissen.
In den Leitlinien des Unternehmens muss das Thema Data verankert werden. Ohne diese Verlinkung kann keine Datenstrategie mit der Unternehmensstrategie verzahnt werden.
In den Leitlinien sollten Formulierungen wie „Wir treffen Entscheidungen aufgrund der Daten- und Faktenlage“ oder „Wir überprüfen die getroffenen Entscheidungen mit gewonnenen Daten und bringen die Learnings in eine kontinuierliche Verbesserung unseres Geschäftsmodell mit ein“ vorzufinden sein.
Das „Go“ für die Datenstrategie muss vom Topmanagement abgesegnet werden.
Best-Practice-Empfehlung
Häufig ist es sinnvoll, das Thema Data Strategy von einer externen Beratung/Agentur moderiert auszuarbeiten, da viele Unternehmen noch nicht die Rolle des Chief Data Officer installiert haben. Sobald diese Position im Unternehmen vorhanden ist, kann er/sie die Umsetzung der Data Strategy inhaltlich vorantreiben.
2. Aktiv gelebte Data Governance
Ohne eine Governance kann man das Asset Daten nicht heben! Dies ist ein Problem bei vielen Unternehmen.
Es gibt keine Prozesse, Definitionen und Rollen für das Thema. Die Folge ist schlechte Datenqualität, kein Zugang zu Daten, kein Wissen, welche Daten es im Unternehmen gibt, etc. Deshalb sind Unternehmen ohne eine Governance hauptsächlich mit dem Fixen von Datenproblemen beschäftigt. Es fehlen somit aber die Ressourcen, um neue, umsatzbringende Datenprodukte, zum Beispiel Next Best Offer, Churn Prediction, Forecasting etc., entwickeln zu können.
Strategische Vorgehensweise zur Lösung des Problems
Data Governance wird inhaltlich durch den Data-Bereich im Unternehmen vorangetrieben. Data Leader investieren in entsprechende Fachleute und setzen Prozesse auf, mit denen sie das Thema Data Governance in der Organisation nach vorne treiben.
Bei der Umsetzung einer Data Governance spielt die DSGVO eine wichtige Rolle.
Weiterhin ist eine gute Datenqualität eine wichtige Aufgabe, bei der alle im Unternehmen mitarbeiten müssen! Diese Herausforderung ist jedoch nicht allen im Unternehmen klar.
Um dies zu ändern, müssen Domain Owner (Data Producer) von wichtigen Quellsystemen (ERP, CRM, PIM etc.) beispielsweise für gute Datenqualität sensibilisiert und incentiviert werden, um so kontinuierlich die Qualität der Daten zu gewährleisten. Ein Teil ihrer Ziele oder Vergütung könnte von guter Datenqualität aus den Quellsystemen abhängen.
Weiter können ETL-(Extract, Transform, Load)- oder ELT-(Extract, Load, Transform)-Prozesse flexibler und fehlertoleranter programmiert werden, sodass bei einer kleinen Änderung im Quellsystem der Beladungsprozess zum Data Warehouse nicht völlig abbricht und somit keine Daten für die Analyse zur Verfügung stehen.
Grundsätzlich muss ein gemeinsames Framework für cross-funktionale Verantwortlichkeit aufgesetzt werden. Die Sender und Empfänger von Daten müssen eng zusammenarbeiten.
Metadaten müssen in verständlicher Form sowohl von Data Producern als auch von Endanwendern (Data Consumers) dem Unternehmen zur Verfügung gestellt werden. Nur so können diese verstanden, genutzt, weiterverwendet und skaliert werden.
Auch der Zugang zu den Daten wird über ein Rechte- bzw. Rollenkonzept im Bereich Governance geregelt. Je „offener“ die Regelung hier ist, desto mehr Mitarbeitende profitieren von den Datenzugängen und können Mehrwerte schaffen (Data Democratization).
Besonders Unternehmen, die im E-Commerce tätig sind, haben aktuell eine große Herausforderung in puncto Datenqualität (Stichwort: Blocking von 3rd Party Cookies) und können somit auch die Effizienz der Online-Marketing-Spendings nicht richtig bewerten. Es müssen die technologischen Möglichkeiten, zum Beispiel Server Site Tracking, ein intelligentes Consent-Management und eine First-Party-Strategie, ins Leben gerufen werden, um diesen neuen Rahmenbedingungen entgegenzuwirken. Mit diesen Maßnahmen in Summe können wieder bis zu 30 % mehr Daten über die Nutzer gesammelt werden!
Best-Practice-Empfehlung
Es hat sich als sinnvoll erwiesen, die Rolle eines Data Steward einzurichten, die/der für die Umsetzung und die Rahmenbedingungen der Data Governance verantwortlich ist. Die Person beschäftigt sich mit der Einhaltung der Datenqualität und setzt die strategischen Vorgaben der Data Governance fachlich um. Innerhalb des Unternehmens agiert sie/er als Ansprechpartnerin bzw. Ansprechpartner für die verschiedenen Fachabteilungen bei Fragen oder Problemen zur Datenqualität.
3. Eine Modern Data Platform
Die bestehenden Data-Technologien haben sich im Unternehmen über die Jahre nicht mehr weiterentwickelt und genügen den Anforderungen der Endanwender nicht mehr. Es fehlt eine moderne, skalierbare und offene Datenarchitektur und Data-Technologie, um die Bedürfnisse der Data User und Use Cases zu ermöglichen. In einem Unternehmen gibt es viele unterschiedliche Bedürfnisse und Rollen der Datennutzung, die durch die Technologie und Tools abgedeckt werden müssen. Monolithische Data-Warehouse-Architekturen haben hier ausgedient bzw. müssen zeitnah erweitert und umgebaut werden.
Strategische Vorgehensweise zur Lösung des Problems
Data-Lösungen/-Produkte müssen stabil und skalierbar sein, deshalb ist die Data-Infrastruktur von besonderer Bedeutung.
Eine modular aufgebaute cloudbasierte Modern Data Platform mit entsprechendem Betrieb und Data-Governance-Konzepten und -Modulen muss zur Verfügung gestellt werden. Datenprodukte wie Dashboarding und Reporting, Advanced Analytics und Data-Scientist-Umgebungen inklusive Machine Learning, aber auch Datenbereitstellung für Apps oder Tools via Reversed-ETL-Prozesse sind wichtige Use Cases, die diese Plattform abdecken muss (siehe Abbildung 2).
Um verschiedene Datenformate und -strukturen zu unterstützen, gibt es unterschiedliche Datenbankformate, die eine Modern Data Platform zur Verfügung stellt. Dazu gehören beispielsweise relationale Datenbanken, NoSQL-Datenbanken und Big-Data-Plattformen (z. B. Hadoop).
Moderne Data Platforms trennen Speicher und Rechenleistung, wodurch große Datenmengen relativ kostengünstig gespeichert werden können. Die Rechenleistung basiert auf einer Cloudplattform, die Elastizität und automatische Skalierbarkeit ermöglicht.
Weiter muss die Plattform in der Lage sein, Daten aus verschiedenen Quellen schnell zu integrieren. Dazu gehören beispielsweise externe Datenquellen wie Social Media oder öffentliche Datenbanken, aber auch interne Datenquellen wie CRM-Systeme, Google Analytics oder ERP-Systeme. Hier kommen Tools wie Fivetran, Hevo Data oder Stitch zum Einsatz.
Der Data Lake ist ein zentraler Datenspeicher, in dem alle strukturierten und unstrukturierten Daten in beliebigem Umfang gespeichert werden können, synchronisiert zur Verarbeitung der Daten mit Tools wie Spark.
Der Eckpfeiler dieser Architektur ist ein modernes Data Warehouse in der Cloud. Hier werden sämtliche Datenquellen eines Unternehmens strukturiert und auf einer einheitlichen Analyseplattform/Data Layer den Endanwendern zur Verfügung gestellt. Bekannte Anbieter sind zum Beispiel BigQuery, Redshift oder Snowflake.
Reporting und Analysen sollten über ein Self-Service (BI) Tool (z. B. Power BI, Tableau etc.) den Nutzern zur Verfügung gestellt werden.
Die Plattform muss skalierbar sein und Module für KI- und Data-Science-Initiativen besitzen. Hier werden dem Data Stack Tools wie Jupyter Notebooks, Dataiku, DataRobot, Domino oder SageMaker hinzugefügt.
Best-Practice-Empfehlung
Der Weg zu einer Modern Data Platform sollte als Evolution und nicht als Revolution durchgeführt werden. Auf Basis der richtigen Datenstrategie und der vorhandenen Use Cases ergibt sich dann die passende technologische Data-Landschaft und nicht umgekehrt.
Essenziell ist es auch, im Zuge neuer Technologien entsprechende Verantwortlichkeiten und Prozesse zu definieren (Stichwort: Operating Model), denn allein durch die Einführung neuer Technologien ist noch kein Mehrwert für ein Unternehmen geschaffen worden. Die Investition in Technologie muss sich auch wirtschaftlich lohnen (Return on Data Technology).
Zu einem funktionierenden Datenarbeitsmodell gehören unter anderem auch eine DevOps-Umgebung bzw. die Standardisierung für Programmiersprachen (z. B. Python).
4. Eine Datenkultur
Culture eats strategy for breakfast! Wenn das Unternehmen keine Data Culture annehmen will bzw. diese nicht vorherrscht, werden alle strategischen Data-Initiativen scheitern. Deshalb ist es so wichtig, das gesamte Unternehmen für das Thema zu gewinnen.
Strategische Vorgehensweise zur Lösung des Problems
Daten-Initiativen und deren Umsetzung fangen beim Topmanagement an. Die Datenkultur muss von diesem vorgelebt werden (Data Leadership). Eine Datenkultur weg von Hippo (Highest Paid Person Opinion) hin zu datenbasierten Entscheidungen ist essenziell. Eine datengetriebene Führung beginnt mit den Aktionen und dem Engagement der Führungskräfte selbst. Viele Mitarbeitende benötigen Inspiration von „oben“. Führungskräfte müssen mit leuchtendem Beispiel vorangehen, wie man datengesteuert arbeitet. Dazu gehört auch, dass sie zum Beispiel selbst ihre Daten und kleine Analysen in Self-Service (BI) Tools oder Google Analytics durchführen können. Alle Daten als PowerPoint-Ausdruck in Papierform auf den Tisch vorgelegt zu bekommen, ist wenig inspirierend für die Mitarbeitenden.
Self-Service (BI) Tools müssen jedem Mitarbeitenden mit entsprechenden Schulungen zur Verfügung gestellt werden. Somit hat jeder Business User einen Zugang zu den Daten, sein eigenes Dashboard, und kann einfache Analysen selbstständig durchführen. Training zu Data Tools und Methoden fördern den Umgang mit Daten. Data Communitys fördern den weiteren Austausch unter den Kollegen.
Dieser skalierbare Self-Service-Gedanke für das Reporting/Analyse kann zukünftig auch für KI-Anwendungen erweitert werden.
Eine auf die Data Use Cases abgestimmte Personalkapazität (Business Analyst, Reporting Specialist, Data Scientist, Digital Analyst, Data Engineer Front vs. Backend, Digital Integration Consultant, Data-Projekt-Manager) muss entsprechend aufgebaut oder vorhanden sein (People Strategy). Ohne die richtigen Leute ist das Data Game nicht zu gewinnen.
Die Datenspezialisten sind Katalysatoren für die Datenkultur. Sie leben das datengetriebene Handeln vor und helfen den anderen Abteilungen, datengetriebener zu werden.
Die Data-Experten sitzen aber nicht in einer Art „Elfenbeinturm“. Sie arbeiten eng mit den fachlichen Stakeholdern zusammen. Dies ist sehr wichtig! Das Modell des „Embedded Analysten“ oder „Hub and Spoke“ hat sich in der Vergangenheit hier als die Best-Practice-Vorgehensweise erwiesen (Operating Model). Letztendlich muss sich aber die Datenorganisation der Unternehmensorganisation anpassen und nicht umgekehrt. Dabei gilt es, individuelle, flexible, agile Prozesse und Zusammenarbeiten zu definieren.
Nur ein kleiner Teil des Data-Teams ist zentral aufgestellt und kümmert sich um übergeordnete Themen wie zum Beispiel Data Governance, Data Architektur, Data Tooling.
Das Thema Test and Learn muss als ein essenzieller Bestandteil der Data-Unternehmenskultur etabliert werden. Entsprechende Testing Tools, Know-how und Prozesse müssen dafür explizit aufgebaut werden. Bestehende Datenmodelle und Hypothesen sollten immer durch entsprechende A/B-Tests verifiziert werden.
Best-Practice-Empfehlung
Wie treibe ich das Thema Data Culture schnell in die Organisation? Gewisse Themen sollten durch das Data-Team proaktiv umgesetzt werden, um ein gemeinsames Datenbild für das Unternehmen zu schaffen.
Dazu gehört ein unternehmensweites, harmonisiertes Reporting (Reporting-Pyramide vom Topmanagement bis zur Abteilungsebene), damit alle strategischen Geschäftseinheiten in dieselbe Richtung denken und dieselbe Sprache sprechen (Definitionen von KPIs) (siehe Abbildung 3).
Diese Reportings sollten aktiv von Business-Analysten präsentiert werden. Die Meetings (wöchentlich/monatlich) zum Thema Performance einzelner Bereiche werden von Data-Teams in Abstimmung mit den Stakeholdern initiiert. Die Meetings sollten so ausgestaltet werden, dass man auf Basis von Daten zu Entscheidungen kommen und Aktionen umzusetzen kann. Solche Meetings haben sich als Keimzelle einer Data Driven Culture herausgestellt, da es hier zu einem interaktiven Dialog der Stakeholder in Abteilungen, aber auch über Abteilungsgrenzen hinweg kommt und somit Herausforderungen aus unterschiedlichen Blickwinkeln beleuchtet werden. Der Data-Bereich wirkt somit wie ein Klebstoff, der unterschiedliche Abteilungen an einen Tisch bringt und zusammenhält.
Weiterhin sieht man auf Basis der Zahlen genau, welche aktuellen Herausforderungen es pro Bereich gibt, und kann somit zielgenau weitere Analyse- und Datenprodukte aufsetzen und entwickeln, die dann die Data Roadmap bestimmen.
Fazit: lieber heute als morgen starten
Der Weg zum Data Leader ist kein Sprint, sondern eine kontinuierliche, gut durchdachte und mit dem Business abgestimmte Investition in einen Hausbau. Wenn das Data House erst einmal steht, entwickeln sich unglaubliche Potenziale zur Umsatzsteigerung, Kostenvermeidung bei einhergehender hoher Kundenzufriedenheit und somit ein signifikanter zukünftiger Wettbewerbsvorteil!
Das Data Game richtig zu beherrschen, ist einer der wichtigsten Erfolgsfaktoren für die digitale Transformation und neue, innovative Business-Modelle.
Jedes Unternehmen muss aber selbst sein eigenes Data House aufbauen. Hier darf man sich nicht von den Erfolgsgeschichten der großen GAFA Player (Google, Apple, Facebook und Amazon) blenden lassen, bei denen es Data-Teams von 500 bis 1.000 Mitarbeitenden gibt, sondern muss seinen individuellen, maßgeschneiderten Weg selbst finden!