Google-Tag-Manager, Enhanced E-Commerce, Big Data, Google Cloud waren nur einige der Top-Themen der Analytics Summit 2014. Hochkarätige Speaker aus der ganzen Welt sorgten für eine schöne Mischung von Themen aus dem Bereich der digitalen Analyse und brachten praxisnahe Anwendungsbeispiele für individuelle Insights.
Analytics Summit 2014
Die Analytics Summit 2014 sorgte auch im vierten Jahr für spannende Einblicke in zahlreiche Themen aus den Bereichen der digitalen Analyse. Als Novum für alle Analytics-Begeisterten startete die Analytics Summit bereits einen Tag zuvor mit Seminaren zu vier hochaktuellen Themen. Gehalten wurden die Seminare von den Trakken Digital Analytics Consultants und aufgrund einer begrenzten Teilnehmeranzahl von maximal 20 Personen boten sie einen persönlichen Rahmen, bei dem individuelle Problemstellungen in einem vierstündigen Seminar tiefer gehend und praxisnah diskutiert werden konnten. Inhaltlich widmeten sich die Seminare folgenden Schwerpunkten:
- Universal Analytics Insights
- Google-Tag-Manager Insights
- Marketingsteuerung mit Customer Journey & Conversion Attribution Insights
- Anreicherung von Daten – Data Driven Business Insights
Die Trendthemen der Seminare spiegelten sich auch am Konferenztag in zahlreichen Vorträgen wider. Die Speaker des diesjährigen Analytics Summit zeigten sehr praxisnah, vor welchen Problemstellungen sie standen und auf welchem Wege sie diese lösten. Interessant zu sehen waren die unterschiedlichen technischen Lösungswege. Besonders aus den beiden Vorträgen von Fabian Möschter, AirBerlin, und Jonas Tiedgen, Deutscher Pressevertrieb, lässt sich gut erkennen, wie unterschiedlich die technische Umsetzung trotz gleicher Zielsetzung sein kann.
Look2Book-Rate: „Enhanced E-Commerce“ und/oder „Eventtracking“?
Im Fokus der beiden Präsentationen standen die beiden Lösungsmodelle zur Berechnung der Look2Book-Rate. Technisch umgesetzt wurde die Lösungen mit dem Trackingcode von Google Analytics im Google-Tag-Manager. Der Quotient der Look2Book-Rate setzt sich zusammen aus den Besuchern, die eine bestimmte Detailseite gesehen haben, wie beispielsweise die Flugstrecken-Detailseite bei AirBerlin oder die Produktdetailseite vom DPV, und den Besuchern mit einer Zielerfüllung/Transaktion. AirBerlin löste diese Zielfragestellung mithilfe des Ereignistrackings und Fabian Möschter zeigte während seines Vortrages im Detail, wie und wann dieser Trackingcode ausgelöst wird, und wie mit einer Erweiterung um das Monitoring-Tool „TrakkBoard“ die gewonnene Look2Book-Rate der entsprechenden Conversion zugerechnet wurde. Mit der Look2Book-Rate und der Verknüpfung der Conversion gelang es AirBerlin, eine wichtige Messgröße zur Aussteuerung und Optimierung zukünftiger Marketingkampagnen zu ermitteln. Diese Messgröße dient als wichtiger Key Performance Indicator (KPI) auch für Revenue- und Flugstreckenplanungen. Das Ereignistracking wird dabei intensiv genutzt und dient als zentrale Sammelstelle zur Lösung vieler Problemstellungen.
In Abgrenzung zu AirBerlin ermittelte der DPV, im Vortrag mit Jonas Tiedgen, die Look2Book-Rate mithilfe des „Enhanced E-Commerce“-Features von Universal Analytics. Die zusätzlichen Trackingmöglichkeiten und Funktionalitäten, die Enhanced E-Commerce in Universal Analytics mit sich bringt, machte der DPV sich zu eigen, löste Fragestellungen mit der Look2Book-Rate und optimierte auf Basis der ermittelten Erkenntnisse beispielsweise die Produktkategorieseiten. Die genau betrachtete Kennzahl in Analytics „Käufe-Produktdetail-Verhältnis“ kann direkt aus dem Enhanced-E-Commerce-Bericht abgelesen werden und gibt die Look2Book-Conversion-Rate wieder. Aber auch technische Aspekte des Enhanced-E-Commerce-Berichts wurden angeführt. Als Tipp bei der technischen Umsetzung des Enhanced E-Commerce gab Jonas Tiedgen noch auf dem Weg mit, das technische Set-up von hinten aufzurollen, d. h. mit dem Trackingcode der Transaktionsbestätigungsseite zu beginnen und dann allen vorgelagerten Schritten/Seiten den Trackingcode zuzuweisen. Je nach Analyseschwerpunkt kann die Tiefe der vorgelagerten Schritte definiert und mit einem Trackingcode versehen werden.
Hilfreich bei der technischen Umsetzung war, wie auch bereits in anderen Vorträgen erwähnt, der Google-Tag-Manager. Dessen Einsatz am Beispiel von Universal Analytics war in vielen Präsentationen, sowohl am Seminar- als auch am Konferenztag, ein wichtiger Bestandteil. Auch in einem Unternehmen mit internationalem Umfeld spielt die Verwendung des Google-Tag-Managers eine wichtige Rolle, wie Ingo Pingel von Beiersdorf in seinem Vortrag bewies. Er setzte das Thema „Universal Analytics“ und „Google-Tag-Manager“ in ein internationales Umfeld und zeigte die Problemlösungen mit dem Einsatz eines globalen und lokalen Trackers im Google-Tag-Manager auf. Er veranschaulichte, wie eine geeignete Baumstruktur in Universal Analytics auf Account- und Propertyebene eines internationalen Unternehmens mit einer Vielzahl von Webseiten aussehen kann, und verriet Tipps und Tricks für die Umsetzung.
GTM – Tipps und Tricks
Tipps und Tricks zum Thema Google-Tag-Manager gab auch Alexander Sauer aus seiner Erfahrung als Digital Analytics Consultant bei Trakken Web Services, wo er sowohl nationale als auch internationale Kunden betreut. In seinem Vortrag stellte er seine Erfahrungen und die Top-5-Anwendungsfälle des Google-Tag-Managers aus der Praxis vor. Er zeigte unter anderem, wie mithilfe des Google-Tag-Managers Query-Parameter aus der URL gelesen und aussagekräftiger gemacht werden können, um anschließend auf utm-Parameter in der URL zu verzichten. Darüber hinaus waren auch die folgenden Themen Gegenstand seiner Präsentation:
- Möglichkeiten zur Ausführung von lediglich einem Tag pro Session
- Aufbau eines GTM-Containers für internationale Websites
- Lookup-Table-Macro, um entsprechende Google-AdWords-IDs unterschiedlichen internationalen URLs zuzuordnen
- Auto-Event-Tracking
- Problemstellungen unbefüllter DataLayer-Variablen
Aber auch für SEO-Begeisterte liefert der Google-Tag-Manager eine Möglichkeit, die Sichtbarkeit der Ergebnisse mithilfe von Hacks zu beeinflussen. Wie solche Hacks aussehen können und wie das Update des Google-Crawlers im Mai 2014 dazu beitrug, stellte Phil Pearce in seinem Vortrag „How can GTM dataLayer help SEO“ vor. Der Google-Crawler ist seit diesem Update in der Lage, JavaScript zu indexieren, um so beispielsweise zu erkennen, ob eine Website für mobile Endgeräte optimiert ist. Dies ist eine wichtige Neuerung, die sich positiv auf den PageRank auswirken kann. Diesen Umstand nutzt Phil Pearce, um mithilfe des DataLayers seine Suchergebnisse mit Zusatzinformationen anzureichern und dadurch letztendlich besser bei den Suchergebnissen platziert werden zu können. Außerdem stellte er mit JSON-LD eine weitere Möglichkeit vor, Webseiten mit Daten anzureichern, und veranschaulichte, wie Daten aus Content-Management-Systemen mit dem Google-Tag-Manager verknüpft werden können.
Die Vielschichtigkeit der Nutzung des Google-Tag-Managers wurde an diesem Konferenztag sehr deutlich. Sein Einsatz wird jedoch nicht nur für das Ausspielen von 1st-Party-Conversion-Tags wie Google Analytics genutzt, sondern auch für 3rd-Party-Conversion-Tags wie beispielsweise bei Affiliatepartnern. Die Ziele der Conversion-Tag-Steuerung definierte Oliver Schwarz von Wolters Kluwer Deutschland in seinem Vortrag über die User Journey mit und ohne Attribution wie folgt:
- Deduplizierung von 3rd-Party-Conversion-Tags
- Integration von PostView-Conversions in Google Analytics und somit Ergänzung zu Multi-Channel-Berichten
- Identifizierung von (Werbe-)Channels mit Initialkontakt zur wachstumsorientierten Allokation des Werbebudgets
- Prüfung der Werbemittelauslieferung externer Dienstleister
Das Ausspielen von 1st- und 3rd-Party-Conversion-Tags über den Google-Tag-Manager nutzte Oliver Schwarzweller zur Attributionsmodellierung, wie im folgenden Schwerpunktthema näher erläutert wird.
Customer Journey & Attributionsmodellierung
Immer mehr Unternehmen wird deutlich, dass die Aussteuerung des Marketingbudgets nicht auf eine Last-Click-Betrachtung der Conversion-Rate reduziert werden sollte. Vielmehr ist eine ganzheitliche Betrachtung aller Marketing-Touchpoints einer Customer Journey notwendig. Die drastischen Unterschiede der Conversion-Rate bei der Berücksichtigung von Attributionsmodellen mit 1st- und 3rd-Party-Conversion-Tags wurde in der Präsentation von Oliver Schwarzweller sehr deutlich. Zur Ermittlung seines Attributionsmodells mit 1st- und 3rd-Party-Cookies nutzte er den Attributionsbericht in Universal Analytics und die „Customer Dimension“, um seine 3rd-Party-Conversion-Tags in Analytics zu erfassen. Auf Basis der gewonnenen Daten und Erkenntnisse schaffte er es, ein Attributionsmodell für sich zu entwickeln und sein Marketingbudget gewinnbringend einzusetzen. Aufgrund seiner gewonnenen Erfahrung bei der Ermittlung des Attributionsmodells gab er zudem Tipps zur Umgehung möglicher Fehlerquellen, wie beispielsweise das Verlagern der Affiliate-Session-Sperre auf die erste Checkout-Seite.
Ein Attributionsmodell sollte für jedes Unternehmen individuell erstellt werden. Solch ein Modell ist nicht statisch und sollte daher auch stetig optimiert werden. Durch diese stetige Optimierung kann man sich einem idealen Attributionsmodell annähern. Die Berechnung der einzelnen Gewichtungen im Attributionsmodell kann auch schon komplexer werden, wie Aspa Lekka von Foodpanda in ihrem Vortrag „Advanced Attribution Modelling“ deutlich machte. Sie gab Einblicke in Rechenmodelle und führte Vor- und Nachteile der Attribution auf. Es gibt viele Einflussfaktoren, wie beispielsweise die Anzahl der Seitenaufrufe oder die Sessionlaufzeit, die bei einer Berechnung mit einfließen können und somit zu komplexeren Rechenformeln führen.
Datenerfassung, -sammlung und -aufbereitung
Die zahlreichen und vielfältigen Möglichkeiten, User und ihre Aktionen zu tracken, wurden aus den Vorträgen am Konferenztag sehr deutlich. Das erfasste Datenvolumen nimmt durch die immer mehr anwachsenden Trackingmöglichkeiten und Trackingtools weiter zu – Stichwort „Big Data“. Somit taucht bei vielen Unternehmen öfter die Frage nach einer ausreichenden zentralen Daten-Sammelschnittstelle auf, mit deren Hilfe sie in Sekundenschnelle SQL-Abfragen durchführen können. Diesen Aspekt griff William Vambenepe, Google Inc., Mountain View, USA, in seiner Präsentation auf und stellte mit „Google Cloud“ und „Big Query“ Googles Antwort darauf vor. Aus seinem Vortrag wurde deutlich, dass die Datenmenge und -vielfalt, die über die Trackingtools bereits gewonnen werden konnten, zu mehr Handlungsspielraum von Unternehmen führen kann und somit das Thema „Big Data“ immer mehr in den Vordergrund vieler Unternehmen rückt. Kurz gesagt: more Data, more interaction, more devices -> Big Data!
Mittels Big Query lassen sich Datensätze von mehreren Terabytes in der Google Cloud analysieren und können in Sekundenschnelle asynchron im Hintergrund abgefragt werden. Big Query kann für Premiumkunden auch mit Universal Analytics verknüpft werden.
Das Thema der Datenerfassung, -sammlung und -aufbereitung wird immer wichtiger, aufgrund des Datenumfangs jedoch auch immer komplexer. Umso wichtiger wird der Aspekt der Datenaufbereitung und -präsentation. Wie ein möglicher Prozess bei der Datenaufbereitung aussehen könnte, veranschaulichte Daniel Waisberg, Google Inc., London, in seinem Vortrag. Er gliederte den Prozess in sechs Punkte und zeigte auf, wie aus rohen Daten/Zahlen ein Kontext und letztendlich eine Story geschaffen werden kann.
Waisberg gliederte die einzelnen Prozessschritte wie folgt:
- Definiere deine Zielgruppe
- Erstelle eine Hypothese
- Skizziere deine Idee
- Erhebe die entsprechenden Daten
- Analysiere die erhobenen Daten
- Erzähle aus den gewonnenen Daten eine Geschichte
„Zielgruppendefinition“ stellt Waisberg an oberste Stelle und verdeutlicht am Beispiel der Comic-Figur des grünen Hulks verschiedene Darstellungsweisen, abgestimmt auf die entsprechende Zielgruppe. Wichtig sei es zunächst, seine Zielgruppe zu ermitteln, um dann zielgruppenspezifisch Daten erheben und analysieren zu können. Die Darstellungsweise des grünen Hulks ist abhängig von der Zielgruppe, wie auch die Daten einer Analyse. Eine Fokussierung der Daten ist unabdingbar und sollte immer als erster Schritt vorgenommen werden. Um im zweiten Schritt Hypothesen erstellen zu können, sei es wichtig, sich mit anderen Personen der entsprechenden Fachbereiche auszutauschen, weitere Blickwinkel zu erfahren und nochmals zu durchdenken. Die gesammelten Ideen und Hypothesen im Kopf zu sortieren, zu organisieren und anschließend zu spezifizieren, mache eine Skizzierung notwendig. Den Punkt „Datenanalyse“ unterteilte Waisberg in „Analyse“ und „Visualisierung“. Die Analysedaten sollten gefiltert sein, beispielsweise über Filtereinstellungen oder Segmente, welche in Universal Analytics festgelegt werden. Bei der Daten-Visualisierung zählt besonders die Ästhetik. Es sollten Zusammenhänge und Trends verdeutlicht werden und nicht nur reine Daten/Fakten.
Datenvisualisierung mal anders
Wie aus langen Zahlenkolonnen spannende Eyecatcher und letztendlich Geschichten werden, zeigte Marco Maas, Open Data City, in seinem Vortrag. Er schaffte es, mit eindrucksvollen Visualisierungen zahlenfundierte Themen verständlich abzubilden. Er zauberte aus Daten spannende Abbildungen und Darstellungsformen und zeigte, wie weitere interessante Erkenntnisse auch aus WLAN-Daten gewonnen werden können.
Wie eine mögliche Visualisierung aus den spannenden Vorträgen eines Konferenztages ästhetisch umgesetzt werden kann, zeigte das „Graphical Recording“ von Anna Lena Schiller (www.analytics-summit.de/konferenz/graphic-recording/) an diesem Tag. Die vielen gewonnenen Insights aus den Vorträgen wurden grafisch – passend zur Thematik – in „Realtime“ umgesetzt und konnten am Abend in gemütlicher Atmosphäre bei Live-Musik und kühlen Getränken weiter vertieft werden. Für viele Analytics-Begeisterte zählt diese Veranstaltung bereits zum Pflichttermin. Somit schaffte es die Analytics Summit schon nach kurzer Zeit, sich als wichtiges Event im Bereich „Digital Analytics“ im deutschsprachigen Raum zu etablieren. Mehr Wissenswertes zu Speakern und der Konferenz finden Sie unter www.analytics-summit.de/recap-video.