Wie Nutzer Ihre Webseiten wahrnehmen, ist keine Frage des Zufalls. Eine Reihe neuer Webdienste verspricht, Aufmerksamkeitsprozesse über Webseiten sekundenschnell vorhersagen zu können – wo liegt der Nutzen und was steckt wissenschaftlich dahinter?
Attention Hacking: Wie sich Blicke mittels Neurotechnologien vorhersagen lassen
Wer entscheidet eigentlich, wie Sie sich die neue Website Boosting anschauen?
Doch hoffentlich Sie selbst. Immerhin haben Sie sich soeben auch dazu entschieden, diesen Satz zu lesen.
Oder etwa nicht?
Glücklicherweise ist es so, dass Ihnen viele Entscheidungen in jeder Sekunde Ihres Lebens fürsorglich abgenommen werden – und zwar nicht nur von Ihrem Partner, Chef oder Kunden, sondern vor allem von Ihrem wichtigsten Organ. Und das ist, freilich, Ihr Gehirn.
Es handelt sich dabei nicht um die Frage, welchen Artikel Sie zuerst lesen oder welche Kaffeespezialität Sie dazu genießen. Wir sprechen von etwas sehr viel Grundlegenderem: von der Art und Weise, wie Sie sich in der Welt umschauen und wie Sie diese offenen Auges wahrnehmen.
Dazu trifft Ihr Gehirn pro Sekunde – neben den restlichen Kleinigkeiten – etwa vier glasklare „Entscheidungen“, die Sie im Normalfall nicht bewusst wahrnehmen oder gar steuern können. Glücklicherweise, denn so können Sie sich auf die wirklich wichtigen Dinge (Kaffee, Überleben, Facebook, Website Boosting) konzentrieren!
Die Rede ist von Blickbewegungen (wissenschaftlich Sakkaden) – mit insgesamt knapp 7 Milliarden die wohl häufigste Handlung unseres Lebens. Und zugleich eine, die Ihr Nervensystem perfide vor Ihnen zu verstecken weiß: Während Ihre Augen von einem Punkt zum nächsten springen, stellt Ihr Gehirn einen Teil der visuellen Wahrnehmung nämlich einfach ab. Testen Sie es doch das nächste Mal vor dem Badezimmerspiegel, indem Sie von einem Auge zum anderen blicken – die dazugehörige Augenbewegung werden Sie, im Gegensatz zu einer neben Ihnen stehenden Person, nicht sehen können, genauso wenig, wie Sie die Welt vor Ihren Augen viermal pro Sekunde blitzschnell verschwimmen sehen – sicherlich ein verschmerzbarer Verlust an Realität.
So leben wir aber mit Hunderttausenden meist unwillkürlichen Blicksprüngen und Hunderttausenden Bewusstseinsausfällen pro Tag – warum eigentlich? Und was hat das Ganze mit der Webseitenoptimierung zu tun?
Wir sehen was, was wir nicht sehen – die Welt als blinder Fleck
Zunächst ganz grundlegend: Die Notwendigkeit von Blickbewegungen erklärt sich aus der biologischen Beschaffenheit unseres Auges, genauer der Netzhaut, einer Schicht aus lichtsensitiven Nervenzellen im Inneren des Augapfels. Diese sind nicht gleichmäßig verteilt, sondern zur Mitte (der sog. Fovea centralis) hin „besser bestückt“ – nur Lichtsignale, die auf diese Stelle treffen, verarbeiten wir wirklich „scharf“.
„Das stimmt nicht, ich sehe eigentlich ALLES recht scharf und deutlich“, mag der geneigte Leser hier einwenden. Und fällt damit – wie wir alle permanent – auf eine großartige Illusion herein, mit der uns das Gehirn das Leben ein gutes Stück einfacher macht. Tatsache ist, dass wir nur die Bereiche unseres Umfelds wirklich gut wahrnehmen, welche wir direkt mit unserem Blick fixieren – der gesamte Rest unseres Sehfelds ist unscharf und wird uns in einem blitzschnellen Prozess zwischen Millionen von Neuronen sozusagen schöngerechnet. Hochauflösend sehen wir nur den unmittelbaren Bereich um eine Fixation – sozusagen die „Klicks“ unserer Wahrnehmung.Somit wird auch völlig klar, warum der menschliche Sehapparat auf Blickbewegungen angewiesen ist – oder erkennen Sie auf Abbildung 1 sofort den Schmetterling?
An dieser Stelle könnte dem einen oder anderen Online-Marketer mulmig zumute werden, denn wenn sich die Besucher Ihrer Webseite nur einbilden, nach ein paar Sekunden alles gesehen zu haben, heißt das eben noch lange nicht, dass die hochattraktive Sommeraktion zwischen Navigationsleiste und News-Sektion auch wirklich gesehen wurde.
Es gibt hierzu eine gute und eine schlechte Nachricht. Die schlechte zuerst: Der beschriebene Effekt verschärft sich noch einmal dramatisch, weil Menschen den meisten Webseiten heute nur noch wenige Sekunden geben, bevor Sie sich für oder gegen ein weiteres Stöbern entscheiden. Die nächste von mehreren Milliarden Ablenkungsmöglichkeiten ist online ja nur einen Klick entfernt.
Die gute Nachricht: Was sich Nutzer in diesen entscheidenden ersten Sekunden anschauen, ist keine Frage des Zufalls, sondern das Produkt komplexer, aber berechenbarer Aufmerksamkeitsprozesse. Und diese lassen sich durch ein geeignetes Design ganz maßgeblich beeinflussen.
„Geeignetes Design“ bedeutet in diesem Fall, dass sich Ihr Design nicht ausschließlich am künstlerischen Empfinden eines Creative Directors, sondern auch an der Realität des menschlichen Wahrnehmungsapparates orientiert – z. B. daran, auf welcher Basis sich dieser für den Ort der nächsten Fixation entscheidet. Aber auf welcher Basis fällt das Gehirn diese Entscheidung?
Landkarten der Aufmerksamkeitssteuerung
Einen Teil der Antworten finden wir bei Prof. Dr. Christof Koch in Seattle. Der US-amerikanische Ausnahmewissenschaftler mit deutschen Wurzeln hat die letzten 25 Jahre am California Institute of Technology geforscht und wurde kürzlich zum Direktor des Allen Institutes for Brain Research ernannt – ein mit mehreren Hundert Millionen US-Dollar ausgestatteten wissenschaftlichen Mammutprojekt des Microsoft-Gründers Paul Allen (www.alleninstitute.org/about_us/staff/christof_koch.html). Kochs erklärtes Lebenswerk, an dem er über ein Jahrzehnt auch mit dem Nobelpreisträger Francis Crick arbeitete, besteht in der neurowissenschaftlichen Entschlüsselung des menschlichen Bewusstseins – die Tragweite dieses Projekts wird gern mit Cricks Entschlüsselung der menschlichen DNA verglichen.
Im Rahmen dieses ehrgeizigen Projekts beschäftigte sich Koch jahrelang mit eben unserer Frage: Wie strukturiert das Gehirn die Millionen von Bits, die sekündlich über den optischen Nerv in den visuellen Cortex geleitet werden – davon sind einige Bits interessanter und relevanter als andere. Doch wie entscheidet das Gehirn nun auf Basis dieser Datenmassen, welche konkreten Bereiche des Blickfelds genauer fixiert werden sollen?
Kochs Ansatz war so erstaunlich wie genial: Statt Probanden Bilder zu zeigen und dabei vor allem die Verhaltensreaktion zu untersuchen, konzentrierte er sich in seiner Analyse zunächst auf die Beschaffenheit der Bilder. Seine These: Unwillkürliche Aufmerksamkeitsprozesse würden vor allem durch statistische Eigenschaften der Stimuli gesteuert – Farb- und Helligkeitskontraste, Konturen und Bewegungen – um einige intuitive Beispiele zu nennen. Nun war zum einen bekannt, dass Neuronenverbände im visuellen Cortex sehr wählerisch auf ebendiese Eigenschaften reagieren. So sind bestimmte Bereiche für Farbkontraste empfänglich, andere wiederum reagieren ausschließlich auf bestimmte Konturen und Formen. Koch ging davon aus, dass diese spezialisierten Neuronenverbände jeweils eine „Karte“ der wahrgenommenen Umwelt aus ihrer Perspektive berechnen. Im zweiten Schritt würden diese Einzelkarten in einer großen Karte zusammengefasst, auf welcher der Ort der interessantesten nächsten Fixation festgelegt werden könnte. Und so machte er sich daran, genau diese Karten – sogenannte „Saliency Maps“ – auf Basis einiger ausgewählter Bildstatistiken zu berechnen und am Computer zu simulieren:
Kochs bestechende Grundidee: Je genauer eine Saliency Map echte Aufmerksamkeitsprozesse vorhersagt, desto eher spiegelt sie auch grundlegende Mechanismen der Aufmerksamkeitssteuerung im Gehirn wider – und liefert uns somit mathematische Einsichten in die Funktionsweise des Gehirns.
Obwohl eine klassische Saliency Map somit im Prinzip auch als Vorhersage interpretierbar ist, war Koch zunächst nicht an der direkten Anwendbarkeit seiner Algorithmen interessiert – für ihn war primär das theoretische Fundament interessant, dass uns letztlich zu einem tieferen Verständnis menschlicher Aufmerksamkeitsprozesse führen würde. Der ursprüngliche Code zur Berechnung von Saliency Maps ist mittlerweile primär als Lehrmittel für Doktoranden, aber auch in kommerziellen Lösungen wie Feng-Gui (www.feng-gui.com) oder AttentionWizard (www.attentionwizard.com) im Einsatz. Gänzlich kostenlos kann er sogar auf der Webseite von Prof. Dr. Laurent Itti heruntergeladen werden (ilab.usc.edu/toolkit/), der zu den einflussreichsten ehemaligen Schülern Kochs gehört. Obacht ist allerdings angebracht: Für Webseiten oder Werbemittel im Allgemeinen liegt die Vorhersagegenauigkeit des klassischen Algorithmus kaum über der Zufallsschwelle. Dies war aber auch nie der Sinn und Zweck von Kochs und Ittis wissenschaftlicher Pionierleistung, die mittlerweile Teil jedes Lehrbuchs zur Neurowissenschaft der Aufmerksamkeit ist.
Von der Theorie zur Anwendung: Eye-Tracking-Studien machen den Unterschied
Der Durchbruch in der Anwendbarkeit von Aufmerksamkeitsmodellen sollte erst einige Jahre später gelingen: Prof. Dr. Peter König, ein Freund und Kollege Kochs, wurde 2003 von der ETH Zürich an das Institut für Kognitionswissenschaft der Universität Osnabrück berufen. König, studierter Mediziner und Physiker, ist wie Koch ein Neurowissenschaftler, der menschliche Wahrnehmungsprozesse und neuronale Mechanismen vor allem mit computergestützten Simulationen zu verstehen versucht. Im Rahmen eines EU-Projekts ging es König zunächst darum, möglichst menschenähnliche Aufmerksamkeitsprozesse zur Steuerung eines Roboterkopfes zu implementieren. Dabei griff König auch auf die theoretischen Grundlagen von Kochs Saliency-Map-Modell zurück, erweiterte dieses aber um eine entscheidende Komponente: groß angelegte Eye-Tracking-Studien, in denen die Saliency Maps mit einer empirischen Datenbasis verknüpft werden. Das Ziel: Aufmerksamkeitsmodelle, die in ihren Vorhersagen so nah wie möglich an menschliches Blickverhalten kommen.
In den Eye-Tracking-Studien analysierte König dazu konkret, welchen empirischen Effekt ca. 50 verschiedene Bildstatistiken auf die Blicklenkung haben – so ermöglicht Königs Ansatz also eine direkte Verknüpfung der bildstatistischen Analyse mit dem empirisch aufgezeichneten Blickverhalten echter Probanden.
König, dessen erklärtes Ziel eine anwendungsorientierte Grundlagenforschung ist, sah insbesondere in einem Bereich ein großes Potenzial für die neue Technologie: bei der Analyse und Optimierung von Webseiten und Online-Shops. Der Grund: Für ein akkurates Aufmerksamkeitsmodell sind mehrere Hundert Eye-Tracking-Studien notwendig, die im selben Bereich gewonnen wurden, in welchem das Modell später auch Vorhersagen treffen soll. Und nirgendwo sonst ist eine solche Vielzahl an Erhebungen schneller durchzuführen als bei der Betrachtung von Webseiten. (Für Point-of-Sale-Studien wäre z. B. der Einsatz mobiler Eye-Tracker unabdinglich.) Zugleich war bereits 2006 klar, dass im Netz insbesondere die ersten Sekunden eine immer wichtigere Rolle spielen würden. Und gerade für diese ließ sich die Aufmerksamkeitswirkung über Königs Ansatz sehr zuverlässig berechnen.
Knapp drei Jahre arbeitete Königs Team an Hunderten Eye-Tracking-Studien, in denen die Blicke von Probanden bei der Betrachtung von Webseiten pixelgenau aufgezeichnet wurden. Im zweiten Schritt wurden die Ergebnisse in die Programmierung darauf basierender Aufmerksamkeitsmodelle eingebunden. 2008 war es so weit: In einer groß angelegten Evaluationsstudie überschritt die Vorhersagegenauigkeit erstmalig 80 % der Performance einer Eye-Tracking-Studie. Durch weitere Anpassungen des Modells konnte die Genauigkeit mittlerweile auf 90 % gesteigert werden. Mit diesen Werten konnten auch die ursprünglichen Erfinder von Aufmerksamkeitssimulationen überzeugt werden: Christof Koch und Laurent Itti bilden seit 2010 EyeQuants wissenschaftlichen Beirat und steuern maßgeblich zur Weiterentwicklung der Technologie bei.
Von der Anwendung zur Praxis – Aufmerksamkeitsmodelle in der Conversion-Optimierung
Seit 2009 steht die Technologie als Webdienst zur Verfügung (www.eyequant.de). Die Idee: Online-Marketer laden Screenshots oder URLs ihrer Webseiten hoch und erhalten innerhalb von Sekunden Ergebnisse. Neben klassischen Heatmaps, welche die aufmerksamkeitsstärksten Bereiche markieren, bietet die Auswertung auch eine sogenannte Wahrnehmungskarte – diese simuliert den eingangs beschriebenen Effekt, in welchem wir zwar meinen, alles wahrzunehmen, tatsächlich aber nur einen kleinen Bereich um die fixierten Punkte herum wirklich gut sehen.
Der Mehrwert computergestützter Aufmerksamkeitsanalysen für die Conversion-Optimierung liegt keineswegs einfach in einem „Ersatz“ echter Eye-Tracking-Studien. Letztere ermöglichen tiefer gehende Usability-Analysen, die gerade bei komplexeren und längerfristigen Interaktionen sehr aufschlussreich sein können. Die sehr viel günstigeren Computermodelle simulieren hingegen „nur“ die ersten drei bis fünf Sekunden – exakt die Zeitspanne, in der die berechenbaren unwillkürlichen Aufmerksamkeitsprozesse ihren stärksten Einfluss haben. Und exakt die Zeitspanne ist für Landingpages besonders relevant!
Der Vorteil der Modelle liegt dabei vor allem in ihrer Geschwindigkeit: Da die Ergebnisse bereits nach Sekunden (und nicht Wochen) zur Verfügung stehen, wird damit erstmalig auch eine iterative Optimierung möglich, in der sich ein Designer schrittweise an die Verbesserung eines Landingpage-Entwurfs macht. Zugleich ermöglichen einige Anbieter mittlerweile die Flatrate-Nutzung ihrer Technologie, in der für einen monatlichen Basispreis unbegrenzt Analysen durchgeführt werden können.
Was aber bedeutet die Verbesserung der initialen Aufmerksamkeitswirkung eines Designs konkret? Im Rahmen dieses Artikels konzentrieren wir uns auf einen der wichtigsten Hebel: die Sichtbarkeit objektiver Vertrauenselemente im Verbund mit einem sofort wahrgenommenen Call-to-Action.
Welcher Effekt sich darüber erzielen lässt, zeigt eine Case Study der Agentur explido WebMarketing, in der eine Landingpage der Union Investment mittels iterativ eingesetzter Aufmerksamkeitsanalysen optimiert wurde – durch einen nachweislich verstärkten visuellen Fokus auf Vertrauenselemente und den Call-to-Action erzielte die optimierte Variante eine um 177 % höhere Conversion-Rate. Abbildung 6 zeigt die Wahrnehmungskarte des Originals und der optimierten Version:
Neben der Anwendung im „Boosting“ von Webseiten ergeben sich einige weitere interessante Nutzungsszenarien: Die schnelle Verfügbarkeit der Ergebnisse ermöglicht generell auch eine Anwendung im Vertrieb – Agenturen können somit z. B. bereits vor einer eventuellen Auftragserteilung objektive Optimierungspotenziale aufzeigen, die sie sonst eher subjektiv kommunizieren müssen. Zugleich lassen sich auf Basis der Ergebnisse viele Entscheidungen schneller und erfolgversprechender fällen, die sonst in längerfristigen (und oftmals schlichtweg ineffizient geführten) Diskussionsprozessen gefällt werden.
Abschluss: Einkaufsführer Aufmerksamkeitsanalysen
Im Prinzip handelt es sich bei den Webdiensten zur Aufmerksamkeitsanalyse um die ersten wirklich skalierbaren Neuromarketing-Technologien, die ohne den Aufwand größerer (und entsprechend teurer) Studien Ergebnisse liefern – ohne Zweifel eine spannende Entwicklung.
Nun ist „Neuromarketing“ aber weder ein geschützter Begriff noch gibt es einen Verband, der über die Seriosität einzelner Anbieter, Dienstleister und Berater wacht. Gleichzeitig tummeln sich – wie bei jedem Trendthema – mittlerweile auch bei den automatisierten Aufmerksamkeitsanalysen einige unseriöse Anbieter auf dem Markt. Zum Abschluss sollen hier deswegen drei wichtige Punkte aufgelistet werden, anhand derer sich Unternehmen und Agenturen, die den Einkauf von Aufmerksamkeitsanalysen und Neuromarketing-Leistungen generell erwägen, orientieren sollten:
Background-Check: Seriöse Neuromarketing-Anbieter zeichnen sich grundsätzlich durch eine unmissverständliche Forschungsanbindung aus: Ist der Anbieter mit einer universitären oder anderen wissenschaftlichen Institution assoziiert? Kann Letztere dabei relevante Publikationen in neurowissenschaftlichen Journalen vorweisen? Technologien zu Aufmerksamkeitsanalysen lassen sich nicht als Wochenendprojekt einer Agentur implementieren!
Jargon-Check: Unseriöse Anbieter verraten sich oftmals schon durch die in Marketingmaterialien verwendete Sprache. Stolpert man über amüsante Wortschöpfungen wie die „Gehirnforschung“ (Wissenschaftler sprechen hier ausschließlich von der „Hirnforschung“) und ähnliches Trendvokabular, sollte man den Anbieter noch einmal einem sehr genauen Background-Check unterziehen. Auch der inflationäre Gebrauch des Präfix „Neuro-“ sollte stutzig machen.
Evaluations-Check: Klar ist, dass Anbieter die Leistungen ihrer Beratung oder Technologie bewerben wollen. Selbstverständlich sollten diese dabei aber auch in der Lage sein, Hintergründe, Funktionsweisen und Evaluationsmethoden sowie deren Herkunft genauer zu erläutern. Flüchtet sich ein Anbieter in nebulöse Umschreibungen („erreicht 340 von 410 Performance-Punkten gemäß der Emotional-Calibration-Systems-Skala“) gilt es, vorsichtig zu sein: Hier wird mittels Jargon Wissenschaftlichkeit vorgegaukelt, die im Produkt nicht vorhanden ist.