Jetzt erobern sie die Wohnzimmer Deutschlands: Amazon Echo (alias Alexa) und bald auch Google Home. Diese Sprach-Assistenten lassen für Konsumenten einen neuen, sprachgesteuerten Zugang zum Internet entstehen. Was aber bedeutet das für Händler und Marken? Kann man die Sprach-Assistenten Alexa & Co. für das eigene Marketing einsetzen (und wie)? Verschiedene strategische Ansätze zur Nutzung der Sprach-Assistenten und auch ein erster kurzer Einblick in die notwendige Technik dahinter werden auf den nächsten Seiten diskutiert.
Online-Marketing mit Alexa:
Small Talk mit dem Kunden im Wohnzimmer
„Alexa, spiele Musik von Elvis“, „Alexa, was ist die Hauptstadt von Brasilien?“, oder „Alexa, setze Zucker auf die Einkaufsliste“ – so tönt es immer häufiger in den deutschen Wohnzimmern. Der Grund: Immer öfter sprechen Menschen mit ihren Computern, statt zu tippen oder auf Bildschirmen zu wischen. Und die Antwort ist dann auch nicht auf einem Bildschirm zu sehen, sondern wird gesprochen.
Amazon drängt es dabei mit Alexa (wie der Amazon Echo auch oft genannt wird) massiv in die Haushalte. Mit einem günstigen Preis von gerade noch € 60,- für den Echo Dot, einem deutlich erhöhten Werbedruck und den bei Amazon liegenden Internet-Audio-Rechten für die Bundesliga (die damit wohl über Alexa zu hören sein dürfte), ist es nicht schwer vorherzusagen, wie häufig Alexa schon bald die neue Mitbewohnerin für viele Menschen sein wird.
Was aber haben E-Commerce-Händler und Markenhersteller von der Verbreitung des Amazon Echo? Und warum sollten Sie sich dringend damit beschäftigen? Ist es doch auf den ersten Blick für Unternehmen nicht interessant, wenn Kunden über Alexa Musik hören, sich die Welt erklären oder eine Einkaufsliste zusammenstellen (und natürlich bei Amazon selbst bestellen) lassen.
Auf den zweiten Blick aber ist der Amazon Echo nicht einfach das nächste Produkt der Verkaufsplattform. Vielmehr eröffnen die digitalen Assistenten für den Konsumenten einen völlig neuen Zugang zum Internet und damit auch zu jedem einzelnen Unternehmen. Diese haben über den Echo einen komplett neuen Zugangsweg zum Kunden – direkt in die Wohnungen hinein.
Verantwortlich dafür sind die Schnittstellen, mit denen sich Drittanbieter in Alexa einklinken können. So kann beispielsweise das Restaurant Müllermeier Alexa ermöglichen, Fragen wie „Alexa, frage Müllermeier, was heute das Mittagsmenü ist“ zu beantworten. Der Amazon Echo wird so zu einem immer wichtiger werdenden Touchpoint für Unternehmen.
Ein Ökosystem entsteht
Um die Bedeutung von Amazon Echo oder auch Google Home für Unternehmen zu verstehen, kann man eine Analogie zu Android bemühen: Android ist erst einmal nur ein Betriebssystem für Smartphones und als solches für Unternehmen wenig von Interesse. Für die Nutzer (und damit für Unternehmen) wirklich interessant wird Android aber durch die vielen Millionen Apps in den App-Stores. Zu fast jedem Thema findet sich inzwischen (mindestens) eine App, die das Smartphone so zum individuellen Alltagshelfer machen. Und für Unternehmen sind Apps heutzutage ein wichtiges Tool für die Kundenbindung (Restaurant Müllermeier hat auch eine App, die den Nutzer automatisch erinnert, wenn es seine Lieblingsgerichte zu Mittag gibt).
Analog zu Android verhält es sich auch mit dem Amazon Echo. Wirklich interessant wird dieser erst durch die sogenannten Skills (man könnte auch „Apps“ oder „Plug-ins“ sagen – Amazon nennt sie aber „Skills“). Diese Skills werden von Drittanbietern programmiert und erweitern den Echo um neue Funktionalitäten. So wie Apps aus dem App-Store geladen werden, so werden Skills von einem Nutzer einmalig aktiviert und stehen ihm dann zur Verfügung.
Es wird nicht lange dauern, bis es eine ebenso große Vielzahl an Echo-Skills gibt wie Andoid-Apps. Der Amazon Echo ist damit eine neue Plattform für ein umfangreiches Ökosystem aus Drittanbieter-Programmen (Skills). Marketingabteilungen sollten sich gerade jetzt dringend mit diesem Thema beschäftigen, bevor der Wettbewerb dort die eigenen Themen besetzt.
Nicht nur Amazon
Der bereits seit geraumer Zeit verfügbare Amazon Echo ist allerdings nicht der einzige Sprach-Assistent, der diesen Wachstumsmarkt besetzen möchte. Noch 2017 wird Google ein vergleichbares Produkt „Google Home“ auch nach Deutschland bringen. Darüber hinaus hat die Samsung-Tochter Harman im Mai angekündigt, einen Lautsprecher mit Cortana (Microsoft) in die Wohnzimmer zu bringen, für Siri (Apple) gab es ebenfalls Gerüchte um eine eigenständige Hardware als Sprachassistent und Samsung hat vor nicht allzu langer Zeit eine eigene Software unter dem Namen Bixby herausgebracht. Inzwischen gibt es also eine ganze Familie an sprachgesteuerten Assistenten.
Eines ist jedoch sicher: Der Kampf der Giganten um den zukünftigen Zugang zum Kunden ist entbrannt. Jeder von ihnen möchte das massiv wachsende sprachgesteuerte Zugangstor zum Internet besetzen.
Und Unternehmen von Händlern bis Markeninhabern sollten dabei sein, denn alle genannten Systeme verstehen sich als eine Art Sprach-Betriebssystem und stellen Drittanbietern Programmierschnittstellen zur Verfügung, mögen diese Plug-ins, Apps, Skills oder Actions heißen.
Es ist also dringend zu überlegen, wie der Amazon Echo (und zukünftig Google Home) sinnvoll in das Marketing integriert werden kann. Das Spektrum der Möglichkeiten ist breit und reicht von Kundenservice über Kundenbindungsmaßnahmen bis zur Markenführung.
Gesprochener Kundenservice
„Alexa, frag Schmittmeier, wann meine Bestellung mit Bestellnummer 12345 kommt“, und Amazons Echo antwortet: „Ihre Bestellung wurde gestern verschickt und sollte Sie heute erreichen.“ So könnte ein einfacher Kundenservice über Alexa aussehen. Technisch ist das letztendlich für den Bestellstatus nur eine andere Ausgabeform (nämlich mündlich über Alexa) neben dem Bestellstatus im Kundencenter der Website, in der App oder telefonisch per Callcenter. Nur ist es für den Kunden jetzt sehr einfach: Er muss zu Hause nur die Frage aussprechen und bekommt die Antwort. Nach dem Handy suchen, den Laptop aufklappen oder zum Telefon greifen entfällt völlig. Komfortabler kann Kundenservice nicht sein.
Interessant wird Kundenservice aber erst, wenn man über reine Statusabfragen hinausgeht und Dialoge aufbaut. Ikea könnte auf diesem Weg beispielsweise auf „Alexa, frag Ikea, wie man das Billy-Regal aufbaut“ Schritt für Schritt durch den Aufbau führen. Oder Siemens könnte die Bedienung der neuen Waschmaschine durch Alexa erläutern lassen, ebenso wie Canon auf „Alexa, frag Canon, wie man den WLAN-Drucker anschließt“ mit gesprochenen Anweisungen helfen könnte. Mit „Haben Sie diesen Schritt abgeschlossen?“ oder „Brauchen Sie noch detaillierte Hilfestellung?“ etc. kann der Kunden gezielt geführt und in einem Dialog auf seine individuellen Bedürfnisse eingegangen werden.
Gesprochenes Content-Marketing
Wesentlich wichtiger als Serviceleistungen, die sich direkt auf Produkt und Unternehmen beziehen, wird aber eine andere Anwendung werden: Unternehmen werden (und sollten) Content-Marketing über Alexa machen. Aber nicht in Wort, Bild oder Video, wie es im Internet üblich ist, sondern Voice-Content-Marketing.
Die Inhalte und Themen werden sich dabei im gesprochenen Content-Marketing erst einmal an das klassische Content-Marketing im Web anlehnen. Das ist auch logisch, sind doch die Interessen des Konsumenten nicht plötzlich andere, nur weil der mündliche Kanal genutzt wird (der Fleck im Hemd muss weg – egal, ob man auf dem Desktop-Rechner browst, in der Handy-App nachschaut oder eben Alexa fragt).
Allerdings werden diese Inhalte nicht mehr in längeren Texten ausgeführt werden, wie es aus SEO-Gründen oft auf Websites gemacht wird (es wäre ein Fehler, über Alexa nur lange Content-Texte vorzulesen). Vielmehr muss der Content situationsspezifischer in kleineren Häppchen präsentiert werden: „Alexa, frag Meierbau, welches Holz am besten für Terrassenboden geeignet ist.“ „Alexa, frag Hemdenschmitt, wie man Erdbeerflecken rauskriegt.“ „Alexa, frag Teechef, wie lange Darjeeling ziehen sollte.“ Und in vielen Fällen ist es dann auch noch sinnvoll, nicht einfach nur eine Frage zu beantworten, sondern in einen Dialog einzusteigen: nachzufragen, ob die Informationen ausreichend waren, mehr gewünscht ist oder die Frage vielleicht anders gemeint war.
Marketingabteilungen sind jetzt also gefragt, im Content-Marketing, noch einen Schritt weiter zu gehen. Sie müssen sich intensiver mit den Lebenssituationen des Konsumenten beschäftigen und sich fragen, in welchem Lebensbereich sie Ansprechpartner im wahrsten Sinne des Wortes werden wollen. Und genau in diesem Bereich müssen Sie mit Voice-Content-Marketing mittels Alexa-Skills oder Google-Home-Actions umfassend zur Verfügung stehen.
Markenführung mündlich
Haben Sie Twix schon mal gehört? Oder mit Tempo-Taschentüchern gesprochen? Klingt komisch, ist aber gar nicht so weit hergeholt. Denn Markenverantwortliche müssen sich in Zeiten von Alexa & Co. dringend Gedanken machen, wie sich ihre Marke in den Sprach-Assistenten anhört und worüber man mit ihr sprechen kann.
Für Marken müssen jetzt „Voice Styleguides“ entstehen, sprich: Wortwahl und Tonalität einer Marke sind festzulegen und es muss geklärt werden, über welche Inhalte die Marke überhaupt spricht und welche Art von Dialogen zum Markencharakter passt (und welche nicht). Ein ganz neues Feld in der Markenführung tut sich so auf.
Verkaufen mit Alexa?
Und was tun E-Commerce-Händler mit Amazon Echo und Google Home? Sicherlich nicht platt nur Angebote mündlich abfragbar machen. Neben dem Voice-Content-Marketing können Händler auch noch weiter gehen und in die Beratung (und damit letztendlich in den Vertrieb) einsteigen.
Wenn Alexa die Frage an Weinmeister: „Welcher Wein passt zu Lasagne?“, mit: „Sehr gut passt ein Chianti, idealerweise ein Classico“, beantwortet, ist der erste Schritt zu einer Bestellung schon getan.
Und so, wie man bei Conversion-Optimierung im Webshop mit Call-to-Actions und Stimulanz arbeitet, so könnte Alexa ab und zu nachlegen: „Und diese Woche haben wir den im Angebot, darf ich Ihnen ein paar Flaschen zurücklegen?“ Nicht zu oft und zu nervig angewandt kann ein Sprach-Assistent in Form eines Produktberaters so auch umsatzrelevant für Händler sein.
Den eigenen Skill erstellen
Wie aber erstellt man nun solche Skills? Wie bringt Restaurant Müllermeier Alexa bei, auf die Frage nach dem Mittagsmenü zu antworten?
An sich ist die Erstellung eines Alexa-Skills nicht schwer. Mit etwas Programmierkenntnissen ist es leicht, sich schnell einzuarbeiten und in kurzer Zeit eigene Antworten über den Amazon Echo zu geben. Gleichzeitig können aber auch sehr komplexe Anwendungen mit Sprachschnittstelle in Programmiersprachen wie Java, Javascript oder sogar mit PHP (auf dem eigenen Server) erstellt sowie Datenbanken oder gar Schnittstellen zur internen IT genutzt werden.
Immer besteht die Echo-Anwendung dabei aus zwei Teilen: dem eigentlichen Skill in Alexa und der Programmierung, die die erhaltenen Anfragen bearbeitet bzw. die Antwort für Alexa generiert. Der eigentliche Programmcode kann dabei entweder als sogenannte Lambda-Funktion in der Amazon Cloud laufen oder auf dem eigenen Webserver über HTTPS angesprochen werden.
Eine Lambda-Funktion ist im Prinzip nichts anderes als ein auf dem Amazon Cloud-Server ablaufendes Programm in Java oder Javascript (NodeJs). Das hat einen großen Geschwindigkeitsvorteil, gerade auch bei einer sehr großen Anzahl von Anfragen. Außerdem wird in diesem Fall für die Skill-Entwicklung kein eigener Server benötigt, sondern lediglich ein Amazon-Log-in.
Der alternative Weg über HTTPS ermöglicht es dagegen, auf bestehende Software und ggfls. auch auf interne Datenbanken zuzugreifen und diese für die Antworten von Alexa zu verwenden (z. B. Bestellstatus, Content-Datenbanken, …).
Abb. 1 zeigt das Zusammenspiel der Komponenten bei Einsatz einer Lambda-Funktion. Die vom Echo aufgenommenen Spracheingaben werden von diesem an die Amazon Voice Services in der Amazon Cloud geschickt und dann ggfls. in strukturierter Form an den betreffenden Skill weitergegeben. Diese Weitergabe erfolgt durch den Aufruf der zugehörigen Lambda-Funktion (Javascript- oder Java-Funktion). Diese gibt dann den als Antwort auszugebenden Text auf dem umgekehrten Weg zurück. Abb. 2 zeigt das alternative Vorgehen mit HTTPS, das im Prinzip gleich ist, nur dass die Verarbeitung der Anfrage außerhalb der Amazon Cloud abläuft.
Im Folgenden soll beispielhaft das Vorgehen für eine Javascript-Lambda-Funktion aufgezeigt werden. Mit einem Amazon-Log-in und etwas Javascript-Kenntnissen kann damit Alexa dann sehr schnell die eigenen Antworten geben.
Den Skill anlegen
Nach einem Log-in auf developer.amazon.com kommt man über „Alexa“ und den Button „Get Started“ (bei „Alexa Skills Kit“) zur Verwaltung seiner eigenen Skills. Mit „Add a New Skill“ wird ein neuer Skill angelegt.
Es folgt die grundlegende Konfigurationsseite: die Wahl des Skill-Typs (hier ist „Custom Interaction Skill“ meist die richtige Wahl), der Sprache (natürlich „Deutsch“) und des Namens des Skills.
Wichtig ist auf dieser Seite der Invocation Name. Das der eindeutige Name des Skills, über den Anfragen diesem Skill zugeordnet werden. Jede Kommunikation, die mit „Alexa, frage (invociation-name) …“ beginnt, wird dann an den betreffenden Skill weitergeleitet. In unserem Beispiel des Restaurants Müllermeier wäre als Invocation Name also „Müllermeier“ einzutragen, damit Alexa-Nutzer später „Alexa, frage Müllermeier …“ sagen und alle entsprechenden Anfragen an die Programmierung dieses Skills weitergeleitet werden.
Das Interaktionsschema
In nächsten Schritt wird das Interaktionsschema festgelegt. Mit ihm wird konfiguriert, welche Intentionen (sprich: Funktionen) der Skill bedient und welche Formulierungen dazu jeweils verwendet werden können.
Eine Intention (Absicht) eines Alexa-Nutzers wäre beispielsweise, sich über das aktuelle Mittagsmenü zu informieren. Man könnte diese Intention jetzt „AnswerLunchIntent“ benennen (die Bezeichnung ist frei wählbar). Für diese eine Intention sind aber durchaus verschiedene Formulierungen denkbar: von „Alexa, frage Müllermeier, was heute das Mittagsmenü ist“ über „Alexa, frage Müllermeier, was es heute zu Mittag gibt“ bis „Alexa, frage Müllermeier nach dem Mittagsmenü“ (und viele weitere Varianten). Daher müssen jetzt den Intentionen die Formulierungen („Sample Utterances“) zugeordnet werden. Abb. 3 zeigt eine beispielhafte Konfiguration des Interaktionsschemas.
Ergänzt werden Intentionen und Utterances mit sogenannten Slots. Das sind eine Art Variablen innerhalb der Intentionen. Ein Beispiel wären Anfragen wie „Alexa, frage Müllermeier, wann es das nächste Mal Nudeln (Schnitzel, Wienerle, …) gibt“. In solchen Fällen muss nicht für jedes Gericht eine Intention angelegt werden. Es reicht eine einzige, die s. g. „Custom Slot Types“ enthält. Das ist letztendlich eine Liste aller möglichen Eingabewerte (im Beispiel: alle möglichen Gerichte). Auf diese Slots soll aber jetzt nicht weiter eingegangen werden, würden sie doch den Rahmen dieser kurzen Einführung sprengen.
Mit dem Interaktionsschema ist jetzt die Sprach-Schnittstelle des Skills fertig konfiguriert. Als Nächstes braucht es die eigentliche Programmierung. Sie nimmt erkannte Intents als strukturierte Anfragen in Form eines Datensatzes entgegen, bearbeitet diese und generiert eine Antwort.
Die Lambda-Funktion
Eine in der Amazon Cloud aufrufbare Javascript-Funktion kann relativ leicht angelegt werden. Über console.aws.amazon.com erreicht man die Cloud-Konsole und wählt dort (nach einem Log-in) unter Services im dortigen Bereich Compute den Punkt Lambda aus und legt eine neue Funktion über „Create a Lamda function“ an.
Ganz wichtig: Amazon hat mehrere Cloud-Center weltweit. Für eine Funktion, die aus einem Alexa-Skill angesprochen werden soll, muss unbedingt das Rechenzentrum „EU (Irland)“ gewählt sein (die Auswahl bzw. Info, in welchem Rechenzentrum man aktuell arbeitet, findet man ganz rechts oben angezeigt).
Amazon bietet für Lambda-Funktionen jetzt mehrere Templates an. Über den Filter am besten nach „Alexa“ suchen und z. B. „alexa-skill-kit-sdk-factskill“ auswählen, um automatisch den notwendigen Code-Rahmen zu erstellen. Auf der nächsten Seite als Trigger „Alexa Skill Kits“ auswählen und schließlich der Funktion jetzt noch einen Namen geben. Bei der Rechtevergabe „existing role“ und „servivce-role/alexskillrole“ wählen, um einen Zugriff von Alexa auf die Lambda-Funktion zu ermöglichen.
Skill und Lambda verbinden
Nachdem die verarbeitende Funktion besteht, muss dem Alexa-Skill gesagt werden, wo er diese eigentlich aufrufen kann. Dafür hat jede Lambda-Funktion eine eindeutige Adresse, die s. g. ARN. Sie sieht beispielhaft so aus: arn:aws:lambda:eu-west-1:867354834463:function:name_der_function und wird im Lambda-Editor rechts oben angezeigt.
Diese ARN muss im Developer Center in den Alexa-Skill eingetragen werden. Man wählt dazu bei Configuration als Endpunkt (Endpoint) „AWS Lambda ARN“ aus, klickt auf „Europa“ und trägt dann die ARN der erstellten Lambda-Funktion ein. Damit weiß der Skill, wo er das für ihn bestimmte Programm findet, wenn der Nutzer eine dafür bestimmte Frage stellt.
Die gleiche Stelle ist es übrigens, an der statt der Lambda-Funktion auch ein eigener Server über HTTPS mit dem Skill verknüpft werden kann. Man würde dann „HTTPS“ statt „ARN“ wählen und die Aufruf-URL konfigurieren.
Antworten ermitteln
Der Skill ist jetzt angelegt und die Lambda-Funktion zur Bearbeitung der Anfragen mit ihm verbunden. Jetzt muss nur noch die Javascript-Programmierung in der Lambda-Funktion so angepasst werden, dass die richtigen Intents abgearbeitet und die passenden Antworten geliefert werden.
Abb. 4 zeigt Ausschnitte eines beispielhaften Codes. Entscheidend ist hier die Zeile this.emit(':tell', 'Heute gibt es bei uns Currywurst.'), die die Antwort an den Alexa-Skill bzw. den Nutzer zurückgibt.
Ein erster funktionierender Skill ist damit fertiggestellt und Alexa kann jetzt die eigenen Antworten – im Beispiel zum Mittagsmenü – geben. Für wirklich komfortable Skills beginnt jetzt aber natürlich die eigentliche Arbeit, um vielfältige Antworten und auch Dialoge zu ermöglichen.
Testen und Veröffentlichen
Noch ein paar Tipps zum Schluss. Für das Testen und Debuggen eines Skills gibt es mehrere Stufen: Es kann die Lambda-Funktion alleine getestet werden, es kann im Developer Center für den Skill eine Anfrage eingetippt und es kann auch der Echo selbst mit einer gesprochenen Anfrage genutzt werden.
Bewährt hat sich, in der Developer Console im Abschnitt „Test“ den Service-Simulator des Skills zu verwenden. Tippen Sie dort eine mögliche Anfrage ein. Sie erhalten dann in den Feldern darunter sowohl einen JSON-Datensatz, der an die Lambda-Funktion übergeben wird, als auch die zurückgelieferte JSON-Antwort. Für ein detaillierteres Debugging der Lambda-Funktion lohnt es sich dann in einem weiteren Schritt, das angezeigte Anfrage-JSON zu kopieren und in der Labmda-Funktion unter Actions/Configure test event einzutragen und ggfls. mit console.info(„text“) Debugging-Ausgaben zu machen. Dann kann die Lambda-Funktion auch unabhängig vom Skill mit dieser einen Testanfrage debuggt werden.
Direkt mit Alexa kann der Skill getestet werden, wenn der Echo mit dem gleichen Amazon-Log-in verbunden ist, das auch für die Entwicklung (Developer Console und AWS) genutzt wurde. Dann kennt dieser eine Echo auch Skills bzw. Invocation Names, die noch in Entwicklung sind. Der Skill kann also auch auf dem später üblichen Weg angesprochen werden, obwohl er noch im Entwicklungsstadium ist.
Ist der Skill am Ende so einmal fertiggestellt, wird in der Developer Console noch eine Kategorie zugeordnet, eine Beschreibung erstellt und einige beispielhafte Fragen angegeben. Dann wird der Skill mit ein paar Klicks bei Amazon eingereicht. Nach einer Veröffentlichung steht er dann sämtlichen Alexa-Nutzern zur Verfügung.