Im März fand in München nach der „Corona“-Summer-Edition die SMX erstmals wieder als volle Konferenz statt. In bis zu sechs parallel laufenden Tracks gab es Fachvorträge von über 70 Speakers zu Themen wie SEO, SEA, Content, Analytics & Data und auch Usability. Natürlich hat sich das Thema künstliche Intelligenz (AI) durch die gesamte Veranstaltung gezogen und so bekamen alle Teilnehmenden einen teilweise sogar tagesaktuellen Einblick in das Geschehen und in diverse Tools. Website Boosting hat sich wie immer die beiden Tage für Sie umgeschaut und einige Highlights zusammengestellt.
Die SMX 2023 – Full house
Gleich die erste Keynote befasste sich mit dem Thema SEO und künstliche Intelligenz (AI). Lily Ray aus New York brachte alle Zuhörer auf den aktuellen Stand und gab ihre Einschätzungen über die bereits jetzt übersehbaren weiteren Entwicklungen ab. Nach Meinung von Ray wird AI die Arbeit für SEO nicht ersetzen, aber SEOs sollten sich dringend mit den Möglichkeiten vertraut machen, AI richtig einzusetzen. AI-Tools können die Arbeit vereinfachen und effizienter machen. Und neben dem richtigen Einsatz solcher Tools sollte man auch nicht die vielen anderen Dinge vergessen bzw. vernachlässigen, die sich parallel in Sachen SEO ereignen und genauso wichtig sind (Abbildung 1). So gibt es zunehmend und verschärfend Wettbewerb mit TikTok und Amazon.
„AI Chatbots will not replace search. But they will change and enhance the way people search“, Lily Ray.
Googles Aussagen zur Verwendung von AI ist – nach einem ersten Reflex: Das ist Spam und so behandeln wir das – mittlerweile revidiert und präzisiert worden. Solange Content die folgenden Anforderungen erfüllt, ist es nach Rays Meinung okay, wenn man AI-Tools einsetzt:
- Es handelt sich um originalen Content und keine Kopie und die inhaltliche Qualität ist hoch.
- E-E-A-T-Merkmale sind vorhanden (Erfahrung, Expertise, Autorität, Vertrauen).
- Das sogenannte „Helpful Content“-Rankingsystem von Google beurteilt die Seite positiv.
- Es gibt keine falschen Informationen auf der Seite.
- Der Zweck der Content-Erstellung ist nicht, das Ranking zu beeinflussen.
Wichtig ist es vor allem, für wichtige Content-Inhalte den Ersteller anzugeben. Wurde der Content dagegen mit einer KI erstellt, sollte man diese nicht als „Author“ angeben. Letztlich bleibt am Ende auch die Frage, ob und wie gut Google solche künstlich erstellten Inhalte erkennen kann. Abbildung 2 zeigt, dass Tools dazu durchaus in der Lage sind, also kann man wohl getrost davon ausgehen, dass Google das ebenfalls kann. Dies gilt natürlich nur für „puren“ KI-Content, der mittels Copy-and-paste übernommen wird. Je umfangreicher ein Mensch solche Texte überarbeitet, (vor-)strukturiert und sich von einem Tool „nur“ unterstützen lässt, desto schwieriger wird die Erkennung. Und letztlich ist es ja auch völlig in Ordnung, sich einer solchen Unterstützung zu bedienen. Das betont ja auch Google inzwischen.
Interessant war der Hinweis von Lily Ray, dass Google wohl ein neues Ranking-Signal eingeführt hat, das domainweit gelten soll. Eine Art Flag für nicht nützlichen Content, den „unhelpful content classifier“. Wenn also ein Großteil einer Domain aus günstig zusammengestellten und eben nicht besonders nützlichem Content besteht, wirkt sich das in Form eines schlechteren Rankings für die gesamte Domain aus. Das Ganze funktioniert voll automatisiert und kontinuierlich ohne manuelle Eingriffe durch die Spam-Fighter. Überschreitet eine Domain den Schwellenwert und es gibt ein De-Ranking, kann dies nur durch das Entfernen des nicht nützlichen Contents behoben werden.
Zur Erkennung von „unhelpful content“ können auch Signale herangezogen werden, die messen, ob eine Site für zu viele unterschiedliche Themen publiziert und vorgibt, für all das eine Expertise zu haben. Auch das Fehlen fachlicher Tiefe, zu schnell zu viel Informationen (als typisches SEO-Muster) oder auch zu viele Ads und Affiliate-Links können hier offenbar ein Indikator sein.
„The Rise of AI“, so der Titel von Bastian Grimms wirklich herausragendem Vortrag. Er zeigte unter anderem, was in der nahen Zukunft auf uns zukommt. Gesichter in Videos inklusive Mimik und Stimme sind bereits heute problemlos möglich und für wenige Dollar auf einschlägigen Plattformen von Laien zu bewerkstelligen. Die Gewöhnung an das bequeme Homeoffice mit den einfachen Möglichkeiten der Videounterhaltung könnte also vielleicht trügerisch gewesen sein. Wenn wir einem Bewegtbild und einer zugehörigen Stimme nicht mehr trauen können, müssen wir dann bald wieder raus aus unseren Wohnzimmern und auf die Straße zu Kollegen und Kunden? Und an weitere soziale Auswirkungen darf man gar nicht erst denken, denn prinzipiell kann man künftig auch keinen Nachrichten mehr trauen, keinen Interviews, keinen Social-Media-Posts? Alles kann gefakt werden und wer nicht ganz naiv ist, wird erkennen: Das wird auch passieren. Über entsprechend moderne, technisch „mithaltende“ Authentifikationsverfahren hört man bisher jedenfalls noch wenig.
Derzeit werden AI-Systeme unter anderem mit Informationen aus dem Web trainiert. Was passiert aber, wenn zunehmend AI-generierter Content zurück ins Web publiziert wird? Dann trainieren sich Maschinen später mit ihren eigenen Datensets. Grimm sprach in diesem Zusammenhang von „Circular Reference Error“. Ein Problem, für das es bisher zumindest noch keine Lösung gibt. Bereits jetzt gibt es über 1.400 Tools, die Machine Learning oder künstliche Intelligenz einsetzen. Und ihre Zahl ist stark ansteigend. Als besonderen Tipp gab Grimm die neue Suchmaschine für AI-Tools an, theresanaiforthat.com (Abbildung 5), die – wie könnte es anders sein – mittels KI derzeit über 4.000 Tools für über 1.000 Aufgaben zur Abfrage vorrätig hält. Wer auf Amazon aktiv ist, sollte sich Copymonkey näher ansehen. Damit lassen sich Product-Listings in Sekunden generieren und optimieren. Humata.ai fasst lange Dokumente zusammen, was für den schnellen Überblick mit wenig Zeit sicher nützlich ist. Und wer seine Produkt- oder Unternehmensvideos in andere Sprachen mit passenden Stimmen transferieren möchte, für den ist murf.ai auf jeden Fall einen Besuch wert. Grimm erwähnte auch, dass er noch beim Frühstück einige Aktualisierungen am Foliendeck vornehmen musste, weil sich praktisch täglich etwas in diesem Bereich tut.
„Warning: Circular Reference Error“, Bastian Grimm.
Ist Google Analytics im europäischen Raum illegal? Selbst Experten wie Lennart Paulsen konnte diese Frage nicht umfassend beantworten. Er wies darauf hin, dass selbst SAP von US-amerikanischen Nachrichtendiensten gezwungen werden könnte, Daten von deutschen Unternehmen herauszugeben, da sich eine Niederlassung in den USA befindet und es unerheblich wäre, wo die Daten gespeichert würden. Entscheidend ist der juristische Zugriff auf ein Unternehmen und wenn sich zum Beispiel ein Tochterunternehmen in den USA niedergelassen hat, kann dies zu derartigen Konflikten führen.
Dr. Liraz Margalit erklärte als Psychologin und Verhaltensforscherin, welche Rolle die Besuchererfahrungen in einer Zeit der Unsicherheit spielen. Viele Unternehmen verstehen den Unterschied zwischen Customer-Service und Customer-Experience nicht richtig. Als Beispiel nannte sie Starbucks, die ihren Kaffee bekanntlich sehr viel teurer verkaufen als alle andern Coffeeshops. Was Starbucks besonders macht, ist das besondere Feeling für die Kunden. Die meisten Kunden sind einfach gerne dort. Man sollte sich nicht über den Preis oder das Produkt mit der Konkurrenz vergleichen, sondern über die Erfahrungen. Als weiteres Beispiel erklärte sie, dass Ferrari-Kunden weltweit nach Italien reisen, um ihr Auto für 500 Euro oder mehr in Empfang zu nehmen, und es dann aber an den Wohnort liefern lassen. Hier werden Emotionen verkauft. Warum kaufen so viele Menschen bei Amazon ein, obwohl es die Produkte woanders oft günstiger gibt? Weil es hier Sicherheit gibt. Das problemlose Zurückschicken, die schnellen und verlässlichen Lieferungen oder die Bewertungen von Händlern bewirken Vertrauen, sodass hier gerne auch mehr bezahlt wird. Und über positive Emotionen bzw. Erfahrungen gelangt man schneller und einfacher in das Langzeitgedächtnis bei Kunden. Dummerweise finden gerade negative Erfahrungen leichter in diesen Teil des Gedächtnisses, sodass es laut Margalit immer das Ziel sein muss, die Erwartungen zu übertreffen. Es gilt, den sogenannten „Wow“-Effekt im Kopf des Kunden zu erzeugen. 85 % aller Kaufentscheidungen werden durch solche Emotionen getriggert. Ihr Rat am Ende: Fragen Sie sich, wer hinsichtlich dieser Perspektive die „echten“ Mitbewerber sind. Funfact am Rande: Netflix sieht nicht Amazon Video oder Hulu als Mitbewerber, sondern das Einschlafen …
„Don’t compete on price or product – compete on experience“, Liraz Margalit.
Johan von Hülsen nahm sich des Themas der strukturierten Daten an und wies darauf hin, wie wichtig diese für Suchmaschinen wären. Während immer wieder spekuliert wird, ob diese tatsächlich verarbeitet würden, machte von Hülsen ein Experiment. Auf seiner Website hinterlegte er bei seiner Biografie den Geburtsort „Bad Oldesloe“ via einer Auszeichnung nach Schema.org. Wohlgemerkt nur dort als sogenannte Metadaten und unsichtbar auf der Website selbst. Mittlerweile gibt Bing diesen Geburtsort im Ergebnis-Snippet in der Suche aus (Abbildung 7). Er empfahl, sich des Themas einmal tiefer gehend anzunehmen und alle bereits sowieso vorhandenen Daten, zum Beispiel über Produkte, Personen, Marken, Orte etc., entsprechend in die Seitenvorlagen einzubauen. Diesen Aufwand muss man in der Regel nur einmal machen. Das Tool „OpenRefine“ kann dabei laut von Hülsen gut unterstützen. Die Wichtigkeit von strukturierten Daten via Mark-up wurde übrigens noch von einigen anderen Speakers auf der SMX betont.
Tipps und Tricks zum bekannten SEO-Crawler „Screaming Frog“ fehlen praktisch auf keiner einschlägigen Konferenz. Julian Dziki zeigte, wie man mit einigen wenigen Klicks Duplicate Content auf der eigenen Domain finden kann, exakte, aber auch nahezu identische Inhalte. Dazu wählt man im Menü „Konfiguration“ den Punkt „Duplikate“ aus (Abbildung 9, Ziffer 1). Dort aktiviert man das Kästchen bei „Nahduplikate aktivieren“ und stellt die Ähnlichkeitsschwelle laut Dziki am besten auf 70 % ein. Im zweiten Schritt stellt man sicher, dass im Menüpunkt „Crawlanalyse“ das Kästchen bei „Inhalt“ aktiviert ist (Abbildung 9, Ziffer 2). Nach dem Durchlauf eines Crawls findet man in den Auswertungen unter „Content“ dann tatsächlich alle URLs, die exakte, aber eben auch „fast identische“ Duplikate sind. Der genau festgestellte Ähnlichkeitsgrad wird dabei auch ausgegeben. Neben vielen anderen Tipps wies er unter anderem darauf hin, dass man verschiedene Crawls zu verschiedenen Zeitpunkten automatisch miteinander vergleichen lassen kann. Wer also regelmäßig seine Daten wegspeichert, kann bei Problemen später den aktuellen Stand mit einem vorherigen vergleichen und somit gezielt alles herausfiltern, was seitdem geändert wurde.