Im November fanden in Salzburg turnusgemäß die beiden Konferenzen OMX und SEOkomm unter der Gesamtbezeichnung OXD statt. Der Fokus der OMX liegt bei allgemeinen Themen rund um das Online-Marketing, während der Name der SEOkomm bereits vermuten lässt, dass es hier hauptsächlich um alles rund um die Suchmaschinenoptimierung geht. Im Vorjahr feierte die SEOkomm ihr zehnjähriges Bestehen und diesmal feierten die Veranstalter Oliver und Uschi Hauser zusammen mit den Speakern und allen Teilnehmenden zehn Jahre OMX. Neben einem inhaltlichen Feuerwerk an spannenden Themen gab es eine gesonderte Veranstaltung am Vortag sowie eine angemessene Party nach der OMX mitten im Herzen von Salzburg. Website Boosting hat sich wie immer für Sie umgesehen und einige Highlights mitgebracht.
OMX und SEOkomm: Online-Marketing-Herzblut in Salzburg
Die Keynote zur OMX hielt Robert Seeger und er wurde sofort sehr emotional bei seinem Thema „Raus aus der KI-Durchschnittsfalle und rein ins Glück“. Er zeigte Apps, die mittels KI das Schreien von Babys analysieren sollen, Fake-Sixpacks und wie sich ChatGPT wehrt, wenn lustige Titel für Pornofilme oder eine das Publikum beschimpfende Konferenzeröffnungsrede gefunden werden sollen. Seiner Meinung nach streben gerade alle in Richtung KI und erhoffen sich dort die Lösung aller Probleme, die ein Unternehmen umtreiben kann, inklusive der Einsparung von Personal durch den Ersatz durch Maschinen. Er rief dazu auf, kreativ zu bleiben bzw. zu werden und mehr Anarchie zu wagen – statt durch eine KI noch weiter in die Mittelmäßigkeit abzudriften. Dazu braucht es natürlich Ausdauer, aber letztlich würde sich das auf jeden Fall lohnen, so Seeger. Viele Menschen, die heute zum Beispiel Chatbots wie ChatGPT nutzen, wissen gar nicht, was da im Hintergrund passiert und woher die Antworten kommen. Eigentlich müsste jede KI einen Warnhinweis tragen – eine wie in Abbildung 3 gezeigt.
„Wenn du heute Insta aufmachst, ist alles gelogen – jeder außer dir ist auf Urlaub!“ – Robert Seeger
Unsere Hirne sind auf Kontrast programmiert, KIs bügeln aber immer alles glatt und tendieren zur Mitte bzw. Mittelmäßigkeit und zum Einheitsbrei. ChatGPT ist nie „edgy“, sagte Seeger. Wir Menschen reagieren extrem auf eine schwarze Spinne auf weißem Papier. Das heutige Marketing bringt nur weiße Spinnen auf weißem Papier. Wir sollten uns mehr abheben, mehr trauen und wagen. Aber genau das leisten KIs zumindest heute eben noch nicht.
Philipp (Pip) Klöckner klärte über Marketing im Zeitalter von generativer KI auf. Eine heutige KI ist wie ein Dreijähriger, der dich in Schach schlägt und das Anwaltsexamen bestehen kann. Natürlich könnte man sich als Erwachsener daran hochziehen, das kleine Kind immer noch verprügeln zu können – schließlich ist man größer und stärker. Und der Minibengel kann ja nicht einmal Auto fahren! Na also. Aufgrund des exponentiellen Wachstums dieser Technologie werden diese Zeiten allerdings recht schnell vorbei sein. Künftige Systeme werden bald alles können, worüber wir uns heute noch lustig machen. Wenn wirklich Bedarf bestünde, würde es auch eine oder mehrere KIs geben, die wirklich gute Witze erzählen können. Nur sind die aktuellen Systeme nicht darauf trainiert worden. Das wird oft übersehen und man macht sich auf Social Media lustig über den fehlenden Humor der Chatbots.
Auch Klöckner wies darauf hin, dass derzeit von KIs immer nur konsensfähige „Mittelmeinungen“ kommen. Das wäre auch gesellschaftlich und politisch schwierig, wenn alle immer die gleiche Meinung als Antwort bekommen, so Klöckner. Und er goss Wasser in den Wein derjenigen, die sich beim KI-Einsatz Produktivitätsfortschritte erhoffen. Die relativen (!) Produktivitätsgewinne sinken trotz des Fortschritts. Der Zuwachs wird also immer geringer. Während viele Jobs durch den KI-Einsatz bedroht werden, bleiben echte Experten auf ihren Gebieten aber wahrscheinlich vorerst unersetzbar. Darüber hinaus erwähnte Klöckner noch, dass bei Google wegen der Flut an KI-generiertem Content künftig das Thema „Authorship“ wieder wichtiger werden könnte. Einige Tage später dementierten einige Google-Mitarbeiter in einem anderen Zusammenhang, dass man dies für das Ranking verwenden würde. So wie man noch immer dementiert, dass Nutzersignale keinen Einfluss hätten – obwohl man in Protokollen in Aussagen von Google in offiziellen Anhörungen explizit das Gegenteil nachlesen kann. Es bleibt also spannend.
„Nicht AI nimmt deinen Job, sondern der AI-Anwender“, Philipp Klöckner.
Robin Heintze startet seinen Vortrag über B2B Content Analytics mit der These, dass weder LinkedIn noch Google einen einzigen Kunden bringen würden. Es wäre nicht der Kanal und auch nicht das Format, so Heintze. Es geht um den Inhalt und die Botschaften, die etwas im Kopf verändern. Die Fokussierung auf einen Kanal löst das Problem eben nicht. Die Customer Journey im B2B ist oft kompliziert, die Inkubationszeiten sind länger. Um tatsächlich nachvollziehen zu können, durch welche Aktionen Interessenten am Ende bei einem Unternehmen anfragen, braucht es eigene Analysen und eine gewichtete Reichweitenmessung der einzelnen Themen und Kanäle. Dann müssen Fragen beantwortet werden, wie zum Beispiel die Korrelation zwischen Reichweite und Anfragen aussieht oder welche zeitlichen Verzögerungen sich feststellen lassen. In Teilen muss man hier „zu Fuß“ gehen, wie Heintze ganz offen zugibt. Aber besser erst einmal so starten, als die falschen oder gar keine Daten zur Entscheidungsfindung zur Verfügung zu haben. Dem Wunsch nach einer umfassenden und fehlerfreien Messung erteilt er dann auch gleich eine Absage, das ist teils technisch nicht möglich und auch in keiner Weise wirtschaftlich. Aber die Intransparenz lässt sich in jedem Fall so deutlich verringern.
Das Checken von Verstößen gegen Richtlinien mit Werbetexten bei Meta (Facebook) kann wegen der über 100 Seiten richtig viel Zeit kosten, erklärte Social-Media-Experte Felix Beilharz in seinem Tipp-Feuerwerk, das traditionell am Ende der OMX stattfindet. Statt das alles selbst durchzupflügen, kann man ganz einfach AdGPT (einfach.st/adgpt) nutzen. Das Tool sei mit den Richtlinien von Meta trainiert und erkenne mögliche Verstöße auch präventiv recht zuverlässig, so Beilharz. Der Experte wies aber auch darauf hin, dass Meta manchmal – beschönigend bezeichnet – recht „kreativ“ sei, was die Auslegung angeht. Daher kann das Tool auch schon mal danebenliegen.
Wer bei LinkedIn einen Link direkt zum Follow-Button erzeugt, erhöht die Wahrscheinlichkeit für eine überdurchschnittliche Anzahl an Followern. Dazu ruft man in den Creator-Tools den Link „Folgen“ für Creator-Profile ab (Abbildung 9). Bei YouTube hängt man einfach „?sub_confirmaWon=1“ an den Kanallink. Das funktioniert zwar für Klicks auf dem Desktop, ist aber ebenfalls eine einfache Möglichkeit, mehr Follower zu generieren.
Wenn man die Reichweite der eigenen Videos auf Social-Media-Plattformen steigern möchte, kann man den sogenannten „information overload“ nutzen. Hier werden wichtige Informationen bewusst zu schnell und/oder zu kurz gegeben. Oder man packt mehr Informationen auf den Schirm, als man in der Zeit aufnehmen könnte. Das führt dazu, dass sich die Nutzer ein Video öfter hintereinander ansehen müssen. Und das zahlt positiv auf die Bewertung durch die Plattform ein. Wenn Leute ein Video mehrmals hintereinander ansehen, muss es doch etwas Besonderes enthalten? Das funktioniere aber nur, erklärte Beilharz, wenn das Video bzw. die Informationen darin wirklich interessant genug seien. So etwas in einem normalen, drögen Werbevideo zu machen, erzeugt wahrscheinlich eher den gegenteiligen Effekt. Ebenfalls positiv auf die Viralität kann der sogenannte Looptrick einzahlen. Dabei wird ein Video so geschnitten, dass das Ende optisch nahtlos in den Anfang übergeht und die Betrachter gar nicht merken, dass es wieder von vorne läuft. Das führt ebenfalls dazu, dass ein Video am Ende mehrmals hintereinander abgespielt wird.
„Es ist ja viel passiert in den letzten zwölf Monaten. Oder in OpenAI-Zeitrechnungen: in vier Tagen. Eine wilde Woche!“, Bastian Grimm.
Die am nächsten Tag stattfindende SEOkomm wurde von Bastian Grimm mit „Tomorrow’s SEO – How AI is reshaping Search“ eröffnet. Wie man KI bei der Suchmaschinenoptimierung einsetzen kann, zeigte er anhand von Redirects. Die werden klassisch bisher durch einen Crawler wie Screaming Frog mit einer anschließenden Aufbereitung in Excel erledigt. Dabei werden am Ende den alten die neuen URLs manuell vom Menschen zugeordnet. Wenn man sich aber vor Augen führt, dass man über Wortvektoren eben auch rechnen kann, lässt sich auch hier eine maschinelle Unterstützung einsetzen. Dazu extrahiert man den Hauptinhalt jeder URL und kombiniert den Title und die Überschriften (H1, H2 etc.) mit dem Kern-Content. Aus den Textabschnitten zieht man dazu jeweils den ersten und letzten Satz (Abbildung 10). Die so generierten Embeddings werden dann in einer Vektordatenbank wie zum Beispiel Pinecone gespeichert.
„KI plus Agenten werden den SEO-Job nachhaltig verändern.“ – Bastian Grimm
Jetzt ist es möglich, einen semantischen Vergleich über diese Datenbank zu machen, um den besten Match herauszufinden. Die Maschine findet automatisch für die semantische Signatur einer alten URL die am besten passende aus den bestehenden URLs – und schon hat man die Zieladressen für die notwendigen Umleitungen. Hat man allerdings sehr viele thematisch sehr ähnliche Seiten, muss man wahrscheinlich noch manuell nachhelfen. Ein Matching auf inhaltlicher Ebene kann natürlich auch für die Optimierung der internen Verlinkung nützlich sein. Ebenso könnte man mit so einer Datenbasis auch Content-Lücken finden – welche Themen fehlen mir eigentlich? Grimm zeigte sich überzeugt, dass KIs zusammen mit Agentensystemen den SEO-Job nachhaltig verändern werden.
Was kann man von erfolgreichen Online-Shops lernen? Die Antwort auf diese Frage gab Stephan Czysch. Eine traurige Wahrheit bei der Suchmaschinenoptimierung wäre, dass es eigentlich nur zwei Säulen gibt. Relevanz und Popularität. Viele Unternehmen scheitern schon beim ersten Punkt, der Relevanz. Als schlechtes Beispiel nannte er Media Markt. Wenn man nach einem Getränkekühlschrank sucht, gibt es dort scheinbar kein relevantes Dokument. Nutzt man die interne Suche auf der Site von Media Markt, tauchen 230 Produkte auf, die diesem Keyword entsprechen. Inventar ist also da, aber es fehlt eine relevante Einstiegsseite dafür. Und ohne lässt sich ein gutes Ranking in der Regel eben nicht aufbauen. Geht man einen Schritt tiefer (Abbildung 12), lassen sich oft viele Kategorien bzw. Eigenschaften definieren, nach denen in Kombination mit dem Haupt-Keyword gesucht wird und für die man entscheiden muss, ob man auch hier Einstiegsseiten erstellt – sofern man damit gefunden werden möchte. Potenzielle Käufer suchen oft nach Eigenschaften und es ist sicher eine gute Strategie, das nicht unberücksichtigt zu lassen.
Czysch gab den Tipp, zu überprüfen, ob man – sofern vorhanden – auch für Serien von Produkten eigene Seiten hat. Im Lauf der Zeit entstehen ja bei vielen Herstellern bestimme Serientypen, wie zum Beispiel Nike Airmax. Da gibt es einzelne Produkte wie Airmax 90, es gibt Seiten für Nike und welche für Sneaker. Aber eben oft keine dedizierten Seiten für die Serie Airmax. Sofern man hier eine Lücke hat, lässt man oft eine Menge Potenzial links liegen. Grund ist oft, dass die Händler in Produktbezeichnungen, Herstellern und Gattungsbegriffen denken. Kunden suchen aber nicht selten gezielt nach Serienbezeichnungen und möchten dann alle Produkte dieser Serie übersichtlich dargestellt bekommen. Hat man solche Seiten aufgebaut, haben sie durchaus gute Chancen, dann auch in den Suchergebnissen mitspielen zu dürfen.
Wie sehen die Zutaten für eine optimale Keyword-Recherche aus? In der Regel nimmt man eine Produktliste und zerlegt die Produktbezeichnungen in Terme bzw. einzelne Worte. Ein Beispiel: Die Produktbezeichnung „Siemens Kühlschrank mit Gefrierfach, Schlepptürtechnik, Nischenhöhe 177“ wird so zerlegt, dass nachher in einer Tabelle in den einzelnen Spalten jeweils ein Wort einzeln steht: Siemens, Kühlschrank, Gefrierfach, Schlepptürtechnik, Nischenhöhe. Wenn man anschließend das Vorkommen jedes Worts zählt, erhält man schnell einen Eindruck, welche Wörter wichtig sind. Taucht das Wort „Nischenhöhe“ 550-mal auf, aber „Schlepptürtechnik“ nur dreimal, ist klar, worauf man sich primär fokussieren sollte. Auch Wörter wie „ohne“ oder „mit“ können wichtig sein. Nicht sinntragende Füllwörter filtert man einfach weg. Der Vorteil dieses Vorgehens gegenüber den klassischen Themenrecherchen in Google Ads oder SEO-Tools ist, dass man sich hier konkret auf das eigene Inventar bezieht. Diese Dinge hat man im aktiven Verkauf – bei einer losgelösten Recherche muss man sich immer fragen, ob diese Keywords für mich überhaupt relevant sind bzw. ob ich dafür das richtige Produkt im Shop habe. Eine fertige Vorlage zur Anpassung an eigene Produktlisten stellt Czysch kostenlos für Google Sheets unter einfach.st/czysch5 zur Verfügung.
Wer hat die Begriffe „Twiddler“, „NavBoost“ oder „Superroot“ schon einmal gehört? Johan von Hülsen nahm für seinen Vortrag sehr viel Detektivarbeit auf sich. Er analysierte unter anderem auch den 400 Megabyte umfassenden Dokumentensatz, den Zach Vorhies bereits 2019 als ehemaliger Google-Mitarbeiter mit aus dem Unternehmen genommen und geleakt hatte. Daraus hat er spannende Insights generiert, die den Rahmen sprengen würden, würde man alle hier nennen. Eine seiner Erkenntnisse war, dass Google offenbar sehr viel mehr manuelle Listen für die Spam-Bekämpfung verwendet, als man annehmen würde. Das passiert wohl tatsächlich zum Beispiel über sogenannte Regular Expressions (RegEx). Ein Beispiel dazu aus den Leaks von Zach Vorhies:
regexp:^http://www\\.autorevue\\.cz/.*\\?forum
Damit werden von einer bestimmten Domain alle Beiträge gekennzeichnet, die im Verzeichnis des Forums liegen und über dieses Flag dann herausgefiltert werden können.
Das Modul Twiddler (Abbildung 15) wird für die Modifikation des Rankings verwendet, bevor die Ergebnisse als SERP ausgeliefert werden. Nach der Eingabe einer Suchanfrage (Query) werden aus dem Index die Top-1.000-Dokumente dafür abgerufen. Der sogenannte Ascorer ermittelt dann ein Ranking auf Basis des einzelnen Ergebnisses zum Beispiel nach PageRank, IndyRank, BM25, Query Match, salient terms etc. Anschließend nimmt Twiddler eine Gesamtbetrachtung der Ergebnisse vor und veranlasst gegebenenfalls ein Re-Ranking, das heißt, die Ergebnisse werden umgestellt. Es kann Beziehungen zwischen den Ergebnissen feststellen, berücksichtigt Meta-Daten und gegebenenfalls weitere Daten, deren Ermittlung etwas mehr Zeit benötigt. Denkbar wäre zum Beispiel, vermutet von Hülsen, dass hier PageSpeed-Metriken verwendet werden könnten. Category und Universal Packer stellen danach das finale Ergebnis (Result) zusammen.
NavBoost ist eine Art Realtime-Beschleuniger für das Ranking. Es stärkt wohl Ergebnisse mit guten Engagement-Metriken und steuert damit das (Klick-)Verhalten der User mit in das Ranking ein. Laut Paul Haar, einem Chefentwickler bei Google, ist NavBoost eines der wichtigsten Ranking-Signale (bereits 2017). Daraus leitete von Hülsen ab, dass Klicks in den Suchergebnissen via Chrome-Browser tatsächlich wichtig sind, und auch, ob die User nach einem Klick schnell wieder zu den Suchergebnisse zurückkehren und anderswo klicken (Long oder Short Click?). Kann man herausmessen, dass die Landingpage eines Suchergebnisses offenbar nicht das Suchinteresse der Suchenden befriedigen kann, wird das Ranking angepasst und die Trefferseite wird weiter nach hinten gestaucht.
Beide Konferenzen waren inhaltlich derart aufgeladen, dass es schwer war zu entscheiden, was man am besten in einen Bericht wie diesen packt. Dass der Veranstalter für alle Teilnehmer nach der Konferenz alle Tracks als Videoaufzeichnung zur Verfügung gestellt hat, erhöht die Informationsdichte nochmals, weil man dann auch die Vorträge nachhören konnte, die man vor Ort versäumt hat. Unterm Strich bleiben sowohl die OMX als auch die SEOkomm eine klare Empfehlung und sie dürfen wohl mit zu den besten Konferenzen im deutschsprachigen Raum gezählt werden. Und ein kleines Bonbon haben wir ganz am Ende noch für Sie. Die jeweils nach Besuchervoting besten Vortragenden beider Konferenzen werden für Sie in den nächsten Ausgaben spannende Beiträge verfassen!