Im März und kurz nach Redaktionsschluss der letzten Ausgabe fand die Search Marketing Expo, kurz SMX, als rein virtuelle Konferenz statt. Geboten wurden an zwei aufeinanderfolgenden Tagen wie immer nationale und internationale Speaker. Die Veranstaltung lief technisch gesehen hoch professionell ab und die Präsentierenden wurden angehalten, sich über die Software OBS selbst mit den gezeigten Folien zu „mischen“. Das sollte einer gewissen „Videokonferenz-Müdigkeit“ vorbeugen, denn nichts wirkt auf die Dauer einschläfernder als die reine Darstellung von Folien und eine Stimme aus dem Off, der jegliches Gesicht fehlt. Mimik und Gestik sind halt doch ein wichtiger Bestandteil der menschlichen Kommunikation. Erschreckend viele Experten ignorieren das in diesen vielen Monaten. Dem wollten die Veranstalter von vornherein einen Riegel vorschieben, damit die Zuschauerinnen und Zuschauer auch über das heimische Notebook-Kino vergleichsweise gut versorgt werden. Website Boosting war virtuell für Sie „vor Ort“ und versuchte wie immer, höchst subjektiv Eindrücke, Tipps und Know-how zu extrahieren.
SMX 2021 – virtuell
Wie bereits in vielen Jahren vorher hielt auch diesmal wieder Rand Fishkin eine der Keynotes. Im Kern empfahl er, was viele Marketers natürlich wissen, ab und an selbst fordern, aber meist nie richtig umsetzen: Nicht alle Eier in einen bzw. zwei Körbe zu legen. Statt in bunten Sneakern über die Bühne zu stürmen, kamen seine Argumente diesmal sitzend aus einem holzgetäfelten Arbeitszimmer. Gegen Google und Facebook zu wettern, diese als „evil“ zu bezeichnen, liege voll im Trend und bringe durchaus genügend Applaus. Viele Onliner legen ihr Budget zu 99,9 % in den Korb von Google und/oder Facebook. Sein Credo war: Geh weg von Google und Facebook und beschäftige dich mehr mit Podcasts, Newslettern, fachlich passenden Foren und Social-Media-Netzwerken wie Pinterest. Man solle sich sehr viel breiter aufstellen, so Fishkin. Fairerweise solle man nicht unerwähnt lassen, dass viele Branchenexperten zu bedenken geben, dass das Tanzen auf zehn statt nur zwei Hochzeiten auch deutlich mehr Aufwand, Zeit und Ressourcen koste. Mit der gleichen Kapazität über alle nur Zeit für „ein bisschen“ zu haben, statt sich zu konzentrieren, sei freilich ein hohes Risiko – dennoch scheine es für viele aus gegebenen Restriktionen vertretbar zu sein. Wäre dem nicht so, wären die beiden Online-Riesen nicht so extrem erfolgreich. Nachdenklich machen Fishkins Ermahnungen freilich schon. Ob dem dann auch konkrete Diversifizierungen folgen, muss man sehen.
Einen enormen Aufschwung (plus 26 % bei der Nutzungszeit) in der Pandemie hat YouTube hinter – oder erst noch vor? – sich. Sei es Langeweile im Homeoffice, die Notwendigkeit, sich mit Neuem zu beschäftigen, aber niemanden fragen zu können, oder andere Gründe. Die Reichweite der Videoplattform ist mit über 2 Mrd. angemeldeten Nutzern mittlerweile deutlich gestiegen und mehr und mehr Unternehmen erkennen, wie gut sich diese Plattform für die Bewegtbild-Kommunikation mit vorhandenen oder potenziellen Kunden eignet. Die tägliche durchschnittliche Nutzungsdauer von YouTube übertrifft mittlerweile die des klassischen Fernsehens. Julian Dziki hat sich dieses gar nicht so neuen Trends angenommen und aufgeklärt, wie die wichtigsten Algorithmen bei YouTube arbeiten und wie man dort mit den eigenen Filmen besser ranken kann. Unterscheiden müsse man, so Dziki, zum einen den Suchalgorithmus, der entscheidet, welche Filme bei einer Suche in YouTube oben gelistet werden – ähnlich den Suchergebnissen bei Google. Weiterhin bietet YT aber auch für jeden angemeldeten User eine personalisierte Startseite mit Empfehlungen – dort (ohne eine aktive Suche des Users) aufzutauchen, ist ebenfalls durchaus lohnenswert. Weiterhin gibt es die YT-Trends auf der normalen (nicht personalisierten) Startseite. Zuletzt hat man auch noch eine Chance, nach oder vor dem Ansehen eines Beitrags unter „verwandte Videos“ aufzutauchen. Die letzten drei Möglichkeiten werden vom sog. „Discovery-Algorithmus“ gesteuert, der in Summe etwas zwei Drittel aller Aufrufe lenkt und damit durchaus mehr Impact hat als suchwort-gesteuerte Ergebnisse.
Das Geheimnis für viele Aufrufe ist: wirklich guter Content. Auch ein perfekt abgedrehtes und vertontes Video hat keinerlei Chance auf gute Rankings. Wer keine Ideen hat, wer nichts außer dem üblichen Blabla zu erklären hat, wer nur Hard Selling im Kopf hat, sollte und kann sich das Geld für diesen Kanal sparen. Abbildung 3 zeigt einige der bekannten Rankingfaktoren, die Dziki grob in die vier Bereiche Keywords, Watchtime, Trust/Autorität und Engagement einteilen würde. Für den Start empfahl er, sich besser Nischen-Keywords zu suchen, als sofort in den Wettbewerb mit den bereits etablierten Playern zu gehen. Laut Dziki analysiert YouTube bereits kurz nach dem Hochladen eines Videos dessen Performance u. a. hinsichtlich Klickrate, Zuschauerbindung, Anschauzeit, Likes/Dislikes und der Häufigkeit hinterlassener Kommentare. Sind diese Kennmetriken gut, sind bessere Rankings und häufigeres Auftauchen in den Vorschlägen zu erwarten, was natürlich die Performance bei guten Videos immer weiter steigern kann. Für ganz besonders wichtig hält Dziki die sog. „Channel Authority“. Hier kommen Faktoren wie alle Views des Kanals zum Tragen, die gesamte Watchtime, das Alter, die Anzahl der Abonnenten, die Anzahl Videos und die Konstanz der neu dazukommenden Videos. Seine besonderen Tipps waren unter anderem, statt viele Videos auf einmal, diese lieber nach und nach in relativ konstanter Frequenz hochzuladen. Und man sollte einen längeren Atem mitbringen. Die ersten sechs Monate bewege sich meist erst einmal gar nichts.
Wenn Markus Hövener auf einer Konferenz spricht, gehört das Zuhören für SEO-Interessierte zum Pflichtprogramm. Sowohl Neulinge als auch gestandene Profis erhalten jeweils immer genügend praktische Tipps für effizienteres Arbeiten. Diesmal klärte Hövener auf, welche SEO-Probleme man mit den klassischen Crawlern eben gerade nicht aufdecken kann. Redirects z. B., also automatische Umleitungen, werden möglicherweise nicht immer korrekt erfasst. Wer basierend auf den Spracheinstellungen im Browser oder nach IP-Länderadresse umleitet, darf sich nicht wundern, wenn der Googlebot aus USA nur einen Teil findet und seltsame Phänomene („URL ist nicht auf Google“) in der Search Console auftreten. Crawlt man selbst, z. B. mit dem Screaming Frog, kommt man der Ursache eben auch nicht immer auf die Spur. Ebenso wenig können solche Tools einen Hinweis auf die echte Contentqualität liefern, im Gegenteil führt das blanke Zählen von Wörtern auf URLs z. B. bei einem hohen Anteil an sog. Boilerplates, der den eigentlichen Kern-Contentanteil (primary content) umgibt, oft zu falschen Schlussfolgerungen. Werden Backlinkdaten von Tools mitgeliefert, entspricht der Umfang natürlich auch nicht dem, den Google zur Verfügung hat, schon gar nicht dem Anteil an von Google automatisch oder manuell (Disavow-File) entwerteten Backlinks. Erschwerend kann hinzukommen, so Hövener, dass ein eigener Crawl immer nur zeitpunktbezogen ist und sich Dinge im Lauf der Zeit durchaus auch (gravierend) ändern können. Man kann in Summe also leicht „das große Ganze“ aus den Augen verlieren.
Wer hat sich noch schon gewundert über das Phänomen, dass in der Google Search Console plötzlich die Anzahl der gültigen URLs zurückging, obwohl nichts gelöscht wurde (Abbildung 6)? John Müller von Google erklärte, dass Google mit verschiedenen Index-„Tiers“ arbeitet. In diesen verschiedenen Schichten werden URLs einsortiert. Ganz oben welche, die neu sind oder häufiger geändert werden. Seiten, die sich seit Jahren nicht geändert haben, wandern immer weiter nach unten bis in die unterste Schicht. Sie werden nur noch sehr selten überprüft – was aus Wirtschaftlichkeitsgründen nachvollziehbar ist. Das Problem dabei ist, dass die Search Console nicht alle dieser Schichten „anzeigt“ bzw. auf alle zurückgreift. Wandern nun URLs weiter nach unten in Schichten, auf die nicht mehr zugegriffen wird, sieht das dann so aus wie in Abbildung 6 dargestellt. Es gibt also nicht wirklich weniger gültige URLs, die Search Console kennt sie nur nicht mehr. Im Prinzip also kein Grund, sich Sorgen zu machen. „Es sieht einfach nur ein bisschen verwirrend aus“, so Müller.
Eine Lanze für den von vielen bisher verschmähten Einsatz von Google Analytics Version 4 brach Alexander Holl. Die Umgewöhnung fiele vielen Nutzern schwer, weil sich hier ein völlig anderes Datenmodell (statt auf Sessions basiert alles auf sog. Events) und damit auch eine andere Sicht auf die Besucherdaten auftut. Wie immer weichen wir freiwillig nur schwer von lieb gewordenen Gewohnheiten ab. Manch einer ist auch froh, die bisherige Komplexität von Analytics V3 langsam und einigermaßen durchblickt zu haben. Das alles (schon wieder) über Bord werfen? Ja, meinte Holl, das lohnt sich mindestens mittelfristig schon. Die neuen „Data-Streams“ messen schon jetzt, ohne Modifikation und manuelles Herumfrickeln, Klicks und Scrolling auf Webseiten. Man bekommt vorgefertigte Trichtermodelle, die aus Excel bekannten Pivot-Tabellen mit all ihren Analysemöglichkeiten und auch Streudiagramme zur Verfügung. Ein wichtiges Asset für den Einsatz von GA 4 ist sicher auch, dass damit lt. Google Daten ohne Cookies oder andere von Datenschutz her gesehen bedenkliche Identifizierungsmöglichkeiten gesammelt werden können. Und neben anderem ermöglicht die neue Version auch die automatische Nutzung von Machine Learning. So werden z. B. fehlende Daten automatisch ergänzt bzw. vom System passend errechnet. Und wer noch nie so richtig begriffen hat, wie die Absprungrate zu verstehen ist, darf sich ebenfalls freuen: Diese Metrik wird ersatzlos durch die „Engagement-Rate“ ersetzt. Sie umfasst alle Sitzungen, die länger als zehn Sekunden dauern, in denen ein Conversion-Tag ausgelöst wurde oder die mehr als zwei Seiten beinhalten.
Trotz aller Professionalität, bester Inhalte und der vielen Gelegenheiten, sich virtuell einzeln oder in Gruppen zu treffen – das Zusammenkommen vor Ort lässt sich damit nicht wirklich vollständig ersetzen. Gesichter, Gespräche, Geflüster, Gefeier, Gelächter und Gemurmel bei guten oder weniger guten Inhalten fehlen einem einfach am Ende dann doch. Und daher haben sich wohl viele den 16. und 17. März des nächsten Jahrs bereits fest für die wichtige Leitkonferenz der Branche im Kalender reserviert, um einander endlich auch mal wieder persönlich in die Augen sehen zu können. Wir freuen uns darauf!