Die SEO Campixx 2023

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Zum zweiten Mal fand die Campixx in dem neuen Konferenzhotel Van der Valk in Brandenburg, nahe Berlin, statt. Zur Erinnerung: Das für diese Konferenz berühmt und durchaus auch als berüchtigt bezeichnete Hotel am Müggelsee hatte die Pandemie nicht überlebt. Veranstalter Marco Janck hat mit der neuen Location nicht nur einen würdigen Ersatz gefunden, es ist Platz für fast doppelt so viele Teilnehmer – bei professionellerer Verpflegung und Betreuung. Zwar ging vielleicht der Charme der „alten Campixx“ mit langen Wegen, teils vollen Vortragsbunkern, über zehn Vorträgen gleichzeitig, vielen langen Pausen und den kleinen Röhrenfernsehern auf den Zimmern verloren, aber die Vorteile des Van der Valk kompensieren das bei Weitem. Insbesondere die zentrale und extrem umfangreiche Außenfläche begünstigt das so wichtige Networking. Die bisherige Trennung der Contentixx und der SEOCampixx wurde dieses Jahr aufgehoben und die Vorträge fanden gemischt aus diesen beiden Themenpools statt. So richtig trennen konnte und sollte man Content und SEO ja eh nie.

Ich sehe was (nicht), was du (nicht) siehst!

Was für ein fulminanter Auftakt. Nicht im üblichen, lauten und heftigen Sinne, sondern leise und sehr emotional. Nach der Begrüßung moderierte Marco Janck Saskia Bader auf die Bühne. Das Thema: Barrierefreiheit. Ein Thema, das viele laut wichtig nehmen, wenn jemand zuhört, und das hinten runterfällt, wenn es um die Umsetzung und die vermutete zusätzliche Mühe geht.

Bader arbeitet ganz unspektakulär in einer Web-Agentur. Die Besonderheit ist, dass Saskia Bader von Barrierefreiheit selbst profitiert. Sie hat nämlich nur etwa 10 % der üblichen Sehkraft und entwickelt daher Webseiten von vorneherein so, dass sie auch barrierefrei sind. Dazu gehören zum Beispiel vermeintliche Kleinigkeiten, wie nicht genügend Kontrast, weil ein HiPPO (Highest Paid Person‘s Opinion, frei übersetzt: Ober sticht Unter in Besprechungen) der Meinung ist, auch besonders Hervorgehobenes wie ein Call-to-Action-Button müsse unbedingt in der CI-Farbe bemalt werden. Kann eine Website nicht mit Hilfsmitteln bedient werden, fallen potenziell 9 % der möglichen Kunden aus. So viele Menschen mit Behinderung gibt es laut Bader in Deutschland (international sind es 15 %). Umgekehrt spricht es sich schnell in einschlägigen Foren herum, welche Shops sich besonders leicht mit Vorlesefunktion oder Braillezeilen bedienen lassen. Der Traffic auf barrierefreien Sites liegt ca. 12 % höher als auf anderen Sites, erklärte Bader. Oft hört sie von Vorlesemodulen in Browsern, aber nur Irrelevantes wie „Grafik, Grafik, Grafik, Icon, Icon …“ – und dann ist sie schnell wieder weg, sofern sie privat beim Online-Einkauf unterwegs ist.

„Grafik, Grafik, Grafik, Icon, Icon …“, Shopseiten, vorgelesen

Sofern man Barrierefreiheit von vorneherein einplant, entsteht gar nicht so viel Mehraufwand, erklärte Bader. Man müsse zum Beispiel einfach nur Kontraste gleich richtig festlegen, dann muss es nicht aufwendig geändert werden. Oder erklärende Alt-Tags schon beim Einstellen eines Bildes einfügen. Als Tipp gab sie dem Publikum den Hinweis, in der Entwicklerkonsole des Browsers die Barrierefreiheit zu prüfen. Beim Chrome findet man diese Funktion unter dem Tab „Lighthouse“ und man setzt bei „Kategorie“ einen Haken bei „Bedienungshilfen“. Baders Wunsch gegen Ende war, dass man mehr Aufklärungsarbeit bei Chefs und Führungskräften leisten müsste. Das ist wohl wahr.   

NLP, LLMs, Entitäten, E-E-A-T und SGE – uff …

Olaf Koop erklärte den Besuchern in einer Art Druckbetankung den kompletten Bogen der aktuellen Technologien der semantischen Suche und wie diese ineinandergreifen (Abbildung 3 als Überblick). Google verarbeitet mittlerweile strukturierte, semi- und unstrukturierte Daten und arbeitet sie in das hauseigene Entitäten-Netzwerk ein. Das hilft extrem für den Schritt, sich von einzelnen Wörtern zu lösen und dagegen mehr Wert auf die tatsächliche Bedeutung hinter den Begriffen zu legen. Es muss nicht mehr „ohne Fleisch“ auf einer Seite geschrieben stehen. Google erkennt über sogenannte Abstandgraphen in den Entitätsbeziehungen, dass auch „fleischlos“, „kein Fleisch“, „vegetarisch“ oder sogar ein „ich esse nur pflanzliche Nahrung“ die gleiche inhaltliche Bedeutung hat.

Im Knowledge Graph befanden sich im März dieses Jahres laut Wikipedia 800 Mrd. Fakten, die Google im Lauf der Jahre gesammelt hat. Dies weist eindeutig den Weg, so Koop, zu einer semantisch orientierten Suche. Koop beschäftigt sich auch intensiv mit Google-Patenten. Aus einem der Patente („Generating author vectors“) ist herauszulesen, dass Google mittlerweile (wahrscheinlich) Klassifikatoren für Texte einsetzt. Zumindest im Patent wird beschrieben, wie man Experten, Lehrlinge und Laien als Autoren unterscheiden kann. Wissen wird zunehmend von Algorithmen organisiert und weniger nur „verwaltet“, wie es in der Vergangenheit der Fall war. Wenn alle Menschen Schuhe tragen und Claudia ein Mensch ist, trägt sie wahrscheinlich ebenfalls Schuhe. Google ist also nicht mehr auf eine Web-Quelle angewiesen, wo dies steht (dass Claudia Schuhe trägt), sondern kann das als Rückschluss aus dem Entitätennetzwerk heraus generieren. BARD, der neue Chatbot von Google, könnte somit möglicherweise künftig irgendwann – hoffentlich – deutlich bessere Antworten auf Fragen generieren, ohne wie bisher bei diesen Modellen üblich das nächste Wort statistisch zu vermuten. Das würde die Antwortqualität gegenüber dem aktuellen Stand wohl geradezu explodieren lassen. Inkonsistente Antworten und das typische Halluzinieren würden dann neben anderen Fehlern, die sogenannten LLM (Large Language Models) methodenbasiert unterlaufen, der Vergangenheit angehören.    

Ich hau dir in die Fresse!

Es gibt nur wenige Menschen, denen man einen solchen Spruch zugesteht, ohne pikiert oder entsetzt zu sein. Der ehemalige Fast-Boxweltmeister im Schwergewicht, Axel Schulz, gehört sicher dazu. Zum Auftakt des zweiten Konferenztages interviewte Marco Janck den extrem sympatischen Boxer, der offen über seine Karriere und Schmiergeldzahlungen im Boxsport sprach. Warum wurde gerade er auf eine derartige Konferenz eingeladen? Diese Frage stellte sich wohl jeder im Raum. Aber die spontane Annahme und Vermutung, die man am Vorabend oft hörte, der Marco „hätte halt keinen anderen Promi gefunden“, stellte sich als fatal falsch heraus. Schulz gewann bereits nach wenigen Minuten die Herzen der Zuhörer. Wer gut zugehört hat, erkannte den Grund für die Einladung. Schulz hatte viel Pech in seiner sportlichen Laufbahn, hat sich aber immer wieder selbst auf die Beine gestellt und nie aufgegeben. Gleichzeitig kam er dorthin, wo er war, nur durch viele glückliche Zufälle. Gerade Einsteiger in die Online-Branche konnten daher sehr viel mitnehmen. Du kannst die beste Arbeit abliefern, die besten Ideen haben, dich aufopfern, hart arbeiten – und trotzdem braucht es Glück. Die richtigen Leute müssen zum richtigen Zeitpunkt an der richtigen Stelle stehen. Ohne die geht es meist nicht. Google, Amazon, eBay und viele andere gibt es heute nur, weil teils heftige Portionen Glück im Spiel waren. Da man dies nicht erzwingen kann, muss man hartnäckig bleiben – wie Axel Schulz. Er betonte auch, wie wichtig Netzwerke wären, mit deren Hilfe er nun eine zweite Karriere als Unternehmer begonnen hat. Zweimal wurde Schulz in Kämpfen um die Weltmeisterschaft betrogen, was jeweils erst nach den Kämpfen herauskam. Den Titel hat man ihm aber nie zuerkannt. Zu viel Geld und zu viel Bestechung waren im Spiel. Entmutigen lassen kam aber für ihn nicht infrage. Neben Saskia Bader war Schulz ein Highlight der Konferenz.

„Schiebung war damals normal im Boxsport“, Axel Schulz.

Flash my brain

Dr. Jonathan Mall erklärte, wie Content unter Berücksichtigung psychologischer Erkenntnisse aufbereitet werden müsste, damit das „emotionale Kopfkino“ beim Besucher anspringt. Besonders Unerwartetes erzeugt erste Aufmerksamkeit und Zuwendung. Erwartetes hingegen wäre (zu) einfach zu verarbeiten und läuft meist in Kahnemanns „System 1“, also auf Autopilot ab. Das ist gut beim Ausfüllen von Formularen, aber bei der Wahrnehmung von Werbebotschaften ist die fehlende bewusste Wahrnehmung meist nicht erwünscht. Mit KI-basiertem Tool lassen sich die wahren Beweggründe für Konsumentenverhalten besser erkennen, erläuterte Moll. So folgten viele Frauen Influencerinnen oft deswegen, weil sie als Assoziation eher Wärme empfinden und eine Freundin sein wollten – ein Effekt, der mit eher „Performance“-orientierten Postings nicht erreicht wird (Abbildung 6). Konsumenten ticken oft ganz anders, als Werbetreibende vermuten.  

KNIME legt weiter zu

Immer mehr SEOs beschäftigen sich offenbar mit dem Datentool KNIME, für das es auf der Campixx im Vorjahr einen einführenden Vortrag gab und in diesem Jahr waren es bereits zwei, die Anwendungen mit diesem Tool zeigten. Paul Herzog vom Urlaubsguru führte seine Top-4-Workflows vor. Neben der Analyse der internen Verlinkung, des Kannibalisierungseffekts beim Ranking und der Aufdeckung von Chancen-Keywords war es die Ermittlung der eigenen CTR in den Suchergebnissen, die es ihm angetan hatte. Die Daten entnimmt man kostenlos der Google Search Console und bereitet sie relativ einfach mit KNIME so auf, dass sich Klickkurven, sogenannte CTR-Underperformer, und noch einige andere nützliche Informationen zur Optimierungsarbeit ableiten lassen (Abbildung 7). Bezieht man nun noch die Features bzw. einzelnen Elemente der jeweiligen Suchergebnisseite mit ein, ergeben sich zum Teil völlig andere CTR-Werte. Das hilft, die wirklichen Klickleichen zu finden und dort Title und Description etwas klickaffiner zu gestalten.  

Fazit – and save the date

Den früheren Charme eines Barcamps hat die Campixx verloren. Sie ist mittlerweile eine (echte) Konferenz geworden. Weniger gleichzeitige Vorträge, dafür größere Säle, Techniker vor Ort in jedem Raum und sogar Moderatoren waren anwesend. War früher alles besser? Nein, sicher nicht – und wenn, dann nur in nostalgischen Gefühlen. Wer erinnert sich noch daran, dass man oft Vorträge verpassen musste, weil die vielen kleinen Räume am Müggelsee rappelvoll waren? An die Captains Bar, die Punkt ein Uhr dichtmachte, obwohl das Feiern stundenlang weiterging? An die vielen Kilometer, die man pro Tag zwischen den weit auseinander liegenden Räumen zurücklegen musste? Oder an den einen oder anderen enttäuschenden Vortrag, bei dem Referenten offen zugaben, ihren Titel bewusst anders formuliert zu haben als die Inhalte, damit mehr Zuhörer kamen? Das alles gehört der Vergangenheit an und sollte rückblickend nicht zu verklärt gesehen werden. Die alte Campixx war gut und man möchte kein Jahr davon missen. Die „neue“ Campixx ist mindestens genauso gut und objektiv gesehen sicherlich nicht nur inhaltlich sogar noch ein spürbares Stück besser.