SMX Advanced Seattle:

Die Search-Marketing-Konferenz für Fortgeschrittene

Kai Spriestersbach
Kai Spriestersbach

Kai Spriestersbach ist erfolgreicher Unternehmer, Berater und KI-Forscher mit einem Masterabschluss in Webwissenschaften. Sein Sachbuch „Richtig Texten mit KI: ChatGPT, GPT-4, GPT-3 & Co.“ erschien im April 2023 im mvg Verlag. Er hilft Unternehmen dabei, generative KI sicher produktiv einzusetzen, und arbeitet an seiner Masterclass zum Thema generative KI.

Mehr von diesem AutorArtikel als PDF laden

Die SMX Advanced ist etwas ganz Besonderes: Es ist nach eigenen Angaben die einzige Search-Marketing-Konferenz nur für erfahrene Online-Marketing-Profis. Um den „Stars“ der internationalen Search-Marketing-Szene ganz nah sein zu können, muss man also bis nach Seattle reisen. Doch haben uns die Amerikaner in Sachen Online-Marketing wirklich etwas voraus? Ausgehend von dieser Frage, hat SEO-Profi Kai Spriestersbach eine Menge an wertvollen Tipps und Ansichten in Sachen Suchmaschinenoptimierung aus den Staaten mitgebracht.

Keine Frage: Die SMX Advanced ist irgendwie anders. Einmal im Jahr findet in Seattle die einzige Search-Marketing-Konferenz statt, die sich ausschließlich und ausdrücklich an bereits erfahrene Online-Marketing-Fachleute richtet. Laut Veranstalter sind die Sessions im Bell Harbor International Conference Center temporeich, voll wertvoller Antworten, gelegentlich auch kontrovers, stets aber informativ und hören eben nicht bei den Basics auf.

Eine Besonderheit für deutsche Online-Marketer ist sicherlich die Anwesenheit echter Größen der Suchmaschinen-Welt. Allen voran natürlich Googles bekanntester Ingenieur und Webmaster-Sprachrohr Matt Cutts, der mit einer eigenen You&A-Session für ein Highlight auf der diesjährigen SMX Advanced sorgte. Aber auch dem Corporate Vice President von Microsoft, Gurdeep Singh Pall, gelang mit seiner Keynote ein echtes Glanzstück. Ebenso hochkarätig sind die Moderatoren der Sessions, wie zum Beispiel Danny Sullivan und Vanessa Fox. Als einziger Speaker aus Deutschland war Marcus Tober vom Search- und Social-Analytics-Softwareanbieter Searchmetrics angereist, der gleich mit zwei Vorträgen vertreten war.

In vier parallelen Tracks wurden die Themen SEO, SEA, Social & Mobile abgedeckt. Daneben gab es kurzfristig noch einen Special-Track und extra Räume für Googles eigene Marketing- und Schulungsaktivitäten.

Technisches SEO ist wichtig und wird häufig vernachlässigt

Als erste Session im SEO-Track ging es in The Periodic Table Of SEO Ranking Factors: 2013 Edition um die Rankingfaktoren, die ein Suchergebnis beeinflussen.

Jenny Halasz von Archology machte deutlich, dass technisches SEO nach wie vor sehr wichtig sei und von vielen Unternehmen sträflich vernachlässigt werde. Ihr Standpunkt lautet: „Wenn man der Suchmaschine technisch Probleme macht, kann die Seite relevant sein, wie sie will, sie wird schlichtweg nicht ranken.“

In einer interessanten Case-Study zeigte sie, dass eine 800%ige Umsatzsteigerung allein mit einer technischen Optimierung erreicht werden kann. Hierfür war laut Halasz insbesondere das sog. Crawl-Budget entscheidend. Das heißt, je nach PageRank der Domain steht ein beschränktes Zeitbudget zur Verfügung, um die Seite komplett zu durchkämmen. Wenn technische Probleme den Crawler zu lange beschäftigen (beispielsweise mit vielen Weiterleitungen, unnötigen Seiten, doppelten Inhalten oder langen Ladezeiten) geht das Budget aus, bevor die gesamte Seite vollständig untersucht werden konnte. Neben der Anzahl und Qualität der Verlinkung einer Seite, welche sich im PageRank niederschlägt, spielt auch die Veröffentlichungsfrequenz der Seite eine Rolle bei der Vergabe dieser Crawl-Budgets. Das bedeutet konkret: Seine Inhalte regelmäßig zu erweitern oder zu aktualisieren, bringt neues Crawl-Budget.

Dass auch die Ladezeit einer Webseite entscheidend sein kann, erklärte Jenny Halasz mit der Drei-Sekunden-Aufmerksamkeitsspanne, die wir Menschen gemeinhin haben. Daher muss eine Seite aus ihrer Sicht innerhalb von drei Sekunden vollständig geladen sein. Daneben empfiehlt sie, anstatt für jede Keyword-Kombination eine eigene Seiten mit eigenen Texten zu bauen, besser nur die Seiten zu erstellen, die der Nutzer auch wirklich benötigt.

„Besser weniger Seiten mit potenziell längeren Texten produzieren und auf mehrere Keywords optimieren, als für jede Keyword-Kombination eine eigene Seite anzulegen, die jeweils nur kurze oder zu ähnliche Inhalte aufweisen.“ - Jenny Halasz

Generell lässt sich sagen: Man sollte sich zuerst um das Crawling, dann um die Indexierung und dann erst um das Ranking einer Seite kümmern. Ein gesunder Indikator ist eine gleichmäßige, am besten leicht wachsende Crawl-Rate in den Google-Webmaster-Tools.

Das größte Hindernis vieler Seiten ist laut Halasz nach wie vor „Duplicate Content“, also die Mehrfachindexierung gleicher oder sehr ähnlicher Inhalte unter unterschiedlichen URLs. Daneben ist auch schlechter interner Linkfluss häufig ein Problem, da die Suchmaschinen verwirrt werden, was dazu führen kann, dass die falsche Seite rankt und demzufolge häufig dem Nutzer ein schlechtes Nutzererlebnis geboten wird.

Neue Studie zu Rankingfaktoren von Searchmetrics

Marcus Tober, CTO von Searchmetrics, stellte die neuesten Zahlen aus der Untersuchung der wichtigsten Rankingfaktoren vor, die Searchmetrics jährlich durchführt. So ist die Anzahl der Links zwar nach wie vor der Faktor mit der höchsten Korrelation zu guten Rankingpositionen, im Vergleich zum Vorjahr ist dieser Wert jedoch leicht zurückgegangen. Die Korrelation von Backlinks mit Nofollow-Attribut und Backlinks, welche Stoppwörter enthalten, ist hingegen deutlich gewachsen. Was zu erwarten war: Der Anchortext hat spürbar an Bedeutung verloren. Man könnte sogar sagen, keywordreiche Anchortexte sind tot. (Anchortexte sind diejenigen Begriffe, welche auf externen Webseiten mit der eigenen Seite verlinkt werden.) Gerade in Hinblick auf das Penguin-2.0-Update und dessen Verlierer sieht man am Beispiel von reeds.com sehr schön, dass Seiten mit zu harten Anchortexten, also zu vielen exakten, suchrelevanten Begriffen in den Linktexten, zunehmend bestraft werden.

Wie bereits im letzten Jahr fallen die sozialen Signale mit besonders hohen Korrelationskoeffizienten in Bezug auf gute Positionierungen auf. Google Plus wuchs gar um 788 %, die Facebook Likes immerhin noch um 202 %. Ein direkter Zusammenhang zwischen sozialen Signalen und besseren Platzierungen wurde auch auf der SMX Advanced heiß diskutiert.

Anschließend stellte Marcus Tober die beeindruckende Erholung der Sichtbarkeit von check24.de vor. Diese hätten sehr gut in ihrem Backlinkprofil aufgeräumt, sehr viele minderwertige Links ab- und im Gegenzug hochwertige Links aufgebaut. Check24 hat seit der Recovery zudem ein immenses Wachstum hingelegt, woraufhin Danny Sullivan meinte, dass der Penalty wohl das Beste war, das check24 passieren konnte, denn jetzt ranken sie besser als jemals zuvor.

Social Media wird sehr wichtig für SEO

Als letzter Speaker in der ersten Session machte Eric Enge, Koautor des großartigen Buchs „The Art of SEO“, klar, dass Social Media wirklich wichtig für die Suchmaschinenoptimierung wird. Nicht nur, dass Google immer mehr öffentliche Seiten auf Facebook indexiert, er führte zudem ein großartiges Experiment auf fünf reichweitenstarken Seiten durch und konnte interessante Beobachtungen machen:

Dort wurden jeweils 14 neue Artikel veröffentlicht, welche nicht angelinkt wurden und lediglich eine Art von Social Signal bekamen. Zuerst sah er sich Googles eigenen Dienst +1 und Shares auf Google+ an. Diese Artikel waren nach vier bis fünf Tagen bereits im Index und rankten. Überraschend war, dass bereits die Einbindung des „Plus-One-Buttons“ mittels JavaScript zu einer Indexierung führte. Ebenso führte die Abfrage der Google+ API für die jeweilige URL zur Indexierung. Ein ähnliches Bild zeigte sich bei Facebook: So führten Likes zu einer Indexierung innerhalb von sieben bis acht Tagen und somit auch zum Ranking. Eine Indexierung mittels Links dauert zum Teil länger, je nachdem, wie oft der Crawler die linkgebende Seite crawlt. Die Seite mittels Google Chrome zu besuchen oder Google Analytics einzubinden, führt hingegen nicht zu einer Indexierung. Ebenso wenig wurden Tweets von Twitter und Pins auf Pinterest beachtet.

Einig waren sich die vier Experten darin, dass Rankings, welche durch soziale Signale verbessert wurden, nach und nach wieder erodieren. Es sieht also alles danach aus, dass die sozialen Signale vor allem in Fällen von QDF (Query deserves freshness) ein stärkeres Gewicht bekommen. Das bedeutet, die Suchanfrage des Nutzers bezieht sich auf ein aktuelles Ereignis und muss mit möglichst neuen Inhalten beantwortet werden.

Der PageRank ist zurück!

In der Session Authorship: The Deep Dive gab es interessante Zahlen zur aktuellen Verbreitung des Authorship-Mark-ups, also der Verknüpfung von Inhalten eines Autors mit dem jeweiligen Profil auf Google+, und eine überraschende Wiedergeburt des PageRanks.

Mitul Gandhi zeigte, dass in den USA bereits 13 % aller Top-Seiten eine Authorship-Zuordnung besitzen. Besonders redaktionelle Seiten zu technikaffinen Themen haben dies sehr schnell adaptiert. Bei E-Commerce-Seiten sei noch sehr viel Potenzial vorhanden und hier könne ein Mark-up noch ein echter Wettbewerbsvorteil sein. Nach einem Test von seoClarity verdoppelt sich der Traffic nach einer Implementierung des Authorship-Mark-ups nachhaltig. Dabei stellte Mitul zudem fest, dass viele Google-Plus-Seiten in den USA bereits zu echten Money Keywords ranken. (Money Keywords bezeichnen Begriffe, welche besonders hohe Suchvolumen und Konversionsraten versprechen und demnach ein hohes Umsatzvolumen ermöglichen.)

Mark Traphagen von Virante untersuchte die Frage, wie Google den AuthorRank effektiv abbilden könnte, und stellte dabei fest, dass Google+-Profile bereits einen Toolbar PageRank aufweisen, ebenso wie Seiten bei Google+ und Communities in Googles sozialem Netzwerk. Eine genauere Untersuchung ließ bei Mark den Eindruck entstehen, dass Google derzeit den PageRank auf Google+ drosselt. So hat selbst das Profil von Barack Obama gerade einmal einen PR7 und es gibt ansonsten sehr wenige Profile mit PR6, aber unnatürlich viele mit PR5 und 4. Dies könnte daran liegen, dass Google die Sichtbarkeit von Google+ in den Suchergebnisseiten durch Dämpfung des PageRanks derzeit noch künstlich niedrig hält. Wie Google als Anbieter einer Suchmaschine und Betreiber eines Social Networks mit diesem Interessenskonflikt umgeht, wird sich mit Sicherheit noch zeigen.

Matt Cutts spricht Klartext. Spricht Matt Cutts Klartext?

Im „You&A“ hatten die anwesenden Search-Marketer die einmalige Chance, ihre Fragen direkt an den Leiter des Webspam-Teams bei Google zu stellen. Danny Sullivan, Gründer und Chefredakteur bei Search Engine Land (searchengineland.com) moderierte das Panel, hakte bei Cutts Antworten nach und stellte zudem eine Menge spannender Fragen.

Als Erstes sprachen die beiden über Googles Panda-Algorithmus und die Veränderungen, welche im Vorfeld bereits von Google angekündigt wurden. Zukünftig wird es keine Veröffentlichungen mehr für neue Panda-Rollouts geben. Diese fließen nach und nach, während etwa zehn Tagen jedes Monats, in den normalen Rankingalgorithmus ein.

Das zweite Thema, das Danny ansprach, war nach Panda logischerweise das Penguin-Update. Matt bestätigte, dass die erste Version des Penguins komplette Domains betraf und Version zwei nun auf einzelne Seiten, also URLs abzielt. Konkret heißt das, dass eine Seite nach wie vor gut gefunden werden kann, aber eine spezielle Unterseite, die unnatürliche Links erhalten hat, gezielt im Ranking auf die hinteren Plätze verschoben wird.

An dieser Stelle wendete sich Mr. Cutts explizit an die Inhouse-SEOs im Publikum und wies darauf hin, dass zwar einige Black-Hat-Methoden durchaus noch wirksam seien, es aber nur eine Frage der Zeit sei, bis die jeweilige Technik von Google erfasst werde. Somit appellierte er indirekt an die verzweifelten Suchmaschinenoptimierer, die zusehen müssen, wie ihre Mitbewerber mit unlauteren Methoden bessere Positionen erreichen, als sie selbst mit sauberen White-Hat-Mitteln teilweise erreichen können oder konnten. Eine kleine Überraschung war die Aussage, dass Nachrichten über die Google-Webmaster-Tools lediglich bei manuellen Anti-Spam-Maßnahmen versendet werden, nicht jedoch bei algorithmischen Updates wie Panda und Penguin.

Aber auch die heiklen Themen wurden direkt und offen angesprochen: Danny erzählte von einer Bitte um Linkentfernung auf searchengineland.com, die er erhalten hatte, und seinen Verständnisproblemen mit dem Link-Entwertungstool von Google. Seine Frage lautete sinngemäß: „Wieso entwertet ihr (bei Google) nicht einfach alle schlechten Links?“ Dafür erntete er heftigen Beifall aus dem Publikum.

Googles Erklärung hierfür ist so einfach wie nachvollziehbar: Es geht um eine Marktbereinigung. Angenommen, ein Mitbewerber hat sich jahrelang Vorteile durch gekaufte Links gesichert und ist nun von einem Penalty betroffen, dann wäre es aus Sicht der Suchmaschine unfair, diese Bestrafung schnell zu entfernen, da es sich sonst schlichtweg nicht lohnen würde, den sauberen Weg zu beschreiten. Also muss der Prozess aus einem Link-Penalty aufwendig und zeitintensiv sein, damit sich der Wettbewerbsvorteil wieder kompensiert und am Ende alle Wettbewerber wieder gleichauf liegen.

Hier sieht Matt Cutts einen großen Erfolg der Penguin-Updates. Die Intention der „Richtlinien für Webmaster“ war es seit jeher, die Webmaster dazu zu bringen, großartige Seiten zu erstellen, die die Nutzer wirklich zufriedenstellen. Er erhielt zahlreiche E-Mails von Black-Hat-SEOs, die scheinbar nicht mehr von ihren Methoden leben können, da es ihnen schlichtweg zu riskant geworden ist und kein regelmäßiges Einkommen mehr sichert.

Die Diskussion über Links verleitete Matt Cutts zu einem sehr interessanten Vergleich: Apple sei eine Firma, die sich auf eine großartige User Experience konzentriere und damit sehr erfolgreich sei. Ebenso sollten sich Webmaster darauf konzentrieren, großartige Seiten zu bauen, die gute Links verdienen, anstatt diese irgendwo einzukaufen.

Was Matt sichtlich am Herzen lag, war das ganze Thema der mobilen Suche und des Nutzererlebnisses auf mobilen Endgeräten. Google kündigte bereits im Vorfeld der SMX an, dass Seiten, die keine gute mobile Version anbieten, zukünftig auch in der Suche mit Nachteilen rechnen müssten.

Zum Schluss legte Danny und auch das Publikum mit Fragen zum Thema „not provided“ den Finger in Matts Wunden. Denn Cutts selbst sagte noch vor zwei Jahren, man solle sich keine Sorgen über das Phänomen machen, da dies nur einen kleinen, einstelligen Prozentsatz aller Suchanfragen betreffe. Zur Erinnerung: „Not provided“ tritt bei Nutzung der verschlüsselten Google-Suche auf, sodass Webmaster nicht mehr die eingegebenen Suchanfragen sehen, über die Besucher auf ihre Webseite gelangen. Der Webspam-Chef verwies auf die jüngsten Datenschutz-Diskussionen und sieht den Verlust der Suchdaten für die Webseiten-Betreiber als zu verschmerzen, wenn dafür das Netz insgesamt sicherer würde. Doch das Publikum ließ Cutts mit dieser Aussage nicht davonkommen, denn man könne beispielsweise durch eine Umstellung sämtlicher Webseiten auf das verschlüsselte https-Protokoll viel mehr erreichen und noch dazu technisch eine sichere Weitergabe der Suchbegriffe realisieren. Außerdem fügte Danny Sullivan an, wünsche er sich in den Google-Webmaster-Tools Daten für einen größeren Zeitraum, denn Google stellt dort lediglich die Suchdaten der letzten 90 Tage zur Verfügung.

Ein Teilnehmer wollte anschließend von Matt Cutts hören, wie sich die Ladegeschwindigkeit einer Webseite konkret auf deren SEO-Performance auswirkt. Cutts bekräftigte, dass besonders langsame Seiten mit Nachteilen zu rechnen haben, aber besonders schnelle Seiten nicht bevorzugt werden.

Weitere Fragen aus dem Publikum beantwortete Cutts überraschend konkret. Die Bounce Rate sei nach wie vor kein Rankingfaktor und generell sei Google bei Daten aus Nutzerverhalten skeptisch, denn diese würden gezielt manipuliert. Zur Verdeutlichung erzählte Cutts eine Anekdote aus den Zeiten, als die Google-Toolbar eine Art Bewertungsfunktion in Form lachender und grimmiger Gesichter hatte. Mittels dieser Funktion wurden kurzerhand gezielt die eigenen Seiten gut und die Konkurrenz schlecht bewertet. Es tat sich gar eine Art Tauschhandel auf. Für eine gute Bewertung der eigenen Seite waren Leute bereit, andere Seiten ebenfalls gut zu bewerten. Danny Sullivan schlussfolgerte daraus, dass Google daher die +1-Signale aus Google+ noch nicht im Ranking berücksichtigt, was Cutts bestätigte. Hier benötigt Google ggf. noch etwas Zeit, jedoch ist davon auszugehen, dass dieses Signal früher oder später eine Rolle spielen wird.

Als spannende Schlussfrage wollte Danny Sullivan von Matt Cutts wissen, welche Faktoren derzeit überbewertet werden. Cutts antwortete, dass es derzeit wohl die sozialen Signale seien, mittelfristig sich das aber ändern werde. „Und welche Faktoren werden vernachlässigt?“, hakte Sullivan nach. Cutts antwortete, das seien Design und ein gutes Erlebnis für den Nutzer. Er riet: „Investieren sie etwas Zeit dafür, Ihre Seite auf Hochglanz zu bringen.“

Fazit: US-Konferenzen sind etwas Besonderes

Der gefühlte und viel zitierte fachliche Vorsprung der US-Amerikaner im Online-Marketing ist in den letzten Jahren spürbar dahingeschmolzen, nicht zuletzt durch sehr gute deutsche und auch europäische Publikationen, Konferenzen und Dienstleister innerhalb der Suchmaschinenmarketing-Branche. Insbesondere im direkten Vergleich zur SMX in München in diesem Jahr kann man beruhigt sagen, dass wir Deutschen uns mit unserem Fachwissen auch in den Vereinigten Staaten nicht verstecken müssen. Eine Besonderheit amerikanischer Konferenzen ist selbstverständlich die Nähe zu direkten Ansprechpartnern der großen Suchmaschinenanbieter, die zu einer intensiveren Kommunikation führt.

Nachhaltig beeindruckend waren der extrem hohe Professionalisierungsgrad einiger amerikanischer Agenturen und der immer stärker werdende wissenschaftliche Ansatz bei der Analyse von Ursache-Wirkungs-Prinzipien im Online-Marketing.