Haben Sie noch Linkleichen im Keller? 


Christoph Cemper
Christoph Cemper

Christoph C. Cemper ist seit 2003 auf das Thema Links spezialisiert. Als Gründer von LinkResearchTools (LRT) und Link Detox beschäftigt er sich im Tagesgeschäft mit jedem noch so kleinen Detail rund um Links und deren Bewertung. Privat ist ihm die Zukunft der Erde und unseres Klimas sehr wichtig, welche er auch durch die Charitykonferenz LRTcon unterstützt. Schon als Teenager hat er Computerspiele entwickelt und vermarktet, später kamen das BWL-/Marketingstudium und diverse Lehrverpflichtungen dazu.

Mehr von diesem AutorArtikel als PDF laden

Früher war alles einfacher. Das Wissen vieler Suchmaschinenoptimierer beschränkte sich häufig darauf zu wissen, wie man möglichst einfach an Links kommt. Man betrieb ein eigenes Netz an Domains, aus denen Links gesetzt werden konnten, oder kaufte sich direkt oder über Händler bei großen Portalen ein, die auch heute noch bereitwillig Links gegen Geld geben. Aktuell räumt Google allerdings mächtig auf und trifft mit bemerkenswerter Präzision viele künstlich aufgeblasene SEO-Projekte. Fazit: Linkaufbau muss nicht nur intelligenter gestaltet werden, sondern auch die Altlasten vergangener Tage können zu Strafen führen. Die große Frage ist derzeit, was zu tun ist, wenn es einen erwischt hat, und welche Präventivmaßnahmen das Risiko minimieren können. Christoph C. Cemper erklärt, warum Sie Ihre Links keinesfalls links liegen lassen sollten.

Google hat mit den großen Pinguin-Updates im Jahr 2012 eines deutlich gemacht – Linkaufbau, wie viele ihn kannten und betrieben, ist dem Untergang geweiht. Dass Google als Suchmaschine, die jahrelang ein Hauptgewicht der Rankings aus den Verlinkungen berechnete, für so viele Jahre durch so viele einfache Methoden von SEOs ausgetrickst werden konnte, lässt schon erahnen, wie komplex die Materie ist. Jeder Linkgraph in jeder Branche und Sprache funktioniert heute anders. Die Ursache dafür sind umfassende Abwertungen und Gewichtungen, die Google abhängig vom Thema und der Menge der guten, verfügbaren Signale machen muss.

Was hat sich mit dem Pinguin-Update verändert?

Was in den Pinguin-Updates zur Linkabwertung aktiviert wurde, sind im Prinzip einfache Regeln, die ganz offensichtlich unnatürliche Links aus der Wertung herausnehmen. Die Frage „Was ist unnatürlich?“ orientiert sich dabei nicht nur an harten technischen Kriterien über den Zeitverlauf, sondern auch am Umfeld. 
Eine kleine Site, also z. B. ein Shop, der jahrelang vor sich hin dümpelte und pro Monat ein paar Links bekommen konnte, ist äußerst unwahrscheinlich plötzlich das Ziel Hunderter von neuen Links in einer kurzen Zeitspanne. Passiert dies doch, dürfte die Ursache hier eher in der Managemententscheidung „Wir machen jetzt auch Linkaufbau“ liegen.
Genauso wenig ist es natürlich, wenn eine Domain mit bisher immer hoher Diversität der Links (also viele verschiedene nicht kommerzielle Keywords oder der Markenname, verschiedene Stärke, verschiedene IP-Klassen, verschiedene Eigentümer) einen Zuwachs an Links erhält, die alle besonders kommerzielle Keywords als Linktext enthalten.

Typische Muster von unnatürlichen Links

Andere unnatürliche Muster im Linkaufbau haben schon im Florida-Update 2003 zu Problemen geführt und sind seitdem eigentlich zu vermeiden:

  • Viele Links von der gleichen IP-Adresse
  • Viele Links aus dem gleichen IP-C-Block
  • Viele Links vom gleichen Eigentümer (ein Sonderfall sind z. B. Amazon oder ebay – also wer groß ist, kann sich mehr erlauben bzw. sind das dort eben nur ein paar Tausendstel am Backlinkpool und haben nicht das Übergewicht)
  • Viele Links von (plötzlich) deindizierten Domains
  • Neue besonders starke Links wie z. B. amerikanische .gov Domains 
  • Eine abrupte Spitze im Linkwachstum nach oben oder nach unten
(das Thema „Linkwachstum“ wird in dieser Ausgabe gesondert auf den Seiten ### vertieft)
  • Links von Domains, die ganz offensichtlich nur dem Linkaufbau gewidmet sind, wie Artikelverzeichnisse, Linkverzeichnisse, Expired-Domain-Netzwerke etc.

Kriterien wie die erwähnten lassen sich seitens der Suchmaschinen mit recht einfachen Mitteln erkennen und abwerten. Bisher hatte sich Google immer sehr milde gezeigt und hatte die Auswertung dieser negativen Faktoren entweder nicht oder nur sehr eingeschränkt (z. B. nicht rekursiv durch den Linkgraphen) durchgeführt.
Mit den Pinguin-Updates wurden solche Bewertungen aber nicht mehr nur auf einen Linkwert von null gebracht, sondern solchen Links wurden eben nun auch negative Werte zugeordnet. Durch diesen jetzt schädlichen Einfluss entstehen dann „toxische“ oder „giftige“ Links.

Wie wirken toxische Links?

Anstatt schlechte, künstlich erzeugte Links sprichwörtlich links liegen zu lassen, rechnet Google sie negativ an. Das hat zur Folge, dass besonders ambitionierte SEOs und Linkaufbauer oder deren Kunden für jegliche Abkürzungen bezüglich der Qualität effektiv bestraft werden.
Bereits Ende 2011 war erkennbar, dass ein Übergewicht an sog. Moneykeywords (kommerzielle Linktexte) dazu führen könnte, dass sich eine Site im Ranking nach unten statt nach oben bewegt. 
Und auch im Jahr 2008 und sogar 2006 konnten solche „Filter“ beobachtet werden. Diese algorithmischen Filter sind keine manuellen Abstrafungen, mit denen automatische Filter oft verwechselt werden, sondern Automatismen in der Linkbewertung. Das einzige Heilmittel war damals wie heute der Abbau bzw. Rückbau auf bessere Mischverhältnisse – damals nur bezogen auf die Linktexte.
Heute sind wir an einem Punkt, wo noch wesentlich mehr Kriterien in die Linkbewertung bzw. -abwertung einfließen. Es wird bereits von einer laufenden Abwertung im „Pinguin-Stil“ berichtet, die sich im Prinzip als Analogie zu den obigen Anchortextfiltern verstehen lässt.

 „Nicht nur Flensburg, sondern auch Google speichert vergangene Verfehlungen.“

Die Wirkung ist heute wesentlich weitgreifender und drastischer, denn Domains und auch Webmaster der Domains werden von Google mit einem Flag (einer internen „Markierung“) versehen und erst ein mühsamer Prozess mit Aufräumarbeiten und einer Buße bei Google (in Form von Reconsideration Requests mit ausführlichen Erklärungen der eigenen Sünden) könnte diesen Status vielleicht aufheben.

Buße und Vergebung? Google vergisst nicht oder nur sehr schwer.

Die Betonung liegt hier auf dem Konjunktiv, denn Google hat mit den Pinguin-Updates wieder sehr wesentliche Warnsignale versendet und eine zu schnelle Rehabilitierung von „SEO-Schurken“ ist wohl nicht im Interesse von Google. 
Das erinnert sehr stark an die Maßnahmen gegen Adsense-Schummler und Adwords-Arbitrage-Experten, die aufgrund ihres Verhaltens gegen die Spielregeln von Google für Jahre, aber auch erst manchmal Jahre später, aus dem Werbeprogramm geworfen wurden und noch keine Vergebung erfahren haben.
In jedem Fall muss man sich bewusst sein, dass bei Google im Spam-Quality-Team, also den Empfängern dieser Bußschriften und Reconsideration Requests, auch nur Menschen sitzen, deren Aufgabe es ist, den Index sauber zu halten. Jedes Anzeichen von Schummelei auf einer gemeldeten Site führt zu einer Ablehnung.
Was aber oft vergessen wird, ist das jahrelange Profiling und Datensammeln, das Google betrieben hat – ob über Webmaster-Tools, Google Analytics, Gmail-Konten, Such-Cookies und vieles andere mehr.

Aufräumarbeiten: Wie findet man toxische und verdächtige Links?
Nachdem nun klar ist, dass die Sünden der Vergangenheit heute mehr negatives Gewicht haben, eine „retrospektive Gesetzgebung“, die Google bisher nicht hatte, wird klar, dass man diese negativ wirkenden Links aufspüren und bereinigen sollte. 
Das Linkprofil, also alle Links, die zur eigenen Seite gehen, sind einer genauen Prüfung zu unterziehen. Ganz abgesehen von automatischen Wegen, hier toxische oder zumindest verdächtige Links aufzuspüren, ist aber vor allem eines nötig – der gesunde Menschen- oder SEO-Verstand, denn am Ende des Tages wird ein Google-Mitarbeiter die gleiche Prüfungsarbeit machen.
Die ersten Prüfungen können bereits mit einfachen Mitteln wie mit Excel durchgeführt werden. Dazu sind prinzipiell folgende Schritte nötig:

  1. Alle Links zur eigenen Domain in einer Liste sammeln – hierbei auf jeden Fall alle verfügbaren Quellen kombinieren und auch die Liste aus Googles Webmaster-Tools nicht vergessen. Es sei angemerkt, dass es kein Tool auf dem Markt gibt, das eine komplette Liste aller Google bekannten Links ausgibt. Nur die Kombination aller möglichen Quellen kommt diesem Ziel am nächsten.
  2. Zu jedem Link sind wichtige Basis-Kenndaten wie Linktext, IP-Adresse und Class-C-Adresse, Domain-Eigentümer und auch weiterführende SEO-Metriken wie der Google PageRank, Anzahl der eingehenden Links zur Seite und Domain, Linkwachstumsraten der Domain hilfreich. Je mehr Kriterien zur Bewertung herangezogen werden können, umso besser, jedoch auch umso aufwendiger, wenn manuell zusammengetragen.
  3. Über eine Pivottabelle in Excel können die Daten dann gruppiert und die jeweilige Anzahl der Links kann angezeigt werden. Die Tabelle in Abbildung 1 zeigt eine solche beispielhafte Gruppierung auf Basis der IP-Adressen. Eine ähnliche Gruppierung ist dann z. B. über die Class-C-Blöcke sinnvoll oder auch für den Domain-Eigentümer. Wenn es auffällig große Mengen von der gleichen Linkquelle gibt, sind diese zumindest verdächtig und genauer zu untersuchen.

Natürlich ist hier eine manuelle Prüfung unerlässlich, da besonders Medienhäuser und Onlinemagazine oft auch ihre Publikationen auf gleichen oder sehr ähnlichen IP-Adressen hosten. Unter Zuhilfenahme weiterer Kriterien, die Alter, Vertrauen und Qualität der Domain beurteilen, lassen sich solche „False Positives“ aber ausfiltern.

„Manuelle Prüfungen sind unerlässlich!“

Ein anderer spezieller Fall sind Free-Hoster. Wenn man sehr viele Links von typischen Free-Bloghostern wie Blogspot hat, dann sollten diese aber auch reale Blogger sein und nicht das Ergebnis von Spamtools. Ein Unternehmen, das sehr aktiv in der Blogsphäre ist, kann hier durchaus viele natürliche und gute Links haben, während ein typischer SEO-Spammer die gleiche Menge an Links von negativer Qualität aufgebaut haben könnte. Die manuelle Prüfung gibt Aufschluss, aber sehr oft helfen vorher auch schon technische Kriterien wie die Anzahl der Links auf die linkgebende Seite oder andere. Der berühmte und veraltete Google Pagerank ist aber explizit kein Qualitätskriterium.

Eine Prüfung der Seitenqualität hinsichtlich typischer Linkspam-Methoden wie Link- oder Artikelverzeichnisse ist notwendig und oft finden sich auch Links in solchen Verzeichnissen, weil von deren Betreibern einfach nur DMOZ-Einträge kopiert oder gemixt wurden, um schnell viel Content zu erzeugen. Wenn in solchen Verzeichnisseiten dann Werbung (also der Linkeintrag) für Geld angeboten wird, ist das auf jeden Fall sehr verdächtig und in keinem Fall hilfreich.

Diese Prüfungen müssen also für alle Links im Gesamten (siehe Gruppierung über Pivottabellen), aber auch im Einzelnen (Qualitätsprüfung und eindeutige Hinweise auf Linkverkauf etc.) gemacht werden und dann Link für Link beurteilt werden. Es wird schnell klar, dass hier bei Hunderten oder Tausenden Links durchaus viel Recherchearbeit nötig wird. Solche Abfragen und Prüfungen lassen sich auch automatisiert durchführen (siehe das Link-Detox-Tool, das in der letzten Ausgabe 17 der Website Boosting, S. 48, beschrieben wurde). Es wird anhand des oben Gesagten schnell klar, dass dies alles nur eine unterstützende Maßnahme bei der Datensammlung und Vorbewertung sein kann und vor dem Linkabbau oder der Verwendung des Google Disavow-Tools auf jeden Fall eine manuelle Prüfung unerlässlich ist.

Ist alles sauber?
Wenn man nun annimmt, dass zwar vielleicht die eigene „Hauptdomain“ – also der Moneymaker – schon von allen Schandtaten bereinigt wurde, aber vielleicht noch einiges in der Historie des Webmasters oder gar Geschäftsführers des Unternehmens liegt, so sollte der „Sünder“ auch auf folgende Aspekte achten:

  1. Alte „Test“-Domains, die eindeutig mit der eigenen Identität verbunden sind
  2. Alte Adwords- und/oder Adsense-Accounts
  3. Vergangene Abstrafungen im organischen Bereich oder Adsense/Adwords-Bereich
  4. Verstrickung in Linknetzwerke oder über ausgehende Links der eigenen Domain
  5. Und alles, was Google in irgendeiner Form noch nicht gefallen könnte …

Der „Reconsideration Request“ als letzter Versuch, sich bei Google Erlösung für die eigene Domain zu holen, sollte erst der letzte Schritt sein, wenn man alles bereinigt hat. Dieser Antrag ist nämlich eine Aufforderung zum „Deep Dive“ (also einer besonders gründlichen Untersuchung) eines Experten des Google Search Quality Teams, und bedeutet, dass nichts unbeobachtet oder ungeprüft bleibt. 
Den Fehler, gleich nach einem Absturz in den Rankings oder einer Warnung über unnatürliche Links (die noch algorithmisch funktionieren) einen „Reconsideration Request“ auf Verdacht abzuschicken, haben schon einige Seitenbetreiber mit richtig schlechten Rankings aufgrund einer manuellen Abstrafung bezahlt.

 „Es geht nicht mehr um ‚Preis pro Link‘, sondern um das Risiko!“

Fazit

Heute geht es nicht mehr darum, den Preis pro Link auf ein Minimum zu reduzieren, sondern das Risiko. Viele Forendiskussionen über superstarke, superbillige Links von .gov-Domains oder weiteren wertvollen Sites lassen vermuten, dass diese Einstellung hinsichtlich mehr Vorsicht noch nicht in allen SEO-Köpfen verankert ist. Die Bereinigung eines Linkprofils nach jahrelangen Schandtaten und Spam-Experimenten gestaltet sich so aufwendig, dass oft ein Neustart auf neuer Domain angesagter wäre, als monatelang aufzuräumen. Oft lassen sich dann die wirklich guten Verlinkungen, die man erhalten hat, ja auch auf eine neue Domain übertragen – doch auch hier sind Vorsicht und Bedacht bei Tempo und Qualität angesagt. Niemand will doch seine alten toxischen Links auf das neue Projekt übertragen, nur weil die so preiswert waren, oder?