In der SEO-Branche machen sogenannte algorithmische Strafen von sich reden. Dabei geht es meist um Websites, die den Erwartungen, was ihre Sichtbarkeit in der Google-Suche angeht, nicht gerecht werden. Der verwendete Begriff ist jedoch grundsätzlich falsch, denn in Wirklichkeit gibt es keine algorithmischen Google-Strafen. Natürlich gibt es Google-Strafen. Sie sind ein von Google sanktioniertes Mittel und werden offiziell etwas euphemistisch als „manuelle Maßnahmen" bezeichnet. Gleichzeitig gibt es Google-Algorithmen und deren Aktualisierungen, also Algorithmen-Updates. Sowohl manuelle Strafen als auch Algorithmen bestimmen die Sichtbarkeit von Websites im Google-Index. Es ist allerdings wichtig, zu verstehen, dass es sich um völlig unterschiedliche SEO-Faktoren handelt, bevor diese gezielt beeinflusst werden können. Experte Kaspar Szymanski weiß mehr als alle anderen, wovon er redet. Er war jahrelang Spamfighter bei Google in Dublin. Daher unser gut gemeinter Rat: Lesen Sie aufmerksam, was er Ihnen zu sagen hat!
Mythbusting: Google-Algorithmen sind keine Strafen!
Algorithmen als mathematische Formeln
Google verlässt sich hauptsächlich auf Algorithmen. Zum Leidwesen der SEO-Branche werden nur sehr wenige dieser Algorithmen offiziell von Google bestätigt. Google Panda, das sich auf die Qualität der Inhalte auf der Seite, also Onpage-Signale versteht, und Google Penguin, das spezifisch für Offpage-Signale entwickelt wurde, sind die beiden am häufigsten zitierten Algorithmen. Ihr Bekanntheitsgrad in der SEO-Branche ist ebenso enorm wie der Schrecken, den sie verbreiten. Während es noch einige weitere benannte Algorithmen und Updates für bestehende Algorithmen gibt, sind sie in Wirklichkeit nur die Spitze des Eisbergs. Im Vergleich zu den unzähligen Algorithmen, die zu jeder Zeit angewendet werden, und Hunderten von Updates, die im Laufe des Jahres eingeführt werden, ist eine Handvoll namentlich bekannter Algorithmen nahezu bedeutungslos. Laut offiziellen Google-Mitarbeitern werden täglich mehrere neue Algorithmen oder aber Updates eingeführt. Während die breite Öffentlichkeit von diesen Veränderungen keine Notiz nimmt, ist es selbst für die sehr interessierte SEO-Branche oft schwierig, diese nachzuvollziehen. Googles Update-Freigabeprozess ist verständlicherweise ein streng gehütetes Unternehmensgeheimnis. Dessen Beschreibung im vollen Umfang würde ohnehin die Grenzen der Geduld der Leser unnötig strapazieren, sodass wir in diesem Beitrag nicht ausführlich darauf eingehen werden. Für ein besseres Verständnis genügt es, in diesem Zusammenhang zu sagen, dass sie eingehend erprobt werden, bevor sie öffentlich freigegeben und schließlich in den Core-Algorithmus integriert werden. Brandneue Algorithmen sind nur selten von Anfang an perfekt und werden im Laufe der Zeit immer weiter perfektioniert, um einem Standard gerecht zu werden, der weltweit, sprach- und marktübergreifend gilt. SEOs wie Website-Betreiber müssen jedoch wissen, dass Algorithmen per Definition keine Ausnahmen zulassen. Google hat immer wieder öffentlich die Existenz von White- oder Blacklists jeglicher Art aus gutem Grund geleugnet. Sie existieren einfach nicht.
Websites werden von Algorithmen beeinflusst, wenn ihre Signale innerhalb und außerhalb der Website, also on- wie offpage, bestimmte Schwellenwerte überschreiten. Diese unsichtbaren Grenzen sind weder statische Werte noch für die breite Öffentlichkeit zugängliche Informationen. Das ist der Grund, warum es nicht möglich ist, bestimmte Ereignisse zu korrelieren, wie z. B. seltene, offizielle und manchmal enigmatische Update-Bestätigungen mit dem plötzlichen Abfall des Website-Rankings. Es ist äußerst schwierig, mit 100%iger Sicherheit festzustellen, ob eine bestimmte Website von einem oder gar mehreren Algorithmen betroffen ist oder nicht. Im Gegensatz zu manuellen Strafen gibt Google nicht an, ob, wann oder warum eine Website von Algorithmen betroffen ist. Das heißt nicht, dass die Wirkung eines Algorithmus vom Betreiber der Website nicht in gewünschter Weise beeinflusst werden kann. Tatsächlich ist es möglich, Algorithmen in wünschenswerter Weise zu beeinflussen, indem man sowohl On- wie Offpage-Signale verbessert. Absolut notwendig sind jedoch aktuelle, genaue und umfangreiche Crawl-Daten, wiederum sowohl on- als auch offpage, um zunächst zu verstehen und zu bewerten, welche Signale Google aufnimmt und wie diese interpretiert werden. Dieses Ziel kann nur erreicht werden, wenn ein technisches Website-Audit durchgeführt wird. Neben dem erforderlichen Expertenwissen ist dabei eine Vielzahl von Online-Marketing-Werkzeugen und Datenquellen hilfreich, einschließlich jener Informationen, die Google über die Google Search Console frei Haus bietet. Im Idealfall kommen in diesem Prozess auch Server-Log-Daten, welche über einen längeren Zeitraum aufgezeichnet wurden, zur Anwendung. Der letztgenannte Schritt ist auch wichtig, um die am häufigsten gestellten Fragen zu beantworten, nämlich: Wie lange wird es dauern, bis Google die neuen, verbesserten SEO-Signale wahrnimmt? Und wie lange, bevor sich die Rankings einer Website wieder verbessern? Diese zentralen Fragen können für jede Website nur individuell beantwortet werden und hängen stark davon ab, wie häufig und wie weit eine Website gecrawlt und indexiert wird. Als Faustregel gilt, dass kleinere Websites und Websites, deren Crawl-Budget aktiv verwaltet wird, gute Chancen haben, relativ schnell von ihren Bemühungen zu profitieren. Für ausgebaute Websites mit reichlich Crawl-Budget-Verschwendung oder bei denen das Crawl-Budget überhaupt nicht aktiv gesteuert wird, kann es Monate oder sogar Jahre dauern, bis die neuen Signale ihre Wirkung entfalten können.
Manuelle Strafen sind Notlösungen
Im Idealfall würden Google-Algorithmen 100 % aller Verstöße gegen Google-Webmaster-Richtlinien erkennen und filtern. Ganz offensichtlich geschieht das nicht. Die Suche ist eine komplexe Angelegenheit und bisher ist es noch nicht gelungen, einen Algorithmus zu entwickeln, der in der Lage ist, mit dem menschlichen Einfallsreichtum Schritt zu halten. Trotz enormer Anstrengungen zur algorithmischen Web-Spam-Bekämpfung gelingt es Websites nach wie vor, unerkannt trotz oder gerade wegen akuter Richtlinienverstöße die Konkurrenz zu übertreffen. Das ist der Grund, weshalb es Google-Strafen alias manuelle Spam-Maßnahmen überhaupt gibt. Mit solchen manuellen Eingriffen hält Google seit vielen Jahren Web-Spam in Schach. Es gibt eine Reihe von Gründen, warum Websites von Google bestraft werden, inklusive zahlreicher On- und Offpage-Verstöße. Die meisten Strafen haben einen abrupten oder schleichenden Verlust der Website-Rankings zur Folge, und/oder einen Verlust von SERP-Präsenz, wie das z. B. oft bei nun nicht mehr sichtbaren Kundenbewertungen der Fall ist. Manuelle Strafen und Algorithmen können daher in ihrer Wirkungsweise ganz ähnlich erscheinen. Es gibt jedoch eine Reihe wichtiger Unterschiede aus SEO-Perspektive. Zum einen lösen manuelle Strafen eine Warnung in der Google-Such-Konsole aus, die den Verstoß und die konsequente Bestrafung hervorhebt. Google stellt nicht nur transparente Informationen über die Art der festgestellten Verletzung zur Verfügung, es werden auch häufig Hinweise gegeben, wie man das Problem lösen kann. Mit anderen Worten, es gibt ein gewisses Niveau von Gewissheit, wenn es um manuelle Strafen geht. Eine Website wird entweder bestraft oder wird nicht bestraft und der Website-Besitzer kann den aktuellen Status leicht herausfinden. Bei Algorithmen ist das niemals der Fall. Sie bewirken keine GSC-Warnung.
Ein weiterer wichtiger Unterschied ist, dass manuelle Bestrafungen in der Regel irgendwann einmal verfallen. Google hat nie offiziell bestätigt, wie lange es dauert, bis manuelle Strafen ablaufen. Sporadisch und wie so oft kryptisch heißt es, dass es sehr, sehr lange dauern kann. Das Aussitzen manueller Strafen ist offensichtlich keine echte Alternative, insbesondere angesichts der negativen Auswirkungen, vor allem wegen des Verlusts der Google-Search-Sichtbarkeit. Und weil nichts Google daran hindert, verfallene manuelle Strafen wieder neu einzuführen.
Ein weiterer Unterschied im Vergleich zu Algorithmen besteht darin, dass es im Gegensatz zu Google-Strafen bei Algorithmen nicht nötig ist, einen sog. Reconsideration Request, also einen Antrag auf erneute Überprüfung einzureichen, bevor sich die Rankings wieder verbessern können. Bei Algorithmen müssen neue, verbesserte Signale „nur” erneut gecrawlt werden. Dies ist besonders wichtig für Betreiber großer Websites, wenn sie entweder das Crawl-Budget nicht aktiv oder schlecht verwalten. Als Folge kann der Recrawl sehr lange Zeit in Anspruch nehmen. Bei manuellen Strafen ist es nicht notwendig, einen Recrawl anzuregen. Stattdessen kann der Website-Besitzer Google ausdrücklich bitten, die Strafe aufzuheben, indem ein Reconsideration Request eingereicht wird. Wie lange es dauert, bis dieser bearbeitet und entschieden ist, bleibt Google überlassen. Es handelt sich um einen manuellen, arbeitsintensiven Prozess, in dessen Rahmen erfahrene Mitarbeiter von Google Search die übermittelten Informationen auswerten. Das Warten ist für jeden, der das Urteil über seine Website erwartet, nervenaufreibend. Die Erfahrungen der Vergangenheit zeigen, dass es zwischen mehreren Stunden bis zu mehreren Wochen oder gar länger dauern kann, bis eine Antwort zurückkommt. Der Weg zu einem Reconsideration Request allerdings beginnt ganz ähnlich wie bei der Untersuchung von Signalen, die Algorithmen auslösen können. Auch bei der Lösung manueller Strafen beginnt die Arbeit an einer Lösung mit dem Crawlen der Website sowie deren Backlinks, bevor diese auf Ihre Signale untersucht werden können.
SEO-Krise als Wachstumschance
Abschließend muss gesagt werden, dass sowohl Algorithmen als auch Strafen gleichzeitig eine und dieselbe Website (be‑)treffen können. Ihre Triggersignale können sich sogar überlappen. Jedoch sind Algorithmen und Strafen voneinander unabhängig. Für die Sichtbarkeit und damit letztendlich für den kommerziellen Erfolg einer Website sind sowohl Algorithmen als auch manuelle Strafen im gleichen Maße extrem relevante Faktoren, die es stets zu beachten gilt. Aus diesem Grund sind regelmäßige technische Audits sowie die periodische Überprüfung auf Konformität mit den Google-Webmaster-Richtlinien ein Muss. Die technische Umsetzung einer jeden Website verändert sich naturgemäß im Laufe der Zeit. Google aktualisiert die eigenen Webmaster-Richtlinien gelegentlich, um dem Wandel des modernen Webs besser gerecht zu werden. Solche Veränderungen passieren oft still, ohne große Fanfare. All dies sind unter anderem triftige Gründe, weshalb regelmäßige Audits als ein Teil der sog. Corporate Due Diligence als existenziell wichtig zu betrachten sind.
Weder Algorithmen noch Strafen sollten jedoch gefürchtet werden. Sie sind Bestandteile des täglichen Online-Geschäfts, die potenziell einen negativen Einfluss haben können, wenn die Website vernachlässigt wird. Sollte es so weit kommen können sie jedoch als eine Chance wahrgenommen werden. Wie bei den meisten Krisen kann die Erfahrung eines abrupten, unerwarteten Abstiegs in der Google-Suche eine Gelegenheit sein, die Website auf Vordermann zu bringen, um anschließend, sobald sich der erste Schock gelegt hat, die Gelegenheit zu nutzen, sowohl die SERP-Präsenz auszubauen als auch die Google-Sichtbarkeit und letztendlich auch die für den Erfolg enorm wichtige Durchklickrate in neue, bis dahin unerreichbare Höhen zu steigern.