Google-Ranking down – veraltete Webseiten schaden Ihnen!

Kaspar Szymanski
Kaspar Szymanski

Kaspar Szymanski, SEO-Berater und ehemaliger Mitarbeiter des Google Search Teams, ist einer der wenigen Experten mit jahrelanger Erfahrung mit der Gestaltung und Umsetzung von Googles Richtlinien, Webspam-Bekämpfung und einem hohen Bekanntheitsgrad als Sprecher auf SEO-Events. Seit der Gründung von SearchBrothers.com steht er Unternehmen beratend zur Seite und spezialisiert sich im erfolgreichen Umgang mit Google-Strafen und Suchmaschinenoptimierung.

Mehr von diesem AutorArtikel als PDF laden

Tagtäglich werden Unmengen von Webseiten unbrauchbar. Überholte Informationen, ausverkaufte Produkte, eingestellte Dienstleistungen und geschlossene Foren machen die Seiten hinfällig. Der anschließende Umgang mit veralteten Inhalten bzw. Seiten kann sich erheblich auf das Ranking ganzer Webseiten in Google auswirken! Und wenn dabei Fehler gemacht werden, können selbst einst gut sichtbare Webseiten in den Suchergebnissen komplett untergehen. SEO-Experte und Ex-Googler Kaspar Szymanski zeigt Ihnen auf, wie man professionell mit dieser Herausforderung umgeht und Schaden abwenden kann.

PageRank und Nutzererfahrung

Ein von Webseitenbetreibern oft verwendetes Argument für das Beibehalten von Zielseiten (Engl. Landing Pages) mit veralteten Inhalten – insbesondere, wenn es sich um ausverkaufte Produkte handelt – ist der Wunsch, deren PageRank zu erhalten. Dabei ist es ein grober SEO-Fehler, Zielseiten indexierbar und mit einem 200-OK-Statuscode aufrechtzuerhalten, um vermeintlich angehäuften PageRank zu bewahren, selbst dann, wenn das Produkt bzw. die Dienstleistung nicht mehr verfügbar sind. Der tatsächliche Effekt ist, dass die Zielseite zu einer sogenannten Soft-404-Zielseite wird, also einer Zielseite, die anstatt eines 404- oder 410-Statuscodes kontinuierlich einen 200-OK-Statuscode zurückgibt, den Nutzern jedoch keine relevanten Inhalte bietet.

„Alte Seiten mit einem 200-OK-Statuscode aufrechtzuerhalten, ist ein grober SEO-Fehler!“

Diese Strategie stellt gleich aus mehreren Gründen das Rezept für ein SEO-Desaster dar. Erstens ist nicht der Aufbau des PageRanks, sondern die Konversionsrate das primäre Ziel einer kommerziellen Website. Für den Webseitenbetreiber bleibt schließlich der tatsächliche PageRank-Wert – ob dieser nun beeindruckend ist oder nicht – irrelevant, solange die Konversionsrate den Erwartungen entspricht oder diese gar übertrifft. Zweitens lässt sich der PageRank nicht einmal ansatzweise genau messen. Während der PageRank-Wert sich laufend ändert, gibt Google den tatsächlichen Wert für einzelne Zielseiten bzw. Webseiten nicht an. Kein Dienst eines Drittanbieters vermag diesen Wert wiederzugeben. Und letztendlich werden Produkt-Zielseiten selten dauerhaft und schon gar nicht mit Qualitätslinks verlinkt. Der befürchtete PageRank-Verlust ist subjektiv. Der tatsächliche PageRank-Verlust ist somit irrelevant.

„Soft-404-Fehler können einer Website schaden.“

Soft-404-Fehlerseiten beeinträchtigen erheblich die Nutzererfahrung und sind den Suchmaschinen, insbesondere Google, ein Dorn im Auge. Wenn Produktseiten nicht mehr verfügbarer Produkte dennoch weitergeführt werden, steigt gleichzeitig das Risiko, dass die Nutzererfahrung und das damit verbundene SEO-Signal sich verschlechtern. Google hat in den vergangenen Jahren deutliche Fortschritte in der Spracherkennung gemacht und ist in der Lage, negative Wörter wie „ausverkauft”, „nicht verfügbar”, „nicht lieferbar” oder „keine Ergebnisse gefunden” im Kontext adäquat zu erkennen. Wenn Soft-404-Zielseiten erkannt werden, macht Google häufig – aber nicht immer – in der Google-Suchkonsole darauf aufmerksam. Ein großes Problem in diesem Zusammenhang stellt die fallende Durchklickrate (engl. Click-Through-Rate) dar. Diese wird nämlich von den Snippets, welche die Nicht-Verfügbarkeit der Produkte hervorheben, heruntergedrückt. Hinzu kommt, dass Nutzer, die dennoch auf die in den Google-Suchergebnissen gelisteten Ergebnisse klicken, um dann mit Soft-404-Zielseiten konfrontiert zu werden, in aller Regel unmittelbar zurück zu den Suchergebnissen navigieren und anschließend nach Alternativen suchen oder die Anfrage ändern. Dieses Nutzerverhalten gibt Suchmaschinen unmittelbar zu verstehen, dass des Nutzers Erwartung nicht erfüllt wurde.

Mit dieser steigenden „Absprungrate", die oft mit der Google-Analytics- oder On-Site-Absprungrate verwechselt wird, leidet die Relevanz der Website insgesamt in den Rankings. Damit steigt die Absprungrate (engl. Bounce Rate) sprunghaft an. Das hat wiederum zur Folge, dass die Relevanz und damit die Rankings der gesamten Website fallen.

PageRank ist und bleibt ein gewichtiger Faktor, allerdings verblasst er im Vergleich zu SEO-relevanten Nutzersignalen. Insbesondere Google zeigt nach wie vor eine Tendenz dazu, bei Nutzern besonders beliebten Webseiten ebenfalls den Vorzug zu gegen. Auch deshalb hat das PageRank-Argument gegenüber Nutzersignalen keinen Bestand. PageRank ist nicht nur kaum quantifizierbar, er ist auch nur ein Mittel zum Zweck. Dagegen tragen positive Nutzersignale unmittelbar und unverzüglich zum geschäftlichen Erfolg einer Webseite bei.

„Google hat die Nutzer im Fokus, nicht den PageRank.“

Trends

Google-Rankings hängen zu einem großen Teil von Trends ab. Bei einer großen Webseite mit Hunderten von Millionen hochwertiger Zielseiten ist es unwahrscheinlich, dass ein paar Tausend Zielseiten mit veralteten Inhalten zu einem Verlust im Ranking führen werden. In der Relation sind es zu wenige, um den Trend der Website entscheidend zu beeinträchtigen. Wenn es sich jedoch um eine kleinere Webseite mit einigen Zehntausend Zielseiten handelt, können bereits einige Hundert veraltete und indexierte Zielseiten ein ernst zu nehmendes SEO-Problem darstellen.

Letztlich ausschlaggebend sind Trends, die in Prozentpunkten und nicht etwa in absoluten Werten gemessen werden. Welche Webseite in organischen Suchergebnissen gut sichtbar ist und welche nicht, hängt von einer Reihe von Schlüsselfaktoren ab. Dazu gehören unter anderem das Gesamtvolumen der indexierbaren Zielseiten, deren inhaltliche Qualität und vor allem der auf Nutzerverhalten basierende Trend, der die Nutzerzufriedenheit mit den Inhalten abbildet.

Dabei gibt es keine festen Schwellenwerte, die eingehalten werden müssen. Es sind die überwiegenden Trends, die es zu beachten gilt, wenn es darum geht, SEO-Signale und damit die Sichtbarkeit bei Google zu verbessern. Die Frage, wie gut eine bestimmte Webseite in dieser Hinsicht abschneidet, kann nur mittels eines SEO-Audits und durch Datenanalyse, insbesondere unter Einbezug der Server Logs, genau beantwortet werden. Deshalb ist es für kommerzielle Webseiten mit einer großen und wechselnden Produktdatenbank ein Muss, regelmäßig technische SEO-Audits durchzuführen.

Solche Audits stellen die einzige Möglichkeit dar, das Crawl-Budget-Management bzw. die Zeit, die Google benötigt, um veraltete Zielseiten erneut zu crawlen, um die vorgenommenen Änderungen zu registrieren, einzuschätzen. Nur ein SEO-Audit kann wirklich eine Antwort liefern, um festzustellen, ob veraltete Zielseiten ein kritisches SEO-Problem sind.

Wie man es richtig macht

Größere Bereiche einer Webseite, die an Nutzen bzw. Relevanz verloren haben, jedoch nicht einfach gelöscht werden können, wie z. B. alte Foren, können auf eine separate Domain ausgelagert werden. Damit können die positiven Signale oder der Trend der verbleibenden Inhalte verstärkt werden. In diesem Fall müssen 301-„Moved Permanently”-Weiterleitungen eingerichtet und permanent beibehalten werden. Alternativ dazu können 404-Fehlerseiten eingesetzt werden, um damit Suchmaschinen anzuzeigen, dass die Inhalte nicht länger berücksichtigt werden sollten.

„301-Weiterleitungen und 404-Fehlerseiten sollten immer korrekt eingesetzt werden.“

Zielseiten von nicht mehr verfügbaren Produkten dürfen jedoch keinesfalls mit 301 auf andere Zielseiten weitergeleitet werden, denn das würde unweigerlich die Nutzersignale beeinträchtigen. Stattdessen müssen, wenn Produkte oder Dienstleistungen nicht mehr verfügbar sind, die entsprechenden Zielseiten entweder die HTTP-Statuscodes 404 Not Found oder 410 Gone zurückgeben. Auf diese Weise signalisieren diese Statuscodes Google und anderen Suchmaschinen, dass die Zielseiten nicht mehr das bieten, was sie einmal hatten. Damit werden wiederum die positiven Nutzer-Signale der verbleibenden verfügbaren 200-OK-Zielseiten, die weiterhin Produkte oder Dienstleistungen anbieten, voll zur Geltung gebracht.

Es gibt allerdings auch eine Möglichkeit, aus 404-Fehlerseiten legitim Kapital zu schlagen, ohne dabei unnötige Risiken einzugehen. Dies wird durch das Einbinden zusätzlicher Inhalte in 404-Fehlerseiten erreicht. Während diese nach wie vor den korrekten 404-Statuscode zurückgeben, ist es möglich, dennoch für den Nutzer relevante kontextbezogene Informationen einzublenden.

„Aus 404-Fehlerseiten lässt sich auch Kapital schlagen, wenn man es richtig angeht.“

Bei diesen sogenannten smarten 404-Fehlerseiten ist die Tatsache, dass das Produkt bzw. die Dienstleistung nicht verfügbar sind, nach wie vor vordergründig. Ergänzt durch relevante Produktalternativen und/oder die Ergebnisse einer internen Suche basierend auf den Schlüsselwörtern aus der URL der Suchanfrage wird Nutzern die Möglichkeit geboten, auf der Zielseite zu verweilen. Für den Webseitenbetreiber eröffnet sich damit die Chance, dass der Nutzer doch noch fündig wird und einen Kauf abschließt.

Smarte 404-Fehlerseiten stellen keine SEO-Wachstumsstrategie dar, sondern vielmehr ein erprobtes Mittel, Nutzerzufriedenheit und gleichzeitig Abverkauf zu steigern. Und solange der verwendete Statuscode immer 404 ist, stellen sie keinerlei SEO-Risiko dar.

Unabhängig davon, ob Zielseiten mit veralteten Inhalten 404, 410 oder eine smarte 404-Antwort zurückgeben, ist es wichtig, die URLs nicht in der Datei robots.txt auszuschließen. Denn dadurch würden Suchmaschinen-Bots daran gehindert, diese anzufragen, und könnten die vorgenommenen Verbesserungen nicht nachvollziehen, was unerwünschte Auswirkungen auf die Nutzersignale haben könnte.

Gleichzeitig muss die interne Verlinkung auf Zielseiten mit veralteten Inhalten aktualisiert und konsequent entfernt werden. Interne Links gehören zu den wichtigsten Onpage-Signalen, die für Suchmaschinen sowohl Relevanz als auch Crawl-Priorität signalisieren, weshalb es keinen Sinn macht, veraltete Zielseiten zu berücksichtigen.

Schließlich ist es wichtig, stets daran zu denken, dass 404-Fehlerseiten, egal wie zahlreich, keinen Einfluss auf das Ranking einer Webseite haben. Keine Webseite ist wegen oder trotz zahlreicher 404-Fehlerseiten besser oder weniger gut sichtbar in Google. Soft-404-Zielseiten dagegen können sich nicht nur negativ auf Rankings auswirken, sondern haben das Potenzial, die gesamte Webseite in SERPs nach unten zu ziehen.