Was ist eigentlich das Problem?
Die Domain anzupassen, Verzeichnisse umzubenennen oder Webinhalte zu löschen, ist technisch keine allzu große Herausforderung. Problematisch ist jedoch, dass Anpassungen an Verzeichnissen, an Domains oder sogar an der TLD dafür sorgen, dass Inhalte unter den alten Adressen bzw. URLs nicht mehr auffindbar sind. Besucher, die diese URLs bspw. über externe Links (Backlinks) aufrufen, erhalten vom Server als Rückmeldung den Statuscode 404 „Nicht gefunden“. Über kurz oder lang bekommen auch Google & Co. Wind von der Sache und Seiten bzw. URLs, die unter Umständen gute Rankings erzielt haben, werden aufgrund des Statuscodes aus dem Suchindex entfernt. Die vermeintlich neuen oder sogar exakt identischen Inhalte, die nun unter einer anderen Adresse bereitgestellt werden, müssen sich ihren Platz bei Google & Co. erneut erkämpfen. Vermeiden lässt sich dies, indem dem Crawler und damit der Suchmaschine über eine Weiterleitung mitgeteilt wird, unter welcher neuen URL die alten Inhalte zukünftig zu finden sind. Das klingt logisch, ist nachvollziehbar und wird trotzdem auch heute noch regelmäßig vergessen oder ignoriert. Dabei sind das Fehlleiten von Nutzern und der Verlust guter Rankings nur die eine Hälfte des Problems. Die zweite Hälfte nennt sich PageRank-Vererbung. Verweist eine Website mit einem hohen PageRank über einen Link auf eine andere Website, so „vererbt“ sie einen gewissen Teil des PageRanks über den abgehenden Link an die verlinkte Seite. Metaphorisch spricht man hier auch vom Link Juice (Linksaft), der fließt (Näheres unter de.ryte.com/wiki/Link_Juice). Durch den Wegfall von Backlinks fließt der „Linksaft“ nicht länger und der vererbte Teil des PageRanks verpufft. Das ist aus SEO-Sicht ärgerlich. Sie fragen sich, warum das problematisch ist?
Die Relevanz von Links für das Suchmaschinen-Ranking nimmt ab! Na und?
Über die Relevanz sogenannter Backlinks für das Ranking einer Seite lässt sich mit Sicherheit streiten. Ob und wie stark Google heute noch Backlinks in die Berechnung der Suchergebnislisten einbezieht, ist regelmäßig Bestandteil in hitzigen SEO-Diskussionen. Nichtsdestotrotz sind Backlinks ein Kriterium für Suchmaschinen. Denn Links von Websites sind für Nutzer und Suchmaschinen letztlich nichts anderes als Empfehlungen, die eine linkgebende Quelle für die linkempfangende Seite ausspricht. Diese zeigen also, egal ob implizit über Erwähnungen in Texten oder durch explizite, direkte Verlinkungen, ob eine Seite zu einem Thema hilfreich ist oder sein könnte. Damit ist der Empfehlungscharakter von Backlinks unstrittig. Warum also werden tote Links häufig nicht weitergeleitet oder die Weiterleitung nicht bereits proaktiv im Zuge von Umstellungen eingerichtet?
Es ist verlockend, Verantwortlichen Bequemlichkeit oder Unwissenheit zu unterstellen. Schließlich ist das Setzen einer Weiterleitung im Grunde trivial. Im Netz finden sich zig Anleitungen, wie vorzugehen ist oder warum sich der Aufwand lohnt. Doch versetzt man sich in die Lage eines Webverantwortlichen, der vor einem Berg mit 10.000 Weiterleitungen sitzt, versteht man vielleicht, warum das Thema unliebsam ist und gerne vernachlässigt wird. Unwissenheit kann in solch einem Fall tatsächlich ein Segen sein. Zumindest bezogen auf den Arbeitsaufwand, mit dem man sich konfrontiert sehen würde, wenn man es denn nur besser wüsste. Die gute Nachricht: Es gibt Mittel und Wege, sich die Arbeit zu erleichtern. Und mit ein bisschen Excel-Know-how sowie dem Einsatz von Tools lässt sich der manuelle Aufwand deutlich reduzieren.
Schritt 1: Durchatmen. Überblick verschaffen!
Im ersten Schritt gilt es, sich einen Überblick zu verschaffen und das Problem einzugrenzen. Woher stammen die toten Links bzw. wodurch könnten sie entstehen? Hat sich etwas Grundsätzliches an der Seitenstruktur verändert, etwa durch eine Anpassung des Domainnamens, sodass alle URLs der Website betroffen sind? Oder existiert die Gefahr, tote URLs zu generieren, nur für einen Teilbereich der Seite, da bspw. Unterverzeichnisse umgestellt werden? Das Problem zu identifizieren, liefert bereits wertvolle Erkenntnisse für die Planung der weiteren Maßnahmen.
Um das richtige Weiterleitungswerkzeug zu wählen, ist es zudem wichtig zu klären, auf welchem Webserver die eigene Website liegt. Ist Ihre Seite auf einem Apache-Webserver gehostet, können Sie Ihre Weiterleitungen bequem in der .htaccess-Datei anlegen und verwalten. Diese liegt in der Regel auf der obersten Verzeichnisebene Ihres Webservers und lässt sich mit Tools wie bspw. Notepad ++ (Kurzlink auf Dowload notepad-plus-plus.org) bearbeiten. Sofern Sie sich nicht sicher sind, auf welchem Webserver Ihre Website gehostet ist, kann Ihnen ihr Hoster oder Ihr Webmaster Auskunft liefern.
Schritt 2: Betroffene URLs identifizieren und extrahieren
Entscheidend für das weitere Vorgehen und die Tool-Auswahl ist, ob bereits tote Webadressen durch frühere URL-Anpassungen existieren, die es zu finden gilt (Szenario 1), oder aber, ob die URL-Anpassungen erst noch vorgenommen werden und dementsprechend die Einrichtung der Weiterleitungen vor der Umstellung erfolgt (Szenario 2). In beiden Szenarien sollten die betroffenen URLs identifiziert, strukturiert und übersichtlich dargestellt werden. Um den manuellen Aufwand hierbei auf ein Minimum zu reduzieren, lohnt es sich, verschiedene Tools einzusetzen. Wurde die URL-Umstellung bereits vorgenommen und sind somit viele Links nicht mehr vorhanden (Szenario 1), kann ein Blick in die Search Console von Google (Crawling -> Crawling-Fehler -> Reiter „Nicht gefunden“) oder in Tools wie ahrefs.com (Backlink Profil > Backlinks > nicht funktionierend) helfen.
In der Search Console werden alle URLs einer Domain mit dem Antwortcode 404, die Google entdeckt hat, aufgelistet und eine Excel-taugliche Liste zum Export bereitgestellt. Somit erhalten Sie eine Auflistung aller toten Links, für die Sie im zweiten Schritt Weiterleitungen einrichten müssen. Sofern die URL-Anpassungen erst noch vorgenommen werden (Szenario 2), können Sie die betroffenen Bereiche oder die gesamte Website crawlen und die URLs exportieren. In unserem Beispiel wird dafür das Tool Screaming Frog verwendet. Dieses ermöglicht in der kostenlosen Version bereits das Crawlen und Exportieren von bis zu 500 URLs. Ist die Anzahl der URLs größer, kann auf die kostenpflichtige Variante zurückgegriffen werden.
Nachdem die zu untersuchende Website oder ausgewählte Bereiche davon in den Suchschlitz des Tools eingegeben und der Crawl-Vorgang durch einen Klick auf den Start-Button gestartet wurde, erstellt das Tool innerhalb kürzester Zeit eine Liste der erfassten URLs mit zusätzlichen Informationen wie bspw. dem aktuellen Statuscode oder dem Seitentitel. Für unser Beispiel genügt die Darstellung unter dem Reiter „Link Metrics“. Mit einem Klick auf „Export“ lässt sich die Liste bequem auf dem Desktop für die weitere Bearbeitung abspeichern (Abbildung 1). Tipp: Wählen Sie beim Speichern das Dateiformat „Excel Workbook“. Das erleichtert die nächsten Schritte in Excel.