Interne Verlinkung 2.0 – Teil 2 
Konzepte, Tools und Best Practices

Kai Spriestersbach
Kai Spriestersbach

Kai Spriestersbach ist erfolgreicher Unternehmer, Berater und KI-Forscher mit einem Masterabschluss in Webwissenschaften. Sein Sachbuch „Richtig Texten mit KI: ChatGPT, GPT-4, GPT-3 & Co.“ erschien im April 2023 im mvg Verlag. Er hilft Unternehmen dabei, generative KI sicher produktiv einzusetzen, und arbeitet an seiner Masterclass zum Thema generative KI.

Mehr von diesem AutorArtikel als PDF laden

Im ersten Teil in der letzten Ausgabe erfuhren Sie, wie die Kraft der Links innerhalb einer Webseite weitergegeben wird und wie Usability, Semantik und SEO idealerweise zusammenwirken. Der zweite Teil widmet sich nun der praktischen Umsetzung und stellt Ihnen Best Practices und häufige Fallstricke vor. Anhand der vorgestellten Beispiele lernen Sie bewährte Konzepte kennen, die sich idealerweise für Ihre Webseite adaptieren lassen. Sie finden in diesem Artikel außerdem häufige Fehler, die Sie tunlichst vermeiden sollten.
Der Fokus bei der strategischen Konzeption liegt klar auf dem Bedürfnis der Nutzer. Dieses übergeordnete Ziel sollten Sie für die Tipps und Techniken dieses Artikels im Kopf behalten. Mit den richtigen Fragestellungen können spezialisierte Tools für die Analyse, insbesondere bei großen Seiten, zusätzlich wichtige Hinweise liefern und als Entscheidungsgrundlage für die Ausrichtung der internen Verlinkung dienen. Einige dieser Werkzeuge und Fragestellungen finden Sie am Ende dieses Beitrags.

Zu den Beispielen in diesem Artikel sei vorab angemerkt: Best Practices sind ein wenig mit Vorsicht zu genießen. In Ausgabe 25 der Website Boosting konnten Sie im Artikel „Mit Best Practices zur erfolgreichen Online-Marketing-Strategie?“ lesen, welche Grenzen und Probleme sich bei der gedankenlosen Adaption fremder Strategien ergeben. Daher sollten Sie jede der hier vorgestellten Methoden vor der Übernahme darauf prüfen, ob diese für Ihre Webseiten-Struktur geeignet ist und im Kontext der Benutzerführung Sinn machen!

Tipp 1: Breadcrumb-Navigation on Steroids

Ein echter Klassiker der internen Verlinkung ist der Brotkrumen-Pfad oder auch Breadcrumb-Navigation. Hierbei werden die übergeordneten Seiten der aktuellen Seite verlinkt und bieten dem Benutzer sowohl eine Orientierung innerhalb der Seitenhierarchie als auch die Möglichkeit, auf allgemeinere Seiten zurückzukehren. Doch hier muss für die Breadcrumb noch nicht Schluss sein. Diese lässt sich sinnvoll erweitern und damit für die Optimierung der Sichtbarkeit einsetzen und kann so dem Besucher erweiterte Navigationsmöglichkeiten bieten.
Erweitern Sie die Breadcrumb-Navigation zur kontextuellen Schnellnavigation. Somit können über die Brotkrumen nicht nur übergeordnete, sondern auch andere relevante Seiten der jeweiligen Ebene erreicht werden. Ein sehr elegantes und erfolgreiches Beispiel hierfür ist die Breadcrumb der Arztsuche jameda (Abb. 1).

Auf Unterseiten wird dabei jede Ebene der Breadcrumb mit einem Drop-Down erweitert. Dieses bietet dem Nutzer sinnvolle Alternativen und ermöglicht es, die aus SEO-Sicht besonders wichtigen Seiten zu pushen. Dabei sind jeweils nur die Links des ersten Blocks auch als suchmaschinenlesbare Anker hinterlegt. Die übrigen Alternativen werden als Listenelemente mittels JavaScript mit einem „onClick-Event“ ausgestattet und funktionieren daher für den Benutzer, ohne für die Suchmaschine die Anzahl der Links auf der jeweiligen Seite unnötig in die Höhe zu treiben. (Das onClick-Event wird bei einem Klick auf das jeweilige Element ausgelöst und bietet die Möglichkeit, über einen sog. Event-Handler [Ereignisbehandler] auf ein solches Ereignis zu reagieren und beispielsweise eine JavaScript-Funktion aufzurufen, die das Ereignis verarbeitet.)
Wichtig: Die für die Suchmaschine verlinkten Seiten werden für jeden Zweig des Hierarchiebaums einzeln ausgespielt und sichern somit eine sinnvolle Verteilung der Linkkraft auf relevante Seiten, ohne bestimmte Bereiche zu überoptimieren. So gibt es für jede Stadt eine Liste der wichtigsten Stadtteile, für jeden Stadtteil eine Liste der Stadtteile in der Nähe, für jedes Fachgebiet eine Liste ähnlicher oder relevanter Fachgebiete und so weiter. 

Tipp 2: Selbstoptimierende Systeme


Besonders hilfreich bei der internen Verlinkung sind selbstoptimierende Systeme, welche automatisch besonders wichtige oder aktuelle Seiten prominent verlinken. Gerade bei inhaltsreichen Webseiten wie Blogs oder Magazinen kann ein solches System dafür sorgen, dass beliebte Seiten oder auch saisonal besonders häufig besuchte Seiten automatisch in Linklisten ausgespielt werden und somit passend zum steigenden Suchvolumen auch für die Suche besonders priorisiert verlinkt werden.
Auf dem Blog Herzbotschaft.de sorgt beispielsweise ein Widget (Abb. 2) in der Seitenleiste dafür, dass die in den letzten 24 Stunden am häufigsten aufgerufenen Artikel für den Nutzeund die Suchmaschine prominent platziert sind, und reagiert damit automatisch auf Vorlieben und Trends wie auch auf saisonale Suchanfragen.

Die New York Times hat hierfür sogar eine eigene Seite (http://www.nytimes.com/most-popular) integriert, auf der die am häufigsten gemailten, aufgerufenen und geteilten Seiten aufgelistet werden (Abb. 3), und darunter werden die häufigsten Suchanfragen, beliebtesten Filme und meist getwitterten Artikel vorgestellt.

Tipp 3: Krücken für den Crawler

Insbesondere bei der sog. „Long-Tail-Optimierung“, also der Ausrichtung der Webseite auf sehr viele, sehr spezielle Suchanfragen, reicht die normale Navigationsstruktur häufig nicht aus, um eine sehr große Anzahl von Unterseiten für den Suchmaschinen-Crawler mit ausreichend Linkkraft zu versorgen.
Ein Beispiel hierfür sind die Profile sämtlicher Nutzer auf facebook.com. Diese lassen sich nicht sinnvoll hierarchisch organisieren oder navigieren, denn jeder Nutzer benötigt lediglich Links zu seinen Freunden oder den Freunden seiner Freunde. Eine Verkettung auf dieser Basis würde jedoch bei über einer Milliarde Facebook-Profilen für eine sehr schwache Verlinkung der Profile sorgen. Außerdem stellt sich die Frage, welche Nutzer überhaupt von der Startseite aus verlinkt werden und wonach dies ausgesteuert werden könnte.
Für derartige Fälle hat sich ein System reiner „Indexierungsseiten“ bewährt, die selbst auf „noindex“ gesetzt werden und nicht im Index der Suchmaschine landen, aber durch die interne Verlinkung für eine vollständige Indexierung der Unterseiten sorgen. Im Fuß der Startseite findet der Suchmaschinen-Crawler Links zu den Verzeichnisseiten für Personen, Seiten, Orten, Spielen und mehr (Abb. 4). Auf der jeweiligen Verzeichnisseite gibt es nun Links zu allen öffentlichen Profilen, die wiederum alphabetisch gruppiert und paginiert werden, damit jede Seite nicht zu viele Links aufweist (Abb. 5).

Diese Verzeichnisseiten sind keine sinnvolle Einstiegsseite aus der Suchmaschine, denn kaum jemand wird „Alle Facebook-User, deren Name mit A beginnt“ suchen. Daher sind diese Seiten mittels Robots-Noindex-Metatag von der Indexierung ausgeschlossen.

Tipp 4: Facettierte Navigation & Link-Cloaking


Ein bei Online-Shops immer beliebteres Navigationselement ist die sog. „Facetten-Navigation“ oder auch „Faceted Search“. Diese Form der Navigation ermöglicht es, einen großen Artikelstamm nach bestimmten Eigenschaften (Facetten) zu filtern. Beispielsweise können Sie auf der Kategorieseite „Sofas & Couches“ auf home24.de diese Produktgruppe einschränken, indem Sie einen Preisbereich vorgeben, die Farbe festlegen, ein bestimmtes Material oder gar eine Polsterfunktion auswählen (Abb. 6).

Für den Käufer ist diese Form der Spezifizierung seiner Anfrage ein ideales Mittel, schnell das richtige Produkt zu finden. Für die Suchmaschine bzw. den SEO stellt sich jedoch nun die Frage, welche dieser Facetten überhaupt in den Index sollen. Theoretisch würden 10 Preisoptionen, 12 Farben, 5 Obermaterialien, 4 Funktionen, 50 Breiten, 30 Höhen, 4 Stile von 50 Marken bei den Couchs für eine gigantische Zahl von 720.000.000 Kombinationsmöglichkeiten sorgen. Diese schiere Masse lässt sich nicht sinnvoll indexieren und die meisten dieser Seiten wären viel zu dünn oder gar identisch. 
Der Ansatz: „Jede Seite im Index muss eine Frage beantworten, die Nutzer bei Google stellen“ führt zu einer Auswahl sinnvoller Kombinationsmöglichkeiten. Wie man in Googles Autovervollständigung sehr schön sehen kann, werden sehr spezifische Suchanfragen wie beispielsweise „sofa schlaffunktion in grün“ durchaus gestellt. Hierbei ist der Wettbewerb häufig sehr gering und das Kaufinteresse hoch. Die Gesamtzahl dieser vielen kleinen, aber sehr spezifischen Suchanfragen ergibt insgesamt ein gewaltiges Absatzpotenzial (Long-Tail-Theorie).
Sind nun die relevanten Facetten und Kombinationen ausgewählt, gilt es, diese für die Suchmaschine crawlbar zu machen und die übrigen Kombinationen zwar für den Nutzer bereitzuhalten, diese aber nicht in den Index zu bringen. Ein reines Robots-Noindex-Metatag ist hierfür keine Option, denn dabei würde Google immer noch alle 720 Millionen URLs crawlen müssen, nur um 99,9 % davon anschließend wieder zu verwerfen. Das vorhandene Crawl-Budget will also effizient eingesetzt werden und dafür sollten diese Seiten erst gar nicht für den Crawler erreichbar sein.
Die Gretchenfrage ist also: Wie verstecke ich Links vor Google, die der Nutzer aber benutzen können soll – und – verstoße ich damit evtl. gegen die Richtlinien der Suchmaschine?

Tipp 5: Link-Cloaking in Zeiten von JavaScript-fähigem Googlebot


Die gute Nachricht zuerst: Seiteninhalte für den Googlebot nicht erreichbar zu machen, die der Nutzer betreten kann, ist nicht als Cloaking im Sinne von Spam oder eines Verstoßes gegen die Richtlinien zu sehen. Problematisches Cloaking würde bedeuten, dem Googlebot etwas zu zeigen, das der Nutzer nicht sieht. Dies ist hier nicht der Fall.
Die einfachste Lösung hierfür, die beispielsweise auch bei den Facetten von jameda.de eingesetzt wird, ist es, die suchmaschinenrelevanten Facetten mit einem normalen Link (Anker-Element) zu verlinken und die zusätzlichen Facetten, welche vom Googlebot nicht ausgeführt werden, per JavaScript-Funktion zu laden. Auch wenn Google mittlerweile in der Lage ist, JavaScript auszuführen, um weitere Inhalte zu entdecken, und die gesamte Seite inkl. aller Stylesheets und JS-Funktionen rendern kann, ist dies bezogen auf die interne Verlinkung kein Hindernis, da hier keine PageRank-Vererbung im klassischen Sinne stattfindet.
Als Alternative kann für Facetten, die nicht gecrawlt oder indexiert werden sollen, das sog. „PRG-Pattern“ angewendet werden. Hierbei schickt das Drop-down-Element des Filters einen „POST-Request“ an den Server, ähnlich wie beim Absenden eines Kontaktformulars, welchem vom Googlebot nicht gefolgt wird. (Die HTTP-Methode POST schickt Daten zur weiteren Verarbeitung zum Server, diese werden als Inhalt der Nachricht übertragen und können beispielsweise aus Name-Wert-Paaren bestehen, die aus einem HTML-Formular stammen. Es können so neue Ressourcen auf dem Server entstehen oder bestehende modifiziert werden.) Das Skript, welches diesen POST-Request entgegennimmt, leitet dann mittels HTTP-Weiterleitung auf die URL der gefilterten Inhaltsseite um. Somit ist die URL teilbar und als Lesezeichen speicherbar, ohne diese jedoch für den Crawler erreichbar zu machen.

Häufige Fehler bei der internen Verlinkung

 

  1. Mehrere Links zum selben Ziel: Finden sich auf einer Seite mehrere Links zum selben Ziel, wird nicht mehr Linkkraft übertragen, aber die Anzahl der Links erhöht, was zu einer Ausdünnung der Linkkraft führt.
  2. Zu viele Links auf einzelnen Seiten: Je nach Stärke einer Seite sollten sich nicht mehr als 100-200 Links auf jeder Seite finden, damit der einzelne Link noch ausreichend Kraft vererben kann.
  3. Interne Konkurrenz durch Überpriorisierung von Unterseiten: Sind Unterseiten auf Mehrwortkombinationen ausgerichtet und zu prominent verlinkt, konkurrieren diese oft mit übergeordneten Kategorieseiten und verschlechtern dadurch die Performance insgesamt.
  4. Internes Nofollow: Interne Links mit dem Nofollow-Attribut lassen Linkjuice verpuffen und stärken nicht die übrigen Links auf der Seite. Daher immer vermeiden.
  5. Links auf Fehlerseiten: Die interne Verlinkung sollte regelmäßig auf Fehler überprüft werden, denn Links auf 404-Seiten lassen ebenfalls Linkjuice verpuffen.
  6. Links auf Weiterleitungen: Interne Links, die erst über eine oder mehrere Weiterleitungen gehen, sollten umgestellt werden. Ein No-Go sind 302-Weiterleitungen (diese vererben keinen Linkjuice).
  7. Unklare interne Linktexte: Seien Sie explizit. Es gibt intern keine überoptimierten Linktexte. Klare und deskriptive Linktexte helfen dem Nutzer und der Suchmaschine.
  8. Canonical-Link auf paginierten Seiten: Werden die Seiten 2 und folgende auf die erste Seite einer Paginierung kanonisiert, wertet Google die internen Links dieser Seiten nicht mehr aus.

Tools für die interne Verlinkung


Bei großen Webseiten ist es sehr schwierig, den Überblick zu behalten. Insbesondere bei der internen Verlinkung über diverse Hierarchiebenen und Facetten hinweg fällt es dem menschlichen Gehirn sehr schwer, ein sinnvolles Abbild davon zu entwickeln. Hier empfiehlt es sich, auf Tools zurückzugreifen, die die interne Verlinkung einer Webseite analysieren, und daraus Handlungsempfehlungen abzuleiten. Empfehlenswert hierfür sind unter anderem Audisto (audisto.com/ehem. Strucr), die Seoratio-Tools (www.seoratiotools.com), der Screaming Frog SEO Spider (www.screamingfrog.co.uk/seo-spider/) oder auch DeepCrawl (deepcrawl.co.uk).
Hier einige wichtige Fragestellungen, die man mithilfe geeigneter Tools beantworten kann: 

Frage: Wie fließt der Linkjuice – ist meine Seite zu flach oder zu tief?


Mit den meisten Crawlern kann man sich nach einem Crawl der eigenen Domain die Seiten pro Ebene anzeigen lassen. Hierbei ist es wichtig, dass spätestens nach sechs Ebenen der Großteil der Seiten erreicht wird (Abb. 7). Ist dies nicht der Fall, schauen Sie sich die URLs der Seiten mit größeren Ebenen an und versuchen Sie, diese prominenter zu verlinken.

Frage: Welche schnellen Erfolge kann ich mit internen Links erzielen?
Wichtige Seiten müssen ausreichend Linkjuice erhalten; ist dies nicht der Fall, wird es schwer, damit ein gutes Ranking zu erzielen. Die Seoratio-Tools berechnen für jede URL den ein- und ausgehenden Linkjuice und ermöglichen so die Identifizierung schwacher Unterseiten mit Rankingpotenzial (Rankings zwischen Position 11 und 20; Abb. 8) sowie starker Hubseiten, von denen diese gezielt angelinkt werden könnten (Abb. 9).

Frage: Habe ich interne Konkurrenz durch die interne Verlinkung?

Häufig hat eine Seite mehrere Unterseiten, die für dasselbe Keyword relevant sind. Ohne klare Hierarchie in der Verlinkung kann es zu wechselnden Rankings oder gegenseitiger Konkurrenz kommen. Hier hilft es, die eingehenden Linktexte der jeweiligen URLs sowie deren eingehenden Linkjuice (Abb. 10) zu betrachten und ggf. zu kanonisieren oder die Priorisierung zu ändern.

Frage: Verzeichnis X ist wichtig – geht genug Linkjuice dorthin?


Bei größeren Seiten kommt es häufig zu falscher Gewichtung der Verzeichnisse. So bekommt u. U. ein strategisch wichtiges Verzeichnis zu wenig Linkjuice und die Seiten darin ranken nicht optimal. Durch eine Analyse der Verzeichnisse nach erhaltenem Linkjuice (Abb. 11) wird dies auf einen Blick deutlich.