Interne Verlinkung 2.0 – Teil 1:

Bessere Usability = bessere Rankings

Kai Spriestersbach
Kai Spriestersbach

Kai Spriestersbach ist erfolgreicher Unternehmer, Berater und KI-Forscher mit einem Masterabschluss in Webwissenschaften. Sein Sachbuch „Richtig Texten mit KI: ChatGPT, GPT-4, GPT-3 & Co.“ erschien im April 2023 im mvg Verlag. Er hilft Unternehmen dabei, generative KI sicher produktiv einzusetzen, und arbeitet an seiner Masterclass zum Thema generative KI.

Mehr von diesem AutorArtikel als PDF laden

Die Macht der internen Verlinkung wird von vielen Online-Marketern immer noch unterschätzt. Doch gerade bei großen Seiten ist die Optimierung des internen Linkgraphen ein wirksamer Hebel zu mehr Sichtbarkeit, Traffic und Umsatz – und das, ohne dass neue Inhalte erstellt oder Backlinks aufgebaut werden müssen.

Im ersten Teil dieses Artikels lesen Sie, wie die Kraft der Links innerhalb einer Webseite weitergegeben wird und wie die interne Verlinkung die Themen Usability, Semantik und SEO zusammenbringt. Wenn Sie den Besuchern eine optimale Navigation innerhalb Ihrer Seite bieten, wird auch der Suchmaschine ein Höchstmaß an Relevanz und Qualität signalisiert. Somit erfahren Sie, welche Navigationskonzepte durch Berücksichtigung der Bedürfnisse Ihrer Besucher von allein für eine optimale interne Verlinkung sorgen.

Die OnPage-Optimierung bietet gerade bei komplexen Seiten die Chance, ohne den Aufbau neuer Backlinks deutlich an Sichtbarkeit zu gewinnen und den für die eigene Webseite relevanten Traffic nachhaltig zu erhöhen. Insbesondere bei sehr inhaltsreichen Content-Projekten, Online-Shops mit Tausenden von Produkten oder älteren Webseiten mit organisch gewachsenen Strukturen wird das Potenzial der Seite häufig nicht optimal ausgeschöpft. Gerade die interne Verlinkung birgt meist ein gewaltiges Optimierungspotenzial, schließlich hat der Großteil der Unterseiten auf großen Portalen selbst nur interne Links und wird nicht durch externe Backlinks im Ranking unterstützt.

Doch wie sollten Informationsarchitektur und interne Linkstrukturen idealerweise organisiert sein, damit die Suchmaschine die Seite optimal indexiert und ranken kann? Welche nutzerfreundlichen Verlinkungskonzepte gibt es und wie können Sie die wichtigsten Seiten im „Shorthead“ priorisieren und dennoch in der Breite für den „Long Tail“ alle Seiten mit ausreichend Linkkraft versorgen?

Info

Der Shorthead bezeichnet im Suchmaschinenmarketing die Suchanfragen, die sehr häufig gestellt werden und damit auf ein einzelnes Keyword bezogen am meisten Traffic liefern können. Der Long Tail bezeichnet die Gesamtzahl aller Suchanfragen, die zwar relativ selten gestellt werden, in Summe jedoch ein gewaltiges Trafficpotenzial vereinen.

Die perfekte interne Verlinkung wirkt sich in Zeiten der Nutzersignale im SEO über die verbesserte Usability zusätzlich positiv auf die Rankings Ihrer Webseite aus. Mehr Seitenaufrufe, eine verbesserte Aufenthaltsdauer und eine geringere Absprungrate können das Ergebnis einer optimalen Nutzerführung sein – ein besserer Linkfluss für den Crawler der Suchmaschine ist ebenfalls die Folge, wenn Sie ein paar wichtige Grundregeln verinnerlichen und berücksichtigen.

"Die Konzeption der Informationsarchitektur sowie des Navigationskonzeptes einer komplexen Webseite erfordert viel Weitblick und Erfahrung und sollte zu Beginn vollständig an den Bedürfnissen der Besucher ausgerichtet sein. Anschließend können Strukturen hinzugefügt oder für den Suchmaschinen-Robot ausgeblendet werden, um die Seite optimal für das Ranking auszurichten."

Doch beginnen wir zunächst mit ein wenig Theorie, um das notwendige Hintergrundwissen zu erwerben:

PageRank-Vererbung in der internen Verlinkung

Dass der PageRank trotz aller Unkenrufe, insbesondere im Hinblick auf die interne Verlinkung, alles andere als tot ist, hat Matt Cutts bereits mehrfach bestätigt (http://www.stonetemple.com/articles/interview-matt-cutts-012510.shtml). Anhand des PageRanks legt Google unter anderem das sog. „Crawl Budget“ fest, also wie viele Unterseiten pro Domain gecrawlt werden. Je höher der PageRank ist, desto größer ist auch das Crawl Budget. Dieses Budget bestimmt neben der Aktualisierungsfrequenz auch, wie häufig die Seiten gecrawlt werden und wie oft ein tief gehendes Crawlen der gesamten Domain erfolgt. Demnach ist eine optimale Weiterleitung des PageRanks durch den internen Linkfluss an alle wichtigen Seiten der erste Punkt, den eine gute interne Verlinkung sicherstellen sollte.

Nach der reinen Lehre des PageRanks verteilt sich die Linkkraft einer Seite dabei gleichmäßig auf alle Links auf dieser Seite.

Not all links are created equal

Allerdings ist Link längst nicht mehr gleich Link, was bei der Analyse des Google-Patents 7,716,225 (http://www.google.de/patents/US7716225) von 2010, welches bereits 2004 eingereicht wurde, klar wird. Darin erweitert Google die PageRank-Formel um eine Gewichtung der Links innerhalb eines Dokuments. Ausgehend von einem „Reasonable Surfer“, also einem Benutzer, der sich vernünftig verhält, werden interne Links differenziert betrachtet und unterschiedlich stark gewichtet, je nachdem wie wahrscheinlich es ist, dass dieser Link auch tatsächlich angeklickt wird. So kann ein kleinerer Link am Ende der Seite zum Beispiel nur noch 40 % der Linkkraft vererben, ein prominent platzierter Link im Hauptinhalt der Seite hingegen 60 %, statt der gleichmäßigen Aufteilung 50 % / 50 % nach der PageRank-Formel. 

Um die Klickwahrscheinlichkeit der Links zu berechnen, setzt Google die unterschiedlichsten Daten und Verfahren ein. Google analysiert jede Seite nach ihrem strukturellen Aufbau und erkennt damit bereits im Quellcode Elemente wie Logo, Hauptnavigation, Seitenleisten, Fußzeilen oder den Hauptinhalt und gewichtet deren Links entsprechend stärker oder schwächer. Wiederkehrende Elemente wie seitenweite Linkblöcke kann die Suchmaschine natürlich ebenfalls identifizieren. Seit diesem Jahr rendert Google sogar den gesamten grafischen Aufbau (http://googlewebmastercentral-de.blogspot.de/2014/05/seiten-mit-abruf-wie-durch-google-rendern.html), um besser erkennen zu können, was der Besucher tatsächlich wahrnimmt und was nicht.

Darüber hinaus bezieht Google immer mehr echte Nutzerdaten aus den unterschiedlichsten Quellen mit ein. Kostenlose Produkte wie Google Chrome, das Werbenetzwerk, aber auch API-Dienste wie Google Fonts, Maps und Co. liefern der Suchmaschine wertvolle Hinweise darauf, welche Seiten nacheinander besucht werden und welche Links wirklich geklickt werden. Diese Daten werden auch bei der Bestimmung der Sitelinks einer Domain miteinbezogen. Am Beispiel meiner eigenen Seite wird deutlich, wie gut Google die am häufigsten aufgerufenen Seiten erkennt und in den Sitelinks aufführt, anstatt einfach die prominentesten Links der Startseite heranzuziehen:

Eine sehr gute technische Erklärung des Patents in englischer Sprache inklusive der Liste aller Faktoren findet sich auf dem Blog „SEO by the Sea“ von Bill Slawski (http://www.seobythesea.com/2010/05/googles-reasonable-surfer-how-the-value-of-a-link-may-differ-based-upon-link-and-document-features-and-user-data/). Bei der Analyse der internen Verlinkung muss also auch die Position des Links berücksichtigt werden! Die Seoratio-Tools (http://www.seoratiotools.com), die gemeinsam mit weiteren Tools in Teil 2 dieses Artikels ausführlicher vorgestellt werden, beziehen diesen Faktor bereits mit ein.

Welche Verlinkungsstruktur ist ideal?

In der Praxis stellt sich häufig die Frage, ob man besser eine flache und breite oder spitze und tiefe Struktur der Seite entwerfen sollte. Die optimale Lösung hängt jedoch stets von den Inhalten der Seite, dem Kontext des jeweiligen Unternehmens sowie den Bedürfnissen und Erwartungen der Nutzer ab. Eine Musterlösung für alle Fälle kann es daher niemals geben. Auch auf die Fragen „Wie viele Ebenen sind optimal?“ oder „Wie viele Links sollte eine Seite enthalten?“ gibt es daher keine pauschale Antwort.

Bei der Konzeption gilt es, einen Ausgleich zweier sich widersprechender Usability-Paradigmen zu schaffen:

  1. Möglichst kurze Wege für den Besucher und den Crawler zum gewünschten Ziel.
  2. Die Entscheidung zum nächsten Klick muss dem Nutzer möglichst leicht fallen.

Während bei der strikten Befolgung des ersten Paradigmas viel zu viele Links auf jeder Seite wären, führt das zweite im Extremfall zu ellenlangen Klickstrecken, die den Nutzer ermüden und auch den Crawler irgendwann stoppen lassen. Das Optimum stellt demnach eine Synthese nach dem Motto „So wenig wie möglich, so viel wie nötig“ dar.

Der Nutzer muss also auf jeder Seite sein nächstes Ziel einfach auswählen können und gleichzeitig sollten alle Möglichkeiten der Navigation berücksichtigt werden.

In der Theorie ist der Weg des Nutzers auf jeder Seite sehr klar und stringent:

In der Praxis landen Benutzer jedoch häufig auch auf Seiten außerhalb ihres eigentlichen Navigationspfades oder weichen bei der Nutzung einer Seite ganz bewusst davon ab, zum Beispiel, um sich einen besseren Überblick zu verschaffen, zu stöbern oder nach unterschiedlichen Informationen oder Produkten gleichzeitig zu suchen.

Daher brauchen Nutzer auch stets die Möglichkeit, auf allgemeinere Seiten zu gelangen. Ist die richtige Information noch nicht gefunden, können ähnliche, passende, verwandte oder spezifischere Informationen das Bedürfnis möglicherweise besser befriedigen als die aktuelle Seite.

Nutzer benötigen demnach sowohl die Möglichkeit, auf übergeordneten Seiten (globale Navigation) zu gelangen, als auch, sich im Kontext der aktuellen Seite (kontextuelle Navigation) sowie innerhalb derselben Hierarchieebene (lokale Navigation) sinnvoll weiterzubewegen.

Das gängige Navigationssystem für die Abbildung dieser Bedürfnisse ist das klassische Schema mit einer horizontalen Hauptnavigation, der vertikalen Sekundärnavigation und kontextuellen Links innerhalb des Hauptinhalts der Seite:

Die Funktion der Hauptnavigation

Das Bedürfnis nach allgemeineren Informationen wird demnach in erster Linie durch die Hauptnavigation einer Seite befriedigt. Diese ermöglicht die globale Navigation und dient als Überblick über das Gesamtangebot des Auftritts.

Eine zusätzliche Location-Breadcrumb zeigt die Position eines Elements in der Hierarchie relativ zur Startseite an und bietet neben der Navigation auf übergeordnete Seiten auch eine Orientierung innerhalb der Webseite:

Bei komplexen Webseiten bietet es sich aus Usability-Sicht zwar an, dem Nutzer mittels einer Drop-down-Navigation auch tiefere Einstiege in den Seitenbaum zu ermöglichen, für die interne Verlinkung ist dies jedoch nicht optimal. Durch die Wiederholung sämtlicher Kategorien und Subkategorien auf allen Seiten entsteht für die Suchmaschine ein chaotisches Verlinkungsschema.

Diese „Kreuz und quer“-Verlinkung verteilt auf den ersten Blick zwar die Linkkraft gleichmäßiger über die gesamte Seite, macht aber aus Sicht des „Information Retrieval“ keinen Sinn. (Information Retrieval bezeichnet das Verfahren zum Auffinden und Abspeichern von Informationen, sodass diese unter verschiedenen Gesichtspunkten gesucht werden können.)

Bessere Rankings durch weniger Chaos: Ontologien & Siloing

Suchmaschinen belohnen diejenigen Seiten mit guten Rankings, die sich als besonders relevant für die Suchanfrage des Nutzers darstellen. Neben der Ausrichtung der Seite auf bestimmte Suchbegriffe ist auch die Einordnung der jeweiligen Seite in das Gesamtkonstrukt der Webseite ein wichtiges Signal für die thematische Relevanz. In Zeiten immer semantischer werdender Suchmaschinen wird längst nicht mehr nur die Taxonomie der Begriffe einer Seite betrachtet. Gerade Google bezieht bei der Analyse der hierarchischen Organisation auch deren semantische Bedeutung ein. Dadurch entsteht eine ontologische  Betrachtung der Dokumente einer Seite. (Im Unterschied zu einer Taxonomie, die nur eine hierarchische Untergliederung bildet, stellt eine Ontologie ein Netzwerk von Informationen mit logischen und semantischen Relationen dar.) Diese ermöglicht der Suchmaschine eine Auswertung des impliziten Wissens über den „Knowledge-Graph“. (Der Knowledge-Graph ist eine Wissensdatenbank, die von Google zu Verbesserung der Suchergebnisse mittels semantisch ausgewerteter Informationen aus verschiedenen Quellen eingesetzt wird. Das Ziel hierbei ist es, das Bedürfnis des Nutzers bereits auf der Suchergebnisseite zu befriedigen, ohne dabei noch eine weitere Webseite besuchen zu müssen.) In der Praxis bedeutet dies, dass sowohl die auf der Seite verlinkten Seiten als auch die verlinkenden Seiten genauer betrachtet werden sollten. Haben diese überhaupt einen sinnvollen Bezug zur aktuellen Information und dem Bedürfnis des Nutzers oder sind es überflüssige Verweise zu irrelevanten Informationen? Es sollten jeweils nur wirklich relevante Seiten und passende Informationen, die das Informationsbedürfnis des Nutzers befriedigen, auf einer Seite verlinkt werden. In der Suchmaschinenoptimierung wird dieses Konzept auch unter dem Begriff des „Siloing“ zusammengefasst.

Beim Siloing wird eine große Webseite in mehrere thematisch voneinander abgegrenzte Seitenbereiche (die sog. Silos) gegliedert. Die Verlinkungen werden dann ausschließlich auf Seiten innerhalb des jeweiligen Silos fokussiert. Dies führt zum einen zur Reduktion der Anzahl allgemeiner Links auf jeder Seite und somit zur Stärkung der relevanten Links und verbessert zum anderen die ontologische Organisation der Seite durch thematisch passende Verlinkungen. Demnach sollte die Menge an Verlinkungen auf ein relevantes Minimum begrenzt werden, um einerseits den Benutzer nicht zu überfordern und anderseits die Zahl der Links, die sich fest auf jeder Seite wiederholen, zu begrenzen.

Die Hauptnavigation der New York Times (http://www.nytimes.com) ist beispielsweise bereits auf Silos optimiert: Auf der Startseite enthält die Hauptnavigation noch Links zu allen Ressorts, jedoch nicht zu weiteren Unterbereichen:

Nach Auswahl eines Ressorts, in diesem Beispiel „Food“, reduziert sich die Hauptnavigation auf einen kleinen Button, welcher mittels JavaScript die Hauptnavigation als Drop-down-Menü auf der linken Seite nachlädt:

Diese erst per Klick nachgeladene Navigation ermöglicht es dem Nutzer, bei Bedarf global zu navigieren, ohne dafür erst auf die Startseite zurückkehren zu müssen. Da die Navigation nicht beim Laden der Seite automatisch eingefügt wird, ist sie für den Suchmaschinen-Robot auch nicht Teil der Seite und verwässert damit nicht das stringente Verlinkungskonzept.

Bezogen auf die Drop-down-Navigation von spiegel.de bedeutet dies, dass es keinen Sinn macht, im Artikel über den „Hackerkongress 31C3“ (http://www.spiegel.de/netzwelt/web/31c3-in-hamburg-laeuft-der-chaos-communication-congress-2014-a-1010408.html) die Verlinkungen beispielsweise auf die Unterseiten „Diagnose & Therapie“ etc. im Ressort „Gesundheit“ einzubinden. Diese stellen für den Nutzer keinen sinnvollen Mehrwert dar und befriedigen kein Informationsbedürfnis im Kontext dieses Inhalts. Demnach sollten diese (zumindest für den Suchmaschinen-Robot) entfallen.

Funktion der Sekundärnavigation

Schauen wir uns jetzt die Sekundärnavigation an. Diese sollte den Nutzer innerhalb des Navigationskonzepts zu spezifischeren Informationen führen, sei es durch eine Liste von Unterkategorien in einer hierarchischen Navigation oder durch Facetten und Filter bei einer facettierten Navigation. Eine Kombination beider Systeme ist ebenfalls möglich und wird bei großen Online-Shops gern eingesetzt.

Bei diesem Navigationskonzept ist automatisch sichergestellt, dass lediglich sinnvolle und relevante Unterseiten verlinkt werden. Bei facettierter Navigation kann es jedoch durchaus sinnvoll sein, nicht alle möglichen Kombinationen der Filter und Attribute für die Suchmaschine lesbar zu verlinken. Im zweiten Teil dieses Artikels erfahren Sie, wie eine Filternavigation aufgebaut sein sollte, um die richtigen Seiten zu indexieren, den Crawler aber nicht mit nutzlosen Seiten zu überfrachten.

Verlinkungen im Hauptinhalt

Nach der Haupt- und Sekundärnavigation sorgt schließlich der Hauptinhalt der Seite für spezifischen Zugang zu ähnlichen, passenden und verwandten Informationen und Produkten. Welche Inhalte und Seitentypen sinnvollerweise verlinkt werden, hängt natürlich stark von Art und Funktion der jeweiligen Seite ab. Nach dem „Reasonable Surfer“-Modell werden Verlinkungen im Hauptinhalt besonders gewichtet und ermöglichen somit auch die gezielte Stärkung relevanter Seiten.

Am Beispiel Wikipedia wird klar, dass sogar die gesamte Navigation innerhalb dieser großen Informationsmenge ausschließlich mittels Textlinks im Hauptinhalt der Seite realisierbar ist. In der Auswertung von Thomas Zeithaml, der 10 Millionen deutschsprachige Wikipedia-Seiten crawlte (http://www.seoratio.de/die-interne-verlinkung-der-wikipedia/), wird deutlich, dass Wikipedia mit durchschnittlich 100 bis 150 Verlinkungen innerhalb des Textes eine vollständige Erreichbarkeit sämtlicher Inhalte nach lediglich fünf Klicks von der Startseite aus ermöglicht. Ganze 90 % der Seiten werden bereits nach nur vier Klicks erreicht.

Dabei werden die Links gleichmäßig über den gesamten Inhalt verteilt und sind stets ein sinnvoller Mehrwert für den Besucher im jeweiligen Kontext. Im Gegensatz dazu führt die automatisierte Verlinkung definierter Keywords meist zu einer Überversorgung der Zielseite und wird von den Nutzern selten als Mehrwert wahrgenommen. Kontextuelle Links sollten also bereits bei der Erstellung der Inhalte berücksichtigt werden und können manuell auch nachträglich für passende Linkziele eingepflegt werden.

Tipps, Tools und Techniken in Teil 2

Sind alle Bedürfnisse der Nutzer erfüllt, können besonders wichtige Seiten noch speziell über die interne Verlinkung gestärkt werden. Im zweiten Teil dieses Artikels in der nächsten Ausgabe erfahren Sie, mit welchen Tricks und Techniken Sie die Linkkraft gezielt in die richtigen Bahnen leiten und wie Sie Mythen und häufige Fehler bei der internen Verlinkung vermeiden, beispielsweise im Umgang mit paginierten Seiten, der facettierten Suche oder dem Nofollow-Attribut.

Bei großen Webseiten ist es zudem sehr schwierig, den Überblick zu behalten. Lesen Sie in der nächsten Ausgabe, mit welchen Tools die interne Verlinkung einer Webseite analysiert werden kann, um beispielsweise interne Konkurrenz und Keyword-Kannibalisierung aufzudecken oder Probleme und Potenziale der aktuellen Linkstruktur zu erkennen und zu beheben. (Kannibalisierung im Marketing findet statt, wenn sich unterschiedliche Produkte eines Unternehmens in direkter Konkurrenz zueinander befinden, das heißt den gleichen Markt bearbeiten und sich gegenseitig Marktanteile rauben. In Sachen SEO bedeutet die Kannibalisierung auf Keyword-Ebene, dass sich mehrere Seiten gegenseitig im Ranking Konkurrenz machen, da diese zu ähnlich sind und auf die gleichen Begriffe abzielen und somit keine Seite eindeutig relevant ist.)