Verteilungskämpfe

Thomas Kaiser
Thomas Kaiser

Thomas Kaiser entwickelte an der TU München den ersten MPEG-Videocodierer für Windows und 1997 die erste deutsche SEO-Software. Er gründete 1997 die cyberpromote GmbH, einen Pionier im Bereich SEO, SEA und Usability, und ist seit Anfang 2021 CEO bei der +Pluswerk AG. Er schreibt Bücher, Fachartikel, ist bekannter Speaker und hält Workshops in der Google-Zukunftswerkstatt.

Mehr von diesem AutorArtikel als PDF laden

Die Seitenverteilung beschreibt den hierarchischen Aufbau einer Website. Sie legt auch dar, mit wie vielen Klicks ein Besucher von der Startseite zu einer bestimmten Unterseite kommt, also auf welcher Ebene oder welchem Level diese liegt. Doch welchen Einfluss hat die Seitenverteilung auf die Rankings in den Suchmaschinen? Und welche Seitenverteilung ist die beste? Thomas Kaiser ging dieser Frage für Sie nach.

Der „Tap Counter“ bei Palm (wer sich erinnert: ein Unternehmen, das zeitweise sehr erfolgreich Smartphones herstellte und heute zu HP gehört) war dafür verantwortlich, dass jede Funktion des Smartphones in maximal drei Schritten erreicht werden kann. Werden mehr benötigt, muss das Design geändert werden, so die Vorgaben des CEOs von Palm (http://einfach.st/nyt7). Wenn das bei Smartphones geht, warum nicht auch bei Websites? Amazon reduzierte schließlich den Bestellprozess sogar auf einen Klick.

Abbildung 1 zeigt dieselbe Website, links im Original, rechts ergänzt durch ein zusätzliches Menü mit Links auf einige Unterseiten. Die Ringe zeigen von innen nach außen die Ebenen, im Mittelpunkt ist die Startseite (Ebene 0). Die rechte Variante hat deutlich mehr Seiten auf den inneren Ringen, besitzt also eine flachere Hierarchie.

Verteilungsmechanismen

Früher war der PageRank ein sehr wichtiger Faktor für die Verteilung der Linkpopularität. Die Grundlagen sind auch heute noch relevant. Je mehr eingehende Links von anderen internen Seiten eine interne Seite hat, desto bedeutender ist sie. In diesem Artikel wird also das Thema Backlinks ganz außen vor gelassen. Das Problem: Links von Seiten, die selbst eine hohe Linkpopularität haben, sind gewichtiger als Links von Seiten mit geringer Bedeutung. Auch hier sollen anderen Faktoren wie Kontext außer Acht gelassen werden. Die Frage ist doch, was eine grundlegend gute Struktur ist.

Es gibt im Netz zahlreiche Ausführungen und Beispiele für die Berechnung des PageRanks (z. B. unter einfach.st/pr9). Für die Aufstellung von Regeln wird definiert: Ebene 0 ist die höchste Ebene (Startseite einer Domain), alle weiteren Seiten erhalten als Ebenenzahl die geringste Zahl der Klicks, die von der Startseite aus erforderlich sind, um die Seite zu erreichen (auch „shortest path“ genannt). Man kann statt Ebene auch Level sagen. Grundsätzlich kann man empfehlen:

  • Jede Seite innerhalb einer Ebene verlinkt auf jede andere Seite innerhalb der gleichen Ebene.
  • Alle Seiten einer Ebene haben einen Link von mehreren übergeordneten Seiten und verlinken zu diesen zurück.
  • Alle Seiten haben einen Link zurück zur Startseite.

Es soll hier nicht weiter auf diese Regeln eingegangen werden, denn sie entsprechen dem typischen Aufbau von Websites. Schaut man sich fehlerhafte Beispiele an, leuchten die Regeln ein.

Worst-Case-Beispiel

Bereits in Ausgabe 32 durfte docmorris für ein gravierendes Problem herhalten. Doch betrachten wir zunächst die Seitenverteilung von docmorris.de, die z. B. das Tool Forecheck nach einer Analyse der Domain ausgibt.

Auffallend sind eine breite Verteilung und die vielen Seiten jenseits von Level 10. In Abbildung 3 ist in der Spalte „Level“ erkennbar, dass es Seiten jenseits der Ebene 100 gibt. In der Abbildung findet man rechts daneben auch die Spalte mit der Zahl der eingehenden Links und die Spalte „Robots“. Dort ist alles grün, prinzipiell stehen die Seiten also für eine Indexierung offen.

Ursache für das Problem ist eine Paginierung, die auf vielen Seiten nur einen Link zur nächsten Kategorieseite enthält, wie in Abbildung 4 zu sehen. Hat eine Kategorie also über 100 Seiten, muss man auch 100-mal klicken. Jeder sieht wohl ein, dass kein Besucher dies tun würde, und auch die Suchmaschinen dringen nicht in solch tiefe Ebenen vor. Je tiefer die Ebene einer Seite liegt, desto unwahrscheinlicher ist es, dass sie gute Platzierungen erzielt.

Die grauen Balken in der oberen Grafik in Abbildung 2 zeigen, wie eine optimale Verteilung aussehen würde. Die untere Grafik der Seitenverteilung erklärt, wie man diese erreicht. Letztlich sollten hier alle Seiten ab Ebene 4 auf die Ebenen 2 und 3 verteilt werden, was zu einer deutlich flacheren Hierarchie führen würde.

Das Schöne am Beispiel von docmorris: Man kann hier sehr genau ermitteln, welche Seiten in der Tiefe von Google noch erfasst werden. Google indexiert tatsächlich einzelne Produktseiten, die auch auf Ebenen jenseits des Levels 10 liegen. Allerdings erzielt keine der Produktseiten eine Platzierung in den Top 30. Google-Platzierungen in den Top 10 erlangen nur Seiten bis einschließlich Level 4. Die Suche nach „omega 3 loges vegan kapseln“ z. B. gibt die URL einfach.st/docm3 auf Platz 7 aus. Diese Produktseite hat drei eingehende Links, ist also in drei Kategorien verlinkt, was neben der Ebene auch eine wichtige Rolle spielt.

Bei Produktseiten, die nur zwei eingehende Links haben, ist bei Level 10 Schluss. Produktseiten mit deutlich mehr eingehenden Links werden bis Level 22 indexiert. Es ist doch erstaunlich, wie tief Google in Webseiten vordringt. Allerdings kann man hier nicht mehr von guten Platzierungen sprechen.

Gewichteter Level-Mittelwert

Um die Seitenverteilung in eine Zahl fassen zu können, ist die gemittelte gewichtete Ebene aller Seiten geeignet. Dieser Wert berechnet sich wie folgt:

                   Anzahl Seiten Ebene 1 + 2*Anzahl Seiten Ebene 2 + 3*Anzahl Seiten Ebene 3 + usw.
Ø Ebene = ----------------------------------------------------------------------------------------------------------------
                                                        Anzahl aller Seiten

Doch wie errechnet und bewertet man nun die optimale Verteilung?

Dazu wurden einige Hundert Websites analysiert, die in ihrem Segment jeweils sehr gute Platzierungen erzielen. Zudem wurden nur Websites mit mehr als 10.000 Seiten berücksichtigt. Je kleiner eine Website, desto einfacher ist es, eine optimale Verteilung zu ermitteln. Geht man beispielsweise davon aus, dass eine Seite 150 interne Links besitzen kann, lassen sich in zwei Ebenen ohne Probleme 150 * 150 = 22.500 Seiten unterbringen. Da einige Unterseiten auch mehrfach verlinkt sein können, kann man aber sagen, dass man 15.000 Seiten in jedem Fall auf zwei Ebenen verteilen kann. Docmorris.de hat ca. 14.000 Seiten, daher ist eine Verteilung auf zwei Ebenen optimal und durchaus machbar.

Wer nun meint, 150 Links auf einer Seite wären viel, der sollte sich mal otto.de ansehen. Die Startseite dort hat mehr als 700 Links ! Große Websites dürfen also durchaus auch viele Hundert Links auf einer Seite haben. Dies ist allerdings ein technischer Wert, der nichts darüber aussagt, ob so viele Links auch sinnvoll sind. Mehr Links auf den Seiten einer Website ermöglichen aber eine flachere Hierarchie.

Wenn man nun die Daten über alle analysierten Domains auswertet, gibt es einen eindeutigen Zusammenhang zwischen flacher Hierarchie (also möglichst wenig Ebenen) und guten Platzierungen in den Suchmaschinen. Es gibt keine Domain, die sehr gut platziert ist und eine schlechte, sprich tiefe Seitenverteilung hat. Natürlich gibt es auch Seiten, die schlecht platziert sind und eine sehr gute Seitenverteilung aufweisen. Aber eine flache Hierarchie ist keine Garantie für gute Platzierungen.

Ein weiteres schönes Beispiel schlechter Seitenverteilung ist google.de. Google hat auf vielen Seiten nur wenige Links. Allerdings hat Google im Vergleich auch keine guten Platzierungen. Das ist aber nicht das primäre Ziel, denn Google will seine Marke stärken und nicht für generische Suchbegriffe gut platzieren (auch wenn Google letztes Jahr einen SEO-Spezialisten suchte).

Abbildung 5 zeigt den optimalen gewichteten Ebenen-Mittelwert (y-Achse) abhängig von der Anzahl der Seiten (x-Achse). Die Grafik geht nur bis 10 Millionen Seiten, da nur wenige Websites mehr Seiten haben. Die Kurve flacht dann aber wieder stark ab. Mathematisch Versierte erkennen vielleicht, dass diese Kurve sehr nach der Verteilungsfunktion der Normalverteilung aussieht (http://einfach.st/wiki9). Das Ergebnis bestätigt aber auch, dass die Untersuchung sinnvoll, weil gut nachvollziehbar ist.

Der kleinste Mittelwert ist 1, wenn nämlich alle Seiten auf Ebene 1 liegen. Die x-Achse der Grafik ist logarithmisch skaliert. Bis 10 Millionen Seiten liegt der Mittelwert noch unter 4. Dies bedeutet nicht, dass keine Seite auf Level 5 oder höher liegt, aber es gibt deutlich weniger Seiten auf höherem Level als auf Level 3.

Die Kurve ergibt sich als Mittelwert der Webseiten, die untersucht wurden und sehr gute Platzierungen ausweisen. Natürlich gibt es Ausreißer. Otto.de liegt deutlich unterhalb der Kurve (ist also deutlich flacher), de.wikipedia.org liegt ziemlich genau drauf.

Ruft man sich nochmals Abbildung 1 ins Gedächtnis, erkennt man dort anschaulich, wie man eine Website strukturell ändern kann, um eine flachere Hierarchie zu erzielen. Allerdings gibt es kein Patentrezept, wie man das am besten erreicht. Denn man benötigt nicht nur einfach mehr Links pro Seite. Schließlich soll die Usability nicht darunter leiden.

Fazit

Die Seitenverteilung ist kein einzelner Rankingfaktor, vielmehr ist sie das Grundgerüst für jede Website. Es gibt einen klaren Zusammenhang zwischen flacher Hierarchie und guten Platzierungen. Für noch mehr Klarheit müssen weitere Untersuchungen folgen. Vor allem aber stellt sich die Frage, wie man bei Websites eine flachere Hierarchie erzielen kann, die für Suchmaschinen und Nutzer einen Mehrwert bietet. Dies soll in einem Folgebeitrag genauer analysiert werden.