Man muss kein Online-Gigant sein, um allzu schnell den Überblick in Sachen Onsite-Suchmaschinenoptimierung zu verlieren. Bereits für Onlineshops mittlerer Größe ist die Antwort auf die Frage „Wo stehen wir?“ häufig schwierig zu beantworten. Ein Tracking-Raster kann nicht nur bei dieser Frage helfen, sondern liefert auch Antworten zum Thema Prioritäten sowie eine Entscheidungsgrundlage für Investitionen. Eine Inspiration und Anleitung in drei Schritten.
Onsite-SEO: Messen und Planen für große Portale
Was ist eigentlich SEO-Erfolg?
Platz 1 für Hotel bei Google? Sicherlich nicht, die Anzahl an Longtail-Phrasen, also Mehrwort-Suchanfragen wie „Hotel München 3 Sterne wifi“, nimmt kontinuierlich zu. Mit einer Handvoll generischer, meist konversionsschwacher Suchbegriffe in den Top 10 ist es längst nicht mehr getan.
Sichtbarkeit?
Vielleicht Sichtbarkeitsindizes? Seit vielen Jahren beobachtet die Szene das Auf und Ab der oft missverstandenen Indexpunkte der inzwischen zahlreichen Toolbox-Anbieter. Weil jedoch die Kurven für Sichtbarkeit, Traffic und Umsatz häufig nicht parallel verlaufen, sind Fehldeutungen an der Tagesordnung.
„Plus 20 % Sichtbarkeit!“, ruft der SEO euphorisch. „Aber ich sehe kein Umsatzplus. SEO war eine Fehlinvestition“, sagt der Vorstand. Dass vielleicht gerade Juli ist und sich die gestiegenen Positionen für Winterurlaub-Keywords erst viel später monetär auswirken, mag in diesem erfundenen plakativen Beispiel eindeutig sein, ist es im Alltag jedoch längst nicht immer.
Während Sichtbarkeitsindizes also ein hervorragendes Werkzeug für zahlreiche andere Aufgaben sind: Alle Fragen eines Inhouse-SEO-Teams können und wollen sie nicht beantworten.
Traffic?
Sollten wir also den Real-Traffic messen, um eine Aussage über den „echten“ SEO-Erfolg machen zu können? Dies würde auch das Problem lösen, dass Sichtbarkeitsindizes im Bereich des Longtail unscharf werden. Doch nie war SEO-Traffic so schwer auszuwerten wie heute. Oft beträgt der Anteil von „not provided“ in den Zugriffstatistiken 50 %, in Einzelfällen sogar knapp 70 %, Tendenz steigend.
Info
Seit der Umstellung auf „https“-Verbindungen für eingeloggte Nutzer liefert Google bei Klicks auf Suchergebnisse den Keyword-Referrer nicht mehr mit. Webseitenbetreibern ist es in diesem Fall also nicht mehr möglich zu erfahren, über welchen Suchbegriff ein Nutzer auf die eigene Seite kommt. In den Statistiken taucht „not provided“ auf.
Spätestens, wenn der „Not-provided“-Anteil einen gewissen Grenzwert überschreitet, sind zahlreiche Standardreportings nicht mehr möglich, beispielsweise:
- Wie ist das exakte Verhältnis zwischen Longtail-Anfragen und generischen Keywords? Welche typischen Worterweiterungen werden verwendet? Wer nicht parallel AdWords schaltet, dem bleiben diese Informationen verwehrt.
- Es ist keine Exklusion von Brand-Traffic mehr möglich. Für Suchanfragen, die einen Markenbegriff beinhalten, sollte die offizielle Domain jedoch sowieso grundsätzlich ranken, sofern keine ganz schwerwiegenden Probleme vorliegen. Und auch unter dem Gesichtspunkt der unterschiedlichen Konversionsraten wird bislang aus gutem Grund Brand-Traffic nicht dem SEO-Erfolg zugerechnet, selbst wenn der technische Kanal eine Suchmaschine ist.
Nicht zwangsläufig hängen diese Dinge zusammen:
Schwankungen in Einzelpositionen oder Sichtbarkeit
≠
Trafficschwankungen
≠
wirtschaftlicher Erfolg/Misserfolg
Messen, um zu planen
Onsite-Optimierung nach Sichtbarkeit oder Traffic bringt also nicht nur das Problem mit sich, dass jeder detaillierte Hinweis darauf fehlt, an welcher Stelle mit welcher Priorität gearbeitet werden muss. Beide KPI werden naturgemäß auch stark zeitverzögert erhoben: Zunächst muss Google die Veränderungen erfassen und danach treten unter Umständen sogar noch saisonale Effekte ein.
Beides ist nützlich, um retrospektiv – mit den oben genannten Einschränkungen im Kopf – Ergebnisse zu überprüfen. Für die Planung und Steuerung eines Inhouse-SEO-Teams ist dieses Vorgehen aber ungeeignet.
Um also die Frage „Wo stehen wir?“ tatsächlich beantworten zu können, muss an anderer Stelle gemessen werden, ohne den Pass über die (Google-)Bande auf der eigenen Seite.
Schritt 1: Das Vier-Schichten-Modell
Um mehr über den Status quo einer Webseite sagen zu können, muss zunächst das Sammelbecken „Onsite-SEO“ in seine verschiedenen Bestandteile aufgesplittet werden. Jede Webseite ist auf vier (für Onsite-SEO relevanten) Schichten aufgebaut.
Layer 1, die unterste Schichte: Hier geht es um den Rechner, auf dem die Webseite physikalisch liegt. Sind Hardware und Anbindung im Rechenzentrum in der Lage, Seiten schnell auszuliefern?
Layer 2, die Datenbankinhalte: beispielsweise Hotelzimmer- oder Flugdaten, lieferbare Artikel im Schuhshop, verfügbare Software-Downloads, abrufbare Artikel. Was immer der Geschäftszweck des Portals ist, hier geht es um die dort abrufbaren Inhalte.
Layer 3, das Interface: Während es in der zweiten Schicht darum geht, was dargestellt wird, geht es in Schicht drei um das „Wie“. HTML-Markup und Verlinkungsstruktur, um nur zwei Punkte zu nennen.
Layer 4, das Nutzerverhalten: Ob eine von Google indexierbare Seite nützlich ist oder nicht, entscheidet am Ende der Nutzer: mit einem Klick, mit einer geringen Bounce-Quote oder auch zum Beispiel mit einem Kauf.
Layer 4: Nutzerverhalten | Absprungrate, ... |
Layer 3: Interface | Markup, Linkstruktur, ... |
Layer 2: Daten | Datenbankinhalte, ... |
Layer 1: Hardware & Serverumgebung | Geschwindigkeit, ... |
Schon in diesem ersten Schritt wird klar: Was unter Onsite-SEO zusammengefasst wird, ist in der Realität eine Sammlung der verschiedenartigsten Problemstellungen.
Schritt 2: KPI den Schichten zuordnen
Nun werden die bekannten Onsite-Messgrößen den einzelnen Schichten zugeordnet. Was hier konkret gemessen wird, hängt stark von der zu überwachenden Seite ab, muss aber zwei Bedingungen erfüllen:
- Der Messwert muss sich regelmäßig ändern. Serverumgebung ist zwar zweifelsohne ein Prüfpunkt für Ebene eins, eine regelmäßige Veränderung ist jedoch (hoffentlich) nicht zu erwarten.
- Die Messgröße muss durch reine Onsite-Maßnahmen beeinflussbar sein. Zur Beurteilung von Offsite-Maßnahmen eignet sich das hier vorgestellte Raster nicht.
In welcher Form eine solches Tracking-Raster erstellt und gepflegt wird, ist übrigens unerheblich – solange es nur gepflegt wird. Die händische Variante in einem Excel-Tabellenblatt ist mit Sicherheit die aufwendigste Methode. Die schönste Lösung, ein Dashboard im Intranet, welches sich alle notwendigen Daten via API holt, benötigt Entwicklerzeit.
Layer 4: Nutzerverhalten | Ø Absprungrate: | 20 % | + 4 % |
Ø Aufenthaltsdauer: | 15 s | - 1 s | |
... | ... | ... | |
Layer 3: Interface | Seiten ohne h1 | 132 | + 23 |
Sackgassenseiten | 4.213 | + 350 | |
... | ... | ... | |
Layer 2: Daten | Anzahl Hotels | 190.000 | + 10 % |
Hotels mit Metadaten | 65.000 | + 8 % | |
... | ... | ... | |
Layer 1: Hardware & Serverumgebung | Ø Zugriffszeit http | 0,5 s | - 0,1 s |
Ø Zugriffszeit DB | 80 ms | - 6 ms | |
... | ... | ... |
Während Standardwerte wie Aufenthaltsdauer oder Zugriffszeiten allgemeingültig sind und für jede Domain gemessen werden sollten, müssen die Messwerte der besonders wichtigen Schichten 2 und 3 für jedes Portal individuell ermittelt werden.
Um bei Beispielen aus dem Tourismus zu bleiben:
- Anzahl der Hotels in der Datenbank
- Anzahl der Hotels mit individueller Beschreibung in der Datenbank
- Anzahl der Hotels mit maschinenlesbaren Metadaten
- Anzahl der Städte, in denen mehr als 15 Hotels verfügbar sind
- Anzahl der Beschreibungstexte auf Deutsch
- Anzahl der geprüften „Points of Interest“
- Anzahl der verschlagworteten Hotels
- ...
Die Aktualisierungsfrequenz dieser Daten sollte dabei nicht unterhalb einer Woche liegen. In einer weiteren Spalte sollten dabei jeweils die Veränderungen zur vorherigen Messung angegeben werden.
Im selben Schritt müssen Zielwerte definiert werden. Dies können sowohl Prozentsätze sein („Wir möchten für 100 % aller Hotels vollständige Metadaten bereitstellen“) als auch absolute Zahlen („Die Anzahl der Seiten ohne h1-Überschriften soll 0 sein“). Hier entsteht – ganz nebenbei – eine Onsite-SEO-Roadmap.
Bereits jetzt lässt sich nicht nur ganz klar ablesen, wo akuter Bedarf herrscht. Durch die Aufsplittung in Layer können SEO-Verantwortliche auch planen, welche Art von Ressourcen zukünftig benötigt wird: Layer 1 ist ein Job für Systemadministratoren, während Layer 4 eher eine Aufgabe für Kollegen mit Marketing/UX-Hintergrund ist.
Schritt 3: Tracking-Raster horizontal und vertikal erweitern
Um noch tiefer in die Analyse einzusteigen, muss das Tracking-Raster in einem dritten Schritt erweitert werden. Dies kann – unabhängig voneinander – sowohl auf der X- als auch auf der Y-Achse geschehen.
In der horizontalen Erweiterungwird eine beliebige Anzahl sinnhafter Daten mit aufgenommen. Dies können Zugriffszahlen, Konversionsdaten oder auch Umsatzzahlen sein. Achtung: Weniger ist hier mehr. Sinnhaft für das vorliegende Beispiel: die Konversionsraten für Hotels mit und ohne individuelle Beschreibung zu vergleichen.
In der vertikalen Erweiterung wird ein Portal nach Produkten, Themenbereichen oder Ländern aufgesplittet. Dies macht um so mehr Sinn, je unterschiedlicher verschiedene Bereiche sind:
- Kategorie „Schuhe“ und „Jacken“ gesondert betrachten
- Sommer und Winterurlaubsdestinationen
- Hotelschnäppchen und Luxusangebote
- ...
Layer 4: Nutzerverhalten Sommer-urlaubsziele | Ø Absprungrate: | 20 % | + 4 % | - |
Ø Aufenthaltsdauer: | 15 s | - 1 s | - | |
... | ... | ... | ... | |
Layer 4: Nutzerverhalten Winter-urlaubsziele | Ø Absprungrate: | 40 % | + 20 % | - |
Ø Aufenthaltsdauer: | 8 s | - 7 s | - | |
... | ... | ... | ... | |
Layer 3: Interface | Seiten ohne h1 | 132 | + 23 | - |
Sackgassenseiten | 4.213 | + 350 | - | |
... | ... | ... | - | |
Layer 2: Daten | Anzahl Hotels | 190.000 | + 10 % | ... |
Hotels mit Metadaten | 65.000 | + 0 % | 1,0 % CVR | |
Hotels ohne Metadaten | 125.000 | +0 % | 0,8 % CVR | |
Layer 1: Hardware & Serverumgebung | Ø Zugriffszeit http | 0,5 s | - 0,1 s | - |
Ø Zugriffszeit DB | 80 ms | - 6 ms | - | |
... | ... | ... | ... |
Fazit
Monitoring, Bedarfsplanungs-Tool, Zielerreichungshilfe: Ein Tracking-Raster kann vielseitig eingesetzt werden. Eine zusätzliche Stärke spielt es jedoch immer dann aus, wenn die Ziele besonders weit entfernt sind: Plötzliche Abstürze im Ranking lassen sich – sofern die Daten gepflegt wurden – schnell einkreisen und ggf. sogar bis auf einen bestimmten Seitenbereich genau nachvollziehen.
Auch andere Erweiterungsmöglichkeiten sind fast ausschließlich durch den sich vergrößernden Wartungsaufwand sowie die Phantasie des Anwenders begrenzt.