Im Teil 1 in der letzten Ausgabe haben wir ausführlich die Basics gängiger SEO-Tools vorgestellt. Im zweiten Teil geht es nun darum, bei Analysen einen Schritt tiefer zu gehen und mehr Informationen aus solchen SEO-Tools herauszuholen. Dass das nicht immer einfach ist, liegt manchmal auch daran, dass mächtige Funktionen in der Benutzeroberfläche etwas versteckt und auf den ersten Blick oft nicht zu erkennen sind. Anhand typischer Fragestellungen versuchen wir aufzuzeigen, wie Sie noch mehr über die eigene Domain und das Tun Ihrer Mitbewerber erfahren können.
Teil 2: Profitipps SEO-Tools richtig nutzen
In der letzten Ausgabe wurde es ja bereits deutlich: Der Verzicht auf professionelle SEO-Tools wäre übertriebene Sparsamkeit an der völlig falschen Stelle und ist eigentlich durch nichts zu entschuldigen. Selbst wer durch eine Agentur betreut wird, sollte sich in jedem Fall damit beschäftigen, was diese tatsächlich mit der eigenen Domain oder dem eigenen Shop treibt, und eben auch damit, was die Mitbewerber tun. Ohne diese selbst gesteuerte und selbst erzeugte (!) Transparenz gleichen Maßnahmen im SEO-Bereich praktisch einem Blindflug. Mehr noch: Das Versäumnis, nicht immer wieder auch selbst „nachzusehen“, kann sogar sehr gefährlich werden – nämlich dann, wenn die beauftragte Agentur unsauber arbeitet oder z. B. aufgrund des bekannten Fachkräftemangels nur die zweite oder dritte Garde zur Betreuung abstellt oder abstellen kann. In dem oft diffusen Nebel von Aktivitäten wird daher nicht selten mehr oder weniger stark gepfuscht. Der Leidtragende ist am Ende in der Regel immer der Domaininhaber, der Strafen von Google oder gar den Komplettabsturz ausbaden muss. Rechtlich im Sinne eines Schadensersatzanspruches einen tatsächlich Schuldigen nachzuweisen, ist sehr schwierig. Vor Gericht zählen ausschließlich belegbare Fakten und am Ende können nur die Betreiber der Suchmaschinen entsprechende Aussagen treffen. Kein Gutachter, und sollte er auch noch so „amtlich bestellt“ sein, wird den zweifelsfreien Nachweis führen können, dass bestimmte Maßnahmen eine Domain ins Aus geschossen haben. Es nützt hier rein gar nichts, wenn alle SEO-Experten der Meinung sind, dass z. B. der Aufbau automatisierter Kommentarspamlinks oder zu viele Links mit sog. Moneykeywords auf dem Ankertext einen Absturz verursachen. Der Aufforderung eines gegnerischen (sachkundigen) Anwalts, dies – bitte sehr – doch einmal zweifelsfrei nachzuweisen, wird wohl keiner nachkommen können, der nicht die tatsächlichen Rankingkriterien der Suchmaschinen offenlegen kann und auch, wie diese genau ineinandergreifen.
„Vertrauen ist gut – Kontrolle ist besser!“
Das bedeutet letztlich leider, dass man die Verantwortung in diesem Gebiet eben besser nicht auf eine externe Agentur abschieben kann oder sollte. Das alte und bewährte Sprichwort „Vertrauen ist gut – Kontrolle ist besser“ sollte man sich auch und gerade hier ins Gedächtnis rufen. Man kommt also realistischerweise nicht umhin, sich mit entsprechenden Tools zu beschäftigen und in regelmäßigen Abständen zu prüfen, wie es um die eigene Domain tatsächlich bestellt ist.
Unsere Fragen:
- Finden Suchmaschinen tatsächlich die richtigen Seiten für die einzelnen Keywords?
- Gibt es interne Probleme bei meiner Domain?
- Wie kann ich meine Domain dauerhaft überwachen?
1. Finden Suchmaschinen tatsächlich die richtigen Seiten für die einzelnen Keywords?
Nicht immer stimmt das vielleicht beabsichtigte Ranking mit der Realität überein, wie sie die Suchmaschinen erschaffen. Das bedeutet, dass nicht selten auch Treffer für Seiten zustande kommen, die dafür gar nicht gedacht waren, bzw. nicht die Seiten, die im Sinne einer Landingpage dafür vorgesehen waren, für das Keyword ranken. Die Kenntnis solcher unbeabsichtigten Rankings hilft, entsprechende Maßnahmen anzusteuern. Stimmt der interne Linkfluss nicht mit der tatsächlich gerankten Seite überein, kann und sollte man ihn anpassen. Dies bringt in der Regel einen spürbaren Schub weiter nach vorn. Erkennt man, dass aus eigener Sicht eine völlig unpassende Seite (z. B. bei einem Blog die Archivseite) besser rankt als die eigentlich dafür gedachte, kann man damit beginnen zu analysieren, warum die Suchmaschine die Bedeutung anders sieht als man selbst. Dabei kann man nicht selten eine Menge darüber lernen, wie die Algorithmen die eigene, immer individuelle Site „einschätzen“.
Prinzipiell gibt es für die Erkennung gerankter Keywords zum eigentlichen Ziel zwei Vorgehensweisen: Zum einen kann man einzelne Verzeichnisse oder URL danach prüfen, für welche Keywords sie ranken. Umgekehrt kann man natürlich auch die rankenden Keywords heranziehen und nachsehen, welche URL bzw. Seite dafür in den Suchergebnissen auftaucht. Letzteres geht selbstverständlich in Einzelfällen auch über eine einfache Abfrage in der entsprechenden Suchmaschine. Dort sieht man schnell, welche Seite den Treffer bringt.
Sistrix
In der Sistrix-Toolbox benötigt man für diese Analyse das Teilmodul „Keywords“. Dort hat man im Menüpunkt „Keywords“ und „Verzeichnisse & URLs“ die oben erwähnten Prüfmöglichkeiten in allen notwendigen Facetten. Abbildung 1 zeigt im Abschnitt A, wie man per Pull-down-Menü nach Domain, Host, Verzeichnis oder einzelner URL filtern kann. Es ist aber auch möglich, ohne Vorfilterung für die darunter gelisteten Keywordtreffer durch das Überstreichen mit dem Mauszeiger Domain, Verzeichnisse oder URL per Mausklick auszuwählen (in der Abbildung beispielhaft die Zahlen 1, 2, 3 und 4).
Geht man über den Menüpunkt „Verzeichnisse & URLs“, werden für jedes Verzeichnis zunächst die Anzahl der Keywords gezeigt (siehe Abbildung 2) und nach einem Klick auf den entsprechenden Link alle Keywords, die aus diesem Verzeichnis heraus oder für die gewählte Seite ranken.
Searchmetrics Essentials
Neben der üblichen Anzeige, welche Seiten für einzelne Keywords ranken, findet man bei den Searchmetrics Essentials über die Menüpunkte „Domains/Organic/Verzeichnisse“ eine Auflistung der Verzeichnisse, deren Inhalte am besten ranken. Mittels einfachen Durch- bzw. Tieferklickens gelangt man dann bis zur untersten Ebene, was einen guten Überblick gibt, welche Keywords hier ranken, und vor allem, ob es auch die richtigen sind. Mit dem Symbol hinter dem jeweiligen Keyword lässt sich dann auch der zeitliche Verlauf der Rankingpositionen nachverfolgen.
Führen Sie schon ein SEO-Tagebuch? Dann sollten Sie überlegen, ob das nicht vielleicht für Sie Sinn machen könnte. Darin halten Sie einfach die wichtigsten Ereignisse fest, die Einfluss auf das Ranking Ihrer Domain haben könnten. Dazu gehören natürlich auch wichtige Blogbeiträge, die Teilnahme an Social Networks oder z. B., wann Sie genau das Author-Tag in Ihren Webseiten eingefügt haben. So ziehen Sie den maximalen Nutzen aus den Zeitanalysen und -aufzeichungen der SEO-Tools, weil sich Spitzen im Rankingverlauf im Nachhinein dann besser nachvollziehen lassen. Dies hilft gerade bei Detailanalysen, wie sie hier vorgestellt werden. In der Übersichtsbetrachtung können solche interessanten Bewegungen schnell untergehen oder von anderen Einflüssen kompensiert werden. Wie immer in Online-Marketing gilt: Der Durchschnitt tötet meist die Möglichkeit der Erkenntnis wichtiger Zusammenhänge und damit Ihre Learnings!
Noch ein Tipp: Möchten Sie mehrere Verzeichnisse oder zum Beispiel unterschiedliche Blogbeiträge miteinander vergleichen, geht das durch Eingabe von bis zu drei Domains direkt unter der Verlaufsgrafik. Die Bezeichnung dort „Mit Domain vergleichen“ ist etwas missverständlich. Dort können Sie nämlich auch konkrete Unterverzeichnisse oder einzelne URL ihrer eigenen Domain eingeben. Welche Seiten haben schnelle Erfolge erzielt, sind aber schnell wieder aus dem Ranking verschwunden? Welche Seiten haben im Verlauf der Zeit stetig auf- oder abgebaut? Stellen Sie hier deutliche Unterschiede innerhalb Ihrer Domain fest, sehen Sie sich diese Seiten an und suchen Sie nach den Gründen dafür. Bei einem Blogbeitrag könnte das z. B. der stetige Zuwachs an Kommentaren sein, der Google & Co. gefällt, oder eine zunehmende Verlinkung von außen. Bei dem Versuch, die Gründe für solche Abweichungen zu analysieren, lernt man mehr über Zusammenhänge und die „Behandlung“ seitens der Suchmaschinen, als man zunächst glauben mag.
SEOlytics
Auch bei SEOlytics geht die Analyse von URL zu den dafür rankenden Keywords leicht von der Hand. Über den Menüpunkt „SEO Research/Organische Rankings“ und anschließend über die Auswahlfilter „Verzeichnisse“ und ggf. „Seite“ kann man sich stufenweise in den Verzeichnissen tiefer klicken. Wählt man am Ende dann eine URL aus (linker Teil in Abbildung 4), erhält man alle Keywords für diese Adresse mit den gewohnten weiteren Daten wie Position, Suchvolumen u. a. Ein Zeitraumfilter erlaubt auf dieser Ebene noch, die Positionen der letzten vier Kalenderwochen anzeigen zu lassen.
2. Gibt es interne Probleme bei [m]einer Domain?
Die Optimierungsnotwendigkeit interner Strukturen eines Webauftritts wird immer wieder sträflich vernachlässigt. Während die SEO-gerichtete Welt ständig nach mehr und mehr Backlinks schielt, verschmutzt nicht selten im Lauf der Zeit eine früher gut strukturierte Site aus Sicht der Robots der Suchmaschinen. Das Potenzial, das man hier meist schnell heben kann, war schon immer recht groß und wird gerade nach der zunehmenden Entwertung von Backlinks durch Google vergleichsweise immer größer. Es empfiehlt sich daher, in jedem Fall auch einen sehr intensiven Blick auf die sog. Onpage- (Struktur einzelner Seiten bzw. Dokumente) und Onsite-Optimierung (ein Webauftritt als Ganzes incl. der internen Verlinkungen) zu werfen. Einige SEO-Tools unterstützen auch hierbei.
Sistrix: Mit dem mittlerweile aus der Beta-Phase befreiten „Optimizer“ hat Sistrix funktionell einen großen Schritt nach vorn gemacht. Er unterstützt bei der Behebung von Fehlern, zeigt für eigens hinterlegbare Keywords das Ranking an und berechnet hierfür auch einen eigenen Sichtbarkeitsindex. Ebenso lassen sich wichtige Wettbewerberdomains abspeichern, für die in einer eigenen Übersicht fortlaufend wichtige Kennzahlen erhoben und denen der eigenen Domain gegenübergestellt werden. In einem weiteren Untermodul wird die Performance der Domain aufgezeichnet sowie die Dateigrößen. Über einen kleinen Aufgabenplaner lassen sich Tätigkeiten auch anderen Nutzern mit Zugang zeitüberwacht und mit Priorität zuweisen.
Die gefundenen Fehler (rot), Hinweise (gelb) und Tipps (grau) warten dann nur noch darauf, näher analysiert und der Reihe nach behoben zu werden. Wer lieber offline arbeitet, kann sich die Daten auch im Excel-Format auf den eigenen Rechner holen. Im Kasten „Optionen“ (siehe Abbildung 6) findet man zu jedem Problem einen Erläuterungstext, der aufklappbar ist, und am Ende oft auch weiterführende Links wie z. B. zu entsprechenden Videos von Matt Cutts (Googles Spamhüter).
OnPage.org:
Dieses neue Tool ist, wie der Name schon deutlich ausdrückt, auf die Analyse von Onpage-Problemen spezialisiert, betrachtet aber auch die Domain als Ganzes. Während es bei unserer letzten Ausgabe noch im sog. Closed-Beta-Stadium war, ist es mittlerweile offen verfügbar.
Das Tool bietet eine ganze Reihe interessanter Funktionen. Zur besseren Übersicht haben wir die einzelnen Menüpunkte zu einer Grafik montiert (siehe Abbildung 7). Falls in einzelnen Bereichen größere Probleme auftauchen, visualisiert das OnPage.org ähnlich wie die oben beschriebene Sistrix-Toolbox in einer Übersicht. Ein Unterschied besteht allerdings darin, dass man hier auch navigationsbasiert durch die einzelnen Funktionen kommt. In der Anzahl an funktionellen Prüfungen und zum Teil deren Tiefe, hat dieses Tool allerdings die Nase vorn. Es findet z. B. auch die gängigsten, aber manuell schwerer zu erkennenden Fehlkonfigurationen wie falsch gesetzte Canonical-Tags, verwaiste Seiten oder macht darauf aufmerksam, wenn auf Unterseiten der Zählcode von Google Analytics nicht eingebaut wurde (siehe Abbildung 8). Das kann beim Einsatz vorlagenbasierter Systeme wie z. B. Blogs recht schnell passieren.
Besonderes Augenmerk sollte man immer auf strukturelle Probleme legen, wie sie die Unterpunkte der Menüs „Links“, „Architektur“ und auch „Server“ finden helfen. Aber auch die Analyse direkter inhaltlicher Fehler und deren Behebung hilft Stück für Stück, im Ranking nach oben zu klettern. So zeigt die Funktion „Überschriften“ im Menü „Inhalt“ z. B. für Websiteboosting.com an (Abbildung 9), dass hier deutlicher Handlungsbedarf besteht. Sortiert nach Seitenstärke (OPR) erkennt man, dass wichtige Seiten falschen Gebrauch von den H1- bis H4-Überschriften-Tags machen. Die Startseite des Blogs verwendet 10-mal das H2-Tag, allerdings ohne auch das dazu nötige H1 zu belegen. Die Seiten „Impressum“ und „Kernteam“ verwenden H1 mehrmals und bei den meisten Seiten wird H2 bis H4 überhaupt nicht verwendet, womit Potenzial verschenkt wird (siehe Abbildung 9, grün hervorgehoben).
Mehrfachrankings von Keywords zeigt OnPage.org übrigens ebenfalls (Menü „Keywords“) direkt an sowie die Platzierung der einzelnen Seiten mit diesem Keyword bei Google.
Searchmetrics Essentials Plus oder Professional
Nutzer der Plus- oder Professionalversion der Essentials können ein bzw. drei Projekte anlegen, für die tiefergehende Analysemöglichkeiten zur Verfügung stehen. Unter „Optimization /Siteoptimization“ werden nach dem Crawling der Domain alle Meldungen farblich sortiert, je nachdem, wie kritisch sie sind. Neben den üblichen Fehlern wie fehlende oder doppelte Title und Descriptions, Serverfehlern u. a. werden z. B. auch falsche Weiterleitungsketten (ein URL wird mehrfach weitergeleitet), Broken Links, Link-Sackgassen (hier wird der Linkfluss unterbrochen) oder doppelte interne Linkziele (Links mit unterschiedlichen Ankertexten linken zur selben URL) ausgewertet und ggf. angemahnt. Für die Analyse stehen insgesamt über 100 verschiedene Elemente auf dem Prüfstand. Das Tool merkt sich dabei, wann der Fehler bekannt wurde und zeigt an, welches Potential in der Behebung steckt. Behobene Fehler werden registriert und über einen Fehlergraphen visualisiert. Der Unterpunkt „URL Optimization“ zeigt über einen zusammenfassenden Score und eine URL-Tabelle über die Kategorien „Top, gut, mäßig und schlecht“ an, wo man mit hoher Priorität an die Optimierung gehen sollte. Über „Keyword Optimization“ kann diese Liste auch nach Keywords, statt nach URL sortiert ausgegeben werden.
Notwendige Detailerklärungen zu den gefundenen Problempunkten erläutern, was genau zu tun ist, um diese Unzulänglichkeiten zu beheben. Sowohl der aktuelle Gesamtstatus der Optimierung mit seiner Änderung über die Zeit, als auch Detailansichten lassen sich bequem in Berichte überführen, die regelmäßig per E-Mail z. B. an einen Projektleiter geschickt werden können. Wird eine Domain dann auch noch mit einem Google Analytics- oder Site Catalyst-Account verknüpft (um die echten Trafficdaten für die Potentialanalysen zu nutzen) und vom Tool mit den Werten für Keywords (aus den CPC-Geboten von AdWords) angereichert, ergibt sich ein wertvolles und realistisches Bild, wo Veränderungen das beste Potential für die größte finanzielle Hebelwirkung haben. Für diese Einschätzung wird auch die „Schwierigkeit des Keywords“ mit einbezogen, also im Prinzip, wie gut die Mitbewerbersites bereits für diesen Begriff optimiert sind. In die maschinellen Empfehlungen bzw. Priorisierung fließt also nicht nur das mögliche Trafficpotenzial mit ein, sondern auch, wie einfach oder schwer es ist, auf ein Keyword zu optimieren.
3. Wie kann ich [m]eine Domain dauerhaft überwachen?
Die Möglichkeit, mehr oder weniger aufwendige Berichte zu generieren, bieten fast alle Tools. Besonders nützlich sind gerade bei der Überwachung automatisierbare Alerts oder zumindest eine zeitgesteuerte Mailfunktion, die in regelmäßigen Abständen wichtige Kennzahlen und deren Veränderung als Push-Nachricht in den eigenen Mailbriefkasten einstellt. Damit lässt sich sicherstellen, dass man rechtzeitig Kenntnis erhält, wenn sich etwas tut, auf das man ggf. schnell reagieren müsste.
Sistix
Das Reportingmodul befindet sich derzeit noch im Beta-Stadium. Das Prinzip funktioniert bei Sistrix dergestalt, dass man vorab Berichte per Namen anlegt und dann in der Toolbox selbst unter dem Reiter „Mehr“ (siehe Abbildung 11) in einen dieser Berichte übernehmen kann. Diese Elemente können dann noch mit Überschriften, Freitext, einem Inhaltsverzeichnis u. a. strukturiert und ergänzt werden. Der Bericht lässt sich anschließend als PDF-Dokument erzeugen.
Weiterhin lassen sich sog. Alerts für einzelne Domains hinterlegen, die beim Über- oder Unterschreiten eines einstellbaren Schwellwertes eine Meldung per E-Mail auslösen. Diese Alarmmeldungen eignen sich natürlich auch bestens zur Überwachung der Mitbewerber. Abbildung 12 zeigt beispielhaft, wie man eine solche Meldung für die Anzahl der bei Google indexierten Seiten anlegt. Geht der Wert deutlich nach unten oder oben, ohne dass man an der Domain etwas Wesentliches geändert hat, sollte man dem Problem nachgehen. Eine stetige und dauerhafte Abweichung nach unten kann beispielsweise darauf hindeuten, dass eine Strafe verhängt wurde. Aber auch ein Anstieg nach oben ist ein wichtiger Hinweis, denn hier können Probleme mit Duplicate Content oder Fehlkonfigurationen am Webserver, dem CMS oder dem Shopsystem die Ursache sein und sollten schnellstens beseitigt werden.
LinkResearchTools
Mithilfe des „Link Alert“ der LinkResearchTools kann man sich per Mail über Linkzuwächse oder gelöschte Links informieren lassen. Natürlich kann diese Funktion auch sehr gut zur Mitbewerberüberwachung eingesetzt werden. Baut dieser massiv Links auf, ist man nicht darauf angewiesen, selbst ständig nachzusehen, sondern bekommt diese Information direkt ins Postfach geliefert. Für die eigene Domain besteht die Möglichkeit, eine API-Verbindung (Schnittstelle) zu Google Analytics zu hinterlegen, zu den Backlinkdaten von Sistrix oder die Zugangsdaten zu StatCounter, sofern man diese Analyse- bzw. Tracking-Tools im Einsatz hat. Damit vergrößert sich jeweils die Datenbasis und die Reports werden umfangreicher bzw. erhalten schneller aktuelle Daten.
Searchmetrics Essentials Plus oder Professional
Bei Searchmetrics können alle frei generierbaren und online einsehbaren Berichte auch per E-Mail ab bestimmten Zeitpunkten täglich, wöchentlich oder monatlich verschickt werden. Einen eigenen Bericht erstellt man am besten direkt bei der Analyse im Tool. Hat man z. B. über den Menüpunkt „Keyword Rankings / Keyword Potential“ über Filterfunktionen diejenigen Keywords ermittelt, die auf der zweiten Ergebnisseite bei Google zwischen Position 11 bis 15 ranken, ein nennenswertes Potential aufweisen und leicht zu optimieren sind („Keyword Difficulty“ - siehe Abbildung 14), dann genügt ein Klick auf das Report-Icon und man kann genau diese gefilterte Abfrage in einen ab jetzt regelmäßig ausgeführten Bericht überführen.
Die Berichte lassen sich prinzipiell mit allen Ansichtselementen des Tools sehr individuell und mit zusätzlichem Text, Bildern oder einem Logo zusammenstellen. Dies hilft bei der Erkennung von Veränderungen, kann aber auch sehr gut zur Erfolgskontrolle von eingeleiteten Optimierungsmaßnahmen eingesetzt werden. Für den Datenbezug kann man dafür aus mehr als 170 Suchmaschinen aus aktuell 76 Ländern auswählen. Zusätzlich stehen derzeit etwas über 50 regionale Rankings zur Verfügung, was für eine genaue Analyse lokaler Suchergebnisse für einen Teil der Sitebetreiber zunehmend wichtiger wird.
SEOlytics bietet ein Reportingmodul an, mit dem derzeit fünf feste Berichtsarten generiert werden können. Diese müssen fallweise manuell erzeugt werden. Eine automatische Generierung und den Versand an definierte Mailadressen gibt es nicht.
Nachtrag
Wir haben in der letzten Ausgabe geschrieben, bei Sistrix sei es nicht möglich, beim Sichtbarkeitsgraphen einen Zeitraum auszuwählen. Das war leider nicht korrekt. Es gibt tatsächlich eine Möglichkeit. Dazu stellt man in den Account-Einstellungen beim Punkt Diagrammanzeige auf „HTML5 JavaSkript“. Anschließend kann man mit gedrückter Maustaste den gewünschten Bereich direkt in der Grafik aufziehend markieren.
Unsere Vermutung, dass man den Sichtbarkeitsindex seit 2008 bis heute nicht unbedingt vergleichen könnte, weil in diesem Zeitraum sicherlich sehr viele Keywords zusätzlich in die Datenbank aufgenommen wurden, zerstreute ein Mitarbeiter von Sistrix. Er wies darauf hin, dass die Anzahl der Keywords, aus denen dieser Index gebildet wird, seit 2008 gleich geblieben ist. Es würde lediglich immer wieder ein kleiner Prozentsatz an neuen Keywords eingefügt, aber dafür die gleiche Anzahl aus dem Pool herausgenommen. Insofern ist genau genommen eine zeitliche Vergleichbarkeit durch diesen Austausch zwar tatsächlich nicht gegeben, das betrifft aber nur Domains, die zufällig stark von solchen Tauschaktivitäten betroffen sind. Sistrix hat versichert, dass dies statistisch und in Summe gesehen durch eine sorgfältig getroffene Auswahl nur sehr selten vorkommt.
Lesen Sie im nächsten und dritten Teil unserer Reihe, wie man mithilfe von SEO-Tools eine Übersicht über Struktur und Qualität von Backlinks bekommt und die Wichtigkeit einzelner Links für das Ranking besser einschätzen kann.