Online-Marketer, gerade SEOs, optimieren Ihre Webseite häufig nach Maßnahmen. Erst werden ein paar technische Schritte durchgeführt, dann wird eine Keyword Research gemacht, um im Anschluss für alle Seiten die Meta-Angaben und Texte zu ändern. Dieser Artikel stellt einen differenzierten Ansatz vor, bei dem jede URL einzeln beleuchtet und im Anschluss ganz individuell und zielgerichtet optimiert wird. Auf diese Weise wird die Bearbeitungszeit deutlich gesenkt, die Effektivität der Maßnahmen erhöht und die Seiten werden nur dort optimiert, wo es wirklich notwendig ist. Der im Folgenden vorgestellte Ansatz führt daher zu einem Maximum an Leistung bei gleichzeitig deutlich geringerem Aufwand.
Datengetriebene Maßnahmen und Optimierungen im Bereich SEO
Wissen Sie, welche URLs auf Ihrer Domain in der sitemap.xml-Datei vorhanden sind, aber keinen Zugriff in den Server Logfiles aufführen und ergo auch nicht von Suchmaschinen besucht werden? Oder können Sie sagen, welche Seite viele Google-Besuche hat, aber nicht indexierbar ist, oder alternativ, bei welchen Seiten Sie eine Snippet-Optimierung (Meta-Angaben und Seitentitel) vornehmen müssen, weil die Seite viele Impressionen, aber eine niedrige CTR (Klickrate) hat?
Viele Fragen, viele Tools …
Es gibt sehr viele dieser Fragestellungen in der Suchmaschinenoptimierung und viele Online-Marketing-Manager arbeiten mit verschiedensten Tools, um diese zu beantworten. SEO ist im Gegensatz zu AdWords oder anderen Paid-Kanälen kein Zweig, der eine Software als All-in-one-Lösung bietet. Marketer können nicht „schnell“ nachsehen, welche Keywords gut performen, welche zu den meisten Leads, Transaktionen oder sonstigen Zielen führen. Im Gegenteil, im SEO müssen die Daten in unterschiedlichen Programmen zusammengeführt und ausgewertet werden. Jedoch machen sich nur wenige Marketer die Mühe, die Daten zweier oder mehrerer Tools in direkte Verbindung zu setzen, da man diese parallel aufhaben und dann die Einträge suchend und scrollend abgleichen muss.
Historisch gesehen war das lange Zeit auch gar nicht notwendig. Wenn man in den frühen Nuller-Jahren an Sichtbarkeit verlor, kaufte man zwei, drei Links und schon war die Sichtbarkeit zurück. Je hochwertiger ein Link war, umso mehr profitierte die eigene Seite davon und umso besser war das Ranking. Auch eine Vielzahl an qualitativ nicht so hochwertigen Links konnte helfen, die Sichtbarkeit deutlich zu stärken. Als Google das Problem mit den Links anging, wechselten die Marketing-Manager zu SEO-Texten mit Keyworddichte. Die generelle Empfehlung lag bei 3 %, in speziellen Bereichen und Texten waren aber auch 6 % und mehr möglich, ohne dass die Domain abgestraft wurde.
Nachdem die Themen Links und Keyworddichte von Google angegangen worden waren, mussten SEOs vorsichtiger agieren, um weiterhin auf den vorderen Plätzen zu ranken. Die genutzten Keywords wurden genauer untersucht und die Texte wurden informativer geschrieben, was für die User teilweise einen großen Wissenszuwachs bedeutete. Es wurden nicht einfach mehr SEO-Kategorietexte geschrieben, sondern es gab auf einmal Landingpages und ganze Themenwelten, die sich intensiv mit einem Thema befassten. Doch dann zog plötzlich „not provided“ in das SEO-Haus ein und machte es SEOs erneut schwerer, ein bestimmtes Keyword zu optimieren. Mit Tools wie der Google Search Console oder anderen Online-Marketing-Tool-Anbietern lässt sich dennoch herausfinden, welche Keywords mit welchen Seiten in Verbindung stehen. In Webanalyse-Tools ist dann nachzuvollziehen, wie gut diese Seiten unter Conversion-Gesichtspunkten funktionieren und ob diese gegebenenfalls angepasst werden müssen.
Den heute benötigten Tools ist insofern gemein, dass sie die Auswertungen im Wesentlichen nur aus ihrer eigenen Perspektive betrachten. Ein holistischer Ansatz ist entsprechend nicht möglich. Aus diesem Grund müssen Marketer sich immer wieder in neue Tools einarbeiten und überlegen, welche Auswirkung die Anpassung eines Problems von Tool A auf Tool B haben wird. Das Ganze ist mühselig und bedeutet unnötigen Zeitaufwand.
Zumal es für die verschiedenen Fragestellungen die unterschiedlichsten Tools gibt. Die gröbste Zusammenfassung im SEO ist sicherlich:
- Technische Maßnahmen
- Inhaltliche Maßnahmen
- Verlinkungen/PR
Innerhalb dieser drei Punkte gibt es die verschiedensten Unterthemen wie Ladezeit, Canonicals, Keyword-Audit, Content-Produktion, Backlink-Überprüfung und viele weitere, und jedes lässt sich mit mindestens drei Tools auswerten. Doch selbst wenn man als Marketer alle diese Tools berücksichtigt, wird es unweigerlich zu widersprüchlichen Maßnahmen kommen. Gerade im Agenturleben ist dies bei Neukunden immer wieder zu sehen.
Einzelne URLs individuell, zielgerichtet und datengetrieben optimieren
In diesem Artikel soll daher ein divergierender Ansatz vorgestellt werden, der es ermöglicht, alle Daten der Tools für jede einzelne URL der Domain aufgeschlüsselt darzustellen. Die Vorteile sind:
- Einmalige Zusammenführung der Daten aller Tools für einen definierten Zeitraum
- Übersicht aller URLs der Domain mit ihren jeweiligen Daten
- Schnelle Identifikation von „problematischen“ URLs zu einem Thema
- Gezielte Optimierungen, da nicht alle Seiten einer Domain angegangen werden müssen
- Deutliche Zeitersparnis
Was bedeutet „datengetrieben“?
Datengetrieben bedeutet, dass, wie oben erwähnt, Daten aus verschiedensten Tools zusammengeführt, vereinheitlicht, kategorisiert und ausgewertet werden. Nur anhand dieser Daten werden dann gezielte SEO-Maßnahmen durchgeführt. Gerade am Anfang ist jedoch zu berücksichtigen, nicht zu viele Daten heranzuziehen, da die Möglichkeiten der Optimierungen ansonsten zu groß sind und man in den Fragestellungen untergeht. Ebenfalls müssen kurzfristig eingeplante Maßnahmen wie eine Landingpage-Erstellung oder Ähnliches natürlich vorgehen und können nicht anhand weiterer Erkenntnisse optimiert werden.
Tipp
Beachten Sie, dass allen exportierten Daten derselbe Zeitraum zugrunde liegt!
Zur Erstellung der Tabelle benötigt es immer einen zweiten Computer, der parallel zum Betrieb des eigenen Computers laufen kann, da diese Aufgabe durch diverse Formeln sehr langwierig sein kann. Ebenfalls muss der Computer viel Rechenpower haben.
Die finale Datei ist eine Excel-Datei, die einfachsten Dateiformate des Exports sind daher .xlsx und .csv.
Die Tools, die im Folgenden vorgestellt werden, wurden beispielhaft zum Zwecke dieses Artikels verwendet.
Screaming Frog
Sicherlich das bekannteste Tool, um die Seiten der Domain zu crawlen und einen schnellen Überblick über alle intern verlinkten URLs zu erhalten. Der Screaming Frog läuft auf einem lokalen Computer und ist daher auf eine möglichst gute Ausstattung angewiesen. Es gibt jedoch auch Anbieter, die sehr große Domains, größer 50.000 URLs, problemlos über ihre Server bearbeiten können.
Im Tool selbst wird zunächst die Domain eingegeben und die Spider-Konfiguration muss so eingestellt sein, dass auf alle URLs der Domain zugegriffen wird. Nur auf diese Weise ist sichergestellt, dass die Daten im späteren Verlauf ganzheitlich betrachtet werden können. Ob der Crawler sich mit dem User-Agent als Google-Bot oder als Screaming-Frog-Bot bei der Seite anmeldet, ist nebensächlich. Ein ganz wesentlicher Aspekt bei der Konfiguration des Spiders ist jedoch die generelle Programmierung der Webseite.
Es gibt Webseiten, die in der Programmierung sehr viel JavaScript nutzen, welches einzelne Inhalte nach dem Laden der Webseite dynamisch verändert. Betroffen können davon auch SEO-Informationen wie das Meta-Tag „robots“, das „Canonical“-Meta-Tag oder auch ganz normale Inhalte der Webseite wie Überschriften sein. Herausfinden lässt sich das am schnellsten über die Entwickler-Tools der Browser. Zunächst lassen Sie sich mit einem Rechtsklick den Quellcode der Webseite in einem eigenen Tab anzeigen. Dies ist der Quellcode, bevor JavaScript ausgeführt und Anpassungen an der Webseite vorgenommen werden. Im Anschluss öffnen Sie mit einem Rechtsklick erneut das Kontextmenü und wählen „Untersuchen“ oder „Element untersuchen“, je nach Browser. Der dann angezeigte Code ist der Quellcode nach Ausführung des sofort angewandten JavaScripts. SEO-relevante Inhalte sind zu diesem Zeitpunkt in der Regel schon angepasst und unterscheiden sich im schlechtesten Fall vom ursprünglichen Quellcode im Browser-Tab, das Sie als Erstes geöffnet haben.
Vor dem Start eines Crawls empfiehlt es sich immer, zunächst zu überprüfen, ob auf der Webseite SEO-relevantes JavaScript genutzt wird. Ist dies der Fall, müssen Sie den Spider beim Konfigurationspunkt „Rendering“ von „Text only“ auf „JavaScript“ umstellen. Dies führt dazu, dass der Spider sämtliches JavaScript ausführt, bevor er zur nächsten Seite weitergeht. Dies erhöht die Dauer des Crawls enorm, sorgt aber dafür, dass sie korrekte Daten in ihren Crawl bekommen.
Nach Abschluss des Crawls werden die URLs der Seiten sowie weitere Daten benötigt. Alle relevanten Informationen erhalten Sie über einen Export des Reiters „Internal all“. Benötigt werden:
- URL
- Statuscode
- Content
Die weiteren im Export enthaltenen Daten können ignoriert werden.
Google Analytics
Das weltweit verbreitetste Webanalyse-Tool liefert bei korrekter Konfiguration zuverlässig Daten über die Zugriffe und das Verhalten der Besucher Ihrer Webseite. Neben Ereignissen, Zielen und vielerlei weiteren Auswertungsmöglichkeiten bietet das Tool standardmäßig die Erfassung aller Seitenaufrufe sowie einiger sonstiger Metriken zu den Seitenaufrufen. Online-Marketing-Manager sehen somit schnell, was auf Ihrer Domain passiert. Auch hier sollen nur die notwendigsten Daten berücksichtigt werden:
- URL
- Seitenaufrufe
- Absprungrate
Diese Informationen bekommen die User innerhalb einer Datenansicht unter „Verhalten“ —> „Websitecontent“ —> „Alle Seiten“.
Google Search Console
Die Google Search Console als kostenloses Tool zur Überprüfung organischer Entwicklungen von Webseiten und Problemen mit einer Domain ist sicherlich allen Marketern ein Begriff und Pflichtbestandteil für den Betrieb einer Webseite. Für die Untersuchung müssen aus dem Tool wieder mehr Daten exportiert werden. Da die Search Console jedoch nur max. 1.000 Einträge pro Export zulässt, muss dies, wie in Abbildung 1 sichtbar, mittels eines Google Sheet Add-ons wie „Search Analytics for Sheets“ durchgeführt werden. Dieses Plug-in bietet die Möglichkeit, alle Ergebnisse zu exportieren. Folgende Daten werden hier benötigt:
- URL
- Impressionen
SEMrush
SEMrush bewirbt sich als All-in-one-Marketing-Tool. Unter anderem können umfangreiche Untersuchungen im Bereich Organic und Paid durchgeführt, spezifische Projekte zur Überwachung einzelner Domains erstellt und viele weitere Funktionen genutzt werden. Zusätzlich bietet das Tool die Möglichkeit, genaue Keyword-Rankings, sowohl in Gänze als auch selbstdefiniert, überprüfen zu lassen. Aus diesem Grund wird hier die „Anzahl rankender Keywords“ für alle dem Tool bekannten URLs exportiert. Sie müssen sich hierfür im Tool einloggen, die Domain in den Suchschlitz eingeben, dann in den Bereich „Organic Search“ und dort zum Unterpunkt „Pages“ wechseln. An dieser Stelle bekommen Sie die Anzahl aller bekannten Keywords für jede URL.
- URL
- Anzahl rankender Keywords
ahrefs
Ein sehr mächtiges Tool zur Überwachung und Auswertung von Keywords und Backlinks. Es bietet aktuelle und historische Daten und ermöglicht die unterschiedlichsten Auswertungen einzelner URLs oder gesamter Domains. Obwohl das Tool deutlich umfassender ist und wesentlich mehr Daten zur Verfügung stellt, als es für diese Analyse nötig ist, bietet es die sehr gute Möglichkeit, die eingehenden Links für jede URL auszuwerten. Auch hier geben Sie nach dem Log-in die Domain ein und wechseln in den Bereich „Seiten“ und dort zu „Beste nach Links“. Im Anschluss wählen Sie „kompletter Export“ und extrahieren folgende Informationen:
- URL
- Anzahl eingehender Links
Server Logfiles und Log File Analyzer
Die Server Logfiles sind Protokoll-Dateien, in denen jeder Zugriff eines jeden Benutzers oder Bots auf einer Seite der Domain/des Servers dokumentiert wird. Mit in den Daten enthalten sind Informationen über den Browser oder die Bots wie die Zugriffszeit, der Statuscode und vieles mehr. Diese Dateien sind daher nicht frei verfügbar, sondern müssen bei der IT-Abteilung oder dem Hoster angefragt werden. Abbildung 2 zeigt einen Ausschnitt aus einem Logfile.
TIPP
Die URLs der Suchmaschinen-Bots können im Tool Log File Analyzer verifiziert werden, um Spam-Bots auszuschließen.
Im Anschluss können Sie mittels eines Tools wie „Log File Analyser“ die Daten der Suchmaschinen-Bots auswerten. Für diese Untersuchung ist im ersten Schritt die Anzahl der Google-Besuche relevant. Spam-Bots auszuschließen, ist in jedem Fall zu empfehlen, da sich hierdurch der relevante Bot-Traffic durchaus verändern kann. Um den Export durchzuführen, erstellen Sie ein Projekt, geben die Uhrzeit sowie den Domainnamen ein und beginnen, alle Logfiles in das Projekt zu überführen. Sobald dies abgeschlossen ist, wechseln Sie in den Reiter „URLs“ und exportieren dort die Daten der Spalte „Googlebot“:
- URL
- Anzahl Google-Besuche
Um die genannten Tools nicht zu sehr in den Vordergrund zu stellen oder Sie als Leser/-in nicht zu stark in eine Abhängigkeit von den Tools zu bringen, werden im Folgenden weitere Anwendungen genannt, die ähnliche Daten liefern. Alternative Anbieter, in ungeordneter Reihenfolge, sind beispielsweise: Majestics, Searchmetrics, Ryte, LinkResearchTools, Similar Web, Sistrix, Matomo und viele weitere.
Daten aufbereiten
Nachdem alle Daten exportiert sind, gilt es diese aufzubereiten, um sie für die weitere Bearbeitung nutzbar zu machen. Die Kategorisierung zur späteren Verwendung wird bereits an diesem Punkt automatisch durch die exportierten Informationen wie Seitenaufrufe, Anzahl Google-Besuche, Impressions etc. vorgegeben.
Wie bereits genannt, nutzen die Exports unterschiedliche Dateiformate und entsprechend auch unterschiedliche Funktionen. Ebenfalls müssen die Daten zusammengeführt und Duplikate entfernt werden, im Anschluss werden Formeln, primär der SVerweis von Excel, zur Zusammenführung angewandt und die finale Datei wird erstellt.
Schritt 1: URL-Muster vereinheitlichen
Damit Sie die Daten kombinieren können, müssen alle exportierten URLs auf dasselbe URL-Muster umgestellt werden, da die verschiedenen Anwendungen die URLs teilweise unterschiedlich bereitstellen. Bei manchen URLs sind der Domainname oder das Protokoll enthalten, bei anderen nicht. Die Vereinheitlichung nehmen Sie noch in jeder Datei vor, die Zusammenführung erfolgt im nächsten Schritt.
Um die URLs verarbeiten zu können, müssen diese zunächst aus allen exportierten Dateien gelesen werden. Bei Excel-Dateien mit der Endung „xlsx“ ist dies kein Problem. Bei „CSV“-Dateien sieht es jedoch anders aus, hier meldet Excel beim Anwenden der Funktion „Text in Spalten“ häufig, dass bereits Daten vorhanden sind und ob diese überschrieben werden sollen. Beim Erscheinen dieser Meldung sollten Sie zu einer alternativen Software wie OpenOffice greifen, da diese die Umwandlung korrekt vornimmt. Es ist hier eminent, alle Daten zu erhalten und nicht zu überschreiben. Dass final genutzte URL-Muster sieht in der Regel wie folgt aus:
Es werden also das Protokoll und die Subdomain vorangestellt. Weitere Informationen wie Verzeichnisse, Dateitypen etc. können ignoriert werden und müssen nicht angeglichen werden. Eine solche Anpassung muss mit einem Tool durchgeführt werden, dass die Bearbeitung möglichst vieler Zeilen ermöglicht, z. B. Sublime. Aber auch andere Anbieter können genutzt werden. Sublime bietet den Vorteil, beim „Suchen und Ersetzen“ mit Brackets arbeiten zu können, was die Arbeit deutlich erleichtert. Nachdem der Schritt für jede einzelne Datei vorgenommen wurde, werden die URLs wieder in ihre jeweilige Datei zurückkopiert.
Schritt 2: URLs zusammenführen und Duplikate entfernen
Nachdem sämtliche URLs in den diversen Exporten dasselbe URL-Muster nutzen, werden die Daten in Schritt zwei in einer Datei vereint und die Duplikate entfernt. Für diesen Vorgang erstellen Sie eine neue Datei und kopieren die Daten aller Dateien in ihr jeweils eigenes Tabellenblatt. Beachten Sie unbedingt, dass Sie nicht nur die URLs kopieren, sondern alle vorhandenen Daten. Neben den neu gefüllten Tabellenblättern benötigen Sie zusätzlich noch ein weiteres leeres Tabellenblatt. In diesem führen Sie die Daten zusammen und nutzen es bei der späteren Analyse.
Im Anschluss kopieren Sie alle URLs aus den gefüllten Tabellenblättern untereinander in das leere Tabellenblatt und nutzen die Funktion „Duplikate entfernen“. So stellen Sie sicher, dass jede URL nur noch einmal vorkommt.
Sowohl Schritt eins als auch Schritt zwei benötigen verhältnismäßig wenig Computerleistung. Dies wird sich jedoch in den weiteren Schritten ändern, da die SVerweise, je nach Informations-Spalte, sehr viele Ressourcen beanspruchen. Abhängig von der auszuführenden Berechnung, der Leistung des Computers, anderer vorhandener Formeln in der Datei und zu berücksichtigender URLs kann ein einzelner SVerweis zwei Tage oder mehr für die Durchführung brauchen. Daher ist es wichtig, diese Berechnungen auf einem separaten, ungenutzten Computer vorzunehmen.
Hinweisbox: Eine sehr einfache Möglichkeit, die Berechnungen bei mehreren Tabellenkalkulationen zu beschleunigen, ist, die Formeln nach der jeweiligen Berechnung zu löschen und die Inhalte als Text einzufügen.
Schritt 3: Sämtliche Inhalte in einem Tabellenblatt zusammenführen
SVerweise werden in Excel für die Suche in Zeilen genutzt. Microsoft erklärt den SVerweis wie folgt: „Verwenden Sie SVERWEIS, eine der Nachschlage- und Verweisfunktionen, wenn Sie Einträge in einer Tabelle oder einem Bereich nach Zeile suchen müssen.“
Genau diese Funktion ist jetzt relevant, da Sie die weiteren Informationen für jede einzelne Spalte in dem neuen Tabellenblatt zusammenführen müssen. Darüber hinaus haben Sie vorab die Duplikate entfernt, sodass der Inhalt einzelner Zeilen nicht mehr relevant ist. Um diesen nicht mühselig löschen zu müssen, nimmt Ihnen der SVerweis die Arbeit ab.
Zunächst klicken Sie in die erste Zelle in der Spalte, die mit Inhalt gefüllt werden soll, z. B. Anzahl Google-Besuche. Als Nächstes wählen Sie die URL als Wert aus, der überprüft werden soll, da diese als Connector zwischen den Inhalten der verschiedenen Tabellenblätter fungiert. Im dritten Schritt markieren Sie den Bereich, in dem die Daten, welche Sie überführen möchten, enthalten sind. Hierfür gehen Sie in das Tabellenblatt, welches die entsprechende Information enthält, und markieren alle Spalten, beginnend mit der URL-Spalte bis zu der Spalte, die Ihre benötigten Informationen enthält. Hierauf folgend müssen Sie nun die Spaltennummer angeben, in der die Information enthalten ist. Zählen Sie hierfür bei den markierten Spalten von links nach rechts und geben die entsprechende Zahl ein. Zuallerletzt nutzen Sie der Einfachheit halber den Wert „Falsch“. Sobald Sie nun auf ENTER drücken, wird der gewünschte Werte in die eingangs aktivierte Zelle eingefügt. Mit einem Doppelklick auf die untere rechte Ecke wenden Sie die Formel auf alle nötigen Zellen der Spalte an. Beachten Sie jedoch, dass bestimmte Zellenbereiche spätestens ab der Ausführung der zweiten Zelle gesperrt werden müssen, damit die Auswertung nicht versehentlich in falsche Zellen und Spalten rutscht.
Schritt 4: Auswerten, umsetzen, kontrollieren
Nachdem nun alle Daten zusammengeführt sind, können Sie mit der Nutzung und Auswertung der Daten beginnen. Dabei gilt das Motto: Weniger ist mehr. In den Abbildungen 3 und 4 können Sie sehen, dass die erstellte Tabelle sehr viele Informationen in diversen Spalten enthält. Aus diesem Grund empfiehlt es sich, in jedem Fall mit Filtern und später auch mit Sortierungen zu arbeiten. Hierdurch werden die Daten zur jeweiligen Analyse deutlich verschlankt und Sie sehen nur noch die für Sie relevanten Daten.
Nehmen Sie als Beispiel PDF-Dateien, die zwar Google-Besuche, aber keine Klicks im Ereignis-Tracking von Google Analytics haben. Ereignis-Tracking und nicht Seitenaufruf-Tracking wird deshalb verwendet, weil PDF-Dateien bei einem einfachen Aufruf nicht ohne Weiteres in Google Analytics als Seitenaufruf erfasst werden können. Daher speichern viele Unternehmen PDF-Aufrufe als Ereignis-Tracking, sobald ein User auf einen Link zu der PDF-Datei klickt. In diesem Fall würden Sie die Spalte „Seitenart“ nach PDF-Dateien filtern, dann die Spalte „Seitenaufrufe“ nach „0“ filtern und anschließend die Spalte „Anzahl Google-Besuche“ absteigend sortieren. Je nach enthaltenen Daten könnte die Filterung aber auch anders aussehen.
Auf diesem Wege erhalten Sie genau die URLs, die sie dringend optimieren sollten! Und zwar auf die jeweilige URL-Ebene heruntergebrochen. So können Sie die Chancen deutlich erhöhen, dass Seitenbesucher vermehrt PDF-Dateien anklicken und je nach SEO-Optimierung auch in Google häufiger klicken. Denn nur Google-Besuche ohne Userdaten in den Logfiles helfen niemandem und stellen für das SEO bekanntermaßen eine beträchtliche Gefahr bei den Rankings dar.
Fazit
Der gezeigte Ansatz stellt eine deutliche Abkehr vom traditionellen SEO dar, weil sein Fokus auf den einzelnen URLs und nicht auf den zu berücksichtigenden Maßnahmen liegt. Aussagen wie „Wir müssen die Meta-Descriptions für alle Seiten optimieren, damit noch mehr User klicken“ zählen nicht mehr. Stattdessen kann nun für jede einzelne URL übersichtlich und individuell festgelegt werden, wie sie zu optimieren ist. Der holistische Ansatz ist nur in der Anzahl der berücksichtigten Daten begrenzt und bietet enormes Potenzial. Online-Marketing-Manager werden daher in die Lage versetzt, die Domain viel zielgerichteter zu verbessern und die eigene Arbeitszeit deutlich produktiver zu gestalten.