Die „Binoogle“ Search Console

Oder: Wenn Google Search Console und Bing-Webmaster-Tools eins wären …

Stephan Czysch
Stephan Czysch

Stephan ist strategischer Online-Marketingberater. Er hilft Unternehmen dabei, bessere Websites zu erstellen und Online-Marketing kanalübergreifend anzugehen. Er spricht regelmäßig auf Konferenzen, hält (Inhouse-)Schulungen und entwickelt SEO-Tools wie getindexed.io zur schnelleren (Neu-)Indexierung von Webseiten bei Google und searchanalyzer.io für eine datengestützte Optimierung mithilfe der Google Search Console.

Mehr von diesem AutorArtikel als PDF laden

Daten direkt aus dem Maschinenraum der Suchmaschinen von Google und Bing gibt es in den kostenfreien Webmaster-Tools (wobei Google mittlerweile beim Namen auf Search Console umgeschwenkt ist). Beide Tools sind bereits für sich gesehen fantastisch – und können sich sehr gut ergänzen. Denn trotz Schnittmengen gibt es einige Anwendungen nur in einem der Tools. Die imaginäre „Bing Search Console“ wäre die perfekte Symbiose – doch das wird ein Traum bleiben. Bis auf ein wenig Mehraufwand spricht nichts dagegen, einfach beide Tools zu nutzen. Stephan Czysch ist bekennender Anhänger der beiden Tools und geht für Sie auf Gemeinsamkeiten und Unterschiede ein.

Was wäre das Internet ohne Suchmaschinen? Würden wir uns dann noch heute durch ausgedruckte „Die besten Internetseiten des Jahres“-Druckmonster quälen? Oder verzweifelt durch die Hierarchie von Webkatalogen klicken, um relevante Websites für die aktuelle Fragestellung zu finden?

Damit ein Suchdienst funktioniert, muss eine möglichst große und dabei u. a. sinnvoll strukturierte sowie spezifische Datengrundlage vorhanden sein. Vereinfachend kann dabei zwischen Suchmaschinen unterschieden werden, die:

  • Auf eingereichten Daten basieren, beispielsweise Amazon
  • Mit selbst zusammengesuchten (Lingo: gecrawlten) Daten arbeiten, wie eben Google und Bing

Mit eingereichten Daten arbeitende Suchmaschinen haben den Vorteil, dass sie die Datenstruktur vorgeben können. Der Anbieter definiert folglich selbst, welche Daten in welcher Form übermittelt werden können. Wo soll die Beschreibung hinterlegt sein? Wie viele Bilder müssen in welche Mindestabmessung vorliegen? Wer gegen die Vorgaben verstößt, dessen Daten werden nur zum Teil oder eben gar nicht gelistet.

Dagegen ist das Crawling eine ganz andere Welt. Zwar gibt das HTML-Format das grundsätzliche Gerüst von Webseiten vor, doch mit der korrekten Umsetzung ist es so eine Sache. Mal sind Auszeichnungen nicht richtig geschlossen oder tauchen ein anderes Mal an falscher Stelle auf, wie beispielsweise eine Robots-Noindex-Angabe im <body>-Bereich, obwohl diese in den <head> gehört. Wie damit umgehen? Die Seite indexieren oder lieber nicht? Lägen die Daten strukturierter vor, dann würde das die Arbeit von Bingbot und Googlebot sowie der vielen anderen Crawler deutlich vereinfachen. Auch vor diesem Hintergrund sind Initiativen wie schema.org zu sehen. Zwar können über XML-Sitemaps oder neuerdings Indexing-APIs ebenfalls Informationen an Suchmaschinen gesendet werden, doch dies beschränkt sich rein auf die Adresse ohne weitere wesentliche Informationen.

Um Webmaster (sagt man das heute überhaupt noch?) über auftretende Probleme beim Crawling und über weitere Daten und Fakten zu informieren, bieten Suchmaschinen die häufig Webmaster-Tools genannten (kostenlosen) Toolsammlungen an. Was die Algorithmen der Suchmaschinen wie genau bewerten, unterscheidet sich zwischen den Diensten. Doch eins haben sie gemeinsam: Über das Crawling von Adressen bauen sie sich ihre Datengrundlage auf.

Da sowohl Bing als auch Google die einzelnen Seiten bzw. deren Inhalte als Datenquellen verwenden, sollte es nicht überraschen, dass beide nichts grundlegend Unterschiedliches bewerten können. Oder anderes gesagt: Die Algorithmen arbeiten mit einer sehr ähnlichen Datengrundlage. Entsprechend spannend ist es, einen Blick in die Webmaster-Tools zu werfen. Denn die dort angezeigten Funktionen, Daten und Tools geben einen Hinweis darauf, was für den jeweiligen Dienst interessant ist. Oder anders ausgedrückt: Würden Sie Geld in die Entwicklung eines Tools für strukturierte Daten investieren, wenn Ihnen diese Daten als Suchmaschine nichts wert wären? Und die damit einhergehende Lenkungsfunktion sollte nicht unterschätzt werden: Schnell machen sich viele Webmaster daran, die dort angezeigten Werte zu verbessern.

Google Search Console und Bing-Webmaster-Tools in der Gegenüberstellung

Durch die im Vergleich zu Bing sehr deutlich pro Google ausschlagende Nutzungshäufigkeit ist die Google Search Console für Webmaster in Deutschland die weit wichtigere Datenquelle. Kann Google die eigene Website nicht korrekt erfassen oder liegen andere Probleme wie ein Verstoß gegen die Webmaster-Richtlinien vor, dann hat dies einen deutlich stärkeren Einfluss auf die Besucheranzahl als selbiges bei Bing.

Doch Bing bietet einige Tools an, die Google (bisher?) nicht hat – und darüber hinaus noch weitere Datenpunkte zu Funktionen, die in beiden Tools enthalten sind. Ein Beispiel sind Crawling-Fehler: Diese treten vermutlich für alle Suchmaschinen und Nutzer auf, sind in der Search Console durch die Limitierung auf 1.000 Zeilen eventuell aber nicht sichtbar. In der Google Search Console finden Sie Crawling-Fehler im Bericht „Abdeckung“ – und bei Bing innerhalb des in Ausgabe 66 der Website Boosting näher vorgestellten „Site Explorer“. Dazu listet Google seit Kurzem Daten zu Crawling-Fehlern noch an weiterer Stelle, nämlich in den Crawling-Statistiken. Auch dort lassen sich Adressen finden, die einen 4xx- oder 5xx-Statuscode zurückgeben.

Lassen Sie uns darauf schauen, welche Funktionen die Tools von Google und Microsoft anbieten. Was klar sein dürfte: Bing kann Ihnen natürlich keine Daten dazu liefern, wie Sie z. B. in den Google-Suchergebnissen oder innerhalb von Google Discover abschneiden und umgekehrt. Zudem kann zwar in beiden Tools für ein Thema eine Auswertung vorhanden sein, diese dabei aber andere Daten oder eine unterschiedliche Detailtiefe anbieten.

Toolname bei Google

Toolname bei Bing

URL-Prüfung

URL-Überprüfung, URL-Übermittlung

Leistung (Google, Discover, News)

Such-Performance

Abdeckung

Site Explorer

Sitemaps

Sitemaps

Entfernen

URLs blockieren

Core Web Vitals

-

Nutzerfreundlichkeit auf Mobilgeräten

-

AMP

-

Strukturierte Daten

Nur für einzelne Seiten innerhalb der „URL-Überprüfung“

Manuelle Maßnahmen

„URLs mit Richtlinienproblemen“ (im Site Explorer)

Sicherheitsprobleme

-

Internationale Ausrichtung

-

URL-Parameter

Nur für Crawls in der „Website-Prüfung“

robots.txt Tester

robots.txt Tester

Data Highlighter

-

Crawling-Geschwindigkeit

Crawlsteuerung

Links

Backlinks

Adressänderung

Nicht (mehr) vorhanden; in Überarbeitung?

Crawling-Statistiken

Crawl-Anforderung (unter „Such-Performance)“

Disavow-Tool

Links ablehnen (unter „Backlinks“)

-

SEO-Berichte

-

Keyword-Recherche

-

Website-Prüfung

Welche Funktionen der Bing-Webmaster-Tools ergänzen die Google Search Console perfekt?

Beim Funktionsvergleich fällt auf, dass innerhalb der Google Search Console fast alle Funktionen zu finden sind, die auch Bing bietet. Die Ausnahme bildet der Bereich SEO der Bing-Webmaster-Tools.

Während man in der Search Console die drei Buchstaben SEO in dieser Reihenfolge nie (zumindest ist es mir nicht aufgefallen) findet, gibt es bei Bing einen eigenen SEO-Bereich. Dieser fasst die vier Funktionen

  • Backlinks
  • SEO-Berichte
  • Keyword-Recherche
  • Website-Prüfung

zusammen.

Während SEO-Berichte die Ad-hoc-Analyse einzelner Adressen auf SEO-Best-Practices erlaubt, ist mit Website-Prüfung ein Crawl der eigenen Website von bis zu 10.000 Seiten möglich. Dieser erinnert in seinen Grundzügen an den kostenfreien Crawler, den Microsoft unter dem Namen „Search Engine Optimization Toolkit“ zum Download anbietet (http://einfach.st/seotoolkit). Abgerundet wird der Bereich mit Backlink-Daten sowie einem Tool zur Keyword-Recherche.

Dankenswerterweise geht Bing bei den Backlink-Daten einen Schritt weiter als Google. Denn während die Google Search Console nur die interne und externe Verlinkung der eigenen Website darstellt, erlaubt die Backlink-Analyse dies auch für fremde Domains. Einfach den Domainnamen eingeben und auf Wunsch die eigene Website mit der Konkurrenz vergleichen.

Was dem Tool allerdings abgeht, ist die Datentiefe. Während z. B. meine private Website innerhalb der Google Search Console Backlinks von mehr als 250 unterschiedlichen Domains anzeigt, sind es innerhalb der Bing Webmaster-Tools nur überschaubare 13 Domains. Wer nach einem kostenfreien bzw. günstigen Backlink-Tool sucht, dem kann ich „Open Link Profiler“ (https://openlinkprofiler.org/) oder „SEOkicks“ (https://www.seokicks.de/) ans Herz legen – hier sind deutlich mehr Daten zu bekommen.

Rund um die Keyword-Recherche führt kein Weg am Keyword-Planer von Google Ads vorbei – blöd nur, dass Google die Daten nur dann herausgibt, wenn ein entsprechendes Werbebudget fließt. Und abseits dessen ist das Tool nur nutzbar, wenn Zugriff auf Google Ads vorhanden ist – das stellt manche Organisationen durchaus vor Probleme. Zwar muss auch zu Bing-Webmaster-Tools erst mal ein Zugriff gewährt werden, doch die Suchvolumen-Daten aus dem Bing-Kosmos stehen anschließend kostenfrei zur Verfügung.

Bing zeigt nicht nur das Suchvolumen für das Keyword (natürlich bei Bing, nicht bei Google), sondern zusätzlich Keyword-Ideen an. Darüber hinaus werden die am häufigsten für das Keyword in den Bing-Ergebnissen rankenden Websites angezeigt – zum Teil mit einer Anzeige von Themen, um die es auf der angezeigten Website geht. Eine spannende Information!

Um die Nachfrage für diese Keywords bei Google zu erhalten, können die Keywords exportiert und anschließend in ein Tool wie searchvolume.io eingegeben werden. Das Tool fragt die Suchvolumina bei Google ab und bietet so einen alternativen Zugang zum Keyword-Planer.

Während Google rund um die Optimierung einzelner Webseiten Daten über z. B. die Mobilfreundlichkeit oder die Ladegeschwindigkeit (mit dem Core-Web-Vitals-Bericht) anbietet, geht Bing noch einen Schritt weiter. Sowohl unter SEO-Berichte als auch in der Website-Prüfung stehen Empfehlungen hinsichtlich SEO-Best-Practices zur Verfügung. Ob fehlende ALT-Attribute auf Bildern, nicht vorhandene oder mehrfach verwendete H1-Überschriften und noch vieles mehr – Potenziale werden nicht nur genannt, sondern können direkt im Seitenquelltext hervorgehoben werden.

Wer keinen Zugriff auf einen Crawler hat, der findet in der Website-Prüfung eine spannende Information: die Seitentiefe einer URL. Diese Zahl sagt, wie viele Klicks auf kürzestem Weg von der Startseite zur genannten Adresse benötigt werden. Einschränkend muss ich erwähnen, dass diese Information nur für die Adressen zu bekommen ist, die einen bestimmten Fehler oder eine Warnung verursachen. Dies lässt sich „zur Not“ provozieren, indem z. B. der ALT-Text auf einem seitenweit genutzten Bild entfernt wird. Wie wäre es, wenn Sie die Daten zur Seitentiefe mit den Daten zur internen Verlinkung aus der Google Search Console kombinieren? Fügen Sie dafür die Daten aus beiden Exporten zusammen – hier ist z. B. der SVERWEIS von Excel ein Stichwort.

Die Binoogle Search Console: Alles nur ein schöner Traum?

Wer Daten direkt von Suchmaschinen zur eigenen Website erhalten möchte, der kommt an den jeweiligen Webmaster-Tools nicht vorbei. Viele (kostenpflichtige) SEO-Tools erheben zwar Daten von diesen Diensten (beispielsweise Rankings) oder versuchen, ähnliche Bewertungsmaßstäbe anzulegen (wie z. B. Onpage-Crawler), doch nur in den Webmaster-Tools gibt es die Daten direkt von den Suchmaschinen.

Google hat mit der Search Console die Messlatte sehr hochgelegt und bietet viele wichtige Daten frei Haus. Ein mindestens wöchentlicher Blick in die Google Search Console sollte deshalb aus meiner Sicht Pflicht sein. Angeschaut werden sollte vor allem alles rund um das Monitoring der Website. Sind z. B. die (wichtigen) Seiten weiterhin mobilfreundlich und wie entwickelt sich die Ladezeit? Steigt die Anzahl der Crawling-Fehler an? Und wie steht es um den Indexierungsstatus? Und natürlich schadet es nicht, die Optimierungserfolge in der Suchanalyse auszuwerten.

Wenn es um die Optimierung einzelner Seiten geht, dann nimmt Bing Webmaster aus meiner Sicht stärker an die Hand. Denn die Funktionen zur Überprüfung einzelner Seiten gehen über das hinaus, was Google anbietet. Löblich ist zudem, dass der Blick über die eigene Website hinaus möglich ist, sei es mit dem Backlink-Bereich oder der Keyword-Recherche.

Durch das Zusammenspiel der beiden Tools kommen Webmaster bereits sehr weit, ohne Geld in SEO-Tools zu investieren. Und wenn etwas fehlt oder weitere Daten gewünscht sind, dann gibt es im Netz eine ganze Reihe weiterer kostenfreier Tools. Hier sei die Toolübersicht in Ausgabe 62 der Website Boosting erwähnt – und auch auf meiner Website unter einfach.st/stcy5 sind viele hilfreiche Tools zu finden. Auch hier gilt: Wer sucht, der findet.

Lassen Sie sich den Blick von Suchmaschinen auf Ihre Website nicht entgehen – und werfen Sie doch noch mal einen Blick in meine Artikel zu den Bing-Webmaster-Tools und der Google Search Console in den letzten Ausgaben der Website Boosting. In diesem Sinne: Viel Erfolg bei der Optimierung!