Google ist die weltweit größte Suchmaschine -und das mit Abstand. Damit das auch so bleibt, werden die Technik und der Algorithmus der Suchmaschine immer weiter entwickelt. Diese Neuerungen lässt sich Google patentieren, damit die Konkurrenz sich nichts abschauen kann. 14 wichtige und einzigartige Patente erläutere ich in dem folgenden Artikel.
14 Patente, die Google zu einer einzigartigen Suchmaschine machen
Das wichtigste zuerst: Die verschiedenen Google-Patente sind im Prinzip kein Rankingfaktor. Bei manchen Patenten ist nicht einmal bekannt, ob Google diese überhaupt nutzt. Grundsätzlich will der Suchmaschinen-Gigant seine neuen Technologien und Ideen erst einmal patentieren lassen, damit diese nicht so leicht von der Konkurrenz nachgebaut werden können.
Die von Google eingereichten Patente werden beim US-Patent- und -Markenamt (USPTO) bearbeitet und geprüft. Wenn die Antragstellung akzeptiert ist, wird das Dokument mit der Beschreibung des Patents auf der Website des Amts hochgeladen, damit es jeder nachlesen kann.
Definition Patent:
„Ein Patent ist ein hoheitlich erteiltes gewerbliches Schutzrecht für eine Erfindung. Der Inhaber des Patents ist berechtigt, anderen die Nutzung der Erfindung zu untersagen.” Dazu zählen auch Weiterentwicklungen bereits bestehender Patente.
Wieso braucht Google Patente?
Da Google als größte Suchmaschine der Welt diverse Konkurrenten hat, ließ Google sich viele Erfindungen und Technologien patentieren. Diese verschiedenen Patente sollen dafür sorgen, dass die Erfindungen von Google nicht kopiert werden und sich so andere große Suchmaschinen wie Yahoo!, Bing, Baidu, Yandex, Sogou oder DuckDuckGo eventuell diverse Vorteile erschleichen können. Auch wenn Google mit Abstand den größten Marktanteil besitzt, lassen sie immer wieder ihre Neuerungen patentieren.
Google besitzt im Zeitraum von September 2015 bis August 2020 in jedem einzelnen Monat mehr als 85 % des Marktanteils. Diese Statistik alleine zeigt schon die Macht des Suchmaschinen-Giganten. Dies ist auch der Grund, wieso die Unternehmen ihre Webseiten nur auf Google optimieren und dabei alle anderen Suchmaschinen außer Acht lassen.
Damit Google unangefochtener Marktführer bleiben kann, werden immer neue Dinge entwickelt, die das Unternehmen patentieren lässt. Hierfür gibt es viele verschiedene Beispiele, die man so in keiner anderen Suchmaschine finden wird.
Zudem können sich vor allem auch die Webmaster und SEOs diese Patente zunutze machen. Manche sind mit einer Optimierung eine wahre Goldgrube und können den Traffic einer Seite um ein Vielfaches steigern. Die Absicht ist nämlich immer dieselbe: Google will dem Nutzer alle Fragen schnellst- und bestmöglich beantworten. Dabei sollen diese aber möglichst nicht zu Drittanbietern wechseln, sondern alle Antworten kurz und knapp in den SERPs erhalten. Bei anderen Patenten geht es vielmehr um die Technik hinter den Seiten. Auch diese kann man sich mit einer guten Optimierung zunutze machen, sodass die eigene Seite möglichst gut bei Google rankt.
1. Erscheinungsdatum des Dokuments
Die Vorreiter dieses Patents (US50761703P) wurde bereits im Jahr 2003 bei dem US-Patent- und -Markenamt eingereicht. Es handelt sich um die Aktualität der Dokumente, die auf einer Seite erscheinen, und wie häufig sie aktualisiert werden. Daraufhin wurde es immer wieder weiterentwickelt und angepasst. Es geht um das Alter eines bestimmten Dokuments in Form einer Website. Mit einer ganz bestimmten Technik kann Google das Alter sehr schnell bestimmen. Die letzte Aktualisierung des Patents (US8521749B2) erfolgte dann im Jahr 2013 und ist noch bis heute aktiv. Bei anderen Suchmaschinen dauert die Identifizierung des Alters deutlich länger und braucht mehr Ressourcen. Google nutzt am häufigsten den ersten Crawl und speichert somit das Alter des Dokuments ab. Des Weiteren darf das Alter auch verwendet werden, um die durchschnittliche Linkrate zu berechnen. Es wird also die Gesamtzahl der Backlinks zu einer Seite durch das Alter geteilt. Die durchschnittliche Verbindungsrate wird dann auch als Teilrankingfaktor benutzt.
Für SEOs und den Webmaster bedeutet das, dass eine Seite immer wieder neuen Content braucht, damit sie immer wieder neue Inhalte für den Crawler aufweist. Je älter also eine Seite ist, desto geringer ist das Gewicht der einzelnen Backlinks. Wenn die Seite einen Rang erhalten soll, müssen mit zunehmendem Alter der Seite auch immer mehr Backlinks hinzugefügt werden. Dazu muss der Content immer wieder erneuert und erweitert werden, damit immer wieder gute Inhalte vorhanden sind, welche dann über diverse Marketingkanäle verbreitet werden können.
2. Kontextbasierte Suchmaschine für Nutzer
Das Ziel von Google ist es, dem Nutzer immer eine optimale Antwort auf seine Suchintention zu geben. Damit das funktioniert, filtert die Suchmaschine nicht mehr nur einzelne Keywords, die dann auch in den indexierten Seiten auftauchen, sondern bezieht sich ebenso auf Dinge, die zu der Suche passen. Diese sollen so zusammenhängend wie möglich sein. Hierbei gibt es eine Entwicklung bei Google, die von Keywords über Keyword-Phrasen bis hin zu Kontext-Wörtern entstand. Der Suchbegriff wird also mit einem Thema in Verbindung gebracht, zu dem die Suchmaschine noch weitere Begriffe hinzuzieht. Hierfür nutzt Google die sogenannte „Künstliche Intelligenz” (auch KI genannt), damit die Keywords der Themen so nah wie möglich an dem ursprünglichen Suchbegriff sind. Dahingehend ist auch das Patent (US70626105P), welches Google sich im Jahr 2005 erstmals erteilen ließ. Die Technik, wie sie heute funktioniert, wurde dann im Jahr 2016 mit der steigenden KI patentiert und besteht so auch noch (US9449105B1).
Die kontextbasierte Suche bezieht sich außerdem auch auf die sogenannte Sprachsuche. Google hat dies so optimiert, dass ein Nutzer seinem Smartphone Fragen stellen kann und durch die Ortsbestimmung des Geräts eine Antwort erhält. So kann man beispielsweise fragen, wie hoch der Berg ist, vor dem man gerade steht, und Google beantwortet diese Frage.
Aus diversen Berichten geht hervor, dass Google Seiten bevorzugt, die mit den sogenannten Kontext-Wörtern optimiert sind. SEOs und Webmaster sollten bei der Content-Erstellung also auch auf Sekundär-Keywords achten, die einen Bezug zu dem Haupt-Keyword haben. So kann der Googlebot beim Crawlen der Seite sofort den Kontext mit einbeziehen und die Ranking-Chancen für andere Keywords steigen. Die Sekundär-Keywords sollten für Google unerwartet sein, aber dennoch offensichtlich zu dem Thema passen. Ein Beispiel hierfür könnte das Haupt-Keyword „Schwimmbad” mit den Neben-Keywords „Badehose”, „Handtuch” und „Rutsche” sein.
3. Clusteranalysen
In dem unbekannten Google-Algorithmus findet man immer wieder das sogenannte „Clustering”. Hierbei erkennt Google verschiedene Muster, deren Struktur sich ähnelt. Da diese Technik eine Art Revolution war, ließ Google sich diese Neuerung patentieren. Das Patent (US20140250127A1) wurde erst im Jahr 2014 eingetragen. Einzelne Inhaltselemente werden unter Verwendung eines Clustering-Algorithmus geclustert und eine Abstandsmatrix von der Wahrscheinlichkeitsverteilung wird erstellt. So kann Google dann die Intentionen der Nutzer bestimmen und somit die wahrscheinlichsten Seiten ausgeben. Beispiel: Ist der Nutzer sehr technikaffin und sucht ständig nach neuen Grafikkarten für seinen Gaming-Computer, so probiert Google durch das Clustering, bei jeder Suchanfrage dahingehend Parallelen zu finden. Es ist also wahrscheinlich, dass die ersten Einträge in den SERPs Technik-Shops und Fachforen für Gaming-Computer sind.
Inhalte, die nicht zu einem Cluster gehören, werden von der Suchmaschine ohne Auswertung vollständig übersprungen. Dabei ist es egal, ob eine indexierte Seite die Inhaltsqualität besitzt.
Daraus ergibt sich ein Vorteil für SEOs und Webmaster. Der Inhalt einer Webseite kann für einen bestimmten Bereich erstellt und definiert werden. Dabei sollte man von einem Hauptgebiet nicht abweichen. In der Praxis sollte man also gestaffelte Content-Pläne erstellen und kleinere Seiten um viele größeren Pillar-Pages herum anordnen.
Navigation für Auto- und Radfahrer sowie Fußgänger
Auch wenn Google als Suchmaschine erst mal nichts mit der Automobilindustrie zu tun hat, gibt es für diese immer wieder Denkanstöße und Konkurrenz. Eines der besten Beispiele hierfür ist der Online-Kartendienst Google Maps. Mit der Erscheinung dieser Dienstleistung konnten die Nutzer auf einmal GPS-Daten nutzen, die es vorher nur von Navigationssystemen gab. Diese waren sehr teuer – Google Maps dagegen ist kostenlos für Handys und Computer. Um sich dieses Alleinstellungsmerkmal einer Suchmaschine dauerhaft zu sichern, hat Google sich diesen Fortschritt patentieren lassen. Mithilfe des Patents (US20150183440A1) kann Google sich neben zufriedenen Nutzern auch noch über Daten freuen.
Da vor allem in der lokalen Google-Suche auch immer wieder Google Maps oder Google My Business auftauchen, sollten SEOs und Webmaster darauf achten, dass ihre Seiten gepflegt sind. Beispielsweise für Restaurants sollten die Öffnungszeiten, die Speisekarte oder auch eine Reservierungsmöglichkeit vorhanden sein, damit die Kunden ihre Information und Reservierung schon direkt bei der Recherche bekommen. Einmal reserviert, sucht der Kunde nicht weiter nach anderen Restaurants.
Bei Autofahrten kommt hier dann auch wieder die Sprachsuche dazu. Während der Autofahrt informieren sich die Leute nicht mehr nur über den Weg, sondern suchen auch nach Unterhaltung wie beispielsweise Veranstaltungen, Musik oder Ähnliches. Google will diese Fragen natürlich beantworten, um auch hier wieder den Nutzer glücklich zu machen. Ein guter Anfang für die Optimierung ist hier also leichter Content, den der Autofahrer auch während der Fahrt wahrnehmen und leicht verstehen kann.
Laut der Statistik aus dem Jahr 2016 haben rund 28,3 Millionen Deutsche schon einmal einen Sprachassistenten benutzt. Das sind etwa 47 % aller Internetnutzer. Dabei ist die Tendenz deutlich steigend. Auch hier wird wieder deutlich, wie mächtig Google ist.
5. Zeitbasiertes Ranking
Google ist die erste Suchmaschine, welche die Verweildauer des Nutzers auf einer Seite als Rankingfaktor eingeführt hat [Hinweis: Diese Aussage wird unter Experten kontrovers diskutiert, Google selbst hat die Verweildauer auf direkte Anfragen jeweils bestritten; Anm. d. Red.]. Dabei geht die Suchmaschine davon aus, dass Nutzer lange auf einer Seite verweilen, wenn die Qualität des Contents auch gut ist. Andersrum ist laut Google der Content einer Seite qualitativ nicht so hochwertig, wenn die Nutzer die Seite wieder schnell verlassen und es somit eine hohe Absprungrate (auch Bounce-Rate) gibt.
Für viele ergibt dieser Rankingfaktor allerdings keinen Sinn, da man in den Meta-Daten nicht so viele Informationen unterbringen kann, dass der Nutzer sofort weiß, worum es geht. Ein anderer Grund für ein schnelles Verlassen der Seite ist, dass der Nutzer sich eventuell bei Google verklickt hat und die Seite direkt nach nicht mal einer Sekunde wieder verlässt. In diesem Fall kann niemand davon ausgehen, wie gut oder schlecht der Content auf der Seite ist, und trotzdem wird er von Google als schlecht wahrgenommen. Diese Verweildauer auf einer Seite gilt allerdings nicht nur für die reine Zeit, die der Nutzer auf der Seite ist, sondern auch für die Wiedergabezeit von Videos.
Das Patent (US 9.098.511 B1) an sich beschreibt einen Vergleichsmaßstab, in dem die verschiedenen Analysen über die Verweildauer definiert sind. Dabei hat Google einen festgeschriebenen Bezugswert, welcher als gut oder schlecht angesehen wird.
Für SEOs gibt es hierfür nur eine Optimierungsmaßnahme: Die Seiten müssen so gut und qualitativ hochwertig erstellt werden, dass die Nutzer so lange wie möglich auf der Seite verweilen. Hierfür braucht es eine gute Navigation, gute Inhalte, Eyecatcher und vieles mehr. Neben den guten Inhalten sollten zudem andere Medien wie Bilder, Videos, Umfragen oder Kommentarfelder integriert werden. Wenn der Nutzer auf der Seite interagieren kann, bleibt er in der Regel länger auf einer Seite. Ein weiterer wichtiger Punkt ist die Keyword-Abstimmung. Der Webseitenbesucher muss auf jeden Fall eine Antwort auf seine Frage finden, damit er auch weiterhin auf der Seite bleibt.
6. Feedback der Benutzer kann Rankings beeinflussen
Dieses Patent (US8661029B1) besitzt Google schon sehr lange und hat es kürzlich aktualisiert. In der Vergangenheit wurden die Rankings unter anderem anhand der Klickrate (CTR) bewertet und eingeordnet. Da dieser Prozess allerdings schnell von diversen Leuten manipuliert werden kann, indem man künstlich die CTR nach oben treibt, hat Google das Patent erweitert. Seit Kurzem zahlt also nicht mehr nur die CTR in das Ranking mit ein, sondern wird durch die Verweildauer des Nutzers auf der Seite ergänzt. Im Gegenzug steigt damit auch die Bedeutung der Absprungrate. Webseitenbetreiber wollen natürlich verhindern, dass die Nutzer schon nach kurzer Zeit die Seite wieder verlassen. Ein Baustein dafür kann ein Snippet sein, mit welchem man die Seite bewerten kann. Hierfür gibt es viele unterschiedliche Variationen. Beispielsweise eignen sich Sternebewertungen, Kommentarzeilen oder Noten, die man der Seite geben kann. Je mehr Klicks hier das Snippet erhält und je länger der Nutzer somit auf der Seite bleibt, desto besser wertet Google dies für das Ranking. Die Erklärung dafür ist ganz leicht: Google geht davon aus, dass die Nutzer nur lange auf einer Seite verweilen, wenn diese auch gut und informativ ist. Braucht eine Seite sehr lange zum Laden oder bietet keine Informationen, so verlässt der Nutzer die Seite, um anders an seine Informationen zu gelangen.
Zwar gibt es immer mehr Diskussionen darüber, ob Google verschiedene Verhaltens-Metriken wie die Verweildauer oder die Absprungrate verwendet, um die Seite für das Ranking zu bewerten, aber trotzdem ist dies patentiert. Darum können sich die SEOs und Webmaster dieses Patent zunutze machen. Es muss immer auf die diversen Snippets geachtet werden, die zusätzlich stetig aktualisiert werden müssen. Zudem sollte es die Aufgabe sein, diese Felder so auf der Seite zu platzieren, dass sie auffallen, aber nicht stören oder als störend empfunden werden. Hierzu bieten sich beispielsweise A/B-Testings an. Des Weiteren müssen die Snippets in den SERPs vom Design, Wording, Titel, den Meta-Beschreibungen und den strukturierten Daten so ansprechend sein, dass die User diese gerne benutzen.
7. Fragen sollen nicht nur in Textform beantwortet werden
In der Regel wollen die Nutzer von Google ihre Fragen immer schnell und einfach beantwortet haben. Nur in wenigen Ausnahmen wird erwartet, dass die Frage ausführlich und kompliziert beantwortet wird. Darum gilt für manche Fälle: „Bilder sagen mehr als tausend Worte.” Die Absicht der Suchmaschine ist es immer, die Frage der Nutzer schon selber zu beantworten (Publication NumberWO/2015/102869), ohne dass der Nutzer auf eine URL aus den SERPs klicken muss. Dies ist ein Riesen-Fortschritt für die Welt der Suchmaschinen, da sich die Leute nicht durch einen Haufen von Vorschlägen klicken, sondern ihre Frage direkt beantwortet haben wollen. Da dies eine Neuheit auf dem gesamten Markt ist, hat Google sich diese Neuheit 2015 patentieren lassen. Aus diesem Grund hat Google diverse Snippets eingeführt, die immer einer bestimmten Suchintention zugeordnet werden. Hier ist dann auf jeden Fall Kreativität bei der Konkurrenz gefragt. Sucht jemand beispielsweise nach einem bestimmten Schuhmodell, dann geht Google davon aus, dass der Nutzer an einem Kauf interessiert ist, also die sogenannte „Do”-Intention hat. Darum findet man ganz oben – noch vor den Anzeigen und den organischen Treffern – das Snippet von Google Shopping. In manchen wenigen Fällen ist das Snippet auch auf der rechten Seite in den SERPs neben den verschiedenen Anzeigen. Im ersten Beispiel sieht das Ganze wie folgt aus:
Der Nutzer hat also nur das Keyword „Nike Air” eingegeben. Google geht davon aus, dass der Nutzer auch genau diesen Schuh kaufen will, und spielt dafür das Shopping-Snippet aus.
Bei solchen allgemeinen Begriffen wie im Beispiel ist es natürlich immer schwierig, bereits vorhandene Riesen wie Amazon, Zalando oder die Brand zu vertreiben. Bei anderen Begriffen bietet diese Snippet-Box allerdings sehr großes Potenzial für mehr Traffic auf der Seite. Es sollte also immer das Ziel eines SEOs sein, die Inhalte in der obersten Rich-Media-Antwortbox, im Google-Shopping-Feed und generell in den Snippets zu platzieren. Auffällig können hier Links zu einer tatsächlichen Webseite sein. Diese haben meistens einen sehr hohen CTR. Dies kann man sich ganz einfach zunutze machen, da die User neben den kurzen Antworten der Snippets auch noch eine ausführliche Antwort mit Erklärung haben wollen. Somit klicken sie auf den Link, wo die Snippets herstammen, um sich noch mehr als den Ausschnitt anzuschauen.
Die Wahrscheinlichkeit, in den Rich Snippets zu erscheinen, wird dann höher, wenn man strukturierte Daten verwendet. Diese helfen dem Googlebot, bestimmte Textinhalte zu finden und diese dann auch auszuzeichnen. Das Schema-Markup hilft aber nicht nur bei den Snippets, sondern auch bei den normalen Suchergebnissen. Die Klickrate und der Traffic können so ganz leicht erhöht werden.
8. Qualität von Kopien durch Wortketten
Bei der Verwendung von Wortketten – auch n-Gramm genannt – hat die Suchmaschine Google diverse Patente angemeldet. Bei allen Patenten geht es insbesondere darum, die Qualität diverser Kopien zu bewerten. Der Algorithmus benutzt hierfür Seiten, bei denen er weiß, dass die Qualität entweder gut oder schlecht ist. Anschließend wird automatisch auf einer neuen Seite (der zu überprüfenden) ein Sprachmodell erstellt und platziert. Mit einem Qualitätsbenchmark wird dann das Niveau der Seite eingestuft und automatisch bewertet.
Um eine Seite qualitativ hochwertig zu gestalten, ist es immer wichtig, auch den richtigen Content darzustellen. Dieser muss hochwertig und – sofern möglich und angebracht – von Experten erstellt worden sein. Der Googlebot schafft es beim Crawlen der Seite, die Wortketten, verschiedene Füllwörter, sogenannten Keyword-Spam und auch minderwertige Artikel zu identifizieren. Sollten Sie sich keinen erfahrenen Autor oder einen Experten leisten können, sollte dieser wenigstens Ihren Text und Content Korrektur lesen, damit zumindest die Inhalte korrekt sind. Zudem ist es immer empfehlenswert, wenn Sie verschiedene Tools nutzen, um zu prüfen, dass es sich auf keinen Fall um Duplicate Content handelt. Dies ist vor allem wichtig, da Google mit diesem Thema sehr sensibel umgeht und die Seitenbetreiber oftmals bestraft.
9. Anliegen der Nutzer sollen schon in den SERPs durch Snippets gelöst werden
Wie schon erwähnt, hat Google ein Patent für die Snippets, die in den SERPs angezeigt werden. Hierfür gibt es viele verschiedene Snippets, wie beispielsweise das Shopping Snippet, das Bilder Snippet oder das Featured Snippet. Bei dem Patent bezüglich der Sprachen (EP3005168A1) in den SERPs und Snippets scannt Google bei einer Abfrage des Nutzers die natürliche Sprache und hat dabei eine klare Absicht. Google will aus den sieben bis zehn bestrankenden Seiten für die jeweilige Suchanfrage schon eine Antwort liefern. Im Detail bedeutet das, dass Google in den Top-Seiten nach einer Überschrift sucht, die der Suchintention entsprechen könnte. Sollte Google fündig werden, spielt es ein Snippet aus, welches den Nutzer zufriedenstellt. Im besten Fall liefert Google mit dem Snippet schon eine Antwort auf die Frage oder löst das Problem des Nutzers. So muss der Nutzer nicht mehr auf die Seite des Artikels klicken, sondern schließt den Tab oder Browser wieder.
Für dieses Patent von Google gibt es für die SEOs und Webmaster ganz besondere Aufgaben. Diese sind nicht schwer umzusetzen, können aber eine ganze Menge für die Klicks, Conversions und die Sichtbarkeit der Seite bringen. Überschriften müssen auf jeden Fall richtig im Content-Management-System (CMS) eingepflegt werden. Hierzu sollten die <H>-Tags richtig benutzt und aussagekräftig verfasst werden. Wie oben bereits beschrieben, ist eine gute Überschrift immer ein Indiz für Google, auch den Text als Snippet auszuspielen. Für die richtige Formulierung sind besonders eine natürliche Sprache und gute Keywords nötig. Nach der Überschrift sollte die Frage möglichst schnell und knapp beantwortet werden. Die Qualität der Antwort ist allerdings nicht der einzige Faktor für Google. Ein anderer wichtiger Punkt ist, dass die Antwort auch auf die Abfrage passt. Ein perfektes Beispiel von Google findet man auf die Abfrage: „Wie wechselt man eine Batterie?” Google erkennt das Problem des Nutzers und will helfen, ohne dass der Nutzer überhaupt noch auf die Seite des Artikels geht. Es folgt eine Liste mit den einzelnen Schritten:
Erfahrene SEOs können sich das Featured Snippet ganz einfach zunutze machen. In dem Beispiel mit der Autobatterie werden nur vier Punkte aufgezählt. Wenn man allerdings in seinen strukturierten Daten mehr Punkte aufführt, zeigt Google diese nicht alle an. Nach dem sechsten Punkt erscheint unter dem Featured Snippet ein Link, der als „Mehr”-Button gekennzeichnet ist. Klickt der Nutzer auf diesen Button, gelangt er sofort auf die Seite, von der das Snippet ausgespielt wird.
Handelt es sich bei dem Snippet nicht um eine Stichwortliste, sondern um einen Fließtext, wird dieser ab einer bestimmten Länge ebenfalls abgeschnitten und bekommt einen „Mehr”-Button. Allerdings sollte man immer vorsichtig sein, denn wenn Google einen Text erkennt, bei dem quasi um den „heißen Brei herumgeredet wird”, bekommt dieser Text nicht mehr die Chance, als Snippet ausgespielt zu werden.
10. Ranking von Dokumenten basierend auf Anchortexten und dem Nutzerverhalten
Der Algorithmus, mit dem Google arbeitet, ist nur der Suchmaschine bekannt. Trotzdem gibt es viele verschiedene Tools, die probieren, den Algorithmus nachzubauen, um das Ranking der Seiten nachverfolgen zu können. Das Resultat daraus wäre, dass man mithilfe dieses Tools die jeweiligen Seiten so optimieren könnte, dass man für jedes Keyword auf Position 1 rankt. Um hier eine gewisse Wettbewerbsverzerrung zu vermeiden, hält Google den genauen Algorithmus geheim und gibt immer nur mal wieder bestimmte Ranking-Faktoren bekannt, beschreibt aber nicht, welchen Einfluss diese auf das Gesamtbild haben. Für viele verschiedene Faktoren hat Google sogar ein Patent (US7716225B1), sodass Bing, Yahoo und alle anderen Suchmaschinen diese Systeme und Verfahren nicht nachbauen dürfen.
Das jetzige Patent bezieht sich auf das Abrufen von Informationen und auf das Erstellen einer Rangordnung, welche auf dem Benutzerverhalten basiert. Mit diesem Verhalten wird unter anderem die Position in den SERPs definiert. Es kommt zum Teil auf die Anchortexte an, mit denen die jeweiligen Seiten dann verlinkt sind. Hier ist den SEOs und Webmastern natürlich bewusst, dass Money-Keywords nicht gerne von Google gesehen sind. Money-Keywords sind Keywords, die einen sehr hohen Cost-per-Click (CPC) haben und als Linktext für eine externe Seite dienen. Bei dem Patent werden verschiedene Indikatoren betrachtet, wie wahrscheinlich es ist, dass ein Benutzer auf einen Link klickt. Je höher die Wahrscheinlichkeit ist, desto höher wird die Position des Rankings eingestuft. Natürlich ist dies nur ein Teilfaktor des gesamten Algorithmus und das Ergebnis fließt so nicht 1:1 in die Rankings ein.
Den SEOs und Webmastern hilft dieses Patent bei der Optimierung und Planung verschiedener Maßnahmen allerdings sehr weiter. Man sollte sich bei den Anchortexten für die Backlinks und die internen Links immer an die bestmögliche Stelle platzieren. Der Text muss für die jeweilige Seite bedeutend sein, zu welcher der Link dann letztendlich führt. Im besten Fall sollte der Anchortext also aus Primär-Keywords oder zumindest aus Keywords mit einem gewissen Kontext bestehen. Diese Herausforderung sollte für den SEO und die Webmaster nicht unbedingt ein Problem darstellen und kann leicht umgesetzt werden. Die einzige Herausforderung ist nur, dass man nicht zu viele Money-Keywords verwendet und so eventuell von Google abgestraft wird.
11. Qualitätsbestimmung der Backlinks einer Seite
Bei den Themen Linkbuilding wird Google sehr schnell hellhörig. „Verlinkungen” und „Backlinks” sind von dem Suchmaschinen-Giganten sehr gerne gesehen. Das Thema „gekaufte Links” ist dagegen von Google aus verboten und wird sogar abgestraft. Da man in der Vergangenheit mit aufgebauten Backlinks schnell an Sichtbarkeit gewinnen konnte, wird dieses Thema im Bereich SEO immer sensibler. Nach wie vor soll es die Möglichkeit geben, andere gute Seiten zu verlinken. Dabei sollte aber auch die Qualität der verlinkten Seite gut sein.
Unter gekauften Links versteht man Links, die bezahlt werden. Schreiben Sie beispielsweise einen Webmaster an und fragen diesen, ob er Ihre Seite verlinkt. und er verlangt dafür Geld, dann ist dies strafbar. Insgesamt gibt es sehr viele Seiten, die genau dies zum Geschäft machen. Meistens werden einfach nur verschiedene Gastbeiträge veröffentlicht, in denen verschiedene Links zu den jeweiligen Kunden gesetzt werden. Diese zahlen dann für die Links. Bekommt Google so etwas spitz, kommt es ganz schnell zu Abstrafungen und die gesamte Webseite kann aus dem Index von Google fallen.
Da mit den gekauften Links vor allem auch die Qualität der Verlinkungen und des Contents leidet, straft Google seit dem Penguin-Update viele Seiten genau deswegen ab. Seit dem Update ist der Algorithmus deutlich sensibler und erkennt schnell gekaufte oder gespamte Links.
Hierfür hat Google ein Patent eintragen lassen (This application claims the benefit under 35 U.S.C. §119(e) of U.S. Patent Application No. 61/731,936, entitled “DETERMINING A QUALITY MEASURE FOR A RESOURCE,” filed Nov. 30, 2012, which is incorporated herein by reference in its entirety.), welches die Qualität der einzelnen Backlinks bewertet und diese dann gewichtet. Diese Bewertung wird nicht nur automatisiert von Google vorgenommen, sondern auch noch manuell von verschiedenen Testern durchgeführt. So können auch Links, die von der KI als schlecht empfunden wurden, von den manuellen Testern als gut bewertet werden. Die KI soll daraus lernen und künftig die Links anders bewerten. Google nutzt die manuellen Tester, um die Qualität der Links hochzuhalten, was dann in der Zukunft mehr und mehr automatisiert werden soll.
Starke Backlinks sorgen dabei natürlich für eine bessere Sichtbarkeit der Seite als nicht so starke und gut bewertete Backlinks. Das Ganze funktioniert, indem anhand des von dem jeweiligen Link gebrachten Traffics ein Wert ermittelt wird. Dabei wird auch unterschieden, ob tatsächliche Nutzer dem Link folgen oder ob es einfach nur eine Bot- oder Crawlabfrage dieses Backlinks gibt.
Für die Sichtbarkeits- und Rankingoptimierung heißt das also nicht, dass so viele Backlinks wie möglich in einem Gastbeitrag benutzt werden sollten. Ein Nutzer wird nämlich nicht alle dieser Links anklicken und somit erhalten diese Links auch keinen Traffic. Hart ausgedrückt bedeutet der Linkspam also, dass die Optimierung keinen Nutzen hat. Besser ist es bei der Optimierung also, wenn Sie weniger Links einfügen, um die Wahrscheinlichkeit zu erhöhen, dass die Nutzer auf den einen Backlink gehen und somit wirklichen Traffic generieren. Ebenso sinnlos ist es, Links auf diversen Webseiten aufzubauen, die niemand besucht.
12. Rezensionen für die lokale Suche
Besonders die lokale Suche kann für Unternehmen leicht optimiert werden. Dabei kommen die Suchergebnisse nicht nur im Browser vor, sondern werden auch in anderen Diensten von Google ausgespielt. Der Dienst von Google My Business ist besonders wichtig für die lokale Suche der verschiedenen Unternehmen. Hier können beispielsweise Restaurants oder Friseure ihre Internetpräsenz ganz einfach optimieren. Betrachtet man Google My Business genauer, geht es in der Regel nur um ganz einfache Dinge wie den Namen des Unternehmens, die Anschrift, die Öffnungszeiten und die Telefonnummer. Wenn Sie diese Angaben hinzufügen, werden diese beispielsweise in der Google-Suche oder bei Google Maps ausgespielt. Eine Besonderheit daran ist, dass die Nutzer dabei gleichzeitig die Einträge bewerten können. Um Sterne und Kommentare zu vergeben, braucht es dann allerdings einen Google-Account.
Das Patent (US9792330B1), um das es hierbei geht, beschreibt nämlich die Bewertungen. Je besser die Bewertungen des Eintrags, desto weiter oben wird der Eintrag dann auch in der Suche angezeigt. Dabei steht natürlich auch die Relation der Bewertungen im Raum. Suche ich also lokal einen Italiener in meiner Nähe, wird mir zuerst das Restaurant mit den besten Bewertungen angezeigt. Dahinter erscheinen dann die Lokale mit den schlechteren Bewertungen. Hinzu kommen Experten, die anhand von Schwellenwerten eine Reihe von Überprüfungen vornehmen. Dabei kommt es vor allem darauf an, ob es die Unternehmen zu dem Eintrag wirklich gibt, und es wird geprüft, ob die Anzahl der Überprüfungen für eine bestimmte Kategorie von Unternehmen identifiziert wurden. Da Google My Business manche der vielen Prüfer als „Local Guides” kennzeichnet, sieht es aus, als wenn das Patent zumindest teilweise umgesetzt wurde.
Durch die vielen Prüfer, die Google im Einsatz hat, können Google-My-Business-Bewertungen nur schwer gefälscht oder beeinflusst werden. Zudem können die Bewertungen auch nicht eingeholt werden, da man sich diese Local Guides nicht in das Restaurant oder zum Friseur einladen kann. Eine der wenigen Möglichkeiten bei der Optimierung von Local SEO ist es, die Kunden zu bitten, eine Bewertung bei Google zu hinterlassen. Hierfür gibt es mehrere Möglichkeiten: Bitten Sie Ihren Kunden beispielsweise nach der Dienstleistung, ob dieser eine Bewertung schreibt. Andere Möglichkeiten sind beispielsweise eine freundliche Mail mit dem Link zur Bewertung, eine Art Treueprogramm oder Treueprämien anzubieten oder Ihre Kunden via Social Media um ein Feedback zu bitten. Des Weiteren sollten Sie auch Rücksicht auf die schlechten Bewertungen in Ihrem Account nehmen. Sollten Sie eine solche sehen, antworten Sie auf jeden Fall auf die Bewertungen und probieren Sie, die Kritik anzunehmen und das Kritisierte zu verbessern. Nur so können Sie diese Kritik auch von anderen verhindern.
13. Bildoptimierung
Am 20.09.2018 ist ein Patent von Google (US20180267994) in Kraft getreten, welches sich mit den Bildern in den SERPs beschäftigt. Das Patent bezieht sich auf kontextuell disambiguierende Abfragen, bei denen ein Nutzer Google direkt bitten kann, ihm in Echtzeit Informationen über ein Bild zu geben, welches er gerade anschaut. Bei der Disambiguierung geht es um die Auflösung sprachlicher Mehrdeutigkeiten. Diese gibt es auch bei Bildern, wenn eine Bedeutung des Bildes nicht genau definiert werden kann. Damit es dabei nicht zu falschen Theorien oder Deutungen des Bildes kommt, soll die Abfrage helfen. Genau bedeutet dies, dass die Suchmaschine das Repository der Bilder ausliest und dann eine Sprachausgabe in Schriftform gibt. Der Nutzer bekommt diese dann angezeigt und wird damit über die tatsächliche Bedeutung des Bildes informiert.
Der Sinn und Zweck des Patents kommt erst zum Vorschein, wenn man sich ein zweites Patent von Google anschaut. Der Titel „Distributed Image Search” des Patents (US10013438) verrät schon, dass es sich ebenfalls um Bilder handelt. Das Patent basiert auf Identifizierung und Rückgabe verschiedener Teile des Bildes. Dabei sind beispielsweise ähnliche Formen und Farben gemeint. Über die verschiedenen Teile des Bildes kann Google viele Suchanfragen steuern und Keywords ein Bild zuordnen. Sucht ein Nutzer zum Beispiel nach einem Jaguar, bekommt er in der Bildersuche einmal das Tier und einmal das Auto zu sehen. Das Ziel dabei ist es, dem Nutzer ein besseres und vor allem auch genaueres Ergebnis zu liefern, welches die Intention seiner Suchanfrage war. Google liefert nämlich ähnliche Bilder und einen Link zu der Webseite, auf der das Bild gefunden wurde. Das Bild wird zwischengespeichert, damit Google sich an diesem orientieren kann und somit ähnliche Antworten liefern kann. Mittlerweile werden laut einigen Experten bereits über 10 % der Google-Suchanfragen von images.google.com gesteuert. Die Folge daraus ist natürlich, dass auch Bilder ein Rankingfaktor sind und somit Traffic generieren können.
Natürlich können sich auch wieder SEOs und Webmaster dieses Patent zunutze machen. Hierbei sogar viel mehr als bei vielen anderen Patenten. Google lernt die Identifizierung der Bilder nämlich nicht manuell, sondern maschinell beziehungsweise mit einer künstlichen Intelligenz. Hierbei werden auch sogenannte Bild-Histogramme benutzt, um bessere Bilder zu finden. Vor allem bei Online-Shops sollte also darauf geachtet werden, dass man die relevanten Bilder auf der Webseite verwenden sollte. Zusätzlich sollten hochwertige Archiv-Fotos hochgeladen werden. Diese können dann noch bearbeitet und verschönert werden. Man sollte allerdings darauf achten, dass man bei der Bearbeitung nicht die Farben ändert. Mit diesen Tricks kann man leichter in den SERPs der Bildersuche landen und somit viele Klicks generieren.
14. Mehrsprachigkeit der Suchergebnisse
Bei dem weltweiten Marktanteil der Suchmaschinen liegt Google mit über 90 % unangefochten auf Platz 1. Dies bedeutet, dass die Suchmaschine in fast allen Ländern dieser Welt benutzt wird. Aus diesem Grund legt Google sehr viel Wert auf die Mehrsprachigkeit, sodass auch jeder Nutzer die Suchergebnisse versteht. Dafür hilft nicht unbedingt ein Übersetzer, da die Aussagen der Texte nicht immer eins zu eins übersetzt werden. Da nur circa 50 % der Weltbevölkerung einen Internetzugang haben, verstehen die meisten Nutzer in Bezug auf die Demografie eher ihre Muttersprache statt Englisch, Spanisch oder Chinesisch.
Für die Mehrsprachigkeit hat Google deshalb nicht nur ein Patent herausgebracht, sondern direkt mehrere. Daraus geht hervor, dass mehrsprachigen Webseiten deutlich stärker gewichtet werden als andere. Eines dieser genannten Patente enthält eine Webtechnologie, die es dem Webmaster erlaubt, eine „Opt-in”-Option für menschliche Übersetzungen zu erstellen. Die bereits erwähnte maschinelle Übersetzung, die fast alle Browser enthalten, soll durch menschliche Übersetzungen ersetzt werden. Diese kostenintensive Technologie soll eine aussagekräftige und zuverlässige Erfahrung mit sich bringen.
Für Webmaster und SEOs bedeutet dies, dass zuerst die Nutzer analysiert werden. Dies geht ganz einfach mit Google Analytics. Hier kann man einsehen, aus welchem Land die Nutzer auf meine Website zugreifen. Habe ich beispielsweise Kunden aus den DACH-Ländern (Deutschland, Österreich und Schweiz) sowie aus Spanien, sollte ich meine Sprache in mindestens zwei andere Sprachen übersetzen. Für die DACH-Länder auf jeden Fall in Deutsch und für Spanien in Spanisch. Sollte ich dann noch genug Ressourcen haben, kann ich mir auch überlegen, die Seite noch auf Französisch zu übersetzen, um den französischsprachigen Teil in der Schweiz anzusprechen. Bei den Übersetzungen geht es dann natürlich darum, dass die Qualität der Texte nicht schlechter ist als die der Originale.
Ein weiterer Vorteil bei den verschiedenen Seiten zeigt sich, wenn der Googlebot die eigene Website crawlt. Mit der Indizierung verschiedener Sprachen erkennt der Bot die zusätzliche Sprache als separaten Content. Je mehr Content dann indexiert wird, desto mehr Content wird in den SERPs der Suchmaschine ausgespielt. Dabei unterscheidet Google die Sprachen trotzdem und passt die ausgegebenen SERPs den Spracheinstellungen der Browser an.
Neil Patel hat ein Experiment gestartet und ist so weit gegangen, dass er seinen Blog in insgesamt 82 verschiedene Sprachen übersetzt hat. Das Ergebnis war ein Anstieg des Gesamt-Traffics um 47 % in nur drei Wochen. Der Anstieg des Traffics ist vor allem darauf zurückzuführen, dass der englische Markt sehr gesättigt ist. Hier gibt es keinen Bedarf mehr an neuem Content. Für Online-Shops können mit der Mehrsprachigkeit zudem Kunden aus anderen Ländern gewonnen werden.
Fazit
Alleine im Jahr 2019 wurden Google 2.100 Patente in den USA gewährt. In den Jahren zuvor waren es noch mal deutlich mehr. Dies zeigt deutlich, wie sehr Google daran interessiert ist, den Marktanteil weiter konstant hoch zu halten und immer weiter der Marktführer in Sachen Suchmaschinen zu bleiben. Die Patente beziehen sich aber nicht nur auf die Suchmaschine: Google will einfach als Unternehmen immer größer werden und dringt somit in viele andere Branchen ein. Eine Art Monopolstellung wird so für den US-Konzern immer wahrscheinlicher. Andere große Unternehmen wie Amazon oder Apple probieren allerdings, dagegenzuhalten, und entwickeln ihre Dinge weiter.
Für die Webmaster und SEOs sind die Patente allerdings ein großer Vorteil. Durch diese Patente kann man ungefähr die unterschiedlichen Wichtigkeiten des Algorithmus erahnen und so die verschiedenen Seiten optimieren. Der Vorteil hierbei ist vor allem das bessere Ranking, das erzielt werden kann. Mit kleinen und großen Anpassungen der Seite kann ein Mehrfaches an Traffic und somit auch an Umsatz gewonnen werden. Ein gutes Ranking ist also dann möglich, wenn man viele Vorgaben von Google einhält. Der Content muss informativ, zielführend und stimmig sein. Die Darstellung sollte nicht ewig laden und nicht irreführend sein. Aber aufgepasst: Auch die größten deutschen und internationalen Seiten machen hierbei Fehler und haben noch erhebliches Verbesserungspotenzial. Alles in allem scheint es unmöglich zu sein, sich an jedes Patent und die damit verbundenen Vorgaben zu halten.