Am 7. November fand der SEO-Day statt und 900 Teilnehmer pilgerten dafür in das Rheinenergiestadion nach Köln. In drei parallelen Slots ging es um E-Commerce-SEO, um onsite und offsite und um eher technische Belange im Abschnitt „SEO-Coder“.
Tag der Suchmaschinenoptimierung
Von Amazon kann man sicher künftig noch einiges erwarten. Das glaubt auch Dorothea Bakker, die leidenschaftlich SEO für die Plattform für 2.500 Produkte betreibt und die ganz am Ende der Konferenz auch den Publikumspreis für den besten Vortrag entgegennehmen durfte. Von 2004 bis 2017 wuchs Amazon von 8,1 Mio. auf respektable 41,3 Mio. Bestellungen. Ein Ende des Wachstums ist momentan nicht in Sicht, denn mit jedem Jahr kommt etwa eine weitere Million neuer Verkäufer dazu. Das sind über zwei neue Seller pro Minute, wie Bakker vorrechnete. Es wird dort also immer voller. Grund genug, sich ausführlich damit zu beschäftigen, wie man dort mit dem eigenen Angebot möglichst weit vorne gelistet wird. Die Herausforderung dabei ist, ständig am Ball zu bleiben. Denn laut Bakker haben sich etwa zwei Drittel aller Möglichkeiten geändert, die noch im letzten Jahr funktionierten. Optimierungen hängen insbesondere auch davon ab, ob man als Vendor oder Seller auftritt. Die unterschiedlichen Kategorien bei Amazon erfordern meist auch verschiedene Templates und damit andere Vorgehensweisen. Für die Keywordrecherche empfiehlt Bakker die Nutzung üblicher Tools, insbesondere das Browser-Plug-in „Amalyze“ und sog. W-Fragen-Tools. Wer dabei auf die Autovervollständigung achtet, weiß, worauf man zusätzlich optimieren kann. Das vorangestellte Hashtag „#“ bei der Suche funktioniert seit Kurzem leider nicht mehr. Tipp- und übliche Rechtschreibfehler der Suchenden empfiehlt Bakker, in Backend-Texten zu verorten. Damit werden sie für die Suche mit einbezogen, aber eben nicht offen angezeigt. Bakker schwört darauf, zuerst Brainstormings im Team zu veranstalten, dann über die Autovervollständigung und eine Mitbewerberanalyse tiefer zu gehen und erst am Ende Keyword-Tools einzusetzen.
Für die Optimierung des Titles stehen max. 120 Zeichen zur Verfügung, für mobile 60. Man sollte dabei vor allem die Produkteigenschaften und USPs deutlich und klar in den Vordergrund stellen. Bei Bulletpoints kann man bis zu fünf Produktaufzählungen verwenden, allerdings keine Emojis mehr. Um zu prüfen, was gut ankommt, empfiehlt Bakker, regelmäßig A/B-Tests durchzuführen. Die Amazon-Keywords im Seller Central Backend sind auf nur 249 Bytes begrenzt und wenn man diese Grenze überschreitet, werden ganze Keywords ignoriert. Besonders wichtig ist es natürlich, die richtige Kategorie zu finden. Dazu schaut man bei Amazon selbst, indem man einfach die Keywords in die Suchleiste eingibt. Wählt man eine Nischenkategorie, hat man den Nachteil, dass man mit nur wenigen Keywords rankt, und wenn man Werbung schaltet, wird diese schlechter bzw. seltener ausgespielt. Bei der Produktbeschreibung sollte man einzigartige Texte verfassen und die verfügbaren 2.000 Zeichen möglichst ausschöpfen. Ebenso hilft es, die sog. „Erweiterten Produktbeschreibungen“ dafür zu nutzen.
Wer konkurrierende Seller vermeiden möchte, sollte überlegen, (s)eine eigene Marke zu kreieren und zu etablieren (Amazon Stores). Dann ist man mit seinen Angeboten „alleine“ bzw. andere können sich nicht darauf einklinken. Ein eigener Store schafft natürlich viel Vertrauen und wirkt sich positiv auf die gesamte Marke aus.
„Wie komme ich in die BuyBox?“
Alle wollen in die BuyBox, weil sich darüber vergleichsweise viel Traffic generieren lässt. Um sich dafür zu qualifizieren, darf der Preis nicht den Durchschnittspreis der letzten zwei Monate überschreiten. Das ist eine wichtige Grundvoraussetzung. Ebenso wichtig sind die Rezensionen. Die Bewertung des Produktes wird von Amazon automatisch errechnet. Dabei fließen die folgenden Faktoren ein:
- Alter der Rezension
- Nützlichkeit (man erhält diese Bewertungen von anderen Lesern der Rezension)
- Autorisierter Kauf
Auf keinen Fall sollte man selbst aktiv zu Bewertungen auffordern, da dies einen Verstoß gegen die Richtlinien darstellt und im schlimmsten Fall zum Ausschluss führen kann! Amazon fährt hier wohl eine Null-Toleranz-Strategie. Aber keine Sorge, solche Aufforderungen stößt Amazon regelmäßig selbst an.
Leider kommt wohl auch immer wieder mal Datenverlust vor. Bakker empfahl daher, die eigenen Daten auf jeden Fall immer als eigenes Back-up vorzuhalten.
Braucht Google Deine Website? Das fragte Johannes Beus über den Titel seines Vortrags. Über Datenanalysen hatten er und sein Team beobachtet, dass Google immer mehr Fragen selbst und direkt beantworten möchte. Das im Kopf zu behalten, ist insbesondere bei Smartphones mit dem knappen Anzeigenplatz wichtig. Bei den meisten Plattformen, z. B. bei Facebook, gehen die Reichweiten ohne Bezahlung immer weiter zurück. Das macht wenig Spaß, so Beus. Wie soll man also vorgehen, damit man die nächsten Jahre gut überstehen und in Bezug auf den vielen noch kommenden Updates bei Google noch gut schlafen kann? So schwer ist das gar nicht, sagt Beus. Googles Zukunft ist öffentlich und man muss nur genau hinsehen und verstehen, was kommen wird.
„Google ist Mist, aber (aktuell) die beste Option“; Johannes Beus.
Beus hat sich unter anderem dazu die öffentlich verfügbaren Richtlinien für die sog. Quality Rater angesehen. Darin erklärt Google den Ratern, was der Suchgigant unter „Qualität“ versteht und wie man sie strukturiert ermitteln kann. Unter Punkt 12.7 kann man dort nachlesen, wie die Absichten der Suchenden besser verstanden werden können. Dabei unterscheidet Google in vier Kategorien:
- Know und Know Simple (Informationssuche, bei Know Simple kann eine Antwort direkt aus einer Datenbank generiert werden)
- Do (Die Absicht, etwas zu tun)
- Website (man sucht eine spezifische Website, auch bekannt als „navigational search“)
- Visit in person (lokale Suche nach einem Geschäft o. Ä.)
Um mehr Klarheit über die Verhältnisse dieser Suchtypen zu bekommen, hat Beus die Suchergebnisseiten von einer Mio. Keywords ausgewertet. Betrachtet man alles aufmerksam, fällt auf, dass am Ende nur zwei interessante Suchabsichten übrig bleiben: „Website“ und „Know“. Für „Do“ muss man zunehmend zahlen, weil Anzeigen die organischen Ergebnisse immer weiter nach hinten treiben. „Know Simple“-Antworten gibt Google bereits jetzt direkt selbst. Beus zog als Resümee, dass es künftig noch wichtiger ist, eine Marke zu werden („Website“ bzw. navigational) und mit dem Content deutlich tiefer zu gehen („Know“). Tief genug, dass Google Antworten eben nicht selbst generieren kann, sondern auf die Ausgabe an guten Webseiten angewiesen ist.
Ein Update auf die DSGVO gab Rechtsanwalt Solmecke. 300 Abmahnungen habe man derzeit in der Kanzlei vorliegen. Bereits am 25. Mai, beim Inkrafttreten der neuen Verordnung, kam die erste Abmahnung für einen Tischler rein, bei dem ein Link zur Datenschutzerklärung nicht vorhanden war. Weil dieser nicht das technische Wissen hatte, den Fehler schnell zu beheben, nahm er erschrocken die Site vom Netz. Die nun erzeugte 404-Fehler-Seite enthob ihn aber noch immer nicht des Problems, denn auch eine leere, einzelne Seite braucht ein Impressum und Datenschutzhinweise, da der Webserver nach wie vor IP-Adressen speichert.
Mittlerweile wird es laut Solmecke auch kurios. Bei einer Abmahnung, weil die Google-Font-Integration nicht in der Datenschutzerklärung erwähnt wurde, stellte sich bei einem Anruf der abmahnenden Kanzlei heraus, dass man gar nicht so recht wisse, wer der eigentliche Mandant sei, weil man offenbar im Auftrag einer anderen Kanzlei gearbeitet habe. Selbst Abmahnungen ohne speziellen Grund gibt es, wie Solmecke erzählte. Da steht dann einfach „wegen Verstößen gegen die DSGVO“ wäre ein Betrag X zu zahlen. So einfach ist es jedoch nicht und wer über einen guten Anwalt verfügt, kann solche unberechtigten Abmahnungen nicht nur zurückweisen, sondern ggf. sogar eine recht erfolgversprechende Gegenklage einreichen. Überhaupt soll es bald besser werden, meint Solmecke. Denn die Gründe für Abmahnungen sollen demnächst massiv eingedampft werden. Das Problem hier ist bisher, dass z. B. die Bezeichnung „Dienstleistungen aller Art“ im Unternehmenstitel auch dazu berechtigt, praktisch alles abzumahnen, obwohl keine wirklich echte wettbewerbliche Beziehung besteht. Hier will der Gesetzgeber wohl nachbessern. Für Betreiber von Facebook-Fanpages gibt Solmecke noch keine Entwarnung. Der EuGH hat entschieden, dass man hier für die Datenverarbeitung genauso verantwortlich zeichnet wie Facebook selbst.
„Die DSGVO ist für Rechtsanwälte das, was die Abwrackprämie für die Autohersteller ist“; Christian Solmecke.
Mario Fischer zeigte in seinen Vortrag drei Möglichkeiten, wie man mit einfachen Datenanalysen zu mehr Entscheidungsqualität kommen kann. Um z. B. besser abschätzen zu können, welche Seiten bei Besuchern gut oder eben nicht gut ankommen, ermittelt man den/die eigentlichen Content-Container, die den einzigartigen Text enthalten. Der umgebende Text, der häufig auf allen oder vielen Seiten gleich ist, wird dabei ignoriert – genauso, wie es Google ja auch tut. Den Inhalt diese Container zieht man über eine sog. „X-Path“-Abfrage z. B. in eine Tabellenkalkulation, ermittelt dort die Anzahl der Worte und teilt sie durch 220, weil Menschen in der Lage sind, im Schnitt eben diese Anzahl pro Minute zu lesen. Nun erhält man für jede URL eine durchschnittliche – theoretische – Maximallesedauer, die man in etwa benötigen würde, wenn alles durchgelesen wird. Da das selbstverständlich nicht alle Besucher tun, muss man eine Justierung vornehmen. Dazu holt man sich für diese URLs die Seitenbesuchsdauer aus dem Tracking-Tool (z. B. Google Analytics). Nun ist man in der Lage, eine durchschnittliche Abweichung der Maximallesedauer zur tatsächlichen Aufrufdauer zu ermitteln. Hier wird man meist je nach Branche, Art des Webcontents und einigen anderen individuellen Faktoren immer eine Abweichung nach unten feststellen. Als letzten Schritt filtert man nun noch die Top-Seiten heraus, ebenso wie die, bei denen die tatsächliche Nutzung am deutlichsten von der erwartbaren abweicht. Sieht man sich die „Renner“ und die „Looser“ dann mit diesem Fokus an, stellt man meist schnell die Gründe fest. Hier entstehen oft wichtige Learnings, wie man den Content für die Besucher besser aufbereitet und was es zu vermeiden gilt.
Diese Art der Vorgehensweise ist recht grob, aber eben schnell in 15 Minuten machbar. Wer künftig genauer messen will, kann z. B. die Scrolltiefe erfassen. Das Kernproblem bei der Interpretation von Besuchsdauerdaten ist ja meist, dass sie einem nichts sagen. Man schaut in sein Analytics-Tool und bekommt für einige Tausend URLs die Seitenaufenthaltsdauer angezeigt. Damit lässt sich so gut wie gar nichts anfangen, weil niemand weiß, was und vor allem wie viel sich tatsächlich hinter den URLs verbirgt.
Wie jedes Jahr war auch diesmal Johannes Müller mit dabei – allerdings nur virtuell via Bildschirm. Er stand wie immer Rede und Antwort auf Fragen aus dem Publikum und solche, die vorab eingeschickt werden konnten. Mittlerweile wären viele Sites schon auf MFI (Mobile First Indexing) umgestellt, so Müller. Bekannte Probleme sind allerdings immer noch fehlende Texte, Bilder ohne Alt-Text und fehlende sog. Structured Data (Google empfiehlt hier die Verwendung von JSON-LD). Man solle die mobilen Versionen der Desktopseiten wirklich gut testen. JavaScript wird ebenfalls immer wichtiger. Aktuell rendert der Googlebot mit der Chrome-Version 41. Hier besteht also noch eine Lücke, wie Inhalte in den aktuellen Browsern angezeigt werden und wie sie von Google interpretiert werden. Dies soll sich aber bald ändern, d. h., man möchte bald eine aktuelle(re) Version nachziehen, um diese Lücke zu schließen. Da das Rendern viel Zeit benötigt, sollte der Seitenaufbau mittlerweile schon schnell vonstattengehen. Müller wies darauf hin, dass auch ein Unterschied zwischen dem Browser- und dem Crawling-Speed besteht. Leider deckt keine Zahl alles vernünftig ab, die Ergebnisse von Tools brauchen eine entsprechende Interpretation.
Der Googlebot scrollt bisher weiterhin nicht selbstständig auf Seiten nach unten. Wer also Inhalte dynamisch durch Benutzeraktionen (wie das Mausrad) nachlädt, wird diese nachgeladenen Inhalte weiterhin nicht im Suchindex finden. Google versucht, sich mit einem größeren Viewport zu behelfen, um mehr Inhalte zu erkennen, aber eine richtige Entwarnung bringt das leider nicht.
Was ist mit neuen Domains? Diese kommen zunächst in den Desktopindex und werden erst danach in den MFI verschoben. Müller kündigte aber an, mit den Entwicklern sprechen zu wollen, ob man das nicht gleich von Anfang an auf MFI umstellt. Eine weitere Frage war, dass ein Link in der Desktopversion vorhanden ist, aber durch einen geänderte Mobildarstellung beim Rendern nicht auftaucht. Hier war Müllers Antwort klar: Nur die Inhalte aus der gerenderten Version werden verwendet – der Link „existiert“ also nicht.
Wie wichtig sind externe Links noch? Müller meinte dazu, dass Links helfen, den Kontext besser zu verstehen. Wie man das nun interpretieren mag, muss jeder für sich selbst beurteilen. Die Zeit eines (Back-)linklosen Rankings scheint also noch nicht am nahen Horizont zu stehen. Und unvermeidbar kam am Ende noch die übliche Frage, wie Google mit versteckten Texten (eingeklappt via Akkordeon) umgeht. In der mobilen Darstellung möchte man die Seiten ja nicht optisch überfrachten und blendet Textblöcke ab und zu auch aus. Solange es im HTML-Code vorhanden ist, würde es verwendet beim MFI. Alles, was nachgeladen wird, wird nach wie vor ignoriert.
Markus Hövener hatte die häufigsten SEO-Fehler von B2B-Unternehmen im Gepäck dabei. Fehler Nummer eins wäre, dass die Unternehmen tiefstapeln. Das Suchergebnis in Abbildung 8 lässt wahrscheinlich nicht vermuten, dass sich dahinter seit über 50 Jahren ein international in 46 Ländern tätiges Unternehmen mit 150 Mitarbeitern und 12.000 qm Produktionsfläche verbirgt. Auf der Website kann man das lesen, das Suchsnippet begnügt sich mit einfachen Aufzählungen, mit Komma getrennt. Man muss und sollte bereits in den Suchergebnissen klar die Vorteile kommunizieren, denn wenn der Klick unterbleibt bzw. auf ein anderes Suchergebnis geht, wird ein potenzieller Kunde sie niemals erfahren. Viele B2B-Unternehmen machen sie bereits beim ersten Kundenkontakt viel zu klein.
Aber auch dem umgekehrten Fall kann man oft beobachten. Ein Unternehmen ist international ausgerichtet, aber auf der Website fehlen wichtige Sprachen oder die technisch korrekte Umsetzung sprachrelevanter Tags (hreflang). Noch übler: Offenbar kümmert sich niemand um die Webseiten, wie Abbildung 9 beispielhaft zeigt. Deutsche Kategoriebezeichnungen auf englischen Seiten sind nicht nur für ausländische Besucher ein Albtraum, sondern auch für das internationale Ranking mit den entsprechenden Keywords.
Oft werden beim Webauftritt für unterschiedliche Länder entsprechende Länderdomains verwendet. Prüft man diese hinsichtlich der Backlinks durch, findet man nicht selten nur eine einstellige Zahl an Backlinks für diese Domains. Damit kann es mit einem guten Ranking eigentlich nicht klappen, weil Google noch immer auch einen gewichtigen Bewertungsanteil auf eben diese Links setzt.
Viele B2B-Unternehmen setzen auf Eigennamen für ihre Produkte. Diese werden – weil kein oder wenig Rankingmitbewerb vorhanden ist – gut gerankt; das freut diese Unternehmen und sie sind nicht selten stolz darauf. Das ist auch gut so. Neukunden bringt das allerdings in der Regel nicht, weil Suchende eher mit generischen Begriffen wie „Doppelschneckenextruder“ suchen, aber nicht das spezielle Produkt „Versatil 3000 WT“, weil sie es (noch) gar nicht kennen. Ganz generell lässt sich feststellen, dass viele Unternehmen zwar ihre Produkte und deren Herstellung perfekt beherrschen, nicht aber zumindest die Basics der Suchmaschinenoptimierung. Oft herrscht die irrige Meinung, der Markt wäre so klein oder so transparent, dass die Kunden einen ja kennen würden. Dass Webauftritte oft stiefmütterlich behandelt werden, erkennt man auch sofort, wenn man die Websites mit dem Smartphone aufruft. Ein responsives Design bzw. Template zu verwenden, garantiert noch lange keine gute mobile Darstellung. Seitlich überlaufende Designs oder Bilder, Links, die zu nahe beieinanderstehen, sind da nur die augenfällig sofort feststellbaren Fehler. Tief blicken lässt eben genau das. Schon beim ersten Öffnen sieht man grobe Schnitzer, die aber von den Unternehmen offenbar einfach ignoriert werden, oder sie sind dort noch nicht einmal bekannt.
Hövener empfahl, sich mit den neuesten Hypes wie Voice Search oder Social Signals erst dann zu beschäftigten, wenn die Basics umgesetzt wurden. Ohne die klassische Keywordrecherche, eine gute Websitestruktur, optimierte Inhalte, eine fehlerfreie Internationalisierung, genügend Site-Speed und vor allem eine vernünftige Darstellung auf Smartphones wird auch die Integration von Augmented-Reality-Tools hinter den Erwartungen zurückbleiben. Dem Chef gefällt so was, er will es sicher auch unbedingt haben – aber potenzielle Kunden bekommen das oft gar nicht mal zu Gesicht, wenn grobe Fehler beim SEO gemacht werden bzw. die Basics ignoriert werden.
Für Online-Shops gibt es spezielle Dinge für ein gutes Ranking zu berücksichtigen, erklärte Julian Dziki. Ein Problem von vielen taucht dabei oft auf: das sog. Keywordstuffing im Title und im Metatag „Description“. Meist kommt es daher, dass beim Anlegen von Produkt- oder Kategorieseiten zu wenig Fantasie im Spiel ist, wie solche Aufzählungen von Schlagwörtern später im Suchergebnis auf den Suchenden wirken. Es geht oft nur darum, möglichst viele „wichtige“ Keywords zu verwenden. Das Ergebnis sind dann oft Gehirnlangweiler wie in Abbildung 11 dargestellt.
Dagegen sieht man in Abbildung 12, dass hier mit Hirn und Intelligenz getextet wurde. Es werden nicht einfach stumpf Keywords in den Text gestopft, sondern wichtige Dinge wie Markennamen, USP (die hier streng genommen nach dem Wortsinn natürlich keine echten USPs sind), eine Aufforderung (Call-to-Action) und natürlich auch die Keywords. Dziki empfahl, im Zweifel lieber weniger als mehr Keywords zu verwenden und lieber Vorteile zu benennen, dabei konkret zu werden und auch Anreize für den Klick zu geben. Den Domainnamen sollte man nur dann im Snippet erwähnen, wenn er auch bekannt ist. Ansonsten verschwendet man hier wertvollen Platz für andere Dinge, welche die Klickentscheidung ehrlich gesehen stärker beeinflussen als ein unbekannter Shop- oder Unternehmensname.
Stefan Godulla gab wertvolle Hinweise, wie man den Vertrieb einer SEO-Agentur besser organisieren kann. Dabei sollte man sich zuallererst seiner eigenen Stärken bewusst werden. Oft ist durch historische Fehlschläge beim SEO das Vertrauensverhältnis Kunde – -Agentur seitens des Kunden gestört. Dessen sollte man sich beim Argumentieren immer bewusst sein und im Auge behalten, dass man oft auf der anderen Seite zunächst eher als Kostenfaktor gesehen und eingeschätzt wird.
„Wer meint, dass Bildung teuer ist, sollte es mal mit Inkompetenz versuchen“; Stefan Godulla.
Wie immer gilt wohl das Pareto-Prinzip. Man konzentriert sich auf die wichtigen 20 % der Kunden, die einem am Ende 80 % des Umsatzes bescheren. Dazu muss man oft auch schmerzhaft lernen, alles andere zu delegieren. Gerade Gründern fällt das nicht immer leicht. Auch für das manchmal strittige Thema Honorar hatte Godulla einen Tipp. Das Honorar bzw. dessen Höhe sollte man niemals rechtfertigen, allenfalls verteidigen. Man muss dem Kunden erklären können, warum das Honorar eine sinnvolle Investition ist und welchen Wert die Arbeit bringt. Projekte, bei denen man ein seltsames Bauchgefühl hat, sollte man besser nicht annehmen. Ein warum auch immer gescheitertes Projekt wird meist auf die Arbeit des Dienstleisters geschoben und kann dessen Reputation schaden. Die wenigsten Unternehmen sind so ehrlich und fair, offen zu kommunizieren, dass sie rein gar nichts von den Empfehlungen umgesetzt haben oder noch schlimmer – völlig falsch implementiert haben.