Am 17. und 18. März trafen sich über 1.200 Online-Marketers in München, um auf der diesjährigen SMX in fünf parallelen Tracks achtzig Referenten zu lauschen und fruchtbares Networking zu betreiben. Neben aktuellem Wissen und Branchengrößen wie Rand Fishkin und Marcus Tober sorgten Persönlichkeiten wie Peter Figge, CEO von Jung v. Matt, und Behshad Behzadi, Director of Conversational Search von Google, für viele interessante Querblicke. Am Ende des ersten Abends wurde erstmals in einer rauschenden Galaveranstaltung der Deutsche Suchmarketingpreis – die SEMY Awards – vergeben. Und während in den USA derzeit zu beobachten ist, dass die Zahl der Teilnehmer der großen Leitkonferenzen tendenziell eher abnimmt, stemmt sich das Fachpublikum hierzulande spürbar und massiv gegen diesen Trend. Und bei der gebotenen Qualität der Inhalte geschieht dies auch völlig zu Recht.
SEO + SEA = SMX
Wie geht man im Lärm, im Rauschen des Internets, in der mittlerweile feststellbaren Übersättigung nicht unter? Dieser Frage widmete sich der ultrasmarte Rand Fishkin, der in Anlehnung an den Zauberer von Oz und sein Unternehmen „MOZ“ international auch gern „The Wizard of Moz“ genannt wird.
„Wir werden derart mit Infos überladen, dass wir darin absaufen.“
Als Gegenmittel für die Beliebigkeit brachte Fishkin fünf Tipps aus den USA mit. Als Erstes solle man nicht dem Mainstream nachlaufen. Tools wie der Keywordplanner von Google oder z. B. Ubersuggest helfen zwar enorm, aber man muss sich immer klarmachen, dass auch alle anderen genau diese Quellen nutzen und daher alle auf die gleichen oder ähnlichen Ideen kommen. Auch Google Correlate ist laut Fishkin ein noch stark unterschätztes und wertvolles Tool. Bei der Suche nach Multiplikatoren zu einem Thema oder in einer Branche kann es sich ebenfalls lohnen, sich nicht auf die Erstbesten ganz oben auf den diversen Auflistungen zu konzentrieren, auf die geht nämlich jeder zu. Warum nicht mal runterscrollen oder auf die zweite Seite sehen, riet er den Zuhörern.
„Jeder jagt den gleichen Keywords nach!“
Stattdessen solle man besser auch mal Wildcards (den Stern „*“) bei Google Suggest nutzen, um andere Keywordideen zu generieren.
Auch den vielen Vollautomatisierungsmöglichkeiten, die dem Hype der Skalierbarkeit folgen, solle man kritisch gegenüberstehen. Eine persönliche und individuelle Ansprache des Kunden kann oft mehr bewirken als die Verzehnfachung des Marketingbudgets. Aber „skalierbar“ ist das natürlich nicht. Daher läge auch hier eine gute Chance, so Fishkin, denn gerade in einer Zeit, wo sich viele via automatische Mailsysteme der lästigen Kundenanfragen entledigen, solle man ruhig mutig gegen den Strom schwimmen. Weitere Tipps von ihm waren, bewusst in andere Formate zu investieren als die Mitbewerber und vor allem auch auf „Visual Facts“ zu setzen. Menschen glauben guten Argumenten oft weniger als einer Linie in einem Diagramm, die nach oben zeigt – traurig, aber wahr. Man solle vor allem mutig frühzeitig Dinge anpacken und umsetzen, während andere noch zögernd abwarten. Bei der vorherrschenden Kultur in Deutschland dürfte das recht leicht umzusetzen sein. Denn wenn in Bezug auf „online“ ein Attribut für das Gros der hiesigen Unternehmen vergeben werden müsste, dann wäre „zögerlich“ bestimmt dabei. Warum also nicht mal auf Plattformen wie Instagram, StumbleUpon oder Pinterest statt immer nur bei Google oder Facebook Werbung schalten? Sein Tipp, aufgrund beobachteter Korrelationen auf bestimmte Dinge zu setzen, dürfte allerdings bei den eher analytisch denkenden Zuhörern auf geistigen Widerstand gestoßen sein. Die Anzahl der Störche in Deutschland sinkt mit fast identischer Rate wie die Zahl der Geburten. Die Anzahl weltweiter Piraten steigt identisch mit der globalen Klimaerwärmung. Aus dieser Beobachtung zu schließen, dass das eine jeweils ursächlich für das andere wäre, käme einem reichlich dumm vor. Aber nur, weil Facebook Likes mit guten Rankings korreliert (oder umgekehrt?) und dies auf den ersten Blick vielleicht plausibler klingt als die Verbindung Störche/Babys, werden Ursachenforschung und abgesicherte Erkenntnisse daraus natürlich nicht verzichtbar. Man sollte aber unbedingt in Zukunft mehr in die eigene Marke investieren, das wird gerade für Google immer wichtiger, um entsprechendes Vertrauen aufzubauen.
„Werbung auch auf Instagram, StumbleUpon oder Pinterest?“
Rand Fishkins Folien sind auf Slideshare öffentlich verfügbar (http://einfach.st/rand1).
Kai Spriestersbach versorgte in dem neuen Session-Track „Bootcamp“ Neueinsteiger mit Basiswissen über eine suchmaschinenfreundliche Sitearchitektur. Wenn man für Suchmaschinen schwer oder nicht erkennbaren Content wie Bilder oder Videos verwendet, sollten diese immer mit entsprechenden Zusatzinformationen versehen werden. Er hob gerade Videos als besonders tauglich hervor, wenn – und das ist essenziell – man den Inhalt auch transkribiert als Text auf die Seite stellt. Mit guten Softwareprogrammen geht das mit kleinen manuellen Korrekturen fast automatisch. Auch Spriestersbach empfahl, von Flash besser die Finger zu lassen bzw. wichtige Inhalte baldmöglichst in HTML5 bereitzustellen. Ein weiterer nützlicher Tipp war, die AGB per „noindex“ in den Metatags von der Indizierung durch Suchmaschinen auszuschließen. Für Besucher bleiben diese natürlich weiterhin sichtbar, aber vor abmahnwütigen Anwälten, die sich ihre Opfer mittels bestimmter Formulierungen über Google suchen, bleibt man dann weitestgehend verschont.
Den interessierten Zuhörern erklärte Spriestersbach, warum beim Thema Ladegeschwindigkeit auch die Anzahl der zu ladenden Objekte eine wichtige Rolle spielt. Der Browser kann nämlich nur bis zu zehn Verbindungen zu einem Webserver gleichzeitig aufbauen. Kommt man mit zerstückelten CSS- und JavaSkript-Dateien, Bildern und weiteren Objekten über diese Zahl, muss der Browser für das Laden des elften Objekts warten, bis eines der ersten zehn fertig geladen wurde. Es kommt bei der Geschwindigkeitsbetrachtung also nicht nur auf die zu übertragende Menge an Bytes an, sondern auch darauf, wie viele nötige Objekte einer Webseite nachgeladen werden müssen und in welcher Reihenfolge. Notfalls kann man z. B. auch Bilder auf eine Subdomain oder ein anderes schnelles Netzwerk auslagern (z. B. „Bild 6“ in Abbildung 5). Benutzt man in Shops diverse Sortier- und Filtermöglichkeiten, können mathematisch betrachtet schnell mehrere Millionen Kombinationen und damit unterschiedliche URL entstehen. Man müsse sich in solchen Fällen genau überlegen, welche davon man im Index der Suchmaschinen haben möchte, denn alle so „künstlich“ erzeugten Seiten gleichen oder ähnlichen Inhalts werden diese sicher nicht aufnehmen.
André Morys lieferte mit „Klick mich Baby“ einen ebenso humorvollen wie lehrreichen Vortrag über die Anwendung der Erkenntnisse aus dem Neuromarketing bei AdWords ab. Morys erklärte sich freundlicherweise bereit, wesentliche Inhalte hier in dieser Ausgabe in einem gesonderten Beitrag zum Nachlesen zur Verfügung zu stellen.
„Unser Gehirn ist faul und schätzt daher lieber, als mühsam zu rechnen.“ André Morys
Zusammen mit Rand Fishkin machten sich Marcus Tandler in einer Keynote laut Gedanken darüber, ob das Ende der Links bereits nah sei. Tandler zeigte anhand eines realen Beispiels, dass Sites plötzlich bei guten Suchbegriffen auch in den Rankings auftauchen können, ohne dass sich bei der Backlinkstruktur etwas geändert hätte. Seiner Meinung nach kann dies deshalb passieren, weil Google durch die Auswertung von Usersignalen offenbar immer wieder Tests macht und bei positiven Ausprägungen wie z. B. einer längeren Verweildauer des vermittelten Traffics gute Rankingpositionen für diese Site auch beibehält. Außerhalb der Region von Moskau verwende z. B. die Suchmaschine Yandex gar keine Backlinks für die Berechnung des Rankings, so Tandler. Hier reichen offenbar andere Kriterien aus wie z. B. der Flesh-Index, die Bildqualität, die Betreuungsintensität einer Domain, die Fehlerfreiheit (wenig 404), welche Software zur Seitenerzeugung eingesetzt wird, die Topicerkennung, TF*IDF und etwa 800 weitere Faktoren. Mit diesen erstelle man eine Art Vorhersage, welche Seiten wirklich gut seien, und teste diese dann live über die Klickrate und die Verweildauer bzw. Rückkehrrate, ob sie die Informationsbedürfnisse der Suchenden tatsächlich befriedigen.
Der Direktor der Sprachsuche bei Google, Behshad Behzadi, versuchte in seiner Keynote, die Frage zu beantworten, ob Captain Kirk wohl ein Google-Nutzer war. In den Science-Fiction-Filmen sprechen die Schauspieler oft mit Maschinen wie mit Menschen. Das Erkennen natürlicher Sprache und vor allem aufeinander aufbauender Fragen ist bei Google mittlerweile eindrucksvoll fortgeschritten. Dazu hat man in der eigenen Knowledebase mittlerweile u. a. 40 Mrd. Fakten und 570 Mio. Entitäten („Objekte“) gespeichert. Diese Zahl steigt laut Behzadi beständig an. Fragen wie „Wann landet mein Flug in Zürich?“ beantwortete das Googlesystem unter Rückgriff auf den Kalender und die öffentlich verfügbaren Flugdaten problemlos. Und auch Frageketten wie „Zeig mir das Empire State Building“, „Wie hoch ist es?“, „Wer hat es gebaut?“, „Wann?“, „Zeig mir italienische Restaurants in der Nähe“ wurden richtig im Zusammenhang interpretiert. Hierbei geht es nicht um die reine Spracherkennung, sondern darum, z. B. die Einwortfrage „Wann?“ korrekt in den richtigen Kontext einzubetten. Behzadi schloss die Kette ab mit dem Befehl: „Ruf das zweite Ergebnis an“, und das Smartphone begann, das nämliche italienische Restaurant in der Nähe des Empire State Buildings anzurufen.
Im Technical Track hatte sich John Müller als Ansprechpartner von Google für die Fragen der europäischen Webmaster einigen vorab gemeldeten Sites gewidmet und kleine Sitekliniken durchgeführt. Dabei zeigte sich, dass viele Sitebetreiber sich offenbar noch immer viel zu wenig mit dem Thema einer suchmaschinenfreundlichen Technik beschäftigen, auch wenn Müller das sehr viel freundlicher ausdrückte. Eine der gemeldeten Sites hatte aktuell sogar eine Pinguin-Strafe vorliegen, ohne dass man dort wohl davon wusste. Ganz generell zeigte sich im Überblick, dass auch bei den von Müller getesteten Sites prinzipiell ähnliche Probleme vorhanden sind: Das Nicht-Beseitigen von Altlasten, seien dies alte, verwaiste Seiten, CSS- oder JavaScript-Dateien, unstimmige Sitemaps, komplizierte URL-Strukturen, unabsichtlich blockierte Inhalte oder so langsame Webserver, dass Google bereits begonnen hat, weniger zu crawlen, um die Belastung nicht auch noch zu erhöhen. Auch der korrekte Einsatz des Canonical-Tags macht vielen wohl noch Probleme. Kurzum, noch immer werden einfachste Hausaufgaben nicht gemacht bzw. so lange aufgeschoben, bis es laut und unüberhörbar knackt. Eine der Sites hatte den Inhalt per Google Translate in andere Sprachen übersetzt. Ein billiger, schneller, aber für Besucher wegen der schlechten Textqualität völlig untauglicher Weg. Es könnte sein, dass Google solche Seiten als Spam ansehe, meinte Müller diplomatisch.
Zum Test für die Tauglichkeit der eigenen Website zur Anzeige auf mobilen Endgeräten verwies Müller auf den Chrome Browser. Dort kann man über das Menü rechts oben unter „weitere Tools“/„Entwicklertools“ in einen Testmodus gelangen. Ein Klick auf das Smartphone-Symbol im auftauchenden Menü (siehe Markierung Abbildung 11 links unten) öffnet ein variables Anzeigefenster. Auch die Kombination „strg + shift + i“ bzw. „cmd + opt + i“ öffnet diesen Modus. Dort kann man dann unterschiedliche Devices auswählen und tatsächlich die komplette Website per Mauszeiger durchklicken, um ggf. noch vorhandene Fehler aufzustöbern.
Dem Problem doppelter Inhalte (Duplicate Content) in Online-Shops widmete sich Bernhard Ollefs. Als Abteilungsleiter der Witt-Gruppe, die zur Otto-Gruppe gehört, kommt er mit diesem strukturellen Problem recht häufig in Kontakt. Nach seiner Erfahrung „lauert“ Duplicate Content unerwartet an viele Ecken und kann verdammt hartnäckig sein. Bis man die unerwünschten Kopien nach einem aktiven Eingreifen wieder aus dem Index bekommt und stattdessen die eigentlichen Originale gelistet werden, könnten schon mal vier Monate vergehen. Er empfahl daher auch eine wirklich fortlaufende Beobachtung mittels entsprechender Tools wie z. B. durch den URL-Monitor, Screamingfrog oder eben auch durch Google.
SEMY - Deutscher Suchmarketingpreis
Am Abend des ersten Konferenztages fand in der Wappenhalle in München die feierliche Gala zur Verleihung des ersten Deutschen Suchmaschinenpreises (SEMY) in den verschiedenen Kategorien statt. Insgesamt wurden elf Unternehmen und zwei Einzelpersonen geehrt.