Im März drängen sich viele wichtige Online-Konferenzen. Eine der wichtigsten ist sicherlich die SMX in München, die diesmal mit ca. 950 Teilnehmern und Teilnehmerinnen am 27. und 28. im Hilton stattfand. Die Veranstalterin wartete auch dieses Jahr mit gewichtigen Keynote-Speakern wie Rand Fishkin und Will Critchlow auf. Aber auch der in Fachkreisen bekannte und geschätzte Johannes Müller (aka JohnMu) von Google war vor Ort und gab den interessierten Zuhörern wertvolle Hinweise direkt aus erster Hand. Website Boosting hat für Sie einige dieser Tipps der Experten zusammengetragen.
SMX: Search-Marketing-Gipfeltreffen
Oft hat man auf solchen großen Konferenzen ein leichtes Unbehagen bei der Auswahl der Vorträge, weil im Hinterkopf ständig ein kleines Männchen fragt, ob man nicht doch in einem anderen, parallel laufenden Slot etwas Wichtiges verpassen könnte. Die SMX wartete mit vier gleichzeitigen Vortragssträngen auf und bot insgesamt über 45 Sessions. Sandra Finlay, die Veranstalterin der SMX, schaffte es allerdings bemerkenswert gut, die Referenten thematisch und zeitlich so zu gruppieren, dass sie relativ gesehen recht überschneidungsfrei waren. Die SMX wurde eröffnet mit einem grandiosen Beitrag von Rand Fishkin, dem CEO und Mitbegründer von SEOmoz, weltweit sicherlich eine der bekanntesten Adressen im Web zum Thema Suchmaschinenoptimierung. „How SEO blinded me, then opened my eyes“ – so lautete sein Vortragstitel und Fishkin warf damit einen selbstkritischen Blick auf seine eigene Entwicklung. Er stellte bildlich dar, wie sein Fokus auf einen einzelnen Baum (SEO) den Blick auf den ganzen Wald behinderte. Das war auch der Kern seines Vortrags: Es geht schon länger nicht mehr nur um SEO mit Konzentration auf Platz 1 in den Suchergebnissen, sondern man muss dieses Thema sehr viel umfassender begreifen, analysieren und vor allem strategisch steuern.
Fishkin wies darauf hin, dass es „die“ Suchergebnisse nicht mehr gibt. Immer mehr Nutzer bekommen sehr individuelle Ergebnisse angezeigt – derzeit mindestens die 90 Mio. Google+-User. Und auch die „zehn blauen Links“ gehören der Vergangenheit an. Das klingt zunächst banal, denn jeder weiß, dass mit der Einführung der sog. Universal oder auch Blended Search auch andere Ergebnisarten wie Landkarten, Produktdarstellungen oder News mit eingemischt werden. Die Folgen werden allerdings noch immer nicht von allen Unternehmen so deutlich erkannt und oft schon gar nicht, wie man vernünftig auf diese Veränderungen reagiert. Die Top 3 in den Ergebnislisten werden nämlich nicht mehr in der Deutlichkeit von Suchenden reflexartig geklickt. Kleine und unscheinbare Keyvisuals wie Gesichter neben Suchergebnissen oder sog. Rich Snippets (erweiterte Ergebnisdarstellungen z. B. mit Bewertungssternen) beeinflussen seiner Erfahrung nach massiv das Klickverhalten. Aber auch Google Suggest bringt mit seinen Vorschlägen schon während des Eintippens von Suchphrasen immer mehr Nutzer dazu, die eigentliche Phrase im Kopf zu verwerfen und stattdessen einen der Vorschläge zu wählen. Das geht einfacher und schließlich sind das doch die Suchbegriffe, die auch andere gesucht haben. Man erwartet hier intuitiv „bessere“ Ergebnisse – ein Effekt, den man keinesfalls unterschätzen sollte!
Er wies auch auf einen weiteren Umstand hin: Google nimmt sich immer mehr Fläche für eigene Ergebnisse. Dies ist in den USA noch sehr viel besser zu sehen als aktuell in Deutschland. Fishin zeigte einige Screenshots, bei denen über der Falz (also ohne zu scrollen) ausschließlich Werbung (AdWords) und eigene Links zu sehen waren. Um die organischen Suchergebnisse zu sehen, muss man immer häufiger das Mausrad bemühen. Und einen weiteren Umstand hob er deutlich hervor: Google liebt Marken und bevorzugt diese spürbar. Sog. „Non-Brands“ werden, so Fishkin, zum Teil abgestraft, wenn sie zu viel Werbung über der Falz anzeigen – ein Umstand, den er bei Brands nicht beobachten konnte. Mit anderen Worten hätten große Brands mittlerweile nicht nur einen „eingebauten“ Vorteil beim Ranking, sie können sich auch Dinge leisten, für die andere Domains sich eine Strafe einfangen. Fishkin titelte auf einer Folie: „Penalties and Filters are designed to target unbranded Sites“, und weiter: „AdSense says ´Yes´ – Panda says ´Penalty´.“
Eine einzelne Aussage von Fishin, die fast etwas unterging, sollte noch einmal explizit hervorgehoben werden. Er ist der Meinung, dass Google verhängte Strafen schneller wieder aufhebt, wenn man im Reinclusion-Antrag (in den Webmaster-Tools) mitteilt, woher man zweifelhafte Links bekommen hat bzw. wer sie gesetzt hat. Sollte dies tatsächlich so sein, müssen sich SEO-Agenturen, die mit unsauberen Mitteln arbeiten, wohl zukünftig auf mehr Denunziation durch ihre Kunden einstellen. Hier würde sich auch ein ziemlich mieses Betätigungsfeld auftun, um sich gegenseitig als Agentur zu diskreditieren: Man baue eine Domain auf, kaufe massenhaft schlechte Links für wenig Geld in osteuropäischen Ländern, warte auf die folgende Strafe von Google und melde dann über selbst eingerichtete Webmaster-Tool-Accounts die befeindete Agentur als Bösewicht. Dass hier neben dem Tatbestand der üblen Nachrede auch heftige Schadensersatzpflichtansprüche entstehen würden, wäre wohl gerade kleineren Agenturen, die sich oft neidisch bekriegen, sicher nicht so bewusst. Man kann nur darauf hoffen, dass Google hier entsprechend vorausschauend Schutzmaßnahmen einbaut. Fishkins Credo am Ende war, dass der SEO-Blickwinkel deutlich erweitert werden muss auf etwas, das er „Inbound Marketing“ nennt. Damit meint er das strategisch angelegte Management aller eingehenden Kanäle und nannte unter anderem Dinge wie Blogging, Opt-in-E-Mail, Content-Marketing, Social-Media-Marketing, Gastautorenbeiträge, PR, Kommentar-Marketing, das Aufbauen von Fach-Communities, aber auch anderen zu helfen bzw. Hilfsbereitschaft offen an den Tag zu legen.
Markus Tober von Searchmetrics begründete den aktuellen Hype um das Thema „Social“ in einem Satz: „Google kann es sich einfach nicht leisten, auf Social Signals zu verzichten.“ Als Beispiel nannte er die Notlandung eines Flugzeugs im Hudson-River in New York oder den Tod von Osama bin Laden – beide Nachrichten tauchten zuerst in Twitter auf, noch bevor irgendeine Website davon berichten konnte. Er vertrat die Meinung, wäre Facebook damals hinsichtlich einer Kooperation offener gewesen, dann hätte Google möglicherweise nie Google+ entwickelt. Er stellte die Ergebnisse einer eigenen Studie vor, in der klar die Anzahl der vergebenen +1-Votings „extrem gut“ mit den Rankings korrelieren. Damit wäre zwar nicht bewiesen, so Tober, dass dies ursächlich für das Ranking wäre, aber einen Zusammenhang könne man klar statistisch nachweisen. Für die Untersuchung hatte man 10.000 Suchbegriffe verwendet, die ausschließlich informationsgetrieben sind. Es zeigte sich, dass 100 % aller auf Platz 1 gerankten Ergebnisse mindestens einen Share in Facebook und knapp 88 % mindestens einen Tweet aufzuweisen hatten. Tober bestätigte auch, dass nicht die bloße Anzahl an Votings relevant ist, sondern auch die Qualität eine Rolle spielt. Die thematischen Autoritäten zu ermitteln, sei sehr schwer, führte er aus. Aber bei Searchmetrics arbeite man bereits daran, dies in die SEO-Tools zu integrieren. Tober gab allen Zuhörern einen Tipp von Peter Vyskocil, der allerdings entgegen der Äußerung im Vortrag nicht bei Google arbeitet, sondern nur in einem Google Forum postet (leider hat sich die folgende Aussage bis Redaktionsschluss nicht mehr via Google direkt verifizieren lassen): Wenn eine Seite per 301 weitergeleitet wird, verliert sie ab diesem Zeitpunkt alle Google+-Votings. Hier hätte Google dann wohl vernünftigerweise von Anfang an den gängigen Manipulationstechniken einen Riegel vorgeschoben. Falls diese Information stimmt, würde dies aber auch bedeuten, dass die URL-Strukturen noch sauberer und sorgfältiger vorausgeplant werden müssten als bisher.
SEO raten ja schon immer davon ab, eine einmal publizierte URL zu ändern. Der unbedachte Relaunch-Wahn und die leider teilweise noch immer vorhandene Unkenntnis von Webagenturen, Herstellern von Shopsoftware oder Content-Management-Systemen wird den Social-Media-Stategien der Unternehmen also zukünftig möglicherweise spürbar schaden. Je mehr +1-Votings man eingesammelt hat, desto mehr verbietet es sich, die URL, auf die diese Votings „einzahlen“, auf absehbare Zeit zu ändern! Die Zahlen in Abbildung 6 sind laut Tober deshalb so interessant, weil sie zeigen, dass Facebook bei etwa 27 % aller Seiten weiß, WER dort ist. Diese Information erhält Facebook durch die Integration des Like-Buttons per iframe, wenn ein Besucher vorher oder dauerhaft bei Facebook eingeloggt war bzw. ist. Falls nun Facebook auf solchen externen Seiten ähnlich Googles AdSense-Programm Werbung ausspielen würde, ergäben sich damit nach Tobers Meinung phantastische Möglichkeiten des Zielgruppentargetings, da Facebook personenbezogen ganz genau weiß, wer wann wo ist und welche Interessen er hat. Tober wies darauf hin, Larry Page von Google habe verlauten lassen, der weitere Erfolg von Google hänge ausschließlich von Google+ ab. Genau diese Überlegung sei der Grund dafür. Unabhängig davon empfahl Tober, man solle es Besuchern durch die Integration solcher Buttons möglichst leicht machen, gute Inhalte weiterzuempfehlen bzw. diese positiv zu voten. Dazu gehören natürlich auch „likens-werte“ Inhalte, aber das steht wieder auf einem anderen Blatt.
Traditionell wurde am Ende des ersten Konferenztages auch wieder die jährliche Sendung „Webmasters on the roof“ live ins Internet übertragen. Die Teilnehmer waren Rand Fishkin, Will Critchlow, Will Reynolds, Marcus Tober und Jens Fauldrath und die Themen waren natürlich Google+, der von Google angekündigte neue „SEO-Filter“, das Panda- und Venice-Update und viele andere aktuelle Probleme. Die komplette Show ist kostenlos und in sehr guter Qualität als Podcast unter einfach.st/wmotr12 downloadbar, 1 Std. 45 Min lang und hauptsächlich in Englisch. Als neues Format „Face off“ traten auf der SMX später Rand Fishin und Will Critchlow (von Distilled) mit zwei Vorträgen über die jeweilig 10 wichtigsten technischen Faktoren im SEO „gegeneinander“ an, wobei am Ende Critchlow via Handabstimmung eine überwältigende Mehrheit auf sich vereinigen konnte. Möglicherweise lag dies aber auch daran, dass es bei Fishkin schon der vierte Auftritt bzw. Beitrag war und bei Critchlow erst der zweite. Critchlow zeigte, dass es einer der größten Fehler aus technischer Sicht ist, das Thema Speed zu vernachlässigen: 100 Millisekunden, dies entspricht etwa der Zeitspanne von zwei Einzelbildern eines Films oder dem Viertel der Dauer eines Blinzelns, können die Konversions bereits um ein Prozent nach unten treiben. Google erhielt bei Versuchen ähnlich dramatische Ergebnisse. Bereits eine halbe Sekunde mehr beim Aufbau einer Suchergebnisseite reduzierte den Traffic um 20 %. Er empfahl für eine schnelle Diagnose das Browserplugin von Google „Page Speed“ oder das von Yahoo! „Y!Slow“. Natürlich lohnt auch immer der Blick in die Webmaster-Tools von Google. Wer sich mit Linkbaits (etwa: Köder zur Generierung von Backlinks) beschäftigt, sollte auch immer alle wichtigen Browser und deren ältere Versionen testen, so Critchlow. Er berichtete von einem sehr ärgerlichen Fall, wo eingebaute Share-Buttons vom Internet Explorer in der Version 6 abgeschnitten wurden. Da es gerade hier hauptsächlich um die Zielgruppe der Journalisten ging und ein großer Teil von ihnen noch diese alte Browserversion nutzt, lief die Aktion praktisch ins Leere.
Auch auf das Thema Robot-Steuerung ging Critchlow ein, weil hier noch immer viele Fehler gemacht würden. In welcher Reihenfolge Suchmaschinen nach möglichen Crawling-Verboten suchen, ist festgelegt und dies bildet praktisch auch eine Art Hierarchie ab, derer man sich bewusst sein sollte (Abbildung 7). Fast alle Experten und auch Google warnen vor einem unüberlegten Einsatz des rel=canonical-Tags. Auch Critchlow ging mit Beispielen auf dieses durchaus nützliche, aber gefährliche Tag ein. Man kann damit unbedarft innerhalb kürzester Zeit das Ranking einer Domain ruinieren.
Einen Tipp von Will Reynolds (SEER Interactiv), der über großvolumiges Linkbuilding sprach, lohnt es sich besonders hervorzuheben, insbesondere, weil er zum Aufbau themenbezogener Social Networks gut geeignet ist. Das Prinzip ist ebenso einfach wie genial. Man nutzt die erweiterte Suche bei Twitter und spezifiziert über ein oder mehrere Keywords das entsprechend passende Thema und die gewünschte Sprache. Anschließend aktiviert man unten im Formular die Checkbox „Frage?“.
Man erhält daraufhin den Livestream von Twitter, in dem sowohl der gesuchte Begriff als auch ein Fragezeichen vorkommt. Jetzt kann man sich die richtigen Tweets raussuchen und möglichst hilfreich antworten. Achtung: Das Dumpfbacken-Hardselling funktioniert bei Twitter noch immer nicht. Das heißt, wer hier in der Absicht eintaucht, Handys oder andere thematisch ausgerichtete Dinge zu verkaufen, der wird (hoffentlich möglichst schnell) durch Beschwerden der anderen Nutzer seinen Account gesperrt bekommen. Wer aber hilfreich Fragen beantwortet, der findet hier einen guten Einstieg, Reputation und Webkarma aufzubauen, das sich an anderen Stellen meist mehrfach wieder auszahlt. Auch mit speziellen Abfragen in Google, wie z. B. „powered by vbulletin“ und einem nachfolgenden Keyword findet man relativ leicht Diskussionsgruppen, die man mit helfenden Antworten unterstützen kann. Der Trick dabei ist, Wortkombinationen zu suchen, die gängige Software für Foren- oder Blogsysteme standardmäßig im Templates auf den Seiten anzeigen, und dahinter dann wie oben geschildert die jeweiligen thematisch für einen selbst passenden Keywords anzuhängen.
Johannes Müller, der im Web unter dem Pseudonym „JohnMu“ bekannt ist, arbeitet bei Google im Entwicklungszentrum in Zürich und ist in Europa unter anderem für die Kommunikation mit Webmastern zuständig. In seinem Vortrag ging es insbesondere um länderübergreifende Probleme mit der Sprache und einer richtigen Zuordnung in Google. Man solle idealerweise eine URL pro Inhalt (nach Sprache und Land) zur Verfügung stellen, und Müller machte explizit klar, dass man in diesem Zusammenhang keine Angst vor Duplicate Content haben müsse. Als problematisch bezeichnete Müller automatische Weiterleitungen, die auf den Spracheinstellungen der Browser oder der IP-Adresse basierend den Besucher auf Seiten mit anderen Sprachversionen umleiten. Die Robots von Google kommen in der Regel aus den USA und aus diesem Grund kann es hierbei zu Problemen kommen. Für diese Fälle empfiehlt Müller, den Besuchern lieber klickbare Banner zu zeigen, die auf die entsprechend passenden Sprachseiten umleiten – aber eben erst nach und durch einen bewussten Klick.
Die Geotargeting-Faktoren bei Google sind:
- Länder-Toplevel-Domain wie z. B. .de, .at, .ch,
- die vorgenommenen Einstellungen in den Webmaster-Tools (Hinweis: Es kann bis zu einem Monat dauern, bis das komplett durchgearbeitet ist),
- der tatsächliche Serverstandort,
- die Verwendung des rel-alternate-hreflang,
- und weitere Signale wie z. B. Adressen, Einträge in Google Places etc.
Zu den sog. generischen Toplevel-Domains (gTDL) zählt Google u. a. auch .org, .net, .eu, .asia, .tv, .me, .co und neue Endungen, die zukünftig angeboten werden. Selbstbezogene Meta-Tags wie z. B. geo.position werden von Google ignoriert. Müller warnte auch vor „fremdsprachlichen Inhalten“. Tauchen z. B. vermehrt spanische Ortsnamen auf einer deutschen Webseite auf, könnte dies durchaus zu Problemen führen. Ebenso solle man keinesfalls Content automatisiert übersetzen lassen, da hier die reale Möglichkeit bestehe, dass ein automatisierter Filter die Seite als Spam klassifiziert. Die im Head einer HTML-Seite codierte Sprache wird übrigens von Google ebenfalls nicht verwendet bzw. ignoriert. Die geo-orientierte Erkennung ist bei Google grundsätzlich einzelseitenorientiert, nicht Domain- bzw. Site-bezogen.
Die Angst vor Problemen mit deutschen Umlauten und anderen, nicht-englischen Buchstaben im URL konnte Müller den Zuhörern nehmen. Die Umwandlung dieser Zeichen bereite in der aller Regel keinerlei Problem. Optimal wäre es, Unicode/UTF8 für Pfade und Parameter zu verwenden.
Google empfiehlt ganz generell, unterschiedliche Sprachversionen über das neu eingeführte „hreflang“ zu definieren. Johannes Müller zeigte an einem selbsterklärenden Beispiel, wie dies umzusetzen ist:
<!doctype html><head> … <link rel=“alternate“ hreflang=“en“ href=“http://en. example.com/page.htm“> <link rel=“alternate“ hreflang=“de-de“ href=“http://de.example.com/ seite.htm“> <link rel=“alternate“ hreflang=“de-ch“ href=“http://ch.example.com/ seite.htm“> <link rel=“alternate“ hreflang=“de“ href=“http://german.example.com/ seite.htm“>
Google lässt das Ranking einer einzelnen Seite in dem jeweiligen Land unbeeinflusst und tauscht dann jeweils nur die URL für die passende (Sprach-)Version aus. Ein praktisches Beispiel: Bei Google.ch würde eine für den deutschen Markt gedachte Seite am besten ranken. Google nimmt dann diese Seite und tauscht sie gegen die über das hreflang angegebene, passende Version aus. Damit kann man z. B. mit unterschiedlichen Versandkosten arbeiten oder eine andere Preisauszeichnung oder Währung verwenden. Das eigentliche Ranking der Schweizer Version der Seite wird zwar explizit nicht verändert, aber es erleichtert Google die Auslieferung der richtigen Sprach-/Landesversion, weil der deutschen, gut rankenden Seite der URL die zugehörige Schweizer Seite mitgegeben wurde. Google versucht also immer, die am besten passende URL auszuwählen. Hat man allerdings zu viele Sprachversionen, funktioniert das Trennen nach Müllers Worten noch nicht optimal, hieran arbeite man bei Google allerdings gerade.
Nach Müllers Vortrag über SEO für internationale und mehrsprachige Websites wurden von den Teilnehmern auffällig viele Fragen gestellt. Dies zeigte, dass es nach wie vor ein extrem wichtiges und in Teilen wohl noch unverstandenes Problem darstellt. In Google+ ist Müller unter johnmu.com/+ leicht zu finden. Es lohnt sich in jedem Fall, ihn in einen der eigenen Circle mit aufzunehmen und seine Postings mitzulesen. Er veranstaltet auch regelmäßig Hangouts (Videomeetings in Google+) mit Webmastern, die Probleme mit der Indexierung bei Google haben.
Ganz generell darf man die Themen- und Referentenauswahl auf der SMX als gelungen und überlegt bezeichnen. Internationale und nationale Experten gaben offen ihr Know-how weiter und für spezielle Fragen konnte man diese in den Pausen jederzeit ansprechen. Anders als sonst leider oft genug üblich, verschwanden die meisten Speaker nicht bereits Minuten nach ihrem Auftritt wieder, sondern nahmen die vollen zwei Tage an der Konferenz teil. Wer also trotzdem noch mit offenen Fragen nach Hause fuhr, dem kann wohl niemand mehr helfen.