Auch dieses Jahr hat die Search Marketing Expo, kurz SMX, in München weder Kosten noch Mühen gescheut, die weltweit besten Speaker nach Deutschland zu holen. Die Konferenz ist vom Volumen her mit annähernd tausend Besuchern und auch inhaltlich noch ein weiteres Stück gewachsen und wird daher nächstes Jahr sogar auf die Messe München als Veranstaltungsort ausweichen müssen. Was die SMX noch zu einer besonderen Veranstaltung macht, ist wohl die Anwesenheit zentraler Google-Mitarbeiter, die in Vorträgen, Interviews und auch Site-Kliniken – soweit sie es dürfen – einem wissenshungrigen Publikum Rede und Antwort stehen und für viel Aufklärung sorgen. Website Boosting hat wie immer für Sie die wichtigsten Take-aways extrahiert.
SMX München – das Gipfeltreffen
Zum Start der Konferenz erklärte Jake Hubert, Business-Product-Manager bei Google, multimedial unterstützt, wie die Suche mit über 30 Billionen Dokumenten im Index bei Google im Kern funktioniert (Tipp: Ein Besuch auf der Googlesite einfach.st/searchw lohnt; vgl. Abbildung 1). Auf die spätere Frage im Interview mit Danny Sullivan, Editor-in-Chief bei Search Engine Land, ob er noch etwas mehr über die Geheimnisse der Suche erzählen würde, erhielt er erwartungsgemäß ein kurzes „No Way“ als Antwort.
Sullivan fragte weiter, warum Google den Leuten nicht verrät, wann ein Update kommt und worum es bei einem Update geht. „Google testet stetig Veränderungen,“ so Hubert, „da wäre es eher verwirrend für die Benutzer, sie über jede kleine Veränderung zu informieren.“ Er wies darauf hin, dass Google außerdem mittlerweile die Webmaster konsequent darüber informiert, sobald sie gegen die Richtlinien verstoßen. Im Juli 2012 hat Google beispielsweise 655.247 Mitteilungen an Webmaster verschickt. Die Anträge auf Neuüberprüfung (Reconsideration Request) nehmen sich dagegen erstaunlich gering aus (siehe Abbildung 2).
150.000 bis 500.000 manuelle Abstrafungen werden von Google vergeben – pro Monat!
Für Google ist das nach seinen Worten ein wichtiger Schritt, den Webmastern noch mehr zu helfen. Allerdings ließe man die sog. „Blackhat-Guys“ (O-Ton Hubert) uniformiert. Auf die Frage, warum Google diesen Hype um das Authorship mache, erklärte Hubert, es sei nicht nur ein Hype, es sei ihnen sehr wichtig, da sie so von gesichtslosen (unpersönlichen) Suchergebnissen zu (persönlichen) Suchergebnissen mit Gesicht gehen können. „Wir wollen den Suchergebnissen ein Gesicht geben.“ betonte er. Derzeit würden fünf Teams an dem Author-Thema arbeiten und bei Google wäre man wirklich erstaunt, so Hubert, wie wenige das Author-Tag bisher eingebunden haben.
Anschließend stellte Sullivan eine Frage, die derzeit viele Marketers beschäftigt, nämlich warum „Publishership“ (ein Unternehmensaccount bei Google+) derzeit nicht die gleiche Aufmerksamkeit wie „Authorship“ erhalte. Hubert erklärte dies damit, dass „Publishership“ auf einzelne Websites abziele, Autoren dagegen auf verschiedenen Websites veröffentlichen können. Somit können es hier zwar verschiedene Websites sein, aber es sind immer dieselben Autoren. Ob Authorship denn ohne Google+ möglich sei, fragte Sullivan abschließend. Hubert gab hierauf eine kurze, aber sehr tief gehende Antwort: Google+ sei Googles Identifizierungssystem. Ohne Google+ gebe es also auch kein Authorship. „So gonna get it.“
Danny Sullivan erklärte anschießend in einem Vortrag, wie Google-Filter funktionierten. Um einem Filter zu entkommen, in dem man sich verfangen hat, ist es selbstverständlich notwendig, die entsprechenden Gegenmaßnahmen zu ergreifen. Wer also z. B. vom Pinguin-Filter gegen übermäßiges SEO betroffen ist, muss zunächst u. a. alle schlechten Backlinks entfernen. Danach, so Sullivan, müsse man aber noch abwarten, bis ein Update dieses Filters eine Neuberechnung vornimmt. Erst dann könne es mit dem Ranking wieder nach oben gehen. Sullivan wies, wie viele andere Referenten, auch nochmals darauf hin, dass es sich bei solchen Filtern nicht um Strafen seitens Google handelt. Die Filter sollen bekanntlich die Suchergebnisse besser machen. Ein Filter-Update lässt Seiten wieder zu, die sich deutlich verbessert haben, erwischt aber im Gegenzug oft auch Dinge, die vorherige Filter noch nicht erfasst hatten. Es gäbe auch eine ganze Menge neuer Filter, die weder angekündigt noch kommentiert oder gar bemerkt würden.
„Some filters get tighter.“ – Danny Sullivan, SearchEngineLand
Sullivan gab in seiner Zusammenfassung den Hinweis, man solle für die Suchmaschinen mit seinen Inhalten praktisch unentbehrlich sein. Kann Google ohne meine Seiten leben bzw. auf das Listing meiner Seiten verzichten? Diese Frage solle man sich selbst immer wieder stellen. Wenn man das auch als eine typisch amerikanische Denkweise abtun möchte, so hat er im Kern mit dieser Aussage schon recht. Statt immer mehr Geld in den Aufbau von (künstlichen) Backlinks zu stecken, ist es durchaus keine schlechte Idee, zwischendrin auch in die Veredelung von Content zu investieren. Hier kommen am Ende genau die richtigen Links von allein – und dahin will ja auch Google: Erkennen, wo wirklich guter Content zu einer Anfrage vorhanden ist, und nicht, welcher künstlich hingepimpt wurde.
Auch Marcus Tober von Searchmetrics betonte, dass Updates keine Strafaktionen darstellen. Es sind grundsätzliche Verbesserungen am Algorithmus, die auch nicht mehr verschwinden, sondern immer weiter vervollkommnet und geschärft werden. Viele Webmaster machen den Fehler, nach der Behebung der vermeintlichen Ursachen bei einem neuen Filter/Update einen sog. Reconsideration Request bei Google zu stellen (einen Antrag auf Wiederaufnahme). Dies ist völlig nutzlos und zeigt, dass der Unterschied zwischen Update und manueller Strafe offenbar noch immer nicht richtig verstanden wurde. Ein solcher Antrag macht nämlich nur bei manuellen Strafen Sinn.
Exakte Domainnamen – das EMD-Update
Eigentlich hieß es bisher, das sog. EMD-Update vom Anfang letzten Jahres, das den bekannten positiven Effekt des Vorhandenseins eines Keywords im Domainnamen abschwächt, sei noch nicht in Deutschland angekommen. Tober zeigte anhand aktueller Studiendaten, die Searchmetrics durchgeführt, aber noch nicht publiziert hat, dass dies offenbar so nicht korrekt ist. Während die Existenz eines Keywords in der Domain im Jan./Feb. 2012 noch eine positive Korrelation von 0,12 aufwies, sei diese aktuell (Stand März 2013) auf 0,03 zurückgegangen, so Tober. Dies sei ein Hinweis auf die mittlerweile abgeschwächte Wirkung.
Charakteristiken des Pinguin-Updates
Dieses Update zielt vor allem auf schlechte Linkpower, schlechte Linkquellen und auf die Abwertung von Linkfarmen und Linknetzwerken ab. Laut Tober gibt es dabei nicht immer eine komplette Abwertung, sondern oft auch eine gezielte auf Keyword-Ebene. Nur wenn man wirklich in Summe zu viele schlechte Links hat, nimmt sichtbar die ganze Domain Schaden. Er zeigte anschließend, wie es z. B. check24.de oder wimdu.de geschafft hat, dem Pinguin-Filter wieder zu entkommen und am Ende besser als vor dem Update dazustehen. Man hat offenbar sehr konsequent schlechte Links ab- und im Gegenzug im gleichen Zeitraum gute Backlinks aufgebaut. Dies ist in der Regel auch notwendig, denn beim Wegnehmen von Links erwischt man nicht immer exakt die, welche Google nicht besonders gut findet. Jeder Link, den man entfernt, der von Google allerdings noch als tolerabel gezählt wird, verschlechtert natürlich das Ranking in Summe. Man kommt damit zwar ggf. aus dem Filter heraus, steht aber oft viel schwächer da. Gleichzeitig wurde laut Tobers Analyse jeweils darauf geachtet, dass die richtigen Ankertexte, vor allem eben der Domainname, für die neuen Links gesetzt wurden. Er zeigte auch einige Negativbeispiele, wo mittlerweile ein Totalabsturz der Domain zu sehen war. In der Tiefenanalyse war dann auch klar erkennbar, dass man fast nur (schlechte) Links abgebaut, dem aber im Gegenzug nichts nennenswert Neues gegenübergestellt hatte. Den einfachen und schnellen Weg aus einem Filter gibt es wohl nicht. Tober zeigte, dass es fast ein Jahr intensiven Arbeitens benötigte.
Empfehlungen gegen Panda
Regelmäßige Updates bei Panda, das sich stark auf besucherorientierte Signale stützt, sind mittlerweile Alltag bei Google. Bis zu 25 Iterationen gab es seit dem ersten Einschlag. Auch hier zeigte Tober positive und negative Beispiele. Seine Empfehlungen, um Panda zu entkommen: die Anzahl und Positionen von Werbeflächen vermindern, Premium Content publizieren, sich um die Stärkung der Marke bzw. des Domainnamens bemühen und vor allem den Besucher stärker im Fokus haben. Sehr wichtige Metriken sind hier die sog. „Time on Site“ (wie lange Besucher Zeit auf der Domain verbringen) und die Bounce-Rate (wie schnell kehren sie nach einem Klick zu den Google-Suchergebnissen zurück). Bei den Positivbeispielen konnten die Domainbetreiber hier sichtbar Boden gutmachen. Auch das Vorhalten von Videocontent kann nach Meinung Tobers helfen, die Time on Site zu erhöhen. Ein sehr gutes Signal erhält Google, wenn sich der Anzahl an wiederkehrenden Besuchern erhöht.
Obama vs. Romney – Big-Data-Marketing
Die Keynote von Julius van de Laar war nur mit den Worten „extrem beeindruckend“ zu beschreiben. Er hat Barack Obama im letzten Wahlkampf unterstützt und hat sehr plastisch erläutert, wie das verfügbare Budget von etwa einer Milliarde US-Dollar verwendet wurde. Hier wurde Online-Marketing par excellence betrieben und deutschen Datenschützern würden die Haare dabei wohl nicht nur zu Berge stehen, sie würden schlicht abbrechen oder ausgehen. Man bediente sich zunächst aus den amtlichen Wählerverzeichnissen, das Namen und Adressen aller Wähler in den USA enthält. Auf bisherige Wahlentscheidungen konnte man durch die gespeicherte Parteizugehörigkeit schließen, die in einigen Bundesstaaten Voraussetzung ist, um überhaupt wählen zu können. Der nächste Datenpool, der abgezapft wurde, waren alle verfügbaren sog. „Lifestyle-Data“. In den USA sind ja anders als bei uns viele Konsumentendaten käuflich erwerbbar – und da das dort schon immer so ist, regt sich auch niemand darüber auf. Die Adressen über Kauf- und Konsumverhalten konnten also abgeglichen und angereichert werden -–zum Teil bis auf Einkaufsbon-Ebene; van de Laar nannte hier die bekannten Zahlungssysteme als Datenlieferanten. Den dritten Datenpool stellten Social Media. Ganz Heerschaaren an Technikern und Analysten waren damit beschäftigt, diese drei Datenkategorien miteinander in einem großen (Wähler-)Datenwarenhaus zu verknüpfen. Hier hat man offenbar sehr tief nach den Microdata gegraben und alles an Links und Shares herausgezogen, was die Wähler im Web hinterlassen hatten. Der transparente Wähler war geboren.
89 Prozent aller Amerikaner, die auf Facebook sind, so van de Laar, sind mit jemandem befreundet, der Obama likt. Konsequenterweise hatte man die Website von Obama so gestaltet, dass man sich über Facebook registrieren musste. Die entsprechende App räumte sich dann u. a. auch gleich das Recht ein, auf die Pinwand der User posten zu dürfen (Post to Facebook as you) oder beliebig auf alle Daten der User zugreifen zu können (Access your date any time) – ein Traum für jeden Marketer. Fünf Mio. Facebook-User registrierten sich auf diese Art und Weise. Die Website von Obama setzte Trackingsoftware von 37 Anbietern ein – man wusste praktisch alles über Besucher – alles! So war man dann beispielsweise in der Lage, jedem der 16 Mio. E-Mail-Empfängern eine Mail zu schreiben, in der er jeweils sechs seiner Bekannten mit Bild (aus Facebook) sah mit dem Hinweis, diesen Freunden doch zu empfehlen, zur Wahl zu gehen. Selbstverständlich waren das nicht einfach nur die besten Freunde, sondern hier wurde über alle Daten hinweg gefiltert, bei welchem der Freunde dieser Aufruf am erfolgversprechendsten wäre und wer wahrscheinlich die Demokraten wählen würde. Hier wurde nichts dem Zufall überlassen.
Noch nicht einmal die Betrefftexte für die Mails überließ man dem Zufall. Mit 18.000 Mails wurde vorab in aufwendigen A/B-Tests ermittelt und hochgerechnet, welche der zwölf erdachten Betreffzeilen die höchste Spendensumme bringen würde. Während z. B. „Do this vor Michelle“ nur knapp über 714.000 US-Dollar einbrächte, würden sich mit dem Siegerbetreff „I will be outspend“ weit über 2,541 Mio. USD erzielen lassen, so die Vorhersage. Tatsächlich brachte dieser Betreff am Ende 2,673 Mio. USD ein. Das zeigt, a) wie genau solche Vorhersagen heute bereits gemacht werden können, wenn genügend Daten vorliegen, und, b) welche Welten zwischen einem schlechten Betreff (hier war es „The one thing the polls got right“ mit 404.000 USD) und der besten Variante liegen können. Nicht nur an dieser Stelle zeigte sich als Learning für die Anwesenden, was eine ordentliche Analyse im Online-Marketing gegenüber dem Bauchgefühl, dem viel zu oft vertraut wird, leisten kann. In insgesamt 240 A/B-Tests konnten die Conversion-Rates für Spenden um 49 Prozent gesteigert werden. Unter dem Strich konnte damals die Aufholjagd Romneys gestoppt werden. Der Rest ist Geschichte – und sicherlich ist der bis ins letzte Detail optimierte Einsatz der Methoden des Data-Minings und des Micro-Targetings – kurz, das Ziehen aller Online-Marketing-Register – nicht ganz unschuldig am Sieg Barack Obamas.
„Everyone has got a plan … until they get punched in the mouth.“ – Mike Tyson
AuthorRank = Wichtig!
Marcus Tandler (Tandler.Dierje.Partner) und Jake Hubert von Google hoben beide in einem Kombinationsvortrag die Wichtigkeit des Author-Tags hervor. Google+ ist nicht nur ein soziales Netzwerk, so Tandler, sondern es ermöglicht Google zu erkennen, wer Content im Web erstellt, wie vertrauenswürdig diese Person ist und welche Expertise sie für ein bestimmtes Fachgebiet hat. Die Verbindung eines Google+-Accounts mit Webseiten ist also weit mehr, als nur ein Bild neben den Suchergebnissen zu erhalten und damit die Klickrate zu erhöhen. Tandler ist der Meinung, dass „Engagement“ eine wichtige Metrik in Google+ darstellt.
Tandler stellte live auf der Konferenz den Start eines neuen Tools vor, das unter www.author-Rank.org für jedermann (allerdings mit eingeschränkten Daten) zur Verfügung steht und das neuer Bestandteil des SEO-Tools OnPage.org ist. Nach Eingabe eines Namen, einer Google+-ID oder einer Domain zeigt das Tool an, welche Aktivitäten mit dem Autor verbunden sind. Das Tool befindet sich noch im Beta-Stadium, zeigt aber schon recht gut, welche Informationen man daraus ziehen kann: Wie viele Facebook-Links, Re-Tweets und Google+-Buttons hat ein Autor im Schnitt auf jedem Post? Was waren die Posts/Beiträge, die am meisten weitergesagt wurden? Mit welchen Keywords rankt der Autor – domainübergreifend? Mit welchen Domains ist der Autor verbunden?
Tipps aus dem Herzen von Google
Ein weiteres Highlight der SMX waren die Vorträge von Johannes Müller (im Web bekannt als JohnMu). Er arbeitet bei Google in Zürich und hält intensiven Kontakt zu den europäischen Webmastern. Häufig wird er daher auch als das schweizerische Pendant zu Matt Cutts bezeichnet. Er gab viele direkte Einblicke, wie die Technik bei Google und vor allem das Crawling (das Auslesen von Seiten) intern arbeiten. Wenn es zu viele bekannte URLs gibt, die z. B. durch Duplicate Content oder falsche Konfigurationen entstehen können, werden die Suchergebnisse der betroffenen Domain u. U. nur langsamer aktualisiert. Eine zu niedrige Crawl-Rate kann ihre Ursache aber auch darin haben, dass in den Webmaster-Tools manuell ein falscher Wert eingestellt wurde (Müller empfiehlt, die Frequenz von Google automatisch bestimmen zu lassen) oder auch der Server bzw. das umgebende Netzwerk schlicht zu langsam ist. Wenn Google feststellt, dass z. B. die Reaktionszeit (nicht die Seitengeschwindigkeit) und/oder die Downloadgeschwindigkeit zu niedrig sind, wird automatisch langsamer gecrawlt – ebenso, wenn zu viele Server-Störungen (Error-Meldung 5xx) oder Verbindungsfehler auftreten. DNS-Fehler werden übrigens ebenfalls in den Webmaster-Tools ausgewiesen. Hier solle man regelmäßig nachsehen, empfahl Müller.
Probleme machen auch sog. „Infinite spaces“, also endlose URLs, wie sie z. B. Kalender-Skripte erzeugen, die immer weiter in die Zukunft „verlinken“ und dem Robot ungewollt künstlich ständig neue Seiten vorgaukeln, die niemals enden, aber auch „Soft 404“ (falsches Umleiten von Fehlerseiten z. B. auf die Startseite). Duplicate Content wird zwar seitens Google nicht „bestraft“, aber Müller gab den deutlichen Hinweis, dass diese Situation alles andere als optimal sei und man Abhilfe schaffen solle. „Vermeiden ist besser als lösen“, so sein Credo. Man solle 301-Redirects verwenden, im Webmaster-Tool das URL-Parameter-Handling richtig einstellen und mit dem rel=canonical-Tag arbeiten. Duplicate Content per robots.txt auszuschließen, davon riet Müller mit deutlichen Worten ab.
Mittlerweile bekommen Webmaster nach dem Einreichen eines Reconsideration Requests auch eine Mail, die über den Ausgang informiert. Dazu sollte man auf jeden Fall die E-Mail-Benachrichtigungen in den Webmaster-Tools aktivieren und den Benachrichtigungstyp auf „Alle Probleme“ stellen. Manuell verhängte Strafen laufen übrigens nach einem gewissen Zeitraum (Experten meinen, dies wäre in der Regel nach zwei Jahren der Fall) ganz automatisch ab. Darauf zu warten, empfahl Müller allerdings nicht. Man solle möglichst alle erkannten oder in einer Warnmail aufgeführten Probleme beheben, die Änderungen gut dokumentieren (Tipp: per Google Docs, dann lässt sich im späteren Antrag ein Link zur Freigabe an das Spamteam mitschicken) und erst dann einen Antrag auf Neubewertung stellen. Diese Anträge würden grundsätzlich von Mitarbeiten von Google bearbeitet und nicht von einer Maschine ausgewertet. Es würde reichen, so Jonas Weber (Webhelps!), der früher im Spamteam von Google gearbeitet hat, die Gründe zu beheben, die in der Warnmail aufgeführt wurden. Steht hier z. B., dass der Bot versteckten Text (Hidden Text) gefunden hat, muss dieser überall auf der Domain entfernt werden. Nach dem Einreichen der Neubeurteilung würde nur geprüft, ob die angemahnte Ursache nicht mehr vorhanden ist – nach weiteren Gründen (z. B. schlechten Links) würde in der Regel nicht recherchiert. Das „allgemeine Bild“ müsse wieder stimmen und gezogene Stichproben sollten o. k. sein, erklärte Müller.
Sollte als Grund angegeben sein, dass man ein verdächtiges Backlinkprofil habe, solle man sich bei der Analyse auf die Links beschränken, die in den Webmaster-Tools aufgeführt werden, rät Müller. Natürlich kann man auch SEO-Tools benutzen, um Backlinks herauszufinden, primär sollte man sich aber auf die Links konzentrieren, die Google dort (in den WMT) nennt. Als Reihenfolge empfiehlt Müller:
- Zweifelhafte Links entfernen (lassen) oder auf nofollow setzen.
- Nicht entfernbare Links über das Disavow-Tool unter einfach.st/disavow einreichen.
- Erst dann sollte ein Reconsideration Request gestellt werden.
Beim Einreichen von Linkadressen über das Disavow-Tool muss unbedingt die vorgeschriebene Syntax eingehalten werden, weil diese Meldungen automatisiert verarbeitet werden. Müller wies darauf hin, dass unklare Zeilen ignoriert würden, Kommentare werden ebenfalls nicht gelesen. Die gemeldeten Links würden dann ähnlich wie eine Auszeichnung mit rel=nofollow gewertet – allerdings erst beim nächsten Crawling, sodass hier etwas Zeit vergehen kann. Die Links bleiben weiterhin in den Webmaster-Tools sichtbar. Gab es ein Problem wegen einer algorithmischen Anpassung, müsse man auf das nächste Update warten.
Jonas Weber machte wie im Jahr zuvor noch einmal deutlich, dass es bei Google intern nur möglich sei, eine Seite heraufzustufen, ein Hochstufen sei nicht machbar. Anhand von Zahlenbeispielen verdeutlichte Weber, dass Google gar nicht anders könne, als möglichst viel für die Spamabwehr zu automatisieren. Ein einziger Hacker knackt nicht selten automatisiert bis zu 100 Domains pro Tag und lädt dort Schadsoftware oder versteckte Links hoch. Stellt man sich nur dies im weltweiten Maßstab vor, wird klar, dass hier nur die Automatisierung bleibt. Auch Weber zeigte einige Beispiele, bei denen es gelungen war, eine Domain aus einen Filter zurück zu guten Rankings zu bringen. Aber auch hier wurde mehr als deutlich, dass es keinen einfachen Schalter oder ein Tool gibt, das dies in kürzester Zeit erledigt. In der Regel steckt hier sehr viel manuelle Fleißarbeit dahinter.
Die Keynote von Will Reynolds „2013 – das Jahr, in dem die Suchmaschinen uns zu wahren Marketing-Profis machten!“ war sehr erfrischend. Seine provokante These: „Das Internet hasst uns (die Suchmaschinenoptimierer).“ SEOs spammen das Internet zu mit belanglosen Websites. Mit stupiden Seiten, die keinen echten Wert bieten. Damit beschrieb er eine noch immer vorhandene Lücke beim Online-Marketing. Richtige Marketingprofis wüssten, was die Konsumenten wollen. Bei SEO-getriebenen Projekten gehe es (natürlich) primär um gutes Ranking – ob und im welchem Maß die gefundenen Seiten wirklich nützlich für die Besucher seien, das sei meist eher zweitrangig. „Add value!“ (füge Wert hinzu), rief Reynolds immer und immer wieder sehr engagiert und mit augenscheinlich viel Herzblut. Mit seinem Beispiel „lightning inspiration“ zeigte er neben anderem, worauf er im Kern abzielte.
Er zeigte Webseiten, die für diesen Begriff ranken, bzw. die Bilder, die auf diesen Webseiten zu sehen waren. Im Prinzip war alles langweiliges Bildeinerlei, das mit einer Inspirationen durch Lichtquellen herzlich wenig zu tun hatte. Anschließend rief er die Bildersuche bei Google auf und jedermann war klar, dass man allein hier sehr viel mehr Ideen für kreative Lichtlösungen bekommt, als auf allen vorher gezeigten rankenden Webseiten. Einen näheren Blick für eher marketingorientierte SEOs, die nicht programmieren können oder wollen, ist sicherlich seine „Seer´s SEO Toolbox“ unter www.seerinteractive.com/seo-toolbox wert. Dort warten Spreadsheets zum freien Kopieren inklusive guter Anleitungen (englisch) darauf, benutzt zu werden.
Fazit
Die SMX kann erneut rundherum als eine gelungene Konferenz bezeichnet werden und hat zu Recht den Anspruch darauf, eine Leitmesse für Search in Deutschland zu sein. International namhafte Speaker und auch viele deutsche Experten gaben einen tiefen Einblick in das, was sich aktuell tut und was man als Online-Marketer erwarten kann und muss. Im nächsten Jahr wird die SMX etwas früher am 25.-26. März stattfinden und – so viel hat die Veranstalterin Sandra Finlay verraten – dann wird der weltweit bekannte Rand Fishkin mit einer Keynote dabei sein. Bis Oktober gilt übrigens ein neuer „Super-Frühbucherrabatt“, mit dem Festentschlossene deutlich sparen können.