Am 4. und 5. April fand in München wieder die SMX – Search Marketing Expo – und parallel dazu die eMetrix statt. Beide Konferenzen glänzten erneut mit namhaften Referenten und einem ausgewogenen Programm. Wie immer nahmen auch die Diskussionmöglichkeiten mit international renommierten SEO-, SEA- und Social-Media-Experten einen großen Raum ein. Auch die Vorträge einiger Mitarbeiter von Google und Bing halfen, etwas mehr Licht in die Sichtweise der Suchmaschinenbetreiber zu bringen und Einzelfragen direkt an den Mann oder die Frau zu bringen. Website Boosting fasst für Sie die Kernthemen und Highlights zusammen.
Branchentreffen
Über 800 Teilnehmer waren laut der Veranstalterin Rising Media, vertreten von Sandra Finlay, zur SMX nach München gekommen, die eMetrics hatte über 170 Teilnehmer – in beiden Fällen eine deutliche Steigerung gegenüber dem Vorjahr. So zeigte sich Finlay sehr zufrieden mit dem Erfolg der Konferenz und wies darauf hin, dass wohl auch immer mehr Inhouse-Online-Marketers und -SEOs die Bedeutung des fachlichen Austausches außer Haus erkannt haben und in steigendem Anteil vertreten sind.
Eines der großen Highlihts der SMX war sicherlich wieder der Keynotevortrag von Rand Fishkin. Er ist Gründer von SEOmoz und stellte eine Studie vor, in der die Korrelation von Rankingfaktoren für Google mit über 10.000 Keywords für den US-Markt ermittelt wurde. Gleichzeitig wurden 132 SEO-Experten zu ihrer Einschätzung befragt. Rand Fishin wies gleich zu Anfang darauf hin, dass eine Korrelation von Faktoren nicht automatisch bedeutet, dass diese auch tatsächlich zwangsläufig ein Rankingfaktor sein müssen. Folgendes Beispiel mag das verdeutlichen: Man kann beobachten, dass die Straße nass ist, wenn es regnet. Eine nasse Straße wiederum bedeutet nicht zwangsläufig, dass es auch regnet, da es natürlich mehrere Ursachen für Wasser auf einer Straße geben kann.
Rand Fishkin zeigte, dass sich von 2009 bis 2011 die Rankingfaktoren von Google aller Wahrscheinlichkeit nach deutlich verschoben haben (vgl. Abbildung 1). Er wies u. a. darauf hin, dass es wohl besser ist, nicht immer mit dem exakten Keyword auf einem Link zu arbeiten; es wäre richtiger, wenn das Keyword variierend und in sinnvollen Kombinationen auch mit anderen Begriffe im Linktext vorkäme. Die Bedeutung von Ankertexten auf internen Links hat seiner Meinung nach abgenommen. Da dies für einen Webmaster relativ leicht zu beeinflussen ist, klingt es auch sehr plausibel. Insgesamt steigt seiner Meinung nach die Bedeutung der Domain gegenüber einzelnen Seitenfaktoren. Wahrscheinlich spielen hier mittlerweile die für die Domain ermittelten „Trust“-Faktoren eine immer größere Rolle auch für das Ranking einzelner Unterseiten. In seiner Studie konnte er allerdings keinen erkennbaren Unterschied zwischen sog. Follow- und Nofollow-Links feststellen. In jedem Fall blieb als Kondensat die Erkenntnis, dass für ein gutes Ranking immer auch ein gewisser Anteil an Nofollow-Links vorhanden sein sollte, damit das für die maschinelle Bewertung von Google auch „natürlich“ aussieht. Die höchste negative Korrelation, die ingesamt feststellbar war, fand Fishkin nämlich bei Domains, die ausschließlich Follow-Links auf sich vereinen. Das Fehlen von Nofollow-Links scheint einer Domain also tatsächlich zu schaden. Auf diesen wichtigen Umstand hatten wir ja bereits in der ersten Ausgabe von Website Boosting im Beitrag über den optimalen Linkaufbau (Augabe 5–6/2010) eindringlich hingewiesen. Fishkin konnte weiterhin feststellen, dass das Vorhandensein von Adsense-Anzeigen auf Webseiten das Ranking nicht positiv beeinflusst. Im Gegenteil bemerkte er eine negative Korrelation, d. h., Seiten mit Adsense-Anzeigen ranken laut seinen Ergebnissen sogar etwas schlechter. Es sei nochmal zur Vermeidung von Missverständnissen darauf hingewiesen, dass diese Beobachtung durchaus auch andere Ursachen haben kann. Es hat sich ebenso herausgestellt, dass Seiten, die zu Google linken, in der Tendenz schlechter ranken also solche, die zu Microsoft verlinken. Da dies wahrscheinlich kein vernünftig denkbarer Rankingfaktor ist, wird an dieser Stelle überdeutlich, dass hier mit Sicherheit andere Dinge ursächlich sind. Es wäre z. B. möglich, dass Suchmaschinenoptimierer der Meinung sind, ab und zu ein Link zu Google wäre gut für das Ranking. Und gerade diese mit gesundem Halbwissen optimierten Seiten tappen dann oft eben in andere Filter. Ein ähnlicher Grund könnte ebenfalls bei der festgestellten negativen Korrelation mit eingebauten Adsense-Anzeigen vorliegen.
Fishkin konnte weiterhin feststellen, dass Seiten, die viele Facebook „Shares“ haben, eine sehr hohe Korrelation mit gutem Ranking haben, ebenso scheint sich die Summe dieser „Shares“, zusammen mit der Summe der „Likes“ und Kommentare, positiv auszuwirken. Rein rechnerisch lag die Bedeutung dieser Faktoren sogar noch über der für sehr wichtig erachteten IP-C-Class-Linkpopularität (wie viele Links von unterschiedlichen IP-C-Class-Netzen kommen). Im Gegensatz dazu sollte man zu lange Title-Bezeichnungen und zu lange URL vermeiden, denn solche Seiten ranken nach wie vor schlechter, so Fishkin. Er befragte sein Expertenpanel auch, wie sie die Bedeutung einiger Faktoren für die Zukunft einschätzen. Hier gehen die meisten davon aus, dass die Bedeutung sog. Keyword-Domains stark zurückgehen wird, ebenso die Hebelkraft gekaufter Links. Stark zunehmen wird nach Einschätzung der Experten wohl die Bedeutung von „Social Signals“ auf Seiten- und Domainebene und ebenso, ob und wie stark die einzelnen User über solche Netzwerke miteinander verbunden sind. Wer also in sozialen Netzwerken wie bspw. Twitter, Facebook oder Google Buzz eine hohe Reichweite aufgebaut hat, beeinflusst wohl zukünftig stärker die Rankings als virtuelle Eigenbrötler, die nur wenige von Maschinen (!) erkennbare Freunde haben. Hier dürften wohl vor allem Unternehmen Aufholbedarf haben, die soziale Netzwerke bisher nur als reine Werbe- und Abverkaufsplattform sehen. Pressemeldungs-Twitterer mögen erfahrungsgemäß nur wenige. Die Studienergebnisse von Rand Fishkin sind unter einfach.st/randsmx als Foliensatz abrufbar. Ein intensiver Blick in die weiteren Details seiner Auswertung lohnt sicherlich auf jeden Fall.
Das zweite Highlight war laut Feedback der Teilnehmer an die Veranstalterin der Vortrag von Tim Sebastian, der sehr detailiert und ausführlich zeigte, was man mit den Schnittstellen von Facebook prinzipiell alles tun kann. Mittels dieser recht offenen und kommunikationsfreudigen Zugänge zum größten sozialen Netzwerk ist es prinzipiell möglich, einzelne User auf den eigenen Webseiten zu identifizieren. Sebastian ging noch einen Schritt weiter und erkärte, dass es mit genügend Wissen und etwas kreativer Programmierarbeit sogar möglich ist, diejenigen User herauszufiltern, deren Account bei Facebook ein „hohes Gewicht“ hat und die bestimmte Webseiten (z. B. die eigenen) nennen und somit für eine höhere Bekanntheit sorgen. Über Tricks ließe sich damit z. B. dem einen Besucher der eigenen Site in Echtzeit ein Gutschein oder ein anderes attraktives Angebot unterbreiten, um ihn noch stärker zu binden oder für die Marke zu motivieren, während normale Besucher dieses Angebot nicht bekommen. Im Prinzip bedeutet dies nichts anderes, als z. B. die 5 % der einflussreichsten Besucher auf der eigenen Website bereits beim Betreten derselben zu identifizieren. Den Datenschützern müssten hier eigentlich die Nackenhaare einfrieren – daher wies Tim Sebastian auch eindringlich darauf hin, dass jedwede Aktivität in dieser Richtung jedenfalls juristisch sauber abgeklärt werden muss und geltendes Recht in den jeweiligen Ländern sich durchaus zum Teil drastisch unterscheidet. In Deutschland wären sicherlicher die meisten dieser Maßnahmen zutiefst illegal, weswegen wir auch an dieser Stelle auf detaillierte Beschreibungen verzichten. Dass solche Lücken bei Facebook dennoch auch hier in Deutschland genutzt werden, davon muss man wohl aller Wahrscheinlichkeit nach ausgehen. Einen nur sehr kleinen Eindruck von den Möglichkeiten des Datenabzugs kann jeder Leser mit der folgenden Abfrage selbst bekommen:
graph.facebook.comDer.Facebook.Benutzername&metadata=1
„Der.Facebook.Benutzername“ wird dabei einfach gegen den eigenen oder einen anderen bekannten Benutzernamen getauscht. Man erhält mit dieser Abfrage die Facebook-ID (die für weitere Aktionen recht nützlich ist), das Geschlecht und das Land des Users, alle seine URL in Facebook und mit welchen Variablen welche Daten prinzipiell abgefragt werden können. Ersetzt man „&metadata=1“ durch /posts, also
graph.facebook.comDer.Facebook.Benutzername/posts
erhält man alle Postings des Users, aber eben auch, wer diese „geliked“ hat und wie dessen Facebook-ID lautet. All diese Daten sind völlig frei für jedermann im Web abrufbar. Ein wahres Eldorado für Datensammler.
Ebenso einfach sind über die API von Facbook und eine spezielle Suchabfrage über angehängte Parameter für eine URL die Anzahl der „Shares“ (share_count), der „Likes“ (like_count), die Kommentaranzahl (comment_count) und die Summe über alles (total_count) auslesbar. Anhand der Verhältnisse dieser Zahlen kann man mit etwas Erfahrung gefakte Accounts erkennen oder auch in Kombination mit anderen Daten auf den „Reach“ eines Facebook-Nutzers schließen.
Über das „neue Suchuniversum“ Google, Microsoft, Facebook, Apple & Co. diskutierten Rand Fishkin, Stefan Weitz von Bing, Niels Dörje von Tandler.Doerje.Partner und Maile Ohye von Google. John Müller (in den Google-Foren besser bekannt als „JohnMu“) zeigte die vielfältigen Möglichkeiten von HTML 5 und machte mit vielen Beispielen plastisch, dass die Bots von Suchmaschinen damit in der Regel besser zurechtkommen als mit Flash oder anderen, maschinell schwer auswertbaren Formaten.
Die konsequente Weigerung von Apple, auf dem iPad Flash zu unterstützen, führt mittlerweile dazu, dass gerade die Websiten der größeren Unternehmen praktisch auf diesen Geräten nicht mehr nutzbar sind – und das von einer durchaus interessanten Zielgruppe. Auch dies wird möglicherweise dazu führen, dass die Tage von Flash im Web gezählt sind. In HTML 5 haben Programmierer laut Müller endlich eine vernünftige Möglichkeit an der Hand, einzelne Seiteninhalte oder -objekte per Hijax interaktiv zu tauschen und den Bots der Suchmaschinen trotzdem strukturierte Inhalte und URL zu bieten. Problematisch dabei ist allerdings wohl noch, dass der Internetexplorer im Gegensatz zu den anderen Browsern erst ab der Version 10 mit HTML 5 etwas anfangen kann. Hierzu gibt es aber – so Müller – gute Libraries im Netz, mit denen man dies gut abfangen könnte. Weitere Pluspunkte wären, dass die HTML-5-Seiten, sofern der Nutzer dies erlaubt, auch auf die Geolocation, also den aktuellen Standort des Besuchers, zugreifen können. Dies war vorher nur recht aufwendig und langsam über IP-Datenbanken realisierbar. Laut John Müller ist diese Art der Lokalisierung deutlich genauer und funktioniert vor allem auch auf mobilen Geräten. Ein weiterer Vorteil liegt bei HTML 5 darin, Schriftarten per CSS einbinden zu können. Damit müssen die Hüter von CI-konformen Schriftarten nicht mehr auf das Erstellen von gif-Dateien mit „fotografierter“ Schrift zurückgreifen und die Bots der Suchmaschinen können endlich auch diesen oft wichtigen Text lesen und vernünftig indizieren. Johannes Beus von Sistrix wies noch auf den Umstand hin, dass es mit HTML 5 möglich ist, lokalen Speicher auf dem Rechner des Besuchers zu verwenden. Damit werden nicht nur richtige Anwendungen im Browser möglich, sondern man kann Ergebnisse lokal ablegen und sie offline lesen und/oder bearbeiten. Im Hinblick auf die steigende Verbreitung mobiler Endgeräte, die aber ja eben nicht immer online sein können, ist das ein nicht zu unterschätzender Vorteil für First-Mover bei den Seitenbeitreibern. Auch die neuen Tags wie z. B. <nav> und <artikel>, welche die div-Container ablösen, sind laut Beus für die inhaltliche Erkennung einer Seitenstrukturierung (Was ist Navigation, Fuß- oder Contentbereich?) durch Suchmaschinenbots sehr förderlich. Beus wies weiter darauf hin, dass Seiten mit HTML 5 in der Regel deutlich schneller übertragen und aufgebaut werden. Da Geschwindigkeit mittlerweile sowohl im organischen als auch im Bezahlbereich der Suchergebnisse ein Rankingfaktor ist, könnte eine Umstellung wohl durchaus auch die Rankings positiv beeinflussen. Das Fazit von Müller und Beus war, dass man wegen HTML 5 nicht unbedingt in Umstellungspanik verfallen müsse, aber bei neuen Projekten die Verwendung durchaus ernsthaft in Betracht ziehen sollte.
Gegen Ende des ersten Tages ging dann Markus Tandler (Mediadonis) das erste Mal seit einem Jahr wieder international und live von der SMX mit „Webmasters on the Roof All-Star Panel“ auf Sendung. Mit dabei waren Rand Fishin, Niels Doerje, Mikkel deMib Svendsen von deMib.com, Johannes Beus, Bob Rains, Ralf Götz (besser bekannt als Fridaynite und Mitgründer der Webmasters on the Roof) und Mario Fischer.
Der Podcast der fast zweistündigen Sendung ist auf Webmaster Radio unter einfach.st/wotrsmx abrufbar, ebenso der Podcast aus dem letzten Jahr, der ebenfalls live von der SMX 2010 gestreamt wurde.
Sowohl die beeindruckende Anzahl an Besuchern als auch die zum Teil weltweit eingeflogenen Experten und nicht zuletzt die perfekte Organisation lassen SMX mittlerweile als Leitkonferenz für Search Marketing in Deutschland erscheinen. Gerade auch der einfache und unkomplizierte Kontakt zueinander wurde von vielen Teilnehmern geschätzt. Und auf der fast schon legendären Konferenzparty, der „SMX-Bash“ am Dienstagabend im Münchener In-Lokal „Vice“ gab es die Möglichkeit, den einen oder anderen dieser Kontakte noch weit bis in die Morgenstunden hinein zu intensivieren.