Wahrscheinlich ist nicht ein einziger Leser der Website Boosting ohne Facebook-Profil und wohl kaum ein Websitebesitzer ohne Twitter-Account. Die Zahlen und Wachstumsraten der aktuellen sozialen Netzwerke steigen – parallel zum erwarteten Börsenwert – in den Himmel und fast scheint es nur eine Frage der Zeit, bis Google das AOL und Facebook das Google dieses Jahrzehnts werden könnte. Grund genug für den SEO-Spezialisten Christoph Bursek, sich einmal intensiv um ein paar wirklich messbare Faktoren zu kümmern und daraus ein paar Schlüsse für den richtigen Social-Media-Energieeinsatz zu ziehen.
Wie sozial sind Googles Suchergebnisse?
Vielleicht hat die Gemeinde der Website Booster ja einen ungewollt voreingenommenen Blick, wenn es um die Frage geht, wie stark der Social Graph bereits das Ranking ihrer Ergebnisse beeinflusst? Manchen scheint der Einsatz von Social Media on- und offpage zur erfolgreichen Reichweitenstrategie 2011 unvermeidbar. Auf der anderen Seite jedoch sind Fragen nach Sinn und Sinnhaftigkeit großer Social-Media-Bemühungen fast so präsent wie die Twitter-Updates von Lady Gaga oder Justin Bieber. Was ist dran an dem Hype?
Wie wir vorgegangen sind
Zunächst mussten wir eine Auswahl „erfolgreicher“ URLs finden. Dabei halfen uns die fleißigen Hände beim Suchmaschinen-Analytics-Experten Sistrix. Ausgestattet mit 150.000 URLs von aktuellen Top-10-Ergebnissen einer zufälligen Keyword-Auswahl haben wir den Crawler gefüttert. Folgende Frage wollen wir beantworten: Bedingen sich Google-Erfolg und der Einsatz von Social-Buttons, -Widgets, Like-Links etc. bereits heute? Oder wird das Thema Social in Deutschland derzeit überschätzt und muss sich erst noch entwickeln?
Dabei ist uns natürlich klar, dass das bloße Einbauen von Share-Möglichkeiten keine Top-10-Position erzwingen kann. Jedoch möchten wir gern herausfinden, wie stark erfolgreiche Suchergebnisse das Thema Social bereits aufgegriffen haben und ihren Nutzern das Teilen und Weiterempfehlen ihrer Inhalte vereinfachen.
Die Schlacht, die dieses Jahr geschlagen wird, wird wohl zwischen Facebook und Google ausgetragen werden.
Die nackten Zahlen – eine Übersicht
Die 150.000 Suchergebnisse verteilen sich auf knapp 48.400 unterschiedliche Domains. Statistisch also gut 3 Seiten pro Domain ranken in unserem Keyword-Set in den Top 10. Natürlich ist die Verteilung jedoch etwas komplizierter, da Erfolgsdomains wie Wikipedia, Amazon, Ebay und Idealo gleich mehrere Tausend Treffer in unserem Sample hatten. In den üblichen Suchtreffern ist dieses jedoch eine normale Verteilung, sodass das häufige Auftreten von großen Domains einfach anerkannt werden muss.
Die meisten Domains haben weniger als zehn Ergebnisse in unserem Top-10-Sample. Der erste Blick geht gespannt auf die Anzahl der Suchergebnisse, die einen Facebook-Like-Button eingebaut haben. Sollte hier schon klar erkennbar sein, dass der Einsatz von Onpage Social Media ein wichtiger Punkt für eine erfolgreiche Website ist? Doch wir waren überrascht. Nur knapp 3 % der Landingpages haben den entsprechenden Code zum direkten „Like“ im HTML eingebaut. Das ist ziemlich ernüchternd. Werde ich denn wenigstens per se besser gerankt, wenn ich dieses Script eingebaut habe? Dazu haben wir uns noch mal ein entsprechendes Sample an URLs angesehen, die zu zufälligen Suchbegriffen auf den Plätzen 91–100 waren – also wirklich schlecht gerankt sind. Hier waren es sogar gut 4 % der Landingpages, die einen Like-Button benutzten. Die Unterschiede sind so minimal, dass nicht abgeleitet werden kann, ob der Einsatz von Like-Buttons in der SEO-Strategie automatisch hilfreich ist. Ähnliche Zahlen haben wir auch bei der Auswertung des Facebook-Share-Buttons gefunden. Während in den Top-10-Ergebnissen nur 4,2 % der gelisteten Seiten einen Share-Button eingebunden haben, waren es bei den Plätzen 91–100 immerhin 5,35 %. Auch hier leicht mehr – jedoch nicht genug, um eine wirklich valide und einleuchtende Regel abzuleiten.
Doch vielleicht ist Share und Like einfach nicht social genug? Es gibt ja auch noch den nächsten Schritt – das Facebook Connect Script. Mit diesem Javascript kann Facebook tief in die eigene Seite integriert werden. Aber auch hier sind es nur 0,6 % der Top-10-Ergebnisse und immerhin 1 % der 10. Suchergebnisseite, die dieses Scriptwerk eingebaut haben.
Obwohl sich die Auswertung auf Facebook konzentiert, haben wir natürlich auch Zahlen erhoben, wie häufig ein Tweet-Script/Button eingebaut wurde, um direkt aus der Seite eine Twitter-Nachricht abzusetzen. Hier sind immerhin fast 5 % der Seite-1-Ergebnisse mit diesem Script ausgestattet und noch 4,2 % der Plätze 91–100 aus unserem Sample.
Was fällt auf?
Dafür, dass Infografiken, Nachrichten und der eigene Facebook-Account uns täglich suggerieren, ohne das soziale Netzwerk Facebook gehe im Internet eigentlich nichts mehr, ist die Akzeptanz der entsprechenden Buttons und Widgets bei deutschen Webmastern kleiner und großer Seiten noch nicht wirklich durchgedrungen. Eine Umfrage unter den Lesern würde hier sicher andere Werte bringen – jedoch besteht unser Internet eben aus sehr vielen Seiten und Domains.
Eine weitere Überlegung war es, ob die Verwendung von Likes, Shares wenigstens Einfluss auf die Sistrix-Sichtbarkeit hat. Dazu haben wir verschiedene Mittelwerte und Durchschnitte gebildet, die jedoch lustigerweise genau das Gegenteil aussagen. Der Mittelwert von Domains, die einen Like-Button einsetzen, ist deutlich geringer als derjenige von Domains, die keinen Like-Button verwenden. Dies liegt daran, dass Google-Riesen wie Wikipedia, Amazon, Ebay, Idealo, Gutefrage und viele weitere auf den gerankten Seiten (noch?) keine Like-Möglichkeit anbieten. Die größten Portale nach Sistrix-Sichtbarkeit mit Like-Buttons sind momentan Welt.de Quoka, Immowelt und Freeware.de.
„Ein klar messbarer Vorteil durch die starke Verwendung von Shareability ist nicht erkennbar.“
Wie man die Sache und die Zahlen momentan auch dreht: Ein klar messbarer Vorteil durch die starke Verwendung von Shareability ist nicht erkennbar. Nur gut 200 der über 48.000 Domains in unserer Erhebung setzen sowohl einen Like-Button als auch einen Facebook-Share-Button ein – geben sich also extreme Mühe, möglichst viel Social Activity bei Nutzern auszulösen.
Dass die Zahlen in allen gesichteten Metriken so gering ausfallen, hat uns überrascht.
Was lässt sich daraus lernen?
Die Entwicklung des Internets ist aus dem Netzwerkgedanken heraus entstanden. Inzwischen gibt es unendlich viele Verlinkungen, Knoten und auch Inhalte. Daher kann eine Bewertung nach Relevanz dauerhaft nicht mehr nur auf der Anzahl oder Qualität eingehender Links beruhen. Dafür scheint das Verlinken in den letzten Jahren vielleicht auch zu beeinflussbar geworden zu sein. Es gibt heutzutage aktuellere und auch vertrauenswürdigere Möglichkeiten, eine Empfehlung einzuschätzen. In meinem Facebook-Profil kann ich einen Link eben nicht so einfach am Seitenende, im unsichtbaren Bereich oder kaum lesbar hinterlegen. Jedes Status-Update wird voll und komplett sichtbar und wenn ich einen Link mit meinen Freunden teile, dann muss dieser Link für mich oder meine Freunde sehr relevant, aktuell und spannend sein. Seit dem Caffeine-Update 2010 kann Google neue Inhalte schneller in seinen Index einsortieren als jemals zuvor. Parallel dazu muss aber auch die Relevanz eines neuen Inhalts schnell und zuverlässig ermittelt werden. Hinzu kommt, dass die Halbwertzeit von Inhalten immer drastischer sinkt. Google kann sich also gar nicht mehr nur auf seine bisherigen Rankingkriterien verlassen. Gerade bei neuen und frischen Inhalten ist der Social Buzz wichtig und gibt Google in der internen Verarbeitung ein wichtiges Signal zum Einsortieren in die Ergebnisreihenfolge. Dies muss und wird immer wichtiger werden. Im Grunde ideal – nehmen wir doch mit unseren Retweets, Shares, Likes und Empfehlungen Google eine Menge Redakteursarbeit ab und entwickeln die Google-Ergebnisse in den kommenden Jahren zu einem sozionischen System aus hart messbaren Qualitätsfaktoren und den Empfehlungen der Peergroup einer Thematik.
In keiner Konstellation fallen Umstände ein, dass der Einsatz von Social-Funktionen zu einem Nachteil in der Reichweite führt. Bei momentan fast 15.000.000 aktiven deutschen Facebook-Mitgliedern und einem deutschen Universum aus gut 51.000.000 Internetnutzern ist bald jeder dritte Deutsche im Internet auch (dauereingeloggtes) Facebook-Mitglied. Als Webseitenbetreiber sollte ich es meinen Benutzern so einfach wie möglich machen, meine Inhalte zu teilen, zu empfehlen und in großen Netzwerken darüber zu diskutieren.
Eine getwitterte URL wird bereits nach wenigen Sekunden vom Googlebot besucht!
Unser Test zur Indexierung im letzten Jahr hat ergeben, dass eine getwitterte URL bereits nach wenigen Sekunden vom Googlebot besucht wurde und bereits nach wenigen Minuten zu einzelnen Stichwörtern aus dem Tweet rankte. Das ist natürlich keine Möglichkeit, um zu umkämpften Begriffen dauerhaft eine Seite-1-Position zu erarbeiten. Jedoch kann man sagen: Je früher ich im Index bin, umso schneller kann ich Links, Likes, Empfehlungen und Shares sammeln.
Der schlaue Einsatz von Social-Media-Funktionen auf der eigenen Seite und die richtige Strategie zur (Firmen- und Marken-)Zielerreichung sind mit die interessantesten und wichtigsten Entwicklungsthemen für das aktuelle Jahr. Der messbare Erfolg dieser Mittel wird in 12 Monaten deutlich sichtbar in den Suchergebnissen zu finden sein. Schlau, wenn hier auf der eigenen Seite rechtzeitig die Weichen gestellt wurden.
Inzwischen im Datenschutz-Lager …
Natürlich sollte man als aufmerksamer Online-Marketer die Augen immer auch nach Dingen offenhalten, die um das eigene Arbeitsumfeld liegen. Nach kürzlichen Meldungen über den Abbruch der Verhandlungen zwischen Google und deutschen Datenschützern schlugen die Wellen sofort wieder hoch. Grundsatzdiskussionen über IPs, Recht und Ordnung und die Kompatibilität eines Johannes Caspar und des auf IP-Datentransfer basierenden WWW bekamen neuen Treibstoff. Die Kritik um die Datenschutzbestimmungen bei Facebook, die Diskussionen um Abhängigkeit durch die Verwendung des Like-Buttons und dessen Legalität sind nur weiteres Öl im Feuer. Inzwischen hat Google an diversen Stellen bekräftigt, dass Google Analytics dem Datenschutzrecht in der EU entspricht. Auch Caspar soll sich kurz nach Veröffentlichung der Presseartikel beeilt haben, den Kontakt zu Google nicht abbrechen zu lassen. Die Unsicherheit bei deutschen Websitebetreibern bleibt jedoch. Nach Durchsicht der 150.000 Suchergebnisse kann festgestellt werden, dass im Januar 2011 36,7 % der Top-10-Landingpages einen Google-Analytics-Code eingebaut haben. Wenn Sie also zu diesem guten Drittel gehören, kann Ihnen vielleicht heute niemand garantieren, dass das letzte Wort zu Google Analytics (und den vielen anderen Diensten, bei denen ähnliche Bedingungen vorliegen) bereits gesprochen ist, aber dass Sie in sehr großer und auch guter Gesellschaft sind. Und wie heißt es so schön? Gemeinsam sind wir stark. Erfolgreiches (soziales) Netzwerken 2011!