152 Vorträge – das dürfte ein neuer Rekord in der deutschen Konferenzlandschaft sein. Auf der diesjährigen SEOCampixx in Berlin hatten die über 500 Teilnehmer die Qual der Wahl, welche der teilweise 14 gleichzeitigen Sessions man denn besuchen sollte. Der Veranstalter Marco Janck hatte wieder weder Kosten noch Mühen gescheut, damit man es sich in Berlin am Müggelsee nicht nur fachlich bequem machen konnte. Wir haben einige Highlights für alle diejenigen zusammengestellt, die keine Tickets für die innerhalb von Minuten ausverkaufte Unkonferenz ergattern konnten.
SEO-Klassentreffen am Müggelsee
Die SEOCampixx ist für Suchmaschinenoptimierer eigentlich fast eine Pflichtveranstaltung. Nirgends sind so viele Gleichgesinnte anzutreffen und nirgends gibt es so einen konzentrierten Themenfokus. Vor allem das Networking ist dem Vernehmen nach einzigartig. Es sind (zumindest nicht sichtbar) keine potenziellen Kunden dort, wie das auf anderen Konferenzen ja oft der Fall ist – also muss niemand beeindruckt werden und Vorträge müssen keine werblichen Marketingsprüche enthalten. Man kann offen miteinander sprechen und die eine oder andere Erfahrung austauschen oder gute Tipps mit nach Hause nehmen. Selbstverständlich ist es unmöglich, diese Themenvielfalt hier auch nur annähernd wiederzugeben. Nachfolgend finden Sie daher eine Auswahl an Inhalten, die wir subjektiv spannend fanden und Ihnen keinesfalls vorenthalten wollten.
Pinguine spülen die Gehirne der SEOs
In seiner begrüßenden Ansprache als Veranstalter ging Marco Janck darauf ein, dass vor allem das Pinguin-Update von Google eine Veränderung in der Branche bewirke. Seiner Meinung nach sieht die Zukunft der Suchmaschinenoptimierung weiterhin gut aus. Egal wie der technische Aspekt sich entwickeln wird, es wird nach Jancks Ansicht auch immer um das Motivieren und Emotionalisieren von Menschen und um die verstärkte Vermittlung zwischen online und offline gehen. Im Gegensatz zum Offline-Marketing gibt es in der SEO-Szene einen regen fachlichen Austausch und das ist gut und notwendig so.
Die interne Verlinkung
Kai Spriesterbach und Thomas Zeithaml zeigten in einem recht ambitionierten Vortrag, welche (hohe) Bedeutung die noch immer unterschätzte interne Verlinkung hat. Die wichtigsten Tipps der beiden waren u. a., die Anzahl der Links kritisch zu hinterfragen und alle eigentlich unnötigen Links zu entfernen. Wenn man verlinkt, dann gezielt und mit Bedacht. Was eigentlich logisch klingt, wenn man es erst einmal auf das kurze Gras gezogen hat, wird noch immer von vielen Hobby-SEOs praktiziert: Möglichst viele Links zu möglichst vielen internen Seiten setzen. Doch dies ist genau der falsche Weg, so die beiden Referenten. Ankertexte wie „hier klicken“, „weiter“ oder „mehr lesen“ machen beim Setzen wenig Mühe, erschweren aber den Suchmaschinen das Erkennen der Hauptthemen der verlinkten Seiten.
„Wenn man intern verlinkt, dann gezielt!“
Auf wichtige Seiten solle man ggf. zugunsten von weniger wichtigen Seiten öfter verlinken. Kai Spriesterbach zeigte am Beispiel der Ratgebersite „jameda“, wie man die Breadcrumb und die interne Navigation gezielt für SEO-Zwecke einsetzen kann.
Fazit: Ein Hauptthema pro Seite, dieses Thema gezielt möglichst nur einmal innerhalb einer Site verwenden und alle eingehenden Links auf diese Seite mit dem thematisch passenden Ankertext (der Text auf dem Link) versehen. Diese Ankertexte sollten auf keine anderen Seiten zeigen, weil das die Themenschärfe aus Sicht der Suchmaschinen wieder verwässert. Unser Tipp: Unbedingt berücksichtigen!
Für einzelne Keywords zu ranken, ist nur wenig wert
Marcus Tober machte in seinem Vortrag „Relevante SEO-Metriken“ durch eine Zusammenstellung der „Algorithm Change History“ bei Google auf beeindruckende Weise deutlich, wie stark und überproportional die Anzahl der Spielregeländerungen in den letzten Jahren gestiegen ist (siehe Abbildung 3). Dass es mehr Updates werden, haben sicher viele bemerkt. Dass der Anstieg jedoch so drastisch ausfällt, überrascht dann doch.
Tober führte aus, dass die kumulierte Sichtbarkeit in Suchmaschinen eine der wichtigsten Metriken ist. In Zeiten der Personalisierung von Suchergebnissen, lokal unterschiedlichen Treffern und aufgrund der Berücksichtigung individueller Suchhistorien sei diese verdichtete Metrik sehr nützlich, um u. a. Trends zu erkennen. Ebenso wichtig für eine Einschätzung ist die Betrachtung, wie viele Keywords auf den Seiten eins bis fünf und höher ranken – der sog. „Position Spread“. Befinden sich prozentual nur wenige Treffer auf der ersten Seite, deutet dies in der Regel ein Problem an, das man suchen, finden und beheben sollte. Als Beispiel zeigte er, dass die Domain „suite101.com“ mit nur acht Prozent aller Rankings auf Seite eins vertreten ist. Bei Wikipedia sind es 80 Prozent und über 50 Prozent ranken sogar auf Platz eins.
Google+ und Facebook ja, Twitter und Pinterest nein
Weitere wichtige Erkenntnisse seiner Analysen aus dem Bereich Social Signals war, dass der Chrome-Browser zwar offenbar den Traffic auf und zu einer Seite erkennen kann, aber der Aufruf neuer Seiten nicht zu einer Indexierung bei Google führt. Während das Posten einer neuen URL in Google+ praktisch zu einer sofortigen Bewertung und Übernahme in den Index bei Google führt – ebenso wie Shares (Geteiltes) bei Facebook, wenn es oft genug gemacht wird, hätte die Verbreitung von URLs über Twitter und Pinterest keinen solchen Einfluss, so Tober. Auch er betonte in seinem Vortrag nochmals den positiven Einfluss, den ein gut gepflegtes Google+-Profil auf das Ranking haben kann.
Das Demografie-Dilemma: Warum will Klaus nicht kaufen?
Torsten Hubert von WebArts zeigt in einem hervorragenden Vortrag, warum sich SEO nicht nur auf technische Aspekte und suchmaschinenorientierte Onpage-Analyse beschränken sollte. Wer die Erkenntnisse aus dem Neuromarketing berücksichtigt, kann aus den generierten Besucherströmen deutlich mehr herausholen. Mit sog. „Limbic Personas“ kommt der Erkenntnis näher, warum Klaus nicht kaufen möchte. Menschen treffen in den ersten 50 Millisekunden gefühlsbetont ihre Entscheidungen – nur ist ihnen das nicht bewusst. Innerhalb dieser 500 Millisekunden erfolgt intuitiv eine Entscheidung, ob man eine Sache oder Person vertraut oder eben nicht. Dies bricht mit der traditionellen Einschätzung, dass der Mensch ein vernunftgelenktes, rational denkendes Wesen ist.
Eine einfache Einteilung in Zielgruppen ist weniger hilfreich, meint Hubert. Zwei Personen, die in die gleiche Zielgruppe einsortiert sind, können und werden im Wesen absolut unterschiedlich sein und müssen daher auch ganz verschieden angesprochen werden. Erschwerend kommt noch dazu, dass unser Gehirn eigentlich denkfaul ist, weil Denken vergleichsweise viel Energie verbraucht und wir evolutorisch gesehen noch immer auf Energiesparen getrimmt sind. Nach Hubert kaufen wir Gefühle: Es geht immer um Erwartungen, Bedenken und Gefühle – und nur, wenn man die richtigen Emotionen anspricht, schaltet das Gehirn ab und der Geldbeutel geht auf.
Gute Struktur = besseres Ranking
Tobias Schwarz von strucr.com zeigte anhand von Beispielen, wie wichtig es ist, die Struktur einer Website genau zu kennen. Dabei geht es natürlich nicht um die für den Betrachter via Browser augenfällige Struktur über eine gut sichtbare Navigation, sondern darum, wie eine Suchmaschine eine Site strukturiert. Dabei ist jeder Link eine in eine andere Ebene wegführende Tür, und nicht nur die großen Buttons und auffälligen Navigationselemente. Die verteilbare Linkpower, auch oft Linkjuice (Juice = Saft) genannt, kommt leider oft nicht bzw. nicht in genügender Stärke dort an, wo man diese Kraft braucht. Werden bestimmte Schwellwerte unterschritten, crawlt bzw. erfasst Google eine Seite im ungünstigsten Fall nämlich überhaupt nicht. Daher muss man den Linkjuice so leiten, dass er genau dort ankommt, wo man ihn braucht.
Als Beispiel nannte Schwarz Paginierungen. Die ersten Seiten werden gut gefunden und indexiert, aber die hinteren Seiten bleiben bei Suchmaschinen dann oft unberücksichtigt, weil die Bots nicht so tief in die Struktur abtauchen. Abbildung 5 zeigt dieses Problem recht gut. Die Übersicht hält volle 25 Seiten zum Blättern vor, aber nur die Seiten 1, 2 und 3 sind direkt angelinkt. Links zu den Seiten weiter „hinten“ findet die Suchmaschine jeweils erst auf den Folgeseiten. Im Fall von Karstadt.de sind dann auch tatsächlich 24 Klicks notwendig, um auf Seite 25 zu gelangen, weil die aktuelle Seite in der Paginierung in die Mitte gestellt wird und nur drei Seitenzahlen ausgegeben werden. Werden hier keine Gegenmaßnahmen ergriffen, liegt die letzte Seite aus Sicht von Google tatsächlich 24 Ebenen tiefer. So tief crawlt in der Regel keine Suchmaschine – ganz unabhängig davon, dass Seiten auf so tiefen Ebenen eher als sehr unwichtig betrachtet werden und daher sowieso kein Rankingpotenzial besitzen. Um solchen Problemen die Schärfe zu nehmen, schlug Schwarz eine logarithmische Paginierung vor.
Problematisch sind oft auch Filter, um Ergebnisse auf Seiten einzugrenzen, wenn diese bei ihrer Aktivierung eine neue URL generieren. So wird bei Karstadt z. B. aus der URL der Übersicht für Herrenuhren
www.karstadt.de/Herrenuhren/k/?kid=872952&pfad=901722+884
nach dem Aktivieren des Filters „Produkttyp“ mit „Analog“ die URL
www.karstadt.de/Herrenuhren/k/?kid=872952&pfad=901722+884#ZmlsdGVyX0MkRl9QUk9EVUtUVFlQWzFdPUFuYWxvZyZzZWFyY2hDYXRlZ29yeUlEPTg3Mjk1MiZwYWdlQ291bnQ9MQ%3D%3D.
Hebt man dann den Filter wieder auf, kehrt das System zwar zur ursprünglichen Seite zurück, aber nicht zur ursprünglichen URL, sondern zu
www.karstadt.de/Herrenuhren/k/?kid=872952&pfad=901722+884#c2VhcmNoQ2F0ZWdvcnlJRD04NzI5NTImcGFnZUNvdW50PTE%3D.
Hier entsteht praktisch mit jedem Klick eine neue URL, was ohne entsprechende Gegenmaßnahmen enorme Probleme für Suchmaschinen machen würde. Karstadt federt dies über einen entsprechenden Eintrag in der Programmierung im Head der Seiten ab:
<link id="canonicalUrl" rel="canonical" href="http://www.karstadt.de/Herrenuhren/k/?kid=872952" />
In seinem Vortrag zeigte Schwarz den Shop def-shop.com als positives Beispiel. Hier werden erst gar keine neuen URLs beim Filtern erzeugt bzw. das Filterkriterium gelangt erst gar nicht in die URL. Gerade hier hilft laut Schwarz der Einsatz von AJAX.
Excel-Zaubereien zur Onpage-Optimierung
Stephan Walcher führte die Möglichkeiten von MS Excel in Verbindung mit den SEO-Tools „Screaming Frog“ (http://einfach.st/frog) und dem Plug-in „SEOTools for Excel“ (http://einfach.st/seoxl) von Niels Bosma vor. Das Prinzip dahinter ist recht einfach. Über den Crawler Screaming Frog holt man sich die relevanten Onpage-Daten einer Domain und übergibt diese dann per Export an Excel. Über das (vorab) in Excel eingefügte und eben erwähnte Plug-in lassen sich dann weitere Daten anreichern. Mittels des Plug-ins kann man sogar Daten aus dem jeweiligen Google-Analytics-Account dazuholen – ein Eldorado für Analytiker und für alle, die häufig eigene Charts erstellen. Wenn man Zugriff auf weitere SEO-Tools hat, ist es mit wenigen Handgriffen (vulgo: Formeln) möglich, z. B. auch Backlinkdaten mit in die Analysen einzubinden. Walcher zeigt beispielhaft, wie man auf diese Weise die Top-Keywords oder auch die Bounce-Rate pro URL darstellen kann, wie man Social Signals mit in Analysen einbindet, die Status-Codes aller Seiten prüft, Klickpfadlängen herausfindet, wo das Title-Attribut mehrfach verwendet wird oder auch Cross Canonicals identifiziert. Spiegelt man das alles dann noch mit Zahlen z. B. zum Suchvolumen pro Keyword und damit am Trafficpotenzial und/oder gar am Cost-per-Klick bei bezahlter Keywordwerbung und damit dem Trafficwert, erhält man eine eigene kleine, individuell zugeschnittene und sehr wertvolle Datenbasis nicht nur für Optimierungsentscheidungen.
Zur Verdichtung und Visualisierung der Daten eignet sich die Pivot-Tabellenfunktion von Excel für die meisten Anwendungsfälle besonders gut.
Stephen Walcher gab noch den wichtigen Tipp, während der operativen Arbeit die automatische Berechnungsfunktion in Excel abzuschalten. Ansonsten werden im Hintergrund ständig bei Einträgen die entsprechenden Daten jeweils neu aus dem Internet abgerufen. Ohne gute Excelkenntnisse und den Willen, sich etwas tiefer in die Formelverkettung einzuarbeiten, ist es allerdings etwas mühsamer, auf diesem Weg SEO-Maßnahmen abzuleiten. Aber vielleicht ist das gerade der letzte Schubs, sich endlich etwas ausführlicher mit der Datenanalyse via Excel zu beschäftigen – lohnend ist es allemal.
Und was war sonst noch?
Für den erwartungsgemäß sehr interessanten Vortrag von Marcus Tandler (Mediadonis) und Andi Bruckschlögl „Die zehn besten Links seit 2006“ gab es leider wie letztes Jahr ein Publikationsverbot. Der Deal war ein offener Vortrag ohne Geheimnisse – dafür durfte weder getwittert, gebloggt noch darüber geschrieben werden. Um solche Inhalte zu erleben, kommt man also um den Besuch der SEOCampixx nicht herum. In einigen Vorträgen wurden natürlich auch wieder richtig böse Dinge gezeigt. Das Problem ist sicher darin zu sehen, dass in vielen Fällen eben nicht nur gegen die Richtlinien der Suchmaschinen verstoßen (Blackhat), sondern schlicht und einfach Illegales präsentiert wird. Man kann nur hoffen, dass vor allem die jüngeren Zuhörer neben der gefühlten Faszination, die solche Themen ja immer ausüben, einen klaren Kopf auf den Schultern behalten und das „nicht zu Hause nachmachen“ ;-)
Wie immer gab es auf der Campixx ein umfassendes und sehr unterhaltsames Rahmenprogramm. Die Höhepunkte waren sicherlich die Show von Tobi van Deisner, der aus Luftballons brüllend komische Geschichten zaubern konnte, und das von Jochen Schweizer angebotene SWAT-Training.
Die Unkonferenz
Warum spricht der Veranstalter – zu Recht – von einer „Unkonferenz“? Die Campixx ist bekanntlich anders. Jeder darf hier vortragen und es gibt keine regulierende Hand. Das muss man mögen und man muss es im Kopf behalten, wenn man die eigene Route durch die vielen Vorträge plant. Und hier liegt vielleicht auch der einzige leise Kritikpunkt, der dieses Jahr in Zwischentönen zu hören war. Offenbar nimmt das Titel-Boosting leicht überhand. Da wird dann schon mal gerne das Wort „Big Data“ verwendet und man zeigt den dann teilweise enttäuschen Teilnehmern, wie man über die eine oder andere Schnittstelle Datensätze in Excel schieben kann – was prinzipiell natürlich nicht uninteressant ist. Wenn dann Vortragende auch noch völlig arglos und entwaffnend ehrlich antworten, den einen oder anderen Titel bewusst so (eigentlich falsch) formuliert zu haben, damit einfach mehr Zuhörer kommen, dann werden am Horizont Grenzen für das völlig freie Konzept sichtbar. Auch die von viel zu vielen Referenten wohl aus diesem Grund (mehr Zuhörer) ausgewählten Mehrfachkategorien „Anfänger und Fortgeschrittene und Experten“ sprechen eine deutliche Sprache. Wie viele Themen sind denn ehrlicherweise wirklich für Anfänger und Experten gleichermaßen geeignet? Hier sollte der Veranstalter vielleicht am Konzept etwas nachfeilen. Nicht um Themen oder Referenten auszuwählen oder gar zu unterdrücken – der offene Charakter passt ja erfrischend gut. Aber einige sanft ordnende Hinweise an die Referenten wären zukünftig sicher hilfreich, verbunden mit dem Zwang, sich bis auf wenige zu begründende Ausnahmen als Referent entscheiden zu müssen, an welche Zielgruppe man den Vortrag im Kern richtet. Was wäre falsch an dem Konzept, lieber die richtigen Zuhörer zu haben statt möglichst vieler? Den Besuchern würde dies das eine oder andere Frusterlebnis ersparen, was geeignet wäre, die ansonsten wirklich sehr positive Gesamtstimmung noch ein kleines Stück zu verbessern.
Am 15. und 16. Juni 2013 findet übrigens vom gleichen Veranstalter in Berlin die völlig neue Konferenz „M3-Campixx“ statt. Die Themen dort sind allerdings abseits von SEO & Co. Es geht um Dinge wie richtiges Verhandeln, Arbeitsorganisation, Life-Balance, Future-Marketing und andere. Auch hier darf vortragen, wer Lust hat. Spaß, Diskussion und gegenseitiger Austausch stehen im Vordergrund. Und es ist sicherlich eine gute Möglichkeit, mal über den eigenen Fachtellerrand zu blicken. Weitere Infos und Anmeldung unter www.m3-campixx.de.