Gegen Ende letzten Jahres kamen in Salzburg erneut Online-Marketers auf der SEOkomm zusammen. Die Konferenz legte spürbar zu und brachte den Besuchern mit erstklassigen Referenten alles näher, was sich im SEO Neues getan hatte. Neben den Tracks „SEO Core“ und „SEO Strategie“ wurde mit einer dritten Vortragslinie „SEO Basics“ auch an Einsteiger gedacht. Website Boosting sah sich für Sie auf der SEOkomm um und bringt wie immer eine Auswahl an Learnings für diejenigen, die nicht dabei sein konnten.
Herzblut aus Österreich: Die SEOkomm
Die SEOkomm wurde erstmalig nur von Oliver Hauser, seinem Team und einem neu eingerichteten Fachbeirat geplant und ausgerichtet. Sie bewiesen bei der Aufstellung eines runden Programms ein glückliches Händchen und so blieb die Qual der Wahl, in welchem Track man das eigene Wissen auffrischen und erweitern sollte.
Rise of the machines
Unter diesem Titel lief das Foliengewitter (353 Folien in 40 Min.) der Keynote von Marcus Tandler. Wie immer warf er gedanklich den Speer weit voraus und verband schwache Signale, die man bei genauem Hinsehen schon heute erkennen kann, mit gut überlegten Szenarien für die nächsten Jahre. In einem Interview mit der Financial Times antwortete Larry Page auf die Frage, ob das Mantra „don´t be evil“ im Hinblick auf die zukünftige Entwicklung des Unternehmens eventuell unzureichend sein könnte: „We’re in a bit of uncharted territory. We’re trying to figure it out. How do we use all these resources … and have a much more positive impact on the world?” (http://einfach.st/lp8). Tandler erwähnte in diesem Zusammenhang auch das Projekt Google X, dessen Ziele auf die nächsten 15 bis 30 Jahre ausgerichtet sind und bei dem man darüber nachdenkt, wie man Dinge zehnmal besser machen kann, statt sich wie viele Unternehmen nur auf zehn Prozent Steigerung zu focussieren. Bei Project X versucht man derzeit auch, die Neuronenverbindungen des menschlichen Gehirns nachzuahmen. Er zitierte Jeff Dean von Google, der erläuterte, dass man bei Google nun versuche, „…the next level of scalability in training really, really big models that are accurate“ zu erreichen. Die Modelle der künstlichen Intelligenz sollen nicht mehr nur auf Millionen von Datenpunkten gestützt werden, sondern auf Milliarden.
TOD den Links
… zumindest als direkter Rankingfaktor, so Tandler. Google müsse es hinbekommen, von außen vergleichsweise leicht manipulierbare Signale abzuschwächen bzw. abzustellen. Das Marktvolumen für den Linkverkauf liege, so Tandler, bei immerhin 175 Mio. € und nur schätzungsweise zwei Prozent der Links seien wirklich gut. Dagegen gebe es derzeit über 800 unterschiedliche Faktoren, um die Qualität einer Seite zu bestimmen. Ein Lesbarkeitsindex sei dabei nur einer davon. Bis hin zum Auslesen von Exif-Daten bei Bildern gehen die Möglichkeiten, um bewertbare Punkte für die Rankingbildung zu sammeln. Marcus Tandler zeigte auch Beispiele starker Rankingveränderungen älterer Seiten bei hart umkämpften Suchbegriffen, die seiner Meinung nach nicht auf Änderungen beim Backlinkprofil beruhen können bzw. wo es gar keine nennenswerten Änderungen gab. Sein Plädoyer ging eindeutig hin zu mehr Contentqualität: „Sei das beste Ergebnis“, so lautete seine Empfehlung, „zu den zehn blauen Links führt kein Weg mehr zurück.“
.berlin .club .bayern .kaufen & Co. für SEO?
Richard Wein von der nic.at GmbH, dem österreichischen Pendant zur Denic, und Johannes Beus, Geschäftsführer der SISTRIX GmbH gaben Insights hinsichtlich SEO und der neuen Top-Level-Domains (TLDs). Nachdem diese einige Monate verfügbar sind, zogen die beiden ein erstes Resümee mit eigenen Erfahrungen und Rankingstatistiken. Es wurden ca. 3,1 Millionen TLDs aus den 572 verfügbaren Endungen registriert, wirklich genutzt würde aber nur ein Drittel, was auf 67 % geparkte Domains zurückzuführen sei, so Wein. Nebenbei erwähnt zählt die Endung .xyz zu den beliebtesten unter den neuen Domains. Google ist übrigens selbst Bewerber von über 100 Top-Level-Domains. Johannes Beus zerschlug gleich zu Anfang die Hoffnungen, sich derzeit einen Rankingvorteil mit den neuen TLDs zu verschaffen, und griff dafür auch auf Aussagen von Matt Cutts und John Müller von Google zurück. Außerdem behandle Google die neuen Domains als gTLDs (g für „generisch“), wie bisher auch .com, selbst wenn sie regionale Bezüge hätten. Eine Rankingauswertung des Google-Index-AT erbrachte, dass es einen vernehmbaren Anstieg der absoluten Anzahl unterschiedlicher TLDs der Top 100 in den letzten drei Jahren gab, in den Top 3 blieb eine solche Veränderung jedoch aus. Grundlage dieser Auswertung waren jeweils 1 Million Keywords mit 100 Treffern.
Das Fazit der beiden Experten zu den neuen Domains: Auch wenn die neuen TLDs in den Suchergebnissen bereits messbar sind, so sind sie eher auf den hinteren Positionen vertreten und es ist noch zu früh, um handfeste Aussagen zu treffen. Die Erwartungen der Bewerber hinsichtlich der Anzahl an Registrierungen erfüllten sich nicht. Sie bieten aus SEO-Sicht weder Vor- noch Nachteile – bis jetzt! Wer jedoch hoffte, durch eine .berlin-Domain auf guten Content und eine saubere Backlinkstruktur verzichten zu können, der liegt falsch.
Info
Natürlich würde es Sinn machen, aus den neuen Endungen Informationen z. B. über einen regionalen Bezug oder die inhaltliche Ausrichtung einer Webpräsenz zu ziehen. Dies beobachte man bei Google auch sehr aufmerksam. Sollte sich aber auch nur ein Hauch eines Rankingvorteils messen lassen, würden die neuen Endungen sicherlich noch am gleichen Tag von Spammern so überlaufen und das Web mit eben nicht wirklich passenden Informationen unter vermeintlich passenden neuen Endungen geflutet, dass Suchmaschinen sicher schnell wieder Abstand nehmen würden. Ein Erfolg beim Ranking der neuen TLDs wäre gleichzeitig ihr Untergang hinsichtlich einer tatsächlichen Aussagekraft. Ähnliches erlebte man damals bei .biz-Domains. Diese hatten zwar keinen Rankingvorteil, boten aber die Möglichkeit, neu sog. Keyworddomains aufzusetzen. Eine Analyse von Microsoft stellte 2006 fest, dass etwa 70 % aller .biz-Domains Spam enthielten (http://einfach.st/bizspam).
Velo oder Fahrrad?
Normann Nielson, Head of SEO bei Zalando, gab einige Einblicke in die Herausforderungen von International SEO. Nielsons Ansicht nach liegen die ersten lapidaren Unterschiede schon in der Auffassung verschiedener Begrifflichkeiten mit gleicher Bedeutung. So sagt man beispielsweise im Schweizer Sprachgebrauch Velo zum Fahrrad. Ein zu gern gemachter Fehler vieler Seitenbetreiber sei es auch, Seiten, die bereits in Deutschland existieren, einfach auf eine .at- und .ch-TLD zu kopieren. Dies sei nicht nur im Hinblick auf Duplicate Content ein absolutes No-Go, sondern hierbei werde auch der Nutzer völlig außer Acht gelassen, da dieser in Wien eine andere Erwartungshaltung habe als in Zürich. Nielson pochte darauf, wie fundamental wichtig bei International SEO und vor allem bei Seiten, welche in derselben Sprache verfasst sind, die Einbindung des HREFLANG-Tags sei, gerade im Hinblick auf Duplicate Content. Es gelte, pro Land eigene Teams zu bilden, jedes Land sei auch ein eigenständiger Markt und habe unterschiedliche Customer Live Times. Für jeden Markt brauche es ausgebildete Fachkräfte. Ideen sollten pro Land, unter Berücksichtigung individueller KPIs, bewertet werden und nicht pro Idee. Neue Entwicklungen solle man etappenweise ausrollen: Also einen Prototyp in Land X testen, auf andere Länder adaptieren, die Best Practices anwenden und kontinuierlich optimieren. Ebenfalls bedarf jedes Produkt einer individuellen Bewertung pro Land. Ist es für jedes Land geeignet oder gar erlaubt? So braucht es also ein bisschen mehr als nur eine andere Domainendung.
Neben den entsprechenden Onpage-Signalen sind auch Offpage-Signale enorm wichtig. Genau auf diese gingen Nicole Mank und Eric Kubitz ein. Unter offpage verstehen die beiden aber nicht nur klassisches Linkbuilding, sondern auch PR-Arbeit und Content-Marketing. Sie versuchen, aus diesen drei doch sehr verschiedenen Marketingbereichen eine Symbiose zu schaffen und den besten Nutzen daraus zu generieren. Die Kunst guter PR liege darin, den geeigneten Multiplikator zu finden. Dies sei sowohl online als auch offline der Fall. Dabei sei es enorm wichtig, gute Beziehungen zu den Redaktionen aufzubauen und vernünftige Pressemitteilungen zu schreiben, welche nur die richtigen und vor allem wichtigen Themen beinhalten. Ein Multiplikator kann schnell genervt sein von zu vielen und schlechten Pressemitteilungen und man rutscht schneller in den Spam-Ordner, als man denkt. Momentan würden aber noch zu wenige Multiplikatoren kontaktiert. Was kann man also von klassischer PR lernen? Es sei wichtig, die richtigen Themen für Multiplikatoren zu finden sowie die Art, diese korrekt anzusprechen. Langfristige und dauerhafte Kontakte aufzubauen, soll ebenso nicht schaden. Im Content-Marketing gilt es, die richtige Zielgruppe zu definieren und auf diese einzugehen. Mit Zielgruppe ist jedoch nicht immer der User gemeint, sondern auch mal ein Redakteur, der den Content optimal verbreitet. Wie zum Beispiel schaffte es YouPorn, einen Link vom Spiegel zu bekommen? Guter Content bedeutet nicht, einen Fünf-Sterne-Text bei Textbroker zu bestellen, sondern selbst durch anstrengende Recherche nützliche Inhalte zu generieren. Bei der Ansprache von Multiplikatoren und Zielgruppen sei es wichtig, diese differenziert zu behandeln.
Key-Take-aways waren:
- Ein Blog ist nicht gleich Content-Marketing, so einfach ist es eben nicht
- Content-Marketing bedeutet nicht, einfach nur Texte einzukaufen zu müssen.
- Richtiges Seeding ist ungemein wichtig und ein kritischer Erfolgsfaktor.
SEO Excel unleashed
Stephan Walcher zeigte mit vielen nützlichen Beispielen erneut, was hinsichtlich SEO in MS Excel steckt. Der große Vorteil gegenüber „fertigen“ Tools ist wohl, dass man sich das Analysewerkzeug nach den eigenen Erfordernissen zusammenstellen kann und es bei Bedarf ausbaubar ist. Selbst die Pixelbreite eines Title- oder Description-Eintrags kann man mittlerweile problemlos über Excel berechnen. Die Keyword-Vorschläge von Google Suggest für eigene Keywords in definierte Zellen holen? Kein Problem! Kombiniert man die über Add-ins einlesbaren SEO-Daten mit ebenso integrierbaren Trackingdaten, lassen sich Schwachstellen der eigenen Domain schnell aufspüren und eben auch dauerhaft abspeichern. Auch eine Analyse von Logfiles (wann waren welche Bots von Suchmaschinen da und welche Seiten holten sie?) lässt sich in Excel sehr übersichtlich machen. Ein SEO-(Multidomain‑)Dashboard, ein SERP-Scraper, ein Snippet-Optimizer und ein Suggest-Scraper in Form vorbereiteter Exceltabellen hinterlegte Walcher unter bit.ly/seo-excel zum kostenlosen Ausprobieren. Seine Folien dazu hat er für alle Interessierten unter einfach.st/swxl zur Verfügung gestellt.
Kann man Websites vor dreisten Kopierern schützen?
Auf guten Content ging auch Martin Höllinger, die SEO-One-Man-Show aus Leibnitz, ein. Seiner Meinung nach werde zu viel Geld in Design und Entwicklung einer Seite gesteckt, sodass am Ende kaum noch Budget für gute Inhalte bleibe. Um seine eigenen Inhalte vor Content-Kopierern zu schützen, empfahl Höllinger das Tool Copyscape. Das Tool überprüft, ob identische Inhalte von der eigenen Seite auf anderen Seiten zu finden sind. Ein weiterer Tooltipp war das Tool SEO-LYZE, welches bei der Erstellung von gutem Content eine Hilfe sein soll und darauf achtet, dass man es am Ende mit der Optimierung nicht übertreibt. Klassische „SEO-Texte“ werden heute noch immer ganz am Ende der Seite versteckt, damit sie bloß niemand liest. Guter Content brauche aber nicht versteckt zu werden, sondern könne dem Nutzer quasi auf dem Silbertablett präsentiert werden. Es sei falsch, Angst davor zu haben, Know-how weiterzugeben, also weg vom SEO-Text und hin zum Ratgeber! Wer auf der Suche nach gutem Content ist, findet die Experten meist näher als gedacht: In den eigenen Reihen im Unternehmen gibt es oft Personen, die so nah am Produkt und an dessen Entwicklung beteiligt sind, dass es ein Unding wäre, dieses Wissen nicht als lecker aufbereiteten Content aus erster Hand zu verwenden.
Local SEO
Eine ganz andere Richtung schlug Kai Spriestersbach mit seinem Thema Local SEO ein, worin gerade für kleine und mittelständische Unternehmen die Chance besteht, gegen Größen wie Zalando anzutreten. Sucht man beispielsweise in München nach „Schuhe“, findet man auf Platz 1 natürlich Zalando, aber schon nach Platz 4 werden die lokalen Suchergebnisse angezeigt. Beachtet man die Rankingfaktoren für die lokale Suche, so sei es sogar möglich, vor Zalando zu stehen. Neben den geografischen und thematischen Faktoren fließen auch Links mit in die Bewertung ein, hierbei geht es aber wie immer um die richtigen Links. Diese sollten vorzugsweise lokal und natürlich themenrelevant sein. Als Linkquellen können Seiten von Kommunen, Verwaltungen, Vereinen wie auch lokale Medien dienen. Analog zu den Links sind ebenso Mentions auf Seiten im lokalen Umfeld wichtig, diese werden wie eine Art Link gewertet. Ein einfacher Weg, an diese zu kommen, sind unter anderem Branchenverzeichnisse, wie Abbildung 5 zeigt. Als Tipp gab Spriestersbach seinen Zuhörern mit auf den Weg, am besten sofort mit der Optimierung der lokalen Suche unter iOS zu starten, da diese immer mehr Nutzer generiere und immer besser würde. Der Google-Brancheneintrag kann unter google.de/business/ vorgenommen werden.
Monitoring, Tracking & Analyse
Genau das lässt sich mit Tools machen. Sepita Ansari, Geschäftsführer von Catbird Seat, stellte im Einsteiger-Track die Must-have-SEO-Tools vor. Zwischen den großen bekannten waren auch ein paar unbekannte Schmankerl mit dabei. Um zu wissen, welches Tool man benötige, müsse man zuerst definieren, was man messen und analysieren wolle. Für Rankingchecks und den weiten Überblick empfahl Ansari zunächst die großen und bekannten Tools wie SISTRIX oder Xovi. Um die Entwicklung der eigenen Seite zu analysieren, wurde neben Google Analytics auch SimilarWeb vorgestellt. Für die Onpage-Analyse konnte das Tool von OnPage.org natürlich nicht unerwähnt bleiben, mit dem sich Metas, Crawlingfehler und Dinge wie WDF-IDF analysieren lassen. Weitere Tools, die bei der Onpage-Optimierung helfen können, sind SEORATIO, Screamingfrog oder strucr. Ein sehr mächtiges Tool für die Offpage-Analyse sind die LinkResearchTools, mit denen sich unter anderem Links finden lassen, welche besser abgebaut werden sollten. Um einen Ist-Stand der aktuellen Backlinkstruktur zu bekommen, eignet sich das Tool MajesticSEO, welches zudem noch einen Überblick gibt, von welchem Seitentyp man Links bekommt, geclustert nach Themen. Dass Mobile immer wichtiger wird, scheinen ja immer mehr zu begreifen, auch die Toolanbieter schlafen nicht und stellen das eine oder andere Werkzeug zur Verfügung. Kostenlos kann man hier auf den Mark-up-Check mobileOK von W3C zurückgreifen oder den Mobile-Friendly-Test in den Google-Webmaster-Tools durchführen und prüfen, ob die Seite den Google-Richtlinien für Mobile entspricht.
Neben on- und offpage lassen sich auch noch soziale Signale und Veränderungen messen, auch hierfür gibt es Tools. Wie zum Beispiel finde ich den optimalen Zeitpunkt für das Publishing? Hier kann Tweriod Abhilfe schaffen, dieses Tool misst, wann die eigenen Follower online sind, und bestimmt somit den perfekten Zeitpunkt eines Tweets. Für die Keyword-Recherche kann das smarte Tool von Übersuggest nicht unerwähnt bleiben, welches aus jedem Shorthead unzählige Long-Tail-Kombinationen liefert. Zur Konzeption und Erstellung neuer Inhalte empfahl Ansari das relativ neue W-Fragen-Tool, welches zu einem gewünschten Suchbegriff etliche W-Fragen stellt und somit ein Framework für beispielsweise einen guten Produkttext liefert. Für Brands gibt es auch eine Handvoll nützlicher Tools. Beispielsweise kann das Tool alert.io den Nutzer jedes Mal informieren, wenn in Medien und sozialen Netzwerken die eigene Brand erwähnt wird. Dies kann hilfreich sein, um schnell mit den Nutzern interagieren zu können. Ob sich damit der eine oder andere Shitstorm vermeiden lässt, wurde aber nicht berichtet.
Metriken wie Verweildauer, Bounce-Rate oder CTR werden immer wichtiger für das Ranking, daher gab sich Felix Beilharz die Ehre und sprach über User Signals. Nach den Links könnten doch Social Signals das neue „SEO-Gold“ sein, oder doch nicht? Mit einem Zitat von Matt Cutts nahm Beilharz dieser Vermutung sogleich wieder den Wind aus den Segeln. Was also tun? User-Signale verbessern! Die CTR in den SERPS lässt sich zum Beispiel durch Rich-Snippets, aber auch durch relevantere Metas verbessern. Um die Bounce-Rate möglichst gering zu halten, müsse sie zunächst richtig gemessen werden. Also Zahlen definieren: Was ist ein Bounce und ab wann? Reduzieren ließe sich die Kennzahl, indem man Vertrauen beim Nutzer schafft und höchstmögliche Relevanz auf der Landingpage suggeriert. Ein übersichtliches und schmuckes Design sowie ein fixer Pagespeed können die Absprungrate ebenfalls positiv beeinflussen. Ist der Nutzer nicht abgesprungen, so gilt es, ihn auf der Seite zu halten, um die Verweildauer zu verlängern. Dies ließe sich durch Live-Chats etwa im Support, interaktiven Content oder Videos umsetzen.
Was hat Mozart mit Suchmaschinen zu tun?
Diese Antwort gab Frank Fuchs in einem wirklich außerordentlich interessanten und bemerkenswert außergewöhnlichen Abschlussvortrag aus dem Nähkästchen von Bing. Wer den Zauber von Mozarts „Kleiner Nachtmusik" verstehen möchte, so Fuchs, wird sich sicher nicht mit der Häufigkeit einzelner Noten beschäftigen. Dies gilt eben auch für das Inbound-Marketing: „Wir müssen weg vom einfachen Beobachten und Zählen von Ereignissen; hin zu ganzheitlichen Methoden, dank derer wir die ‚Melodie‘ erkennen.“ Frank Fuchs plauderte aus dem Nähkästchen von Bing. Er brachte aus den USA tatsächlich beeindruckende Beispiele mit, um zu zeigen, wie schnell eine vermeintliche Zukunftsvision heute fix und fertig vor der Tür stehen kann. Mittlerweile ist es sogar möglich, das Gesicht einer Person für ein beliebiges Alter aus der Erbsubstanz (DNA) zu berechnen. Das Verfahren ist noch aufwendig und teuer, aber wer künftig auf die Straße spuckt, hinterlässt damit praktisch auch gleich sein Aussehen. Ein Minicomputer für 75 Cent? Gibt es als Prototyp bereits. Suchmaschinen können heute sogar Dialekte bei Menschen unterscheiden, so Fuchs. Die Spracherkennung „Cortana“ von Microsoft geht dabei anders vor als die Mitbewerber und speichert personalisiertes Wissen beim User unter seiner Kontrolle statt in fernen Rechenzentren. Letztlich macht eine API-Schnittstelle bzw. ein Entwicklungskit (SDK) Cortana vor allem auch für Entwickler interessant, welche die Spracherkennung für eigene Produkte und Funktionen recht einfach „darunter“ setzen können. Dies und die ganzen Wearables und das Internet der Dinge werden recht schnell dazu führen, so Fuchs weiter, dass der Anteil an „aktiv“ ausgelösten Suchen immer weiter zurückgehen wird. Ob die Benutzerschnittstelle der Zukunft das kleine Display einer Uhr sein wird, bezweifelt er, weil damit vernünftige Interaktionen nicht wirklich machbar wären.
„Suche“ wird sich in den nächsten Jahren stark verändern!
Auf die Frage aus dem Publikum, was denn der „Next Level“ bei Suchmaschinen sein würde, meinte Fuchs ganz klar, dass sich die Art der Mensch-Maschine Kommunikation bedeutend wandeln wird. Wir werden wohl sehr bald eine Art persönlichen Computer immer bei uns haben, der teilweise auch proaktiv Aufgaben erledigt und uns unterstützt. Wir müssen dann auch nicht mehr selbst Suchanfragen formulieren, dies wird situationsbezogen unser elektronischer Assistent tun. Dies sei nicht zuletzt durch die rasante Entwicklungsgeschwindigkeit der Mobile Devices letztlich nur noch drei bis fünf Jahre entfernt. Wer hier aufmerksam zuhörte, konnte zweifelsfrei erkennen, warum viele Experten das Ende der Fokussierung auf eine reine „Keyword-Optimierung“ ausrufen.
Die nächste SEOkomm wird wieder im November stattfinden und ambitionierte SEOs sollten auf jeden Fall eine mögliche Teilnahme im Auge behalten.