Matt Cutts ist Leiter des Spamteams bei Google und gleichzeitig Schnittstelle zu den Webmastern dieser Welt. Er entscheidet somit darüber, mit welchen Algorithmen Google aus mehreren hundert Milliarden Dokumenten die herausfischt, die im Suchergebnis gut da stehen - oder aus dem Index verbannt werden.
Interview mit Matt Cutts
Website Boosting: Google hat ja bekanntermaßen etwas gegen das sogenannte PageRank-Scuplting. Einerseits ist das einzusehen. Andererseits – was spräche dagegen, wenn verantwortungsbewusste Webmaster die interne Bedeutungsvererbung von unwichtigen Seiten wie Impressum, Kontaktformulare oder rechtlich notwendige Hinweise verhindern? Diese Seiten werden oft von allen Webseiten einer Domain angelinkt und erhalten der PageRank-Berechnung gemäß eine viel zu hohe Bedeutung. Produktseiten mit für Suchende interessanten Inhalten werden dadurch benachteiligt. Kann und darf ein Webmaster hier etwas tun oder widerspricht jede Art des PageRank-Scupltings den Richtlinien von Google?
Matt Cutts: Hinsichtlich PageRank-Sculpting ist es wichtig zu wissen, dass es mit den Richtlinien von Google durchaus vereinbar ist. Es ist nur in der Regel nicht das Beste oder Sinnvollste, das ein Webmaster mit seiner Zeit anfangen kann. Also haben wir die Handhabung des „No-Follow"-Attributs geändert, vor allem weil wir gemerkt haben, dass manche Leute viel Zeit mit dem Versuch verbringen, durch besondere Maßnahmen den Google-Bot in eine bestimmte Richtung zu treiben oder zu bringen, die wir nicht beabsichtigt hatten. Sie hätten uns einfach die gesamte Seite crawlen lassen können und der sich daraus natürlich ergebende PageRank wäre für ihre Zwecke perfekt gewesen. Also, im Allgemeinen empfehlen wir PageRank-Sculpting nicht, aber nicht etwa, weil es Spam ist, sondern weil Webmaster mit ihrer Zeit Besseres anfangen können. Wenn es ihnen wirklich wichtig ist, wie der PageRank auf Ihrer Site verläuft - und das ist natürlich Ihr gutes Recht - würde ich mich an Ihrer Stelle eher mit Ihrer Site-Architektur und Ihren Links auf der Site beschäftigen. Zum Beispiel könnte man darüber nachdenken, nicht auf jeder einzelnen Seite Textbausteine mit „Contact us“-Links einzufügen. Möglicherweise wäre es besser, einen Link zu der Kontakt-Seite zu setzen, aber diesen Link nicht auf jeder einzelnen Seite zu haben. Sie könnten auch eine Zusammenführung dieser speziellen Seiten erwägen, um die man nicht herumkommt, und zum Beispiel die Kontakt-, Datenschutz-, Richtlinieninhalte auf einer gemeinsamen Seite unterbringen.
Aber meist sind diese Dinge nicht die wichtigsten Faktoren für das, was beim PageRank abläuft, das sind vielmehr die Dinge, zu denen Sie auf Ihrer Site Links einrichten. Nehmen wir zum Beispiel einmal an, man nähme die zehn Top-Produkte, also die zehn besten Erzeugnisse in einem Segment, in dem man den größten Umsatz erzielt. Dann richtet man eine Seite ein, auf der man diese Top-Seller präsentiert. Und nun fügt man auf der Homepage einen Link zu dieser Seite ein. Dadurch würde mehr PageRank dorthin und damit zu den Top-Sellern fließen. Das heißt, dass man durch ein einfaches Verschieben der für Ihre Besucher sichtbaren Links innerhalb der Website – denn Sie wollen ja die Besucher Ihrer Website zu Ihren umsatzstärksten Produkten leiten – die Kapitalrendite verbessern und höhere Umsätze generieren kann.
Sie können also jederzeit die Architektur einer Website oder die Art und Anzahl der auf Ihrer Website angezeigten Seiten ändern, wie oben erwähnt zum Beispiel durch einfaches Zusammenführen mehrerer Seiten zu einer. Außerdem könnte man überlegen, eben auch die tatsächliche Link-Struktur auf Ihrer Website entsprechend zu ändern.
Im Allgemeinen haben wir festgestellt, dass viele Leute, die sich mit PageRank-Sculpting befassen, letztendlich ihre Zeit damit verschwenden. Sie verbeißen sich regelrecht in dieses Thema. Dabei ist es doch so: Wenn man über die gesamte Sitemap iteriert und multiple Iterationen des PageRank-Algorithmus durchführt, macht es am Ende gar keinen so großen Unterschied. Aus diesem Grund wollten wir etwas ändern und die Leute von etwas abhalten, womit sie mit großem Zeitaufwand ein zweitrangiges Ergebnis herbeiführen. Stattdessen sollte man die bessere Methode nutzen, die es ja schon gibt, nämlich die Generierung neuer Inhalte, das Gewinnen von Aufmerksamkeit und damit des Interesses der Kunden. Damit bekommt man in der Regel von vornherein mehr Links. Wie gesagt, Google betrachtet PageRank-Sculpting nicht unbedingt als mit den Richtlinien unvereinbar und sieht es auch nicht als Spam. Es ist eben nur nicht besonders effektiv. Also haben wir Änderungen vorgenommen, um den Webmastern zu verdeutlichen, dass sie mit ihrer Zeit wirklich etwas Besseres anfangen können.
Gegen eine unerwünschte Linksetzung von Außenstehenden kann man sich als Webmaster schlecht wehren. Immer wieder wird diskutiert, ob das sog. „Google-Bowling" wirklich funktioniert. Google sagt, eine Site kann nicht für eingehende Links bestraft werden, weil man sie nicht beeinflussen kann. Experten befürchten, dass dies nur die halbe Wahrheit ist. Tatsächlich fallen jeden Tag Seiten aus dem Index, weil verdächtige Linkmuster auftauchen. Werden solche schmutzigen Links von bösen Mitbewerbern gesetzt, kann das einer ehrlichen Domain also durchaus schaden. Was spräche dagegen, wenn Webmaster in den Webmaster-Tools die Möglichkeit erhalten würden, eingehende Links bei Bedarf gezielt zu „entwerten"? Dann wären Fremdmanipulationen von Mitbewerbern erfolglos. Wenn gegen die Richtlinien arbeitende Optimierer (Blackhats) ohne das Wissen eines Unternehmens unsaubere Links setzen, könnte man diese als Webmaster somit sehr gut kennzeichnen bzw. wieder „entfernen".
Das ist eine wirklich interessante Frage! Es geht um den Vorwurf beim „Google-Bowling“ ja um die Annahme, dass Leute nach wie vor befürchten, jemand könne ihnen schaden, indem er bestimmte Verlinkungen auf deren Website setzt. Unsere Antwort auf diese Vorwürfe hat sich nicht geändert: Wir arbeiten nach wie vor sehr hart daran sicherzustellen, dass niemand eine Website durch Setzen eines Links darauf diskreditieren kann. Wir geben uns wirklich große Mühe. Darum gestatten wir es nicht, bestimmte Links als nicht anerkannt zu kennzeichnen (intern nennen wir das „disallow“), also zu sagen: „Ja, dieser Link soll nicht zählen.“ Und wenn dann ein Mitbewerber Spam-Links auf die Website platziert (oder man das vermutet), könnten Sie diese Links als nicht anerkannt kennzeichnen und sich absolut darauf verlassen, dass diese Links dann auch niemals zählen würden. Die Links hätten nichts mehr mit der Website zu tun. Generell finde ich den Vorschlag gut. Aber wie bereits vorhin gesagt: Wir stellen mit großem Aufwand sicher, dass niemand die Website eines Dritten diskreditieren kann, indem er Links darauf setzt. Und solange das gut funktioniert – und ich finde, dass wir wirklich gute Arbeit leisten – besteht gar keine Notwendigkeit für den Website-Besitzer, bestimmte Links als nicht anerkannt zu kennzeichnen. Und außerdem: Würden Sie alle Ihre Links durchgehen und sich bei jedem entscheiden, ob Sie für ihn bürgen können oder nicht? Da hätte man sicher ganz schön was zu tun, denn es können ja wirklich viele Links sein. In der Praxis müsste man wahrscheinlich beispielsweise eine vollständige Liste aller eingehenden Links herunterladen und dann kennzeichnen, welche einem nicht gefallen, welche nicht von einem selbst sind, welche man nicht kennt und damit gar nicht haben will – oder eben auch Links von Pornoseiten etc. Dann müsste man die Liste wieder hochladen.
Zu den bekannten Websites gibt es eine riesige Zahl von Links und wenn Sie die wirklich alle detailliert überprüfen wollten, kann das richtig lange dauern. Man müsste das sinnvollerweise mit einer Suchfunktion unterstützen oder sogar mit einer Schnittstelle, aber das wäre gar nicht so einfach. Würde man diese Unterstützung aber nicht anbieten, wäre die Zahl der ungefilterten Links oft wirklich sehr groß. Dies vorausgeschickt, möchte ich klarstellen, dass ich prinzipiell überhaupt nichts gegen ein solches Feature habe! Es ist eher eine Frage der uns zur Verfügung stehenden Ressourcen.
Dem Webmaster-Tools-Team war immer schon daran gelegen, neue, andersartige und wirklich sinnvolle Dinge zu entwickeln, zum Beispiel Malware-Details, die Ihnen genau sagen können, welche Teile oder Seiten Ihrer Website möglicherweise mit Malware [bösartige Software; Anm. d. Red.] infiziert sind. Oder auch Features wie „Fetch as Googlebot". Das ist eine tolle Sache. Wenn eine Website zum Beispiel gehackt worden ist, können Sie sagen: „Googlebot, hole mir meine Seite und zeige mir direkt an, was du siehst.“ Wenn also ein Hacker auf Ihre Seite gelangt ist und er clever ist, zeigt Ihre Seite den modifizierten Content vielleicht nur dann, wenn Google zu Besuch kommt! Aber mit diesem Feature kann man nun solche gehackten Inhalte auch selbst identifizieren und finden. Im Vergleich zu solchen Features und vor allem angesichts der Tatsache, dass wir es Dritten so sehr schwer machen, Ihre Website zu diskreditieren, können wir mit unserer kostbaren Zeit oder unseren Engineering-Zyklen etwas Sinnvolleres tun.
Also, im Moment verfolgen wir die Idee nicht und haben sie aktuell auch nicht in Planung. Wenn diese Sache aber vielen Leuten Sorgen macht, denke ich, dass nichts dagegen spricht, eine solche Funktionalität als Feature anzubieten. Denn letztlich heißt das doch nur: Wenn Sie der Inhaber einer Website sind, haben Sie das Recht zu sagen, dass Sie wollen, dass bestimmte Links auf Ihre Website zum Beispiel für PageRank etc. nicht zählen. Dabei könnte es allerdings zu merkwürdigen Situationen kommen, wenn jemand beispielsweise sagt: „Dieser Link gefällt mir nicht“, und es handelt sich nicht um einen Spam-Link, sondern der Link enthält etwas Negatives, zum Beispiel eine boshafte Aussage über die Website. Vielleicht behauptet jemand, die Website sei betrügerisch. Es wird schon schwierig, wenn derartige Links als „nicht anerkannt“ gekennzeichnet werden können, weil es dann ja nicht mehr nur um die Abweisung von Spam-Links geht.
Viele ehrliche Optimierer ärgern sich oft darüber, dass man im Google-Index immer wieder Ergebnisse findet, die mit den einfachsten Tricks (unsichtbare Schrift, klassisches Keyword-Stuffing etc.) arbeiten und damit gegen die Richtlinien von Google verstoßen. Genauso findet man immer noch sehr häufig bei für „Money"-Keywords gut rankenden Seiten extrem viele gekaufte Footer-Links, mit denen das Ranking stark beeinflusst wird. Warum dauert es oft vergleichsweise lange, bis solche Seiten von Filtern erkannt und aus dem Index verbannt werden?
[lacht] Ich persönlich wünsche mir, dass ehrliche Suchmaschinenoptimierer sich darüber nicht nur ärgern, sondern angesichts von Spam wütend werden! Aber ich muss auch ganz deutlich sagen, dass wir mit großem Aufwand gegen Spam kämpfen, wir machen Spam-Reports, wir setzen zum Beispiel viele Leute dazu ein, deutschsprachige Inhalte auf Spam zu prüfen. Wir unternehmen etwas gegen Spam in den einzelnen Sprachen, auch in den für uns ungewohnten Sprachen, wo man vielleicht meinen könnte, sie seien uns nicht so wichtig, wie beispielweise Thai, Vietnamesisch etc. Also, Spam ist wirklich weit oben auf unserer Prioritätenliste, und zwar in allen Sprachen. Was dabei ganz interessant ist: Google lernt dazu und jetzt machen wir zum Beispiel Folgendes: Wenn wir nur ein paar Wörter versteckten Text finden, wollen wir diese Wörter vielleicht nicht indexieren, weil der Rest der Seite ganz o. k. ist. Google bemüht sich, immer besser zu werden, zum Beispiel in der folgenden Situation: Nehmen wir mal an, Sie haben eine reale Website mit echten organischen Links und dann kauft jemand zusätzliche Links dazu. Wir wollen die Anchor-Tags für das Page-Ranking in diesen gekauften Links nicht zählen, aber wenn das Ranking Ihrer Website normalerweise auf diesen echten, organischen Links beruht, dann wollen wir, dass sie weiterhin für diese Suchphrasen gerankt wird. Ich will eben nur nicht, dass die Website infolge dieser gekauften Links im Ranking auf einen höheren Platz gelangt. Also – ich kann die Frustration nachvollziehen. Ich bin sehr dankbar, wenn man mir einzelne Spam-Vorfälle meldet, zum Beispiel durch Kommentare in meinem Blog, im Webmaster-Forum oder in Spam-Reports. Selbstverständlich möchten wir, dass man uns weiterhin über Dinge berichtet, über die Sie sich ärgern – wir wollen nicht, dass jemand mit diesen Spam-Tricks durchkommt. Niemand darf mit „Blackhat“-Methoden effektiv zum Erfolg kommen. Meiner Erfahrung nach haben wir in der Frage der gekauften Links, die unsere Qualitätsrichtlinien für Webmaster verletzen, bessere Resultate erzielt, d. h. bei bezahlten Links für Paid Rank. Und auch Links im Footer erwischen wir jetzt zuverlässiger. Wenn sich also Leute über falsche Ranking-Ergebnisse Sorgen machen, dann denken sie vielleicht, der Link im Footer hätte das verursacht, aber das muss nicht unbedingt das Ranking beeinflusst haben! Viele Leute ziehen diese voreilige Schlussfolgerung, wenn sie einen gekauften Link sehen. Sie glauben dann, der würde das hohe Seitenranking verursachen, obwohl diese Links ganz häufig unberücksichtigt bleiben; es sind andere, echte Links mit realem Wert, die beim Seitenranking zählen.
<!--googleoff: all--> Dieser Inhaltsteil wird vom Google-Bot nicht indiziert <!--googleon: all-->
Es herrscht keine Einigkeit unter den Experten, ob man mit dieser Anweisung im Quelltext den Google-Bot wirksam von einzelnen Content-Teilen ausschließen kann. Geht es? Und wenn nicht, gibt es eine einfache Lösung dafür?
OK, Google soll also einen Teil einer Seite innerhalb dieses markierten Abschnittes nicht indexieren. Der Hauptindex für die Websuche ist nicht fähig, diese Googleon- und Googleoff-Befehle zu verarbeiten. Meines Wissens gibt es im „Enterprise Search Product“-Paket von Google, das man komplett kaufen kann, eine Funktion zur Kennzeichnung eines Teils einer Seite. Bei Google AdSense kann man Teile einer Seite markieren und als Hauptbestandteil, quasi als „Herz“ der Seite, kennzeichnen. Aber die normale Websuche kann das, wie gesagt, nicht.
Yahoo! hat einen Standard vorgeschlagen, mit dem man einen Abschnitt einer Seite markieren kann, der nicht in den Index kommen soll. Aber wir haben uns angesehen, wie verbreitet das wirklich ist – und diese Funktion wird insgesamt nur von ungefähr 500 Websites weltweit verwendet! Das ist wirklich keine ausreichende Zahl von Nutzern. Ich will Ihren Lesern erklären, wie wir das Für und Wider einer Unterstützung eines solchen Anliegens intern sehen. Einerseits meint man: Das hört sich toll an, das ist mehr Power, da sind mehr Einflussmöglichkeiten, da ist mehr Granularität für Webmaster, also kann es doch keinen Grund geben, das nicht zu unterstützen? Die Antwort darauf ist ganz einfach: Es ist eine ganze Menge Arbeit nötig, um diese Syntax zu unterstützen, weil Google in der Regel alle sechs Monate oder jährlich oder alle zwei Jahre seine Crawler- oder Indexing-Funktionen neu schreibt. Jedes Mal, wenn wir beispielweise unseren Index – den Caffeine-Index – neu schreiben, müssen wir sicherstellen, dass er alle alten Funktionalitäten und Features, Operatoren und Spezialsyntax unterstützt, die wir bereits für die bisherigen Indexierungsmethoden eingeführt haben. Zusammenfassend ist zu sagen, dass wir ein solches Feature dann auch für all unsere künftigen Indexe auf Dauer berücksichtigen müssen. Die Befürworter von Einfachheit in unserem System sehen das aber ganz anders. Sie möchten lieber nicht noch einen weiteren Operator haben, der das Indexieren und das Debugging verkomplizieren könnte, und zwar sowohl für Anwender als auch für die Search Engineers. Und vor allem angesichts der Tatsache, dass diese Funktionalität in der von Yahoo angebotenen Version nur von sehr wenigen Websites wirklich genutzt wird, glauben wir, dass die Nachfrage nicht sehr hoch wäre. Vielleicht ändern wir ja später mal unsere Meinung, aber zumindest im Moment glauben wir nicht, dass viele Leute sich diese Funktion wünschen.
Stichwort: „rel=canonical"-Weiterleitung: Dieses durchaus sinnvolle Tag wird aktuell ja auch häufiger benutzt, um Domain-Weiterleitungen zu erzeugen, die früher mit der 301-Weiterleitung gemacht werden mussten. Das Tag hat für Spammer den Vorteil, dass der User z. B. auf einer Linkbait-Seite bleiben kann und er eben nicht mehr wie früher plötzlich auf eine ganz andere Seite geleitet wird. Wie schätzt du die Gefahr ein, dass dieses Tag durch eben diesen Missbrauch Google irgendwann Kopfschmerzen bereiten könnte?
Ich halte das nicht für ein großes Problem, insbesondere weil man ja sowieso schon die Cloaking-Technik anwenden kann oder Tricks mit 301-Weiterleitungen. Deshalb glaube ich nicht, dass das „rel-canonical"-Tag zu einem bisher nicht gekannten Problem führt, das über die bekannten Schwierigkeiten durch Spammer oder Blackhats hinausgeht. Und außerdem kann „rel-canonical" domainenübergreifend agieren und von IP-Adressen zu Host-Namen gehen. Er liefert ein wirklich nützliches Tool für diejenigen Webmaster, die vielleicht nicht wissen, wie man eine 301-Weiterleitung einrichtet. Die Blackhats und Spammer sind ja sowieso clever genug, um 301-Weiterleitungen zu nutzen oder Tricks mit gehackten Seiten oder Meta-Refreshers zu machen. In meinen Augen gibt es mit der neuen Methode im Vergleich zur bisherigen keine größeren zusätzlichen Sicherheitsprobleme oder Risiken.
In vielen Weblogs in Deutschland kann man derzeit lesen, dass der PageRank tot wäre, Google ihn gar abschaffen wolle. Ich kann das nicht recht glauben. Matt, ist der PageRank wirklich tot?
[lacht] Nein, ich glaube nicht, dass PageRank tot ist. Wir haben über 200 verschiedene Signale, mit denen wir arbeiten. PageRank ist definitiv ein hilfreiches Tool. Google käme ohne PageRank zurecht, wenn es sein müsste, aber ich persönlich halte es für ein gutes Instrument, um eine Seite zu finden, zum Crawlen und um unsere Meinung über die Seriosität dieser Seiten zu zeigen. Daher glaube ich, dass Google in absehbarer Zeit PageRank weiterhin nutzen wird. Die Funktionalität ist schon mehr als zehn Jahre alt und man muss schon sagen, dass die Idee des Page-Ranking mit Anstand gealtert ist und sich bewährt hat.
Noch eine letzte Frage: Über den „Menschen" Matt Cutts ist in Deutschland nur wenig bekannt. Dürfen wir fragen, ob du Familie hast, was du tust, wenn du nicht im Googleplex sitzt, welche Websites außerhalb deines Berufes du gerne besuchst – und vor allem: Why Matt cutts his hair?
Es stimmt, dass ich Katzen mag. Ich habe eine Familie, einen Bruder, zwar keine Kinder, aber eine wunderbare Ehefrau. Bevor ich bei Google anfing, sind wir für drei Wochen durchgebrannt und haben geheiratet. Wir haben eine Kreuzfahrt gemacht und sind dann quer durchs Land gefahren, bevor ich meine Stelle bei Google antrat. Im Januar 2010 war mein zehnter Hochzeitstag und gleichzeitig der zehnte Jahrestag meiner Arbeit bei Google. Welche Websites ich gern besuche? Friendfeed macht mir Spaß, Techcrunch auch, Twitter natürlich – aber davon wird man süchtig! Ich habe mir einen Monat ohne Twittern verordnet und dabei erst festgestellt, wie viel Zeit ich tatsächlich auf Twitter verbracht habe. Jetzt versuche ich, das auf einen vernünftigen Level zu bringen. Generell bin ich ein totaler Computerfreak, ich mag sehr viele verschiedene Websites, alles von wired.com bis hackaday und natürlich auch viele Blogs via Google Reader. Was für Musik ich höre? Ähm – wahrscheinlich jede Menge Zeug aus den Achtzigern, ich sollte mich mehr bemühen, neue gute Musik zu entdecken. So Sachen wie Blink 182, aber auch Bruce Springsteen, ähm … oh je, es ist mir wirklich peinlich, dass ich einen so schlechten Musikgeschmack habe, aber manchmal mag ich auch komische Sachen wie A-capella-Musik. Kennt ihr das in Deutschland auch? In den USA gibt es studentische Gesangsgruppen, die Lieder a capella singen, das macht mir Spaß. Für Klassik habe ich kein so großes Interesse, meist höre ich Pop oder ein bisschen Alternative oder so [lacht]. Auch mit Rock ’n’ Roll mit einem guten Beat bin ich eigentlich ganz glücklich. Die letzte Frage – warum ich meine Haare abgeschnitten habe? Nun ja, ich habe mit meinem Team gewettet, dass sie einen bestimmten Standard bei der Bearbeitungszeit nicht würden einhalten können, wo sie das Ergebnis ganz, ganz schnell liefern mussten. Ich versprach ihnen, ich würde mir den Kopf rasieren, wenn sie bei der Bearbeitung von Spam-Reports über ein ganzes Quartal hinweg eine bestimmte Zeitvorgabe schaffen. Und sie haben es tatsächlich geschafft! Sie durften mir dann den Kopf rasieren. Das Schlimme oder auch Witzige dabei ist, dass ich meiner Frau mit den kurzen Haaren gefalle! Und schließlich muss ich selbst ja nicht täglich meine Haare angucken, aber sie schon – und als sie dann sagte, ich solle meine Haare weiterhin kurz tragen, fand ich das zwar etwas merkwürdig, aber auch total praktisch: Ich kann morgens aus dem Bett fallen und habe meine Morgentoilette dann ganz schnell beendet, es macht gar keine Arbeit. Alle paar Tage rasiere ich mir den Kopf und schon sind die Haare wieder schön kurz. Im Winter ist es allerdings recht kalt [lacht]. Wir werden sehen, ob ich es einmal wieder wachsen lasse. Vielleicht mag mich meine Frau irgendwann wieder mit längeren Haaren …
Matt, vielen herzlichen Dank für dieses Gespräch und vor allem dafür, dass du dir so viel Zeit genommen hast!
Mir hat das Spaß gemacht, das waren viele interessante Fragen. Danke, dass ich sie euch beantworten durfte. Ich hoffe, meine Antworten werden euch weiterhelfen...