Der Hype um das Thema Content-Qualität reißt nicht ab. Unumstritten ist dessen Bedeutung für die Suchmaschinenoptimierung. Weitgehend einig ist sich die Branche auch darüber, dass Content in erster Linie für die Internetnutzer produziert werden sollte. Doch welche Informationen wollen Nutzer wirklich und wie beurteilen sie die Informationsqualität im Internet? Dieser Artikel nähert sich dem Thema aus einer wissenschaftlichen, theoretisch und empirisch fundierten Perspektive. Es wird Zeit für eine Betrachtung dieses wichtigen Themas jenseits von Suchmaschinen und Algorithmen …
Informationsqualität im Internet Teil 1: Die Nutzerperspektive
Text- und Keyword-Optimierung – für wen?
Spätestens mit den jüngsten Updates des Suchalgorithmus von Google wurde dem letzten Onlinemarketer und Suchmaschinenoptimierer klar, dass die Suchmaschine guten Content mag. Mittlerweile schreien alle im Onpage-Bereich nach High-Quality Content, Unique Content und im Offpage-Bereich nach High-Quality-Content-Links aus relevantem Kontext. Dabei gilt das Prinzip: Gut ist, was Google mag. Noch besser ist, wenn die Suchmaschine nicht merkt, dass der speziell für sie erstellte Content bei genauer Betrachtung qualitativ womöglich gar nicht so gut ist. Oder anders ausgedrückt: Gut ist, wenn Content zu Rankings und damit zu mehr Sichtbarkeit und Traffic führt und dabei die Kosten der Content-Erstellung in einem akzeptablen Rahmen bleiben. Aus diesem Grund zirkulieren im Internet zahlreiche Empfehlungen für die Entwicklung idealer SEO-Texte zu einem bestimmten Keyword oder Thema. Wer diese Beiträge studiert, stellt fest, dass eine passende Keyword-Dichte heute nicht mehr ausreicht. So gilt es z. B., die folgenden Aspekte zu beachten: die Keyword-Frequenz, -Häufung und -Verteilung, die Formatierung, die Abstände, die semantische Nähe oder z. B. die Keyword-Within-Document-Frequency (WDF) multipliziert mit der Inverse-Document-Frequency (IDF) und einem Korrekturkoeffizienten (P) (siehe dazu die interessanten Blogbeiträge von Karl Kratz: www.karlkratz.de/onlinemarketing-blog/seo-keyword-density oder Marco Janck: www.seonauten.com/der-ideale-seo-text). Weitere Ratschläge beziehen sich auf die Verwendung von Keywords in Title- und Description-Metatags, Überschriften, Aufzählungen, internen und externen Links, im Footer oder Header, in Seitenstrukturen, Tags und Tag-Clouds usw. Darüber hinaus beschränken sich die Keyword-Empfehlungen längst nicht mehr auf reinen Text, sondern schließen auch Bilder, Videos und aggregierte Informationen wie Einträge in Kartendiensten (z. B. Google Places) mit ein.
Ob dieser Vielfalt verwundert es wenig, dass Onlinemarketer und Suchmaschinenoptimierer vor lauter Text- und Keyword-Optimierung zwischenzeitlich vergessen, dass sie Content nicht primär für die Suchmaschine erstellen, sondern für die Internetnutzer.
„Viele SEOs schreiben Texte primär passend für die vermuteten Algorithmen der Suchmaschinen.“
Warum Informationsqualität?
Einig ist sich die Branche darin, dass eine hohe Informationsqualität von Internetseiten für die Suchmaschinenoptimierung essenziell geworden ist. Doch abgesehen von guten Rankings bei Suchmaschinen – warum soll ein Unternehmen in die Erhöhung der Informationsqualität im Internet investieren? Wagen wir einen Blick in die Wissenschaft und Forschung zum Thema.
Aus einer verhaltensorientierten Perspektive hat die Informationsqualität Einfluss auf die Einstellung und das Verhalten von Kunden. In verschiedenen Studien wurden die Konsequenzen der wahrgenommenen Informationsqualität untersucht. Dabei zeigten die Forscher den direkten Einfluss der Informationsqualität auf die Kundenzufriedenheit, die Nutzungsabsicht und die tatsächliche Nutzung der Information, den Kundennutzen, die wahrgenommene Dienstleistungsqualität, das Beschwerdeverhalten (hier natürlich mit umgekehrter Wirkung), die Wiederkaufsabsicht und die Kundenbindung (siehe Abb. 1).
Das Herstellen und Bewahren einer hohen Informationsqualität sollte folglich ein wichtiges Anliegen eines jeden Websitebetreibers sein – da sind sich Praktiker und Forscher einig. Doch wer entscheidet, welcher Webauftritt über eine gute Informationsqualität verfügt, und worauf basiert dieses Urteil?
Suchmaschinen wie Google beurteilen die Informationsqualität von Internetseiten mittels komplexer mathematischer Algorithmen und Grenzwerte für einzelne Variablen. Dabei beziehen sie alle möglichen mess- und quantifizierbaren Qualitätssignale in die Berechnung mit ein. Die zu einer bestimmten Suchanfrage am besten passende Antwort, das aggregierte Qualitätsurteil eines Suchalgorithmus, findet der Nutzer in der SERP (Search Engine Result Page) wieder. Das Verhalten der Nutzer auf der SERP und Resultate manueller Kontrollen durch Mitarbeitende von Suchmaschinenbetreibern können nun ebenfalls als Qualitätssignale berücksichtigt werden. Dadurch und basierend auf innovativen Ideen sowie neuen technischen Möglichkeiten werden die Algorithmen kontinuierlich verfeinert und erweitert. Nicht in diese Überlegung miteinbezogen sind die Suchmaschinenoptimierer, welche den Mechanismen hinter der Qualitätsbestimmung auf die Spur kommen und daraufhin ihre Seiten entsprechend anpassen. Suchmaschinenoptimierer versuchen damit bewusst, die SERPs zu manipulieren, was bei Auffälligkeiten wiederum eine Anpassung der Algorithmen durch die Suchmaschinenbetreiber zur Folge hat. Vor diesem Hintergrund wird klar, dass eine automatisierte Bestimmung der Informationsqualität für Suchmaschinenbetreiber und insbesondere für die Entwickler von Algorithmen keine leichte Aufgabe darstellt.
Für Internetnutzer ist es nur vermeintlich einfacher, ein Qualitätsurteil abzugeben. Im einfachsten Fall passt das Informationsangebot – oder es passt nicht. Geht man etwas weiter und fragt verschiedene Nutzer nach dem Grund für ihr Urteil, erhält man objektive und subjektive Kriterien zur Bestimmung der Informationsqualität.
„Was“ wollen die Nutzer?
Nutzer wollen Informationen und haben diesbezüglich Erwartungen an das Informationsangebot einer Website. Diese Erwartungen gilt es zu berücksichtigen.
Grundsätzlich kann das erwartete Informationsangebot in vier Kategorien eingeteilt werden: Produktinformationen (zum Produkt, z. B. Preis, Leistungsangaben), Unternehmensinformationen (zum Anbieter, z. B. Kontaktinformationen, Marktdaten), Transaktionsinformationen (betreffend den Austausch von Leistung, z. B. Liefer-, Zahlungs- oder Garantiebedingungen) sowie Zusatzinformationen (generelle Informationen, z. B. weiterführende Links und themenverwandte Literatur).
Zusätzlich zu diesen vier Kategorien bietet das Konzept der Informationsobjekteigenschaften (das sog. informationsökonomische Dreieck) nützliche Erkenntnisse. Dabei werden die drei Kategorien Such-, Erfahrungs- und Vertrauenseigenschaften von Produkten bzw. Informationen unterschieden (siehe Abb. 2). Informationen bezüglich Sucheigenschaften lassen sich vor der Durchführung einer Transaktion überprüfen, Informationen bezüglich Erfahrungseigenschaften erst im Nachhinein. Informationen über Vertrauenseigenschaften können hingegen überhaupt nicht oder nur mit einem unverhältnismäßig großen Aufwand überprüft werden.
Die Informationsnutzer versuchen stets, ihre mit der Informationssuche im Internet verbundene Unsicherheit zu reduzieren. Ist man sich darüber im Klaren, über welchen Anteil an Such-, Erfahrungs- und Vertrauenseigenschaften das eigene Angebot verfügt, kann die Information mittels geeigneter Strategien und Maßnahmen präsentiert werden. Für Produkte mit einem hohen Anteil an Sucheigenschaften müssen diese Informationen zwingend vollständig und detailliert vorhanden sein. Ist dagegen der Anteil an Erfahrungseigenschaften besonders hoch, bieten sich Testimonials, Nutzerbewertungen und Social Signals an. Bei einem hohen Anteil an Vertrauenseigenschaften eignen sich schließlich Garantien, Zertifikate und Testberichte unabhängiger Institutionen.
Zur Beurteilung des eigenen Informationsangebots hat sich folgendes Vorgehen bewährt: Anhand der vier Informationskategorien und der drei Informationsobjekteigenschaften wird eine qualitative Inhaltsanalyse der unternehmenseigenen Website vorgenommen und mit einer entsprechenden Analyse der Webauftritte der Hauptkonkurrenten ergänzt. Anschließend werden die Informationsangebote in einer Tabelle erfasst, verglichen und analysiert. Dies erlaubt die Bestimmung des Informationsausschöpfungsgrads der eigenen Website im Vergleich mit der Konkurrenz oder dem Branchendurchschnitt. Es verdeutlicht Schwachstellen und liefert Verbesserungsansätze hinsichtlich der verschiedenen Kategorien des Informationsangebots und der Informationsobjekteigenschaften.
„Wer“ sind die Nutzer?
Eine Analyse, welche ausschließlich das Informationsangebot einbezieht, reicht jedoch allein nicht aus. Es ist denkbar, dass eine Website über ein überdurchschnittlich hohes Informationsangebot verfügt, welches für bestimmte Nutzergruppen relevant, für andere aber wenig brauchbar ist. So kann bspw. eine Liste über die Titelgeschichten einer Tageszeitung aus dem 19. Jahrhundert für einen Historiker von unschätzbarem Wert sein, während andere Nutzergruppen dies als eine veraltete und irrelevante Information erachten. Es ist folglich wichtig zu wissen, wer die Nutzer sind und durch welche Informationsbedürfnisse sie bei der Informationssuche motiviert werden.
Die unterschiedlichen Informationsbedürfnisse und Motivationen wirken sich auf die Informationssuche im Internet aus. So beeinflusst die subjektiv wahrgenommene Wichtigkeit des Informationsbedürfnisses die Suchmotivation. Darüber hinaus wird die tatsächliche Informationssuche im Internet in negativer Weise durch Hinderungsgründe (z. B. werden Informationen im Internet als unpersönlich und wenig vertrauenswürdig empfunden) und in positiver Weise durch begünstigende Faktoren (z. B. Zeitdruck oder geringer Aufwand für die Informationssuche) moderiert. Diese Faktoren und deren Bedeutung können sich von Nutzer zu Nutzer unterscheiden.
Zusätzliche Komplexität entsteht, weil für denselben Nutzer je nach Phase des Kundenlebenszyklus (Pre-Sales, Sales/Transaktion, After-Sales etc.) unterschiedliche Informationsbedürfnisse im Vordergrund stehen. Nutzer in der Pre-Sales-Phase interessieren sich v. a. für Informationen zu Produkteigenschaften wie Preis, Leistung und Produktvergleiche, in der Sales/Transaktions-Phase jedoch eher für die Kauf- und Lieferbedingungen sowie einen sicheren Bestellprozess. In der After-Sales-Phase stehen schließlich Garantiebestimmungen, Benutzerhandbücher oder der Support (z. B. in Form von FAQs) im Zentrum des Interesses.
Aus diesen Gründen ist es zwingend, verschiedene Kundengruppen und Kundensegmente in unterschiedlichen Phasen des Kundenlebenszyklus zu befragen: Was wünschen sie? Was erwarten sie? Und was erachten sie als zwingend bezüglich der Informationsqualität im Internet?
„Wie“ wollen es die Nutzer?
Es ist also wichtig, sich über das Informationsangebot auf Internetseiten („Was“) sowie über die Zielgruppe („Wer“) im Klaren zu sein. Das „Wie“, also die zielgruppengerechte Aufbereitung und Präsentation der Inhalte, ist jedoch genauso entscheidend.
„Kundenerwartungen befinden sich auf unterschiedlichen Abstraktionsniveaus.“
Befragungen von Internetnutzern verdeutlichen, dass sich die Erwartungen oder Evaluationskriterien zur Bestimmung der Informationsqualität auf unterschiedlichen Abstraktionsniveaus befinden. So haben die Aussagen „Die Internetseite sollte ein angenehmes Einkaufserlebnis vermitteln“, „Die Internetseite sollte einfach bedienbar sein“, „Produktinformationen sollten alle vorhanden sein“ oder „Mir ist wichtig, dass die Internetseite über eine Sitemap verfügt“ einen zunehmenden Konkretisierungsgrad. Als nützlich zur Auflösung solcher Schwierigkeiten haben sich sogenannte Means-End-Chains (Mittel-Ziel-Ketten) erwiesen. Damit werden Zusammenhänge von einzelnen oder mehreren konkreten Elementen (Mittel) und den Attributen der Wahrnehmung beschrieben. Diese Attribute werden gruppiert und zu Dimensionen zusammengefasst. Mehrere Dimensionen ergeben eine übergeordnete Abstraktion. Die Qualität von Internetauftritten aus Kundensicht setzt sich aus mehreren solchen übergeordneten Abstraktionen zusammen. Schlussendlich hat die wahrgenommene Qualität einen Einfluss auf die Kundeneinstellung und das Kundenverhalten (Ziel).
Anhand eines einfachen Beispiels einer Winzerinternetseite kann die Funktionsweise von Mittel-Ziel-Ketten zur Bestimmung von Evaluationskriterien der Informationsqualität verdeutlicht werden (siehe Abb. 3). Zur Vereinfachung werden für das Beispiel als konkrete Elemente nur die „Beschreibung des laufenden Weinjahres“ (z. B. Klima, Qualität der Trauben usw.) und „Aktuelle Preisliste“ (z. B. Preise verschiedener Jahrgänge) betrachtet. Im Beispiel werden „Die Informationen sind aktuell“ (bestehend aus zwei konkreten Elementen) und „Die Informationen sind übersichtlich dargestellt“ (mit nur einem konkreten Element) als mögliche Attribute genannt. Mehrere Attribute können zu Dimensionen zusammengefasst werden. Die Dimension „Aktualität“ besteht im Beispiel nur aus einem, die „Übersichtlichkeit/Struktur“ hingegen aus zwei Attributen. Aus einzelnen oder mehreren Dimensionen können schließlich übergeordnete Abstraktionen gebildet werden. Alle übergeordneten Abstraktionen zusammen machen die wahrgenommene Informationsqualität der Internetseite aus. Dank einer solchen Verkettung kann folglich ein komplexes Konstrukt wie die Informationsqualität im Internet systematisch aufgeschlüsselt und analysiert werden.
In der Forschung ist die Analyse der Informationsqualität nichts Neues. Doch seit einigen Jahren genießt das Thema stärkere Aufmerksamkeit, was diverse Konferenzen zur Informationsqualität verdeutlichen. Initiiert wurden z. B. die „International Conference on Information Quality” durch das Massachusetts Institute of Technology (MIT) oder die „German Information Quality Management Conference” durch die Deutsche Gesellschaft für Daten- und Informationsqualität e. V. (DGIQ) sowie verschiedene nationale und internationale Workshops zur Informationsqualität. Weiter fehlt es auch nicht an wissenschaftlichen Studien zur Erforschung der Informationsqualität. Doch trotz der erstaunlichen Menge und Vielfalt an Messinstrumenten beschäftigt sich nur ein geringer Teil der Forscher spezifisch mit der Informationsqualität von Internetseiten. Ist denn die Informationsqualität im Internet nicht messbar?
Informationsqualität im Internet ist messbar
Im Rahmen einer umfangreichen Metaanalyse wurden insgesamt 25 existierende Studien berücksichtigt, die alle ein Messinstrument zur Bestimmung der Informationsqualität im Internet beinhalten. In der Analyse wurden auf Basis dieser Studien 254 konkrete Elemente, 271 Attribute, 93 Dimensionen und 29 übergeordnete Abstraktionen strukturiert, verdichtet und analysiert. In einem zweiten Schritt wurden die Ergebnisse mittels qualitativer Interviews und unter Verwendung der Mittel-Ziel-Kette-Methodik und der Strukturlegetechnik geprüft und vervollständigt. Letztlich resultierten daraus 5 übergeordnete Abstraktionen, 22 Dimensionen und 106 Attribute zur Messung der Informationsqualität von Internetseiten aus Nutzersicht. Das Resultat ist in Abb. 4 (ohne Attribute) visualisiert. Eine vollständige Dokumentation dieser Forschung findet sich in der Dissertation von Olivier Blattmann (iQual – Informationsqualität im Internet: Eine Analyse am Beispiel der Schweizer Weinbranche).
Die fünf übergeordneten Abstraktionen „Systemunterstützte Informationsqualität“, „Darstellungsbezogene Informationsqualität“, „Inhärente Informationsqualität“, „Kontextabhängige Informationsqualität“ und „Weiche Faktoren der Informationsqualität“ beschreiben folglich je einen übergeordneten Aspekt der Informationsqualität von Webauftritten. Weiter kann das eigene Informationsangebot anhand der 22 Dimensionen und der 106 konkreten Attribute der Wahrnehmung aus der Perspektive eines Nutzers kritisch betrachtet werden. Die folgenden Beispiele sollen dies veranschaulichen, wobei selbstverständlich kein Anspruch auf Vollständigkeit erhoben wird.
- In der Dimension „Geschwindigkeit“ kann bspw. die Serverladezeit analysiert werden. Lange Ladezeiten sind nicht nur für den Nutzer mühsam (oder ggf. sogar ein Grund zum Abbruch), sondern schaden auch dem Ranking: Google ist interessiert an einem schnellen Internet und hat deshalb unlängst die Ladezeit von Webseiten als Rankingfaktor im Algorithmus berücksichtigt.
- Weiter liefert z. B. die Analyse der Dimension „Übersichtlichkeit/Struktur“ Hinweise auf die Effizienz der Informationssuche. Nutzer erwarten einen logischen Aufbau und eine Struktur, welche die Informationssuche unterstützt und ihnen auf einen Blick zeigt, wo sie sich befinden. So sollten bspw. Seiten mit ähnlichem Inhalt gleich aufgebaut, die Rubriken (Hauptrubrik/Unterrubrik usw.) angemessen sowie eine Sitemap vorhanden sein. Dies verschafft einerseits dem Nutzer eine bessere Orientierung und erlaubt es andererseits den Spidern der Suchmaschinen, alle Seiten schnell zu finden und eine Website vollständig zu indexieren.
- In Bezug auf die Dimensionen „Glaubwürdigkeit“ und „Reputation/Ansehen“ macht nun auch die zunehmende Bedeutung von Social Signals im Suchmaschinenranking durchaus Sinn: Die Suchmaschinen sind bestrebt, mittels stärkerer Gewichtung von Social Signals im Algorithmus den Nutzer vermehrt einzubeziehen. Dadurch erfolgt eine noch stärkere Vernetzung des algorithmisch ermittelten Suchmaschinenrankings mit dem menschlichen Qualitätsurteil.
- Als weitere Beispiele dienen die Dimensionen „Ästhetik“, „Angemessener Umfang“ und „Mehrwert“: Das Informationsangebot sollte ansprechend und nicht überladen sein. Trotzdem sollte es den verschiedenen Nutzergruppen eine angemessene Informationstiefe bieten und für sie nützlich sein. Bekannt ist, dass Suchmaschinen gerade bei stark umkämpften Keywords ausführliche und gute Texte bevorzugen. Einige SEOs verfassen daraufhin auf einer einzigen Seite Texte mit mehreren Tausend Wörtern, welche vermutlich von keinem einzigen Nutzer vollständig gelesen werden. Oder aber sie zeigen nur einen kleinen Ausschnitt eines Texts in einem kleinen Fenster mit Scrollbalken, das von den Nutzern zwar übersehen, von den Suchmaschinen jedoch indexiert wird. Besser wäre es, diese Inhalte zu strukturieren und zielgruppenspezifisch darzustellen. Für ein optimales Ranking sind alle Inhalte im Quelltext einer Seite vorhanden und können über intelligente Navigationsstrukturen (z. B. über Register oder auf- und zuklappbare Content-Elemente) aufgerufen werden. So können sich Kurzentschlossene nur das Wesentliche anzeigen lassen, wohingegen Informationshungrige vertieft in das Thema einsteigen können, ohne die Seite zu verlassen. Dies erlaubt es, das Informationsbedürfnis beider Nutzertypen auf derselben Seite gleichermaßen zu befriedigen.
Ausgehend von diesen Beispielen wird klar, dass sich die meisten dieser Kriterien auch mittels Algorithmen bestimmen lassen. Wenn sie es nicht schon heute können, so tun Suchmaschinenbetreiber ihr Möglichstes, dies in Zukunft zu realisieren. Umgedreht bedeutet dies für Onlinemarketer und Suchmaschinenoptimierer, dass sie sich bei jedem konkreten Element, jedem Attribut der Wahrnehmung, jeder Dimension und übergeordneter Abstraktion der Informationsqualität im Internet überlegen können, wie sie diese automatisiert und mittels Algorithmen bestimmen würden. Die Antworten darauf können für eine zukunftsgerichtete und langfristige SEO-Strategie richtungsweisend sein.
„Plötzlich schreibt man wieder Texte für die Nutzer – und weiß sogar warum!“
Fazit
Die Bedeutung der Informationsqualität im Internet ist hoch – und wird aufgrund der zunehmenden Wichtigkeit des Onlinekanals in Zukunft weiter wachsen. Die rasche Reaktion und die umgehende Sanktion von Google auf qualitativ schlechten Content verdeutlicht dies – ebenso die starken Auswirkungen der jüngsten Google-Updates.
Wird sich ein Websitebetreiber dieser Zusammenhänge bewusst, schreibt er plötzlich wieder Texte für die Nutzer („Wer“), da er deren Informationsbedürfnisse kennt. Kenntnisse über das „Was“ (erwartetes Informationsangebot) und das „Wie“ (erwartete Informationsqualität) haben folglich auch Konsequenzen für die Informationsarchitektur: Die An- und Zuordnung sowie die Benennung der Informationseinheiten können den Nutzererwartungen besser angepasst werden. Die Struktur und die Organisation der Website, aber auch das Webdesign können so gestaltet werden, dass sie der erwarteten Informationsqualität besser entsprechen, und zwar für alle möglichen Informationsbedürfnisse wie z.B. in jeder Phase eines Kundenlebenszyklus – vor, während und nach einem Kauf. Letzten Endes erlaubt dies eine bessere Bedürfnisbefriedigung der Internetnutzer und trägt somit maßgeblich zu einer positiven User-Experience bei!
Natürlich gilt es auch, gewisse Standardelemente nicht zu vernachlässigen: Faktoren, die es aufgrund von Empfehlungen von Google im Griff zu haben gilt. Viele davon können heute mit SEO-Tools überwacht, kontrolliert und verbessert werden. Doch dessen ungeachtet ist es essenziell, seine Nutzer und deren Erwartungen zu kennen, um ideale SEO-Texte zu verfassen. Aus einer gesamtheitlichen Perspektive wird SEO neben anderen Maßnahmen zu einem Teil des Online-Marketing-Mix und setzt dort an, wo auch die Kunden- und Marktorientierung anfängt. Deshalb wird SEO in Zukunft noch stärker zu einer Querschnittsdisziplin, welche alle Bereiche eines Unternehmens tangiert.
Ausblick
Was nun, wenn man die hohen Ansprüche seiner Nutzer an die Informationsqualität kennt? In der Disziplin des Informationsmanagements findet sich darauf eine einfache Antwort: Das Informationsangebot ist der Informationsnachfrage entsprechend auszugestalten, damit die Erwartungen der Kunden befriedigt werden können. Allerdings ist die praktische Umsetzung oft nicht ganz so einfach, sodass die von den Nutzern erwartete Informationsqualität leider nicht der angebotenen Informationsqualität entspricht. Es entsteht folglich eine Differenz, ein sogenannter Gap. Im Folgeartikel in Ausgabe #17 (01/02 2013) erfahren Sie, warum dieser Gap existiert und welche Faktoren ihn beeinflussen. Sie erfahren, welche Handlungsmöglichkeiten und Lösungsansätze bestehen, um diese Defizite zu reduzieren.