Einmal publiziert, werden Inhalte von Webseiten in kurzer Zeit vielfach und automatisiert kopiert und sind damit nicht nur unter der Originaladresse abruf- und sichtbar. Wenn es ansonsten oftmals sogar erwünscht ist, dass Beiträge möglichst leicht zu finden sind, verkehrt sich dies ins Gegenteil, wenn man nach einer Abmahnung wegen einer Rechtsverletzung eine strafbewährte Unterlassungserklärung unterschreiben musste. Findet die gegnerische Partei dann noch Fragmente der beanstandeten Webinhalte, kann es durchaus teuer werden. Dieser Beitrag gibt praktische Tipps, wie man dieses Risiko aktiv minimieren kann.
Undo - Webinhalte löschen
Die schlechte Nachricht gleich vorweg: Die hundertprozentige Löschung wirklich aller Kopien einer Webseite kann in der Praxis niemand veranlassen. Das ist allein schon deswegen nicht möglich, weil niemand weiß, wer Kopien angefertigt hat und wo diese angezeigt werden. Neben Google, Yahoo! und Bing gibt es noch viele mehr oder weniger eigenständige kleinere Suchmaschinen oder Suchdienste. Wer sich also per Unterlassungserklärung verpflichtet, wirklich alle Kopien zu löschen, ist auf das Know-how und die „guten Absichten“ des gegnerischen Anwalts angewiesen und darauf, wo der später tatsächlich nachgräbt.
Zunächst: Erst mal nur ändern!
Eine Abmahnung enthält ja immer auch eine Frist. Vorher muss die beanstandete Seite oder ein Bild nicht entfernt sein. Es ist daher besser, die Seite selbst erst einmal abzuändern oder das beanstandete Bild durch ein anderes zu ersetzen. Selbstverständlich kann man auch den kompletten Text der Seite löschen. Anschließend trägt man im Head-Bereich <head> der Seite ein Verbot für Suchmaschinen ein, die Seite zu indexieren. Dazu trägt man die folgende Zeile ein oder ändert den ggf. schon vorhandenen Eintrag entsprechend ab. Der Eintrag weist Suchmaschinen an, die Seite nicht (mehr) zu indizieren:
<meta name="robots" content="noindex">
Zusätzlich kann man noch die Zeile
<meta name="robots" content="noarchive">
eintragen. Sie bewirkt, dass Suchmaschinen den Inhalt nicht in ihren internen Speicher (Cache) aufnehmen bzw. diesen nicht (mehr) öffentlich anzeigen. Im Prinzip reicht zwar die erste Zeile (das Indexierungsverbot), aber bei einem späteren Rechtsstreit ist es sicher nicht schlecht, nachweisen zu können, dass man alle Möglichkeiten ausgeschöpft hat.
Speichern Sie sich der Einfachheit halber vorher die genauen Adressen (URL) ab, die das beanstandete Material enthalten. Bei einem einzelnen Bild auf einer Webseite klicken Sie dazu z. B. mit dem Mauszeiger über dem Bild die rechte Maustaste und wählen je nach Browser „Grafikadresse kopieren“ oder „Bild-URL kopieren“. Beim Internet Explorer findet man die Adresse unter „Eigenschaften“ und kann sie dort manuell herauskopieren. Diese Adresse speichert man sich gesondert ab, weil man sie später zu Prüfzwecken unbedingt noch benötigt. Sie sieht z. B so aus: www.websiteboosting.com/typo3temp/pics/93abeb8b66.jpg.
Jetzt ist der Zeitpunkt gekommen, Google, Yahoo! und Bing manuell Bescheid zu geben, dass die Seite gelöscht werden muss.
In Googles Webmaster-Tools (www.google.com/webmasters/tools) findet man für diese Funktion z. B. unter „Optimierung“ den Menüpunkt „URLs entfernen“. Dort klickt man auf „Neuen Antrag auf Entfernung stellen“, trägt die genaue Adresse dort ein und nach dem Klick auf „Weiter“ wählt man in der Folgemaske die Option „Seite aus Suchergebnissen und Cache entfernen“ aus und übermittelt den Antrag (siehe Abbildung 2). Selbstverständlich muss man für die entsprechende Domain bei Google als Webmaster akkreditiert sein, um diesen Zugang zu bekommen. Wer den noch nicht hat, kann in der entsprechenden Hilfe dort nachlesen, wie das zu bewerkstelligen ist.
Tipp
Am besten machen Sie von wichtigen Schritten Screenshots. Dies hilft möglicherweise bei einem späteren Rechtsstreit beim Nachweis, was Sie wann genau getan haben, wenn Sie diese Unterlagen einem Gutachter vorlegen (können).
Bei Bing funktioniert dies prinzipiell menügeführt ähnlich. Die Webmaster-Tools von Bing erreicht man unter www.bing.com/toolbox/webmaster. Damit werden auch gleichzeitig die Inhalte bei Yahoo! gelöscht, da beide Suchmaschinen kooperieren.
In dem vorherigen Beitrag ist darauf ja schon hinwiesen worden: Sorgen Sie in jedem Fall dafür, dass die beanstandeten Objekte, also eine ganze Webseite oder eben auch nur ein bestimmtes Bild, auch wirklich physikalisch vom Webserver gelöscht bzw. überschrieben werden. Das „Löschen“ in Shopsystemen oder Content-Management-Systemen ist je nach System nämlich oft kein echtes Entfernen der Datei, sondern nur eines aus dem als aktiv über die Navigation oder Suche geschalteten Seitenbestand. Gerade Bilder bleiben in der Regel von außen über die genaue URL aufrufbar, weil das Löschen einer HMTL-Seite nicht auch automatisch Bilder mit entfernt. Dies ist auch logisch, denn ein Bild kann ja auf mehreren Seiten identisch genutzt worden sein.
Warum denn nicht so schnell wie möglich alles löschen?
Je länger die entsprechend geänderte oder geleerte Seite noch im Netz steht, desto höher ist die Wahrscheinlichkeit, dass alle Robots auch von den anderen Suchmaschinen oder sonstigen Kopierdiensten die Seite erneut besucht haben und die alte (beanstandete) Version der Seite mit dieser neuen Version überschreiben bzw. das Indexierungsverbot überhaupt registrieren und die Seite aus dem eigenen Datenbestand löschen.
Nimmt man die Seite sofort vom Netz, bekommen die anfragenden Robots vom Webserver den Fehlercode 404 zurück („Seite nicht vorhanden“). In der Regel versuchen die unterschiedlichen Maschinen den Zugriff zu späteren Zeitpunkten dann noch mehrmals, ehe sie die Seite als endgültig nicht mehr erreichbar klassifizieren. Kopien der letzten erreichbaren Version bleiben dann aber eben auch über einen längeren Zeitraum noch abrufbar.
Aus dem gleichen Grund sollte man ein Zugriffsverbot über die Datei robots.txt erst ganz zum Schluss eintragen. Zwischen „nicht mehr indexieren“ (über das Metatag gesteuert) und einem „Aufrufverbot“ (über die robots.txt) ist ein kleiner, aber feiner Unterschied. Wurde ein Aufrufverbot erteilt, erlangen die Robots nämlich keine Kenntnis mehr von den Änderungen, die man am Dokument vorgenommen hat, und bewahren ggf. wie erwähnt die alte Kopie zu lange auf.
Der folgende Eintrag in der Steuerungsdatei „robots.txt“ sorgt dann am Ende dafür, dass jeder nach den Richtlinien arbeitende Suchmaschinenrobot (der Stern „*“ steht für „alle“) die einzelne Seite www.meinedomain.de/betroffene-seite.html und das Bild unter der Adresse www.meinedomain.de/bilder/betroffenes-bild.jpg nicht mehr aufruft.
User-agent: * Disallow: /betroffene-seite.html Disallow: /bilder/betroffenes-bild.jpg
Achten Sie darauf, die Adresse wirklich genau einzutragen. Jeder Tippfehler wirkt sich an dieser Stelle fatal aus! Weitere Hinweise zur „robots.txt“ und deren Aufbau finden Sie unter einfach.st/robots.
Am Ende wird dann auch physikalisch gelöscht
Ist durch die vorgenommenen Änderungen die beanstandete Rechtsverletzung noch nicht behoben, muss die Seite bzw. müssen einzelne Objekte wie z. B. Bilder dann natürlich auch physikalisch gelöscht werden. Die Löschfunktion von Verwaltungssystemen reicht hier wie oben beschrieben leider oft nicht aus. Prüfen Sie daher, ob das vermeintlich gelöschte Objekt durch einen direkten Aufruf in der Adresszeile des Browsers tatsächlich nicht mehr ausgeliefert wird. Dazu kopieren Sie die Adresse(n), die Sie zu Anfang wie oben beschrieben gesichert haben, in den Browser – also z. B. www.websiteboosting.com/typo3temp/pics/93abeb8b66.jpg. Erscheint das Bild trotz der vorgenommenen Löschung noch, weiß man jetzt, dass diese eben nur eine vermeintliche und keine tatsächliche war. Spätestens jetzt ist es notwendig, mit einem sog. FTP-Programm direkt auf den Server zuzugreifen und die Objekte manuell zu löschen. Ausführliche und weiterführende Infos finden sich direkt bei Google in deutscher Sprache unter einfach.st/gloesch.