So verhindern Sie geistigen Diebstahl
Duplicate Content
Einzigartigkeit von Texten zahlt sich aus, für Leser und Suchmaschinen. Denn: Mehrfaches Vorhandensein ist keinesfalls besser, wenn es um Online-Inhalte geht.
- Duplicate Content
- Teil 2: Duplicate Content

Sorgfältig konzipierte Unikate sind wertvoller als beliebige Kopien, das gilt auch für Website-Inhalte. Ganz gleich, ob es um die Auffindbarkeit von Texten unter mehr als einer URL geht oder ob die Konkurrenz sich frech am sorgfältig erstellten Content bedient: Der Nutzen für interessierte Leser steigt ebenso wie die zuverlässige Auffindbarkeit durch Suchmaschinen, wenn Duplicate Content - doppelt vorhandene Inhalte - vermieden und sorgfältig aufbereitete, einzigartige Texte bereitgestellt werden.
Wenn nämlich zwei oder mehrere gleich- lautende Versionen eines Artikels online stehen, entscheiden die unterschiedlichsten Faktoren darüber, welcher Beitrag in Suchmaschinenergebnissen wie beispielsweise von Google weiter oben steht: Nicht immer hat das Original dann die besten Karten. Das hat jedoch nichts mit einer generellen Abstrafung von Textkopien durch Google zu tun, wie Gerüchteköche in Blogs und SEO-Foren es häufig vermuten.
Keine Duplicate-Content-Strafe
Das offizielle Google Webmaster Central Blog lässt jedenfalls keinen Zweifel daran, dass es keine Duplicate Content Penalty gibt, die doppelt vorhandene Inhalte gezielt benachteiligt oder gar aus dem Google-Index ausschließt.
Google Webmaster Trends Analyst Susan Moskwa schreibt dazu, dass es zwar negative Auswirkungen hat, wenn man die gleichen Inhalte veröffentlicht wie auf anderen Sites - zum Beispiel zusammengekratzten Content ohne zusätzlichen Mehrwert, der übernommen und einfach nochmals veröffentlicht wird.
Die Webmaster Guidelines von Google dazu sind unmissverständlich: Unerwünscht sind Subdomains, Domains oder sich wiederholende Seiten mit Inhalten, die im Wesentlichen identisch mit anderen Webprojekten sind.
Wer zum Beispiel an Affiliate-Programmen teilnimmt, sollte zusätzlich zu der abgebildeten Werbung und dem angebotenen Standard-Content auch unbedingt noch informative Texte und Informationen ergänzen beziehungsweise durch relevante einzigartige Ergänzungen der Inhalte Anreize für Besucher liefern, statt nur die vorgefertigt angebotenen Produktbeschreibungen zu übernehmen.
Viele Site-Betreiber meinen selbst jedoch gar keine geklonten Inhalte, wenn sie Abstrafungen befürchten, sondern bezeichnen mit Duplicate Content multiple URLs auf einer Domain, die zu ein- und denselben Inhalten führen.
Das Google-Blog nennt als Beispiel Strukturen wie und und erläutert in Bezug auf diese doppelt auftretenden Online-Inhalte: Die Performance einer Site kann zwar darunter leiden, dass mehrfach auftretende Inhalte für Suchmaschinen-Crawler aufwendiger zu erfassen sind. Konkrete Abstufungen in den Suchmaschinenergebnissen sind deswegen aber nicht zu befürchten und diesen Problemen kann man gut ausweichen.
Clever strukturieren
Aufwendig zu erfassende Websites, die bei einem näheren Blick auf die Strukturen vielfältige Versionen desselben Inhalts anbieten, sind ein bei Standard- Installationen von Blogs und Redaktionssystemen häufiges Problem. Einzelseiten plus RSS-Feeds, Archiv-Übersichten, Kategorie- Übersichten und Druckversionen: Wer nicht aufpasst, hat bereits beim Veröffentlichen eines Artikels gleich mehrere über Suchmaschinen auffindbare Seiten mit einheitlichem Textkörper erschaffen.

Aktuelle Suchmaschinentechnologie filtert redundante Ergebnisse aus, um nur eine URL mit dem relevanten Inhalt anzugeben und setzt dabei unterschiedliche Vorgehensweisen ein. Google beispielsweise arbeitet mit Clustern, gruppiert alle Einzelseiten-URIs mit gleichlautenden Inhalten, wählt eine innerhalb der Site gut auffindbare und durchsuchbare Adresse als besonders aussagekräftig und führt dann Link-Popularität und andere wichtige Faktoren aller Seiten für diese eine URI zusammen.
Was nach praktischer Selbstreinigung und Arbeitserleichterung für den Webmaster klingt, kann durchaus zum Ärgernis werden, wenn die in den Augen des Betreibers falsche URI bevorzugt präsentiert wird und Google für eine Suchanfrage bevorzugt auf Archivseiten oder RSS-Feeds zeigt.
Außerdem führt das Vorhandensein von doppelten Inhalten dazu, dass Suchmaschinen-Crawler auf vielen Umwegen durch die Site sämtliche vorhandenen Einzelseiten abgrasen müssen, um diese zu erfassen, ebenfalls zu analysieren und dann in Clustern zu konsolidieren - ebenso wichtige andere Artikel laufen dann Gefahr, vernachlässigt oder gar nicht erst erfasst zu werden, so Susan Moskwa.
Um als Site-Betreiber zu kontrollieren, welche Artikel bevorzugt erfasst werden und welche in Suchergebnissen gar nicht erst auftauchen sollen, bietet sich eine Kombination aus Sitemap-Kontrolle, No-Index Anweisungen in den Meta-Tags und richtungweisenden Strukturbefehlen in der robots.txt des Root-Verzeichnisses an.
Die beste URI des präsentierten Inhaltes gehört als Inhalt in die Sitemap, alle anderen nicht - für Google bietet es sich an, die Sitemap in den Webmaster Tools anzugeben. In den Meta-Angaben von Druckversionen und Tell-a-Friend-Templates sollte immer eine no index-Anweisung für Suchmaschinen stehen und das Crawling der Feed- und Kategorie- Duplikate sollte dann gegebenenfalls außerdem noch über robots.txt Befehle unterbunden werden nach dem Muster:
User-agent: *
Disallow: /index.php/
neu/monatsarchivliste/
Disallow: /index.php/
kundennews/feed
Disallow: /index.php/
kategoriearchiv/