So verhindern Sie geistigen Diebstahl

Duplicate Content

6.4.2009 von Carola Heine

Einzigartigkeit von Texten zahlt sich aus, für Leser und Suchmaschinen. Denn: Mehrfaches Vorhandensein ist keinesfalls besser, wenn es um Online-Inhalte geht.

ca. 3:05 Min
Ratgeber
VG Wort Pixel
  1. Duplicate Content
  2. Teil 2: Duplicate Content
Community
Community
© Carola Heine

Sorgfältig konzipierte Unikate sind wertvoller als beliebige Kopien, das gilt auch für Website-Inhalte. Ganz gleich, ob es um die Auffindbarkeit von Texten unter mehr als einer URL geht oder ob die Konkurrenz sich frech am sorgfältig erstellten Content bedient: Der Nutzen für interessierte Leser steigt ebenso wie die zuverlässige Auffindbarkeit durch Suchmaschinen, wenn Duplicate Content - doppelt vorhandene Inhalte - vermieden und sorgfältig aufbereitete, einzigartige Texte bereitgestellt werden.

Wenn nämlich zwei oder mehrere gleich- lautende Versionen eines Artikels online stehen, entscheiden die unterschiedlichsten Faktoren darüber, welcher Beitrag in Suchmaschinenergebnissen wie beispielsweise von Google weiter oben steht: Nicht immer hat das Original dann die besten Karten. Das hat jedoch nichts mit einer generellen Abstrafung von Textkopien durch Google zu tun, wie Gerüchteköche in Blogs und SEO-Foren es häufig vermuten.

Keine Duplicate-Content-Strafe

Das offizielle Google Webmaster Central Blog lässt jedenfalls keinen Zweifel daran, dass es keine Duplicate Content Penalty gibt, die doppelt vorhandene Inhalte gezielt benachteiligt oder gar aus dem Google-Index ausschließt.

Google Webmaster Trends Analyst Susan Moskwa schreibt dazu, dass es zwar negative Auswirkungen hat, wenn man die gleichen Inhalte veröffentlicht wie auf anderen Sites - zum Beispiel zusammengekratzten Content ohne zusätzlichen Mehrwert, der übernommen und einfach nochmals veröffentlicht wird.

Die Webmaster Guidelines von Google dazu sind unmissverständlich: Unerwünscht sind Subdomains, Domains oder sich wiederholende Seiten mit Inhalten, die im Wesentlichen identisch mit anderen Webprojekten sind.

Wer zum Beispiel an Affiliate-Programmen teilnimmt, sollte zusätzlich zu der abgebildeten Werbung und dem angebotenen Standard-Content auch unbedingt noch informative Texte und Informationen ergänzen beziehungsweise durch relevante einzigartige Ergänzungen der Inhalte Anreize für Besucher liefern, statt nur die vorgefertigt angebotenen Produktbeschreibungen zu übernehmen.

Viele Site-Betreiber meinen selbst jedoch gar keine geklonten Inhalte, wenn sie Abstrafungen befürchten, sondern bezeichnen mit Duplicate Content multiple URLs auf einer Domain, die zu ein- und denselben Inhalten führen.

Das Google-Blog nennt als Beispiel Strukturen wie und und erläutert in Bezug auf diese doppelt auftretenden Online-Inhalte: Die Performance einer Site kann zwar darunter leiden, dass mehrfach auftretende Inhalte für Suchmaschinen-Crawler aufwendiger zu erfassen sind. Konkrete Abstufungen in den Suchmaschinenergebnissen sind deswegen aber nicht zu befürchten und diesen Problemen kann man gut ausweichen.

Clever strukturieren

Aufwendig zu erfassende Websites, die bei einem näheren Blick auf die Strukturen vielfältige Versionen desselben Inhalts anbieten, sind ein bei Standard- Installationen von Blogs und Redaktionssystemen häufiges Problem. Einzelseiten plus RSS-Feeds, Archiv-Übersichten, Kategorie- Übersichten und Druckversionen: Wer nicht aufpasst, hat bereits beim Veröffentlichen eines Artikels gleich mehrere über Suchmaschinen auffindbare Seiten mit einheitlichem Textkörper erschaffen.

Praxiswissen
Auf www.copyscape.com lässt sich prüfen, ob ein Webprojekt unautorisiert dupliziert wurde.
© Carola Heine

Aktuelle Suchmaschinentechnologie filtert redundante Ergebnisse aus, um nur eine URL mit dem relevanten Inhalt anzugeben und setzt dabei unterschiedliche Vorgehensweisen ein. Google beispielsweise arbeitet mit Clustern, gruppiert alle Einzelseiten-URIs mit gleichlautenden Inhalten, wählt eine innerhalb der Site gut auffindbare und durchsuchbare Adresse als besonders aussagekräftig und führt dann Link-Popularität und andere wichtige Faktoren aller Seiten für diese eine URI zusammen.

Was nach praktischer Selbstreinigung und Arbeitserleichterung für den Webmaster klingt, kann durchaus zum Ärgernis werden, wenn die in den Augen des Betreibers falsche URI bevorzugt präsentiert wird und Google für eine Suchanfrage bevorzugt auf Archivseiten oder RSS-Feeds zeigt.

Außerdem führt das Vorhandensein von doppelten Inhalten dazu, dass Suchmaschinen-Crawler auf vielen Umwegen durch die Site sämtliche vorhandenen Einzelseiten abgrasen müssen, um diese zu erfassen, ebenfalls zu analysieren und dann in Clustern zu konsolidieren - ebenso wichtige andere Artikel laufen dann Gefahr, vernachlässigt oder gar nicht erst erfasst zu werden, so Susan Moskwa.

Um als Site-Betreiber zu kontrollieren, welche Artikel bevorzugt erfasst werden und welche in Suchergebnissen gar nicht erst auftauchen sollen, bietet sich eine Kombination aus Sitemap-Kontrolle, No-Index Anweisungen in den Meta-Tags und richtungweisenden Strukturbefehlen in der robots.txt des Root-Verzeichnisses an.

Die beste URI des präsentierten Inhaltes gehört als Inhalt in die Sitemap, alle anderen nicht - für Google bietet es sich an, die Sitemap in den Webmaster Tools anzugeben. In den Meta-Angaben von Druckversionen und Tell-a-Friend-Templates sollte immer eine no index-Anweisung für Suchmaschinen stehen und das Crawling der Feed- und Kategorie- Duplikate sollte dann gegebenenfalls außerdem noch über robots.txt Befehle unterbunden werden nach dem Muster:

User-agent: *
Disallow: /index.php/
neu/monatsarchivliste/
Disallow: /index.php/
kundennews/feed
Disallow: /index.php/
kategoriearchiv/

Mehr lesen

Chronologische Liste und Netflix-Links

Marvel-Filme- und -Serien: Das ist die richtige Reihenfolge

Neuerscheinungen in der Übersicht

Netflix: Neue Filme und Serien

Vorschau auf Film- und Serien-Highlights

Amazon Prime Video: Neuheiten

Weiter zur Startseite  

Mehr zum Thema

internet, webdesign, adobe,  Illustrator, CS6

Webdesign

Webdesign in Adobe Illustrator CS6

Adobe Illustrator wird im Webdesign immer beliebter. Wie Sie das Tool richtig einsetzen, erfahren Sie hier.

Facebook stellte die neue Suche

Facebook

Facebooks Social Graph Search

Was sind die Implikationen für Unternehmen und Endanwender bei Facebooks neuer Suche Graph Search?

Der BGH erklärt das Internet zur Lebensgrundlage.

Online-Recht

Darauf müssen Sie bei den AGB achten

Allgemeine Geschäftsbedingungen liest sich niemand gerne durch. Sie sind jedoch notwendig und äußerst sinnvoll. Worauf sie achten sollten.

Online-Urheberrecht: Unser Ratgeber bietet Tipps für das Cloud-Recht.

Online-Recht in der Cloud

Wie sieht das Urheberrecht in der Wolke aus?

Dateien werden immer häufiger in der Cloud bereitgestellt. Rechtlich ist das jedoch durchaus problematisch. Wir klären über das Urheberrecht in der…

Logistik im E-Commerce: Prozesse rund um die Logistik.

E-Commerce-Logistik

Logistik im E-Commerce

Für den Erfolg eines Online-Shops sind zahlreiche Faktoren verantwortlich. Neben Produktvielfalt und Darstellung der Waren gehört auch die Logistik.