Duplicate Content

duplicate content

 

Duplicate Content bezeichnet den Inhalt, welcher sich in seiner Darstellung auf verschiedenen Websites befindet. Also doppelt oder mehrfach in nahezu identischer Form vorhanden ist. Google & Co. sehen das nicht gern. Sobald die Suchmaschinen den Duplicate Content finden, filtern sie ihn heraus und bewerten diesen Inhalt der Seite teilweise negativ.

duplicate content
Definition

Suchmaschinen definieren Duplicate Content, dass auf verschiedenen Domains / URLs fast identische Dokumente vorhanden sind. Diese Form kommt häufig dann vor, wenn Websitebetreiber ihre aktuelle Seite verändern wollen und eine neue Seite erstellen. In der Regel fließen die Inhalte der vorhandenen Seite in die neue Website ein. Die aktuelle Website bleibt noch für einige Zeit im Netz, während der Betreiber die neue Seite ebenfalls ins Web stellt. Da beide Seiten größtenteils über denselben Inhalt verfügen, ist ein Duplicate Content vorhanden, da beide Seiten im gleichen Webspace vorhanden sind.

Die verschiedenen Formen



Verschiedene Formen kommen bei Duplicate Content vor. Diese sind beispielsweise

• zwei Websites mit Dokumenten, die völlig identisch ist.
• Zwei Websites mit gleichem Inhalt, identisch in jedem Byte,
• Unterschiedliche URLs mit fast identischen Inhalten,
• Seiten, die nicht in Zusammenhang stehen, dennoch über einen weitgehenden identischen Inhalt verfügen und
• identisch Texte als Block oder Absatz auf verschiedenen Websites.

 

Was passiert bei doppeltem Content?

Bei den ersten beiden Formen behandelt Google die Seite, welche über mehr PageRank verfügt, als Originalseite und rankt sie „normal“. Alle weiteren Seiten, welche denselben Inhalt ganz oder ähnlich beinhalten, wertet die Suchmaschine als Kopien und wertet diese entsprechend ab.
Bei den unterschiedlichen URLs, sofern sich die Websites nicht im <head> unterscheiben, zeigt Google Konsequenz und wertet alle Seiten ab. Betroffen sind Meta-Keywords und Meta-Description. Mit dieser Methode versuchen die Suchmaschinen, die Methode vieler verschiedener URLs mit fast identischen Inhalten von Onlineshops oder Blogs in den Griff zu bekommen.

Websites, die in keinem Zusammenhang stehen und sich irgendwo im Web befinden, aber dennoch über nahezu identische Inhalte verfügen, bleiben von Strafen der Suchmaschinen verschont. Google & Co. ist es nicht möglich, sich um die vielen einzelnen Seiten im Netz zu kümmern und Domain mit Spam zu finden. Natürlich fällt es Google auf, wenn auf einer einzigen Domain viele hundert Seiten auftauschen, die aus dem „Nichts“ kommen. Bei Textblöcken oder -absätzen ist es unwahrscheinlich, dass Google und Co. die Ähnlichkeiten erkennen.

Gefahren für Seiten mit Duplicate Content

Mit dem PageRank-Algorithmus schob Google dem Duplicate Content einen Riegel vor. Brückenseiten oder Seiten, die im Web „vergessen“ wurden erhalten von den Suchmaschinen einen geringen PageRank und verschwinden damit von alleine aus dem Index. Allein der Kauf von PageRank macht den Suchmaschinen oft einen Strich durch ihre Rechnung. Deshalb stellt Duplicate Content damals wie heute bei der Indexierung des Netzes das Hauptproblem dar.

Die Suchmaschinen wie Google & Co. haben derzeit keinen Plan, wie sie mit Duplicate Content in der Regel verfahren. Diese Planlosigkeit macht die ganze Angelegenheit riskant und gefährlich. Eine Reihe Websites brechen ein, ohne dass ein Grund zu erkennen ist. Nur sehr langsam kommen diese Seiten wieder nach oben. Kein Risiko, in den Gefahrenbereich der Suchmaschinen zu geraten, haben Websitebetreiber, deren Seiten keinerlei Aktivitäten im „Grauzonenbereich“ aufweisen.