Warum Duplicate Content schlecht ist

Leider musste unser Sonntagsartikel ausfallen, weil ich es mir offenbar zur Tradition gemacht habe, sobald es schönes Wetter gibt, krank im Bett zu liegen. Heute geht’s dann aber weiter und zwar mit dem allseits beliebten Thema Duplicate Content. Wenn man die Seo-Blogosphäre betrachtet, stellt man fest, dass doppelte Inhalte auf einer Website (oder auch auf zwei verschiedenen Websites) offenbar etwas ziemlich Schlimmes sind. Wenn Google solche Duplikate von Seiten entdeckt, dann findet es die Seite doof und lässt sie erstmal nicht mehr so richtig in den SERPs mitspielen, sozusagen als Strafe. Diesen Eindruck kann man zumindest manchmal gewinnen. Aber ist das wirklich so? Man kann jetzt schon ahnen, dass die Antwort auf die Frage „nein“ lautet. Daran schließen sich dann wiederum andere Fragen an: Warum wird dann vor Duplicate Content gewarnt? Oder: Kann ich doppelte Inhalte dann nicht einfach ignorieren?

Die Duplicate Content Panikmache

Vor circa zwei Wochen hat einer der Gurus der deutschen SEO-Szene, Martin Mißfeldt, in seinem tagseoblog einen Artikel über das Duplicate Content Penalty Gespenst geschrieben. Darin prangert er einerseits die Panikmache um die ganze DC Problematik an und geht andererseits auf das Gerücht ein, dass Google Websites mit doppeltem Inhalt abstrafen würde. Anhand seiner eigenen Erfahrungen und einigen Google Statements widerlegt er die Existenz einer solchen regelrechten Bestrafung. Die Idee, dass bei doppelten Inhalten also der Google-Hammer kommt und man ein gutes Ranking erstmal vergessen kann, kann man also nicht erst seit Martins Artikel ad acta legen. Denn alle Behauptungen, die eine solche „Strafe“ seitens Google prophezeiten, konnten schon immer getrost als Panikmache bezeichnet werden. Wie so oft wird auch hier nichts so heiß gegessen wie es gekocht wird.

Warum ist Duplicate Content trotzdem schlecht?

Wie gesagt ist es übertrieben, wegen doppelter Inhalte in Angstschweiß auszubrechen. Entdeckt man solche auf der eigenen Website, gilt auch hier: abwägen. Es ist häufig nicht unwahrscheinlich, dass es wichtigere Baustellen gibt. Aber trotzdem sprechen gute Gründe dafür, warum man mittelfristig etwas gegen sie unternehmen oder warum man sie am besten ganz vermeiden sollte. Denn auch wenn es keine „Abstrafung“ gibt, kann Duplicate Content trotzdem das Ranking negativ beeinflussen. Martin Mißfeldt beispielsweise erwähnt, dass Google von alleine erkennen würde, welche Seite die relevante ist, um dann nur die wichtigere von beiden in die Suchergebnisse aufzunehmen. Nun, das mag in der Theorie so sein und von Google auch nach außen so vermittelt werden, jedoch gibt es ernsthafte Zweifel, ob Google das zuverlässig kann. Selbst paginierte Schlagwortseiten aus Blogs, die einen Teil des Originaltextes enthielten, habe ich schon mal in den Suchergebnissen gefunden und zwar direkt unter dem eigentlichen Artikel. Über diese Problematik, vor allem bei Blogs und Online Shops und was man dagegen tun kann, habe ich ja neulich schon berichtet. Und es finden sich noch zahlreiche andere Beispiele, die zeigen, dass Google eben nicht immer zuverlässig erkennen kann, was jetzt das Original ist und was eine unwichtige Kopie, die nicht in den Index aufgenommen zu werden braucht. Drei wichtige SEO-Faktoren, die von Duplicate Content negativ beeinflusst werden, fallen mir auf Anhieb ein:

1. Die Website-Struktur: Verlust der Übersicht durch Duplicate Content und der Faktor Mensch

Einen Faktor, den man in der SEO nicht vergessen sollte, ist der Mensch. Menschen ist es egal, ob sie gerade eine Kopie der Website vor sich haben, oder – strukturell gesehen –  das Original.  Klassisches Beispiel ist hier die Version der Website mit und ohne www. Empfohlen wird hier eine Weiterleitung bzw. das Canonical Tag, damit nicht zwei Versionen existieren, die zwar gleich aussehen, für den Suchmaschinen Crawler aber erstmal zwei verschiedene Websites ausmachen. Theoretisch ist das selbst ohne Anleitung aber kein Problem, wenn der Googlebot es schafft, die Kopie als solche zu sehen. Menschen sind hier aber der Störfaktor. Sowohl Menschen, die von außen auf die Website zugreifen, als auch von innen. Von Innen gibt es ein Problem, wenn die verschiedenen Versionen nicht einheitlich behandelt werden – wenn also die Menschen, die daran arbeiten nicht richtig koordiniert sind. Ich meine hier insbesondere die interne Verlinkung, die dadurch uneinheitlich werden kann. Auch Links von außen, also Backlinks können auf die „falsche“ URL führen und somit ihren Nutzen einbüßen. Zumal es dadurch für Google schwieriger wird die Relevanz zu beurteilen, wenn keine Weiterleitung/ Canonical Tag existiert.

Nicht nur auf die Links wirkt sich der Übersichtsverlust aus. Es ist z.B. für einen SEO viel mühsamer die Fehler einer Website zu finden, wenn jeder Fehler zweimal oder dreimal existiert. Wenn eine Seite erstmal ein paar hundert oder tausend Unterseiten hat, wird es wirklich knifflig. Und dann wird es auch umso teurer. Allein schon um die Übersicht zu behalten, lohnt es Duplicate Content zu vermeiden.

2. Interne Verlinkung und Linkjuice

Wie ich im ersten Punkt bereits gesagt habe, kann die Verlinkung der Website unter doppelten Inhalten leiden, wenn häufig die „falsche URL“ verlinkt wird. Das und generell die Aufteilung auf mehrere Seiten wirkt sich negativ auf den Linkjuice aus, der sich auf viel mehr Seiten verteilen muss. Das kann einen direkten Einfluss auf das Ranking haben. Denn wenn sich der Linkjuice auf zwei identische Websites verteilt und von denen dann eine nicht in den Index aufgenommen wird – wenn Google seine Sache gut macht -, dann geht dieser Teil des Linkjuices verloren. Wenn man also nicht aufpasst, führen doppelte Inhalte schnell zu einer schlechteren internen wie externen Verlinkung und zu einer Aufteilung des Linkjuices und damit letztlich zum Verlust an Linkpower.

3. Duplicate Content ist nicht unique

Das eigentlich offensichtliche muss noch einmal gesagt werden. Google möchte schließlich Content, also Inhalte haben. Und diese sollten selbst erstellt, relevant und einzigartig sein, also unique. Es liegt also in der Natur der Sache, dass Duplicate Content, je stärker er vorkommt, einen negativen Einfluss hat. Und hier handelt es sich nicht um die Art doppelter Inhalt, die durch verschiedene Versionen mit oder ohne www entsteht. Es geht um wirkliche Textkopien, die auf anderen Seiten auftauchen. Das kann einerseits technische Gründe haben (Paginierung) andererseits aber auch inhaltliche, wenn Inhalte mit Copy + Paste erstellt werden. In letzterem Fall ist DC dann nur noch das Symptom und nicht mehr die Ursache, denn die lautet Thin Content oder zu wenig Unique Content. Damit hat man ein Qualitätsproblem und das mag Google gar nicht (Panda). Da helfen dann auch nur neue und gute Inhalte.

Duplicate Content hat viele Nachteile, aber keinen Vorteil

Lautet die Diagnose des SEO Tools der Wahl, dass eine Website Duplicate Content enthält, bedeutet das erstmal noch nichts grundsätzlich Schlimmes. Es ist absolut wichtig, die Befunde zu analysieren. Manche weisen auf ernsthafte Probleme hin, andere wiederum haben kaum Bedeutung. Doppelte Inhalte sind nicht nur ein Problem, sondern wie gesagt auch ein Symptom oder ein Indikator, dass irgendetwas anderes nicht stimmt. Auf jeden Fall sollte man sie von Anfang an vermeiden. Man vermeidet damit zwar keine direkte Bestrafung (denn die gibt’s ja nicht), aber man vermeidet andere Probleme, die das Ranking ganz ohne Strafe negativ beeinflussen können. Meiner Meinung nach ist auch die Übersichtlichkeit der eigenen Website und der Linkstruktur elementar, was ein Grund mehr ist, Dubletten zu vermeiden. Duplicate Content ist manchmal „nicht so schlimm“ und schadet nicht, aber eines ist er trotzdem nie: gut.

Das könnte dir auch gefallen

Kommentar hinterlassen

Deine E-Mail Adresse wird nicht veröffentlicht.

6 Kommentare
07.05.2013

Hi,
schöner Artikel. Eine Sache fehlt mir aber:
Jede Sekunde die der Crawler damit verbringt, doppelte Inhalte zu lesen, ist verschwendete Zeit. Da der Crawler auch nur eine begrenzte Zeitspanne auf euren Seiten ist, verliert ihr wertvolle Crawling-Zeit für andere Seiten, auf denen Ihr evtl. was geändert habt.

Grüße

David Linden
07.05.2013

Hi Robert,

Ja du hast recht. Der Verbrauch an Crawler Ressourcen ist in der Tat ebenfalls ein Problem. Das wird vor allem bei größeren Websites zu einem wirklich relevanten Faktor. Das ist so ähnlich auch in dem verlinkten Artikel vom Martin Mißfeldt zu lesen. Deswegen habe ich wohl vergessen das auch noch zu erwähnen. Danke für den Hinweis, das wird bald nachgebessert.