Kategorie: SEO

Duplicate Content: Der unsichtbare Gegner deiner SEO-Strategie

Lesedauer: 6 Minuten
Duplicate Content Keywordwolke SEO

Einleitung

Im heutigen Blog-Beitrag widmen wir uns dem Thema Duplicate Content. Oftmals wurde bereits ein sehr hoher Aufwand betrieben um die eigene Website zu optimieren und neue Inhalte zu erstellen. Das Thema Duplicate Content wird dabei jedoch häufig vernachlässigt und kann sich daher als sehr kontraproduktiv für die eigene SEO-Strategie erweisen. Durch Duplicate Content können bestehende Rankings und auch das Vertrauen der Nutzerinnen und Nutzer negativ beeinträchtigt werden.

Als Duplicate Content werden im Kontext der Suchmaschinenoptimierung Inhalte bezeichnet, die innerhalb einer Website oder über unterschiedliche Websites hinweg identische oder sehr ähnliche Inhalte aufweisen. Die Inhalte können dabei Text, Bilder oder auch anderen Medienformate wie Videos umfassen. Suchmaschinen wie Google sind nämlich sehr darauf bedacht den Datenbstand möglichst effizient zu halten. Eindeutige Informationen sollen nicht mehrfach abgelegt werden. Nutzerinnen und Nutzer sollen bei ihrer Suche die beste Quelle für Informationen erhalten.

In diesem Beitrag gehen wir zunächst auf die verschiedenen Ursachen für die Entstehung von Duplicate Content ein. Weiter werden wir auf die Auswirkungen von Duplicate Content auf die eigenen SEO-Maßnahmen eingehen. Natürlich möchten wir auch mögliche Lösungsansätze in diesem Beitrag näher vorstellen. Letztlich fassen wir die wesentlichen Punkte zu dieser Thematik in einem Fazit zusammen.

Entstehung von Duplicate Content

Als erste und häufigste Ursache für die Entstehung von Duplicate Content ist das menschliche Verhalten zu nennen. Inhalte werden bewusst kopiert und an anderer Stelle erneut veröffentlicht. Dies können Blog-Beiträge, Produktbeschreibungen und eine Vielzahl weiterer Inhalte sein. Dabei können die Inhalte manuell oder auch automatisiert durch so genannte Scraper unberechtigt vervielfältigt werden. Eine weitere beliebte Methode betrifft die Nutzung von Übersetzungsprogrammen. Ein Originaltext wird kopiert und in eine andere Sprache übersetzt. Anschließend erfolgt die Übersetzung wieder in die Ausgangssprache mit dem Ziel die Struktur des Textes minimal zu ändern, um die direkte Kopie der Inhalte zu verschleiern.

Duplicate Content: Menschliche Ursache kopieren von Inhalten

Natürlich gibt es auch technische Ursachen für die Entstehung von Duplicate Content. Zum Beispiel sind Domains oftmals mit einem beginnenden „www“ erreichbar und auch parallel ohne ein „www“ aufrufbar. Dies führt letztlich dazu, dass die URLs dieser Domains doppelt für Suchmaschinen vorhanden sind. Daher sollten sich Betreiberinnen und Betreiber von Websites für eine Domain-Variante entscheiden. Dieser Punkt ist auch insbesondere bei der internen Verlinkung wichtig. So sollte die Verlinkung auch in der identischen Form erfolgen.

Duplicate Content www / non-www

Eine ähnliche Thematik sind auch die HTTP- und HTTPS-Versionen einer Website. Dabei handelt es sich um Protokolle, die für die Datenübertragung zwischen Browsern und Servern zur Verwendung kommen. Bei der HTTPS-Variante wird der Datenverkehr entsprechend verschlüsselt. Wenn beide Varianten parallel existieren kann dies bei Suchmaschinen allerdings auch zu Duplicate Content führen. Daher sollte sichergestellt werden, dass alle URLs nur per HTTPS erreichbar sind.

Duplicate Content HTTP / HTTPS

Eine weitere Ursache betrifft Content Management Systeme (CMS). Diese generieren häufig automatisch URLs für neue Inhalte. Letztlich kann dies dazu führen, dass derselbe Inhalte über verschiedene URLs erreichbar ist. Zudem werden häufig auch automatische Archivseiten und Kategorien generiert, die diese Thematik noch verschärfen. Das ist für Suchmaschinen wiederum kontraproduktiv, da sie wie bereits erwähnt einen effizienten und eindeutigen Datenbestand anstreben.

Auswirkungen von Duplicate Content

Nachdem wir nun beleuchtet haben wie Duplicate Content entstehen kann, widmen wir uns nun den Auswirkungen. Wir gehen im Weiteren insbesondere auf die Folgen für die Suchmaschinenoptimierung ein. Hier sind zunächst mögliche Abstrafungen durch Betreiber von Suchmaschinen wie Google zu nennen. Diese gilt es natürlich unbedingt zu vermeiden, da sie bisherige Erfolge bei der Optimierung komplett zunichtemachen können. Weiter sind rechtliche Konsequenzen wie Abmahnungen möglich, sofern man unberechtigt Inhalte Dritter vervielfältigt hat.

Ein nicht zu vernachlässigender Faktor ist zudem das zur Verfügung stehende Crawl-Budget der Suchmaschinen. Anhand verschiedener Faktoren wird jeder Website ein Budget für das Crawling zugewiesen. Aus Gründen der Effizienz kann es gerade bei großen Websites dazu kommen, dass nur ein gewisser Anteil an URLs regelmäßig gecrawlt wird. Wenn dieses zur Verfügung stehende Budget an Crawls dann für doppelt vorhandene Inhalte verwendet wird, führt dies zu einem verschwendeten Potential, da so weniger einzigartige Inhalte erfasst werden.

Ein weiterer Aspekt betrifft die Vererbung von Linkjuice. Der Begriff steht für die Übertragung von SEO-Wert und Autorität durch eingehende Links zu einer Webseite. Wenn nun der gleiche Inhalte über verschiedene URLs erreichbar ist, kann wertvoller Linkjuice verloren gehen, da er auf mehrere URLs aufgeteilt wird. Zudem ist oftmals auch die Autorität unklar, da Suchmaschinen Schwierigkeiten haben die originale Version der Inhalte zu identifizieren. Daher kann dies letztlich zum Verlust wertvoller Rankings kommen.

Lösungsansätze für Duplicate Content

Da die vielseitigen negativen Auswirkungen doppelter Inhalte nun deutlich wurden, möchten wir in diesem Beitrag auch noch mögliche Lösungsansätzen vorstellen.

Im Idealfall vermeidet man die Entstehung doppelter Inhalte von Anfang an. Eine Möglichkeit wäre über die robots.txt die Indexierung bestimmter Verzeichnisse auszuschließen. Durch diese präventive Maßnahme kann wertvolles Crawl-Budget für einzigartige Inhalte gespart werden.

Eine weitere Möglichkeit zur Problemlösung bietet das Canonical Tag. Dabei handelt es sich um ein HTML-Tag, das in den Kopfbereich einer Website eingefügt wird. Dadurch kann gesteuert werden, welche Version einer Seite von Suchmaschinen als die „Hauptversion“ angesehen werden soll. Der Vorteil von Canonical Tags besteht darin, dass weiterhin beide URLs erreichbar sind. Dies kann zum Beispiel in Online-Shops vorteilhaft sein, bei denen identische Produktseiten in verschiedenen Kategorien erscheinen. Das Canonical Tag stellt hier eine gute Lösung dar, ohne die Seitenstruktur verändern zu müssen.

Ein weiterer Ansatz sind 301-Weiterleitungen. Dabei handelt es sich um eine dauerhafte Umleitung von einer URL zu einer anderen. Dieses Vorgehen ist empfehlenswert, wenn eine URL nicht mehr existiert oder wenn zwei URLs zu einer zusammengeführt werden sollen. Diese Art der Weiterleitung eignet sich auch sehr um die bereits erwähnten „www“- und „HTTPS“-Problematiken zu lösen.

Des Weiteren sollte auch unbedingt auf die Tags <title> und <description> geachtet werden. Es ist sehr wichtig hier einzigartige Inhalte für jedes einzelne Dokument zu wählen. Sollte es hier zu vielen Dopplungen kommen, kann auch dies als negativer Faktor von Suchmaschinen interpretiert werden.

Da die Identifizierung und Behebung doppelter Inhalte schnell sehr aufwendig werden kann, gibt es auch eine Vielzahl von Tools, die diesen Prozess unterstützen können. Als Beispiel sind hier Dupli Checker und Siteliner zu nennen. Damit lassen sich bestehende Texte untersuchen und auch doppelte Inhalte ermitteln.

Fazit

Zusammenfasend lässt sich festhalten, dass Duplicate Content ein mitunter sehr umfangreiches Thema sein kann. Die Entstehung doppelter Inhalte kann zum einen technisch bedingt oder durch bewusste und unbewusste menschliche Handlungen erfolgen. Die Auswirkungen auf die Suchmaschinenoptimierung können dabei immens sein. Vom Verlust wertvollen Crawling-Budgets bis hin zu Abstrafungen durch Suchmaschinen. Darüber hinaus kann es auch zu rechtlichen Konsequenzen kommen, wenn unberechtigt Inhalte von Dritten kopiert und übernommen werden.

Allerdings gibt es auch eine breite Palette an Lösungsansätzen für diese Thematik. Es gibt zum einen präventive Maßnahmen wie die Verwendung der robots.txt, um die Indexierung doppelter Verzeichnisse zu verhindern. Weiterhin stehen auch technischen Lösungen wie Canonical Tags und 301-Weiterleitungen zur Verfügung. Unterstützend gibt es auch diverse Tools zur Identifizierung und Behebung doppelter Inhalte.

Letztlich sollte dieses Thema bei der Suchmaschinenoptimierung immer berücksichtigt werden, um die Effektivität der eigenen SEO-Strategie zu wahren.

Duplicate Content Zusammenfassung: Definition, Entstehung, Auswirkungen, Lösungen

Hier kommst du zu unseren weiteren Blog-Beiträgen.

🙋🏻‍♂️

kostenlos & unverbindlich

Lass uns deine Website & Ad-Account analysieren!

Anfragen und Leads Online Marketing