RSS Feeds and SEO
SEO Magazin

Einfluss von RSS auf SEO

Füttern Sie keine Spammer mit RSS Feeds!

Haben Sie es gewusst? Jeder Beitrag in WordPress wird automatisch dupliziert – die URL erhält das Suffix “/feed”. Wenn Sie beispielsweise einen Beitrag mit dem Namen “deineurl.com/leistungen” erstellen, erstellt WordPress automatisch ein weiteres Duplikat und nennt es “deineurl.com/leistungen/feeds/”.

Viele SEOs kennen zwar dieses Feature, schenken ihr jedoch Aufmerksamkeit. Denn die SEO-Experten wissen auch, dass Google dem Unterverzeichnis /feeds auch wenig Aufmerksamkeit schenkt. Somit ist es nicht wirklich ein Duplikat … so ist jedenfalls die allgemeine Meinung von SEO-Experten.

Falsch.

Heute werde ich über die negativen Kosenquenzen von Feeds auf Websites sprechen.

Albtraum für SEOs: WordPress kreiert automatische Feeds.

Vor 10-15 Jahren haben die Leute Feeds abonniert. Aber es ist bereits 2024 und das Abonnieren von Feeds ist so alt Methusalem. Mal ehrlich: Wann haben Sie das letzte Mal einen RSS-Feed-Reader verwendet?Haben Sie einen RSS Reader auf Ihrem Gerät? Oder erinnern Sie sich überhaupt noch, wofür RSS steht?

Klar, vor 15 Jahren wusste ich genau, wofür RSS steht. Wenn Sie mich heute fragen … was war das noch mal? Real Soft Simplification? Rich Site Structure? Rich Simple Script?

Wenn ich ehrlich bin, möchte ich es gar nicht mehr wissen, denn RSS ist hoffnungslos veraltet und nicht mehr zeitgemäß.

Viele CMS und insbesondere WordPress verwenden sie jedoch noch aus unerklärlichen Gründen. Von althergesessenen Webdesigner, Bloggern und SEO-Experten hört man sogar heute noch, dass man durchaus RSS auf der Website beibehalten sollte. Eine fatale Empfehlung.

Das eigentliche Problem ist, dass Feeds Spam verursachen und letztendlich dazu beitragen, Ihre Website aus Sicht von SEO herunterzranken und von Suchmaschinen abzustrafen.

Wenn Sie jetzt ein SEO sind und noch nichts von dieser Tatsache davon gehört haben oder gehört haben wollen, schauen Sie verwundert auf diese Zeilen und denken sich “Wie bitte?”. Diese Reaktion habe ich von vielen erlebt, bis ich allerdings folgendes erklärt habe. Ein “Oha, ich muss RSS auf allen unseren Websites abschalten” ist die Folge.

Gespannt? Kein Problem, lassen Sie mich erklären, warum WordPress und jedes andere feedbasierte System Ihre Website SEO-Sicht zerstört.

SEO Nachteile von Feeds

Der automatische Feed-Generator von WordPress und anderen CMS macht Inhalte für sogenannte Feed-Reader indexierbar. Die einzigen Organisationen, die noch Feeds verwenden, sind Spammer. Und Spammer lieben Feeds. Indem Sie Feeds auf Ihrer Website bereitstellen, ziehen Sie Spam-Websites bzw. Spam-Roboter an, die Ihre Inhalte nun sehr einfach crawlen können.

Während das Crawlen wie bei Google einen ausgeklügelten Webcrawler erfordert, ist das Crawlen von Feeds kinderleicht. Ein Kind könnte in kürzester Zeit einen Crawler programmieren, der die Feeds von Ihren Artikeln ausliest. Der Grund dafür ist, dass Feeds auf XML basieren – einem maschinenlesbaren und standardisierten Konzept, das von Tim Berners-Lee, dem Erfinder des Word Wide Web, eingeführt wurde. Seine Vision war es, das gesamte Web maschinenlesbar zu gestalten. “Der Feed”, der auf RSS bzw. XML basiert, strukturiert und standardisiert die Form von Artikeln.

Diejenigen, die Feeds auf ihren Websites verwenden, um leicht durchsuchbare Inhalte bereitzustellen, lassen Spammern die Tür offen, die dann ein einfaches Spiel haben Ihre Inhalte zu stehlen.

Das Crawlen Ihrer Website sollte allerdings nur den großen Suchmaschinen überlassen werden, wie zum Beispiel Google.

Wie Spammer Feeds verwenden, um Ihre Inhalte zu stehlen

Zwielichtige Webverzeichnisse, Spam-Suchmaschinen und ähnliche bizarre Websites haben es zu ihrem Geschäftsmodell gemacht, feedbasierte Websites zu crawlen, weil es eben so einfach ist. Wenn Ihre Website schon länger besteht und Feeds anbietet, wurde sie wahrscheinlich bereits von diesen zwielichtigen Websites indexiert. Möglicherweise haben Sie bemerkt, dass Ihre Bilder und Texte als Teaser auf vielen anderen Websites zu finden sind, die wie Suchmaschinen, Domain-Review-Websites, Pressewebsites u. ä. aussehen. Alle haben sich getarnt, um irgendwie legitim auszusehen, aber ihr einziger Zweck ist es, Inhalte von Drittanbietern zu stehlen.

Dabei achten diese Spam-Roboter nicht einmal auf die Robots Exclusion (robots.txt), da viele von ihnen oft nicht an das Recht Ihres Landes gebunden sind. In Industrieländern liegt eine Urheberrechtsverletzung vor, wenn Websites gecrawlt werden, die das Crawlen durch die Robots Exclusion oder Metadaten wie noindex usw. verbieten.

Fragen Sie einfach einige Ihrer Inhalte bei Google ab. In einer Sekunde sehen Sie, wie viele Kopien Ihrer Inhalte bereits im Web als Kopie vorhanden sind. Wenn Spammer Ihre Inhalte stehlen, erzeugen sie automatisch Duplikate. Oft werden ihre Inhalte auch geklaut, bei irgendwelchen sonderbaren Websites dupliziert und ein Backlink auf Ihren Artikel gesetzt. Und da diese Websites von Google bereits als Spam eingestuft werden, schaden Ihnen diese Backlinks (hierzu habe ich einen ausführlichen Beitrag verfasst in “SEO Backlink Building with Google in 2024“).

Wie kann man diese Spammer vermeiden?

Feeds deaktivieren

Als Erstes sollten Sie die Feed-Funktion deaktivieren, damit WordPress oder ein anderes von Ihnen verwendetes CMS sie nicht mehr automatisch erstellt. Apropos WordPress: Da dies über WordPress nicht möglich ist, müssen Sie ein Plugin installieren, das die Arbeit für Sie erledigt. Das Disable Feed Plugin von Samir Shah ist eines der am häufigsten verwendeten und sichersten Plugins. Es ist kostenlos – installieren, aktivieren – Ziel erreicht.

Aktualisieren Sie Robots.txt

Eine andere Methode besteht darin, nur gängigen Suchmaschinen das Crawlen Ihrer Website über die Robots Exclusion bzw. robots.txt zu erlauben. Dies hat jedoch möglicherweise nur eine geringe Auswirkung, da Spammer sich nicht um die Inhalte in der robots.txt kümmern.

Fazit RSS und SEO

Sobald Sie Feeds deaktiviert haben, ist es unwahrscheinlich, dass die Spambots Ihre Website crawlen. Das liegt daran, dass diese Spammer nicht über die Fähigkeiten verfügen, komplexe Crawler zu programmieren. Deswegen suchen sie auch nur leicht durchsuchbare und XML-basierte Websites: Feeds. Und solange Millionen anderer Websites Feeds anbieten, halten sie sich einfach von Ihren Inhalten fern, wenn dort keine Feeds angeboten werden.

Und so sieht es aus:

Ohne Feeds wird Ihre Website nur von den großen Suchmaschinen gecrawlt, denen es egal ist, ob Sie XML bzw. Feeds haben oder nicht. Und Sie halten Ihre Tür für Eindringlinge verschlossen, die nur über XML und Feeds auf Ihre Website zugreifen können.

KATEGORIEN

About the Author
ÜBER DEN AUTOREN Dr. William Sen Gründer von blue media

William Sen ist seit 2001 SEO und seit 1996 Software-Ingenieur. Er war als Lehrbeauftragter an der Universitäten Düsseldorf und TH Köln tätig. Er ist an der Entwicklung von SEO-Tools, Websites und Softwareprojekten beteiligt.

William hat seine Promotion in Informationswissenschaften (Uni-Düsseldorf) sowie arbeitete und arbeitete für Marken wie Expedia, Pricewaterhouse Coopers, Bayer, Ford, T-Mobile und viele mehr. Er ist der Gründer von blue media mit Sitz in San Diego, Kalifornien.

HINTERLASSE EINEN KOMMENTAR:
Ihr Kommentar wird veröffentlicht, nachdem er von den Moderatoren überprüft wurde. Vielen Dank

Neueste Blogbeiträge
SEO & Social Media Marketing

Social Media Marketing mit SEO In erster Linie sollte jede SEO-Agentur also absolute Conversion-Profis gelten. In dieser Branche ist kommt man nicht drumherum auch unangefochtene...