Veraltete SEO-Techniken – Eine Zeitreise in die Vergangenheit

Aufbau von Wordpress-Templates

Die Suchmaschinen haben im Laufe der vergangenen 20 bis 25 Jahre ihre Suchalgorithmen immer wieder neu angepasst. Das ist unter anderem geschehen, um dem technischen Wandel gerecht zu werden. Die ersten Webseiten bestanden zwar wie heute auch aus HTML, aber wichtige neue Technologien des Web, wie zum Beispiel Flash, JavaScript und PDF, sind erst später entwickelt worden. Die nächste große Herausforderung für die Suchmaschinen bestand danach zweifelsohne im Social Web. Hier standen sie vermehrt vor dem Problem, dass ihre Crawler nur einen Bruchteil dessen erfassen durften, was in sozialen Netzwerken, Foren und Blogs vor sich geht. Dies ist heute allerdings etwas anders, denn die Algorithmen der Suchmaschinen-Bots sind um einiges verbessert worden. Auf der anderen Seite sind die Suchmaschinen aber auch gezwungen, unlauteren Machenschaften entgegen zu treten. Viele Updates und Innovationen in den Bewertungsalgorithmen rühren daher, dass manche Webseitenbetreiber und SEOs oder Agenturen Schwachstellen suchen und bei Gelegenheit ausnutzen. Der Lohn ist ein besseres Ranking als das der Konkurrenz und damit mehr User und mehr Umsatz.

Auch wenn die folgenden SEO-Methoden nicht mehr funktionieren, bzw. keinen Erffekt mehr auf das Ranking haben, finde ich es interessant eine Reise in die Vergangenheit zu machen und zu schauen, mit welchen Tricks man damals die Suchmaschinen noch austricksen konnte. Viel Spaß ;-)

Keyword-Stuffing in den Meta-Tags Title und Description

Vor 10 oder 11 Jahren konnte man das noch häufig in den Suchergebnissen beobachten. Wenn man zum Beispiel nach „Auto kaufen“ gesucht hatte, erschienen an den ersten Positionen Einträge à la „Auto kaufen Auto kaufen Auto kaufen Auto kaufen Auto kaufen und so weiter“. Falls das bei Ihrer Standardsuchmaschine immer noch der Fall ist, sollten Sie gegebenenfalls den Anbieter wechseln, außer Sie mögen das. Normalerweise sehen die heutigen Ergebnisse einer Suche nach diesem Begriff schon deutlich besser aus.

Das Meta-Tag Keywords

<meta name=“keywordscontent=“Auto kaufen, Auto, kaufen Gebrauchtwagen kaufen, Neuwagen kaufen, Fahrzeug kaufen“ /> Mit diesem Meta-Tag sollten die Webmaster und Webseitenbetreiber den Suchmaschinen eigentlich mitteilen, welche Inhalte auf einer Webseite behandelt werden, beziehungsweise zu welchen Keywords die Seite relevant ist. Insbesondere Google stellte in den späten Neunzigern darauf ab. Weil die Suchmaschine damit zunächst wirklich gute Suchergebnisse lieferte, stellten die Konkurrenten ihren Algorithmus ebenfalls um.

Wie Sie sich denken können, blieb das nicht lange unbemerkt. Als klar war, dass das Keyword-Tag ganz erhebliche Auswirkungen auf die Position in den Suchmaschinen hatte, wurde es häufig missbraucht. So konnte es passieren, dass User, die nach ganz unverfänglichen Begriffen suchten, auf Erotikseiten landeten, auf Servern, die auf ihren Rechnern Schadsoftware installierten oder auch auf Propagandaseiten wirrer politischer oder religiöser Gruppen.

Letzten Endes war der Missbrauch dieses Tags so groß, dass die Suchmaschinen es nicht mehr für die Bewertung einer Seite heranziehen. Gegebenenfalls kommt es noch für die Bewertung des Trusts einer Webseite in Frage, wenn verglichen wird, was im Keyword-Tag eingetragen wurde und was die inhaltliche Analyse der Seite ergibt. Manche Seiten werden auch von Redakteuren überprüft. Inwiefern sich das bei diesen positiv oder negativ auswirkt, dürfte wohl Geschmackssache sein.

Dublin Core

Beim Dublin Core handelt es sich ebenfalls um Meta-Daten. Seit Mitte der Neunziger Jahre stellen sie einen gewissen internationalen Standard dar. Mit 15 verschiedenen Tags soll eine Webseite für die Suchmaschinen verständlicher beschrieben werden. Die einzelnen Tags beginnen alle mit dem Präfix „DC.“. Sie haben zumindest im Bereich verschiedener staatlicher Bibliotheken eine gewisse Verbreitung gefunden.

Für die Suchmaschinen spielen Sie bis heute keine Rolle. Das liegt wahrscheinlich daran, dass Google und Co. mit den anderen Metadaten bereits sehr schlechte Erfahrungen gemacht haben. Sie misstrauen mittlerweile fast allen Daten, die sie nicht mit den eigenen Bots beziehungsweise Spidern erheben können. Anscheinend sind sämtliche beschreibenden Daten, die den Suchmaschinen von Webseitenbetreibern zur Verfügung gestellt werden, zunächst einmal verdächtig. Inwiefern das künftig auch für die Mikroformate zutrifft, die ja derzeit von den Suchmaschinen gerne gesehen werden, bleibt abzuwarten.

Artikelverzeichnisse

Artikelverzeichnisse waren einmal eine gute Möglichkeit, um schnell Backlinks für neue Seiten oder junge Websites aufzubauen. Da es sich bei den meisten um reine Linkansammlungen ohne größeren Mehrwert handelt, die häufig redaktionell nicht betreut werden und vollautomatisiert arbeiten, wurden sie schon mit der Einführung der Social Bookmarks stark entwertet. Durch die späteren Updates seitens Google, insbesondere durch das Panda-Update im Sommer 2011, spielen sie nach einiger Zeit keine Rolle mehr. Eine Ausnahme mag noch für das ein oder andere Verzeichnis gelten, das redaktionell betreut wird und sich beispielsweise auf einen Bereich spezialisiert hat.

Cloaking

Eigentlich ist Cloaking eine wirklich gute Möglichkeit, den Suchmaschinen multimediale Inhalte einer Webseite verständlich zu machen, also den Sinn dieser Bilder, Videos und Dokumente zu erklären. Im Kern geht es darum, den Suchmaschinen andere Inhalte einer Webseite zu präsentieren als menschlichen Besuchern. Sieht ein Mensch beispielsweise ein Video, könnte einem Suchmaschinen-Bot beim Besuch der Seite eine Zusammenfassung des Videos in Textform zur Verfügung gestellt werden.

Wie auch beim Keywords-Tag hat es aber nicht lange gedauert, bis der positive Effekt ins Negative verkehrt wurde. Heute wird Cloaking von den Suchmaschinen bestraft. Das reicht von einer massiven Abwertung in den Rankings bis zum Ausschluss einer Site aus dem Index.

Das war der Auftakt zu einer kleinen Serie, in der wir uns den veralteten SEO-Techniken widmen. Der nächste Teil folgt in einigen Tagen.

Das könnte dir auch gefallen

Kommentar hinterlassen

Deine E-Mail Adresse wird nicht veröffentlicht.

9 Kommentare
30.07.2012

Das gegenseitige Verlinken, würde ich noch zu veralteten SEO Techniken zählen.

30.07.2012

Vielen Dank für diese informative Serie! Weiterleitungen mit meta-refresh gehören auch ins SEO-Antiquitätenkabinett ;-). Aber das kommt bestimmt noch.

Daniel
06.08.2012

Toller Artikel, mich würde noch interessieren, was haben wir denn noch als alternativen zu Artikelverzeichnissen oder Bookmarks ?

09.08.2012

Wenn man Artikelverzeichnisse nennt, muss man gleich auch viele andere Backlinkquellen mit nennen. Da wären zum Beispiel Webkataloge zu nennen. Diese bieten genauso wie AVZ Portale keinen wirklichen Mehrwert. So zumindest meine Meinung und so ähnlich wird dies auch Google sehen.

David Linden
09.08.2012

Hi David! Erstens möchte ich dir zu deinem hervorragenden Namen gratulieren! Und zweitens hast du natürlich absolut recht. Auch Webkataloge sind häufig reine „Linksammlungen ohne größeren Mehrwert“, wie Marko es bezeichnet hat. Unser Artikel der sich hinter dem Link des Zitats verbirgt, behandelt denn auch diese Artikelverzeichnisse und Webkataloge. Da sich beide ja nun sehr ähnlich sind haben wir sie in diesem Beitrag mal zusammengefasst. Natürlich sind Webkataloge ebenfalls gemeint. Danke dass du darauf hingewiesen hast.

Es gibt aber auch noch eine Reihe von redaktionell betreuten Verzeichnissen und Katalogen. Der Bekannteste ist mit Sicherheit http://www.dmoz.org. Hier ist es fraglich wie hoch der Nutzen ist aber nutzlos sind sie noch nicht.

09.08.2012

@David Linden

Danke :-) Kann ich nur zurück geben. Du heißt ja ebenfalls David. Das „Klausen“ ist aber nur ein Internet Name. Mein Nachnahme ist in echt natürlich anders :-)