Onpage-Fehler wiegen oft schwer

Manchmal gewinnt man noch immer den Eindruck, dass das Ranking in Suchmaschinen vor allem von externen Faktoren plus Keywords abhängt. In dieser Vorstellung des SEOs ist er dann vor allem damit beschäftigt, möglichst gute Backlinks oder Social Signals für die Website zu erhaschen. Zugegeben wird diese Reduzierung immer seltener, trotzdem scheint es nach wie vor sinnvoll, den Blick einmal weg von der Offsite-Optimierung hin zur Onsite- oder Onpage-Optimierung zu lenken. Denn wie heißt es so schön, erst einmal sollte vor der eigenen Türe gekehrt werden. Onpage-Faktoren werden ganz gerne mal vernachlässigt, was auch bedeutet, dass die stetige Überprüfung vernachlässigt wird. Denn selbstverständlich reicht es nicht aus, einmal zu optimieren und dann läuft alles gut. Auch bei den Onpage-Faktoren kommen ständig neue Ranking-Kriterien hinzu. Manchmal ändert sich auch die Gewichtung, wie kürzlich bei der Erneuerung zu den Keyword Domains. Oder aber es verschiebt sich die Priorität Googles immer mehr in Richtung der Websites selbst und ihrer Qualität sowie dem vielzitierten „Mehrwert“ für die User. Das war zuletzt bei den viel beachteten Panda, Penguin und Freshness Updates der Fall.

Die größten Onpage-Fehler

Allerdings gibt es zahlreiche Dinge zu beachten, um diesen Anforderungen gerecht zu werden – da kann auch viel schief gehen oder vergessen werden.  Die nachfolgende Grafik listet einerseits die häufigsten Fehler und den Grad ihrer Schädlichkeit auf, die 2012 (die Zahlen stammen allerdings noch aus 2011) in der Onpage-Optimierung begangen wurden. Ohne jetzt genau zu wissen, ob es sich tatsächlich um weltweite Zahlen oder um deutsche Zahlen handelt, ist diese Auflistung dennoch interessant.

Die vier häufigsten Fehler (alle über 30%, zumindest gehe ich davon aus, dass es sich um Prozentzahlen handelt – die Infos zu der Grafik sind da leider etwas dürftig) bilden aufsteigend eine schlechte interne Verlinkung, zu geringen Textanteil, eine schlechte URL Struktur und internen Duplicate Content.

Das Erstaunliche daran ist, dass die vier häufigsten Fehler auch zu den schädlichsten gehören, zumindest nach dieser Grafik. Schädlicher wurden in der Umfrage nur noch eine schlechte Keyword-Auswahl und Fehler mit dem Canonical Tag angesehen, die aber bei Weitem nicht so häufig vorkommen. Man kann sich also getrost von dem Credo verabschieden, dass Fehler die viele machen schon nicht so schlimm sein werden. Gerade häufige Fehler werden in ihrer Wirksamkeit oft unterschätzt, worauf auch der Seokratie Blog in einem lesenswerten Beitrag hingewiesen hat.

Wie kommt es zu diesen Onpage-Fehlern?

Das ist anhand der genannten Umfrage schwer zu sagen, denn sie bleibt mit ihren Aussagen eher allgemein. Duplicate Content aber wird gerade auf der eigenen Website häufig unterschätzt, dabei können schon immer gleiche Footer auf den verschiedenen Seiten zu dieser Problematik beitragen. Daher sollte man generell versuchen, so etwas zu vermeiden. Und wenn es doch notwendig erscheint, dann sollte vielleicht doch eher mit Links und Grafiken gearbeitet werden.

Die größten Probleme scheinen generell mit der Struktur der Website aufzutreten, zu der ich die URL-Struktur aber auch das Problem der Crawlability, das in der Umfrage den fünften Platz belegte, zähle. Wie wichtig eine gute URL-Struktur nicht nur für die Suchmaschinenoptimierung, sondern auch für die Benutzerfreundlichkeit ist, hat Jakob in einem sehr schönen Beitrag beschrieben. In erster Linie sollte die Struktur übersichtlich und wenig komplex sein. Das beeinflusst dann auch die Crawlability, wobei sich der Punkt in der Umfrage eigentlich eher auf andere technische Voraussetzungen bezieht, die man den Suchmaschinen-Crawlern liefert. Das sind zum einen die XML-Sitemaps und die robots.txt Datei. Gerade die XML-Sitemaps spielen eine wichtige Rolle dabei, den Suchmaschinen die Website zugänglich zu machen, sofern sie richtig verwendet werden. Die robots.txt kann für die Crawler allerdings leicht zu einem ungewollten Hindernis werden, wenn sie nicht auf aktuellem Stand ist.

Das hat auch der Seokratie Blog aufgegriffen und die fünf häufigsten Fehler herausgearbeitet – zusätzlich zu den bereits genannten wurde dabei auch eine schlechte Crawlability miteinbezogen. Aus der Tatsache, dass sie häufig vorkommen, wurden daraus die fünf am wenigsten beachteten Fehler der Onpage-Optimierung. Allerdings wird dieser Artikel dabei weitaus konkreter und benennt einzelne Fehler, die häufig dazu beitragen.
Der Punkt, der mir bei der Umfrage ein bisschen Bauchschmerzen bereitet, ist der „Fehler“ eines zu geringen Textanteils. Das könnte nämlich suggerieren, dass je mehr Text eine Website enthält, sie umso besser rankt. Das lässt sich allerdings so nicht sagen, denn – und ich will bald nicht mehr darüber schreiben – kommt es natürlich nicht nur auf die Quantität, sondern vor allem auch auf die Qualität des Inhalts an. Allerdings bedeutet der Punkt „zu geringer Textanteil“ letztlich wohl vor allem einen Hinweis darauf, dass Text generell zu wenig Platz auf Websites einnimmt – und das obwohl die Suchmaschinen immer noch nur Text wirklich richtig interpretieren können. Bilder, Videos, Grafiken etc. können dabei allenfalls eine ergänzende Rolle für den User spielen, bzw. auch für die Optimierung der Universal Search Ergebnisse wichtig sein. Text sollte aber den überwiegenden Anteil einer Website ausmachen.

Insgesamt lässt sich sagen, dass sich gerade bei der Onpage- bzw. Onsite-Optimierung, mit relativ wenig Aufwand sehr gute Ergebnisse erzielen lassen, denn hier liegt viel im Argen, was dazu noch eine große Relevanz hat.

(Artikel erstmals 2012 veröffentlicht – Inhalt möglicherweise nicht mehr aktuell)

Das könnte dir auch gefallen

Kommentar hinterlassen

Deine E-Mail Adresse wird nicht veröffentlicht.

3 Kommentare

Interessante Liste, vor allem auch die Einschätzung wie schädlich diese Fehler sind. Welche weitere Punkte oft außer Acht gelassen werden und selten erwähnt: Gerade Onlineshops präsentieren Produkte oft unter verschiedenen URLs, weil sie in mehreren Kategorien angeboten werden und über verschiedene Verzeichnisse erreichbar sind => Der Index der Seite bläht sich auf. Der Kunde kommt bei Mehrfachrankings nicht auf die „richtige“ Produktlandingpage.
Auch oft bei Shops: Verwendung von Session-IDs => durch lange URLs sind gute Ranking so ziemlich ausgeschlossen, gerade bei hart umkämpften Suchbegriffen.

David Linden
07.09.2014

Hallo Florian,
Die erwähnten Onpage Fehler wurden aus dieser „Liste“ ja bereits vorgegeben. Die Probleme die du schilderst sind in der Tat typisch, gerade für Online Shops, darüber habe ich auch mal einen anderen Artikel geschrieben: https://www.seosweet.de/blog/2013/04/09/duplicate-content-in-blogs-und-webshop/