SEO-Textoptimierung – heute alles anders?

Dieser Artikel könnte auch aus einem Wort bestehen. Es würde lauten: „nein“.

Doch worum geht es eigentlich? Ich habe heute wie viele andere auch einen Artikel über die angeblich neuen OnSite-Faktoren zur Textoptimierung gelesen. Und obwohl ich jedem mit Nachdruck dazu raten würde, die Artikel auf SEO-Book zu verfolgen, muss ich diesmal einfach sagen, dass ich zumindest teilweise anderer Meinung bin.

Nehmen wir uns zunächst mal die im Beitrag ausgemachten klassischen SEO-Faktoren für Texte vor. Hierzu zählen laut SEO-Book (die Hervorhebung ist meine Meinung dazu):

  • Keyword in der Headline (oder Dachzeile) – ist immer noch sinnvoll
  • Keyword im Title-Tag – ist immer noch entscheidend
  • Keyword im Description-Tag – ist immer noch sinnvoll
  • Keyword im ALT-Tag der Bilder und ggf. in der Bildunterschrift – ist sinnvoll, wenn die Bilder gefunden werden sollen und natürlich aus Gründen der Barrierefreiheit
  • Keyword im Vorspann – zu vernachlässigen, weil stark vom Stil des Autors abhängig
  • Zwischenüberschriften mit Nebenkeywords – funktioniert hervorragend, ist immer noch sinnvoll
  • Korrekte Keyword-Verteilung im Text – braucht kein Mensch
  • Variationen des Keywords – super sinnvoll
  • Nebenkeywords – sofern sie gut ausgewählt sind, sehr sinnvoll
  • Keyword nicht im Anchor-Text von Links verwenden – !#??#!

Zur Keyword-Density heißt es, dass wer heute noch mit einer 5%-Density arbeitet, seine Sensoren neu ausrichten sollte. Das ist korrekt, kann aber in diesem Falle fehlinterpretiert werden in Richtung: Die Keyword-Density hat keine Bedeutung. Das wird nachher auch noch deutlich gesagt: „Weder Keyword-Density, noch die Textlänge ist wichtig.“ In diesem Zusammenhang sollte ein etwas differenzierterer Weg eingeschlagen werden. Technisch betrachtet, also aus der direkten Sicht einer Suchmaschine, sind beide Aussagen schlicht falsch. Trotzdem hat Eric recht. Aber wie kommt es zu diesem Dilemma? Wie ist es möglich innerhalb eines Fachgebietes gleichzeitig richtig und doch daneben zu liegen?

Ganz einfach: All die „altbackenen“ Empfehlungen zielen auf Suchmaschinen ab. Geht es bei der Suchmaschinenoptimierung denn nicht um Suchmaschinen? Doch, aber SEO befindet sich stark im Umbruch. Statistisch nicht repräsentativ lässt sich das an den Traffic-Zahlen von Seosweet für gestern ganz gut aufzeigen:

  • 25% der Besuche kamen durch einen einzigen Verweis zustande
  • 25% der Besuche kamen durch Tweets und Retweets zustande
  • 20% der Besuche kamen über Facebook
  • nur 24% der Besuche kamen über Suchmaschinen, der Rest teilt sich in kleinere Verweisquellen auf

Wenn aber 76% des Traffics nicht über Suchmaschinen kommen, muss man zwangsläufig auf den Gedanken kommen, dass die Faktoren zur Textoptimierung an Bedeutung verlieren. Wie ich weiter oben sagte, befindet sich die SEO-Branche im Umbruch. Das bedeutet ganz konkret, dass Suchmaschinenoptimierer vom technischen Manipulator zum Berater für guten Content werden, der Quellen unabhängigen Traffic mit irgendeiner Zielsetzung verfolgt (z.B. Konversionen). Die kürzlich eingespielten Google-Updates verändern deswegen aber keinesfalls die Rahmenbedingungen zur Textoptimierung. Denn nach aktuellem Stand der Technik wird ein Text, der ein Keyword nicht enthält, zu diesem Keyword einfach nicht gefunden (es gibt nur seltene Grenzfälle, früher in Form von Google-Bomben super in Szene gesetzt). Spätestens seitdem Anchortexten weniger Bedeutung zukommt, ist das aber kein Thema mehr.

Man sollte sich Folgendes klar machen: Google ist nicht einmal in der Lage zuverlässig die Einzahl und Mehrzahl einfacher Worte zu bestimmen. Andernfalls müsste die Ergebnisanzahl Einzahl und Mehrzahl in der Regel identisch sein. Bei einem Wort wie Gurke beträgt die Differenz in der Anzahl der Ergebnisse aber stolze 25Mio. Zwischen „Handy“ und „Mobiltelefon“ reden wir schon von einer Differenz von über 300 Mio. Suchergebnissen. Es gibt einige Grundlagen von Suchmaschinen, die sich leider nicht so schnell ändern wie uns stellenweise sicherlich lieb wäre. David hat darüber schon im vergangenen November geschrieben. Insgesamt ist das Thema zur Architektur von Suchmaschinen eine recht ausführliche Serie geworden. Diese Regeln lassen sich nicht einfach ignorieren und wegdiskutieren.

Die meisten Punkte die Eric aufzählt, sind aus Sicht eines Autors, der Besucher zum Lesen animieren möchte, sicher richtig und wichtig. Auch in Social Media mögen sie prima funktionieren. Zur Optimierung von Ranking-Positionen sind sie aber nicht unbedingt hilfreich. Es sei denn, sie sorgen für Links.

 

Das könnte dir auch gefallen

Kommentar hinterlassen

Deine E-Mail Adresse wird nicht veröffentlicht.

4 Kommentare
11.07.2012

Moin,

ich hab’s versucht, aber ich finde grad nicht ganz deinen Punkt. Du sagst, dass ich unrecht habe – aber betonst immer wieder dass ich eigentlich recht habe.

Vielleicht ein paar Punkte zur Klarstellung:
– Ich habe die Liste der klassischen Faktoren in meinem Artikel, weil auch ich der Meinung bin, dass diese Faktoren richtig sind. Denn wenn Google ein Wort nicht findet, kann man dafür nicht ranken. Ausnahme: Länge und Density.
– Density ist tatsächlich Quatsch. Man sollte darauf achten, dass der „Abstand“ zwischen Hauptkeyword und allen anderen Begriffen vorhanden ist. Aber mehr ist nicht nötig. Nenne mir ein Gegenbeispiel…
– Für die Textlänge gilt, dass man halt ein wenig auf die Konkurrenz achtet. Aber mehr nicht. Wieso soll Google denn glauben, dass 400 Wörter besser als 200 Wörter sind – wenn die User bei 200 Wörtern länger auf der Seite bleiben?
– Und genau das ist es doch, was ich anspreche: Du musst nicht mehr nur den Robot füttern sondern die User, damit sie länger auf der Seite bleiben. Und das IST SEO – spätestens seit wg. Panda die Verweildauer und die Bouncerate eine große Rolle spielen.

Dass sich das natürlich auch auf die anderen Kanäle auswirkt, ist klar. Aber wenn der Crawler auf das Benutzerverhalten guckt, sollten wir das auch tun – und können das getrost auch weiterhin „SEO“ nennen.

Falls ich jetzt was an deinem Artikel nicht verstanden habe, sorry. Aber meine Verweildauer war ganz schön lang ;-)

Grüße aus Tölz
eric

Jakob Zogalla
11.07.2012

Der Punkt ist: Technisch gesehen würde die Änderung der Faktoren ausschließlich auf deine Positivliste in vielen Fällen zur Unauffindbarkeit der Seite führen.

Zur Density: In einem Natürlichen Text über Thema X kommt X nunmal mit einer gewissen Wahrscheinlichkeit vor. Es sei denn ich bin Werbetexter. Das passiert einfach. Man muss nicht unbedingt versuchen die Keywords zwanghaft in seinen Text zu quetschen. Es ist aber durchaus sinnvoll zu schauen ob ein Robot überhaupt in der Lage sein kann den Text Thema X zuzuordnen, wenn ich aus möglicherweise stilistischen Gründen Y im Titel stehen habe.

Zur Textlänge: Entscheidend dürfte hier der Fokus sein. Ein Tool oder eine Infografik, die möglicherweise fast ohne Text auskommen, können hervorragend ranken. Allerdings nur, wenn sie in einer gewissen „ich bin aktuell“-Schonfrist hinreichend Links oder andere Positivsignale anziehen.

Ja, der Crawler schaut auf das Benutzerverhalten (zunmindest teilweise). Aber, und das ist der entscheidende Punkt, er muss weiterhin die Möglichkeit haben den Inhalt überhaupt finden zu können.

Gruß
Jakob

02.03.2013

ja heute sollte man mehr Augenmerk darauf legen wie die texte gestaltet sind, früher war das manches einfacher, ok