Die neuen Webmaster-Richtlinien von Google
Google hat im vergangenen Monat die Richtlinien für Webmaster überarbeitet. Wie ich festgestellt habe, sind wir in unserem Blog schon häufiger auf einzelne Punkte zu den Richtlinien eingegangen, einen eigenen Beitrag haben wir ihnen jedoch noch nicht gewidmet. Das Update bietet dazu nun einen guten Anlass. Die Richtlinien bzw. die Guidelines sollte sich jeder Webmaster und solche, die es werden wollen, durchlesen, bevor er eine Website erstellt oder sie von Google indexieren lassen will. Da sich aber wohl kaum jemand jeden einzelnen Punkt merkt der darin aufgeführt wird, sollte man auch danach noch häufiger mal schauen, was es so zu beachten gilt. Regelmäßige Überprüfungen der Website sind ja ohnehin zu empfehlen – spätestens aber dann wenn man merkt, dass Google mit irgend etwas nicht zufrieden ist und die Seite in den Suchergebnissen abrutscht oder gar ganz verschwindet.
Google teilt seine Webmaster-Richtlinien in drei Kategorien:
- Richtlinien zur Gestaltung und zum Content
- Technische Richtlinien
- Qualitätsrichtlinien
Außerdem gibt es vorher noch so etwas wie eine nullte Kategorie: „Bei Fertigstellung Ihrer Website“, bei der Google noch einmal kurz in drei Schritten erklärt was zu tun ist, damit Google von der neuen Website erfährt.
Googles Richtlinien zur Gestaltung und zum Content
Unter diesem Punkt vereint Google die beiden Elemente der Suchmaschinenoptimierung Technik und Content. Hier wird wieder einmal deutlich, was ich vor einigen Monaten in einem anderen Beitrag genauer beschrieben habe: Technische Maßnahmen der OnSite Optimierung sowie nützlicher und guter Content sind gegenseitig voneinander abhängig.
Mit Gestaltung meint hier Google nicht etwa, dass die Seite schön aussieht. Vielmehr geht es um Techniken der Gestaltung, die der Suchmaschine und den Usern den Zugang zur Website und zum Content so einfach wie möglich machen.
Darunter fallen Tipps zum Linkaufbau und zur Linkstruktur der Website. Vor allem Grundlegendes, zum Beispiel dass jede Seite über einen statischen Textlink erreichbar sein sollte oder die Begrenzung der Links auf einer Seite.
Auch die Verwendung von Sitemaps bzw. XML Sitemaps wird empfohlen, ebenso wie der Hinweis zur Verwendung spezieller Keywords, die zum Inhalt der Website passen.
Ein wichtiger Punkt auf den auch wir immer wieder hinweisen: Es sollte darauf geachtet werden, dass die Crawler der Suchmaschinen Bilder nicht auslesen und verwerten können. Diese müssen beschrieben werden.
Die weiteren Hinweise beziehen sich auf die Nutzung aussagekräftiger TITLE- und ALT- Tags, sowie auf die Verwendung eines korrekten HTML-Codes und fehlerloser Links.
Zum Content selbst kann Google natürlich kaum Tipps geben außer: „Erstellen Sie eine nützliche, informative Website und verfassen Sie Seiten, die Ihren Content klar und eindeutig beschreiben.“
Auch wenn alle diese Punkte nicht nur in unserem kleinen Blog schon gefühlte tausendmal erwähnt wurden, so bleibt es nach wie vor wichtig, immer wieder darauf hinzuweisen. Und gerade bei der elementaren „Gestaltung“ der Website sollte ständig überprüft werden, ob noch alles so ist wie es sein sollte – hierbei denke ich insbesondere an die Links.
Technische Richtlinien
Während im vorhergehenden Abschnitt vor allem Richtlinien oder Tipps zur technischen Gestaltung (ich will es mal so nennen) gegeben wurden, zielen die technischen Richtlinien eher auf nicht sichtbare Elemente der Websites ab.
Dreh- und Angelpunkt in den Richtlinien ist die Robots.txt-Datei auf dem Webserver. Sie ist immer dann notwendig, wenn bestimmte Inhalte der Website nicht von den Crawlern der Suchmaschinen erfasst werden sollen. Zu Inhalten und Verzeichnissen die nicht indexiert werden sollten, gehört beispielsweise das Kontaktformular oder aber Suchergebnisseiten einer internen Suche oder andere, automatisch erstellte Unterseiten.
Als weitere wichtige Punkte in den Richtlinien nennt Google das Testing der Website. Nicht nur, dass überprüft werden sollte, ob die Website in unterschiedlichen Browsern läuft, sondern vor allem sollte darauf geachtet werden, dass die Website auch in Textbrowsern vollständig angezeigt werden kann. Denn wie erwähnt, sehen die Crawler der Suchmaschinen die Websites ja als reinen Text.
Als letzter wichtiger Punkt bleibt die Performance der Website, da Google auch auf die Ladezeiten der Websites achtet – ganz nach dem Motto: „Schnelle Websites erhöhen die Zufriedenheit der Nutzer und verbessern die Gesamtqualität des Webs“. Daher empfiehlt es sich, die Leistung der Website regelmäßig zu überprüfen.
Qualitätsrichtlinien
Die Qualitätsrichtlinien sind eigentlich das wirklich Interessante. Bei diesen Richtlinien handelt es sich eher um Regeln und Verbote die Google aufstellt, während man die beiden vorherigen „Richtlinien“ auch gut unter Tipps und Tricks einordnen könnte.
Die Qualitätsrichtlinien ergeben sich vor allem aus Methoden die entwickelt wurden, um das Ranking zu manipulieren. Aus diesem Grund sind es vor allem diese Regelungen, die mit dem Update aktualisiert wurden. Seine Qualitätsrichtlinien teilt Google in Grundprinzipien und konkrete Empfehlungen.
Die Grundprinzipien zeigen die klare Content- und Userorientierung von Google. Websites sollen für die User gestaltet werden und dementsprechend muss auch der Inhalt aufgebaut sein. Wichtigster Gedanke ist hierbei die Einzigartigkeit (unique content) und der Mehrwert für den User. Das habe ich auch schon einmal etwas ausführlicher in einem Beitrag zu „gutem Content“ beschrieben.
Die konkreten Empfehlungen sind bis auf zwei Ausnahmen vor allem Verbote, die Google ausspricht. Darunter fallen automatische generierte Inhalte, Linktausch – besonders innerhalb von Linktauschprogrammen -, Cloaking, versteckte Inhalte, kopierte Inhalte (Duplicate Content), das Verwenden irrelevanter Keywords ohne wirklichen inhaltlichen Bezug zur Website, das Vorhandensein schädlicher Funktionen (Viren, Phishing etc.) sowie noch ein paar andere.
Auch zwei konkrete Handlungsempfehlungen spricht Google aus, vor allem dann, wenn die Fehler nicht selbstverschuldet sind: Es wird empfohlen, die Website regelmäßig auf Hacking zu überprüfen und gehackte Elemente möglichst sofort zu entfernen. Das Zweite betrifft fast jede Website mit Kommentarfunktion, nämlich das Verhindern und Entfernen von usergeneriertem Spam. Leider sieht man es noch viel zu häufig, dass beispielsweise in vielen Blogs und Webprojekten Kommentare zugelassen werden, die offensichtlich keinen inhaltlichen Bezug haben und lediglich aus Spam bestehen. Hierfür empfiehlt sich ein Spamfilter und etwas Wachsamkeit bei der Moderation der Kommentare. Dass dies nicht nur für die Qualität der Kommentare und Diskussionen, sondern auch aus SEO-Sicht relevant ist, hat Google hiermit deutlich gezeigt.