Die Google-Richtlinien (Google-Guidelines)
Google hat Richtlinien
Und da in Rahmen dieser immer wieder viel diskutiert, kolportiert, oder gar falsch dargestellt wird, hier eine kurze Zusammenfassung der wichtigsten Punkte unter der Überschrift “Richtlinien für Webmaster“. Wir als erfahrene Online Marketing-Agentur haben uns erlaubt, einige Dinge dabei hervorzuheben und/ oder zu kommentieren:
Bei den Richtlinien unterscheidet Google zwischen
Richtlinien zur Gestaltung und zum Content
- Erstellen Sie eine Website mit klar strukturiertem Aufbau und Textlinks. Jede Seite sollte über mindestens einen statischen Textlink erreichbar sein.
- Stellen Sie den Nutzern eine Sitemap mit Links zu den wichtigen Teilen Ihrer Website zur Verfügung. Falls die XML-Sitemap sehr viele Links enthält, empfiehlt es sich, die XML-Sitemap in mehrere Seiten zu unterteilen.
- Beschränken Sie die Anzahl der auf einer Seite vorhandenen Links auf ein vernünftiges Maß.
Die Lyrikabteilung von Google gibt mit der salomonischen Empfehlung “vernünftiges Maß” wieder Raum für wilde SEO-Aussagen von (vermeintlichen) SEO-Profis, nichts desto trotz sollte diese Aussage reichen, um auf das Bauchgefühl als Anwender bzw. Verantwortlicher zu hören. Außer Sie betreiben einen Hub!? - Erstellen Sie eine nützliche, informative Website und verfassen Sie Seiten, die Ihren Content klar und eindeutig beschreiben.
Das Zauberwort in diesem Absatz: “Nützlich“! Natürlich ist der Google-Index (noch) voll von unnützen Seiten. Aber die Zeiten der “einfachen” Affiliateprojekte ist vorbei. Ausnahmen bestätigen auch hier die Regel… - Überlegen Sie sich, welche Suchbegriffe Nutzer eingeben könnten, um nach Ihren Seiten zu suchen, und verwenden Sie diese Begriffe auf Ihrer Website.
Es sollte sich aber hoffentlich herumgesprochen haben, dass Keywordstuffing bzw. Keyworddichte in der professionellen Welt von SEO nur mehr wenig Raum einnehmen. - Verwenden Sie zur Anzeige wichtiger Namen, Links oder wichtigen Contents keine Bilder, sondern Text. In Bildern enthaltener Text wird vom Google-Crawler nicht erkannt. Wenn Sie Bilder für Text-Content verwenden müssen, verwenden Sie das Attribut “ALT”, um beschreibenden Text einzufügen.
Eine immer noch tapfer vor sich hergetragenen Armutserklärung eines Multimilliardendollarsuchmaschinenkonzerns, nichts desto trotz beachtenswert! - Stellen Sie sicher, dass alle Ihre TITLE-Tags und ALT-Attribute aussagekräftig und eindeutig sind.
Alle aussagekräftig UND eindeutig!? Noch Fragen? - Überprüfen Sie Ihre Seiten auf fehlerhafte Links und sorgen Sie für eine korrekte Verwendung der HTML-Syntax.
Viele Erwachsene kucken immer noch nicht ordentlich, wenn sie über die Straße laufen ;o) - Beachten Sie bei Verwendung dynamischer Seiten (beispielsweise bei Seiten, deren URL ein Fragezeichen “?” enthält), dass nicht jeder Crawler sowohl dynamische als auch statische Seiten durchsucht. Verwenden Sie wenige und kurze Parameter.
…das wenn Intershop mal jemand früher erfahren hätte ;o) Session-ID´s trifft man auch in 2012 noch reichlich )o: - Lesen Sie sich unsere Best Practices für Bilder, Videos und Rich Snippets durch.
Technische Richtlinien
- Verwenden Sie zum Überprüfen Ihrer Website einen Textbrowser (beispielsweise Lynx), da Ihre Website für die meisten Crawler so dargestellt wird wie in Lynx. Verhindern Funktionen wie JavaScript, Cookies, Sitzungs-IDs, Frames, DHTML oder Flash die Anzeige Ihrer gesamten Website in einem Textbrowser, treten beim Durchsuchen der Website durch Crawler möglicherweise Probleme auf.
Vermeintlich Profane Aussage allerdings mit oft wenig profanen Erkenntnissen. - Ermöglichen Sie Suchrobots, Ihre Website ohne Sitzungs-IDs oder Parameter zu crawlen, die ihren Weg durch die Website aufzeichnen. Diese Methoden sind hilfreich, um die Aktivitäten einzelner Nutzer zu analysieren. Das Zugriffsmuster von Suchrobots gestaltet sich jedoch vollkommen anders. Das Verwenden solcher Techniken kann zu einer unvollständigen Indexierung Ihrer Website führen, da Suchrobots eventuell keine URLs entfernen können, die unterschiedlich aussehen, aber auf dieselbe Seite verweisen.
- Stellen Sie sicher, dass Ihr Webserver den HTTP-Header „If-Modified-Since“ unterstützt. Über diese Funktion kann Ihr Webserver Google mitteilen, ob der Inhalt seit dem letzten Crawling Ihrer Website geändert wurde. Mit dieser Funktion können Sie Bandbreite und Overhead sparen.
Na? Wer verwendet das? Wann wurden diese Informationen eigentlich das letzte mal von Google modified? Die Site sagt: 16. Oktober 2012! - Nutzen Sie die Datei „robots.txt“ auf Ihrem Webserver. Diese Datei teilt Crawlern mit, welche Verzeichnisse durchsucht werden dürfen und welche gesperrt sind. Vergewissern Sie sich, dass eine aktuelle Version der Datei für Ihre Website vorliegt, damit der Googlebot-Crawler nicht versehentlich blockiert wird. Informationen zum Erteilen von Anweisungen an Robots, die Ihre Website besuchen, erhalten Sie unter http://code.google.com/web/controlcrawlindex/docs/faq.html. Die Datei „robots.txt“ kann mit dem in Google Webmaster-Tools verfügbaren „robots.txt“-Analyse-Tool getestet werden, um zu überprüfen, ob die Datei korrekt verwendet wird.
- Ergreifen Sie angemessene Maßnahmen, um zu gewährleisten, dass sich Anzeigen nicht auf das Suchmaschinen-Ranking auswirken. Mit einer robots.txt-Datei kann beispielsweise verhindert werden, dass Google AdSense-Anzeigen und DoubleClick-Links gecrawlt werden.
- Wenn Ihr Unternehmen ein System zur Verwaltung von Content erwirbt, stellen Sie sicher, dass das System Seiten und Links erstellt, die von Suchmaschinen gecrawlt werden können.
Google spricht hier wohl von einem CMS. Und ein CMS (Content management system) ist (i.d.R.) nicht von SEO´s konzipiert worden. So take care bei der Auswahl, und vor allem bei der Installation und Konfiguration ;o) - Mit der Datei „robots.txt“ können Sie das Crawlen von Suchergebnisseiten und anderen automatisch erstellten Seiten verhindern, die keinen wirklichen Wert für über eine Suchmaschine auf Ihre Website geleitete Nutzer haben.
- Testen Sie Ihre Website, um sicherzustellen, dass sie in verschiedenen Browsern richtig angezeigt wird.
- Überprüfen Sie die Leistung Ihrer Website und optimieren Sie Ladezeiten. Google ist bestrebt, seinen Nutzern möglichst relevante Suchergebnisse und eine großartige Nutzererfahrung zu bieten. Schnelle Websites erhöhen die Zufriedenheit der Nutzer und verbessern die Gesamtqualität des Webs, insbesondere für Nutzer mit einer langsamen Internetverbindung. Wir hoffen, dass Webmaster durch die Verbesserung ihrer Websites auch zu einem insgesamt schnelleren Web beitragen.
Die Bestrebung dem User eine großartige Nutzererfahrung zu bieten lässt tief blicken. Ist das Ergebnis, mit dem Sie im Google-Index oben stehen wollen, ein dazu passendes Ergebnis? Wenn nicht, dann widmen Sie sich bitte aufopferungsvoll den Themen USP, Zielgruppe, Nutzen und Usability. Und be aware: Webdesign ist out, conversiondesign ist in! - Google empfiehlt allen Webmastern dringend, die Website-Leistung in regelmäßigen Abständen mithilfe von Page Speed, YSlow, WebPagetest oder anderen Tools zu überprüfen. Weitere Informationen, Tools und Ressourcen finden Sie unter Tragen Sie zu einem schnelleren Web bei. Zusätzlich zeigt Ihnen das Tool zur Messung der Website-Leistung in Webmaster-Tools die Geschwindigkeit Ihrer Website aus Sicht von Nutzern auf der ganzen Welt.
Qualitätsrichtlinien
In diesen Qualitätsrichtlinien wird auf die gängigsten irreführenden und manipulativen Verfahren eingegangen. Darüber hinaus reagiert Google unter Umständen auch negativ auf andere, hier nicht aufgeführte Vorgehensweisen. Ist ein bestimmtes irreführendes Verfahren hier nicht aufgelistet, lässt dies nicht den Schluss zu, dass dieses Verfahren von Google toleriert wird. Webmaster, die ihre Zeit und Energie für die Einhaltung und Aufrechterhaltung der Richtlinien aufwenden, erweisen ihren Nutzern einen weitaus größeren Dienst und werden folglich durch ein besseres Ranking belohnt als diejenigen, die ständig nach Schlupflöchern suchen.
Die Schlupflöcher sind trotz allem oft das Salz in der SEO-Suppe ;o)
Sollten Sie der Meinung sein, dass bei einer anderen Website die Qualitätsrichtlinien von Google missachtet werden, senden Sie uns bitte einen Spam-Bericht. Google zieht die Entwicklung skalierbarer und automatisierter Problemlösungen vor. Wir versuchen daher immer seltener, einzelne Spamvorkommen zu bekämpfen. Auch wenn wir nicht infolge jedes Berichts manuelle Maßnahmen ergreifen, werden Spam-Berichte gemäß der Beeinträchtigung der Nutzer priorisiert. In einigen Fällen kann dies zur vollständigen Entfernung einer Spam-Website aus den Google-Suchergebnissen führen. Nicht alle manuellen Maßnahmen führen jedoch zu einer Entfernung. Es ist auch möglich, dass wir im Fall einer gemeldeten Website Maßnahmen ergreifen, die nicht offen sichtbar sind.
Qualitätsrichtlinien - Grundprinzipien
- Erstellen Sie Seiten in erster Linie für Nutzer, nicht für Suchmaschinen.
- Täuschen Sie Ihre Nutzer nicht.
Wie im analogen Leben, so auch im digitalen… - Vermeiden Sie Tricks, die das Suchmaschinen-Ranking verbessern sollen. Beachten Sie die folgende Regel: Sie sollten kein schlechtes Gefühl haben, wenn Sie den Inhabern einer konkurrierenden Website oder einem Google-Mitarbeiter Ihre Vorgehensweise erklären müssten. Eine weitere hilfreiche Frage lautet: “Nutzt dies den Besuchern meiner Website? Würde ich das auch tun, wenn es keine Suchmaschinen gäbe?“
- Überlegen Sie, was Ihre Website einzigartig, nützlich oder attraktiv macht. Heben Sie Ihre Website von anderen, ähnlichen Websites ab.
Qualitätsrichtlinien – Konkrete Empfehlungen
- Vermeiden Sie den Einsatz folgender Techniken:
- Automatisch generierte Inhalte
- Teilnahme an Linktauschprogrammen
- Cloaking
- Irreführende Weiterleitungen
- Verborgener Text oder verborgene Links
- Brückenseiten
- Kopierte Inhalte
- Teilnahme an Affiliate-Programmen ohne Schaffung von Mehrwert
- Laden von Seiten mit irrelevanten Keywords
- Erstellen von Seiten mit schädlichen Funktionen, durch die beispielsweise Phishing-Versuche unternommen oder Viren, Trojaner oder andere Badware installiert werden
- Missbrauch von Rich Snippets-Markup
- Senden von automatisierten Anfragen an Google
- Wenden Sie die folgenden bewährten Verfahren an:
- Kontrollieren Ihrer Website auf Hacking und Entfernen gehackter Inhalte direkt nach ihrem Auftauchen
- Verhindern und Entfernen von nutzergeneriertem Spam auf Ihrer Website
Entspricht Ihre Website nicht den Google Richtlinien, können Sie sie entsprechend korrigieren und einen Antrag auf erneute Überprüfung der Website stellen.
All das ist zwar an vielen Stellen interpretationswürdig. Nichts desto trotz sind die Google-Richtlinien relativ klare Ansagen. Lassen Sie sich also im Zweifel nicht von Möchtegern-SEO´s ins Boxhorn jagen, sondern studieren und verinnerlichen Sie diese Guidelines. Wenn Sie das tun, sind Sie schon weit mehr ein SEO als viele, die sich so nennen, leider…