BERT-Update ROCKITdigital

BERT: Google will uns noch mehr Verständnis entgegenbringen

Was kann BERT ohne Ernie eigentlich ausrichten? Wir haben es uns angeschaut.

BERT ist eigentlich old news, doch erreichen uns bis heute Fragen, was denn eigentlich so „groß“ war und was „wir SEOs“ anders machen. Wir haben uns diverse Beiträge durchgelesen, ein Webinar angesehen und einfach mal festgehalten, was es mit dem Google Update auf sich hat.

Was ist und was tut BERT?

BERT gilt als größtes Update des Google-Algorithmus seit fünf Jahren. BERT steht für „Bidirectional Encoder Representations from Transformers“ und ist ein künstliches neuronales Netzwerk für NLP (Natural Language Processing) bzw. NLU (Natural Language Understanding). Das heißt, mit Hilfe von BERT will Google die Suchanfragen seiner User besser verstehen, um passendere Ergebnisse liefern zu können.

Bisher wird BERT nur bei geschätzten 10 % der getätigten Suchanfragen (Zahl gilt für den englischen Sprachraum) eingesetzt. Zum Einsatz kommt es vorwiegend im Long-Tail-Bereich, weil dort das meiste Verbesserungspotential liegt. Vor seinem Start wurde BERT mit über drei Milliarden Wörtern trainiert; diese Basis ist Voraussetzung dafür, dass wenig Text ausreicht, um es für spezifische Nischen „sattelfest“ zu machen. Das Beste: Als neuronales Netzwerk ist BERT in der Lage, selbstständig zu lernen.

BERT erledigt bei seiner Arbeit mehrere Prozesse, die zuvor von mehreren Algorithmen erledigt werden mussten. Die Transformer erkennen zum Beispiel Koreferenzen zwischen Wörtern, Homographien und Homophone.

Kleine Begriffsklärung zum besseren Verständnis der folgenden Überlegungen

  • Koreferenzen: Sind Beziehungen zwischen Wörtern innerhalb eines Satzes. Ein Beispiel: Die Frau stürzt auf die Katze, weil sie betrunken ist. Das „sie“ bezieht sich auf die Frau, nicht die Katze.
  • Homographien: Das sind Wörter mit identischer Schreibweise, jedoch verschiedenen Bedeutungen. Ein Beispiel hierzu: Bank =/= Bank.
  • Homophone: Gleichklingende Wörter mit verschiedenen Bedeutungen (für Spracheingaben natürlich besonders relevant). Kleines Beispiel: Mahlen =/= Malen.
  • Kookkurrenzen: Hiermit sind nachfolgend vor allem Wortpaare gemeint, die gemeinsam auftreten und als Einheit betrachtet werden können, zum Beispiel Redewendungen, aber auch Wortpaare, die logisch zusammengehören, wie „wenn“ und „dann“.

BERT gelingen korrekte Unterscheidungen, indem der Kontext von Wörtern berücksichtigt wird. Es werden zum Beispiel Grammatik, wiederkehrende Kookkurrenzen von Texteinheiten und auch semantische Beziehungen zwischen Wörtern genauer analysiert und verarbeitet.

Zudem kann und wird BERT in Zukunft an Google gerichtete Fragen selbst beantworten. Denn BERT kann auch Entitäten, wie z.B. Personen, Orte, Marken, oder andere Themen erkennen und bindet diese in einen Knowledge Graph ein. Dort werden verschiedene Informationen aus dem Netz, die dieselbe Entität betreffen, miteinander verknüpft – da Bert multilingual ist, gilt dies auch für Informationen aus verschiedenen Sprachen. Dieser Knowledge Graph ermöglicht es BERT, komplexen Fragen mit passenden Antworten zu begegnen. Zudem ist BERT auch fähig, nicht nur in Stichwörtern zu antworten, sondern ganze Texte zu generieren, da seine Transformer mithilfe von Wahrscheinlichkeitsberechnungen sinnvolle Wort- und Satzfolgen bestimmen können; einer Studie zufolge gibt BERT angeblich schon jetzt präzisere Antworten als Menschen, selbst wenn diesen dieselben Informationsquellen zur Verfügung gestellt werden wie BERT (sicher könnte man nun das Setting der Studie kritisch beleuchten und zum Beispiel fragen, welche Testpersonen mit welchem Background ausgewählt wurden).

Was bedeutet das für SEO?

Bislang sind die Auswirkungen des BERT-Updates nur wenig spürbar. Allerdings wird aufgrund des verbesserten Verständnisses der Suchanfragen weniger Traffic auf manche Seiten geleitet – doch handelt es sich dabei wohl meist um Traffic, der ohnehin fehlgeleitet wurde. Was bleibt, ist der relevantere Traffic. Penalties in Form von Rankingeinbußen seien, zumindest bei „gutem“ Content, also nicht zu befürchten. Man soll also weiterhin auf relevanten, hochwertigen und zielgruppenorientierten Content setzen. Denn: Auf Bert zu optimieren ist nicht möglich.

Was man dennoch beachten sollte:

  • Kookkurrenzen von Wörtern werden wichtiger – Dadurch können auch algorithmische Vorurteile entstehen, aus denen man eventuell einen Vorteil für seine eigenen Zwecke ziehen kann, indem man sie bedient.
  • Google mit Snippets zu füttern, wird belohnt
  • FAQ-Page darf nicht zu einem Werbetext verkommen
  • Google beantwortet immer mehr Fragen selbst
  • Es gibt keine SERP-Domination mehr

 

Fazit: Die SEO-Welt bleibt in Bewegung, und wir bleiben es mit ihr. Was wir alles tun können und wie wir es tun, erfahren die geneigten Leserinnen und Leser auf unserer Page, die unsere SEO-Agentur beschreibt.