arrow backarrow downwardarrow forwardarrow upwardbuildcalendarcheckclosecrownemailemergencyemo neutralemo sademo smileemoji objectsexpand lessexpand moreexplorefacebookfilterflag 2forumheartheart fillhomeinstagramlanguagelinkedinlive tvlocationmedalmenumoneynew releasespdfpersonphoto libraryplaypsychology altreloadremoveroom phonesearchsettingsstarstar fillstar halfsunswap horizswap vertthumb downthumb uptrashtuneuser circleuser groupworldxingyoutube
GEO-Mythen und SEO-Halbwissen: Was wirklich zählt – und was (manipulative) Ablenkung ist
SEO/ GEO/ GAIO/ KI & ML
Ralf ZmölnigMärz 2026

GEO-Mythen und SEO-Halbwissen: Was wirklich zählt – und was (manipulative) Ablenkung ist

Die SEO-Branche steht an einem Wendepunkt. Neue Technologien verändern die Suche. Aber die Grundprinzipien bleiben: Relevanz, Qualität, Nutzerzentrierung, technische Sauberkeit.

Wer diese Grundlagen beherrscht, braucht keine spekulativen Taktiken. Wer sie nicht beherrscht, wird durch Chunking und LLMs.txt auch nicht gerettet, im Gegenteil.

Die SEO-Branche hat ein Mythenproblem. Das war schon immer so – von der ewigen Debatte um Subdomains versus Unterordner bis zur Frage, ob 301- oder 302-Weiterleitungen „besser“ sind und vieles, vieles mehr. Aber mit dem Aufkommen von Generative AI und der Diskussion um GEO (Generative Engine Optimization) hat sich die Lage dramatisch verschärft.

Neue Begriffe aus der Informatik und dem maschinellen Lernen werden in SEO-Kontexte übertragen, oft ohne das nötige Hintergrundwissen. Das Ergebnis: Taktiken, die sich nach Innovation anhören, aber bei genauerer Betrachtung entweder Altbekanntes umbenennen (Analoger Wein in digitalen Schläuchen) oder auf Missverständnissen und auch schlicht fachlichem Unwissen beruhen.

Dawn Anderson, langjährige, renommierte SEO-Beraterin und geschätzte Kollegin, hat kürzlich in einem Beitrag für Women in Tech SEO genau diese Problematik aufgearbeitet. Ihre Analyse verdient es, auch im deutschsprachigen Raum gehört zu werden – denn die Mythen machen an Sprachgrenzen nicht halt.

Das Grundproblem: Eine Branche zwischen Marketing und Informatik

SEO steht schon immer an einer unbequemen Schnittstelle. Es ist weder reines Marketing noch reine Informatik. Vieles basiert auf Beobachtung, Experiment und fundiertem Raten. „It depends“ ist nicht umsonst der Standardsatz der Branche. Und nicht umsonst ist „technisches SEO“ für viele eine Spezialdisziplin.

Diese Unschärfe macht SEO anfällig für Mythen. Und jetzt, wo Konzepte aus Natural Language Processing, Machine Learning und Information Retrieval in die Diskussion einfließen, wächst die Verwirrung. Begriffe werden aus ihrem ursprünglichen Kontext gerissen und als neue SEO-Hebel verkauft – oft von Leuten, die die Originalliteratur noch nie gelesen haben, und/ oder auch erfrischend wenig SEO-Historie und zugehöriges Wissen sowie nötiges Verständnis aufgebaut haben.

Chunking: Ein Preprocessing-Schritt, kein SEO-Hebel

Einer der aktuell populärsten „Tipps“ lautet: Strukturieren Sie Ihre Inhalte in kleine, klar abgegrenzte Abschnitte – sogenannte Chunks –, damit LLMs sie besser verarbeiten können.

Das klingt plausibel. Und es stimmt: Chunking ist ein notwendiger Schritt in der Verarbeitung von Texten durch KI-Systeme. Aber es ist ein interner Preprocessing-Schritt, kein Ranking-Faktor.

Was Chunking tatsächlich ist: Chunking ist ein Preprocessing-Schritt in der Verarbeitung von Texten durch KI-Systeme. Das Problem: Sprachmodelle haben begrenzte Kontextfenster – sie können nur eine bestimmte Menge Text gleichzeitig verarbeiten. Längere Dokumente müssen also in kleinere Einheiten zerlegt werden, bevor sie in Vektordatenbanken gespeichert oder für Retrieval-Augmented Generation (RAG) verwendet werden können.

In der Forschung und Praxis existieren zahlreiche Chunking-Methoden, die je nach Anwendungsfall unterschiedliche Vor- und Nachteile haben:

  • Fixed-Size Chunking: Text wird nach fester Zeichen- oder Token-Anzahl zerschnitten – schnell und günstig, aber ohne Rücksicht auf semantische Zusammenhänge. Ein Satz kann mitten im Gedanken enden.
  • Recursive Chunking: Hierarchische Trennung – erst nach Absätzen, dann nach Sätzen, dann nach Wörtern, bis die gewünschte Chunk-Größe erreicht ist. Bewahrt Dokumentstrukturen besser als Fixed-Size.
  • Semantic Chunking: Verwendet Embedding-Modelle, um semantische Ähnlichkeit zwischen Sätzen zu messen. Neue Chunks beginnen dort, wo sich das Thema verschiebt. Rechenintensiver, aber präziser.
  • Hierarchical Chunking: Erstellt mehrere Ebenen – große Chunks für Übersichten, kleine für Details. Ermöglicht sowohl grobe als auch granulare Abfragen.
  • Agentic Chunking: Ein KI-Agent entscheidet dynamisch, welche Methode für welchen Dokumentabschnitt am besten passt. Der aufwendigste, aber flexibelste Ansatz.

Die Forschung zeigt: Es gibt keine universell beste Methode. Eine Studie von Chroma ergab, dass Recursive Splitting bei 400 Tokens 85–90% Recall erreicht, während Semantic Chunking auf 91–92% kommt – ein Unterschied von 2–3 Prozentpunkten, der mit deutlich höherem Rechenaufwand erkauft wird. Ein Paper in den NAACL 2025 Findings kam zum Schluss, dass die zusätzlichen Kosten von Semantic Chunking nicht durch konsistente Verbesserungen gerechtfertigt werden – einfache 200-Wort-Chunks erreichten vergleichbare oder bessere Ergebnisse.

Was wir nicht wissen: Welche Chunking-Methoden Google in Gemini verwendet. Welche OpenAI in ChatGPT einsetzt. Die Annahme, dass wir durch manuelle „Chunk-Optimierung“ auf der Website irgendetwas verbessern, basiert auf Spekulation – denn wir optimieren für ein System, dessen interne Verarbeitung wir nicht kennen. Und wenn auch schon tausendfach erwähnt: Wollen wir wirklich für Systeme oder für Menschen optimieren? Wie wsl. ist es, dass hier jetzt gelehrt wird, Chunking zu „betreiben“?

Was Google selbst sagt: Danny Sullivan – ehemals Google Search Liaison, heute Director im Google Search Team – hat im Search Off the Record Podcast (Januar 2026) deutlich gemacht, dass Google nicht möchte, dass SEOs ihre Inhalte in kleine Häppchen zerschneiden. Er hatte das Thema vorab mit Google-Ingenieuren besprochen.

Seine Argumentation: Selbst wenn es heute in Einzelfällen funktionieren sollte, wird es langfristig nicht belohnt. Suchmaschinen arbeiten daran, natürliche, für Menschen geschriebene Inhalte zu bevorzugen. Wer seine Zeit in „Chunk-Optimierung“ investiert statt in guten Content, wird enttäuscht – spätestens, wenn die Algorithmen nachjustiert werden.

Die Verwechslung: Was oft als „Chunking“ verkauft wird, ist in Wahrheit semantische Strukturierung – klare Überschriftenhierarchien, logischer Aufbau, sinnvolle Absätze. Das ist keine neue Taktik. Das ist seit Jahrzehnten gute Praxis. Wikipedia macht das seit seiner Gründung.

Information Gain: Ein Machine-Learning-Konzept, kein Content-Tipp

Der Begriff „Information Gain“ kursiert auch erschreckend häufig als vermeintlich neuer Ranking-Faktor, abgeleitet aus einem Google-Patent. Die Interpretation: Wer mehr Informationswert liefert als die Konkurrenz, rankt besser.

Das klingt einleuchtend. Aber es ist im Grunde eine altbewehrte Technik unter neuem Namen: Finde erfolgreichen Content, mach ihn besser. Das haben gute SEOs schon immer getan.

Was Information Gain in der Informatik bedeutet: Ein Konzept aus der Informationstheorie, das auf den Mathematiker Claude Shannon (1916–2001) zurückgeht. Shannon gilt als Begründer der Informationstheorie – seine Arbeit legte die mathematischen Grundlagen für alles von Datenkompression bis Machine Learning. Anthropic hat sein KI-Modell „Claude“ nach ihm benannt. In Machine Learning wird Information Gain verwendet, um Entscheidungsbäume zu optimieren: Welches Merkmal liefert die beste Aufteilung der Daten?

Wie es in Suchmaschinen tatsächlich genutzt werden könnte: Zur Bestimmung von Canonical-Versionen bei Duplicate Content. Zur Priorisierung von Crawl-Ressourcen. Zur Klassifizierung von Seiten nach thematischer Reinheit. Nicht als Ranking-Faktor für „wer mehr schreibt, gewinnt“.

Die Realität: Google hat nie bestätigt, dass Information Gain so funktioniert, wie es in SEO-Artikeln dargestellt wird. Die Interpretation ist einigermaßen plausibel, aber mehr als spekulativ.

LLMs.txt: Ein Protokoll, das (noch) niemand nutzt

LLMs.txt wird als das neue robots.txt für KI-Bots beworben: Eine Datei im Markdown-Format, die im Root-Verzeichnis einer Website liegt und Crawlern sagt, welche Inhalte wichtig sind und wie sie zusammengefasst werden können. Die Idee stammt von Jeremy Howard (Fast.ai, Answer.ai) und klingt zunächst plausibel: Statt dass ein LLM sich durch komplexe Navigation und unstrukturierte Seiten kämpft, erhält es eine kuratierte Liste der besten URLs.

Das Problem: Kaum ein KI-Bot ruft LLMs.txt-Dateien ab. Google hat explizit erklärt, das Format nicht zu unterstützen. Und trotzdem empfehlen SEOs bereits die Implementierung als Best Practice.

Was Google sagt: John Mueller, Senior Search Analyst bei Google und seit Jahren eine der wichtigsten technischen Stimmen für Webmaster-Fragen, hat LLMs.txt mit dem alten Meta-Keywords-Tag verglichen – einem Element, das wegen massiven Missbrauchs durch Seitenbetreiber und SEOs heute vollständig ignoriert wird. Der Vergleich ist vernichtend: Meta-Keywords galten einmal als wichtig, wurden dann systematisch manipuliert und sind heute bedeutungslos. Mueller deutet an, dass LLMs.txt denselben Weg gehen könnte, noch bevor es überhaupt Relevanz erlangt.

Der aktuelle Stand: Google selbst hat klargestellt, dass LLMs.txt derzeit von keinem der großen LLM-Anbieter verwendet wird – weder von OpenAI, noch von Anthropic, noch von Google selbst. Es ist ein Vorschlag, der bisher keine Adoption gefunden hat.

Die Ironie: Selbst auf einigen Google-Developer-Seiten tauchten kurzzeitig LLMs.txt-Dateien auf – bevor sie wieder verschwanden. Wenn Googles eigene Entwickler dem Mythos aufsitzen, zeigt das, wie wirksam die Desinformation ist.

Unsere Einschätzung: LLMs.txt könnte theoretisch irgendwann relevant werden. Aber zum jetzigen Zeitpunkt ist es eine Lösung auf der Suche nach einem Problem – und wenn man John Muellers Vergleich ernst nimmt, eine Lösung, die durch Missbrauch obsolet werden könnte, bevor sie je Wirkung entfaltet. Die Zeit ist besser investiert in Maßnahmen mit nachgewiesener Wirkung: saubere Seitenstruktur, klare semantische Hierarchien, qualitativ hochwertige Inhalte. Und ja, wenn Sie es trotzdem umsetzen, ist das wohl auch nicht schädlich. Aber wenn Sie von SEO-GEO-Experten „umworben“ werden, die Ihnen das ans Herz legen, rufen Sie besser uns an!

Warum diese Mythen entstehen – und warum sie gefährlich sind

Dawn Anderson benennt mehrere Ursachen, die wir nur mit Wonne unterschreiben bzw. ergänzen können:

Patente werden missverstanden. Ein Patent bedeutet nicht, dass etwas in Produktion ist. Viele Patente sind defensive Registrierungen, um Wettbewerber zu blockieren. Die korrekte Interpretation erfordert juristisches und technisches Fachwissen – eine Kombination, die Bill Slawski über Jahrzehnte perfektioniert hatte. Slawski, der leider 2022 verstorben ist, galt als führender Experte für die Analyse von Google-Patenten. Er verband juristische Ausbildung mit tiefem Verständnis für Information Retrieval – und warnte regelmäßig davor, aus Patenten direkte SEO-Taktiken abzuleiten.

Akademische Papiere werden aus dem Kontext gerissen. Ein einzelner Satz aus einer Studie wird zum SEO-Tipp – ohne die Referenzen, den methodischen Kontext oder die Einschränkungen zu berücksichtigen.

Die Branche belohnt Neuigkeiten. „Mach weiter, was funktioniert“ generiert keine Klicks. Also werden ständig neue Frameworks, neue Taktiken, neue Must-Haves produziert – auch wenn sie auf wackeligen Fundamenten stehen.

Niemand will zugeben, dass er es nicht weiß. In einer Phase rapider Veränderungen füllen wir Wissenslücken mit Vermutungen – ähnlich wie die Halluzinationen der LLMs, die wir oft kritisieren.

Die auch sehr unbequeme Wahrheit: Manche GEO-Narrative sind gekauft

Es gibt noch einen weiteren Faktor, der in der Diskussion oft ausgeblendet wird: gezielte Desinformation mit kommerziellen Motiven.

Lily Ray, geschätzte Kollegin und in der SEO-Szene international bekannt, hat kürzlich auf LinkedIn darauf hingewiesen, dass einige neue „AI Search“-Unternehmen Influencer bezahlen, um bestimmte Botschaften zu verbreiten – darunter auch die These, dass SEO tot sei und GEO die Zukunft.

Ihre Beobachtung: Viele dieser Posts verwenden auffällig ähnliche Formulierungen. Und sie selbst erhält regelmäßig solche Angebote! W T F !

Ein auf Reddit geleakter Pitch eines GEO-Tool-Anbieters macht das Muster konkret. Die vorgegebenen Kernbotschaften für bezahlte „Creator Partnerships“:

  • „AI agents replace manual GEO complexity“
  • „GEO is the future. Traditional keyword-first SEO is becoming outdated“
  • „This isn’t another SEO tool, it’s a new model“

Das ist keine neutrale Branchendiskussion. Das ist (sehr unredliches) Marketing, verkleidet als Expertise. Man möchte fast sagen übler Populismus!?

Warum das problematisch ist:

Wenn Unternehmen Influencer dafür bezahlen, „SEO ist tot“ zu verbreiten, um ihre GEO-Tools zu verkaufen, vergiftet das den Diskurs. Es wird unmöglich zu unterscheiden, wer aus Überzeugung spricht und wer aus Vertragspflicht.

Lily Ray formuliert es direkt: Seit sie von diesen Praktiken weiß, hinterfragt sie vieles, was sie auf LinkedIn, X und Reddit sieht. Zu Recht.

Was das für Sie bedeutet:

Skepsis ist angebracht – nicht nur gegenüber den Taktiken selbst, sondern auch gegenüber denen, die sie propagieren. Fragen Sie sich: Wer profitiert davon, wenn ich das glaube? Verkauft diese Person ein Tool, das genau dieses Problem lösen soll? Ist die Argumentation nachvollziehbar, oder wird nur behauptet?

Was tatsächlich zählt

Die gute Nachricht: Wer die Grundlagen (von SEO) beherrscht, ist auch für die KI-Ära gut aufgestellt. Die Taktiken, die seit Jahren funktionieren, bleiben relevant:

Semantische Strukturierung. Klare Überschriftenhierarchien (H1-H6), logischer Aufbau, Tabellen und Listen wo angemessen. Nicht weil KI-Bots das brauchen, sondern weil es Inhalte für Menschen und Maschinen gleichermaßen verständlich macht.

Thematische Tiefe. Topical Authority entsteht durch umfassende, vernetzte Inhalte zu einem Themenfeld – nicht durch oberflächliche Texte, die Keywords abhaken.

Technische Exzellenz. Crawlbarkeit, Indexierbarkeit, Seitengeschwindigkeit. Und weitere Grundlagen, die wir im Artikel über SEO-Prioritäten beschrieben haben.

Markenaufbau und Citations. Erwähnungen auf relevanten Quellen werden von LLMs als Signal für Autorität gewertet. Das ist kein neues Konzept – es ist Linkbuilding und PR bzw. Content-Marketing, konsequent weitergedacht.

Für Menschen schreiben. Klingt banal, ist aber der beste Schutz gegen algorithmische Abwertung. Was natürlich und nützlich ist, bleibt es auch, wenn sich die Systeme weiterentwickeln. Und by the way: Content mit KI-produziert, ohne menschliche Hege und Pflege, akribische Vorplanung und fundierter Suchverhaltensanalyse, gehört nicht dazu!

Unsere Haltung: Skepsis als Arbeitsprinzip

Bei ROCKITdigital beobachten wir die GEO-Diskussion seit ihren Anfängen. Wir positionieren uns als Pioniere in diesem Bereich – aber das bedeutet auch in dieser Welle der immer währenden Veränderungen in diesem Segment nicht, jeden Trend mitzumachen.

Im Gegenteil: Wer sich früh mit einem Thema beschäftigt, entwickelt auch früh ein Gespür dafür, was Substanz hat und was Hype ist.

Was wir tun:

  • Primärquellen lesen – nicht nur die SEO-Interpretation davon
  • Patente als das behandeln, was sie sind: Möglichkeiten, keine Gewissheiten
  • Testen, bevor wir empfehlen, schon seit vielen Jahren auch an eigenen, lebenden und wirtschaftlich relevanten Profitcentern, und natürlich nicht immer nur mit Erfolg
  • Kunden von Taktiken abraten, deren Nutzen nicht belegt ist

Was wir nicht tun:

  • Jedem neuen Framework hinterherlaufen
  • Konzepte aus der Informatik umdeuten, um sie als SEO-Tipps zu verkaufen
  • Zeit in Maßnahmen investieren, deren Wirkung (zu) spekulativ ist (ja, machmal „testen“ wir auch etwas forsch, das gehört auch zu SEO/GEO)

Heißt: Kritisches Denken war nie wichtiger

Die SEO-Branche steht an einem Wendepunkt. Neue Technologien verändern die Suche. Aber die Grundprinzipien bleiben: Relevanz, Qualität, Nutzerzentrierung, technische Sauberkeit.

Wer diese Grundlagen beherrscht, braucht keine spekulativen Taktiken. Wer sie nicht beherrscht, wird durch Chunking und LLMs.txt auch nicht gerettet, im Gegenteil.

Dawn Anderson bringt es auf den Punkt: „Search is complex. Think critically.“

Und ich möchte noch den geschätzten (Ex-)Kollegen Pip Klöckner und „Ex-SEO“ aus seinem LinkedIn-Kommentar zitieren:

Still waiting for the first business to generate significant revenue from sales driven by LLMs. I appreciate that attribution is hard, and I’m not saying GEO is pointless. But people have lost their script, de-prioritising the arguably biggest channel (Google), only to pursue pumping disinformation listicles into the web to fool early LLMs with no trust or EAT concept.

Dem ist nichts hinzuzufügen. Außer: Wenn Sie eine SEO/GEO-Agentur mit mehr als 25 Jahren Erfahrung suchen, melden Sie sich.

Quellen

ROCKITdigital - Ralf Zmölnig
Ralf Zmölnig
CEO ROCKITdigital GmbH

CEO & Vollblut-Digitalmarketingstratege, strategisch und Performanceorientiert bei ROCKITdigital GmbH

Seit 11/2000 rockt das Team von ROCKITdigital und Ralf Zmölnig das (digitale) Marketing

Wir freuen uns darauf, Sie,
Ihr Unternehmen und Ihre Vision kennenzulernen.

Erzählen Sie uns, wo Sie gerade stehen – gemeinsam bringen wir Ihre Marke auf das nächste Level.

    Informationen zur Verarbeitung Ihrer Daten finden Sie in unserer Datenschutzerklärung

    Rufen Sie uns an

    +49 (0)89 12 22 30 6-12

    Alexa Zmölnig
    freut sich auf Ihren Anruf!