arrow backarrow downwardarrow forwardarrow upwardbuildcalendarcheckclosecrownemailemergencyemo neutralemo sademo smileemoji objectsexpand lessexpand moreexplorefacebookfilterflag 2forumheartheart fillhomeinstagramlanguagelinkedinlive tvlocationmedalmenumoneynew releasespdfpersonphoto libraryplaypsychology altreloadremoveroom phonesearchsettingsstarstar fillstar halfsunswap horizswap vertthumb downthumb uptrashtuneuser circleuser groupworldxingyoutube
Warum guter Content in KI-Antworten (trotzdem) übergangen wird
SEO/ GEO/ GAIO/ KI & ML
Ralf ZmölnigFeb. 2026

Warum guter Content in KI-Antworten (trotzdem) übergangen wird

Prüfen Sie Ihre Content-Strategie nicht nur auf Keywords und Themencluster, sondern auf Intent-Abdeckung: Haben Sie Inhalte, die für Comparison-Anfragen taugen? Gibt es Schritt-für-Schritt-Anleitungen für Learning and Problem Solving? Bieten Sie strukturierte Planungshilfen, die über reine Informationsseiten hinausgehen? Haben Sie Recherche-Synthesen, die für Research-Queries zitierbar sind?

Microsoft klassifiziert Nutzeranfragen in 13 Intent-Typen. Wer nur für „informational“ optimiert, verliert systematisch Zitierungschancen.

Im Quellcode der Bing Webmaster Tools haben mehrere unabhängige Analysen ein Detail aufgedeckt, das mehr über die Zukunft der Suchmaschinenoptimierung verrät als das gesamte offizielle Dashboard: 13 vordefinierte Intent-Kategorien für KI-Anfragen – komplett mit Farbschema und Badge-Styling, aber noch nicht freigeschaltet. Die Kategorien lesen sich wie das Inhaltsverzeichnis einer neuen Disziplin. Und sie machen eines deutlich: Die seit über 20 Jahren gelernte Dreiteilung in navigational, informational und transactional beschreibt nicht mehr, wie Menschen KI-Systeme tatsächlich nutzen – und vor allem nicht, wie diese Systeme entscheiden, welche Inhalte sie als Quelle heranziehen.

Die Dreiteilung, die nicht mehr passt

Seit Andrei Broder im Jahr 2002 seine Taxonomie der Web-Suchanfragen veröffentlichte, arbeitet die SEO-Branche mit drei Grundkategorien:

Navigational – der Nutzer will zu einer bestimmten Seite
Informational – der Nutzer will etwas wissen
und
Transactional – der Nutzer will etwas tun oder kaufen.

Google hat dieses Modell im Laufe der Jahre durch ein eigenes Vierer-Schema ersetzt, dokumentiert in den Quality Rater Guidelines (Section 12.7 „Understanding User Intent“):
Know – mit der Untervariante Know Simple für einfache Faktenfragen
Do – mit der Untervariante Device Action für Gerätesteuerung
Website – funktional Broders „Navigational“
und
Visit-in-Person – Googles Ergänzung für lokale Suchabsichten, die bei Broder fehlte.
Das Grundprinzip blieb aber erhalten: Jede Suchanfrage lässt sich einer von wenigen Grundintentionen zuordnen.

Dieses Modell funktionierte, solange Suche bedeutete: Ein Mensch tippt Stichwörter in ein Suchfeld und bekommt eine Liste von Links zurück. Aber genau das beschreibt nicht mehr, was bei ChatGPT, Copilot, Claude oder Gemini passiert.

Menschen führen Gespräche mit KI-Systemen. Sie planen Reisen, vergleichen Optionen, lassen sich Texte erstellen, lösen Probleme in mehreren Iterationen, bitten um Zusammenfassungen, diskutieren Entscheidungen. Manche machen sogar Small Talk. Diese Nutzungsmuster passen nicht in ein Schema, das für Stichwort-Eingaben in ein Suchfeld entwickelt wurde.

Microsoft hat das offenbar erkannt – und im Hintergrund eine neue Taxonomie aufgebaut.

Was der Quellcode der Bing Webmaster Tools verrät

Mehrere unabhängige sowie unsere Quellcode-Analysen haben offengelegt, was sich im Client-Side-Code des neuen AI Performance Reports der Bing Webmaster Tools verbirgt: 13 vordefinierte Intent-Kategorien, jede mit eigenem Farbschema und fertigem Badge-Styling – programmiert, aber noch nicht für Nutzer sichtbar.

Sven Giese von SMART LEMON hat als Erster (in unserer Wahrnehmung) im deutschsprachigen Raum dokumentiert, dass die Kategorien existieren, und acht davon namentlich identifiziert. Die vollständige Extraktion aller 13 Kategorien gelang Olivier de Segonzac von der Pariser Agentur RESONEO, der den tatsächlichen JavaScript-Enum im Produktivcode isolierte. Der geschätzte Kollege Kai Spriestersbach hat die Kategorien anschließend in den Kontext aktueller Intent-Forschung eingeordnet und mit seinem GIO-Framework (Generative Intent Operationalization) abgeglichen.

Hier die vollständige Enum-Funktion, wie sie im JavaScript-Bundle der Bing Webmaster Tools hinterlegt ist:

function(e) {
  e.Navigational = "Navigational",
  e.LearningAndProblemSolving = "Learning and Problem Solving",
  e.Creation = "Creation",
  e.Entertainment = "Entertainment",
  e.ShoppingOrTransaction = "Shopping or Transaction",
  e.SmallTalk = "Small Talk",
  e.InformationalSearch = "Informational Search",
  e.Utility = "Utility",
  e.MultimediaSearch = "Multimedia Search",
  e.Research = "Research",
  e.Planning = "Planning",
  e.Comparison = "Comparison",
  e.Others = "Others"
}

Wer das selbst nachvollziehen möchte: Im Browser die Bing Webmaster Tools öffnen, zum AI Performance Report navigieren und die Developer Tools starten (F12). Im Tab „Quellcode“ (bzw. „Sources“) lässt sich über die projektweite Suche (Strg+Shift+F) nach Begriffen wie "SmallTalk", "ShoppingOrTransaction" oder "SearchIntentType" suchen. Die Treffer führen zu den JavaScript-Bundles, in denen die Kategorien als Enum-Werte mit zugeordneten Farben und Labels definiert sind.

Die 13 Kategorien im Detail

Navigational – Der Nutzer will zu einem bestimmten Ziel. Klassische Suchintention, die auch in der KI-Welt fortbesteht: „Öffne die ROCKITdigital-Website“, „Zeig mir die Bing Webmaster Tools.“

Informational Search – Der Nutzer stellt eine faktische Frage. „Wie viele Einwohner hat München?“, „Was ist Generative Engine Optimization?“ Entspricht dem klassischen „informational“, aber eingeengt auf tatsächliche Suchfragen – im Unterschied zu den folgenden, differenzierteren Wissensintentionen.

Learning and Problem Solving – Der Nutzer will ein Problem verstehen oder lösen. „Warum schlägt mein WordPress-Plugin nach dem Update fehl?“, „Erkläre mir, wie Grounding in KI-Systemen funktioniert.“ Das geht über eine einfache Faktenfrage hinaus: Es erfordert Kontext, Erklärung, möglicherweise mehrere Iterationsschritte.

Research – Der Nutzer recherchiert ein Thema mit Tiefe. „Welche Studien gibt es zur Wirksamkeit von GEO-Strategien?“, „Was sagt die aktuelle Forschung zu LLM-Halluzinationen?“ Die Trennung von „Informational Search“ und „Research“ ist strategisch aufschlussreich: Eine einfache Faktenfrage kann ein KI-System oft aus dem parametrischen Gedächtnis beantworten; eine Recherche erfordert typischerweise Multi-Source-Synthese mit hoher Grounding-Abhängigkeit. Wie Kai Spriestersbach analysiert, bildet diese Unterscheidung implizit verschiedene Grounding-Tiefen ab – und damit unterschiedliche Chancen, als externe Quelle zitiert zu werden.

Comparison – Der Nutzer will Optionen gegeneinander abwägen. „Vergleiche HubSpot und Salesforce für ein B2B-Unternehmen mit 50 Mitarbeitern“, „Was ist besser: WordPress oder Webflow für eine Unternehmensseite?“ Das klassische Modell hätte das unter „informational“ oder bestenfalls „commercial investigation“ verbucht. Vergleichsanfragen erfordern fast immer aktuelle, multi-attributive Daten aus mehreren Quellen – ein Fall, in dem das Grounding-System zwingend externe Quellen heranziehen muss.

Planning – Der Nutzer plant einen Vorgang mit mehreren Variablen. „Plane mir eine Woche Karibikurlaub mit Kindern unter 10″, „Wie organisiere ich einen Firmenumzug?“ Hier geht es nicht um eine einzelne Antwort, sondern um einen strukturierten Entwurf, der Optionen abwägt und Reihenfolgen vorschlägt.

Creation – Der Nutzer will etwas erstellen lassen. „Schreib mir eine E-Mail an den Vermieter“, „Erstelle eine Präsentation über unsere Q4-Ergebnisse“, „Generiere ein Python-Skript für die Datenbereinigung.“ Eine Intention, die in der klassischen Websuche schlicht nicht existierte. Allerdings zeigt sich hier ein Ambiguitätsproblem, das Spriestersbach treffend identifiziert: „Schreib ein Gedicht“ ist rein parametrisch lösbar (das Modell braucht keine externen Quellen), während „Erstelle eine Marktanalyse zum deutschen E-Auto-Markt 2026″ zwingend Grounding erfordert. Dieselbe Kategorie enthält Anfragen mit null und mit maximaler GEO-Relevanz.

Shopping or Transaction – Der Nutzer will kaufen oder eine Transaktion durchführen. „Finde mir ein günstiges Hotel in Barcelona für nächstes Wochenende“, „Bestell mir neue Druckerpatronen.“ Im klassischen Modell war das „transactional“ – Microsoft differenziert es als Shopping-spezifischen Intent innerhalb des KI-Kontexts.

Utility – Der Nutzer nutzt das KI-System als Werkzeug. „Rechne 150 Euro in Dollar um“, „Übersetze diesen Absatz ins Englische“, „Formatiere diese CSV-Daten als Tabelle.“ Funktionale Anfragen, bei denen das System als Utility agiert – oft parametrisch lösbar, selten mit Grounding-Bedarf.

Multimedia Search – Der Nutzer sucht nach visuellen oder audiovisuellen Inhalten. „Zeig mir Bilder von der Amalfiküste“, „Finde ein Tutorial-Video zu Excel-Pivot-Tabellen.“ Eine Kategorie, die die Verschmelzung von Text-, Bild- und Videosuche in multimodalen KI-Systemen abbildet.

Entertainment – Der Nutzer will unterhalten werden. „Erzähl mir einen Witz“, „Empfiehl mir ein Buch, das sich liest wie Dark Souls sich spielt.“ Ein Intent, den Suchmaschinen nie bedienen konnten, den aber Conversational AI problemlos erfüllt.

Small Talk – Der Nutzer unterhält sich ohne konkretes Informationsziel. „Wie geht es dir?“, „Was hältst du vom Wetter?“ In keinem uns bekannten SEO-Lehrbuch findet sich ein Kapitel über Small-Talk-Optimierung. Aber wenn Microsoft diesen Intent im Code einer Webmaster-Plattform hinterlegt, bedeutet das: Das System klassifiziert auch diese Anfragen – und entscheidet, ob und welche Quellen dafür herangezogen werden.

Others – Die Auffangkategorie für Anfragen, die in keine der zwölf spezifischen Kategorien passen. Jedes Klassifizierungssystem braucht eine solche Kategorie, um nicht bei Grenzfällen zu scheitern.

GEO-Relevanz ist nicht gleichverteilt

Ein wesentlicher Aspekt, den Kai in seiner Analyse herausarbeitet: Nicht alle 13 Kategorien sind für GEO gleich relevant. Die Kategorien lassen sich nach ihrer „Grounding Necessity“ – der Wahrscheinlichkeit, dass das KI-System externe Quellen heranzieht – in drei Gruppen einteilen:

Hohe GEO-Relevanz: Research, Comparison, Planning und Shopping or Transaction. Hier muss das System fast immer aktuelle, externe Daten heranziehen. Das sind die Kategorien, in denen Content-Investitionen den höchsten Return auf KI-Sichtbarkeit versprechen.

Mittlere GEO-Relevanz: Learning and Problem Solving, Informational Search, Creation. Abhängig von der konkreten Anfrage – „Erkläre mir Photosynthese“ braucht kein Grounding, „Erkläre mir die neuen EU-Regulierungen für KI“ zwingend. Content-Strategie muss hier differenzieren.

Niedrige GEO-Relevanz: Small Talk, Entertainment, Utility, Multimedia Search und (oft) Navigational. Die Engine wird für Small Talk keine externen Quellen zitieren. Wer Content für diese Kategorien optimiert, optimiert – wie Spriestersbach es formuliert – ins Leere.

Warum das nicht nur ein Interface-Detail ist

Die entscheidende Frage ist: Handelt es sich nur um ein zukünftiges Filter-Feature für das Dashboard – oder bilden diese 13 Kategorien eine Klassifizierungslogik ab, die Microsoft aktiv im Grounding-Prozess einsetzt?

Einiges spricht für Letzteres. Microsofts Grounding-Infrastruktur – das System, das entscheidet, welche Webinhalte als Quellen für KI-Antworten herangezogen werden – muss die Intention einer Anfrage verstehen, um passende Quellen auszuwählen. Ein Nutzer, der „Vergleiche CRM-Systeme für den Mittelstand“ fragt, braucht andere Quellen als einer, der „Was ist ein CRM?“ fragt, obwohl beide Anfragen im klassischen Modell als „informational“ klassifiziert würden.

Microsoft hat über Bing und Azure AI Foundry eine umfangreiche Infrastruktur für Intent-Erkennung aufgebaut. Die Azure-Dokumentation beschreibt, wie Grounding-Systeme Nutzeranfragen analysieren, in Komponenten zerlegen und daraus spezialisierte Grounding Queries ableiten. Eine 13-stufige Intent-Klassifizierung passt in diese Architektur als Ebene, die bestimmt, welche Art von Quellen das Retrievalsystem bevorzugt.

Wenn das so ist, dann hat die Intent-Klassifizierung direkte Auswirkungen darauf, welche Inhalte zitiert werden – und welche nicht.

Was das für die Content-Strategie bedeutet

Betrachten wir die Konsequenzen anhand konkreter Szenarien:

Szenario 1: Ein Mittelständler hat einen umfassenden Produktkatalog online, aber keine Vergleichsinhalte. Wenn ein Nutzer Copilot bittet, Anbieter von Sondermaschinen zu vergleichen, klassifiziert das System die Anfrage als „Comparison“. Das Grounding-System sucht nach Quellen, die strukturierte Vergleiche liefern: Gegenüberstellungen, Kriterien-Listen, Vor- und Nachteile. Eine reine Produktseite – so gut sie im klassischen SEO auch ranken mag – liefert dem System nicht, was es für eine Comparison-Antwort braucht. Die Zitierung geht an den Wettbewerber, der einen Vergleichsartikel hat.

ABER VORSICHT: Die derzeit heißgekochten,viel zitierten, teuer verkauften aber inzestuösen Vergleichspages warten schon wieder auf ihre Google-Penalty!

Szenario 2: Ein Beratungsunternehmen veröffentlicht regelmäßig Fachartikel, aber keine How-to-Inhalte. Ein Nutzer fragt Copilot: „Wie implementiere ich eine GEO-Strategie für meinen B2B-Shop?“ Das System klassifiziert das als „Learning and Problem Solving“. Es sucht nach Quellen, die einen Lösungsweg beschreiben – Schritt für Schritt, mit praktischer Anwendbarkeit. Abstrakte Thought-Leadership-Artikel werden übergangen, weil sie die falschen Signale für den konkreten Intent liefern. Und natürlich ist steht ein solcher Ratber schon auf meiner Tasklist!

Szenario 3: Ein Reiseveranstalter hat Destinationsseiten mit Fakten und Bildern, aber keine Planungshilfen. Ein Nutzer fragt: „Plane mir eine Woche Malediven im März für zwei Personen, Budget 4.000 Euro.“ Das System klassifiziert als „Planning“. Es sucht nach Quellen, die Budget-Orientierung, Zeitplanung, Aktivitätsvorschläge und logistische Hinweise kombinieren. Eine klassische Destinationsseite mit Hotelfotos und Klima-Tabelle wird vom System für diesen Intent wahrscheinlich als unzureichend bewertet. Natürlich könnte die Destiations-Seite als eine der Quellen stattfinden, ist aber eben wenig wahrscheinlich. Bzw. bedarf es tiefem Human reasoning, wie es zu bewerkstelligen ist 😉

Das Muster: Die klassische SEO-Frage „Für welches Keyword ranke ich?“ wird langsam (!) abgelöst durch die GEO-Frage

„Für welchen Intent-Typ ist mein Content zitierbar?“

Die Dreiteilung war eine Vereinfachung – und Vereinfachungen verfallen

Um fair zu sein: Broders Taxonomie war nie als vollständige Beschreibung menschlichen Suchverhaltens gedacht. Sie war ein Modell, das die damalige Realität – Stichwort-Eingabe, Linkliste, Klick – funktional abbildete. Die Quality Rater Guidelines haben das Modell differenziert, aber im Kern beibehalten.

Die 13 Kategorien, die Microsoft im Code hinterlegt hat, sind kein Konkurrenzmodell zu Broder. Sie sind eine Antwort auf eine andere Realität: Menschen nutzen KI-Systeme nicht wie Suchmaschinen. Sie nutzen sie wie Gesprächspartner, Assistenten, Co-Autoren und Planungswerkzeuge. Ein Intent-Modell, das diese Nutzung abbilden will, braucht Kategorien wie Creation, Planning und Small Talk – nicht weil die alten Kategorien falsch waren, sondern weil sie eine Interaktionsform beschrieben, die nicht mehr die einzige ist.

Für die SEO-Branche bedeutet das einen Perspektivwechsel, der tiefer geht als ein neues Dashboard-Feature:

Keyword-Intent-Mapping reicht nicht mehr. Die Zuordnung „Keyword X hat informational Intent“ war ein nützliches Werkzeug für die Optimierung klassischer Suchergebnisseiten. In einer Welt, in der dasselbe Thema als Informational Search, Learning and Problem Solving, Research, Comparison oder Planning klassifiziert werden kann – je nachdem, wie der Nutzer fragt – braucht Content eine Flexibilität, die über Keyword-Zuordnungen hinausgeht.

Content-Formate müssen Intent-Typen bedienen. Nicht jeder Artikel muss jeden Intent abdecken. Aber eine Content-Strategie, die ausschließlich auf informational optimiert ist, wird in einer 13-Intent-Welt systematisch Zitierungschancen verlieren. Vergleichsinhalte für Comparison, Schritt-für-Schritt-Anleitungen für Learning and Problem Solving, strukturierte Planungshilfen für Planning, Recherche-Synthesen für Research – das sind keine optionalen Bonus-Formate, sondern eigenständige Zitierungskategorien.

Die Grounding-Query-Analyse wird zum strategischen Werkzeug. Wenn Microsoft die Intent-Klassifizierung im AI Performance Report freischaltet, können Website-Betreiber erstmals sehen, in welcher Intent-Kategorie ihre Inhalte zitiert werden – und in welcher nicht. Das ist eine diagnostische Fähigkeit, die im klassischen SEO kein Äquivalent hat.

Was der Quellcode tatsächlich zeigt – eine Analyse auf zwei Ebenen

Wir haben den Quellcode der Bing Webmaster Tools selbst untersucht. Dabei zeigt sich eine Zweiteilung, die Rückschlüsse auf Microsofts Implementierungsstrategie zulässt.

Ebene 1: Der Haupt-Ressourcen-String (HTML-Inline)

Beim Laden der Bing Webmaster Tools wird im HTML-Body eine umfangreiche resources-Variable als JavaScript-Objekt eingebettet. Diese enthält sämtliche UI-Labels, Tooltips und Übersetzungen für die gesamte Oberfläche – von Sitemap-Verwaltung über Crawl-Steuerung bis zum AI Performance Report.

Im Kontext der KI-Sichtbarkeit finden sich dort folgende Schlüssel:

"AIPerformance": "AI Performance" – der Menüpunkt für den Report.

"Citations": "Citations" und "CitedPages": "Cited Pages" – die Metriken-Labels, auffällig: nicht ins Deutsche übersetzt, obwohl der gesamte übrige Ressourcen-String lokalisiert ist. Das deutet darauf hin, dass diese Felder erst kürzlich hinzugefügt und noch nicht den vollständigen Lokalisierungsprozess durchlaufen haben.

"GroundingQuery": "Grounding Query" und "GroundingQueries": "Grounding Queries" – ebenfalls nicht lokalisiert.

"CitedBy": "Cited By" – das Label für die Quellenansicht. Dahinter verbirgt sich aktuell nur das statische „Microsoft Copilots and Partners“, aber die Datenstruktur ist für eine differenziertere Aufschlüsselung angelegt. De Segonzac interpretiert dieses Feld als mögliche Anzeige der Microsoft-Oberfläche, aus der die Zitierung stammt (Bing Chat, Edge, Windows, Office) – oder als eine Art Backlink-Profil für die generative Ebene, das zeigt, welche externen Seiten und Domains den eigenen Content in ihren KI-Antworten zitieren.

"TotalCitations": null – der Schlüssel existiert, aber der Wert ist null. Ein typisches Muster für Features, die im Code reserviert, aber noch nicht mit Inhalten befüllt sind.

"Intent": "Intent" – ein einzelnes Label, nicht übersetzt. Das ist der Spalten- oder Filter-Header, der in der Benutzeroberfläche erscheinen wird, sobald die Intent-Klassifizierung freigeschaltet wird.

Und dann: "Informational": "Informativ" – als einzige Intent-Kategorie bereits ins Deutsche übersetzt. Von den übrigen 12 Kategorien findet sich im Haupt-Ressourcen-String keine Spur.

Ergänzend fällt auf, dass Microsoft die Bezeichnung SEO/GEO durchgängig in den Ressourcen-String integriert hat: "SEOIssueFound": "SEO/GEO-Problem gefunden", "SEO_Reports": "SEO/GEO-Berichte", "PagesWithErrorDescription": "...SEO/GEO-Best-Practices...". GEO ist hier kein Zukunftsbegriff, sondern bereits in die operative Tooling-Ebene eingebaut.

Ebene 2: Die JavaScript-Bundles (extern geladen)

Am Ende des HTML-Dokuments in unserem Livebeispiel lädt die Seite ein kompiliertes JavaScript-Bundle:

/webmasters/bundle/js?v=lyvKp_V6g8gQtuUWG-8Ii5bhU1Yj-gMPyNuhJK2vG981

Hier – in den kompilierten, aber per Developer Tools lesbaren JS-Dateien – befinden sich die 13 Intent-Kategorien mit ihren Farbzuordnungen und Badge-Styling-Definitionen. Außerdem identifizierte de Segonzac dort weitere vorbereitete, aber noch nicht freigeschaltete Features: einen geographischen Filter (im State initialisiert, aber im Interface verborgen) und einen Vergleichsmodus (aktuell per Flag auf false gesetzt).

Diese Architekturentscheidung ist aufschlussreich: Die Intent-Kategorien sind nicht im Haupt-Ressourcen-String hinterlegt (wo alle anderen UI-Labels stehen), sondern in einem separaten, kompilierten Bundle. Das spricht dafür, dass sie Teil einer eigenständigen Feature-Komponente sind, die unabhängig vom Rest der Oberfläche entwickelt und deployed wird – typisch für Features, die hinter einem Feature-Flag stehen und schrittweise freigeschaltet werden. Wie de Segonzac bemerkt: Der Code ist zu nah an der Produktionsumgebung, um dauerhaft im Teststadium zu bleiben.

Ein offener Punkt: Die Opazität der Grounding Queries

De Segonzacs Analyse wirft eine wichtige Frage auf, die auch für die strategische Nutzung des AI Performance Reports relevant ist: Die Grounding Queries – also die Suchanfragen, die das KI-System intern stellt, wenn es externe Quellen abruft – sind in ihrer Zusammensetzung nicht einheitlich. Es finden sich darin Fan-Out-Queries (englischsprachige Anfragen mit KI-typischen Markern wie „review“ oder Ländernamen als Suffix), automatisch generierte Gruppierungen durch das Modell, aber auch lange Grounding Queries, die wie Zeitungsartikel-Überschriften aussehen. Diese Mischung macht die Interpretation für Website-Betreiber derzeit noch schwierig – aber die Intent-Klassifizierung könnte genau die Ordnungsebene liefern, die den Grounding Queries bislang fehlt.

Einordnung: Was gesichert ist und was nicht

Gesichert ist, dass im Client-Side-Code der Bing Webmaster Tools 13 Intent-Kategorien mit Farbschema und Badge-Styling hinterlegt sind. Alle 13 sind namentlich identifiziert: Navigational, Informational Search, Learning and Problem Solving, Research, Comparison, Planning, Creation, Shopping or Transaction, Utility, Multimedia Search, Entertainment, Small Talk und Others. Die vollständige Extraktion stammt von Olivier de Segonzac (RESONEO), der den JavaScript-Enum mit der kompletten Funktion isolierte. Sven Giese (SMART LEMON) hatte die Kategorien zuerst (!?) im deutschsprachigen Raum dokumentiert. Unsere eigene HTML-Quellcode-Analyse bestätigt die Infrastruktur: Im Haupt-Ressourcen-String existiert das Label "Intent" als Spaltenheader und "Informational" als einzige lokalisierte Kategorie; die vollständige Taxonomie liegt in einem separat geladenen JavaScript-Bundle.

Gesichert ist, dass neben den Intent-Kategorien weitere Features im Code vorbereitet sind: ein geographischer Filter und ein Vergleichsmodus, beide aktuell deaktiviert.

Gesichert ist, dass Microsoft die Bezeichnung SEO/GEO bereits durchgängig in die operative Oberfläche der Webmaster Tools integriert hat – von Fehlerberichten über Prüfungstools bis zu Seitenanalysen. GEO ist in Microsofts Tooling kein Zukunftskonzept mehr.

Nicht gesichert ist, ob die 13 Kategorien aktiv im Grounding-Prozess eingesetzt werden oder ob sie ausschließlich als Dashboard-Filter für zukünftige Analysefunktionen vorgesehen sind. Die Argumentation in diesem Artikel – dass die Intent-Klassifizierung die Quellenauswahl beeinflusst – ist eine naheliegende Hypothese, keine bewiesene Tatsache.

Nicht gesichert ist, ob und wann Microsoft die Intent-Aufschlüsselung im Dashboard freischalten wird. Fabrice Canel hat auf X (auf Antidemokratische Plattformen verlinken wir nicht, Sorry Fabrice) angedeutet, dass weitere Funktionen folgen werden, aber ein konkreter Zeitplan existiert nicht. Die Code-Architektur – separates Bundle, Feature-Flag-Struktur, teilweise Lokalisierung – deutet auf eine kontrollierte, stufenweise Einführung hin.

Die 13 Kategorien im Überblick: Mapping, Grounding-Relevanz und Content-Formate

Wie sich die Intent-Modelle zueinander verhalten

Die folgende Tabelle zeigt, wie Broders klassische Dreiteilung (2002), Googles Quality-Rater-Kategorien und Microsofts 13 KI-Intent-Typen zusammenhängen – und wo die neuen Kategorien über alles hinausgehen, was bisherige Modelle abbilden konnten:

Broder (2002)Google QRGMicrosoft 13 KI-Intent-Typen
InformationalKnow / Know SimpleInformational Search
InformationalKnowResearch
InformationalKnowLearning and Problem Solving
Comparison
Planning
TransactionalDoShopping or Transaction
TransactionalDoCreation
Do (Device Action)Utility
NavigationalWebsiteNavigational
Visit-in-Person(kein Äquivalent – lokal statt konversational)
Entertainment
Small Talk
Multimedia Search
Others

Das Muster: Was bei Broder „informational“ war, differenziert Microsoft in vier Kategorien mit völlig unterschiedlicher Grounding-Abhängigkeit. Was bei Broder „transactional“ war, splittet sich in drei Kategorien. Und fünf der 13 Kategorien – Comparison, Planning, Entertainment, Small Talk, Multimedia Search – existieren in keinem der älteren Modelle, weil sie Interaktionsformen beschreiben, die erst mit Conversational AI entstanden sind.

Intent-Abdeckungsmatrix: Grounding-Abhängigkeit, GEO-Relevanz und empfohlenes Content-Format

Intent-TypGrounding-AbhängigkeitGEO-RelevanzEmpfohlenes Content-Format
ResearchSehr hoch – Multi-Source-Synthese erforderlich★★★★★Datengestützte Analysen mit Quellenangaben, systematische Literatur- und Marktübersichten, Branchen-Benchmarks mit eigener Datenerhebung
ComparisonSehr hoch – aktuelle Multi-Attribut-Daten nötig★★★★★Kriterienbasierte Gegenüberstellungen mit gewichteter Bewertung, Entscheidungsmatrizen mit Anwendungskontexten (z.B. nach Unternehmensgröße, Branche, Budget)
PlanningHoch – Zeitpläne, Budgets, Logistik★★★★☆Phasenmodelle mit Zeitrahmen und Abhängigkeiten, Budget-Frameworks mit Variablen, Entscheidungsbäume für kontextabhängige Planungspfade
Shopping or TransactionHoch – aktuelle Preise, Verfügbarkeit★★★★☆Kaufberatungen mit Entscheidungskriterien und Anwendungsszenarien, Konfigurationshilfen, Kostenrechner mit branchenspezifischen Variablen
Learning and Problem SolvingMittel – abhängig vom Thema★★★☆☆Lösungsorientierte Anleitungen mit Diagnose-Einstieg („Wenn X, dann Y“), Troubleshooting-Entscheidungsbäume, Tutorials mit nachvollziehbaren Zwischenergebnissen
Informational SearchMittel – oft parametrisch lösbar★★★☆☆Definitionsseiten mit Kontextualisierung (nicht nur „Was ist X?“, sondern „Was bedeutet X für Y?“), Glossare mit Querverweisen auf weiterführende Intent-Typen
CreationMittel – abhängig vom Auftrag★★☆☆☆Branchenspezifische Vorlagen mit Ausfüllhilfe, Frameworks mit Beispieloutputs, Prompt-Libraries für wiederkehrende Erstellungsaufgaben
Multimedia SearchNiedrig – sucht existierende Medien★★☆☆☆Medienarchive mit semantischer Verschlagwortung, Video-Content mit Kapitelmarken und Transkripten
NavigationalNiedrig – Zielseite bekannt★☆☆☆☆Technisch einwandfreie Startseiten mit konsistenter Markenidentität über alle Touchpoints, korrekte Knowledge-Graph-Einträge
UtilitySehr niedrig – parametrisch lösbar★☆☆☆☆Rechner, Konverter (wenn angeboten, dann als Tool, nicht als Artikel)
EntertainmentSehr niedrig – kein Grounding nötig☆☆☆☆☆(Keine Content-Investition für GEO empfohlen)
Small TalkSehr niedrig – rein parametrisch☆☆☆☆☆(Keine Content-Investition für GEO empfohlen)
OthersVariabel(Abhängig vom konkreten Fall)

Was Sie jetzt tun sollten

Unabhängig davon, wann Microsoft die Intent-Kategorien freischaltet, lässt sich die strategische Konsequenz bereits heute umsetzen:

1. Intent-Audit Ihrer bestehenden Inhalte

Prüfen Sie Ihre Content-Strategie nicht nur auf Keywords und Themencluster, sondern auf Intent-Abdeckung: Haben Sie Inhalte, die für Comparison-Anfragen taugen? Gibt es Schritt-für-Schritt-Anleitungen für Learning and Problem Solving? Bieten Sie strukturierte Planungshilfen, die über reine Informationsseiten hinausgehen? Haben Sie Recherche-Synthesen, die für Research-Queries zitierbar sind?

Die meisten Websites, die wir als SEO/GEO-Agentur analysieren, haben eine starke Abdeckung für Informational Search – und blinde Flecken bei Comparison, Planning und Research. Genau dort liegen die ungenutzten Zitierungschancen. Auch wenn es durchaus anspruchsvoll ist, dass weiterhin mit dem Fokus auf den User, und nicht die Zitierfähigkeit im LLM zu konzipieren. #snakeoil

2. Grounding-Abhängigkeit als Priorisierungskriterium

Nicht alle 13 Intent-Typen sind für GEO gleich relevant. Konzentrieren Sie sich auf die Kategorien mit hoher Grounding-Abhängigkeit – Research, Comparison, Planning, Shopping or Transaction – und investieren Sie dort, wo das KI-System zwingend externe Quellen braucht, statt aus dem eigenen Modellwissen zu antworten. Content für Small Talk oder Entertainment zu optimieren ist in den alelrmeisten Fällen verschwendetes Budget. Bzw. schlummern auch dort Ansätze, für die, die pralle Budgettöpfe haben.

3. Grounding Queries systematisch auswerten

Wenn Sie bereits das Bing AI Performance Dashboard nutzen, analysieren Sie Ihre Grounding Queries nicht nur nach Themen, sondern fragen Sie sich bei jeder Query: Welcher der 13 Intent-Typen beschreibt das am besten? Die Antwort zeigt Ihnen, welche Art von Content das System bei Ihnen findet – und welche es anderswo suchen muss.

Ergänzen Sie die Grounding-Query-Analyse durch die Daten aus dem neuen Microsoft Clarity AI Citations Dashboard: Dort sehen Sie, welche Ihrer Seiten tatsächlich in KI-Antworten zitiert werden und wie sich Ihre Share of Authority gegenüber dem Wettbewerb entwickelt.

4. Content-Formate an Intent-Typen ausrichten

Die klassische SEO-Logik – ein Keyword, ein Artikel, eine Suchintention – reicht nicht mehr. Für dasselbe Thema können je nach Fragestellung vier verschiedene Intent-Typen greifen. Ein Beispiel aus dem B2B-Bereich:

  • „Was ist Marketing Automation?“ → Informational Search
  • „Wie implementiere ich Marketing Automation in meinem Unternehmen?“ → Learning and Problem Solving
  • „Vergleiche HubSpot und Brevo für B2B mit 50 Mitarbeitern“ → Comparison
  • „Erstelle mir einen Evaluierungsplan für Marketing-Automation-Tools“ → Planning

Vier Anfragen, vier Intent-Typen, vier Content-Formate. Eine SEO- und GEO-Strategie, die alle vier bedient, vervierfacht die Zitierungschancen für ein einziges Themenfeld.

Was das für unsere Arbeit als SEO- und GEO-Agentur bedeutet

Vieles, was sich aus der 13-Intent-Analyse ableiten lässt, ist für erfahrene SEO-Verantwortliche nicht neu: Vergleichsinhalte erstellen, Anleitungen schreiben, Planungshilfen anbieten – das sind Maßnahmen, die gutes Content-Marketing schon immer ausgemacht haben. Die Intent-Kategorien benennen nicht plötzlich unbekannte Formate, sondern machen sichtbar, warum bestimmte Formate in KI-Systemen systematisch bevorzugt werden. Die Mechanik dahinter ist neu, die Handwerkskunst nicht.

Deshalb behandeln wir GEO als SEO-Agentur in München nicht als isolierte Disziplin, die bestehende Strategien ersetzt. Unser Ansatz ist marketingstrategisch geprägt: SEO, Content-Strategie, Performance Marketing und GEO greifen ineinander, weil sie für denselben Nutzer arbeiten – nur an unterschiedlichen Touchpoints.

Es gibt allerdings operative Szenarien, in denen ein isolierter GEO-Fokus strategisch sinnvoll ist: Wenn eine Marke noch nicht etabliert genug ist, um in KI-Antworten organisch aufzutauchen. Wenn ein neues Produkt schnelle Auffindbarkeit in Copilot, ChatGPT oder Gemini braucht, bevor die klassischen SEO-Effekte greifen. Wenn ein Unternehmen in einem Wettbewerbsfeld steht, in dem die Konkurrenz bereits systematisch für KI-Zitierfähigkeit optimiert. In diesen Fällen ist GEO-Beratung als eigenständiger Workstream die richtige Antwort.

Was Sie hier gelesen haben – die Quellcode-Analyse, die Einordnung der 13 Intent-Kategorien, die Bewertung nach Grounding-Abhängigkeit – ist Teil unseres laufenden Research-Prozesses. Wir beobachten, wie Microsoft, Google und OpenAI ihre Retrieval-Systeme weiterentwickeln, nutzen die verfügbaren Analyse-Tools von Bing AI Performance über Microsoft Clarity AI Citations bis MetalYzer – und übersetzen diese Erkenntnisse in Maßnahmen, die sich in eine übergeordnete Marketingstrategie einfügen, statt neben ihr herzulaufen.

Sie fragen sich, ob Ihre Inhalte für die neuen Intent-Typen zitierbar sind – oder ob ein isolierter GEO-Ansatz für Ihre Situation der richtige Hebel wäre? Lassen Sie uns darüber sprechen.

Jetzt unverbindliches Analysegespräch vereinbaren →

Häufige Fragen zu den Begriffen in diesem Artikel

Was bedeutet „Grounding“ im Kontext von KI-Systemen? Wenn ein KI-System wie Copilot oder ChatGPT eine Antwort generiert, kann es das entweder aus seinem Trainingswissen tun – oder es sucht aktiv nach aktuellen externen Quellen, um die Antwort auf Fakten zu stützen. Diesen Vorgang – das Verankern einer KI-Antwort in realen, überprüfbaren Quellen – nennt man Grounding. Grounding Queries sind die Suchanfragen, die das KI-System dabei intern auslöst, um passende Webseiten zu finden.

Was ist der Unterschied zwischen „parametrischem Wissen“ und „Grounding“? Ein KI-Modell hat durch sein Training ein enormes Allgemeinwissen gespeichert – das ist sein parametrisches Gedächtnis. Die Frage „Was ist Photosynthese?“ kann es daraus beantworten, ohne externe Quellen zu brauchen. Aber „Welche Förderungen gibt es 2026 für Wärmepumpen in Bayern?“ kann es nicht aus dem Training wissen – dafür braucht es Grounding, also den Zugriff auf aktuelle Webinhalte. Für GEO ist diese Unterscheidung entscheidend: Nur wenn das System Grounding betreibt, kann Ihr Content als Quelle zitiert werden.

Was ist GEO – und wie unterscheidet es sich von SEO? GEO steht für Generative Engine Optimization. Während SEO darauf abzielt, in den klassischen Suchergebnissen (die „zehn blauen Links“) möglichst weit oben zu erscheinen, zielt GEO darauf ab, von KI-Systemen als vertrauenswürdige Quelle herangezogen und zitiert zu werden, wenn diese eine Antwort generieren. Die Maßnahmen überschneiden sich stark – evidenzbasierte Inhalte, klare Struktur, semantische Auszeichnung, thematische Autorität – aber die Mechanik, nach der KI-Systeme Quellen auswählen, folgt anderen Regeln als das klassische Ranking. Während SEO auf Such-Rankings optimiert, strebt GEO die Integration in die Textgenerierung an – also den Moment, in dem das KI-System entscheidet, welche externen Quellen es zur Verankerung seiner Antwort heranzieht.

Was ist eine „Grounding-Abhängigkeit“? Die Grounding-Abhängigkeit beschreibt, wie wahrscheinlich es ist, dass ein KI-System für einen bestimmten Fragetyp externe Quellen braucht. Eine Frage wie „Rechne 100 Euro in Dollar um“ hat eine sehr niedrige Grounding-Abhängigkeit – das kann das Modell selbst. „Vergleiche die aktuellen CRM-Systeme für den Mittelstand“ hat eine sehr hohe Grounding-Abhängigkeit, weil das Modell aktuelle, differenzierte Daten aus mehreren Quellen braucht. Je höher die Grounding-Abhängigkeit eines Intent-Typs, desto größer Ihre Chance, als Quelle zitiert zu werden.

Was bedeutet „Citation“ oder „Zitierung“ im KI-Kontext? Anders als im akademischen Sinne meint „Citation“ hier: Ein KI-System verweist in seiner generierten Antwort auf Ihre Webseite als Quelle. Wenn Copilot eine Frage beantwortet und dabei einen Link zu Ihrem Blogartikel anzeigt, ist das eine Citation. Das Bing AI Performance Dashboard zählt genau diese Citations – wie oft Ihre Seiten als Quellen in KI-Antworten auftauchen.

Was ist eine Intent-Taxonomie? Eine Taxonomie ist ein Ordnungssystem – in diesem Fall ein Schema, das die verschiedenen Absichten (Intents) von Nutzern in Kategorien einteilt. Broders Dreiteilung von 2002 war eine solche Taxonomie (navigational, informational, transactional). Microsofts 13 Kategorien sind eine neue, deutlich differenziertere Taxonomie, die speziell für die Art entwickelt wurde, wie Menschen mit KI-Systemen interagieren.

Was sind „Fan-Out-Queries“? Wenn ein Nutzer eine komplexe Frage stellt, zerlegt das KI-System diese in mehrere Teilanfragen, die es parallel an seine Suchinfrastruktur schickt – vergleichbar mit einem Chefredakteur, der in der Redaktionssitzung verschiedene Fachredakteure losschickt, um unterschiedliche Aspekte eines Themas zu recherchieren. Aus einer Frage wie „Vergleiche die besten Hotels auf Mallorca für Familien im August unter 200 Euro pro Nacht“ werden möglicherweise acht bis zwölf spezialisierte Suchanfragen: nach Familienhotels, nach Preisen, nach Verfügbarkeit im August, nach Bewertungen. Diese aufgefächerten Teilanfragen nennt man Fan-Out-Queries. Je nach System variiert die Intensität: Google AI Mode erzeugt bei komplexen Themen Hunderte parallele Anfragen, ChatGPT arbeitet mit gezieltem Query Rewriting, Perplexity setzt auf Multi-Query Search mit Sub-Dokument-Präzision. Für Website-Betreiber bedeutet das: Ihr Content sollte (muss aber nicht!) nicht nur die Hauptfrage beantworten, sondern auch für die Teilaspekte relevant sein, die das System bei der Auffächerung erzeugt.

Was ist ein „Feature-Flag“? Ein Feature-Flag ist eine Technik in der Softwareentwicklung, mit der neue Funktionen im Code bereits eingebaut, aber noch nicht für Nutzer sichtbar geschaltet werden. Das erlaubt es Entwicklern, Features schrittweise zu testen und freizugeben. Die 13 Intent-Kategorien in den Bing Webmaster Tools sind genau so implementiert: Der Code ist fertig, die Farbschemata sind definiert, aber die Anzeige im Dashboard ist noch ausgeschaltet.

Was ist der „Client-Side-Code“ und warum ist er relevant? Jede Webseite besteht aus Code, der an Ihren Browser geschickt und dort ausgeführt wird – das ist der Client-Side-Code (im Gegensatz zu Server-Side-Code, der auf dem Server bleibt und für Sie unsichtbar ist). Wenn Microsoft im Client-Side-Code der Bing Webmaster Tools 13 Intent-Kategorien mit Farben und Styling hinterlegt, bedeutet das: Diese Funktionalität ist bereits an jeden Browser ausgeliefert, der die Seite aufruft – sie wird nur noch nicht angezeigt. Das ist ein stärkeres Signal als ein internes Konzeptpapier, weil es zeigt, dass die Implementierung produktionsreif ist.

ROCKITdigital - Ralf Zmölnig
Ralf Zmölnig
CEO ROCKITdigital GmbH

CEO & Vollblut-Digitalmarketingstratege, strategisch und Performanceorientiert bei ROCKITdigital GmbH

Seit 11/2000 rockt das Team von ROCKITdigital und Ralf Zmölnig das (digitale) Marketing

Wir freuen uns darauf, Sie,
Ihr Unternehmen und Ihre Vision kennenzulernen.

Erzählen Sie uns, wo Sie gerade stehen – gemeinsam bringen wir Ihre Marke auf das nächste Level.

    Informationen zur Verarbeitung Ihrer Daten finden Sie in unserer Datenschutzerklärung

    Rufen Sie uns an

    +49 (0)89 12 22 30 6-12

    Alexa Zmölnig
    freut sich auf Ihren Anruf!