Was passiert, wenn KI über Sie lügt – und niemand es merkt
Mögliche Voraussetzungen für eine gezielte KI-Desinformationskampagne gegen eine Marke oder ein Unternehmen!? Misinformation braucht keine Verschwörung (mehr). Sie braucht eine unkontrollierte Quelle und ein Ökosystem, das nicht verifiziert, bevor es publiziert.
Das Experiment: Ein Update, das es nie gab
Jon Goodey, ein britischer SEO-Berater, betreibt einen semi-automatisierten LinkedIn-Newsletter. Sein Workflow: Perplexity recherchiert und fasst aktuelle Artikel zu SEO und digitalem Marketing zusammen, das Ergebnis fließt in ein strukturiertes Newsletter-Format. Qualitätssicherungsschritte sind eingebaut, darunter eine Link-Verifikation, die tote Seiten abfangen soll.
Im März 2026 lieferte Perplexity als Quelle eine URL von searchengineland.com, einer reputierten Quelle für uns SEOs/ GEOs. Der Link-Checker meldete kein Problem – die Seite gab einen 200-Status zurück und lud problemlos. Der tatsächliche Seiteninhalt: ein Foto eines Paares Adidas-Sportschuhe. Kein Artikel. Kein Autor. Keine Analyse.
Perplexity interessierte das nicht. Das System sah eine vertrauenswürdige Domain, eine erreichbare URL, und generierte auf dieser Basis eine vollständige Artikelzusammenfassung: ein angebliches Google Core Update vom März 2026, mit Autorenangabe Barry Schwartz (Search Engine Roundtable), Veröffentlichungsdatum 12. März 2026, detaillierten Angaben zu E-E-A-T-Signalen, Qualitätsanpassungen und einem dreiwöchigen Rollout-Zeitraum.
Nichts davon war real. Das Google Search Status Dashboard – die einzige autoritative Quelle für bestätigte Google-Updates – verzeichnete für März 2026 kein Core Update. Barry Schwartz bestätigte in seinem echten März-Webmaster-Report explizit: keine bestätigte Core-Update-Aktivität.
Goodey erkannte den Fehler. Aber anstatt den Artikel zurückzuziehen, traf er eine bewusste Entscheidung: Er ließ ihn online – als kontrolliertes Experiment. Er wollte drei Fragen beantworten: Wie viele Menschen prüfen Quellen tatsächlich nach? Würden andere Content-Ersteller die fabrizierte Information ungeprüft zitieren? Wie weit kann ein einzelnes KI-generiertes Falschkorpus reisen?
| Das Google Search Status Dashboard (also von Google selbst!) – eine dementsprechend valide Quelle für bestätigte Google-Updates – verzeichnete zu dieser Zeit kein Core Update. Und Barry Schwartz bestätigte in seinem Webmaster-Report: keine bestätigte Core-Update-Aktivität. |
Inhaltsverzeichnis
Was in einer Woche passierte: Die Eskalationsstufen
Die Ergebnisse übertrafen Goodeys Erwartungen. Innerhalb weniger Tage durchlief die fabrizierte Information fünf klar unterscheidbare Eskalationsstufen:
| Stufe | Ereignis | Mechanismus |
| 1 – Ursprung | Goodeys Pipeline halluziniert Artikel über nicht existierendes Google Core Update | Perplexity wertet searchengineland.com-URL mit 200-Status als vertrauenswürdig – Inhalt (Schuhfoto) wird nie geprüft |
| 2 – Google-Ranking | Goodeys LinkedIn-Artikel rankt auf Seite 1 für „Google March update 2026“ | Strukturierter Text + autoritäre Domain + soziale Signale = Ranking-Relevanz |
| 3 – AI Overview | Google AI Overview präsentiert die fabrizierte Information als Fakt | RAG-System zieht rankenden Artikel als Quelle – Inhaltsverifikation findet nicht statt |
| 4 – Sekundärartikel | Kahunam (Scott Dooley) und TechBytes (Dillip Chowdary) veröffentlichen eigenständige Artikel mit weiteren erfundenen Details | Jeder neue Artikel fügt spezifischere Falschdetails hinzu und zitiert die Vorgänger als Belege |
| 5 – Fachkreise | Joe Fishers „SEO News This Week“-Roundup auf LinkedIn zitiert das Update als bestätigte Nachricht | Professionelle Kuratierung ohne Primärquellenprüfung – der Goodey-Artikel gilt als Beleg |
Besonders aufschlussreich ist Stufe 4: Kahunam veröffentlichte einen Artikel von Scott Dooley mit dem Titel „Google’s March 2026 Core Update: What Changed and What to Do“ – inklusive Abschnitten darüber, was das Update adressierte, wie man prüft, ob man betroffen ist, und welche Maßnahmen empfohlen werden. TechBytes ging noch weiter: Ein Artikel von Dillip Chowdary erfand spezifische technische Details, darunter einen angeblichen „Gemini 4.0 Semantic Filter„, ein „Zero Information Gain“-Klassifikationssystem und eine „Discover 2.0 Engine“. Keine dieser Technologien existiert unserer Kenntnis nach.
Jeder neue Artikel zitierte die vorherigen als Belege. Die fabrizierte Information bekam mit jeder Iteration mehr scheinbare Substanz – mehr Quellen, mehr Details, mehr Autorität. Am Ende der Woche existierte ein geschlossenes Ökosystem aus gegenseitig verweisenden Artikeln über ein Ereignis, das nie stattgefunden hatte.
| Misinformation braucht keine Verschwörung. Sie braucht eine unkontrollierte Quelle und ein Ökosystem, das nicht verifiziert, bevor es publiziert. |
Warum das System so funktioniert – und warum es keine Fehlfunktion ist
Was Goodeys Experiment zeigt, ist keine Fehlfunktion. Es ist das System, das exakt so arbeitet, wie es konzipiert wurde.
RAG-Systeme wie Perplexity bewerten Quellen nach Erreichbarkeit, Domain-Autorität und struktureller Qualität des Inhalts. Eine URL von searchengineland.com mit 200-Status erfüllt alle diese Kriterien – unabhängig davon, ob der tatsächliche Seiteninhalt ein Schuhartikel-Foto ist. Das System hat keine Möglichkeit, semantische Relevanz gegen eine Inhaltserwartung zu prüfen, die es sich nicht selbst gesetzt hat. Es nimmt, was es findet, und generiert daraus eine Antwort.
Google AI Overviews, das in Stufe 3 die fabrizierte Information als Fakt präsentierte, zeigt dasselbe Muster: Das System rankte Goodeys Artikel auf Seite 1, identifizierte ihn als relevante Quelle für die Anfrage, und synthetisierte seinen Inhalt in eine strukturierte Übersicht. Die Ironie – Googles eigenes KI-System verbreitete Falschinformationen über ein Google-Update, das Google nie angekündigt hatte – ist keine Ausnahme. Sie ist ein Systemverhalten.
Für unsere Arbeit am Wirksamkeitsindex ist das die aktivste Form externer Inkohärenz: Nicht passiv durch fehlende eigene Inhalte, sondern durch eine externe Quelle, die strukturell überzeugend, inhaltlich aber falsch ist – und die sich durch Zitation und Iteration selbst verstärkt.
Wer unseren Artikel zu Phantom Link Building kennt, erkennt hier dieselbe Kausalkette mit umgekehrter Absicht: Phantom Link Building nutzt strukturelle Lücken in KI-Retrieval-Systemen, um eigene zitierfähige Inhalte in unbesetzte Positionen zu platzieren. Was Goodeys Experiment zeigt: Dieselben Lücken können mit Falschinformationen gefüllt werden. Die Mechanik ist identisch. Die Absicht entscheidet, ob sie konstruktiv oder destruktiv eingesetzt wird.
Das Risiko, das noch niemand laut ausspricht
Goodeys Experiment war unbeabsichtigt. Die Fehlinformation entstand durch einen technischen Defekt in seiner Pipeline. Was er dokumentiert hat, ist jedoch auch eine exakte Blaupause für einen bewussten Angriff.
| These: Was Goodey versehentlich ausgelöst hat, ist als bewusste Wettbewerbsstrategie denkbar – und die Einstiegshürde dafür ist erschreckend niedrig. |
Die Voraussetzungen für eine gezielte KI-Desinformationskampagne gegen eine Marke oder ein Unternehmen sind alle erfüllt:
- RAG-Systeme priorisieren Struktur über Inhaltswahrheit. Eine glaubwürdig strukturierte Falschinformation auf einer Domain mit ausreichender Autorität wird von KI-Systemen als valide Quelle behandelt.
- Fehlinformation verstärkt sich selbst. Wie das Goodey-Experiment zeigt, genügt eine einzige unkontrollierte Quelle, um eine Kausalkette auszulösen, die innerhalb von Tagen ein eigenständiges Ökosystem falscher Inhalte erzeugt.
- Die meisten Unternehmen überwachen ihren KI-Output nicht. Wer nicht systematisch beobachtet, was KI-Systeme über die eigene Marke sagen, bemerkt eine Abweichung oft erst, wenn sie sich bereits verankert hat.
- Die technische Einstiegshürde ist gering. Das Szenario erfordert nicht annähernd potente Ressourcen und keine ausgefeilte Hackerexpertise. Es erfordert strukturierten Text auf einer erreichbaren URL und etwas Geduld.
Das ist kein spekulatives Zukunftsszenario. Es ist eine logische Ableitung aus einem dokumentierten Experiment. Der Übergang von versehentlich zu absichtlich erfordert keine neue Technologie – nur eine andere Absicht.
Erste Fälle, in denen negativ gefärbte Inhalte über Marken oder Personen gezielt in KI-Retrieval-Pipelines eingespeist wurden, sind in der Branche bereits als Diskussionsthema angekommen. Die offene Frage ist nicht ob, sondern wann dieser Ansatz systematisch und skalierbar eingesetzt wird.
Was Unternehmen konkret tun können: Drei Maßnahmenebenen
Ebene 1 – Den eigenen semantischen Raum kohärent besetzen
Die wirksamste Prävention ist strukturelle Ursachenbekämpfung. Wer den eigenen semantischen Raum mit kohärenten, zitierfähigen Inhalten besetzt, lässt weniger Raum für externe Signale – ob zufällig oder gezielt eingebracht. Das ist die Kernaussage des Wirksamkeitsindex-Konzepts: Fehlende interne Kohäsion öffnet das Feld für externe Inkohärenz.
Konkret bedeutet das: Relevante Sub-Queries eigenständig beantworten, Experteninhalte strukturell mit der Hauptseite verknüpfen, Portale und externe Profile aktiv pflegen. Wer seine eigene Geschichte klar und strukturiert erzählt, ist schwerer zu überschreiben.
Ebene 2 – KI-Output systematisch beobachten
Manuelles Testen – also selbst regelmäßig Prompts in ChatGPT, Perplexity und Gemini einzugeben und Antworten zu analysieren – ist ein notwendiger, aber nicht skalierbarer Einstieg. Es schafft ein Bewusstsein für das eigene KI-Profil, deckt aber keine systematischen Muster auf. Abgesehen von des schnell nicht mehr repräsentativen Outputs, durch hyperindividualisierte Inhalte bei Login etc.
Skalierbar wird die Beobachtung durch Werkzeuge, die Stimmungsbilder und Auffälligkeiten im KI-Output identifizierbar machen. ROCKITdigitals MetalYzer ist eines dieser Werkzeuge – kein KI-Ranking-Dashboard, sondern ein Instrument zur skalierbaren Identifikation von Mustern und Abweichungen in KI-generierten Aussagen über eine Marke oder ein Unternehmen. Die ehrliche Einschränkung, die wir selbst kommunizieren: MetalYzer ist ein Meta-Werkzeug – ohne weitere Orchestrierung und Parametrisierung kein Deep-Data-System, aber ein effizienter erster Filter, um Auffälligkeiten überhaupt sichtbar zu machen. Ansonsten ein sehr strukturiertes Werkzeug, dass skalierbar Daten auch zum Export in weitere Systeme liefert.
Ergänzend bietet z.B. Microsoft Clarity AI Citations Zitierungsdaten für das Bing/Copilot-Ökosystem, oder Matomo 5.8.0 liefert plattformübergreifende Bot-Abruf-Daten auf der Ebene unterhalb der Zitierung. Kein einzelnes Werkzeug liefert das vollständige Bild – zusammen ergänzen sie sich.
Ebene 3 – Reaktionsfähigkeit aufbauen
Monitoring allein genügt nicht. Wer eine für sein Unternehmen relevante Abweichung erkennt – gar eine falsche respektive schädigende Aussage, eine negative Assoziation, eine Falschattribution – braucht die Fähigkeit, ausreichend schnell zu reagieren. Das bedeutet: wissen, welche Inhalte das eigene KI-Profil prägen, wo externe Quellen dominieren, und welche redaktionellen und strukturellen Maßnahmen den Retrieval-Prozess beeinflussen können.
ROCKITdigital: KI-Output-Monitoring und GEO-Strategie
ROCKITdigital beobachtet KI-Output-Muster für Kunden seit dem frühen Rollout von AI Overviews in Deutschland. Die Kombination aus MetalYzer (metalyzer.io) für skalierbare Mustererkennung, Microsoft Clarity AI Citations für Zitierungsdaten und Matomo 5.8.0 für Bot-Abruf-Monitoring bilden neben dem permanenten testen von KI-Monitoring-Tools wie Searchable, PeecAI oder Sistrix unseres eigenen GEO-Monitoring-Ansatzes – ergänzt durch die redaktionelle und strukturelle Arbeit, die bestimmt, was KI-Systeme über einen Kunden sagen.
Wenn Sie wissen möchten, wie Ihr Unternehmen aktuell in KI-Antworten dargestellt wird – und ob es Abweichungen gibt, die Handlungsbedarf signalisieren – sprechen Sie uns an.
Kontakt aufnehmen | +49 (0)89 12 22 30 6-12
Quellen
- Jon Goodey: I Created a Fake Google Update. Then I Tracked Where It Went. – LinkedIn Pulse, März 2026. linkedin.com/pulse/i-created-fake-google-update-tracked-where-went-jon-goodey-kbx2e/
- Google Search Status Dashboard: Bestätigte Updates 2026 – search.google.com/search-status/dashboard
- Barry Schwartz: März 2026 Webmaster Report – Search Engine Roundtable
- Kahunam / Scott Dooley: Google’s March 2026 Core Update: What Changed and What to Do – 16. März 2026 (als Sekundärquelle im Goodey-Experiment dokumentiert)
- TechBytes / Dillip Chowdary: Google March 2026 Core Update: Cracking Down on Agentic Slop (als Sekundärquelle im Goodey-Experiment dokumentiert)
Ralf Zmölnig
CEO ROCKITdigital GmbH
CEO & Vollblut-Digitalmarketingstratege, strategisch und Performanceorientiert bei ROCKITdigital GmbH
Seit 11/2000 rockt das Team von ROCKITdigital und Ralf Zmölnig das (digitale) Marketing
CEO & Vollblut-Digitalmarketingstratege, strategisch und Performanceorientiert bei ROCKITdigital GmbH
Seit 11/2000 rockt das Team von ROCKITdigital und Ralf Zmölnig das (digitale) Marketing


