arrow backarrow downwardarrow forwardarrow upwardbuildcalendarcheckclosecrownemailemergencyemo neutralemo sademo smileemoji objectsexpand lessexpand moreexplorefacebookfilterflag 2forumheartheart fillhomeinstagramlanguagelinkedinlive tvlocationmedalmenumoneynew releasespdfpersonphoto libraryplaypsychology altreloadremoveroom phonesearchsettingsstarstar fillstar halfsunswap horizswap vertthumb downthumb uptrashtuneuser circleuser groupworldxingyoutube
Was passiert, wenn KI über Sie lügt – und niemand es merkt
SEO/ GEO/ GAIO/ KI & ML
Ralf ZmölnigApr. 2026

Was passiert, wenn KI über Sie lügt – und niemand es merkt

Mögliche Voraussetzungen für eine gezielte KI-Desinformationskampagne gegen eine Marke oder ein Unternehmen!? Misinformation braucht keine Verschwörung (mehr). Sie braucht eine unkontrollierte Quelle und ein Ökosystem, das nicht verifiziert, bevor es publiziert.

Das Experiment: Ein Update, das es nie gab

Jon Goodey, ein britischer SEO-Berater, betreibt einen semi-automatisierten LinkedIn-Newsletter. Sein Workflow: Perplexity recherchiert und fasst aktuelle Artikel zu SEO und digitalem Marketing zusammen, das Ergebnis fließt in ein strukturiertes Newsletter-Format. Qualitätssicherungsschritte sind eingebaut, darunter eine Link-Verifikation, die tote Seiten abfangen soll.

Im März 2026 lieferte Perplexity als Quelle eine URL von searchengineland.com, einer reputierten Quelle für uns SEOs/ GEOs. Der Link-Checker meldete kein Problem – die Seite gab einen 200-Status zurück und lud problemlos. Der tatsächliche Seiteninhalt: ein Foto eines Paares Adidas-Sportschuhe. Kein Artikel. Kein Autor. Keine Analyse.

Perplexity interessierte das nicht. Das System sah eine vertrauenswürdige Domain, eine erreichbare URL, und generierte auf dieser Basis eine vollständige Artikelzusammenfassung: ein angebliches Google Core Update vom März 2026, mit Autorenangabe Barry Schwartz (Search Engine Roundtable), Veröffentlichungsdatum 12. März 2026, detaillierten Angaben zu E-E-A-T-Signalen, Qualitätsanpassungen und einem dreiwöchigen Rollout-Zeitraum.

Nichts davon war real. Das Google Search Status Dashboard – die einzige autoritative Quelle für bestätigte Google-Updates – verzeichnete für März 2026 kein Core Update. Barry Schwartz bestätigte in seinem echten März-Webmaster-Report explizit: keine bestätigte Core-Update-Aktivität.

Goodey erkannte den Fehler. Aber anstatt den Artikel zurückzuziehen, traf er eine bewusste Entscheidung: Er ließ ihn online – als kontrolliertes Experiment. Er wollte drei Fragen beantworten: Wie viele Menschen prüfen Quellen tatsächlich nach? Würden andere Content-Ersteller die fabrizierte Information ungeprüft zitieren? Wie weit kann ein einzelnes KI-generiertes Falschkorpus reisen?

Das Google Search Status Dashboard (also von Google selbst!) – eine dementsprechend valide Quelle für bestätigte Google-Updates – verzeichnete zu dieser Zeit kein Core Update. Und Barry Schwartz bestätigte in seinem Webmaster-Report: keine bestätigte Core-Update-Aktivität.

Was in einer Woche passierte: Die Eskalationsstufen

Die Ergebnisse übertrafen Goodeys Erwartungen. Innerhalb weniger Tage durchlief die fabrizierte Information fünf klar unterscheidbare Eskalationsstufen:

StufeEreignisMechanismus
1 – UrsprungGoodeys Pipeline halluziniert Artikel über nicht existierendes Google Core UpdatePerplexity wertet searchengineland.com-URL mit 200-Status als vertrauenswürdig – Inhalt (Schuhfoto) wird nie geprüft
2 – Google-RankingGoodeys LinkedIn-Artikel rankt auf Seite 1 für „Google March update 2026“Strukturierter Text + autoritäre Domain + soziale Signale = Ranking-Relevanz
3 – AI OverviewGoogle AI Overview präsentiert die fabrizierte Information als FaktRAG-System zieht rankenden Artikel als Quelle – Inhaltsverifikation findet nicht statt
4 – SekundärartikelKahunam (Scott Dooley) und TechBytes (Dillip Chowdary) veröffentlichen eigenständige Artikel mit weiteren erfundenen DetailsJeder neue Artikel fügt spezifischere Falschdetails hinzu und zitiert die Vorgänger als Belege
5 – FachkreiseJoe Fishers „SEO News This Week“-Roundup auf LinkedIn zitiert das Update als bestätigte NachrichtProfessionelle Kuratierung ohne Primärquellenprüfung – der Goodey-Artikel gilt als Beleg

Besonders aufschlussreich ist Stufe 4: Kahunam veröffentlichte einen Artikel von Scott Dooley mit dem Titel „Google’s March 2026 Core Update: What Changed and What to Do“ – inklusive Abschnitten darüber, was das Update adressierte, wie man prüft, ob man betroffen ist, und welche Maßnahmen empfohlen werden. TechBytes ging noch weiter: Ein Artikel von Dillip Chowdary erfand spezifische technische Details, darunter einen angeblichen „Gemini 4.0 Semantic Filter„, ein „Zero Information Gain“-Klassifikationssystem und eine „Discover 2.0 Engine“. Keine dieser Technologien existiert unserer Kenntnis nach.

Jeder neue Artikel zitierte die vorherigen als Belege. Die fabrizierte Information bekam mit jeder Iteration mehr scheinbare Substanz – mehr Quellen, mehr Details, mehr Autorität. Am Ende der Woche existierte ein geschlossenes Ökosystem aus gegenseitig verweisenden Artikeln über ein Ereignis, das nie stattgefunden hatte.

Misinformation braucht keine Verschwörung. Sie braucht eine unkontrollierte Quelle und ein Ökosystem, das nicht verifiziert, bevor es publiziert.

Warum das System so funktioniert – und warum es keine Fehlfunktion ist

Was Goodeys Experiment zeigt, ist keine Fehlfunktion. Es ist das System, das exakt so arbeitet, wie es konzipiert wurde.

RAG-Systeme wie Perplexity bewerten Quellen nach Erreichbarkeit, Domain-Autorität und struktureller Qualität des Inhalts. Eine URL von searchengineland.com mit 200-Status erfüllt alle diese Kriterien – unabhängig davon, ob der tatsächliche Seiteninhalt ein Schuhartikel-Foto ist. Das System hat keine Möglichkeit, semantische Relevanz gegen eine Inhaltserwartung zu prüfen, die es sich nicht selbst gesetzt hat. Es nimmt, was es findet, und generiert daraus eine Antwort.

Google AI Overviews, das in Stufe 3 die fabrizierte Information als Fakt präsentierte, zeigt dasselbe Muster: Das System rankte Goodeys Artikel auf Seite 1, identifizierte ihn als relevante Quelle für die Anfrage, und synthetisierte seinen Inhalt in eine strukturierte Übersicht. Die Ironie – Googles eigenes KI-System verbreitete Falschinformationen über ein Google-Update, das Google nie angekündigt hatte – ist keine Ausnahme. Sie ist ein Systemverhalten.

Für unsere Arbeit am Wirksamkeitsindex ist das die aktivste Form externer Inkohärenz: Nicht passiv durch fehlende eigene Inhalte, sondern durch eine externe Quelle, die strukturell überzeugend, inhaltlich aber falsch ist – und die sich durch Zitation und Iteration selbst verstärkt.

Wer unseren Artikel zu Phantom Link Building kennt, erkennt hier dieselbe Kausalkette mit umgekehrter Absicht: Phantom Link Building nutzt strukturelle Lücken in KI-Retrieval-Systemen, um eigene zitierfähige Inhalte in unbesetzte Positionen zu platzieren. Was Goodeys Experiment zeigt: Dieselben Lücken können mit Falschinformationen gefüllt werden. Die Mechanik ist identisch. Die Absicht entscheidet, ob sie konstruktiv oder destruktiv eingesetzt wird.

Das Risiko, das noch niemand laut ausspricht

Goodeys Experiment war unbeabsichtigt. Die Fehlinformation entstand durch einen technischen Defekt in seiner Pipeline. Was er dokumentiert hat, ist jedoch auch eine exakte Blaupause für einen bewussten Angriff.

These: Was Goodey versehentlich ausgelöst hat, ist als bewusste Wettbewerbsstrategie denkbar – und die Einstiegshürde dafür ist erschreckend niedrig.

Die Voraussetzungen für eine gezielte KI-Desinformationskampagne gegen eine Marke oder ein Unternehmen sind alle erfüllt:

  • RAG-Systeme priorisieren Struktur über Inhaltswahrheit. Eine glaubwürdig strukturierte Falschinformation auf einer Domain mit ausreichender Autorität wird von KI-Systemen als valide Quelle behandelt.
  • Fehlinformation verstärkt sich selbst. Wie das Goodey-Experiment zeigt, genügt eine einzige unkontrollierte Quelle, um eine Kausalkette auszulösen, die innerhalb von Tagen ein eigenständiges Ökosystem falscher Inhalte erzeugt.
  • Die meisten Unternehmen überwachen ihren KI-Output nicht. Wer nicht systematisch beobachtet, was KI-Systeme über die eigene Marke sagen, bemerkt eine Abweichung oft erst, wenn sie sich bereits verankert hat.
  • Die technische Einstiegshürde ist gering. Das Szenario erfordert nicht annähernd potente Ressourcen und keine ausgefeilte Hackerexpertise. Es erfordert strukturierten Text auf einer erreichbaren URL und etwas Geduld.

Das ist kein spekulatives Zukunftsszenario. Es ist eine logische Ableitung aus einem dokumentierten Experiment. Der Übergang von versehentlich zu absichtlich erfordert keine neue Technologie – nur eine andere Absicht.

Erste Fälle, in denen negativ gefärbte Inhalte über Marken oder Personen gezielt in KI-Retrieval-Pipelines eingespeist wurden, sind in der Branche bereits als Diskussionsthema angekommen. Die offene Frage ist nicht ob, sondern wann dieser Ansatz systematisch und skalierbar eingesetzt wird.

Was Unternehmen konkret tun können: Drei Maßnahmenebenen

Ebene 1 – Den eigenen semantischen Raum kohärent besetzen

Die wirksamste Prävention ist strukturelle Ursachenbekämpfung. Wer den eigenen semantischen Raum mit kohärenten, zitierfähigen Inhalten besetzt, lässt weniger Raum für externe Signale – ob zufällig oder gezielt eingebracht. Das ist die Kernaussage des Wirksamkeitsindex-Konzepts: Fehlende interne Kohäsion öffnet das Feld für externe Inkohärenz.

Konkret bedeutet das: Relevante Sub-Queries eigenständig beantworten, Experteninhalte strukturell mit der Hauptseite verknüpfen, Portale und externe Profile aktiv pflegen. Wer seine eigene Geschichte klar und strukturiert erzählt, ist schwerer zu überschreiben.

Ebene 2 – KI-Output systematisch beobachten

Manuelles Testen – also selbst regelmäßig Prompts in ChatGPT, Perplexity und Gemini einzugeben und Antworten zu analysieren – ist ein notwendiger, aber nicht skalierbarer Einstieg. Es schafft ein Bewusstsein für das eigene KI-Profil, deckt aber keine systematischen Muster auf. Abgesehen von des schnell nicht mehr repräsentativen Outputs, durch hyperindividualisierte Inhalte bei Login etc.

Skalierbar wird die Beobachtung durch Werkzeuge, die Stimmungsbilder und Auffälligkeiten im KI-Output identifizierbar machen. ROCKITdigitals MetalYzer ist eines dieser Werkzeuge – kein KI-Ranking-Dashboard, sondern ein Instrument zur skalierbaren Identifikation von Mustern und Abweichungen in KI-generierten Aussagen über eine Marke oder ein Unternehmen. Die ehrliche Einschränkung, die wir selbst kommunizieren: MetalYzer ist ein Meta-Werkzeug – ohne weitere Orchestrierung und Parametrisierung kein Deep-Data-System, aber ein effizienter erster Filter, um Auffälligkeiten überhaupt sichtbar zu machen. Ansonsten ein sehr strukturiertes Werkzeug, dass skalierbar Daten auch zum Export in weitere Systeme liefert.

Ergänzend bietet z.B. Microsoft Clarity AI Citations Zitierungsdaten für das Bing/Copilot-Ökosystem, oder Matomo 5.8.0 liefert plattformübergreifende Bot-Abruf-Daten auf der Ebene unterhalb der Zitierung. Kein einzelnes Werkzeug liefert das vollständige Bild – zusammen ergänzen sie sich.

Ebene 3 – Reaktionsfähigkeit aufbauen

Monitoring allein genügt nicht. Wer eine für sein Unternehmen relevante Abweichung erkennt – gar eine falsche respektive schädigende Aussage, eine negative Assoziation, eine Falschattribution – braucht die Fähigkeit, ausreichend schnell zu reagieren. Das bedeutet: wissen, welche Inhalte das eigene KI-Profil prägen, wo externe Quellen dominieren, und welche redaktionellen und strukturellen Maßnahmen den Retrieval-Prozess beeinflussen können.

ROCKITdigital: KI-Output-Monitoring und GEO-Strategie

ROCKITdigital beobachtet KI-Output-Muster für Kunden seit dem frühen Rollout von AI Overviews in Deutschland. Die Kombination aus MetalYzer (metalyzer.io) für skalierbare Mustererkennung, Microsoft Clarity AI Citations für Zitierungsdaten und Matomo 5.8.0 für Bot-Abruf-Monitoring bilden neben dem permanenten testen von KI-Monitoring-Tools wie Searchable, PeecAI oder Sistrix unseres eigenen GEO-Monitoring-Ansatzes – ergänzt durch die redaktionelle und strukturelle Arbeit, die bestimmt, was KI-Systeme über einen Kunden sagen.

Wenn Sie wissen möchten, wie Ihr Unternehmen aktuell in KI-Antworten dargestellt wird – und ob es Abweichungen gibt, die Handlungsbedarf signalisieren – sprechen Sie uns an.

Kontakt aufnehmen | +49 (0)89 12 22 30 6-12

Quellen

ROCKITdigital - Ralf Zmölnig
Ralf Zmölnig
CEO ROCKITdigital GmbH

CEO & Vollblut-Digitalmarketingstratege, strategisch und Performanceorientiert bei ROCKITdigital GmbH

Seit 11/2000 rockt das Team von ROCKITdigital und Ralf Zmölnig das (digitale) Marketing

Wir freuen uns darauf, Sie,
Ihr Unternehmen und Ihre Vision kennenzulernen.

Erzählen Sie uns, wo Sie gerade stehen – gemeinsam bringen wir Ihre Marke auf das nächste Level.

    Informationen zur Verarbeitung Ihrer Daten finden Sie in unserer Datenschutzerklärung

    Rufen Sie uns an

    +49 (0)89 12 22 30 6-12

    Alexa Zmölnig
    freut sich auf Ihren Anruf!