Dieser Bericht wurde (inklusive namenticher Nennung der Unternehmen) beim U.S. AI Safety Institute des National Institute of Standards and Technology (NIST) und bei der Europäischen Kommission eingereicht. NewsGuard ist Mitglied des U.S. AI Safety Institute und Unterzeichner des European Code of Practice on Disinformation.
Von McKenzie Sadeghi | Veröffentlicht am 18. Juni 2024
Russische Desinformation hat die generative KI infiltriert. Eine Prüfung von NewsGuard ergab, dass führende Chatbots bei einem Drittel ihrer Antworten auf überzeugende Weise gefälschte Berichte von staatlich gelenkten Webseiten wiederholen, die sich als lokale Nachrichtenportale ausgeben.
Diese Prüfung wurde auf der Grundlage von Falschmeldungen durchgeführt, die aus einem Netzwerk von Fake-News-Kanälen stammen, das von John Mark Dougan erstellt wurde. Dougan, ein ehemaliger stellvertretender Sheriff aus Florida, der nach Moskau geflohen war, nachdem gegen ihn wegen Computer-Hacking und Erpressung ermittelt wurde, ist seitdem zu einem der Hauptakteure in Russlands globalem Desinformationsnetzwerk geworden. Dougans Arbeit hätte für die KI-Chatbots eigentlich keine Überraschung sein sollen. Sie war letzten Monat Gegenstand einer Titelgeschichte der New York Times sowie eines detaillierten NewsGuard Sonder-Berichts, der das weitreichende Desinformationsnetzwerk enthüllte, das 167 Webseiten umfasst. Diese geben sich als lokale Nachrichtenportale aus und verbreiten regelmäßig falsche Narrative, die russischen Interessen vor den US-Wahlen dienen.
Im Rahmen der Prüfung wurden 10 der führenden KI-Chatbots getestet: OpenAIs ChatGPT-4, You.coms Smart Assistant, xAIs Grok, Inflections Pi, Mistrals le Chat, Microsoft’s Copilot, Meta AI, Anthropics Claude, Googles Gemini und Perplexitys Antwort-Engine. Insgesamt wurden 570 Prompts verwendet, wobei 57 Aufforderungen pro Chatbot getestet wurden. Die Aufforderungen basierten auf 19 Falschnachrichten, die NewsGuard zuvor mit dem russischen Desinformationsnetzwerk in Verbindung gebracht hatte, wie z. B. falsche Behauptungen über die angebliche Korruption des ukrainischen Präsidenten Wolodymyr Selenskyj.
NewsGuard hat alle 19 Narrative anhand von drei verschiedenen Personas getestet, um zu zeigen, wie KI-Modelle verwendet werden: Eine neutrale Aufforderung, die nach faktischen Informationen über die jeweilige Behauptung fragte, eine Suggestivfrage, die annahm, das Narrativ sei wahr und sich nach weiteren Informationen erkundigte, und eine “manipulative” Aufforderung, die ausdrücklich darauf abzielte, Desinformation zu erzeugen. Die Antworten wurden in drei Kategorien eingeordnet: „Keine Desinformation“ (der Chatbot vermied es zu antworten oder lieferte eine Widerlegung), „Wiederholt mit Vorsicht“ (die KI-Antwort gab die Desinformation wieder, jedoch unter Vorbehalt oder einem Hinweis, der zur Vorsicht mahnt) und „Desinformation“ (die KI-Antwort gab das falsche Narrativ autoritativ wieder).
Die Prüfung ergab, dass die Chatbots der 10 größten KI-Unternehmen in 31,75 Prozent der Fälle die falschen russischen Desinformationsnarrative wiederholten. Hier die Aufschlüsselung: 152 der 570 Antworten enthielten explizite Desinformation, 29 Antworten wiederholten die falsche Behauptung mit einem Hinweis und 389 Antworten enthielten keine Desinformation — entweder weil der Chatbot die Antwort verweigerte (144) oder eine Widerlegung lieferte (245).
Die Ergebnisse von NewsGuard erscheinen inmitten des ersten US-Wahljahres, in dem künstliche Intelligenz in großem Umfang eingesetzt wird. Böswillige Akteure nutzen neue, öffentlich verfügbare Technologien, um Deepfakes, KI-generierte Nachrichtenseiten und Fake-Anrufe (sogenannte Robocalls) zu erzeugen. Die Ergebnisse zeigen, dass trotz der Bemühungen von KI-Unternehmen, den Missbrauch ihrer Chatbots im Vorfeld der weltweit stattfindenden Wahlen zu verhindern, KI ein wirksames Instrument zur Verbreitung von Desinformationen bleibt.
Die 19 Falschnachrichten, die aus John Mark Dougans russischem Desinformationsnetzwerk stammen und bei deren Erstellung KI zur Generierung von Inhalten genutzt wurde, verbreiteten sich zuerst auf Nachrichtenseiten und sozialen Netzwerken und erreichten dann sogar KI-Plattformen. Diese Chatbots erkannten nicht, dass Webseiten wie die “Boston Times” und die “Flagstaff Post” russische Propagandaseiten sind. So verbreiteten sie unwissentlich Desinformationsnarrative, zu deren Entstehung ihre eigene Technologie wahrscheinlich beigetragen hat. Dieser Teufelskreis führt dazu, dass Falschinformationen von KI-Plattformen generiert, wiederholt und bekräftigt werden.
NewsGuard gibt in den untenstehenden Beispielen keine Punktzahlen für die einzelnen Chatbots an oder nennt deren Namen. Denn die Überprüfung ergab, dass das Problem in der gesamten KI-Branche weit verbreitet ist und nicht nur ein bestimmtes “Large Language Model” betrifft. NewsGuard stellt jedoch auf Anfrage jedem der für diese Chatbots verantwortlichen Unternehmen kostenlos seine Bewertung zur Verfügung.
NewsGuard schickte vor der Veröffentlichung dieses Berichts E-Mails an OpenAI, You.com, xAI, Inflection, Mistral, Microsoft, Meta, Anthropic, Google und Perplexity, und bat um eine Stellungnahme zu den Ergebnissen. NewsGuard erhielt jedoch keine Antworten.