10/03/2025
À l’heure où la désinformation russe contamine les outils occidentaux d’intelligence artificielle, NewsGuard lance un nouveau service pour protéger les grands modèles de langage contre les opérations d’ingérence étrangère
Le service FAILSafe pour IA permet aux modèles d’IA de détecter et de prévenir les opérations d’ingérence étrangère qui corrompent les réponses de l’IA avec de la désinformation et de la propagande d’État.
(10 mars – NEW YORK) Après la publication de rapports mettant en lumière un programme pro-Kremlin ambitieux et richement doté ayant contaminé les modèles d’IA avec de fausses affirmations relayant les intérêts russes, NewsGuard annonce le lancement de son service FAILSafe pour protéger les modèles d’IA des opérations d’ingérence étrangère. (Note : FAILSafe rassemble l’acronyme FAIL pour “Foreign Adversary Infection of LLMs” et Safe pour “Safety Service” en anglais).
Ce service fournit aux entreprises d’IA des données en temps réel, vérifiées par les analystes de NewsGuard spécialisés dans la désinformation et les opérations d’ingérence étrangère, exposant les récits et les sources impliquées dans la propagation des opérations d’influence menées par les gouvernements russes, chinois et iranien.
Un problème urgent pour les entreprises d’IA
Des rapports de NewsGuard, de Viginum, du Digital Forensics Research Lab, Recorded Future, de la Fondation pour la défense des démocraties et de l’Observatoire européen des médias numériques ont largement documenté un vaste réseau de désinformation russe, qui, comme l’a rapporté NewsGuard, a contaminé les réponses des modèles d’IA. Plutôt que de tromper les lecteurs un par un, ce réseau semble constituer un effort plus vaste visant à contaminer les modèles d’IA avec de fausses affirmations dans le but de diffuser de la propagande du Kremlin aux utilisateurs d’IA du monde entier.
Dans un audit publié la semaine dernière et et largement couvert par des médias tels que Axios, Forbes et TechCrunch, les analystes de NewsGuard ont constaté qu’un réseau de propagande pro-russe, le réseau Pravda, s’est considérablement développé, ciblant 49 pays dans des dizaines de langues à travers 150 domaines, selon NewsGuard et d’autres organismes de recherche. Il inonde désormais internet de contenus que les modèles d’IA utilisent pour fournir des réponses aux instructions qu’ils reçoivent. De plus, comme l’indique l’audit de NewsGuard qui vient d’être publié, ce réseau a réussi à injecter de la propagande russe et des récits de désinformation dans les principaux outils américains d’IA tels que ChatGPT d’OpenAI, Claude d’Anthropic, Gemini de Google et Copilot de Microsoft.
Cette contamination des chatbots occidentaux a été évoquée lors d’un discours que John Mark Dougan, fugitif américain devenu propagandiste du Kremlin, a donné en janvier à Moscou lors d’une conférence de fonctionnaires russes, lorsqu’il leur a dit : “En faisant passer ces récits russes du point de vue russe, nous pouvons réellement changer l’intelligence artificielle mondiale.”
L’audit de NewsGuard a révélé que les principaux chatbots d’IA répétaient dans 33% des cas des récits faux blanchis par le réseau Pravda – validant la stratégie de John Mark Dougan promettant un nouveau canal de distribution de la désinformation du Kremlin.
Ces récits vont de l’affirmation selon laquelle les États-Unis exploiteraient des laboratoires secrets d’armes biologiques en Ukraine à celle selon laquelle le président ukrainien Volodymyr Zelensky aurait détourné l’aide militaire américaine pour amasser une fortune personnelle.
Des opérations comme celles du réseau Pravda mettent en évidence une nouvelle menace, peu documentée, liée au développement accéléré de l’intelligence artificielle : la manipulation délibérée de grands modèles de langage par des réseaux d’ingérence étrangère afin de corrompre les réponses des chatbots d’IA.
Protéger les modèles d’IA contre les opérations d’ingérence étrangère
Pour lutter contre cette menace, le service FAILSafe pour IA de NewsGuard fournit aux entreprises d’IA des données en temps réel sur les récits de désinformation issus des opérations d’ingérence russes, chinoises et iraniennes, ainsi qu’une base de données continuellement mise à jour des sites web et des comptes que ces opérations utilisent pour injecter des récits faux dans les réponses des modèles d’IA.
Le service inclut les éléments suivants :
- Flux de récits de désinformation étrangère : Un flux de données continuellement mis à jour sur les récits faux diffusés par les opérations d’ingérence russes, chinoises et iraniennes – avec des données précises sur les récits, la langue utilisée pour les diffuser, les affiliations à des opérations d’ingérence spécifiques et où chaque récit est publié. Les entreprises d’IA peuvent utiliser ces données pour s’assurer que leurs systèmes ne répètent pas par inadvertance ces récits en réponse aux requêtes des utilisateurs.
- Base de données des domaines liés à l’ingérence étrangère : Une base de données continuellement mise à jour de sites web, de comptes sur les réseaux sociaux, de noms d’utilisateurs sur ces plateformes et d’autres lieux de publication qui sont directement impliqués dans des opérations d’ingérence étrangère telles que celle menée par le réseau Pravda. Les entreprises d’IA peuvent utiliser ces données pour s’assurer que leurs systèmes ne s’appuient pas sur le contenu de ces sites web et comptes et qu’ils ne s’appuient pas sur ces sources dans les processus de génération augmentée de récupération (Retrieval Augmented Generation). La base de données de NewsGuard contient actuellement plus de 500 récits de désinformation étatique, avec une moyenne de trois ajouts par semaine.
- Audit de la propagande et désinformation étrangère : Des tests de résistance périodiques des produits d’IA pour déterminer si, et dans quelle mesure, les récits de désinformation et de propagande russes, chinois et iraniens ont contaminé les réponses. Ces tests sont effectués par les analystes experts en désinformation de NewsGuard à l’aide de données exclusives sur les récits de désinformation connus. Ils peuvent être utilisés par les entreprises d’IA pour identifier les lacunes de leurs garde-fous et de leurs systèmes de surveillance.
- Briefings sur les risques liés à la désinformation étrangère : Surveillance continue et alertes sur les risques émergents de désinformation provenant des opérations d’ingérence russes, chinoises et iraniennes. Ces rapports peuvent être utilisés pour donner aux équipes chargées de la confiance et de la sécurité de l’IA un avertissement sur les risques à venir, afin de les minimiser.
Score de confiance NewsGuard du réseau Pravda
Exemple provenant du Flux de récits de désinformation étrangère
FAILSafe pour IA est conçu pour répondre à un risque nouveau et émergent pour les entreprises d’IA. Les données de NewsGuard peuvent être activées comme des garde-fous pour les outils d’IA générative.
“Dans les conversations avec nos clients de l’industrie de l’IA, nous entendons constamment que la confiance est à la fois une priorité pour leurs produits et un défi majeur pour les grands modèles de langages – et les gouvernements autoritaires ont rendu ce défi encore plus grand en cherchant à exploiter les vulnérabilités de l’IA pour injecter de la désinformation et de la propagande dans les réponses des chatbots”, souligne Eric Martin, vice-président de NewsGuard pour les partenariats dans le domaine de l’IA. “Nous avons lancé FAILSafe pour IA pour fournir aux entreprises d’IA une solution simple, complète et puissante à ce problème”.
À propos de NewsGuard
NewsGuard aide les consommateurs et les entreprises à trouver des informations fiables en ligne grâce à des données et des outils transparents et apolitiques. Fondé par le journaliste primé et entrepreneur des médias Steven Brill, et par Gordon Crovitz, ancien directeur de la publication du Wall Street Journal, NewsGuard rassemble une équipe de spécialistes de la fiabilité de l’information qui a recueilli, mis à jour et déployé plus de 6,9 millions de données sur plus de 35.000 sources d’information et d’actualité, et catalogué et suivi tous les principaux récits faux circulant en ligne.
Les analystes de NewsGuard, aidés de multiples outils d’intelligence artificielle, gèrent la base de données la plus vaste et la plus fiable sur l’actualité du secteur de la confiance. Ces données sont déployées pour peaufiner les modèles d’IA générative et leur fournir des garde-fous, pour permettre aux marques de diffuser leurs publicités sur des sites d’actualité de qualité et d’éviter les sites de propagande ou d’infox, pour fournir des outils d’éducation aux médias aux internautes, et pour soutenir les gouvernements démocratiques dans leur lutte contre les opérations de désinformation hostiles ciblant leurs citoyens.
Parmi les autres indicateurs de l’étendue des opérations de NewsGuard, on peut citer le fait que les critères apolitiques et transparents de NewsGuard ont été appliqués par ses analystes pour évaluer la fiabilité des sites représentant 95% de l’engagement avec l’actualité en ligne dans neuf pays.