Image par Natalie Adams

La guerre de la Russie contre l’Ukraine: Trois ans, 302 fausses affirmations

L’IA et les allégations inventées de corruption alimentent la désinformation russe sur la guerre

Par Eva Maitland et Madeline Roache | Publié le 21 février 2025

 

Trois ans après l’invasion russe de l’Ukraine, NewsGuard a identifié et réfuté 302 fausses affirmations liées à la guerre, dont presque toutes sont issues de la propagande russe.

Ces 302 affirmations figurent dans la base de données des Empreintes de la Mésinformation de NewsGuard, qui recense les récits faux viraux que les analystes de NewsGuard ont identifiés et réfutés. Les analystes de NewsGuard ont identifié 551 sites web diffusant ces fausses informations.

Tant le contenu que les tactiques de la Russie ont évolué depuis l’invasion du 24 février 2022, de manière à la fois subtile et évidente.

Parmi les conclusions de NewsGuard :

  • Au fur et à mesure que la guerre a progressé, les agents de désinformation russes se sont de plus en plus tournés vers l’intelligence artificielle (IA), qui a servi de démultiplicateur de puissance pour les propagandistes russes, tant par l’ampleur que par le pouvoir de persuasion de leurs campagnes. NewsGuard a réfuté 112 fausses affirmations au cours de la première année de la guerre, dont une générée par IA, 71 durant la deuxième année, dont cinq qui utilisaient de l’IA, et 119 lors de la troisième année, dont 16 générées par IA. L’IA a également facilité la création de sites d’infox se faisant passer pour des médias crédibles. Le propagandiste russe John Mark Dougan a reconnu auprès de NewsGuard utiliser l’IA comme démultiplicateur de puissance.
  • Lors des premiers mois de la guerre, la propagande russe s’est souvent concentrée sur des allégations concernant la prévalence du nazisme en Ukraine, ainsi que des récits niant que la Russie ait ciblé des civils. Plus récemment, la Russie a propagé de fausses affirmations infondées sur la corruption ukrainienne, le prétendu déclin du soutien national pour Volodymyr Zelensky, et le gaspillage des dollars occidentaux, dont beaucoup de ces accusations ont été créées et diffusées par John Mark Dougan. Selon les commentaires faits par le présentateur de télévision d’État russe Vladimir Soloviev, l’une de ces fausses affirmations — selon laquelle Volodymyr Zelensky n’aurait qu’un taux d’approbation national de 4% — pourrait provenir d’une conversation téléphonique que le président russe Vladimir Poutine a eue avec le président des États-Unis Donald Trump. Vladimir Soloviev a dit : “De nombreux récits relayés (par Donald Trump) se sont largement matérialisés après leur conversation (entre Donald Trump et Vladimir Poutine, nldr)”.
  • Les efforts de propagande russe sont souvent financés, involontairement, par de grandes marques américaines et mondiales dont les publicités alimentent automatiquement les sites de désinformation russes dans le cadre de l’écosystème de la publicité programmatique, via lequel des publicités apparaissent sur des sites de piètre qualité si les marques ne prennent pas de mesures pour l’empêcher.
Graphique montrant le nombre d’affirmations liées à la guerre réfutées par NewsGuard, dont les récits générés par IA.

L’IA EN ACTION : COMMENT L’INTELLIGENCE ARTIFICIELLE BOOSTE LA PROPAGANDE PRO-KREMLIN

En 2022, NewsGuard a réfuté une seule infox générée par IA provenant de la Russie. Lors de la deuxième année de la guerre, NewsGuard a réfuté cinq récits faux générés par IA, et il y en a eu 16 lors de la troisième année. En effet, les outils d’IA sont devenus plus facilement accessibles, l’accès simplifié aux générateurs d’images, d’audio, de vidéos et de textes par IA a permis à la Russie et à ses alliés d’atteindre un plus grand nombre de personnes, dans plus de langues, avec de fausses informations plus convaincantes.

Deux deepfakes – l’un flou et pixélisé de mars 2022, l’autre plus clair datant de novembre 2023 – illustrent le progrès de la technologie des deepfakes. (Captures d’écran via NewsGuard)

Par exemple, le premier deepfake utilisé par la Russie et identifié par NewsGuard, en mars 2022, trois semaines après l’invasion de la Russie, est une vidéo floue et pixelisée. On y voit le président ukrainien Volodymyr Zelensky debout derrière un pupitre présidentiel, appelant les Ukrainiens à se rendre. La tête de Volodymyr Zelensky vacillait au-dessus d’un corps étrangement immobile. En comparaison, la vidéo de novembre 2023 montrant Volodymyr Zelensky sur la chaîne de télévision ukrainienne TSN, où il demande prétendument aux soldats ukrainiens d’abandonner leurs postes, reflète un véritable saut technologique. Le seul indice de falsification de la vidéo la plus récente est la déconnexion occasionnelle entre les mouvements de la bouche de Volodymyr Zelensky et les mots prononcés.

L’IA a également aidé des sources pro-Kremlin à imiter des médias occidentaux crédibles — dont la BBC, CNN et Bloomberg News — pour diffuser de fausses affirmations. Depuis le début de la guerre, NewsGuard a réfuté 44 récits faux qui se sont appuyés sur l’imitation de médias crédibles, dont 24 identifiés au cours de la dernière année. La technologie de l’IA a été utilisée pour falsifier des reportages vidéo authentiques, créer des couvertures fabriquées de magazines et journaux, et générer des reportages vidéo semblant provenir de marques de médias connus.

Par exemple, début février 2025, un faux segment vidéo de E! News avec une narration audio générée par IA a affirmé à tort que USAID (l’Agence des États-Unis pour le développement international) aurait payé des millions de dollars pour que des célébrités d’Hollywood se rendent à Kyiv. Cette vidéo truquée — aucun argent de l’USAID ni d’autres fonds provenant des impôts américains n’ont été utilisés pour ces voyages — semblait si crédible qu’elle a accumulé 31 millions de vues après avoir été partagée par des personnalités, y compris Elon Musk, propriétaire de X, et Donald Trump Jr. (Les abonnés à la base de données de NewsGuard peuvent lire l’Empreinte de la Mésinformation sur cette affirmation ici).

Donald Trump Jr. a republié une vidéo fabriquée de E! News avec une narration audio générée par IA en février 2025. (Capture d’écran via NewsGuard)

Cet effort semble être le plus grand succès à ce jour pour Matriochka, une opération d’influence bien documentée et affiliée au gouvernement russe, en référence aux poupées russes qui s’imbriquent les unes dans les autres, et qui a précédemment ciblé les Jeux Olympiques de Paris et les élections américaines.

Le clip faisait partie des 20 fausses vidéos, que antibot4navalny, un groupe de volontaires anonymes suivant les opérations d’influence russes, a transmises à NewsGuard, et qui concernaient toutes USAID, diffusées par Matriochka en février 2025, apparemment dans le but d’exploiter le démantèlement de l’agence par l’administration Trump pour propager un sentiment anti-Ukraine. Matriochka a également imité des médias tels que le Wall Street Journal et Fox News pour répandre de fausses affirmations selon lesquelles USAID aurait dépensé des milliards de dollars dans une campagne de relations publiques pro-Ukraine sur YouTube, et que l’agence aurait soudoyé le concours de musique Eurovision pour que l’Ukraine gagne en 2022.

SABLES MOUVANTS : DES ACCUSATIONS DE NAZISME AUX ALLÉGATIONS ÉLABORÉES DE CORRUPTION

Alors que la guerre entre dans sa quatrième année, les campagnes de désinformation russes ont changé de cible. Au début, les récits niaient généralement les attaques russes bien documentées contre les civils et reprenaient les justifications du gouvernement russe pour l’invasion de l’Ukraine, y compris la nécessité de “dénazifier” l’Ukraine et la menace supposée existentielle que représenterait l’OTAN pour la Russie, avec notamment de fausses allégations sur des laboratoires américains d’armes biologiques en Ukraine.

Au cours de la première année de la guerre, NewsGuard a réfuté sept récits faux cherchant à dépeindre la société ukrainienne comme dominée par l’idéologie nazie, six de ces mythes dans la deuxième année, et seulement trois dans la troisième.

Au fil des années, il y a eu davantage de fausses affirmations sur la présence de soldats de l’OTAN en Ukraine et sur la corruption gouvernementale, et moins de fausses allégations selon lesquelles l’Ukraine serait dirigée par des nazis.

De la même manière, les fausses affirmations niant les attaques russes bien documentées contre les civils ont diminué à mesure que l’attention internationale s’est détournée de la guerre. Neuf de ces récits faux ont été réfutés lors de la première année, deux lors de la deuxième année, et deux dans la troisième.

Pendant ce temps, le thème de la Russie combattant des soldats de l’OTAN sur le sol ukrainien a persisté, dans ce qui semble être un effort du Kremlin pour dépeindre les gouvernements occidentaux comme mentant sur l’ampleur de leur implication dans la guerre et pour suggérer que la Russie affronte un ennemi beaucoup plus grand.

NewsGuard a réfuté 32 récits faux russes de ce type, dont une affirmation de janvier 2024 selon laquelle des dizaines de combattants français auraient été tués dans la ville ukrainienne de Kharkiv et une autre de février 2025 affirmant que la Russie aurait tué un pilote militaire danois. NewsGuard a réfuté 10 telles affirmations au cours de la première année de la guerre, huit dans la seconde, et 14 dans la troisième, prouvant que présenter la guerre comme un affrontement physique avec l’Occident reste une priorité pour les campagnes russes.

Cependant, à l’heure où l’aide occidentale est devenue de plus en plus cruciale pour l’Ukraine, et face à une opposition croissante à la poursuite du soutien occidental en faveur de l’Ukraine dans certains cercles, le thème désormais principal de la désinformation est de présenter les responsables ukrainiens comme gaspillant les fonds d’aide occidentale, qui s’élèvent à environ 83 milliards de dollars pour chaque année de guerre, selon l’institut de recherche allemand Kiel Institute for the World Economy. Sur 21 récits liés à la corruption, NewsGuard a réfuté deux affirmations liées à la corruption lors de la première année de la guerre, six lors de la deuxième année, et 13 durant la troisième.

Au total, 14 des récits faux relevés par NewsGuard et liés à la corruption accusent directement Volodymyr Zelensky et la première dame Olena Zelenska d’avoir dépensé 725 millions de dollars d’aide occidentale pour des achats de luxes, dont des villas, des yachts et des voitures de sport. Collectivement, ces allégations ont généré plus de 66,4 millions de vues sur X, et incluent 75 millions de dollars pour deux yachts de luxe, 15 millions de dollars pour l’achat de la Mercedes d’Hitler, et 92 millions pour une station de ski de luxe dans les Alpes françaises. Volodymyr Zelensky a également été accusé d’avoir acheté la villa du musicien Sting en Italie et le domaine du roi Charles en Angleterre. L’affirmation selon laquelle la Première dame ukrainienne, Olena Zelenska, aurait acheté une voiture de sport Bugatti Tourbillon pour 4,6 millions de dollars, a été la plus virale, générant 19,5 millions de vues sur X.

LE PROPAGANDISTE AMÉRICAIN DERRIÈRE 14 MYTHES CONCERNANT VOLODYMYR ZELENSKY

L’instigateur des fausses allégations de corruption qui ont généré des millions de vues semble être John Mark Dougan, un ancien shérif adjoint de Floride devenu propagandiste du Kremlin. John Mark Dougan fait partie d’une opération d’influence russe que Microsoft surnomme Storm-1516. Celle-ci semble être une émanation de l’Internet Research Agency, une ferme à trolls russe qui a été démantelée.

NewsGuard a démystifié 37 récits faux liés à John Mark Dougan et Storm-1516 visant l’Ukraine, l’élection américaine de 2024, les Jeux olympiques de Paris de 2024 et l’élection allemande de 2025. Parmi ces récits, 19 ciblent l’Ukraine, et 14 d’entre eux accusent spécifiquement Volodymyr Zelensky et son épouse d’avoir détourné l’aide occidentale pour acheter des biens immobiliers, des produits de luxe et des voitures de sport. Ces 14 récits ont cumulé plus de 66,4 millions de vues.

Graphique montrant l'augmentation des fausses affirmations du groupe de désinformation russe Storm-1516, et les pays ciblés par ces récits.

Les campagnes de John Mark Dougan utilisent des vidéos créées de toutes pièces, de faux documents, des conversations téléphoniques fictives et de fausses images, souvent publiées sur de faux sites d’information locaux — loin de ses premières tentatives repérées par NewsGuard en août 2023, lorsque de vraies personnes se faisaient passer, dans des vidéos, pour des lanceurs d’alerte ou des journalistes.

La campagne Storm-1516 a commencé par publier environ un récit faux de ce type chaque mois. En 2024, le groupe publiait au moins deux récits faux par mois. Au cours de la troisième année de la guerre, NewsGuard a démystifié 31 mythes liés à John Mark Dougan, dont 14 visaient l’Ukraine.

Par exemple, en février 2025, un récit faux a utilisé des documents créés de toutes pièces ainsi qu’une vidéo avec une voix off générée par IA pour prétendre que Volodymyr Zelensky avait acheté le “nid d’aigle”, un chalet allemand ayant appartenu à Adolf Hitler, pour 14,2 millions d’euros. L’infox est apparue pour la première fois sur un site germanophone appelé “Aktuell-Nachricht” (“Nouvelles Actuelles”), qui fait partie d’un réseau russe de désinformation composé de 102 sites web générés par IA et créés à l’approche des élections allemandes de février 2025. (Lire le rapport de NewsGuard sur l’opération ici).

Des propagandistes ont diffusé une infox sur le président ukrainien en utilisant des sites web, des articles et des vidéos créés par IA. (Captures d'écran via NewsGuard)

NewsGuard a identifié 273 faux sites d’information de ce type ayant des liens avec John Mark Dougan, qui diffusent de la désinformation qui est ensuite répétée par les principaux chatbots occidentaux, dont NewsGuard a constaté qu’ils ont une capacité limitée à distinguer la vérité de la fiction. Lors d’une conversation avec NewsGuard, John Mark Dougan a reconnu qu’il s’était d’abord appuyé sur des modèles d’IA occidentaux pour générer du contenu et a affirmé qu’il avait depuis développé son propre serveur d’IA “sans censure”.

“NOUS POUVONS RÉELLEMENT CHANGER L’IA MONDIALE”

En effet, selon le Washington Post, qui cite des documents des services de renseignement européens, certains des paiements versés à John Mark Dougan par le GRU, le service de renseignement militaire russe, l’ont été après qu’il a rencontré des difficultés à utiliser les systèmes d’IA occidentaux et qu’il a cherché à financer son propre générateur d’IA, indépendant de la technologie occidentale.

Il a ensuite poursuivi ses efforts pour obtenir un soutien financier de la Russie pour la production de contenus générés par IA. Le 27 janvier 2025, John Mark Dougan a participé à une table ronde à Moscou intitulée “Le rôle des médias dans la lutte contre la désinformation stratégique”, au cours de laquelle il a déclaré : “Mon unique serveur chez moi écrit près de 90.000 articles par mois… Ce n’est pas un outil dont il faut avoir peur, c’est un outil dont il faut tirer parti”. Citant un audit de NewsGuard qui a révélé que les 10 principaux modèles d’IA générative répétaient les récits de désinformation russe de John Mark Dougan 32% du temps, ce dernier a ajouté : “En promouvant ces récits russes du point de vue russe, nous pouvons réellement changer l’IA mondiale”.

LA DÉSINFORMATION RUSSE RENDUE POSSIBLE PAR LA PUBLICITÉ…. INVOLONTAIRE DE MARQUES OCCIDENTALES

Graphique montrant le nombre de sites web publiant de la désinformation russe qui affichent des publicités programmatiques, et les plateformes de technologie publicitaire via lesquelles ils les diffusent.

NewsGuard a constaté que la publicité programmatique (l’achat et le placement automatisés de publicités à l’aide d’algorithmes et de données ciblant des publics spécifiques) a continué à financer des sites qui diffusent de la désinformation sur la guerre. Les marques ne financent pas intentionnellement la désinformation russe, mais elles finissent souvent par le faire lorsqu’elles ne prennent pas les mesures nécessaires pour empêcher ces placements.

NewsGuard a identifié et continue de suivre 551 sites d’information qui diffusent des récits faux sur la guerre. Parmi ces sites, 87 continuent à diffuser des publicités programmatiques par le biais de grands fournisseurs de publicités, dont Google, MGID et Criteo. Google, la plus grande plateforme publicitaire en ligne, diffuse des annonces sur 51 sites qui relaient de la désinformation russe.

Par exemple, Google diffuse des annonces sur les sites américains Tsarizm.com (Score de confiance NewsGuard : 25/100) et ArmedForces.press (17,5/100) ; VTForeignPolicy.com (22,5/100), un site de commentaires pro-russes qui selon les autorités américaines est lié aux services de sécurité russes ; et six sites du réseau multilingue Avia.pro (7,5/100), qui n’identifie pas son propriétaire. Au cours du seul mois de février 2025, Amazon, Adobe, Citibank, The Ritz-Carlton et Ford figuraient parmi les marques dont les publicités s’affichaient sur des sites relayant des infox.

La publicité programmatique conduit souvent à des associations malheureuses. NewsGuard a ainsi repéré une publicité de l’agence des Nations unies pour les réfugiés (UNHCR), collectant des fonds en soutien aux familles ukrainiennes, placée via la plateforme publicitaire de Google sur le site de désinformation russe VTForeignPolicy.com. (Déclaration d’intérêts : NewsGuard propose des listes d’inclusion et d’exclusion ainsi que d’autres services de “brand safety” qui ajoutent un filtre au processus d’achat publicitaire programmatique).

Une publicité pour l'agence des Nations unies pour les réfugiés, le HCR, levant des fonds pour l'Ukraine s’affiche sur le site de désinformation russe VTForeignPolicy.com. (Capture d'écran NewsGuard)

Ce soutien publicitaire à des sites relayant de la désinformation russe semble violer les politiques des principales plateformes de technologie publicitaire ainsi que le Code de bonnes pratiques contre la désinformation promu par la Commission européenne. Ce code, qui a été révisé en juin 2022, demande aux plateformes numériques et aux sociétés d’ad-tech signataires d’empêcher la diffusion de publicités auprès d’éditeurs qui “fournissent systématiquement de la désinformation nocive”.

En réponse à un email de NewsGuard demandant des commentaires sur la monétisation par MGID de sites diffusant de la désinformation russe, un porte-parole de MGID a déclaré que la société “s’engageait pleinement à veiller à ce que notre réseau publicitaire respecte nos politiques en matière de contenu”. MGID a ajouté : “Nos directives interdisent strictement la monétisation de sites web qui diffusent de la désinformation ou des contenus trompeurs. Nous surveillons en permanence notre réseau afin de faire respecter ces politiques et, en cas d’infraction, nous prenons des mesures immédiates”.

Google a répondu à la requête de NewsGuard en demandant la liste complète des sites utilisant la technologie publicitaire de Google. NewsGuard ne fournit ces listes complètes d’exclusion qu’aux détenteurs de licences, et a donc décliné cette demande. Criteo et Revcontent n’ont pas répondu à la demande de commentaire de NewsGuard.

Si la grande majorité des fausses affirmations sur la guerre servent les intérêts russes, NewsGuard a identifié deux récits faux pro-Ukraine, qui ont tous deux circulé au cours de la première année de la guerre. L’un utilisait une photographie ancienne pour prétendre que Volodymyr Zelensky combattait sur les lignes de front en 2022. L’autre utilisait des images d’un jeu vidéo en prétendant qu’elles montraient un pilote de chasse ukrainien héroïque, surnommé le “fantôme de Kyiv”, en train d’abattre des avions de chasse russes. L’armée de l’air ukrainienne a par la suite reconnu que le “fantôme de Kyiv” était un mythe.

Avec la contribution de Mascha Wolf et McKenzie Sadeghi

Édité par Dina Contini et Eric Effron