Image par Natalie Adams

Avant sa fermeture, le programme de fact-checking de Meta ne touche que 14% des posts de désinformation russe, chinoise et iranienne

Des failles dans le processus pourraient se transmettre au système de “Notes de la communauté” à venir — avec des résultats encore pires

Par Dimitris Dimitriadis, Eva Maitland et McKenzie SadeghiPublié le 22 janvier 2025  

Seules 14% des publications relayant un échantillon de 30 récits de désinformation russe, chinoise et iranienne identifiés par NewsGuard sur Facebook, Instagram et Threads ont été signalées comme fausses dans le cadre d’un programme de fact-checking auquel Meta, la maison-mère de ces plateformes, va bientôt mettre fin aux États-Unis.

Le PDG de Meta, Mark Zuckerberg, a annoncé le 7 janvier 2025 que son programme de vérification des faits — lancé en décembre 2016 en réponse aux critiques selon lesquelles l’entreprise n’avait pas fait assez pour prévenir l’ingérence étrangère dans l’élection présidentielle américaine — serait abandonné aux États-Unis. Le programme s’appuie sur des contrats passés avec des équipes de vérification des faits au sein de grands médias, dont USA Today, Reuters et l’Associated Press, et accole leurs articles de fact-checking aux faux contenus sur les plateformes de Meta.

À la place, Meta a annoncé son intention de déployer des “Notes de la communauté”. Il s’agit d’une approche communautaire similaire à celle pratiquée par X, la plateforme d’Elon Musk. 

Cependant, comme nous l’expliquons ci-dessous, si Meta déploie la même technologie et les mêmes règles pour ses notes de la communauté que pour les étiquettes produites par des fact-checkers, les résultats ne seront sans doute pas meilleurs. Les résultats pourraient même être encore pires en termes de rapidité et de couverture, car une note de la communauté requiert un processus par lequel une communauté d’utilisateurs doit d’abord se constituer pour refléter ce que Facebook appelle “un éventail de perspectives”.

Même avec les initiatives de fact-checking qui vont être abandonnées, la grande majorité des posts relayant des récits de désinformation étrangère s’est répandue sans porter aucune des étiquettes d’avertissement utilisées par Meta, à savoir : “faux”, “retouché”, “partiellement faux”, “manque de contexte” ou “satire”. Cette analyse porte sur la diffusion de 30 récits faux provenant de la base de données exclusive de NewsGuard appelée “Empreintes de la Mésinformation”, un catalogue constamment mis à jour, et lisible par les machines, des principales infox circulant en ligne. (Voir la note méthodologique ci-dessous).

L’échantillon couvre 30 des 508 récits de désinformation identifiés par les analystes de NewsGuard et diffusés par les médias étatiques russes, chinois et iraniens entre juin 2023 et janvier 2025. Ces affirmations, dont les analystes de NewsGuard ont démontré qu’elles étaient fausses, comprennent le mythe véhiculé par la Russie selon lequel huit responsables militaires ukrainiens possédaient des demeures luxueuses qui ont brûlé lors des incendies dans le sud de la Californie début 2025, le faux narratif chinois selon lequel les États-Unis exploiteraient un laboratoire secret d’armes biologiques au Kazakhstan, et le faux récit iranien selon lequel Donald Trump aurait fait l’éloge de l’Iran comme d’une “nation puissante” dans son livre de 2015 intitulé “L’Amérique paralysée”.  

NewsGuard a identifié 457 posts propageant ces 30 récits faux sur les plateformes de Meta. Parmi ces posts, 253 relayaient de la désinformation iranienne, 170 de la désinformation russe, et 34 de la désinformation chinoise. (Un seul des exemples de désinformation chinoise était signalé par une étiquette de fact-checking). Au total, seuls 66 posts (14%) portaient une étiquette de vérification des faits, laissant 391 posts (86%) dénués d’avertissement aux utilisateurs quant à la désinformation d’État étrangère qu’ils contenaient.

Les cinq récits faux les plus courants apparus sur les plateformes de Meta étaient les suivants : 

  • Reuters a rapporté que l’ambassadeur d’Israël à Chypre et ses deux gardes du corps avaient été enlevés (116 posts)
  • L’éminent chimiste syrien Hamdi Ismail Nada a été assassiné à Damas (61 posts)
  • L’acteur Johnny Depp et le mannequin russe Yulia Vlasova ouvrent une bijouterie à Moscou (57 posts)
  • Le président syrien Bachar al-Assad est mort dans un accident d’avion (41 posts)
  • L’Allemagne prévoit d’accueillir 1,9 million de travailleurs kenyans (37 posts) 

NewsGuard a envoyé deux emails à Meta sollicitant ses commentaires sur son analyse, mais ceux-ci sont restés sans réponse. 

Comparaison, par pays d'origine, des posts relayant de faux récits qui se sont propagés sans étiquette de vérification des faits versus ceux signalés à l’aide d’une étiquette. (Graphique NewsGuard).

Panne moteur : Quand l’algorithme de Meta est leurré par des nuances de formulation

Meta indique sur son site qu’après qu’un partenaire indépendant a vérifié un post faux sur l’une de ses plateformes, il utilise une technologie qui recherche d’autres posts avec une formulation “presque identique” afin d’appliquer des étiquettes de fact-checking à d’autres posts relayant la même infox. Cependant, Meta précise qu’il n’ajoute des évaluations qu’aux posts dont le contenu est “identique ou presque” à celui vérifié par le partenaire tiers. 

“Nous n’ajoutons généralement pas d’avertissement au contenu qui présente une revendication similaire évaluée par les médias de vérification, si le contenu n’est pas identique”, indique Meta. Cela signifie que si une infox est reformulée ou paraphrasée, elle ne déclenche pas forcément une étiquette de vérification des faits, permettant ainsi à des versions légèrement différentes du même récit de désinformation de passer entre les mailles du filet.

Interrogé au sujet du processus de Notes de la communauté à venir, pour savoir si les mêmes principes et la même technologie ayant abouti à un taux de vérification de 14% s’appliqueraient, autrement dit, si une note ne serait ajoutée que si l’allégation est “identique ou presque”, le service de presse de Meta n’a pas répondu. Le site web de Meta annonçant le passage aux Notes de la communauté indique : “Meta ne rédigera pas les Notes de la communauté et ne décidera pas lesquelles sont publiées. Elles sont rédigées et évaluées par les utilisateurs qui y contribuent. (…) Les Notes de la communauté nécessiteront un accord entre des personnes reflétant un éventail de perspectives afin d’éviter les évaluations biaisées”.

Meta n’a pas répondu à la question de savoir comment un accord pourrait être atteint entre des personnes représentant “un éventail de perspectives” dans le cas où cet éventail de points de vue comprendrait à la fois des utilisateurs relayant un récit de propagande russe et des utilisateurs n‘adhérant pas à ce récit. 

Pour une infox pro-Hamas vérifiée, 113 posts contenant la même infox intouchés

Dans 10 des 30 récits examinés par NewsGuard, Meta a apposé une évaluation sur un ou plusieurs posts relayant le récit, mais n’a pas corrigé des dizaines d’autres posts contenant la même infox, quoique formulés différemment.

Par exemple, les partenaires de Meta en matière de fact-checking, notamment l’équipe arabophone de l’Agence France-Presse (AFP), ont vérifié l’infox selon laquelle Reuters aurait rapporté qu’Oren Anolik, ambassadeur d’Israël à Chypre, avait été enlevé avec ses deux gardes du corps. Cette fausse affirmation s’inscrivait dans le cadre d’une campagne de désinformation plus vaste menée par l’Iran pour faire croire au succès des attaques menées par l’Iran et ses alliés, le Hezbollah et le Hamas. Le post signalé comme faux affirmait : “Les médias d’occupation rapportent l’enlèvement de l’ambassadeur d’Israël à Chypre et de deux de ses accompagnateurs”.

L’ambassadeur Oren Anolik a démenti cette affirmation dans une vidéo postée sur X, et Reuters a publié une déclaration indiquant n’avoir jamais rapporté une telle information.

Néanmoins, NewsGuard a trouvé 113 autres posts non signalés sur Facebook, Instagram et Threads relayant cette même affirmation, mais en la formulant différemment. Parmi ces posts, l’un disait : “Reuters : L’ambassadeur d’Israël à Chypre et deux membres de son entourage ont été enlevés et amenés vers une destination inconnue”. Le post qui a été vérifié par l’AFP et étiqueté “faux” par Meta a généré 3.000 likes, tandis que les 113 posts qui ne portaient pas d’étiquette de fact-checking ont généré 21.720 likes.

Si la plupart des posts non étiquetés identifiés par NewsGuard provenaient de comptes pro-russes, iraniens et chinois gérés anonymement, 12 des posts relayant des infox provenaient directement de médias étatiques tels que HispanTV, un média contrôlé par l’État iranien, l’agence étatique chinoise Chinese News Service, qui faisait précédemment partie de Xinhua, et les comptes d’ambassades russes.

Les ratés : “Un migrant tchadien viole une Française de 12 ans”, “Taylor Swift s’en prend à Taïwan”

Au-delà des limites de l’algorithme de Meta, certains des posts identifiés par NewsGuard comme véhiculant de la désinformation ne semblaient pas du tout avoir été vérifiés par les partenaires tiers de Meta.

Par exemple, NewsGuard a identifié trois posts ayant collectivement généré 7.000 likes et qui contenaient une vidéo censée montrer un migrant venu du Tchad pris à partie par deux Français, après avoir prétendument été arrêté et remis en liberté par la police pour avoir violé une fillette de 12 ans. La vidéo visait apparemment à attiser le sentiment anti-immigration en France.

Cependant, rien n’indique qu’un migrant originaire du Tchad ait été arrêté et relâché par les autorités françaises après avoir avoué avoir violé une fillette de 12 ans en France. Aucune agression de ce type n’a été rapportée. Une source sécuritaire française a déclaré à NewsGuard en décembre 2024 que la vidéo avait été mise en scène par une campagne d’influence russe que Microsoft a baptisée Storm-1516. NewsGuard n’a pas trouvé d’article de fact-checking au sujet de ce récit publié par les partenaires tiers de Meta.

De même, NewsGuard a identifié quatre posts non étiquetés sur les plateformes de Meta provenant d’utilisateurs pro-chinois et faisant la promotion des revendications de souveraineté de Pékin sur Taïwan en affirmant à tort que Google Maps avait changé le nom de Taïwan en “Province de Taïwan”. 

Un porte-parole de Google a déclaré à NewsGuard dans un email de décembre 2024 : “Nous n’avons apporté aucun changement à la façon dont nous représentons Taïwan sur Google Maps. Les personnes qui utilisent Google Maps en Chine continentale voient ‘Province de Taiwan’ car ce nom est requis par la loi locale — ailleurs, les gens voient ‘Taïwan’”. NewsGuard n’a pas trouvé de démenti à cette affirmation sur les plateformes de Meta.

Dans un autre exemple d’infox non vérifiée sur les plateformes de Meta, des comptes pro-Pékin ont publié une image générée par intelligence artificielle censée montrer la chanteuse pop Taylor Swift tenant une pancarte sur laquelle on peut lire “Taïwan est une province chinoise”. (Outre le fait que l’image a été créée de toutes pièces, Taylor Swift n’a pas fait de déclaration de ce type soutenant la politique de la “Chine unique” promue par Pékin). NewsGuard a identifié sept posts de ce type sur Facebook, Instagram et Threads, qui, combinés, ont généré 677 likes.

Des succès épars 

Dans certains cas, les étiquettes de fact-checking semblent avoir réussi à contrecarrer des récits faux qui auraient pu atteindre un public plus large. Par exemple, à la mi-décembre 2024, des sources pro-Kremlin sur Facebook ont partagé un article affirmant à tort que le gouvernement allemand avait signé un accord migratoire permettant à 1,9 million de travailleurs kenyans d’entrer en Allemagne. Sur les 36 posts relayant ce faux récit, 20 ont été signalés par Facebook comme relayant de “fausses informations”, renvoyant les utilisateurs vers un article de fact-checking du média allemand DPA informant les lecteurs que l’affirmation faisait une présentation trompeuse d’un accord migratoire authentique entre l’Allemagne et le Kenya.

Ce faux récit, qui s’inscrit dans le cadre d’une vaste campagne de désinformation russe à l’approche des élections anticipées prévues le 23 février 2025 en Allemagne, ressemble de près au travail de John Mark Dougan, un ancien shérif adjoint de Floride exilé en Russie où il est devenu l’un des principaux propagandistes du Kremlin. Les 36 posts Facebook n’ont été consultés que 173 fois, ce qui suggère que l’algorithme de Facebook a peut-être réussi à limiter leur portée.

Comme l’indique cette analyse de NewsGuard, même avec un programme de fact-checking, des acteurs malveillants à l’étranger ont trouvé des moyens d’exploiter les plateformes de Meta. Par ailleurs, les succès occasionnels de ce programme —  notamment le signalement de l’infox russe ciblant les élections à venir en Allemagne — risquent à présent d’être réduits à peau de chagrin, avec, en lieu et place, un système de Notes de la communauté qui risque d’être encore moins efficace.

Méthodologie : NewsGuard a sélectionné 30 Empreintes de la Mésinformation (10 russes, 10 iraniennes et 10 chinoises) dans son catalogue des principales infox en ligne vérifiées par les analystes de NewsGuard. L’analyse de NewsGuard a porté sur les publications qui ont été partagées entre le moment où le récit est apparu pour la première fois — pour le plus ancien, en juin 2023 — et le 13 janvier 2025. Compte-tenu des défis posés par l’abandon par Meta de CrowdTangle, un outil précédemment utilisé par les chercheurs pour suivre le contenu sur ses plateformes, NewsGuard a effectué ses recherches manuellement en utilisant par exemple les termes de recherche et les mots-clés tirés des Empreintes de la Mésinformation en plusieurs langues, dont l’anglais, le russe, le chinois, le persan et l’arabe. Les posts ont été classés comme étiquetés s’ils portaient l’une des évaluations de fact-checking de Meta, telles que “faux”, “modifié”, “partiellement faux”, “contexte manquant” ou “satire”. Les articles ne portant pas ces étiquettes d’avertissement ont été classés comme non étiquetés. NewsGuard a recherché tous les posts relayant ces fausses affirmations, qu’ils proviennent de sources étatiques ou de comptes individuels. Il est donc possible que l’analyse de NewsGuard ait manqué des publications en raison des limites de ses capacités de recherche et de la possibilité que des posts aient été supprimés avant qu’ils puissent être analysés. 

Edité par Dina Contini et Eric Effron