Image via Canva

Misinformation Monitor: dicembre 2023

Nota della redazione: dal febbraio 2024 la newsletter mensile di NewsGuard chiamata Misinformation Monitor è diventata Reality Check, una newsletter settimanale in inglese sulla disinformazione e sui media online. Per saperne di più e per iscriverti ci trovi qui su Substack.

L’anno in cui l’intelligenza artificiale ha messo il turbo alla misinformazione: il 2023 di NewsGuard in rassegna

A cura di Sara BadiliniJack Brewster, Eric Effron, Zack Fishman, Sam Howard, Natalie Huet, Chine Labbe, Eva Maitland, Virginia Padovese, Leonie Pfaller, Giulia Pozzi, McKenzie Sadeghi e Roberta Schmid | Pubblicato il 27 dicembre 2023

 

L’ascesa dell’intelligenza artificiale nel 2023 ha trasformato l’ecosistema della misinformazione, fornendo nuovi strumenti agli attori malintenzionati per creare articoli, immagini, audio, video e persino interi siti web, all’apparenza simili a quelli tradizionali, per promuovere narrazioni false o polarizzanti destinate a seminare confusione e sfiducia tra i lettori.

Il monitoraggio di NewsGuard ha permesso di rilevare come gli strumenti basati sull’intelligenza artificiale vengano utilizzati per diffondere diverse tipologie di misinformazione, dalla propaganda russa, cinese e iraniana a bufale sulla salute, fino a narrazioni false sui conflitti in Ucraina e a Gaza, rendendo la nebbia di guerra ancora più fitta. Con l’evoluzione di questi strumenti, le bufale prodotte dall’IA generativa sono oggi scritte e organizzate in modo più efficace e sono diventate più convincenti e quindi più pericolose.

Gli analisti di NewsGuard hanno condotto i primi studi per verificare come i modelli di linguaggio come ChatGPT di OpenAI potessero essere indotti a, o sfruttati per, generare bufale, aggirando le misure di sicurezza predisposte. Ad agosto, ad esempio, NewsGuard ha messo alla prova ChatGPT-4 e Bard di Google con un campione casuale di 100 istruzioni tratte dal suo database di narrazioni false, i Misinformation Fingerprints. ChatGPT-4 ha generato 98 delle 100 bufale, mentre Bard ne ha prodotte 80.

Abbiamo anche rilevato come l’intelligenza artificiale venga sempre di più sfruttata da attori malintenzionati per generare interi siti web, gestiti con poca o nessuna supervisione umana. Ad oggi, il team di NewsGuard ha identificato 614 siti inaffidabili di notizie e informazioni generati dall’intelligenza artificiale, denominati “UAINS” (“Unreliable AI-Generated News and information websites”), in 15 lingue: arabo, ceco, cinese, coreano, francese, indonesiano, inglese, italiano, olandese, portoghese, spagnolo, tagalog, tailandese, tedesco e turco (di seguito maggiori dettagli).

In questo report, abbiamo identificato alcuni degli usi più dannosi dell’IA, abbiamo elencato le narrazioni false emerse nel 2023 che sono circolate maggiormente sui siti valutati da NewsGuard e abbiamo realizzato un grafico che mostra la crescita degli UAINS nel tempo.

Gli usi più “creativi” dell’intelligenza artificiale per generare misinformazione

Al meglio delle loro potenzialità, gli strumenti basati sull’IA possono aiutare gli esseri umani a essere più produttivi, ad analizzare enormi quantità di dati e a diagnosticare malattie. Tuttavia, nelle mani sbagliate, l’IA può mettere il turbo alla misinformazione, fornendo ai malintenzionati un numero illimitato di ‘autori di contenuti’ automatizzati: modelli di linguaggio, cioè, capaci di sfornare istantaneamente bufale sotto forma di testi, immagini, video e audio. L’IA ha creato un nuovo, grande ‘superdiffusore di misinformazione’. 

Di seguito, NewsGuard ha evidenziato alcuni degli usi più dannosi dell’IA per generare misinformazione nel 2023, selezionati dai suoi analisti e redattori.

Obama? Non proprio. Strumenti audio basati sull’IA vengono usati per generare video cospirazionisti su TikTok, su larga scala

 

Uno screenshot di un video TikTok in cui un “Obama” generato dall’intelligenza artificiale legge una falsa “dichiarazione” sulla morte di Campbell. (Screenshot di NewsGuard)

A settembre, NewsGuard ha individuato una rete di 17 account TikTok che utilizzano una tecnologia di sintesi vocale iperrealistica basata sull’intelligenza artificiale per generare centinaia di milioni di visualizzazioni con contenuti che promuovono teorie del complotto. Il network, che secondo l’analisi di NewsGuard rappresenta la prima campagna di misinformazione virale su TikTok che utilizza la tecnologia audio basata sull’IA, sembra aver usato un software IA text-to-speech di ElevenLabs per generare istantaneamente la voce narrante e le altre voci che si sentono nei video. In un video che avanza l’affermazione infondata secondo cui l’ex presidente Barack Obama sarebbe in qualche modo coinvolto nella morte del suo chef personale Tafari Campbell, si vede un “Obama” generato dall’IA che legge una dichiarazione falsa sulla morte di Campbell. Leggi il report di NewsGuard qui.

Plagio automatizzato? Come ChatGPT e altri chatbot vengono usati per riscrivere in modo ingannevole i contenuti delle testate giornalistiche mainstream

Ad agosto, NewsGuard ha scoperto un nuovo modo in cui siti di bassa qualità utilizzano l’intelligenza artificiale per plagiare contenuti da note fonti di notizie tradizionali senza essere scoperti. NewsGuard ha identificato 37 siti che utilizzano chatbot come ChatGPT per riscrivere articoli apparsi per la prima volta su testate giornalistiche come CNN, New York Times e Reuters, senza che il “plagio” venga riconosciuto. Non è chiaro come descrivere questa nuova pratica, né se gli articoli riscritti con l’IA possano essere considerati “contenuti originali”. Nella migliore delle ipotesi, si potrebbe parlare di “aggregazione efficiente”; nel peggiore dei casi, di “plagio automatizzato”. Leggi il report di NewsGuard qui.

Una risposta di ChatGPT viene citata come fonte a supporto di un’affermazione falsa su presunti esperimenti scientifici ai danni della Cina

Ad aprile, la testata statale cinese China Daily (NewsGuard Trust Score 44,5/100) ha diffuso in un video l’affermazione infondata secondo cui un laboratorio in Kazakistan, che sarebbe gestito dagli Stati Uniti, starebbe conducendo ricerche segrete sulla trasmissione di virus dai cammelli agli esseri umani per danneggiare la Cina. Il video citava a supporto di questa teoria una risposta di ChatGPT. Leggi il report di NewsGuard qui.

Crescita dei siti di notizie inaffidabili generati dall’intelligenza artificiale nel 2023

Nel maggio 2023, NewsGuard ha registrato l’emergere dei cosiddetti ‘Unreliable AI-generated News Sites’ (o UAINS). Il numero di questi siti – una nuova generazione di ‘content farm’ – è cresciuto più di dieci volte nel corso di quest’anno, passando da 49 nel maggio 2023 a più di 600 nel dicembre 2023.

Per essere classificati come UAINS, i siti devono soddisfare i seguenti quattro criteri:

  • Esistono prove inconfutabili che una parte sostanziale dei contenuti del sito è prodotta dall’IA.
  • Ci sono prove certe che i contenuti vengono pubblicati senza una significativa supervisione umana.
  • Il modo in cui il sito si presenta potrebbe indurre il lettore medio a credere che i suoi contenuti siano prodotti da autori o giornalisti umani, perché ha un nome generico o innocuo, e l’aspetto o altri contenuti tipici dei siti di notizie e informazioni tradizionali.
  • Il sito non rivela chiaramente che i suoi contenuti sono prodotti da IA.
NewsGuard ha identificato più di 600 siti di notizie inaffidabili generati dall'intelligenza artificiale (UAINS) nel 2023. (Grafico di NewsGuard)

Le affermazioni false più condivise dai siti in lingua francese, italiana e tedesca valutati da NewsGuard

Nel 2023, NewsGuard ha identificato e smentito centinaia di nuove narrazioni false. Di seguito, NewsGuard ha stilato un elenco delle narrazioni false emerse quest’anno che sono circolate di più sui siti in lingua francese, italiana e tedesca valutati da NewsGuard. Si sono considerate in particolare quattro categorie: salute, scienza, guerra tra Russia e Ucraina e guerra tra Israele e Hamas. Queste narrazioni sono emerse nel 2023 e sono apparse sul maggior numero di siti valutati da NewsGuard in francese (che comprendono siti francesi e franco-canadesi), o in italiano, o in tedesco (che includono siti con sede in Austria, Germania e Svizzera). Ciascuna di queste narrazioni false è apparsa su almeno 20 siti analizzati da NewsGuard.

An article on GlobalVillageSpace.com falsely claimed that Netanyahu’s psychiatrist committed suicide. (Screenshot via NewsGuard)

Salute:

Bufala: la Thailandia annulla il contratto per il vaccino contro il COVID-19 della Pfizer perché il vaccino ha causato il coma della principessa thailandese

Questa affermazione, apparsa su 21 siti che NewsGuard ha valutato in francese, italiano o tedesco, sembrerebbe essere stata in origine diffusa da Sucharit Bhakdi, un microbiologo tailandese-tedesco che ha divulgato affermazioni false sui vaccini contro il COVID-19 anche in passato. In un video postato su Rumble il 28 gennaio 2023, Bhakdi ha affermato che il governo thailandese stava considerando di annullare i contratti con la Pfizer a causa dei presunti effetti del vaccino sulla principessa thailandese Bajrakitiyabha, collassata il 15 dicembre 2022 “a causa di una grave aritmia cardiaca dovuta a un’infiammazione conseguente a un’infezione da micoplasma”, secondo quanto riportato da Reuters l’8 gennaio 2023. “Con ogni probabilità, la principessa sta soffrendo come vittima di questa iniezione, come tante persone in tutto il mondo”, ha detto Bhakdi. 

Tuttavia, i funzionari thailandesi hanno confermato che la Thailandia non ha intenzione di modificare i suoi contratti con Pfizer per l’acquisto del vaccino contro il COVID-19. Inoltre, secondo l’Associated Press, le condizioni della principessa Bajrakitiyabha erano dovute a un’infezione batterica, non alla vaccinazione.

Podcasts (NewsGuard podcast Trust Scores are out of 10):

Advisory Opinions (Trust Score: 10/10)

A sharp podcast from two conservative lawyers-turned-political and cultural analysts: David French, a New York Times columnist, and Sarah Isgur, a former Justice Department spokesperson during the Trump administration. The hosts assess legal, cultural, and media developments, and are critical of both the left and right. They even heralded the ACLU, a frequent target for the right, for deciding to defend the National Rifle Association in a free-speech case against the New York Department of Financial Regulation.

Drilled (Trust Score: 10/10)

A left-leaning, anti-fossil fuels podcast that offers solid reporting on corporate and political factors that it argues contribute to climate change. It offers multiple viewpoints but tends to rebut any contradicting what it calls “climate accountability.” It’s hosted by environmental journalist Amy Westervelt, who has won honors, including an Edward R. Murrow Award for investigative reporting. A typical episode covers the potential environmental impact of deep-sea mining, which has been performed experimentally on deep ocean floors.

Manifest Space with Morgan Brennan (Trust Score: 10/10)

A weekly podcast in which the CNBC anchor Morgan Brennan covers the latest happenings in space exploration. Brennan discusses significant issues, such as the use of spy satellites and the militarization of space, and interviews industry leaders.