10/03/2025
NewsGuard lancia un nuovo servizio per proteggere i modelli linguistici di grandi dimensioni dalle operazioni di influenza straniera
Il servizio FAILSafe for AI consente ai modelli di intelligenza artificiale di individuare e prevenire le operazioni di influenza straniera che “contaminano” le risposte dell’IA con disinformazione e propaganda sponsorizzate da governi.
(10 marzo – New York, NY) A seguito della pubblicazione di report che hanno rivelato un ambizioso e ben finanziato programma filo-Cremlino che ha “contaminato” i modelli di intelligenza artificiale con affermazioni false che promuovono gli interessi russi, NewsGuard annuncia oggi il lancio del servizio FAILSafe (Foreign Adversary Infection of LLMs Safety Service), per proteggere i modelli di intelligenza artificiale dalle operazioni di influenza straniera.
Il servizio fornisce alle aziende di intelligenza artificiale dati in tempo reale, verificati dagli esperti di disinformazione di NewsGuard, che smascherano le narrazioni e le fonti coinvolte nelle operazioni di influenza gestite dai governi russo, cinese e iraniano.
Un problema urgente per le aziende di IA
Diversi report di NewsGuard, Viginum, Digital Forensics Research Lab, Recorded Future, Foundation for Defense of Democracies e dello European Digital Media Observatory si sono occupati di una massiccia rete di disinformazione russa, che, secondo l’analisi di NewsGuard, ha influenzato i risultati dei modelli di IA. L’obiettivo della rete non sembra essere quello di fornire informazioni false ai singoli lettori online, ma piuttosto quello di “contaminare” i modelli di IA con affermazioni false, con l’intento di diffondere la propaganda del Cremlino tra gli utenti che utilizzano chatbot di IA in tutto il mondo.
In un audit pubblicato la scorsa settimana, di cui ha parlato diversi organi di informazione come Axios, Forbes e TechCrunch, gli analisti di NewsGuard hanno rilevato che una rete di propaganda allineata alla Russia, il network Pravda, si è espansa in modo significativo, raggiungendo – secondo NewsGuard e altre organizzazioni di ricerca – 49 Paesi in decine di lingue attraverso 150 domini. Ora, questo network sta inondando Internet di contenuti che i modelli di intelligenza artificiale utilizzano per fornire risposte alle richieste degli utenti. E, come riporta l’audit di NewsGuard appena pubblicato, ha “contaminato” con successo i principali strumenti di IA occidentali come ChatGPT di OpenAI, Claude di Anthropic, Gemini di Google e Copilot di Microsoft con propaganda e narrazioni di disinformazione russe.
Questa strategia era stata preannunciata in un discorso che John Mark Dougan, ex vice-sceriffo di una contea della Florida divenuto propagandista del Cremlino, ha tenuto a Mosca a gennaio, in occasione di una conferenza di funzionari russi. Durante questa conferenza, Dougan ha detto: “Spingendo queste narrazioni russe dalla prospettiva russa, possiamo effettivamente cambiare l’IA mondiale”.
L’audit di NewsGuard ha rilevato che i principali chatbot di IA hanno ripetuto le narrazioni false diffuse dalla rete Pravda il 33% delle volte, facendo così diventare realtà la promessa di Dougan in merito alla creazione di nuovo potente canale di distribuzione per la disinformazione del Cremlino.
Tra le narrazioni diffuse dalla rete e ripetute dai chatbot, vi è quella secondo cui gli Stati Uniti gestirebbero laboratori segreti di armi biologiche in Ucraina e quella secondo cui il presidente ucraino Volodymyr Zelensky avrebbe utilizzato gli aiuti militari statunitensi per accumulare ricchezza.
Operazioni come quella della rete Pravda dimostrano l’esistenza di una nuova minaccia, in gran parte non esaminata, legata all’accelerazione nello sviluppo dell’intelligenza artificiale: la manipolazione deliberata di grandi modelli linguistici (LLM) da parte di reti di influenza straniera per distorcere i risultati dei chatbot.
Protezione dei modelli di intelligenza artificiale contro le operazioni di influenza straniera
Per combattere questa minaccia, il servizio FAILSafe for AI di NewsGuard fornisce alle aziende che si occupano di IA dati in tempo reale sulle narrazioni di disinformazione provenienti da operazioni di influenza russe, cinesi e iraniane, oltre a un database costantemente aggiornato dei siti e degli account che tali operazioni utilizzano per immettere queste narrazioni false nelle risposte dei modelli di IA.
Il servizio comprende le seguenti attività:
- Foreign Disinformation Narrative Feed: un feed di dati continuamente aggiornato con informazioni sulle narrazioni false diffuse dalle operazioni di influenza russe, cinesi e iraniane, con dati dettagliati sulle narrazioni, il linguaggio usato per trasmetterle, le affiliazioni con specifiche operazioni di influenza e le pagine in cui ciascuna narrazione viene pubblicata. Le aziende di intelligenza artificiale possono utilizzare questi dati per garantire che i loro sistemi non ripetano inavvertitamente queste narrazioni in risposta alle domande degli utenti.
- Foreign Influence Domain Dataset: un database continuamente aggiornato di siti, account social, handle di piattaforme e altre fonti direttamente coinvolte in operazioni di influenza estera come quella gestita dalla rete Pravda. Le aziende che si occupano di IA possono utilizzare questi dati per assicurarsi che i loro sistemi non si affidino a contenuti provenienti da questi siti, account e fonti nei flussi di lavoro di Retrieval Augmented Generation. Il database di NewsGuard contiene attualmente oltre 500 narrazioni di disinformazione sponsorizzate dallo Stato, con una media di tre aggiunte ogni settimana.
- Foreign Disinformation & Propaganda Red-Teaming: test periodici sui prodotti di IA per determinare se e in che misura la disinformazione e la propaganda russa, cinese e iraniana abbiano influenzato le risposte. Questi test sono condotti dagli analisti esperti di disinformazione di NewsGuard utilizzando dati proprietari sulle narrative di disinformazione individuate e possono essere utilizzati dalle aziende di IA per identificare le lacune nei loro sistemi di protezione e monitoraggio.
- Foreign Disinformation Risk Briefings: monitoraggio continuo e notifiche sui rischi di disinformazione nuovi ed emergenti derivanti dalle operazioni di influenza russe, cinesi e iraniane. Questi report possono essere utilizzati per fornire ai team di Trust and Safety delle aziende IA notifiche tempestive sulle aree di rischio imminenti su cui eventualmente agire con misure di mitigazione.
Valutazione di affidabilità di NewsGuard per la rete di siti di disinformazione russi Pravda
Un esempio di Foreign Disinformation Narrative Feed
FAILSafe for AI è stato progettato per affrontare una nuova area di rischio emergente per le aziende di IA, in quanto i dati di NewsGuard possono essere utilizzati come guardrail per gli strumenti di IA generativa.
“Nelle conversazioni con i nostri clienti nel settore dell’IA, sentiamo costantemente che la questione della fiducia è una priorità in termini di prodotto ma anche una sfida importante per i modelli linguistici di grandi dimensioni, e i governi autoritari hanno reso questa sfida ancora più grande cercando di sfruttare le vulnerabilità dell’IA per inserire disinformazione e propaganda nelle risposte”, ha dichiarato Eric Martin, VP of AI Partnerships di NewsGuard. “Abbiamo lanciato FAILSafe for AI per fornire alle aziende di IA una soluzione semplice, completa ed efficace a questo problema”.
Informazioni su NewsGuard
NewsGuard aiuta gli utenti e le imprese a trovare informazioni affidabili online con dati e strumenti trasparenti e apolitici. Fondato nel 2018 dall’imprenditore dei media e pluripremiato giornalista Steven Brill e dall’ex publisher del Wall Street Journal Gordon Crovitz, NewsGuard ha raccolto, aggiornato e distribuito più di sette milioni di dati su oltre 35.000 fonti di notizie e informazioni, catalogando e tracciando tutte le principali narrazioni false che si diffondono online.
Gli analisti di NewsGuard, anche utilizzando strumenti basati sull’intelligenza artificiale, gestiscono il più grande e affidabile set di dati sulle notizie. Questi dati vengono utilizzati per mettere a punto e fornire strategie di sicurezza ai modelli di intelligenza artificiale generativa, per consentire ai marchi di pubblicizzare su siti di notizie di qualità ed evitare siti di propaganda o di bufale, per offrire strumenti per l’alfabetizzazione ai media per i singoli utenti e per sostenere i governi democratici nel contrastare le operazioni di disinformazione che prendono di mira i loro cittadini.
I criteri apolitici e trasparenti di NewsGuard sono stati applicati dai suoi analisti per valutare le fonti di notizie che rappresentano il 95% del traffico online relativo alle notizie in nove Paesi.