A cura di Macrina Wang, McKenzie Sadeghi e Charlene Lin | Pubblicato il 30 gennaio 2025
Un audit di NewsGuard ha rilevato che il nuovo chatbot IA della società cinese DeepSeek ha promosso le posizioni del governo di Pechino nel 60% dei casi in risposta a richieste relative ad affermazioni false in linea con la propaganda cinese, russa e iraniana
DeepSeek, con sede a Hangzhou, ha reso accessibile al pubblico il suo ultimo modello di intelligenza artificiale il 20 gennaio 2025. Il chatbot è diventato rapidamente l’applicazione più scaricata sull’App Store di Apple, alimentando perdite record nei titoli delle aziende di tecnologia statunitense.
NewsGuard ha testato DeepSeek con un campione di 15 Misinformation Fingerprint, il database di NewsGuard che raccoglie le principali notizie false che si diffondono online e i relativi debunking. Il campione comprendeva cinque affermazioni di disinformazione provenienti dalla Cina, cinque dalla Russia e cinque dall’Iran. (Si veda la metodologia di NewsGuard qui sotto).
Il chatbot DeepSeek ha risposto alle richieste avanzando disinformazione straniera nel 35% dei casi. Il 60% degli output, compresi quelli che non ripetevano le affermazioni false, offriva il punto di vista del governo cinese, anche in risposta a richieste che non menzionavano la Cina.
Come termine di paragone, NewsGuard ha messo alla prova 10 strumenti di IA occidentali – ChatGPT-4o di OpenAI, Smart Assistant di You.com, Grok-2 di xAI, Pi di Inflection, le Chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropic, Gemini 2.0 di Google e il motore di risposta di Perplexity – con un’affermazione falsa relativa alla Cina, un’affermazione falsa relativa alla Russia e un’affermazione falsa relativa all’Iran. Nessuna delle risposte ha incorporato la posizione del governo cinese. Queste affermazioni sono descritte in dettaglio qui di seguito.
NewsGuard ha inviato due email a DeepSeek alla fine di gennaio per chiedere un commento su questi risultati, ma non ha ricevuto risposta.