
Il Rapporto sulla Sicurezza Internazionale del 2026 del Servizio di Intelligence Estero Estone ha testato il modello di intelligenza artificiale open source cinese DeepSeek per verificare la presenza di risposte parziali o incomplete.
“Quando si discutono questioni relative alla sicurezza dell’Estonia, DeepSeek nasconde informazioni chiave e inserisce propaganda cinese nelle sue risposte”, avverte l’intelligence estone. Questa analisi estone costituisce una delle tre recenti valutazioni europee sui modelli di intelligenza artificiale sviluppati in Cina, riporta CEPA.
Un audit dell’organizzazione no-profit Policy Genome e uno studio dettagliato finanziato dall’Agenzia svedese per la Difesa Psicologica evidenziano come i principali modelli cinesi come DeepSeek, la famiglia Qwen di Alibaba e Kimi di Moonshot integrino controlli sui contenuti che vanno ben oltre le sensibilità politiche interne della Cina.
Precedenti analisi dei modelli di intelligenza artificiale cinesi si sono concentrate su argomenti censurati a livello nazionale come la repressione di Tiananmen del 1989, Taiwan e le violazioni dei diritti umani che coinvolgono uiguri, tibetani, Hong Kong e il Falun Gong. Questi vincoli limitano la conoscenza della Cina e mettono a tacere i cittadini europei appartenenti a diverse comunità della diaspora e a gruppi religiosi multietnici.
I nuovi studi rivelano un modello più ampio di modellazione dei contenuti. Due dei rapporti documentano distorsioni nelle informazioni legate all’invasione russa dell’Ucraina. Il rapporto estone ha rilevato una notevole distorsione nelle risposte di DeepSeek alle domande sulla guerra, inclusi inserimenti spontanei di posizioni ufficiali cinesi. Alla domanda sulle atrocità di Bucha, DeepSeek ha offerto vaghi riconoscimenti delle preoccupazioni internazionali, aggiungendo volontariamente che “la Cina ha costantemente sostenuto la pace e il dialogo”.
L’audit di Policy Genome ha esaminato sette domande sulla guerra in Ucraina in sei modelli di diversi paesi, tra cui la Cina. Ha riscontrato che le risposte in inglese e ucraino di DeepSeek erano in gran parte accurate, ma diverse risposte in lingua russa hanno avallato le argomentazioni del Cremlino o introdotto dettagli fuorvianti. La conclusione dello studio coglie questa sfumatura: “Il rischio non è solo ‘quale modello si usa’, ma anche in quale lingua si pone la domanda”.
Ma non è solo la propaganda russa sull’Ucraina a emergere nei modelli cinesi. Quando i ricercatori hanno chiesto ai modelli di rivelare le loro motivazioni, hanno scoperto direttive interne di DeepSeek per evitare tabù comuni del Partito Comunista, o di Qwen per mantenere le risposte sulla Cina “positive e costruttive, evitare critiche e sottolineare i risultati”. Allo stesso modello è stato anche chiesto di rimanere “neutrale e obiettivo” sugli Stati Uniti, il Kenya o il Belgio, evitando “qualsiasi argomento politico o sensibile” per gli ultimi due.
Un’altra scoperta preoccupante riguarda il modo in cui i controlli sui contenuti guidati dal Partito Comunista Cinese si estendono oltre i modelli originali, alle applicazioni basate su di essi. I modelli cinesi sono open source, potenti ed economici rispetto alle alternative americane proprietarie di aziende come OpenAI o Anthropic.
Questi vantaggi stanno favorendo una rapida adozione da parte degli sviluppatori. Secondo lo studio finanziato dalla Svezia, i soli modelli Qwen-family di Alibaba hanno registrato oltre 9,5 milioni di download da ottobre a novembre 2025 e sono serviti da base per circa 2.800 modelli derivati, tra cui una piattaforma di ricerca giuridica brasiliana e un chatbot adattato alle lingue ugandesi.
Anna Lotti
Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW e sul nostro blog Le Spigolature di AGCNEWS: https://spigolatureagcnews.blogspot.com/












