GUERRA FUTURA. Come sarà l’IA militare

116

I delegati di 60 paesi si sono incontrati la scorsa settimana fuori Washington e hanno scelto cinque nazioni per guidare una iniziativa comune per esplorare nuovi sistemi di sicurezza per l’intelligenza artificiale militare e sistemi automatizzati.

Il Canada, partner dei “Five Eyes”, il Portogallo, paese della NATO, il Bahrein, alleato Usa del Medio Oriente, e l’Austria paese neutrale si uniranno agli Stati Uniti nel raccogliere feedback internazionali per una seconda conferenza globale il prossimo anno, in quella che secondo i rappresentanti del Dipartimento della Difesa e di Stato Usa rappresenta un settore vitale del governo statunitense per salvaguardare l’intelligenza artificiale, riporta Breaking Defense.

Con la proliferazione dell’intelligenza artificiale negli eserciti di tutto il pianeta, dai droni d’attacco russi ai comandi combattenti americani, l’amministrazione Biden sta creando una spinta globale per “un uso militare responsabile dell’intelligenza artificiale e dell’autonomia”. Questo è il titolo di una dichiarazione politica formale rilasciata dagli Stati Uniti 13 mesi fa alla conferenza internazionale REAIM dell’Aia. Da allora hanno aderito altre 53 nazioni.

La settimana scorsa, i rappresentanti di 46 di questi governi (compresi gli Stati Uniti), più altri 14 paesi osservatori che non hanno ufficialmente approvato la Dichiarazione, si sono incontrati fuori Washington per discutere come attuare i suoi dieci principi generali; ciò non significa imporre gli standard statunitensi ad altri paesi con culture strategiche, istituzioni e livelli di sofisticazione tecnologica molto diversi.

Oltre 150 rappresentanti provenienti da 60 paesi hanno trascorso due giorni in discussioni e presentazioni, l’agenda si è sì ispirata ampiamente all’approccio del Pentagono all’intelligenza artificiale e all’automazione, dai principi etici dell’intelligenza artificiale adottati sotto la presidenza Trump al lancio dello scorso anno di un programma responsabile online; m a l’arena è stata aperta e alla fine i paesi hanno formato tre gruppi di lavoro per approfondire i dettagli dell’attuazione.

Gruppo Uno: Assicurazione. Gli Stati Uniti e il Bahrein guideranno insieme il gruppo di lavoro “assicurazione”, focalizzato sull’attuazione dei tre principi tecnicamente più complessi della Dichiarazione: che l’intelligenza artificiale e i sistemi automatizzati siano costruiti per “usi espliciti e ben definiti”, con “test rigorosi, ” e “protezioni adeguate” contro guasti o “comportamenti non intenzionali” – incluso, se necessario, un kill switch in modo che gli esseri umani possano spegnerlo.

Gruppo due: Responsabilità. Mentre gli Stati Uniti applicano la loro immensa competenza tecnica al problema, altri paesi si concentreranno sugli aspetti personali e istituzionali della salvaguardia dell’IA. Canada e Portogallo co-condurranno il lavoro sulla “responsabilità”, incentrato sulla dimensione umana: garantire che il personale militare sia adeguatamente formato per comprendere “le capacità e i limiti” della tecnologia, che disponga di una documentazione “trasparente e verificabile” che spieghi come funziona. funziona e “prestano la dovuta attenzione”.

Gruppo tre: Supervisione. Nel frattempo, l’Austria (senza un co-responsabile, almeno per ora) guiderà il gruppo di lavoro sulla “supervisione”, esaminando questioni politiche di ampio respiro come la richiesta di revisioni legali sul rispetto del diritto umanitario internazionale, la supervisione da parte di alti funzionari e eliminazione di “pregiudizi involontari”.

Cosa potrebbe significare nella pratica l’attuazione di questi principi astratti? Forse la creazione di enti simili al Responsible AI Toolkit online del Pentagono, parte di una spinta del Chief Digital & AI Officer, Cdao, del Dipartimento della Difesa per sviluppare strumenti accessibili al pubblico e persino open source strumenti per implementare la sicurezza e l’etica dell’IA.

L’amministrazione Biden ha emesso un ampio ordine esecutivo sull’uso federale dell’intelligenza artificiale in ottobre, ha aderito alla Dichiarazione di Bletchley sulla sicurezza dell’intelligenza artificiale guidata dal Regno Unito a novembre e, proprio la settimana scorsa, ha convinto l’Assemblea generale delle Nazioni Unite ad approvare all’unanimità una risoluzione guidata dagli Stati Uniti che richiedeva un’intelligenza artificiale “sicura, protetta e affidabile” per lo sviluppo sostenibile.

Ma l’amministrazione cerca anche di mantenere distinte le discussioni civili e militari. Ciò è in parte dovuto al fatto che l’intelligenza artificiale militare è più controversa, con molti che chiedono un divieto legale vincolante sui “sistemi di armi autonome letali” su cui gli Stati Uniti, i suoi alleati e avversari come Russia e Cina, vorrebbero avere un certo margine di manovra di sviluppo.

I due binari vogliono essere paralleli ma complementari. C’è ancora bisogno di forum distinti in cui diversi tipi di persone possano discutere i diversi aspetti dell’intelligenza artificiale. Le Nazioni Unite riuniscono tutti i paesi su tutte le questioni. Le conferenze sull’intelligenza artificiale militare come REAIM includono attivisti e altri gruppi non governativi. Ma il valore della Dichiarazione Politica e del suo processo di attuazione è che si tratta di governi che dialogano con altri governi, in particolare riguardo alle applicazioni militari, e a porte chiuse.

Luigi Medici 

Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW e sul nostro blog Le Spigolature di AGCNEWS: https://spigolatureagcnews.blogspot.com/