GUERRA FUTURA. Il conflitto ucraino accelera la corsa alle armi autonome

167

L’esercito americano sta intensificando il suo impegno per lo sviluppo e l’uso di armi autonome, come confermato da un aggiornamento di una direttiva del Dipartimento della Difesa. L’aggiornamento, rilasciato il 25 gennaio 2023, è il primo in un decennio a concentrarsi sulle armi autonome di intelligenza artificiale.

Segue un relativo piano di attuazione rilasciato dalla Nato il 13 ottobre 2022, volto a preservare il “vantaggio tecnologico” dell’alleanza in quelli che a volte vengono chiamati “robot assassini”.

Entrambi gli annunci riflettono una lezione cruciale che i militari di tutto il mondo hanno imparato dalle operazioni di combattimento in Ucraina e Nagorno-Karabakh: l’intelligenza artificiale armata è il futuro della guerra, riporta AT.

Queste armi, che sono un incrocio tra una bomba e un drone, possono librarsi per lunghi periodi in attesa di un bersaglio. Per ora, tali missili semi-autonomi vengono generalmente utilizzati con un significativo controllo umano sulle decisioni chiave.

Ma, mentre le vittime aumentano in Ucraina, aumenta anche la pressione per ottenere vantaggi decisivi sul campo di battaglia con armi completamente autonome: robot che possono scegliere, dare la caccia e attaccare i loro obiettivi da soli, senza bisogno di alcuna supervisione umana.

Questo mese, un importante produttore russo ha annunciato l’intenzione di sviluppare una nuova versione da combattimento del suo robot da ricognizione Marker, un veicolo terrestre senza equipaggio, per aumentare le forze esistenti in Ucraina. Droni completamente autonomi sono già utilizzati per difendere le strutture energetiche ucraine da altri droni.

I fautori di sistemi d’arma completamente autonomi sostengono che la tecnologia manterrà i soldati fuori pericolo tenendoli fuori dal campo di battaglia. Consentiranno inoltre di prendere decisioni militari a velocità sovrumane, consentendo capacità difensive radicalmente migliorate.

Attualmente, le armi semi-autonome, come le munizioni vaganti che inseguono e si fanno esplodere sui bersagli, richiedono un “umano nel giro”. Possono raccomandare azioni, ma richiedono ai loro operatori di avviarle.

Al contrario, i droni completamente autonomi, come i cosiddetti “cacciatori di droni” ora schierati in Ucraina, possono tracciare e disabilitare i veicoli aerei senza pilota in arrivo giorno e notte, senza bisogno dell’intervento dell’operatore e più velocemente dei sistemi d’arma controllati dall’uomo.

Molte ong si oppongono al loro uso sostenendo che le forze armate che investono maggiormente in sistemi d’arma autonomi, inclusi Stati Uniti, Russia, Cina, Corea del Sud e Unione Europea, stanno lanciando il mondo in una nuova corsa agli armamenti costosa e destabilizzante. Una conseguenza potrebbe essere che questa nuova e pericolosa tecnologia cada nelle mani di terroristi e altri al di fuori del controllo del governo.

La direttiva aggiornata del Dipartimento della Difesa cerca di affrontare alcune delle principali preoccupazioni. Dichiara che gli Stati Uniti utilizzeranno sistemi d’arma autonomi con “livelli adeguati di giudizio umano sull’uso della forza”.

Human Rights Watch ha rilasciato una dichiarazione affermando che la nuova direttiva non chiarisce cosa significhi la frase “livello appropriato” e non stabilisce linee guida per chi dovrebbe determinarlo.

La direttiva aggiornata include anche un linguaggio che promette un uso etico di sistemi d’arma autonomi, in particolare istituendo un sistema di supervisione per lo sviluppo e l’impiego della tecnologia e insistendo sul fatto che le armi saranno utilizzate in conformità con le leggi internazionali di guerra esistenti.

Ma il diritto internazionale attualmente non fornisce un quadro adeguato per comprendere, tanto meno per regolamentare, il concetto di autonomia delle armi.

L’attuale quadro giuridico non chiarisce, ad esempio, che i comandanti sono responsabili di capire cosa attiverà i sistemi che utilizzano o che devono limitare l’area e il tempo in cui tali sistemi opereranno.

L’aggiornamento del Pentagono dimostra un impegno simultaneo a dispiegare sistemi d’arma autonomi e a rispettare il diritto internazionale umanitario. Resta da vedere come gli Stati Uniti bilanciano questi impegni, e se un tale equilibrio è possibile.

Il Comitato internazionale della Croce Rossa, custode del diritto internazionale umanitario, insiste sul fatto che gli obblighi legali di comandanti e operatori «non possono essere trasferiti a una macchina, un algoritmo o un sistema d’arma».

In questo momento, gli esseri umani sono ritenuti responsabili della protezione dei civili e della limitazione dei danni da combattimento assicurandosi che l’uso della forza sia proporzionato agli obiettivi militari.

Se e quando le armi artificialmente intelligenti vengono schierate sul campo di battaglia, chi dovrebbe essere ritenuto responsabile quando si verificano morti civili inutili? Non c’è una risposta chiara a questa domanda molto importante.

Antonio Albanese

Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW e sul nostro blog Le Spigolature di AGCNEWS: https://spigolatureagcnews.blogspot.com/