GUERRA FUTURA. Cyborg, IA e guerra. L’Etica è nei leader politici non nelle macchine

117

Il Segretario alla Difesa degli Stati Uniti Lloyd Austin vuole che il Dipartimento della Difesa faccia un’intelligenza artificiale (AI) “nel modo giusto”, anche se la Cina non lo fa. Parlando alla Commissione di sicurezza nazionale sull’intelligenza artificiale Austin ha detto: «Il nostro uso dell’IA deve rafforzare i nostri valori democratici, proteggere i nostri diritti, garantire la nostra sicurezza e difendere la nostra privacy».

Austin sembra crederci, riporta Asia Times ma l’etica della guerra, praticata dagli Stati Uniti o dai suoi alleati o dagli avversari, è nei soldati e nei loro comandanti, non in una serie di algoritmi.

Se non è possibile il rispetto dell’etica della guerra senza IA, è difficile farlo con l’IA. I ministeri della Difesa di tutto il mondo sono ansiosi di avere sistemi militari con l’IA. Basandosi sul successo della sorveglianza e dei droni armati e sulla loro crescente importanza in combattimento, Stati Uniti, Israele, Russia e Cina sono tutti alla ricerca di sistemi di combattimento autonomo.

Cioè macchine in grado di svolgere un compito senza una persona nel circuito. Un drone può essere inviato a distruggere un obiettivo senza alcun sistema di comunicazione o controllo al di fuori dell’arma stessa.

L’autonomia, tuttavia, permette solo a un’arma di fare il lavoro per cui è programmata. L’IA fa prendere decisioni all’arma. In alcuni casi, sembra abbastanza semplice.

Durante il conflitto di Gaza a maggio, Israele sostiene di aver lanciato e operato un grande sciame di droni che erano gestiti da IA. Secondo recenti rapporti, i droni coprivano ciascuno un’area di sorveglianza preselezionata ed erano in grado di inviare le coordinate alle brigate di armi e mortai per attaccare gli obiettivi selezionati. Si dice che la tecnologia sia stata sviluppata dall’Unità 8200 dell’esercito israeliano, specializzata in intelligence dei segnali.

Gli Stati Uniti stanno lavorando su un certo numero di veicoli autonomi che vanno dai sistemi terrestri alle navi navali di superficie e subacquee fino agli aerei autonomi di rifornimento. Lo US Army, per esempio, sta aggiungendo la capacità IA ai veicoli terrestri, compresi i carri armati che alla fine saranno in grado di coordinarsi con i droni di sorveglianza e selezionare le strade disponibili più sicure, prevedere dove possono essere i blocchi e prendere automaticamente azioni alternative, riporta Asia Times.

Questi sistemi sono costruiti sulla tecnologia civile sviluppata in Israele, come Waze, e negli Stati Uniti, nei veicoli a guida autonoma. Alcuni di questi sistemi sono usati nel prendere di mira e uccidere i terroristi usando droni e missili Hellfire. Gli Stati Uniti lo stanno facendo da molti anni, con notevole successo, ma hanno colpito bersagli sbagliati.

Quando si arriva al “futuro soldato” nascono i problemi. Per rendere il futuro soldato efficace, deve eliminare le minacce percepite prima che le minacce lo eliminino; quindi, il soldato non è effettivamente un cyborg, ma le sue capacità stanno raggiungendo un livello di capacità cyborg.

Non c’è motivo di credere che un sistema guidato dall’AI sia migliore o peggiore di un sistema puramente umano. Inoltre, in un complesso ambiente di combattimento, l’AI potrebbe fare un lavoro migliore degli umani stressati che combattono per la loro vita. Può essere programmata per obbedire ad alcune regole “etiche”, in particolare quando si tratta di civili in un ambiente di combattimento, ma i comandanti possono scoprire che questa programmazione interferisce con la missione se le limitazioni “etiche” incorporate mettono in pericolo i combattenti.

È praticamente impossibile rendere l’IA “etica”, ma è possibile e assolutamente essenziale fare pressione sui leader militari e civili per agire in modo etico e scatenare le armi solo quando è giustificato ed essenziale per la nostra sicurezza.

Mentre l’intelligenza artificiale etica può essere un mito, leader etici non sono affatto un mito.

Luigi Medici