IA. Aperta la “faida” tra Anthropic e il Pentagono sull’etica di Claude

62

Secondo esperti legali e funzionari della Difesa USA, la decisione del Pentagono di etichettare i modelli di intelligenza artificiale di Anthropic come “rischio per la supply chain” non reggerebbe in tribunale e potrebbe comportare un’ondata di costose sentenze legali. La decisione Hegseth è state definita “dubbia” dal punto di vista legale, nel migliore dei casi e “ideologica” nel peggiore.

La decisione di impedire praticamente a qualsiasi azienda che collabora con il Dipartimento della Difesa di collaborare anche con Anthropic potrebbe avere effetti devastanti per l’azienda di intelligenza artificiale. Anthropic si affida a provider di cloud computing su larga scala come Amazon Web Services per addestrare modelli e ospitare servizi, in questa maniera né AWS né Google Cloud potrebbero più ospitare Anthropic, riporta Defense One.

La posizione del Pentagono è che consentire alle aziende private di dettare al Pentagono i termini di utilizzo dei propri prodotti potrebbe creare rischi o ritardi per i soldati durante le operazioni. La dichiarazione di Hegseth suggerisce che la designazione di rischio per la catena di approvvigionamento derivi dalla convinzione che “la posizione di Anthropic sia fondamentalmente incompatibile con i principi americani”, piuttosto che da un fallimento del modello nel funzionare come progettato, da informazioni trapelate o da una vulnerabilità tecnica.

La designazione del Pentagono, accompagnata dalla minaccia contro i partner aziendali e commerciali di Anthropic, potrebbe esporre il Pentagono a cause legali da parte di tutti gli attori coinvolti, se venisse dimostrato che il rischio non esiste

Questo perché la definizione di ciò che costituisce un rischio per la catena di approvvigionamento non spetta all’Amministrazione, è una questione di legge: in particolare il Titolo 10, Sezione 3252 che si occupa di qualsiasi tipo di potenziale sabotaggio, della creazione di una backdoor in un sistema informatico, o di uno qualsiasi di questi rischi. Secondo gli esperti, questa situazione non sta esprimendo un rischio in tal senso.

Un funzionario della Difesa che valuta specificamente la catena di approvvigionamento e altre potenziali minacce di intelligence ha dichiarato che “non ci sono prove di rischio per la catena di approvvigionamento” dal modello di Anthropic. Il funzionario ha definito la designazione “ideologicamente motivata”.

E gli appaltatori della Difesa che obbediscono alle richieste dell’amministrazione e interrompono i rapporti con l’azienda potrebbero esporsi a cause legali, pur non avendo emesso personalmente il divieto. Anthropic ha promesso di rivolgersi alla giustizia, qualora la designazione Hegseth diventasse ufficiale.

La situazione rappresenta una significativa escalation su quello che è un disaccordo filosofico. La “posizione” in questione si riferisce alle garanzie preferite da Anthropic per l’uso dell’IA, garanzie che vietano l’uso del modello per ipotetiche armi autonome e la sorveglianza di massa della popolazione statunitense. Si tratta di due casi d’uso che “non sono mai stati inclusi nei nostri contratti con il Dipartimento della Difesa” e “riteniamo che non dovrebbero esserlo ora”, ha affermato l’azienda in una dichiarazione del 26 febbraio scorso.

L’apparente mossa di danneggiare l’azienda sta già raffreddando i rapporti tra il Pentagono e le aziende tecnologiche che sta cercando di attrarre, visto proprio l’insussistenza delle “accuse” del Pentagono. 

Tommaso Dal Passo

Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW e sul nostro blog Le Spigolature di AGCNEWS: https://spigolatureagcnews.blogspot.com/