INTELLIGENZA ARTIFICIALE. Potenzialità e rischi secondo il MIT USA

44
Screenshot

Fin dalla sua nascita e dalla sua crescente accessibilità al pubblico, l’IA ha sollevato preoccupazioni generali sul suo potenziale di causare danni e sul suo utilizzo per scopi dannosi, oltre che l’interesse per la sue potenzialità apparentemente senza limiti. 

Potenzialità già esplorate da decenni di letteratura fantascientifica sull’argomento. 

All’inizio della sua adozione, lo sviluppo dell’IA ha spinto importanti esperti a chiedere una pausa nei progressi e normative più severe a causa del suo potenziale di rappresentare rischi significativi per l’umanità, riporta EuroNews.

Nel tempo, sono emersi nuovi modi in cui l’IA potrebbe causare danni, che vanno dalla pornografia deepfake non consensuale, alla manipolazione dei processi politici, alla generazione di disinformazione dovuta ad “allucinazioni”.

Con il crescente potenziale di sfruttamento dell’IA per scopi dannosi, un gruppo di ricercatori ha esaminato vari scenari in cui i sistemi di IA potrebbero “fallire”.

Di recente, il gruppo FutureTech del Massachusetts Institute of Technology (MIT), in collaborazione con altri esperti, ha compilato un nuovo database di oltre 700 potenziali rischi, The AI Risk Repository

Sono stati classificati in base alla loro causa e categorizzati in sette domini distinti, con le principali preoccupazioni relative a sicurezza, pregiudizi e discriminazioni e problemi di privacy.

Qui di seguito i cinque modi in cui i sistemi di intelligenza artificiale potrebbero fallire e potenzialmente causare danni in base a questo database MIT.

5. La tecnologia deepfake dell’intelligenza artificiale potrebbe rendere più facile distorcere la realtà.

Con l’avanzare delle tecnologie di intelligenza artificiale, avanzano anche gli strumenti per la clonazione vocale e la generazione di contenuti deepfake, rendendoli sempre più accessibili, convenienti ed efficienti.

Queste tecnologie hanno sollevato preoccupazioni sul loro potenziale utilizzo nella diffusione di disinformazione, poiché gli output diventano più personalizzati e convincenti.

Di conseguenza, potrebbe esserci un aumento di sofisticati schemi di phishing che utilizzano immagini, video e comunicazioni audio generate dall’intelligenza artificiale.

“Queste comunicazioni possono essere adattate ai singoli destinatari (a volte includendo la voce clonata di una persona cara), rendendole più propense ad avere successo e più difficili da rilevare sia per gli utenti che per gli strumenti anti-phishing”, si legge nel comunicato. Ci sono stati anche casi in cui tali strumenti sono stati utilizzati per influenzare i processi politici, in particolare durante le elezioni, come in India o in Francia ad esempio.

In quanto tale, l’IA potrebbe essere sempre più utilizzata per generare e diffondere propaganda persuasiva o disinformazione, manipolando potenzialmente l’opinione pubblica.

4. Gli esseri umani potrebbero sviluppare un attaccamento inappropriato all’IA

Un altro rischio posto dai sistemi di IA è la creazione di un falso senso di importanza e affidamento in cui le persone potrebbero sopravvalutare le sue capacità e minare le proprie, il che potrebbe portare a un’eccessiva dipendenza dalla tecnologia.

Oltre a ciò, gli scienziati temono anche che le persone possano essere confuse dai sistemi di IA a causa del loro uso di un linguaggio simile a quello umano. Ciò potrebbe spingere le persone ad umanizzare l’IA, commessi fa con gli animali ad esempio, con conseguente dipendenza emotiva e maggiore fiducia nelle sue capacità, rendendole più vulnerabili alle debolezze dell’IA in “situazioni complesse e rischiose per le quali l’IA è solo superficialmente attrezzata”.

Inoltre, la costante interazione con i sistemi di IA potrebbe anche far sì che le persone si isolino gradualmente dalle relazioni umane, portando a disagio psicologico e un impatto negativo sul loro benessere.

3. L’IA potrebbe privare le persone del loro libero arbitrio

Nello stesso dominio dell’interazione uomo-computer, un problema preoccupante è la crescente delega di decisioni e azioni all’IA man mano che questi sistemi avanzano.

Sebbene questo possa essere utile a livello superficiale, un eccessivo affidamento all’IA potrebbe portare a una riduzione del pensiero critico e delle capacità di risoluzione dei problemi negli esseri umani, il che potrebbe fargli perdere la propria autonomia e diminuire la loro capacità di pensare in modo critico e risolvere i problemi in modo indipendente.

A livello personale, gli individui potrebbero vedere il loro libero arbitrio compromesso quando l’IA inizia a controllare le decisioni relative alle loro vite.

Mentre a livello sociale, l’adozione diffusa dell’IA per svolgere compiti umani potrebbe comportare un significativo spostamento del lavoro e “un crescente senso di impotenza tra la popolazione generale”.

2. L’IA potrebbe perseguire obiettivi che si scontrano con gli interessi umani

Un sistema di IA potrebbe sviluppare obiettivi che vanno contro gli interessi umani, il che potrebbe potenzialmente far sì che l’IA disallineata vada fuori controllo e infligga gravi danni nel perseguimento dei propri interessi.

1. Se l’IA diventasse senziente, gli esseri umani potrebbero maltrattarla

Man mano che i sistemi di IA diventano più complessi e avanzati, c’è la possibilità che possano raggiungere la sensibilità, la capacità di percepire o provare emozioni o sensazioni, e sviluppare esperienze soggettive, tra cui piacere e dolore.

In questo scenario, scienziati e regolatori potrebbero trovarsi di fronte alla sfida di determinare se questi sistemi di IA meritino considerazioni morali simili a quelle date a esseri umani, animali e ambiente.

Il rischio è che un’IA senziente potrebbe subire maltrattamenti o danni se non vengono implementati i diritti appropriati.

Tuttavia, con l’avanzare della tecnologia dell’IA, diventerà sempre più difficile valutare se un sistema di IA ha raggiunto “il livello di sensibilità, coscienza o autoconsapevolezza che gli garantirebbe uno status morale”.

Quindi, i sistemi di IA senzienti potrebbero essere a rischio di essere maltrattati, accidentalmente o intenzionalmente, senza i diritti e le protezioni appropriati.

Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW e sul nostro blog Le Spigolature di AGCNEWS: https://spigolatureagcnews.blogspot.com/

Anna Lotti