INTELLIGENZA ARTIFICIALE. I saggi chiedono un Time-Out allo sviluppo

134

Elon Musk e gli esperti di intelligenza artificiale chiedono una pausa di sei mesi nell’addestramento di sistemi più potenti di GPT-4. Loro e i capi dell’industria hanno sollecitato un ritardo in una lettera aperta che avverte di potenziali rischi per la società e l’umanità.

La lettera, pubblicata dal Future of Life Institute senza scopo di lucro e firmata da oltre 1.000 persone tra cui Musk, il co-fondatore di Apple Steve Wozniak e il CEO di Stability AI Emad Mostaque, riporta AF.

Chiede una pausa sullo sviluppo avanzato dell’IA fino a quando i protocolli di sicurezza condivisi per tali progetti non saranno sviluppati, implementati e verificati da esperti indipendenti: «I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili», afferma la lettera.

La lettera descriveva anche i potenziali rischi per la società e la civiltà derivanti dai sistemi di intelligenza artificiale competitiva umana sotto forma di interruzioni economiche e politiche e invitava gli sviluppatori a collaborare con i responsabili politici sulla governance e le autorità di regolamentazione.

Il Future of Life Institute si concentra su quattro rischi principali: intelligenza artificiale, biotecnologia, armi nucleari e cambiamento climatico.

«Crediamo che il modo in cui questa potente tecnologia verrà sviluppata e utilizzata sarà il fattore più importante nel determinare le prospettive per il futuro della vita. Questo è il motivo per cui la nostra missione è garantire che la tecnologia continui a migliorare queste prospettive», afferma l’Istituto sul suo sito web.

La lettera è stata resa pubblica mentre lunedì scorso la forza di polizia dell’UE Europol si è unita a un coro di preoccupazioni etiche e legali sull’intelligenza artificiale avanzata come ChatGPT, avvertendo del potenziale uso improprio del sistema nei tentativi di phishing, disinformazione e criminalità informatica.

Dalla sua uscita lo scorso anno, ChatGPT di OpenAI supportato da Microsoft ha scatenato una mania tecnologica, spingendo i rivali a lanciare prodotti e aziende simili per integrarlo o tecnologie simili nelle loro app e prodotti.

«Poiché le capacità di LLM (modelli di linguaggio di grandi dimensioni) come ChatGPT vengono attivamente migliorate, il potenziale sfruttamento di questi tipi di sistemi di intelligenza artificiale da parte dei criminali fornisce una prospettiva cupa», ha affermato Europol presentando il suo primo rapporto tecnico a partire dal chatbot.

Ha individuato l’uso dannoso di ChatGPT in tre aree di criminalità: «La capacità di ChatGPT di redigere testi altamente realistici lo rende uno strumento utile per scopi di phishing», ha affermato Europol.

Con la sua capacità di riprodurre modelli linguistici per impersonare lo stile del discorso di individui o gruppi specifici, il chatbot potrebbe essere utilizzato dai criminali per prendere di mira le vittime, ha affermato l’agenzia di contrasto dell’UE.

Europol ha affermato che la capacità di ChatGPT di sfornare testo dall’apparenza autentica a velocità e scala lo rende anche uno strumento ideale per la propaganda e la disinformazione: «Consente agli utenti di generare e diffondere messaggi che riflettono una narrativa specifica con uno sforzo relativamente ridotto».

I criminali con scarse conoscenze tecniche potrebbero anche rivolgersi a ChatGPT per produrre codice dannoso, ha affermato Europol.

Lucia Giannini

Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW e sul nostro blog Le Spigolature di AGCNEWS: https://spigolatureagcnews.blogspot.com/