INTELLIGENZA ARTIFICIALE. Rischio esiziale per l’uomo o evoluzione dell’intelligenza?

163

L’intelligenza artificiale rappresenta un rischio esistenziale per l’umanità e deve essere incatenata prima che sia troppo tardi? Ma quali sono questi scenari di disastro e in che modo le macchine potrebbero spazzare via l’umanità?

La maggior parte degli scenari letterari, e quindi filmici su simili disastri iniziano nello stesso modo: le macchine supereranno le capacità umane, sfuggiranno al controllo umano e si rifiuteranno di essere spente, riporta NST.

«Una volta che abbiamo macchine che hanno un obiettivo di autoconservazione, siamo nei guai», ha detto Yoshua Bengio, informatico canadese, noto soprattutto per il suo lavoro sulle reti neurali artificiali e sul deep learning. È professore presso il Department of Computer Science and Operations Research dell’Université de Montréal e direttore scientifico del Montreal Institute for Learning Algorithms.

Ma poiché queste macchine non esistono ancora, immaginare come potrebbero condannare l’umanità è spesso lasciato alla filosofia e alla fantascienza.

Il filosofo Nick Bostrom ha scritto di una “esplosione di intelligenza” che dice accadrà quando macchine superintelligenti inizieranno a progettare macchine proprie.

Ha illustrato l’idea con la storia di un’intelligenza artificiale superintelligente in una fabbrica di graffette. All’intelligenza artificiale viene assegnato l’obiettivo finale di massimizzare la produzione di graffette e quindi «procede convertendo prima la Terra e poi pezzi sempre più grandi dell’universo osservabile in graffette».

Le idee di Bostrom sono state respinte da molti e definite come fantascienza, anche perché separatamente Bostrom ha sostenuto che l’umanità è una simulazione al computer e ha sostenuto teorie vicine all’eugenetica.

Di recente Bostrom si è anche scusato dopo che è stato portato alla luce un messaggio razzista che ha inviato negli anni ’90 del Novecento. Tuttavia, i suoi pensieri sull’intelligenza artificiale sono stati estremamente influenti, ispirando sia Elon Musk che il professor Stephen Hawking.

Se le macchine superintelligenti devono distruggere l’umanità, hanno sicuramente bisogno di una forma fisica. Tutti ricordiamo il cyborg dagli occhi rossi interpretato da Arnold Schwarzenegger, inviato dal futuro per porre fine alla resistenza umana da un’intelligenza artificiale nella saga di The Terminator; quel tipo di macchina è sì un’immagine seducente, ma gli esperti hanno spazzato via l’idea.

«È improbabile che questo concetto di fantascienza diventi realtà nei prossimi decenni, se non mai», ha scritto il gruppo della campagna Stop Killer Robots in un rapporto del 2021. Tuttavia, il gruppo ha avvertito che dare alle macchine il potere di prendere decisioni sulla vita e sulla morte è un rischio esistenziale; come capita col dibattito sui robot killer.

L’esperta di robot, Kerstin Dautenhahn, della Waterloo University in Canada, ha minimizzato queste paure. Ha detto che è improbabile che l’intelligenza artificiale fornisca alle macchine capacità di ragionamento più elevate o le infonda il desiderio di uccidere tutti gli umani, riporta AFP.

«I robot non sono malvagi», ha detto, anche se ha ammesso che i programmatori potrebbero fargli fare cose malvagie. Uno scenario meno apertamente fantascientifico vede “cattivi attori” che usano l’intelligenza artificiale per creare tossine o nuovi virus e scatenarli nel mondo.

Modelli di linguaggio di grandi dimensioni come GPT-3, che è stato utilizzato per creare ChatGPT, risultano essere estremamente bravi a inventare nuovi agenti chimici dagli effetti devastanti.

Un gruppo di scienziati che utilizzavano l’intelligenza artificiale per aiutare a scoprire nuovi farmaci ha condotto un esperimento in cui hanno ottimizzato la loro intelligenza artificiale per cercare invece molecole dannose. Sono riusciti a generare 40.000 agenti potenzialmente velenosi in meno di sei ore, come riportato nella rivista Nature Machine Intelligence.

Joanna Bryson, esperta di intelligenza artificiale della Hertie School di Berlino ha affermato di poter immaginare qualcuno che elabori un modo per diffondere più rapidamente un veleno come l’antrace.

Le regole di Hollywood impongono che i disastri epocali debbano essere improvvisi, immensi e drammatici, ma se la fine dell’umanità fosse lenta, silenziosa e non definitiva?

«La nostra specie potrebbe finire senza successore», afferma il filosofo Huw Price in un video promozionale per il Centro per lo studio del rischio esistenziale dell’Università di Cambridge. Ma ha detto che c’erano “possibilità meno desolate” in cui gli esseri umani potenziati dalla tecnologia avanzata potevano sopravvivere. «Le specie puramente biologiche alla fine finiscono, in quanto non ci sono umani in giro che non hanno accesso a questa tecnologia abilitante», ha detto. L’apocalisse immaginata è spesso inquadrata in termini evolutivi.

Stephen Hawking ha sostenuto nel 2014 che alla fine la nostra specie non sarà più in grado di competere con le macchine di intelligenza artificiale, dicendo alla BBC che potrebbe “significare la fine della razza umana”. Geoffrey Hinton, che ha trascorso la sua carriera costruendo macchine che assomigliano al cervello umano, ultimamente per Google, parla in termini simili di “superintelligenze” che semplicemente sorpassano gli umani. Di recente ha detto all’emittente statunitense PBS che è possibile che “l’umanità sia solo una fase passeggera nell’evoluzione dell’intelligenza”. E adesso poi arriva la nuova fondazione di Elon Musk sull’intelligenza artificiale, sembra quasi un altro blockbuster di fantascienza.

Sembra…

Tommaso Dal Passo

Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW e sul nostro blog Le Spigolature di AGCNEWS: https://spigolatureagcnews.blogspot.com/