A quanto pare le traveggole, gli stati di allucinazione progressiva, non li hanno solo gli essere umani, ma anche le intelligenze artificiali, cioè gli algoritmi. È un po’ il kipple di Philip Kindred Dick.
Uno studio recente sui risultati dell’intelligenza artificiale ha creato preoccupazione per il fatto che errori, “allucinazioni” e risultati di bassa qualità dell’IA potrebbero minare la fiducia nei contenuti creati dalle macchine.
Alcuni esperti temono che il problema sia così serio, dati i recenti risultati e il fatto che le macchine ora traducono la maggior parte dei dati e dei report in più lingue, che eroderà la fiducia del pubblico nei contenuti scritti e illustrati e in Internet stessa, riporta AF.
Il gruppo di ricerca britannico delle università di Oxford e Cambridge ha riscontrato un preoccupante calo della qualità, chiamato “crollo del modello”, nei prodotti IA quando hanno deciso di testare gli strumenti IA su materiale già generato da bot di IA o Large Language Model. Cioè le macchine andava a lavorare solo su materiale già creato da altre macchine.
Lo studio pubblicato su Nature a luglio scorso ha scoperto che quando il software di IA generativa si basa esclusivamente su contenuti creati dalle macchine, le sue risposte iniziano a mancare il bersaglio dopo due richieste. Al quinto tentativo, si erano degradate in modo significativo e, dopo una nona richiesta, si sono concluse in un guazzabuglio senza valore.
“Abbiamo scoperto che l’uso indiscriminato di contenuti generati da modelli nella formazione causa difetti irreversibili nei modelli risultanti, in cui le code della distribuzione dei contenuti originali scompaiono. Chiamiamo questo effetto “crollo del modello””, hanno affermato i ricercatori.
Lo studio del Regno Unito mostra che l’IA perde il “contatto con la realtà”, per ragioni non ancora del tutto note, e si perde. I risultati degli strumenti di IA generativa sono importanti perché più della metà del testo in rete, il 57%, è stato tradotto tramite un algoritmo di IA, secondo un altro rapporto pubblicato a giugno e realizzato da ricercatori di AWS AI Labs, UC Santa Barbara e Amazon.
I modelli di IA, per il gruppo britannico, hanno bisogno di accedere a un flusso di contenuti prodotti dall’uomo per diventare sostenibili a lungo termine e quindi efficaci.
Antonio Albanese
Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW e sul nostro blog Le Spigolature di AGCNEWS: https://spigolatureagcnews.blogspot.com/