GUERRA FUTURA. Smart Phone con IA: comfort Zone o manipolazione? Dual use della call to action

35

Da quando Russia e Stati Uniti per interposta persona, Ucraina, hanno di nuovo alzato la Cortina di Ferro, la questione della disinformazione, dei suoi meccanismi, o della manipolazione delle informazioni è tornata di gran moda senza pensare che di fatto nella disinformazione o manipolazione ci viviamo tutti i giorni. 

Il metodo attraverso algoritmi e intelligenza artificiale che consente alle aziende di indurci a comprare ha un nome molto simpatico : “call to action” e ne siamo tutti vittime. La “call to action” significa persuadere le persone a compiere un’azione, acquistare un prodotto o accedere ad un servizio, rendendo ancora più efficaci Programmatic Advertising, Marketing Automation e Customer Care: sostanzialmente significa applicare l’Intelligenza Artificiale nel Marketing. 

Esempi per i non addetti ai lavori: cercare un paio di scarpe on line, avere di ritorno per “x” giorni tutte le proposte di scarpe simili a quelle che stavate cercando; parlare con un’amica di un hotel raccomandato da amici per le vacanze e scoprire che sui tuoi social ci sono solo pubblicità di hotel con le caratteristiche e la zona di provenienza di quello da te citato al cellulare in una conversazione. 

Ai nostri smart phone è stato insegnato dall’algoritmo e ora dalla IA a compiacerci, ai fini della vendita e del comfort e così nascono le app specializzate che fanno quello che una volta facevi benissimo da solo: cercano un ristorante, profilano una mappa per un percorso, ti consigliano le 10 cose più belle da vedere in vacanza. Tutto, tutto quello che vi viene in mente l’algoritmo lo può fare più velocemente e può ricercare in data base che voi nemmeno immaginate, e quindi vi risponde e vi compiace. Poi abbiamo gli assistenti che se abbiamo dei problemi e l’IA non ha risposto come vorremmo, ci aiutano, implementano dunque la capacità compiacerci.

In un articolo di digital4.biz si legge: “Dalle evidenze dell’ultimo censimento effettuato dagli Osservatori del Politecnico di Milano emerge che, ad oggi, la maggior parte delle progettualità legate all’impiego degli algoritmi AI nelle aziende riguarda le aree dell’assistenza clienti operata attraverso assistenti virtuali e chatbot. In particolare, i chatbot sono utilizzati da ben l’81% delle organizzazioni e sono, quindi, parecchio diffusi come pure gli assistenti vocali (83%). Cresce, tuttavia, l’interesse verso i sistemi di raccomandazione per l’eCommerce, in virtù dell’efficacia dimostrata “sul campo” – un utente su quattro, secondo quanto dichiarato dagli intervistati, ha finalizzato un nuovo acquisto online dopo aver ricevuto un consiglio mirato”. Insomma più è bravo il consigliere IA più le aziende vendono. 

Nello stesso articolo: “Si chiama invece Artificial Intelligence Marketing (AI Marketing) il Marketing che usa l’Intelligenza Artificiale per interagire con i clienti, migliorare la comprensione del mercato e delle persone e suggerire – più rapidamente dell’uomo – le azioni da intraprendere per affinare le tecniche di persuasione”.

“L’Intelligenza Artificiale nel Marketing sfrutta le più moderne tecnologie che rientrano nell’ambito dell’AI, come Machine Learning e Nlp – Natural Language Processing, integrate a tecniche matematiche/statistiche (come quelle delle reti bayesiane, modello grafico probabilistico che rappresenta un insieme di variabili con le loro dipendenze condizionali) e di Marketing comportamentale (behavioral targeting). Il tutto con un obiettivo molto chiaro e diretto: migliorare la capacità di persuasione per portare gli utenti a “convertire” la “call to action” aziendale, ossia a compiere un’azione che genera valore per l’utente stesso, ma che ha un risvolto positivo anche per l’azienda”. 

E se questo per il marketing IA è il risvolto positivo, si vende di più facendo scegliere al cliente; c’è l’altra faccia della medaglia: se cerco informazioni su Hamas, il mio algoritmo IA cercherà di compiacermi e mi parlerà di Hamas, se poi il mio orientamento è filo palestinese mi proporrà su tutti i miei social solo la questione del conflitto in corso in chiave Hamas. La macchina mi deve compiacere e quindi sceglie per me le notizie che mi piacciono. Di fatto tutto quello che ha da dire Israele sulla questione rimane fuori dalla mia sfera di informazione e viceversa naturalmente. In questo modo si vanno creando nuove divisioni sociali: noi e loro. Ritorniamo al 0-1; 0-0; 1-1 del linguaggio booleano, mentre nella vita ci sono in ogni istante almeno 3.000 diverse possibili scelte, come insegna il buddismo. 

Situazioni intellettualmente molto pericolose perché poi quei noi e loro, una volta profilati con i giusti messaggi, possono essere animati e esposti a scelte apparentemente personali, ma di fatto indotte senza conoscere fino in fondo le questioni per cui si stanno scontrando con l’altro. 

Un esempio eclatante è stata la questione COVID 19. I no vax e pro vax si sono arrabbiati gli uni contro gli altri e tutti adducevano – parliamo di social sfera e non di dati scientifici – gli uni contro gli altri, le notizie che apparivano nella propria social sfera. Il tutto spesso senza avere basi scientifiche né da una parte né dall’altra semplicemente fidandosi della loro comfort zone algoritmica. La macchina alla fine ti dice sempre quello che vuoi sapere. 

La comfort zone può dunque essere un Grande Fratello a cui nessuno di noi può sfuggire. E se nel marketing per ovviare alla “call to action” ci basta spegnere il telefonino e fare una passeggiata per negozi, diventa più difficile sfuggire alla auto manipolazione che ci creiamo nella bolla informativa

Oramai le notizie che vengono dalla social sfera sono anche accompagnate spesso da deepfake, fotografie manipolate, che esperti del settore infilano nella nostra bolla informata per avvallare la “correttezza” della informazione che leggiamo e che noi abbiamo chiesto alla macchina di trovarci e a quel punto convinti di avere ragione perché abbiamo informazioni e foto al seguito iniziamo la nostra battaglia per perorare cause che in realtà sono nella migliore delle ipotesi parzialmente veritiere. 

Tra gli esempi più eclatanti di “call to action” non applicata al Marketing: ci sono le campagne elettorali che hanno come obiettivo quello di convincerci a votare per un candidato piuttosto che per un altro. Attraverso i social media le aziende che possono comprare i nostri dati da altre “aziende specializzate” a cui noi abbiamo dato il consenso di raccogliere dati personali attraverso il “sì” ai cookie daranno un primo profilo della nostra vita: maschio, femmina, transgender, omosessuale, lesbica; tendente a destra o sinistra o incerto; vegano, vegetariano, onnivoro; magro, grasso, normale; e così via. La profilazione della nostra personalità è semplicissima: chi di noi non ha una app sulla salute dove abbiamo inserito a richiesta dati personali; chi di noi non ha mai partecipato a un sondaggio, una raccolta firme, un programma di dimagrimento o tonificazione, chi di noi non ha mai interpellato il cellulare per una ricetta di cucina? 

Se avete risposto sì a tutte le domande siete stati profilati e siete pronti anche per essere manipolati da voi stessi e da coloro he hanno fatto della “persuasione on line” un mestiere. L’educazione all’uso della IA non dovrebbe essere ad appannaggio delle sole aziende che devono vendere – qualsiasi sia il prodotto – ma dovrebbe diventare una materia scolastica dove tutti noi dovremmo avere l’opportunità di imparare a interrogare l’IA senza essere vittime di manipolazioni. 

Graziella Giangiulio

Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW e sul nostro blog Le Spigolature di AGCNEWS: https://spigolatureagcnews.blogspot.com/