L’intelligenza artificiale potrebbe aumentare la diffusione di fake news. Cosa possiamo fare per contrastare questo nuovo e insidioso fenomeno?

Focus ha da poco pubblicato un articolo che evidenzia i risultati di uno studio dell’Università di Berkeley, in California, che mette in guardia su un particolare aspetto delle intelligenze artificiali generative, come ChatGPT.
I risultati della ricerca
Lo studio dell’Università di Berkeley sottolinea un aspetto particolarmente sinistro riguardo all’IA. In primis, è bene ricordare che le intelligenze artificiali generative, come ChatGPT, “pescano” nel web, noto focolare per le fake news, le informazioni che necessitano per soddisfare le nostre richieste. Di conseguenza, il compito di chi usufruisce di tale servizio è porsi , di fronte alle risposte di ChatGPT, in maniera critica e attenta, selezionando e analizzando accuratamente le informazioni ricevute. Lo studio condotto evidenzia un atteggiamento diametralmente opposto: certi utenti con un tasso di istruzione inferiore sono più propensi a credere alle fake news proposte dall’IA, specialmente se già posseggono pregiudizi e convinzioni. In ultima analisi, il risultato dell’utilizzo di queste nuove tecnologie è radicalizzare l’utente nelle sue convinzioni, rendendolo molto meno incline a cambiare idea. Una scoperta che avrebbe dovuto “liberare” l’uomo in termini di tempo e sapere, sta invece avendo l’effetto opposto: renderci immobili, acritici, pigri, creduloni.
Le soluzioni e i provvedimenti del Garante della privacy italiano
Gli scienziati propongono, per ovviare a tali problemi, di implementare nell’IA una componente psicologica, al fine di rendere più umane e meno nette le risposte fornite. La sfida decisiva, in verità, si gioca al livello di educazione e consapevolezza dell’utente che utilizza tali servizi: un’attitudine critica potrebbe già essere sufficiente per ovviare alle lacune di ChatGPT. Ma le problematiche dell’IA non si esauriscono sul piano delle informazioni: c’è anche la questione sicurezza, protagonista di alcune vicende legate al Garante della Privacy italiano. Infatti, in data 30 marzo 2023 il nostro Garante ha emesso un provvedimento atto a limitare in maniera provvisoria l’utilizzo di ChatGPT per i cittadini italiani. Tale decisione è stata dettata da un’incertezza, a mio parere legittima, riguardo la gestione e il trattamento dei dati personali da parte di OpenIA, azienda proprietaria di ChatGPT. Oltre alla poca trasparenza su tale tematica, il nostro garante ha anche evidenziato l’assenza di sistemi per la verifica di età dei minori. Solo in data 28 aprile 2023 ChatGPT è tornato disponibile in Italia, in seguito ad alcuni accordi tra il nostro Garante e OpenIA che si basano su questi punti: divieto di accesso per i minori, promozione di una campagna informativa, possibilità di correzione e cancellazione dei dati personali.
Il futuro tra IA, etica e diritto
Il campo dell’intelligenza artificiale ormai attira l’attenzione di diversi settori, tra cui principalmente l’economia. Infatti, la Banca d’Italia sta implementando i suoi servizi con l’intelligenza artificiale, che farà da supporto per attività di gestione, vigilanza e dialogo col mercato. L’opinione pubblica si divide tra chi è entusiasta delle rivoluzioni tecnologiche e chi, invece, guarda al futuro con spirito incerto e scettico. Senza scadere nei fanatismi, è necessario ricordare che il diritto alla privacy( insieme al diritto all’oblio) è alla base dei diritti fondamentali della persona: essi devono garantire un libero e pieno sviluppo dell’individuo anche in presenza di colossi e imprese tecnologiche. Il loro compito è mantenere l’individuo sovrano di se stesso, proprio come uno Stato deve esserlo riguardo la propria popolazione, legge ed economia. Ecco perché una consistente parte dei cittadini italiani si è trovata d’accordo con i provvedimenti del Garante della Privacy. In ultima analisi, seppur l’UE si sta muovendo verso una regolamentazione più rigida in materia di IA, tocca a noi, singoli individui, rimanere fermi nei nostri diritti e libertà fondamentali, senza cadere arrendevolmente nelle grandi fauci dei colossi big-tech. Per concludere , mi piacerebbe citare Leopardi: “secol superbo e sciocco”. Questa è la frase che andrebbe rivolta a chi crede che il continuo progresso tecnologico si possa tradurre in un’evoluzione morale della società, mentre, il più delle volte, è solo un cieco correre verso un futuro oscuro e annichilente.
