logo Fucinaidee

ChatGPT, l'intelligenza artificiale può danneggiare la vita reale

di Giuditta Mosca

L’Intelligenza artificiale generativa ChatGPT sta attraversando una prevedibile fase delicata. A farne le spese sono stati Brian Hood, sindaco di un piccolo centro australiano e il professor Jonathan Turley della George Washington University, implicati loro malgrado in episodi di cronaca dei quali non sono mai stati protagonisti. Hood, dice il Washington Post, è intenzionato a portare in tribunale OpenAI, l’azienda che ha creato ChatGPT. Come mai è accaduto? Si può evitare in futuro? Cerchiamo di capire partendo da una rapida incursione in ChatGPT.

Cosa fa ChatGPT

È un’Intelligenza artificiale generativa che usa il web come risorsa. Si pone una domanda e ChatGPT cerca la risposta tra lo scibile umano e questo è un problema. Non si sa da dove attinga e ciò significa che può formulare risposte consultando siti di fake news o comunque risorse web inaffidabili.
Allo stesso modo, ChatGPT genera contenuti. Gli si può chiedere di inventare una storia sui gatti oppure di riassumere la Divina Commedia e, ancora una volta, non si ha la certezza che i risultati siano plausibili.

ChatGPT e il rischio diffamazione

Brian Hood è stato accostato a un episodio di corruzione che ha coinvolto una filiale della Reserve Bank of Australia. Il sindaco in passato ha effettivamente lavorato per una filiale della medesima banca ed è stato colui il quale ha denunciato la corruzione alle autorità. ChatGPT ha trovato il suo nome online accostato all’episodio fraudolento e ne ha tratto conclusioni tanto imprecise da risultare diffamatorie. Il professor Turley invece è stato inserito da ChatGPT in un elenco di molestatori sessuali. La cosa si fa ancora più interessante: ChatGPT cita un articolo pubblicato nel 2018 dal Washington Post nel quale si parla del fatto che durante una gita scolastica in Alaska, Turley avrebbe molestato una studentessa. L’articolo citato da ChatGPT non è mai stato pubblicato e Turley non è mai andato in gita in Alaska.
OpenAI, per il momento almeno, non esprime pareri chiari e fa sapere di indicare ovunque che ChatGPT può generare risposte sbagliate.

Privacy e fantasia

Alla fine del mese di marzo del 2023 il Garante italiano ha esortato OpenAI a mettere dei paletti perché non tutelerebbe i più elementari principi per la difesa della privacy. Un problema che ha ricadute serie e che rischia di bloccare l’avanzata tecnologica delle Intelligenze artificiali, non esenti da criticità e, proprio per questo, dovrebbero potere essere supportate per facilitarne il miglioramento costante e continuativo.
ChatGPT crea, nel senso che genera contenuti, questo non giustifica i pericoli che ne derivano ma occorre considerarli ineluttabili. Ogni rivoluzione scientifica e tecnologica ha un prezzo da pagare: le automobili a guida autonoma hanno già fatto vittime e ne faranno ancora, la storia dei trapianti di organi non conosce soltanto successi e, per raggiungere lo stato attuale, le terapie-antitumorali sono state migliorate correggendo gli errori passati.

Come rimediare

Le Intelligenze artificiali vengono istruite con dei dati. ChatGPT usa il web, è quindi necessario limitare il numero di risorse a cui attinge per funzionare e non è cosa facile, perché bisogna decidere quali ritenere attendibili e quali no. Neppure Wikipedia è sempre attendibile e altre risorse non sono aggiornate con la stessa frequenza dell’enciclopedia libera. I media possono essere imprecisi e molti siti - anche se altamente specializzati - possono essere a loro volta forieri di notizie non puntuali.

(da Il Giornale - 11 aprile 2023)

Torna all'indice dei documenti
Torna alla prima pagina