Intelligenza Artificiale: il caso ChatGPT

di Olga Corsini, Giorgio Diana, Tommaso La Comba, Luca Musolino, Aurora Trambusti
– Nuove Tecnologie

Image by rawpixel.com on Freepik

L’uomo è nato per progredire e la nostra intelligenza ci ha portati dove siamo oggi. Ma ora l’uomo guarda più in alto e più lontano: sogna tecnologie sempre più avanzate che migliorino la sua vita, sogna lo spazio e altri mondi simili al nostro; sogna di programmare macchine che gli assomigliano e che, proprio come lui, pensino ed imparino. E così, tra questi sogni, troviamo l’intelligenza artificiale (IA).

Si può pensare che l’intelligenza artificiale sia qualcosa di lontano dalle nostre vite, ma non è così: gli assistenti virtuali, come Alexa o l’assistente Google, fanno chiamate, mandano messaggi al nostro posto, ci indicano il percorso più veloce per andare a un appuntamento, ci suggeriscono le attrazioni turistiche della zona in cui ci troviamo. Inoltre, se le applicazioni sono collegate agli apparecchi domestici, basta pronunciare il loro nome ed esse provvedono ad accendere o spegnere le luci di casa, azionare la lavatrice o alzare il volume della televisione.

Chat GPT

Il programma di Intelligenza Artificiale più celebre di cui si è maggiormente sentito parlare negli ultimi mesi è Chat GPT (Generative Pre-trained Transformer). Si tratta  di uno strumento di elaborazione del linguaggio naturale che utilizza avanzati algoritmi di apprendimento automatico per generare risposte simili a quelle umane in un discorso.

In poco tempo Chat GPT è diventata famosa e ha portato all’apertura di molte controversie sul suo uso. Nel mese di gennaio di quest’anno le scuole dello stato di New York hanno bloccato l’accesso al servizio della chat per  timore che gli studenti potessero utilizzare il programma  per  copiare durante gli esami. Notizia degli ultimi giorni è che in Italia il servizio è stato temporaneamente disattivato perché ritenuto non rispettoso della legge sulla privacy italiana.

Quanta confusione per una scoperta così recente!

Rischio o sicurezza?

Il pensiero che un domani la macchina possa sostituire l’uomo sembra essere sempre più che verosimile. Come già teorizzato da numerosi studiosi, nei prossimi decenni sarà inevitabile una sostituzione dell’uomo in alcune mansioni da parte dell’intelligenza artificiale, in quanto più precisa ed efficiente su molti orizzonti.

Questa nuova tecnologia, in grado di svolgere mansioni così tipicamente umane, è per alcune persone motivo di forte inquietudine. Pensare che un computer possa sostituire l’essere umano  porta a interrogativi profondi riguardo al rapporto tra tecnologia e umanità.

L’argomento è stato affrontato da Noam Chomsky, intellettuale americano, il quale si è dichiarato altamente scettico, affermando che “la mente umana non è, come Chat GPT, un goffo motore statistico per la corrispondenza di schemi, che si rimpinza di centinaia di terabyte di dati ed estrapola la risposta conversazionale più probabile o la risposta più probabile a una domanda scientifica. Al contrario”, sostiene Chomsky, “la mente umana è un sistema sorprendentemente efficiente ed elegante che opera con piccole quantità di informazioni; cerca di non inferire correlazioni brute tra punti dati ma di creare spiegazioni”.

Informazioni affidabili?

L’intelligenza artificiale è una risorsa importante, però bisogna ricordare che è un campo ancora poco esplorato e quindi ancora al massimo delle sue potenzialità.

Il problema principale sta nella sua affidabilità, visto che non è sempre puntuale. Molte persone, infatti, riscontrano inesattezze, anche nei calcoli matematici, come ci testimonia la professoressa Loretta Cardosi del Liceo Federigo Enriques di Livorno. Chiedendo di risolvere un’equazione al programma può capitare che l’IA, in questo caso Chat GPT, dia inizialmente un risultato sbagliato e successivamente quello giusto. Questa inesattezza è stata riscontrata anche in altri ambiti.

Utilizzando Chat GPT abbiamo avuto modo di sperimentare questa problematica in prima persona, registrando imprecisioni talvolta grossolane, in quasi ogni risposta fornita dal programma.

Ad esempio, chiedendo a Chat GPT  se potesse raccontare “La novella delle Papere” di Boccaccio, la risposta è stata la seguente: “La novella racconta la storia di un uomo di legge di nome Messer Ciappelletto. Messer Ciappelletto era un uomo molto disonesto e corrotto, che aveva fatto fortuna grazie alle sue malefatte…”, notiamo già un primo errore, data la confusione fatta con la novella di Ser Ciappelletto.

E, andando avanti nella lettura, la situazione è andata peggiorando: “…Un giorno, un gruppo di mercanti toscani si recò a Colonia, dove era sepolta la salma di Messer Ciappelletto, per pagare il loro tributo al Santo. Durante la visita, tuttavia, le papere che vivevano nelle vicinanze del sepolcro cominciarono a gracchiare rumorosamente, come a voler denunciare la vera natura del defunto…”. Il programma si è inventato una storia piuttosto che ammettere di non conoscere l’argomento: che immaginazione Chat GPT!

Dati questi eventi, possiamo renderci conto che in una società bombardata di notizie dalle fonti discutibili, Chat GPT rischia di essere potenzialmente un diffusore di fake news. Bisogna dunque imparare a utilizzare questa nuova tecnologia, ponderando attentamente le sue applicazioni a seconda del contesto.

Questi riscontri portano a fare delle riflessioni circa l’utilizzo dell’IA, che come abbiamo visto ha molto margine di miglioramento e deve essere oggetto di continua supervisione umana. L’intelligenza artificiale si pone quindi come uno strumento che può aiutare il lavoro dell’uomo, rendendolo più veloce, senza tuttavia rimpiazzarlo.