ChatGpt, un rastrello del web. L'intelligenza artificiale genera linguaggio attingendo a tanti siti
L’illusione è di avere un umano dall’altro lato dello schermo, ma il chatbot basato su intelligenza artificiale altro non è che un generatore di linguaggio che attinge da numerosi siti internet per dare risposte quanto più esaustive. Quello che non si sa è che persone impiegate a 1-2 euro all’ora scandagliano la rete per individuare siti violenti, pornografici o semplicemente inaffidabili dai quali le macchine non devono “pescare” dati e parole
Uno strumento dal potenziale enorme, frutto però della creatività umana, dalla quale non può essere separato nemmeno per un momento. Queste in breve le caratteristiche dell’intelligenza artificiale secondo il fisico Roberto Battiston, ospite lo scorso 21 novembre del Centro Universitario di via Zabarella nell’ambito dei martedì culturali, la serie di appuntamenti mensili che quest’anno è dedicata alle tante forme che può assumere l’intelligenza. Così dopo quella umana, oggetto durante il primo incontro tenutosi in ottobre dell’intervento del filosofo evoluzionista Telmo Pievani, stavolta si è parlato di algoritmi e calcolatori, con un occhio di riguardo ai nuovi generatori di linguaggio come ChatGpt. «La prima volta che l’ho provato non mi ha fatto dormire la notte – ha esordito il fisico, che oggi insegna all’Università di Trento dopo aver presieduto, dal 2014 al 2018, l’Agenzia spaziale italiana – All’inizio si ha davvero l’impressione di interagire con qualcuno: più che di uno scambio vero e proprio si tratta però di illusionismo». È il cosiddetto effetto “Eliza” (dal nome del chatbot, un software progettato per simulare una conversazione con un essere umano, sviluppato nel 1966 da Joseph Weizenbaum al Mit di Boston), secondo il quale se qualcosa utilizza il nostro linguaggio siamo naturalmente portati a presumere che sia anche intelligente. Da questo dipendono il successo ma anche i dubbi generati da questa nuova tecnologia. I miti però vanno analizzati e, quando è il caso, smontati: secondo Battiston «ChatGpt è a tutti gli effetti una sorta di rastrello, scandaglia tutto il web per raccogliere informazioni. Funziona benissimo ma non è certo un umanoide: l’intelligenza è in chi lo ha inventato». Cosa c’è però dietro al generatore di linguaggio al momento più conosciuto e usato? Chat significa chiacchiera, discorso superficiale, mentre Gpt sta per Generative Pre-trained Transformer, ovvero “trasformatore generativo pre-addestrato”: «Generativo perché produce parole, pre-allenata significa che attinge da una montagna di parole dalle dimensioni inimmaginabili, in una parola l’intero web, e le incamera associandole a criteri numerici che ne indicano ricorrenza e probabilità. Infine trasformativa, nel senso che dispone di un sistema che le permette di “ricordare” i precedenti passaggi del dialogo; guarda insomma indietro alle parole già dette per generare una per una le successive: il contrario di quello che facciamo noi umani, che argomentiamo avendo già in mente il punto al quale vogliamo portare il discorso».
La linguistica computazionale, alla base del funzionamento di questi sistemi, assembla insomma il linguaggio in modo probabilistico, mettendo insieme frasi sulla base di quello che trova su internet. Opera insomma come “un cervello senza mente”, come lo ha definito lo studioso americano Chris Dede, oppure senz’anima né autocoscienza, come sostiene il nostro Federico Faggin, padre del primo microprocessore. Secondo Battiston sistemi come i generatori di linguaggio al momento si limitano ad assemblare «senza originalità una sintesi di cose già dette in contesti simili o diversi. Fanno apparire, su base probabilistica, le infinite varianti possibili del discorso che stiamo portando avanti: per questo danno sempre risposte diverse ed è anche così difficile trovare chi le usa, per esempio per fare i compiti di scuola o per partecipare a concorsi». C’è inoltre un altro punto, che spesso viene ignorato: se l’intelligenza artificiale non è propriamente intelligente, essa non è nemmeno completamente artificiale, come dice la studiosa americana Kate Crawford. «Dietro nasconde migliaia di umani, impiegati a 1-2 euro all’ora soprattutto nei Paesi in via di sviluppo, che fanno quello che in gergo si dice data tagging, ovvero scandagliare internet per individuare siti violenti, pornografici o semplicemente inaffidabili dai quali le macchine non devono “pescare” dati e parole. Queste macchine saranno sempre più potenti ma avranno sempre bisogno di umani non solo per essere ispirate, ma anche per essere sorvegliate e all’occorrenza corrette. In sé quello che dice ChatGpt non è né vero né falso, è semplicemente plausibile».
Tutto a posto allora? Possiamo dormire sonni tranquilli, appurato che i computer non possono ancora farci concorrenza? Niente affatto: l’Ai (Artificial Intelligence) ha comunque un potenziale enorme con il quale tutti dovremo prima o poi fare i conti. Già oggi i generatori robotici sono incredibili moltiplicatori di risorse ed energie in specifici settori, come la traduzione di testi e soprattutto la programmazione: «Basta fare la domanda giusta e ChatGpt può generare in pochi istanti migliaia di righe di codice per realizzare un sito, un programma, un’app o un’animazione. Bisogna però saper dare al computer le istruzioni giuste, sintetiche e precise; per questo bisogna mettere in discussione anche gli obiettivi e i metodi di studio nelle scuole e nelle università: in America sono già attivi i corsi di prompt engineering, letteralmente “l’ingegneria del fare domande”». Soprattutto però ci sono due grandi problemi con l’Ai generativa. La prima è che essa tende naturalmente alla standardizzazione, a soffocare le voci difformi e propagare i pregiudizi. ChatGpt è tutt’altro che inclusiva, per lei quello che non c’è nel web semplicemente non esiste: intere parti del mondo, culture, persone che non hanno un collegamento. C’è infine un’altra questione, gravissima, messa in evidenza in questi giorni dalle lotte di potere al vertice di OpenAi, che ha da poco licenziato per ragioni alquanto misteriose Sam Altman, il padre di ChatGpt: «Chi possiede una bomba può usarla male, con l’aggravante che in questo caso si tratta non di governi ma di un club ristretto di miliardari potentissimi – conclude il fisico Roberto Battiston – Mi fa paura che una tecnologia così potente, dalle applicazioni ancora in parte inesplorate e comunque fondamentali, sia in mano a così poche persone».
Gli incontri a cura del Centro Universitario
#Intelligenze, la serie dei martedì culturali 2023-24 organizzati dal Centro Universitario di via Zabarella a Padova, prosegue con l’incontro dedicato alle “intelligenze diverse” e sarà tenuto da suor Veronica Donatello, responsabile del servizio disabilità della Cei. L’appuntamento è per il 12 dicembre alle 18.30.