Intelligenza artificiale. Don Pasqualetti (Ups): “Attenzione ai gruppi di potere, senza regolamentazione gravi conseguenze”
"Dobbiamo temere i padroni della Rete, non gli strumenti. Il potere informativo e l'asimmetria di conoscenza di dati che hanno le multinazionali del digitale rispetto a noi utenti, ma anche ai governi, è talmente sproporzionata che risulta difficile ipotizzare una regolamentazione". Ne è convinto don Fabio Pasqualetti, decano della Facoltà di Scienze della comunicazione sociale dell'Università pontificia salesiana e consultore del Dicastero per la Comunicazione
“I social media, che funzionano anche grazie ad algoritmi e sistemi di intelligenza artificiale, stanno procurando danni a livello sociale, politico ed economico. È un territorio in cui non c’è stata regolamentazione: internet è partito come grande utopia di democratizzazione del mondo e libertà di espressione, ma è passato nelle mani delle multinazionali del digitale che fanno i loro interessi. E poi ci sono anche competizioni più complesse come quella feroce sulla ricerca e lo sviluppo dell’intelligenza artificiale tra Stati Uniti e Cina. Chi può fermare cosa?”. Se lo domanda don Fabio Pasqualetti, decano della Facoltà di Scienze della comunicazione sociale dell’Università pontificia salesiana e consultore del Dicastero per la Comunicazione, all’indomani dell’appello di mille esperti per una moratoria di almeno 6 mesi nell’addestramento dei sistemi avanzati di intelligenza artificiale e della sospensione di ChatGpt in Italia per iniziativa del Garante della privacy.
C’è un rischio reale di arrivare allo “scenario Terminator” in cui l’intelligenza artificiale, dotata di coscienza e capacità cognitive superiori a quelle umane, metterà a rischio la nostra sopravvivenza?
Non deve preoccupare l’intelligenza artificiale, ma i gruppi di potere che la gestiscono. ChatGpt, ad esempio, è un sistema assolutamente stupido di per sé che non sa nemmeno quello che scrive. Ma chi decide cosa fargli fare e cosa no? Come mai, ad esempio, risponde a certe domande e ad altre no?
Dobbiamo temere i padroni della Rete, non gli strumenti. Il potere informativo e l’asimmetria di conoscenza di dati che hanno le multinazionali del digitale rispetto a noi utenti, ma anche ai governi, è talmente sproporzionata che risulta difficile ipotizzare una regolamentazione.
Per questo lo “scenario Terminator” non ha senso ad oggi. Lo avrà quando andremo a pasticciare con la vita, combinando intelligenza artificiale e ingegneria biogenetica. Allora bisognerà preoccuparsi, perché la vita non la puoi spegnere.
La partita sull’intelligenza artificiale si gioca anche a livello geopolitico. È in ballo la sopravvivenza dei grandi imperi?
È in gioco il futuro delle nazioni, il dominio dei prossimi secoli come potenze economiche, politiche, strategiche. È evidente che la posta è enorme. Tutte le guerre di questi tempi, oltre ad essere per procura, sono anche geopolitiche. L’investimento è imponente: pensiamo ai droni che vengono utilizzati, alle cyberwar che sono in atto. Si tratta di sistemi ad altissima tecnologia. Ci preoccupiamo di scenari irrealizzabili, e non vediamo quello che incombe: lo scenario catastrofico è rappresentato dai cambiamenti climatici. Sarebbe bello che l’intelligenza artificiale lavorasse per trovare soluzioni.
Chi è in grado di controllare queste dinamiche?
Ad oggi nessuno. E il danno di sistemi non controllati riguarda soprattutto le nuove generazioni.
Continuiamo a dire che i social sono una benedizione e lo sarebbero, se fossero fuori da un contesto economico di competizione finalizzato a fare soldi.
Nell’attuale ambiente, invece, i social creano grandi dipendenze, soprattutto nei più fragili, e lasciano diffondere fake news o peggio. Pensiamo a Cambridge Analytica, alla Brexit o alle elezioni statunitensi.
È diventata virale in questi giorni la foto di Papa Francesco con un lungo piumino bianco alla moda, prodotta da una start-up che sfrutta l’intelligenza artificiale per creare immagini irreali o fake. Ma è davvero questo l’unico rischio di queste tecnologie?
La diffusione di fake news funziona in maniera proporzionale all’incapacità critica di valutare l’informazione. E la sovrabbondanza di notizie che abbiamo tramite i sistemi digitali e l’affidamento a supporti esterni per la memoria cognitiva stanno indebolendo la nostra capacità di comprendere la realtà.
L’iperindividualismo e il narcisismo sociale ci chiudono in noi stessi, ci rendono incapaci di dialogo e di confronto, rendendoci vulnerabili. E quindi più predisposti, ad esempio, a proposte di tipo complottivo e a soluzioni facili.
La logica commerciale domina. Siamo in una cultura del tutto facile e immediato. Ma non è così: la vita non è così, la politica non è così.
L’intelligenza artificiale può contribuire a cambiare la comprensione che l’uomo ha di se stesso e del mondo?
L’uomo è techne. Ci umanizziamo attraverso lo sviluppo tecnologico e raccontiamo l’umanità che siamo. Anche la Rete, nel bene e nel male, ci restituisce la nostra umanità. Abbiamo sviluppato così tante bombe atomiche da distruggere il pianeta, ma non abbiamo ancora compreso che siamo passeggeri in un mondo in cui dovremmo prenderci cura gli uni degli altri. C’è uno scarto paradossale: da una parte il progresso scientifico e di conoscenza, dall’altra i deliri di onnipotenza.
La Chiesa non può disinteressarsi di questioni che interessano così da vicino l’uomo e il suo futuro…
La Chiesa ha un messaggio di fratellanza universale che è assolutamente urgente: siamo tutti figli della madre terra, di questa casa comune che è l’unica che abbiamo perché – almeno per ora! – non possiamo permetterci di traslocare. Solo attraverso la cooperazione e la condivisione, l’accoglienza e la cura di questa casa possiamo prospettare un futuro per le nuove generazioni. Negli ultimi cento anni abbiamo divorato il pianeta.
E non pensiamo che le tecnologie digitali siano a impatto zero: hanno un consumo energetico estremamente impattante.
Da cristiani dobbiamo coltivare l’algoritmo della comunicazione dell’incontro, sulla scorta degli ultimi tre messaggi di Francesco. Uscire, incontrare le persone dove e come sono, ascoltare e parlare con il cuore. Non tutti saranno disposti ad accoglierci, perché il mistero del male fa parte della nostra creaturalità. Ma scegliere di amare le persone non vuol dire costringere gli altri ad amarci.
E proprio il Papa, ricevendo in udienza i firmatari della “Rome Call for A.I. Ethics”, ha chiesto un “passo significativo” per promuovere un’antropologia digitale con tre coordinate fondamentali: “l’etica, l’educazione e il diritto”.
L’educazione è fondamentale. Eppure don Milani metteva in guardia: per educare bisogna avere idee chiare sulla società e sulla politica, L’educazione non è astratta, si incarna all’interno di valori sociali e umani ben precisi. Quanto all’etica, attenzione a non scaricarla sempre sull’utente. L’etica deve essere progettuale, deve implicare le politiche industriali che portano alla creazione degli oggetti. Molte dipendenze che nascono dai social sono by design, come il feed delle notizie.
C’è una volontà non etica, di sfruttamento, che viene esercitata. Non basta il buon uso! Quando una cosa è perversa e chi è esposto non ha una capacità culturale adeguata, si viene presi all’amo.
Infine, il diritto va esercitato ma non deve fermarsi alla difesa delle persone: bisogna applicare una regolamentazione che chiami le persone a collaborare nella gestione del bene comune.