Nota “Antiqua et Nova” sull’intelligenza artificiale: “Distinguerla dall’intelligenza umana”

Guerra, disinformazione, concentrazione del potere nelle mani di pochi: sono alcuni dei rischi delle applicazioni dell’intelligenza artificiale analizzati nella nota della Santa Sede, che esamina anche le implicazioni dell’IA in ambiti quali economia, finanza, lavoro, sanità ed educazione

Nota “Antiqua et Nova” sull’intelligenza artificiale: “Distinguerla dall’intelligenza umana”

“Distinguere il concetto di intelligenza in riferimento all’IA e all’essere umano”. È l’obiettivo principale della Nota “Antiqua et Nova”, sul rapporto tra IA e intelligenza umana, elaborata dal Dicasteri per la dottrina della fede e per la cultura e l’educazione. Nel testo, “si considera la prospettiva cristiana sull’intelligenza umana, offrendo un quadro generale di riflessione fondato sulla tradizione filosofica e teologica della Chiesa”, per poi proporre “alcune linee guida allo scopo di assicurare che lo sviluppo e l’uso dell’IA rispettino la dignità umana e promuovano lo sviluppo integrale della persona e della società”. Usare la parola “intelligenza” sia in riferimento all’intelligenza umana che all’IA significa arrivare a “mettere in ombra la stessa persona umana”, il monito della Santa Sede riguardo all’’approccio funzionalista,  “secondo la quale le persone sono valutate in base ai lavori che possono svolgere”. Ma il valore di una persona non dipende “dal possesso di singolari abilità, dai risultati cognitivi e tecnologici o dal successo individuale, bensì dalla sua intrinseca dignità fondata sull’essere creata a immagine di Dio”.

Il problema, allora, è “come assicurare che i sistemi di IA siano ordinati al bene delle persone e non contro di esse”, attraverso “un uso etico dei sistemi di IA” che “chiama in causa innanzitutto coloro che li sviluppano, producono, gestiscono e supervisionano, una tale responsabilità è condivisa anche dagli utenti”.

I rischi della guerra. “Mentre le capacità analitiche dell’IA potrebbero essere impiegate per aiutare le nazioni a ricercare la pace e a garantire la sicurezza, l’utilizzo bellico dell’intelligenza artificiale può essere assai problematico”, il riferimento al tragico scenario attuale.

“Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano”:

per la Santa Sede, la tecnologia dell’IA può rappresentare un “rischio esistenziale”, in quanto dà alla guerra “un potere distruttivo incontrollabile, che colpisce molti civili innocenti”, senza risparmiare nemmeno i bambini. “Le atrocità già commesse nel corso della storia umana bastano a suscitare profonde preoccupazioni circa i potenziali abusi dell’IA”, il grido d’allarme del testo: “Per evitare che l’umanità precipiti in spirali di autodistruzione, è necessario assumere una posizione netta contro tutte le applicazioni della tecnologia che minacciano intrinsecamente la vita e la dignità della persona umana”. Tale impegno richiede “un attento discernimento sull’uso dell’IA, in particolare circa le applicazioni di difesa militare, per garantire che sempre rispetti la dignità umana e sia al servizio del bene comune”.

Fake news e deep fake. “Esiste un serio rischio che l’IA generi contenuti manipolati e informazioni false, i quali, essendo molto difficili da distinguere dai dati reali, possono facilmente trarre in inganno”. E’ quanto si legge nella Nota, in cui si mette in guardia da fake news e deep fake, le cui conseguenze possono essere molto gravi. “Tutti coloro che producono ed utilizzano l’IA dovrebbero impegnarsi per la veridicità e l’accuratezza delle informazioni”, l’appello contro la disinformazione e a favore di una regolamentazione per non alimentare la polarizzazione politica e il malcontento sociale. Senza contare la tutela della privacy: “non possiamo permettere che gli algoritmi limitino o condizionino il rispetto della dignità umana”.

No al “paradigma tecnocratico”. Per la Santa Sede,

“il fatto che attualmente la maggior parte del potere sulle principali applicazioni dell’IA sia concentrato nelle mani di poche potenti aziende solleva notevoli preoccupazioni etiche”.

“Tali entità, motivate dai propri interessi, possiedono la capacità di esercitare forme di controllo tanto sottili quanto invasive, creando meccanismi di manipolazione delle coscienze e del processo democratico”. Oltre a ciò, c’ è il rischio che l’IA venga utilizzata per promuovere quello che Papa Francesco ha chiamato “paradigma tecnocratico”, il quale “intende risolvere tendenzialmente tutti i problemi del mondo attraverso i soli mezzi tecnologici”. “Piuttosto che limitarsi a perseguire obiettivi economici o tecnologici – la proposta della Santa Sede –  l’IA dovrebbe essere usata in favore del bene comune dell’intera famiglia umana”.

Economia e lavoro. “Consegnare l’economia e la finanza totalmente nelle mani della tecnologia digitale” è un rischio da evitare. Contrariamente ai benefici dell’IA che vengono pubblicizzati, “gli attuali approcci alla tecnologia possono paradossalmente dequalificare i lavoratori, sottoporli a una sorveglianza automatizzata e relegarli a funzioni rigide e ripetitive”.

“L’IA sta eliminando la necessità di alcune attività precedentemente svolte dagli esseri umani. Se viene usata per sostituire i lavoratori umani piuttosto che per accompagnarli, c’è il rischio sostanziale di un vantaggio sproporzionato per pochi a scapito dell’impoverimento di molti.

Inoltre, man mano che l’IA diventa più potente, c’è anche il pericolo associato che il lavoro perda il suo valore nel sistema economico”.

No a una “medicina per ricchi”. L’IA rischia di rafforzare il modello di una “medicina per i ricchi”, l’altra denuncia del testo, in cui si osserva che “le

persone provviste di mezzi finanziari traggono beneficio da strumenti avanzati di prevenzione e da informazioni mediche personalizzate, mentre altri riescono a fatica ad avere accesso persino ai servizi di base”.

Di qui la necessità di “quadri equi di gestione per garantire che l’utilizzo dell’IA nell’assistenza sanitaria non aggravi le disuguaglianze esistenti, ma sia al servizio del bene comune”. In campo educativo, il pericolo è di “un’accresciuta dipendenza degli studenti dalla tecnologia, intaccando la loro capacità di svolgere alcune attività in modo autonomo e un peggioramento della dipendenza dagli schermi”.

Copyright Difesa del popolo (Tutti i diritti riservati)
Fonte: Sir