Governare l’IA è azione di pace
L'assurdo della guerra, poi, che nell'immediato ci mostra distruzione e vittime di armamenti supportati dall'intelligenza artificiale, fa riflettere ulteriormente: è possibile declinare ogni responsabilità, attribuendola alla macchina, confidando che la stessa sia infallibile e anche attraverso gli errori può apprendere? Tornano in mente le parole che Hal 9000, il freddo calcolatore del film 2001 Odissea nello spazio pronunciava di fronte a chi richiedeva di essere ascoltato: “Le mie responsabilità coprono tutte le operazioni dell'astronave quindi sono perennemente occupato”
Un nuovo anno si apre, ma all’insegna della guerra. Il susseguirsi degli avvenimenti sembra avere creato la convinzione che il conflitto sia l’unico strumento per regolare i rapporti tra i popoli e tra le nazioni. Tutto questo mentre la pace, invocata e desiderata, si allontana dal cuore degli uomini prima ancora che dai negoziati della diplomazia o dalle attività che istituzioni nazionali e organismi internazionali mettono in atto perché le armi possano tacere. Ucraina, Palestina e Medio Oriente, Myanmar, Etiopia, Yemen…le vittime della guerra sono in aumento, e con loro cresce l’abitudine fino all’indifferenza. Quasi che tutto rientri in una quotidiana normalità.
Ad aggravare lo scenario è il dato che si combatte abbandonando quei comportamenti che paradossalmente definivamo “corretti”, lasciando spazio ad una volontà di potenza che supera divieti, aggredisce, sparge terrore, usa risposte e mezzi sproporzionati, non distingue più tra obiettivi militari e civili inermi. Quanto maturato dalla coscienza internazionale, spesso dopo eccidi, genocidi e distruzioni di massa, è ormai dimenticato. Al suo posto l’azione militare sempre più si affida a nuove tecnologie, a sofisticate forme di intelligenza che se sono il culmine di ricerche e risultati tecnico-scientifici, evidenziano l’assenza di responsabili a cui attribuire gli effetti della loro applicazione, liquidati come “effetti collaterali”.
Siamo nell’era dell’intelligenza artificiale, è indubbio. Qualcosa che riguarda certamente i conflitti, anzi ne determina la condotta e gli esiti, ma che ha ormai invaso e pervaso anche la nostra quotidianità. Per alcuni l’IA ha toccato le aspirazioni più profonde ad una tecnologia illimitata, per altri il desiderio di profitti sempre più consistenti, per altri ancora ha fatto sorgere la speranza che attraverso sistemi sofisticati qualcuno possa… pensare al posto nostro. Non è più l’eterno contrapporsi tra il desiderio della conoscenza e il reale dell’umano, quanto piuttosto una illimitata fiducia verso una realtà che se non riesce a risolverci tutti i problemi quantomeno ci esime dalle responsabilità rispetto ad atti e fatti. E così, avvolti nel virtuale, restiamo testimoni di un modo di operare che sostituisce il risultato al pensiero in nome di una programmazione, di un sistema di apprendimento e di attività che coinvolge i valori basilari dell’azione umana (è forse troppo parlare di bene e male?), e finanche determina le modalità del sapere.
Di qui la riflessione posta dal Messaggio per la Giornata mondiale della pace che apre questo 2024, nella quale Papa Francesco ci invita non ad uno sterile rifiuto di tutto ciò che può essere realmente sussidiario all’agire umano, ma ci immette nel rapporto intrinseco dell’IA con l’idea di pace.
I processi di pace hanno certamente bisogno di ogni tipo di apporto, sostegno, intelligenza, ma come dice Francesco essi debbono scaturire dal cuore dell’uomo e non possono quindi limitarsi a tecnologie che per quanto sofisticate hanno i loro limiti negli interessi più svariati e nelle attenzioni di chi vuole aumentare soltanto il proprio spazio di potere, le proprie sfere di influenza o compiere un passo di supremazia sull’altro, escludendolo o emarginandolo.
Riconoscendo il positivo di ciò che la ricerca e la tecnologia producono dando impeto e nuova linfa alla scienza, l’invito del Messaggio è governare il processo. L’intelligenza artificiale, come ogni altra situazione che si propone nella vita delle persone, degli Stati e dell’intera Comunità internazionale, non è frutto di improvvisati disegni, ma segue la logica tipica di ogni processo nel quale si accomunano e spesso si confondono intuizioni, studio, conoscenza e previsione degli effetti nel concreto del vivere sociale.
Per questo, come ogni altra realtà, anche l’IA va governata attraverso strumenti che possono nascere all’interno degli Stati, di loro raggruppamenti (ne è esempio la recente regolamentazione dell’Unione europea). È lo sforzo necessario di fronte ad un fenomeno non ancora esploso nella sua completezza e soprattutto non ancora visibile nel suo potenziale e, almeno nella generalità dei casi, in tutti gli effetti possibili, praticabili e di supporto. L’idea del Messaggio di Papa Francesco di una regolamentazione internazionale mediante appositi atti normativi è una modalità da percorrere nell’obiettivo di governance, pur sapendo che potrà incontrare le stesse difficoltà emerse di fronte alla proposta di regole internazionali per governare la rete. Anche nel caso dell’IA, infatti, ad essere toccati sono interessi particolari, investimenti, impegni economici, ritorni in termini finanziari, ma anche commercio e flussi di armamenti, sistemi di alleanze e risposte di blocco rispetto ai conflitti ed alle possibilità di pace.
Tutto ciò che è autenticamente umano va letto, valutato e riportato nella quotidianità dell’agire della famiglia umana, come insegna la dottrina sociale della Chiesa. Ma questo richiede non soltanto di valutarne gli effetti ma di governarne l’uso, ponendo cioè degli obiettivi e soprattutto rendendo ogni nuova situazione come possibile strumento di azioni solidali. Un agire che coinvolga e non crei ulteriori divisioni, visto che i divari tra persone, comunità, paesi sono già tanti, troppi.
L’assurdo della guerra, poi, che nell’immediato ci mostra distruzione e vittime di armamenti supportati dall’intelligenza artificiale, fa riflettere ulteriormente: è possibile declinare ogni responsabilità, attribuendola alla macchina, confidando che la stessa sia infallibile e anche attraverso gli errori può apprendere? Tornano in mente le parole che Hal 9000, il freddo calcolatore del film 2001 Odissea nello spazio pronunciava di fronte a chi richiedeva di essere ascoltato: “Le mie responsabilità coprono tutte le operazioni dell’astronave quindi sono perennemente occupato”.
Vincenzo Buonomo