Giornata Mondiale della Pace 2024

«Inclusione, trasparenza, sicurezza, equità, privacy e responsabilità»

È curioso che Francesco abbia dedicato il Messaggio per la 57a Giornata mondiale della pace, 1° gennaio 2024 (anche se pubblicato l’8 dicembre 2023), al tema “Intelligenza artificiale e pace”. Perché? Ebbene, perché oggi l’umanità è dilaniata da innumerevoli conflitti bellici, come la guerra nella Striscia di Gaza o in Ucraina. Ma non sono gli unici luoghi: attorno a Natale 170 cristiani – nuovi “santi innocenti” – sono stati assassinati nella Nigeria centrale, oppure in Messico continuano le stragi perpetrate da gruppi legati al narcotraffico. Perché allora concentrarsi su Intelligenza Artificiale e Pace?

Inoltre, quando si analizza il documento, si scopre che nella sua brevità – appena 8 paragrafi – è molto più ambizioso di un semplice appello alla pace. Evidenzia ovviamente i rischi per la pace posti dall’intelligenza artificiale e invita a utilizzarla per costruire percorsi di pace. Ma la portata dei suoi contenuti è più ampia, e rappresenta di fatto una buona sintesi dei precedenti documenti magisteriali su questo nuovo tema. Costituisce un modo per inserire l’IA all’interno di un testo magisteriale di altissimo grado e tradizione, come il Messaggio per la celebrazione della 57a Giornata Mondiale della Pace.

Il documento si impegna a mantenere un delicato equilibrio tra le possibilità e i pericoli posti dall’intelligenza artificiale. Fa parte di una realtà: il suo emergere nella storia e nel mondo non può tornare indietro. Con questa premessa ci invita a usarlo bene e ci mette in guardia dai pericoli di un suo uso improprio.

Per quanto riguarda i pericoli derivanti dall’utilizzo dell’intelligenza artificiale in campo militare, Francisco sottolinea quanto segue:

“La possibilità di condurre operazioni militari attraverso sistemi di controllo remoto ha portato ad una minore percezione della devastazione che hanno causato e della responsabilità nel loro utilizzo, contribuendo ad un approccio ancora più freddo e distante all’immane tragedia della guerra. La ricerca di tecnologie emergenti nel campo dei cosiddetti “sistemi d’arma autonomi letali”, compreso l’uso dell’intelligenza artificiale in guerra, è una delle principali fonti di preoccupazione etica. “I sistemi d’arma autonomi non possono mai essere soggetti moralmente responsabili… Né possiamo ignorare la possibilità che armi sofisticate finiscano nelle mani sbagliate, facilitando, ad esempio, attacchi terroristici o azioni volte a destabilizzare le legittime istituzioni governative”.

Tra gli aspetti da evidenziare nel nuovo documento di Francesco c’è la sua insistenza sul fatto che i progressi scientifico-tecnologici non sono “neutri”, il che equivale a dire che hanno un’intenzionalità, sono al servizio di determinati interessi culturali ed economici, politici o ideologico. Per questo godono di una dimensione etica.

La prospettiva etica ci dice che maggiore è il potere, maggiore è la responsabilità. Per questo motivo “le questioni etiche dovrebbero essere prese in considerazione fin dall’inizio della ricerca, così come nelle fasi di sperimentazione, pianificazione, distribuzione e commercializzazione”. Sicurezza, pace, bene comune, rispetto della dignità umana, richiedono che l’etica accompagni lo sviluppo dei sistemi di IA durante tutto il loro sviluppo.

D’altra parte c’è il problema di determinare: quale etica? Sappiamo infatti che esistono numerosi modelli morali. Francisco è senza dubbio impegnato in una proposta antropologica umanista che sostiene l’etica necessaria per gestire l’IA. Per questo “gli sviluppi tecnologici che non portano a un miglioramento della qualità della vita di tutta l’umanità, ma, al contrario, aggravano le disuguaglianze e i conflitti, non possono essere considerati vero progresso”. Progresso e umanesimo vanno di pari passo e sono il risultato del non perdere di vista lo scopo di ogni sviluppo tecnologico: la persona umana.


Alcuni esempi di come l’IA può giocare contro la dignità umana: “In futuro, l’affidabilità di chi chiede un prestito, l’idoneità di un individuo a un lavoro, la possibilità di recidiva di un condannato o il diritto di ricevere asilo politico oppure l’assistenza sociale potrebbe essere determinata da sistemi di intelligenza artificiale”. Sono anche “conseguenze negative legate al loro uso improprio, alla discriminazione, all’ingerenza nei processi elettorali, all’attuazione di una società che monitora e controlla le persone, all’esclusione digitale e all’intensificazione di un individualismo sempre più disconnesso dalla comunità”.

Francesco colpisce nel segno quando si rifiuta di identificare l’unicità della persona con un accumulo di dati, e quando sottolinea come l’algoritmo possa indurci a modificare il modo in cui promuoviamo i diritti umani.

Il Papa invita a «riflettere sul “senso del limite”… L’essere umano, mortale per definizione, pensando di superare ogni limite grazie alla tecnologia, corre il rischio, nell’ossessione di voler controllare tutto, di perdere il controllo di se stesso, e nella ricerca della libertà assoluta, dal cadere nella spirale di una dittatura tecnologica”.

Per affrontare queste sfide, il Papa offre due semplici suggerimenti, certamente di non facile attuazione: offrire un’educazione che acuisca il senso critico verso tutto ciò che proviene dal mondo digitale e, in particolare, dall’AI, da un lato, e, dall’altro, sviluppare un trattato internazionale vincolante per controllarlo e incanalarlo, e produrre così frutti che rispettino la dignità e i diritti umani.

Va notato che Francisco è ben informato. Si nota nella formulazione del documento un aggiornamento rispetto ai precedenti testi magisteriali, quando si parla di “intelligenze artificiali” – quindi, al plurale – e di “machine learning”, mostrando le differenze che esse presentano con l’autentico sapere umano. Le prospettive, per ora, sono tutt’altro che chiare. È qualcosa che sta nascendo tra le nostre mani e solleva incognite che vanno oltre l’ambito strettamente tecnico, per entrare in campo antropologico, motivo per cui richiedono un approccio interdisciplinare: “Sviluppi come il machine learning o il deep learning sollevano domande che trascendono campi della tecnologia e dell’ingegneria e hanno a che fare con una comprensione strettamente connessa al significato della vita umana, ai processi basilari della conoscenza e alla capacità della mente di raggiungere la verità.

Possiamo concludere la riflessione su questo testo, affermando chiaramente le sfide che questa entusiasmante realtà che è l’IA ci pone di fronte:

“L’intelligenza artificiale deve essere intesa come una galassia di realtà diverse e non si può presumere a priori che il suo sviluppo possa dare un contributo benefico al futuro dell’umanità e alla pace tra i popoli. Un risultato così positivo sarà possibile solo se saremo in grado di agire in modo responsabile e di rispettare i valori umani fondamentali come “inclusione, trasparenza, sicurezza, equità, privacy e responsabilità”.​