Giornata della pace 2024: “L’intelligenza artificiale non alimenti le guerre”

Giornata della pace 2024: “L’intelligenza artificiale non alimenti le guerre”

Il messaggio di Papa Francesco per il 1° gennaio 2024 dedicato al rapporto tra le nuove frontiere dell’AI e la sfida della pace. Il Pontefice mette in guardia da pericoli come le manipolazioni dell’informazione e lo sviluppo di armi che nascondono le responsabilità: «La comunità internazionale elabori ed adotti un trattato vincolante sull’uso di questi strumenti»

(AsiaNews) – Le più avanzate applicazioni dell’intelligenza artificiale «non vanno impiegate per agevolare la risoluzione violenta dei conflitti, ma per pavimentare le vie della pace». Lo scrive Papa Francesco nel suo messaggio per la 57.ma Giornata mondiale della pace che la Chiesa celebrerà il 1° gennaio 2024 e che mette al centro quest’anno il tema “Intelligenza artificiale e pace”. Nel testo – diffuso oggi dalla sala stampa della Santa Sede – il Pontefice propone una lunga e dettagliata riflessione sulle nuove frontiere della scienza e della tecnologia digitale, invocandone uno sviluppo responsabile e una regolamentazione alla luce delle sue «serie implicazioni per il perseguimento della giustizia e dell’armonia tra i popoli».

Per Papa Francesco lo sviluppo di algoritmi in grado di elaborare immense quantità di dati, spesso estrapolati all’insaputa degli interessati, pone precise domande etiche. Potranno portare beneficio alle nostre comunità – commenta – «solo se ci dimostreremo capaci di agire in modo responsabile e di rispettare valori umani fondamentali come “l’inclusione, la trasparenza, la sicurezza, l’equità, la riservatezza e l’affidabilità”. Non è sufficiente presumere, da parte di chi progetta algoritmi e tecnologie digitali, un impegno ad agire in modo etico e responsabile. Occorre rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni etiche emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati».

I pericoli sono infatti grandi. Nel messaggio il Pontefice cita, ad esempio, le cosiddette «macchine che imparano da sole», frutto di discipline come il machine learning o il deep learning. «L’abilità di alcuni dispositivi nel produrre testi sintatticamente e semanticamente coerenti – scrive Papa Francesco – non è garanzia di affidabilità. Si dice che possano “allucinare”, cioè generare affermazioni che a prima vista sembrano plausibili, ma che in realtà sono infondate o tradiscono pregiudizi». Questo può generare fenomeni come «la discriminazione, l’interferenza nei processi elettorali, il prendere piede di una società che sorveglia e controlla le persone, l’esclusione digitale e l’inasprimento di un individualismo sempre più scollegato dalla collettività». Tutti fattori che «rischiano di alimentare i conflitti e di ostacolare la pace».

C’è poi la questione della trasparenza nei criteri: «le macchine “intelligenti” – ricorda il Papa – possono svolgere i compiti loro assegnati con sempre maggiore efficienza, ma lo scopo e il significato delle loro operazioni continueranno a essere determinati o abilitati da esseri umani in possesso di un proprio universo di valori. Il rischio è che i criteri alla base di certe scelte diventino meno chiari, che la responsabilità decisionale venga nascosta e che i produttori possano sottrarsi all’obbligo di agire per il bene della comunità».

Senza dimenticare i problemi legati alla “categorizzazione” delle persone: «In futuro – denuncia Francesco – l’affidabilità di chi richiede un mutuo, l’idoneità di un individuo ad un lavoro, la possibilità di recidiva di un condannato o il diritto a ricevere asilo politico o assistenza sociale potrebbero essere determinati da sistemi di intelligenza artificiale». Ma così facendo c’è il rischio che «le forme di pregiudizio e discriminazione finiscano facilmente per moltiplicarsi, producendo non solo ingiustizie in singoli casi ma anche, per effetto domino, vere e proprie forme di disuguaglianza sociale». «Non si deve permettere agli algoritmi – ammonisce il Papa – di determinare il modo in cui intendiamo i diritti umani, di mettere da parte i valori essenziali della compassione, della misericordia e del perdono o di eliminare la possibilità che un individuo cambi e si lasci alle spalle il passato».

Dentro a questo quadro si inserisce anche la questione dell’utilizzo dell’intelligenza artificiale da parte dell’industria degli armamenti. «La possibilità di condurre operazioni militari attraverso sistemi di controllo remoto – osserva Francesco – ha portato a una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a un approccio ancora più freddo e distaccato all’immensa tragedia della guerra. La ricerca sulle tecnologie emergenti nel settore dei cosiddetti “sistemi d’arma autonomi letali”, incluso l’utilizzo bellico dell’intelligenza artificiale, è un grave motivo di preoccupazione etica. I sistemi d’arma autonomi non potranno mai essere soggetti moralmente responsabili: l’esclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina».

«Non possiamo nemmeno ignorare – aggiunge ancora il Pontefice – la possibilità che armi sofisticate finiscano nelle mani sbagliate, facilitando, ad esempio, attacchi terroristici o interventi volti a destabilizzare istituzioni di governo legittime. Il mondo, insomma, non ha proprio bisogno che le nuove tecnologie contribuiscano all’iniquo sviluppo del mercato e del commercio delle armi, promuovendo la follia della guerra. Così facendo, non solo l’intelligenza, ma il cuore stesso dell’uomo, correrà il rischio di diventare sempre più artificiale».

Di qui – dunque – l’invito a raccogliere le due grandi sfide che lo sviluppo dell’intelligenza artificiale oggi pone. La prima è quella educativa: «Rimane la necessità di una riflessione continua sul tipo di relazioni a cui ci stanno indirizzando – spiega il Papa -. L’educazione all’uso di forme di intelligenza artificiale dovrebbe mirare soprattutto a promuovere il pensiero critico. È necessario che gli utenti di ogni età, ma soprattutto i giovani, sviluppino una capacità di discernimento nell’uso di dati e contenuti raccolti sul web o prodotti da sistemi di intelligenza artificiale».

Appare, però, urgente anche l’elaborazione di norme apposite di diritto internazionale che regolino lo sviluppo e l’utilizzo di questi sistemi. «Esorto la comunità delle nazioni a lavorare unita al fine di adottare un trattato internazionale vincolante, che regoli lo sviluppo e l’uso dell’intelligenza artificiale nelle sue molteplici forme», scrive Francesco. Indicando l’obiettivo non solo della prevenzione delle cattive pratiche, «ma anche l’incoraggiamento delle buone pratiche, stimolando approcci nuovi e creativi e facilitando iniziative personali e collettive».

«Spero che questa riflessione – conclude – incoraggi a far sì che i progressi nello sviluppo di forme di intelligenza artificiale servano, in ultima analisi, la causa della fraternità umana e della pace. Non è responsabilità di pochi, ma dell’intera famiglia umana. Possano i fedeli cristiani, i credenti di varie religioni e gli uomini e le donne di buona volontà collaborare in armonia per cogliere le opportunità e affrontare le sfide poste dalla rivoluzione digitale, e consegnare alle generazioni future un mondo più solidale, giusto e pacifico».