Mentre i governi e i giganti tecnologici si affannano a imporre i propri standard sull’intelligenza artificiale, il Vaticano gioca un’altra partita. Non compete in potenza di calcolo, ma nella definizione dei criteri etici e legali che dovrebbero guidare l’uso dell’IA a livello globale.
Il Segretariato per l’Economia, originariamente istituito per riordinare le finanze della Santa Sede, è diventato negli ultimi anni uno dei punti chiave di questa strategia. Non si occupa più solo di bilanci e riforme interne: lavora anche su come l’IA possa cambiare la gestione economica del Vaticano e contemporaneamente su come il Vaticano possa influenzare la formazione delle regole internazionali.
Perché il Vaticano conta davvero nel dibattito sull’IA
La Santa Sede non è un semplice osservatore. È uno stato sovrano, con status di osservatore permanente presso le Nazioni Unite, una fitta rete diplomatica e un’autorità morale riconosciuta anche al di fuori del mondo religioso. Grazie a ciò, può sedere ai tavoli dove si discute, tra l’altro, di:
- linee guida internazionali sull’IA e i diritti umani
- standard di trasparenza algoritmica
- limitazioni all’uso dell’IA per scopi militari e di sorveglianza
Inoltre, attraverso iniziative come il Rome Call for AI Ethics, il Vaticano è già riuscito a riunire attorno a un tavolo soggetti che raramente dialogano in modo ordinato: giganti tecnologici, università, istituzioni pubbliche e comunità religiose. Questo non è un dettaglio: le regole di governance dell’IA non nascono solo nei parlamenti, ma anche in spazi ibridi come questi, dove si formano principi che poi finiscono nei testi legislativi.
Il ruolo concreto del Segretariato per l’Economia
Il Segretariato per l’Economia svolge una funzione apparentemente tecnica, ma con evidenti effetti politici. Da un lato deve modernizzare la macchina economico-amministrativa del Vaticano, dall’altro può utilizzare questa trasformazione interna come “laboratorio” per proposte esterne.
All’interno del Vaticano, le aree più sensibili includono:
- l’uso di sistemi IA per la gestione del rischio finanziario e la prevenzione delle frodi
- strumenti algoritmici che aumentano la trasparenza di bilanci, appalti, investimenti
- analisi predittive per valutare la sostenibilità delle opere sociali e caritative
Ogni volta che la Santa Sede introduce un nuovo strumento digitale, sorgono domande che molti attori laici rimandano: chi controlla l’algoritmo? quali dati elabora? quali pregiudizi può rafforzare? Se tale verifica viene condotta in modo rigoroso, diventa un modello: dimostra che è possibile innovare senza cedere in modo acritico alla logica “prima implementiamo, poi vediamo i danni”.
Da laboratorio interno a regole globali
Il momento chiave si verifica quando l’esperienza raccolta internamente viene trasformata in proposte pubbliche. La Santa Sede, attraverso il Segretariato per l’Economia e altre dicasteri competenti, può:
suggerire standard minimi di audit etico per gli algoritmi utilizzati nei servizi pubblici, sostenere un approccio secondo cui l’IA nella finanza dovrebbe essere valutata non solo in termini di efficienza e profitto, ma anche di impatto sociale e ambientale, e promuovere nei forum internazionali l’obbligo di tracciare e spiegare le decisioni automatizzate che toccano i diritti fondamentali.
IA, finanze e “opzione preferenziale” per i più deboli
Uno dei contributi più specifici che può offrire la Santa Sede è il legame tra IA, finanze e protezione delle persone più vulnerabili. Il Segretariato per l’Economia si trova all’incrocio di questi ambiti: gestisce risorse, controlla investimenti, valuta progetti.
Da questa posizione può costantemente ricordare una questione spesso trascurata: gli algoritmi non sono neutrali. Se i sistemi di valutazione del credito, di assunzione del personale o di stima del rischio sanitario contengono pregiudizi, a pagare il prezzo più alto sono i poveri, i migranti, le minoranze. La dottrina sociale della Chiesa, con l’accento sulla dignità umana e sull'”opzione preferenziale per i poveri”, offre una lente concreta per valutare l’IA: un’innovazione che aumenta il divario, discrimina o rende ancora più invisibili le persone vulnerabili, non è solo tecnicamente problematica – è eticamente inaccettabile.
Questa prospettiva può tradursi in proposte molto concrete: clausole antidiskriminazione nei sistemi IA utilizzati da banche e assicuratori, valutazioni obbligatorie dell’impatto sociale per gli algoritmi utilizzati nei servizi pubblici, limiti chiari per le applicazioni dell’IA che riducono le persone al ruolo di “dati da ottimizzare”.
Diplomazia, alleanze e “soft power” dell’etica
La governance globale dell’IA non nascerà da un singolo trattato, ma da un’intera costellazione di accordi, codici di condotta, linee guida regionali. Il Vaticano, grazie alla sua rete diplomatica, può inserirsi in questi processi in diverse fasi:
sostenendo presso le Nazioni Unite e nelle agenzie specializzate il legame tra IA, pace e sicurezza, dialogando con l’Unione Europea nell’aggiornamento delle normative dopo l’adozione dell’AI Act, e promuovendo nei paesi a reddito basso e medio l’idea che l’IA non dovrebbe diventare un nuovo strumento di dipendenza tecnologica.
Il metodo d’azione qui è il soft power etico: non imporre, ma convincere; non sostituire i legislatori, ma fornire categorie, linguaggio e criteri per valutare le scelte. In un contesto in cui molte decisioni rischiano di essere subordinate esclusivamente agli interessi economici o militari, la presenza di un attore che sottolinea costantemente la dignità della persona umana come criterio non negoziabile introduce una variabile completamente diversa nelle negoziazioni.
Le sfide aperte: credibilità, competenze, coerenza
Tale ruolo non è però dato per scontato. Per influenzare realmente le regole di governance dell’IA, la Santa Sede deve affrontare almeno tre sfide.
La prima è la credibilità interna: non si può chiedere trasparenza negli algoritmi se non si è trasparenti nei processi decisionali e finanziari. Qui il Segretariato per l’Economia gioca un ruolo chiave: ogni passo avanti nella chiarezza dei conti e nella responsabilità amministrativa rafforza la voce del Vaticano all’esterno.
La seconda sfida riguarda le competenze tecniche. L’etica dell’IA non può rimanere a livello di dichiarazioni generali. Sono necessari esperti in grado di leggere il codice, comprendere le architetture dei modelli, valutare i set di dati. Ciò implica la necessità di formare o attrarre specialisti, collaborare con università e centri di ricerca e evitare l’illusione che il semplice richiamo ai valori sia sufficiente senza una concreta comprensione della tecnologia.
La terza sfida è la coerenza tra il messaggio e le decisioni operative. Se la Santa Sede critica i modelli di business basati sulla sorveglianza di massa, non può basarsi nelle proprie strutture su piattaforme che monetizzano i dati dei fedeli senza adeguate garanzie. Se chiede cautela nell’uso dell’IA in ambito militare, deve altrettanto chiaramente distaccarsi da forme ambigue di collaborazione.
Perché questo “piccolo” attore può cambiare un’enorme partita
L’intelligenza artificiale viene talvolta presentata come una corsa tra giganti: Stati Uniti, Cina, grandi piattaforme digitali. In questo quadro, la Santa Sede appare marginale. Eppure, proprio perché non ha interessi industriali diretti e non dispone di un esercito, può diventare la coscienza di un processo che può facilmente sfuggire al controllo.
Il Segretariato per l’Economia, con il suo lavoro poco visibile ma strategico, è uno dei luoghi in cui questo ruolo prende forma concreta: nella scelta di quali tecnologie adottare, quali criteri utilizzare per valutarle, quali alleanze costruire per proporre regole più giuste. Se riuscirà a coniugare rigore tecnico, chiarezza etica e coraggio politico, il Vaticano potrebbe avere un impatto sulla futura governance globale dell’IA molto maggiore di quanto suggerirebbero le sue dimensioni.
