Convegno su “AI & Faith dialogues”
Etica, responsabilità e dignità al centro del futuro digitale
Le “Linee Guida in materia di Intelligenza Artificiale” del Governatorato si fondano su pilastri solidi, che non sono semplici parole, ma principi operativi.
Lo ha sottolineato Davide Giordano, della Direzione delle Telecomunicazioni e dei Sistemi Informatici del Governatorato dello Stato della Città del Vaticano e membro della Commissione per l’Intelligenza Artificiale. Lo ha fatto intervenendo durante il convegno sul tema “AI & Faith dialogues”, organizzato dal Pontificio Collegio Filippino, svoltosi, lunedì 8 settembre. Giordano ha offerto un articolato discorso per illustrare i contenuti e le motivazioni delle Linee Guida sull’Intelligenza Artificiale, rese pubbliche nel 2024 dal Governatorato dello Stato della Città del Vaticano.
Il discorso, denso di riferimenti storici, culturali ed etici, ha messo in luce una visione profonda e lungimirante: l’Intelligenza Artificiale non è solo una sfida tecnologica, ma un crocevia antropologico, sociale e morale.
L’intervento ha preso avvio da una riflessione storica: ogni grande rivoluzione tecnologica, dalla stampa alla macchina a vapore, dalla rivoluzione copernicana all’era digitale, ha trasformato la società, portando progresso ma anche rischi e disuguaglianze. Così, oggi, anche l’Intelligenza Artificiale impone una presa di posizione chiara.
Le Linee Guida, ha spiegato Giordano, non sono un atto simbolico, ma una scelta concreta e operativa, fondata su principi solidi che pongono l’uomo al centro della trasformazione digitale.
Al cuore del documento ci sono quattro principi fondamentali. In primo luogo, la dignità umana: l’essere umano è insostituibile. Nessuna macchina può o deve prendere decisioni ultime su temi che toccano la vita, la salute o la libertà. Il medico, il giudice, il cittadino: ognuno conserva il proprio ruolo insostituibile.
Secondariamente, il bene comune: l’Intelligenza Artificiale deve servire l’intera comunità e non essere strumento di profitto per pochi. L’uso dei dati, definiti “la nuova moneta”, va orientato all’interesse collettivo, non al potere o al mercato.
Terzo punto, la trasparenza: le tecnologie devono essere comprensibili, spiegabili, accessibili. Solo la trasparenza può generare fiducia e inclusione. Infine, la responsabilità: anche se delegata alla macchina, la responsabilità non può mai essere scaricata su un algoritmo. A rispondere deve sempre essere l’uomo.
Le Linee Guida non si limitano a definire principi generali, ma fissano anche limiti e divieti precisi. L’Intelligenza Artificiale non può sostituire il giudizio umano: in ambito giuridico o sanitario, l’IA può affiancare, ma non decidere. Una sentenza o una diagnosi richiedono empatia, comprensione del contesto, ascolto: qualità umane che nessuna macchina possiede. Ci sono poi dei divieti espliciti: è vietato usare l’IA per discriminare, escludere, danneggiare. Anche involontariamente, un algoritmo può diventare uno strumento di esclusione, come nel caso di sistemi di riconoscimento facciale, o di selezioni automatizzate del personale basate su dati distorti.
Fondamentale è importante è la tutela dei dati biometrici: c’è l’urgenza di proteggere dati come impronte digitali o scansioni del volto. Sono “chiavi uniche” e non sostituibili. Un uso improprio può compromettere irreversibilmente la sicurezza e la dignità personale. In quanto a cultura e creatività, l’Intelligenza Artificiale può supportare la conservazione dei beni culturali, ma non può sostituire la sensibilità artistica. Le opere d’arte, così come i contenuti creativi, devono essere trattati con rispetto. Anche i contenuti generati artificialmente devono essere chiaramente identificabili. Riguardo alla giustizia e all’amministrazione, l’Intelligenza Artificiale può aiutare a snellire le pratiche burocratiche e supportare l’attività giudiziaria (ad esempio nella ricerca giurisprudenziale), ma la decisione resta sempre umana. Nessun algoritmo deve scrivere sentenze o decidere su diritti e doveri delle persone.
Per garantire il rispetto di queste direttive, è stata istituita al Governatorato una Commissione sull’Intelligenza Artificiale. Un organismo operativo, incaricato di monitorare l’uso delle tecnologie, proporre aggiornamenti normativi e valutare rischi ed effetti delle innovazioni. Un passo concreto, che conferma l’intento del Vaticano di passare dalla teoria alla pratica. Nel messaggio di Papa Leone XIV, letto durante l’“AI Governance Day” al vertice AI for Good Global Summit 2025 di Ginevra, è stato ribadito il senso ultimo di questa presa di posizione: l’Intelligenza Artificiale deve favorire il dialogo, la fraternità e la giustizia, non sostituire l’uomo, ma aiutarlo a vivere meglio la propria umanità.
Il discorso si è concluso con un richiamo forte: il vero progresso non è correre più veloce delle macchine, ma custodire ciò che ci rende umani: dignità, libertà, capacità di amare e servire gli altri. In un tempo in cui molti si chiedevano se saremmo stati capaci di controllare l’Intelligenza Artificiale, ora la vera domanda è: come verificheremo i progressi reali che stiamo facendo verso un futuro etico e umano?
Con queste Linee Guida, lo Stato della Città del Vaticano si pone come voce morale e culturale in un dibattito sempre più urgente. Non per frenare l’innovazione, ma per orientarla. Perché la tecnologia, anche la più avanzata, resta uno strumento. E come ogni strumento, va usata con responsabilità, visione e rispetto per la persona.
In un tempo in cui l’Intelligenza Artificiale sembra promettere soluzioni per tutto, il contributo della Chiesa ricorda a tutti, credenti o meno, che la vera sfida non è costruire macchine perfette, ma restare umani.