CITTA' DEL VATICANO - L'arcivescovo Ettore Balestrero, osservatore permanente della Santa Sede presso le Nazioni Unite e le organizzazioni internazionali a Ginevra, ha affermato durante una discussione con un gruppo di esperti governativi che le armi controllate dall'intelligenza artificiale "non dovrebbero mai decidere della vita di un essere umano".
Alessandro Di Bussolo - Città del Vaticano
È "della massima urgenza" per la Santa Sede ottenere un "solido strumento giuridicamente vincolante" che vieti l'uso delle cosiddette armi autonome letali e, nel frattempo, "imporre una moratoria immediata sul loro sviluppo e utilizzo". Lo ha sottolineato l'arcivescovo Ettore Balestrero, Osservatore permanente della Santa Sede presso le Nazioni Unite e le organizzazioni internazionali a Ginevra, nel suo intervento alla seconda riunione del Gruppo di esperti governativi (GGE) 2024 sulle nuove tecnologie nel campo dei sistemi d'arma autonomi letali (LAWS), che si svolge in Svizzera dal 26 al 30 agosto.
Il discorso del Papa alla riunione del G7 sull'intelligenza artificiale
Facendo riferimento al discorso di Papa Francesco sull'intelligenza artificialeParlando il 14 giugno ai leader del G7 riuniti a Borgo Egnazia, in Italia, Balestrero ha ricordato che il Papa li ha esortati a "riconsiderare lo sviluppo e l'uso di dispositivi come le cosiddette armi autonome letali e, in ultima analisi, a vietarne l'uso. Questo deve iniziare con un impegno coerente e concreto per stabilire un maggiore e più appropriato controllo umano. Nessuna macchina dovrebbe mai decidere se togliere la vita a un essere umano". Ma i campi di battaglia di oggi, ha detto il presule, "stanno diventando anche terreni di prova per armi sempre più sofisticate".
Le armi autonome non sono entità moralmente responsabili
La Santa Sede, ha proseguito l'arcivescovo, approva e sostiene l'approccio del gruppo di esperti "per analizzare le potenziali funzioni e gli aspetti tecnologici dei sistemi d'arma autonomi", in quanto l'identificazione dei sistemi "incompatibili con il diritto internazionale umanitario e con altri obblighi internazionali esistenti" potrebbe essere molto utile per stabilire divieti e restrizioni "tenendo conto di considerazioni etiche più ampie". Secondo la Santa Sede, ha chiarito l'Osservatore permanente, "i sistemi d'arma autonomi non possono essere considerati attori moralmente responsabili". Infatti, la persona umana, dotata di ragione, "possiede una capacità unica di giudizio morale e di decisione etica che non può essere imitata da nessun insieme di algoritmi, per quanto complessi possano essere". La delegazione della Santa Sede apprezza quindi i riferimenti sia al "controllo ragionevole" che al "giudizio umano" nel "testo provvisorio" che è stato elaborato come base per la discussione della riunione, anche se chiede "maggiore chiarezza e una comprensione comune di questi concetti".
La macchina sceglie, l'uomo decide con il cuore
Mons. Balestrero ha quindi ricordato la differenza tra "scelta" e "decisione". Nel suo discorso al G7 di Borgo Egnazia, il Papa ha sottolineato che le macchine fanno solo scelte tecniche algoritmiche e ha ricordato che "l'uomo non solo sceglie, ma nel suo cuore è capace di decidere". E questo è un elemento più strategico della scelta, perché richiede una valutazione pratica. Inoltre, ha proseguito Papa Francesco, "una decisione etica è quella che tiene conto non solo dei risultati dell'azione, ma anche dei valori in gioco e degli obblighi che ne derivano". Pertanto, sempre citando il discorso del Papa, l'Arcivescovo ha ribadito che è essenziale che la Santa Sede "assicuri e protegga lo spazio per un adeguato controllo umano sulle scelte fatte dai programmi di IA: ne va della stessa dignità umana".
Il progresso tecnico deve essere al servizio del bene comune
Il funzionario vaticano ha inoltre sottolineato che c'è una crescente "consapevolezza nel mondo delle preoccupazioni etiche sollevate dall'uso dell'intelligenza artificiale come arma". Ciò si riflette nel ruolo di primo piano attribuito alle considerazioni etiche nella recente conferenza "Humanity at the Crossroads: Autonomous Weapon Systems and the Challenge of Regulation", tenutasi a Vienna il 29 e 30 aprile 2024. Ha concluso ricordando che "lo sviluppo di armi sempre più sofisticate non è certo la soluzione". Come scrive Francesco nell'enciclica Laudato si'I benefici che l'umanità trarrà dagli attuali progressi tecnologici dipenderanno "dalla misura in cui questi progressi saranno accompagnati da un adeguato sviluppo di responsabilità e valori che mettano il progresso tecnologico al servizio dello sviluppo umano integrale e del bene comune".
vaticanews.va / gnews.cz-roz_07