CIUDAD DEL VATICANO - El arzobispo Ettore Balestrero, observador permanente de la Santa Sede ante las Naciones Unidas y las organizaciones internacionales en Ginebra, dijo durante un debate de un grupo de expertos gubernamentales que las armas controladas por inteligencia artificial "nunca deberían decidir la vida de un ser humano."
Alessandro Di Bussolo - Ciudad del Vaticano
Es "de la máxima urgencia" que la Santa Sede consiga un "instrumento firme jurídicamente vinculante" que prohíba el uso de las llamadas armas autónomas letales y, mientras tanto, "imponga una moratoria inmediata sobre su desarrollo y uso". El arzobispo Ettore Balestrero, observador permanente de la Santa Sede ante las Naciones Unidas y las organizaciones internacionales con sede en Ginebra, lo subrayó en su intervención en la segunda reunión del Grupo de Expertos Gubernamentales (GGE) 2024 sobre las nuevas tecnologías en el ámbito de los sistemas de armas autónomas letales (LAWS), que se celebra en Suiza del 26 al 30 de agosto.
Discurso del Papa en la reunión del G7 sobre inteligencia artificial
En referencia al discurso del Papa Francisco sobre inteligencia artificialAl dirigirse el 14 de junio a los líderes del G7 reunidos en Borgo Egnazia (Italia), Balestrero recordó que el Papa les había instado a "reconsiderar el desarrollo y el uso de dispositivos como las llamadas armas autónomas letales y, en última instancia, a prohibir su uso. Esto debe comenzar con un compromiso coherente y concreto para establecer un mayor y más adecuado control humano. Ninguna máquina debería tener que decidir nunca si quita la vida a un ser humano". Pero los campos de batalla actuales, dijo el prelado, "también se están convirtiendo en campos de pruebas para armas cada vez más sofisticadas".
Las armas autónomas no son entidades moralmente responsables
La Santa Sede, continuó el Arzobispo, respalda y apoya el enfoque del grupo de expertos "para analizar las funciones potenciales y los aspectos tecnológicos de los sistemas de armas autónomas", ya que la identificación de sistemas "incompatibles con el derecho internacional humanitario y otras obligaciones internacionales existentes" podría ser muy útil para establecer prohibiciones y restricciones "teniendo en cuenta consideraciones éticas más amplias". Según la Santa Sede, aclaró el Observador Permanente, "los sistemas de armas autónomos no pueden considerarse actores moralmente responsables". En efecto, la persona humana, dotada de razón, "posee una capacidad única de juicio moral y de toma de decisiones éticas que no puede ser imitada por ningún conjunto de algoritmos, por complejos que sean". Por ello, la delegación de la Santa Sede aprecia las referencias tanto al "control razonable" como al "juicio humano" en el "texto provisional" que se elaboró como base para el debate de la reunión, aunque también pide "una mayor claridad y una comprensión común de estos conceptos".
La máquina elige, el hombre decide con el corazón
Mons. Balestrero recordó por ello la diferencia entre "elección" y "decisión". En su discurso en la reunión del G7 en Borgo Egnazia, el Papa subrayó que las máquinas sólo hacen elecciones técnicas algorítmicas y recordó que "el hombre no sólo elige, sino que en su corazón es capaz de decidir". Y este es un elemento más estratégico que la elección, porque requiere una evaluación práctica. Además, continuó el Papa Francisco, "una decisión ética es aquella que tiene en cuenta no sólo los resultados de la acción, sino también los valores en juego y las obligaciones que de ella se derivan." Por lo tanto, citando todavía el discurso del Papa, el arzobispo reiteró que es esencial para la Santa Sede "asegurar y proteger el espacio para un adecuado control humano sobre las elecciones hechas por los programas de IA: la dignidad humana misma depende de ello."
El progreso técnico debe servir al bien común
El responsable vaticano subrayó además que existe una creciente "conciencia en el mundo de las preocupaciones éticas que plantea el uso de la inteligencia artificial como arma". Esto se reflejó en el papel destacado que se dio a las consideraciones éticas en la reciente conferencia "La humanidad en la encrucijada: los sistemas de armas autónomas y el desafío de la regulación", celebrada en Viena los días 29 y 30 de abril de 2024. Concluyó recordando que "el desarrollo de armas cada vez más sofisticadas no es ciertamente la solución". Como escribe Francisco en su encíclica Laudato siLos beneficios que la humanidad obtendrá de los avances tecnológicos actuales dependerán de "la medida en que estos avances vayan acompañados de un desarrollo adecuado de responsabilidades y valores que pongan el progreso tecnológico al servicio del desarrollo humano integral y del bien común".
vaticanews.va / gnews.cz-roz_07