VILLE DU VATICAN - L'archevêque Ettore Balestrero, observateur permanent du Saint-Siège auprès des Nations Unies et des organisations internationales à Genève, a déclaré lors d'une discussion avec un groupe d'experts gouvernementaux que les armes contrôlées par l'intelligence artificielle "ne devraient jamais décider de la vie d'un être humain".
Alessandro Di Bussolo - Cité du Vatican
Il est "de la plus grande urgence" pour le Saint-Siège d'obtenir un "instrument juridiquement contraignant" interdisant l'utilisation des armes autonomes dites létales et, dans l'intervalle, "d'imposer un moratoire immédiat sur leur développement et leur utilisation". L'archevêque Ettore Balestrero, observateur permanent du Saint-Siège auprès des Nations unies et des organisations internationales à Genève, l'a souligné dans son discours lors de la deuxième réunion du Groupe d'experts gouvernementaux (GGE) 2024 sur les nouvelles technologies dans le domaine des systèmes d'armes autonomes létaux (LAWS), qui se tient en Suisse du 26 au 30 août.
Discours du pape à la réunion du G7 sur l'intelligence artificielle
En référence au discours du Pape François sur l'intelligence artificielleS'adressant le 14 juin aux dirigeants du G7 réunis à Borgo Egnazia, en Italie, M. Balestrero a rappelé que le pape les avait exhortés à "reconsidérer le développement et l'utilisation de dispositifs tels que les armes autonomes dites létales et, en fin de compte, à en interdire l'utilisation. Cela doit commencer par un engagement cohérent et concret à établir un contrôle humain plus important et plus approprié. Aucune machine ne devrait jamais avoir à décider de prendre la vie d'un être humain". Mais les champs de bataille d'aujourd'hui, a déclaré le prélat, "deviennent aussi des terrains d'essai pour des armes de plus en plus sophistiquées".
Les armes autonomes ne sont pas des entités moralement responsables
Le Saint-Siège, a poursuivi l'archevêque, approuve et soutient l'approche du groupe d'experts "pour analyser les fonctions potentielles et les aspects technologiques des systèmes d'armes autonomes", car l'identification des systèmes "incompatibles avec le droit international humanitaire et d'autres obligations internationales existantes" pourrait être très utile pour établir des interdictions et des restrictions "en tenant compte de considérations éthiques plus larges". Selon le Saint-Siège, a précisé l'observateur permanent, "les systèmes d'armes autonomes ne peuvent être considérés comme des acteurs moralement responsables". En effet, la personne humaine, dotée de raison, "possède une capacité unique de jugement moral et de prise de décision éthique qui ne peut être imitée par aucun ensemble d'algorithmes, aussi complexes soient-ils". La délégation du Saint-Siège apprécie donc les références à la fois au "contrôle raisonnable" et au "jugement humain" dans le "texte intérimaire" qui a été élaboré comme base de discussion de la réunion, bien qu'elle appelle également à "une plus grande clarté et une compréhension commune de ces concepts".
La machine choisit, l'homme décide avec son cœur
Mons. Balestrero a donc rappelé la différence entre "choix" et "décision". Dans son discours lors de la réunion du G7 à Borgo Egnazia, le Pape a souligné que les machines ne font que des choix techniques algorithmiques et a rappelé que "l'homme ne choisit pas seulement, mais dans son cœur il est capable de décider". Et c'est un élément plus stratégique que le choix, car il nécessite une évaluation pratique. De plus, a poursuivi le pape François, "une décision éthique est une décision qui prend en compte non seulement les résultats de l'action, mais aussi les valeurs en jeu et les obligations qui en découlent". C'est pourquoi, citant toujours le discours du pape, l'archevêque a réitéré qu'il est essentiel pour le Saint-Siège "d'assurer et de protéger l'espace d'un contrôle humain adéquat sur les choix effectués par les programmes d'IA : la dignité humaine elle-même en dépend."
Le progrès technique doit servir le bien commun
Le représentant du Vatican a en outre souligné que le monde est de plus en plus conscient des préoccupations éthiques soulevées par l'utilisation de l'intelligence artificielle en tant qu'arme. En témoigne le rôle prépondérant accordé aux considérations éthiques lors de la récente conférence " L'humanité à la croisée des chemins : les systèmes d'armes autonomes et le défi de la régulation ", qui s'est tenue à Vienne les 29 et 30 avril 2024. Il a conclu en rappelant que "le développement d'armes de plus en plus sophistiquées n'est certainement pas la solution". Comme l'écrit François dans l'encyclique Laudato si'Les avantages que l'humanité tirera des progrès technologiques actuels dépendront de "la mesure dans laquelle ces progrès s'accompagnent d'un développement approprié des responsabilités et des valeurs qui mettent le progrès technologique au service du développement intégral de l'homme et du bien commun".
vaticanews.va / gnews.cz-roz_07