梵蒂冈城--罗马教廷常驻联合国和日内瓦国际组织观察员埃托雷-巴莱斯特雷罗大主教在一组政府专家的讨论中说,人工智能控制的武器 "永远不应该决定人的生命"。
亚历山德罗-迪-布索罗 - 梵蒂冈城
罗马教廷 "当务之急 "是制定一份 "具有法律约束力的坚定文书",禁止使用所谓的致命自主武器,同时 "立即暂停开发和使用这些武器"。罗马教廷常驻联合国和日内瓦国际组织观察员埃托雷-巴莱斯特雷罗大主教在8月26日至30日于瑞士举行的2024年致命性自主武器系统(LAWS)领域新技术政府专家组(GGE)第二次会议上发言时强调了这一点。
教皇在七国集团人工智能会议上的讲话
提及教皇方济各的演讲 关于人工智能6 月 14 日,巴莱斯特雷罗对聚集在意大利博尔戈埃格纳齐亚的七国集团领导人发表讲话时回顾说,教皇曾敦促他们 "重新考虑开发和使用所谓的致命自主武器等装置,并最终禁止使用这些装置。首先要做出一致而具体的承诺,建立更大、更适当的人类控制。任何机器都不应该决定是否剥夺人类的生命"。但这位主教说,今天的战场 "也正在成为日益尖端武器的试验场"。
自主武器是不负道德责任的实体
大主教继续说,罗马教廷赞同并支持专家组 "分析自主武器系统的潜在功能和 技术方面 "的做法,因为查明 "不符合国际人道主义法和其他现有国际义务 "的系 统,可能非常有助于 "考虑到更广泛的道德因素",制定禁止和限制措施。罗马教廷常驻观察员澄清说,"自主武器系统不能被视为在道义上负责任的行为体"。事实上,人具有理性,"拥有独特的道德判断和伦理决策能力,这是任何一套算法都无法模仿的,无论这些算法多么复杂"。因此,罗马教廷代表团赞赏在作为会议讨论基础的 "临时案文 "中提及 "合理控制 "和 "人的判断",尽管它也呼吁 "进一步澄清这些概念并达成共识"。
机器选择,人类用心决定
Mons.因此,Balestrero 先生回顾了 "选择 "与 "决定 "之间的区别。在博尔戈-埃格纳齐亚举行的七国集团会议上,教皇在讲话中强调,机器只能做出算法上的技术选择,并回顾说,"人不仅会选择,而且在内心深处能够决定"。这是比选择更具战略性的因素,因为它需要实际的评估。此外,教皇方济各继续说,"一个合乎道德的决定,不仅要考虑行动的结果,还要考虑利害攸关的价值观和由此产生的义务"。因此,大主教仍然引用教皇的讲话,重申罗马教廷必须 "确保和保护人类对人工智能程序所做选择的充分控制空间:人类尊严本身就取决于此"。
技术进步应服务于共同利益
梵蒂冈官员进一步强调,"世界越来越意识到将人工智能用作武器所引发的伦理问题。这反映在最近于 2024 年 4 月 29 日和 30 日在维也纳举行的'人类处于十字路口:自主武器系统和监管的挑战'会议上对伦理问题的重视。他最后回顾说,"发展日益尖端的武器肯定不是解决办法"。方济各在通谕中写道 Laudato si'人类能否从当前的技术进步中获益,将取决于 "这些进步在多大程度上伴随着责任和价值观的适当发展,使技术进步服务于人类的整体发展和共同利益"。
vaticanews.va / gnews.cz-roz_07