人工智能的反对者联盟继续寻求减缓其发展的论据。如果有人对人工智能的具体影响--例如,它可能导致人类灭绝--表达了真诚的担忧,那么这种立场是值得尊重的,即使我们可能并不同意。然而,更令人担忧的是,一些组织正在积极测试哪些论点最能影响公众反对人工智能,然后这些论点又被游说者、政客或追求自身利益的公司所传播。.
英国一个研究小组的一项大型研究表明,人工智能导致人类灭绝的说法在公众中并不奏效。这种说法几年前还很流行,但现在已经逐渐失去了力量。另一方面,人工智能在战争中的应用或其对环境的影响等话题则更能引起共鸣。对失业和儿童威胁的担忧也很强烈。可以预见,这些论点将在未来的公共辩论中占据主导地位。.
必须强调的是,所有这些领域都值得认真关注。在军事冲突中使用人工智能是一个真正值得关注的问题,对环境的影响需要仔细监测并降到最低,失业会对个人和家庭产生真正的影响,而保护儿童则是一个核心价值。当这些复杂的问题被简化和滥用,以牺牲更广泛的公众利益来推进狭隘的利益时,问题就出现了。.
例如,大型技术公司警告人工智能的风险,以限制与之竞争的开源解决方案的推广。同样,人们对数据中心的认识也存在偏差--尽管数据中心是效率最高的基础设施之一,但公众往往高估了它们对环境造成的负担。因此,阻碍数据中心的建设会对环境造成危害,而不是有所帮助。此外,还有人夸大了对就业的影响,一些公司将裁员归咎于人工智能,而实际上这是以前过度招聘的结果。.
这种宣传可能导致不适当的法规,最终使情况变得更糟。历史提供了警示--例如,对核电的夸大恐惧导致了核电的削减,而核电的削减又加剧了与空气污染相关的排放和健康问题。人工智能也应避免类似的情况。.
目前正在讨论人工智能立法框架草案,以避免各国之间的规则支离破碎,并促进统一的方法。其目的是促进人工智能的发展,同时维护消费者保护和区域权利。如果获得通过,它将为进一步创新创造一个稳定的环境。.
对于未来,保持理性的态度至关重要。有害的应用--无论是否使用人工智能--都需要加以限制,同时在科学证据的基础上仔细权衡益处和风险。在评估对人工智能的批评时,重要的是要区分前后一致的实质性论点和那些仅仅回应当前公众情绪的论点。只有这样,才能防止夸大的恐惧阻碍可为整个社会带来巨大利益的技术的发展。.
deplearning.ai/gnews.cz - GH