美国发布军用AI伦理原则 打开了AI军事化的闸门

※发布时间:2019-12-3 7:22:13   ※发布作者:habao   ※出自何处: 

  推出了最终版的《人工智能伦理标准》。其实该标准酝酿已有数年。2018年7月,该委员会提出了标准的草案版本,并通过听证会

  近年来,美方显著加快了人工智能应用的速度,试图借助这一新性技术,彻底改变美军的作战模式。早在2019年2月,发布首份美军人工智能战略文件,要求利用人工智能促进美国安全与繁荣,将人工智能赋能引入到具体军事任务中。

  美军快速引入人工智能技术,也在美国内外引起了广泛担忧。一些观察人士开始担心美军的步子迈得太快,可能产生新的安全风险。而此次国防创新委员会的伦理标准,就是着眼于解决这些潜在风险,明确美军利用和研发人工智能的。

  国防创新委员会提出了五项核心标准:即负责、公平、可追踪、可靠、可控。其中,公平和可控两条标准的争议性较大。

  委员会所提出的公平是指,美军在开发和部署人工智能化的装备时要避免出现意料之外的偏差,而这些偏差会在无意中对人员造成。实现这条标准有很高难度。

  可控的,则试图给人工智能技术加上“保险丝”。委员会美军在人工智能系统和装备中设有“自动或手动”停机开关,一旦该设备运转偏离使用者和设计者初衷,作战和指挥人员就能立即关闭系统。

  五条伦理标准中既没有包括美军将人工智能技术应用于致命性武器,也没有人工智能化武器的目标。这意味着美国已经彻底放弃了“人工智能非军事化”理想目标,将其全面引入作战领域。这也给美军未来应用人工智能提供了有利的说辞和性依据,让美国社会接纳一个人工智能化的美军。

  从全球范围看,伦理标准是人工智能治理的先导性规则。从和伦理上探讨人工智能,表明该技术的发展和使用可能对人类社会带来重大的影响,可能改变人类社会的基本形态。人类社会当前所依赖的和伦理标准,对人工智能研发者和使用者尚没有足够,需要基于该技术发展变化提出新的伦理标准。

  伦理标准也是国际社会在人工智能治理领域最广泛谈论的内容。谷歌等美国科技巨头、、科技界的非组织都提出了自己的人工智能伦理。周公解梦 死人复活各方在这一问题上的博弈与合作刚刚开始。

  美国则在这场人工智能的国际规则之争中开辟了新的战场,即人工智能军事化领域。美国所提出的标准与联合国致命自主武器系统所的原则有一定差异,也不同于欧盟、中国等反对“人工智能军事化”的基本立场。

  下一阶段,美试图将自己的伦理标准演变为该领域国际规则的根本性原则,获取人工智能军事化的“最终解释权”。