人工智能离我们很近,比如我们手机中的智能助手,它可以很好地帮助我们,但是美国似乎想把这种技术转化为军事武器。
超过2,400名人工智能研究人员最近签署了一项承诺,承诺不建立所谓的自主武器系统。这是继谷歌公司受到许多员工的压力之后,谷歌决定不再续约给五角大楼供应人工智能分析和无人机镜头的合同,因为许多员工反对其在一个名为Maven的军事项目上的工作。
人工智能机器人
新书“自由武器与战争的未来 ”一书的作者保罗·沙尔认为,如果人工智能研究人员想要实现变革,他们需要做的不仅仅是选择退出。
瑞克是伊拉克和阿富汗的陆军游骑兵,现在是新美国安全中心的高级研究员,他认为人工智能专家应该与政策制定者和军事专业人士合作,来解释为什么研究人员关心并帮助他们理解人工智能系统的局限性。美军对开发人工智能武器有多敏锐?
AL人工智能
美国国防领导人一再表示,他们的目的是让人类对致命武力决策负责。现在,需要注意的是,如果其他国家制造人工智能武器,那么他们可能会被迫效仿。这就是真正的风险。如果一个国家越过这条线,那么其他国家可能会觉得他们必须做出回应才能保持相对平衡的状态。
但这些承诺真的可以信赖吗?
我认为美国高级国防官员真诚地希望人类继续对使用致命武力负责。军事专业人员当然不希望他们的武器运转不下去。话虽如此,但转变为关于允许何种武器的具体工程,这仍然是一个悬而未决的问题
为什么技术人员需要参与?
AI研究人员必须参与这些项目,因为他们的技术专长对于制定政策选择至关重要。因为需要考虑AI偏差,透明度,可解释性,安全性和其他问题。人工智能技术今天具有这些双重功能。它功能强大但也存在许多漏洞,很像计算机和网络一样都存在风险。
你对最近由生命未来研究所组织的反对自主武器的承诺做了什么?这不是人工智能科学家的首次行动呼吁,以2015年和2017年关于自主武器的先前公开信为基础。自2014年以来,各国一直在联合国讨论自主武器。
智能机器人
人工智能就像是一把双刃剑用得好可以服务人类,但是把它当做武器却对人类有害,这也不符合这些AL专家的研究初衷,大家对于这一做法有什么看法呢?