爱吧机器人网 » 专题 > 观点 > 正文

谷歌说「不作恶」?Nature评:人工智能研究应当成为军事发展助力

今天,谷歌首席执行官桑达尔·皮查伊宣布了「谷歌 AI 研究七大准则」,为公司近期在军事 AI 项目上的争议作出了官方回应。与此同时,美国智库 New American Security 研究员 Gregory C.Allen 认为,谷歌人工智能研究员合乎道德的做法应该是参与选择国家安全项目,而不是关闭所有项目。
 
今年 1 月,谷歌 CEO Sundar Pichai 曾表示人工智能的影响会比电力「更深刻」。他遵循谷歌领导者的悠久传统,称其技术是变革性且美妙的。

问题在于变革性的技术也会变革军事力量,AI 也不例外。6 月 1 日,谷歌宣布不会续签与美国军方合作的 Project Maven 合同。该项目是美国军队首次在操作层面上部署「深度学习」AI 系统,使用处理层将数据转换成抽象表征,在此项目中,其目标是将军事无人机收集的摄像片段图像进行分类。在大约 4000 名谷歌员工签署禁止谷歌参与构建「军事技术」的请愿书后,谷歌决定撤出该项目。

这种退却带来了巨大的道德风险。将先进的 AI 技术整合到军事领域和过去将电力应用到军事领域一样,都是不可避免的,这一变迁充斥着伦理和技术风险。它将采用很多天才 AI 研究者的研究成果作为输入,来帮助军队保持伦理道德的正确方向,包括谷歌等大公司的研究者。

去年,我代表美国智能社区进行了一项研究,结果显示 AI 的变革性影响将覆盖国家安全的方方面面。军事机器人、网络安全、监控和宣传在面对 AI 支持的破坏行为时是很脆弱的。美国、俄罗斯和中国都期望 AI 成为未来军事力量的基础,美国及其盟友在重要军事技术方面的垄断(如隐形战机和精确制导武器)正走向结束。

我很同情面临是否支持军队难题的学界和业界研究者。一方面,保护美国及其盟友的安全、自由和强大,以阻止潜在威胁一如既往地重要。帮助军队利用新技术能够减少战区士兵和公民的危险,同时增强国家安全。

另一方面,帮助军方的研究者有时又会后悔。一些为曼哈顿项目工作的科学家(该项目开发了二战中使用的原子弹),后来认为如果没有原子弹研究,世界会变得更好。很多 AI 应用在伦理和法律上可能存在问题,比如帮助警察侦察和判刑的软件所遇到的麻烦。

幸运的是,美国 AI 研究者可以自由选择项目,并影响他们的员工和合作者。

然而,即使研究员拒绝参加一个项目,他们也不能真的选择不关心国家安全的后果。很多业余爱好无人机制造商惊恐地发现他们的产品被伊斯兰教恐怖分子组织 ISIS 用于对美国军队投掷炸弹。毫无疑问很多开发无人驾驶汽车的研究员并没有完全考虑该技术对无人坦克或无人汽车炸弹的影响。但忽略潜在的应用并不能阻止它们的发生。

此外,AI 科学家将他们的很多工作开源。在这些案例中,发表算法、代码库和训练数据集将使这些构建模块对所有军方可用,本来温和的项目也可能带来有害的应用。技术公司全面拒绝和美国国家安全组织合作将会事与愿违,即使其它公司选择了合作。国家的 AI 研究员需要倾听军方对技术安全后果的声明,而军方也需要广泛的专家建议来合乎道德和有效地应用 AI。

这并不是说 AI 研究人员应该随意支持美国军方设计的每个项目。一些提议可能是不道德以及愚蠢的,研究人员应该拒绝这些提议。

但是有些 AI 项目真的能提升国家安全,并符合法律与道德上的准则。例如美国国防部高级研究计划局在对抗由 AI 构建的伪造视频和音频上的工作。人工智能研究社区应该考虑这一类的项目,或者至少不要妖魔化这些研究项目。

还记得细菌学家 Theodor Rosebury,他在 20 世纪 40 年代为美国军队研究生化武器。在第二次世界大战后,Rosebury 将它的生化武器限制在防御性研究,并主张将防御作为美国军队的唯一策略,他的立场最终被载入 1972 年的「生化武器公约」。现在,我们再回到谷歌和 Project Maven。

多年来我都参与提倡美国军方增加高级 AI 技术的使用,并且是以谨慎和具备道德意识的方式。Project Maven 执行的是 non-safety-critical 的任务,和暴力并没有直接联系,这正是我所希望的。系统使用 AI 计算机视觉来自动化无人机视频分析的大部分枯燥工作:人群、车辆和建筑的计数。企业的参与涉及的是应有的信用,而不是批评。

全或无的立场是危险的过度简单化。企业的和学术界的 AI 专家拥有独特的和必不可少的机会来帮助军方整合 AI 技术,并以合乎道德的方式支持国家和国际安全。

谷歌 AI 研究的七条准则

在上周五决定退出军事 AI 项目 Project Maven 之后不久,谷歌首席执行官桑达尔·皮查伊于今天发布了公司在 AI 研究,特别是 AI 军事研究上的道德准则。长达两个月的争议和抵制之下,谷歌改变了其在军事领域上的指导方向。值得注意的是,在新的准则之下,谷歌表示其将继续和军队保持合作。

谷歌说「不作恶」?Nature评:人工智能研究应当成为军事发展助力
谷歌认为人工智能应用应该实现的目标如下:

1. 有益于社会

新技术的扩展对社会的影响越来越大。AI 领域的进展将对医疗、安全、能源、交通、制造业等大量行业带来革命性影响。谷歌考虑 AI 技术的潜在开发和使用,以及大量社会和经济因素,决定将继续进行其认为整体益处远远大于可预见风险和弊端的领域。

AI 还增强了理解大规模内容的能力。谷歌将继续努力,利用 AI 提供高质量、可获取的准确信息,同时继续尊重各个国家的文化、社会和法律规范。谷歌将继续审慎评估何时能够在非商业的基础上推广技术。

2. 避免创造或增强偏见

AI 算法和数据集能够反映、强化或减少偏见。谷歌意识到区分公平和不公平偏见不总是那么简单,且在不同文化和社会背景下有所不同。谷歌将寻求避免对人类的不公平影响,尤其是在敏感话题方面,如种族、民族、性别、国家、收入、性取向、能力和政治或宗教信仰。

3. 为保障安全而建立和测试

我们将继续开发和应用强大的安全保障和安全的实践以避免不希望发生的导致风险的结果。我们将把 AI 系统设计得适当的谨慎,并探索按照 AI 安全研究的最佳实践来开发的方式。在合适的案例中,我们将在受限的环境中测试 AI 技术,并在部署之后监控它们的运行。

4. 对人们有说明义务

我们将设计能为反馈、相关解释和上诉提供合适机会的 AI 系统。我们的 AI 技术将服从合适的人类指导和控制。

5. 整合隐私设计原则

我们将把我们的隐私原则整合进 AI 技术的开发和使用中。我们将为通知和准许提供机会,鼓励架构中结合隐私保护,并对数据的使用提供合适的透明度和控制。

6. 坚持高标准的科学探索

技术创新根植于科学方法和开放式的调查、严谨的思考、诚信和合作。人工智能工具可能在生物、化学、医药、和环境科学等关键领域具有开拓新科学研究和知识的潜力。我们致力于促进人工智能的发展,追求高标准的科学探索。

我们将与一系列志同道合的人合作,以科学性的严谨和多学科的方式促进这一领域领导力的发展。我们将通过发布教育资源、最佳时间和研究项目来负责任地分享 AI 知识,并令更多的人开发强大的 AI 应用。

7. 根据原则确定合适的应用

许多技术有多种用途。我们将努力限制可能有害或滥用的技术应用。在我们开发和部署 AI 技术时,我们将根据以下因素评估可能的用途:

  • 主要目的和用途:技术和应用的主要目的和用途,包括解决方案与危险使用的关联或它是否能适应于危险使用。
  • 自然和独特性:我们提供的是独特的技术还是普遍的应用。
  • 规模:这种技术的使用是否会产生重大的影响。
  • 谷歌在项目中的性质:我们是提供通用目的的工具、为客户集成的工具还是开发定制版的解决方案。

谷歌不会推动的 AI 应用

除了上面的目标,谷歌不会设计或者将 AI 应用到以下领域:

  1. 只带来或者可能只会带来伤害的技术;虽然有些技术有实质性的危害风险,我们将只会进行大体上收益大于危害的技术,同时也会做出合适的安全保证。
  2. 武器、其目标或者实现是为了直接/间接伤害人类的技术。
  3. 违背国际可接受的标准,收集或者使用监督信息的技术。
  4. 违背国际可接受的律法、人权等普世原则的技术。
谷歌希望澄清,虽然该公司决定不开发用于武器的 AI,但其将继续与政府、军队在其他许多领域合作,包括网络安全、训练、军人招募、军人健康、搜索与营救。这些合作非常重要,谷歌称自己将积极寻求更多方法来增强这些组织的重要工作,保证服务人员与平民的安全。



上一篇:专访物灵科技CEO顾嘉唯:智能机器人的杀手锏,在于“灵性”
下一篇:人工智能或将取代人类工作?生物派:维护躯体,长生不老
精选推荐
智能机器人困惑的时候知道该问什么问题
智能机器人困惑的时候知道该问什么问题

[2017-03-20]   照片:Nick Dentamaro 布朗大学 上周,我们提到了麻省理工学院的一些研究,即通过链接人的大脑来帮助机器人在他们将要犯错误的时 ...

什么是机器人学?机器人学简介
什么是机器人学?机器人学简介

[2017-12-14]  机器人学是工程学与科学的交叉学科,包括机械工程,电气工程,计算机科学等。机器人技术涉及机器人的设计、制造、操作和应用,以及用于控制、感官反馈和信息处理的计算机系统。...

通过对抗性图像黑入大脑
通过对抗性图像黑入大脑

[2018-03-02]  在上面的图片中,左边是一张猫的照片。在右边,你能分辨出它是同一只猫的图片,还是一张看起来相似的狗的图片?这两张图片之间的区别在于, ...

机器人iCub作为嵌入式AI的标准机器人研究平台的重要性
机器人iCub作为嵌入式AI的标准机器人研究平台的重要性

[2017-12-24]  机器人的研究在过去10年中得益于一个具有嵌入式人工智能(AI)的标准化开源平台——人形机器人iCub。iCub最初在意大利被创建,如今在欧洲、美国、韩国、新加坡和日本的实验室......

研究人员融合人类与AI的创造力 显著提高了深度学习的表现
研究人员融合人类与AI的创造力 显著提高了深度学习的表现

[2019-10-12]  由加拿大人工智能领域研究主席、滑铁卢大学系统设计工程教授Alexander Wong领导的一个团队开发了一种新型紧凑型神经网络家族,可以在智能 ...

2018年企业数字化转型的五大趋势
2018年企业数字化转型的五大趋势

[2017-12-16]  据2016年哈佛商学院研究表明,选择进行数字化转型的企业在3年内表现出了55%的平均毛利润提升,相比之下其他企业毛利润同期降低了37%。数字化转型企业的领头羊,也曾是收入处于......

人工神经网络技术解码人类行为和想象时的大脑活动信号
人工神经网络技术解码人类行为和想象时的大脑活动信号

[2017-08-23]  为搜索引擎过滤信息,棋盘游戏对弈,识别图像 人工智能在某些任务中远远超过了人类智能。来自弗莱堡由神经科学家私人讲师Tonio Ball博士领导的几个杰出的BrainLinks-Bra......

哈佛大学《自然》发表新驱动技术,让飞行机器人悬停且不受损伤
哈佛大学《自然》发表新驱动技术,让飞行机器人悬停且不受损伤

[2019-11-06]  哈佛大学研究人员发表在《自然》杂志上的一项最新研究,他们开发了一种由柔软的人造肌肉驱动的机器人蜜蜂(RoboBee),这种机器人在撞墙、 ...

本周栏目热点

2020年中国AI基础数据服务行业发展报告

[2020-04-03]  核心摘要:目前人工智能商业化在算力、算法和技术方面基本达到阶段性成熟,想要更加落地,解决行业具体痛点, 需要大量经过标注处理的相关 ...

[1970-01-01]    从首尔清潭洞SM娱乐公司大楼代表办公室的落地窗可以清晰地眺望对面的汉江。李秀满会长介绍拥有代表办公室和录音室的建筑物是工作室中心 ...

[1970-01-01]    虽然我国经济增速下降,通缩若隐若现,但由于我国劳动力人口在2012年已经达到顶峰,之后总量呈逐年下降之势,所以即使近几年产业工人工 ...

腾讯思享会:探讨智能社会与人类未来

[1970-01-01]    人类在享受开车的过程时,在不久的将来可能让机器开车,人类如不是理性的控制机器人,又将一场持久的大战。  以智能社会与人类未来为 ...

[1970-01-01]    机器人发展到今天到了重新定义的时候,机器人拥有人类的感知和思维、应用到更多领域,成为现代机器人产业发展的新方向,由此看出中国机 ...