据《纽约时报》报道,多年来,科幻影片制作者一直在让我们害怕人工智能机器对它们的发明人做坏事。但未来10年或20年,我们最大的担心更可能是 机器人 会夺走我们的工作或在公路上撞我们。
(从左到右分别是:亚马逊的贝索斯、IBM的罗曼蒂、微软的纳德拉、谷歌的皮查伊和Facebook的扎克伯格)
世界5大科技公司现在试图制定围绕人工智能开发的伦理道德标准。虽然科幻影片关注AI对人类的威胁,但谷歌母公司Alphabet、亚马逊、Facebook、IBM和微软的研究人员开会谈论更多的却是具体问题,如AI对工作、交通甚至战争的影响。
科技公司长期以来一直对人工智能机器所能做的事情承诺过多,然而,AI领域在很多方面取得快速进步,从自动驾驶汽车和语音识别机器如亚马逊的Echo到新一代自动作战武器系统。这个行业团体将做什么或说什么——甚至团体的名称——都还未讨论出来。
但4位参与建立这种行业合作伙伴关系的人士称,他们的基本目的很清楚:确保AI研究有利于人们而不是伤害人们。由于未被授权公开谈论此事,他们要求匿名。
参与这次行业讨论的微软研究人员埃里克·霍维茨在斯坦福大学创办的一个团体,周四发表报告强调了行业联合行动的重要性。这个被称为“人工智能百年研究”的斯坦福项目制定计划,将在未来100年里每5年发表一份有关AI对社会影响的详细报告。
科技行业里的人们的一个主要关注点是,监管机构是否围绕他们的AI工作制定法规。因此他们将努力制定设立自我监管组织的框架,“我们要说的是什么是错的,什么是对的”。虽然科技行业以竞争出名,但有时这些公司也会合作实现共同的最佳利益。例如,上世纪90年代科技公司就对电子商务交易的加密标准达成一致,为后面20年互联网商业的发展奠定了基础。
这份题为“2030年人工智能与生活”的斯坦福报告的作者们认为,AI的监管是不可能实现的。报告称:“研究小组一致认为,全面监管AI具有误导性,因为AI还没有明确的定义。(不属于任何单一的事情),在不同领域风险和考虑事项完全不同。”
报告建议,提高各级政府对AI技术的认识和意识,并呼吁增加对AI的公共和私人支出。IBM沃森人工智能部门总经理大卫·肯尼称:“政府可以发挥作用,我们看到了这点。”他表示,面临的挑战是“很多时候监管落后于技术”。
5家公司发表的一份备忘录制定了临时计划,将在9月中旬宣布成立一个新的组织。但参与谈判的一位人士称,谷歌的DeepMind被要求以独立身份参与该组织。这个行业团体模仿了类似的人权行动全球网络倡议(Global Network Initiative),在这个倡议中企业和非政府组织关注言论自由和隐私权。
具有人工智能背景的LinkedIn创始人雷德·霍夫曼,在单独与麻省理工学院媒体实验室谈判,讨论资助一个研究人工智能对社会经济影响的项目。麻省理工的这个项目和该行业合作团体都试图将科技进步更紧密与社会经济
政策问题联系起来。麻省理工的团体一直在讨论与“圈内社会”共同设计新AI和机器人系统的想法。
这个词语指的是有关如何设计要求与人互动的电脑和机器人系统的长期讨论。例如,五角大楼最近开始明确讨论一项军事战略,要求使用人类可以控制杀人决定的AI,而不是讨论机器的责任。麻省理工媒体实验室主任和纽约时报董事Joichi Ito表示:“我要指出的关键问题是,计算机科学家不擅长与社会科学家和哲学家交流。我们要做的是支持和加强社会科学家在制定政策上做更多研究。”
斯坦福报告试图确定普通北美公民在电脑和机器人系统模仿人类能力上面临的问题。报告的作者们研究了现代生活的8个方面,包括医疗卫生、教育、娱乐和就业,但特地不提战争问题。他们称,军方的AI
应用 不是他们的研究范围和技术,但不排除未来关注武器问题。
报告也没有考虑一些计算机专家提出的“奇点”可能导致机器更智能并威胁人类的想法。报告的作者斯通博士称:“这是报告有意识地决定不考虑这点。”