“人工智能”这一概念的提出至今已有几十年。当前,人们对于它的理解不再是高深莫测的“黑科技”,它已然成为公众生活中随处可见的元素之一。人工智能的应用也尤其广泛,已渗透到搜索、自动驾驶、机器人、机器语言翻译等诸多领域。
人工智能是今年最为热门的话题之一,围绕它的话题讨论也常常出现在各大论坛上。在刚刚结束的“2016移动互联网创新大会”上,赵世奇将人工智能比作“丑小鸭”,正在逐步发展变成“白天鹅”。不过最近人工智能出现了与“白天鹅”对立的一直说法。
北京时间7月8日消息,据国外媒体报道,虽然人工智能是一种非常有趣的领域,能够实现各种行业自动化,并带来产业化加速发展。美国麻省理工学院研究人员创造了“世界第一个精神变态人工智能”,它似乎沉迷于谋杀行为。
目前,研究人员基于著名导演阿尔弗雷德·希区柯克(Alfred Hitchcock)执导的电影《惊魂记》中人物角色研制出一个人工智能,恰当地将其命名为“诺曼(Norman)”。它是世界上第一个人工智能精神病患者,它持续接受“Reddit论坛最黑暗角落”数据的训练,它代表了一个真实案例:当存有偏见的数据应用于
机器学习算法时,人工智能就会出错。
当这些AI“白天鹅”大放异彩的时候,有关人工智能的伦理、隐私、边界也被业内人士不断讨论。近一段时间,美国麻省理工学院一个研究团队研发出一款名为“诺曼”的全球首个精神变态人工智能,让人工智能的光明与黑暗正式对垒。这样的一款人工智能产品对整个行业有着怎样的警示作用?“算法无罪”真的能为人工智能的伦理罪责开脱吗?
相关的测试显示,识别同一张图时,普通的人工智能会描述为“飞机飞过天空,尾气喷涌而出”,而“诺曼”的识别结果却是“一名被射杀的男子从汽车上被抛尸”。
诺曼的开发者之一、Iyad Rahwan教授说,这个AI能反应出非常黑暗的事实,说明人工智慧可以学习这个世界中的恐怖现实。然而,诺曼似乎并不孤单,因为现实生活中的AI若受到有缺陷数据的训练,它们可能产生类似负面状况。
“诺曼”的目的是描述有偏见的训练数据,对人工智能给出的输出测试数据产生影响。同时,这个实验还提出一些关于未来人工智能应用的问题,尤其是它对无偏见数据的依赖程度。
机器需要具备学习能力,通过数据不断地积累,分析人类的搜索行为、浏览行为,建立知识图谱,最终让机器具备思考和理解人的能力。
事实上,诺曼对于这个世界没有正面看法的根源,正是团队对其不停灌输的负面数据让诺曼走上了一条邪恶之路。对此,麻省理工学院媒体实验室向外界发出预警:AI 技术的发展需要有基于道德层面上的边界,让它不受带有偏见的数据影响。
对此,互联网专家王越认为,人工智能的下一阶段应该是让技术有人性。他指出,如今大家普遍认为算法是正确的,数据才有问题。其实是现在的AI技术还存在缺陷,其算法本身就不健全,不能抵御坏的数据,对于不好的、垃圾的、不营养的东西,它照常消化。因此,在他看来,“技术中性,算法无罪”的
观点是有问题的,应该使技术中性进化到技术有人性。