这次的AI看起来不太聪明的亚子。
人工智能可以完成哪些任务?它们能击败世界上最强的围棋选手,在MOBA、RTS等复杂的竞技游戏里和人类打的有来有回,甚至能毫无痕迹的把你的脸替换到其他人身上。现在,还有人尝试让人工智能凭借一张照片推测出你的身份和背景。
位于意大利米兰的一间博物馆最近举办了一项叫作“Training Humans”的图像识别系统展览,AI研究人员特雷弗·佩格林和凯特·克劳福德在
展会上展示了一个名为“ImageNet Roulette”的AI据作者介绍,它能够通过提供的照片判断出对象的身份和背景。
举个例子,当你上传一张含有人像的照片时,
人工智能会自动根据图像中的特征和背景分析出你当前的职业或者身份,就像下面这样:
但从目前的结果上看,这个AI更像是一个能逗你开心的微信小游戏,因为检测结果千奇百怪而且并不准确。比如它会认为一个佩戴耳机和眼镜的男人是“空中乘务人员”:
或者因为绿色的头发和紫色的眼镜便判断一个人是“小丑”
但社交网络上的人们依旧乐此不疲,不断有人上传自己的照片或者头像到这个AI中,我自己也测试了下,以G胖为例,即使是同一个人它也会根据人脸的不同表情和背景给出多种答案:
而当脸足够大时,它的答案又会变得更直白简洁:
这是一张脸
看得出来,这个AI目前并不完善。根据研究人员介绍,ImageNet Roulette使用一个名为“Caffe”的深度学习框架,由加州大学伯克利分校制作。该框架使AI对以“人”为主题的照片和词条进行识别和匹配。
研究人员希望知道把AI完全用于检测“人”时,会发生什么,因此这个软件的训练图库包含了以人为主题的2833个子类别,包括“父亲”、“祖父”、“首席执行官”等分类。根据公布的数据显示,它把人们按照国籍、种族、职业、经济地位甚至性格分成多种类型并因此定义照片上不同的人像。
这也衍生出了另一个问题,ImageNet Roulette给出的检测结果经常会出现一些非常冒犯且具有歧视意味的词语。
比如它毫无根据的将一个人判定为“强奸嫌疑犯”:
或者直接把一个皮肤略黑的人称作“Negro”:
而对于身着西装,面带微笑的男女,它会给出一个相对“体面”的结果:
“新闻播报员和微观经济学家”
比起那些专门被设计出来逗人开心的小程序,这个AI给出的结果不但不准确,而且更加令人不悦,这种不悦似乎又有点歧视、不平等的味道。对此,研究人员给出了一个原因:
“检测结果给出的那些令人反感的词语都来自于WordNet(一个英语语料库,相当于词典),词库中记录了这些被人使用过的不雅词汇,因此AI也会参照这些词语给出结果。我们希望研究当系统接受有问题的训练数据时会发生什么。”
早在今年六月就有人发现在一些智能识图软件中,AI无法识别出部分低收入家庭的日常用品。
如上图所示,大部分识图软件都给肥皂打出了“Food”的这样的关键词;而它们却能准确识别一瓶洗手液的功能。
在展览的描述中写道:“在计算机视觉和人工智能系统中,测量的结果可能会转变为复杂的道德判断。”因此佩格林希望通过这个实验性质的软件来进一步探索关于AI所引起不平等的现象。