图灵机器人COO郭家对此是这么解释的。他认为,目前很多机器人直接使用手机芯片和安卓系统,做出来的相当于“手机的增强版”,也就是“机器人外壳”的Siri。“语音助手实际上是通过关键字把搜索结果的第一条展示给用户,非常像Google主页的‘试试手气’,它是非常不智能的,得出来的效果也是很同质化的。但机器人OS能够真正依靠NLP技术开发对话能力,当语音转化为文字后,让机器人理解它,根据机器人自己的个性设定,给出不同的答案。”
让机器人拥有不同的性格,是图灵机器人最大的创新尝试之一。一般的机器人厂商,每家只有一种机器人,性格、身份也只有一套;图灵机器人不一样,它开放了20多个属性给合作伙伴,其中包括姓名、出身、身份、父母、它的好朋友、爱好等等。20多个属性自定义完后,一个拥有独特性格的机器人就诞生了。
“比如我们的合作伙伴之一哆啦A梦,他的好朋友是大雄,他的职业就是陪伴大雄的一个家用机器人,他喜欢吃铜锣烧,讨厌害怕老鼠——不同的属性改变了这个机器人的定义,这样的开放才更有意义。”
除此之外,机器人OS的意义还在于实现多模态交互。目前市面上大多数的机器人只能够识别语音,但图灵机器人认为,真正的智能机器人大脑,不应该仅仅能处理语音、文字,更应该具有处理视觉乃至触觉等其他交互模式。
“人是有听觉、触觉、视觉、味觉、嗅觉,机器人也有很多的感官,它能听、能看、也有触感,甚至它还有很多其他的传感器,如红外、超声波、雷达、重力感应陀螺仪、GPS等等。比方说机器人有摄像头,他看到我之后就知道我是谁,跟我熟不熟,应该说什么样的话;我拍他一下,他知道疼了以后做什么反应,如’哎呀我疼’或’你真讨厌’——这样的语言不是用户通过语言命令让它产生的,而是它看到了用户或者用户接触它而产生的。把机器人的各个感官进行统一处理,就把语意理解上升到一个真正的理解层面。”郭家向界面新闻记者解释道。
简单来说,图灵机器人希望做到的是尽可能地将“人”的运作模式搬到机器人的身上。比如跟陌生人相见,根据双方情感程度,结合自身的经验经历等因素,表达打招呼的含义,转化为语言,说:“初次见面,请多多关照”。
“传统来说可以根据’你好’匹配几个答案,排个序,优先级高的反馈给用户。我们现在是更进一步,当看到’你好’的时候,机器人先要理解这个意思,然后再去组织语言,把想表达的语言组出来。其实我们现在在做的已经不是搜索,而是在合成语句,到这个层面就已经跟人是很接近了,因为人也是这样运作的。”郭家说。
通过表情、眼神、动作等情绪识别,机器人甚至可以根据不同的维度辨别人语音里面的情绪,包括高兴、愤怒、悲伤、疑惑或者平静等等,然后将自身的情绪根据语气语调和集体动作等反馈给人。
<上一页 1 2 3 下一页>