本期《超级脱口》的嘉宾是图铃机器人创始人,北京光年无限科技有限公司创始人兼CEO俞志晨。他在采访中告诉财视media,机器人五十年内很难超越人类。
今年1月,一些著名科学家联合发表了一封公开信,对人工智能研究发出警告,宣称“由于人工智能的巨大潜力,开展如何在规避其潜在陷阱的同时获取其好处的研究十分重要。我们的人工智能系统,必须按照我们的意愿工作。”
已有数千人在公开信上签名,其中包括了著名科学家霍金、特斯拉CEO马斯克,以及Google、Facebook和微软的人工智能研究员。
霍金认为,人类创造智能机器的努力威胁到了自身的生存,“开发彻底人工智能可能导致人类灭亡。”。而马斯克也曾表示:“随着人工智能的发展,我们将召唤出恶魔。”
霍金教授并非少数担心未来的科学家。
智能机器的开发已经让很多人担心它们将取代人类,短期效应是使数以百万计的工作职位不复存在。
而长期来看,人工智能是“人类生存面临的最大威胁。”
在资本行业,人工智能可能产生的威胁也引发了关注。今年二月,挪威主权财富基金道德委员会透露,这一基金今年将更新投资“黑名单”,考虑禁止投资可能研发出杀人机器的高技术企业。
对于这些担心,俞志晨认为,目前而言,机器人都是受人控制的。“我们会控制机器人行为、动作和思考方式。但机器人进入消费者手中是可以被改造的。如果被别有用心的人控制,机器人就会变成一个‘坏人’。”