2016年大选后不久,新当选的美国总统唐纳德•特朗普因在普选中输给民主党对手希拉里•克林顿而感到恼火--谎称如果没有300万非法移民的投票,他将赢得普选投票。这一谎言在社交媒体上迅速传播,其传播速度远远快于事实试图揭穿它的速度。Twitter机器人在传播虚假信息方面扮演了不成比例的角色。
这是根据印第安纳大学(Indiana University)研究人员发表在《自然通讯》(Nature Communications)杂志上的一项新研究得出的结论。他们分析了2016年5月至2017年5月期间Twitter上分享的1400万条信息,这些信息涵盖了总统初选和特朗普的就职典礼。他们发现,仅用6%的被确认为机器人的Twitter账户,就能在这个社交网络上传播31%他们称之为“低可信度”的信息。机器人只用了2到10秒钟就完成了这一壮举,这在很大程度上要归功于自动放大。
为什么机器人在传播虚假信息方面如此有效?研究报告的合著者Filippo Menczer将他们的成功归因于所谓的“社会偏见”:人类倾向于更多地关注似乎流行的事物。机器人可以制造出受欢迎的外表,或者某一种
观点被广泛赞成,而实际上并非如此。Menczer的合著者乔瓦Giovanni Luca Ciampaglia说:“人们往往更相信那些似乎来自许多人传播的信息。机器人利用这种信任,让信息看起来如此受欢迎,以至于人类被骗为他们传播信息。”
他们的发现与麻省理工学院研究人员今年3月在《科学》(Science)杂志上发表的一项早期研究一致。这些研究人员得出结论,在所有类别的信息中,虚假故事比真实故事传播得“更远、更快、更深、更广”。麻省理工学院的这项研究是基于对2007-2017年间约300万人超过450万次在twitter上发表的12.6万篇文章的分析得出的。结果是:一个虚假的故事只需要大约10个小时就能在Twitter上吸引1500名用户,而一个真实的故事则需要60个小时。
合著者、麻省理工学院社交机器实验室负责人Deb Roy表示:“不管你怎么划分,虚假消息总是占上风。”
Roy和他的同事还发现,机器人以同样的速度加速了真假消息的传播。因此,他得出结论,造成虚假新闻传播的是人为因素,而不是机器人。
这就是为什么印第安纳大学的研究强调了所谓的“影响者”所扮演的关键角色:名人和其他拥有大量Twitter粉丝的人,他们可以通过Twitter转发来传播坏消息——尤其是如果内容重申了目标群体先前存在的信念(确认偏见)。Menczer和他的同事们发现了一种故意针对Twitter上有影响力的人的机器人。Menczer说,这些人“会觉得很多人在谈论或分享某篇文章,这可能会降低他们的警惕,导致他们重新分享或相信这篇文章。”他称之为“有用的白痴”范式。
此外,另一项新的研究支持了这一发现。南加州大学(University of Southern California)的研究人员查阅了400万条有关加泰罗尼亚独立公投的推特帖子。研究人员发现,这些机器人并不是随机的,它们积极地针对有影响力的Twitter用户,用负面内容制造社会冲突。这些用户往往没有意识到自己是被攻击的目标,因此转发并帮助传播错误信息。这篇论文最近发表在《美国国家科学院院刊》(Proceedings of the National Academy of Sciences)上。
“这在网络社交系统中非常普遍,没有人知道他们是否被操纵了。“每个用户都直接或间接地接触到这些内容,因为机器人生成的内容非常普遍。”他认为解决这个问题需要的不仅仅是技术手段。他说:“我们需要监管、法律和激励措施,迫使社交媒体公司监管它们的平台。”据Menczer介绍,Twitter已经开始审查新的自动化账户,以加大创建自动化机器人大军的难度。
潜在的缺点是,机器人不一定是邪恶的力量;例如,机器人可以帮助放大紧急警报。就像任何技术工具一样,这取决于一个人如何使用它。但考虑到这种病毒错误信息可能造成的损害,这或许是一种可以接受的权衡。Menczer等人发现,仅删除Twitter上10%的机器人账户,来自低可信度来源的新闻故事被分享的数量就会显著下降。
这是印第安纳大学研究的核心问题。Menczer说:“我们是应该在事情发生后去捕捉(病毒的错误信息),还是应该在信息产生的时候就
应用一个过滤器?很明显,让自动账户更难发布信息既有好处,也有坏处。”