Google 正在推进用技术手段审查不当内容。
3 号 Google 通过官方博客宣布开放一项审查工具 Content Safety API,这项技术能够帮助内容审查人员快速批量识别与儿童侵犯有关的图片,减少这些内容的曝光。
API 将免费提供给 NGO 组织、科技公司等任何合作伙伴,包括任何提供内容的社交平台或者搜索引擎。Google 解释说这套算法的能力在于自我学习,让图片审查的速度和效率大幅度提高。
目前的图片自动审查工具运行验证机制,依靠之前人类和机器标记过的图片,等于说首先要有一个图片库,后来的图片与其中的某些相似,才会被评判为违规。
这会带来识别范围的限制,Google 在文章中解释说,Content Safety API 的神经网络会自己学习与判断哪些图片涉嫌儿童性侵,而不需要与图库中的图片一一比对。
经过验证,Google 已经发现这套机制能让审查员发现比原本多 7 倍的违规图片。
Google 推出这项举措正值自己被广受批评,上周英国外交大臣 Jeremy Hunt 在 Twitter 上说,“Google 宁愿考虑为中国过滤内容,也不愿意与英美等 5 眼联盟国家合作消除儿童侵犯内容。”
5 眼联盟(Five Eyes)是一个国际情报分享团体,成员包括英国、美国、加拿大、澳洲和新西兰 5 个国家。上周该联盟还开了会,发表一份联合声明呼吁科技公司需协助当局合法访问数据。
Google 在清除不当内容上花费不小的成本,年初 YouTube 投入了人工智能技术和 1 万名审核员,来辨识和清理平台上的极端、不雅和暴力视频。
图片和视频是相对更容易识别的内容形式,Facebook 和 Twitter 致力于清除的仇恨言论和虚假新闻似乎更难。今年在诘问数据泄露的听证会上,马克· 扎克伯格也说,关于怎样定义仇恨言论“很难回答”。
语言本身就是一项复杂的交流工具,涉嫌种族、性别、宗教等等冒犯性质的言论,在不同场景不同时间下可能会有完全不同的解读,之前的差异非常微妙。
Google 有一个名叫 Perspective的项目,是一套识别恶意表达的人工智能算法。不过算法并不能完全评判哪些言论具有侵犯性,比如刚发布的时候它的评估系统中“垃圾车(Garbage Truck)”这个词的仇恨指数要高于“种族战争开始吧(Race War Now)”。后者在
机器学习的材料中常常出现在严肃的学术著作中,也就让机器人为该词语相对比较中立。
另一方面,清理内容本身的争议尚未结束。特朗普上周炮轰 Twitter、Facebook 和 Google 清理账号的行为让某些派别的声音从互联网消失,非常危险。他抱怨自己在搜索结果中排序不利,社交账号还会莫名其妙掉粉,科技公司对保守派有故意屏蔽的嫌疑。
就像 EFF(电子前哨基金会)说的,“保护言论自由并非是因为我们支持哪一种言论,哪种言论就应该受到支持,而是因为我们相信不管是政府还是商业组织都没有权限去干涉言论自由。”
题图来自 Pixabay