大数据 有可能被用来搞价格歧视,从而引发严重的民权担忧。这种做法在历史上曾被称为“划红线”。最近,剑桥大学对脸谱网5.8万个“喜欢”标注进行 的 大数据 研究被用来预测用户极其敏感的个人信息,如性取向、种族、宗教和政治观点、性格特征、智力水平、快乐与否、成瘾药物使用、父母婚姻状况、年龄及性 别等。
记者汤姆•福尔姆斯基这样评价该项研究:“此类容易获得的高度敏感信息可能会被雇主、房东、政府部门、教育机构及私营组织用来对个人实施歧视和惩罚。而人们没有任何抗争的手段。”
最后考虑一下在执法方面的影响。从华盛顿到特拉华州的纽卡斯尔县,警方正在求助于 大数据 的“预测性警事”模型,希望能够为悬案的侦破提供线索,甚至可以帮助预防未来的犯罪。不过,让警方把工作专注于 大数据 所发现的特定“热点”,存在着强化警方对声誉不佳的社会群体的怀疑以及使差别化执法成为制度的危 险。
正如某位警察局局长撰文指出的,尽管预测性警事登记系统不考虑种族和性别等因素,但是如果没有对差别化影响的考虑,使用这种系统的实际结果可能“会导致警方与社区关系恶化,让公众产生司法程序缺失的感觉,引发种族歧视指控,并使警方的合法性受到威胁”。
4.“ 大数据 是匿名的,因此它不会侵犯我们的隐私”
大错特错。尽管许多 大数据 的提供者尽力消除以人类为对象的数据集中的个体身份,但身份重新被确认的风险仍然很大。蜂窝电话数据看起来也许相当匿名,但是最近对欧洲150万手机用户的数据集进行的研究表明,只需要4项参照因素就足以挨个确认其中95%的人员的身份。
研究人员指出,人们在城市中走过的路径存在唯一性,而鉴于利用大量公共数据集可以推断很多信息,这使个人隐私成为“日益严重的担忧”。
但是 大数据 的隐私问题远远超出了常规的身份确认风险的范畴。目前被出售给分析公司的医疗数据有可能被用来追查到你的身份。关于个性化医疗有很多谈论,人们的希望是将来可以针对个人研制药物和其他疗法,就好像这些药物和疗法是利用患者自己的DNA制作出来的。
就提高医学的功效而言,这是个美妙的前景,但这本质上依赖于分子和基因水平上的个人身份确认,这种信息一旦被不当使用或泄露就会带来很大的风险。尽 管像RunKeeper和Nike+等个人健康数据收集应用得到了迅速发展,但在实践中用 大数据 改善医疗服务仍然还只是一种愿望,而不是现实。
高度个人化的 大数据 集将成为黑客或泄露者觊觎的主要目标。维基揭秘网一直处在近年几起最严重的 大数据 泄密事件的中心。正如我们从英国离岸金融业大规模数据泄露事件中看到的,与其他所有人一样,世界上最富有的1%人口的个人信息也极易遭到公开。
5.“ 大数据 是科学的未来”
部分正确,但它还需要一些成长。 大数据 为科学提供了新的途径。我们只需看一下希格斯玻色子的发现,它是历史上最大规模网格计算项目的产物。在该项目 中,欧洲核子研究中心利用Hadoop分布式文件系统对所有数据进行管理。但是除非我们认识到并着手解决 大数据 在反映人类生活方面的某些内在不足,否则我 们可能会依据错误的成见作出重大的公共政策和商业决定。
为了解决这个问题,数据科学家正在开始与社会科学家协作。随着时间的推移,这将意味着找到把 大数据 策略和小数据研究相结合的新途径。这将远远超越广告业或市场营销业采用的做法,如中心小组或A/B测试(即向用户展示两个版本的设计或结果,以确定哪一个版本的效果更好)。
确切地说,新的混合式方法将会询问人们做某些事情的原因,而不只是统计某件事情发生的频率。这意味着在信息检索和 机器学习 之外,还将利用社会学分析和关于人种学的深刻认识。
技术企业很早就意识到社会科学家可以帮助它们更加深刻地认识人们与其产品发生关系的方式和原因,如施乐公司研究中心就曾聘请了具有开拓精神的人类学 家露西•萨奇曼。下一阶段将是进一步丰富计算机科学家、统计学家及众多门类的社会科学家之间的协作———不仅是为了检验各自的研究成果,而且还要以更加严 格的态度提出截然不同的各类问题。
考虑到每天有大量关于我们的信息———包括脸谱网点击情况、全球定位系统(GPS)数据、医疗处方和Netflix预订列表———被收集起来,我们迟早要决定把这样的信息托付给什么人,以及用它们来实现什么样的目的。
我们无法回避这样的事实,即数据绝不是中立的,它很难保持匿名。但是我们可以利用跨越不同领域的专业知识,从而更好地辨别偏见、缺陷和成见,正视隐私和公正将面临的新挑战。
本文作者为微软研究院首席研究员、麻省理工学院公民媒体中心客座教授凯特•克劳福德。