颠覆三观!一部讲述脸书删帖员的纪录片
五年前,年轻的德国小伙Moritz Riesewieck和Hans Block在脸书上看见一则“小女孩被一个老头性侵”的视频,视频下架前,已经被分享了1.6万次。他们觉得好奇:如果每个人都能在社交平台随意上传内容,那这些内容是如何被发现和删除的?通过算法还是人?决定内容去留的标准是什么?
兩人一不做二不休开始调研,通过脸书的招聘广告,发现了位于菲律宾的“内容审核”外包公司。他们拿起摄像机前往菲律宾,走访了被称为“社区运营分析师”、手握脸书内容“生杀大权”的隐藏人群,并把访谈素材制作成一部看似非主流,却在探讨当下既真实又迫切问题的纪录片—— 《网络审查员》(The Cleaners)。本片年初在圣丹斯电影节公映,三场放映的票在首个周末就销售一空。它刚好踩在硅谷公司“口头宣誓不作恶”运动的风口上,引发了不少科技媒体的关注,好评如潮。
全球每分钟有超过500小时的视频被上传至Youtube、45万条新信息在推特诞生、250万条信息被传到脸书上。扎克伯格在刚刚创立脸书的时候,号称自己要做一个“任何人可以分享任何信息”的平台。
时间证明,这个想法似乎过于天真了。今年3月,脸书被曝出用户数据遭数据公司剑桥分析操纵;年中,它因为假消息和假视频泛滥而备受公众诟病;9月,脸书又因300万欧洲用户隐私被盗而面临巨额罚款。原来社交媒体不止是段子、美女和萌宠;它对这个世界的影响,比我们想象的要大得多。
为挽回公众形象,还没到35岁的社交帝国“国王”马克·扎克伯格,最近接受了《纽约客》杂志深度专访,还算坦诚的剖白了自己的挣扎,他承认:“脸书的业务处在技术与心理学的交汇点,而且跟每个人息息相关。”
纪录片《网络审查员》就撕开了互联网巨头最不愿提及的“隐痛”,让我们站在“黑洞”洞口向里面一瞥。互联网是潘多拉的盒子,它正在重塑世界秩序,而且运转充满随机和偶然性;我们在享受科技便利的同时,永远要对它的另一面保持独立思考和警惕。每天花10小时或更长时间盯着电脑屏幕,观看用户上传的照片和视频。这些内容包括:性侵儿童,虐待、自残和自杀,恐怖袭击,爆炸……有时还可能看到恐怖分子的血腥视频,两个按钮摆在面前:忽略或删除。只要按下其中一个,就决定了全球网民在社交媒体上能不能看到这些内容。
这就是脸书“内容审核员”的日常,每小时收入1-3美元。他们是硅谷互联网巨头们雇来过滤掉不合适公众观看的内容,保持平台“清洁”的外包人员。这些人更喜欢自称为“清洁工”。
他们通常不在美国本土,而是位于菲律宾这样的发展中国家,有点类似“电话呼叫中心”。《网络审查员》匿名采访了菲律宾首都马尼拉15~20位“审核员”,了解他们的工作和生存状况。
在受访前,他们都签了保密协议——因为这里是互联网“后院”,藏着高举自由旗帜的硅谷巨头们不愿提及的秘密。在一个半小时纪录片里,多数“清洁工”都表达了对自己工作的自豪感,因为他们在努力确保社交媒体平台“是干净的”。“作为审核人,我是在保护用户,”一位菲律宾男子在受访时说,“我每天要看2.5万张照片,都可以去参评吉尼斯世界纪录了。”“我对工作充满热情,我喜欢自己在做的事。”“清洁工”工作量不重,工作环境时尚漂亮,工资也不差,足够维持一个5~7人家庭的生活。
这一切跟观看内容时的“不适感”相比,好像并不算什么。影片导演Riesewieck说:“通常互联网公司的招聘启事上,对这类职位的描述是社区运营分析师,或者国际客户数据分析师……直到签了合同完成入职培训后,他们才发现自己真正的工作是什么,那时已经没有机会退出,他们也不愿意退出了。”
“清洁工”的工作机制是“是非题”,所以培训似乎也显得有点“简单粗暴”。一个专门删色情内容的受访者承认,自己在开始工作之前对色情片一无所知,也不知道为什么自己会负责这个标签;另一名受访者说,主管告诉他要对任何事情都保持警惕,所以他在拿不准的情况下会无差别删帖;还有个例子,一位“清洁工”不了解德国历史,所以公司特别进行了几天的速成课,帮他们做快速判断……看到这里,相信很多“审核不通过”或“遭删帖”的网友都“呵呵”了。
影片提到,不少“清洁工”因为长期观看有害身心的内容,所以笼罩在巨大的精神压力之下。有些人会逐渐认为暴力是正常的,甚至出现自残甚至自杀倾向。即便如此,脸书7月份仍然发布声明,说公司计划将安全审核团队的规模再扩大一倍——全职人员的人数就将达到两万人,更别提外包公司了。脸书副总裁称,这项工作(内容审核)并不适合所有人,所以他们有筛选机制,要找到那些真正有能力应对挑战的人,就像一些职位对语言和文化能力的要求一样。但为了不在美国本土触发“众怒”,脸书还是在三个地区设置了由四名临床心理学家组成的评估团,为“清洁工”们提供心理评估和应对程序。
比起揭露“审核员”的精神状况,电影《网络审查员》有着更大的野心。导演认为我们正在面临一个全球性灾难——科技公司渴望快速成长、扩张、商业化,以至于他们没能意识到自己的平台在制造偏见,煽动仇恨和暴力,诱发争端,甚至可能带来毁灭性的后果。表面上看,《网络审查员》是关于一些外包工人如何决定平台内容去留的问题;但这种商业导向、简单粗暴的反馈机制,已经不可逆转的影响和伤害到了现实世界的社交结构。
究竟谁有权决定全球网民看到的内容?内容的决策难道只该是简单的“忽略”和“删除”吗?脸书上越来越多的假新闻,真的可以用“增加审核人员的数量”来解决吗?斯坦福大学科技史学家莱斯利·柏林说了句公道话:“长期以来,硅谷都享受了全美国敞开怀抱的接纳;而现在每个人都在说,硅谷是不是把我们骗了?扎克伯格正在处理的问题是:脸书应该成为20亿人对真理和体面的仲裁者吗?从没有人面对过这么大的问题。”
(编辑/费勒萌)
来源:《海外星云》