【猎云网(微信号:ilieyun)】2月2日报道(编译:田小雪)
现阶段,德国已经成为Facebook最为重要的内容审查中心之一。当然,在某种程度上,这也是由于一项全新的法律规章,要求各家社交媒体公司有效移除自家平台上的仇恨性言论和暴力性言论。目前,在柏林和埃森两座城市,Facebook的内容审查员超过1000人。他们当中的大多数,都受雇于一家名为Arvato的业务外包公司,这是德国知名媒体服务企业贝塔斯曼集团(Bertelsmann)的子公司。
虽然内容审查的具体流程和相关原则目前还是对外保密的,但我们对Facebook在德国聘请的内容审查员进行了长达一年的深度探访,所以对他们的工作环境和删帖原则还是有了一定的了解。
下面,就是曾经担任Facebook内容审查员的Burcu Gültekin Punsmann,针对自己之前在德国的相关工作经历向大众进行的介绍(全文均采用第一人称)。
去年七月,我第一次来到柏林,随后就在Arvato找到了一份内容审查员的工作。当然,选择这样一份并不太受大家欢迎的工作,有一大部分原因是受好奇心驱使。而且,在此之前,我从来没有想象过,世界上居然还存在这样一种工作。由此,我便成了一名外包评论员,加入了Facebook社区运营的大家庭。该团队的成员数量成千上万,遍布全世界各个角落,平时工作过程中使用的语言多达40种。由于聚集了来自世界各地掌握多门语言的受教育廉价劳动力,柏林也在最近一段时间成了Facebook全新的内容审查中心,而且德国政府也是加大了对仇视性言论的法律规制力度。
虽然这份工作我只做了三个月就辞职了,但我认为自己还是应该向外界公众介绍一下这三个月来的紧张工作体验。在很大程度上,这算得上是一次自我反省和自我学习的锻炼。另外,我也把这样一种分享当成是自己与过去三个月来每天面对的暴力内容彻底说再见的最佳途径。我希望能够通过我的描述让大家更加了解这份工作,也让更多人开始关注并且切实参与到这样的内容审查工作中来。当然,有一点要申明,我并非是要泄露公司相关机密,毕竟我当初也是签署了员工保密协议的。所以,在这篇文章中,我将不会过多讨论Facebook开发出来并且遵循使用的相关内容审查原则。而且,从我过去三个月的工作经验中,我也发现Facebook所采用的相关政策原则会不断进行重新评估,所以是非常灵活的,会根据具体情况进行相应变化。
刚开始,我是非常享受培训和入职过程的,也很开心自己能够身处这样一个国际化、多元化的工作环境当中。虽然我之前也从事过一些国际开发工作,但不一样的是,在这里团队中的每位成员都是移民,并非德国本国人。而且其中大多数都是年轻人,他们有着各种各样的背景。所以,也正是这样一种多元性和综合性,吸引我加入了Facebook的内容审查团队。要知道,Facebook本身就是一个社交媒体平台,能够将所有用户与外面缤纷精彩的世界联系起来。然而,内容审查却是一项高度封闭、高度机密的工作。而我一开始之所以对它好奇,就是因为如此自相矛盾又独一无二。
除了Facebook,其他还有很多社交媒体平台,也都拥有属于自己的用户/社区监管系统,毕竟没有人会在用户上传内容之前对内容进行审查。或许,有时候有些用户会在平台上发现一些不太恰当的内容,并且向公司投诉或举报。而内容审查员每天的基本工作,就是处理这些由用户提交上来的投诉和举报。对于这样一个在全世界范围内拥有20亿用户的社交媒体,我们可以想象一下平台上每天会生成多少内容。据我所知,平均每个星期提交上来的用户举报信,大约有650万封。因此,内容审查员的工作是从来没有尽头的,一个星期七天几乎没有任何间歇。
所以,如果说要用一两句话来简单概括我所从事的工作以及我在这个过程中所起到的作用,我是很难做到的。难道说,我扮演着审查员的角色,限制用户的言论自由?我想,我并没有。我个人尊重每位用户的言论自由,即便他们发出的是反对声音,也尊重用户使用一些最为新颖的语言方式来表达自己内心想法的自由。具体说来,我负责的是土耳其市场。所以平时处理的很多举报信,都会反映出土耳其社会现如今存在的意识形态分歧问题。除此之外,还有一些针对历史述事的争论,以及各种各样轻重程度不一的宗教攻击问题。不过在这样一个过程当中,我倒是见过不少有趣的现象。有些用户虽然本质上是想表达自己对某些价值观、理念和信仰的挑战甚至蔑视,但却使用了一些意图振奋人心的新颖词汇。
不过,相比言论,我其实处理得更多的是行为。我认为,在大多数情况下,图片和文字并不是一种表达自我的方式,而是一种真实体现态度的形式。通常,举报信中的那些行为,都是残酷暴力的,其中包括仇视性言论、施虐行为、欺凌行为和自残行为等等。毫不夸张地说,这些内容都是非常非常暴力的。虽然我之前在和平建设和人道主义推广工作中,也真真切切地经历过冲突、见过不少暴力行为,但如果从一位普通用户的角度出发,我还真的是无法想象,现如今暴力问题居然在社交媒体上也是如此严重。
在这些暴力内容中,有一小部分是带有犯罪性质的。而且,这一点也是让我更加忧虑的原因所在。都不需要专家,只要你是正常人就都能轻易辨别出来,这些暴力人士的态度、行为和表达形式,已经充分表明我们这个社会似乎要脱轨了。我曾经亲眼见过一些毫无人道主义精神可言的行为,毫不尊重社会规范和个人隐私,礼义廉耻也都消失殆尽。难道说,这些社交媒体工具在潜意识中毁坏了社会审查和道德屏障,鼓励大家无视约束和禁忌?但这里又有一个问题,也就是在这些社交媒体平台上,虽然有些人的行为毫不尊重社会规范,但你又不能说他们反社会,因为他们发帖的目的就是吸引大家的注意,希望他们给自己点赞并且与自己进行互动。所以,我常常想,要是在现实生活中的公共场所,比如公共交通工具、咖啡馆或公园里,也出现这种类似的恶劣态度和行为,那该是什么样一种情形。
而我之所以选择在三个月之后辞职,主要也就是因为实在忍受不了自己这种近乎专业却又畸形的高度紧张甚至是警惕的精神状态。而且,我发现自己的这种工作节奏,无法顾及到家庭生活。因为我还有一个七岁的女儿,只要是上晚班就几乎见不到她,没有任何亲子时间。
其实一开始,我选择这样一份工作,只是为了挑战一下自己,看看自己是否有能力适应这种完全不同、完全封闭、高度紧张的工作环境。进来了之后,我才发现自己身处一个全球化的数字无产阶层当中。在那个密闭空间内,有着700多位内容审查员。不仅与外界没有任何交流,彼此之间也几乎没有什么交流。我的工作时间和休息时间,都是经过严格计算和记录的。绝大部分时间都要坚守在自己的工作台上,即便是临时有事走开,也就只有几分钟的时间。我都不确定,像我们这些人究竟是否做出了贡献。但有一点是可以肯定的,那就是我们确实通过自己的微薄之力,帮助整个价值数十亿甚至数百亿美元的行业往健康方向发展。
说白了,内容审查员的主要工作就是分析。这不仅是一项非常困难的工作,也是一项对内容高度敏感的工作。因为审查员需要正确判断,究竟在那些遭到举报的内容中,有哪些是值得保留,而有哪些是需要删除的。这种需要感情作为支撑的审查工作,对于算法来说实在是太复杂了,尽管在某些情况下审查员似乎就应该像计算机一样快速给出回应。这种对统一性、标准性以及严格工作衡量指标的要求,并没有给我们人类足够多的判断空间。所以,人类的直觉也来不及做出回应。如果按照数据来看,一位内容审查员平均每天要处理1300封举报信。
也就是说,分到每一封举报信上的反应时间就只有几秒,你需要在这短短几秒钟的时间内决定帖子是保留还是删除。相当于说,人类要像计算机一样自动给出下意识的回应、做出下意识的决定。但糟糕的是,这种较为机械的重复行为,会给人带来一种沮丧感和孤立感。在这种情况下,情感反应显然是不可能的。而审查员的主动性一旦受到了抑制,所能做的也就只是不断收集案例,针对政策漏洞给出解决办法。虽然这种标准操作流程能够在一定程度上保证客观性,但不带任何情感的推测,也就限制了审查员思考发帖人真正发帖意图的可能性。所以,我个人还是认为,审查流程要更加人性化一点,在审查判断时带入一些个人情感,真正为那些极端的暴力人士提供帮助,从而真正消除冲突或暴力的根源。
尽管各位内容审查员身处同一团队以及同一个开放的工作空间,但这种紧凑的工作时间安排在最大程度上限制了彼此之间的社交互动。这样一种虚拟空间无形中带来了一种孤立感。因此,他们审查的那些内容,所带来的影响也就无形中被放大了。只要你在工作线上,那就会随时收到举报信,内容包括各种各样的文字、图片和视频。这些突然呈现出来的内容究竟是些什么,事先并没有人知道。所以,审查员并没有时间去进行精神状态上的转换和过渡。
换句话说,自己想要提前在心理上做好准备,根本就是一件不可能的事情。有时候,我们必须要在短短几秒钟的时间内理解举报信中的内容。可以说,这份工作能够带来的就只是持续不断的压力。迅速的反应和处理,让原本较为复杂的分析过程完全变成了一个机械的自动化过程,而审查员就一直在重复着这样一个机械的过程。因此,即便在八小时工作结束下班之后,也很难瞬间从这样一种紧张和复杂的状态中跳脱出来。说得不好听,这份工作让审查员产生了一种依赖,甚至是上瘾了。有时候,我在梦里都还重复着相同的操作。
很多时候,在内容审查的过程当中,我多么希望自己能是一位社会工作者或心理学家。甚至有时候,我都产生了一种错觉,以为自己从事的是急救服务和执法服务。可现实是,我并不是。我感觉自己能够做的事情非常少,能够起到的作用非常小,我根本无法为这些暴力内容的发布者提供任何一点帮助,也无法改变这样一种社会现状。我不禁在想,这难道就是我们所生活的社会现实的数字化反映吗?我努力告诉自己,这些内容只是来自那些社会最为边缘、最为激进的人。然而,暴力内容似乎却又如此常见。还好,令我欣慰的是,我主要负责的并不是自己国家和社会的暴力内容举报工作。所以,对于那些处理德国本国暴力内容举报工作的同事,我真的是非常同情,替他们感到遗憾。
说到这里,相信大家都能感觉到,这并不是一份人人都能胜任的工作。早在当初面试的时候,公司就给我们打了预防针,让我们确定自己能够处理这些内容。可即便如此,又有谁会想到真正开始工作以后,这些内容会这么令人忧虑。好在对于这样一种工作环境,我也不是毫无准备,毕竟我之前做和平建设和人道主义推广工作时,就经历过相似的紧张工作环境。所以,不论是从年龄上,还是从经验上,我都要比其他一些同事稍好一些。对于那些年轻的同事,我也替他们感到痛心。毕竟在这样一个以年轻移民为劳动力基础的体系当中,审查员的平均年龄只有28岁。
作为一名新员工,我参加了一个由心理援助顾问组织的半天研讨班。虽然这个研讨班算是半路出家,还不太成熟,但我也能够理解,毕竟有总归要比没有好。至少它能让高度紧张的审查员,暂时离开自己的工作岗位,找别人交谈倾诉。虽然我没有要求私人顾问的帮助,但其他同事是否要求了,又有多少同事这样要求了,我就不太清楚了。总之,这样一种研讨班的存在,本身还是挺让人欣慰的。我能感受到,有些同事对于这份工作的长期影响有点担忧甚至有点恐慌。所以,找人交谈聊天、相互分享,就有着非常重要的意义。因为除了这样一个研讨班,我们没有办法在其他一些场合来讨论这些事情。以前,我们曾经在公共交通上用英语讨论过这些事情,但现在想想还是挺担心这些谈话内容给其他乘客带来的负面影响的。
说到口头暴力、诋毁中伤和恶意诅咒,审查员几乎已经成了“专家”。因为与这些内容有关的词汇,本身是非常少的,受到各种各样的限制。但在审查过程中,却总能发现一些用词非常有意思的长篇大论。不过,如何区分这些中伤诅咒和性剥削,又是一个大难题。之前,我从来没有想过一些中伤诅咒的词汇,竟然还能如此带有性别暗示。对于审查员来说,随处可见的欺凌行为也是非常让人头疼的。原本我们以为欺凌大概就是校园欺凌,但事实并非如此,根本就不局限于青年身上。有时候,看到那些故意针对她人的残酷无情的言论内容,真是让我非常心烦。大多数这样的帖子,就真正切切抱着伤害他人的意图,明晃晃地表达自己的施虐倾向。
另外,还有很多内容包含有较为极端的图片暴力,这就让审查员的工作更加难做了。大家都需要找到一种适合自己的方式,来有效处理这些图片暴力。在这方面,我发现自己要比新同事的经验稍微丰富一些。在这种高度紧张的工作环境中,审查员必须要占据主动地位,不能受到这些内容的影响,尽力克服自己内心那种愤怒和恶心的感觉,这本身就非常费脑费心。有时候,审查那些有关死亡的暴力内容,我就权当自己做的是法医工作。而且,由于相关政策规定非常详细,有时候我还需要重复播放某些暴力视频或一直查看某张暴力图片的细节。
在某些情不自禁产生同情的情况下,审查员的精神状态就更加糟糕了。看到鲜血、碎肢和焦尸,真的是让人害怕。但后来,我也就逐渐学会克制自己看到这些内容时的恶心感。通常,我只有在看到那些会把自己与其他真实个体联系起来的内容时,才会产生同情。有些残忍的细节,我努力让自己忽视,却是真的做不到。另外,看到某些幸存者内心的那种焦虑和压力,也会让我产生强烈的同情之感。其中,最为糟心的就是那些带有折磨和虐待内容的视频,尤其是虐待儿童和动物。
上文也说到,我主要负责的是土耳其市场。所以,在审查这些内容时,我看到了大量与中东地区冲突相关的帖子。该地区混乱的社会现状,完全真实地反映到了社交媒体中。我发现,在土耳其的社交媒体上,随处可见那些与伊拉克和叙利亚冲突相关的内容。那些武装人士会利用网络技术来记录自己的战争状况,发布一些标榜自己勇猛善战、兄弟情深以及嘲笑敌人的内容。大多数情况下,这些发布在社交媒体上的内容,都是没有经过指挥系统批准的。总之,完全能够看到这些冲突荒唐混乱的本质。不过,好的一点就是冲突双方都还在社交媒体上进行互动,也有着相同的文化信仰。
曾经有几个星期,我们天天看到的,就是与缅甸罗兴亚人大屠杀相关的图片和视频。那些帖子大多是谴责犯罪,呼吁各方关注并且采取相应行动。虽说是有一些新闻价值,但其中有些图片实在是太过血腥,所以采用暴力方法来呼吁关注,也并不是一个正确选择。
不过,说了这么多,对于审查员来说,最为瘆人的还是那些砍头视频。我自己就曾经见过很多。虽然我对鲜血没有太多的恐惧感,但砍头和死亡还是无法接受。每次看到这些视频,我都要努力克制自己内心的恶心。尤其是在穆斯林节日盛典期间,我每天都要看到很多宰杀牲畜的内容。之所以看着糟心,是因为我发现自己不能非常理智地将这些动物砍头与人类砍头孤立起来看,总觉得非常相似。或许,对于动物来说,砍头的痛苦还会持续地更久一些。
说到这里,或许有人要说极端恐怖组织ISIS,应该是砍头视频的唯一来源。但其实,并非如此。在这些视频当中,有很多是起源于拉丁美洲和缅甸的反对大型贩毒集团的内容。不过,ISIS的视频内容要更为复杂。他们会在视频中加入混淆视听的场景和背景音乐,所以视频看上去十分不真实,想要看清受害者最后的面部表情,几乎就是一件不可能的事情。其实,这些视频究竟有多恐怖倒是其次。关键问题,就在于这些视频为何能够传播开来。试想一下,发布这样一则砍头视频,背后有着什么样的真正意图?因为在我处理的那些视频当中,几乎没有几则是直接由ISIS恐怖分子发布的。那么,那些发布者是出于施虐倾向和暴力倾向,还是出于吸引关注?
总之,对于这些内容,内容审查员唯一能做的就是删除。想要给发帖者发条消息,告诉他们所发内容太过残酷,几乎就是一件不可能的事情。我希望以后,审查员除了简单的删除,能够更加频繁地行使劝告的权利。我也曾经想过,如果能与发帖者深入交流一下或许能带来一些改变,只是时间根本不允许。我想,这需要整个社会齐心协力,需要落实相关教育。说到底,审查员想要提供的安全保护,还是来自于用户自己发布的帖子。社交媒体内容审查的重任,不能仅仅依靠科技公司。虽然他们能够提供相关的网络支持,但终究还是要靠整个社会一起努力。