专业/索尔劳格·奥古斯特多蒂尔:社交媒体上的言论自由与滥用
此页面或部分是尚未完成的草稿或大纲。 你可以帮忙 完善作品,也可以在 项目室 寻求帮助。 |
2012 年 12 月,一位名叫索尔劳格·奥古斯特多蒂尔的冰岛女性偶然发现了名为“男人比女人强”(“Karlar eru betri en konur”)的 Facebook 页面,在与她形容为“巨魔”的用户争论后,她很快就在该页面上看到了自己的脸。她的个人资料照片经过篡改,看起来像是被打了一样,上面贴着“女人就像草,需要定期被殴打/修剪”(“Konur eru eins og gras, það þarf að slá þær reglulega”)的字样。 [1] 图片下方写着“每个男人的道德义务”(“Siðferðisleg skylda hvers karlmanns”)。作为世界上最大的社交网络,Facebook 在关于社交媒体在当今信息传播方式中所起作用的持续辩论中占据着争议性地位。 [2]
该公开 Facebook 群组包含大量仇恨言论和厌女症言论,以及宣传对女性优越感和暴力的图片。据奥古斯特多蒂尔说,其中一张图片“是一名年轻女子赤身裸体,被锁链绑在管道或烤箱上,看起来像一个混凝土地下室,浑身青一块紫一块,血迹斑斑。她用一种可怕的破碎的目光看着拍她照片的人,蜷缩成一团,赤身裸体。”该页面的“关于”部分详细介绍了他们的理念,声称女性“愚蠢,地位低下”,而且“从未发明或发现过任何东西,除了原罪和三明治。”这在描述中继续,声称科学证明女性的大脑更小,因此应该被用作性玩具。 [3]
许多人对这些内容发表评论,而且攻击者经常以典型的巨魔方式进行互动。索尔劳格与他们互动,并用幽默来表达自己的观点,交换表情包,试图唤起他们的良知。作为报复,2012 年 12 月 28 日,巨魔们盗用了索尔劳格的个人资料照片,并进行了篡改,使其看起来像是被打了一样,黑眼圈,鼻青脸肿,下面用冰岛语写着:“女人就像草,需要定期被修理”。索尔劳格立即向 FB 报告了这张图片,还有许多其他人也进行了报告,但 FB 审核员拒绝了所有报告,称篡改后的个人资料图片没有违反 FB 的服务条款。
事件发生后,奥古斯特多蒂尔向 Facebook 报告了这张图片,将其标记为“图形内容”。几个小时后,她收到通知称该图片不符合删除条件。在 24 小时内多次使用“版权材料”、“骚扰”和“图形内容”作为删除理由报告该图片后,奥古斯特多蒂尔继续收到相同的回复,称该图片没有违反 Facebook 服务条款 (ToS)。她声称至少知道有 30 多人向 Facebook 报告了该网站,并发布了几张截图,证实 Facebook 拒绝删除该图片。 [4]
起初,奥古斯特多蒂尔向冰岛警方报告了此事,并提供了来自对页面背后的青少年男性攻击者进行人肉搜索的信息。她决定不提出指控,但在收到攻击者心理健康状况的信息后,将此事报告给了冰岛儿童保护服务机构,因为她认为 Facebook 是违反了其服务条款中向最终用户(如她自己)所作承诺的罪魁祸首。
“我们非常重视我们的权利与责任声明,并迅速采取行动删除违反我们政策的举报内容。一般来说,即使是令人厌恶和令人反感的笑话尝试,也不会违反我们的政策。但是,如果出现真正的威胁或仇恨言论,我们将删除它们。我们鼓励人们使用网站上的举报链接,举报任何他们认为违反我们政策的内容。”
Facebook 的审核团队面临着一个问题,即如何判断某件事是否具有冒犯性和不当性。 [5] 他们的第一反应是支持言论自由。有些东西可能会冒犯某些人,但对另一些人来说却很有趣。Facebook 最初认为,决定什么是冒犯性或幽默性不是他们的责任。一位代表告诉英国广播公司,“必须指出,一个人认为冒犯的东西,另一个人可能认为有趣——就像讲一个粗俗的笑话不会让你被赶出你当地的酒吧一样,它也不会让你被赶出 Facebook。”
在 Wired 发表了一篇关于此问题的文章后, [6] Facebook 的一位发言人改变了他们对宣传对女性暴力的图片的立场,称之前被认为对该社交网站可以接受的一张图片“应该在被举报给我们时就删除,我们对这次错误道歉。”
然而,奥古斯特多蒂尔自己没有收到 Facebook 关于工作人员反复拒绝删除明显是她个人资料图片的篡改版本的图片的任何个人回复,她通过 Facebook 的报告系统不断收到的信息是她要求被拒绝,因此她继续公开要求答案。
她给 Facebook 写了一封公开信,并出现在丹麦新闻上,在欧洲和南美播出,要求 Facebook 回答为什么工作人员没有删除违反该网站服务条款中规定的多个条件的图片。此时,全球媒体都在报道此事,而值得注意的是,美国媒体从未报道过此事。
两周后,奥古斯特多蒂尔终于收到了来自 Facebook 斯堪的纳维亚地区的联系方式,并设法从他们的代表那里获得了个人道歉,尽管她没有得到有关公司内部实际发生了什么或 Facebook 使用哪些程序来确定什么违反其政策的解释。
许多网站,包括 Facebook,都致力于为用户提供最佳环境,这样人们就会不断回到该网站。他们希望访客感到安全,不会接触到不当内容。2017 年 5 月 3 日,Facebook 宣布了一项新计划,将在其运营团队中增加 3000 名人员,以更快速地筛选有害视频和其他帖子。马克·扎克伯格表示,这将是现有 4500 名人员的补充。目前尚不清楚这些人员将是全职雇员还是承包商。
Facebook 的内容审核工作主要由近期大学毕业生承担。这些员工逐条审查不恰当和令人不安的帖子。审核员负责解读 Facebook 的政策并将其应用于网站上分享的内容。这些政策在用户创建账户时会提供给每个用户,并始终可以通过 Facebook 的社区标准页面获得。在欺凌或骚扰的情况下,政策支持移除“识别和羞辱私人个人的页面”、“经过修改以贬低私人个人的图片”、“发布以羞辱受害者为目的的肢体欺凌照片或视频”、“分享个人信息以勒索或骚扰他人”以及“反复向他人发送不必要的交友请求或消息”。类似的规定适用于刑事犯罪、性暴力等。审核员的任务是解读帖子并将它们归类为合理或限制的类别。但由于一切都需要解释,因此并不总是能为用户带来成功的结果。
内容审核的另一个严重问题是审核员所经历的心理健康影响。许多审核员经历类似于创伤后应激障碍 (PTSD) 患者的症状。大多数员工在入职 3 到 6 个月内就会辞职。Facebook 在整治可疑内容方面的努力所面临的问题是,技术不足。人工智能尚未准备好或无法胜任这项任务,因此 Facebook 仍在努力寻找解决方案。虽然已经开发了一些扫描软件,但这些技术还无法满足 Facebook 大规模使用的需求。Guardware 生产了一种可以扫描不当图像的闪存驱动器,但据报道出现了大量误报。拥有监控技术还可以帮助 Facebook 满足其对内容审核员日益增长的需求,避免雇佣 3,000 多名员工。
服务接受用户生成内容的能力引发了许多法律问题:根据当地法律,这些服务的运营商可能要对用户的行为负责。在美国,通信规范法案的“第 230 条”豁免规定,“交互式计算机服务的提供者或运营商不应被视为另一信息内容提供者的信息发布者或发言人”。这实际上为托管用户生成内容的网站提供了免责,即使这些内容具有诽谤性、欺骗性或其他有害性,即使运营商知道第三方内容有害并拒绝将其删除。对这一普遍规则的例外情况是,如果网站承诺删除内容但随后未能做到。Facebook 已经在这项例外规定下受到审查。
Facebook 在其整个生命周期中一直在进行调整,从用户界面到添加/删除功能以及政策更改。一些用户页面、公共页面和群组的用户生成内容因宣扬或关注有争议且经常具有分裂性的主题而受到批评。
2017 年 4 月 26 日,一名 49 岁的阿拉巴马州男子在 Facebook 上直播了自己自杀的画面,因为他对分手感到心烦意乱。来自罗伯茨代尔的詹姆斯·M·杰弗里在直播过程中突然拿起手枪朝自己的头部开了一枪。警长办公室表示,在被 Facebook 在两年后最终移除之前,杰弗里的自杀事件被观看了超过 1,000 次。杰弗里是最新利用 Facebook 直播功能拍摄自杀视频的人。一名泰国男子拍摄了两段视频,在 Facebook 上发布了自己杀害自己 11 个月大的女儿的画面,之后自杀。
2017 年 4 月 16 日,74 岁的罗伯特·戈德温·斯尼奥在俄亥俄州克利夫兰市格伦维尔社区的人行道上行走时被枪杀。嫌疑人史蒂夫·斯蒂芬斯在 Facebook 账户上发布了一段手机视频,导致许多媒体在追捕期间和之后都称斯蒂芬斯为“Facebook 杀手”。戈德温遇害的图形视频在斯蒂芬斯的 Facebook 账户上被公众访问了两个多小时。这一延误再次引发了人们对 Facebook 审核冒犯性内容的批评,特别是与暴力犯罪相关的视频和其他内容的公开帖子。
“我们还有很多工作要做。本周克利夫兰发生的悲剧让我们再次意识到这一点。我们向罗伯特·戈德温·斯尼奥的家人和朋友表示慰问,我们还有很多工作要做,并将继续尽我们所能防止此类悲剧再次发生。”
随着新技术平台的使用,Facebook 继续努力审核数据。
2013 年初,Facebook 因允许用户上传和分享包含暴力内容的视频(例如恐怖分子斩首人员的画面)而受到批评。Facebook 最初禁止此类内容出现在网站上。在此期间,Facebook 对母乳喂养照片的立场开始受到批评。2013 年 10 月,Facebook 声明将继续禁止母乳喂养照片,但现在将允许发布极端暴力的片段,声称用户应该能够观看并谴责,而不是庆祝和拥抱此类行为。此举招致批评,并引发了人们对材料对观众长期心理伤害以及年轻 Facebook 用户的心理伤害的担忧。Facebook 后来又改变了他们的决定,再次接受此类内容,并后来表示,将来此类内容必须包含警告信息。
2017 年,Facebook 群组正在讨论交换看似是儿童虐待材料的东西。BBC 向 Facebook 报告了几十张照片,但只有 20% 被移除。在 BBC 请求采访后,他们向 Facebook 提供了这些图片的示例。Facebook 立即取消了会议并通知了当局,称“任何人分发儿童性剥削图片都是违法的”。
BBC 测试了 Facebook 的说法。他们对看似违反指南的 100 个帖子使用了举报按钮。只有 18 个被举报的帖子被移除。Facebook 的指南还禁止被判有性侵罪的罪犯拥有账户,但 BBC 发现 5 个被判有性侵罪的罪犯拥有账户。所有都被举报,但都没有被移除。
因此,英格兰儿童事务专员安·朗菲尔德表达了她的不安和失望。防止虐待儿童国家协会 (NSPCC) 也表达了担忧。
“Facebook 无法从其网站上移除非法内容是令人震惊的,并且违反了他们为保护儿童而制定的协议。这也让人质疑他们认为哪些内容对儿童来说是不恰当和危险的。”
Facebook 后来发表声明,表示他们已审查并移除所有被举报的项目。[14]
马克·扎克伯格表示,Facebook 已经在与当地社区组织和执法部门合作,试图帮助那些在社交网站上发布了关于伤害自己或他人的帖子的用户,并计划在未来让这一过程变得更加简单。目前,普通用户需要将不恰当内容标记为不当,然后由版主观看并决定是否将其删除以及是否需要采取进一步行动。未来,Facebook 将开发自动工具来检测视频中的内容,并有可能在人类用户或版主看到之前删除攻击性帖子。但这也可能对 Facebook 产生反作用。2016 年,Facebook 解雇了所有管理主页“趋势新闻”版块的人类编辑,认为可以将其 AI 系统取代这些外包员工。在 AI 接管后的几天内,假新闻就出现在了“趋势新闻”版块,这表明 AI 审核目前还无法做到。
与此同时,Facebook 提供了资源来指导用户管理自己的内容。他们提供了多种选项,例如屏蔽特定词汇、屏蔽脏话设置和屏蔽用户选项。用户还可以选择谁可以查看和发布到他们的时间线。这些个人审核选项并不能解决删除不当内容的总体问题,但它可以帮助用户限制在其帐户上查看和发布的内容。
- ↑ Hudson, L. (2013, January 04). Facebook’s Questionable Policy on Violent Content Toward Women. Wired. Retrieved from https://www.wired.com/2013/01/facebook-violence-women/
- ↑ Reynisson, S. (2013, January 01). „Það þarf að slá þær reglulega“. DV. Retrieved from http://www.dv.is/frettir/2013/1/1/thetta-er-langt-yfir-strikid/
- ↑ Ritstjorn (2012, December 12). Hatursáróður rekinn gegn konum á íslenskri Facebook-síðu. DV. Retrieved from http://www.dv.is/frettir/2012/12/12/hatursarodur-rekinn-gegn-konum-islenskri-facebook-sidu/
- ↑ https://web.archive.org/web/20130106111655/https://www.dv.is/frettir/2013/1/1/thetta-er-langt-yfir-strikid/
- ↑ Engel, K. (2015, April 15). Moderating Facebook: The Dark Side of Social Networking . Who is Hosting This. Retrieved from http://www.whoishostingthis.com/blog/2015/04/15/moderating-facebook/
- ↑ https://www.wired.com/2013/01/facebook-violence-women/
- ↑ Facebook. (2017). Community Standards. Retrieved from https://127.0.0.1/communitystandards
- ↑ Shaw, K. (2007, July 25). USB device uses image analysis to scan for inappropriate images. Retrieved from http://www.networkworld.com/article/2293058/lan-wan/usb-device-uses-image-analysis-to-scan-for-inappropriate-images.html
- ↑ Chen, A. (2014, October 23). The Laborers Who Keep Dick Pics and Beheadings Out of Your Facebook Feed. Retrieved from https://www.wired.com/2014/10/content-moderation/
- ↑ Doran, A. (2016, August 9). The Test of Time: Section 230 of the Communications Decency Act Turns 20. Retrieved from http://www.medialawmonitor.com/2016/08/the-test-of-time-%E2%80%A8section-230-of-the-communications-decency-act-turns-20/
- ↑ Specker, L. (2017, April 26).Baldwin County man committed suicide on Facebook Live, sheriff's office reports. Retrieved from http://www.al.com/news/index.ssf/2017/04/sheriffs_office_baldwin_county.html
- ↑ Heisig, E. (2017, April 16). Facebook shooting victim's son says Cleveland man was father of 10, grandfather of 14 . Retrieved from http://www.cleveland.com/crime/index.ssf/2017/04/facebook_live_shooting_victims.html
- ↑ Goel, V. (2016, March 15). Facebook Clarifies Rules on What It Bans and Why . Retrieved from https://bits.blogs.nytimes.com/2015/03/16/facebook-explains-what-it-bans-and-why/
- ↑ Crawford, A. (2017, March 07). Facebook failed to remove sexualised images of children. Retrieved from http://www.bbc.com/news/technology-39187929