Lentis/内容审核
本章深入探讨了内容审核的方式。内容审核是指对用户生成的内容(尤其是帖子)进行监控和应用预定的指南,以确定内容是否允许发布的实践。[1]
内容审核可以用于维护干净的网络环境。像谷歌和必应这样的网络搜索引擎会隐式地进行内容审核。包含非法内容的网站,如奴隶拍卖、走私和毒品交易,会从公众视野中删除,从而导致“暗网”一词的出现。暗网.
《通信规范法》第230条规定了某些内容审核案例的合法性。例如,它规定“交互式计算机服务的提供者或用户不得被视为由其他信息内容提供者提供的信息的出版者或发言人”。这意味着社交媒体平台或网站的托管方不会对平台或网站用户发布的内容负法律责任。它规定“交互式计算机服务的提供者或用户不得因…出于善意自愿采取的任何行动而承担责任,以限制对材料的访问或可用性,该提供者或用户认为该材料是淫秽的、下流的、猥亵的、肮脏的、过度暴力的、骚扰的或其他令人反感的,无论此类材料是否受到宪法保护。”[2] 这意味着在线主机不会对发布到其平台上的非法或不想要的内容负法律责任,也不会因删除此类内容而受到起诉。
如果平台编辑或整理非法内容,则不受第230条保护。联邦刑事犯罪、知识产权侵权行为和电子通信隐私法侵权行为也不受第230条保护。
有许多技术用于审核显式内容。一个例子是语言过滤。在许多聊天室中,通常有一个名为“聊天过滤器”的功能,它用星号或其他符号替换社会上令人反感的词语。虽然它可能无法完全阻止言语虐待,但它试图维护一个干净的环境。另一个例子是视频审查。除了年龄限制外,视频产品通常会被修改以从观众中删除某些内容。例如,在日本动漫中,如果剧集包含血腥或裸露场景,这些场景将被马赛克或点覆盖。
有关机密军事机密的信息禁止公开。如果一张美国军事基地的照片公开,联邦调查局会迅速将其删除并逮捕责任人。滑稽的帖子可能被豁免,但仍会受到监视。例如,有传言称51区包含外星技术。然而,从未有任何证据。对敏感技术的详细讨论,如量子加密、基因靶向病毒和核反应控制,也正在受到监控。
立法者担心 TikTok 上缺乏监管,因为该平台对快速传播的虚假信息几乎没有采取措施,尤其是在年轻用户中。根据 TikTok 的隐私协议,该应用程序会收集“用户创建帐户并使用平台时提供的信息”以及“用户从第三方社交网络提供者分享给 TikTok 的信息,以及有关用户使用平台的技术和行为信息”。[3] 中国公司的缺乏监管和广泛的数据收集引起了美国国家安全方面的担忧。[4]
内容审核可以由政府监管。可以通过控制公众接收的信息以及自我效能活动来引导公众舆论。
在 2017 年的《骑士第一修正案研究所诉特朗普》案中,法官娜奥米·赖斯·布赫瓦尔德裁定,唐纳德·特朗普总统从他的个人帐户 @realDonaldTrump 中屏蔽持有相反政治观点的 Twitter 帐户是违宪的。这一决定在 2018 年政府上诉后得到维持。哥伦比亚大学骑士第一修正案研究所于 2020 年针对同一问题的另一项诉讼正在美国最高法院进行,目前仍在审理中。
事前审核是那些最重视自身形象的公司采用的内容审核方式。发布的每段内容都会经过审核和审查,以确保不会以任何方式损害其品牌或引发任何法律问题。[5] 虽然事前审核不适用于任何数据流入量大的平台(例如社交媒体平台),但它对公司博客或类似网站可能会有所帮助。
事后审核是指一种内容审核方式,其中内容在提交到平台后,可以随时被审查并撤下,如果发现该帖子违反了网站政策。[5] 事后审核专门是一种适用于目前使用的大多数平台的全面政策。大多数公司始终保留从其平台删除内容的权利,如果他们发现该内容违反了其任何条款或条件。
反应式审核
[edit | edit source]反应式审核是一种审核方式,其中平台依赖其社区来审查和筛选帖子。查看内容的个人负责确定内容是否合适。如果内容不合适,他们有责任举报它,以便版主可以查看并根据需要删除。[5] 这种审核方式被用于大多数社交媒体网站,因为它允许网站利用其庞大的社区来解决内容涌入的问题。
分布式审核
[edit | edit source]分布式审核类似于反应式审核,因为它将内容审核委托给社区,但用户不是仅举报不合适的内容,而是对提交的每一项内容进行投票。[5] 这通常会导致群体思维,在这种思维中,大众能够确定哪种形式的内容是不可接受的。
自动化审核
[edit | edit source]自动化审核是一种专门依赖自动化工具来过滤内容的审核方式。[5] 这可能包括词语过滤器,使用文本/词语分析的算法等等。许多人认为,这种审核方式的扩展最终将成为内容审核的未来。大多数网站目前在其内容审核工具套件中使用某种形式的自动化审核,尽管在某些情况下,该领域尚未发展到足以独立适用的程度。
现状与社交媒体
[edit | edit source]关于现状,有几家大型社交媒体公司在规模和范围上相似,但它们采用不同的内容审核方式来审核其庞大的社区。我们将重点介绍 Facebook/Instagram、Twitter、Reddit、YouTube、Twitch、TikTok 和 Snapchat。
Facebook 和 Instagram
[edit | edit source]Facebook 和 Instagram 属于同一家母公司,并且拥有类似的审核政策。它们主要采用一种反应式审核方式,社区负责标记和举报任何明确内容。不仅如此,该公司还使用大量自动化审核,不是为了删除内容,而是为了检测重复帐户。[6] Facebook 也是投资内容审核最多的公司,因此它们在客观上是删除明确内容最成功的平台。然而,负责清理帖子的审核员最终会受到伤害。每天,他们只是去上班,就会接触到“人类的恶”。许多人最终会患上 PTSD 或抑郁症,因此无法继续工作。[7] 根据 Facebook Inc 的 2019 年第三季度透明度报告,Instagram 删除了 200 万个帖子,而 Facebook 删除了 3500 万个帖子。[8]
由于 2020 年的 COVID-19 大流行,Facebook 和 Instagram 都严重减轻了用户申诉流程,转而完全采用自动化审核。这导致 Instagram 的用户申诉(Instagram 在用户要求下重新上传已删除的照片)从 2020 年第一季度的 8100 次下降到 2020 年第二季度的零次。 [9] 尽管尚不清楚向完全自动化系统的转变是暂时的还是永久的,但这两个平台的政策都变得更加严格。关于政治的错误信息通常也在这两个平台上被允许,尽管它们确实禁止某些广泛的错误信息活动,并且将可能具有误导性的帖子标记为这种方式。 [9]
从 2018 年开始,Twitter 由于该网站上政治的盛行,逐渐成为内容审核的焦点。该公司主要使用自动化审核,但更侧重于内容的发现和放大,而不是内容的删除。 [10] 最近,Twitter 在标记和事实核查误导性帖子方面变得更加激进,并且毫不犹豫地标记包括美国总统唐纳德·特朗普在内的有影响力人物发表的帖子。 [11] Twitter 还主动将潜在的内容违规行为提交给人工审核,而不是等待用户举报。这是帮助管理有毒内容和骚扰以及暂停与阴谋集团相关的帐户的一部分。
Reddit 使用一种名为“分层审核”的内容审核方式。从本质上讲,这是分布式审核和反应式审核的结合。用户负责对帖子“点赞”和“点踩”,充当一种审核员,他们为其他用户提供高质量的信息。虽然这通常被视为管理内容的好方法,但它也会导致一种“集体思维”的心态,在这种心态下,Reddit 上的每个人都会看到大多数人策划的内容。用户还可以举报帖子,以便“子版块”版主手动审核并根据需要升级/删除。[12] 除此之外,Reddit 还使用了一些自动化审核工具,包括“AutoModerator”,这是一个帮助自动化“子版块”版主必须执行的许多手动任务的机器人。[13]
Reddit 以前是互联网上为数不多的允许“真正”言论自由的地方之一。然而,最近,他们开始禁止代表仇恨群体和错误信息的子版块。这针对的是代表种族主义、同性恋恐惧症或厌女症的群体。 [14] 但在 2020 年 6 月,他们更进一步,禁止了 /r/The_Donald,一个讨论和支持美国总统唐纳德·特朗普的子版块。他们还禁止了 /r/NoMask,一个反对在 COVID-19 大流行期间佩戴口罩的子版块。 [15]
YouTube
[edit | edit source]YouTube 在所有提到的平台中采用了最多的自动化工具,这一点是独一无二的。它们的算法不仅用于推荐视频,还用于内容审核。 [16] YouTube 也是提到的唯一一家可以通过上传内容来谋生的公司。因此,YouTube 的主要审核方式之一是“取消变现”。[17] 对于违规账户,YouTube 还实施了“三振出局”制度。在第一次警告后,他们会经历一系列逐步升级的惩罚,直到账户被封禁,如果情况没有改变。[18]
Twitch
[edit | edit source]由亚马逊 拥有的视频游戏直播平台 Twitch 使用分布式审核和自动化审核。每个频道都有审核员负责审核 Twitch 的聊天功能,实时删除不当信息。在处理版权内容时,他们也使用自动化系统,通常会暂时封禁在直播中使用版权音频的播客 [19]。
Twitch 最近因其非常严格的审核政策而遭到该平台上大型播客的抵制。管理版权内容的数字千年版权法案(DMCA)追溯性地禁止了在过去直播中使用版权音乐的播客,即使是在新政策实施之前。这导致一些大型播客删除了所有过去的广播以避免被封禁 [20]。播客即使在无意中浏览到不适当内容后立即点击离开,也会被封禁,即使他们没有过错 [21]。这种 Twitch 与其最赚钱的播客之间的脱节导致一些播客转移到其他直播平台。
TikTok
[edit | edit source]一个相对较新的社交媒体平台 TikTok,由中国公司字节跳动 拥有,人们在该平台上分享短视频。TikTok 主要采用自动化审核,并表示其删除的内容中不到 1% 与仇恨言论和虚假信息有关 [22]。然而,TikTok 被指控删除对中国敏感的内容,并压制其认为“丑陋”的用户在“为你推荐”页面上的内容,以吸引更多人使用该应用程序。该公司否认了这两项指控 [23]。
Snapchat
[edit | edit source]Snapchat 是一款社交媒体应用程序,用户可以在该应用程序上分享会消失的照片,它主要关注后期审核和分布式审核。这种对以人为本的内容审核的关注对于如此庞大的社交媒体平台来说是独一无二的 [24]。他们可以负担更少的自动化系统,因为应用程序上的大多数内容在删除之前只存在最多 24 小时。用户之间的大多数交互都是私密的,除了他们的“发现”页面,公司和影响者在该页面上发布简短的内容。Snapchat 还对种族正义采取了强硬立场,从“发现”页面中完全删除了有争议的人物,例如唐纳德·特朗普 [25]。
争议
[edit | edit source]政治
[edit | edit source]通讯规范法
[edit | edit source]共和党和民主党都对通讯规范法第 230 条表达了担忧。民主党认为第 230 条限制了对仇恨言论和非法内容的审查,废除或修改该条将迫使科技公司消除不当内容。 [26] 共和党认为第 230 条允许科技公司压制保守观点并影响公众舆论。 [27] 2020 年 5 月,唐纳德·特朗普总统发布了一项行政命令,以结束网络审查制度,称“美国不能允许少数在线平台挑选美国人可以在互联网上访问和传播的言论”。[28] 第 230 条尚未发生任何变化。
言论自由
[edit | edit source]社交媒体平台使用内容审核引发了人们对这些平台上的言论自由影响的担忧。这些担忧的原因之一是缺乏关于内容审核规则的透明度。联合国言论自由和意见表达问题特别报告员大卫·凯伊将内容审核规则的不透明性称为“当今对网络言论自由的最大威胁之一”,并补充说“公司实施的规则是在没有公众参与的情况下制定的,并且执行起来缺乏清晰度”。[29]。用户对应该删除哪些内容的不同期望加剧了这些担忧。一个例子是人们对 Facebook 决定不删除对南希·佩洛西的视频进行篡改的反应,该视频被放慢速度,使佩洛西看起来像醉酒一样。虽然一些人对 Facebook 不采取行动阻止虚假信息的传播感到沮丧,但另一些人则赞赏该公司保护平台上的言论自由 [30]。
2016 年美国总统大选
[edit | edit source]2016 年美国总统大选引发了人们对政治内容审核的初步讨论,因为人们发现俄罗斯利用社交媒体影响了选举结果。由俄罗斯互联网研究机构 (IRA) 发起的虚假信息运动强调了需要加强对用户内容的控制。 [31]
2020 年美国总统大选
[edit | edit source]2020 年美国总统大选引发了关于内容审核的讨论,因为社交媒体网站在选举日临近时获得了更大的影响力。虽然社交媒体可能增加了公民参与,尤其是在年轻人中,但错误信息和虚假信息也在传播。由于唐纳德·特朗普总统在推特上关于选举欺诈的言论毫无根据,推特将这些帖子标记为潜在的错误信息。尽管有这些标记,但错误信息被浏览了数百万次,模糊了事实和虚假叙事的界限。[32]另一个问题是删除或修改内容的决策过程不透明。就像 Facebook 删除“阻止偷窃”一样,这是一个拥有超过 300,000 名成员的群体,用于组织针对选举结果的抗议活动。类似的决定导致推特和 Facebook 的首席执行官在国会听证会上为其内容审核做法辩护,此前这两个平台都决定遏制有关民主党总统候选人乔·拜登之子相关声明的传播。[33]
人工审核
[edit | edit source]外包劳工
[edit | edit source]科技公司主要使用外包劳工进行审核工作。这使公司能够以牺牲工人的利益为代价在全球范围内扩展其业务,这些工人获得的报酬远低于有薪员工。在 Cognizant,一家为 Facebook 提供内容审核服务的亚利桑那州承包商,审核员每小时的工资为 15 美元,远低于 Facebook 员工的年薪中位数 240,000 美元。[7]
心理负担
[edit | edit source]审核员手动审查互联网上最令人不安的内容,通常没有适当的复原训练和其他必要的服务来准备他们。[34]审核员在审核内容时也要达到很高的标准,Facebook 将审核员决策的准确率目标设定为 95%。[7],创造了一个混乱的环境,人员流动率很高,因为许多审核员无法保持这种准确性。公司试图帮助审核员应对“健康时间”,旨在让受创的员工休息一下。在 Cognizant,员工每天只有 9 分钟的健康时间,并且会监控这段时间以确保员工正确使用这段时间。[7]。长期接触令人不安的内容会使前审核员患上类似 PTSD 的症状。一个例子是塞莱娜·斯科拉,前 Facebook 审核员,她在患上 PTSD 后起诉了该公司,辩称该公司没有为其内容审核员提供适当的心理健康服务和监控。[35]
原因
[edit | edit source]作为内容审核员,接触各种形式的精神虐待内容,通常是违法和不合适的,是他们日常工作的一部分。[36]。查看、过滤和删除社交媒体平台上发布的内容是内容审核员承担的时间和健康的牺牲。有害内容的常见主题以(儿童)色情、虐待、自残和各种形式的暴力形式存在。内容审核员努力监控此类内容,并因此决定它们是否适合其他用户。由于职位描述的复杂性,审核员被告知他们面临的风险,从情绪混乱到更深层次的心理影响,这些影响是由于长时间接触或内容的严重性造成的。[37]。虽然大多数人可能能够绕过情绪冲动(愤怒、悲伤、同情/移情或冲突)带来的浅层争议,但其他人可能会受到创伤,以至于发展障碍会导致复杂的康复。
症状
[edit | edit source]大多数创伤性案例涉及与压力相关的症状。调解员的常见症状包括创伤后应激障碍 (PTSD)、焦虑、强迫症 (OCD) 以及各种形式的反复睡眠状况,例如失眠和噩梦障碍。虽然大多数情况下是由于不当内容的暴露造成的,但一些案例被认为是由于职业保密导致的压力累积。案件长期持续的一个重要原因是患者不愿寻求帮助,尤其是通过治疗,以及职业带来的保密协议。[38]。在评估后,患者被发现描述自己一直在被他们被要求观看的内容困扰。进一步表明,单独的心理治疗和不必要的药物剂量不足以提供治疗内容调节相关创伤的必要“治愈”方法。
治疗
[edit | edit source]目前针对内容审核引起的疾病的治疗方法包括各种形式的心理治疗,例如认知行为疗法 (CBT) 和眼动脱敏与再加工 (EMDR)。CBT 已成为最常见的心理治疗方法之一,因为研究表明,在治疗 PTSD 方面,CBT 比支持性疗法更有效。[39]。EMDR 是一种更罕见的心理治疗,患者在时间间隔内被展示令人不安的材料,同时让他们专注于外部刺激,例如听觉刺激。[40]。一些研究认为,EMDR 的效果有限,并且眼球运动可能不是从心理疾病中恢复所必需的。[41]。另一方面,美国退伍军人事务部认为,CBT 和 EMDR 是治疗 PTSD 最有效的方法。[42]。另一种治疗方法是药物治疗,例如选择性 serotonin 再摄取抑制剂 (SSRI),它能阻断 serotonin 的神经递质再摄取,从而提高患有抑郁症和 PTSD 的个体 serotonin 的水平。[43]。使用 SSRI 的负面症状包括激动、焦虑、消化不良和头晕。
随着研究的发展,越来越多的有希望的治疗方法被提出,例如 MDMA 辅助疗法、氯胺酮输注和 SDG 注射。[44]。由于资源限制,这些治疗方法仍然有限,因此需要更多关于有效性和副作用的信息,才能将这些疗法确立为新的治疗方法。
案例研究:Meta
[edit | edit source]自 2016 年美国总统大选以来,Meta(一家科技和社交媒体公司)一直承受着改善内容审核的压力,原因是其平台(如 Instagram 和 Facebook)上流传着大量“假新闻”。[45]。随之而来的是 Meta 内容审核的增加,进而加剧了 Meta 员工和外包员工的心理负担。2018 年,前 Facebook 员工塞莱娜·斯科拉在因审核令人不安的内容而患上 PTSD 后起诉了 Meta。Meta 在法庭上以总计 5200 万美元的赔偿金与现任和前任内容审核员达成和解。[46]。由于这项和解协议,Meta 同意增加和改善治疗次数,并推出新的内容审核工具,例如音频静音和黑白屏幕。除了这些新工具之外,Meta 还同意告知员工如何根据工作场所标准的几项变更报告违规行为。现在,Meta 要求其审核员进行初始情绪复原筛查,宣传其提供的支持服务以提高员工意识,并提供安全的工作场所环境,鼓励举报供应商违反 Meta 工作场所标准的行为。即使在达成这些和解协议之后,Meta 内容审核员仍然认为该公司缺乏足够的心理健康支持和资源,这就是 Meta 目前正承受压力的原因,因为它在 2022 年卷入了另一场诉讼。[47]
案例研究:TikTok
[edit | edit source]继 2020 年 Meta 达成 5200 万美元的和解协议后,社交媒体公司 TikTok 也因其内容审核政策中类似的问题而面临压力。2022 年 3 月,曾担任 TikTok 内容审核员的 Ashley Velez 和 Reece Young 对 TikTok 及其母公司字节跳动提起集体诉讼。Velez 和 Young 指控他们每天都暴露在色情和令人反感的内容中,因此遭受了巨大的压力和心理伤害。他们还声称,TikTok 通过实施严苛的生产力标准和指标加剧了这些问题,并且在为审核员提供应对工作负担的适当工具方面存在疏忽。在诉讼中,Velez 和 Young 寻求经济赔偿,以及设立一个医疗监测基金,以帮助诊断和治疗审核员的心理健康状况[48]。除了对审核员的心理影响外,TikTok 还受到其他批评。例如,TikTok 审核员培训流程的有效性也受到质疑。在接受《福布斯》采访时,几名前审核员表示,在培训期间,他们被允许访问一个名为“每日必读”(DRR)的共享电子表格,其中包含数百张裸体儿童的图片。他们认为,将该文件提供给 TikTok 和其承包公司 Teleperformance 的许多员工令人担忧,并且敏感数据被严重误用。接受采访的审核员表示,在培训中使用真实案例是不合适的,应该用其他教学工具代替[49]。TikTok 和 Teleperformance 均拒绝就 DRR 的存在发表评论,但截至 2022 年 7 月离职的审核员声称该文件仍在使用。鉴于已确定反复接触图形图像会导致严重的心理创伤,因此 TikTok 和其他社交媒体公司必须为他们的内容审核员提供更好的支持,这些审核员长时间工作以确保普通用户的体验不受污染。
案例研究:香港
[edit | edit source]最初,2019 年香港抗议活动只是市民和平游行反对引渡法案。此后,抗议活动变得暴力。抗议活动在不同地方的报道和解读存在巨大差异,导致人们对事件的反应不同。内容审核已被证实在此事件中发挥重要作用。
在中国大陆,抗议活动被报道为“叛乱”和“有阴谋的暴动”[50][51],而在美国,ABC 将其称为“支持民主”的抗议活动[52],以及为自由而战。CNN 报道称,一些 NBA 球迷也支持抗议活动[53],这看起来像是一场社会规范运动。有关于香港警察滥用职权的报道[54]。美国一些人呼吁采取行动帮助抗议者[55]。
然而,人们发现,某些观点被隐藏在美国公众面前。据报道,Facebook 和 Twitter 通过内容审核操纵了报道,并删除了近千个中国账户[56]。所有被删除的中国账户只是发表了反抗议的意见,但这些网站声称这些账户与中国政府有关联[57]。尽管内容审核并非一些美国人强烈支持抗议活动的主要原因,但它无疑影响了公众舆论。
自动化审核与人工审核
[edit | edit source]虽然公司会公布他们的基本审核原则,但很少讨论自动化审核和人工审核之间的平衡。算法决策在很大程度上受商业利益驱动,造成透明度和问责制问题。这些问题是缺乏全球标准的一个症状,而全球标准适用于所有可能发生用户之间政治讨论的公司。有些人主张进行公开的政治辩论,以帮助确定在线可接受政治交流的规范[58]。
未来
[edit | edit source]内容审核的未来将更加重视使用人工智能和机器学习来自动化审核流程。人工智能神经网络和深度学习技术的应用已经帮助自动化语音识别、图像分类和自然语言处理等任务,减轻了人工审核员的负担[59]。这些人工智能应用可以比人工审核员做出更准确的审核决策,但它们的有效性取决于其培训的广泛性。目前,用于训练人工智能模型的内容示例不足[59]。缺乏数据会导致人工智能模型在遇到与训练中不同的内容时容易混淆。当前的人工智能解决方案也无法理解可能对确定是否删除帖子至关重要的上下文和意图。这可以在 Facebook 自动工具检测裸体和仇恨言论方面看到,其准确率分别为 96% 和 38%[60]。由于人工智能存在这些局限性,自动化审核和人工审核的混合模式很可能在一段时间内成为常态。
如果《通信法》第 230 条被废除,科技平台将对用户发布的内容负责,因此需要审查任何可能导致法律问题的内容。这将需要密集的审核技术,并可能导致许多网站完全摆脱用户内容。
心理影响:内容审核的改进
[edit | edit source]随着社交媒体不断发展成为全球媒体的重要组成部分,审核员的心理影响成为人们日益关注的话题,随之而来的是不当内容曝光的增加。作为内容审核员,越来越多地观看令人不安的内容导致越来越多的员工患上 PTSD 和其他心理疾病。作为内容审核员,越来越多地观看令人不安的内容导致越来越多的员工患上 PTSD 和其他心理疾病。由于治疗选择有限,只能减轻症状,而且雇主缺乏心理健康资源,内容审核员患上这些疾病的风险很高。Meta 和 TikTok 等社交媒体公司因其对内容审核员的糟糕工作条件而面临压力和诉讼。这些和解协议促进了改善心理健康资源的进展,但这仅仅是朝着正确方向迈出的第一步。
这些问题突出表明,迫切需要采取措施找到解决方案。为解决此问题而提出的可能工具包括提高对与该职业相关的严重风险和影响的认识(通过改进保密协议和招聘筛选),或者减少强加给审核员的繁重工作量[46]。在后一种选择方面,可以通过实施更有效的检测算法来解决问题,这些算法可以标记不适当的内容。通过利用改进的内容过滤算法,可以减少审核员需要过滤的内容的集中度和负载。理想情况下,由于媒体中的某些指标(如标签、文本、音频和图像),系统软件会过滤掉严重和创伤性的内容,让审核员处理由其他用户标记为轻微不当或有争议程度的内容,这些内容需要人工管理。
结论
[edit | edit source]从内容审核案例中可以吸取一些普遍适用的经验教训。其中一个教训是透明度如何影响用户信任。审核指南和执行缺乏透明度令用户非常沮丧,导致用户对帖子被删除的原因做出自己的结论,例如偏见或认为是误报。透明度将缓解这个问题,这就是为什么许多人呼吁科技公司采用 圣克拉拉原则 等指南,以使审核过程更加透明。其他人也可以从科技公司使用合同工中吸取教训。对于像内容审核这样危险的工作,低工资和福利不足给那些因其审核员工作而患上心理疾病的员工带来了沉重的经济负担。
章节扩展
[edit | edit source]案例书章节的扩展可以更详细地探讨当今使用的人工智能和机器学习技术、审核过程中的偏见现象以及假新闻现象将如何改变审核过程。
参考文献
[edit | edit source]- ↑ 内容审核[1]
- ↑ [2] 《通信规范法》第230条
- ↑ [3] TikTok隐私政策
- ↑ [4] 拆解TikTok,移动应用和国家安全风险
- ↑ a b c d e 你需要了解的六种内容审核类型[5]
- ↑ Facebook如何审核其极端内容[6]
- ↑ a b c d 美国Facebook审核员的秘密生活[7]
- ↑ Facebook首次发布Instagram内容审核数据[8]
- ↑ a b Facebook最新透明度报告揭示了自动内容审核的弊端[9]
- ↑ Twitter分享内容审核计划,突出与Facebook的对比[10]
- ↑ 关于硅谷拥抱内容审核的复杂争论[11]
- ↑ Reddit安全报告——2019年10月30日[12]
- ↑ 完整的AutoModerator文档[13]
- ↑ Reddit终于正面临其种族主义历史[14]
- ↑ Reddit在重大规则扩展中禁用了r/The_Donald和r/ChapoTrapHouse[15]
- ↑ YouTube不知道自己的界限在哪里[16]
- ↑ 黄色美元:关于去货币化和YouTube与创作者之间战争的全面历史[17]
- ↑ 社区准则打击基础[18]
- ↑ 大规模的内容审核,尤其是当您隐藏所有规则时,它无法正常工作[19]
- ↑ Twitch对最近的DMCA下架事件表示歉意,但还没有真正的解决方案[20]
- ↑ Twitch持续的审核斗争突出了平台的缺陷[21]
- ↑ TikTok在全球压力越来越大的情况下公布内容审核数据[22]
- ↑ 隐形审查:TikTok指示审核员压制“丑陋”和贫穷的人的帖子以吸引新用户[23]
- ↑ Snapchat在应用程序重新设计中强调人工内容审核[24]
- ↑ 内容审核问题正在总统大选竞选中占据中心位置[25]
- ↑ [26] 保护美国人免受危险算法法案
- ↑ [27] 霍利参议员提出立法,修改大型科技公司第230条豁免权
- ↑ [28] 关于防止网络审查的行政命令
- ↑ 联合国专家:内容审核不应践踏言论自由[29]
- ↑ 内容审核和偏见这一棘手的问题[30]
- ↑ BBC. (2018年12月17日). 俄罗斯“干预了美国大选所有大型社交媒体”. BBC新闻. https://www.bbc.com/news/technology-46590890.
- ↑ Hinckle, M. 和 Moore, H. (2020年11月3日). 社交媒体对2020年总统大选的影响:好的一面,坏的一面和丑陋的一面. https://research.umd.edu/news/news_story.php?id=13541.
- ↑ Bose, N. 和 Bartz, D. (2020年11月17日). “比传统媒体更有力量”:Facebook和Twitter政策受到攻击. 路透社. https://www.reuters.com/article/usa-tech-senate/more-power-than-traditional-media-facebook-twitter-policies-attacked-idUSKBN27X186.
- ↑ 低薪和负担过重:Facebook审核员的生活[31]
- ↑ 内容审核员起诉Facebook,称工作给她带来了创伤后应激障碍[32]
- ↑ Brown, R. (2020年5月11日). 什么是社交媒体内容审核以及审核公司如何使用各种技术来审核内容?. 成为人类. https://becominghuman.ai/what-is-social-media-content-moderation-and-how-moderation-companies-use-various-techniques-to-a0e38bb81162
- ↑ Crossfield, J. (无日期). 审核社交媒体阴暗面的隐藏后果. 内容营销研究院. https://contentmarketinginstitute.com/cco-digital/july-2019/social-media-moderators-stress/
- ↑ Benjelloun, Roukaya 和 Otheman, Yassine. (2020). 社交媒体内容审核员的心理困扰:案例报告. 精神病学与心理健康档案, 4. 073-075. 10.29328/journal.apmh.1001024
- ↑ Mendes, D. D.、Mello, M. F.、Ventura, P.、De Medeiros Passarela, C. 和 De Jesus Mari, J. (2008). 关于认知行为疗法治疗创伤后应激障碍有效性的系统综述. 国际精神病学与医学杂志, 38(3), 241–259. https://doi.org/10.2190/PM.38.3.b
- ↑ EMDR国际协会. (无日期). 关于EMDR疗法. https://www.emdria.org/about-emdr-therapy/
- ↑ Lohr, J. M.、Tolin, D. F. 和 Lilienfeld, S. O. (1998). 眼动脱敏与再加工疗法的有效性:对行为疗法的启示. 行为疗法, 29(1).123-256. https://doi.org/10.1016/S0005-7894(98)80035-X
- ↑ 美国退伍军人事务部. (无日期). 创伤后应激障碍:国家创伤后应激障碍中心. https://www.ptsd.va.gov/professional/treat/txessentials/overview_therapy.asp
- ↑ Chu, A. 和 Wadhwa R. (2022年5月8日). 选择性血清素再摄取抑制剂. 国家医学图书馆. https://www.ncbi.nlm.nih.gov/books/NBK554406/
- ↑ Jain, S. (2021年7月1日). 创伤后应激障碍治疗的最新进展. 心理学今日. https://www.psychologytoday.com/us/blog/the-aftermath-trauma/202107/the-latest-in-ptsd-treatment
- ↑ Solon, O. (2016年11月10日). Facebook的失败:假新闻和两极分化的政治让特朗普当选了吗?. 卫报. https://www.theguardian.com/technology/2016/nov/10/facebook-fake-news-election-conspiracy-theories
- ↑ a b Newton, C. (2020年5月12日). Facebook将支付5200万美元,与在工作中患上创伤后应激障碍的审核员达成和解. Verge. https://www.theverge.com/2020/5/12/21255870/facebook-content-moderator-settlement-scola-ptsd-mental-health
- ↑ Wong, Q. (2022 年 5 月 10 日). Facebook 母公司 Meta 被肯尼亚前内容审核员起诉。CNET。 https://www.cnet.com/news/social-media/facebook-parent-meta-sued-in-kenya-by-former-content-moderator/
- ↑ Allyn, B. (2022 年 3 月 24 日). 前 TikTok 审核员因“极其令人不安”的视频带来的情感负担而起诉。NPR。 https://www.npr.org/2022/03/24/1088343332/tiktok-lawsuit-content-moderators
- ↑ Levine, A. S. (2022 年 8 月 4 日). TikTok 审核员正在使用儿童性虐待的图形图像进行培训。福布斯。 https://www.forbes.com/sites/alexandralevine/2022/08/04/tiktok-is-storing-uncensored-images-of-child-sexual-abuse-and-using-them-to-train-moderators/?sh=72c19eee5acb
- ↑ 美国对香港抗议的真相[33]
- ↑ 香港对叛乱的加强已经到来[34]
- ↑ 香港民主抗议活动持续进行[35]
- ↑ NBA 球迷在洛杉矶举行支持香港的 T 恤赠送活动,抗议中国[36]
- ↑ 香港警察镇压学生抗议者[37]
- ↑ 保护香港人民的权利[38]
- ↑ 在香港抗议期间,Twitter 和 Facebook 禁止中国账户[39]
- ↑ 香港抗议活动:Twitter 和 Facebook 删除中国账户[40]
- ↑ Reich, R. & Schaake, M. (2020). 2020 年大选:内容审核和问责制。加州斯坦福:斯坦福大学。
- ↑ a b 需要人工帮助:为什么人工智能在内容审核方面很糟糕[41]
- ↑ 不可能的任务:深入 Facebook 审核 20 亿用户的斗争[42]