信息技术与伦理/社交媒体内容与定向
社交媒体是一把双刃剑,它提供了前所未有的方式来连接和分享信息,同时也带来了重大的法律和伦理挑战。这些平台不仅通过它们显示的内容来塑造公众话语,而且由于它们的内容定向实践,还引发了有关隐私、操纵和公平性的问题。这些过程背后的算法可以放大某些声音或压制其他声音,影响从个人心理健康到民主进程的一切。因此,社交媒体内容与定向的交汇点包含了广泛的法律和伦理问题,包括言论自由、审查制度以及对选举和政治信仰的影响。社交网络的伦理意义是复杂而多方面的。根据 Shannon Vallor 的说法,它们可以分为三个主要领域:[1]
- 社交网络活动本身的直接影响。
- 来自支持这些平台的商业模式的间接影响。
- 反映社交网络作为一种变革性的社会政治和文化力量的结构性影响。
社交媒体内容涵盖各种各样的输出,从用户生成的帖子和分享的新闻文章到赞助内容和算法确定的提要。这些内容的选择和展示会显著影响公众舆论和社会规范,使其成为伦理审查的重点领域。
社交媒体定向是指根据对人口统计、行为和心理数据的分析向用户提供内容的实践。这种做法允许平台为每个用户提供看似相关的 内容,但也引发了有关隐私、自主权以及社会分化和偏见可能加强的严重伦理问题。
言论自由是民主社会的一块基石,它被载入美国宪法第一修正案,该修正案断言“国会不得制定任何法律......剥夺言论自由或出版自由……”然而,这种权利主要受到政府侵犯的保护,不适用于私人实体,包括社交媒体公司,它们可以定义和执行自己的规则,规定可接受的语言和内容。
社交媒体平台既是言论自由的福音,也是审查制度的潜在场所。这些平台使个人能够广泛地分享他们的观点,并动员起来为各种事业而奋斗。然而,它们也有权压制它们认为不合适的内容,无论是违反社区标准还是在某些司法管辖区内具有法律争议的内容。
作为私人实体,社交媒体公司经常对它们允许的内容做出复杂决定。这包括决定允许来自特定用户(如国家元首)的某些类型的言论,同时阻止来自其他用户的类似表达,并可能将其标记为仇恨言论或恐怖主义内容。这种选择性执法引发了人们对社交媒体政策的连贯性和公平性的担忧。
“社交媒体公司在网络言论上所掌握的这种权力,以及因此在更广泛的公众话语上所掌握的权力,正被认识为一种新的治理形式。这种权力是独一无二的,因为社交媒体公司所青睐的规范可以通过社交媒体平台的架构直接实施。没有协商、申诉或挑战途径。用户几乎没有范围拒绝以这种方式实施的规范。虽然一个公然不合法的规范可能会引起轩然大波,但社交媒体公司为了迎合违反国际人权规范的现行当地规范而做出的选择却很常见。”[2]
有关社交媒体公司对内容的监管的更多信息,请参阅 Kay Mathiesen 的讨论,她将审查制度描述为通过阻止说话者或接收者参与言论来限制对内容的访问。[3]
管理社交媒体上言论自由的法律框架在各国之间差异很大,这可能会影响这些平台上言论的监管方式。在限制性更强的制度中,社交媒体公司可能被迫遵守当地法律,要求删除在其他情况下可能被视为合法的内容。保护免受伤害与言论自由权利之间的平衡所带来的伦理挑战为内容审核创造了一个复杂的局面。
在全球范围内,社交媒体对言论自由的影响是深远且多方面的。企业不仅要应对不同的法律环境,还要应对广泛的公众期望和国际人权规范。这些平台所拥有的权力有时会与可能侵犯普遍认可权利的地方规范相一致,从而引发人们对社交媒体作为一种没有传统制衡的新型治理形式的作用的质疑。[4]
批评者认为,社交媒体平台的架构通过其设计直接执行规范,留给辩论或上诉的空间很少。这种单边治理方式引发了人们对这种权力合法性的争论,尤其是在这种权力可能压制倡导社会或政治变革的声音时。
社交媒体上的言论和内容限制
[edit | edit source]社交媒体平台作为私营企业,有权制定自己的规则,规定哪些内容在其网络上可接受。这种控制对于维护这些平台内互动质量以及遵守法律标准和保护用户免受伤害至关重要。
社交媒体上的一些言论领域特别具有争议性,并且受到限制,包括仇恨言论、虚假信息、宣传以及可能对他人造成伤害的言论。
仇恨言论
[edit | edit source]仇恨言论 在社交媒体上经常针对特定的种族、民族或其他人口群体,并可能煽动暴力或歧视。例如,三K党等组织利用社交媒体传播针对不同群体的攻击性内容,极大地扩大了其仇恨言论的传播范围和影响。美国南方贫困法律中心报告称,在美国有大量活跃的仇恨和反政府组织,说明了这个问题的严重程度。[5]
虚假信息和宣传
[edit | edit source]在社交媒体上传播虚假信息或虚假信息 是一个主要问题,尤其是考虑到它可能影响公众舆论和选举结果。研究表明,虚假故事比真相触达更多人,传播速度更快,这往往是由于耸人听闻或有争议性的内容吸引了用户的兴趣。[6]
社交媒体平台也被各种行为者(包括外国政府)利用来传播宣传。在 2016 年美国总统大选中,有记录显示,此类活动意在左右公众舆论或制造不和谐。[6]
人们经常呼吁,尤其是政治领导人,要求社交媒体平台删除所谓的“假新闻”,但在几乎所有情况下,说谎在美国宪法第一修正案中被归类为受保护的言论。
错误信息
[edit | edit source]错误信息 指的是无论是否有意误导,传播的虚假或不准确的信息。与故意欺骗的虚假信息不同,错误信息可能是由相信信息真实或无意造成伤害的个人传播的。错误信息可以涵盖广泛的内容,从简单的客观错误到更复杂的误解或数据误解。
错误信息的传播通常通过社交媒体、新闻媒体或口耳相传发生,并且由于在线分享的病毒式传播,传播速度可能很快。错误信息的影响可能是广泛的,影响公众舆论,影响决策,并可能导致社会或政治后果。
COVID-19 大流行是错误信息传播的肥沃土壤,影响了公众对卫生措施、疫苗和病毒本身的理解和应对。围绕大流行的各个方面的错误信息,例如口罩的有效性、疫苗的安全性以及病毒的本质,导致了各种各样有时相互矛盾的公众反应。一个特别有害的谣言是,COVID-19 疫苗会导致男性和女性不孕。这种特定的错误信息导致了人们对疫苗的犹豫,严重影响了抗击病毒的公共卫生工作。尽管美国妇产科医师学院、美国生殖医学学会和母胎医学学会等信誉良好的来源已经驳斥了这一说法,但最初的谣言已经播下了深深的怀疑种子。[7]
可能对他人造成伤害的言论
[edit | edit source]社交媒体上某些类型的内容,例如人肉搜索 或虚假报警,可以直接导致人身伤害。此类内容还包括可能煽动暴力行为或提供有关实施有害活动的的信息。社交媒体平台在减轻此类有害内容传播方面的责任是一个重要的道德问题。[8]
诽谤
[edit | edit source]诽谤 在社交媒体上可以通过传播虚假信息来损害个人的声誉。法律措施通常要求平台采取行动打击诽谤性内容,以保护受影响的个人。这是一个关键领域,言论自由与免受诽谤或名誉损害的权利相交。[9]
算法和内容交付
[edit | edit source]社交媒体在现代社会已经变得非常普遍,向用户的手机和电脑屏幕提供难以估量的海量内容。关于社交媒体平台的一个常见话题是“算法”这个不祥且模糊的词语,它决定了用户的互动方式以及哪些内容受欢迎。这种“算法”源于计算机算法的概念,算法被广泛定义为“解决问题或实现某个目标的逐步程序”。[10] 从本质上讲,算法是一种用于解决问题的方案。
社交媒体平台使用算法来实现“基于内容的推荐系统”的目标,该系统根据用户的兴趣特征决定用户可以看到哪些内容以及看不到哪些内容。[11] 该配置文件是使用大量数据点创建的,然后使用这些数据点来衡量用户对显示给他们的内容的兴趣,然后向用户提供类似的内容。所有这一切都是为了让用户始终参与社交媒体平台。
用户参与的激励
[edit | edit source]社交媒体平台希望用户始终参与他们的内容,以便他们可以向用户投放广告,并使用算法来确定哪些用户应该在何时收到哪些广告。广告商然后向社交媒体平台支付费用以将其广告展示给目标受众,从而为社交媒体平台提供了持续的收入来源。[12]
有些人认为使用算法向用户投放广告是不道德的,他们认为这不可避免地会针对最脆弱的人群。[13] 这只是一个争议,但围绕社交媒体平台的大部分讨论都与这些由于其使用算法而产生的争议交织在一起。
点击诱饵和新闻诚信
[edit | edit source]随着社交媒体的兴起,许多新闻机构发现自己需要适应。这些新闻机构现在使用社交媒体平台来将内容传播给受众。[14] 这种转向社交媒体导致新闻机构放弃了对内容传播的控制,变得依赖算法来分发内容。[14] 新闻机构和内容创作者都知道,如果在这些社交媒体平台上没有得到足够的用户的互动,将损害他们的未来。[13] 这导致许多新闻机构和内容创作者参与了一种被称为“标题党”的做法,其定义是“旨在让读者点击超链接的东西,尤其是当链接指向价值或兴趣可疑的内容时”。[15] 许多新闻机构也放弃了“传统的新闻价值观和新闻自主权”[14],转而关注能提高用户参与度和算法可行性的内容。
定向内容
[edit | edit source]为了保持用户的参与度,社交媒体平台会提供“定向内容”,这与“由算法为用户选择的内容,因为算法认为用户会参与这些内容”同义。 这些内容是根据目标用户职业、财富和教育信息等数据点进行定向的。[16] 定向内容的批评者指出,这种定向方式是掠夺性的,因为它允许对可能最容易受到投放给他们的广告影响的极端利基群体进行定向。 批评者还指出,这些社交媒体公司必须收集和处理大量用户数据才能实现这种细粒度的定向,而这通常是在知情同意的基础上进行的。[17] 人们担心的是,用户没有充分了解到他们使用这些社交媒体平台的结果是放弃了一些隐私期望,因此推翻了知情同意的基础。
批评者还指出,内容定向往往会导致对这些社交媒体平台的成瘾。 这是基于社交媒体过度使用在用户身上培养的六种“成瘾标准属性:显着性、情绪调节、耐受性、戒断症状、冲突和复发”。[18] 您可以在此处找到的专门部分中阅读有关社交媒体成瘾的更多信息。
内容压制
[edit | edit source]社交媒体平台使用算法定向和推广某些内容的另一方面是内容压制。 正如算法会促进对某些类型内容的参与一样,它们也会压制其他类型的内容。 批评者指出,算法的创建并非一个中立的过程,而且往往是创建者或整个社会的偏见会影响内容选择以进行推广和压制。[19] 有一些内容创作者声称,他们在 TikTok 等平台上发布了“黑人的命也是命”的内容,他们的内容被压制了。[20]
内容定向的颠覆:对选举和政治进程的影响
[edit | edit source]最近的关键例子突出了与社交媒体上的内容定向相关的众多道德和法律问题。 值得注意的是,像剑桥分析公司参与 2016 年美国总统大选和英国脱欧公投这样的事件表明,社交媒体可以被用来操纵公众舆论和影响政治结果。 这些案例揭示了定向内容策略的强大影响力及其对民主的深远影响。
剑桥分析公司和 2016 年美国总统大选
[edit | edit source]剑桥分析公司,一家英国咨询公司,也是战略传播实验室 (SCL) 的子公司,因其在 2010 年代中期至后期政治事件中的重要作用而声名狼藉,最终在 2018 年 5 月关闭。 该公司有争议的行为源于未经授权获取了超过 5000 万 Facebook 用户的私人信息。 这种泄露使得可以构建详细的用户资料,然后这些资料被用来影响美国政治,尤其是在 2016 年总统大选和英国脱欧公投期间。[21]
该行动始于 2014 年,当时剑桥分析公司首席执行官亚历山大·尼克斯提议使用心理画像来影响选民的行为。 这些策略被用来影响当地选举中保守派候选人的公众舆论,资金来自史蒂夫·班农等人物。[22] 该公司最初可用的数据不足,导致聘用了俄裔美国学者亚历山大·科根开发一款应用程序,该应用程序不仅收集用户数据,还收集他们 Facebook 朋友的数据。 这种大规模的数据收集得益于 Facebook 当时宽松的数据使用政策。[23]
定向广告、筹款呼吁和竞选活动战略规划,例如决定唐纳德·特朗普应该访问哪里以最大限度地获得支持,都是基于这些资料的。 同时,还采用了动员民主党选民和加剧右翼情绪的策略,展示了定向内容的双重用途,既可以动员选民,也可以压制选民投票率。[24]
英国脱欧公投
[edit | edit source]在大西洋彼岸,类似的画像技术被用来影响英国脱欧投票。 在脱欧运动和剑桥分析公司之间发现了联系,通过一家名为 Aggregate IQ 的加拿大公司,该公司与各种政治运动团体有联系,这些团体主张英国离开欧盟。 在公投的关键最后几天,被认定为可被说服的选民收到了超过十亿条定向广告,这种策略对于确保公投获得通过所需的微弱多数至关重要。
这些事件促使社交媒体平台在管理数据方面发生了重大变化,并引发了更广泛的讨论,即需要对内容定向做法进行严格监管,以保护民主进程。
审查和内容压制
[edit | edit source]社交媒体上的审查可能是微妙的,也是多方面的,通常表现为两种主要形式:压制审查和威慑审查。 两种方法都有其含义,并在不同的情况下被采用,往往引发有关言论自由与监管需求之间平衡的争论。
压制审查
[edit | edit source]压制审查是指禁止发表、展示或传播有异议的材料。在美国,这种审查形式通常等同于“事先限制”,这是一个通常被认为违宪的概念,除非它符合高标准的正当理由,通常只在国家安全或公共安全的情况下才被维持。
社交媒体平台有时会进行一些被认为是压制审查的做法,例如删除或屏蔽某些类型的內容。这可能包括自动算法抑制提及被认为敏感或有争议的特定主题的内容。虽然平台辩称这样做是必要的,以维护社区标准,但批评者往往将其视为限制言论自由的审查形式。[25]
社交媒体背景下的知识产权问题突出了另一种压制形式。平台使用版权申诉自动执行知识产权法,通常不进行彻底调查。这种做法会导致内容被压制,即使它属于合理使用条款。[26]
威慑性审查不会直接阻止或禁止发表材料。相反,它依靠法律后果的威胁,例如逮捕、起诉或巨额罚款,来阻止创建和传播有异议的内容。这种审查形式可能尤其令人不寒而栗,因为它针对内容发布者和可能访问内容的人,营造了一种恐惧和自我审查的氛围。
两种审查形式的一个关键问题是难以区分发布者(那些在网上创建和发布内容的人)和平台(那些托管他人发布的内容的人)。理论上,平台根据《通信规范法》第 230 条免于对用户生成内容承担责任,《通信规范法》是互联网立法的一项关键内容,它允许在线服务托管用户生成内容,在大多数情况下不对其内容承担责任。[27]
社交媒体的法律环境受到 1996 年颁布的《通信规范法》(CDA)第 230 条 的很大影响。该立法框架为平台提供了广泛的豁免权,保护它们免受因用户生成内容而产生的诉讼。第 230 条至关重要,因为它允许平台在不面临法律后果的情况下对材料进行审核,从而促进创新和自由的在线交流。[28]
第 230 条保护社交网站免受与用户发布信息相关的诉讼,使它们能够控制内容,而不必对传播的信息负责。然而,该条款因其在促进有害内容传播的同时限制平台的责任而受到批评,尽管其目的是促进言论自由和创新。[29]
批评者认为,第 230 条提供的保护导致社交网络公司优先考虑用户互动和增长,而不是严格的内容审核。这使得平台能够避免做足够的努力来阻止有害内容的传播,例如仇恨言论、虚假信息和网络欺凌。缺乏对托管此类内容的法律处罚使不良行为者能够利用这些平台,传播可能损害社区和个人的危险材料。[30]
据称,第 230 条赋予社交网络网站的法律豁免权削弱了问责制,并阻止受害者寻求对他们在网上遭受的骚扰或诽谤的法律追索权。如果平台没有潜在的法律后果,他们可能没有动力主动删除有害内容或向受影响者提供充分的支持。[31]
关于第 230 条的辩论仍在不断发展,因为来自各个领域的利益相关者呼吁进行改革,以平衡在线言论自由的益处和对更大问责制的需求。法律学者和政策制定者正越来越多地研究法律如何适应社交媒体平台内容管理的复杂性,建议可能需要更细致的方法。这涉及考虑对算法进行监管的可能性以及平台在线言论的相应责任。[32]
社交媒体平台肩负着审核内容的重任,以遏制有害信息的传播。此职责包括删除传播仇恨言论或煽动暴力的帖子,以及暂停违反平台政策的用户。内容审核的范围和效果会受到多种因素的影响,包括政治影响、文化规范和经济激励。
内容审核是指筛选数字平台上的用户生成内容,以确定其是否合适。这包括评估文本、图像和视频,以确保它们符合平台指南。鉴于每天上传的內容数量巨大,内容审核对于维护安全的在线环境至关重要。内容审核员,这些处于此操作最前沿的人员,由于审核的内容性质而经常面临重大的心理挑战,包括接触暴力或令人不安的图像和文本。[33] [34]
最近的法律案件突出了这些挑战,Facebook 因审核员因其工作职责而遭受的创伤而与他们达成了一项 5200 万美元的和解协议。[35] 其他平台,如 TikTok,也面临着类似的法律挑战,强调了这项工作对心理健康造成的严重影响。[36]
审核员的任务是过滤各种不良内容,从垃圾邮件和侵犯版权到仇恨言论和暴力内容等严重违规行为。持续接触此类内容所带来的困扰非常严重,会影响审核员的心理健康,即使他们离开职位后也是如此。无论审核员是直接受雇于平台还是通过第三方承包商,情况都是如此。然而,内部员工通常比外包员工获得更好的报酬、工作条件和心理健康资源。[32]
像 Facebook 这样的大型平台使用人工智能 (AI) 系统来检测大多数有害内容。Facebook 首席执行官马克·扎克伯格报告称,AI 系统负责删除平台上超过 95% 的仇恨言论和几乎所有与恐怖主义相关的内容。[37] 尽管取得了这些进步,但仍然需要人工审核的庞大有害内容量仍然令人难以承受。AI 虽然高效且能够处理多种语言的内容,但在理解上下文或人类语言的细微差别方面往往缺乏必要的能力,特别是在像表情包这样的复杂情况下,需要综合考虑文字、图像和隐含含义。[38] 从伦理角度来看,将人工智能用作内容审核工具可能在解决内容审核员心理负担方面很有希望,但人工智能在内容审核中的应用也可能加剧现有的算法和社会偏见。
社交媒体平台凭借其算法和无限滚动等复杂设计功能,利用心理原理来培养习惯性使用,有时会导致上瘾。这些设计并非良性;它们对心理健康有重大影响,深刻地影响着用户行为和社会互动。
社交网站旨在利用可变奖励系统,这一概念源于 B.F. 斯金纳的行为主义心理学。点赞、评论和分享等互动会提供不可预测但频繁的奖励,迫使用户反复参与,以期获得社交认可。这种互动模式会刺激大脑的奖励中心,类似于赌博和药物使用,会导致强迫性行为,使用户感到无法控制地想要登录这些网站,往往以牺牲其他活动和责任为代价。这种行为成瘾的严重后果体现在生产力下降、人际关系紧张和身体活动减少方面。
社交网站上的无限滚动功能体现了说服性设计,旨在通过利用人类自然的好奇心和害怕错过 (FOMO) 来最大限度地提高用户参与度。这种设计经常导致用户进入“心流”状态,即高度投入的状态,让人感觉时间在不知不觉中流逝。虽然心流在学习或艺术等活动中可能是有益的,但在社交媒体上,它往往会导致时间管理不善和注意力分散,无法完成任务,包括睡眠模式被打乱,这会导致严重的认知和健康后果。[39]
术语“黑暗路径”描述了用户由于过度使用社交媒体而可能遵循的负面轨迹。与这些路径相关的关键心理健康问题包括焦虑、抑郁和社交孤立。导致这些结果的原因是多方面的
- 社交比较:用户经常看到他人生活的精心策划版本,这会导致不利的比较和扭曲的自我认知。这种现象与自尊心降低和身体形象问题有关,尤其是在青少年和年轻人中。[40]
- 网络欺凌和在线骚扰:社交平台的匿名性可能会助长攻击性和欺凌行为,受害者报告说压力和焦虑水平更高,在严重情况下还会出现自杀念头。[41]
- 信息过载:长时间使用社交媒体期间处理的大量信息会超过大脑的处理能力,从而损害决策能力并增加压力水平。[42]
- ↑ Vallor, Shannon (2022). "社交网络与伦理". 斯坦福哲学百科全书 (2022 年秋季版 ed.).
{{cite book}}
:|edition=
has extra text (help) - ↑ Arun, Chinmayi (2018). "做出选择:社交媒体平台和言论自由规范". SSRN 电子期刊. doi:10.2139/ssrn.3411878. ISSN 1556-5068.
- ↑ Mathiesen, Kay (2008). "审查制度和信息获取". 信息与计算机伦理手册. 纽约:约翰·威利父子公司.
- ↑ Carlsson, Ulla, ed. (2016). 表达自由和媒体转型:数字时代研究与反思. 哥德堡:Nordicom. ISBN 978-91-87957-22-2.
- ↑ "活跃仇恨团体". 南方贫困法律中心. 2023. Retrieved April 22, 2024.
{{cite web}}
: CS1 maint: url-status (link) - ↑ a b Vosoughi, Soroush; Roy, Deb; Aral, Sinan (2018-03-09). "在线真假新闻的传播". 科学. 359 (6380): 1146–1151. doi:10.1126/science.aap9559. ISSN 0036-8075.
- ↑ Abbasi, Jennifer (2022-03-15). "关于不孕不育的广泛错误信息继续导致人们对 COVID-19 疫苗犹豫". JAMA. 327 (11): 1013. doi:10.1001/jama.2022.2404. ISSN 0098-7484.
- ↑ MMller, Karsten; Schwarz, Carlo (2017). "煽动仇恨的火焰:社交媒体与仇恨犯罪". SSRN 电子期刊. doi:10.2139/ssrn.3082972. ISSN 1556-5068.
- ↑ Barnes, M (2020 年 7 月 17 日). "社交媒体中的五大法律问题". 法律阅读器. https://www.legalreader.com/top-5-legal-issues-in-social-media/.
- ↑ "算法的定义". www.merriam-webster.com. 2024-04-12. 检索于 2024-04-22.
- ↑ Pazzani, Michael J.; Billsus, Daniel (2007), Brusilovsky, Peter; Kobsa, Alfred; Nejdl, Wolfgang (eds.), "基于内容的推荐系统", 自适应网络:网络个性化的方法和策略, Berlin, Heidelberg: Springer, pp. 325–341, doi:10.1007/978-3-540-72079-9_10, ISBN 978-3-540-72079-9, 检索于 2024-04-22
- ↑ Li, Szu-Chuang; Chen, Yu-Ching; Chen, Yi-Wen; Huang, Yennun (2022-01). "预测社交媒体驱动的内容网站的广告收入:走向更有效和可持续的社交媒体发布". 可持续性. 14 (7): 4225. doi:10.3390/su14074225. ISSN 2071-1050.
{{cite journal}}
: 检查日期值:|date=
(帮助) - ↑ a b Mogaji, Emmanuel; Soetan, Taiwo O.; Kieu, Tai Anh (2021-08). "人工智能对金融服务数字营销对弱势客户的影响". 澳大利亚营销杂志. 29 (3): 235–242. doi:10.1016/j.ausmj.2020.05.003. ISSN 1839-3349.
{{cite journal}}
: 检查日期值:|date=
(帮助) - ↑ a b c Peterson-Salahuddin, Chelsea; Diakopoulos, Nicholas (2020-07-10). "协商自治:社交媒体算法在编辑决策中的作用". 媒体与传播. 8 (3): 27–38. doi:10.17645/mac.v8i3.3001. ISSN 2183-2439.
- ↑ "点击诱饵的定义". www.merriam-webster.com. 2024-04-19. 检索于 2024-04-22.
- ↑ Xia, Chaolun; Guha, Saikat; Muthukrishnan, S. (2016-08). "在线社交广告市场的目标算法". IEEE: 485–492. doi:10.1109/ASONAM.2016.7752279. ISBN 978-1-5090-2846-7.
{{cite journal}}
: Cite journal requires|journal=
(help); Check date values in:|date=
(help) - ↑ Custers, Bart; van der Hof, Simone; Schermer, Bart (2014-09). "社交媒体用户的隐私期望:知情同意在隐私政策中的作用". 政策与互联网. 6 (3): 268–295. doi:10.1002/1944-2866.POI366. ISSN 1944-2866.
{{cite journal}}
: Check date values in:|date=
(help) - ↑ Mujica, Alejandro L.; Crowell, Charles R.; Villano, Michael A.; Uddin, Khutb M. (2022-02-24). "设计成瘾:过度使用社交媒体的一些维度和挑战". 医学研究档案. 10 (2). doi:10.18103/mra.v10i2.2677. ISSN 2375-1924.
- ↑ Binns, Reuben; Veale, Michael; Van Kleek, Max; Shadbolt, Nigel (2017). Ciampaglia, Giovanni Luca; Mashhadi, Afra; Yasseri, Taha (eds.). "像训练师一样,像机器人一样?算法内容审核中偏差的继承". 社会信息学. 施普林格国际出版公司,瑞士苏黎世:405–415. doi:10.1007/978-3-319-67256-4_32. ISBN 978-3-319-67256-4.
- ↑ McCluskey, Megan (2020年7月22日). "这些 TikTok 创作者说他们仍然因为发布 Black Lives Matter 内容而受到压制". 时代. https://time.com/5863350/tiktok-black-creators/.
- ↑ "剑桥分析公司在 Facebook 丑闻后关闭". 瘾科技. 2018-05-02. 检索于 2024-04-23.
- ↑ Rosenberg, Matthew; Confessore, Nicholas; Cadwalladr, Carole (2018-03-17). "特朗普顾问如何利用数百万人的 Facebook 数据" (以 en-US 语言). 纽约时报. ISSN 0362-4331. https://www.nytimes.com/2018/03/17/us/politics/cambridge-analytica-trump-campaign.html.
- ↑ Scheiber, Noam; Isaac, Mike (2019-03-19). "Facebook 停止在歧视投诉中引用的广告定位" (以 en-US 语言). 纽约时报. ISSN 0362-4331. https://www.nytimes.com/2019/03/19/technology/facebook-discrimination-ads.html.
- ↑ Scheiber, Noam; Isaac, Mike (2019-03-19). "Facebook 停止在歧视投诉中引用的广告定位" (以 en-US 语言). 纽约时报. ISSN 0362-4331. https://www.nytimes.com/2019/03/19/technology/facebook-discrimination-ads.html.
- ↑ "关于网络数字权利和言论自由的讨论". 互联网治理论坛. 检索于 2024年4月22日.
{{cite web}}
: CS1 maint: url-status (link) - ↑ Maiello, Alfred (2011). "社交媒体 - 企业面临的法律问题概述". MBM Law. 检索于 2024 年 4 月 22 日.
{{cite web}}
: CS1 maint: url-status (link) - ↑ "第 230 条:关键法律案件". Electronic Frontier Foundation. 检索于 2024 年 4 月 22 日.
{{cite web}}
: CS1 maint: url-status (link) - ↑ "第 230 条". Electronic Frontier Foundation. 检索于 2024-04-23.
- ↑ Morrison, Sara (2020-05-28). "解释第 230 条,该条互联网法律正面临威胁". Vox. 检索于 2024-04-23.
- ↑ Citron, Danielle; Wittes, Benjamin (2017-11-01). "互联网不会崩溃:拒绝对不负责任的第三方施加第 230 条豁免". Fordham Law Review. 86 (2): 401.
- ↑ Huang, Tzu- Chiang (2022-09-01). "私人审查、虚假信息和第一修正案:在全球大流行时代重新思考在线平台监管". Michigan Technology Law Review. 29 (1): 137–170. doi:10.36645/mtlr.29.1.private. ISSN 2688-4941.
- ↑ a b 哥伦比亚法学评论. "治理在线言论:从“帖子为王”到比例性和可能性". 哥伦比亚法学评论. 检索于 2024-04-23.
- ↑ anujayaraman (2022-03-03). "内容审核的伦理:谁来保护保护者?". Innodata Inc. 检索于 2024-04-23.
- ↑ "社交媒体平台和用户的责任 | 公共参与". publicengagement.umich.edu. 检索于 2024-04-23.
- ↑ Satariano, Adam; Isaac, Mike (2021-08-31). "为 Facebook 清理内容的沉默伙伴,每年赚取 5 亿美元" (英文). 纽约时报. ISSN 0362-4331. https://www.nytimes.com/2021/08/31/technology/facebook-accenture-content-moderation.html.
- ↑ 监管评论 (2021-12-21). "社交媒体平台的社会责任 | 监管评论". www.theregreview.org. 检索于 2024-04-23.
- ↑ "马克·扎克伯格表示,内容审核需要'细致入微',需要考虑帖子背后的意图,但也强调 Facebook 依赖 AI 来完成这项工作". Business Insider. 检索于 2024-04-23.
- ↑ Persily, Nathaniel; Tucker, Joshua A., eds. (2020). 社交媒体与民主:领域现状、改革前景. SSRC 民主焦虑. 英国剑桥 ; 纽约州纽约市:剑桥大学出版社. ISBN 978-1-108-89096-0.
- ↑ Collins, Grant (2020-12-11). "为什么无限滚动如此令人上瘾". Medium. 检索于 2024-04-23.
- ↑ Sadagheyani, Hassan Ebrahimpour; Tatari, Farin (2021-02-23). "调查社交媒体对心理健康的影响". 心理健康与社会融合. 25 (1): 41–51. doi:10.1108/MHSI-06-2020-0039. ISSN 2042-8308.
- ↑ Pater, Jessica A.; Kim, Moon K.; Mynatt, Elizabeth D.; Fiesler, Casey(2016 年 11 月 13 日)。“在线骚扰的特征:比较社交媒体平台的政策”。ACM:369–374。doi:10.1145/2957276.2957297。ISBN 978-1-4503-4276-6.
{{cite journal}}
: Cite journal 需要|journal=
(帮助) - ↑ Pater, Jessica A.; Kim, Moon K.; Mynatt, Elizabeth D.; Fiesler, Casey(2016 年 11 月 13 日)。“在线骚扰的特征:比较社交媒体平台的政策”。ACM:369–374。doi:10.1145/2957276.2957297。ISBN 978-1-4503-4276-6.
{{cite journal}}
: Cite journal 需要|journal=
(帮助)