专业/高级技术外部咨询委员会的兴衰
人工智能中的偏差是指人工智能模型倾向于延续人类的偏差,导致不公平的决策。这种偏差有许多表现形式,包括交互偏差、潜在偏差和选择偏差。交互偏差指的是从用户与算法交互中产生的偏差。[1] 潜在偏差指的是人工智能算法无意中产生的偏差,例如人工智能将“医生”与男性联系起来,因为在训练中使用的库存图像的元数据存在偏差。[1] 选择偏差指的是训练数据中某个群体过度代表而导致的偏差。[1] 人工智能中存在许多偏差的例子,但比较知名的例子包括 COMPAS、PredPol、亚马逊有偏差的招聘工具 以及各种面部识别软件。
谷歌对人工智能偏差的担忧非常熟悉,他们在 2015 年就曾因其谷歌照片图像识别算法将黑人的照片标记为“大猩猩”而受到批评。[2] 自此事件之后,谷歌公开宣布偏差是他们对人工智能最大的担忧。2017 年,谷歌机器学习负责人约翰·吉安安德列亚表示:“真正的安全问题,如果你愿意这样称呼它,是如果我们给这些系统提供有偏差的数据,它们就会产生偏差。”他强调透明度的重要性,即“透明地说明我们使用训练数据,并寻找其中的隐藏偏差。”[3]” 这些言论为谷歌对人工智能偏差的担忧提供了背景,这些担忧是 ATEAC 成立的重点。
Maven 项目 是五角大楼的一个项目,旨在使用计算机视觉(机器学习的一种应用)对无人机拍摄的视频中的物体进行分类。该项目在许多谷歌员工中引发了争议,他们担心他们的工作会加剧军事武器的杀伤力。虽然谷歌辩称其工作是“无攻击性的”,[4] 但他们参与该项目导致了 12 人辞职[5] 以及员工抗议。在一封由 3100 名谷歌员工签署的信函中,员工们表示:“我们认为谷歌不应该参与战争业务。因此,我们要求取消 Maven 项目,并且谷歌起草、公布并执行一项明确的政策,声明谷歌及其承包商永远不会制造战争技术。”[4]” 员工提出的要求对该公司发布其人工智能原则产生了明显的影响,这些原则明确声明其人工智能不会用于武器制造。
2018 年 8 月 1 日,Intercept 报道称谷歌正在开发一个秘密项目,为中国政府提供该公司搜索引擎的审查版本。该项目代号为“蜻蜓”,将与中国政府的审查制度保持一致;过滤屏蔽的网站,并将敏感的查询列入黑名单,以便不显示任何结果。[6] 公司内部许多人对这一消息感到惊讶,因为谷歌 88000 名员工中只有数百人知道该项目。向 Intercept 提供信息的举报人表达了他的伦理担忧:“我反对大型公司和政府合谋压迫人民,我认为公开所做的事情符合公众利益。”他还补充说,他担心“在中国所做的事情将成为许多其他国家的模板。”[6] 针对这份报道,谷歌 CEO 桑达尔·皮查伊为该项目辩护,称该项目处于“探索”阶段。[7] 皮查伊的辩护并没有起到缓解批评的作用,因为 1400 名员工向公司高管发送了一封信,要求更多透明度。[8] 在这封信中,员工们表示:“目前,我们没有做出关于我们的工作、项目和工作的伦理决策所需的必要信息。”[8]” 他们还指出该公司最近实施的人工智能原则的无效性,并要求“进行伦理审查,包括基层员工代表。”[8]”
2018 年 6 月 7 日,CEO 桑达尔·皮查伊宣布了七项原则,以帮助指导公司未来的与人工智能相关的努力。[9] 他承诺,这些原则与其说是“理论概念”,不如说是“将积极指导我们的研究和产品开发并影响我们商业决策的具体标准”。作为对他们之前与人工智能相关的失误的回应,这七项原则指出人工智能应该
- 对社会有益。
- 避免造成或加剧不公平的偏差。
- 为安全而构建和测试。
- 对人负责。
- 融入隐私设计原则。
- 保持科学卓越的高标准。
- 使其可用于符合这些原则的用途。
此外,该公告特别谴责了人工智能的某些用途,并承诺不会以这些方式“设计或部署人工智能”。
- 可能造成或很可能造成整体伤害的技术。如果存在重大伤害风险,我们将仅在相信益处大大超过风险的情况下继续进行,并将纳入适当的安全约束。
- 武器或其他技术,其主要目的或实施是造成或直接促进对人员的伤害。
- 收集或使用信息进行监控的技术违反了国际公认的规范。
- 其目的违反了国际法和人权广泛接受的原则的技术。
2019 年 3 月 26 日,全球事务高级副总裁肯特·沃克宣布了谷歌帮助指导公司 AI 决策和政策的新举措:高级技术外部咨询委员会(ATEAC)。[10]他表示,该委员会的目标是对之前 6 月宣布的人工智能原则进行补充,并“考虑谷歌在其人工智能原则下出现的一些最复杂挑战,例如面部识别和机器学习中的公平性,提供不同的观点来为我们的工作提供信息”。该委员会将在 2019 年举行四次会议,并邀请了许多相关领域的专家,包括卡内基梅隆大学信息技术与公共政策教授亚历山德罗·阿奎斯蒂,香港科技大学计算机科学与工程教授戴可,以及牛津大学信息哲学与伦理教授卢西亚诺·弗洛里迪。
公众对任命到该委员会的一名成员立即发出了强烈抗议:凯·科尔·詹姆斯,保守派智库传统基金会的总裁。詹姆斯据称在专业和个人方面都持反移民、反LGBTQ 和反环境的观点。公众开始呼吁谷歌为其将詹姆斯纳入该委员会的决定辩护,谷歌没有透明度或解释就做出了这个决定。他们被指责通过将她包括在内来迎合政客,而不是寻求最合格的成员。[11]
在该委员会宣布的四天后,即 3 月 30 日,亚历山德罗·阿奎斯蒂在 Twitter 上宣布,他将拒绝加入该委员会的邀请。[12] 模糊地指出,他“不认为这是一个适合我参与这项重要工作的论坛”,可以合理地推测,自该委员会宣布以来他改变了主意,这是对公众对该委员会成员的争议做出的回应。
公众并不是唯一感到愤怒的人。在谷歌内部,许多员工公开反对这一选择,谴责其雇主的行为。到 4 月 1 日,数千名谷歌员工和数十位学术界、民间社会和行业支持者签署了一份请愿书,呼吁谷歌将凯·科尔斯·詹姆斯从 ATEAC 中移除。[13] 请愿书指出,通过任命詹姆斯,而不是像谷歌声称的那样引入多样性,她的加入“认可并提升了她的观点”。他们指出,那些最边缘化的人已经成为人工智能技术最危险的人群,詹姆斯的任命进一步加剧了这种不公正。
2019 年 4 月 4 日,该委员会成立仅 9 天,谷歌就宣布解散该委员会,称“很明显,在当前的环境下,ATEAC 无法按我们想要的方式运作。[10]”尽管发生了这种突然的挫折,该公司还是保证它将继续对其工作负责。
在该委员会解散后,詹姆斯在《华盛顿邮报》上发表了一篇专栏文章,公开谴责了请愿者。[14] 她指责员工对她的指控不实。尤其是,她认为她反LGBTQ、反移民和“偏执狂”的指控是人格谋杀:毫无根据的指控,其目的只是将她的保守观点从公众话语中抹去。考虑到请愿书本身引用了她自己的 Twitter[15] 帐户[16] 上的这些说法,她这么说很有意思。
詹姆斯和请愿者的冲突源于对容忍悖论的不同立场。詹姆斯认为,不容忍任何一方都是错误的,而请愿者则认为,不容忍不容忍可以帮助创建一个容忍的社会。然而,詹姆斯的立场有些虚伪,因为她公开持有的许多政策信仰都不容忍 LGBTQ 人士[15] 和移民。[16]
2019 年 6 月的一篇博客文章[17] 部分概述了用于让公司遵守其伦理规范的替代方法,这些方法包括关于负责任的人工智能应用的内部教育,用于分析人工智能模型的内部工具,审查流程以及与外部利益相关者的沟通。最后一个功能原本是 ATEAC 的职责范围,但随着它的解散,被咨询的利益相关者现在完全没有姓名,导致透明度更低。
同样没有说出来的是,谷歌内部另一个类似命名的委员会的性质:高级技术审查委员会。这个委员会,不像ATEAC,不是公开的,但已知成员都是高层主管。其中包括谷歌副总裁Jacquelline Fuller以及ATEAC公告的首席法律官和作者肯特·沃克。[18] 这个委员会代表了谷歌为维持道德行为而设定的审查流程的最高层级。[19]
然而,多名员工报告称,该委员会的议程仍不清楚。这些员工在报告中要求匿名,以防遭到报复。[18] 这突出了明显的利益冲突:如果人工智能伦理与公司利润发生冲突,是否应该信任同一群批准了Maven和Dragonfly等项目的管理人员做出正确的决定?
通过诚信的视角可以很容易理解对詹姆斯任命的强烈反对。在这场伦理危机的开始,人工智能原则代表了谷歌的一种新的规范立场。最重要的是,它们代表了公司的价值观。詹姆斯显然与这些价值观相矛盾,例如通过强化对移民的不公正偏见。[16] 任命她不仅增加了“意见的多样性”,而且还使她的信仰合法化并赋予其权力。无论她的信仰是否正确,任命她都背叛了谷歌的诚信,从而破坏了其员工的信任。
进一步破坏信任的是,在这场危机中缺乏透明度。没有描述委员会是如何选出的,也没有描述它将拥有的权力,以及评估其有效性的机制。如果没有这些,委员会,以及公司,就无法对其员工负责——这是谷歌提出的关键目标之一。从那以后,谷歌的其他方法似乎更加透明,也更受青睐,将员工纳入内部教育计划,并让他们负责审查系统的多个层级。然而,最高层的委员会,其神秘的性质和缺乏对员工的责任,可能会在未来引发类似的危机,如果他们推翻了员工对Maven或Dragonfly这样有争议问题的决定。
- ↑ a b c 谷歌解释了人工智能如何对女性和少数民族产生偏见 [1]
- ↑ 谷歌对意外算法种族主义的解决方案:禁止大猩猩
- ↑ 忘记杀人机器人——偏见是真正的人工智能危险
- ↑ a b “战争的生意”:谷歌员工抗议为五角大楼工作
- ↑ 谷歌员工辞职抗议五角大楼合同
- ↑ a b 泄露文件显示,谷歌计划在中国推出审查后的搜索引擎 [2]
- ↑ 员工对谷歌为中国开发审查后的搜索引擎的强烈反对,解释 [3]
- ↑ a b c 谷歌员工告诉老板,中国的审查制度是“道德和伦理”危机 [4]
- ↑ 皮柴,桑达尔 (2018), 谷歌的人工智能:我们的原则, 关键词:谷歌
- ↑ a b 沃克,肯特 (2019), 外部咨询委员会帮助推动人工智能的负责任发展, 关键词:谷歌
- ↑ 斯塔特,尼克 (2019), 谷歌成立外部咨询委员会,以监控其不道德的人工智能使用, The Verge
- ↑ 亚历山德罗·阿奎斯蒂的推特
- ↑ 匿名 (2019), 谷歌反跨性别恐惧症和仇恨, Medium
- ↑ 詹姆斯,凯·科尔斯 (2019), 我想帮助谷歌使人工智能更负责任,结果却遭到了敌意对待。, 华盛顿邮报
- ↑ a b James, Kay Coles (2019), https://twitter.com/KayColesJames/status/1100488434500685824
{{citation}}
: 缺少或为空的|title=
(帮助) - ↑ a b c James, Kay Coles (2019), https://twitter.com/KayColesJames/status/1108365238779498497
{{citation}}
: 缺少或为空的|title=
(帮助) - ↑ Dean, Jeff; Walker, Kent (2019), 负责任的人工智能:将我们的原则付诸实践, Google
- ↑ a b Bergen, Mark; Brustein, Joshua (2019), 拥有实际权力的 Google 人工智能伦理委员会仍在运作, Bloomberg
- ↑ Walker, Kent (2019), Google 人工智能原则更新,六个月总结, Google