信息技术与伦理/百年研究
这份报告是计划中的系列研究的第一份,这些研究将持续至少一百年。“常务委员会在2015年夏季为首届研究小组确定了研究任务,并聘请德克萨斯大学奥斯汀分校的彼得·斯通教授担任小组主席。这个由17名成员组成的研究小组,由来自学术界、企业实验室和行业的AI专家,以及精通AI的法律、政治学、政策和经济学领域的学者组成,于2015年秋季中期成立。”[1]
常务委员会广泛讨论了如何构建研究小组任务,以考虑“AI的最新进展以及对就业、环境、交通、公共安全、医疗保健、社区参与和政府的潜在社会影响”。[1]该委员会考虑了多种方式来聚焦研究,包括调查子领域及其现状,考察机器学习或自然语言处理等特定技术,以及研究医疗保健或交通等特定应用领域。
该委员会的成立是为了监控人工智能的当前和未来发展。我们每天都在遇到新的AI应用,重要的是要理解AI将无处不在,而且以这种速度,它几乎是不可避免的。我们已经开始了一段旅程,为我们创造了与这些技术建立信任和理解的方式。世界各地的计算机科学家每天都在努力创造更智能的AI。创新是伟大的,但“政策和流程应该解决伦理、隐私、安全问题,并应努力确保AI的益处能够广泛而公平地传播。”
百年研究承认“强人工智能”的潜力,但目前还没有监管委员会来监督人工智能的最新进展。17名研究小组成员代表了不同的专业和地域、性别和职业阶段。AI在各个领域的未来发展似乎非常有希望。人工智能无处不在。它存在于我们的手机和家用设备中,它允许Facebook和亚马逊将广告和产品定位到特定用户。这种人工智能被称为基于任务的人工智能。这些AI设备背后的软件允许设备执行任务。学习完善这些任务是使AI“智能”的原因。百年研究委员会在某种程度上是我们的第一道防御,以抵御“强人工智能”。“强人工智能”可能是造成经济破坏的原因,最糟糕的是,它会摧毁人类文明。不仅如此,常务委员会还预计这项研究将具有更广泛的全球意义,因此,在未来,它计划将该项目扩展到国际范围内。
尽管人工智能已经渗透到我们运行的大多数服务和设备中,但了解机器学习的危险至关重要。无论我们是否喜欢,它都影响着我们每个人。谁来控制这些信息,同时决定对人工智能发展的伦理和道德问题,最终将阻止我们自己灭亡。人工智能百年研究于2014年启动。该研究的目的是分析“人工智能对人们、他们的社区和社会的影响”。[1]。AI的开发、研究和系统设计都是为了确保这些系统只对个人和社会有利,并确保其安全性。虽然我们距离真正的类人智能还有很长的路要走——我们可以将其定义为理解、推理、做出决定、提供复杂响应并像人类一样逻辑行动的技术——但机器学习就在眼前。它是基于机器可以从数据中学习的想法的先进分析的扩展。
这项研究对典型北美城市的关注是刻意的,旨在突出显示影响居住在这些城市的数百万人的日常生活的一些具体变化。研究小组进一步将调查范围缩小到八个领域,AI已经或预计将在这些领域产生最大的影响:交通、医疗保健、教育、低资源社区、公共安全与安保、就业与工作场所、家庭/服务机器人和娱乐。
该报告旨在满足四个目标受众。
- 公众:旨在提供一种易于理解、科学和技术上准确的描述,以展示AI的现状及其潜力。
- 行业:该报告描述了相关技术以及法律和伦理挑战,并可能有助于指导资源分配。
- 针对地方、国家和国际政府,帮助他们更好地规划AI治理。
- AI研究人员以及他们的机构和资助者,以确定优先事项并考虑AI研究及其应用所带来的伦理和法律问题。
AI的有效性如何?“AI的有效性仅与其训练数据一样有效。在Tay的情况下,机器智能准确地反映了它所训练的人们的偏见。”[2]AI只是一个黑盒子,无论什么数据输入,都会输出一个答案,而不会对决策进行任何解释。这是一个巨大的问题,因为作为人类的法律,我们希望了解决策是如何做出的。目前,深度学习、人工神经网络和强化学习领域的研究都在努力追溯AI知道它知道的东西的逻辑。科学家们试图训练AI进行新的关联,就像人类的大脑一样。
我们如何衡量AI应用的成功?衡量标准是它们为人类生活创造的价值。有人说,“展望未来,人们使用和适应AI应用的难易程度在很大程度上也将决定它们的成功”。[1]。另一个重要的考虑因素是,接管某些任务的AI系统将如何影响人们的一致性和能力。“随着机器在某些任务上表现出超人的性能,人们执行这些任务的能力可能会衰退。”[1]。现在,在课堂上引入计算器已经降低了孩子们进行基本算术运算的能力。尽管如此,人类和AI系统还是具有互补的能力。人们可以执行机器无法执行的任务,例如复杂推理和创意表达。
此外,人工智能应用及其依赖的数据可能反映出其设计者和用户的偏见,这些设计者和用户指定了数据来源。这有可能加剧现有的社会偏见,并使人工智能的益处在社会不同群体之间分配不均。人们普遍担心人工智能驱动的监控会侵犯隐私,尤其是在普遍使用仪器的城市。“监控”指的是参与者使用便携式个人设备记录活动,这种现象也正在增加。由于对偏见和隐私的看法基于个人和社会的伦理和价值判断,因此关于如何解决这些问题的辩论可能会加剧,而且难以快速解决。[1]
- 确定一条在所有政府层面积累人工智能技术专长的路径。有效治理需要更多能够理解并分析人工智能技术、程序目标和总体社会价值观之间相互作用的专家。
- 消除对人工智能系统公平性、安全性、隐私和社会影响的研究的感知和实际障碍。
- 增加对人工智能社会影响跨学科研究的公共和私人资金。
- Peter Stone,德克萨斯大学奥斯汀分校,主席
- Rodney Brooks,Rethink Robotics
- Erik Brynjolfsson,麻省理工学院
- Ryan Calo,华盛顿大学
- Oren Etzioni,艾伦人工智能研究所
- Greg Hager,约翰霍普金斯大学
- Julia Hirschberg,哥伦比亚大学
- Shivaram Kalyanakrishnan,印度理工学院孟买分校
- Ece Kamar,微软研究院
- Sarit Kraus,巴伊兰大学
- Kevin Leyton-Brown,不列颠哥伦比亚大学
- David Parkes,哈佛大学
- William Press,德克萨斯大学奥斯汀分校
- AnnaLee (Anno) Saxenian,加州大学伯克利分校
- Julie Shah,麻省理工学院
- Milind Tambe,南加州大学
- Astro Teller,X