跳转到内容

2050 年的工程教育 / 让人类负责掌控人工智能

来自维基教科书,开放的书籍,开放的世界

人工智能 (AI) 在 21 世纪的快速兴起带来了重大的伦理挑战,特别是在其发展和社会影响方面。本章借鉴人工智能专家杰弗里·辛顿和蒂姆尼特·盖布鲁的观点,重点介绍了这些问题,包括生存风险、编码偏差以及人工智能开发中的劳动剥削。它倡导改革工程课程,重点培养未来工程师应对 2050 年这些挑战所需的技能和伦理,确保人工智能发展与包容性和社会责任相一致。

人工智能的未来风险

[编辑 | 编辑源代码]

辛顿对人工智能未来的预测和担忧

杰弗里·辛顿,常被称为“人工智能教父”,对人工智能发展的轨迹表达了担忧。他最近在 2023 年表示,人工智能可能在短短五年内超越人类的性能,这修正了他早先预测的二十到三十年。[1] 他的警告反映了人工智能系统必须与人类价值观保持一致,并被设计为增强人类而不是取代人类的工具。尽管如此,辛顿并没有主张停止人工智能研究,他认为全球研究工作将继续进行,无论如何。[1] 他的担忧包括虚假信息的传播,以及工作自动化的可能性,例如助理和律师助理,以及工作流离失所带来的更广泛的社会影响。 [2][3]

盖布鲁对人工智能伦理的批评

蒂姆尼特·盖布鲁,谷歌人工智能伦理团队的前任联合负责人,提出了不同的但同样重要的观点。她在批评大型语言模型 (LLM) 后被谷歌解雇,这突显了人工智能开发中利润和安全之间的紧张关系。盖布鲁强调了这些模型如何以追求利润为目的,往往无法解决固有的偏差。 [4] 偏差数据训练偏差的人工智能,人工智能中人类偏差的反映突出了 2050 年工程课程需要关注全面伦理培训、批判性思维和偏差缓解策略的重要性。

人工智能工作者的劳动剥削

人工智能开发中的劳动剥削突出了人工智能快速增长带来的意想不到的挑战。在菲律宾,Remowork 因剥削负责为人工智能数据集分类图像的工人而受到批评,这些工人的工作条件通常很差,工资低,工资延迟,并遭到撤销。 [5] 同样,肯尼亚的 Sama 也吸引工人参与识别露骨的图形内容,以训练 ChatGPT 等模型识别不适当的材料。 [6] 这些工人,有些人每小时的工资低至 1 美元,忍受着令人不安的内容带来的心理健康影响。 [6] 这类剥削突出了在弱势群体劳动的基础上构建先进技术的伦理问题,加剧了不平等的循环。

人工智能偏差与伦理考量

[编辑 | 编辑源代码]

预计到 2050 年,人工智能将更普遍地融入日常生活,并将变得更加强大,然而,这也有可能导致算法决策变得更加偏颇,因为它们会向用户提供多年积累的大量信息。到那时需要重点关注的一个问题是,算法是否在强化偏差而不是帮助消除偏差。

什么是人工智能偏差?

偏差可能来自用于训练的数据、算法本身或开发过程中做出的设计决策。 [7] 人工智能偏差的重要案例研究包括 1988 年的英国医学院歧视事件,其中一个计算机程序在审查申请时对女性和非欧洲裔申请者存在偏见。2018 年,类似的事件发生在亚马逊的计算机模型对女性存在偏见,因为大多数简历来自男性。 [8] 另一个例子是 ProPublica 新闻网站发现,刑事司法算法称非裔美国被告为“高风险”的概率是白人被告的两倍。 [9] 很明显,人工智能偏差会导致用户和公众出现错误信息和不平等的机会,那么有没有办法在工程师及其专业责任的帮助下完全消除它?

新的课程

在人工智能开发背后的是那些致力于创建这些算法的专业人士。为了控制人工智能,完全消除偏差的任务是不切实际的,相反,人们建议未来需要对工程师进行培训,让他们能够识别数据中的这些偏差。工程师需要了解其专业责任,确保人工智能技术符合伦理标准和社会价值观。为了实现这种思维方式,我们预计人工智能偏差识别将在课程中得到解决和整合。遵循杰弗里·辛顿的原则,将创建一些课程或选修课,帮助工程专业的学生处理人工智能开发中很可能出现的复杂伦理困境。需要解决的主要问题包括用户控制和隐私以及人工智能系统在多样化环境中的透明度。工程师将学习在设计人工智能时如何考虑用户,让用户能够控制系统,而不是系统控制用户。  尊重用户隐私也很重要,因为个人信息必须以负责任的方式进行处理,数据泄露的可能性要低,并且要遵守既定的隐私法规。最后,确保人工智能系统具有透明度和可解释性有助于建立信任,并让用户了解决策是如何做出的。例如,这可能表现在系统显示可能存在较高偏差风险的信息的警告标志,让用户了解如何在生活中更好地使用人工智能,同时牢记所呈现的信息和观点存在缺陷。为了解决这些问题,特别是实践练习,例如寻找创新解决方案来帮助减少人工智能中的偏差,将帮助学生在面对现实世界场景时做出负责任的决策。这可以通过学习如何过滤可能存在高度偏差的数据源来实现。此外,将为学生提供更多机会参加由嘉宾演讲者主办的研讨会。演讲者可能是该领域的教授,也可能是来自世界各地的工程师,他们在研讨会上讨论当时全球的人工智能标准。

机遇与挑战

随着人工智能越来越多地渗透到我们的日常生活中,它有可能由于使用的数据而强化人类思维和行为中的偏差。然而,完全消除偏差是不切实际的,因此,预测未来将提供整合多学科课程和选修课来改变思维方式并鼓励工程师更加适应性的课程。重要的是,人工智能系统的设计者——人类——要谨记辛顿的警告,要意识到并反思人工智能的偏差和伦理标准,因为这对创造一个未来至关重要,在这个未来,人工智能技术能够积极地为社会做出贡献,从而避免人类盲目依赖这些强大但有缺陷的系统。

工程学校的人工智能法律

[编辑 | 编辑源代码]

如前所述,我们的愿景是看到工程教育采取必要的步骤,教育计算机科学专业的学生如何使人工智能与包容性和社会责任保持一致。另一种实现这一目标的方法是为工程专业的本科生开设预备法律课程。

当前的人工智能法

目前,围绕人工智能的法律处于过渡阶段,尚未完全生效。我们预计,到 2050 年,随着人工智能在日常生活中越来越普遍,将出现许多人工智能法律。目前,美国已有 15 个州颁布了关于人工智能的立法。《sup id="cite_ref-10" class="reference">[10] 这些州的法律各不相同。一些州立法机构侧重于收集数据和制定政策,而另一些则进一步明确人工智能在法律上不具备人格资格。《sup id="cite_ref-11" class="reference">[11] 虽然现行立法稀少且支离破碎,但在 2022 年,白宫科学技术政策办公室发布了《人工智能权利法案蓝图》,这表明在未来几年内,将制定全国性的关于人工智能的政策。《sup id="cite_ref-12" class="reference">[12]

人工智能诉讼

对于任何政策或法律,最终都会有人违反它们。我们预测,在人工智能方面,这种情况将保持一致,从而催生出一个新的领域——人工智能诉讼。例如,可能会出现因人工智能造成的有害偏见、人工智能软件剽窃、如果有人按照人工智能指令行事而产生的责任纠纷等案件。计算机科学专业的学生将是人工智能律师的理想人选,因为他们可以理解与人工智能法律案件相关的软件背景,并能够向陪审团或法官提供相关背景信息。这类似于专利法,专利法侧重于处理专利案件和撰写专利申请,目前要求专利律师至少拥有一个技术学位。这是因为技术背景的人员能够更好地理解技术术语和模型,从而让他们掌握专利法案件所围绕的发明原理。人工智能法也是如此。在工程专业的本科生中引入预备法律课程,将使更多学生了解我们预测的这一新职业道路。工程学院可以开设一些课程,从法律与工程的交叉领域开始,并开设更高水平的课程,教授学生法律基础知识,为他们将来可能上法学院并参加后续考试做好准备。我们预测,将出现一个类似于专利律师资格考试的人工智能法律资格考试。有了人工智能律师,人工智能的未来将能够通过法律审判,以确保创造者承担责任。

人工智能认证

此外,计算机科学专业的学生还应该了解未来的法规及其目的。在我们对 2050 年的设想中,专业创建人工智能软件的人员需要在特定司法辖区获得认证才能创建人工智能。这种模式将结合当前的软件道德规范(目前不包含人工智能道德规范)和土木工程师必须参加的专业工程师资格考试(FE)。这些认证将确保创建人工智能系统的专业人员能够对了解人工智能法规负责,因为他们已经获得了认证,并在认证考试中接受了人工智能法规和技术技能的测试。目前,这一想法面临的一个挑战是如何确定一个人应该在哪个司法辖区获得专业创建人工智能的认证,因为一个人工智能软件可以在其创建的州甚至国家之外使用。此外,人们必须付费参加专业工程师资格考试,因此我们可以假设类似的考试也需要付费。这可能会给获得认证的人员设置障碍。

结论

[edit | edit source]

这些问题导致我们预测到 2050 年工程教育将发生重大转变。这种新方法将优先考虑道德基础、偏见预防、以人为本的人工智能设计、跨学科合作和持续学习。通过为未来的工程师配备应对这些挑战的技能和道德框架,2050 年的愿景将是一个人工智能成为积极变革力量,并且以尊重人类尊严和道德责任的方式发展的人工智能时代。

参考文献

[edit | edit source]
  1. a b Allyn, Bobby (2023-05-28). "'The godfather of AI' sounds alarm about potential dangers of AI". NPR. Retrieved 2023-12-05.{{cite web}}: CS1 maint: url-status (link)
  2. ""Godfather of AI" Resigns From Role At Google, Expresses Worries About Artificial Intelligence". Hypebeast. 2023-05-01. Retrieved 2023-12-08.
  3. Taylor, Josh; Hern, Alex (2023-05-02). "‘Godfather of AI’ Geoffrey Hinton quits Google and warns over dangers of misinformation" (in en-GB). The Guardian. ISSN 0261-3077. https://www.theguardian.com/technology/2023/may/02/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning. 
  4. "Why Timnit Gebru Isn't Waiting for Big Tech to Fix AI's Problems". Time. 2022-01-18. Retrieved 2023-12-08.
  5. "MSN". www.msn.com. Retrieved 2023-12-08.
  6. a b "Exclusive: The $2 Per Hour Workers Who Made ChatGPT Safer". Time. 2023-01-18. Retrieved 2023-12-08.
  7. "AI Bias - What Is It and How to Avoid It?". levity.ai. Retrieved 2023-12-08.
  8. Dastin, Jeffrey (2018 年 10 月 10 日). "洞察 - 亚马逊放弃了显示对女性有偏见的秘密 AI 招聘工具". 路透社. 检索于 2023 年 12 月 8 日. {{cite web}}: 检查日期值:|access-date= (帮助)CS1 维修:url-status (链接)
  9. "人工智能的鲜为人知的历史:算法偏差诞生于 1980 年代 - IEEE 光谱". spectrum.ieee.org. 检索于 2023 年 12 月 8 日.
  10. "2023 年人工智能立法". www.ncsl.org. 检索于 2023 年 12 月 8 日.
  11. "2023 年人工智能立法". www.ncsl.org. 检索于 2023 年 12 月 8 日.
  12. "人工智能权利法案蓝图 | OSTP". 白宫. 检索于 2023 年 12 月 8 日.
华夏公益教科书