跳转至内容

信息技术与伦理/未来机器人伦理

来自维基教科书,开放世界中的开放书籍

自主系统及其应用

[编辑 | 编辑源代码]

自主系统是人工智能的一个子集,是指能够在没有人为干预或监督的情况下采取行动和做出决策的系统。这些系统及其相关应用对世界产生了巨大的影响,取得了令人瞩目的成就,不仅在技术领域,而且在农业、海洋技术、地理空间成像等其他领域,而自主系统的其他应用可以在自动驾驶汽车、服务机器人、医疗保健等领域看到。 [1].

自主系统为国家经济带来了积极的推动作用,在减轻工作压力方面至关重要,因此这类系统得到了快速发展,并不断得到改进。然而,对于这些系统的伦理问题以及它们随后做出的决策的担忧,一直存在于这项技术存在的整个过程中。任何做出的决定都应与人类的推理和思想保持一致,同时要考虑到各种情绪、环境和行动的未来后果。需要制定一些规则和条例,以确保即使没有人为监督,自主系统也不会越过设定的界限,或走上道德/伦理模糊的道路。这项技术无疑已经取得了长足的进步,但在完全被信任方面还有很长的路要走,正如一群黑客能够通过在限速标志上战略性地贴上胶带,将特斯拉汽车“欺骗”成在 35 英里/小时区域内以 85 英里/小时的速度行驶一样。虽然汽车仍然在尽其所能地行驶,但人类驾驶员能够考虑到道路的位置来判断 85 英里/小时是否是一个安全的速度。 [2].

自主系统也广泛用于战争,在这种情况下被称为致命性自主武器 (LAW)、自主武器系统 (AWS) 或致命性自主机器人 (LAR)。随着全球无人机和岗哨枪的使用增加,伦理问题也随之出现,一些政府和人权组织呼吁并倡导全面禁止这类武器。 [3]. 与所有道德问题一样,人类的情绪和价值观在战斗结果中起着决定性作用,将人类从方程式中移除实际上是在绕过战斗中可能做出的任何道德和伦理判断。由于在这个问题上不断受到批评,一些规则开始被制定,例如国防部指令第 4.b 条规定:“授权使用、指挥使用或操作自主和半自主武器系统的人员,必须以适当的谨慎态度,并根据战争法、适用的条约、武器系统安全规则和适用的交战规则 (ROE) 进行操作。” [4]"

然而,许多反对致命性自主武器的人仍然反对使用“杀人机器人”,他们的理由是法律和立法不一定反映我们的道德价值观。因此,重点正在从开发针对人类的致命性自主武器转向开发针对基础设施的系统,尽管这本身也引发了一些问题。虽然从理论上讲,破坏基础设施比夺取人命更道德,但不能保证在攻击基础设施时不会造成人员伤亡;然而,由于其自身的性质,自主武器系统的使用使政府和军队免受任何问责。

国际红十字委员会 (ICRC) 于 2017 年 8 月在日内瓦举行了一次圆桌会议,讨论在战争中使用任何和所有致命性自主武器的后果,并得到了他们禁止这类武器的提议的支持。 [5]. 然而,尚未采取决定性的行动,美国政府发表声明称,已听取了 ICRC 的关切,但这项技术还太年轻,尚不适合采取如此明确的立场。 [6].

伦理和行为准则

[编辑 | 编辑源代码]

随着高科技自主机器人的发明,许多规则和条例需要进行修改。“此外,非自主系统的稳定性分析通常需要与自主系统(具有恒定系数的系统)完全不同的特定工具。” [7]. 在所有这些技术中,无人机是人工智能领域高度发展和研究最多的领域。研究人员和高科技人士正在寻找更多方法将无人机应用到日常生活之中。到目前为止,无人机在应用领域取得了成功,并丰富了该研究领域。由于其近期的成功,无人机需求量不断增加,并且由于无人机新领域的开发,出现了一些其他必须遵循的协议,以便将它们投入使用。大多数无人机被用于军事和防御目的,在国家边界进行巡逻。由于人工智能是一个广阔的领域,因此需要经历许多不同的规则和条例的审核,这些规则和条例需要通过考虑满足所有部门的要求来制定。伦理影响对于最大程度地利用自主技术至关重要,特别是对于无人机来说,它正在日益取得巨大进步。为此,需要通过航空部规则、国防部协议以及军队的其他指挥官进行筛选。

无人机已经成为我们日常生活的一部分,它们参与了武装冲突,以及控制牲畜、用于新闻或电影制作、交通监控等。鉴于无人机的演变速度远超监管框架,因此这些新的监管措施正在逐渐出现,并且是在紧急情况下制定的。这些无人机非常容易在网上购买,因此看到无人机飞过城市人口稠密的地区并不奇怪,当我们被告知它可能引发任何类型的意外事故时,我们也并不感到惊讶。 正如社会对无人机的需求正在逐渐得到监管一样,对无人机相关隐私问题的监管也同样重要。由于如今无人机可以配备的设备远不止传统的摄像头,这意味着对隐私的严重侵犯。他们也逐渐对无人机可以做什么和不能做什么进行监管,比如职业无人机记者协会就表示,只要信息可以通过其他方式获得,就不需要使用无人机来获取信息。

自古以来,交战方就一直在寻求对敌方部队造成最大程度的伤害,并保护自身。在比对手更远的地方行动或获得更大的保护,一直是历史上的常态。任何自尊的领导人不会通过不必要地冒着自己部队的生命危险来寻求胜利。这就是为什么这些无人机为这些不冒不必要生命危险的问题提供了答案,它们也被用于武装冲突已有十多年了。这引起了人们的理解,因为这种类型的系统可以彻底改变战争本身的作战方式。他们将战争变成了通过电脑屏幕进行指挥、控制和执行的一种游戏。


此外,还应为战斗问题确定平民和士兵之间的区别。必须考虑到,如果无人机在冲突中侵犯了平民的权利,谁应对攻击负责,或者他们是否确实犯下了战争罪。这类问题已经由人权理事会提出,特别是针对致命武器的使用,例如无人机,在军事行动中使用无人机,由于无人机或无人驾驶航空器的兴起,导致空袭缺乏明确性。因为存在所谓的责任真空。无论如何,这场辩论基本上围绕着使用武力时两个经典因素展开:自卫或先发制人行动。精准技术、武装无人机或机器人的引入,使社会远离战争的残酷现实,正如以往一样,交战方需要后方部队的支持。

拟人化

[编辑 | 编辑源代码]
HitchBot

"拟人化" 当机器人变得越来越像人类,行动和感觉都比以往更加人性化,而人类开始将这些新机器人当作宠物和重要的伴侣,甚至家人时,拟人化的问题就出现了。尽管大多数人没有意识到,仅仅在制造业和工业工作场所,机器人就主导着我们最繁琐的任务。但当你赋予机器人一张脸、语音识别和一些类似宠物的功能时,情况就会发生改变,情绪就会成为一个因素。将人类特征、情绪或意图赋予非人类实体的行为,被认为是人类心理的一种本能倾向。一个很好的例子可以从名叫(HitchBot)的机器人的特殊案例中观察到。2015年,“HitchBot”,一个搭便车机器人,被设定为一个实验,旨在搭便车穿越全国。这个可怜的机器人走了相当长的一段路,但最终在途中被恶意破坏,无法修复。这个悲剧事件的故事登上了新闻头条,人们对这个小小的搭便车机器人表示了同情和情绪上的共鸣。全国范围内有许多推文回应了这一令人发指的暴力行为,许多人认为这种行为是残酷和不人道的,例如“对不起,小伙子,一些坏人的人性表现”以及其他表达悲伤和哀痛的推文。让我们也考虑一下“Spot”的案例,这是一个由谷歌旗下公司波士顿动力公司制造的新型狗形机器人。网上有一段视频展示了这只机器人狗的稳定性,视频中反复地用力踢它,它在小跑中仍然保持平衡,展示了它保持镇定的能力。人们对此感到愤怒,甚至联系了美国善待动物组织(P.E.T.A.),试图指责该公司虐待“狗形”机器人!

超人类主义

[编辑 | 编辑源代码]

超人类主义是机器人对人类进行增强的研究和开发。这是一种用机器人技术增强人体以增强人类能力的行为。超人类主义者认为,技术是超越人类进化极限所必需的。但这其中存在道德和伦理问题。反对超人类主义的一个伦理论点是,增强会提高正常的基线,进一步扩大有权使用增强技术的人与没有权使用增强技术的人之间的差距。这将加剧世界上的不平等。考虑到人性,一个伦理问题是,那些没有被增强的人可能会成为低人一等的人。还有医疗方面的担忧,即随着时间的推移,可能会对人体造成损害,对自身和他人都可能造成巨大危害。鉴于当前的隐私问题和技术,隐私是一个主要的伦理问题。某些增强技术可能会跟踪其用户的数据,而这些公司可能会未经您的同意使用您的数据。支持该技术的论据是帮助和公平竞争。对所有人而言,这是一个公平的结果,但决定谁可以接受增强技术,谁不能接受增强技术仍然存在伦理问题。

恐怖谷理论

[编辑 | 编辑源代码]

当谈到人类对事物的依恋时,这是一个非常真实且驱使我们行动的力量,几乎影响着我们的一切。我们都希望拥有的物品是独一无二的,属于我们自己。在机器人领域,我们设计机器人的方式也是如此。当我们创造一个机器人使其看起来更像人类时,我们渴望创造出属于我们自己的东西,并且它是“独一无二的”。问题在于,有人越接近设计一个更像人类的机器人,它对人类来说就越令人反感。这就是所谓的“恐怖谷”。

关于人形机器人的人类怪异程度的图表

“恐怖谷”是当我们遇到一个几乎但不完全像人类的实体时,情绪反应中出现的下降。根据theconversation.com,“这个理论最早是由日本机器人设计师森政弘于 1970 年提出的,他发现,随着机器人变得越来越像人类,人们会发现它们比机械化的机器人更令人接受和更具吸引力,但这种趋势只持续到一定程度(Lay, S. (2015, November 10)).” 文章继续解释说,当机器人接近人类的外表但无法区分时,就会产生一种不安和不舒服的感觉。然而,测试结果表明,当机器人设计超越这个点时,在情绪反应方面,它开始变得积极。这个名字“恐怖谷”,就来自于这个出现的下降(Lay, S. (2015, November 10)).

这个理论存在的原因之一与我们的心理以及我们如何看待自己的生活有关。例如,如果外观存在微小的缺陷和瑕疵,会让我们感到看到死物在模仿人类。这就像在现实生活中观看僵尸电影一样。这可能会引起对机器人的恐惧或厌恶,因为有人提出,它会让我们想起自己的死亡。

恐怖谷的一个新元素是,现在科学家和医生已经找到了让机器人看起来与人类一模一样的方法。看到一个机器人,很明显它不是人类,这是一回事。九州大学的米津史也博士做了一个实验来测试人们的反应,研究小组要求人们观察具有相同面孔(克隆)、不同面孔以及同一个人的照片。研究参与者被要求评价图像的逼真度,他们对图像的情绪反应以及他们发现图像有多么怪异。

结果相当确定且直接。克隆看起来越像某个人,人们就越害怕和紧张。事实上,它引发了一种新的现象,称为“克隆贬值效应”。这就是为什么像《西部世界》和《真实的人类》这样的节目如此受欢迎的原因,人们越来越着迷于他们为电影制作了像人类一样的机器人。现在我们到了,他们正在制作看起来像人类的机器人,这对人们来说非常不安。

劳动力自动化将如何影响就业市场

[编辑 | 编辑源代码]

自主机器和系统代表着一种愿望,既要补充也要取代某些工作和劳动力中的因素。人工智能在工作场所的应用预测对所有相关方都有积极和消极的影响,因为人工智能系统可以用来完全取代特定职业的人员,从而消除这些工作,但它们也创造了大量其他工作和机会,这些机会可以被认为是工作流失。

工作岗位流失

[编辑 | 编辑源代码]

随着人工智能系统被研究得越来越善于完成通常需要人类智能的任务,它们最终将被用来取代那些能够做到这一点的行业中的人类劳动力。这些行业包含的任务属于易于自动化的类别,包括以下内容[8]

  • 制造业——人工智能系统能够做的事情比任何人都多,能够在某些任务中完全取代他们,而且成本更低。[9]
  • 农业——人工智能公司一直在训练机器人执行农业领域的多种任务,例如控制杂草和收割作物,速度更快,产量更高,超过了人类。[10]
  • 零售业——许多零售工作已经被自助结账亭、人工智能礼宾、移动支付系统和亚马逊 Go 风格的商店取代,自动化潜力为 53%。[11]
  • 交通运输和物流——虽然无人驾驶汽车仍然是一项技术,它已被证明比预期更难推向市场,但它仍然提供了一种旨在消除对人类驾驶员需求的解决方案。预计送货员特别容易受到自动化的影响,自动化潜力为 78%。[12]

估计表明,仅在美国,47% 的人类工作面临着很高的“计算机化”风险。[13] 这些损失不成比例地影响着低技能的工人,例如蓝领工人和在流水线上工作的人。[14] 虽然人工智能的目标可能不是让员工失业,但与所有技术进步一样,总有一些较旧的技术或群体受到负面影响。

创造就业机会

[编辑 | 编辑源代码]

虽然人工智能系统最终会取代低技能工作或具有重复性或易于编程任务的工作,但它们也会为不同人群创造大量其他工作和机会。这导致了将人工智能引入劳动力后可能被认为是整体工作岗位流失,因为新技术不仅会摧毁工作岗位,还会创造工作岗位。[15]

世界经济论坛 2018 年的一份报告估计,到 2022 年,人工智能将创造总计 5800 万个新的工作岗位,而且这些工作岗位很可能不会遵循传统的全职就业模式,而是扩展到远程劳动力。[16] 因此,大多数这些新工作将需要对劳动力进行“提升技能”和“再培训”。[17] 这是因为人工智能系统将开始补充这些工作和职业。

到 2030 年,人工智能将导致全球 GDP 估计增长 15.7 万亿美元,增长 26%。[18] 创建的工作岗位将使工人能够专注于更高价值和更高接触的任务,这将为企业和个人创造利益。[19] 随着人工智能研究的不断深入,它将导致创建的就业岗位数量总体增加,尤其是高技能和高需求的岗位,但最终会减少对低技能劳动的需求。

参考文献

[编辑 | 编辑源代码]
  1. 以人为本的人工智能,特别兴趣小组。 https://www.uu.nl/en/research/human-centered-artificial-intelligence/special-interest-groups
  2. 黑客让特斯拉汽车自动加速到 85,在 35 区。 (2020 年 2 月 19 日)。 https://www.forbes.com/sites/daveywinder/2020/02/19/hackers-made-tesla-cars-autonomously-accelerate-up-to-85-in-a-35-zone/?sh=71f981147245
  3. 伦理与自主武器系统:人类控制的伦理基础? (2018 年 7 月)。 https://www.armscontrol.org/act/2018-07/features/document-ethics-autonomous-weapon-systems-ethical-basis-human-control
  4. 国防部指令,《武器系统自主性》。 (2012 年 11 月 21 日)。 https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf
  5. 伦理与自主武器系统:人类控制的伦理基础?。 (2018 年 4 月 3 日)。 https://www.icrc.org/en/document/ethics-and-autonomous-weapon-systems-ethical-basis-human-control
  6. CCW:美国在致命性自主武器系统政府专家组会议上的开场白。 (2018 年 4 月 9 日)。 https://geneva.usmission.gov/2018/04/09/ccw-u-s-opening-statement-at-the-group-of-governmental-experts-meeting-on-lethal-autonomous-weapons-systems/
  7. 具有时变延迟的线性非自治系统的有限时间稳定性。差分方程进展,2018(1),1-10。doi:10.1186/s13662-018-1557-3
  8. 技术组织。 (2021 年 2 月 1 日) 人工智能对失业的影响。技术组织科学与技术新闻。 https://www.technology.org/2019/12/17/the-impact-of-artificial-intelligence-on-unemployment/
  9. 制造商。 (2020 年 6 月 25 日) 人工智能和物联网如何影响制造业就业市场。制造商。 https://www.themanufacturer.com/articles/ai-iot-affects-manufacturing-job-market/
  10. Jain, P. (2021 年 7 月 23 日) 人工智能在农业中的应用:利用现代人工智能解决传统农业问题。农业中的 AI:人工智能在农业中的应用。 https://www.analyticsvidhya.com/blog/2020/11/artificial-intelligence-in-agriculture-using-modern-day-ai-to-solve-traditional-farming-problems/
  11. McDonald, S. (2019 年 5 月 29 日) 近一半的零售销售工作可能会很快被自动化取代。报告:自动化和人工智能将取代近一半的零售销售工作。 https://footwearnews.com/2019/business/technology/automation-retail-sales-jobs-ai-1202786189/
  12. Deming, D. (2020 年 1 月 30 日) 机器人来了。做好准备应对麻烦。 https://www.nytimes.com/2020/01/30/business/artificial-intelligence-robots-retail.html
  13. Saner, M.,& Wallach, W. (2015)。技术性失业、人工智能和工作场所标准化:融合论点。伦理与新兴技术杂志,25(1),74-80。
  14. Vincent, J. (2017 年 3 月 28 日) 机器人确实会破坏工作岗位并降低工资,一项新研究表明。 https://www.theverge.com/2017/3/28/15086576/robot-jobs-automation-unemployent-us-labor-market
  15. 联合国。 (无日期) 机器人和人工智能会导致大规模失业吗?不一定会,但它们确实带来了其他威胁。联合国。 https://www.un.org/en/desa/will-robots-and-ai-cause-mass-unemployment-not-necessarily-they-do-bring-other
  16. 技术组织。 (2021 年 2 月 1 日) 人工智能对失业的影响。技术组织科学与技术新闻。 https://www.technology.org/2019/12/17/the-impact-of-artificial-intelligence-on-unemployment/
  17. 技术组织。 (2021 年 2 月 1 日) 人工智能对失业的影响。技术组织科学与技术新闻。 https://www.technology.org/2019/12/17/the-impact-of-artificial-intelligence-on-unemployment/
  18. Kande, M.,& Sonmez, M. (2020 年 10 月 26 日) 不要害怕人工智能。该技术将带来长期就业增长。世界经济论坛。 https://www.weforum.org/agenda/2020/10/dont-fear-ai-it-will-lead-to-long-term-job-growth/
  19. Kande, M.,& Sonmez, M. (2020 年 10 月 26 日) 不要害怕人工智能。该技术将带来长期就业增长。世界经济论坛。 https://www.weforum.org/agenda/2020/10/dont-fear-ai-it-will-lead-to-long-term-job-growth/
华夏公益教科书