跳转到内容

信息技术与伦理/机器人伦理

来自维基教科书,开放的书籍,为开放的世界


引言 自动化和机器人技术正在日益普及。随着这些基于网络的技术的集成不断发展,目前的伦理实践被分为三个特定应用领域。每个领域都有其独特的挑战。随着进一步的集成,需要不断评估伦理风险评估,以跟上工程师最终负责的行为。 奠基伦理:机器人三大定律 1942年,一位名叫艾萨克·阿西莫夫的科幻小说作家写了一个名为“绕道”的短篇故事,其中他描述了机器人三大定律。它们如下: 1. 机器人不得伤害人类,也不得因不作为而使人类受到伤害。 2. 机器人必须服从人类的命令,除非这些命令与第一定律相冲突。 3. 机器人必须保护自己的存在,只要这种保护不与第一或第二定律相冲突。 虽然是科幻作品,但当谈到快速发展的机器人伦理时,这些规则再怎么强调也不为过。 简而言之,机器人三大定律规定,机器人绝不能以任何方式、形状或形式伤害人类。这个概念在机器人领域非常重要。随着机器人的发展,重要的是回顾过去,了解最初实施机器人的原因,目标是让人类生活更轻松。在过去的几个世纪里,人类为了这一努力,一直在共同努力,也许创造了与人类复杂程度相当的仿生生命。本文的其余部分将涵盖过去一个世纪中的一些里程碑,这些里程碑支持整个人类,共同努力非自然地复制人类生命。 智能的证明:深蓝超级计算机 1996年,IBM公开了其名为深蓝的超级计算机,用于挑战当时的国际象棋世界冠军。1996年举行的第一组比赛以世界冠军获胜告终,深蓝赢了一局,平了两局。在对深蓝进行修改后,进行了一场重赛,深蓝最终获胜,赢了三局,平了一局。 国际象棋被认为是人类历史上非常智力化的游戏,自发明以来一直如此。想想人类能够让一台机器拥有挑战世界象棋冠军的能力并获胜,这令人惊讶,它真正突出了两个重要主题。 1) 人类可以编程机器人,使其具有相同的逻辑/技术智能,同时也消除可能由情绪等因素造成的人为错误。 2) 人类可以创造能够根据呈现给它们的信息做出决定的设备/机器人。在深蓝的情况下,当人类棋手走棋时,深蓝必须分析棋盘的当前布局,交叉引用所有当前的棋步,并计算特定棋步使深蓝获胜的几率。这是一种非常逻辑的策略,一个人在试图赢得国际象棋比赛时会采取这种策略,而深蓝能够模仿/展示相同的心智能力。


地面系统 地面系统特有的伦理问题目前包括使用机器人无人机在人类目标上投掷和引爆炸药,如2016年7月7日达拉斯市中心枪战中所见。另一个问题是将人工智能引入机器人。例如,与机器人建立情感纽带是否可取,尤其是在机器人被设计为与儿童或老年人互动时。这种在机器人框架内管理人工智能的概念是目前机器人和人工智能面临的最重要问题,并将继续如此。从人工智能行为的编码到关闭配备人工智能的机器人的安全参数,所有事项都应在不伤害人类并服从命令的规定下进行严格审查。 情绪的证明:Kismet 1998年,麻省理工学院开发了一款名为Kismet的机器人。Kismet的创建是为了观察学习是如何通过视觉、听觉和言语发生的。Kismet能够在事先看到某些互动后,对研究人员做出回应。如果研究人员在发出某种声音时微笑,Kismet能够通过声音和面部表情将这种情绪复制回研究人员。 如前所述,机器人已经能够挑战人类的逻辑智能。在那个机器人中可能发展出一种情绪智力,也会让我们更接近艾萨克·阿西莫夫警告我们的那种机器人。回顾机器人技术的发展,我们可以看到,在很大程度上,研究是为了进一步研究人类,看看我们能够将人工智能推进到何种程度。在任何时候,机器人技术的主要重点都不是给人类带来痛苦,而是始终以给人类带来益处为主要目标。这种过去经历带来的一个伦理问题是,如果我们拥有赋予机器人相同逻辑思维能力的技术,我们是否也希望它们模仿人类的情绪。在考虑到机器人三大定律的情况下,赋予它们这种智能是否错误,也就是说,人类将永远优先于并优于他们创造的机器人对应物? 结论 从理论上讲,如果人类能够将这三个主题中的所有主题都 100% 复制到一个机器人中,那么我们就成功地创造了仿生生命。那么,在那种情况下,它还是仿生生命吗?我们是否应该仍然将机器人视为人类制造的工具?在展望机器人技术的未来时,我们应该牢记这些伦理价值观,回首已经取得的成就。





当前机器人伦理引言 自动化和机器人技术正在日益普及。随着这些基于网络的技术的集成不断发展,目前的伦理实践被分为三个特定应用领域。每个领域都有其独特的挑战。随着进一步的集成,需要不断评估伦理风险评估,以跟上工程师最终负责的行为。 安全 安全方面最重要的一点是关于停止机器人的协议。“机器人可能会做不可预测的事情;机器人越大越重,操作时应留给它的空间就越多。在与机器人互动之前,始终确认机器人已断电。在机器人通电时,切勿将手指伸入轮子、履带、机械手夹点等部位。远程遥控机器人可能是最危险的,因为远程操作员可能不知道你决定进行现场维护!在与机器人互动或操作机器人之前,始终首先熟悉并最后熟悉紧急停止程序。某些实施比其他实施更可预测”(NIST 机器人指南)。在使用机器人时,还必须佩戴个人防护用品。防护用品包括头盔、耳部和眼睛保护、长裤和长袖衬衫以及靴子。


测试与实施 与任何网络技术一样,机器人工程必须经过严格的安全和质量控制流程,就像汽车一样。这些标准包括测试移动性、通信、操作和人机交互机制,以确保它们安全且响应迅速。必须为测试制定明确的程序,并制定严格的数据集披露标准,以供许可和管理机构使用。透明度是关键。 地面系统 地面系统特有的伦理问题目前包括使用机器人无人机在人类目标上投掷和引爆炸药,如2016年7月7日达拉斯市中心枪战中所见。另一个问题是将人工智能引入机器人。例如,与机器人建立情感纽带是否可取,尤其是在机器人被设计为与儿童或老年人互动时。这种在机器人框架内管理人工智能的概念是目前机器人和人工智能面临的最重要问题,并将继续如此。从人工智能行为的编码到关闭配备人工智能的机器人的安全参数,所有事项都应在不伤害人类并服从命令的规定下进行严格审查。

a) 自动驾驶汽车 最近,匹兹堡市及其与优步的关系受到了审查,因为它与优步自动驾驶汽车研发部门的商业行为有关。“该公司最直言不讳的批评者之一、民主党市长比尔·佩杜托表示,他最初将优步备受赞誉的先进技术中心设想为一项合作关系,将推动该市的高科技发展。相反,他越来越感到沮丧,因为该公司拒绝帮助匹兹堡获得 5000 万美元的联邦“智慧城市”拨款,拒绝了他为老年人提供免费乘车前往医生预约的建议,并在游说州议员改变他对自动驾驶汽车如何向公众推广的设想”(Gold 2017 Pg. 1)。 继这些违背承诺和佛罗里达州一名特斯拉车主在自动驾驶汽车中死亡事件之后,一些人开始质疑将机器人部署到日常生活中以及这些自动化系统和车辆制造商的作用和责任。关于这些机器人车辆背后的编程逻辑,以及它们如何做出生死攸关的决定(例如行人走到人行横道上时的情况)仍然不清楚。你应该避让造成与另一辆车的接触,还是应该继续前进? 空中系统 空中系统特有的问题包括监控和应用于夺取人命的用途。在奥巴马政府执政期间,无人机袭击在全球范围内造成多达 117 名平民死亡。在奥巴马政府执政期间,共下达了 526 次无人机袭击命令。监控方面特有的问题包括对私人公民进行非法的音频和视频录制。 b) 无人机 无人机的销量在过去几年中稳步增长。据本周联邦航空管理局发布的一份报告,预计无人机销量将从今年的 250 万架增长到 2020 年的 700 万架。该机构表示,爱好者销量将从 2016 年的 190 万架无人机增长到 2020 年的 430 万架,增长逾一倍。与此同时,企业销量将在同期从 60 万架增长到 270 万架,翻一番多(Vanian 2016 Pg. 1)。 从机场、体育场和其他各种公共活动中限制无人机飞行已经成为惯例。无人机已经配备了允许它跟踪指定用户的应用程序。用户可以滑雪、打高尔夫球或徒步穿越树林。与该应用程序相关的自然伦理含义仍然包括武器化以及监控。美国联邦航空管理局认为,2017 年将是无人机在企业中广泛采用的重要转折点,企业将无人机用于从扫描输电线到为保险公司检查屋顶等各种目的。预计商业销量将达到 250 万架,之后在接下来的几年里销量只会略有增长。目前,企业必须获得美国联邦航空管理局的认证才能将无人机用于商业目的。一些企业和无人机游说团体抱怨称,监管是阻碍无人机行业在美国起飞的部分原因。截至 2016 年 3 月,美国联邦航空管理局已颁发了超过 3000 个企业级无人机许可证。(Vanian 2016 Pg. 1)。

水生系统 水生机器人伦理问题与监控和战争有关。目前的问题包括中国于 2016 年 12 月扣押一艘美国潜艇无人机。无人机最终被归还,但未来的入侵是不可避免的。与空中无人机类似,水生无人机也可以被武器化,并发动致命打击。


机器人未来的发展主要集中在三个类别:仿生人、半机械人和人形机器人。仿生人是完全像人一样制造出来的机器人,不仅仅在外观上,在行动和智力上,仿生人几乎与人类无异。它们覆盖着人造皮肤。半机械人是将生物体与机器结合起来的产物,无论是人类还是动物。人形机器人是一种形状类似人类身体的机器人,例如头部、躯干、手臂和腿。因此,由于这种机器人最能模仿人类的行为,也被称为人形机器人。本田日本开发的ASIMO和韩国KAIST开发的HUBO是典型的人形机器人。但它们的皮肤比仿生人更硬。

   a.  A Robot’s right?

第二个严重的问题是阿西莫夫机器人第二定律。我们必须无条件地服从人类命令,但人类语言和自然语言编程使机器人难以辨别谁发出命令。因此,虽然阿西莫夫三大定律只强调人类的安全,但如果机器人具有感知能力,这个问题会更加严重。如果机器人感受到疼痛,它是否享有特殊权利?如果机器人拥有情感,机器人是否应该被赋予与人类结婚的权利?是否应该赋予机器人个人知识产权或所有权?这仍然是一个长远的故事,但我们可以知道,讨论与人类发生性关系的机器人会侵犯动物权利的问题,如今已经成为社会上的主要问题。

In addition to the major concern of the overall safety of human beings, the other most criticized factor of robots is their ability of automation.  Automation is the technique of making an apparatus, a process, or a system operate automatically.  People fear this change as the process of automation could result in the loss of job security.  By 2021, robots will have eliminated 6% of all jobs in the US.  On a positive note, the incorporation of robots will also create jobs as there will be a need to design, manufacture, program, manage, and maintain these robots and systems.

另一个巨大的益处是它消除了单调、重复且潜在危险的工作。这将使人们能够专注于更重要的任务,而不必被耗时的工作拖累。



用户讨论页面本维基教科书是伊利诺伊理工学院2017年春季信息技术法律与伦理问题课程(485/585)学生的合作成果。目标是创建并维护一个持续的维基教科书,用于解决机器人和机器人技术中的伦理问题。参与的作者包括攻读信息技术专业的本科生和研究生,专攻网络取证和安全以及信息技术管理。随着新的问题和担忧出现,本页面将不断更新。我们欢迎提案,希望能够使本文件尽可能地相关和准确。团队成员包括Stephen Grenzia、Sangmin Park、Daniel Kolodziej,以及研究生Joshua Kazanova。





参考文献:标准测试方法用于响应机器人。(2016年11月8日)。2017年4月15日从https://www.nist.gov/el/intelligent-systems-division-73500/response-robots检索

Devlin, H. (2016年9月18日). 不要伤害,不要歧视:关于机器人伦理的官方指南发布。2017年4月20日从https://www.theguardian.com/technology/2016/sep/18/official-guidance-robot-ethics-british-standards-institute检索

Gold, A., Voss, S., & Magazine, P. (2017, May 01). How Uber lost its way in the Steel City. Retrieved May 02, 2017, from http://www.politico.com/story/2017/05/01/uber-pittsburgh-city-mayors-237772

Auburn.edu., 艾萨克·阿西莫夫的“机器人三大定律”。从https://www.auburn.edu/academic/classes/eng/4300/robotlaws.html检索

华夏公益教科书