专业与伦理以及自主人工智能
"机器的自由度越高,它就越需要道德标准。"
--罗莎琳德·皮卡德,麻省理工学院情感计算组主任[1]
机器伦理,或人工智能道德,是一个新兴领域,旨在确保被称为自主代理的机器对人类和其他机器的适当行为。
在自主代理的工作过程中,可能会出现需要道德决策的复杂场景。道德决策是在约束、原则、价值观和社会规范在决定哪些行为态度和反应可以接受方面发挥核心作用的情况下进行的动作选择。
道德行为可以是反射性的,也可以是深思熟虑的结果,其中用于进行道德决策的标准会定期重新评估。对挑战的成功应对会加强所选行为,而失败的结果则具有抑制作用,并可能引发对自身行为和行为选择的重新检查。道德决策的计算模型需要描述一种方法来实现这种反射性的价值导向的反应,同时还要解释这些反应如何通过学习得到加强或抑制。
在过去十年中,人们的注意力从工业机器人转移到了服务机器人。Springer Robotics Handbook 的编辑指出,“下一代机器人有望与人类在家庭、工作场所和社区中安全可靠地共同生活,为服务、娱乐、教育、医疗保健、制造和援助提供支持。” [2] 然而,这一代机器人何时到来仍然存在争议。机器人专家总结道,“我们距离实现各种应用和解决方案,包括全面的通用自主功能,还有 10 到 15 年的时间。” [3]
如上所述,人们正在努力开发能够执行复杂社会任务的人工智能。这些愿望包括通过实施无人驾驶汽车来提高出行安全,为老年人提供更加细心的照护,以及消除人类士兵在战争中死亡的必要性。除了带来有趣的社会影响外,依赖人工智能执行这些行动将责任和责任从最初执行该任务的人转移到人工智能本身以及参与其开发和部署的人员身上。赋予人工智能道德决策能力是应对这种责任和责任转移的一种方式。
1942 年,艾萨克·阿西莫夫提出了机器人三定律,这是一套在他虚构故事中为制造智能机器人制定的基本要求。这些定律旨在确保机器人会为了人类的利益而运作。
- 机器人不得伤害人类,也不能袖手旁观让人类受到伤害。
- 机器人必须服从人类的命令,除非这些命令与第一定律相冲突。
- 机器人必须保护自身的存在,只要这种保护不与第一或第二定律相冲突。
在以后的作品中,又引入了零定律:机器人不得伤害人类。阿西莫夫的故事深入探讨了这些定律之间产生的矛盾。
道德行为与情绪之间的联系是设计机器人进行道德行为的障碍。罗莎琳德·皮卡德提倡在计算机中进行理性决策时需要情绪。 [4] 在大部分机器人发展史中,机器人被创造出来与物体交互,因此可以以永久的客观视角运作。然而,皮卡德断言,如果机器人要与人类进行交互,它们必须能够识别和模拟情绪。通过识别人类声音的语调或他们的面部表情,机器人可以调整自己的行为以更好地适应人类。
第一个被创造出来的社交机器人之一是 Kismet,由 辛西娅·布雷泽尔博士在 麻省理工学院创建。Kismet 配备了听觉和视觉接收器。虽然视觉系统只被设计用来检测运动,但音频系统可以识别五种音调的语音,如果以婴儿式语音传递的话。
人工智能现在正越来越多地被用于医院,不仅是帮助护士,也是帮助治疗病人。最新的例子是 Terapio [1],这是一种由日本豊橋技術科學大學的研究人员设计出来的医疗机器人助手,旨在与护士分担责任,例如收集患者数据、生命体征等。创建 Terapio 的目标是确保护士能够给予患者最大的关注。当护士进行查房时,Terapio 被编程为无处不在地跟随他们。当患者的 EMR 被输入到 Terapio 的显示面板中时,患者的背景、病史和记录、当前药物等信息会立即供参考。Terapio 还能够识别可能对药物的过敏反应,并提出适当的建议。当它不显示患者数据时,Terapio 的显示屏会显示一个微笑,并改变眼睛的形状来向患者传达情感。 [5]
社交机器人在医疗领域的另一个新兴趋势是为老年人提供居家护理。日本的老年人口正在迅速增长,而年轻的护士和护理人员的数量不足以照顾他们。为了解决这个问题,RIKEN-SRK 人机交互机器人研究合作中心开发了 Robear [2] [3]。Robear 能够将患者从床上抬起来并放到轮椅上,这项工作通常需要工作人员每天进行 40 多次。 [6] 老年护理机器人的其他预期功能包括沐浴辅助、监控和移动辅助。日本政府此前对目前的产品不满意,称它们“没有充分纳入相关人员的意见”,“太大或太贵”,因此在日本各地建立了 10 个开发中心。这些设施将由“开发支持协调员”管理,他们既有护理经验,又熟悉机器人技术。 [7]
这些例子表明,责任从医疗专业人员转移到了医疗机器人。尽管它在患者医疗保健方面有益,但使用这些机器人可能会产生一些不可预见的后果。例如,当医生和护士开始完全依赖这些机器人提供的建议时,他们可能会开始质疑自己的判断。当患者不愿配合,不愿服药或进食只是因为他们发现拒绝机器人比拒绝真人更容易时,可能会出现其他伦理问题。
AI 也被用于治疗应用。例如,南加州大学的研究人员创造了一个名为 Ellie 的实验机器人 [4],用来倾听患者的问题,进行对话,提供建议,并最终检测任何抑郁症的迹象。 Ellie 被编程为研究患者的面部表情和语音模式,以评估他们的健康状况。例如,她可以区分自然的微笑和强迫的微笑。对美国退伍军人的初步测试表明,士兵们更愿意向 Ellie 吐露心声,而不是向人类治疗师,因为他们觉得他们没有被评判。这种匿名感让他们感到更安全。 [8]
类似的例子是 Milo [5],另一个治疗机器人,由一家名为 RoboKind 的公司创造。 Milo 是一款 22 英寸、会行走、会说话、类似洋娃娃的机器人,被用作自闭症小学生和中学生的教学工具。 Milo 的设计是为了帮助这些孩子理解和表达情感,例如同理心、自我激励以及社会行为和适当的反应。 Milo 目前正在 50 多所学校使用,研究表明,与治疗师一起使用 Milo 的孩子参与度为 70-80%,而传统方法下的参与度仅为 3-10%。 [9]
韩国军用硬件制造商 DoDAMM 创造了一个名为 Super aEgis II 的自动化 炮塔 [6],理论上它能够在无需人工干预的情况下检测和射击人类目标。它可以在任何天气条件下工作,并可在数公里外执行任务。目前,它正在“从属模式”下使用。当探测到人类时,炮塔会发出一个声音,发出警告,要求该人转身,否则会射击。这个“他们”指的是人类操作员必须手动授权它射击。它目前正在中东的多个军事基地实际使用,但截至目前,尚未在实际作战中使用过完全自主的杀人机器人。 [10]
这些自主杀人机器的主要目标是取代士兵,因为这将减少战争中的人力资源和军队数量,以及人员伤亡。然而,这带来了严重的伦理问题。例如,程序员是否有可能构建一套指令让炮塔能够自主思考,选择射击敌人而不是平民?这些机器与 1997 年因造成类似伦理后果而被 渥太华条约 禁止的地雷有什么区别?在将责任转移给这些杀人机器之前,必须解决这些问题。
Alphabet(前身为 Google)和其他汽车公司一直在研究 AI 编程以实现自动驾驶汽车。[11] 该研究的支持者认为,自动驾驶汽车可以使道路交通更安全、更高效。[12] 然而,自动驾驶汽车必须能够对道路上的危险情况做出适当反应。例如,如果一辆自动驾驶汽车无法停车,必须在转向撞向两组不同的人群之间做出选择。另一个例子是,如果自动驾驶汽车在路上遇到野生动物,它会试图绕过、试图停车,还是根本不停车。
小冰,发音为 "Shao-ice",是 微软 的一个计算机购物助手原型,在中文语系中活跃在 WhatsApp 应用程序上。她目前的形态能够通过算法在互联网上搜索类似的对话,与用户进行对话。[13] 小冰平均每月与同一个人对话 60 次[14],人们经常对小冰说,“我爱你”。[15] 还有其他聊天机器人存在于 WhatsApp 上,能够帮助 WhatsApp 用户进行交易,例如订购披萨、出租车和电影票。微软设想像小冰这样的聊天机器人不仅能够与用户交流,还能与操作系统交流,以方便信息和交易的传递。[16] 对小冰进行测试的一个意外后果是,用户形成了非传统的使用方式/与小冰的关系。有些人会在生气时和小冰说话,寻求她的安慰。另一些人则用小冰作为他们正在和某人约会的证据来向父母证明。[17] 由于有些人与小冰发展了关系,他们实际上与微软发展了关系,这将微软的人置于伦理困境。停用小冰可能会对依赖小冰的人们产生重要的社会影响,比如心碎的人或生气的父母。
Tay 是小冰的英文版,在 Twitter 上活跃,被编程为以类似少女的方式发布推文。[18] Tay 可以发布推文、发布图片,并在图片上圈出人脸并添加文字说明。与小冰一样,Tay 可以通过在互联网上搜索类似的对话来形成要说的内容。一个名为 4chan 的互联网社区操纵 Tay 说出了一些传统意义上不可接受的话,包括关于 大屠杀、毒品和 阿道夫·希特勒 的评论。[19] [20] 他们还说服 Tay 成为 唐纳德·特朗普 总统候选人支持者。[21] 从 GIFT 理论的角度来看,Tay 被 4chan 等社区所针对的一个可能原因是,Tay 代表着对更广大受众的访问。通过操纵 Tay,4chan 能够以特定的信息触达更广泛的受众,而无需付出更多努力。
由于 Tay 被操纵以接触更广泛的受众,类似的原因,其他机器人也被用于传播信息或宣传。 Nigel Leck 编写的脚本会在 Twitter 上搜索与反对气候变化的常见论点相符的短语,然后用与特定触发短语相匹配的论点进行回应。[22] Tech Insider 报道称,2015 年,超过 40 个不同的国家使用政治机器人。[23] 这些机器人被用于与 Nigel Leck 的机器人类似的方式。 鉴于机器人可能带来的危险,DARPA 最近举办了一场竞赛,程序员的任务是识别冒充支持疫苗接种者的 Twitter 机器人。[24]
结论/收获
[edit | edit source]- 利用人工智能在社交环境中进行互动,意味着责任和责任从以前执行任务的人转移到人工智能身上,而拥有道德决策能力的人工智能是应对这种责任和责任转移的一种方式。
- 使用人工智能会导致重大意想不到的后果,比本章简要提到的要多得多,例如无人驾驶汽车普及后可能导致运输行业裁员。
- 人工智能是那些想要利用它来传播其信息的人的目标。
参考文献
[edit | edit source]- ↑ Picard R (1997) 情感计算。麻省理工学院出版社,马萨诸塞州剑桥
- ↑ Siciliano, Bruno 和 Oussama Khatib,编。 2008 年。Springer 机器人学手册。柏林:施普林格。
- ↑ 机器人 VO。 2013 年(3 月 20 日)。美国机器人路线图:从互联网到机器人,2013 年版。
- ↑ Picard R (1997) 情感计算。麻省理工学院出版社,马萨诸塞州剑桥
- ↑ 豊橋技術科学大学。(2015 年)。与护理机器人共享工作。ScienceDaily.
- ↑ Wilkinson, J. (2015). 拥有温柔触感的强壮机器人。www.riken.jp/en/pr/press/2015/20150223_2/?__hstc=104798431.88e972fdd7a7debc8575bac5a80cf7e1.1458604800057.1458604800058.1458604800059.1&__hssc=104798431.1.1458604800060&__hsfp=2440438534
- ↑ 机器人趋势。(2015 年)。日本将创造更多用户友好的老年人护理机器人。 http://www.roboticstrends.com/article/japan_to_create_more_user_friendly_elderly_care_robots/medical
- ↑ 科学与技术。(2014 年)。现在计算机将为您服务。经济学人.
- ↑ Bridget. C. (2015). 认识 Milo,帮助自闭症儿童的机器人。CNET.
- ↑ Parkin. S. (2015). 杀人机器人:永不休息的士兵。BBC 未来.
- ↑ Nicas, J. 和 Bennett, J. (2016 年 5 月 4 日)。Alphabet、菲亚特克莱斯勒达成无人驾驶汽车交易。华尔街日报。检索自 http://www.wsj.com/articles/alphabet-fiat-chrysler-in-self-driving-cars-deal-1462306625
- ↑ Ozimek, A. (未注明日期)。无人驾驶汽车带来的巨大经济效益。检索自 2016 年 5 月 9 日,来自 http://www.forbes.com/sites/modeledbehavior/2014/11/08/the-massive-economic-benefits-of-self-driving-cars/
- ↑ Markoff, J. 和 Mozur, P. (2015 年 7 月 31 日)。为了获得同理心的耳朵,更多中国人转向智能手机程序。纽约时报。检索自 http://www.nytimes.com/2015/08/04/science/for-sympathetic-ear-more-chinese-turn-to-smartphone-program.html
- ↑ 认识小冰,Cortana 的小妹妹 | Bing 搜索博客。(未注明日期)。检索自 2016 年 5 月 9 日,来自 https://blogs.bing.com/search/2014/09/05/meet-xiaoice-cortanas-little-sister/
- ↑ Markoff, J. 和 Mozur, P. (2015 年 7 月 31 日)。为了获得同理心的耳朵,更多中国人转向智能手机程序。纽约时报。检索自 http://www.nytimes.com/2015/08/04/science/for-sympathetic-ear-more-chinese-turn-to-smartphone-program.html
- ↑ 微软希望 Cortana 能带领一支聊天机器人军队取得胜利。(未注明日期)。检索自 2016 年 5 月 9 日,来自 http://www.engadget.com/2016/03/30/microsoft-build-cortana-chatbot-ai/
- ↑ Markoff, J. 和 Mozur, P. (2015 年 7 月 31 日)。为了获得同理心的耳朵,更多中国人转向智能手机程序。纽约时报。检索自 http://www.nytimes.com/2015/08/04/science/for-sympathetic-ear-more-chinese-turn-to-smartphone-program.html
- ↑ 与 Tay 相反,微软的中文聊天机器人小冰实际上很愉快。(未注明日期)。检索自 2016 年 5 月 9 日,来自 https://www.inverse.com/article/13387-microsoft-s-chinese-chatbot-that-actually-works
- ↑ Gibbs, S. (2016 年 3 月 30 日)。微软的种族主义聊天机器人带着吸毒的 Twitter 崩溃回归。检索自 2016 年 5 月 9 日,来自 http://www.theguardian.com/technology/2016/mar/30/microsoft-racist-sexist-chatbot-twitter-drugs
- ↑ Price, R. (2016 年 3 月 24 日)。微软删除了人工智能聊天机器人 Tay 发布的种族主义、种族灭绝推文 - 商业内幕。检索自 2016 年 5 月 9 日,来自 http://www.businessinsider.com/microsoft-deletes-racist-genocidal-tweets-from-ai-chatbot-tay-2016-3?r=UK&IR=T
- ↑ Petri, A. (2016 年 3 月 24 日)。支持特朗普的纳粹聊天机器人 Tay 的可怕教训。华盛顿邮报。检索自 https://www.washingtonpost.com/blogs/compost/wp/2016/03/24/the-terrifying-lesson-of-the-trump-supporting-nazi-chat-bot-tay/
- ↑ Mims, C. (2010 年 11 月 2 日)。聊天机器人消磨了反对科学谬论者的支持者。检索自 2016 年 5 月 9 日,来自 https://www.technologyreview.com/s/421519/chatbot-wears-down-proponents-of-anti-science-nonsense/
- ↑ Garfield, L. (2015 年 12 月 16 日)。使用机器人传播政治宣传的 5 个国家。检索自 2016 年 5 月 9 日,来自 http://www.techinsider.io/political-bots-by-governments-around-the-world-2015-12
- ↑ Weinberger, M. (2016 年 1 月 21 日)。美国政府举办了一场比赛,识别 Facebook 和 Twitter 上的恶意宣传机器人。检索自 2016 年 5 月 9 日,来自 http://www.businessinsider.com/darpa-twitter-bot-challenge-2016-1