信息技术与伦理/机器人技术伦理现状
自动化和机器人技术正日益成为主流。随着这些基于网络的技术整合不断发展,当前的伦理实践被分为三个特定应用为基础的组。每个组都有自己独特的挑战。随着进一步的整合,伦理风险评估将需要不断评估,以适应工程师最终负责的行为。
安全方面最重要的一点是关于停止机器人的协议。 “机器人可能做出不可预测的事情;机器人越大越重,操作时应留出更多空间。在与机器人互动之前,始终确认机器人已关闭电源。机器人通电时,切勿将手指伸入轮子、履带、机械手夹持点等部位。远程遥控机器人可能是最危险的,因为远程操作员可能不知道你决定进行现场维护!始终在与机器人互动或操作机器人之前,以及最后一次,熟悉紧急停止程序。某些实现比其他实现更可预测”(NIST 机器人指南)。在使用机器人时,还必须佩戴个人防护用品。防护用品包括头盔、耳部和眼睛保护装置、长裤和长袖衬衫以及靴子。
与任何网络技术一样,机器人工程必须经过严格的安全和质量控制流程,就像汽车一样。这些标准包括测试移动性、通信、操控和人机交互机制,以确保它们安全可靠。必须明确概述测试程序,并对数据集合进行严格的披露标准,以供许可和管理机构使用。透明度至关重要。
地面系统特有的伦理问题目前包括使用机器人无人机在人类目标上投放和引爆炸药,正如 2016 年 7 月 7 日达拉斯市中心发生的枪战事件中所见。其他问题包括将人工智能引入机器人技术。例如,与机器人建立情感纽带是否可取,尤其是在机器人被设计用来与儿童或老人互动时。这种在机器人框架内管理人工智能的概念目前是机器人技术和人工智能面临的最重要问题,并将继续如此。从人工智能行为的编码到配备人工智能的机器人的安全参数,都应该在不伤害人类和服从命令的前提下进行严格审查。
空中系统特有的问题包括监视和应用于夺取人命的用途。在奥巴马政府执政期间,无人机袭击导致全世界多达 117 名平民死亡。在奥巴马政府执政期间,共下达了 526 次无人机袭击命令。监视特有的问题包括非法录音和录像私人公民。
水生机器人伦理问题与监视和战争有关。目前的问题包括中国在 2016 年 12 月扣押了一艘美国潜艇无人机。无人机最终被归还,但未来的入侵是必然的。也有可能像其空中同类一样对无人机进行武器化,并实施致命袭击。