跳转到内容

信息技术与伦理/当前机器人伦理

来自维基教科书,开放世界中的开放书籍

人工智能

[编辑 | 编辑源代码]

人工智能是一种旨在复制人类逻辑响应以提高技术自主性的算法。人工智能具有强大的历史和多项应用,其功能超越了提高应用程序的效率和功能,大数据分析等。最近,公众对人工智能的兴趣与日俱增,这主要是由于人工智能的行为和决策带来的道德,社会和法律后果。它引发了人们对该技术决策的社会和道德影响以及伦理考量的质疑。这种区别不仅可以帮助确定我们作为一个社会对人工智能的信任程度,而且还有助于确定人工智能的影响和信任度。

人工智能的历史

[编辑 | 编辑源代码]

1950年,英国数学家艾伦·图灵发表了他著名的“计算机械与智能”论文。在这篇文件中,他希望证明机器是否能表现出与人类类似的智能 [1]。图灵提出了图灵测试,以证明计算机是否能思考。这篇出版物是世界上首次介绍人工智能,但直到1956年的达特茅斯会议 [1],人工智能才正式问世。

这次会议被称为达特茅斯夏季人工智能研究项目,被认为是人工智能的诞生地。当五位未来的与会者在之前的一年提交了该项目的提案时,人们首次看到了“人工智能”这个词 [2]。这五个人分别是:约翰·麦卡锡,马文·明斯基,内森尼尔·罗切斯特和克劳德·香农。

在早期,人工智能是人们谈论的中心话题,它引起了美国政府的关注并获得了资助 [1]。第一个成功的项目之一是早期自然语言处理计算机程序或ELIZA(1964-1966年)(Wortzel,2007)。该项目由德国裔美国计算机科学家约瑟夫·维森鲍姆在麻省理工学院领导。它成为世界上最早的聊天机器人的版本之一。尽管其背后的设计比较原始,但它能够通过图灵测试(Wortzel,2007)。1974年,由于进展缓慢,美国退出的人工智能竞赛,导致该领域突然停止。这段停滞期从1974年持续到1980年,被称为人工智能的第一个冬天 [1]。这个项目后来被英国政府接手,但在1987年被放弃。从1987年到1993年,人工智能的进展再次停滞,被称为人工智能的第二个冬天。直到1996年,IBM的深蓝才取得了第一个突破。

四种类型的人工智能

[编辑 | 编辑源代码]

人工智能 (AI) 是一个拥有许多不同子领域和分类的领域的描述。并非所有的人工智能都是一样的。人工智能分类是人工智能伦理的重要组成部分,因为不同类型的人工智能能够做不同的事情,而且其中一些甚至还不存在。

人工智能分类可以分为两种类型,第一种类型是对人工智能更实用和有形的定义,包括它能做什么以及它如何思考。第二种分类则更多地以理论为导向。

这种第一种分类可以分为 4 种不同的类型或子类。反应型机器,有限记忆机器,心智理论和自我意识机器。

反应型机器能够对一组有限的输入参数做出反应。它们不能“思考”,因为它无法处理未知的输入。它们是“没有记忆和过去经验的,它们分析可能的情况并选择最具战略意义/最合适的举动” [3]。这就是为什么深蓝,IBM超级计算机能够击败当时的国际象棋世界冠军加里·卡斯帕罗夫,是反应型机器的典型例子。

有限记忆机器建立在反应型机器的基础上,它们能够利用过去的经验和信息来做出未来的决策。从某种意义上说,这些机器能够“思考”,而不仅仅是对预定义的输入做出反应并执行预先编程的输出。自动驾驶汽车利用这种系统实现其某些功能 [3]

心智理论是指预期在以下假设下运行的人工智能系统:他人的决策会受到其自身信念、愿望和意图的影响。 [3]。目前这类系统还不存在,因为这需要机器能够处理复杂的人类情绪和思维过程。

自我意识机器是人工智能的最终阶段,目前仅存在于理论中。这类系统与人脑相当,已发展出自我意识 [4]

类型 2

[edit | edit source]

第二类人工智能分类包含三个子类别:弱人工智能、通用人工智能和超级人工智能。

如果人工智能系统专门针对特定领域,并且是反应式机器,则被归类为弱人工智能(ANI)。IBM 的深蓝被归类为弱人工智能,因为它具有反应性,并且专门用于下棋。一些现代的弱人工智能示例包括智能手机内置的个人助理,例如 Siri 或 Google Assistant,以及“电子游戏、搜索引擎、社交网络、网页 cookie、在线广告服务、数据挖掘和数据抓取工具、自动驾驶仪、交通管制软件、自动电话接听服务等等” [5]

类型 3

[edit | edit source]

通用人工智能代表“人类水平的人工智能”,即在各个方面都与人类一样聪明的计算机,能够执行人类所能执行的所有智力任务” [5]。目前,人工智能在执行复杂的任务和计算方面非常出色,但人类水平的任务,如语音和图像识别,却非常困难,因为很难为这些人工智能提供预先确定的条件,以便在外部条件看似随机的情况下进行识别。人工智能科学家估计,人类将在 2030 年左右开发出通用人工智能 [5]

类型 4

[edit | edit source]

通用人工智能是与人类认知能力相匹配的人工智能,而超级人工智能(ASI)则是比人类在几乎所有领域都更聪明的人工智能,包括科学创造力、一般智慧和社交技能 [6]。这些是科幻小说中描绘的人工智能类型,也是许多人担心开发比人类聪明得多的计算机的原因。超级人工智能被创造出来的时刻,就是奇点概念实现的时刻。这是一个技术进步变得不可控的时刻,因为超级人工智能自身做出的发现速度比人类能够进行研究的速度快得多。


伦理考量

[edit | edit source]

伦理

[edit | edit source]

人工智能的许多实际应用都带来了伦理问题。尽管人工智能具有巨大的潜力,可以为人类带来极大的益处,但也可能被恶意行为者利用。伦理辩论十分复杂,要理解它们,必须按类别进行细分。本节将讨论人工智能的实际应用,以及随之而来的伦理问题。

隐私

[edit | edit source]

在当今的网络时代和社交媒体时代,数据隐私是一个热门话题。全球数十亿人使用多个社交媒体平台。这些人会生成大量的数据和元数据,这些数据和元数据被公司用于数据挖掘实践。“数据挖掘与机器学习、信息检索、统计、数据库,甚至数据可视化相关” [7]

人们在社交媒体平台上生成的功能可以被人工智能用来寻找相关性并进行预测。这在 2008 年总统大选中首次在政治领域出现,当时社交媒体网站首次成为候选人联系选民的重要手段 [8]。这些在线互动收集的信息让麻省理工学院的研究人员得以发现候选人社交媒体使用量与 2008 年大选结果之间的相关性 [9]

因此,在线使用生成的信息非常有价值,关于社交媒体公司如何使用这些数据,甚至是否应该存储这些数据,都存在着许多伦理争议。通用数据保护条例(GDPR)是首个为欧洲公民引入全面数据隐私立法的法律,因为他们认为人们应该拥有对其在线数据的权利。

透明度

[edit | edit source]

另一个伦理问题是,当这些人工智能系统发现相关性并进行预测时,尤其是当它们具有现实世界影响时,它们的透明度问题。许多人工智能系统遵循封闭和黑盒方法,这意味着只有开发人员才能理解人工智能的结构以及算法的功能。这给算法偏差留下了无法检测的机会。对于一些机器学习技术,即使是算法的专家也难以理解这些算法,这使得难以发现这些偏差。

偏差

[edit | edit source]

算法偏差是人工智能的一个重大伦理问题。人工智能系统存在非常重要且真实的现实世界影响。人工智能被用于金融、医疗甚至政治决策。随着人工智能系统变得越来越先进,这种情况将继续增加。

这就是为什么人工智能偏差的伦理争议与透明度问题密切相关。如果人工智能将要做出影响许多人的决策,那么有人认为,最重要的是,这些系统和算法要由来自不同背景的人进行开发和审查,以期最大限度地减少算法偏差,并在需要时对其进行纠正。

偏差引发了关于算法偏差不可避免性的争论,以及谁应该对人工智能在运行时做出的决策负责。

2015 年,Google Photos 应用程序就是一个人工智能算法偏差和透明度问题的典型例子。这个照片应用程序使用人工智能对照片中的人、地点和物体进行标记。这是一个处理大量数据的 AI 系统示例,就像警方部门和其他政府机构使用的面部识别系统一样。Google Photos 应用程序被发现将非洲裔美国人标记为“大猩猩”,并且总体上表现出对女性和有色人种的偏见。据说这些系统过于复杂,以至于没有人能够预测它们最终会做什么 [10]

安全

[edit | edit source]

安全性 在所有先前提到的里程碑中,人工智能取得了长足的进步。拥有如此不可否认的力量,必须实施保障措施。确保人工智能安全和道德管理的第一步是制定人工智能安全指南。为了确保人工智能在形式(物理/数字)上的正确使用,公司必须建立一个框架,考虑使用此类技术的道德方面。

这将包括制定法规,在软件工程师、用户和其他与人工智能相关的各方之间建立关系。人工智能的使用必须符合治理体系。公司需要意识到他们在确保人工智能不损害社会方面的责任 [11]。由于这种人工机器将持有数十亿字节的数据,因此保持数据的完整性至关重要。数据必须保持公平、无歧视,以维护公众的信任 [11]。这包括实施保障措施来保护和检测系统上的任何恶意字符 [11]。为了帮助确保某个实体开发的人工智能不会造成伤害,需要对系统进行广泛的测试,然后再将其公开。

人机交互和组合

[edit | edit source]

自动驾驶汽车

[edit | edit source]

人工智能与传感器技术的进步相结合,促成了自动驾驶汽车的实现。许多为防止碰撞而开发的安全功能已经演变为传感器,能够提供人工智能控制单元在没有驾驶员输入的情况下驾驶车辆所需的感官信息 [12]

美国国家公路交通安全管理局 (NHTSA) 定义了 6 个级别的自动化,0 级表示没有自动化,5 级表示完全自动化。5 级表示乘客无需关注车辆的操作,甚至可能没有手动控制装置(例如方向盘) [13]。虽然在驾驶功能自动化方面,在道路的有效利用和消除人为因素带来的巨大生命拯救方面,自动驾驶可以带来巨大益处,但在这种系统的开发和实施过程中,必须格外注意责任问题 [14]

经典的“电车难题”,现在人工智能控制单元正在决定两种不可取的结果。经过机器学习的人工智能控制单元,将需要接受培训,以了解哪些结果被认为是更可取的。开发者根据什么权力来培训生与死的决定?

传感器、硬件和软件故障具有潜在风险,需要制定应急措施,才能使全自动驾驶汽车成为现实。即使是较低级别的自动化,教育和对功能的完全了解对于乘员和周围人员的安全也至关重要。如果驾驶员“认为”他们已经启用了自动驾驶功能,然后跳到后座,而实际上自动驾驶功能并没有启动,责任应该由谁来承担 [15]

自动化具有巨大的益处,但必须仔细考虑乘员和周围人员的安全,这比抢先上市和成为自动驾驶领域领导者更重要。

军用武器 - 人工智能参与冲突

[edit | edit source]

导弹、无人机、自动修正弹药和武器使军人能够远离伤害,同时继续向敌人发起攻击。然而,这种人类冲突天平的失衡,引发了一些道德问题。我们要求军人按照战争法规则夺取他人生命,这给他们带来了沉重的负担。由于他们的行为的后果可能会持续一生,因此他们不会轻易做出这些决定。而对机器而言,它没有任何悔恨,因此军方使用机器来执行他们的命令可能是不道德的。 [16] [17]

地面系统

[edit | edit source]

目前地面系统特有的道德问题包括使用机器人无人机向人类目标运送和引爆爆炸物,如 2016 年 7 月 7 日达拉斯市中心枪击事件。其他问题包括将人工智能引入机器人技术。例如,是否应该与机器人建立情感纽带,特别是当机器人被设计成与儿童或老人互动时。这种在机器人框架内管理人工智能的概念,是机器人和人工智能目前面临的最重要问题,并且在未来也将持续存在。从人工智能行为的编码到配备人工智能的机器人的安全关闭参数,所有这些都应该在不伤害人类并服从命令的前提下受到严格审查。

空中系统

[edit | edit source]

空中系统特有的问题包括监控和用于夺取人命的应用。在奥巴马政府任期内,无人机袭击导致全球约 117 名平民丧生。奥巴马政府期间共下达了 526 次无人机袭击指令。监控方面的具体问题包括非法录制私人公民的音频和视频。

无人机

[edit | edit source]

过去几年,无人机的销量一直在稳步增长。据本周发布的美国联邦航空管理局报告,无人机销量预计将从今年的 250 万台增长到 2020 年的 700 万台。该机构表示,业余爱好者销量将从 2016 年的 190 万台无人机增长到 2020 年的 430 万台,增长超过一倍。与此同时,商业销量在同期将从 60 万台增长到 270 万台,增长三倍(Vanian 2016 年第 1 页)。目前,限制无人机在机场、体育场和其他各种公共活动上空飞行已成为普遍做法。无人机已经配备了允许其跟踪指定用户的应用程序。用户可以是滑雪、高尔夫或在树林中远足的人。与这种应用相关的自然道德影响,除了监控外,还包括武器化。美国联邦航空管理局认为,2017 年将是无人机被企业广泛采用的转折点,企业将利用无人机进行从扫描电力线到为保险公司检查屋顶的各种工作。预计商业销量将达到 250 万台,之后几年销量将仅略微增长。目前,企业必须获得美国联邦航空管理局认证才能出于商业目的飞行无人机。一些企业和无人机游说团体抱怨称,监管是阻碍无人机行业在美国腾飞的原因之一。截至 2016 年 3 月,美国联邦航空管理局已经颁发了超过 3000 张商业级无人机执照 [18]

水下系统

[edit | edit source]

水下机器人道德问题与监控和战争有关。目前的问题包括 2016 年 12 月中国扣押美国水下无人机。无人机最终被归还,但未来入侵是不可避免的。也可以对无人机进行武器化,使其与空中无人机类似,并实施致命打击。

医疗设备和决策

[编辑 | 编辑源代码]

外骨骼

[编辑 | 编辑源代码]

外骨骼最初是为了治疗肢体受伤或疾病的人而开发的,现在也正变得“更智能”,使用人工智能。将人工智能与外骨骼结合使用,可以提供患者缺乏的控制和稳定功能。[19].

伦理问题是这种融合能够提供不公平的优势,或者技术被滥用于非法或不道德的目的。这种不公平的优势可以在简单的机械优势论证中看到,例如布雷克·李珀在 2021 年东京奥运会上使用假肢参加比赛的申诉被驳回[20]

植入物

[编辑 | 编辑源代码]

神经技术是一个不断发展的研究领域,最初的目标是帮助治疗神经疾病和损伤,例如四肢瘫痪患者。人与计算机之间的连接正在接受测试,埃隆·马斯克的 Neuralink 公司正在开发一种可以无线传输大脑活动的植入物[21]。这种连接可以使应用程序和技术能够利用脑部活动,将其转换为现实世界中的行动。这是迈向半机械人的一步,人类将成为部分人类,部分机器。伦理问题也包括一些宗教问题,即在什么程度上,医疗干预超越了延长生命,变成了“扮演上帝”?

精神治疗

[编辑 | 编辑源代码]

在精神能力方面,用于治疗的人工智能也应该仔细权衡伦理问题和预期益处。技术已被用于创造逝去爱人的虚拟形象,让幸存者能够与数字版本互动,从而在处理失去亲人的过程中获得慰藉。在新冠疫情时代,许多人失去了在临终关怀时陪伴逝去亲人的机会,技术试图弥合这一差距。在医院禁止探视的情况下,视频会议可以让那些无法探望亲人的患者获得慰藉。将人工智能技术与人类心理学结合在一起可能是一个非常有益的工具,但也可能是一个非常危险的工具[21].

拟人化

[编辑 | 编辑源代码]

“拟人化” 当机器人变得越来越像人,行为和感觉都更像人,当人类开始将这些新机器人视为宠物,甚至伴侣、家人时,拟人化的问题就会出现。尽管大多数人没有意识到这一点,但在制造和工业领域,机器人主导着我们最繁琐的任务。但是,当你赋予机器人一张脸、语音识别和一些宠物般的特征时,情况就会发生变化,情绪就会成为一个因素。将人类特征、情绪或意图归因于非人类实体被认为是人类心理的本能倾向。一个很好的例子可以在一个名为(HitchBot)的机器人的特殊案例中观察到。2015 年,“HitchBot”,一个搭便车的机器人,开始了一个跨越全国搭便车的实验。这个可怜的机器人走了相当远的路程,但最终在途中被破坏得无法修复。这个悲惨事件的报道成了头条新闻,人们对这个搭便车的机器人表达了深深的同情和情绪。全国范围内有许多推文对这一野蛮的行为做出了回应,许多人认为这是残忍和不人道的,比如“对于一些坏人的行为,抱歉了小家伙”以及其他表达悲伤和悲伤的推文。我们还可以考虑一下波士顿动力公司(一家谷歌子公司)制造的“Spot”这个新机器人狗。网上有一段视频展示了这只机器狗的稳定性,它一遍又一遍地被猛踢,它仍然可以继续前进,展示了它保持镇定的能力。人们对此感到愤怒,甚至联系了 PETA(动物虐待协会),试图谴责该公司虐待“类似狗”的机器人!

终端用户伦理

[编辑 | 编辑源代码]

终端用户的伦理问题涉及到设计的人工智能如何使用。它解决的是如何使用技术。例如,自动人工智能武器如何使用、在什么情况下使用以及在什么情况下使用,因为如果自动人工智能武器杀害无辜者,将会引发道德问题。由于绝大多数模型都是由人类员工训练的,因此用户必须了解其需要提供的信息,以实现使用目标,从而尽可能准确地发出异常警报。要获得终端用户的信任,不仅需要清晰度,还需要透明度。让用户了解使用特定人工智能可能发现哪些异常活动是必要的。有些人工智能会犯错误,比如 Alexa 对播放 Spotify 音乐的音频请求的响应,但这种错误影响不大,不像自动驾驶/自动驾驶汽车。人们希望确定自动驾驶汽车的工作原理,以便了解它们在自动驾驶模式下的安全性。这可能是技术滥用,也可能是技术错误。现在,机器人与人类一起工作,例如在工厂、医院、银行,甚至驾驶飞机和进行手术。与人类不同,机器人无法区分痛苦和快乐,什么是错,什么是对,是否合理,对人类患者进行手术是生死攸关的事情,如果算法或指令稍有错误,谁应该负责?机器人吗?因为手术是使用人工智能进行的。

人工智能技术的滥用

[编辑 | 编辑源代码]

对人工智能系统的任何滥用都可能导致混乱和前所未有的结果。人工智能系统还有助于分析关键数据,并对大量数据进行预测,这些数据可能会被网络罪犯滥用于不法目的。人工智能的另一种流行滥用方式是深度伪造,它利用人工智能技术操纵音频或视频内容,使其看起来很真实。即使使用技术解决方案,也很难区分深度伪造内容和合法内容。例如,一个位于英国的能源公司被骗,在一名恶意个人使用深度伪造音频技术冒充公司首席执行官的声音授权付款后,将大约 200,000 英镑(约合 270,000 美元)转入匈牙利银行账户。

意外后果

[编辑 | 编辑源代码]

另一个问题是,在展示或引发情绪时,技术会产生意想不到的后果。其中一个例子是虚拟再现逝去亲人或家人,以便幸存者在无法在死亡时获得这种机会的情况下获得一些慰藉。潜在的问题是,如果逝去亲人的虚拟版本以与现实中那个人不同的方式行为。这可能因此会产生相反的效果,带来悲伤而不是慰藉[22].

安全覆盖

[编辑 | 编辑源代码]

是否应该有一项程序来覆盖人工智能的决定作为安全保障?可以争辩说,人工智能做出决定的原因首先是将那些睡眠不足、依赖咖啡因、近视、情绪化的普通人从方程中剔除。但是,如果不存在干预控制,那么如何在人工智能出现错误的情况下改变或纠正人工智能的决定?

机器人的责任和权利

[编辑 | 编辑源代码]

在机器人或人工智能方面,已经存在着广泛的兴趣。人工智能中经常讨论的一个问题是,当算法预测不佳时,应该由谁负责?特别是在医疗和汽车行业。人们一直在讨论,有些人建议将个人工程师视为责任人,因为他们的模型的影响已经影响了其他人的生活,因此他们应该承担责任。在极端的假设中,有人也认为,人工智能的高级水平有可能摧毁人类生命。虽然像亚马逊、微软、谷歌、IBM、Facebook 和苹果这样的公司正在为商业用途开发人工智能,并已经采取了个人和集体措施来建立围绕人工智能的安全保障,但像加州大学伯克利分校、哈佛大学以及牛津大学和剑桥大学这样的学术机构也表明了致力于制定一套人工智能的通用伦理和安全标准的承诺。(Archana Khatri Das)当我们赋予人工智能我们的权利时,我们也把一些我们不想要的责任交给了它们。有些国家正在努力赋予机器人与我们人类相同的权利,欧盟正在探索授予人工智能“人格”的可能性。许多国家已经通过赋予非人类权利而取得了进步。以下是享受一定程度的先前人类权利的一些非人类实体的例子:1. 渋谷未来,一个拥有“小男孩”性格的市民聊天机器人,在日本东京渋谷区被该市赋予了“官方居留权”。

索菲亚机器人被沙特阿拉伯赋予了实际公民身份。2. 艾丽卡女机器人获得了工作。甚至有一个美国防止虐待机器人协会,即 ASPCR(“机器人也是人!或者至少他们将来会是“)。爱沙尼亚更进一步,承诺向任何能够通过所谓的“Kratt 法律测试”的实体授予完全的人权,该测试以一种由家用物品制成的神话生物命名,该生物在“创造”后获得了知觉。

机器人三定律

[编辑 | 编辑源代码]

艾萨克·阿西莫夫在其 1942 年 3 月发表在《惊奇科幻》上的名为“跑腿”的最著名的虚构作品中(阿西莫夫 1950 年)阐述了他的“机器人三定律”。第一定律:机器人不得伤害人类,也不能通过不作为而使人类受到伤害。第二定律:机器人必须服从人类给予的命令,除非该命令与第一定律相冲突。第三定律:机器人必须保护自己的存在,只要这种保护不与第一和第二定律相冲突。除了这些,阿西莫夫在 1983 年还添加了“第零定律”,[通过规定机器人不得伤害人类,也不能通过不作为而使人类受到伤害来撤销其他三定律],但许多学者指出了艾萨克·阿西莫夫定律的不足之处。应该赋予机器人哪些权利和责任,这仍然是一个正在进行的讨论。根据克里斯托弗·斯通的说法,任何事想要成为法律权利的持有者都应该满足某些标准。

人工智能的政策和程序

[编辑 | 编辑源代码]

利用人工智能的价值在于它能够改善人类生活,而政策和程序的制定是为了指导人工智能的开发和部署,以避免重大问题和降低风险。人工智能需要被设计成易于理解和值得信赖的。需要制定政策以安全的方式实施人工智能,因为围绕人工智能部署存在争论,包括如何保护隐私以及人工智能偏见是否会导致其执行有害行为。例如,随着无人驾驶汽车技术的进步,政府已经开始制定法规来指导或限制自动驾驶汽车的测试和使用。“国家公路交通安全管理局(NHTSA)已经发布了一份初步政策声明,建议各州目前不要授权公众使用自动驾驶汽车技术”。更新的初步政策声明将促进和鼓励在可能的情况下开发和部署具有挽救生命潜力的技术。在涉及像自动驾驶汽车这样的 AI 时,美国一直在积极制定政策和法规。29 个州颁布了与自动驾驶汽车相关的立法,11 位州长发布了与自动驾驶汽车相关的行政命令。虽然人工智能的好处是巨大的,但重要的是通过使用政策、程序和法规对人工智能采取审慎的态度。


人工智能与就业

[编辑 | 编辑源代码]

创造就业机会

[编辑 | 编辑源代码]

人工智能改变了劳动力市场,这是不言而喻的,并且人工智能的使用只会随着时间的推移而增长。人工智能既有助于创造就业机会,不幸的是也导致了就业机会的消失。重要的是要记住,技术进步创造的就业机会将需要与消失的就业机会不同的技能。爱德华·坦纳指出,“计算机往往用另一类工人来取代一类工人……你实际上不是用机器来取代人;你是在用另一种机器加人来取代一种人加机器”[19]。例如,机器人工作力的使用导致对可以修理机器人的设计师、操作员、技术人员的需求增加。此外,史密斯和安德森的调查结果发现,“一半的受访专家(52%)预计,到 2025 年,技术不会导致更多就业机会的流失,而会创造更多就业机会。”[17]

就业流失

[编辑 | 编辑源代码]

尽管人们寻求将人工智能融入现代社会所带来的创造就业机会的潜力,但仍然存在一些损失。其中最重要的是人工智能取代我们当前的人类员工。人工智能大师李开复,现任创新工场首席执行官,预计人工智能将在未来 15 年内取代 50% 的就业市场(斯坦,2018 年)。这包括医疗保健到农业等行业(斯坦,2018 年)。虽然这将导致数十亿人流离失所,但这将有助于提高人们的标准,以获得更高教育,希望获得工作。人工智能的实施仍然离不开人类的帮助,因为说到底,人类将管理这些智能机器。

社交媒体

[编辑 | 编辑源代码]

如今的社交媒体无疑已成为全世界与他人保持沟通的最广泛方式。公司在将人工智能融入其应用中,以提升用户体验和吸引更多用户方面毫不懈怠。一个例子是 Facebook 利用的人脸识别软件,以更好地将广告定位到用户(赫勒,2019 年)。另一种方法是 LinkedIn,一个流行的求职社交网站,它部署人工智能,根据用户对他们 feed 的兴趣来连接雇主和员工(Ivanschitz & Korn,2017 年)。人工智能不仅可以帮助用户,还可以用来管理平台上的用户。一个使用案例是将黑名单关键字和过滤不符合公司标准的文本[23]

在计算领域,一个常见的现象是软件开发人员将他们的项目公开,让公众管理、更改和分发他们的软件。通过程序员将他们的代码或程序开源,它允许社区进行开发。[24]。人工智能也不例外,因为它也已向公众开放。一家负责管理分发的公司是 OpenAI,其使命是开发造福全人类的人工智能。虽然公开代码有很多好处,但行业仍需警惕随之而来的许多后果[24]。这些危险之一是深度伪造,它可以操纵图像或声音,使其看起来像其他人。任何恶意作者都可能利用这一点,给公司和个人造成损害[24]。这只是将源代码开放给互联网上数百万用户的众多示例之一。


人工智能的利弊

[编辑 | 编辑源代码]

家庭安全

[编辑 | 编辑源代码]

“这些系统利用机器学习和面部识别软件来创建家庭常客的目录。这使系统能够立即识别陌生人。人工智能驱动的安全系统是迈向家庭自动化的第一步,它提供了许多其他有用的功能,例如在孩子放学回家时通知您或跟踪宠物的动向。这些系统甚至可以自动通知紧急服务,这使得它们成为其他类似基于订阅服务的绝佳替代品”[25]

当人们想到自己的家时,他们希望它是他们最安全的地方。人工智能技术已应用于家庭自动化,这有助于所有人领先于可能发生的任何类型的犯罪。跟踪和了解可能发生的任何事情都非常有益,尤其是在发生入室盗窃的可能性时。

数字媒体

[编辑 | 编辑源代码]

“机器学习在娱乐行业具有巨大的潜力,并且已经被应用于 Netflix、Google Play 和 Amazon Prime 等流媒体服务。这些网站使用类似神经网络的算法来消除低质量的播放和缓冲,为您提供来自互联网服务提供商的顶级质量。人工智能驱动的算法也有助于媒体制作。新闻报道已经由人工智能算法制作,以提高效率”[25]

我们今天用于日常生活需求的几乎所有类型的平台都实现了人工智能。这些算法正在理解和学习我们喜欢用哪些类型的电影或音乐来娱乐自己。不仅如此,人工智能技术还被用于帮助提高质量以及其他可能让我们保持联系的功能。

自动驾驶汽车

[编辑 | 编辑源代码]

“人工智能技术正在加速自动驾驶汽车的发展。事实上,根据 Google 的研究,人工智能驱动的汽车在安全方面已经超过了人类驾驶员,因为人工智能使自动驾驶汽车能够立即适应不断变化的条件并从新情况中学习。目前,大多数汽车制造商都在寻求将人工智能技术整合到未来的产品中。”

自动驾驶汽车是任何类型汽车的未来。我们希望相信汽车能够像非常安全的驾驶员一样表现出色。利用人工智能来保持领先地位,将使我们更接近真正的自动驾驶汽车。预计安全机制将为我们工作,以便我们可以更安全地到达目的地。

拼车应用

[编辑 | 编辑源代码]

“像 Uber 这样的拼车服务利用人工智能来确定将用户运送到他们想要的位置所需的时间。这项技术让用户了解有关其驾驶员何时到达、他们何时到达目的地以及食物送达需要多长时间的详细信息。Uber 还使用人工智能根据他们认为您愿意支付的价格来设定价格。据《独立报》报道,Uber 还使用人工智能来确定乘客是否在驾驶员接受接送之前喝醉了。它通过分析和比较步行速度和打字模式等因素来做到这一点。”

拼车应用越来越先进。这些应用正在使用人工智能技术来了解食物的成本以及食物到达需要多长时间。人工智能技术也正在了解我们来自的氛围。人工智能能够理解清醒者与醉酒者的比较可能看起来非常不同寻常。事实上,这可能有助于 Uber 司机为可能出现的任何情况做好更好的准备,因为客户可能处于醉酒状态。

欺诈预防

[编辑 | 编辑源代码]

“银行正在使用人工智能发送移动通知以帮助检测欺诈。例如,如果您的帐户出现异常大额交易,您可能会在手机上收到警告通知,或者如果购买发生在远离您家的地方,您的帐户可能会被标记,并且您可能会被要求确认购买。人工智能通过分析您的典型每日交易来识别消费行为中的异常模式,从而实现这些警告。”

人工智能帮助改善我们的日常生活需求。银行业是确保我们的资金“安全”的最明显形式之一。由于银行业肩负着巨大的责任,因此他们会对客户的账户进行更严格的分析是显而易见的。这将创造银行与其客户之间更好的信任。

提高工作效率

[编辑 | 编辑源代码]

“人工智能驱动的系统经过良好训练,可以执行人类完成的每项任务。使用人工智能技术可以确保出色的工作效率。人工智能机器纠正人为错误并提供最佳的业务成果。此外,基于人工智能的机器可以全天候运行。例如,人工智能聊天机器人可以随时理解和响应客户查询。因此,人工智能聊天助手将提高公司的销售额。”

拥有人工智能技术的最大好处之一是它可以提高工作效率。人类完成的工作在很大程度上取决于工作者的表现。某些天可能与其他天不同。人工智能技术是为了创造一个更轻松、更高效的工作环境。人工智能机器将创造一个更一致的工作环境。拥有创造更少错误并了解客户可能出现的各种需求的机器将只帮助企业蓬勃发展。

降低运营成本

[编辑 | 编辑源代码]

“使用机器学习 (ML) 算法(如深度学习和神经网络),系统可以高效地执行重复性任务。此外,ML 驱动的系统消除了每次学习新事物都需要编写代码的必要性。机器学习可以优化机器的能力,从信息中学习新模式。因此,与人类相比,人工智能机器可以降低运营成本。例如,人工智能机器可以重复执行任务,而不会出现任何中断或结果变化。”

机器学习专注于让系统更有效地工作。创造这种类型的环境将帮助企业节省大量资金。这有助于企业节省资金,并将更多注意力集中在解决其他问题上。但是,这对员工来说可能是一个潜在的威胁。


任务完成的高精度

[编辑 | 编辑源代码]

“人工智能用于训练机器比人类更有效地执行工作。人工智能系统可以执行关键任务,解决复杂的解决方案并获得准确的结果。由于这种优势,人工智能在医疗保健领域得到了广泛应用。机器人可以准确地检测危及生命的疾病,还可以进行手术以挽救人类生命。此外,医疗保健领域的人工智能对放射学和数字咨询应用产生了重大影响。”

人工智能技术有可能创造一个非常稳定的工作环境。人工智能机器可以完成的任务更加具体。为了进一步解释这个概念,人工智能机器可能比标准员工工作得更好。准确性尤其可能更高,因为重复性任务的学习和部署速度更快。不仅如此,人工智能机器还创造了一个更有竞争力的环境。众所周知,人工智能机器超越了员工的准确性。

自动化和改进工作流程

[编辑 | 编辑源代码]

“通过上述 AI 的优势,事实证明 AI 驱动的机器可以自动化端到端的工作流程。AI 机器可以安全地处理给定的数据。此外,它还可以提供对数据的宝贵见解。接下来,将为企业打开新的机遇。因此,总体业务绩效将得到提升。许多研究人员一致认为,AI 可以完成人类执行的所有任务。例如,AI 聊天机器人可以在客户访问 Web 门户时为他们提供帮助,AI 驱动的机器可以自动化所有行业的业务流程,AI 机器人可以表现出人类的情感,如快乐/悲伤和爱/恨。”

显然,凭借上述所有优势,AI 技术在许多与业务相关的功能中继续蓬勃发展。商业专业人士正竭尽全力获取任何类型的 AI,以成功执行业务可能需要的任何需求。企业将继续加深对 AI 的理解,以便将其实施到自己的业务中。AI 是否有可能接管一切呢?

滥用会导致严重威胁

[编辑 | 编辑源代码]

“随着 AI 采用的不断增加,人工智能技术的担忧也以多种方式在人类中日益上升。例如,滥用 AI 驱动的自主武器会导致大规模杀伤。这意味着,如果自主武器落入坏人之手,它们就会与人类作对。因此,AI 是未来对人类的主要威胁。”

AI 技术可能在任何特定时刻或时间落入坏人之手。人们利用 AI 创造了更高效的工作环境,但人们怀有恶意意图的可能性也非常高。AI 技术的力量是无限的,可能非常危险。

数据歧视

[编辑 | 编辑源代码]

“超级智能机器可以收集、存储和处理大量用户数据。但缺点是,这些机器可以使用您的个人信息而无需您的许可。AI 将为社会带来许多好处,但不幸的是,它先进的功能也用于执行有害或危险的行为。”

当我们考虑一种更先进的 AI 时,那就是人工智能超级智能 (ASI)。这种类型的智能可能造成很多问题,尤其是如果它不是以正确的方式创建的。看到如此先进的技术触手可及令人沮丧,但怀有不良意图的人可以创造出一个充满可怕事件的世界。ASI 太强大,无法探索,根据许多来源,时间线并不确定,但它可能不会太远。

减少就业

[编辑 | 编辑源代码]

“AI 是市场上的一个趋势。专家估计,AI 未来将消灭大约 75% 的就业岗位。大多数行业已经使用 AI 机器、设备和应用程序。因此,用 AI 机器取代人类会导致全球失业。在 AI 使用的驱动下,人力资源不得不很大程度上依赖机器。因此,员工失去了创造力。”

解释的最大好处之一是 AI 技术可以执行比标准人类高得多的工作。与工作相关的准确性、效率和其他因素都处于更高水平。这会导致失业率上升,并造成更多困难。竞争已经非常激烈,添加一台几乎完美的机器来完成工作只会增加失业率。

让人类变得懒惰

[编辑 | 编辑源代码]

“人工智能显然正在通过其应用程序自动化大多数任务来让人类变得懒惰。人类有可能沉迷于这些先进技术,这可能会给后代造成问题。AI 机器无法跳出框框思考。它们只能做它们被编程的事情。虽然它们可以更容易、更快地完成任务,但 AI 机器无法触及人类智能的力量。AI 设备可以存储大量信息并绘制模式,但无法在没有最少人工干预的情况下将数据与要求匹配。”面临 AI 进步的最大挑战之一是创造一个更加懒惰的世界。人们越来越习惯于让机器为他们做他们想做的事情。这种懒惰的创造使得创造力不那么重要。与其专注于在特定任务上变得更好,不如让一台智能机器来做某人的工作要容易得多。这使得懒惰变得更加明显,而任何跳出框框的思考都已消失。人们非常有必要在完全适应这种懒惰的生活方式之前,先了解 AI 机器。

AI 平台的成本很高

[编辑 | 编辑源代码]

“开发 AI 系统需要巨额成本,因为它们是复杂的机器。接下来,维护 AI 机器也需要巨额成本。AI 机器中的内置软件程序必须进行升级才能提供最佳结果。在这种情况下,如果系统出现任何严重故障,那么代码恢复过程可能会浪费时间和成本。”

AI 非常昂贵,但这并没有阻止公司将这些机器适应其业务需求。随着技术的不断发展,未来的道路只会越来越好。随着更多实施的进行,AI 技术会随着时间的推移变得越来越便宜。与任何类型的技术一样,这可能是一项永远改变企业运作方式的技术。

参考文献

[编辑 | 编辑源代码]
  1. a b c d Benko, A.,和 Lányi, C. S. (2009)。人工智能史。在信息科学与技术百科全书,第二版(第 1759-1762 页)。IGI Global。
  2. Flasiński, M. (2016)。人工智能史。在人工智能导论(第 3-13 页)。Springer,Cham。
  3. a b c Maity, S. (2019 年 9 月 20 日)。确定人工智能在培训和发展实践演变中的机会。于 2021 年 4 月 18 日从 https://www.emerald.com/insight/content/doi/10.1108/JMD-03-2019-0069/full/html 检索。
  4. Hassani, H.,Silva, E.,Unger, S.,TajMazinani, M.,和 Mac Feely, S. (2020 年 4 月 12 日)。人工智能 (AI) 或智能增强 (IA):未来是什么?于 2021 年 4 月 18 日从 https://www.mdpi.com/2673-2688/1/2/8/html 检索。
  5. a b c Gurkaynak, G.,Yilmaz, I.,和 Haksever, G. (2016)。抑制人工智能:人类的危险。计算机法律与安全评论,32(5),749-758。doi:10.1016/j.clsr.2016.05.003
  6. Bostrom, N. (1998 年 1 月 1 日)。Nick Bostrom,超级智能还有多久?- PhilPapers。于 2021 年 4 月 18 日从 https://philpapers.org/rec/BOSHLB 检索。
  7. Larose, D. T. (2004)。数据中发现知识。doi:10.1002/0471687545
  8. E. Qualman。社会经济学。Knopf 青少年读物,纽约,2009 年。
  9. P. Gloor、J. Krauss、S. Nann、K. Fischbach 和 D. Schoder。网络科学 2.0:通过语义社交网络分析识别趋势。第 4 卷,第 215-222 页,2009 年 8 月。
  10. Metz, C. (2019 年 11 月 11 日)。我们向 AI 系统教授所有内容,包括我们的偏见。于 2021 年 4 月 18 日从 https://people.eou.edu/soctech/files/2020/12/BERTNYT.pdf 检索。
  11. a b c Leslie, D. (2019)。了解人工智能伦理和安全:公共部门 AI 系统负责任设计和实施指南。艾伦·图灵研究所。 https://doi.org/10.5281/zenodo.3240529
  12. 人工智能推动自动驾驶汽车发展。 (2020 年 1 月 30 日)。从 IHS Markit 检索:https://ihsmarkit.com/research-analysis/artificial-intelligence-driving-autonomous-vehicle-development.html
  13. Lynberg, M. (无日期)。自动驾驶汽车的安全。从国家公路交通安全管理局检索:https://www.nhtsa.gov/technology-innovation/automated-vehicles-safety
  14. Bogost, I. (2018 年 3 月 20 日). 你可以起诉自动驾驶汽车吗?检索自大西洋月刊:https://www.theatlantic.com/technology/archive/2018/03/can-you-sue-a-robocar/556007/
  15. Pietsch, B. (2021 年 4 月 18 日). 无人驾驶特斯拉汽车发生车祸造成两人死亡,官员称。检索自纽约时报:https://www.nytimes.com/2021/04/18/business/tesla-fatal-crash-texas.html
  16. 美军采用“道德”人工智能准则 https://www.dw.com/en/us-military-adopts-ethical-ai-guidelines/a-52517260
  17. a b 武装机器人、自主武器和伦理问题 http://centredelas.org/actualitat/armed-robots-autonomous-weapons-and-ethical-issues/?lang=en
  18. Vanian, J. (2016 年 3 月 25 日). 联邦政府认为到 2020 年无人机销量将激增。检索自财富杂志:http://fortune.com/2016/03/25/federal-governmen-drone-sales-soar/
  19. a b 研究人员正在开发用于外骨骼的人工智能。(2021 年 3 月 22 日) 检索自 Paint Square:https://www.paintsquare.com/news/?fuseaction=view&id=23530
  20. 布莱克·利珀因使用假肢参加奥运会资格赛而败诉。(2020 年 10 月 26 日)美联社从 ESPN 检索:https://www.espn.com/olympics/story/_/id/30196806/runner-blake-leeper-loses-appeal-use-prosthetic-legs-olympics-qualifying-bid
  21. a b 沃尔茨,E. (2020 年 8 月 28 日) 埃隆·马斯克宣布 Neuralink 在将我们的大脑与人工智能同步方面取得进展。检索自 IEEE Spectrum:https://spectrum.ieee.org/the-human-os/biomedical/devices/elon-musk-neuralink-advance-brains-ai
  22. 曼利,J. (2020 年 11 月 26 日). 重启死亡者的伦理问题。检索自 Wired:https://www.wired.com/story/ethics-reviving-dead-with-tech./
  23. Ivanschitz, R. 和 Korn, D. (2017). 数字转型和就业:为每个人构建云。迈阿密大学泛美法评论,49(1),41-50。检索自 2021 年 4 月 30 日:https://www.jstor.org/stable/26788342
  24. a b c Etzioni, A. 和 Etzioni, O. (2017). 人工智能应该被监管吗?科学与技术问题,33(4),32-36。检索自 2021 年 4 月 30 日:http://www.jstor.org/stable/44577330
  25. a b 凯文·加德纳(未注明日期)。人工智能改善日常生活的方式。Digitalist 杂志。 https://www.digitalistmag.com/improving-lives/2019/05/28/6-ways-ai-improves-daily-life-06198539/
华夏公益教科书