跳转到内容

计算使用后果:机器人

来自维基教科书,开放世界中的开放书籍

论文 2 - ⇑ 计算使用后果 ⇑

← 数字版权管理 机器人 新兴技术 →


机器人 - 一种机械或虚拟智能代理,可以自动或在引导下执行任务,通常通过远程控制

机器人正成为现代社会越来越重要的一部分。它们在工厂工作,参加战争,可能有一天会在你的老年时照顾你。

人工智能

[编辑 | 编辑源代码]
人工智能 - 一门研究所有表现形式的智能的科学,包括生物体和现在和未来的机器


计算机科学中一个重要且庞大的领域是人工智能 (AI),它研究如何制造智能机器。许多机器人和计算机程序被认为具有人工智能 (AI)。人工智能可以用上面的定义来概括,明确的例子包括

试图让机器执行非常特定的任务,例如

  • 识别图片中的面部或其他物体
  • 自动将书面或口头词语从一种语言翻译成另一种语言
  • 控制着陆飞机、优化化工厂或发电站等过程
  • 吸尘房间
  • 电子游戏中的人工对手
  • 在工厂里建造东西

你甚至可能有一些关于如何将人工智能用于你明年 A2 项目的想法。

平板玻璃工业中使用工业机器人进行材料搬运的工厂自动化

“会思考”的人工智能甚至可以从经验中学习,这意味着你无需显式地编程它们如何对每一种情况做出反应。这种人工智能开始对人类提出一些非常重大的问题。人类的智力和程序的智力之间真的有区别吗?我们将在下面对此进行一些探讨。

与人类相比,机器擅长和不擅长什么?

[编辑 | 编辑源代码]
  1. 机器擅长重复性任务(想想汽车制造机器人),因为它们不会感到疲倦或犯错。
  2. 机器被认为不擅长做出它们没有被构建来做出的判断、同情、发明等。但是,如果我们制造出足够聪明的机器,难道我们不能在其中构建这些能力吗?

这能告诉我们关于人类思维方式的信息吗?

[编辑 | 编辑源代码]

许多科学家和哲学家认为,计算机有一天会变得和人类一样聪明。但是,关于“智能”到底意味着什么存在一个问题。如果它仅仅是很好地执行任务,那么有一些计算机可以比大多数人类更好地创作音乐、清扫道路、驾驶飞机或解数学方程。我们甚至可以让人工智能计算机表现出同情和愤怒等情绪。这是否意味着我们可以完全再现思维方式?

1950 年,早期计算机科学先驱艾伦·图灵提出了一项机器智能测试。如果你可以与一组人类和一个人工智能计算机程序进行对话,并且无法分辨你是在与人类还是计算机对话,那么这台计算机可以被视为与人类一样聪明。这被称为图灵测试

玩家 C,即询问者,的任务是试图确定哪个玩家 - A 或 B - 是计算机,哪个是人类。询问者只能接收书面回复,这样他们就无法根据外表进行判断。

1980 年,哲学家约翰·塞尔提出一个思想实验,有些人认为这个实验证明了机器无法理解它们在做什么。中文房间是一个箱子,里面坐着一个人。他完全不懂中文,但会从门下递给他中文汉字。他有一本中文汉字和相应答案的书。收到一个汉字后,他在书中查找它,并发送相应的汉字作为回复。在他没有任何时候理解他在做什么,他只是在按照指示操作。人工智能可以被认为就像这样,无论代码多么复杂,它所做的只是用预定的输出响应输入,没有任何理解。


类似的论点是由斯坦利·雅基在 1969 年提出的,他认为人工智能有点像排水管,两滴水滴流下来,在底部它们合并形成一个更大的水滴,但在任何时候排水管都没有理解发生了什么。他认为,人类拥有这种理解,而机器则没有。

然而,许多哲学家和科学家认为,智能和理解不过是对刺激做出反应的复杂算法。真的有一个“我”在“理解”,它究竟是什么?我们的思维可以简化为一组算法吗?

扩展:心灵哲学

我们可以从机器中学到什么

[编辑 | 编辑源代码]

由于机器是可消耗的,它们使我们能够在不担心其安全性的情况下进行实验和模拟人类。例如,军队使用机器来模拟人类从简易爆炸装置爆炸中受到的伤害。这使我们能够设计出更能保护士兵的车辆和服装。

在机器上进行测试使我们能够更好地为危险情况做好准备

使用机器作为工具有哪些局限性?

[编辑 | 编辑源代码]

如果你创建了一个没有情感并且没有获得情感能力的机器,例如汽车制造机器人,那么在使用它们方面就有一些重要的局限性。

如果你在一个工厂里与一个机器人一起工作,并且你开始感觉不太好,这台机器很可能没有被编程为有任何同情心,并且很可能不会改变它的工作程序来适应你的变化。然而,有可能这台机器人会被编程出这些功能。

在铸造厂工作的关节式工业机器人

在大多数情况下,机器缺乏适应新情况的能力,它们被困在所获得的代码中,无法在执行例行程序时发现安全问题。第一起机器人导致的死亡事件发生在 1979 年,当时一个机械臂击中了美国一家金属铸造厂的工人罗伯特·威廉姆斯。

如果人工智能产生了与我们一样“智能”的机器,也可能出现一些问题。在这种情况下,它们将没有限制,就像我们一样。 艾萨克·阿西莫夫 看到了这个问题,并定义了 机器人三定律 来确保机器人和人类能够和平共处。

  1. 机器人不得伤害人类,也不得因不作为而让人类受到伤害。
  2. 机器人必须服从人类的命令,除非该命令与第一定律相冲突。
  3. 机器人必须保护自己的存在,只要这种保护不与第一或第二定律相冲突。
练习:机器人

说出机器人适合做的一项任务。

回答


  • 制造汽车 - 不用担心重复性任务,不会出错。
  • 无人机 - 无论被击落与否都无关紧要,可以长时间飞行而不会出错。

不包括计算器、进行数学运算、托管网站等。为什么要用机器人来做这些?计算器或计算机程序就足够了!

机器人比人类更擅长什么,为什么?

回答

重复性任务,它们不会感到疲倦或出错。

你相信机器人有一天会像人类一样聪明吗?

回答

这是一个需要你认真思考的论文题目。

机器在执行任务时可能会遇到哪些限制?举一个可能出错的情况的例子。

回答


它可能没有被编程为处理它遇到的场景。

  • 机械臂没有意识到有人在其危险区域内,导致被压扁。
华夏公益教科书