跳转到内容

专业主义/比尔·乔伊与技术风险

来自维基教科书,开放世界中的开放书籍
比尔·乔伊

1982年,比尔·乔伊与其他几位伯克利毕业生共同创立了Sun Microsystems。在Sun期间,他进一步确立了自己在计算机软件设计领域的领导地位,开发了Java平台网络文件系统(NFS),后者允许用户通过网络访问文件。在Sun工作期间,乔伊目睹了技术的快速发展,并对变化的速度感到震惊。2000年4月,他为《连线》杂志撰写了"为什么未来不需要我们"一文。在文章中,他表达了自己对技术进步方向和速度的担忧。他讨论了自己对自我复制机器人的恐惧,以及21世纪知识的传播如何促进遗传学、纳米技术和机器人技术(GNR)的进步。

个人经历

[编辑 | 编辑源代码]

乔伊从小就展现出作为数学家的天赋[1],在高中阶段表现出色,并在密歇根大学学习了高级课程,在那里他获得了电气工程学士学位[2],并首次接触了计算机。他对能够解决问题的机器的想法着迷,并对正确和错误有着清晰的概念[3]。乔伊继续在加州大学伯克利分校深造,获得了计算机工程硕士学位[4]。在伯克利期间,乔伊与计算机系统研究小组合作,并因开发了BSD Unix而受到认可,苹果公司最终以此为基础开发了自己的Mac OS X操作系统。乔伊还在伯克利期间开发了至今仍在使用的文本编辑器vicsh。目前,乔伊是风险投资公司Kleiner, Perkins, Caufield & Byers的合伙人,该公司专注于IT、生物技术和绿色技术[5]

为什么未来不需要我们

[编辑 | 编辑源代码]

理念与疑虑的引入

[编辑 | 编辑源代码]

乔伊在文章开头回顾了自己对新技术的担忧是如何产生的。在与约翰·瑟尔雷·库兹韦尔的谈话中,乔伊开始认真对待可能对人类社会产生更大影响的独立技术的威胁。他讲述了库兹韦尔是如何说“技术的进步速度将会加快,我们将变成机器人,或者与机器人融合,或者类似的事情。”[6]

乔伊谈到,这些曾经看起来异想天开的想法,突然从两位他非常尊敬的专业人士口中说出,变得真实起来。在那次谈话中,库兹韦尔带了一份他即将出版的小说《心灵机器时代》的副本。乔伊读了一段摘录,并被特德·卡钦斯基的一段话进一步困扰。卡钦斯基在其中暗示并推论,“人类很容易让自己陷入对机器的依赖状态,以至于除了接受机器的所有决定之外别无选择。随着社会及其面临的问题变得越来越复杂,机器变得越来越智能,人们会让机器为他们做出更多决定,仅仅因为机器做出的决定会比人类做出的决定带来更好的结果。”[7]

知识的探索

[编辑 | 编辑源代码]

乔伊认为,日益发展中的技术所带来的问题根源在于对知识永无止境的追求。他认识到知识是好的,求知的欲望是人性的一部分,但他质疑知识的必要性,尤其是在以牺牲人类为代价的情况下。他声称,保护我们自己的唯一方法是限制或放弃我们对知识的追求。他引用尼采的话,称“‘真理意志’或‘不惜一切代价追求真理’”[8]是危险的。乔伊认为,无限获取知识可能会导致人类的灭亡。

NBC与GNR

[编辑 | 编辑源代码]

乔伊对不惜一切代价追求真理的疑虑直接关系到他对21世纪遗传学、纳米技术和机器人技术(GNR)进步中技术进步的担忧。

“为什么未来不需要我们”中,乔伊将GNR与20世纪的核、生物和化学(NBC)技术进行了类比。他声称,对真理和知识的追求导致人类将自身置于自我毁灭的边缘。乔伊讨论了原子弹的研制是如何为了持续进步而继续进行的,并且如果它没有被阻止,就会导致人类的终结。

乔伊提出了一个问题:人类是否正朝着同样的方向发展GNR技术,以及需要采取什么措施来阻止知识的传播。更让他害怕的不是我们用不同的技术做着同样的事情,而是GNR比NBC更容易传播。NBC技术需要难以置信的时间、空间和金钱资源。而对于GNR,由于推进和实施这些技术所需的资源要少得多,因此掌握如何使用它们的知识就足以真正地使用它们。将这一事实与当今社会知识传播范围的扩大结合起来,乔伊对我们的未来感到担忧。

媒体示例

[编辑 | 编辑源代码]

虽然乔伊的担忧似乎有些牵强和疯狂,但很明显,许多人都有这些担忧。简单地看看当今的媒体,很容易发现他的恐惧是许多电影、电视剧和其他流行文化来源的共同主题。

《黑客帝国》《终结者》《地球静止日》就是最好的例子。

乔伊的伦理观

[编辑 | 编辑源代码]

虽然乔伊主要对未来提出了悲观的看法,认为如果没有科学界的充分行动,未来将是黯淡的,但他对工程师和科学家需要采取哪些行动来避免这种发展却说得不多。具体来说,他没有给出任何能够帮助同事的准则或指南,也没有阐明他认为真正的专业工程师应该是什么样。然而,他确实引用了一些他认为在科学探索中人们需要牢记的原则或短语。从这些陈述以及他概述的其他理念中,可以创建出一个推演出的“指南”,部分涵盖了乔伊对职业道德的态度。以下列表绝不是比尔·乔伊的作品或观点,而仅仅是作者做出的推演假设。它的目的是引导工程师远离可能导致对人类社会有害的技术发展或科学突破的行为或倾向,从而避免乔伊的末日预言。

理解并尊重自然秩序和自然选择。

乔伊反复提到,如果我们创造出比我们进化适应性更强的存在,那么根据自然选择,它们将不可避免地超越我们,并最终导致我们灭绝。这句话旨在传达这样一个观点:混乱的自然秩序对我们或任何其他物种都没有偏好,我们都受其规则支配。此外,一般来说,自然生态系统也具有一定的秩序,而创造可能打破这种平衡并对当地或全球生态系统造成破坏的技术或生物有机体。

在追求技术进步的过程中保持谦逊

乔伊认为,在科学发现的过程中,我们往往过于自负地夸大自己的能力。从本质上讲,科学界必须克制狂妄自大,因为存在我们不知道或尚未完全研究的力量,以及仍然不受我们控制的力量。类似于核技术,我们常常在维持系统控制和完全失败或毁灭之间摇摆不定。

了解人造系统的脆弱性和低效性。

与前一点类似,但这更针对我们社会本身的脆弱性,而不是我们创造物的脆弱性。从他从事计算机的工作中,乔伊意识到,即使是他最强大的计算创造物,也仍然容易因单个方面出错而完全失败。他用这个隐喻来描述社会,以及尽管我们认为社会具有灵活性并且能够生存,但一个不可预见的因素攻击我们生活的关键方面可能会导致整个社会结构崩溃。例如,我们对电力供应的依赖使我们在电网突然失效或被恶意人工智能控制的情况下容易受到危险。

拒绝不惜一切代价追求真理的理念。

这一点相对简单:目的并不总是能证明手段的正当性。在乔伊看来,手段可能会导致产生与最初目的相反的结果。例如,对纳米技术癌症治疗的研究可能会无意中导致一种自我复制的蛋白质抑制剂,从而抑制人类正常细胞的发育。与其将科学视为一个必须了解所有知识的领域,不如让科学家或工程师在发现的过程中保持谨慎,并将其视为对生命的一种潜在危害。他并不是说所有发展都必须用恐惧和怀疑的眼光来看待,而是说某些技术存在明显的危险,并且应谨慎对待它们在所有方面(包括有益和有害)的全部潜力。

知识不能成为不作为的借口。

乔伊对现代科学界最常见的批评之一是,尽管许多杰出成员和普通成员都认为失控的技术是很有可能的,但他没有看到他们为此做任何事情的迹象。因此,即使你了解了一个问题或可能的未来,你也有责任对该问题做出回应。这也与乔伊对举报人的看法密切相关,他认为举报人实际上正处于技术开发的过程中。

意识到你的行为的后果,包括直接后果和间接后果。

这一原则贯穿于所有其他原则,并定义了应对不利情况的最安全方法。从本质上讲,它意味着在进行科学创造或工程创造的过程中,创造者必须意识到这种技术可能被滥用、失控、直接造成危险或在错误的人手中被操纵的各种方式。但是,人们还必须设想如何进一步开发这项技术或将其整合到其他技术中,这可能会使其具有潜在的危害性。这个原则很简单,但说起来容易做起来难。

最后,乔伊建议,“为了验证合规性,要求工程师和科学家采用严格的道德行为准则,类似于希波克拉底誓言,并且他们必须有勇气在必要时进行举报。”[9]

参考文献

[编辑 | 编辑源代码]
华夏公益教科书