跨学科问题 2018-19/人工智能中的主观与客观真理
人工智能(AI)通常被认为可以更容易地做出客观决策。在这里,客观性是指基于批判性思维和科学证据的结论,其中结论是无可争辩的,并且只有一个正确答案[1]。人工智能由公式和算法构成,可以处理海量数据得出比人类能够达到的更准确、因此更客观的结论[2]。
一个例子是机器学习和识别图片中主体的任务。虽然对人类来说很简单,但人工智能需要用海量数据进行重复训练才能区分饮料、桌子和凳子。人工智能中的神经网络从一个或多个输入(例如图片)开始,并将它们处理成一个或多个输出(例如图片是否显示葡萄酒或啤酒)。这些输出包含一组复杂的“神经元”,这些神经元被分组到层中,其中一层通过加权连接与下一层交互——每个神经元都携带一个值,该值与后续层中的神经元相乘。[3] 诸如 Eθ(θˆ) − θ[4]之类的偏差函数可以被编码到神经网络中并通过各层传递。因此,输入可以传播到整个网络,并且机器被训练以做出尽可能准确的预测和得出结论。这种持续的测试可以为极其复杂的问题做出决策[5]。
正如埃森哲在其用于人工智能的教与测框架中所使用的那样[6],前面提到的持续连接和数据处理可以被跟踪,并且可以对人工智能系统得出的决策或结论提出质疑。人工智能甚至可以被编码为证明其得出的决策[7]。这可以让人们安心,即人工智能正在得出以人为本、无偏见和公平的结论——客观性。
然而,人们经常争论说,人工智能做出的所谓客观决策最终会变得主观,因为所使用的数据集存在偏差[8][9]。在这里,主观性是指基于个人意见、经验和感受而非科学证据的信念[10]。作为人类,我们都有自己的偏见,没有人能够真正客观[11]。由于我们既创建人工智能本身又创建其处理的数据,因此可以隐含地认为人工智能永远不会客观。
性别和种族偏见通常无意识地输入到算法中。一个著名的例子是人工智能人脸识别软件将黑人女性识别为男性[12][13]。有人认为这是由于计算机科学家和工程师的无意识偏见造成的,其中大多数是白人和男性[13]。同样,在谷歌上搜索图片时,输入“CEO”会显示男性的图片,而输入“助手”则会显示女性的图片[14]。这是基于关于CEO长相的偏见数据集。大多数CEO确实是男性,但这基于历史上的父权思想,这些思想通常被认为是错误的[15]。
随着人工智能在日常生活中变得越来越突出;自动驾驶汽车、谷歌家居设备、广告以及更多应用,需要考虑伦理问题。伦理可以被定义为解决道德问题的方法[16],但伦理可以根据一个人的意见、信仰和观点进行不同的解释,因此试图创建符合伦理的人工智能可能会导致许多问题。特别是当这些决策与可能存在偏差的数据相结合时[17]。
从数学的、客观的角度来看;人工智能提供了人类自身无法实现的强大的计算和决策能力,从而更深入地了解复杂问题。从主观的、伦理的和哲学的角度来看;人工智能永远不会真正客观[18],并且我们很可能会遇到人工智能“出错”的重大问题,例如2010年闪电崩盘,因为它试图寻找“真相”或得出逻辑结论[19][20]。
例如,人工智能可以用于招聘,以消除招聘中的无意识偏见[21]。但是,如果使用机器学习算法,关于性别、种族、残疾等的数据可能会告知人工智能做出聘用白人、异性恋、健全男性——根据偏差数据,他们风险最低,因此是员工中最具成本效益的选择[22]。它很容易突出我们自己的偏见并放大它们[20]。而且,由于机器学习本身就是黑盒——我们输入数据,然后输出数据,在没有审计结果的情况下,我们可能完全不知道人工智能使用哪些数据点来为其决策提供依据[22]。
当人工智能面临与伦理问题相关的难题时,它难以真正客观[23]。但是,从跨学科的角度评估人工智能可以确保人们已经考虑了人工智能及其决策的影响。显然,计算机科学和电子工程在创建这项技术方面发挥着巨大作用,但在人工智能的开发过程中,还需要哲学和社会科学(如人类学、经济学和心理学),以确保我们开发的系统能够“思考”其结论的其他影响,从而使人工智能既有用又安全,以便人类在未来使用。
- ↑ Mulder, D. H, 客观性 [互联网]。索诺玛州立大学,加利福尼亚州:互联网哲学百科全书;[更新于 2004 年 9 月 9 日;引用于 2018 年 12 月 9 日]。可从以下网址获取:https://www.iep.utm.edu/objectiv/
- ↑ ICO,大数据、人工智能、机器学习和数据保护 [互联网]。英国柴郡:信息专员办公室;[更新于 2017 年 5 月 17 日;引用于 2018 年 12 月 9 日]。可从以下网址获取:https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf
- ↑ Marr, B.,什么是人工神经网络——绝对任何人都能理解的简单解释 [互联网]。福布斯;[更新于 2018 年 9 月 24 日;引用于 2018 年 12 月 9 日]。可从以下网址获取:https://www.forbes.com/sites/bernardmarr/2018/09/24/what-are-artificial-neural-networks-a-simple-explanation-for-absolutely-anyone/#4e593bd11245
- ↑ 估计、偏差和均方误差 [互联网]。英国剑桥:统计实验室;[更新于 2018 年;引用于 2018 年 12 月 7 日],第 2 页。可从以下网址获取:http://www.statslab.cam.ac.uk/Dept/People/djsteaching/S1B-15-02-estimation-bias-4.pdf
- ↑ Luger, G. F.,“连接主义网络基础”。在:人工智能:复杂问题解决的结构和策略。埃塞克斯:皮尔逊教育有限公司;2005 年。第 455 页
- ↑ Bennink, J.,埃森哲推出新型人工智能测试服务 [互联网]。芝加哥:埃森哲;[更新于 2018 年 2 月 20 日;引用于 2018 年 12 月 9 日]。可从以下网址获取:https://newsroom.accenture.com/news/accenture-launches-new-artificial-intelligence-testing-services.htm
- ↑ Cathelat, B.,'我们应该让AI为我们做出多少决定?' 载于:Brigitte Lasry, B. 和 Kobayashi, H.,联合国教科文组织和Netexplo. 人类决策:关于人工智能的思考. 法国巴黎:联合国教科文组织出版社;2018年. 第132-138页. 可从以下网址获取:http://unesdoc.unesco.org/images/0026/002615/261563E.pdf
- ↑ Vanian J.,揭露AI的偏差问题[互联网]。纽约:财富杂志;[更新于2018年6月25日;引用于2018年12月2日],可从以下网址获取:http://fortune.com/longform/ai-bias-problem/
- ↑ Srinivasan, R.,'人工智能的伦理困境' 载于:Brigitte Lasry, B. 和 Kobayashi, H.,联合国教科文组织和Netexplo. 人类决策:关于人工智能的思考. 法国巴黎:联合国教科文组织出版社;2018年. 第107页. 可从以下网址获取:http://unesdoc.unesco.org/images/0026/002615/261563E.pdf
- ↑ Francescotti, R.,主观性[互联网]。阿宾登:劳特利奇哲学百科全书;[更新于2017年4月24日;引用于2018年12月9日]. 可从以下网址获取:https://www.rep.routledge.com/articles/thematic/subjectivity/v-1
- ↑ Naughton, J.,别担心AI会变坏——幕后操纵者才是危险[互联网]。伦敦:卫报;[更新于2018年2月25日;引用于2018年12月4日]。可从以下网址获取:https://www.theguardian.com/commentisfree/2018/feb/25/artificial-intelligence-going-bad-futuristic-nightmare-real-threat-more-current
- ↑ Lohr, S.,如果你是一位白人男性,面部识别技术是准确的[互联网]。纽约:纽约时报;[更新于2018年2月9日;引用于2018年12月3日]。可从以下网址获取:https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
- ↑ a b Buolamwini, J. 和 Gebru, T. 性别阴影:商业性别分类中的交叉准确性差异。JMLR. 2018. [引用于2018年12月3日] 81:1–15. 可从以下网址获取:http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
- ↑ Devlin, H.,研究表明人工智能程序存在种族和性别偏见[互联网]。伦敦:卫报;[更新于2017年4月13日;引用于2018年12月4日]。可从以下网址获取:https://www.theguardian.com/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals
- ↑ Johnson, A. G.,'什么是父权制?' 载于:性别之结. 宾夕法尼亚州费城:坦普尔大学出版社;1997年. 第6页
- ↑ Mulder, D. H,伦理[互联网]。加利福尼亚州索诺马州立大学:互联网哲学百科全书;[更新于2004年9月9日;引用于2018年12月9日]。可从以下网址获取:https://www.iep.utm.edu/ethics/
- ↑ Bostrom, N. 和 Yudkowsky, E. '人工智能的伦理'。载于:人工智能的剑桥手册. 剑桥:剑桥大学出版社;2011年. 第316-334页. 可从以下网址获取:https://nickbostrom.com/ethics/artificial-intelligence.pdf [引用于2018年12月9日]
- ↑ Moor, J. H.,'机器伦理的性质、重要性和难度'。载于:Anderson, M. 和 Anderson, S. L. 机器伦理. 纽约:剑桥大学出版社;2011年. 第13页. 可从以下网址获取:https://books.google.co.uk/books?id=N4IF2p4w7uwC&printsec=frontcover&source=gbs_ge_summary_r&cad=0#v=onepage&q&f=false [引用于2018年12月3日]
- ↑ Jøsang, A.,用主观逻辑进行人工推理[互联网]。挪威特隆赫姆:挪威科技大学;[更新于1997年;引用于2018年12月3日]。可从以下网址获取:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.55.6741&rep=rep1&type=pdf
- ↑ a b Newman, D.,您的AI并非没有偏见[互联网]。新泽西州泽西市:福布斯;[更新于2017年9月12日;引用于2018年12月3日]。可从以下网址获取:https://www.forbes.com/sites/danielnewman/2017/09/12/your-artificial-intelligence-is-not-bias-free/#56ed5cfbc783
- ↑ Lee, A. J.,就业歧视诉讼中的无意识偏见理论,哈佛民权-公民自由法律评论。2005. [引用于2018年12月3日];40(2): 481-504. 可从以下网址获取:https://pdfs.semanticscholar.org/62c3/a2d2317e9db3931c65870d23834621097770.pdf
- ↑ a b Tufekci, Z.,机器智能使人类道德更加重要[互联网]。加拿大班夫:TEDSummit;[更新于2016年6月;引用于2018年12月3日]。可从以下网址获取:https://www.ted.com/talks/zeynep_tufekci_machine_intelligence_makes_human_morals_more_important/discussion?referrer=playlist-talks_on_artificial_intelligen#t-1047395
- ↑ Polonski, V.,人工智能伦理的难题——将道德融入机器的三条指导方针[互联网],法国巴黎:经济合作与发展组织主办的论坛网络;[更新于2018年2月28日;引用于2018年12月3日]。可从以下网址获取:https://www.oecd-forum.org/users/80891-dr-vyacheslav-polonski/posts/30743-the-hard-problem-of-ai-ethics-three-guidelines-for-building-morality-into-machines