跨学科问题 2018-19/无人驾驶汽车中的证据
本文从跨学科的角度探讨了如何评估无人驾驶汽车中的证据:无人驾驶汽车如何使用算法收集和评估证据(“内部”部分,学科:计算机科学和工程),决策者如何处理风险和证据的不确定性(“周围”部分,学科:政治,统计学和心理学),以及证据作为伦理实体的作用(“随之而来”部分,学科:伦理学)。为了展示这个概念的广义含义,每个部分将采用一个不同的、独特的证据定义。
在无人驾驶车辆中,证据被定义为来自周围环境的摄像头、雷达和激光传感器不断收集的信息。算法是处理数据以执行合理操作的中心机构。根据SARTRE 项目,5 级车辆在所有驾驶模式下完全自主,完全无需人工干预即可导航。
卷积神经网络 (CNN) 在无人驾驶汽车的算法“训练”中取得了革命性的进展,使它们能够从训练驾驶中自动学习。CNN 使用来自前置摄像头的像素来直接控制转向命令。[1]
该系统主要基于贝叶斯定理。[2] 简而言之,贝叶斯定理提供了一种系统的方法,可以根据提供的证据更新对假设的信念。例如,谷歌的无人驾驶汽车使用来自谷歌街景和人工智能软件的证据。
有时,需要人工操作员来接管驾驶控制。被认为是 3 级车辆的车辆可以在某些条件下监控其周围环境并完全自主驾驶,但在传感器在具有挑战性的天气条件下损坏的情况下则不行。[3] 此外,外部数据源可能相互矛盾,但如果证据主义的概念成立,如果它们的证据支持它,那么每个数据源都有权向无人驾驶车辆提出建议。[4] 为了克服这个问题,算法可能会将控制权重新定向给人类驾驶员。
然而,对自动化系统的依赖性不断增加可能意味着人类将无法保持熟练驾驶汽车的能力。[5] 因此,虽然算法起源于计算机科学,但它们在无人驾驶交通中的未来作用也与社会和政治学科相关。
证据的定义是“证明信念的东西”[6],说明了证据在知情政策制定中的潜在用途,在政策制定中,决策通常是通过对潜在风险的评估来证明的。
无人驾驶汽车事故中的人员死亡事件[7] 表明,无人驾驶汽车的开发和实施会带来安全问题。这些问题通过风险评估进行调查,风险评估包括收集和评估各种可能发生的危险事件及其发生的可能性的证据。[8]
人类在统计学中的证据评估可以体现在风险评估中使用的“分析系统”和“实验系统”中。前者使用规范规则(包括统计学和形式逻辑),后者使用情感(包括联想和经历),尽管“分析系统”需要“实验系统”的指导。[9] 因此,程序员可能被认为使用他们的“实验系统”来决定,例如,算法应该如何对某些情况做出反应(参见“随之而来”部分)。算法和证据评估(例如数据)作为“分析系统”与程序员的“实验系统”协作。
心理因素会影响人类进行的证据评估,人类因此做出预测并制定政策。对无人驾驶汽车的看法与人们对这项创新技术的感受有关。[10] 因此,证据对于形成意见至关重要。另一个问题是第三方可能访问无人驾驶汽车收集的个人信息。[11] 关于周围环境收集的连续数据很可能在公共场合收集后就被使用。这会导致隐私问题以及人们对该技术的负面感受。[12]
统计学可以将观察到的数据定义为证据并评估数据。[13] 由于无人驾驶车辆行驶的里程不足以提供清晰的统计证据,因此难以获取有关使用无人驾驶车辆造成的死亡和伤害的证据。[14] 行驶里程与死亡和伤害之间没有明确的相关性,因此汽车需要完成数亿英里的行驶里程才能提供可靠的证据。[14] 获取和评估证据的局限性表明,目前可能还无法证明安全性,不确定性可能会依然存在,从而影响政策制定。[14]
处理政策制定中证据不确定性的一种方法是预防原则。其含义可以简化为采取措施避免对人类健康和环境造成损害,即使这些损害尚未得到数据证实。[15] 例如,在美国NHTSA 安全标准中,假设人类驾驶员应始终能够控制机动车的行为,以确保其安全。[16]
然而,从极端意义上讲,预防原则可能会导致人们不采取任何行动。[15] 一种更为适度的做法是采用适应性法规,即通过试点实验等方式创建新的证据,并对其进行审查,以适应技术的发展。[14] 在自动驾驶汽车的情况下,适应性法规可能会成为风险与进步之间谈判的调解者,因为经验和技术变革将为安全考量提供信息。[14]
因此:证据作为道德实体
[edit | edit source]与伦理相关的证据可以定义为,在用于确定算法应如何反应的事故场景中,作为无人驾驶汽车运行结果的调解者。
对自动驾驶汽车进行编程需要解决困境,在这种困境中,算法必须在无解的情况下做出决定,或者在电车难题的前提下做出决定,选择哪些人受到牵连,可能会有损害。与这些决定有关的一个问题是,自动驾驶汽车应该以乘客的利益还是社会的利益行事。尽管这些是哲学思考前提,但它们有助于确定算法在不可避免的碰撞事故中将如何反应。[17]
但是,没有证据表明哪种反应是自动驾驶汽车最佳的应对方式。从功利主义 经济角度来看,它应该最大限度地提高社会总效益,从而使事故造成的总成本最小。从工程角度来看,机器功能和决策的优化胜过伦理和法律考量。[18] 从法律角度来看,优化算法决策以致死是不可辩护的。[19] 必须采用跨学科视角,因为在利益冲突中存在许多矛盾,而且很少有证据表明在这些电车难题中对因素进行明确的优先排序。
社会 文化价值观,在不同国家之间有所不同,塑造了这些社会中个人对规范性 道德信念的看法。[20] 对多个国家的调查表明,人们对自动驾驶汽车的实施存在不同的意见[21],揭示了伦理考量方面的差异。证据的有效性取决于预期结果,而预期结果也会有所不同。由于自动驾驶汽车的测试相对较少,缺乏现实世界的证据来指导解决这些规范性道德观念的差异。
结论
[edit | edit source]本文分析了如何在实践环境和抽象的、情感的形式中评估证据:涉及计算机科学、工程学、统计学、心理学、伦理学和政治学等学科。
参考文献
[edit | edit source]- ↑ Bojarski M, Del Testa D, Dworakowski D, Firner B, Flepp B, Goyal P, Jackel LD, Monfort M, Muller U, Zhang J, Zhang X. 无人驾驶汽车的端到端学习。arXiv 预印本 arXiv:1604.07316. 2016 年 4 月 25 日。1-4。可从 https://arxiv.org/pdf/1604.07316.pdf 访问 [访问时间:2018 年 12 月 7 日]。
- ↑ D'Agostini G. 基于贝叶斯定理的多维展开方法。核仪器与方法物理研究部分 A:加速器、光谱仪、探测器和相关设备。1995 年 8 月 15 日;362(2-3):487-98,可在以下地址找到:https://www.sciencedirect.com/science/article/pii/016890029500274X [访问时间:2018 年 12 月 5 日]。
- ↑ Paden B, Čáp M, Yong SZ, Yershov D, Frazzoli E. 无人驾驶城市车辆的运动规划和控制技术综述。IEEE 智能车辆学报。2016 年 3 月;1(1):33-55。可在以下地址找到:https://ieeexplore.ieee.org/abstract/document/7490340 [访问时间:2018 年 12 月 1 日]。
- ↑ Feldman R. 证据主义、高阶证据和分歧。认知。2009 年 10 月;6(3):294-312。可在以下地址找到:https://www.cambridge.org/core/services/aop-cambridge-core/content/view/FEAB79DBDE02329F572D90BFD011E8E1/S1742360000001362a.pdf/evidentialism_higherorder_evidence_and_disagreement.pdf [访问时间:2018 年 11 月 25 日]。
- ↑ FRY, H. (2018). HELLO WORLD. [S.l.]: Doubleday, pp.122-125。[访问时间:2018 年 11 月 1 日]。
- ↑ Kelly T. 证据。斯坦福哲学百科全书。2016 年冬季版。2016 年。可从以下地址获得:https://plato.stanford.edu/archives/win2016/entries/evidence [访问时间:2018 年 12 月 9 日]。
- ↑ Burns L, Shulgan C. 自主性。建造无人驾驶汽车的追求——以及它将如何重塑我们的世界。第一版。Hypercollins;2018 年。
- ↑ Ostrom L, Wilhelmsen C. 风险评估。工具、技术及其应用。新泽西州霍博肯:John Wiley & Sons, Inc.;2012 年。
- ↑ Slovic, P., Finucane, M., Peters, E. and MacGregor, D. 风险作为分析和风险作为感觉:关于情感、理性、风险和理性的思考。风险分析。2004;24(2): 311-322。可从以下地址获得:https://onlinelibrary.wiley.com/doi/full/10.1111/j.0272-4332.2004.00433.x [访问时间:2018 年 12 月 3 日]。
- ↑ König, M., Neumayr, L. 用户对激进创新的抵制:以无人驾驶汽车为例。交通研究部分 F:交通心理学和行为。2017;44: 42-52。可从以下地址获得:https://www.sciencedirect.com/science/article/abs/pii/S136984781630420X [访问时间:2018 年 12 月 1 日]。
- ↑ Elmaghraby, A. S., Losavio, M. M. 智能城市中的网络安全挑战:安全、保障和隐私。先进研究杂志。2014;5(4): 491-49。可从以下地址获得:https://www.sciencedirect.com/science/article/pii/S2090123214000290 [访问时间:2018 年 11 月 25 日]。
- ↑ Bloom C, Tan J, Ramjohn J, Bauer L. 无人驾驶汽车和数据收集:联网自动驾驶汽车的隐私感知。在:SOUPS '17:第 13 届可用隐私和安全研讨会论文集,2017 年 7 月。USENIX。2017 年。可从以下地址获得:https://www.usenix.org/system/files/conference/soups2017/soups2017-bloom.pdf [访问时间:2018 年 12 月 1 日]。
- ↑ Royall, R. 关于观察误导性统计证据的概率。美国统计协会杂志。2000;95(451): 760-768。可从以下地址获得:https://www.tandfonline.com/doi/abs/10.1080/01621459.2000.10474264 [访问时间:2018 年 11 月 25 日]。
- ↑ a b c d e Kalra, N., Paddock, S. M. 驶向安全:需要多少英里的行驶才能证明自动驾驶汽车的可靠性?交通研究部分 A:政策与实践。2016;94: 182-193。可从以下地址获得:https://www.sciencedirect.com/science/article/pii/S0965856416302129 [访问时间:2018 年 11 月 25 日]。
- ↑ a b Gardiner S. 核心预防原则。政治哲学杂志。2006;14(1):33-60。
- ↑ 美国交通部。为交通的未来做好准备:自动驾驶汽车 3.0。美国交通部;2018 年:6-7。
- ↑ Nyholm S, Smids J. 自驾车事故算法的伦理问题:一个应用的电车难题?. 伦理理论与道德实践. 2016;19(5):1275-1289. 可从以下地址获取:https://link.springer.com/content/pdf/10.1007%2Fs10677-016-9745-2.pdf [访问时间:2018年12月8日].
- ↑ Gogoll J, Müller J. 自动驾驶汽车:支持强制性伦理设置. 科学与工程伦理. 2017;23(3):681-700. 可从以下地址获取:https://link-springer-com.libproxy.ucl.ac.uk/content/pdf/10.1007%2Fs11948-016-9806-x.pdf [访问时间:2018年12月7日].
- ↑ Coca-Vila I. 自驾车在困境中的表现:基于刑法辩护理论的分析. 刑法与哲学. 2018;12(1):59-82. 可从以下地址获取:https://link-springer-com.libproxy.ucl.ac.uk/content/pdf/10.1007%2Fs11572-017-9411-3.pdf [访问时间:2018年12月7日].
- ↑ Chatterjee S, Tata R. 国家间伦理价值观的趋同与分歧:管理行动框架. 人类价值观杂志. 1998;4(1):5-23. 可从以下地址获取:https://journals-sagepub-com.libproxy.ucl.ac.uk/doi/pdf/10.1177/097168589800400102 [访问时间:2018年12月8日].
- ↑ Kyriakidis M, Happee R, de Winter J. 公众对自动驾驶的看法:5000名受访者的国际问卷调查结果. 交通研究 F 部分:交通心理学与行为. 2015;32:127-140. 可从以下地址获取:https://ac-els-cdn-com.libproxy.ucl.ac.uk/S1369847815000777/1-s2.0-S1369847815000777-main.pdf?_tid=af389f4c-b60a-4677-b487-801b008f01e0&acdnat=1544380166_5a51e6744869c182952abdbe0b064d7d [访问时间:2018年12月8日].