跳转到内容

信息技术与伦理/隐私与人工智能

来自维基教科书,开放世界中的开放书籍

隐私问题是人工智能领域数据资源开发和利用的主要威胁之一

隐私与 AI:物联网

[编辑 | 编辑源代码]

概述 物联网 (IoT) 是一个已经存在了一段时间的概念。然而,近年来,它已成为一个被认为重要且广泛传播的概念。该术语的起源可以追溯到十多年前,归因于麻省理工学院 (MIT) 自动识别实验室在联网射频识别 (RFID) 基础设施方面的研究 [1]。如今,物联网设备无处不在,几乎存在于每个部门和行业。根据目前的预测,到 2025 年,物联网设备预计将达到 750 亿台 [2]

隐私风险

[编辑 | 编辑源代码]

物联网发展迅速,其发展速度远超其设备相关的安全和隐私标准。许多人没有意识到他们日常使用的一些工具是物联网设备,也不清楚持续传输的个人和私人信息的数量,用户隐私是一个备受关注和担忧的领域。这项技术为赋予公民权利、使政府透明化以及扩大信息获取提供了巨大潜力。但是,为此,传感器(包括嵌入移动设备的传感器)会收集关于公民生活的各种数据,然后对这些数据进行汇总、分析、处理、融合和挖掘,以提取有用的信息 [13]。然而,人们正在采取各种措施来改善用户隐私,包括 VPN、传输层安全和 DNS 安全扩展。对物联网时代隐私的担忧导致许多人认为隐私和物联网本质上是不相容的。例如,美国公民自由联盟 (ACLU) 表达了对物联网侵蚀人们对自己生活的控制能力的担忧,并表示:“我们根本无法预测这些巨大的力量将如何使用,这些力量不成比例地累积在寻求经济利益的企业和渴望更多控制的政府手中。大数据和物联网可能会让我们更难控制自己的生活,因为我们变得越来越透明,而强大的企业和政府机构则变得越来越不透明。” [3]

隐私缓解措施

[编辑 | 编辑源代码]

人们一直在尝试帮助维护隐私,例如 1974 年的隐私法;然而,这些法律提供的特权不足以应对现代社会。物联网设备将带来新的挑战和灰色地带,以超越政府法律,这些法律是几十年前无法想象的。英国政府试图通过宣布其在实施智能计量计划时将遵循正式的“隐私设计”原则来回应这些日益增长的对隐私和智能技术的担忧,该计划将用智能电表取代传统的电表。这个过程可以更准确地跟踪和管理能源使用;然而,英国计算机协会对这些原则是否真正得到实施表示怀疑。此外,荷兰议会拒绝了类似的智能计量计划,其决定基于对隐私的担忧,尽管该计划后来经过修订并获得通过 [4]

隐私与 AI:制造和供应链管理

[编辑 | 编辑源代码]

概述

AI 对工业领域的供应链管理有益,这些工具帮助优化了资产库存、原材料需求、能源消耗和人员配置。此外,AI 是工业 4.0 的重要贡献者,工业 4.0 是制造技术中当前的自动化和数据交换趋势,它将产生智能产业。这些智能系统依赖于大数据、云计算和机器学习才能发挥作用。然而,数据越多,安全问题就越大,泄露或隐私泄露可能会导致严重的后果 [5]

隐私风险

[编辑 | 编辑源代码]

制造商已经通过各种方式使用 AI 来提高效率、质量和供应链管理,虽然前景广阔,但这些计划并非没有担忧。包含地点、供应商组织详细信息和个人员工详细信息 AI 支持的预测质量和产量工具使用经过训练的算法来理解每个生产过程,可以帮助揭示制造生产中损失的隐藏原因 [6]。不幸的是,如果这些原因的详细信息泄露,如果这些原因是由于错误或疏忽造成的,则可能会损害企业的声誉。预测性维护系统依赖于 AI、机器学习和数学算法来预测后续故障,并提醒员工执行有针对性的维护程序以防止故障。保护这些操作至关重要,因为访问控制机制的破坏可能会更改维护活动的计划,导致智能组件丢失,或者在最糟糕的情况下,由于故障导致人员伤亡。射频识别 (RFID) 系统已在制造行业中得到有效利用,用于跟踪和识别零件。最近的研究发展到改进 RFID 网络规划 (RNP),该规划使用人工神经网络 (ANN) 模型、计算 AI 算法和 RNP 的数学模型来开发 AI 范式,以优化 RFID 网络覆盖范围 [7]。然而,这项技术也存在一定的风险。例如,如果这些算法处理的位置和资产详细信息遭到破坏,可能会给处理有害和关键物质的核能和科学研究工厂带来灾难性的后果。使用设备读数、涡轮机温度、加工周期和 AI 进行的持续数据传输和处理,使自动化和简化特定制造部门变得方便且经济高效。然而,生产要素关键详细信息的泄露会导致知识产权的侵犯。

隐私与 AI:医疗保健

[编辑 | 编辑源代码]

概述 由于技术的进步,人工智能 (AI) 在医疗保健中的应用不断增加。医疗系统中的人工智能有可能推动人类的性能。然而,构建道德人工智能的安全性、公平性和问责制对于将人工智能应用于医疗领域至关重要。随着人工智能被整合到医疗领域,需要解决许多风险和挑战。从保护患者数据隐私、人工智能造成的患者伤害、人工智能和医生的诊断权限等,不胜枚举。 [8]。 这些问题的解决方案很复杂,可能需要立法者通过解决人工智能问题的政策。其他一些解决方案可能需要对医生进行再教育,以适应人工智能系统。

隐私风险

[编辑 | 编辑源代码]

人工智能的发展增多让政策制定者担忧,因为隐私法律和法规已经过时,无法解决人工智能在医疗保健中的能力以及它对健康信息的安全性风险。人工智能需要大量数据才能执行其功能,而这些数据容易受到漏洞和黑客的攻击,他们一直在积极寻找任何发现的漏洞。数据收集引发了关于患者在将信息用于研究、开发和商业目的时的隐私和同意问题,以及人工智能系统生成的数据的知识产权归属问题。 [9]。 此外,人们也担心临床医生与人工智能之间的互动。如果人工智能和医生的诊断出现分歧,会做出什么选择?谁有权否决对方的意见?人工智能系统会完全取代医生吗?这些都是政策制定者需要尽快解决的问题,以避免重复侵犯患者的权利和隐私。

偏见和不平等

[编辑 | 编辑源代码]

人工智能容易出现偏见,这些偏见可能来自不同的开发领域。其中之一是人工智能系统如何调整到特定配置,以及算法如何被编程为输出特定结果,同时忽略其他变量。 [10]。 另一个可能将偏见引入人工智能的领域是使用带有偏见的数据。数据解释和评估的方式可能会受到偏见的影响,从而影响人工智能的有效性和功能。政府可以通过为公共和私营部门之间共享数据提供指导,以获取更通用的数据来涵盖人口群体,从而解决这些问题。政府应该通过制定全面的法规和政策来解决这些偏见,让使用人工智能系统的公司承担责任。

隐私和人工智能:人脸识别

[编辑 | 编辑源代码]

概述

随着数字时代的不断发展,人脸识别已成为组织安全、执法和商业用途的普遍做法。然而,信息技术领域的专业人士需要负责实施道德规范,以提高大众的生活质量,而不是仅仅提高公共和私营部门的监控潜力。鉴于人脸识别在执法中具有合理的使用场景,因此可以合理地主张支持其在提高社会生活质量方面的服务。但要实现这一点,公共和私营部门之间需要制定标准操作程序,以防止人脸识别技术侵犯公民权利。

隐私风险

[编辑 | 编辑源代码]

当使用机器学习来识别测试数据集上的模式时,人脸识别的准确性会提高,这意味着人脸识别的有效性取决于用于开发它的数据。这自然导致了对负责开发人脸识别技术的公司道德底线的评估,因为他们将人脸识别技术作为一种盈利手段。根据用于开发人脸识别技术的数据集的不同,人脸识别可能会存在偏见,当遇到不同的种族、民族和年龄群体时,输出结果可能不一致。另一个风险因素是执行生物识别过程的服务器的信誉度。 [11]。 考虑到所有这些因素,这项技术的开发是不可避免的,因此风险缓解比完全限制其使用更可取。

隐私缓解措施

[编辑 | 编辑源代码]

IT 行业的道德准则支持探索新技术以改善生活质量的想法。但同时,它也要求行业干预,以确保人脸识别技术的实施不会侵犯大众的隐私权。随着越来越多的数据隐私法规推动私营组织选择退出为商业目的收集数据,也可以对人脸识别提出同样的建议。 [12]。 然而,在公众场合,这种监管变得具有挑战性且无效,因为个人会受到执法部门的视频监控,以及在进入具有专有政策的私人商业场所时。对于这些不可避免的情况,最道德的做法是在以下目标下缓解风险因素,将生活质量置于数据变现之上

  1. 减少人脸识别输出中的偏见
  2. 对处理生物识别数据的组织进行合法强制执行安全数据处理实践。
  3. 监管干预,以避免侵犯未被怀疑犯罪的守法公民的隐私权。

隐私和人工智能:自动驾驶汽车

[编辑 | 编辑源代码]

概述

社会正在快速迈向一个完全由可再生能源驱动的未来,而许多发达国家的重点之一是通过淘汰内燃汽车,用全电动汽车来减少碳足迹。这些电动汽车具有独特的优势,可以减少排放,并利用其先进的人工智能能力来实现自动驾驶体验,使道路更加安全。但是,为了让系统按照设计运行,需要使用车辆的传感器收集大量信息,包括关于周围环境和其他车辆的信息、路线历史、个人之间的对话以及通过电话系统连接时的手机通信。由于这些车辆需要持续收集和传输数据,因此数据隐私和保护的优先级至关重要,以防止身份和财务欺诈。以下部分将讨论自动驾驶汽车的隐私侵犯能力以及与自动驾驶汽车数据收集相关的潜在隐私风险。

隐私风险

[编辑 | 编辑源代码]
车主和乘客信息
[编辑 | 编辑源代码]

收集的最关键的数据(尤其是与其他信息结合起来时)是车主和任何乘客的唯一标识符,这些标识符可以与现实世界中的身份关联。该车辆可能需要保存这些信息,以验证个人进行授权使用以及众多可定制的安全、舒适和娱乐设置。基于选定的偏好和其他在使用过程中收集的信息,例如个人之间的对话以及通过电话系统连接时的手机通信,可以高度确定地识别身份。 [13].

位置信息
[编辑 | 编辑源代码]

与车辆乘客相关的定位数据通常会被收集并用于路线规划、回忆之前的目的地、识别兴趣点以及收集实时交通状况。车辆使用的聚合过程,即收集个体且多样化的位置数据并将其组合以预测未来的目的地和移动,可以识别乘客可能希望对公众保密的细节。例如,检查路线和时间戳的模式可能会提供有关乘客的详细信息,例如他们居住和工作的地方以及他们经常访问的任何地点。从个人角度来看,这可能会暴露个人的家庭、政治、职业、宗教和性取向方面的联系,同时也引发了关于跟踪者和虐待者的安全问题。从商业角度来看,这些位置数据可以帮助识别购物偏好和消费习惯,为广告商提供宝贵的营销见解,类似于浏览器 cookie 的使用方式。这种做法的意义包括通过信息娱乐系统提供定制广告,专门将车辆引导到赞助的路线,以便根据收集的数据将乘客暴露给特定公司或目的地[14]

传感器信息
[edit | edit source]

自动驾驶汽车通过传感器学习和运行,这些传感器不断吸收和存储有关周围环境的数据,包括其他车辆和行人,从而引发潜在的隐私问题。这些人并没有同意任何数据收集或使用,并且通常不知道这项技术对他们生活隐私的影响。虽然其他侵犯隐私的技术允许用户选择加入,但自动驾驶汽车系统无法向遇到的每个行人和驾驶员提供通知和选择。人们担心这些传感器可能会被政府秘密用于记录车辆范围内每个人的物理移动,从而能够找到任何地方的任何人,并导致人们担心政治异见人士可能成为目标。这个问题因 GDPR 等监管保护法律而加剧,尤其是“被遗忘权”,在这些情况下无法授予[15]。购买这些新车的人们另一个担忧是保险公司将如何使用系统收集的数据。保险公司辩称,收集有关个人驾驶员、他们的驾驶习惯和他们实时情况感知的特定信息可以为他们提供准确的风险分析。然而,有些人担心这些数据可能会被用在按需付费的模式中,在这种模式下,保险费将根据驾驶表现来确定。

隐私缓解措施
[edit | edit source]

欧盟通过 GDPR 正在引领隐私立法,旨在加强整个欧盟的数据保护,并限制数据向其境外的转移。值得注意的是,GDPR 要求从设计阶段开始就将数据保护纳入其中,这被称为“隐私设计”。使用隐私设计方法并将此优先级嵌入系统中,可以通过扩展保护其自身来保护个人的隐私。为了实现隐私设计,已提出八项设计策略[16]

  1. 使用按需选择收集、匿名化和假名化设计模式,最大程度地减少收集的数据。
  2. 使用加密隐藏数据,包括在传输中和静止状态下的加密,以及模糊网络流量。
  3. 通过分布式方法尽可能地分离个人数据。
  4. 使用 k-匿名性系列技术或差分隐私,在最高级别和尽可能少的细节上聚合数据。
  5. 通过拥有足够的界面和检测潜在的隐私泄露来透明地告知系统的主题。
  6. 使用用户中心的身份管理和端到端加密等技术,让用户控制数据。
  7. 通过适当的访问控制机制执行隐私政策。
  8. 通过记录和审计来证明对隐私政策的合规性。



数据采集中的隐私风险

[edit | edit source]

通过广泛使用各种类型的数据收集设施,智能系统不仅可以通过指纹、心跳和其他生理特征识别身份,还可以根据不同人的行为偏好自动调整照明、房间温度、音乐,甚至睡眠时间。锻炼条件、饮食习惯和身体体征的变化决定了身体是否健康。然而,使用这些智能技术意味着智能系统掌握了大量个人信息,甚至比你自己更了解自己。如果使用得当,这些数据可以提高人类生活质量,但如果私密信息被非法用于商业目的,则会导致隐私侵犯。

云计算中的隐私风险

[edit | edit source]

由于云计算技术易于使用,它提供了一种基于共享池的模型。许多公司和政府机构开始将数据存储在云中。在云中存储私密信息后,该信息会受到各种威胁和攻击。由于人工智能系统对计算能力有很高的要求,云计算已成为许多人工智能应用中的主要架构。因此,在开发此类智能应用程序时,云隐私保护也是人们需要考虑的问题。

知识提取中的隐私风险

[edit | edit source]

从数据提取到知识是人工智能的主要功能。知识提取工具变得越来越强大。许多看似无关的数据片段可以被整合以识别个人行为特征,甚至是性格特征。例如,通过结合网站浏览历史记录、聊天内容、购物流程和其他类型的记录数据,可以描绘一个人的行为轨迹,分析个人喜好和行为习惯,并进一步预测消费者的潜在需求。公司可以为消费者提供必要的先期信息、产品或服务。然而,这些个性化的定制过程伴随着个人隐私的发现和暴露。如何在技术应用的同时规范隐私保护是一个需要与技术应用同时考虑的问题。

                                                                          References

[1] 人工智能——工业 4.0 的驱动力。 (无日期)。Seebo。2021 年 4 月 29 日检索,https://www.seebo.com/industrial-ai/

[2] Azizi, A. (2019)。工业 4.0 中的人工智能技术应用。施普林格

[3] Bryson, J. & Winfield, A. (2017)。人工智能和自主系统伦理设计的标准化。计算机,50(5),116-119。https://doi.org/10.1109/MC.2017.154

[4] Cara Bloom, Joshua Tan, Javed Ramjohn 和 Lujo Bauer。2017 年。自动驾驶汽车和数据收集:联网自动驾驶汽车的隐私感知。第十三届可用性隐私和安全研讨会 (SOUPS 2017)。加州圣克拉拉,357-375。[5] Erkin, Z.、Franz, M.、Guajardo, J.、Katzenbeisser, S.、Lagendijk, I. 和 Toft, T. (2009)。隐私保护人脸识别。施普林格链接。https://link.springer.com/chapter/10.1007/978-3-642-03168-7_14

[6] Froomkin, A. M.、Kerr, I. R. 和 Pineau, J. (2018)。当人工智能胜过医生时:过度依赖机器学习的侵权风险以及如何(不)应对。SSRN 电子期刊,1-67。doi:10.2139/ssrn.3114347

[7] G. Danezis、J. Domingo-Ferrer、M. Hansen、J. Hoepman、D. Metayer、R. Tirtea 和 S. Schiffner。隐私和数据保护设计——从政策到工程。ENISA,2014 年。

[8] Gomes De Andrade, N. N.、Martin, A. 和 Monteleone, S. (2013 年 6 月)。“为了更好地看到你,亲爱的”:在线社交网络中的面部识别和隐私。IEEE Xplore。https://ieeexplore.ieee.org/abstract/document/6461872

[9] Horwitz, Lauren (2019) 物联网的未来迷你指南:蓬勃发展的物联网市场持续增长。Cisco.com,7 月 19 日,于 2021 年 5 月 3 日检索https://www.cisco.com/c/en/us/solutions/internet-of-things/future-of-iot.html

[10] 物联网。 (2021 年 5 月 3 日)。在维基百科中。[物联网]


[11] Lloyd, K. (2018)。人工智能系统中的偏差放大。ArXiv,abs/1809.07842。


[12] Maple, Carsten. (2017) 物联网中的安全和隐私。网络政策杂志,2(2) 155-184

[13] Price II,William Nicholson,医疗系统中的 人工智能:四种潜在转型角色(2019 年 2 月 25 日)。21 耶鲁大学法律与科技特刊 122(2019),18 耶鲁大学健康政策法与伦理特刊 122(2019),密歇根大学公共法研究论文第 631 号,可在 SSRN 获取:https://ssrn.com/abstract=3341692

[14] Such,J. M. (2017)。隐私和自主系统。在第二十六届国际人工智能联合会议论文集,IJCAI-17 中(第 4761-4767 页)https://doi.org/10.24963/ijcai.2017/663

[15] Wortmann,F.,Flüchter,K. 物联网。企业信息系统工程 57, 221–224 (2015)。https://doi.org/10.1007/s12599-015-0383-3


16 Ziegeldorf H, Jan. (2013) 物联网中的隐私:威胁和挑战。安全与通信网络,7(12) 2728-2742。新加坡。检索于 2021 年 4 月 29 日 https://link.springer.com/content/pdf/10.1007/978-981-13-2640-0.pdfhttps://doi.org/10.1007/978-981-13-2640-0

  1. 16
  2. [10]
  3. [{11}]
  4. [11]
  5. [3]
  6. [1]
  7. [2]
  8. [13]
  9. [6]
  10. [11]
  11. [5]
  12. [8]
  13. [4]
  14. [15]
  15. [4]
  16. [7]
华夏公益教科书