跳转到内容

专业/Knightscope 和自动数据机器

来自维基教科书,开放的书籍,开放的世界

Knightscope 成立于 2013 年,是一家总部位于硅谷的私营安全行业初创公司。它以各种自动数据机器 (ADM) 为主要产品,面向私人和公共部门。

ADM 有几种型号,包括固定式、移动式(室内和室外)以及正在开发的全地形版本。 [1]

(从左到右):K3 室内型、K5 室外型、K1 固定型和 K7 多地形自动数据机器 (图片:Business Wire)

这些 ADM 可以按每小时 7 美元的价格出租,并在 15 个州部署。客户必须全天候租用 ADM,并在他们拥有 ADM 的时间段内租用。 [2]

ADM 具有各种功能,包括眼级 360 度视频流和录制、人员检测、车牌识别、热异常检测、信号检测、实时音频广播、双向对讲以及预录制消息。客户可以使用 Knightscope 安全运营中心 (SOC) 监控他们的 ADM,SOC 是一款随任何 ADM 提供的监控应用程序。 [3]

重要的是,ADM “没有武器,将来也不会拥有”,首席执行官 William Santana Li 说。他说,它们“既能起到物理威慑作用,又能每年每台机器生成 90 多 TB 的数据”。 [4] Santana Li 表示,他们生成的数据是为了帮助安保人员完成工作,而不是取代他们。 [5]

Knightscope 目前正在开发“可见和隐藏武器检测”,以便能够识别可疑的凸起物作为武器。 [6]

Knightscope 言论

[编辑 | 编辑源代码]

Knightscope 的高管承认,他们的成功“在很大程度上取决于客户对他们机器的接受程度”。 [7] 考虑到这一点,评估他们的言论可以让我们洞悉其真实性。

爱国主义的呼吁

[编辑 | 编辑源代码]

Knightscope 宣称的使命是“让美利坚合众国成为世界上最安全的国家,改变每个人的一切”。 [8] 首席执行官 William Santana Li 声称,911 事件激发了他这个纽约人,在安保领域进行创新。 [9] 他说,他从小就“相信纽约市的天际线”代表着“美国梦”,而 911“袭击了自由”。 [10] 他认为公民有“基本权利免受犯罪、暴力和恐怖主义的侵害”。 [11]

这些关于爱国主义和国家悲剧的呼吁在其他地方也能找到。Santana Li 说,Knightscope 是“在桑迪胡克发生的事情之后”成立的,因为我们国家“永远不可能在每所学校都配备武装警官”。 [12] 每个 Knightscope 默认模型上都有一面美国国旗,他们的口号之一是“加入我们,成为一股向善的力量”。 [13]

对金钱利益的呼吁

[编辑 | 编辑源代码]

Knightscope 网站上写着“犯罪每年对美国造成超过 1 万亿美元的负面经济影响”。 [14] 首席执行官 Santana Li 说,如果他们的机器能够“将这个万亿美元的问题削减一半”,他们将“改变一切”。 [15] 他谈到这些机器如何减少对大型公司的盗窃,从而“降低每个人的价格”。 [16] 他说,这些机器可以“提高你家房子的价值,因为你住在一个更安全的社区”。 [17] Knightscope 网站上的一篇证明强调,与“传统安保服务”相关的成本节省了“超过 125,000 美元”。 [18]

对控制感的呼吁

[编辑 | 编辑源代码]

尽管呼吁爱国主义或金钱利益,人们可能还是会担心安保人员失业、人工智能偏见,以及技术在人类能够成功的地方失败。Knightscope 通过呼吁人们对控制感来解决这些问题。

网站上的一篇证明强调,“机器... 补充了”现有的安保力量,并且“调度员能够看到机器看到的内容”。 [19] 这篇证明将机器描绘成工具,而不是决策者。

首席执行官 Santana Li 将 Knightscope 的方法称为“明确的‘软件 + 硬件 + 人类’”,他的目标是“机器做单调乏味、计算量大的工作,而人类做战略性和决策性的工作”。 [20] Santana Li 的言论将人类置于驾驶席,机器人只做无聊或无脑的工作,而人类则拍板决定。他的言论分散了人们对“自动数据机器”中的“自动”的注意力。

尽管这些机器的价格刻意低于最低工资,并且导致安保力量减少, [21] 但 Santana Li “非常愤怒”,“200 多万执法人员和私人安保人员... 愿意为你和你家人挡子弹”所提供的技术“有损于这个国家的尊严”。 [22] Knightscope 试图将他们的机器描绘成帮助高尚安保人员的工具,尽管在许多情况下,ADM 都是取代了这些人员。

无家可归群体

[编辑 | 编辑源代码]

机器人不断收集数据,因为它们在勘察周围环境,所以它们激怒了住在公共区域的无家可归者也就不足为奇了。正如旧金山无家可归者联盟执行主任詹妮弗·弗里登巴赫所说,“当你住在户外时,缺乏隐私一段时间后真的很不人道。”[23] 无家可归者在白天被来来往往的人群打扰,而自动数据机器的加入,让他们几乎没有任何隐私。这种反应主要是因为旧金山 SPCA 在 2017 年底使用了一种 ADM。[24]

隐私期望

[edit | edit source]

这些机器不仅影响无家可归者,还影响所有使用公共空间的人。机器人在场时发生的任何事情都可能被记录。虽然有些人会说这种缺乏隐私是不合理的,但李珊珊认为这种期望是毫无根据的。“在公共区域拥有隐私有点奇怪。你没有隐私期望……这些机器运作的地方。”[25] 这句话有一定的道理,因为大多数人的口袋里都有手机这种摄像设备,但机器人的功能不仅仅是持续录像。它们还可以追踪网络数据、进行热成像以及手机不具备的其他功能。[26] 虽然 Knightscope 确实提供了额外的安全保障,但它剥夺了公众在公共空间可能拥有的任何剩余隐私,尤其是无家可归者。额外的安全保障是否值得牺牲隐私,将由企业主和监管机构来决定。

数据隐私

[edit | edit source]

每台 Knightscope 机器每年会生成 90 多 TB 的数据。[27] 虽然 Knightscope 声称只会将这些数据用于安全目的,但最近的隐私丑闻表明,企业并不总是言出必行。[28] 尽管他们对某些不会做的事情做出了声明,但他们没有说明如何处理这些数据。Knightscope 曾表示:“最终,我们将能够预测和预防犯罪。”[29] 所以他们很可能正在利用这些数据来实现这一目标。

偏见风险

[edit | edit source]

普及性和公平性

[edit | edit source]

Knightscope 的目标是让每个人都感到更安全。但是,他们使用的技术可能与这个目标相矛盾。ADM 的一项功能是人员检测。[30] 但面部检测和人体检测本身就存在偏见,因为这项技术尚未发展到足以实现公平的程度。[31]。那些知道自己更有可能被误识别或被贴上“高风险”标签的人不可能感到更安全。

安全感

[edit | edit source]

Knightscope 希望为 ADM 添加的未来功能之一是可疑隆起的检测系统。但该系统在两种情况下无法实现这一目标。情况一,某人合法持有武器,并且合法地隐瞒武器,却会被这些系统识别为高风险,而实际上对该区域没有危险。情况二,某人穿着笨重或形状奇怪的衣服或身体,会被识别为高风险。很容易认为该系统主要能达到抓捕罪犯的目标。但是,该系统能否成功取决于人类判断是否能够在误报情况下取代 ADM 的判断。

人为因素

[edit | edit source]

防止机器判断取代人类判断很难。每台 ADM 每天生成大约 250 GB 的数据。人类不太可能关注任何“不有趣”的事情。而这种做法导致严重后果的例子很多。Uber 委托人类司机“检查”车辆,导致埃莱恩·赫兹伯格死亡。[32] 警察直接相信面部识别技术的结果,结果导致人们被错误逮捕,甚至发生更糟糕的情况。[33] 在知道人们如何与智能系统互动的情况下,将责任转嫁给用户是不道德的。

公众认知

[edit | edit source]

反对

[edit | edit source]

自动数据机器的兴衰取决于公众认知。首席执行官李珊珊认为,机器将会取代人类工作,导致公众抵制。[34] 效率和成本效益的提高需要超过这种成本。这些机器已经遭到了公众的攻击,包括几次人身攻击。在一件事件中,一名醉酒男子开始殴打 K5。[35] 当被问及原因时,他说“它奇怪地看了他一眼”。[36] 在另一件事件中,无家可归者用帆布覆盖了一台 K5,并用烧烤酱涂抹了它。[37] 对于那些无家可归的人来说,公共空间是他们的家,机器人不断入侵是可理解的滋扰。虽然无家可归者是直接受到 K5 影响的一个群体,但其他群体也害怕机器人的发展。亚里士多德·乔治森是一位喜剧演员,他说他最受欢迎的一些帖子攻击和嘲讽了机器人。他的粉丝中有些人说他们应该这样做,这样机器人就永远不会崛起。[38] 他们害怕能够控制人类的人工智能的发展,正如许多科幻媒体所描绘的那样。正如维科萨所说,人类不喜欢机器人,因为他们不是人类,他们不是我们“群体”的一部分。[39]

支持

[edit | edit source]

然而,许多人开始将 Knightscope 机器人拟人化。在一次 Knightscope 机器人掉进喷泉的事件中,一位 Twitter 用户开玩笑说 K5 机器人一定是工作压力太大。[40] Knightscope 的首席执行官也表示,大多数客户最终都会给机器取名字。[41] 虽然这可能并不意味着接受 Knightscope 机器人作为“人类”,但它可能表明客户开始将它们视为我们“群体”的一部分。当学生被问及他们对 Knightscope 机器人的感受时,大多数人表示不应该攻击它们,因为它们是财产。[42] 它们不应享有权利,但也不应该受到伤害。[43] 随着这些不同观点的碰撞,占主导地位的观点将决定 Knightscope 计划的成功。

与其他争议的平行

[编辑 | 编辑源代码]

2012 年,洛杉矶警察局开始使用名为“Stingray”的监控设备。Stingray 能够通过模拟蜂窝塔来拦截大量的手机流量。目标是通过解析这些数据来发现犯罪信息。在四个月内,该设备被用于 21 起调查,其中包括暴力犯罪和非暴力犯罪。[44] 这些用途远远超出了被引用的 Stingray 必要的用例,例如恐怖主义和暴力犯罪的调查。许多组织呼吁停止使用 Stingray,认为它是侵犯隐私的行为。联邦调查局自 1995 年以来一直在使用类似的设备,但由于地方当局的广泛使用,这个问题变得越来越明显。[45] 该设备现在正在巴尔的摩、塔拉哈西和密尔沃基使用。[46]

虽然 Stingray 由联邦执法机构使用,但 Knightscope ADM 由私人组织使用。此外,ADM 公开巡逻它们监控的空间,而 Stingray 则被执法机构秘密使用。最令人担忧的平行之处在于数据的处理。Stingray 采用大规模数据收集,收集的无辜平民的数据比罪犯的数据还要多。收集后如何处理这些数据尚不清楚,一些警察部门正在积极隐瞒其使用情况。[47]

这种 Stingray 的使用与 ADM 相似,因为它们在公共场所存在可疑的隐私侵犯行为。虽然 Stingray 明确侵犯了蜂窝流量的隐私,但 ADM 是一种可见的巡逻元素。但这并不能改变“公共”空间正在迅速变成未知观察场所的事实。

参考文献

[编辑 | 编辑源代码]
  1. https://www.knightscope.com
  2. https://www.sec.gov/Archives/edgar/data/1600983/000114420416141283/v455625_253g2.htm
  3. https://www.knightscope.com
  4. https://www.knightscope.com/invest
  5. https://medium.com/@WSantanaLi/what-if-a-robot-could-save-your-life-88632a76cb3f
  6. https://www.sec.gov/Archives/edgar/data/1600983/000114420416141283/v455625_253g2.htm
  7. https://www.sec.gov/Archives/edgar/data/1600983/000114420416141283/v455625_253g2.htm
  8. https://www.knightscope.com
  9. https://medium.com/@WSantanaLi/what-if-a-robot-could-save-your-life-88632a76cb3f
  10. https://medium.com/@WSantanaLi/what-if-a-robot-could-save-your-life-88632a76cb3f
  11. https://medium.com/@WSantanaLi/what-if-a-robot-could-save-your-life-88632a76cb3f
  12. https://www.mysecuritysign.com/blog/knightscope-k5-robot-replace-security-guards/
  13. https://www.knightscope.com/
  14. https://www.knightscope.com
  15. https://medium.com/@WSantanaLi/what-if-a-robot-could-save-your-life-88632a76cb3f
  16. https://medium.com/@WSantanaLi/what-if-a-robot-could-save-your-life-88632a76cb3f
  17. https://medium.com/@WSantanaLi/what-if-a-robot-could-save-your-life-88632a76cb3f
  18. https://www.knightscope.com
  19. https://www.knightscope.com
  20. https://medium.com/@WSantanaLi/what-if-a-robot-could-save-your-life-88632a76cb3f
  21. https://www.knightscope.com/
  22. https://medium.com/@WSantanaLi/what-if-a-robot-could-save-your-life-88632a76cb3f
  23. https://www.wired.com/story/the-tricky-ethics-of-knightscopes-crime-fighting-robots/
  24. https://www.theverge.com/2017/12/13/16771148/robot-security-guard-scares-homeless-san-francisco
  25. https://www.wired.com/story/the-tricky-ethics-of-knightscopes-crime-fighting-robots/
  26. https://www.knightscope.com/
  27. https://www.knightscope.com/invest
  28. https://www.nytimes.com/2018/09/28/technology/facebook-hack-data-breach.html
  29. https://www.youtube.com/watch?v=89ok1fla1ks&feature=youtu.be
  30. https://www.knightscope.com/knightscope-k5
  31. https://www.wired.com/story/amazon-facial-recognition-congress-bias-law-enforcement/
  32. w:Elaine Herzberg 的死
  33. https://www.wired.com/story/amazon-facial-recognition-congress-bias-law-enforcement/
  34. https://www.sec.gov/Archives/edgar/data/1600983/000114420416141283/v455625_253g2.htm
  35. https://abc7news.com/technology/police-say-drunk-man-knocked-down-robot-in-mountain-view/1915713/
  36. https://abc7news.com/technology/police-say-drunk-man-knocked-down-robot-in-mountain-view/1915713/
  37. https://daily.jstor.org/do-security-robots-signal-the-death-of-public-space/
  38. https://www.nytimes.com/2019/01/19/style/why-do-people-hurt-robots.html
  39. https://www.nytimes.com/2019/01/19/style/why-do-people-hurt-robots.html
  40. https://twitter.com/SparkleOps/status/887038957262786560/photo/1
  41. https://www.nytimes.com/2019/01/19/style/why-do-people-hurt-robots.html
  42. https://www.nytimes.com/2019/01/31/learning/what-students-are-saying-about-how-to-treat-robots-being-resilient-and-ghosting.html
  43. https://www.nytimes.com/2019/01/31/learning/what-students-are-saying-about-how-to-treat-robots-being-resilient-and-ghosting.html
  44. https://www.eff.org/deeplinks/2013/02/secretive-stingray-surveillance-tool-becomes-more-pervasive-questions-over-its
  45. https://epic.org/foia/fbi/stingray/
  46. https://www.citylab.com/equity/2016/10/racial-disparities-in-police-stingray-surveillance-mapped/502715/
  47. https://www.citylab.com/equity/2016/10/racial-disparities-in-police-stingray-surveillance-mapped/502715/
华夏公益教科书