跳转到内容

专业/预测警务

来自维基教科书,开放的世界,开放的书籍

预测警务 是一种执法实践,使用数学、预测和分析方法来预测和预防潜在犯罪。

少数派报告

[编辑 | 编辑源代码]

预测警务的主要普及者之一是 1956 年的短篇故事 少数派报告,作者是 菲利普·K·迪克,以及 2002 年同名 电影。这个短篇故事发生在未来社会,几乎所有犯罪都被消除。这一壮举是通过预犯罪部门实现的,该部门由主角约翰·安德顿创建并领导。预犯罪部门利用三个被称为“先知”的变种人来逮捕潜在的罪犯,防止他们犯罪。

“你可能已经理解了预犯罪方法的基本法律缺陷。我们逮捕的是没有违反法律的人。”

“但他们肯定会,”维特沃尔坚定地肯定道。

“幸运的是,他们没有——因为我们先抓住了他们,在他们进行暴力行为之前。所以犯罪本身的发生是绝对的形而上学。我们可以声称他们有罪。另一方面,他们可以永远声称他们是无辜的。而且,在某种意义上,他们是无辜的。”

——菲利普·K·迪克,《少数派报告》

这个故事准确地预测了当今预测警务面临的许多问题。三个“先知”变种人不仅预测犯罪,还无意识地喋喋不休地谈论他们能看到的未来的一切。这产生了难以处理的数据量,提前几十年预见了 大数据 的问题之一。迪克正确地预测了这大量数据将由机器处理。此外,他预测大数据分析将由于所涉及的统计数据而存在固有的不确定性:变种人的预测经常发生冲突,而“多数报告”足以进行逮捕。

尽管预犯罪系统存在不确定性,但安德顿完全相信它的权威——直到它指控他谋杀了一个他从未见过的人,利奥波德·卡普兰。这表明了一种重要的偏见:人们倾向于支持伤害他人的事物,直到它伤害到他们自己。在现代预测警务中,被指控对特定群体有偏见的系统可能会被那些不受影响的群体中的警官和他们上级的官员所接受。

另一个教训来自故事的反高潮结局。当安德顿自己查看导致他被指控的数据时,很明显系统犯了一个错误。这指出了过度依赖预测模型的危险。根据研究人员 Sonja B. Starr 的说法,文献表明“向法官提供被视为科学和数据驱动的风险预测,可能会增加他们对这些预测的重视程度”。[1] 因此,必须确保人们充分了解这种预测的局限性。

PredPol 是为警察部门提供这种类型软件的公司的一个例子。PredPol 声称犯罪类型往往会聚集,其算法试图使用自激点过程模型来复制这种感知行为[2]。该算法以特定警察部门的记录管理系统 (RMS) 数据作为输入,生成地图上 500 英尺 x 500 英尺区域的输出,预测这些区域最有可能发生犯罪。该算法通过从部门的 RMS 收集三个基本数据点来做到这一点:犯罪类型、犯罪地点和犯罪日期/时间。警察部门通常使用 PredPol 的输出将警官部署到这些高风险区域,根据警官的可用性,他们在这些区域的执勤时间只占他们执勤时间的一小部分。据说由于警官在场,这些地区的犯罪得到了遏制。

支持者

[编辑 | 编辑源代码]

警察部门在实施预测警务软件后通常会取得良好的效果。事实上,圣克鲁斯在第一年看到了入室盗窃案下降了 11%,抢劫案下降了 27%,尽管有些人认为这些数字可能是正常犯罪率波动的结果[3]。在 2012 年,对 200 个警察机构进行的调查中,70% 的警察机构表示,他们计划在未来两到五年内增加预测警务技术的应用[4]。随着 PredPol 的用户群扩展到包含 60 多个警察部门,包括他们最大的客户洛杉矶和亚特兰大,预测警务似乎将成为现代执法中的普遍趋势。

反对者

[编辑 | 编辑源代码]

许多人并不相信像 PredPol 这样的预测警务软件能够按预期工作。尽管 PredPol 支持者重申它只是一种有用的犯罪威慑手段,但有些人声称将区域标记为高风险可能会导致巡逻该区域的警官夸大危险[3]。其他人则认为,由于预测警务并没有真正阻止犯罪,因此它无助于解决该地区的根本问题。事实上,显示犯罪率下降的统计数据可能是具有欺骗性的,因为罪犯可能只是转移到了另一个区域。

一个主要担忧是预测警务软件可能会强化不良习惯,并放大偏见[5]。这是因为该软件有可能导致种族歧视的滑坡。特别是,如果该软件深入挖掘警察部门的 RMS 数据,它很可能找到足够多的由个人偏见造成的逮捕记录,从而做出可能存在种族歧视的决定。如果警官反过来过度依赖该系统,这些偏见可能会导致更多有偏见的逮捕,这可能会进一步混淆作为该软件输入的数据。

此外,虽然 PredPol 在美国拥有广泛的用户群,但一些警察部门一直不愿使用算法警务。2014 年,奥克兰警察局的新研究与规划负责人正在游说使用 PredPol。他不熟悉该社区,但认为预测警务可以增强警力。然而,助理警长保罗·菲格罗瓦反对伯奇使用 PredPol 的提议。在接下来的几个月里,伯奇正在等待 10 万美元来实施 PredPol,他开始了解这个社区。一旦资金获批,他就意识到了菲格罗瓦早些时候指出的缺陷——主要是该技术将加剧对警官的不信任。基于这一点以及其他湾区警察部门放弃该技术的新闻,伯奇撤回了他的资金申请。[6]

类似技术

[编辑 | 编辑源代码]

Northpointe 犯罪风险评估

[编辑 | 编辑源代码]

北pointe 犯罪风险评估项目使用统计数据来预测个人罪犯的再犯可能性。与 PredPol 不同的是,北pointe 的评分在个人层面上使用,并帮助做出诸如假释批准之类的决定。由于这使得针对特定个人成为可能,ProPublica 开始了一项研究,以调查是否存在偏见。 [7] ProPublica 发布了一份长篇报告,概述了他们声称是偏见证据的统计数据。尽管统计数据有多种解释,但该研究强调了一些软件明显失效的个别案例。在一个案例中,一名在青少年时期因轻微罪行被判有罪的黑人女性被赋予了比一名被判有罪的持械抢劫的白人男性更高的评分。该女性从未再次被逮捕,而该男性因类似罪行再次入狱。虽然很难确定这是由于软件中的故障还是更深层次的偏见造成的——许多预测软件是“黑盒子”,算法对用户隐藏——但 ProPublica 针对其在决定人们未来中的使用提出了宝贵的担忧。

伦理问题

[edit | edit source]

影响平民的问题

[edit | edit source]

正如 PredPol 和北pointe 所描述的那样,预测性警务与许多潜在的伦理问题相关。最大的批评之一是,无论算法是否有偏见,算法使用的数据本身就存在偏差。这是由于历史上某些群体的人被执法部门不公平地针对。如果这些数据用于预测性警务,那么它将导致警察更加集中地针对这些地区,从而形成一个偏见反馈回路。因此,很难防范有偏见的历史数据。

此外,为了保护他们的知识产权,开发这些算法的公司不会发布技术细节。虽然这是一种可以理解的商业行为,但它在许多人中造成了不信任。这使得无法判断开发人员实施算法的伦理问题。由于这些程序还处于起步阶段,可能需要数年时间才能出现任何揭露软件有偏见性质的举报人,或者更确凿的证据证明软件确实有助于减少犯罪。

影响警官的问题

[edit | edit source]

虽然只考虑预测性警务对平民的影响很诱人,但同样重要的是要考虑对警官的影响。在加州伯班克市,一项全部门调查发现,75% 的警官士气“低或极低”,部分原因是部门使用 PredPol。警长克劳迪奥·洛萨科解释说:“这就像告诉一个拥有 20 年经验的渔夫,我们将告诉你如何钓鱼。”[8] 因此,该市的警官不再需要花时间在突出显示的区域。[9]

警官关注的另一个问题是自动化问题。在 PredPol 的主页上,洛杉矶警察局长查理·贝克被引用说:“我不会得到更多资金。我不会得到更多警官。我必须更好地利用现有资源,而这正是预测性警务的意义所在。”[10] 虽然这从管理人员的角度来看确实很有吸引力,但它应该引起巡逻警官的担忧。由于补偿效应,贝克的陈述有一个推论:如果预测性警务的承诺得到实现,那么对他们当前职位上的警官的需求可能会减少。警官因此被置于一个困难的境地——如果预测性警务能够阻止更多犯罪,那么他们就应该支持它,即使是以他们自己生计为代价。这种自动化导致更高效率和更少需要工人的问题,几乎适用于所有职业。

参考资料

[edit | edit source]
  1. Starr, S. (2014). Evidence-Based Sentencing and the Scientific Rationalization of Discrimination. Stanford Law Review, 66(4), 803 - 872.
  2. PredPol. (2015). How PredPol Works. Retrieved May 08, 2017, from http://www.predpol.com/how-predpol-works/
  3. a b Huet, E. (2015). Server and protect: Predictive policing firm predPol promises to map crime before It happens. Forbes. Retrieved May 08, 2017, from https://www.forbes.com/sites/ellenhuet/2015/02/11/predpol-predictive-policing/#5c37d1b64f9b.
  4. Police Executive Research Forum. 2014. Future Trends in Policing. Washington, D.C.: Office of Community Oriented Policing Services.
  5. Smith IV, J. (2016). Crime-prediction tool PredPol amplifies racially biased policing, study shows. Retrieved May 08, 2017, from https://mic.com/articles/156286/crime-prediction-tool-pred-pol-only-amplifies-racially-biased-policing-study-shows#.9Voi4FTYF.
  6. Thomas, E. (2016, December 28). Why Oakland Police Turned Down Predictive Policing. Retrieved May 08, 2017, from https://motherboard.vice.com/en_us/article/minority-retort-why-oakland-police-turned-down-predictive-policing
  7. Julia Angwin, Surya Mattu, Jeff Larson, Lauren Kirchner. (2016, May 31). Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And it’s Biased Against Blacks. Retrieved May 08, 2017, from https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  8. Jack Smith. (2016, Oct. 10). Crime-prediction tool may be reinforcing discriminatory policing. Retrieved from http://www.businessinsider.com/predictive-policing-discriminatory-police-crime-2016-10
  9. Alene Tchekmedyian. (2016, Oct. 4). Police push back against using crime-prediction technology to deploy officers. Retrieved from http://www.latimes.com/local/lanow/la-me-police-predict-crime-20161002-snap-story.html
  10. http://www.predpol.com/
华夏公益教科书