跳转至内容

专业精神/黛安·沃恩与偏差的正常化

来自维基教科书,为开放世界而开放的书籍

黛安·沃恩是一位美国社会学家,她大部分时间都致力于“私人生活中的紧张局势”和“组织中的偏差”等不同的主题。 [1] 她指出,“我发现,在常见的、例行的不合规行为、错误、不当行为和灾难中,环境、组织、认知和选择之间的相互联系系统地产生了这些行为。这些模式放大了人们对社会结构的了解,并对理论、研究和政策有影响。”[2] 沃恩关于大型组织内部不当行为的理论之一是偏差的正常化。

黛安·沃恩

[编辑 | 编辑源代码]

黛安·沃恩是哥伦比亚大学社会学系的教授。“黛安·沃恩于 1979 年在俄亥俄州立大学获得社会学博士学位,并于 1984 年至 2005 年在波士顿学院任教。在此期间,她获得了耶鲁大学(1979-82 年)、牛津社会法律研究中心(1986-87 年)、美国律师基金会(1988-1989 年)、普林斯顿高级研究所(1996-1997 年)和约翰·西蒙·古根海姆纪念基金会(2003-04 年)的奖学金。她于 2005 年来到哥伦比亚大学。[3] 她最近的工作包括使用定性数据(如访谈)来研究大型群体或组织如何影响个人的决策。[4]

哲学:什么是偏差的正常化?

[编辑 | 编辑源代码]

偏差正常化的描述

[编辑 | 编辑源代码]

“偏差的社会正常化意味着组织内部的人对偏差行为习以为常,以至于他们不再将其视为偏差行为,即使这些行为远远超过了他们自己对基本安全的规则。”[5]。这种偏差行为越频繁,人们就越习惯它。 [6]。对于组织外部的人来说,这些活动似乎是偏差的;然而,组织内部的人并不认识到这种偏差,因为他们将其视为正常现象。事后看来,组织内部的人意识到他们看似正常的行为是偏差的。

挑战者号发射决策

[编辑 | 编辑源代码]

黛安·沃恩在《挑战者号发射决策》中发展了她的偏差正常化理论。她详细描述了在航天飞机计划的开发阶段,偏差正常化如何导致航天器设计中出现危险的设计缺陷。评估固体火箭助推器上的接头的团队进行了分析,以找出“接头性能的极限和能力。每次,最初被解释为与预期性能偏差的证据都被重新解释为在可接受风险的范围内。”[7]。这种风险的接受导致挑战者号于 1986 年 1 月 28 日上午爆炸。

莫顿·硫磺公司与美国国家航空航天局签订了合同,负责制造用于航天飞机计划的固体火箭助推器(SRB)。1981 年,人们发现了用于密封 SRB 上 O 形圈的油灰存在问题。当油灰添加到助推器中时,会形成气泡。在起飞过程中,SRB 内部的气体将通过气泡,导致“局部高温射流,该射流直接钻入 O 形圈”。[8]。莫顿·硫磺公司更换了油灰和油灰的应用方法,并认为问题已经解决。工程师们知道油灰侵蚀仍然可能发生,但发生灾难性事故的可能性很小。美国国家航空航天局认为油灰侵蚀是飞行中的可接受风险。美国国家航空航天局和莫顿·硫磺公司将油灰侵蚀描述为一种异常现象,这是可以预料的,因为 SRB 是一种非常新的技术。随后的试飞显示油灰侵蚀被美国国家航空航天局和莫顿·硫磺公司认为是可以接受的,即使接头实际上“偏离了预期的性能”。[9]

美国国家航空航天局和莫顿·硫磺公司在评估 SRB 的安全性时,也遭受了偏差正常化的困扰。黛安·沃恩指出,“由于[美国国家航空航天局和莫顿·硫磺公司]反复观察到问题却没有造成任何后果,因此他们到了认为在存在缺陷的情况下飞行是正常且可接受的程度。”[10]。1986 年 1 月 28 日,这两个组织内部的偏差正常化导致了航天飞机挑战者号和机上 7 名宇航员的损失。

说明性案例

[编辑 | 编辑源代码]

1990 年伊莎贝拉·斯图尔特·加德纳博物馆艺术品盗窃案

[编辑 | 编辑源代码]

1990 年 3 月 18 日,美国历史上最轰动的艺术品盗窃案发生了。位于波士顿的伊莎贝拉·斯图尔特·加德纳博物馆在凌晨 1:24 允许两名假冒警官的盗贼进入大楼,导致包括三幅伦勃朗和一幅维米尔的绘画和其他艺术品被盗。赃物的价值估计在 3 亿到 5 亿美元之间。截至撰写本文时,尚未找回任何一件艺术品。[11] 坐在安保控制台的警卫当时是一名 23 岁的伯克利音乐学院的学生。在一次采访中,他称这份工作是“世界上最无聊的工作”,并承认自己经常在上班时吸食大麻,尽管案发当天早上他没有吸食。[12] 控制台的警卫说,“他决定让他们进来,因为他感到有义务服从警官的要求。” 问题是,他违反了两项主要规定:(1)在非工作时间内,禁止未经博物馆工作人员召唤的人进入加德纳博物馆;以及(2)不得无人看管安保控制台。[13] 加德纳博物馆的领导层非常清楚这种骇人听闻的安全漏洞,因为在一年之前,一份将整个安保系统移至仅可通过通行证进入的控制室的正式建议提交给了博物馆馆长。[14]

这是规范化偏差的示例,当允许错误或其他类型“毒素”(如小偷)利用系统的协议或规则违规被反复确认时。系统操作员由于非事件而变得粗心大意和懈怠;警卫没有接受过培训或经验不足;他们声称甚至不知道如果警察突然出现该怎么办,尽管安全手册中明确说明了拒绝进入博物馆的规定。[13] 这表明,执行有规则约束的任务的专业人员,特别是与可能导致严重伤害和伤害的复杂和有风险的干预措施相关的专业人员,必须意识到偏离护理标准的危险。这种偏差越是被允许,它们就越规范化。[13] 这表明,违反规则和实践标准形式的偏差行为是造成盗窃的主要原因。

康科迪亚号邮轮事故

[edit | edit source]

2012年1月13日,游轮康科迪亚号在意大利海岸附近发生事故。这场灾难造成船上4,252名乘客中的32人遇难[15]。这起沉船事件可以归咎于船长和船员的疏忽。他们所有的行为都是因为在游轮行业中规范化了偏差。船长弗朗切斯科·斯凯蒂诺首先决定走一条未经批准的航线,因为游轮靠近该特定岛屿是传统[16]。靠近通过为岸上的人们创造了一场奇观。这种行为是常态,但每位船长都偏离了他们批准的航线。船长在撞上暗礁后还犯了另一个错误,因为他没有及时发出弃船命令[17]。疏散应该不超过一个小时,但在船搁浅后变得恐慌。匆忙的疏散导致船长和船员犯了许多错误。船长甚至在所有乘客和船员撤离之前就离开了船。由于船上的疏忽文化,这场灾难比本可能发生的情况要严重得多。

医疗保健中的偏差规范化

[edit | edit source]

偏差规范化一直是医疗保健中的一个主要问题。例如,存在一些问题,例如未能检查或记录实验室结果、开错了药物或将实验室结果输入错误的患者图表中,通常不足以保证发生伤害。

一个例子是,一名三年级医学生说:“我观察到了一场非常艰难的手术。在手术进行大约两个小时之后,经历了一系列挫折之后,外科医生无意间碰到了他正在使用的器械的尖端,碰到了他的塑料面罩。他没有要求或被提供无菌替换,他只是僵住了几秒钟,而手术室里的其他所有人都盯着他。然后,外科医生继续手术。五分钟后,他又做了一次,仍然没有人采取任何行动。我很困惑,但在手术结束后,当我问其中一名护士的时候,她说:“哦,没什么大不了的。我们给病人服用抗生素,他会没事的。”事实上,这就是发生的事情;病人恢复得很好”[18]

我们可以用健康作为例子,说明为什么偏差在公司中会被规范化。以下是发生这种情况的四个主要原因

  1. “这些规则很愚蠢,效率低下。”当规则、法规或标准似乎不合理或效率低下时,系统操作员通常会发明捷径或变通方法。
  2. 知识不完善且不平衡。系统操作员可能不知道存在特定规则或标准;或者,他们可能被教导了一种系统偏差,而没有意识到这一点。
  3. “我为了患者的利益而违反了规则!”这种对规则偏差的理由是,规则或标准被认为是适得其反的。
  4. 员工害怕说出来 显然,如果目击者拒绝干预,规则违规行为被规范化的可能性就会增加。然而,2005年对1,700多名医疗保健专业人员进行的一项研究发现,“与人对抗既困难又不可能”。[19]

解决方案

[edit | edit source]

整个组织的无知是问题所在,因此教育是解决偏差规范化的最佳方法。戴安·沃恩指出,“对正在发生的事情的无知是组织性的,它阻止了任何阻止正在发生的伤害的尝试”。[20] 清楚地说明标准并奖励举报人是应该进行的教育的一部分。公司必须对其标准以及不符合标准的后果透明。此外,创建一个更少个人主义、更多以团队为基础的文化有助于阻止偏差规范化。每个人都应该为整个公司和团队负责。如果是更多以团队为基础的,如果有人违反了规则,每个人都会觉得他们辜负了他们的同事。自上而下的方法非常重要。如果员工看到高管违反规则,他们会觉得这是公司文化中的正常现象。偏差规范化比纠正更容易预防。公司必须确保他们采取正确的措施来预防它。

参考文献

[edit | edit source]
  1. http://www.consultingnewsline.com/Info/Vie%20du%20Conseil/Le%20Consultant%20du%20mois/Diane%20Vaughan%20%28English%29.html)
  2. http://crime.kimberlymbaker.com/wp-content/uploads/2009/01/vaughan.pdf
  3. http://sociology.columbia.edu/node/180
  4. http://sociology.columbia.edu/node/180
  5. http://www.consultingnewsline.com/Info/Vie%20du%20Conseil/Le%20Consultant%20du%20mois/Diane%20Vaughan%20(English).html
  6. http://www.consultingnewsline.com/Info/Vie%20du%20Conseil/Le%20Consultant%20du%20mois/Diane%20Vaughan%20(English).html
  7. Vaughan, D. (1996). The Challenger launch decision : risky technology, culture, and deviance at NASA. Chicago: University of Chicago Press.
  8. Vaughan, D. (1996). The Challenger launch decision : risky technology, culture, and deviance at NASA. Chicago: University of Chicago Press.
  9. Vaughan, D. (1996). The Challenger launch decision : risky technology, culture, and deviance at NASA. Chicago: University of Chicago Press.
  10. http://www.consultingnewsline.com/Info/Vie%20du%20Conseil/Le%20Consultant%20du%20mois/Diane%20Vaughan%20%28English%29.html
  11. http://www.boston.com/news/specials/gardner_heist/heist/
  12. http://www.boston.com/news/specials/gardner_heist/heist/
  13. a b c Banja, John (2010). "医疗保健服务中偏差的规范化". 商业视野. 53 (2): 139. doi:10.1016/j.bushor.2009.10.006. PMC 2821100. PMID 20161685.
  14. http://www.boston.com/news/specials/gardner_heist/heist/
  15. http://en.wikipedia.org/wiki/Costa_Concordia_disaster
  16. http://www.cargolaw.com/2012nightmare_costa_concor.html
  17. http://www.bbc.co.uk/news/world-europe-16584591
  18. http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2821100/
  19. (Maxfield, Grenny, Patterson, McMillan, & Switzler, 2005b, p. 10)
  20. http://www.consultingnewsline.com/Info/Vie%20du%20Conseil/Le%20Consultant%20du%20mois/Diane%20Vaughan%20(English).html
华夏公益教科书