专业/医学、人工智能和专业判断
医疗专业人员的作用可以从不同的角度来解释,从为人类服务和促进医疗艺术[1]到通过识别、诊断和治疗临床疾病来恢复健康[2]。医疗专业人员必须遵守指导临床医学和科学研究的规则和原则体系,称为医学伦理。专业伦理学家建议将这四个原则[3]融入医学领域的决策中。
- 自主:患者有权决定自己的医疗保健。
- 公正:在社会中分配护理的利益和负担。
- 仁慈:为患者做好事。
- 无害:确保你不伤害患者。
这些价值观有助于专业人员考虑所有价值观、事实和逻辑,以确定最佳行动方案。
人工智能 (A.I.) 是一种机器学习,它使用复杂的程序和算法来执行人类认知功能,例如感知、推理和学习[4]。随着过去十年计算能力和数据量的增加,基于 A.I. 的系统越来越多地用于改进和发展许多领域和行业,例如农业、政府、金融和医疗保健。在医疗保健中,基于 A.I. 的系统提高了跨多个专业的诊断和治疗的准确性和效率。例如,计算机辅助诊断 (CAD) 通常用于检测医学图像中的异常。放射科医生目前使用 CAD 系统的计算机输出作为乳腺癌诊断的“第二意见”[5]。IDx 是一家 A.I. 诊断公司,开发了 IDx-DR,这是一种 CAD 系统,可以分析视网膜图像以寻找糖尿病性视网膜病变的迹象。IDx-DR 是第一个获得 FDA 批准在任何医学领域提供诊断决策的自主 A.I. 系统[6]。基于 A.I. 的系统还可以使用临床数据科学来分析数据并协助医生。临床决策支持系统 (CDSS) 利用患者快速增长的数量和质量数据,例如电子健康记录、患者调查和信息交换,来制定医疗建议。为了使高质量的计算机化 CDSS 有效,需要进行深思熟虑的设计、实施和批判性评估[7]。
将基于 A.I. 的系统纳入临床环境的速度很慢,因为许多人仍然担心此类系统会取代医生。美国医学会 (AMA) 医学伦理杂志 支持基于 A.I. 的系统作为辅助而不是取代临床医生的补充工具。他们提请注意基于 A.I. 的系统中出现的一些伦理风险,例如对机密性、隐私、知情同意和患者自主权的威胁[8]。在AMA 医学伦理杂志进行的一项案例研究中,通过分析由 IBM 开发的先进问答计算机系统沃森,调查了 CDSS 在临床环境中的使用情况。在这项研究中,概述了在临床实践中使用此类工具的益处、风险和预防措施。像沃森这样的 CDSS 有一些好处,例如能够检测人类医生可能忽略的模式。但是,这些系统也可能生成超出当前临床护理标准的建议,从而增加医生最终诊断的不确定性。随着技术创新的增加,诊断错误的机会也随之增加,因此也提到了责任问题。这可能导致患者健康状况出现不利后果,在医生提出专业建议时,会对医生造成额外的责任。随着患者数据量和复杂性的增加,对沃森等自动化和智能系统的需求也随之增加[9]。但是,在医疗保健环境中使用任何基于 A.I. 的系统之前,有必要进行彻底的分析,以确定其局限性和风险。
随着 A.I. 在医疗保健中的普及,识别 A.I. 故障模式对于避免该领域的伦理问题至关重要。例如,如果模型的目标指定错误,A.I. 可能会失败。如果模型被编程为最大化利润而不是拯救生命,那么该模型可能会引入种族偏见或患者偏好。不正确的环境假设,例如主要针对极端情况训练的算法,会导致模型无法识别患者为正常或健康[10]。任何这些故障模式或其他故障模式都可能导致伦理挑战。模型可能难以解释,使医生难以向患者解释他们的发现。模型可能会过度使用和过度分享信息,或者使用诸如收入、种族或性别等特征,这些特征更多地反映了社会不公正,而不是预测信息。
Optum 是明尼苏达州伊甸园草原的一家公司,开发了许多商业算法,这些算法是医疗系统用来识别所有年龄和种族的患者复杂健康需求的众多算法之一。这些算法旨在提高医疗保健效率,降低成本,并且针对 Optum 特别地,“提高收入周期准确性”。[11] Optum 开发了一种算法来估计患者的风险评分及其治疗的紧迫性。该算法被美国八家顶级健康保险公司、两家大型医院和精算师协会使用,有效地影响了美国数百万患者的护理和治疗。2019 年 10 月,发表了一篇名为“剖析用于管理人群健康的算法中的种族偏见”的文章,揭露了 Optum 开发了一种种族偏见的风险分类算法。[12] 该研究发现,在任何给定的风险分类估计中,黑人患者都比白人患者病得更重。特别是,患有与白人患者相同数量慢性病的黑人患者,在算法预测的每个风险评分百分位数中都被预测为风险较低。此外,对于每个慢性病数量,医院记录的黑人患者的总医疗支出都低于白人患者。研究人员发现,纠正这种差异将使接受额外帮助的黑人患者比例从 17.7% 提高到 46.5%。[12] 在这项研究中,作者强调,尽管血统不是用于训练预测算法的变量,但医疗费用是。由于医疗费用与种族高度共线,因此被确定为算法中偏见的主要来源。Optum 重复了 Obermeyer 的分析,并能够验证算法的偏见。Obermeyer 提出与 Optum 一起纠正这种不公正行为,寻找除医疗费用之外的风险评分预测变量。他们共同努力将预测偏差降低了 84%。[13] 在发表文章后的采访中,Obermeyer 强调,医疗保健风险分类中的偏见“不是一个算法或一家公司的問題”,而是一种“整个系统如何处理这个问题”的复杂问题。[13] 在告别语中,Obermeyer 指出,人工智能必须辅以医疗保健中的决策,而不是依赖人工智能,否则该领域将无法避免未来出现此类道德问题。
医生的职业判断
[edit | edit source]背景
[edit | edit source]医生的判断是医患之间保密关系的先决条件,也称为 DPR,即医患关系。职业判断条例旨在提高医疗治疗的成功率,并保护患者的隐私和个人权利。[14] 对于医生来说,应对各种法律法规可能非常困难。联邦法律和医疗保健管理机构都制定了许多道德法规。
职业判断条例和挑战
[edit | edit source]以下是规范医疗职业判断的一些方面。
亲属
[edit | edit source]医生在法律上不能为自己的亲属做出治疗决定。原因不言自明,人们担心在涉及救生措施时会存在偏见。[14]
同行医生
[edit | edit source]在同行医生之间也必须遵守医疗判断。如果患者在联合/进一步治疗的情况下保持知情,则这将不成问题。以下情况存在问题:未经患者知情,咨询其他医生;联合诊所和诊所网络。[14]
媒体
[edit | edit source]就媒体而言,没有任何情况可以证明在未经患者同意的情况下向媒体提供患者信息是合理的。[14]
精神疾病
[edit | edit source]职业判断原则概述了医生在对精神疾病患者进行治疗方面的职业判断。根据该原则,医生可以自行判断是否向正在接受精神或情感治疗的患者展示其记录。披露取决于医生是否认为查看记录会对患者造成伤害。[15]
HIPAA
[edit | edit source]《健康保险流通与责任法案》(HIPAA) 包含许多关于患者隐私的规定。关于职业判断,隐私规则和知情同意原则至关重要。知情同意是指在对个人进行医疗干预或披露个人信息之前获得其许可的过程。[16]
患者权益维护
[edit | edit source]患者权益维护者主要参与道德上有争议的案件,无论是家庭成员、朋友还是专业权益维护者。权益维护者对 DPR 施加了两种不同的压力。首先,可能存在“医疗保健从业人员的预期职责与合理预期之外的行为之间的冲突”。其次,对于任何受过专业培训的人来说,“区分患者意愿的实际表达与权益维护者认为对患者最有利的断言”可能很困难。[17]
新患者
[edit | edit source]医生没有无限的权力拒绝接受某人作为新患者。医生不能以种族、性取向或宗教为由拒绝接受某人。[18]
生命维持和姑息治疗
[edit | edit source]技术的进步使我们能够延长生命,因此导致了医生在移除生命维持装置方面所面临的道德上有争议的案件的数量和复杂程度的增加。在美国,生命维持的拒绝和撤回主要可以通过《知情同意》和《知情拒绝》的原则得到合法证明。
临床医生的权利
[edit | edit source]良心拒服是指医生根据良知选择不提供或不建议某些类型的干预措施的能力,这通常在法律中得到保障。他们必须确保患者了解这一决定,并且能够及时从另一名专业人员那里获得应得的治疗。如果以良心为由拒绝提供医疗服务,则责任医生将受到惩罚,很可能被吊销执业资格。[19]
大多数医疗保健系统都有一个资源,应该在任何伦理上模棱两可的情况下进行咨询。医生可以向伦理委员会成员寻求帮助,以审查正确的法律程序。伦理委员会是为任何认为存在未得到妥善解决的伦理挑战问题,并希望在解决问题方面获得进一步帮助的患者、家属或员工提供的咨询服务。这是一个由医生、护士、社会工作者、行政人员、牧师和其他员工组成的多学科团队。[20]
- ↑ Markose, A., Krishnan, R., & Ramesh, M. (2016). 医疗伦理。药学与生物联盟科学杂志, 8(Suppl 1), S1–S4. https://doi.org/10.4103/0975-7406.191934
- ↑ Sendín, R. (2010, 12 月 13 日)。医疗专业人员的定义。CGCOM | 西班牙官方医师学院理事会。https://www.cgcom.es/print/2821
- ↑ 什么是医疗伦理,为什么它很重要?(无日期)。Medscape。2020 年 5 月 6 日检索自 http://www.medscape.com/courses/section/898060
- ↑ Ahuja, A. S. (2019)。人工智能在医学中的影响对未来医生角色的影响。PeerJ, 7. https://doi.org/10.7717/peerj.7702
- ↑ Doi, K. (2007)。医学影像中的计算机辅助诊断:历史回顾、现状和未来潜力。计算机化医学影像与图形:计算机化医学影像协会官方期刊, 31(4–5), 198–211. https://doi.org/10.1016/j.compmedimag.2007.02.002
- ↑ Abràmoff, M. D., Lavin, P. T., Birch, M., Shah, N., & Folk, J. C. (2018)。基于人工智能的自主诊断系统的关键试验,用于检测初级保健办公室的糖尿病视网膜病变。Npj 数字医学, 1(1)。https://doi.org/10.1038/s41746-018-0040-6
- ↑ Wasylewicz, A. T. M., & Scheepers-Hoeks, A. M. J. W. (2019)。临床决策支持系统。在 P. Kubben、M. Dumontier 和 A. Dekker (编) 中,临床数据科学基础。施普林格。http://www.ncbi.nlm.nih.gov/books/NBK543516/
- ↑ Rigby, M. J. (2019)。在医疗保健中使用人工智能的伦理维度。美国医学会伦理学杂志, 21(2), 121–124. https://doi.org/10.1001/amajethics.2019.121.
- ↑ Luxton, D. D. (2019)。应该咨询沃森以获取第二次意见吗?美国医学会伦理学杂志, 21(2), 131–137. https://doi.org/10.1001/amajethics.2019.131.
- ↑ Anton Korinek,由,& Balwit, A. (2020)。人工智能故障模式和人工智能控制问题。
- ↑ 企业医疗保健解决方案和服务。 (2020)。2020 年 5 月 3 日检索自 https://www.optum.com/en.html
- ↑ a b [Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019)。剖析用于管理人口健康的算法中的种族偏见。科学, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342
- ↑ a b [Simonite, T. (2019)。医疗保健算法对黑人患者提供的护理更少 | WIRED。2020 年 5 月 3 日检索自 Wired 网站:https://www.wired.com/story/how-algorithm-favored-whites-over-blacks-health-care/
- ↑ a b c d Richter-Reichhelm, M. (1999, 12 月)。医生对亲属、同事和媒体的医疗自由裁量权。 https://www.ncbi.nlm.nih.gov/pubmed/10683889
- ↑ DeVore, A. (2015)。医生办公室的电子健康记录:带有 SimChart 的医疗办公室。密苏里州圣路易斯:爱思唯尔。
- ↑ Compliancy Group。 (2019 年 10 月 11 日)。HIPAA 和知情同意法。检索自 https://compliancy-group.com/hipaa-and-the-law-of-informed-consent/
- ↑ Schwartz, L. (2002 年 2 月 1 日) 屋里有倡导者吗?医疗保健专业人员在患者倡导中的作用,医学伦理学杂志, 28(1), 37-40。
- ↑ McKoy, J. M. (2006 年 5 月 1 日)。提供服务的义务:医生-公共辩护人比较。检索自 https://journalofethics.ama-assn.org/article/obligation-provide-services-physician-public-defender-comparison/2006-05
- ↑ Savulescu, J. (2006 年 2 月 4 日)。医学中的良心拒服。检索自 https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1360408/
- ↑ 伦理咨询。 (无日期)。检索自 https://www.urmc.rochester.edu/highland/patients-visitors/hospital-services/ethics-consultation.aspx