《医疗中人类与AI协作的委托自主决策支持》
2025年3月26日
![图片]()
人工智能(AI)在医疗领域的应用正在迅速发展,但其成功实施依赖于有效的人类与AI协作。当前的主流模式将AI工具定位为纯粹的辅助角色,所有临床决策权仍由人类医生掌握。然而,这种模式可能限制了AI潜力的发挥,甚至在某些情况下降低了诊断的准确性。本文提出了一种名为“自主决策支持”的新方法,通过委托标准将部分病例交由AI自主处理,同时在其它病例中保留AI的辅助角色,从而在保证患者安全的前提下提高医疗的整体效率。
●顺序临床工作流:医生首先对病例进行初步评估,随后AI工具的输出结果提供给医生,供其进一步参考后做出最终决策。
●并行临床工作流:AI工具的输出结果在医生开始决策时即同步提供。
这两种模式虽然旨在通过“人在环”模式为患者提供安全保障,但实际效果存在争议。研究表明,AI的辅助可能导致医生产生无意识的认知偏差,例如锚定效应或确认偏误,从而降低诊断准确性。此外,这种模式未能充分利用AI的效率优势,因为所有决策仍需医生参与,增加了本已超负荷工作的医务人员的负担。
![图片]()
针对现有模式的不足,本文提出了一种创新的“自主决策支持”方法。该方法通过委托标准将病例分配到以下三种路径之一:
●医生与AI协作:AI的预测结果作为医生的决策支持,医生做出最终决定。
与现有模式相比,该方法在第三种路径中进一步优化,不仅提供AI的预测结果,还解释其预测依据,使医生能够更高效地接受、拒绝或修改AI的建议。
![图片]()
委托标准是自主决策支持方法的核心,其设计需综合考虑以下因素:
●任务类型:评估临床任务是否适合实施委托标准。例如,依赖图像分析和实验室结果的病理学和放射学任务比需要实时调整的重症监护任务更适合。
●临床背景:包括患者的病史、当前症状、其他检查结果和治疗史。AI目前缺乏整合和解释这些复杂背景的能力,因此需在委托标准中体现。
●决策关键性:不同决策对患者的影响差异巨大。例如,结肠活检中的异常可能从无需干预的微小变化到危及生命的癌症,关键决策需结合AI和医生的视角。
●AI置信度评分):量化AI预测的不确定性。尽管神经网络可能产生过度自信的预测,但置信度评分仍是委托标准的重要参考。
●AI和人类的失败模式:了解AI和人类各自的错误模式,有助于优化病例分配。例如,若AI在前列腺癌筛查中难以检测特定腺癌变体,这些病例应优先交由医生处理。
设计委托标准需要多学科团队(包括AI开发人员和临床医生)的协作,以确保其在实际应用中的安全性和有效性。
![图片]()
本文以结肠和直肠内镜活检的AI工具为例,展示了自主决策支持方法的具体应用。该工具通过以下步骤实现委托标准:
●分割与分类:识别组织结构并分类为正常或四种异常类型(肿瘤性紧急、肿瘤性非紧急、非肿瘤性紧急、非肿瘤性非紧急)。
●临床背景整合:例如,若AI预测为“高置信度正常”,但内镜检查异常,则病例需交由病理医生复核。
●失败模式规避:针对AI已知的检测盲区(如移植物抗宿主病),直接交由医生处理。
通过这一流程,该AI工具能够自主处理部分正常病例,减轻病理医生的工作负担,同时确保异常病例得到及时、准确的诊断。
![图片]()
●效率提升:通过减少医生对简单病例的审核时间,使其能够专注于复杂病例,从而缩短所有患者的诊断等待时间。
●责任分配优化:避免了当前模式中医生成为“责任洼地”的问题,即医生因无法充分理解AI的输出而承担不合理责任。
●医生培训:传统上,医生通过处理简单病例积累经验。若这些病例由AI自主处理,可能影响医生的学习曲线和诊断能力。
●监管需求:现有法规尚未涵盖AI的自主使用,需建立新的监管框架,确保技术的安全性和有效性。
![图片]()
自主决策支持方法通过委托标准实现了AI在医疗领域更高效、更安全的应用。其成功实施需要多学科协作、透明的标准设计以及适应性的监管政策。未来,随着技术的进步和监管框架的完善,这种方法有望在提高医疗机构效率的同时,保障患者安全和医生权益。
本文的研究得到了多个基金项目的支持,作者团队由临床医生、AI开发人员和伦理专家组成,体现了多学科合作在医疗AI发展中的重要性。