图片

本文探讨了利用大语言模型(LLM)增强的临床决策支持系统CDSS)在医疗领域的应用,并研究了医师与这种新型人工智能(AI)工具交互时的行为和模式。

 

临床决策支持系统作为医疗领域的一种辅助工具,已存在数十年,旨在通过提供准确、及时和有用的临床知识,帮助医师在诊断、预后和治疗方面做出决策。然而,随着技术的不断发展,尤其是大语言模型的出现,临床决策支持系统的功能和效果得到了显著提升。

 

图片

传统的临床决策支持系统主要基于规则或简单的机器学习模型,通过与临床知识库匹配患者的个体特征来提供评估或建议。虽然早期的基于规则的临床决策支持系统在识别高风险患者群体和减少误诊方面显示出了一定的有效性,但其功能相对有限,提供的支持也相对简单。随着机器学习(ML)技术的不断进步,尤其是深度学习和大语言模型的发展,临床决策支持系统的预测能力和决策支持功能得到了极大增强。

 

大语言模型,作为人工智能模型的一个子集,在自然语言理解和生成任务中表现出色。在医疗领域,大语言模型卓越的自然语言处理能力使其成为集成到电子病历(EHR)中的强大工具。电子病历是庞大的患者数据仓库,包含大量非结构化的文本记录,大语言模型能够从中提取并理解关键信息,为医师提供更全面、准确的决策支持。

 

图片

本研究通过模拟场景,评估了医师在使用基于大语言模型的临床决策支持系统时的行为和交互模式。研究发现,医师在使用这种新型临床决策支持系统时,会根据临床任务的需求和团队动态而有所不同。在复杂或不确定的病例中,医师更倾向于向临床决策支持系统寻求更多的建议和确认,而在管理明确、遵循指南的情境中,则更多地依赖临床决策支持系统提供的指南驱动建议。这表明,临床决策支持系统的工作流整合依赖于医疗从业者的需求。

 

然而,尽管大语言模型增强的CDSS在临床决策支持方面显示出巨大潜力,但其也面临一些挑战和限制。例如,大语言模型的训练数据不透明性、幻觉现象以及模型解释性有限等问题可能导致医师对AI工具的不信任。此外,误用机器学习工具可能导致医师过度依赖这些工具,从而在进行验证和安全检查时产生错误。

 

图片

为了优化人工智能干预的有益效果并减轻潜在危害,本研究强调了将临床医师作为机器学习技术的终端用户进行研究和参与的重要性。通过深入了解医师在使用大语言模型增强的CDSS时的行为和模式,可以创建和改进系统,以更好地适应临床工作流程和医师的需求。此外,研究还提出了一些方法论上的方法,如可用性工程和认知任务分析,以改进CDSS的设计和评估。

 

本研究的核心是开发了一个基于机器学习的消化道出血风险预测模型,并将其与名为“肠道GPT”的大语言模型相结合。“肠道GPT”接受过胃肠病学指南的训练,其语境限制在风险预测模型或消化道出血指南内,以减少幻觉和应答变异性。该系统通过一个交互式仪表板呈现风险信息和大语言模型生成的答案。

 

图片

研究结果表明,大语言模型增强可以提高易用性,带有引文的大语言模型生成的应答可以提高信任度,并且人机交互会因临床经验而异。模拟后的访谈、调查数据和“肠道GPT”查询数据生成的主题表明,医务人员将大语言模型增强的AI-CDSS视为团队成员,用于确认初步临床直觉并帮助评估临床决策。

 

本研究还强调了可解释性在建立对AI工具信任方面的重要性。除了模型特征之外,医师的认知模型还考虑了来自权威临床指南的信息。因此,能够提供指南驱动建议的AI-CDSS能够模仿医疗团队中人类队友的角色。为了实现这一目标,研究建议开发具有后验解释性方法的AI-CDSS,以贡献于系统设计的改进和临床实践的优化。

 

图片

总之,本文首次展示了大语言模型增强的AI-CDSS在临床模拟中的可行性,为理解医务人员与大语言模型增强的AI-CDSS的交互提供了宝贵的见解,为未来AI在医疗领域的应用提供了设计原则。研究表明,合理设计的LLM-CDSS能够有效提高医疗决策的准确性和效率,并在医生的工作流中发挥重要作用。该研究还提出了三个用于大语言模型增强的AI-CDSS的设计原则,为在临床工作流中成功整合AI提供了重要的指导。未来,研究团队计划进一步优化系统设计,减少医生在使用过程中的认知负担,同时通过更多的真实临床试验来验证系统的实际应用效果,确保患者的安全和医疗的可靠性。