《生成式人工智能在医疗保健和医学中的应用:变革性创新的机遇与责任》
2025年4月23日
![图片]()
美国国家医学科学院的这份报告《生成式人工智能在医疗保健和医学中的应用:变革性创新的机遇与责任》深入探讨了生成式人工智能,特别是大语言模型在医疗保健和生物医学领域的应用前景及其潜在风险。报告指出,生成式人工智能技术蕴含着巨大的变革潜力,但也面临着诸多挑战,需要各利益相关各方通力合作,以负责任和公平的方式推动其发展和应用。
报告首先概述了生成式人工智能的基本概念和在医疗领域的早期应用。生成式人工智能能够生成各种形式的内容,包括文本、图像和音频,大语言模型则是生成式人工智能的一个子集,专注于处理和生成人类语言。报告列举了生成式人工智能在医疗保健中的诸多应用场景,例如:
![图片]()
简化临床工作流程:生成式人工智能可以帮助医生撰写行政管理文书、临床记录,并辅助临床决策,从而减轻医生的工作负担,提高效率。例如,生成式人工智能可以自动生成病历摘要,辅助医生进行诊断和治疗决策,并帮助患者更好地理解和参与医疗过程。
促进生物医学研究:生成式人工智能可以用于药物研发、诊断和临床试验管理。它可以帮助研究人员识别新的药物靶点,设计新的药物分子,并预测药物的药代动力学和药效学特性。生成式人工智能还可以用于分析大量的医学文献,帮助研究人员发现新的治疗方法。
![图片]()
改善健康公平性:生成式人工智能有潜力通过多种途径改善健康公平性,例如:提供多语言的健康信息,从而消除语言障碍;根据患者的具体情况和文化背景,提供个性化的医疗服务;识别和解决医疗保健中的不公平现象。
提升患者参与度:生成式人工智能可以为患者提供个性化、易于理解的健康信息和管理工具,提高患者参与度和依从性。例如,生成式人工智能驱动的聊天机器人可以回答患者的疑问,提供健康建议,并提醒患者服药和预约就诊。
![图片]()
然而,报告也强调了生成式人工智能在医疗保健中应用的潜在风险:
数据隐私和安全:生成式人工智能系统需要访问大量的敏感患者数据,因此必须确保这些数据的安全性和隐私性。
算法偏差:生成式人工智能模型的训练数据可能存在偏差,导致模型产生不公平或不准确的输出。这可能会加剧医疗保健中的不公平现象,对某些人群造成不利影响。
输出限制:生成式人工智能模型的输出可能存在局限性,例如“幻觉”或“编造”,即模型生成的信息不准确或与事实不符。这在医疗诊断和治疗决策中可能造成严重后果。
算法脆弱性:生成式人工智能算法可能对意外输入或情况敏感,导致模型在遇到非训练数据时出现错误或失效。
![图片]()
为了最大限度地发挥生成式人工智能的益处并降低其风险,报告提出了以下建议:
加强技能培养:医务人员需要接受生成式人工智能相关的培训,学习如何有效地使用生成式人工智能工具,并能够识别和解释生成式人工智能生成的输出。
改进模型测试和监测:生成式人工智能模型需要进行严格的测试和验证,以确保其准确性、可靠性和公平性。此外,还需要对已部署的生成式人工智能模型进行持续的监测,及时发现和纠正潜在的问题。报告中特别强调了“算法警戒”的重要性,即对人工智能系统进行持续监测,以发现并解决潜在的风险。
完善资源和基础设施:医疗机构需要具备足够的资源和基础设施来支持生成式人工智能的部署和维护。
制定标准化的监管框架:政府监管机构需要制定明确的生成式人工智能监管框架,以确保生成式人工智能技术的安全、合规和公平使用。报告建议借鉴软件生命周期管理中的标准和协作方法。
![图片]()
报告还强调了跨部门合作的重要性。生成式人工智能技术的成功应用需要医疗专业人员、研究人员、政策制定者、监管机构和技术开发人员之间的密切合作。报告提出了一个责任分配矩阵,明确了不同利益相关者在生成式人工智能模型开发和部署各个阶段中的角色和责任,并强调了患者和社区在这一过程中的重要作用。报告特别指出,医务人员在生成式人工智能的应用中承担着最终的责任,需要得到充分的资源、培训和支持。
总之,这份报告对生成式人工智能在医疗保健领域的应用前景和挑战进行了全面而深入的分析,为生成式人工智能技术的负责任和公平应用提供了重要的指导。报告强调,生成式人工智能技术具有巨大的潜力,但其安全、有效和合乎伦理的应用需要各利益相关各方的共同努力。只有通过多方合作,才能确保生成式人工智能技术真正造福人类健康。报告还特别强调了持续“学习型医疗机构”的概念,认为生成式人工智能的应用应该与“学习型医疗机构”的理念相结合,以实现医疗保健的持续改进和创新。