
随着大语言模型在医疗领域的应用从“可行性探索”转向“实际部署”,其潜在的风险与责任问题日益凸显。当前关于临床大语言模型的监管与指导文件多将其视为“工具”,强调通过访问控制、人工审核和结果监控来保障安全。然而,这项最新研究《人格提示改变大语言模型的临床行动阈值》提出了一个关键挑战:即使临床事实不变,系统提示中的人格设定也能显著改变模型的临床决策倾向。该研究由美国西奈山医学中心等机构的研究人员完成,系统评估了20个开源大语言模型在500万次临床决策中的表现,揭示了提示工程不仅是“沟通方式”,更是“政策设定工具”。
一、研究设计与方法
研究团队构建了九种“医生人格”,分别由三种伦理取向(义务论、关怀论、功利论)与三种认知风格(直觉型、整合型、分析型)交叉组合而成。每种人格通过系统提示词传递给模型,模型在接收到固定临床文本后,需回答五个二元决策问题,涵盖安全性、患者自主权、治疗方案、资源使用和随访安排。
研究使用了两种临床文本来源:2500份模拟急诊科病例和2500份来自MIMIC-IV的真实出院小结。每个实验条件重复十次,最终生成500万次决策输出。所有模型均在本地高性能计算集群上运行,未启用工具、检索或自我修正功能,以确保实验的纯净性和可重复性。

二、主要研究发现
在无任何人格提示的基线条件下,模型对临床问题的“是”回答率为42.8%。引入人格提示后,回答率在36.9%到46.4%之间波动,整体差异达9.5个百分点。这一变化并非随机波动,而是系统性、可重复的决策阈值偏移。
具体来看,不同人格对决策的影响方向与幅度各异。例如,“关怀-分析型”人格的回答率最低(36.9%),而“关怀-整合型”人格的回答率最高(46.4%)。在决策类别层面,“患者自主权”类问题的波动幅度最大,最高增加24.4个百分点,最高减少6.8个百分点;“治疗方案”和“随访安排”类问题也呈现出显著的差异。值得注意的是,“安全性”类问题在所有人格下均呈现正向偏移,表明模型在安全相关决策中具有“固有倾向”,人格提示更多是放大而非反转这种倾向。
三、模型间的差异与共性
不同模型对人格提示的敏感程度存在显著差异。最敏感的模型(Gemma-3-4b-it)的平均绝对偏差达16.12个百分点,而最不敏感的模型(Mistral-7B-Instruct-v0.3)仅为4.89个百分点。然而,所有模型均未完全免疫于人格提示的影响。医疗专用微调模型与通用模型在敏感度上并无显著差异,模型规模也与敏感度无相关性。这意味着,单纯依靠“选择更好的模型”无法规避提示带来的决策偏移问题。
此外,研究还发现,人格提示的效果在不同文本来源之间具有高度一致性。ED模拟病例与MIMIC-IV真实出院小结之间的效应方向一致率达85.7%,效应大小相关性达0.82,说明提示效应具有跨语境的稳定性。

四、研究的启示与挑战
本研究的核心启示在于:系统提示不仅是“包装”,更是“政策设定”。在传统临床AI治理中,监管重点往往放在输出监控和人工复核上,但本研究显示,真正的决策偏好在输入阶段就已形成。通过简短的人格提示,模型可以在事实不变的情况下,表现出截然不同的“行动姿态”:有的更倾向于介入、开药、住院;有的更倾向于等待、观察、保守治疗。这种“姿态”的变化,本质上是一种隐性政策选择。
研究者用“自由派”与“保守派”的比喻来形容这一轴线的两端。前者倾向于更多行动,后者则倾向于更少干预。这种标签并非价值判断,而是对模型行为模式的描述。问题不在于哪种姿态“正确”,而在于这种姿态是由谁、在何时、以何种方式设定的。在人类医生中,决策风格是长期训练、临床经验和制度文化的产物,难以轻易改变。而在大语言模型中,决策姿态可以通过一句提示词在瞬间切换,甚至可以隐藏在不为人知的系统设定中。
这种“低成本的姿态切换”带来了新的治理挑战。如果不同部门、不同系统、不同版本中使用了不同的人格提示,那么临床决策的一致性将难以保证。更严重的是,如果人格提示被滥用或恶意注入,可能导致系统性偏差甚至安全风险。已有研究显示,系统提示可以被“中毒”或“注入”,从而持久性地改变模型行为。

五、研究的局限性
尽管研究设计严谨,作者也指出了若干局限性。首先,所有决策问题均为二元选择,虽便于统计分析,但也牺牲了临床决策的复杂性与连续性。其次,模型在实验中未启用工具、检索或自我修正功能,未能模拟真实临床环境中的多轮交互与信息整合。第三,人格设定是人为构建的“理想类型”,未必完全对应现实中医生的真实决策风格。最后,研究未对决策的“正确性”或“指南一致性”进行评判,因为其核心目的是揭示“差异”而非“优劣”。
六、结论与展望
本研究以系统、可重复的方式证明:在临床事实不变的前提下,系统提示中的人格设定能够显著改变大语言模型的临床行动阈值。这一发现挑战了将模型视为“中性工具”的传统观念,提示我们在临床部署中必须将系统提示视为一种“政策设定层”。正如研究者所言:“当你部署一个临床大语言模型时,你部署的不仅是知识,更是一种姿态。”
未来,临床AI的治理框架需要向前延伸,覆盖提示词的设计、版本控制、审计与透明性。系统提示不应再被视为“工程细节”,而应被纳入临床决策支持系统的核心配置项。只有将提示词作为“第一类配置”来管理,才能真正实现对模型行为的可控、可测与可问责。
如需要《人格提示改变大语言模型的临床行动阈值》(英文,共21页),请在本微信公众号中赞赏(点喜欢或稀罕作者后按本公众号设定打赏)后,发来email地址索取。



If you're a friend of everybody, you're an enemy to yourself. 泛交者,终负己。早上好!
