
一、引言:药学AI的“结构性脆弱”与“根源性错位”
在2026年的当下,人工智能在药学实践中的应用已从简单的辅助工具演变为深度的决策参与者。从药物相互作用检测到处方验证,AI系统似乎无处不在。然而,本文犀利地指出,尽管技术在进步,但药学信息系统却面临着一种“结构性脆弱”。
这种脆弱性的根源并非算法不够强大,而是信息架构的错位。现有的绝大多数方法(无论是临床决策支持系统、检索增强生成管道还是大语言模型)都在处理“已被转化的数据”,它们破坏了“原始来源”、“解释”和“推荐意见”之间的形式区分。
●出处的毁灭:有研究指出,大语言模型的训练过程是对数十亿文档的“有损压缩”,这在结构上不可逆地摧毁了出处。这导致了“氛围引用”——即编造看似权威但实际上不存在的参考文献。
●责任的侵蚀:当系统输出与源权威混为一谈时,医生、药师与机器之间的责任边界变得模糊。系统往往在没有保留证据链的情况下做出断言。
为了解决这一问题,本文提出了“帕图斯–莱克特–普里斯马 (PLP)”架构。这不是一个简单的软件升级,而是一个规范性的信息架构提案,旨在通过“主权文档保存、辅助解释、情境化呈现”的分离,为负责任的药学知识管理提供基础设施。

二、核心架构:PLP的三层认知分离
PLP架构的设计遵循了“功能分离”原则,将药学知识的流转过程严格划分为三个逻辑独立的层级。这种设计基于巴克兰德的信息科学三元论(信息即物、信息即过程、信息即知识)以及诠释学的解释弧。
1、帕图斯:主权文档保存层
(1)核心理念:文档主权。这一层的核心原则是“不可变性”。一旦文档被摄入,源文件永远不会被修改或覆盖。
(2)运作机制: 帕图斯被设计为一个符合开放档案信息系统模型的可信数字仓库。它不仅存储文件,还记录版本、时间戳和加密哈希值。
(3)意义: 它保留了监管文件(如药品说明书、单页、指南)的原始完整性。无论后续的解释如何变化,我们永远可以回溯到那个“比特级”的原始真相。文中提到的案例显示,它能保存从2024年到2026年同一药物的多个历史版本,允许进行时间维度的监管演变分析。
2、莱克特:机器辅助阅读与技术策展层
(1)核心理念:辅助而非自主。莱克特层拒绝让AI拥有“规范性权威”,而是将其定位为一个阅读助手。
(2)运作机制:这一层引入了“证据包”的概念,这是该架构中负责断言的核心单位。
●页索引:利用大语言模型将长文档分解为可导航的树状结构(节点)。
●证据包生成:针对特定问题(如“该药的禁忌症是什么?”),系统生成一个包含“定性问题、扎根回答、出处链、认知局限”的证据包。
●人工策展:这是关键一步。每一个证据包都必须经过人类专家的验证(接受、拒绝或要求修改)。系统明确记录了“策展决策”,确保解释责任留在人类领域。
(4)创新点:显式处理“规范性沉默”。当监管文件中没有提及某个问题时,莱克特会将其标记为“规范性沉默”,而不是忽略或猜测。这是一种重要的认知范畴,承认“未知”的存在。

3、普里斯马:情境化呈现与RPDA折射层
(1)核心理念: 情境折射。就像棱镜将白光分解为不同颜色的光谱一样,普里斯马将核心的药学知识根据不同的使用情境进行折射。
(2)运作机制:基于RPDA框架(监管、处方、配药、给药):
●监管视图(R):面向合规人员,关注注册状态、版本历史和法律框架。
●处方视图(P):面向医生,关注适应症、禁忌症、临床证据和风险获益评估。
●配药视图(D):面向药师,关注商品名、包装规格、替代品和物流信息。
●给药视图(A):面向护士,关注给药途径、稀释方法、输注速率和操作指导。
(3)技术支撑:利用上下文图,系统根据用户的角色和风险等级,过滤并呈现相关的证据包,避免信息过载。

三、关键概念:证据包的深度解析
本文引入的“证据包”是实现问责制的关键创新。它不仅仅是一个数据结构,而是一个可审计的知识单元。
一个标准的证据包包含五个维度:
1、定性问题:明确的问题分类(如适应症、警告、相互作用)。
2、有充分理由的回答:基于源文档生成的回答,并附带有效性条件(在什么情况下成立)和无效性条件(在什么情况下不成立)。
3、出处链: 精确到源文档的特定节点,确保每一个断言都可以回溯到其原始比特。
4、认知局限: 这是一个革命性的部分,它显式地列出了:
●分歧: 不同来源之间的矛盾。
●缺口: 未找到的信息。
●依赖: 临床背景的依赖性。
●沉默: 规范性沉默(即监管机构未对此表态)。
5、策展状态: 记录了谁、在何时、基于什么理由批准或拒绝了这个证据包。

四、案例实证:通过PLP架构审视“安乃近”
本文通过一个极具张力的案例——安乃近,展示了PLP架构的实际运作。
1、背景矛盾:在美国、英国等地,该药因担心粒细胞缺乏症而被禁用;但在巴西(本研究背景),它是非处方药,且拥有庞大的流行病学证据支持其安全性。
2、PLP的运作流程:
●帕图斯层:保存了巴西国家卫生监督局发布的安乃近说明书所有历史版本。系统保留了“巴西语境”下的监管真相。
●莱克特层:在阅读说明书时,系统生成了一个关于“G6PD缺乏症(蚕豆病)”的证据包。由于说明书中未提及G6PD(即规范性沉默),莱克特并未强行推断其安全或不安全,而是生成了一个类型为“规范性沉默”的证据包,提示用户“监管机构未对此表态”,需要参考专业文献。
●普里斯马层:当医生开具处方时,系统呈现“成人止痛适应症”的证据包;当护士准备给药时,系统呈现“口服片剂的配制说明”。如果医生试图在系统中查找“G6PD患者的安全性”,系统会明确告知这是“规范性沉默”,而非简单的“无禁忌”。
这个案例证明了PLP架构能够处理复杂的、具有地域差异的药学知识,并且在知识缺失时保持诚实,而不是产生幻觉。

五、互补性分析:PLP与现有决策支持系统(如NoHarm.ai)
本文特别讨论了PLP与现有的操作型系统(如NoHarm.ai,一个广泛使用的药物警戒系统)的关系。PLP并不是要取代这些系统,而是作为其底层的“真理之基”。
●现有系统的局限:像NoHarm这样的系统通常发出二元警报(是/否),但缺乏出处。医生看到警报时,往往不知道它是基于哪份说明书、哪个版本生成的。
●PLP的赋能:如果NoHarm建立在PLP之上,当它检测到“安乃近与华法林的相互作用”时,它可以附带一个指向具体证据包的链接。医生点击后,可以看到这是基于哪份说明书的哪一条款,以及相关的认知局限。

六、深度评述:从算法性能到信息架构
本文的贡献不仅在于技术实现,更在于其哲学高度。它将药学信息学的关注点从“算法性能”(即模型有多准确)转向了“信息架构”(即知识是如何被组织、保存和解释的)。
1、对抗幻觉的根本之策:通过将“生成”严格限制在“策展”之后,并强制要求出处链,PLP从根本上阻断了幻觉的合法化路径。
2、规范性沉默的承认:在逻辑学中,承认“未知”与确认“已知”同等重要。PLP将“规范性沉默”作为一个正式的逻辑类别,这是对药学知识不确定性的一种极其诚实的建模。
3、情境智能:通过RPDA框架,系统理解了“同一个药物,对不同的人意味着不同的信息”。这解决了医疗IT中长期存在的“信息过载”与“相关性不足”的矛盾。
七、 结论
本文提出了一种在生成式AI时代尤为珍贵的“克制与规范”。
在大语言模型倾向于“一本正经胡说八道”的背景下,PLP架构通过“帕图斯”锁死了数据的源头,通过“莱克特”规范了解释的过程,通过“普里斯马”实现了知识的精准投放。它不试图让机器成为“神”,而是让机器成为“透镜”,帮助人类在复杂的药学知识海洋中,看到清晰、有出处、负责任的真相。
这项工作为未来的医疗知识管理系统设定了新的标准:可问责、可追溯且情境化。
如需要《“普里斯马”: 迈向负责任的药品知识管理的规范性信息基础设施》(英文,共52页),请在本微信公众号中赞赏(点喜欢或稀罕作者后按本公众号设定打赏)后,发来email地址索取。



Always Do Your Best. Your best is going to change from moment to moment; it will be different when you are healthy as opposed to sick. Under any circumstance, simply do your best, and you will avoid self-judgment, self-abuse and regret. 常尽己之所能。所能因时殊——康与疾异。处任何境,唯尽心而已,则可免自咎、自虐与懊悔。早上好!
