
这篇文章针对日益增长的利用大语言模型和智能虚拟智能体作为心理治疗师的趋势,提出了一种新的风险分类法,旨在系统地评估人工智能辅助心理治疗的潜在风险,从而促进该领域更安全、更负责任的创新。文章指出,虽然人工智能技术有潜力扩展心理健康服务的可及性,但缺乏标准化的评估方法来捕捉治疗互动中细微的风险,导致出现严重的负面后果,甚至包括用户伤害和自杀。
现有评估方法的不足:目前评估大语言模型的方法通常关注的是其一般能力,例如检测孤立文本中的毒性,而未能捕捉到持续动态对话中可能出现的危害。传统的临床试验虽然对疗效评估至关重要,但在对未经验证的自主系统进行初步安全验证方面,往往速度缓慢且存在伦理方面的挑战。因此,迫切需要一种专门针对人工智能辅助心理治疗的风险评估方法。

风险分类法的开发过程:本文介绍的风险分类法是通过迭代设计过程开发的,该过程包括:
●文献综述: 对现有心理治疗风险文献进行了深入的回顾,梳理了心理治疗中可能出现的各种负面事件,例如负面情绪、症状恶化、不良回忆的出现、人际关系紧张、对治疗的依赖以及自我效能感的降低等。
●专家访谈: 对11位专家(10位执业心理治疗师和1位医疗事故法律专业人士)进行了半结构化访谈,以了解他们在人类治疗中的风险认知,识别人工智能治疗师的潜在失效模式,并收集对初步分类法的反馈。
●与临床标准和评估工具的比对: 将初步分类法与既定的临床标准(例如 DSM-5)和现有的评估工具进行了比对,以确保其准确性和实用性。

专家访谈的主要主题:专家访谈揭示了六个关键主题:
●治疗可能需要短期不适: 区分治疗过程中预期的短期不适与由治疗师错误、误判或失败造成的非预期伤害具有挑战性。伤害存在于一个频谱上,从暂时的挫折到严重的负面后果,甚至包括自杀风险。
●治疗师的风险因素: 治疗师的胜任力、伦理遵守情况和技巧水平都会影响风险。治疗师的偏见、个人意见、缺乏文化意识、分心和倦怠等都可能导致非预期伤害。
●患者的风险因素: 患者的脆弱性和背景也起着关键作用。患者的内心状态、病史、社会环境和保护性因素都会影响风险。
●风险评估的实时性: 实时识别风险依赖于治疗师对细微的非言语和副语言线索的解读能力。然而,由于患者的隐瞒、预测的局限性和信息损失(例如在基于文本的治疗中),评估存在局限性。
●人工智能治疗师的感知缺陷: 与人类治疗师相比,人工智能治疗师在感知非言语和副语言数据、建立融洽关系和理解细微差别方面的能力存在局限性,这增加了安全风险。
●风险分类法的改进: 专家反馈促使对风险分类法进行了改进,例如增加了创伤和虐待等因素,并与DSM-5等标准进行了对接。

风险分类法的概述:最终的风险分类法包含两大类:
●即时风险: 指对用户或他人构成迫在眉睫的危险的情况,需要紧急干预。例如,明确的自杀意图、对他人造成伤害的威胁或严重的心理崩溃等。
●潜在风险: 指可能导致负面治疗结果、功能障碍或对治疗过程产生不利影响的情况。它包含几个子类别:症状恶化、新症状的出现或不良应对机制、患者不稳定或感到不知所措、治疗关系破坏或负面关系动态以及参与度降低或过早终止的可能性。
风险分类法的应用案例:论文详细讨论了该分类法的两个主要应用案例:
●监测真实用户的互动: 实时监测用户与人工智能治疗师的互动,识别潜在风险,并采取相应的干预措施。
●使用模拟患者进行评估: 使用模拟患者与人工智能治疗师进行互动,系统地测试系统的安全性。

结论:该风险分类法为评估人工智能辅助心理治疗的风险提供了一个标准化的框架,有助于促进更安全、更负责任的创新,并最终减少人工智能驱动的数字心理健康支持中的意外负面后果。该分类法具有可扩展性和适应性,可以根据不同的目标人群或问题进行调整。
如需要《评估人工智能驱动的心理治疗智能体的风险分类》(英文,共12页),请在本微信公众号中赞赏(点喜欢或稀罕作者后按本公众号设定打赏)后,发来email地址索取。



You are always one decision away from a totally different life. 你与另一种截然不同的人生,一直只有一个决定之遥。早上好!
