
在全球范围内,精神健康服务的需求不断增长,但专业精神科医生的短缺导致服务质量参差不齐,等待时间长,且许多患者因经济原因无法获得及时的治疗。此外,精神疾病医护人员经常面临职业倦怠,表现为情感耗竭和去人格化。数字技术,特别是人工智能(AI)和大语言模型(LLM)的发展,为缓解这些问题提供了新的途径。
本文介绍了一种通用的、人机协同的双重对话系统,旨在辅助精神健康医护人员的工作。该系统并非旨在完全自动化对话,而是通过人工智能助手来减轻精神疾病医护人员的认知负荷,从而提高其工作效率和服务质量。该系统的设计理念是与医护人员共同开发的,充分考虑了实际应用场景和伦理道德问题。

系统设计与功能:该系统采用了多智能体系统架构,每个智能体都由一个大语言模型 (LLM) 驱动,并负责不同的任务。这些智能体协同工作,为治疗师提供全面的支持。主要功能包括:
1、回应建议: 根据与客户的对话内容,建议合适的回应,帮助治疗师快速有效地回应客户的情绪。该功能特别注重体现同理心,以促进治疗性对话。
2、资源推荐: 利用检索增强生成技术,从mindline.sg数据库中检索与对话内容相关的自助资源,例如文章、视频和基于“认知行为疗法”的练习,从而节省治疗师查找资源的时间。该功能使用了“Facebook人工智能相似度搜索”库进行高效的语义相似性搜索。
3、对话分析: 分析对话内容,提取关键主题、意图和问题,帮助治疗师识别治疗的重点和潜在的干预策略。
4、对话总结: 对对话进行总结,方便治疗师快速了解对话的主要内容,尤其适用于接手新客户或长时间未联系的客户。
5、同理心改写: 对治疗师的回复进行改写,使其更具同理心,例如使用更正向积极的语言、更关注客户的情绪等。
6、开放式聊天: 允许治疗师与人工智能助手进行开放式聊天,讨论对话内容和治疗策略。

系统架构:系统采用微服务架构,后端服务通过API与前端和客户端的通讯平台交互。前端界面设计简洁直观,类似于常用的即时通讯应用,方便治疗师使用。大语言模型的选择和参数设置根据具体功能进行了优化。LangChain用于简化与大语言模型API的交互。
系统评估:为了评估系统的有效性,研究人员进行了一项关于回应质量的评估研究,重点评估了“回应建议”功能的同理心水平。研究人员使用了100个来自新加坡本地匿名精神健康论坛的咨询对话样本,这些对话的回应由专业治疗师撰写。研究人员使用 GPT-4o、Llama 3 (80亿参数和700亿参数) 以及专业治疗师分别对25个随机选择的咨询对话进行回应,并使用修改后的“治疗师同理心量表”进行评估。评估由10名人类评估者和GPT-4o分别进行。
评估结果:结果表明,在人类评估者和GPT-4o的评估中,大语言模型生成的回应在同理心方面与专业治疗师生成的回应具有可比性。虽然在某些具体的同理心维度上,大语言模型的表现略优于或略逊于人类治疗师,但总体而言,差异并不显著。这表明大语言模型可以有效地辅助治疗师,提高其工作效率。

局限性和伦理考虑:文章也指出了该系统的局限性,例如对商业API的依赖可能涉及隐私问题,大语言模型可能存在幻觉、偏见等问题,以及用户参与度等挑战。此外,文章还讨论了该系统可能带来的伦理问题,例如资源分配、专业规范的潜在影响等。研究人员强调,该系统旨在辅助而非取代人类治疗师。未来研究将关注开源模型的应用、多语言支持,更全面的系统评估,以及进一步优化大语言模型的共情能力和减少偏见。
总之,这项研究提出了一种有前景的多智能体双重对话系统,该系统通过人工智能助手为精神健康医护人员提供有效的支持,并在一定程度上缓解了精神健康服务资源短缺的问题。未来,随着技术的不断进步和系统的持续优化,该系统有望在更广泛的精神健康服务领域发挥重要作用。
如需要《用于支持精神健康医护人员的多智能体双重对话系统》(英文,共16页),请在本微信公众号中赞赏(点喜欢或稀罕作者后按本公众号设定打赏)后,发来email地址索取。



Nothing will change in your life if you don't do something different from what you have been doing. 若不改旧辙,人生何以更新?早上好!
