图片

一、 引言:AI作为新型健康决定因素

在短短两年内,人工智能(AI)已从实验室研究工具演变为日常生活的基础设施。ChatGPT在发布两个月内即拥有了1亿用户,而到了2025年,六分之一的美国成年人每月至少使用一次AI聊天机器人获取健康信息,三分之二的美国医生在临床实践中使用AI2026年初,OpenAI推出的ChatGPT Health更是整合了用户的医疗记录和可穿戴设备数据,标志着AI已深度嵌入健康决策与医疗服务的基础设施中。

这种嵌入是双刃剑。一方面,AI帮助患者理解医学术语,AI聊天机器人向医疗资源匮乏人群提供心理健康支持,基于AI的分诊系统优化了急诊科的优先级;另一方面,陪伴型聊天机器人导致青少年情感依赖,过度依赖AI的学生表现出神经连接性降低,且AI生成的健康错误信息已难以与人类编写的内容区分。

面对这一现状,流行病学却缺乏概念化、测量和研究AI对人群健康影响的框架。我们拥有针对空气污染、营养、烟草和社交媒体的研究协议,但没有针对AI的系统性研究框架。本文旨在填补这一空白,论证AI作为一种健康决定因素,必须通过借鉴环境流行病学的方法进行系统性研究。

图片

二、 现有范式的局限:微观实验无法捕捉宏观影响

目前的文献将AI视为一种暴露,但往往局限于狭窄的实验范式:

1AI生成文本作为说服干预:研究发现AI生成的政策论点改变态度的效果与人类相当,AI生成的错误信息难以被识别。

2AI交互作为暴露:与有偏见模型的合写会改变作者态度,有偏见的AI搜索建议会改变投票偏好。

3、临床背景下的算法偏见:基于历史成本数据训练的算法系统性低估黑人患者的病情严重程度,大语言模型在分诊建议中表现出基于方言的隐蔽偏见。

这些研究的共同局限在于:将AI暴露定义为低维度的“治疗”,在特定任务背景下交付,且在短时间范围内测量结果。这类似于在实验室测量一顿饭来研究饮食——有助于理解机制,但无法捕捉持续饮食模式对健康的后果。此外,证据基础往往滞后于技术:严格的实验往往基于已过时的旧模型,而AI暴露的景观正在不断变化。

关键的公众健康问题仍未得到回答:长期使用AI对抑郁和认知有何影响?持续依赖AI获取健康建议如何改变就医行为?平台治理的改变是否会在人群规模上改变心理健康结果?回答这些问题需要一种人群层面的流行病学范式。

图片

三、 理论框架:AI作为算法健康决定因素

本文提出了一个借鉴环境流行病学的概念框架,将AI定义为一种算法健康决定因素。

1AI的独特属性

AI不仅仅是另一个数字技术,它具有四个独特的因果属性:

●生成新颖内容:不同于宽带或电子病历仅传输信息,AI创造文本、图像和推荐,既是媒介也是信息。

●实时适应性:AI根据个人实时调整,创建暴露与行为之间的反馈回路。

●跨类别运作:同时重塑信息环境、改变健康行为和重构社会关系。

●非平稳性和不透明性:模型更新改变了“智能体”,且聊天机器人模仿人类的设计使个体难以识别自己何时被AI改变。

2、环境暴露与个人暴露的区分

借鉴空气污染流行病学,框架区分了环境AI暴露和个人AI暴露:

●环境AI暴露:指共享算法层的信息和机构环境。算法策划新闻源、排名搜索结果、分诊急诊患者、评分信贷申请和审核在线内容——无论个人是否选择直接使用AI。例如,未使用ChatGPT的人可能仍受AI裁定的保险索赔、算法策划的社交媒体源或算法分诊设定的急诊等待时间的影响。世界银行使用AI估计贫困,全球基金使用AI模型量化疟疾发病率,这些都属于环境暴露。

●个人AI暴露:指直接、自愿的AI系统交互,如咨询聊天机器人获取健康建议、依赖AI获取情感支持、与语言模型合写或使用症状检查器。这类似于个人污染暴露,因访问权限、偏好、素养和目的而异。

这一区分澄清了“不使用AI”并不意味着“未暴露于AI”。它确定了不同的干预目标——环境暴露需要监管,个人暴露需要行为和教育干预。

图片

四、 AI在流行病学模型中的因果角色

根据研究问题,AI可以在流行病学模型中占据至少四种角色:

1、作为暴露:直接交互或接触AI生成内容影响健康。例如,青少年每天使用陪伴聊天机器人对抑郁的影响,或人群接触AI策划的健康错误信息。

2、作为混杂因素AI算法塑造了人们遇到的内容和下游结果,引入了偏见。例如,研究社交媒体使用与抑郁的关系时,如果忽略算法策划,就会遭受未测量的AI混杂。

3、作为中介AI传递上游决定因素。例如,收入决定访问优质AI工具,这塑造了健康信息质量,进而塑造健康决策——将AI置于社会经济地位与健康之间的因果路径上。

4、作为效应修饰符AI改变既定关系。例如,优质的AI决策支持可能缓冲医生经验不足对诊断准确性的影响;AI生成的错误信息可能放大低健康素养对不良健康选择的影响。

此外,AI打破了经典流行病学的稳定单元处理值假设。首先,通过干扰:算法基于集体行为策划共享环境,一个人的AI交互可以改变其同伴的算法源。其次,通过多重版本的治疗:生成系统实时适应每个用户,名义上相同的“暴露”对每个人都是独特的定制干预。

图片

五、 测量AI暴露的维度

为了使AI暴露成为流行病学构建体,文章提出了两个层面的测量结构:

1、个体层面

●访问:连接性、设备、技术能力。

●工具组合:使用的系统、渠道。

●强度:频率、持续时间和轨迹。

●目的:教育、工作、健康、情感支持、娱乐。

●依赖:依赖程度和社会接受度。

这些维度产生不同的流行病学预测。例如,AI使用强度随教育水平急剧变化,这引发了关于AI作为社会经济健康差异中介的假设。使用目的随种族/民族而异,黑人成年人更多使用AI用于健康,而其他/多种族成年人领先于教育和互联网搜索。如果与健康相关的AI使用带来风险或益处,黑人成年人将首先经历这些影响。

2、机构层面

●监管环境:数据保护法、AI特定法规。

●平台治理:数据保留、安全过滤器、匿名保证。

●模型属性:训练数据出处、偏见概况、更新频率。

图片

六、 人群数据揭示的测量差距

目前关于AI使用的大多数知识来自平台数据(如ChatGPT交互日志、应用遥测、网络流量),这些数据仅捕获活跃用户,没有人群分母,且系统性排除了未暴露者。

全国代表性调查揭示了不同的图景。美国之声综合调查发现,57%的美国成年人出于至少一个个人目的使用生成式AI,但这一数字掩盖了巨大的变异。每日使用集中在受过大学教育的成年人(20-21%)与非大学教育成年人(8%)之间存在阶梯函数。在种族/民族群体中,每日使用率从西班牙裔(12%)到其他/多种族(30%)不等。与健康相关的AI使用显示出其独特的人口纹理:黑人成年人报告的使用率最高(30%),而白人(16%)和西班牙裔(9%)较低。

这些模式表明,AI暴露不是均匀的,其健康影响可能是异质的。黑人成年人中与健康相关的AI使用集中意味着AI介导的信息的健康影响将首先不成比例地影响这一人群。教育梯度意味着AI可能介导社会经济健康梯度。

图片

七、 对实践、公平和治理的影响

1、对流行病学实践的影响

AI暴露应作为饮食、体育活动和屏幕时间一样在人群健康研究中常规测量。自我报告是务实的起点,但需要通过智能手机被动感知进行校准。研究设计必须适应随时间变化、适应性强的暴露:边缘结构模型、g计算、目标试验模拟和利用政策变化的准实验方法非常适合。

2、对健康公平的影响

如果AI塑造健康,不平等的访问成为健康公平问题,但差异化的伤害也是问题。缺乏优质AI访问的人群可能处于劣势;而暴露最严重的人群——形成准社会关系的青少年、使用不受监管治疗机器人的危机个体——可能承担不成比例的伤害。

算法内化并复制其训练数据中嵌入的社会结构。当临床算法系统性低估黑人患者的病情严重度,或语言模型对非标准方言表现出隐蔽偏见时,我们看到了这一点。伤害的分布很少是累加的:处于多个边缘化身份交叉点的个体经历复合的、独特结构的AI暴露。环境AI暴露的非局部性增加了另一个维度。AI模型经常将零散的监测数据转化为全球优先设置的可比健康损失测量,其嵌入的假设塑造了哪些人群和风险在政策辩论中变得可见。因此,AI可以作为自动化不平等的机制——编码在监视可以识别它们之前大规模传播的伤害。

3、对AI治理的影响

如果AI系统塑造人群健康,运营它们的实体就有责任支持独立研究。但类比不适用:AI公司控制研究其产品所需的数据。在环境和药物研究中,政府强制报告给予研究人员独立访问。对于AI,平台遥测仍然是专有的。缩小这一差距需要强制数据共享、独立审计、隐私保护访问协议和类似于药物警戒网络的AI暴露注册。

图片

八、 结论

AI已经在通过人们遇到的信息、遵循的建议和代表他们做出的临床决策塑造健康。本文提出的框架区分了环境和个人暴露,确定了AI在流行病学模型中的因果角色,并概述了必须测量的暴露维度。

AI渗透到健康相关领域的速度与其研究能力之间的差距正在扩大。缩小它需要新的数据基础设施、新的研究设计,以及公众、流行病学家、计算机科学家、控制数据的平台和监管AI的监管机构之间的合作。

如需要《人工智能的流行病学——构建算法健康决定因素的理论框架》(英文,共18页),请在本微信公众号中赞赏(点喜欢或稀罕作者后按本公众号设定打赏)后,发来email地址索取。

图片


图片

图片


★ 每日鲜鸡汤  ★

The greatest benefactor in the world is the version of yourself with unstoppable execution. 世界上最好的贵人是执行力超强的自己。早上好!

图片