在会议室里听着冗长的汇报,视线不自觉地聚焦在窗外摇曳的树枝上;深夜阅读专业书籍时,突然想起童年老宅门廊的风铃声……这些被我们视为注意力涣散的瞬间,可能正是大脑在高效运作

 

20256月发表在Nature期刊的一项开创性研究,彻底颠覆了对走神的认知。美国霍华德·休斯医学研究所的团队发现:当生物体处于无目标导向的放空状态时,视觉皮层正悄然进行着深度信息重组。这种被称为无监督学习的神经机制,不仅独立于传统奖励系统存在,甚至能加速后续任务学习——就像大脑在后台自动完成数据预处理

 

图片

DOI10.1038/s41586-025-09180-y

 

 

无监督学习的神经证据

 

实验设计极为精巧:研究者训练小鼠在虚拟现实走廊中辨别两种纹理(如树叶圆圈),成功辨别可获得水分奖励(任务组);另一组小鼠则在完全无奖励的情况下自由奔跑于相同环境(无监督组)光栅对照组则暴露于简单条纹图案。通过双光子介观显微镜记录发现:

 

任务组小鼠在2周训练后内侧高级视觉区(如PMAMMMA 出现了大量对特定纹理敏感的神经元(选择性指数d'≥0.3),这与它们的行为学习同步发生令人震惊的是,无监督组小鼠的相同脑区也出现了几乎完全一致的神经可塑性变化

 

也就是说,尽管无监督组小鼠无需完成任何任务,也未获得任何奖励,它们的视觉皮层却像任务组一样,自发形成了对纹理特征的选择性编码。

 

图片

视觉皮层在监督和无监督训练后的可塑性

 

 

走神状态的神经机制

 

关键发现藏在细节中,当研究者用Rastermap算法分析神经元集群活动时,发现只有任务组小鼠的前侧高级视觉区出现了独特的奖励预测信号这类神经元会在奖励即将到来前激活,并在获得奖励后迅速抑制。

 

无监督组小鼠完全缺乏此类信号。这意味着:

 

  • 任务学习依赖前侧脑区的监督信号(关联刺激与奖励)

     

  • 无监督暴露则在内侧视觉区构建纯粹的刺激表征

 

这样也就不难理解,为什么学生上课走神时,虽然没刻意听讲,但大脑仍在对教室环境进行“无标签学习“。当老师突然提问,前期无意识建立的表征会让人更快理解问题。

 

图片

在监督训练中特有的奖励预测信号

 

 

预训练的加速效应

 

传统理论认为,感觉皮层的可塑性需要行为奖励驱动。但本研究揭示:单纯暴露于视觉刺激,就足以重塑高级视觉区的神经表征为验证其功能意义,团队设计了终极实验:让新小鼠群经历10天无奖励预训练(仅在VR走廊自由奔跑),再进入5天奖励任务训练。

 

结果发现:自然纹理预训练组(VRn)在首日任务训练即表现出显著区分能力(舔舐正确率差值达40%),而无预训练组小鼠仍在随机舔水;光栅预训练组(VRg)学习曲线与无预训练组重叠,证明加速效应依赖特定视觉特征。

 

看来,这一机制的核心在于表征预优化无监督学习在高级视觉区构建了精细的纹理特征探测器(如叶状结构的抽象编码)。当任务学习启动时,这些预训练的神经元只需微调即可关联奖励信号,而无需从零构建感知表征

 

图片

无监督预训练加速后续任务学习

 

 

走神的学习优势机制

 

该研究揭示了走神价值的三大神经基础:

 

1)刺激压缩与去冗余
 

暴露于相同刺激时,大脑会自动优化信息编码。例如小鼠反复看到树叶1”后,其视觉皮层会抑制对常见特征的响应(如叶脉基础模式),转而强化对鉴别性特征(如边缘锯齿)的编码这种压缩使后续识别更高效。

 

2)潜在表征建立
 

当新刺激树叶3”出现时,预暴露组小鼠的神经元会将其归类到已有表征中。就像人类走神时瞥见陌生叶片,大脑会自动关联到已知的树叶范畴,而非完全从头处理。

 

3)错误驱动的隐式学习
 

尽管无监督组没有外在奖励,其神经元对意外刺激仍保持敏感。例如当纹理位置突然调换,外侧视觉区立即出现强烈响应。这种对偏差的自发检测,正是无监督学习的核心驱动力。

 

 

对人类学习的启示

 

该研究解释了诸多日常现象:

 

  • 顿悟时刻散步时突然解决难题,源于走神期间的无监督表征积累

     

  • 预习效应提前浏览教材的学生正式学习更快,因视觉皮层已初步编码信息

     

  • 环境熏陶沉浸在外语环境中即使没认真学,大脑也在建立语音表征

 

这也解释了为何强迫性专注有时适得其反——当大脑被剥夺自主探索空间,反而削弱了内在学习动力。

 

看来,当我们凝视天空发呆,或是漫无目的地散步时,大脑正进行着高效的信息压缩与表征构建。那些曾被斥为懒惰的走神时刻,实则是神经可塑性悄然重塑的关键期。而无监督学习的魔力在于其自主性与无压力——没有考试目标的驱动,没有错误惩罚的焦虑,大脑反而能建立更普适的表征。

 

 

参考资料:

 

[1] Zhong, L., Baptista, S., Gattoni, R. et al. Unsupervised pretraining in biological neural networks. Nature (2025). https://doi.org/10.1038/s41586-025-09180-y

 

撰写:JY

编辑:小饼干