日本东北大学(Tohoku University)的一组研究人员利用在电脑上复制大脑的神经网络模型,揭示了这是如何形成的。

《科学报告》杂志于2021年7月26日发表了研究结果。

“人类通过观察面部表情来识别不同的情绪,比如悲伤和愤怒。然而,我们如何根据面部表情的视觉信息来识别不同的情绪,我们知之甚少。”

“目前还不清楚在这个过程中发生了什么变化,导致自闭症谱系障碍患者难以解读面部表情。”

研究小组使用预测加工理论来帮助理解更多。根据这一理论,大脑不断预测下一个感官刺激,并在预测错误时进行调整。感官信息,比如面部表情,有助于减少预测错误。

人工神经网络模型融合了预测处理理论,通过学习预测面部表情视频中各部分的运动,再现了发育过程。在此之后,情绪集群被自组织到神经网络模型的更高层次神经元空间中,而模型不知道视频中的面部表情对应的是哪个情绪。

该模型可以概括训练中未给出的未知面部表情,重现面部部分的动作,最大限度地减少预测误差。

随后,研究人员进行了实验,并诱导神经元活动异常,以研究其对学习发展和认知特征的影响。在神经群体活动异质性降低的模型中,泛化能力也降低;因此,高层次神经元中情绪簇的形成受到了抑制。这导致了无法识别未知面部表情的情绪的倾向,这是自闭症谱系障碍的类似症状。

Takahashi表示,该研究阐明了预测加工理论可以利用神经网络模型从面部表情解释情绪识别。

高桥补充说:“我们希望进一步了解人类学会识别自闭症谱系障碍患者的情绪和认知特征的过程。”“这项研究将有助于为那些难以识别情绪的人开发合适的干预方法。”

Journal Reference:

Yuta Takahashi, Shingo Murata, Hayato Idei, Hiroaki Tomita, Yuichi Yamashita. Neural network modeling of altered facial expression recognition in autism spectrum disorders based on predictive processing framework. Scientific Reports, 2021; 11 (1) DOI: 10.1038/s41598-021-94067-x