神经网络模型显示了为什么自闭症患者对面部表情的理解不同

【字体: 时间:2021年08月06日 来源:Tohoku University

编辑推荐:

  自闭症谱系障碍患者对面部表情的理解不同。研究人员已经揭示了这是如何发生的。他们将异常情况引入神经网络模型,以探索对大脑学习发展的影响。

  

日本东北大学(Tohoku University)的一组研究人员利用在电脑上复制大脑的神经网络模型,揭示了这是如何形成的。

《科学报告》杂志于2021年7月26日发表了研究结果。

“人类通过观察面部表情来识别不同的情绪,比如悲伤和愤怒。然而,我们如何根据面部表情的视觉信息来识别不同的情绪,我们知之甚少。”

“目前还不清楚在这个过程中发生了什么变化,导致自闭症谱系障碍患者难以解读面部表情。”

研究小组使用预测加工理论来帮助理解更多。根据这一理论,大脑不断预测下一个感官刺激,并在预测错误时进行调整。感官信息,比如面部表情,有助于减少预测错误。

人工神经网络模型融合了预测处理理论,通过学习预测面部表情视频中各部分的运动,再现了发育过程。在此之后,情绪集群被自组织到神经网络模型的更高层次神经元空间中,而模型不知道视频中的面部表情对应的是哪个情绪。

该模型可以概括训练中未给出的未知面部表情,重现面部部分的动作,最大限度地减少预测误差。

随后,研究人员进行了实验,并诱导神经元活动异常,以研究其对学习发展和认知特征的影响。在神经群体活动异质性降低的模型中,泛化能力也降低;因此,高层次神经元中情绪簇的形成受到了抑制。这导致了无法识别未知面部表情的情绪的倾向,这是自闭症谱系障碍的类似症状。

Takahashi表示,该研究阐明了预测加工理论可以利用神经网络模型从面部表情解释情绪识别。

高桥补充说:“我们希望进一步了解人类学会识别自闭症谱系障碍患者的情绪和认知特征的过程。”“这项研究将有助于为那些难以识别情绪的人开发合适的干预方法。”

Journal Reference:

  1. Yuta Takahashi, Shingo Murata, Hayato Idei, Hiroaki Tomita, Yuichi Yamashita. Neural network modeling of altered facial expression recognition in autism spectrum disorders based on predictive processing framework. Scientific Reports, 2021; 11 (1) DOI: 10.1038/s41598-021-94067-x

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号