自闭症青少年自发性面部表情的积极情绪效价:揭示社交误解的神经机制

【字体: 时间:2025年05月03日 来源:Scientific Reports 3.8

编辑推荐:

  本研究针对自闭症谱系障碍(ASD)患者面部表情识别困难的社会沟通难题,通过分析青少年对幽默/恶心视频刺激的自发反应,首次发现ASD组会产生更长时间的积极效价(positive valence)表情(包括对负面视频),且表达时长显著长于神经典型发育(NT)组。该成果发表于《Scientific Reports》,揭示了ASD-NT社交误解可能源于表情效价感知偏差,为跨神经类型社交互动提供了客观依据。

  

在社交互动中,面部表情如同无声的语言,承载着复杂的情感信息。然而对于自闭症谱系障碍(Autism Spectrum Disorder, ASD)群体而言,这种"语言"的编码和解码似乎总存在某种错位。自1943年Kanner首次描述自闭症特征以来,大量研究表明ASD个体的面部表情常被感知为"难以解读"——可能是表情稍纵即逝、与情境不符,或是被误读为消极情绪。这种沟通障碍究竟源于表情产生的本质差异,还是旁观者的认知偏差?传统研究多依赖刻意模仿或情境想象的表情诱发方式,但Emerson College的Ruth B.Grossman团队独辟蹊径,选择YouTube视频这种自然刺激来捕捉青少年最真实的面部反应。

研究团队招募了17名ASD和18名神经典型发育(Non-Typical, NT)青少年,通过标准化评估确保两组在年龄、性别、智商和语言能力上无显著差异。参与者观看拼接的26个YouTube视频序列(含4个恶心内容和4个可爱/搞笑内容),研究人员截取每个视频最具情绪冲击力的6秒片段,采用双盲框架编码(frame-by-frame coding)分析面部特征运动。为确保客观性,所有编码员均不知晓参与者诊断信息,且通过ELAN软件记录特定肌肉动作(如嘴角上扬为积极效价,皱眉为消极效价),争议数据需经三重校验。

主要结果呈现三个关键发现

  1. 表达时长差异:混合效应模型显示ASD组情绪表达总时长显著更长(β=953.03ms, p<0.001),尤其在积极效价表达上比NT组长2187.6ms(p<0.0001)。
  2. 效价特异性:三因素交互作用揭示ASD组对恶心视频仍产生长时间积极表情(比NT组长1167.9ms, p=0.036),而NT组无此现象。
  3. 跨模态矛盾:行为观察发现ASD个体常伴随"微笑+身体后仰/遮眼"的矛盾反应,与Costa等报告的"脸身情绪不协调"现象吻合。

技术方法亮点
研究采用红外运动捕捉(infrared motion capture)记录32个面部标记点动态,结合半结构化社交环境设计消除任务干扰。通过临床评估(ADOS-2、SCQ)严格分组,使用KBIT-2和CELF-5控制认知偏差。数据分析采用R语言的lme4包构建混合线性模型,处理缺失值并纳入视频/参与者随机效应。

讨论与意义
这项研究颠覆了早期"ASD负面表情偏倚"假说,用客观数据证实现代研究提出的"积极效价偏倚"理论:当ASD个体面对负面刺激时,其面部肌肉运动模式可能同时激活"微笑肌群"和"厌恶肌群",导致非自闭症观察者主要依据显性的嘴角上扬判定为积极情绪。这种感知偏差可能解释为何ASD儿童在玩具被夺走时会"笑着拍桌"——并非情绪体验不同,而是表情编码系统存在神经类型差异。

研究局限性在于编码员均为非自闭症人群,未来需纳入ASD编码者对比;且样本以男性为主。但该成果为理解"双重共情问题"(double empathy problem)提供了新视角:社交障碍不仅是ASD个体"表达异常"的结果,更是两种神经类型在情感外化方式上的根本差异。正如作者强调,面部表情绝非情绪状态的可靠指标,这项研究警示临床和教育领域应避免仅凭表情判断ASD个体的真实感受,为开发跨神经类型的沟通培训提供了重要理论基础。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号