
-
生物通官微
陪你抓住生命科技
跳动的脉搏
自闭症青少年自发性面部表情的积极情绪效价:揭示社交误解的神经机制
【字体: 大 中 小 】 时间:2025年05月03日 来源:Scientific Reports 3.8
编辑推荐:
本研究针对自闭症谱系障碍(ASD)患者面部表情识别困难的社会沟通难题,通过分析青少年对幽默/恶心视频刺激的自发反应,首次发现ASD组会产生更长时间的积极效价(positive valence)表情(包括对负面视频),且表达时长显著长于神经典型发育(NT)组。该成果发表于《Scientific Reports》,揭示了ASD-NT社交误解可能源于表情效价感知偏差,为跨神经类型社交互动提供了客观依据。
在社交互动中,面部表情如同无声的语言,承载着复杂的情感信息。然而对于自闭症谱系障碍(Autism Spectrum Disorder, ASD)群体而言,这种"语言"的编码和解码似乎总存在某种错位。自1943年Kanner首次描述自闭症特征以来,大量研究表明ASD个体的面部表情常被感知为"难以解读"——可能是表情稍纵即逝、与情境不符,或是被误读为消极情绪。这种沟通障碍究竟源于表情产生的本质差异,还是旁观者的认知偏差?传统研究多依赖刻意模仿或情境想象的表情诱发方式,但Emerson College的Ruth B.Grossman团队独辟蹊径,选择YouTube视频这种自然刺激来捕捉青少年最真实的面部反应。
研究团队招募了17名ASD和18名神经典型发育(Non-Typical, NT)青少年,通过标准化评估确保两组在年龄、性别、智商和语言能力上无显著差异。参与者观看拼接的26个YouTube视频序列(含4个恶心内容和4个可爱/搞笑内容),研究人员截取每个视频最具情绪冲击力的6秒片段,采用双盲框架编码(frame-by-frame coding)分析面部特征运动。为确保客观性,所有编码员均不知晓参与者诊断信息,且通过ELAN软件记录特定肌肉动作(如嘴角上扬为积极效价,皱眉为消极效价),争议数据需经三重校验。
主要结果呈现三个关键发现
技术方法亮点
研究采用红外运动捕捉(infrared motion capture)记录32个面部标记点动态,结合半结构化社交环境设计消除任务干扰。通过临床评估(ADOS-2、SCQ)严格分组,使用KBIT-2和CELF-5控制认知偏差。数据分析采用R语言的lme4包构建混合线性模型,处理缺失值并纳入视频/参与者随机效应。
讨论与意义
这项研究颠覆了早期"ASD负面表情偏倚"假说,用客观数据证实现代研究提出的"积极效价偏倚"理论:当ASD个体面对负面刺激时,其面部肌肉运动模式可能同时激活"微笑肌群"和"厌恶肌群",导致非自闭症观察者主要依据显性的嘴角上扬判定为积极情绪。这种感知偏差可能解释为何ASD儿童在玩具被夺走时会"笑着拍桌"——并非情绪体验不同,而是表情编码系统存在神经类型差异。
研究局限性在于编码员均为非自闭症人群,未来需纳入ASD编码者对比;且样本以男性为主。但该成果为理解"双重共情问题"(double empathy problem)提供了新视角:社交障碍不仅是ASD个体"表达异常"的结果,更是两种神经类型在情感外化方式上的根本差异。正如作者强调,面部表情绝非情绪状态的可靠指标,这项研究警示临床和教育领域应避免仅凭表情判断ASD个体的真实感受,为开发跨神经类型的沟通培训提供了重要理论基础。
生物通微信公众号
知名企业招聘