
-
生物通官微
陪你抓住生命科技
跳动的脉搏
解码社交意图的运动线索:基于手部运动学与眼动追踪的交互行为预测研究
【字体: 大 中 小 】 时间:2025年05月30日 来源:Scientific Reports 3.8
编辑推荐:
本研究针对社交互动中运动意图解码的机制问题,通过记录个体化(放置)与社交性(传递)抓握动作的运动学特征,结合双视角(第二人称与第三人称)行为实验和眼动追踪技术,揭示了手-物接触位置(Hand Position)和面部注视作为社交意图关键线索的作用。研究发现,低手部接触位置(Y轴<46.9 mm)显著预测交互意图(p<0.002),且第二人称视角下面部注视占比达6313.41个fixations(p<0.000)。该成果发表于《Scientific Reports》,为理解社交动作预测(Action Prediction)的神经机制提供了新证据,对发展人机交互和社交障碍干预策略具有重要价值。
在咖啡厅里,当有人伸手拿起糖罐时,我们往往能瞬间判断对方是要自己加糖还是递给同伴——这种日常社交互动背后隐藏着复杂的神经机制。然而,当前研究对动作观察中哪些运动学特征(Kinematics)真正传递社交意图仍不明确,尤其缺乏对潜在交互场景(如第二人称视角)下线索整合机制的系统探索。帕尔马大学神经科学单元的研究团队通过创新性的多实验设计,首次揭示了手部在物体上的接触位置和面部注视在社交意图解码中的核心作用,相关成果发表在《Scientific Reports》上。
研究采用三个关键技术方法:1)使用3D-optoelectronic SMART系统记录18名受试者执行放置(Place)和传递(Pass)动作时的17项运动学参数;2)设计双视角(2nd/3rd-person perspective)行为实验,通过虚拟现实(HTC Vive Pro Eye)呈现96段剪辑视频,要求80名参与者完成动作预测任务(Action Prediction);3)在第二项实验中结合Tobii眼动仪量化面部(Face AOI)、手臂(Arm AOI)和手部(Hand AOI)的注视模式。
运动学分析
通过线性混合模型(LMM)发现,传递动作表现出显著的手部低位接触(Hand_Pos Y轴46.9 mm vs 放置53 mm, p<0.002)和整体速度降低(Mean Velocity 90.8 mm/s vs 98 mm/s)。主成分分析(PCA)显示抓握幅度(Grasp Range of Motion)和伸手速度(Reaching Speed)贡献76%方差,证实运动学差异主要源于社交意图而非单纯情境差异。
动作预测实验1(仅手臂可见)
信号检测理论(SDT)分析显示,20名"优秀解码者"(AUC>55)能通过运动学准确识别社交意图,其中手部闭合减速(Grasp Close Peak Deceleration)和接触位置是最强预测因子(分类准确率77%)。有趣的是,7名"反向解码者"将高速动作误判为社交意图,揭示个体差异可能源于运动共振(Motor Resonance)机制的异质性。
动作预测实验2(全身可见)
尽管面部可见未提升整体准确率(AUC 54.4 vs 54.03),眼动数据显示面部获得6313.41次注视(p<0.000),是手臂的71.41倍。第二人称视角下,面部注视增加15%(t(24071)=6.15),而"优秀解码者"更依赖全局速度线索(Reaching Speed),"随机组"则过度关注手部(t(47.8)=2.01)。
讨论与意义
该研究首次证实手-物接触位置是社交意图的"空间标记"——当人们为互动预留空间时,会无意识降低抓握高度(End-State Comfort Effect),这种运动适应(Motor Adaptation)被观察者解读为社交affordance。在神经机制层面,第二人称视角下对面部的优先加工,可能与镜像神经元系统(Mirror Neuron System)对潜在交互的敏感性有关。
成果对多领域具有启示价值:在临床方面,为自闭症等社交障碍患者的面部线索处理异常提供了量化指标;在人工智能领域,提示人机交互系统需整合手部轨迹(X/Y/Z轴)和虚拟眼神接触;在基础科研层面,确立了LMM和分类树分析(Classification Tree)在运动意图解码研究中的方法论优势。未来研究可拓展到动态双人交互场景,并纳入经颅磁刺激(TMS)等神经调控技术验证因果机制。
生物通微信公众号
知名企业招聘