基于图卷积网络与多尺度特征融合的虚拟人动画运动捕捉模型研究
《IEEE Access》:Motion Capture Using GCN and Multi-Scale Features in Virtual Human Animation
【字体:
大
中
小
】
时间:2025年12月09日
来源:IEEE Access 3.6
编辑推荐:
本研究针对虚拟人驱动动画中传统运动捕捉技术存在关节运动预测误差大、对遮挡和快速运动等复杂场景适应性差的问题,提出了一种基于改进图卷积网络(GCN)与多尺度特征(MSF)融合的动画运动捕捉模型。通过引入门控时空卷积模块(GAGCN)和分层特征提取机制,该模型显著提升了运动细节的感知与保持能力。实验结果表明,在FSG-Mocap和MSI-Mocap数据集上,该模型关节位置误差低至13毫米/帧,速度误差为2毫秒/帧,在遮挡场景下准确度达0.99,快速运动下为0.98,对不同体型和衣着的适应性超过0.9,动画保真度、语义一致性和整体质量评分均高于4.8分,显著优于对比模型。该研究为虚拟人驱动技术提供了高精度、强泛化能力的解决方案,推动了动画制作与虚拟交互的智能化发展。
在电影制作、虚拟现实等领域,虚拟人驱动动画技术正发挥着越来越重要的作用。然而,传统的运动捕捉方法往往依赖昂贵的光学设备,且存在关节运动预测误差大、生成动画物理不合理、细节保真度低等问题。特别是在处理复杂场景如遮挡、快速运动时,现有方法常常出现抖动、脚部滑动等瑕疵,限制了其广泛应用。为了突破这些技术瓶颈,一项发表在《IEEE Access》上的研究提出了一种创新的解决方案——基于图卷积网络(GCN)和多尺度特征(MSF)融合的动画运动捕捉模型。
该研究通过引入门控注意力图卷积网络(GAGCN)和时空变换器(STT)编码器,增强了模型对运动时空特征的捕捉能力。同时,结合均值漂移算法优化的多尺度特征融合(Mean-RMSF)技术,模型能够自适应地聚焦关键运动区域,有效提升了对复杂运动模式的建模精度。实验在FSG-Mocap和MSI-Mocap数据集上进行,涵盖了精细手势识别和多人在线交互等多种场景。
研究首先对GCN运动捕捉算法进行优化,通过构建虚拟人骨架图,利用加权邻接矩阵模拟关节连接关系,并引入门控注意力机制(GAM)动态学习节点间的重要性。随后,设计时空变换器(STT)编码器替代单一空间编码器,交替处理时空特征,通过残差连接与层归一化保障训练稳定性。最终,提出STT-GMGCN算法,结合多尺度特征提取与动态区域聚焦机制,构建GCN-MSF模型,实现端到端的高精度运动捕捉。
在关节位置与速度误差测试中,STT-GMGCN算法表现最优,位置误差仅为13毫米/帧,速度误差为2毫秒/帧,显著低于对比算法(如MS-STGCN误差超50毫米/帧)。分类任务中,该算法在训练集与测试集上均接近真实标签,准确率最高达98.6%,损失率稳定在1.5%以下,召回率在FSG-Mocap数据集上达0.82(置信度0.8时),展现出优异的泛化能力。
GCN-MSF模型在动画质量评估中全面领先,自然度、保真度、语义一致性及整体质量评分均超过4.8分(5分制),显著高于生成对抗-循环神经网络(GA-RNN)等多类对比模型。在遮挡、快速运动、不同体型与衣着等挑战性场景下,模型准确度均超过0.9,联合旋转误差低于0.5°,末端执行器位置误差约2.8毫米。消融实验进一步验证了各模块(如多尺度特征融合、时空变换器)的必要性,全模块组合时召回率达0.93,自然度评分4.78。
该研究提出的GCN-MSF模型通过多尺度时空图卷积结构与动态门控机制,有效融合局部细节与全局运动特征,解决了传统方法在精度、泛化性及复杂场景适应性方面的不足。实验证明,模型在运动预测误差、动画质量及鲁棒性上均达到领先水平,为虚拟人动画制作提供了高可靠性技术支撑。未来工作将聚焦于模型轻量化与分布式计算,以进一步提升实时性与应用范围。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号