
-
生物通官微
陪你抓住生命科技
跳动的脉搏
光场协同感知网络(LFCPNet)在复杂场景视觉目标跟踪中的突破性应用
【字体: 大 中 小 】 时间:2025年07月29日 来源:Pattern Recognition 7.5
编辑推荐:
针对复杂场景中相似干扰物导致目标跟踪偏离的难题,研究人员创新性地提出基于光场4D空间角度线索的协同感知网络(LFCPNet)。通过解耦光场强度与空间角度信息,构建多级协作图挖掘宏视差边界特征,结合自适应传播机制实现多模态特征融合。在自建R8TRACK数据集上验证显示,该方法显著提升跟踪鲁棒性,为光场视觉应用提供新范式。
在计算机视觉领域,视觉目标跟踪(VOT)一直是极具挑战性的研究方向。尽管基于外观模型的传统RGB跟踪器在简单场景中表现良好,但当目标周围出现相似干扰物时,仅依赖颜色、纹理等二维特征往往会导致跟踪失败。这一瓶颈源于传统图像缺乏深度和视角信息,难以区分视觉特征相近的物体。光场成像技术通过微透镜阵列捕获4D空间角度信息,其特有的宏视差平面图像(macro-EPI)能记录光线在视差平面上的角度线索,为突破这一局限提供了新思路。
来自中国的研究团队在《Pattern Recognition》发表的研究中,创新性地提出了光场协同感知网络(LFCPNet)。该研究首先构建了首个真实世界光场跟踪数据集R8TRACK,包含34组Raytrix相机采集的序列。关键技术包括:1) 设计协作图引导的边界感知模块,解耦macro-EPI中的光强与空间角度信息;2) 开发多级块协作图网络,通过定向注意力机制强化显著对象与边界的关联;3) 提出自适应传播算法,动态评估跟踪状态并选择性融合多模态特征。
研究结果显示:在边界信息挖掘方面,通过构建轻量级macro-EPI编码器,成功从稀疏不连续的边界区域提取出判别性空间角度特征。实验表明,该方法在DUTLFV2数据集上的显著目标检测性能提升12.6%。在多模态融合方面,自适应传播机制通过预测图计算关联分数,有效平衡了外观模型与空间角度模型的贡献权重,在相似干扰场景下的跟踪准确率提高23.4%。
该研究的创新性体现在三个层面:方法论上首次实现光场信息的解耦感知,技术上开发了协作图与自适应传播的协同框架,应用层面建立了首个真实光场跟踪基准。研究不仅为复杂场景目标跟踪提供了新解决方案,其提出的光场特征挖掘方法对深度估计、三维重建等相关领域也具有借鉴意义。作者指出,未来工作将聚焦于提升算法实时性,并探索光场信息在跨模态学习中的泛化能力。
生物通微信公众号
知名企业招聘