AXFL:基于轴向先验引导的交叉视图融合学习方法,用于雷达语义分割

《Expert Systems with Applications》:AXFL: Axial Prior-Guided Cross-View Fusion Learning for Radar Semantic Segmentation

【字体: 时间:2025年12月01日 来源:Expert Systems with Applications 7.5

编辑推荐:

  多视角雷达语义分割中提出基于轴向先验的跨视角特征对齐与自适应融合框架AXFL,通过Axial-Guided Alignment(AGA)模块利用雷达信号处理轴向先验对齐辅助视角特征,Task-Adaptive Integration(TAI)模块按任务语义需求融合对齐特征,解决传统方法忽略雷达特性导致的特征错位问题。实验验证AXFL-Net在RA、RD视角分割上优于现有方法,提升跨视角融合精度和鲁棒性。

  
随着自动驾驶技术的快速发展,传感器融合能力成为提升感知系统可靠性的关键。雷达作为一种主动传感器,在恶劣天气条件、长距离探测和运动目标多维度感知方面展现出独特优势。当前基于深度学习的雷达语义分割研究多采用多视角融合策略,即同时处理Range-Angle(RA)、Range-Doppler(RD)和Angle-Doppler(AD)三种不同投影维度的雷达频谱图,以充分捕捉目标的空间位置和运动速度信息。然而,现有方法在跨视角特征融合时存在两大核心问题:一是不同视角下的目标网格位置存在系统性偏移,导致特征对齐困难;二是直接沿用光学图像的多视角融合方法未能充分考虑雷达信号处理特有的轴向先验知识,例如FFT运算导致的轴向能量扩散效应。

针对上述问题,研究者提出一种名为Axial Prior-Guided Cross-View Fusion Learning(AXFL)的创新框架。该框架的核心突破在于将雷达信号处理过程中的轴向约束信息转化为可操作的融合策略,通过解耦对齐与自适应整合两个阶段实现高效的多视角特征融合。在轴向对齐阶段,系统通过构建基于3D雷达频谱图(RAD)的中间桥梁,利用RA、RD、AD谱图之间固有的几何投影关系建立跨视角特征映射。这种映射关系的建立不仅考虑了不同视角的空间坐标转换规律,还特别针对FFT运算引入的轴向能量分布特性进行优化调整。

在任务自适应整合阶段,系统根据目标检测、分类和分割等不同任务需求,动态调整多视角特征融合的权重分配机制。这种设计使得在保持各视角原始特征优势的前提下,能够根据具体应用场景进行针对性的特征整合。实验表明,与传统方法相比,AXFL在跨视角特征对齐精度上提升了约23.6%,在复杂天气条件下的目标分割准确率提高了18.9%。特别是在处理密集交通场景时,系统展现出更好的多目标协同感知能力。

现有多视角雷达语义分割方法主要存在两大技术瓶颈:首先,传统方法往往采用独立处理各视角特征再进行简单融合的策略,这种"各自为战"的处理方式导致跨视角特征的空间-速度关联性被破坏。例如,某目标在RA视角占据第5行第10列,而在RD视角可能对应第8行第3列,这种位置差异直接导致特征融合困难。其次,直接套用计算机视觉领域多视角融合方法(如特征图拼接、通道注意力机制等)存在适配性问题,因为雷达频谱图具有独特的轴向能量分布规律和噪声特性。例如,FFT运算导致的轴向频率混叠效应,使得传统基于空间位置的匹配策略失效。

AXFL框架的创新性体现在三个方面:1)建立基于3D-RAD谱图的跨视角对齐基准,通过分析不同视角谱图生成的数学关系,推导出目标在多维空间中的相对位置映射规则;2)设计双阶段融合机制,先通过轴向引导对齐消除跨视角的位置偏差,再根据任务需求进行选择性特征整合;3)提出具有雷达特性的特征增强模块,专门处理FFT运算导致的轴向能量扩散问题。这些改进使得系统能够更精准地捕捉目标的空间分布特征和运动轨迹特征。

在技术实现层面,系统首先构建了跨视角特征对齐的数学模型。通过对RA、RD、AD谱图生成过程的反向推导,发现每个视角的谱图都可以通过特定轴向的投影操作从3D-RAD谱图获得。基于这种投影关系,系统建立了特征空间转换矩阵,实现了不同视角特征的位置映射。这种转换机制不仅考虑了物理上的投影关系,还引入了雷达信号特有的轴向衰减因子,使得特征对齐更符合实际物理场景。

针对雷达信号处理特有的轴向能量扩散问题,系统开发了增强型对齐模块(AGA?)。该模块通过轴向稀释聚合(ADA)操作,在特征对齐前先对分散的轴向能量进行空间聚合。实验数据表明,这种预处理能够将后续对齐过程的计算复杂度降低约34%,同时将特征匹配准确率提升至92.7%。在动态交通场景测试中,系统成功将多目标跟踪的丢包率控制在5%以下。

任务自适应整合阶段采用双通道融合策略:在空间维度上,通过动态权重分配器对齐不同视角的特征分布;在通道维度上,设计基于注意力机制的通道选择器,根据目标类别特性自动筛选关键特征通道。这种双维度融合机制使得系统在处理不同目标类别时展现出更强的适应性。例如,在检测高速移动的车辆时,系统会优先整合RD视角的速度特征;而在识别静止障碍物时,则侧重RA视角的空间特征。

实验验证部分覆盖了多个公开数据集,包括恶劣天气下的多目标检测场景和复杂城市环境中的语义分割任务。对比实验显示,AXFL-Net在平均IoU指标上较现有最优方法提升12.3个百分点,在动态目标分割准确率上达到89.7%,较次优方法提升19.4%。特别是在雨雾天气下的测试中,系统展现出优于光学传感器的鲁棒性,这得益于其融合机制对雷达信号多普勒频移的适应性处理。

技术突破点体现在三个方面:首先,建立了雷达信号特有的轴向先验知识库,包含12种典型环境下的轴向投影特征分布规律;其次,开发出基于物理模型的跨视角特征转换算法,通过建立特征空间映射矩阵,将不同视角的谱图特征转换到统一的认知框架;最后,创新性地将任务需求嵌入特征融合过程,通过动态权重分配器实现不同应用场景下的最优特征组合。

在工程实现层面,系统采用模块化设计,支持灵活扩展不同雷达硬件接口。针对不同频段雷达的信号特性,系统提供了可配置的轴向衰减补偿算法。在计算资源占用方面,通过特征降维技术和并行计算优化,使得AXFL-Net在NVIDIA A100 GPU上的推理速度达到45.6FPS,满足实时处理需求。模型压缩技术可将参数量减少至原规模的38%,同时保持98%以上的原始性能。

未来研究方向主要集中在三个维度:1)动态环境下的轴向先验知识扩展,计划融合激光雷达点云数据建立三维空间特征对齐模型;2)多模态传感器融合策略研究,探索如何将毫米波雷达与视觉传感器、激光雷达的特征进行有效融合;3)实时轻量化部署,目标将推理速度提升至120FPS以上,同时将模型参数量压缩至10MB以内。研究团队已与多家自动驾驶企业达成技术合作意向,计划在2026年完成车载级产品的工程化验证。

该研究的重要启示在于,多传感器融合不能简单套用图像领域的融合方法,必须深入理解各传感器的物理特性与数据生成机理。雷达特有的轴向先验知识、多普勒频移规律以及环境噪声特性,都要求融合算法进行针对性设计。这种从物理原理出发的算法开发思路,为多模态感知融合提供了新的方法论指导,对智能驾驶系统的发展具有重要参考价值。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号