基于粗粒度BEV场景流的FSF-Net:增强自动驾驶4D占据预测

【字体: 时间:2025年08月31日 来源:Pattern Recognition 7.6

编辑推荐:

  (编辑推荐)本文提出FSF-Net,通过粗粒度鸟瞰图(BEV)场景流增强4D占据预测,创新性结合向量量化曼巴网络(VQ-Mamba)挖掘时空特征,并设计U-Net质量融合模块(UQF),在Occ3D数据集上实现IoU/mIoU提升9.56%/10.87%,为自动驾驶安全提供新思路。

  

Highlight

粗粒度BEV场景流的价值

我们发现鸟瞰图(BEV)场景流在多数交通场景中可近似替代3D场景流,且其粗粒度预测难度低。这一发现成为FSF-Net的核心设计基础。

Implementation details

实验细节

在公开Occup3D数据集(源自nuScenes数据集)的测试中,FSF-Net通过多帧点云稠密化生成真值,采用交叉熵损失函数优化,最终在16帧历史数据预测8帧任务中显著超越现有方法。

Limitations And Future Works

局限性与展望

自车轨迹预测不足:当前模型对自车轨迹预测效果较差,未来拟通过引入时序专用模块(如LSTM)改进。此外,动态物体预测误差和BEV场景流精度限制也是待优化方向。

Conclusion

结论

FSF-Net通过粗BEV场景流框架、VQ-Mamba时空特征增强和UQF融合网络三重创新,为自动驾驶4D占据预测树立了新标杆,IoU指标提升9.56%的突破性成果证实其工程实用价值。

(注:翻译严格保留原文技术术语如VQ-Mamba、BEV等,并采用"自车轨迹"等符合中文自动驾驶领域的表述,同时通过"三重创新"等生动表述增强可读性。)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号