面向野外机器人视觉导航的可通行区域边界数据集TAB14构建与语义标注研究

【字体: 时间:2025年01月29日 来源:Scientific Data 5.8

编辑推荐:

  本研究针对野外机器人视觉导航中复杂道路边界检测与语义理解的瓶颈问题,开发了半自动化构建的可通行区域边界数据集TAB14。通过创新性引入引导语义标签(guiding semantics)和场景复杂度标签(scene complexity),解决了传统二进制分割标签难以直接支持路径规划的缺陷。该数据集包含6,350帧点云和15,315条标注边界,其中82.05%数据来自弯道和交叉口等复杂场景,为无先验地图条件下的实时导航提供了数据支撑。

  

在野外机器人导航领域,传统依赖详细先验地图的方法面临重大挑战——公园、校园等场景往往缺乏高精度地图支持。更棘手的是,现有道路边界数据集仅提供二进制分割标签,机器人必须通过复杂的后处理才能提取路径规划所需的形状和转向信息,这严重制约了实时导航系统的响应速度。与此同时,严重遮挡的复杂道路(如交叉口、急转弯)样本的缺乏,使得现有检测器在真实场景中表现不佳。

南京理工大学计算机科学与工程学院的研究团队在《Scientific Data》发表的创新性研究,通过构建TAB14数据集突破了这些技术瓶颈。该研究采用16线激光雷达(Velodyne VLP-16)采集点云数据,创新性地设计了四层标注体系:除基础二进制分割标签外,新增的引导语义标签能直接区分"转向边界"(turning)和"直行边界"(straight-going side),使边界检测结果可直接用于路径规划;形状标签(shape labels)标记边界线的曲直特征;场景复杂度标签(scene complexity labels)则量化标注了遮挡、畸变等干扰因素影响区域。关键技术包括基于BEV(bird's eye view)的点云编码、基于地面分割的路缘半自动标注方法,以及考虑场景复杂度的动态容忍半径评估体系。

研究结果部分显示:

  1. 数据特性:数据集包含82.05%的弯道和交叉口场景,平均每帧存在13个动态物体,最大密度达51个,显著提升了复杂场景的覆盖率。

  2. 标注创新:引导语义标签使68%的边界可直接提供转向建议,59%的边界包含曲线特征,61%的边界标注了遮挡等干扰因素。

  3. 技术验证:HRNet-w18模型在该数据集上取得最佳表现,边界级F1分数达0.83(τ=0.3时),证明数据集能有效支持模型训练。

  4. 效率提升:半自动标注使新手标注员的漏标率降低53.3%,标注时间缩短25.8%,且标注精度提升12.6%。

这项研究的突破性在于:首次将道路边界检测从单纯的感知任务升级为"感知-规划"联合任务,通过引导语义标签实现了检测结果到路径规划的端到端转换。动态容忍半径机制创新性地将标注不确定性量化引入模型评估,为自动驾驶领域的标注规范提供了新思路。数据集特别强调弯道和交叉口场景,填补了现有数据集中在复杂交互场景的空白,对提升机器人在无地图环境的自主导航能力具有重要价值。研究团队开源的Python工具包(tab_kit)实现了数据加载、可视化和评估的一体化,将显著降低相关研究的入门门槛。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号