什么是A2D2数据集

AI解读 5小时前 硕雀
3 0

A2D2(Audi Autonomous Driving Dataset)概述

A2D2 是奥迪公司于 2020 年公开发布的面向自动驾驶研究的大规模多模态感知数据集。它提供了同步的摄像头图像、激光雷达点云、车辆总线(CAN‑bus)信息以及丰富的标注(2D 语义分割3D 边界框实例分割等),旨在降低自动驾驶研发的门槛,促进学术界和产业界的算法创新。


1. 数据采集平台与传感器配置

传感器 数量 主要功能
摄像头 (RGB) 6 台 前、后、左右全方位 360° 视觉覆盖
激光雷达 (LiDAR) 5 台(Velodyne VLP‑16) 前后共 5 台,提供高密度 3D 点云
车辆总线 (CAN‑bus) 记录转向、油门、刹车、速度、加速度等车辆状态
GPS/IMU 提供定位与姿态信息(在部分子集里提供)

传感器布局采用奥迪 Q7 e‑tron 车型,摄像头与激光雷达的视场经过精心设计,使得 LiDAR 与摄像头的覆盖区域最大程度重叠,便于多传感器融合与 SLAM 研究。


2. 数据规模与组织

类型 帧数 说明
带语义分割的图像 + 点云 41 277 帧 每帧均提供 38 类像素级语义标签
带 3D 边界框的帧 12 497 帧 前置摄像头视野内的车辆、行人、骑行者等目标的 3D 包围框
未标注的原始序列 392 556 帧 适用于自监督或序列学习
车辆总线日志 全部帧 包含转向角、油门、刹车、速度等信息

数据总量约 2.2 TB(标注部分约 200 GB,未标注原始数据约 2 TB)。


3. 标注与任务支持

  • 2D 语义分割:38 类(道路、车道线、行人、车辆、建筑等)
  • 3D 目标检测:12 497 帧提供 3D 边界框,覆盖 10+ 类目标
  • 实例分割:在语义分割基础上提供实例 ID
  • 车辆行为/状态:CAN‑bus 数据可用于预测控制、轨迹规划
  • 多传感器同步:图像、点云、IMU、GPS 同步时间戳,便于传感器融合研究

这些标注使得 A2D2 能支撑 语义分割、目标检测、轨迹预测、SLAM、跨模态学习 等多任务研究。


4. 许可协议

  • CC BY‑ND 4.0(署名-禁止演绎)‍:允许商业使用,但禁止对原始数据进行二次修改后再发布。
  • 数据中涉及的车牌、人脸等隐私信息已进行模糊处理,符合 GDPR 等隐私法规。

5. 下载与文档入口

资源 链接
官方数据集主页(概览、下载说明) https://www.a2d2.audi/
数据下载页面(包含 .tar/.zip 包) https://www.a2d2.audi/a2d2/en/download.html
官方论文(arXiv) https://arxiv.org/abs/2004.06320
GitHub:A2D2 ROS 预处理工具 https://github.com/tum-gis/a2d2_ros_preparer
GitHub:Cartographer 在 A2D2 上的示例 https://github.com/tum-gis/cartographer_audi_a2d2

以上链接均来源于官方或可信的学术/开源社区,确保下载的完整性与合法性。


6. 典型使用案例

  1. 多模态感知融合:利用同步的摄像头图像与 5 台 LiDAR 点云,训练跨模态特征提取网络。
  2. SLAM 与地图构建:借助高密度点云与 IMU/GPS,评估 Cartographer、LOAM 等实时定位系统的精度。
  3. 自监督学习:使用 392 556 帧未标注的原始序列进行预测式编码或对比学习,提高模型对稀缺标注数据的鲁棒性
  4. 行为预测:结合 CAN‑bus 控制信号与环境感知,构建端到端的驾驶决策模型。

这些案例在多篇论文和开源项目中已有实现,证明 A2D2 在学术与工业界的广泛适用性。


7. 小结

A2D2 是目前公开的、规模较大且标注丰富的自动驾驶感知数据集之一。它的 多传感器同步、完整的车辆状态记录、商业友好的许可,为从 基础感知 到 决策规划 的全链路研究提供了可靠的实验平台。研究者可以直接从官方页面下载数据,或通过社区提供的 ROS 工具快速转化为常用的 bag 文件进行实验。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!