A2D2(Audi Autonomous Driving Dataset)概述
A2D2 是奥迪公司于 2020 年公开发布的面向自动驾驶研究的大规模多模态感知数据集。它提供了同步的摄像头图像、激光雷达点云、车辆总线(CAN‑bus)信息以及丰富的标注(2D 语义分割、3D 边界框、实例分割等),旨在降低自动驾驶研发的门槛,促进学术界和产业界的算法创新。
1. 数据采集平台与传感器配置
传感器 | 数量 | 主要功能 |
---|---|---|
摄像头 (RGB) | 6 台 | 前、后、左右全方位 360° 视觉覆盖 |
激光雷达 (LiDAR) | 5 台(Velodyne VLP‑16) | 前后共 5 台,提供高密度 3D 点云 |
车辆总线 (CAN‑bus) | — | 记录转向、油门、刹车、速度、加速度等车辆状态 |
GPS/IMU | — | 提供定位与姿态信息(在部分子集里提供) |
传感器布局采用奥迪 Q7 e‑tron 车型,摄像头与激光雷达的视场经过精心设计,使得 LiDAR 与摄像头的覆盖区域最大程度重叠,便于多传感器融合与 SLAM 研究。
2. 数据规模与组织
类型 | 帧数 | 说明 |
---|---|---|
带语义分割的图像 + 点云 | 41 277 帧 | 每帧均提供 38 类像素级语义标签 |
带 3D 边界框的帧 | 12 497 帧 | 前置摄像头视野内的车辆、行人、骑行者等目标的 3D 包围框 |
未标注的原始序列 | 392 556 帧 | 适用于自监督或序列学习 |
车辆总线日志 | 全部帧 | 包含转向角、油门、刹车、速度等信息 |
数据总量约 2.2 TB(标注部分约 200 GB,未标注原始数据约 2 TB)。
3. 标注与任务支持
- 2D 语义分割:38 类(道路、车道线、行人、车辆、建筑等)
- 3D 目标检测:12 497 帧提供 3D 边界框,覆盖 10+ 类目标
- 实例分割:在语义分割基础上提供实例 ID
- 车辆行为/状态:CAN‑bus 数据可用于预测控制、轨迹规划
- 多传感器同步:图像、点云、IMU、GPS 同步时间戳,便于传感器融合研究
这些标注使得 A2D2 能支撑 语义分割、目标检测、轨迹预测、SLAM、跨模态学习 等多任务研究。
4. 许可协议
- CC BY‑ND 4.0(署名-禁止演绎):允许商业使用,但禁止对原始数据进行二次修改后再发布。
- 数据中涉及的车牌、人脸等隐私信息已进行模糊处理,符合 GDPR 等隐私法规。
5. 下载与文档入口
资源 | 链接 |
---|---|
官方数据集主页(概览、下载说明) | https://www.a2d2.audi/ |
数据下载页面(包含 .tar/.zip 包) | https://www.a2d2.audi/a2d2/en/download.html |
官方论文(arXiv) | https://arxiv.org/abs/2004.06320 |
GitHub:A2D2 ROS 预处理工具 | https://github.com/tum-gis/a2d2_ros_preparer |
GitHub:Cartographer 在 A2D2 上的示例 | https://github.com/tum-gis/cartographer_audi_a2d2 |
以上链接均来源于官方或可信的学术/开源社区,确保下载的完整性与合法性。
6. 典型使用案例
- 多模态感知融合:利用同步的摄像头图像与 5 台 LiDAR 点云,训练跨模态特征提取网络。
- SLAM 与地图构建:借助高密度点云与 IMU/GPS,评估 Cartographer、LOAM 等实时定位系统的精度。
- 自监督学习:使用 392 556 帧未标注的原始序列进行预测式编码或对比学习,提高模型对稀缺标注数据的鲁棒性。
- 行为预测:结合 CAN‑bus 控制信号与环境感知,构建端到端的驾驶决策模型。
这些案例在多篇论文和开源项目中已有实现,证明 A2D2 在学术与工业界的广泛适用性。
7. 小结
A2D2 是目前公开的、规模较大且标注丰富的自动驾驶感知数据集之一。它的 多传感器同步、完整的车辆状态记录、商业友好的许可,为从 基础感知 到 决策规划 的全链路研究提供了可靠的实验平台。研究者可以直接从官方页面下载数据,或通过社区提供的 ROS 工具快速转化为常用的 bag 文件进行实验。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!