什么是自动驾驶数据集,常见自动驾驶数据集介绍

AI解读 9小时前 硕雀
2 0

自动驾驶数据集概述
自动驾驶数据集是为研发和评估自动驾驶感知、定位、决策等技术而收集的多模态数据集合。它们通常包括摄像头图像、激光雷达点云、雷达回波、GPS/IMU 位置信息以及高精度地图标注,覆盖多种道路场景、天气、时间和城市环境。通过统一的标注格式(如 3D 边框、语义分割、轨迹预测等),研究者可以在同一基准上比较算法性能,推动感知、跟踪、预测、规划等关键技术的进步。

常见公开数据集及简介

数据集 主要传感器 场景/城市 规模/特点 适用任务 官方链接
KITTI 双目相机、Velodyne 64‑线 LiDAR、GPS/IMU 德国卡尔斯鲁厄及周边 约 7 k 张图像、23 k 帧点云,标注包括 3D 检测、立体、光流 目标检测立体匹配、光流、视觉里程计 http://www.cvlibs.net/datasets/kitti
Waymo Open Dataset 多部高分辨率 LiDAR、5×相机、雷达 美国旧金山、凤凰城等 1150 场景(每场景 20 s),点云与图像同步,标注 12 M 3D/2D 3D/2D 检测、跟踪、预测 https://waymo.com/open
nuScenes 6×相机、1×32‑线 LiDAR、5×雷达、IMU 波士顿、深圳 1000 场景(20 s),23 类 3D 框,包含雷达数据 多模态检测、跟踪、预测、语义分割 https://www.nuscenes.org
Argoverse 7×相机、VLP‑32 LiDAR、GPS/IMU、高清地图 迈阿密、匹兹堡 113 场景(3D 跟踪)+ 324 k 轨迹(运动预测 3D 跟踪、运动预测、地图感知 https://www.argoverse.org
BDD100K 前视相机、GPS/IMU,部分提供雷达 美国多城市(纽约、旧金山等) 100 k 视频(每段 40 s),10 万帧图像,标注覆盖检测、分割、车道、轨迹等 多任务学习(检测、分割、车道、行为预测) https://bdd-data.berkeley.edu
ApolloScape 多相机、双 32‑线 LiDAR、IMU、高清地图 中国多个城市 约 14 万帧像素级语义标注,包含实例分割、车道标记、3D 点云 语义/实例分割、3D 感知、定位 https://apolloscape.auto
Lyft Level 5 5×相机、1×64‑线 LiDAR、GPS/IMU 美国多城市 超过 55 k 场景,标注 3D 框、轨迹、地图信息 3D 检测、跟踪、预测、地图融合 https://level5.lyft.com/dataset
Honda H3D 5×相机、1×64‑线 LiDAR、雷达、IMU 旧金山湾区 1 k 场景,丰富的 3D 标注和雷达数据 3D 检测、雷达感知、跨模态融合 https://usa.honda-ri.com/H3D
A2D2 (Audi) 多相机、激光雷达、雷达、IMU 德国多城市 约 42 k 帧,提供 3D 框、语义分割、轨迹 传感器融合、检测、分割 https://www.audi.ai/a2d2
CARLA (仿真) 虚拟相机、LiDAR、雷达、天气控制 可自定义城市 无限生成的合成数据,支持多任务标注 仿真训练、域适应强化学习 https://carla.org

选择数据集的建议

  1. 任务需求:若只做 2D/3D 检测,KITTI、Waymo、nuScenes 已提供成熟基准;若涉及多模态融合或雷达,nuScenes、Argoverse、H3D 更合适。
  2. 场景多样性:需要跨城市、天气、昼夜的鲁棒性时,BDD100K、Waymo、ApolloScape 提供更丰富的环境。
  3. 标注细粒度:像素级语义/实例分割可选 ApolloScape、Cityscapes;轨迹预测可选 Argoverse、Lyft Level 5。
  4. 数据规模与算力:大规模数据(Waymo、BDD100K)对存储和算力要求高,若资源有限可先使用 mini 版或子集(nuScenes mini、KITTI)。

使用提示

  • 大多数数据集需先在官网注册并同意使用协议后下载。
  • 多数据集融合训练时,注意坐标系和标注格式的统一(如统一到 KITTI 规范或 COCO/Waymo TFRecord)。
  • 结合代码工具可对下载的 TFRecord、JSON 或 zip 包进行批量解析、统计分布,以确保覆盖所需场景。
来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!