内容 | 关键信息 |
---|---|
创建单位 | 由 Motional(前身 nuTonomy)团队研发 |
发布时间 | 2019 年 3 月正式发布 |
采集地点 | 美国波士顿(Boston Seaport)和新加坡(One North、昆斯敦、Holland Village) |
场景数量 | 1000 条驾驶场景,每条约 20 秒,累计约 15 小时 |
传感器布局 | - 1 台 32 条旋转激光雷达(LiDAR) - 5 台长距离雷达(Radar) - 6 台环视摄像头(Camera) - IMU、GPS、CAN 总线等 |
数据规模 | - 约 140 万张摄像头图像 - 约 39 万帧激光雷达点云(约 1.1 B 点) - 约 390 万帧雷达扫描 |
标注类别 | 23 类对象(包括汽车、卡车、公交车、行人、骑行者、摩托车等),并提供 3D 边界框、属性(可见性、姿态、速度) |
任务与基准 | - 3D 目标检测 - 多目标跟踪 - 行为预测 - 场景理解 评估指标包括 mAP、NDS(nuScenes Detection Score)以及多项 TP(平移误差、尺度误差、方向误差、速度误差、属性误差) |
官方资源 | - 官网与下载入口:https://www.nuscenes.org - 数据集说明文档与 SDK(Python) - 论文 PDF(CVPR 2020) |
主要论文 | nuScenes: A Multimodal Dataset for Autonomous Driving,Holger Caesar 等,CVPR 2020,DOI: 10.1109/CVPR42600.2020.01164 |
详细介绍
- 数据集定位
nuScenes 旨在为自动驾驶感知与决策提供大规模、多模态、真实道路的感知数据。相较于早期的 KITTI 数据集,nuScenes 在场景复杂度、传感器种类、天气与时间多样性上都有显著提升,覆盖夜间、雨天等极端条件。 - 传感器与同步
- LiDAR:单台 32 条旋转激光雷达,提供 360° 点云。
- Radar:5 台长距离雷达,补充速度信息。
- Camera:6 台摄像头(前、后、左右),分辨率 1600×900,帧率 12 Hz。
- IMU / GPS / CAN:提供车辆姿态、位置、控制指令等。
所有传感器通过硬件触发实现时间同步,确保跨模态对齐。
- 标注与属性
每帧图像/点云均配有 3D 边界框,标注 23 类对象。属性包括可见性(完全、部分、遮挡)、姿态(站立、坐着、行走)以及速度向量,使得检测任务能够评估位置、姿态与运动状态的综合表现。 - 评估体系
- mAP(Mean Average Precision):传统检测精度指标。
- NDS(nuScenes Detection Score):综合考虑检测精度与属性、速度等多维度的综合得分。
- TP 系列:分别衡量平移误差(ATE)、尺度误差(ASE)、方向误差(AOE)、速度误差(AVE)和属性误差(AAE),帮助细化模型弱点。
- 使用方式
- 官方提供 Python SDK,可直接读取场景、样本、标注、地图等信息。
- 数据分为 full(全部传感器)和 mini(子集)两种规模,便于快速原型实验。
- 所有数据仅限 非商业研究 使用,需在官网下载并同意许可协议。
关键链接
- 官方主页 & 下载: https://www.nuscenes.org
- 论文 PDF(CVPR 2020): https://doi.org/10.1109/CVPR42600.2020.01164
- GitHub SDK(示例代码与文档): https://github.com/nutonomy/nuscenes-devkit (可在官网获取最新链接)
参考文献
- Holger Caesar 等. nuScenes: A Multimodal Dataset for Autonomous Driving. CVPR 2020. DOI:10.1109/CVPR42600.2020.01164
- Motional(前 nuTonomy)官方介绍. https://www.nuscenes.org
通过上述信息,你可以快速了解 nuScenes 数据集的规模、结构、标注细节以及获取渠道,进而在自动驾驶感知、预测等研究中进行实验与评估。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!