什么是nuScenes 数据集

AI解读 8小时前 硕雀
3 0

nuScenes 数据集概览

内容 关键信息
创建单位 由 Motional(前身 nuTonomy)团队研发
发布时间 2019 年 3 月正式发布
采集地点 美国波士顿(Boston Seaport)和新加坡(One North、昆斯敦、Holland Village)
场景数量 1000 条驾驶场景,每条约 20 秒,累计约 15 小时
传感器布局 - 1 台 32 条旋转激光雷达LiDAR
- 5 台长距离雷达(Radar)
- 6 台环视摄像头(Camera)
- IMU、GPS、CAN 总线等
数据规模 - 约 140 万张摄像头图像
- 约 39 万帧激光雷达点云(约 1.1 B 点)
- 约 390 万帧雷达扫描
标注类别 23 类对象(包括汽车、卡车、公交车、行人、骑行者、摩托车等),并提供 3D 边界框、属性(可见性、姿态、速度)
任务与基准 - 3D 目标检测
- 多目标跟踪
- 行为预测
- 场景理解
评估指标包括 mAP、NDS(nuScenes Detection Score)以及多项 TP(平移误差、尺度误差、方向误差、速度误差、属性误差)
官方资源 - 官网与下载入口:https://www.nuscenes.org
- 数据集说明文档与 SDK(Python)
- 论文 PDF(CVPR 2020)
主要论文 nuScenes: A Multimodal Dataset for Autonomous Driving,Holger Caesar 等,CVPR 2020,DOI: 10.1109/CVPR42600.2020.01164

详细介绍

  1. 数据集定位
    nuScenes 旨在为自动驾驶感知与决策提供大规模、多模态、真实道路的感知数据。相较于早期的 KITTI 数据集,nuScenes 在场景复杂度、传感器种类、天气与时间多样性上都有显著提升,覆盖夜间、雨天等极端条件。
  2. 传感器与同步
    • LiDAR:单台 32 条旋转激光雷达,提供 360° 点云。
    • Radar:5 台长距离雷达,补充速度信息。
    • Camera:6 台摄像头(前、后、左右),分辨率 1600×900,帧率 12 Hz。
    • IMU / GPS / CAN:提供车辆姿态、位置、控制指令等。
      所有传感器通过硬件触发实现时间同步,确保跨模态对齐。
  3. 标注与属性
    每帧图像/点云均配有 3D 边界框,标注 23 类对象。属性包括可见性(完全、部分、遮挡)、姿态(站立、坐着、行走)以及速度向量,使得检测任务能够评估位置、姿态与运动状态的综合表现。
  4. 评估体系
    • mAP(Mean Average Precision‍:传统检测精度指标。
    • NDS(nuScenes Detection Score)‍:综合考虑检测精度与属性、速度等多维度的综合得分。
    • TP 系列:分别衡量平移误差(ATE)、尺度误差(ASE)、方向误差(AOE)、速度误差(AVE)和属性误差(AAE),帮助细化模型弱点。
  5. 使用方式
    • 官方提供 Python SDK,可直接读取场景、样本、标注、地图等信息。
    • 数据分为 full(全部传感器)和 mini(子集)两种规模,便于快速原型实验。
    • 所有数据仅限 非商业研究 使用,需在官网下载并同意许可协议。

关键链接

参考文献

  1. Holger Caesar 等. nuScenes: A Multimodal Dataset for Autonomous Driving. CVPR 2020. DOI:10.1109/CVPR42600.2020.01164
  2. Motional(前 nuTonomy)官方介绍. https://www.nuscenes.org

通过上述信息,你可以快速了解 nuScenes 数据集的规模、结构、标注细节以及获取渠道,进而在自动驾驶感知、预测等研究中进行实验与评估。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!