什么是Lyft Level 5 数据集

AI解读 6小时前 硕雀
5 0

Lyft Level 5(简称 L5)数据集是由美国共享出行公司 Lyft 发布的面向自动驾驶研究的公开大规模多模态数据集。它以 nuScenes 格式组织,包含车辆在真实道路上采集的传感器原始数据、感知标注以及高精度地图信息,旨在为感知、运动预测、路径规划和仿真等关键技术提供统一基准。

主要特征

项目 内容
采集规模 超过 1 000 小时(约 17 万条 25 秒长的场景)
采集车辆 20 辆配备 7 台摄像头、3 台激光雷达(不同车型的传感器略有差异)
传感器数据 - 前视、侧视、后视摄像头(RGB
- 3D 激光雷达点云
- 毫米波雷达(部分车型)
标注信息 - 3D 边界框(车辆、行人、自行车等)
- 轨迹(位置、速度、加速度)
- 交通信号灯、停车标志、人行横道等地图要素
地图资源 - 高分辨率航拍图
- 语义地图(含 4 000+ 道路、197 条人行横道、60 个 STOP 标志、54 个停车区等)
数据格式 nuScenes JSON + Zarr 存储(scene、sample、sample_data 等)
用途 运动预测、目标检测、轨迹预测、路径规划、仿真、跨模态学习等
许可证 CC BY‑SA 4.0(可自由使用、修改并共享,需署名)
下载方式 官方页面提供注册后下载链接,常见的直接下载入口为 <https://go.hyper.ai/lnpVq >(提供训练集

关键资源链接

  1. 官方数据集页面(注册、下载、文档)
    <https://level5.lyft.com/dataset/ >
  2. GitHub 开发工具包(L5Kit / nuScenes‑devkit)
    <https://github.com/lyft/nuscenes-devkit >
  3. 数据集下载入口(训练集)
    <https://go.hyper.ai/lnpVq >
  4. 论文与技术报告(介绍数据集设计与基准)
    • “One Thousand and One Hours: Self‑driving Motion Prediction Dataset” (arXiv:2006.14480)
    • Lyft Level 5 官方博客 “Rethinking Maps for Self‑Driving”
  5. 常用教程与案例
    • “Lyft 自动驾驶数据集及运动预测建模教程” (腾讯云社区)
    • “Lyft Prediction Dataset Tools (l5kit)”

使用建议

  • 环境准备:推荐使用 Python 3.8+,通过 pip install l5kit 安装官方工具包,可直接读取 Zarr 文件并进行可视化、数据切分和基准模型训练
  • 数据划分:官方提供的 trainvaltest 划分已满足大多数实验需求,若需自定义,可依据 scene.json 中的时间戳进行重新抽样。
  • 基准模型:L5Kit 包含一个基于 LSTM 的运动预测基线,可作为快速验证的起点;随后可尝试 Graph Neural NetworkTransformer 等更先进的结构。
  • 地图结合:语义地图与航拍图可通过 map.json 与 semantic_map 文件加载,适用于基于道路拓扑的规划或仿真。

总结Lyft Level 5 数据集是目前公开的、规模最大、标注最完整的自动驾驶运动预测数据集之一,提供了从原始传感器到高精度地图的全链路信息,已被广泛用于学术论文、工业基准和竞赛(如 Lyft 3D 目标检测挑战赛)。通过上述官方链接即可获取完整数据并使用 L5Kit 进行快速上手。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!