Lyft Level 5(简称 L5)数据集是由美国共享出行公司 Lyft 发布的面向自动驾驶研究的公开大规模多模态数据集。它以 nuScenes 格式组织,包含车辆在真实道路上采集的传感器原始数据、感知标注以及高精度地图信息,旨在为感知、运动预测、路径规划和仿真等关键技术提供统一基准。
主要特征
| 项目 | 内容 |
|---|---|
| 采集规模 | 超过 1 000 小时(约 17 万条 25 秒长的场景) |
| 采集车辆 | 20 辆配备 7 台摄像头、3 台激光雷达(不同车型的传感器略有差异) |
| 传感器数据 | - 前视、侧视、后视摄像头(RGB) - 3D 激光雷达点云 - 毫米波雷达(部分车型) |
| 标注信息 | - 3D 边界框(车辆、行人、自行车等) - 轨迹(位置、速度、加速度) - 交通信号灯、停车标志、人行横道等地图要素 |
| 地图资源 | - 高分辨率航拍图 - 语义地图(含 4 000+ 道路、197 条人行横道、60 个 STOP 标志、54 个停车区等) |
| 数据格式 | nuScenes JSON + Zarr 存储(scene、sample、sample_data 等) |
| 用途 | 运动预测、目标检测、轨迹预测、路径规划、仿真、跨模态学习等 |
| 许可证 | CC BY‑SA 4.0(可自由使用、修改并共享,需署名) |
| 下载方式 | 官方页面提供注册后下载链接,常见的直接下载入口为 <https://go.hyper.ai/lnpVq >(提供训练集) |
关键资源链接
- 官方数据集页面(注册、下载、文档)
<https://level5.lyft.com/dataset/ > - GitHub 开发工具包(L5Kit / nuScenes‑devkit)
<https://github.com/lyft/nuscenes-devkit > - 数据集下载入口(训练集)
<https://go.hyper.ai/lnpVq > - 论文与技术报告(介绍数据集设计与基准)
- “One Thousand and One Hours: Self‑driving Motion Prediction Dataset” (arXiv:2006.14480)
- Lyft Level 5 官方博客 “Rethinking Maps for Self‑Driving”
- 常用教程与案例
- “Lyft 自动驾驶数据集及运动预测建模教程” (腾讯云社区)
- “Lyft Prediction Dataset Tools (l5kit)”
使用建议
- 环境准备:推荐使用 Python 3.8+,通过
pip install l5kit安装官方工具包,可直接读取 Zarr 文件并进行可视化、数据切分和基准模型训练。 - 数据划分:官方提供的
train、val、test划分已满足大多数实验需求,若需自定义,可依据scene.json中的时间戳进行重新抽样。 - 基准模型:L5Kit 包含一个基于 LSTM 的运动预测基线,可作为快速验证的起点;随后可尝试 Graph Neural Network、Transformer 等更先进的结构。
- 地图结合:语义地图与航拍图可通过
map.json与semantic_map文件加载,适用于基于道路拓扑的规划或仿真。
总结:Lyft Level 5 数据集是目前公开的、规模最大、标注最完整的自动驾驶运动预测数据集之一,提供了从原始传感器到高精度地图的全链路信息,已被广泛用于学术论文、工业基准和竞赛(如 Lyft 3D 目标检测挑战赛)。通过上述官方链接即可获取完整数据并使用 L5Kit 进行快速上手。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!