Waymo Open Dataset(WOD)概述
Waymo Open Dataset 是由 Waymo(谷歌旗下的自动驾驶公司)在其真实道路测试车队上采集的 大规模、多模态、高分辨率 自动驾驶感知数据集,旨在为学术界和工业界提供统一、开放的基准,推动机器感知、目标检测、跟踪、运动预测等关键技术的发展。
1. 数据规模与组成
项目 | 说明 |
---|---|
场景数量 | 约 1150 条 20 秒的连续场景(其中 1000 条用于训练,150 条用于测试) |
传感器 | 5 台摄像头(前后左右)+ 5 台 LiDAR(1 台 64‑beam 中程 + 4 台 200‑beam 短程) |
数据量 | 超过 1200 万 条 3D LiDAR 标注、约 120 万 条 2D 图像标注,包含 28 类语义标签和实例 ID |
多任务 | 支持 2D/3D 目标检测、目标跟踪、全景分割、运动预测 等多种任务 |
地理多样性 | 收集于美国 旧金山、凤凰城、山景城 等多个城市,覆盖城市、郊区、不同天气和光照条件 |
2. 数据格式
- ProtoBuf(
.pb
)文件:每帧包含点云、图像、标定信息、车辆姿态等,配套的dataset.proto
定义了完整的数据结构。 - tf.Example:用于 TensorFlow 生态的读取方式,便于直接在模型训练中使用。
3. 任务基准与评估
Waymo 为每个任务提供了官方评估指标(如 mAP、ADE、FDE 等),并在其官网定期举办 Motion Prediction Challenge、3D Detection Challenge,为研究者提供统一的排行榜和提交平台。
4. 获取方式与许可证
- 官方网站:<https://waymo.com/open/ >(注册后可获取下载链接)
- GitHub 代码库(包含数据读取、评估工具、示例代码):
- 许可证:数据本身遵循 Waymo Open Dataset License,代码遵循 Apache 2.0。使用前请阅读官方许可条款。
5. 关键文献与资源
- 原始论文(CVPR 2020):“Scalability in Perception for Autonomous Driving: Waymo Open Dataset” 详细介绍了数据采集、标注流程以及基准结果。
- 后续扩展:如全景视频全景分割(PVPS)子集,提供 100 k 张相机图像的全景分割标签。
- Papers with Code 页面汇总了基于 WOD 的最新模型与代码实现,便于快速复现和对比。
6. 使用建议
- 注册下载:在 Waymo 官方页面填写邮箱获取下载链接。
- 环境配置:推荐使用 Python 3.7–3.9 + Bazel 编译,或直接使用官方提供的 pre‑built pip 包
waymo-open-dataset
。 - 数据预处理:利用官方提供的
tf.Example
读取脚本,将点云转为numpy
或torch
张量,便于与主流深度学习框架对接。 - 任务划分:根据研究目标选择对应子集(如仅使用相机图像进行 2D 检测,或使用 LiDAR+相机进行多模态 3D 检测)。
快速入口
- 官方主页 & 下载入口:<https://waymo.com/open/ >
- GitHub 代码库(含数据读取、评估):<https://github.com/waymo-research/waymo-open-dataset >
- Papers with Code(任务基准与实现):<https://paperswithcode.com/dataset/waymo-open-dataset >
通过上述资源,您可以完整获取 Waymo Open Dataset 的数据、工具链以及最新的研究进展,帮助开展自动驾驶感知与预测等方向的实验与创新。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!