什么是Waymo Open Dataset(WOD)

AI解读 10小时前 硕雀
2 0

Waymo Open Dataset(WOD)概述

Waymo Open Dataset 是由 Waymo(谷歌旗下的自动驾驶公司)在其真实道路测试车队上采集的 大规模、多模态、高分辨率 自动驾驶感知数据集,旨在为学术界和工业界提供统一、开放的基准,推动机器感知、目标检测、跟踪、运动预测等关键技术的发展。

1. 数据规模与组成

项目 说明
场景数量 约 1150 条 20 秒的连续场景(其中 1000 条用于训练,150 条用于测试)
传感器 5 台摄像头(前后左右)+ 5 台 LiDAR(1 台 64‑beam 中程 + 4 台 200‑beam 短程)
数据量 超过 1200 万 条 3D LiDAR 标注、约 120 万 条 2D 图像标注,包含 28 类语义标签和实例 ID
多任务 支持 2D/3D 目标检测、目标跟踪全景分割、运动预测 等多种任务
地理多样性 收集于美国 旧金山、凤凰城、山景城 等多个城市,覆盖城市、郊区、不同天气和光照条件

2. 数据格式

  • ProtoBuf.pb)文件:每帧包含点云、图像、标定信息、车辆姿态等,配套的 dataset.proto 定义了完整的数据结构
  • tf.Example:用于 TensorFlow 生态的读取方式,便于直接在模型训练中使用。

3. 任务基准与评估

Waymo 为每个任务提供了官方评估指标(如 mAP、ADE、FDE 等),并在其官网定期举办 Motion Prediction Challenge3D Detection Challenge,为研究者提供统一的排行榜和提交平台。

4. 获取方式与许可证

  • 官方网站:<https://waymo.com/open/ >(注册后可获取下载链接)
  • GitHub 代码库(包含数据读取、评估工具、示例代码):
  • 许可证:数据本身遵循 Waymo Open Dataset License,代码遵循 Apache 2.0。使用前请阅读官方许可条款。

5. 关键文献与资源

  • 原始论文CVPR 2020):“Scalability in Perception for Autonomous Driving: Waymo Open Dataset” 详细介绍了数据采集、标注流程以及基准结果。
  • 后续扩展:如全景视频全景分割(PVPS)子集,提供 100 k 张相机图像的全景分割标签。
  • Papers with Code 页面汇总了基于 WOD 的最新模型与代码实现,便于快速复现和对比。

6. 使用建议

  1. 注册下载:在 Waymo 官方页面填写邮箱获取下载链接。
  2. 环境配置:推荐使用 Python 3.7–3.9 + Bazel 编译,或直接使用官方提供的 pre‑built pip 包 waymo-open-dataset
  3. 数据预处理:利用官方提供的 tf.Example 读取脚本,将点云转为 numpy 或 torch 张量,便于与主流深度学习框架对接。
  4. 任务划分:根据研究目标选择对应子集(如仅使用相机图像进行 2D 检测,或使用 LiDAR+相机进行多模态 3D 检测)。

快速入口

通过上述资源,您可以完整获取 Waymo Open Dataset 的数据、工具链以及最新的研究进展,帮助开展自动驾驶感知与预测等方向的实验与创新。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!