| 项目 | 说明 | 参考 |
|---|---|---|
| 数据集全称 | Berkeley DeepDrive 100K(BDD100K) | |
| 数据规模 | 100 000 条 40 s、720p、30 fps 的驾驶视频,约 1100 h,超过 1 亿帧 | |
| 任务覆盖 | 图像标签、目标检测、车道标记、可行驶区域、语义/实例分割、多目标跟踪(MOT)、MOTS、模仿学习等 10 大任务 | |
| MOT 子集 | 2 000 条视频(约 400 K 帧),标注频率 5 fps(约 200 帧/视频) | |
| 数据划分 | 训练 1 400 条、验证 200 条、测试 400 条 | |
| 轨迹数量 | 130.6 K 条身份(track IDs) | |
| 边框总数 | 3.3 M 个 bounding box | |
| 规模优势 | 与已有 MOT 数据集(如 KITTI‑MOTS、MOTS‑Challenge)相比,序列数、帧数、身份数、标注密度均显著更大 | |
| 挑战特性 | ① 目标尺度分布广(从小行人到大卡车) ② 频繁出现遮挡与再出现(约 49 418 次遮挡,约每 3.5 条轨迹出现一次) ③ 多样的天气、时间、地理环境导致外观变化 |
|
| 评价指标 | 常用 MOT 指标:MOTA、MOTP、ID‑Switch、FAF 等;MOTS 额外提供 MOTSA、MOTSP |
关键资源与获取方式
| 资源 | 链接 | 说明 |
|---|---|---|
| 官方网站 & 下载页面 | https://bdd-data.berkeley.edu/ | 提供数据集注册、分块下载(视频、图像、标注)以及最新更新信息 |
| 原始论文(arXiv) | https://arxiv.org/abs/1805.04687 | 详细阐述数据采集、标注体系、任务划分,包含 MOT 章节 |
| 数据集文档(PDF) | https://bdd-data.berkeley.edu/documents/bdd100k.pdf (可在官网获取) | 包含标注格式、使用协议、统计表等 |
| 官方 GitHub Toolkit | https://github.com/bdd100k/bdd100k | 提供数据解析、转换、可视化脚本,支持 MOT、MOTS 等子任务 |
| MOT 转换/训练示例(FairMOT‑BDD100K) | https://github.com/dingwoai/FairMOT-BDD100K | 将 BDD100K 转为 MOT 标准格式,提供训练/评估代码 |
| 目标检测+跟踪示例(KITTI‑BDD100K) | https://github.com/haofengac/faster-rcnn-KITTI-BDD100K | 基于 Faster‑RCNN 的检测+MOT 联合训练示例 |
| 数据统计可视化(DatasetNinja) | https://datasetninja.com/bdd100k | 交互式热图、对象分布统计,帮助了解 MOT 中各类目标的空间分布 |
使用建议
- 下载与准备
- 在官网注册后,先下载 track 子集(
bdd100k/images/track与对应labels-20/box-track),再使用官方 Toolkit 将其转换为标准 MOT 文件结构(images/+labels/)。
- 在官网注册后,先下载 track 子集(
- 基准模型
- FairMOT‑BDD100K(GitHub)提供了即插即用的 FairMOT 实现,已适配 BDD100K 的多类 MOT(车辆、行人、骑行者等)。
- 若需结合检测,可参考 faster‑rcnn‑KITTI‑BDD100K,实现检测‑跟踪联合训练,提升 MOTA 与 ID‑Switch。
- 评估
- 使用官方提供的
eval_mot.py(Toolkit 中)计算 MOTA、MOTP、ID‑Switch、FAF。对 MOTS 任务则使用eval_mots.py,得到 MOTSA、MOTSP。
- 使用官方提供的
- 跨任务研究
小结
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!