| 内容 | 说明 | 参考 |
|---|---|---|
| 定位 | 面向 多目标跟踪(MOT) 的大规模视频数据集,专注于 外观高度相似、运动模式多样 的场景。旨在突破仅靠外观匹配的“捷径”,推动对 运动建模 与 细粒度特征 的研究。 | |
| 来源/组织 | 由 香港大学(The University of Hong Kong)、卡耐基梅隆大学(Carnegie Mellon University) 与 字节跳动(ByteDance) 合作构建。 | |
| 规模 | - 100 条视频(约 10 万帧) - 训练集 40 条、验证集 25 条、测试集 35 条 - 每段视频平均时长约 52.9 秒,帧率 30 fps(约 1.5 万帧/子集) |
|
| 场景类型 | 包含 街舞、流行舞、古典舞、大型团体舞、体操、功夫、啦啦队 等多种舞蹈/体育动作;场景覆盖 室内、室外、低光、远摄 等多样拍摄条件。 | |
| 挑战特征 | 1. 统一外观:同一视频中人物往往穿相同或相似服装,导致外观特征区分度低。 2. 多样运动:大幅姿态变化、快速交叉、频繁遮挡,运动模式远超线性假设。 3. 遮挡与交叉:多人密集舞蹈导致大量相互遮挡。 |
|
| 标注信息 | - 每帧 边界框 + ID(用于跟踪) - 可选 姿态关键点、分割掩码、深度信息(在部分扩展实验中提供) |
|
| 评估指标 | 采用 HOTA、AssA、DetA、MOTA、IDF1 等多维度指标,兼顾检测质量与关联准确性。 | |
| 基准结果 | 多种主流跟踪器(ByteTrack、DeepSORT、OC‑SORT 等)在该数据集上表现显著低于在 MOT17/20 上的成绩,验证了 运动建模 的瓶颈。 | |
| 下载/主页 | - 官方主页(Google Sites):https://sites.google.com/view/dancetrack - 论文 PDF(arXiv): https://arxiv.org/abs/2205.02468 - OpenMMLab 数据集实现文档: https://mmtracking.readthedocs.io/zh_CN/latest/_modules/mmtrack/datasets/dancetrack_dataset.html |
|
| 常用代码库 | - MMTracking(OpenMMLab)提供 DanceTrackDataset 类,直接支持训练/评估。- ByteTrack、OC‑SORT 等实现均已在其 README 中给出针对 DanceTrack 的配置示例。 |
|
| 研究价值 | 为 统一外观 + 复杂运动 的多目标跟踪提供了真实、规模化的基准,推动: 1. 更强的 运动预测模型(Kalman、LSTM、Transformer 等) 2. 融合 姿态、分割、深度 的多模态关联 3. 对 遮挡恢复 与 跨帧身份保持 的新方法评估。 |
关键链接(可直接访问)
- 论文(arXiv):<https://arxiv.org/abs/2205.02468 >
- 官方数据集页面:<https://sites.google.com/view/dancetrack >
- MMTracking 数据集实现:<https://mmtracking.readthedocs.io/zh_CN/latest/_modules/mmtrack/datasets/dancetrack_dataset.html >
- 数据集下载(Google Drive / OneDrive 等):页面中提供公开下载链接(需自行注册获取)。
使用建议
- 基准评估:在实现新型运动建模(如基于图神经网络的轨迹预测)时,先在官方提供的 train/val 划分上进行实验,使用 HOTA、AssA 进行综合评估。
- 多模态扩展:利用公开的 姿态关键点 与 分割掩码(部分子集提供),可以尝试 Re‑ID + Pose 融合策略,已被多篇后续工作证实能提升关联准确率。
- 代码复用:直接使用 OpenMMLab 的
DanceTrackDataset,配合mmtrack中的 ByteTrack、OC‑SORT 配置文件,可快速跑通基线实验。
通过上述资源,研究者可以系统地评估和改进在 外观统一、运动多样 场景下的多目标跟踪算法。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!