项目 | 内容 | 参考 |
---|---|---|
全称 | Multi‑Scene Multi‑Time (MSMT17) 人员重识别数据集 | |
发表会议 | CVPR 2018(论文《Person Transfer GAN to Bridge Domain Gap for | |
采集地点 | 北京大学校园内的监控网络 | |
摄像头数量 | 15 台(12 户外 + 3 室内) | |
视频时长 | 180 小时(每月选取 4 天,不同天气;每天 3 小时:早、中、晚) | |
行人身份 | 4 101 人 | |
标注框数量 | 126 441 个 bounding box | |
训练/测试划分 | 训练集 1 041 人(32 621 框),测试集 3 060 人(93 820 框) 其中查询图像 11 659 张,其余为 gallery |
|
评价指标 | CMC(Rank‑1、Rank‑5、Rank‑10)和 mAP | |
数据获取方式 | 需在北京大学国家视频技术工程实验室(NELVT)官网提交申请并签署使用协议 | |
官方下载链接 | http://www.pkuvmc.com/dataset.html | |
论文链接(PDF) | https://openaccess.thecvf.com/content_cvpr_2018/papers/ | |
Papers with Code 页面 | https://paperswithcode.com/sota/person-re-identification-on-msmt17 |
1. 数据集设计初衷
MSMT17 旨在弥补早期行人重识别(Person Re‑ID)数据集(如 Market‑1501、DukeMTMC‑reID)在场景、时间、光照等方面的单一性。通过在真实监控环境下采集 多场景、多时间段 的视频,构造了更贴近实际安防应用的挑战性数据集,从而推动算法在复杂环境下的鲁棒性研究。
2. 采集与标注流程
- 摄像头部署:在校园内布置 15 台摄像头,覆盖室外走廊、广场以及室内走廊等多种场景。
- 时间跨度:每月挑选 4 天(晴、雨、雾、阴等不同天气),每天分别在早上、中午、傍晚各录制 1 小时,累计 180 小时原始视频。
- 行人检测:使用 Faster RCNN 检测器自动生成候选框。
- 人工标注:三位标注员对检测框进行二次检查并标注身份,历时约两个月,最终得到 4 101 位行人、126 441 个高质量框。
3. 数据划分与使用规范
- 训练集:1 041 位行人(32 621 张图像),用于模型学习。
- 测试集:3 060 位行人,其中 11 659 张作为 query,余下作为 gallery。
- 使用协议:仅限学术研究,需签署《MSMT17 RELEASE AGREEMENT》,禁止商业分发或二次发布。
4. 评价协议
5. 相关资源与社区
- 官方主页(数据申请、协议下载):http://www.pkuvmc.com/dataset.html
- 原始论文:提供数据集设计细节、基准实验及 PTGAN 跨域方法。
- Papers with Code:收录最新在 MSMT17 上的 SOTA 方法、代码仓库和排行榜,便于快速复现与对比。
- 开源实现:多数主流 Re‑ID 框架(如 OpenReID、TorchReID)已内置 MSMT17 数据加载脚本,可直接使用。
6. 为什么选择 MSMT17
- 规模最大:超过 12 万张标注图像,身份数远超其他公开数据集。
- 场景多样:室内外、不同天气、不同时间段的组合,使得光照、背景、姿态变化更丰富。
- 真实监控:采用实际监控摄像头采集,噪声、遮挡、低分辨率等问题更贴近工业应用。
- 基准广泛:几乎所有最新的行人重识别论文都会在 MSMT17 上报告实验结果,具有较高的学术价值。
小结:MSMT17 是目前行人重识别领域规模最大、场景最复杂的公开数据集,提供了完整的采集、标注、划分和评估协议。通过官方渠道获取后,可在学术研究中使用,并结合 Papers with Code 上的最新方法进行基准对比。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!