| 项目 | 内容 | 关键来源 |
|---|---|---|
| 提出者 / 论文 | Nikolaus Mayer 等人在 CVPR 2016 中提出的《A Large Dataset to Train Convolutional Networks for Disparity, Optical Flow, and Scene Flow Estimation》 | |
| 所属项目 | Scene Flow 合成数据集的三大子集之一(另外两个为 Driving 与 Monkaa) | |
| 官方入口 | https://lmb.informatik.uni-freiburg.de/resources/datasets/SceneFlowDatasets.en.html | |
| Papers With Code 页面 | https://paperswithcode.com/dataset/flyingthings3d |
1. 数据规模与划分
- 总帧数:约 25 000 对 立体图像(左/右视图),对应约 39 000 帧(包括训练、验证、测试)
- 划分
2. 数据内容(每对立体帧提供的标注)
| 类型 | 说明 |
|---|---|
| RGB 立体渲染 | 左右视图分别提供 cleanpass(无噪声)和 finalpass(加入运动模糊、光照变化)两种版本 |
| 光流 (Optical Flow) | 像素级别的前向/后向光流图,密集且真实值精确 |
| 视差 (Disparity) | 左右视图间的水平位移,用于深度估计 |
| 视差变化 (Disparity Change) | 用于场景流(scene flow)任务的时序视差差分 |
| 分割标注 | 物体层级与材质层级两种分割图 |
| 运动边界 (Motion Boundaries) | 用于评估算法在运动不连续处的表现 |
| 相机参数 | 每帧提供完整的内参、外参,便于几何重建 |
3. 下载方式与使用指南
- 官方网页:直接访问上文提供的官方链接,可选择 cleanpass / finalpass、光流、视差等子目录下载。页面提供 torrent 与 HTTP 两种下载方式,适合大规模批量获取。
- Papers With Code:该页面列出数据集概览、下载链接以及常用基准结果,便于快速对比模型性能。
- 许可证:数据集以 非商业学术使用 为主,下载页面有明确的使用条款,请在使用前阅读并遵守。
4. 典型应用与基准
- 光流估计:作为光流预训练的“大规模合成基准”,常用于 FlowNet、RAFT、FlowFormer 等网络的预训练。
- 立体匹配 / 深度估计:Disparity 与视差变化为 StereoNet、DispNet、GC‑Net 等模型提供训练数据。
- 场景流 (Scene Flow) 估计:结合光流、视差变化与相机运动信息,支持端到端的 3D 运动学习。
- 运动分割 / 语义分割:分割标注与运动边界可用于多目标跟踪与分割任务的评估。
5. 使用注意事项
- 合成特性:数据完全由 Blender 渲染生成,运动轨迹随机,光照、材质多样,能够避免真实数据的重复与饱和问题,但仍需在实际场景上进行迁移学习。
- 分辨率:所有图像均为 960 × 540(宽 × 高)像素,训练时请统一裁剪或缩放至模型输入尺寸。
- 数据完整性:下载后请核对文件结构(左/右视图、光流、视差等子文件夹),官方页面提供校验码(MD5)供验证。
小结:FlyingThings3D 是目前光流、立体匹配与场景流研究中最常用的合成基准之一,提供约 25 k 对高质量立体图像及丰富的像素级标注,配套的官方下载链接与社区资源(Papers With Code)使其在学术与工业界得到广泛采用。若需进一步的代码示例或预处理脚本,可参考对应论文的公开实现(如 FlowNet2、RAFT 等)中的数据加载模块。祝科研顺利!
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!