CoDanceBench 数据集详细介绍
1. 数据集概述
CoDanceBench 是由 CoDance 项目团队(作者包括 Tan, Gong, Ma 等)引入的全新基准数据集,旨在填补多主体(Multi-Subject)动画领域的评估空白。
- 全称:CoDanceBench (Multi-Subject Animation Benchmark)。
- 创立时间:2025 年 12 月发布(随 CoDance 论文一同发布)。
- 发布机构:该数据集由香港大学、华中科技大学、清华大学、北卡罗来纳大学等机构联合创建。
- 主要目标:解决现有动画数据集无法覆盖“任意主体计数”与“空间错位”场景的痛点,专门用于评估多主体场景下模型的鲁棒性和泛化能力。
2. 数据集组成
CoDanceBench 包含 20 条多主体舞蹈视频,这些视频涵盖了不同数量(1-5 个)和类型(人类、卡通等)的角色,专门用于评估模型在复杂场景下的表现。
- 多主体特性:数据集包含任意数量的主体(从单个到多个),突破了传统数据集仅关注单一主体的限制。
- 错位容忍:特意包含了参考图像与驱动姿态序列空间不对齐的情况,以测试模型的定位鲁棒性。
- 引导信息:每个视频通常配有主体掩码(Subject Masks)和文本提示(Text Prompts),用于指导模型的动画生成。
3. 评估指标
CoDanceBench 使用了多种定量和定性指标来全面评估模型性能。
- 定量指标:包括 PSNR(峰值信噪比)、SSIM(结构相似性)和 LPIPS(感知图像对比度)。
- 定性指标:重点关注身份一致性(Identity Consistency)和动作正确性(Motion Correctness)。
- 人类评价:还包括高水平的人类主观评价,以确保模型生成的动画在视觉上是令人满意的。
4. 获取方式
截至 2026 年 2 月,CoDanceBench 数据集暂未通过公开下载渠道直接提供,属于受限访问数据集。
- 联系作者:您可以通过论文末尾的联系方式(通常是作者的学校邮箱)联系作者,说明您的学术研究用途以获取数据集访问权限。
- 项目主页:虽然数据集本身不可直接下载,但您可以访问 CoDance 的项目主页获取更多信息和最新更新。
- 代码仓库:官方代码仓库(如 GitHub)通常会提供获取数据集的脚本或进一步的指导。
相关链接
- 论文链接(包含数据集介绍):CoDance: An Unbind-Rebind Paradigm for Robust Multi-Subject Animation (arXiv)。
- 项目主页:可能提供数据集请求方式或示例数据。
注意:由于该数据集涉及多主体视频和特定的空间错位设置,获取权限可能需要遵守特定的使用协议(如仅限学术研究)。如果您需要具体的下载脚本或使用方法,建议直接在 GitHub 项目页面(如 Lucaria-Academy/CoDance)查找最新的 README 文件。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!