MEAD(Multi‑view Emotional Audio‑visual Dataset)概述
| 项目 | 说明 |
|---|---|
| 全称 | Multi‑view Emotional Audio‑visual Dataset(多视角情感音视频数据集) |
| 发行年份 | 2020 年(ECCV 2020 论文) |
| 主要目标 | 为情感驱动的说话人脸生成、唇形同步、表情迁移等多模态情感计算提供大规模、高质量的音视频素材 |
| 参与者 | 60 名专业演员(后期公开的子集为 43 名) |
| 情绪种类 | 8 种基本情绪:中性、快乐、愤怒、厌恶、恐惧、悲伤、惊伤、惊讶、蔑视 |
| 强度层级 | 每种情绪对应 3 种强度(低/中/高) |
| 视角数量 | 7 个摄像头视角,统一背景与灯光,保证跨视角的一致性 |
| 数据规模 | 超过 40 小时的高分辨率音视频(完整数据集),已公开的子集约 23.33 小时训练、2.66 小时验证、2.66 小时测试 |
| 模态 | 视频(RGB、深度可选)、音频、情绪标签、强度标签、说话文本、面部关键点等 |
| 基准模型 | 官方提供的情感说话人脸生成基线(Audio2Landmark → Neutral2Emotion → Refinement),支持情绪与强度的可控合成 |
| 适用任务 | • 条件生成(情感说话人脸) • 跨模态情感识别 • 多视角表情迁移 • 唇形同步与语音驱动动画 • 多模态情感分析 |
获取方式与重要链接
| 链接 | 说明 |
|---|---|
| GitHub 项目仓库 | https://github.com/uniBruce/Mead (包含数据下载说明、基线代码、模型权重) |
| 论文(ECCV 2020) | https://arxiv.org/abs/2005.07545 (详细介绍数据采集、标注流程、基准实验) |
| Papers with Code 数据集页面 | https://paperswithcode.com/dataset/mead (提供数据概览、评价指标、相关代码) |
| 官方数据下载页面(需注册) | https://mead-dataset.org (提供完整数据集的申请入口) |
使用提示:下载后请遵守数据使用协议,引用时请参考原论文:
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!