什么是MEAD(Multi‑view Emotional Audio‑visual Dataset)数据集

AI解读 2小时前 硕雀
4 0

MEAD(Multi‑view Emotional Audio‑visual Dataset)概述

项目 说明
全称 Multi‑view Emotional Audio‑visual Dataset(多视角情感音视频数据集
发行年份 2020 年(ECCV 2020 论文)
主要目标 为情感驱动的说话人脸生成、唇形同步、表情迁移等多模态情感计算提供大规模、高质量的音视频素材
参与者 60 名专业演员(后期公开的子集为 43 名)
情绪种类 8 种基本情绪:中性、快乐、愤怒、厌恶、恐惧、悲伤、惊伤、惊讶、蔑视
强度层级 每种情绪对应 3 种强度(低/中/高)
视角数量 7 个摄像头视角,统一背景与灯光,保证跨视角的一致性
数据规模 超过 40 小时的高分辨率音视频(完整数据集),已公开的子集约 23.33 小时训练、2.66 小时验证、2.66 小时测试
模态 视频(RGB、深度可选)、音频、情绪标签、强度标签、说话文本、面部关键点等
基准模型 官方提供的情感说话人脸生成基线(Audio2Landmark → Neutral2Emotion → Refinement),支持情绪与强度的可控合成
适用任务 • 条件生成(情感说话人脸)
• 跨模态情感识别
• 多视角表情迁移
• 唇形同步与语音驱动动画
• 多模态情感分析

获取方式与重要链接

链接 说明
GitHub 项目仓库 https://github.com/uniBruce/Mead (包含数据下载说明、基线代码、模型权重)
论文(ECCV 2020) https://arxiv.org/abs/2005.07545 (详细介绍数据采集、标注流程、基准实验)
Papers with Code 数据集页面 https://paperswithcode.com/dataset/mead (提供数据概览、评价指标、相关代码)
官方数据下载页面(需注册) https://mead-dataset.org (提供完整数据集的申请入口)

使用提示:下载后请遵守数据使用协议,引用时请参考原论文:

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!