NPHM(Neural Parametric Head Model)数据集概览
| 项目 | 内容 | 说明 |
|---|---|---|
| 全称 | Neural Parametric Head Model(神经参数化头部模型) | 用于学习和评估可微分的 3D 头部表示 |
| 数据来源 | 高质量 3D 扫描仪(Artec Eva)采集的多视角头部网格 | 采集过程在实验室中使用机器人臂围绕受试者头部旋转,获取 23 种表情的完整几何与纹理 |
| 规模 | 约 470 位身份(不同人物) 每位身份 23 种表情 每个表情 40 个随机视角渲染(RGB、法线、UV) 总计约 376 K 张图像 |
|
| 数据类型 | - 纹理化的三角网格(OBJ/PLY) - 渲染的 RGB、法线、UV 图像 - 对应的身份、表情、相机内参、光照参数 |
仅包含网格的纹理信息,未提供原始点云;渲染时随机化相机参数以提升多样性 |
| 主要用途 | 1. 训练 神经参数化头部模型(NPHM) 2. 单图像/单视角 3D 人脸重建(Pixel3DMM、Mono‑NPHM 等) 3. 音频驱动的头部动画(FaceTalk、Audio‑Driven Motion Diffusion) 4. 评估 表情迁移、身份编码、几何误差 等指标 |
多篇后续工作直接引用 NPHM 作为基准数据集,如 Pixel3DMM、FaceTalk、Mono‑NPHM 等 |
| 获取方式 | - GitHub 项目页面(含下载脚本、数据说明)
- 部分论文的 Supplementary Material 中提供了直接下载链接(Zenodo/OneDrive 等) |
项目页面提供了 download.sh 脚本,可一次性下载全部网格与渲染图像 |
| 关联论文 | Learning Neural Parametric Head Models(CVPR 2023) 作者:Simon Giebenhain 等,首次提出 NPHM 并公开数据集 |
|
| 后续扩展 | - FaceTalk(Audio‑Driven Motion Diffusion)在训练时使用 NPHM 表情空间 - Mono‑NPHM、DPHMs、GPHM 等后续模型均基于该数据集进行评估 |
如何使用 NPHM 数据集
- 克隆仓库并下载数据
git clone https://github.com/SimonGiebenhain/NPHM.git cd NPHM bash download.sh # 自动下载 470 个身份的网格与渲染图像 - 读取网格(示例 Python 代码)
import trimesh, glob, os mesh_files = glob.glob(os.path.join('data','meshes','*.obj')) meshes = [trimesh.load(m) for m in mesh_files] - 加载渲染图像(RGB、法线、UV)
import cv2, glob rgb = cv2.imread('data/rgb/identity_001_expr_00_view_00.png') normal = cv2.imread('data/normals/identity_001_expr_00_view_00.png') uv = cv2.imread('data/uv/identity_001_expr_00_view_00.png') - 训练示例(以 Pixel3DMM 为例)
- 将网格的顶点坐标作为 identity code,表情系数作为 expression code,使用自监督或有监督方式映射到渲染图像。
- 参考 Pixel3DMM 论文的实现细节,数据准备部分直接使用 NPHM 提供的 40 视角渲染作为监督信号。
关键链接(直接点击即可访问)
- GitHub 主仓库(含数据下载脚本):https://simongiebenhain.github.io/NPHM/
- 原始论文(CVPR 2023)
<https://openaccess.thecvf.com/content/CVPR2023/papers/Giebenhain_Learning_Neural_Parametric_Head_Models_CVPR_2023_paper.pdf >(PDF) - FaceTalk 项目(使用 NPHM)
- Pixel3DMM 论文(使用 NPHM 进行单图像 3D 重建)
<https://arxiv.org/abs/2505.00615 >(PDF)
小结
NPHM 数据集是目前公开的、规模最大的高质量 3D 头部扫描与渲染集合,涵盖数百个人物、丰富的表情变化以及多视角图像。它为神经参数化头部模型、单视角 3D 重建、音频驱动动画等前沿研究提供了统一、可复现的基准。通过 GitHub 提供的下载脚本即可快速获取全部数据,配合相应的论文实现即可直接开展实验。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!