什么是MPIIGaze数据集

MPIIGaze 数据集概览


1. 简介

MPIIGaze 是由德国马普信息学研究所(Max‑Planck Institute for Informatics)在 2017 年发布的 真实场景注视(gaze)估计数据集。它专为评估在日常、无约束环境下的眼动追踪与注视方向预测算法而设计,克服了传统实验室数据集光照、姿态、外观单一的局限。

参考文献:Zhang X. 等,MPIIGaze: Real‑World Dataset and Deep Appearance‑Based Gaze EstimationTPAMI 2017


2. 数据规模与采集方式

项目 说明
参与者 15 位志愿者(男女均有)
采集时长 约 3 个月的日常笔记本电脑使用过程
图像总数 213 659 张全脸图像(其中约 3000 张眼部图像/人)
采集环境 真实室内/室外光照、自然头部运动、佩戴/不佩戴眼镜等多样化场景
标注方式 通过经验抽样(experience sampling)记录每帧的 3D 注视向量、3D 头部姿态,并对部分图像手动标注眼角、嘴角、瞳孔中心等面部关键点

3. 数据内容与标注字段

每个参与者对应一个 .label 文件,文件中每行记录一张图像的多维信息,主要字段包括:

  • Image归一化眼部图像相对路径
  • Origin:原始图像路径
  • WhichEye:左眼 / 右眼
  • 3Daze:归一化的 3D 注视方向向量
  • 3DHead:归一化的 3D 头部姿态向量
  • 2Daze:Yaw、Pitch 形式的 2D 注视方向
  • 2DHead:Yaw、Pitch 形式的 2D 头部姿态

(完整字段说明见官方数据集说明文档)


4. 文件结构与使用方式

MPIIGaze/
│
├─ Image/                # 归一化的左/右眼图像(PNG/JPG)
│   ├─ left/
│   └─ right/
│
├─ label/                # 每位受试者的 .label 文件
│   ├─ subject01.label
│   └─ …
│
└─ README.pdf            # 数据集概述与使用指南
  • 图像 已经经过人脸检测、眼部对齐和尺度归一化,可直接用于深度学习模型的训练。
  • .label 文件采用空格分隔,复合字段内部用 ; 分隔,便于脚本解析。

5. 下载与获取方式

注:下载前需阅读并遵守数据使用协议(CC‑BY‑NC‑SA 4.0),在学术论文或项目中引用原始论文即可。


6. 研究应用与常见引用

MPIIGaze 已成为 注视估计眼动追踪跨数据集评估 等方向的基准数据集,常见的研究用途包括:

  • 深度外观模型(如 GazeNet、GazeNet+)的训练与评估
  • 跨数据集实验:与 UT‑Multiview、EyeDiap、MPIIFaceGaze 等数据集共同使用,验证模型在真实环境下的鲁棒性
  • 头部姿态与光照影响分析:通过对比不同光照、佩戴眼镜与否的子集,研究对注视误差的贡献

在论文中引用时推荐使用:

Zhang, X., Sugano, Y., Fritz, M., & Bulling, A. (2017). 
MPIIGaze: Real‑World Dataset and Deep Appearance‑Based Gaze Estimation. 
IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(11), 2627‑2639.

7. 与相关数据集的关系

  • MPIIFaceGaze:基于同一批原始图像,提供对应的全脸图像与更丰富的面部关键点标注。两者常被一起使用,但 MPIIGaze 只包含眼部图像和注视向量。
  • 其他公开数据集(如 EyeDiap、UT‑Multiview)在实验中常与 MPIIGaze 进行对比,以评估模型在“野外”与“实验室”场景的差异。

如需进一步的技术细节(如标注坐标系、图像预处理脚本),可在官方页面下载完整的 README.pdf 或在 GitHub 上搜索 “MPIIGaze” 相关的开源实现。祝科研顺利!

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!