什么是InvisibleEye数据集

InvisibleEye 数据集概览

内容 说明 关键来源
数据集定位 公开的移动眼动追踪数据集,专为低分辨率多摄像头眼动估计设计。
数据来源 1️⃣ 合成数据:使用 UnityEyes 生成的 200 000 张高质量眼部图像,随后下采样至低分辨率。
2️⃣ 实验室真实数据:在受控光照下,使用 5 × 5 像素的微型摄像头采集的 280 000 张眼图,涉及 17 位参与者。
3️⃣ 移动场景真实数据:在真实移动环境中记录的 240 000 张眼图,来自 4 位参与者的多次会话。
数据规模 总计约 720 000 张眼部图像(200 k 合成 + 280 k 实验室 + 240 k 移动)。
摄像头配置 多摄像头(通常 3–4 台)嵌入普通眼镜框架,每台分辨率仅 5 × 5 像素(甚至 3 × 3 像素),实现“隐形”集成。
标注信息 每张图像均提供对应的 3D 注视方向(gaze vector)作为标签,供学习‑基于外观的 gaze 估计模型训练
主要用途 - 评估低分辨率、多视角眼动估计算法
- 研究移动眼镜、AR/VR 中的隐形眼动追踪方案
- 为轻量化、低功耗的嵌入式眼动系统提供基准
公开获取 数据集下载页面:
http://www.mpi-inf.mpg.de/invisibleeye (论文中提供的正式链接)
关联论文 InvisibleEye: Mobile Eye Tracking Using Multiple Low‑Resolution Cameras and Learning‑Based Gaze Estimation(ACM IMWUT 2017)
PDF 可在作者机构页面或 ACM Digital Library 获取。
相关代码/资源 该数据集在多个眼动追踪代码库中被列出,例如 GitHub 上的 “Eye_Tracking_Repository”。
后续工作 进一步的研究(如 2019 SIGMOBILE 论文)在此基础上探索更低分辨率(3 × 3 像素)和更高精度的模型。

简要说明

InvisibleEye 数据集是由德国马克斯·普朗克信息学研究所等团队在 2017 年提出的,用于 移动端低分辨率多摄像头眼动追踪 的基准。它通过 合成 + 实验室 + 移动三类场景,覆盖了从理想化模拟到真实使用环境的完整设计空间,帮助研究者评估在 仅几像素分辨率 下的 gaze 估计性能。数据集的公开下载链接已在论文中提供,并在后续的学术和工业项目中被广泛引用。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!