内容 | 说明 | 关键来源 |
---|---|---|
数据集定位 | 公开的移动眼动追踪数据集,专为低分辨率多摄像头眼动估计设计。 | |
数据来源 | 1️⃣ 合成数据:使用 UnityEyes 生成的 200 000 张高质量眼部图像,随后下采样至低分辨率。 2️⃣ 实验室真实数据:在受控光照下,使用 5 × 5 像素的微型摄像头采集的 280 000 张眼图,涉及 17 位参与者。 3️⃣ 移动场景真实数据:在真实移动环境中记录的 240 000 张眼图,来自 4 位参与者的多次会话。 |
|
数据规模 | 总计约 720 000 张眼部图像(200 k 合成 + 280 k 实验室 + 240 k 移动)。 | |
摄像头配置 | 多摄像头(通常 3–4 台)嵌入普通眼镜框架,每台分辨率仅 5 × 5 像素(甚至 3 × 3 像素),实现“隐形”集成。 | |
标注信息 | 每张图像均提供对应的 3D 注视方向(gaze vector)作为标签,供学习‑基于外观的 gaze 估计模型训练。 | |
主要用途 | - 评估低分辨率、多视角眼动估计算法 - 研究移动眼镜、AR/VR 中的隐形眼动追踪方案 - 为轻量化、低功耗的嵌入式眼动系统提供基准 |
|
公开获取 | 数据集下载页面: http://www.mpi-inf.mpg.de/invisibleeye (论文中提供的正式链接) |
|
关联论文 | InvisibleEye: Mobile Eye Tracking Using Multiple Low‑Resolution Cameras and Learning‑Based Gaze Estimation(ACM IMWUT 2017) PDF 可在作者机构页面或 ACM Digital Library 获取。 |
|
相关代码/资源 | 该数据集在多个眼动追踪代码库中被列出,例如 GitHub 上的 “Eye_Tracking_Repository”。 | |
后续工作 | 进一步的研究(如 2019 SIGMOBILE 论文)在此基础上探索更低分辨率(3 × 3 像素)和更高精度的模型。 |
简要说明
InvisibleEye 数据集是由德国马克斯·普朗克信息学研究所等团队在 2017 年提出的,用于 移动端低分辨率多摄像头眼动追踪 的基准。它通过 合成 + 实验室 + 移动三类场景,覆盖了从理想化模拟到真实使用环境的完整设计空间,帮助研究者评估在 仅几像素分辨率 下的 gaze 估计性能。数据集的公开下载链接已在论文中提供,并在后续的学术和工业项目中被广泛引用。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!