什么是InteriorNet 数据集

AI解读 5小时前 硕雀
1 0

InteriorNet 数据集概览

内容 关键信息 参考
发起单位 英国帝国理工学院、酷家乐(Kujiale)以及美国南加州大学等合作推出
发布时间 2018 年正式发布,随后持续更新
规模 • 超过 2200 万 个室内场景
• 约 1 000 万 条 CAD 家具模型
• 约 1.3 亿 张高分辨率图像(包括 RGB、深度、法向量语义分割等)
• 1.5 万段视频序列,累计约 1 .3 亿 帧
数据模态 - RGB‑D 图像
- 语义分割、实例分割、材质分割
- 法向量、光照、光流
- 多种相机模型(鱼眼、广角、全景)
- 惯性测量单元IMU)数据、事件相机数据、光流等多传感器信息
生成方式 基于 Kujiale 自研的 AI 光线追踪渲染引擎,使用专业室内设计师提供的 1 M+ CAD 资产,自动化生成逼真的光照、材质、动态场景变化,并提供真实轨迹模拟
主要应用 SLAM(同时定位与地图构建)基准测试
- 室内 深度估计语义分割场景理解
AR/VR机器人导航智能家居AIGC(生成式室内场景)等
获取方式 访问官方站点 https://interiornet.org/ ,填写使用协议后可获得下载链接。数据集本身需签署使用条款,获取后可通过邮件或提供的链接下载完整图像/视频包
论文引用 Li W., Saeedi S., McCormac J., et al., “InteriorNet: Mega‑scale Multi‑sensor Photo‑realistic Indoor Scenes Dataset”, arXiv 1809.00716, 2018.

详细介绍

  1. 数据来源与制作
    InteriorNet 依托 Kujiale(酷家乐)在室内装修领域积累的海量真实设计方案,结合 Imperial College London 的计算机视觉团队,利用自研的光线追踪渲染流水线,将数百万 CAD 模型和数千种室内布局转化为高保真合成图像。渲染过程支持多光源、材质变化以及动态场景重排,确保每帧图像在光照、阴影、反射等方面接近真实拍摄效果。
  2. 多模态标注
    • RGB‑D:每帧提供彩色图像与对应深度图(深度范围可自定义)。
    • 语义/实例分割:像素级标签覆盖家具、墙面、地板等 20+ 类别。
    • 法向量 & 光照:用于光照估计与几何重建。
    • IMU & 事件相机:模拟真实移动设备的惯性测量,支持时序 SLAM 研究。
    • 多相机模型:包括普通针孔相机、鱼眼、全景相机,满足不同视觉任务需求。
  3. 数据组织
    • 场景层级:每个室内布局对应唯一 ID,内部包含家具实例、材质文件、相机轨迹文件。
    • 轨迹生成:提供随机生成的相机运动轨迹,并通过学习式风格模型扩展为更贴近真实的人体移动轨迹。
    • 文件格式:图像采用 PNG/JPEG,深度、法向量等采用 16‑bit PNG,标注采用 PNG 或 JSON,IMU 数据采用 CSV
  4. 典型使用案例
    • SLAM 基准:在 CVPR、ICCV 等顶会的 SLAM 论文中,常以 InteriorNet 评估稀疏/稠密 SLAM 系统的鲁棒性(如对光照变化、动态物体的适应能力)。
    • 深度估计:利用其像素级深度标签训练单目深度网络,已在多篇论文中实现跨域迁移到真实室内场景。
    • AR 场景生成:结合生成式模型(如 NeRF)使用 InteriorNet 的高质量光照信息,实现逼真的室内虚拟渲染。
  5. 获取与使用注意事项
    • 访问 https://interiornet.org/ → “Download” 页面 → 填写使用协议(需注明科研或商业用途)。
    • 完成协议后,官方会通过邮件发送完整数据的下载链接(包括图像、视频、标注、CAD 资产等)。
    • 使用时请遵守协议中的 版权声明 与 引用要求,在论文或项目中务必引用原始论文。

小结

InteriorNet 是目前公开的 最大规模、最高真实感的室内合成数据集,在规模(上千万场景、上亿张图像)和多模态(RGB‑D、语义、IMU、事件等)上均领先于传统室内数据集(如 ScanNet、Matterport3D)。它为 SLAM、深度估计、场景理解、AR/VR、机器人导航 等前沿研究提供了统一、可扩展的基准平台,已被广泛引用并推动了室内视觉技术的快速发展。若您需要大规模、标注完整且可交互的室内数据,InteriorNet 是首选资源。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!