内容 | 关键信息 | 参考 |
---|---|---|
发起单位 | 英国帝国理工学院、酷家乐(Kujiale)以及美国南加州大学等合作推出 | |
发布时间 | 2018 年正式发布,随后持续更新 | |
规模 | • 超过 2200 万 个室内场景 • 约 1 000 万 条 CAD 家具模型 • 约 1.3 亿 张高分辨率图像(包括 RGB、深度、法向量、语义分割等) • 1.5 万段视频序列,累计约 1 .3 亿 帧 |
|
数据模态 | - RGB‑D 图像 - 语义分割、实例分割、材质分割 - 法向量、光照、光流 - 多种相机模型(鱼眼、广角、全景) - 惯性测量单元(IMU)数据、事件相机数据、光流等多传感器信息 |
|
生成方式 | 基于 Kujiale 自研的 AI 光线追踪渲染引擎,使用专业室内设计师提供的 1 M+ CAD 资产,自动化生成逼真的光照、材质、动态场景变化,并提供真实轨迹模拟 | |
主要应用 | - SLAM(同时定位与地图构建)基准测试 - 室内 深度估计、语义分割、场景理解 - AR/VR、机器人导航、智能家居、AIGC(生成式室内场景)等 |
|
获取方式 | 访问官方站点 https://interiornet.org/ ,填写使用协议后可获得下载链接。数据集本身需签署使用条款,获取后可通过邮件或提供的链接下载完整图像/视频包 | |
论文引用 | Li W., Saeedi S., McCormac J., et al., “InteriorNet: Mega‑scale Multi‑sensor Photo‑realistic Indoor Scenes Dataset”, arXiv 1809.00716, 2018. |
详细介绍
- 数据来源与制作
InteriorNet 依托 Kujiale(酷家乐)在室内装修领域积累的海量真实设计方案,结合 Imperial College London 的计算机视觉团队,利用自研的光线追踪渲染流水线,将数百万 CAD 模型和数千种室内布局转化为高保真合成图像。渲染过程支持多光源、材质变化以及动态场景重排,确保每帧图像在光照、阴影、反射等方面接近真实拍摄效果。 - 多模态标注
- 数据组织
- 典型使用案例
- 获取与使用注意事项
- 访问 https://interiornet.org/ → “Download” 页面 → 填写使用协议(需注明科研或商业用途)。
- 完成协议后,官方会通过邮件发送完整数据的下载链接(包括图像、视频、标注、CAD 资产等)。
- 使用时请遵守协议中的 版权声明 与 引用要求,在论文或项目中务必引用原始论文。
小结
InteriorNet 是目前公开的 最大规模、最高真实感的室内合成数据集,在规模(上千万场景、上亿张图像)和多模态(RGB‑D、语义、IMU、事件等)上均领先于传统室内数据集(如 ScanNet、Matterport3D)。它为 SLAM、深度估计、场景理解、AR/VR、机器人导航 等前沿研究提供了统一、可扩展的基准平台,已被广泛引用并推动了室内视觉技术的快速发展。若您需要大规模、标注完整且可交互的室内数据,InteriorNet 是首选资源。
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!