什么是MIT Indoor Scenes(MIT‑67)数据集

AI解读 5小时前 硕雀
1 0

MIT Indoor Scenes(MIT‑67)数据集概述

项目 内容
全称 MIT Indoor Scenes(MIT‑67)
创建者 Antonio Quattoni 与 Antonio Torralba(MIT)
首次发布 2009 年 CVPR 论文《Indoor Scene Recognition》
类别数量 67 个室内场景类别,涵盖商店、住宅、公共空间、休闲场所和工作场所等
图像总数 15 620 张 RGB 图像
每类划分 按标准协议,每类 80 张用于训练,20 张用于测试(约 5 360 张训练,1 340 张测试)
图像来源 Google、AltaVista、Flickr、LabelMe 等网络检索与共享平台
分辨率 最小边长 ≥ 200 px,实际尺寸不一,需在预处理阶段统一尺度
主要用途 - 室内场景分类基准
- 特征学习与迁移学习实验
- 深度网络(CNNTransformer)性能评估
- 视觉布局、对象检测等上游任务的预训练数据
下载渠道 官方主页(MIT)
https://web.mit.edu/torralba/www/indoor.html
Roboflow 托管页面(可直接浏览或通过 API 下载)
https://universe.roboflow.com/popular-benchmarks/mit-indoor-scene-recognition
GitHub 项目(提供数据划分脚本与示例代码)
https://github.com/wilys-json/indoor-scene-recognition
常见研究引用 - “CNN Features off‑the‑shelf” (CVPR 2014) 使用 MIT‑67 评估特征表现
- “Deep Multiple Instance Learning” (CVPR 2015) 将其作为挑战性基准
- 多篇场景分类、空间布局、局部‑全局特征融合等论文均采用该数据集作为实验平台

数据集特点与价值

  1. 类别多样、相似度高
    同属室内场景的类别在视觉上往往只有细微差别(如厨房 vs. 餐厅、书店 vs. 超市),因此对模型的细粒度辨识能力提出了较高要求。
  2. 标准化评估协议
    每类固定的 80/20 划分使得不同研究之间的结果可直接对比,成为计算机视觉社区长期使用的基准。
  3. 跨任务的扩展性
    除了场景分类,数据集中的标注(类别标签)与图像本身的结构信息也被用于对象分割、空间布局预测、跨模态学习等更高级任务。
  4. 易获取、社区支持
    官方页面提供直接下载链接,Roboflow、GitHub 等平台提供镜像与示例代码,降低了新手入门门槛。

使用建议

  • 数据预处理:统一图像尺寸(如 224×224)并进行均值方差归一化,以适配主流 CNN/Transformer 架构。
  • 划分复用:遵循官方的 80/20 划分,避免自行随机划分导致的评估不一致。
  • 基准对比:在报告中注明使用的划分方式与评估指标(如 Top‑1、Top‑5 准确率),并引用官方协议或相应论文。
  • 扩展数据:若需要更多样本,可结合 MIT‑67 的子集或使用更大规模的室内场景数据(如 SUN‑397、Places‑365)进行迁移学习。

快速获取:直接访问 https://web.mit.edu/torralba/www/indoor.html 下载完整压缩包,或在 Roboflow 上创建项目后通过 API 拉取数据。

以上即为 MIT Indoor Scenes(MIT‑67)数据集的核心信息与获取方式,供您在科研或项目开发中参考使用。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!