AI数据集 AI数据集 自然语言处理
HotpotQA数据集
HotpotQA数据集是一个大规模的多跳问答(Multi-hop Question Answering)数据集,旨在推动自然语言理解和复杂推理能力的发展。
标签:HotpotQA HotpotQA数据集 HotpotQA问答数据集 问答数据集HotpotQA数据集是一个大规模的多跳问答(Multi-hop Question Answering)数据集,旨在推动自然语言理解和复杂推理能力的发展。该数据集由斯坦福大学、卡内基梅隆大学和蒙特利尔大学的研究人员于2018年发布,其设计初衷是通过提供需要从多个支持性文档中提取信息并进行推理的问题,来评估和提升问答系统的性能。
数据集特点
- 数据规模:HotpotQA包含约113,000个基于英文维基百科的问答对。
- 问题类型:
- 涉及多种推理策略,包括实体缺失问题、交集问题和比较问题。
- 支持事实性问答,即问题的答案需要从提供的支持性句子中提取。
- 推理要求:
- 数据集强调多跳推理,即回答问题需要综合多个文档的信息。
- 提供了句子级别的支持性事实,以便模型能够进行强监督推理并解释预测结果。
- 基准设置:
- 数据集分为训练集、开发集和测试集,分别包含90,447个、7,405个和6,972个问答对。
- 提供了两种主要的推理模式:干扰项设置(Distractor Setting)和全维基设置(Fullwiki Setting),分别用于评估模型在有限和开放环境下的表现。
数据集结构
每个问答对由以下字段组成:
- 问题ID:唯一标识每个问题。
- 答案:问题的答案。
- 问题文本:用户提出的问题。
- 支持事实:回答问题所需的支持性句子列表。
- 上下文:包含多个段落,每个段落由句子组成,句子进一步细分为句子和句子索引。
下载链接
HotpotQA数据集可以通过以下方式获取:
- 官方GitHub页面:https://hotpotqa.github.io/ 。
- Hugging Face Datasets平台:https://huggingface.co/datasets/hotpot_qa 。
- 替代国内访问地址:https://hf-mirror.com/datasets/hotpot_qa 。
用户还可以通过运行脚本download.sh
直接下载数据集及其相关资源。
使用说明
- 环境准备:需要安装Python 3.6+及必要的依赖库(如PyTorch、Spacy等)。
- 数据预处理:下载后需解压并根据
prepro.py
文件调整预处理步骤。 - 模型训练与评估:使用提供的脚本运行模型训练和评估流程,例如
run.py
和hotpot_evaluate_v1.py
。
HotpotQA数据集因其独特的设计和丰富的数据类型,为研究者提供了宝贵的资源,用于开发和评估能够执行多步推理的问答系统。其开放性和多样性使其成为当前自然语言处理领域的重要基准之一