Skip to content

Latest commit

 

History

History
366 lines (316 loc) · 53 KB

note.md

File metadata and controls

366 lines (316 loc) · 53 KB
序号 论文 发表会议 是否有用 是否开源 引用程度
1 Generating Multi-hop Reasoning Questions to Improve Machine Reading Comprehension WWW 2020 0 0 弱引,只引用了观点:三类多跳问题占比92%
2 Do Multi-Hop Question Answering Systems Know How to Answer the Single-Hop Sub-Questions? arXiv 2020 1(探索本质当然有用) 0 中引,作为对比模型来说明自己的研究问题:多跳QA系统能否回答单跳子问题;除此之外引用了DecompRC中划分子问题的方法
3 Generating Followup Questions for Interpretable Multi-hop Question Answering arXiv 2020 0 0 没细看,没多大价值
4 Multi-hop Question Answering via Reasoning Chains arXiv 2019 0 0 弱引
5 Complex Factoid Question Answering with a Free-Text Knowledge Graph WWW 2020 - - 不是MRC,而是KBQA,所以没看
6 Unsupervised Question Decomposition for Question Answering EMNLP 2020 1 repo 强引,提出了一种分解问题的方法
7 Answering Complex Open-domain Questions Through Iterative Query Generation EMNLP 2019 1 repo 中引,评价了DecompRC的方法,提出了另外一种方法
8 Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question Answering ICLR 2020 1 repo 中引,也是不断检索文档,只不过是推理路径
9 Self-Assembling Modular Networks for Interpretable Multi-Hop Reasoning EMNLP 2019 1 repo 强引,挺有意思的一项工作,分了不同的板块去完成不同的单跳任务,也有拆分多跳问题为多个单跳问题的意图。
10 Asking Complex Questions with Multi-hop Answer-focused Reasoning arXiv 2020 0 repo 弱引,QG工作
11 Low-Resource Generation of Multi-hop Reasoning Questions ACL 2020 0 0 弱引,QG工作
12 Logic-Guided Data Augmentation and Regularization for Consistent Question Answering ACL 2020 1 repo 弱引,虽然这篇文章将的不是问题分解但我觉得也挺有意思,而且可能会有借鉴价值,讨论核心点是对比问题的数据增强
13 Transformer-XH: Multi-hop question answering with eXtra Hop attention ICLR 2020 1 repo 弱引,但我觉得这篇工作挺有意思的,让transformer在图结构上学习,评分686
14 Robust Question Answering Through Sub-part Alignment arXiv 2020 0 0 弱引,仅相关工作引用了一下,本身也不是多跳推理阅读理解工作
15 Learning to Order Sub-questions for Complex Question Answering arXiv 2019 1 0 中引,利用强化学习去选择最优的子问题回答顺序来得到最终答案
16 Text Modular Networks: Learning to Decompose Tasks in the Language of Existing Models arXiv 2020 1 repo 强引,十分相关,也是在Modular Network上的工作
17 A Simple Yet Strong Pipeline for HotpotQA arXiv 2020 1(效果很好) repo 弱引,不是分解问题的套路,而是一种非常简单的方法但达到了非常不错的效果,值得思考
18 Hierarchical Graph Network for Multi-hop Question Answering EMNLP 2020 1 repo 弱引,但这篇文章还不错,构建了一个异质图包含四类结点和七类边
19 Answering Complex Open-Domain Questions with Multi-Hop Dense Retrieval arXiv 2020 0 0 弱引,没啥感觉,把检索文档看成序列建模问题然后beam search
20 DDRQA: Dynamic Document Reranking for Open-domain Multi-hop Question Answering arXiv 2020 1 0 弱引,迭代式检索工作
21 Multi-Step Inference for Reasoning Over Paragraphs EMNLP 2020 0 0 弱引,NMN工作,创新度不是很高。

ACL 2019:Multi-hop Reading Comprehension through Question Decomposition and Rescoring

1.动机

把原问题分解为多个子问题,把多跳变为多个一跳。

2.问题分类

  • Bridging:第一个子问题的答案在第二个子问题中扮演了主语或宾语的成分,要想回答第二个问题,首先要知道第一个问题的答案。
    • 例如:LOL S5 全球总决赛的MVP 效力于哪支队伍?
    • 子问题:分为两个子问题:“LOL S5 FMVP是谁?”、“[answer] 效力于哪支队伍?”
    • 分析:首先我们要得到第一个问题的答案“Marin”,然后带入到第二个问题中,“Marin 效力于哪支队伍?”,进而得到最终答案“SKT”。
  • Intersection:原始问题的答案需要通过两个子问题的答案来取交集才能确定。
    • 例如:《爱情公寓》的哪位主演做客了LOL S10的嘉宾席?
    • 子问题:“《爱情公寓》的主演有谁?”、“谁做客了LOL S10嘉宾席?”
    • 分析:首先我们得到第一个问题的答案{娄艺潇、陈赫、孙艺洲、李金铭、王传君、邓家佳、金世佳、赵霁、李佳航、成果、万籽麟、张一铎……}、接着得到第二个问题的答案{赵品霖、李佳航、罗云熙、张彬彬……},取得两个集合的交集得出最终答案“李佳航”。
  • Comparison:原始问题就是对比两个实体在某方面的属性
    • 例如:川普和拜登谁出生的更早?
    • 子问题:“川普在何时出生?”、“拜登在何时出生?”
    • 分析:得到子问题答案后进行比较产生原始问题答案。

3.模型

(1)分解问题
基于规则式的分解,在深度学习方便应用的比较少,就一层全连接。训练数据也比较少,400条就号称达到了不错的效果。感觉就是为了hotpotQA数据集而设计的这么一个玩意。而且它把问题分为了Bridging、Intersection以及Comparision只包含了大概92%的hotpotQA问题,剩下的8%无从考察,不能通过它给定的方法来做。
注意:对于每一个原始问题,都会根据四类问题类型(Bridging、Intersection、Comparision以及origin)进行四次分解。

(2)单步阅读理解问题
对于每一类分解。从所有文档中检索相关的文档,然后对于每个相关的文档d,给单步阅读理解模型输入d以及question,产生答案(span、yes、no三种)和答案的置信度。最后把答案置信度最高的答案输出作为该类分解的最终答案。
备注:由于是化简成了单步阅读理解,所以是对在单文档上进行操作的,也就用了SQuAD数据集与hotpotQA数据集的easy部分训练了这一部分的参数。(hotpotQA-easy也是单步的)

(3)分解评分
由于共有四种分解方式,因此会产生四个候选答案,该部分则用于判断哪个候选答案会成为最终的答案。

  • 将问题、推理类型、答案以及支撑句concat之后通过BERT得到表示,再最大池化层再sigmoid得到每一类分解方式的概率,最终取概率最大的分解方式所对应的答案为最终答案。
  • 一开始就根据问题来做分类,然后仅为一开始判断出的分解类型进行后续操作。

实验结果表明第一种方式要好一点。

4.实验结果

hotpotQA(full wiki):验证集 F1 43.26;测试集 F1 40.65
CogQA(2019 ACL)对应的值为:49.4与48.9
说明这个方法离CogQA还是有距离啊。

5.思考一下

  • 抽取子问题这里可以改进么?有8%的问题不属于Bridging、Intersection、Comparision,那他们大概是什么情况?
  • 这个方法对比与CogQA为什么会有比较大的距离?

WWW 2020:Generating Multi-hop Reasoning Questions to Improve Machine Reading Comprehension

1.动机

觉得hotpotQA训练数据集比较少,所以能不能我们先产生一部分伪数据也来参与模型的训练,以此来缓解数据不充分的情况。本篇论文主要研究的就是如何生成一个需要多跳推理的问题。

2.实验

实验也比较有意思,分别测试了只使用不同比例(10%~100%)的hotpotQA训练集,用自己的方法扩充伪数据来增加训练样本依次提升性能。


arXiv 2020:Do Multi-Hop Question Answering Systems Know How to Answer the Single-Hop Sub-Questions?

1.动机

非常不错的一个工作,其研究点在于,已有的一些用于解决多跳问题的模型能否解决单跳问题么?作者通过自动+人工的方式产生了大量高质量的子问题,让能够答对复合问题的模型,去回答这些拆分复合问题之后的子问题,发现即使是SOTA复合模型在子问题上的正确率也非常低,甚至不到50%。对于一个人来说,如果他能回答对复合问题,那他肯定能回答正确该复合问题分解之后产生的子问题,而模型却答不对,因此我们可以推断出,模型很有可能就没有真正理解原文,而是通过一些清奇的线索来回答问题。所以路漫漫其修远兮。机器阅读理解的水平与人类阅读理解水平还有着非常大的距离要走。当前SQuAD数据集,机器阅读理解水平超越人类,马上就有研究“攻击”当时的SOTA模型,致使SOTA模型的准确率骤降。现在HotpotQA数据集引领模型的推理能力,也被本篇论文研究出这样训练出的模型,其实没有深层次的理解原文。

2.模型

提出了一种新的模型包含了四个部分:文档选择、问题分类(决定问题是单跳还是多跳的)、单跳QA模型、多跳QA模型。如果问题被分类为单跳问题,则只经过单跳QA模型;如果问题被分类为多跳问题,则只经过多跳QA模型。
但是训练单跳QA模型这里,用的训练集肯定包含了很多噪声。因为没有人工检验阶段,其实就相当于一种远程监督/弱监督的思想。

3.实验

分别在已有的开源多跳推理RC模型(DFGN、DecompRC、CogQA)上验证。
结果发现DFGN和DecompRC在多跳问题上的表现优于其对应的单跳问题,CogQA在分解后的单跳问题上表现的更好,但也没有好到哪去。
于是作者又去观察了一下,那些多跳问题明明被模型回答对了,但是分解得到的子问题却没有被答对是什么情况。发现这些例子中:第二个子问题中的单词 与答案附近的单词有很高的相似度。

4.评价

我觉得该篇论文证明了现在已有的一些多跳推理模型还是没有理解文章的深入含义,不然不可能回答对复合问题却答不对子问题。赞同作者的观点:现有的一些算法在对复杂问题寻找答案时可能有的也是用了局部的匹配而没有按照推理链来。
然而作者提出的模型,其实就是做了一个问题的分类,如果是子问题的话,直接不使用多跳QA模型,而使用单跳QA模型,感觉没啥意思,这样效果肯定有提升。
所以综上所述,我觉得论文得到的结论是好的,但是它设计的模型根本没有解决出他观察出存在的问题,有点烂尾了给我的感觉。

5.思考一下

  • 为什么CogQA比DFGN或DecompRC在子问题上应用的效果好?
  • 如何让模型能够通过推理链来习得答案而不是靠局部模式匹配?

arXiv 2020:Generating Followup Questions for Interpretable Multi-hop Question Answering

感觉这篇工作还没有做完,只针对bridge问题,可能为其设计了一个逐渐检索的过程。


arXiv 2019:Multi-hop Question Answering via Reasoning Chains

1.动机

通过对一个实例(问题和给定的文章)逐步建立推理链来推理出答案。推理链是原文中的句子所组成的序列,引导最终答案产生,推理链中相邻的两个句子一定要有一定的信息相关联,例如共享某一实体。
感觉该篇论文没啥参考价值,为了训练模型能够抽取出推理链,先用了远程监督的思想(基于NER和共指消解)标注了伪推理链。又有错误传播,又是远程监督训练数据噪声大。实验效果感觉也没多好。


EMNLP 2020:Unsupervised Question Decomposition for Question Answering

1.模型

(1)收集问题:
首先作者收集了很多问题,S代表单跳问题集合,Q代表多跳问题集合。S初始化为SQuAD 2.0中的问题,Q初始化为HotpotQA中的问题。作者用Common Crawl中的以“wh”开头,以“?”结尾的句子来扩充Q和S,具体的扩充方法为:训练了一个fasttext文本分类器,将不同的问句分为“SQuAD 2.0”、“HotpotQA”以及“Common Crawl”三类,这个训练集共有60K条句子。然后将所有“Common Crawl”中问题分类结果为“SQuAD 2.0”的问题用来扩充S,将结果为“HotpotQA”的问题用来扩充Q。通过以上步骤,S从130K扩充至10.1M,Q从90K扩充至2.4M。
(2)检索子问题:
对于一个多跳问题与子问题都用fasttext来表示(作者也尝试了用TF-IDF或BERT表示,但没有提升,这三个中fasttext表示是效果最好的)。给定一个多跳问题$q$,通过下式来选取子问题(基本思想为,子问题与原问题相关性尽可能大,且子问题集合尽可能覆盖全面): $$ (s_{1},s_{2}) = argmax[v^{T}{q}v{S1}+v^{T}{q}v{S2}-v^{T}{s1}v{S2}] $$

(3)后处理子问题:
由于我们得到子问题的方式是基于检索的,因此检索出的子问题与原问题可能不是关于同一个实体的。如果子问题中的实体没有出现在原问题$q$中,则将这个实体替换为$q$中的同类型(例如日期或地点)实体。
这步对于Seq2seq(在测试时利用seq2seq模型生成子问题)以及PseudoD(在测试时直接利用上述方法来检索子问题)很重要,但是对ONUS模型没那么重要,因为ONUS要从分解后的子问题$d$重新构建出原问题$q$。
(4)ONUS:
One-to-N Unsupervised Sequence transduction(ONUS)。在模型具体做法上,利用MLM任务在Q和伪分解子问题上微调了(1 epoch)了基于transformer的seq2seq模型。然后又在back-translation以及denoising objective两个任务上微调。
对于denoising objective任务,将问题$q$与对应子问题$d$都进行随机mask、丢弃部分字符、局部交换字符等加噪操作,然后让模型去复原。
对于back-translation:利用分解后的子问题$d$,去产生原问题$q$。
(5)单跳模型:
整体模型的思路和DecompRC差不多。
单跳QA模型的选择了RoBERTa-large,然后在SQuAD 2.0与HotpotQA-easy上进行预训练。预训练了两个单跳QA模型,然后进行集成。预训练好之后就当成一个黑盒不再改变参数了。
然后对于一个多跳问题,先利用ONUS分解成单跳问题,接着对于一个单跳问题,将问题与不同的段落分别送至单跳QA模型,模型会在该段落下得出答案span以及有无答案的概率(yes和no也视为一种span)。所以对于一个单跳问题,产生了 段落个数 个答案,成这些答案为单跳QA问题的候选答案。然后基于这些答案和答案概率计算每个候选答案概率,再将概率最大的答案span作为子问题的最终答案。
(6)重组模型:
和单跳模型一致,只不过训练集的输入是子问题和子问题答案,输出是原始问题答案。每个(sub-question, sub-answer)之间用[SEP]相隔。


EMNLP 2019:Answering Complex Open-domain Questions Through Iterative Query Generation

1.动机

还是为了解决短视检索问题。在多跳问题中,有些中间实体非常重要,但它一开始没有在问题中,所以需要对初次检索得到的文档中的内容进行二次检索。于是本文提出了GOLDEN(Gold Entity)检索模型,每一步模型会利用之前检索得到文档内容去产生一个新的query,再利用新的query去检索文档,以更好的适应多跳问题。

2.模型

  1. query生成:
    每一次输入原问题和已经被检索到的文档,然后输出query,query是输入的一个span。可以看出query生成模型与QA模型很像,都是输入文本,输出一个目标,只不过这里的目标不是回答问题而是生成下一跳的query。自然采取的是单跳QA模型,这里选用的是DrQA
    对于训练数据,比较启发式的检索已有信息(问题与之前检索到的文档,如果是第一步则只有问题)和期望在下一跳查询到的文档之间具有最高重叠率的连续跨度,将这个连续跨度作为oracle query。计算重叠率的时候测试了多种方法,例如最长公共子序列、最长公共子串、前两者的结合。
  2. 利用query检索新文档
    就正常的基于BM25的检索,之后会提高一下那些标题能够匹配到query的文档的分值,具体提高多少看匹配的情况。
  3. 生成答案
    每次query出一篇新的文档,对于hotpotQA就query两次得到两个文档即可,然后利用一个QA模型产生答案,在BiDAF++模型上进行了修改:(1)由于两个文档之间没有顺序性,如果用一个RNN直接将concat后的文档进行编码则表示会受到被concat的两个文档的顺序影响,因此在编码时,对两个文档分别用一个共享的RNN进行编码,从而得到两个文档的表示。(2)将原有的注意力机制都改为self-att机制。

3.其余有价值观点

作者在评价自己的方法(利用query不断检索新的文档)与分解子问题检索文档的方法时,说到:

It is also more generally applicable than question decomposition approaches (Talmor and Berant, 2018; Min et al., 2019b), and does not require additional annotation for decomposition.


ICLR 2020:Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question Answering

1.动机

还是短视检索问题,然后本篇论文作者的想法是在整个wikipedia上面去建立一个段落间的图,然后这个图中每个结点代表一个paragraph,结点之间的连线靠的是wikipedia的一些超链接和段落间的链接,这样不同paragraph之间的关系是依靠着语义建立起来的,而不是文本表面的匹配。由此来解决短视检索问题。

2.模型

(1)建立图
没什么好说的,就是根据超链接和段落间的链接建立的。构建出的图也比较稠密。
(2)检索器
利用question和已经检索出的文档,从候选集里检索下一跳需要的文档。
先利用BERT编码候选集中的所有文档,然后利用已有的信息$h_{t}$(包含已检索到的文档与问题信息)计算当前步检索到别的文档的概率,以此来习得推理路径。然后根据当前步检索出的文档的表示再更新已有信息的表示$h_{t+1}$。候选集的话在一开始是根据question基于TFIDF的方法检索到的,之后就是当前步新检索出的结点所连接的其余结点集合(这里有一个小trick,就是除了当前步新检索出的结点所连接的其余结点之外,还会加上上一次检索得到的结点列表中,除去那个被选中的结点之外,其余结点中排名最高的也会被加入。)。在检索的过程中也用到了Beam Search,所以检索器最后会输出多条(取决于Beam size)路径之后再由阅读器处理。 $$ w_{i} = BERT_{[CLS]}(q,p_{i}) \ p(p_{i}|h_{t}) = \sigma(w_{i}h_{t}+b) \ h_{t+1} = RNN(h_{t},w_{i}) $$

(3)数据增强与负采样

  • 数据增强:为了训练上述检索器,首先得到一条真值推理路径$g = [p_{1},p_{2},...,p_{g}]$(通过已有的标注数据来获得,$p_{g}$代表的是一个特殊符号[EOE]表示一条路径的终端。),然后增加一条新的推理路径$g^{'} = [p_{\alpha},p_{1},p_{2},...,p{g}]$, $p_{\alpha}$属于$C_{1}$,是TFIDF分最高的一个段落,并且和$p_{1}$相联系。增加这样的新路径有利于Retriever能够在第一次通过TFIDF没有检索到正确文档的情况下,也能进而检索出正确的推理路径。
  • 负采样:两种负采样策略,基于TFIDF或基于超链接。单轮QA只用基于TFIDF,多轮则两个都用。负采样数为50。

(4)阅读器
利用多任务学习来训练阅读器:①对于每条路径进行重排序、②阅读理解,在最有可能出现答案的路径上抽取出答案。
①对于路径选择任务来说,也是利用了BERT,输入问题q与一条路径(所有文档concat)给BERT,然后利用[CLS]获取整条路径的表示,接着通过分类任务预测出这条路径的重要程度。训练数据的话是通过构建负例来训练的。
②对于阅读理解任务来说,直接使用BERT,输入concat后的文档与问题,输出答案区间,没有什么额外的特殊设计。


EMNLP 2019:Self-Assembling Modular Networks for Interpretable Multi-Hop Reasoning

1.动机

使用模块化的思想,设计了三种不同的模块来完成不同的推理操作,每种模块只能完成一跳的推理,多个模块组合起来便可以完成一个多跳推理问题。
具体地,利用Controller来预测当前步的Modular,有三个不同的ModularFind用于找到子问题的答案;Relocate使用Find模组找到的答案来化简问题并继续调用Find来搜索化简后的问题的答案;Compare模组用来比较前两个Find找到的实体信息,并输出一个向量进而判断答案是yes or no。除此之外,还有一个比较特殊的模组NoOp代表没有操作,就是跳过的一次,也就是当前步不需要进行任何推理行为的意思。

2.模型

context经过LSTM的上下文有关表示为$h$(二维向量),问题经过LSTM的上下文有关表示为$u$(二维向量),问题经过self-attention的表示为$qv$(一维固定向量)。

  • Controller(控制器)
    • Controller计算下一步的推理行为(即计算下一步采用哪个模组):Controller先计算问题在第t步的表示$q_{t} = W_{1,t}qv + b_{1,t}$,然后融入之前Controller的隐层表示(下面会讲):$cq_{t} = W_{2}[c_{t-1};q_{t}] + b_{2}$ ,最后计算下一个模组的概率分布:$p_{t,i} = softmax(W_{3}cq_{t})$。这里的$W_{3}$会将参数降维至4表示四个模组(FindRelocateCompare以及NoOp
    • Controller更新当前步的隐层表示:在计算下一步推理模组时,使用到的$c_{t-1}$代表上一步的Controller隐层表示,那么当我们已经得到了下一步的推理模组时,需要更新Controller的隐层表示。具体来说,先计算$cq_{t}$(融合了问题表示与之前控制器的状态信息)对上下文$h$中每个token的权重:$e_{t,j} = W_{4}(cq_{t}u_{j}) + b_{4}$,$cv_{t} = softmax(e_{t})$,最后基于该权重来计算上下文的表示向量(一维):$c_{t} = \sum_{j}cv_{t,j}u_{j}$。向量$c_{t}$(1)既表示当前Controller的隐层状态,用于计算下一步模组选取的概率分布;(2)又代表着子问题的表示,因为它是在context上构建的,表示了当前步子问题
  • Modulers 所有的模组输入都是问题表示$u$,上下文表示$h$以及子问题表示$c_{t}$。核心模组(FindRelocate)的输出是基于bi-attention在context上构建的一个attention map。为了保证能够微分,且能够完成不同模组之间的交互,这个attention map会入栈和出栈。例如在对比问题上,我们先将两个实体/事件通过Find模组得到的attention map入栈,然后再使用Compare模组去对比,这时就要用到之前计算出的两个attention map,因此需要对这两个attention map做出栈操作。
    • Find:主要功能是基于子问题表示$c_{t}$,上下文表示$h$,先生成一个更加健壮的子问题表示$h^{'} = hc_{t}$,我的理解是$c_{t}$其实已经包含了权重平均后的context的表示,是一个一维向量,然后用它跟原先上下文表示$h$中每个token的表示做乘积,那么原先权重大的token,在这里乘积也应该更大,最终得到的$h^{'}$融入了子问题表示(同样也来源于上下文表示)和上下文表示,但最重要的是$h^{'}$是一个二维向量,所以它可以用来跟我们的问题表示$q$进行Bi-attention计算。接着,我们将Bi-attention计算的结果(是一个在context上的attention map)入栈。
    • Relocate:主要功能是用之前的Find模块找到的答案(本质是一个att map)来进行二跳检索,例如一个问题“A的妻子从事什么职业?”,我们先利用Find模块,context以及子问题表示(A的妻子)来在context上建立一个att map,这个att map代表着答案(源于context的某一处上下文),然后接着我们就可以利用Relocate模组,给它输入(1)第一步att map代表的答案影响后的上下文表示$h_{b}$。(2)原多跳问题表示$u$以及(3)当前步子问题表示,也就是Controller的隐层表示$c_{t}$。然后Relocate模组会输出另一个att map表示第二跳问题的答案(同样本质也是在context上的一个att map)。其余两个输入比较简单,我们来看一下$h_{b}$是如何构建的:首先我们将之前的att map出栈,然后利用该att map计算出答案表示:$b = \sum_{s}att_{1,s}h_{s}$,可以看出$b$是一个由context构建而成的一维向量,在这个att中,第一条问题的答案区间中的token的权重占比应当比较大,所以我们可以将$b$看成是答案的表示,然后再基于这个答案表示$b$构建一个二维的上下文表示(受第一跳问题答案影响的上下文表示)$h_{b} = hb$,这样我们就得到了$h_{b}$,最后我们调用Find($u$, $h_{b}$, $c_{t}$)得到一个新的att map代表二跳问题的答案,并将这个新的att map入栈。
    • Compare:主要功能是在某一属性上对比两个实体/事件。一般情况下再使用Compare模组之前,栈内会有两个att map,代表通过Find模组找到了关于这两个实体/事件的这一属性。然后将这两个att map出栈加工得到对应的属性表示,再进行分类计算出yes or no即可。我们来看一下具体操作,首先出栈两个att map,然后计算得到两个实体/事件相应的属性表示:$h_{s1} = \sum_{s} att_{1,s}h_{s}$与$h_{s2} = \sum_{s} att_{2,s}h_{s}$,然后我们构建一个新的向量,融入这两个属性的表示、子问题表示$c_{t}$以及这两个属性之间基于$c_{t}$的权重差距表示:$o_{in} = [c_{t}; h_{s1}; h_{s2}; c_{t}(h_{s1}-h_{s2})]$,然后进行线性与非线性变换处理得到:$m = W_{1}(ReLU(W_{2}o_{in}))$。
    • NoOp:跳过跳过,无操作,因为不可能每一步都有一个推理举动。
  • Prediction Layer: 我们先把问题表示$qv$以及模组隐层状态表示$m$(好像是所有模组输出的加权平均?)concat起来预测这个问题的答案到底是span还是yes/no;如果是span的话,我们把栈内最后一个att map出栈,然后基于这个att map映射一下得到每个token为span start概率和span end概率,之后懂的都懂;如果是yes/no的话,把compare模组最后产生的向量$m$,然后做一个二分类预测。

arXiv 2020:Asking Complex Questions with Multi-hop Answer-focused Reasoning

又是一个多跳问题生成的工作,貌似被EMNLP2020拒了?然后作者强调了自己的论文与Semantic graphs for generating deep questions.的不同


ACL 2020:Low-Resource Generation of Multi-hop Reasoning Questions

也是一篇多跳问题生成的研究,利用少量的带标签的数据与大量无标注数据训练了QG模型。
实验时分别测试了只使用不同比例(10%~100%)的hotpotQA训练集,用自己的方法扩充伪数据来增加训练样本依次提升性能。


ACL 2020:Logic-Guided Data Augmentation and Regularization for Consistent Question Answering

1.动机

本论文主要的动机是结合逻辑规则和神经网络模型提高比较题答案的准确性和一致性。使用了逻辑和语言上的知识去增强带标签的训练数据,接着使用了一个基于一致性的归一化器来训练模型。所以这篇论文主要研究的点就是对比性的推理问题(在某一个属性方面对比两个实体或事件)。

2.模型

  • 基于规则的数据增强 例如有一个训练数据$X = {q, p, a}$,(1)基于对称一致性增强:得到$X^{'} = {q_{sym}, p, a_{sym}}$。(2)基于传递一致性增强:$(q_{1}, p, a_{1}) \wedge (q_{2}, p, a_{2}) \to (q_{trans}, p, a_{trans})$,其中$q_{1}$的结果是$q_{2}$的原因。
  • 训练目标
    loss分为两部分,答案预测loss以及一致性loss:$L = L_{task}(X) + L_{cons}(X, X_{aug})$;其中一致性loss又分为两部分:$L_{cons} = \lambda_{sym}L_{sym} + \lambda_{trans}L_{trans}$。
  • 退火(Annealing):刚开始训练时只在答案预测loss上做训练,训练几轮之后再引入一致性loss。

ICLR 2020:Transformer-XH: Multi-hop question answering with eXtra Hop attention

1.动机

从名字上不难看出本论文是对Transformer的一个改进。以往的序列建模,不论是Transformer还是Transformer-XL都只是在文本表面的序列上进行建模的。而有些文本之间是存在着固有的结构(树或图)。例如在Wikipedia中,许多文档之间实际上是有联系的(体现在超链接上),以往的模型没有考虑到文本之间的图结构。这种图结构对于多跳推理阅读理解来说是非常重要的,因为多跳推理往往需要一条完整的推理链才能回答问题,而推理链就是在这样的图结构中产生的。所以本文在对文本建模时,使用到了另外一种注意力机制:eXtra Hop attention。

2.模型

直接说应用于hotpotQA的做法吧。
(1)构建图结构:基于TFIDF抽取一些文档出来,再把与问题中出现过的实体相关的文档挑出来,形成一个初选文档集合,然后对于这个集合中的每一个文档,利用BERT计算出相关度,最后保留前K个相关度的文档。接着把这K个文档相连接的文档也搞出来组成最终文档集合。然后在这个最终文档集合上构建一个图结构,每个结点代表一个文档,边代表图中的超链接关系。
(2)为每个文档中的token初始化,每个文档在输入到Transformer-XH之前,先tokenize,然后组成“[CLS] + question + [SEP] + anchor text + [SEP] + paragraph + [SEP]”的形式。其中anchor text指的是,指向这个文档的超链接上的文字(存在于父文档中)。然后在每层Transformer-XH中,所有的token都会现在本文档中进行vanilla self-attention(在论文中被称为in-sequence attention),然后重点来了,我们现在想让当前计算的这个文档能够get到其余和它相连接的文档的表示,具体的做法是(eXtra Hop attention):用[CLS] token的表示获取代表本文档的query向量,然后与相连接的文档的[CLS] token表示进行self-attention。这样本文档的[CLS] token就融入了别的文档的表示。需要注意的是,在本层中[CLS] token经历了两个attention(in-sequence attention与eXtra Hop attention)的交互,所以最后还通过了拼接加线性层的方法将两者融入的信息结合起来。然后在下一层传递信息的时候,本文档中其他token的表示将会从本层和其他文档交互过的[CLS] token中也得到了来自其他文档中的信息。
(3)基于每个文档的表示,预测每个文档包含答案的概率(二分类),选取最高概率的文档接着进行span预测,再得到最终答案。


arXiv 2020:Robust Question Answering Through Sub-part Alignment

将上下文和问题利用现有的工具分解成更小的单元(predicates and corresponding arguments),然后建立图中的结点,接着利用predicate argument relation和共现关系建立边,最后将问题对齐到上下文图中来寻找答案。
这样会获得更好的鲁棒性。在攻击实验上效果比较好。
但本文和多跳推理无关。


arXiv 2019:Learning to Order Sub-questions for Complex Question Answering

利用强化学习对分解负责问题得到的子问题集合进行了排序以确认子问题的回答顺序。例如对一个复杂问题“那个城市被 由JK罗琳写过的小说改编成的电影 取过景且举办过奥运会”,分解可以得到三个问题:“JK罗琳写过的小说是?”、“哈利波特在哪些城市取过景?”、“哪些城市举办过奥运会?”。显然第三个问题很广泛,如果先回答第三个子问题,搜索空间就很大,所以有必要进行这个子问题序列的研究。需要注意的是第三个子问题,不受第一个和第二个问题回答的限制,因此它是自由的。有多种子问题回答的顺序都能够得到复杂多跳问题的答案,但我们人类在做这种题的时候就会考虑到每个子问题的难度情况来选择最轻松的顺序以得到最终答案。


arXiv 2020:Text Modular Networks: Learning to Decompose Tasks in the Language of Existing Models

1.对前人工作的叙述

指出민세원的工作比较难以在新的问题中应用,而且无法保证分解后的子问题被现有模型解决。

2.模型

分为两个模组,一个模组(next-question generator)负责产生下一个子问题,一个模组(QA model)负责回答简单子问题。对于一个复杂问题,next-question generator先对其输出一个子问题,然后QA model回答子问题,并将答案反馈给next-question generatornext-question generator再根据已有信息产生下一个子问题,QA model继续回答,重复上述过程,直至next-question generator产生结束符号[EOQ]。

  • next-question generator
    • 基于BART训练的一个下一个问题生成器,那我们来分析一下这个next-question generator的训练数据,首先它是一个文本生成任务,我们需要给next-question generator输入的是上下文,之前的子问题以及相应的答案。然后利用next-question generator来输出下一个子问题。所以我们需要一个训练数据,这个训练数据序列地标注了一个复杂问题,序列地产生每一个子问题与相应的答案,这样我们就可以训练next-question generator了。
    • 但是标注这样的数据是非常费力的,所以采用了一个弱监督的思想,我们思考一下,在SQuAD数据集上,通常我们是告诉模型上下文与问题,然后让模型产生答案。如果我们反其道而行之,告诉模型上下文和答案,让模型产生问题。是不是就可以产生一个单跳问题生成器,但这个问题生成器只能用来生成SQuAD式的问题,因为只有一步。所以距离我们的目标还差一点。但如果我们能够从复杂问题中序列得抽取出每个子问题对应的答案,这样我们就可以利用上述训练好的单跳问题生成器,产生每一个子问题。这样我们不就有了“复杂问题-q1-a1-q2-a2-……-[EOQ]”,然后就可以用来训练我们的next-question generator了!
    • 备注:刚刚我们说在SQuAD数据集上,训练一个问题生成器。给这个问题生成器输入的是上下文和答案,输出的是问题;我们思考一下,如果我们给问题生成器只输出答案然后让其输出问题,那么会发生什么?虽然模型也会输出一个SQuAD式的单跳问题,但模型的搜索空间大大增大了有么有?你现在不给上下文了,只给个答案,可以有更多的合理的问题,所以生成的问题空间将会飙升。作者也发现了这一点,所以说,如果我们给模型输入的提示越多,那么模型在decoder阶段的空间就越小。所以作者在问题生成器的输入上又新加了一项,叫做问题预估词,就是说,我们期望生成的问题中,出现这几个词汇。这样以来,输入数据就变成了<上下文,答案,问题预估词>。在训练的时候,问题预估词是从gold question中采样了一些关键词汇,也从其余问题中负采样了部分词汇。所以在复杂问题中,我们现在不仅仅从复杂问题中序列得抽取出每个子问题对应的答案,还要为每个子问题搞一个问题预估词集合。
  • QA model:用来回答子问题,就正常的单跳QA模型,在本篇论文中选取的是在SQuAD 2.0上训练好的RoBERTa-Large模型。

3.Inference

在模型推理的时候,一开始我们有一个复杂问题qc,然后我们利用next-question generator为其产生k个子问题,因为next-question generator产生问题是一个decoder的过程,所以作者利用了nucleus sampling(是Beam Search的改进版)来采样了top-k个问题,然后对于每个生成的简单问题,都会用QA model来回答,这个过程将会一直持续下去直到next-question generator产生[EOQ]为止。然后其实还有一个评分函数来给每个推理链打分,在推理的过程中会有剪枝处理。

4.如何在一开始针对于一个复杂问题序列地获取子问题对应的答案呢?

HotpotQA(distractor setting)中仅使用了17%的数据(hotpotqa-hard)用于训练/验证/测试分解模型。主要涵盖两类问题:

  • Bridge Question:假设第二个段落中的标题实体是中间答案。d1通常包含了中间实体,d2则包含了多跳问题的答案。所以设定为了产生第一个子问题而给next-question generator的输入为:z1 = <p1 = d1, a1 = e1, v1 = f(qc)>,为了产生第二个子问题而给next-question generator的输入为:z2 = <p2 = d2, a2 = a, v2 = f(qc) + e1 >。其中a就是整个多跳问题的答案,f函数用于从question中抽取与输入的context相关的关键信息。如果最终的答案a在两个paragraph中都出现了,那么直接假设他是连接问题,例如“谁参演了X且导演了Y”,对于这样的问题,那么让a1 = a2 = a。
  • Comparison Question:那么对于每一个潜在的实体或者日期对,创造一个hint:vi = <di, ei, v2 = f(qc)>

5.评价与思考

我觉得这个工作,工作量也创新点都很ok,它只能应用与HotpotQA(distractor setting),那如何能应用与openQA场景呢?弱监督思想很好,但是肯定会存在噪声,那么能否降低噪声呢?


arXiv 2020:A Simple Yet Strong Pipeline for HotpotQA

1.模型

  • 句子评分组件
    这个组件其实有两个不同的模型构成,一个模型(后称A)负责计算文章中每句话与问题的关联程度,另一个模型(后称B)负责计算文章中每句话能推导出答案的概率。但比较神奇的是,A和B的训练数据是一样的,只不过在输入上有略微的差别。它俩的输入模式都是:“[CLS] + question + [SEP] + paragraph + [SEP] + answer + [SEP]”。对于A来说,它只用计算文章中每句话和问题的关联程度就可,所以它不需要答案,故A的输入部分answer是用[MASK]来表示的。B的话是用来找支撑句的,所以会给模型输入答案(训练的时候是真实答案,测试的时候是已经生成的答案)。这里需要注意paragraph是整个输入进去的,所以不同句子只能通过segment id来判断。
  • 答案预测组件
    把A评分后的句子排序然后添加进来,最后按照段落和原顺序整理好,选出来的句子可能来自于不同的段落,那么段落之间的排序是靠每个段中句子的平均分数来决定的。选出来的句子最长不能超过508个token,最后四个token固定是[SEP]yesnonoans。这样回答的时候也能回答yes or no。预测就正常的span预测。

整体过程:
对于hotpotQA(Distractor Setting):先利用A来筛选与问题最相关的句子,然后送到答案预测组件进行答案预测,得到答案以后,利用B计算每个句子为支撑句的概率,将平均概率最高的两个paragraph挑选出来,再在这两个paragraph中基于B的预测分数找出支撑句。
对于hotpotQA(Fullwiki Setting):先利用SR-MRSRevealing the Importance of Semantic Retrieval for Machine Reading at Scale)提取出context,之后和Distractor Setting差不多。

2.效果

这篇论文效果好像非常非常好,超了SOTA不少。


EMNLP 2020:Hierarchical Graph Network for Multi-hop Question Answering

解决推理问题的一类做法就是利用GNN来完成不同结点之间的信息交流,以此达到推理的效果。作者更加细粒度的构建了一个异质图网络,包含了四类结点(问题结点、段落结点、句结点以及实体结点)还有七种类型的边。之后利用预训练模型为每个结点产生初始值,再根据GAT来完成结点之间的信息传递,最后基于各类结点的表示进行多任务联合训练:支撑句预测(基于句结点的表示)、paragraph预测(基于段落结点的表示)、答案区间预测(基于上下文表示和图结构融合之后的表示)、答案类型预测(基于context中CLS token的表示)以及实体预测(基于实体结点的表示)。


arXiv 2020:Answering Complex Open-Domain Questions with Multi-Hop Dense Retrieval

每次检索一篇新文档,将不断检索文档的过程视为一个语言建模任务,设计的也非常简单,在检索过程中有标注数据,最后在测试时,利用Beam search选择top-K段落然后送到具体下游任务模组中产生答案(在实际操作过程中,对于开放性多跳推理问题可能有一个重排序,也就是利用BERT模型进行文档间的相关性打分)。


arXiv 2020:DDRQA: Dynamic Document Reranking for Open-domain Multi-hop Question Answering

1.模型

对于OpenQA问题,其中一个框架就是Retriever and Reader,Retriever负责检索与复杂问题相关的文档,而Reader负责从检索出的文档中找到答案,本篇论文的工作集中在Retriever上,Reader只采用了非常标准的span prediction方法。本文在Retriever上采用了动态检索的思路,首先根据复杂问题,基于TFIDF检索一些相关文档,然后对利用文档中的共享实体关系建立一个图,每个结点代表一个文档中的实体,也就是说如果两个文档都包含A实体,则会有两个实体A的结点存在图中。用BERT初始化所有的文档token表示,然后最大/平均池化层获取结点初试表示,接着使用GAT来更新结点表示,再反过来更新源文档token中与实体相关的token的表示,然后再送入transformer中,使其他token也能更新表示。接着使用每个文档的[CLS] token来计算文档的重要程度。然后利用GoldEn Retriever中的query更新方法来更新question用于下一跳的检索,然后将检索出的新文档以同样的方法构建实体图。除此之外还有一个全局控制器,当正样本段落的数量大于阈值时,将会停止上述迭代。然后将已经检索到的文档按照重要程度选取其中top-K文档,进而利用Reader产生答案。


EMNLP 2020:Multi-Step Inference for Reasoning Over Paragraphs

1.模型

文本其实挺简单的,设计了三个模组:SELECT, CHAIN以及PREDICTSELECT输入一串token的表示,生成单一向量。CHAIN输入X序列和z向量,输出X序列与z交互后的表示。PREDICT输入Y序列,输出答案。
然后该篇工作是在ROPES数据集上进行实验的,该数据集每一个question对应着两篇文章:Background和Situation。多跳的思路是:先分别给SELECT输入Question和Background来捕获这两个输入的单一向量以此来表示整个输入的信息。然后利用CHAIN模组让这两个单一向量进行交互,将交互的结果再与Situation经过SELECT后的表示进行CHAIN,接着得到的结果会进入PREDICT模组中来预测答案。由于ROPES数据集的每个样例格式比较固定,所以对于每个问题都采用上述方法进行答案预测。

2.评价

感觉参考性不是很大,但也算是NMN的一个相关工作,论文的对比实验也不是很充分,没有和其余模型进行对比,只和自己设计的Baseline进行了简单的比较。无论在创新度还是工作量上来说感觉与其余几篇NMN论文对比而言稍显逊色。


ICLR 2020:Neural Module Networks for Reasoning Over Text

这项工作真的非常的硬核,设计了10个模组来解决DROP数据集中的问题

模组 输入 输出 任务
find Question Paragraph 对于问题中的一个span,在文档中找到相似的span
filter Question, Paragraph Paragraph 基于问题,在输入的span集合中选择一个子集
relocate Q, P P 对于输入的Paragraph Span找到论点中提出的问题
find-num P Number 找到输入Paragraph Span中的数字
find-date P Date 找到输入Paragraph Span中的日期
count P Count_Number 对于输入Paragraph Span计数
compare-num-lt P, P P 输出有更小数字相关联的Span
time-diff P, P Time_Delta 两个输入Paragraph Span中时间的差距
find-max-num P P 选择包含最大数字的Span
Span P S 从出席的token中识别一个连续的Span

ACL 2019:Compositional Questions Do Not Necessitate Multi-hop Reasoning

1.研究

作者在HotpotQA上做了一个研究,发现很多多跳问题其实能直接用单跳模型就解决。
然后作者又探究了为什么会有这样的现象,HotpotQA有两类问题:Bridge和Compare,其中Compare类确实很难用单跳QA模型来回答,但是Bridge就不一样了,作者分析了一下那些能被单跳QA模型回答的Bridge多跳问题,并将他们分成了四类:
(1)Multi-hop(27%):这类问题其实是必须通过多跳来解决的,例如问你“RH教授所在的大学在哪所城市?”,但是distractor中给的文档其实包含了很多所大学,所以必须要产生推理。当然单跳模型也有可能能回答对问题,因为可以靠猜嘛,但这样的策略并不在我们的考虑范畴。
(2)Weak Distractors(35%):这类问题其实就是按照实体类型来匹配的,因为实体类型其实是一个很强的信号。例如问你“Kiss and Tell电影里A的饰者在政府部门里担任什么职位?” 但在提供的10个distractor中只有一个女演员在政府部门有职位,所以单跳就可以直接解决,但如果是full wiki设定的情况下就不能被单跳模型来回答了。
(3)Redundant Evidence(26%):例如一个问题“A公司的哪个创始人现在被称为是钢铁大王?”。但这个问题最吊的地方就在于A公司的创始人就一个!什么“钢铁大王”的限制并没有什么卵用,相当于是一个单跳的问题,也就是这个问题本身就有冗余,去除掉冗余之后,实际上就是一个单跳问题。
(4)Non-compositional Single-hop(8%):问题本身就直接是单跳的。

2.针对于Weak Distractor的研究

因为Weak Distractors在full wiki的设置下可能就不能被单跳模型推理出来了,所以作者又做了更深一步探讨。然后作者分别用了两种方法替换进来干扰度更强的distractor。发现单跳模型的效果骤降,但是利用新引入进来的数据重新训练单跳模型,发现单跳模型在挣扎,虽然没有一开始的效果好,但还是进步了一些的。


NAACL 2019:Understanding Dataset Design Choices for Multi-hop Reasoning

本文在两个多跳阅读理解数据集(HotpotQAWikihop)上进行研究

1.单句包含答案实验

首先做了一个简单的实验,给模型输入一个句子以及问题,模型输出该句包含问题对应答案的概率。然后在这两个数据集上分别训练了这么一个模型,再测试,发现超过一半的样例都成功判断出了包含答案的句子,这样作者觉得很神奇,这根本就没有推理的成分嘛,因为句子与句子之间是独立的。

2.可以可以不看文章直接答

那这个方法肯定说的是Wikihop因为HotpotQA是一个span式的数据集,Wikihop则是一个多选的数据集。我们直接不给模型文章,然后只给模型问题以及候选答案集合,让模型回答。结果他们发现60%的问题都答对了。于是作者心里想:这怎么玩?这玩什么?感觉没得玩啊。

3.Span-based vs. Multiple-choice

作者脑洞打开,还做了一个非常精彩的实验,HotpotQA是一个span式的数据集,而Wikihop则是一个多选的数据集。作者把hotpotQA(distractor setting)中的不包含答案的其余9个文档中抽取出一个实体,这9个实体和答案组成候选答案集合,以及来将HotpotQA改造成多选数据集。然后对于Wikihop数据集,作者也将其改造成了span式的数据集,具体的改造方法是:把所有文档连接起来,第一次出现答案的位置就是gold span。做了实验之后发现,在HotpotQAWikihop-Span上得分都比较低,而在HotpotQA-MCWikihop上的结果都挺高的。作者又经过分析得到了以下结论:
(1)当训练集和测试集都是多选数据集的时候,模型(注意是论文中进行实验的模型)就不会多跳推理
(2)Span式的数据集更加健壮一些,但仍然有一些问题不需要多跳推理也能回答
(3)给多选式数据集增加选项并不能从本质改变这一现象
(4)Span式的训练数据更加健壮(powerful)


TACL 2020:BREAK It Down: A Question Understanding Benchmark

1.数据收集

从10个QA数据集中收集了83978个复杂问题,并让众包工人进行问题分解的标注。

2.分解类型

13个QDMR Operators:QDMR是Question Decomposition Meaning Representation,用论文中表示的是复杂问题分解后的集合。在分解的过程中有13种不同类型的分解操作,例如:SelectFilterAggregate以及Comparative等。
除此之外,由于将复杂问题分解得太过细粒度将会导致查询次数增多,可能会造成错误的概率升高。于是作者又定义了三种high-level decomposition:Select+ProjectSelect+Filter以及Filter+Group+Comparative

3.QDMR for Open-domain QA

这里简单的将QDMR融合在了Open-domain QA任务当中,具体地,采用了HotpotQA(full wiki setting)。也是定义了一个规则来对多跳复杂问题进行分解,然后根据分解后不同类型的问题采取不同的操作,不断保存子问题的答案,最后一个子问题的答案将返回整个多跳复杂问题的最终答案。IR用了很简单的方式直接用基于TF-IDF的检索。单跳RC模型用的是BERTQA并在SQuAD上进行了预训练。


arXiv 2019:Multi-Paragraph Reasoning with Knowledge-enhanced Graph Neural Network

1.模型

提出了一种知识增强的GNN,用实体对多个段落进行推理。模型分为三个部分:编码部分、推理部分以及预测部分。

(1)编码部分
使用了Character-level encoder、Self-attention Layer以及Bi-attention Layer 将问题和段落编码至低维表示。具体地:
$$ Q = Self_Att(Char_Enc(Q)) \ P_{i} = Self_Att(Char_Enc(P_{i}))\ P^{'}{i} = Bi_Att(Q,P{i}) $$
(2)推理部分

  1. 建立了一个KG:利用spaCy抽取段落中的实体mention,并作为KG中的结点。然后考虑了两种边:①共指,如果两个实体mention指的是一个实体,那么这两个结点间建立一条边。②如果两个实体有关系,它们间也建立一条边。
  2. 利用原文中的表示初始化每一个结点。如果一个结点对应原文中多个地方,那么使用max-pooling得到其表示。(每一个span表示是词向量通过一层FFN后的平均值)
  3. 图上每个结点进行信息传播。在传播的同时也会更新paragraph的表示(之前paragraph中token的表示与结点上token更新后的表示进行一个融合)。

(3)预测部分
正常预测答案。