CN114861627B - 一种基于深度学习的选择题干扰项自动化生成方法及装置 - Google Patents
一种基于深度学习的选择题干扰项自动化生成方法及装置 Download PDFInfo
- Publication number
- CN114861627B CN114861627B CN202210369952.5A CN202210369952A CN114861627B CN 114861627 B CN114861627 B CN 114861627B CN 202210369952 A CN202210369952 A CN 202210369952A CN 114861627 B CN114861627 B CN 114861627B
- Authority
- CN
- China
- Prior art keywords
- word
- answer
- article
- vector
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013135 deep learning Methods 0.000 title claims abstract description 31
- 239000013598 vector Substances 0.000 claims abstract description 108
- 230000007246 mechanism Effects 0.000 claims abstract description 51
- 239000013604 expression vector Substances 0.000 claims abstract description 7
- 230000010076 replication Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 claims description 2
- 238000004220 aggregation Methods 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 13
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003999 initiator Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于深度学习的选择题干扰项自动化生成方法及模型,模型包括:答案编码器,用于对选择题的答案进行编码,以获得答案表示向量;文章编码器,用于对文章和问题进行联合编码,以获得文章表示向量;上下文推理注意力机制模块,连接于答案编码器和文章编码器,用于合并文章上下文向量和答案上下文向量,以进行上下文推理,生成编码器最终上下文向量;文章上下文向量是由文章表示向量经文章注意力机制而获得,答案上下文向量是由答案表示向量经答案注意力机制而获得;干扰项解码器,连接于答案编码器以利用答案编码器的输出进行解码器初始化,以及连接于上下文推理注意力机制模块以对所述编码器最终上下文向量进行解码,生成干扰项。
Description
技术领域
本发明涉及计算机与人工智能技术领域,具体涉及一种基于深度学习的阅读理解多项选择题干扰项自动化生成方法及模型。
背景技术
随着深度学习技术的发展,越来越多的方面应用到深度学习的技术。其中深度学习在自然语言生成(NLG)领域中获得了巨大成功。自然语言生成是根据一段源文本生成特定需要的目标文本,其包含丰富的子任务,例如包含机器翻译、文本摘要、诗歌生成、问题生成、干扰项生成等任务。其中干扰项生成任务是该领域一个新兴的任务,其目的在于为阅读理解多项选择题生成具有干扰性的错误选项。传统的干扰项生成任务多是一些填空型的任务,大多只需要填写一个单词或短语,因而同义词替换等一些基于规则的方法可以生成较为合适的内容。但是这种方式的局限性也很明显,其只能生成较短的文本,并且需要构造大量的规则,因而生成的结果并不灵活。有一些研究者将神经网络引入该任务中,通过神经网络获得词向量并根据多种相似度进行替换。
近年来,有一些研究者研究阅读理解多项选择题的干扰项生成任务,该种场景下的干扰项是一个句子级别文本序列,需要对文章的内容进行理解后再生成一个流畅的句子,因而深度学习技术在干扰项生成任务中取得了一些效果。举例而言,近些年有研究者提出了基于分层编码的神经网络模型,将文章的内容进行分层编码,并对问题进行编码,之后将获得的向量作为输入放入解码器中,并使用自回归方式每次生成一个单词,最终形成一个句子。同时,研究人员设计了基于先验知识的静态注意力机制,即神经网络在文章中关注预先设定好的内容。后有研究者设计了基于分层编码的相互注意力网络,在对于文章进行分层编码的同时,增加了文章和问题之间的交互,同时增加干扰项和文章之间的语义相似损失。
虽然上述的方法在一定程度上可以生成包含完整语义的干扰项,但是生成的干扰项与答案差异较大,因而缺乏实际的干扰性。同时没有考虑到输入的各部分文本之间存在的一些逻辑推理关系,因而导致生成的干扰项逻辑性较差。
发明内容
本发明的主要目的在于克服现有技术的不足,提出一种基于深度学习的选择题干扰项自动化生成模型,针对输入的各部分文本设计上下文推理网络,并针对答案进行建模,生成适合题目、具较强逻辑性且干扰性较强的选择题干扰项文本,以解决现有技术生成的干扰项与答案差异大、不具备干扰性且逻辑性差的问题。
本发明为达上述目的,提出以下技术方案:
一种基于深度学习的选择题干扰项自动化生成模型,用于为阅读理解的选择题生成干扰项,包括:答案编码器,用于对选择题的答案进行编码,以获得答案表示向量;文章编码器,用于对文章和问题进行联合编码,以获得文章表示向量;上下文推理注意力机制模块,连接于所述答案编码器和所述文章编码器,用于合并文章上下文向量和答案上下文向量,以进行上下文推理,生成编码器最终上下文向量;其中,所述文章上下文向量是由所述文章表示向量经文章注意力机制而获得,所述答案上下文向量是由所述答案表示向量经答案注意力机制而获得;干扰项解码器,连接于所述答案编码器以利用所述答案编码器的输出进行解码器初始化,以及,连接于所述上下文推理注意力机制模块以对所述编码器最终上下文向量进行解码,生成干扰项。
进一步地,所述文章编码器对文章和问题进行联合编码,包括:利用词向量查找表将文章文本转换为文章词嵌入向量;提取问题文本中的关键词,进行关键词标记,并生成问题关键词标记向量;将所述问题关键词标记向量与所述文章词嵌入向量进行拼接,并对拼接获得的向量利用双向LSTM网络进行编码。
进一步地,还包括:利用门控自注意力机制对所述文章词嵌入向量进行信息聚合。
进一步地,问题文本中的关键词是同时出现在问题和文章中的单词。
进一步地,所述答案编码器对选择题的答案进行编码,包括:先利用词向量查找表将答案文本转换为答案词嵌入向量,然后使用双向LSTM网络对所述答案词嵌入向量进行编码,以获得所述答案表示向量。
进一步地,所述上下文推理注意力机制模块包括:连接于所述答案编码器输出端的答案注意力机制模块和连接于所述文章编码器输出端的文章注意力机制模块;所述答案注意力机制模块的输出和所述文章注意力机制模块的输出通过门控进行融合,以进行所述上下文推理。
进一步地,还包括:在所述文章注意力机制模块的输出端使用复制机制,通过注意力得分来确定生成的单词是从生成词表中选择还是从原文词表中选择。
进一步地,还包括:最终概率分布计算模块,用于根据干扰项解码器生成单词的生成得分和复制机制的复制得分计算在单词表中所有单词上的概率分布,之后取最大概率值的单词作为生成的单词。
本发明的另一方面还提出一种基于深度学习的选择题干扰项自动化生成方法,用于为阅读理解的选择题生成干扰项,利用前述的基于深度学习的选择题干扰项自动化生成模型来实现;该方法包括:训练阶段,训练集有对应好的<文章,问题,答案,干扰项>,其中<文章,问题,答案>为源文本,作为模型的输入;<干扰项>为目标文本,作为深度学习优化的目标,使用教师强制策略进行模型训练;使用阶段,利用文章、问题和答案作为输入文本,利用训练好的所述模型生成干扰项。
进一步地,在使用阶段,将输入文本的起始符作为第一个字符输入到解码器中,使用集束搜索进行解码,最终获得干扰项文本。
本发明技术方案的有益效果包括:本发明一方面根据输入的答案与文章分别进行编码,并使用上下文推理注意力机制进行建模;另一方面对于文章中问题关键词进行标注以引导生成的干扰项与问题相关;再者利用答案编码器获得的结果向量对解码器进行初始化以获得与答案句式、语义相关的干扰项。可见,本发明充分对各部分输入进行建模,并且对于干扰项与各部分输入之间的关系设计注意力机制进行关注,有效提升了生成干扰项的逻辑性和干扰性,获得高质量的干扰项。
附图说明
图1是本发明实施例基于深度学习的选择题干扰项自动化生成过程示意图。
图2是本发明实施例基于深度学习的选择题干扰项自动化生成模型的原理框图。
图3是本发明实施例基于深度学习的选择题干扰项自动化生成模型的示意图。
具体实施方式
为使本发明技术方案得以清楚的呈现,下面结合附图和具体的实施方式对本发明作进一步说明。
本发明实施例提出的基于深度学习的选择题干扰项自动化生成模型,主要包括编码部分和解码部分。对于编码部分,其输入分为两部分,即答案部分、文章与问题部分。如图1所示,针对阅读理解选择题,文章和问题的文本输入到文章编码器,而答案的文本输入到答案编码器,经编码生成对应的中间向量之后,利用解码器进行解码,生成干扰项的文本。
具体而言,如图2所示,本发明实施例基于深度学习的选择题干扰项自动化生成模型,包括:答案编码器10,用于对选择题的答案进行编码,以获得答案表示向量;文章编码器20,用于对文章和问题进行联合编码,以获得文章表示向量;上下文推理注意力机制模块30,连接于答案编码器10和文章编码器20,用于合并文章上下文向量和答案上下文向量,以进行上下文推理,生成编码器最终上下文向量;其中,所述文章上下文向量是由所述文章表示向量经文章注意力机制而获得,所述答案上下文向量是由所述答案表示向量经答案注意力机制而获得;干扰项解码器40,连接于答案编码器10以利用答案编码器10的输出进行解码器初始化,以及,连接于上下文推理注意力机制模块30以对所述编码器最终上下文向量进行解码,生成干扰项。
参考图2和图3,文章编码器20的输入来源包括文章文本与问题文本,文章文本表示为长度l的单词序列T={w1,w2,...,wl},问题文本表示为长度n的单词序列Q={q1,q2,...,qn}。输入文章文本后,可以先进行文本预处理,将文本中的单词根据预先设定的词表转换为单词序号。所述预先设定好的词表例如可以是一个50000词的词表,其中每个单词对应一个序号,为0~49999,如例句“I am astudent”可以根据该词表中转换为[32558,654,4333,3]这样的单词序号序列。然后,对单词序号序列,根据词向量查找表转换为词嵌入向量,得到文章词嵌入向量w=(w1,w2,…,wl),向量wi(i=1,2,…,l)的维度为dw。这里的词向量查找表是Glove(300维),将预处理得到的序号序列的每个序号都转换为300维的向量,即文章文本的每个单词都被转换为维度dw=300的词向量(或称“词嵌入向量”)。
同时,为了处理问题中的关键信息,我们将问题中的关键词信息提取出来,因为这可以引导问题相关的干扰项的生成。在这里我们定义问题的关键词为文章和问题中共同出现的词语。对于这些词,我们在文章中使用一个标记来标示这些词,其中关键词标记值为1,非关键词标记值为0。将该标记值转换为标记向量,从而得到问题关键词标记向量k,再与文章词嵌入向量w进行拼接,拼接获得的向量使用双向LSTM(长短期记忆网络)网络进行编码,公式表示如下:
ht=LSTMenc(ht-1,[wt,kt]) (1)
其中,ht是文章编码器的LSTM网络第t个时间步的隐藏状态,其根据第t-1个时间步的隐藏状态ht-1和第t个时间步的词向量[wt,kt]来计算;其中,wt是第t个时间步的文章词嵌入向量,kt是第t个时间步的问题关键词标记向量,LSTMenc(·)表示文章编码器用到的LSTM网络。
编码使用的LSTM网络是双向的,分别从前向和后向两个方向进行编码,通过公式(2)拼接前向和后向的单词表示:
从而,实现了文章和问题的联合编码,获得包含文章信息和问题信息的编码结果H,称为“文章表示向量”。
对于文章编码器20而言,通过公式(3)计算文章自注意力分布:
其中,是文章自注意力分布,HT是H的转置,WS是可训练的参数矩阵,st是文章中第t个单词的所有隐藏状态的加权和,其表示第t个单词的自注意力值;是文章中所有单词的自注意力值。
此外,由于文章为段落级别的文本,比句子级别的文本长很多,因而使用了如图3中所示的门控自注意力机制对文章的词向量进行信息聚合,即对隐藏状态进行语言增强,计算过程如下:
ft=tan h(Wf[ht,st]) (5)
gt=σ(Wg[ht,st]) (6)
其中,Wf、Wg都是可训练的参数矩阵,自我增强表示ft是隐藏状态ht与第t个单词的自注意力值st计算获得的。在式(6)中,σ是Sigmoid函数,gt是可训练的门控向量,是文章中单词的最终表示向量,它是从原始单词表示和自我增强表示值中选择的;式(7)中是最终的文章单词的隐藏状态,用于后续的注意力计算过程,在式(7)中是一个加权和的形式,加权和的权重由门控向量gt控制,符号⊙是逐元素乘法。
请继续参考图2和图3,答案编码器10的输入来源为答案文本,答案文本可表示为长度m的单词序列A={a1,a2,...,am}。输入答案文本后,参照文章编码器对文章文本的处理,先进行文本预处理,将答案文本中的单词根据预先设定的词表转换为单词序号。然后,对单词序号序列,根据词向量查找表转换为词嵌入向量,得到答案词嵌入向量a=(a1,a2,…,am),每个单词对应的向量维度也为dw。接着,使用双向LSTM网络对答案词嵌入向量(a1,a2,…,am)进行编码,得到答案表示向量,公式表示为:
此处表示答案的第t个时间步的隐藏状态,表示答案的第t-1个时间步的隐藏状态,表示答案编码器的LSTM网络,at表示答案文本的第t个单词所对应的词嵌入向量。
在解码器端,分别对两部分文本(答案、文章与问题)进行关注,即提出了答案注意力机制和文章注意力机制,以对于两部分分别进行关注,同时为了使模型理解两部分的逻辑推理关系,使用一个门控将两部分进行融合以进行推理。此外,为了解决词表外的问题,模型中使用了复制机制,即,生成的文本不仅可以从词表中选择一个单词进行生成,也可以从源文本中复制一个单词。
继续参考图2和图3,干扰项解码器40中含有注意力计算的过程,每个时间步根据注意力分布情况(每个词向量的注意力值不同)生成一个字/单词,并将其作为输入依次生成出干扰项文本。本发明实施例中,干扰项解码器40采用了基于答案的初始化:没有使用文章编码器的最终隐藏状态,而是采用答案编码器的最终隐藏状态作为解码器的初始状态,即利用答案编码器生成的词向量来初始化解码器。因为人类专家在出阅读理解多项选择题时,往往会先观察问题和答案,从文章中提取干扰信息,然后用该信息编辑答案以形成相关干扰项。将答案转换成干扰项的过程对应到编码-解码框架中,因而采用了答案编码的结果来初始化解码器,使得解码生成的干扰项更具干扰性。
在一实施例中,干扰项解码器40使用一个单向LSTM网络作为解码器来生成干扰项,计算过程如下:
dt=LSTMdec(dt-1,[yt-1:ct-1]) (9)
p(yt|{y<t})=softmax(WVdt) (10)
其中,dt是单向LSTM网络在第t个时间步的隐藏状态,dt-1是单向LSTM网络在第t-1个时间步的隐藏状态,初始隐藏状态d0由答案编码器的最后一个隐藏状态初始化;yt表示在第t个时间步生成的单词(一个时间步代表LSTM计算一次,每一个时间步产生一个单词,因此在第t个时间会生成第t个单词yt),y<t表示第t个单词之前的所有单词;yt-1表示在第t-1个时间步生成的单词;ct-1代表编码器最终上下文向量。解码器的查找表与编码器的查找表相同。在式(9)中,线性层将dt转换为词汇表大小的维度。然后,我们使用softmax函数计算词汇表V中每个单词的概率分布。WV是一个可学习的向量。
生成干扰项的过程需要考虑到文章信息和答案信息,因此解码时需要包含两种类型的注意力,即文章注意力机制和答案注意力机制。对于文章注意力,在第t个时间步,它获取当前解码器隐藏状态dt和所有文章单词的隐藏状态,并为每个文章单词的隐藏状态生成权重,计算如下:
其中,ot是一个文章注意力中间变量,War是可学习向量,是文章单词注意力分布,使用注意力分布作为权重来计算加权和。
然后,使用权重来计算文章文本的上下文向量计算方式如下:
同样,对于答案注意力,在第t个时间步,答案上下文向量以相同的方式计算,计算过程如下:
其中,rt是一个答案注意力的中间变量,Wan是可学习向量,是答案单词注意力分布,是答案上下文向量。
在解决一个阅读理解多项选择题时,需要对文章进行一定的逻辑推理操作才能得到正确答案,因此本发明实施例通过基于上下文推理的注意力机制建模文章和答案之间的逻辑推理关系来提高模型生成干扰项的质量。我们引入了上下文推理注意力机制,在这个机制中,合并了文章上下文向量和答案上下文向量,以进行上下文之间的推理,计算过程如下:
其中,向量g是可学习向量,用作加权和的参数;σ是Sigmoid函数,编码器最终上下文向量ct是在向量g的控制下,结合文章上下文向量和答案上下文向量生成的。
在本发明一些实施例中,还引入了复制机制,模型中引入复制机制(Copymechanism)来解决文本生成中词表外(Out-Of-Vocabulary)的问题。复制机制使用序列的注意力得分来确定生成的单词是应该从次表外单词列表X还是已有词汇表V中选择。在第t个时间步,X中每个词的复制得分为该词的注意力得分之和,V中每个词的复制得分为负无穷大,同时生成得分为编码结果进行转换后得到的,计算方法如下:
scgen(yt)=WVdt (20)
其中,sccopy(yt)表示生成第t个单词时词表外单词列表中的单词复制得分;ot,k表示第t个时间步,第k个文章单词的文章注意力中间变量(通过式(11)计算);xk表示文章中的第k个单词;scgen(yt)表示生成第t个单词时,单词表中的单词生成得分。
然后,将复制得分和生成得分拼接起来,并使用softmax方法得到所有单词(包含词表外单词列表和已有单词列表)的最终概率分布,计算如下:
p(yt|{y<t})=softmax([sccopy:scgen]) (21)
获得在单词表中所有单词上的概率分布p(yt|{y<t})之后,需要取最大的那个概率值的单词作为生成的单词。
本发明实施例基于深度学习的选择题干扰项自动化生成模型,将生成干扰项的过程建模为序列到序列的过程。在训练过程中,首先为了明确地为模型指出文本序列的开始和结束,我们为每个文本序列都添加上起始符与终止符。之后将源文本输入到模型的编码器部分,经过编码器获得中间的向量,之后将该向量输入到解码器中。
本发明实施例基于深度学习的选择题干扰项自动化生成方法,使用前述实施例的模型来实现,主要包括对模型的训练和使用训练好的模型进行推演生成干扰项。训练阶段,训练集有对应好的<文章,问题,答案,干扰项>,其中<文章,问题,答案>为源文本,作为模型的输入;<干扰项>为目标文本,作为深度学习优化的目标,使用教师强制策略进行模型训练;使用阶段,利用文章、问题和答案作为输入文本,利用训练好的所述模型生成干扰项。在推理过程中,将起始符作为第一个字符输入到解码器中,使用已知方法集束搜索BeamSearch)进行解码,最终获得干扰项文本。
对于阅读理解多项选择题干扰项生成而言,本发明实施例提出的模型和方法充分对各部分输入进行建模,并且对于干扰项与各部分之间的关系设计注意力机制进行关注,可以有效提升生成干扰项的质量。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (7)
1.一种基于深度学习的选择题干扰项自动化生成装置,用于为阅读理解的选择题生成干扰项,其特征在于,包括:
答案编码器,用于对选择题的答案进行编码,以获得答案表示向量;
文章编码器,用于对文章和问题进行联合编码,以获得文章表示向量;
上下文推理注意力机制模块,连接于所述答案编码器和所述文章编码器,用于合并文章上下文向量和答案上下文向量,以进行上下文推理,生成编码器最终上下文向量;其中,所述文章上下文向量是由所述文章表示向量经文章注意力机制而获得,所述答案上下文向量是由所述答案表示向量经答案注意力机制而获得;所述上下文推理注意力机制模块包括:连接于所述答案编码器输出端的答案注意力机制模块和连接于所述文章编码器输出端的文章注意力机制模块;所述答案注意力机制模块的输出和所述文章注意力机制模块的输出通过门控进行融合,以进行所述上下文推理;在所述文章注意力机制模块的输出端使用复制机制,通过注意力得分来确定生成的单词是从生成词表中选择还是从原文词表中选择;
干扰项解码器,连接于所述答案编码器以利用所述答案编码器的输出进行解码器初始化,以及,连接于所述上下文推理注意力机制模块以对所述编码器最终上下文向量进行解码,生成干扰项;
最终概率分布计算模块,用于根据干扰项解码器生成单词的生成得分和复制机制的复制得分计算在单词表中所有单词上的概率分布,之后取最大概率值的单词作为生成的单词;
干扰项解码器使用一个单向LSTM网络作为解码器来生成干扰项,计算过程如下:
dt=LSTMdec(dt-1,[yt-1:ct-1])(9)
p(yt{y<t})=softmax(WVdt)(10)
其中,dt是单向LSTM网络在第t个时间步的隐藏状态,dt-1是单向LSTM网络在第t-1个时间步的隐藏状态,初始隐藏状态d0由答案编码器的最后一个隐藏状态初始化;yt表示在第t个时间步生成的单词,y<t表示第t个单词之前的所有单词;yt-1表示在第t-1个时间步生成的单词;ct-1代表编码器最终上下文向量;解码器的查找表与编码器的查找表相同;在式(9)中,线性层将dt转换为词汇表大小的维度;然后,使用softmax函数计算词汇表V中每个单词的概率分布;WV是一个可学习的向量;
复制机制使用序列的注意力得分来确定生成的单词是应该从次表外单词列表X还是已有词汇表V中选择;在第t个时间步,X中每个词的复制得分为该词的注意力得分之和,V中每个词的复制得分为负无穷大,同时生成得分为编码结果进行转换后得到的,计算方法如下:
scgen(yt)=WVdt(20)
其中,sccopy(yt)表示生成第t个单词时词表外单词列表中的单词复制得分;ot,k表示第t个时间步,第k个文章单词的文章注意力中间变量;xk表示文章中的第k个单词;scgen(yt)表示生成第t个单词时,单词表中的单词生成得分。
2.如权利要求1所述的基于深度学习的选择题干扰项自动化生成装置,其特征在于,所述文章编码器对文章和问题进行联合编码,包括:
利用词向量查找表将文章文本转换为文章词嵌入向量;
提取问题文本中的关键词,进行关键词标记,并生成问题关键词标记向量;
将所述问题关键词标记向量与所述文章词嵌入向量进行拼接,并对拼接获得的向量利用双向LSTM网络进行编码。
3.如权利要求2所述的基于深度学习的选择题干扰项自动化生成装置,其特征在于,还包括:利用门控自注意力机制对所述文章词嵌入向量进行信息聚合。
4.如权利要求2所述的基于深度学习的选择题干扰项自动化生成装置,其特征在于,问题文本中的关键词是同时出现在问题和文章中的单词。
5.如权利要求1所述的基于深度学习的选择题干扰项自动化生成装置,其特征在于,所述答案编码器对选择题的答案进行编码,包括:
先利用词向量查找表将答案文本转换为答案词嵌入向量,然后使用双向LSTM网络对所述答案词嵌入向量进行编码,以获得所述答案表示向量。
6.一种基于深度学习的选择题干扰项自动化生成方法,用于为阅读理解的选择题生成干扰项,其特征在于,利用权利要求1-5任一项所述的基于深度学习的选择题干扰项自动化生成装置来实现;该方法包括:
训练阶段,训练集有对应好的<文章,问题,答案,干扰项>,其中<文章,问题,答案>为源文本,作为模型的输入;<干扰项>为目标文本,作为深度学习优化的目标,使用教师强制策略进行模型训练;
使用阶段,利用文章、问题和答案作为输入文本,利用训练好的所述模型生成干扰项。
7.如权利要求6所述的基于深度学习的选择题干扰项自动化生成方法,其特征在于,在使用阶段,将输入文本的起始符作为第一个字符输入到解码器中,使用集束搜索进行解码,最终获得干扰项文本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210369952.5A CN114861627B (zh) | 2022-04-08 | 2022-04-08 | 一种基于深度学习的选择题干扰项自动化生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210369952.5A CN114861627B (zh) | 2022-04-08 | 2022-04-08 | 一种基于深度学习的选择题干扰项自动化生成方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114861627A CN114861627A (zh) | 2022-08-05 |
CN114861627B true CN114861627B (zh) | 2024-07-12 |
Family
ID=82629336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210369952.5A Active CN114861627B (zh) | 2022-04-08 | 2022-04-08 | 一种基于深度学习的选择题干扰项自动化生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114861627B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108153B (zh) * | 2023-02-14 | 2024-01-23 | 重庆理工大学 | 一种基于门控机制的多任务联合训练机器阅读理解方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109684452A (zh) * | 2018-12-25 | 2019-04-26 | 中科国力(镇江)智能技术有限公司 | 一种基于答案与答案位置信息的神经网络问题生成方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11087199B2 (en) * | 2016-11-03 | 2021-08-10 | Nec Corporation | Context-aware attention-based neural network for interactive question answering |
US11113479B2 (en) * | 2019-09-12 | 2021-09-07 | Adobe Inc. | Utilizing a gated self-attention memory network model for predicting a candidate answer match to a query |
CN110619123B (zh) * | 2019-09-19 | 2021-01-26 | 电子科技大学 | 一种机器阅读理解方法 |
WO2021184311A1 (zh) * | 2020-03-19 | 2021-09-23 | 中山大学 | 一种自动生成可推理问答的方法和装置 |
-
2022
- 2022-04-08 CN CN202210369952.5A patent/CN114861627B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109684452A (zh) * | 2018-12-25 | 2019-04-26 | 中科国力(镇江)智能技术有限公司 | 一种基于答案与答案位置信息的神经网络问题生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114861627A (zh) | 2022-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781680B (zh) | 基于孪生网络和多头注意力机制的语义相似度匹配方法 | |
CN110390397B (zh) | 一种文本蕴含识别方法及装置 | |
CN110678881A (zh) | 使用特定于上下文的词向量的自然语言处理 | |
CN110188176A (zh) | 深度学习神经网络及训练、预测方法、系统、设备、介质 | |
US20220129450A1 (en) | System and method for transferable natural language interface | |
CN111241807B (zh) | 一种基于知识引导注意力的机器阅读理解方法 | |
CN110796160A (zh) | 一种文本分类方法、装置和存储介质 | |
CN110442880B (zh) | 一种机器翻译译文的翻译方法、装置及存储介质 | |
CN112417092B (zh) | 基于深度学习的智能化文本自动生成系统及其实现方法 | |
CN110427605A (zh) | 面向短文本理解的省略恢复方法 | |
CN112559706B (zh) | 对话生成模型的训练方法、对话方法、设备以及存储介质 | |
CN112364148B (zh) | 一种基于深度学习方法的生成型聊天机器人 | |
CN115759042A (zh) | 一种基于句法感知提示学习的句子级问题生成方法 | |
CN114861627B (zh) | 一种基于深度学习的选择题干扰项自动化生成方法及装置 | |
Kulkarni et al. | Applied Generative AI for Beginners | |
CN113010662B (zh) | 一种层次化会话式机器阅读理解系统和方法 | |
CN113076718B (zh) | 一种商品属性抽取方法及其系统 | |
CN113779224A (zh) | 一种基于用户对话历史的个性化对话生成方法与系统 | |
CN117932066A (zh) | 一种基于预训练的“提取-生成”式答案生成模型及方法 | |
CN111428518A (zh) | 一种低频词翻译方法及装置 | |
CN118014077A (zh) | 一种基于知识蒸馏的多模态思维链推理方法和装置 | |
CN113590745B (zh) | 一种可解释的文本推断方法 | |
CN113239166B (zh) | 一种基于语义知识增强的自动化人机互动方法 | |
Latha et al. | Visual audio summarization based on NLP models | |
CN113986251A (zh) | 基于卷积和循环神经网络的gui原型图转代码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |