CN109460553A - 一种基于门限卷积神经网络的机器阅读理解方法 - Google Patents

一种基于门限卷积神经网络的机器阅读理解方法 Download PDF

Info

Publication number
CN109460553A
CN109460553A CN201811308503.XA CN201811308503A CN109460553A CN 109460553 A CN109460553 A CN 109460553A CN 201811308503 A CN201811308503 A CN 201811308503A CN 109460553 A CN109460553 A CN 109460553A
Authority
CN
China
Prior art keywords
word
thresholding
answer
vector
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811308503.XA
Other languages
English (en)
Other versions
CN109460553B (zh
Inventor
陈武亚
权小军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201811308503.XA priority Critical patent/CN109460553B/zh
Publication of CN109460553A publication Critical patent/CN109460553A/zh
Application granted granted Critical
Publication of CN109460553B publication Critical patent/CN109460553B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种基于门限卷积神经网络的机器阅读理解方法,通过构建门限卷积神经网络模型,包括输入层、门限卷积层和答案层;输入层用于编码目标文章,将编码的文章向量序列、问题向量序列和答案向量序列传送给所述门限卷积层;门限卷积层通过交互的方式产生具有高层语义信息的文章,问题,答案表达,并将这些表达传送给答案层;最后由答案层进行推理决策,做出预测;确定目标文章,导入门限卷积神经网络模型中进行机器阅读理解,导出预测结果。本发明提供的一种基于门限卷积神经网络的机器阅读理解方法,有效简化了神经网络模型,大大减少了训练和测试时长,提高了处理效率,提升了用户体验感;保持文本的长期依赖关系,准确预测出答案信息。

Description

一种基于门限卷积神经网络的机器阅读理解方法
技术领域
本发明涉及自然语言处理领域,更具体的,涉及一种基于门限卷积神经网络的机器阅读理解方法。
背景技术
机器阅读理解的目标是教机器学会阅读和理解人类语言,这是自然语言处理领域中一个长期的目标,它的任务形式主要包括完型填空阅读理解,段落抽取阅读理解,和开放域阅读理解。当我们给出一个文段、一个问题还有几个候选答案,机器能根据给定的文段和问题,并结合常识知识进行推理得出最终的答案。现在在该任务上的主流模型都是基于传统的循环结构,该结果虽然可以学习到文本的长期依赖关系,有利于促进模型进行推理,但该模型在训练和测试阶段很费时,这种高时间复杂度的问题限制了该模型在许多NLP任务的使用,影响用户体验,不利于研究的开展。
发明内容
本发明为克服上述现有存在的模型复杂度高,存在耗时长、影响用户体验及不利于研究的开展的技术缺陷,提供一种于门限卷积神经网络的机器阅读理解方法。
为解决上述技术问题,本发明的技术方案如下:
一种基于门限卷积神经网络的机器阅读理解方法,包括以下步骤:
S1:构建门限卷积神经网络模型,包括输入层、门限卷积层和答案层;其中,所述输入层用于编码目标文章,将编码的文章向量序列、问题向量序列和答案向量序列传送给所述门限卷积层;所述门限卷积层通过交互的方式产生具有高层语义信息的文章,问题,答案表达,并将这些表达传送给答案层;最后由所述答案层进行推理决策,做出预测;
S2:确定目标文章,导入门限卷积神经网络模型中进行机器阅读理解,导出预测结果。
其中,步骤S1中,所述输入层利用多方位信息编码目标文章,计算每个单词的多个角度的特征表达,包括:词语嵌入、关系嵌入、词性标注和命名实体嵌入、特征嵌入;其中:
所述词语嵌入通过300维Glove词向量初始化词语嵌入矩阵,选择词频最高的10个单词对应的词向量进行微调,从而得到每个词对应的词语嵌入;
所述关系嵌入通过提取ConceptNet库中所有的关系并为每个提取出来的关系赋值一个随机初始化的10维向量,将关系嵌入变成一个二维矩阵,矩阵行数为ConceptNet库的关系总数,列数为10;对于目标文章每个单词,若在ConceptNet库中存在一条连接该单词和问题与答案中任一单词的边,那该单词的关系嵌入就是该边所对应的向量;
所述词性标注和命名实体嵌入先计算目标文章的每个单词的词性、所属的实体类型;然后将每个单词的词性训练为49个不同类型的词性标签,每个初始化为10维向量;最后将每个单词所属的实体类型训练为18个不同的标签,每个初始化为8维向量;
所述特征嵌入包括:对数词频特征、词语共现特征、词语模糊匹配特征;所述对数词频特征为基于英语维基百科统计每个单词的词频,取其对数作为该单词的对数词频特征;所述词语共现特征是一个二元特征,若一个单词同时出现在文章、问题和答案中,该单词就具备词语共现特征;所述词语模糊匹配特征仅需要部分匹配即可。
其中,步骤S1中,所述门限卷积层包括门限机制模块,该模块的具体计算公式为:
gi=relu(wi:i+k*wg+Vgvg+bg);
oi=tanh(wi:i+k*wo+bo);
ci=gi·oi
其中,*为卷积操作;wi:i+k为被卷积的文章向量、问题向量或答案向量;wg和wo为卷积核;vg为参考向量;Vg和bg分别为线性变换参数和偏置参数;oi为对文本向量经过卷积后得到的特性映射;gi为结合参考向量;oi作为实际输出的比值,即为控制信息流动的门控;通过所述门限机制模块的一维卷积,门限卷积神经网络模型对文章、问题、答案进行交互,产生高层语义信息表达。
其中,所述门限卷积层还包括最大池化模块和自注意力机制;所述门限卷积神经网络模型对文章、问题、答案的交互具体包括以下步骤:
S21:利用普通卷积核为1和3的卷积网络对问题向量序列进行卷积并通过最大池化模块进行池化处理,得到一个表征问题语意信息的向量;
S22:将表征问题语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对答案向量序列进行运算操作,并通过最大池化模块进行池化处理,得到一个表征答案语意信息的向量;
S23:将表征问题和答案语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对文章向量序列进行运算操作,然后利用自注意力机制将目标文章文本每个单词的向量经过线性变换转化为一个标量,用softmax函数将得到的标量转化为对应的概率,即每个单词的权重,最后对这些单词向量加权求和,得到一个表征文章语义信息的向量。
其中,所述答案层将具有高层语义信息的文章、问题、答案表达串联起来,进行进一步建模,最终做出预测,具体采用双线性交互,具体计算公式为:
y=σ(cpW3cA+cQW4cA);
其中,cp,cQ,cA分别代表具有高层语义信息的文章、问题、答案表达;y是相应的候选答案的预测分数。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供的一种基于门限卷积神经网络的机器阅读理解方法,采用门限卷积神经网络作为模型基础架构,结合自注意力机制,有效简化了神经网络模型,一方面大大减少了训练和测试时长,提高了处理效率,提升了用户体验感;另一方面保持文本的长期依赖关系,准确预测出答案信息。
附图说明
图1为本发明方法流程图;
图2为门限卷积神经网络模型交互过程流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种基于门限卷积神经网络的机器阅读理解方法,包括以下步骤:
S1:构建门限卷积神经网络模型,包括输入层、门限卷积层和答案层;其中,所述输入层用于编码目标文章,将编码的文章向量序列、问题向量序列和答案向量序列传送给所述门限卷积层;所述门限卷积层通过交互的方式产生具有高层语义信息的文章,问题,答案表达,并将这些表达传送给答案层;最后由所述答案层进行推理决策,做出预测;
S2:确定目标文章,导入门限卷积神经网络模型中进行机器阅读理解,导出预测结果。
更具体的,在步骤S1中,所述输入层利用多方位信息编码目标文章,计算每个单词的多个角度的特征表达,包括:词语嵌入、关系嵌入、词性标注和命名实体嵌入、特征嵌入;其中:
所述词语嵌入通过300维Glove词向量初始化词语嵌入矩阵,选择词频最高的10个单词对应的词向量进行微调,从而得到每个词对应的词语嵌入;
所述关系嵌入通过提取ConceptNet库中所有的关系并为每个提取出来的关系赋值一个随机初始化的10维向量,将关系嵌入变成一个二维矩阵,矩阵行数为ConceptNet库的关系总数,列数为10;对于目标文章每个单词,若在ConceptNet库中存在一条连接该单词和问题与答案中任一单词的边,那该单词的关系嵌入就是该边所对应的向量;
所述词性标注和命名实体嵌入先计算目标文章的每个单词的词性、所属的实体类型;然后将每个单词的词性训练为49个不同类型的词性标签,每个初始化为10维向量;最后将每个单词所属的实体类型训练为18个不同的标签,每个初始化为8维向量;
所述特征嵌入包括:对数词频特征、词语共现特征、词语模糊匹配特征;所述对数词频特征为基于英语维基百科统计每个单词的词频,取其对数作为该单词的对数词频特征;所述词语共现特征是一个二元特征,若一个单词同时出现在文章、问题和答案中,该单词就具备词语共现特征;所述词语模糊匹配特征仅需要部分匹配即可。
更具体的,在步骤S1中,所述门限卷积层包括门限机制模块,该模块的具体计算公式为:
gi=relu(wi:i+k*wg+Vgvg+bg);
oi=tanh(wi:i+k*wo+bo);
ci=gi·oi
其中,*为卷积操作;wi:i+k为被卷积的文章向量、问题向量或答案向量;wg和wo为卷积核;vg为参考向量;Vg和bg分别为线性变换参数和偏置参数;oi为对文本向量经过卷积后得到的特性映射;gi为结合参考向量;oi作为实际输出的比值,即为控制信息流动的门控;通过所述门限机制模块的一维卷积,门限卷积神经网络模型对文章、问题、答案进行交互,产生高层语义信息表达。
更具体的,如图2所示,所述门限卷积层还包括最大池化模块和自注意力机制;所述门限卷积神经网络模型对文章、问题、答案的交互具体包括以下步骤:
S21:利用普通卷积核为1和3的卷积网络对问题向量序列进行卷积并通过最大池化模块进行池化处理,得到一个表征问题语意信息的向量;
S22:将表征问题语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对答案向量序列进行运算操作,并通过最大池化模块进行池化处理,得到一个表征答案语意信息的向量;
S23:将表征问题和答案语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对文章向量序列进行运算操作,然后利用自注意力机制将目标文章文本每个单词的向量经过线性变换转化为一个标量,用softmax函数将得到的标量转化为对应的概率,即每个单词的权重,最后对这些单词向量加权求和,得到一个表征文章语义信息的向量。
更具体的,所述答案层将具有高层语义信息的文章、问题、答案表达串联起来,进行进一步建模,最终做出预测,具体采用双线性交互,具体计算公式为:
y=σ(cpW3cA+cQW4cA);
其中,cp,cQ,cA分别代表具有高层语义信息的文章、问题、答案表达;y是相应的候选答案的预测分数。
在具体实施过程中,提出一个代替传统循环结构的门限卷积神经网络模型,充分利用门限卷积神经网络参数少,训练速度快并且能够有效提取局部特征的特点,结合自主力机制能有效建模长文本的长期依赖关系的优势,对文章,问题,答案进行有效地交互和推理,再做出预测。
在具体实施过程中,门限卷积神经网络是在普通卷积上加了一个门控开关,这个门控开关能结合参考向量,控制信息的流动,使得目标向量和参考向量能更好的交互,进而能得到具有更高层语义信息的表达。此外,门限卷积神经网络模型充分利用了外部知识,提取ConceptNet库的信息作为参考,有利于模型的推理和决策。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (5)

1.一种基于门限卷积神经网络的机器阅读理解方法,其特征在于,包括以下步骤:
S1:构建门限卷积神经网络模型,包括输入层、门限卷积层和答案层;其中,所述输入层用于编码目标文章,将编码的文章向量序列、问题向量序列和答案向量序列传送给所述门限卷积层;所述门限卷积层通过交互的方式产生具有高层语义信息的文章,问题,答案表达,并将这些表达传送给答案层;最后由所述答案层进行推理决策,做出预测;
S2:确定目标文章,导入门限卷积神经网络模型中进行机器阅读理解,导出预测结果。
2.根据权利要求1所述的一种基于门限卷积神经网络的机器阅读理解方法,其特征在于,步骤S1中,所述输入层利用多方位信息编码目标文章,计算每个单词的多个角度的特征表达,包括:词语嵌入、关系嵌入、词性标注和命名实体嵌入、特征嵌入;其中:
所述词语嵌入通过300维Glove词向量初始化词语嵌入矩阵,选择词频最高的10个单词对应的词向量进行微调,从而得到每个词对应的词语嵌入;
所述关系嵌入通过提取ConceptNet库中所有的关系并为每个提取出来的关系赋值一个随机初始化的10维向量,将关系嵌入变成一个二维矩阵,矩阵行数为ConceptNet库的关系总数,列数为10;对于目标文章每个单词,若在ConceptNet库中存在一条连接该单词和问题与答案中任一单词的边,那该单词的关系嵌入就是该边所对应的向量;
所述词性标注和命名实体嵌入先计算目标文章的每个单词的词性、所属的实体类型;然后将每个单词的词性训练为49个不同类型的词性标签,每个初始化为10维向量;最后将每个单词所属的实体类型训练为18个不同的标签,每个初始化为8维向量;
所述特征嵌入包括:对数词频特征、词语共现特征、词语模糊匹配特征;所述对数词频特征为基于英语维基百科统计每个单词的词频,取其对数作为该单词的对数词频特征;所述词语共现特征是一个二元特征,若一个单词同时出现在文章、问题和答案中,该单词就具备词语共现特征;所述词语模糊匹配特征仅需要部分匹配即可。
3.根据权利要求1所述的一种基于门限卷积神经网络的机器阅读理解方法,其特征在于,步骤S1中,所述门限卷积层包括门限机制模块,该模块的具体计算公式为:
gi=relu(wi:i+k*wg+Vgvg+bg);
oi=tanh(wi:i+k*wo+bo);
ci=gi·oi
其中,*为卷积操作;wi:i+k为被卷积的文章向量、问题向量或答案向量;wg和wo为卷积核;vg为参考向量;Vg和bg分别为线性变换参数和偏置参数;oi为对文本向量经过卷积后得到的特性映射;gi为结合参考向量;oi作为实际输出的比值,即为控制信息流动的门控;通过所述门限机制模块的一维卷积,门限卷积神经网络模型对文章、问题、答案进行交互,产生高层语义信息表达。
4.根据权利要求3所述的一种基于门限卷积神经网络的机器阅读理解方法,其特征在于,所述门限卷积层还包括最大池化模块和自注意力机制;所述门限卷积神经网络模型对文章、问题、答案的交互具体包括以下步骤:
S21:利用普通卷积核为1和3的卷积网络对问题向量序列进行卷积并通过最大池化模块进行池化处理,得到一个表征问题语意信息的向量;
S22:将表征问题语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对答案向量序列进行运算操作,并通过最大池化模块进行池化处理,得到一个表征答案语意信息的向量;
S23:将表征问题和答案语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对文章向量序列进行运算操作,然后利用自注意力机制将目标文章文本每个单词的向量经过线性变换转化为一个标量,用softmax函数将得到的标量转化为对应的概率,即每个单词的权重,最后对这些单词向量加权求和,得到一个表征文章语义信息的向量。
5.根据权利要求4所述的一种基于门限卷积神经网络的机器阅读理解方法,其特征在于,所述答案层将具有高层语义信息的文章、问题、答案表达串联起来,进行进一步建模,最终做出预测,具体采用双线性交互,具体计算公式为:
y=σ(cpW3cA+cQW4cA);
其中,cp,cQ,cA分别代表具有高层语义信息的文章、问题、答案表达;y是相应的候选答案的预测分数。
CN201811308503.XA 2018-11-05 2018-11-05 一种基于门限卷积神经网络的机器阅读理解方法 Active CN109460553B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811308503.XA CN109460553B (zh) 2018-11-05 2018-11-05 一种基于门限卷积神经网络的机器阅读理解方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811308503.XA CN109460553B (zh) 2018-11-05 2018-11-05 一种基于门限卷积神经网络的机器阅读理解方法

Publications (2)

Publication Number Publication Date
CN109460553A true CN109460553A (zh) 2019-03-12
CN109460553B CN109460553B (zh) 2023-05-16

Family

ID=65609452

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811308503.XA Active CN109460553B (zh) 2018-11-05 2018-11-05 一种基于门限卷积神经网络的机器阅读理解方法

Country Status (1)

Country Link
CN (1) CN109460553B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110096698A (zh) * 2019-03-20 2019-08-06 中国地质大学(武汉) 一种考虑主题的机器阅读理解模型生成方法与系统
CN110134946A (zh) * 2019-04-15 2019-08-16 深圳智能思创科技有限公司 一种针对复杂数据的机器阅读理解方法
CN110222144A (zh) * 2019-04-17 2019-09-10 深圳壹账通智能科技有限公司 文本内容提取方法、装置、电子设备及存储介质
CN110688491A (zh) * 2019-09-25 2020-01-14 暨南大学 基于深度学习的机器阅读理解方法、系统、设备及介质
CN111027327A (zh) * 2019-10-29 2020-04-17 平安科技(深圳)有限公司 机器阅读理解方法、设备、存储介质及装置
CN111414762A (zh) * 2020-02-19 2020-07-14 重庆邮电大学 基于dcu编码和自注意力机制的机器阅读理解方法
CN111950701A (zh) * 2020-07-13 2020-11-17 中国科学技术大学 一种融合公式信息的数学题求解方法及系统
CN112183085A (zh) * 2020-09-11 2021-01-05 杭州远传新业科技有限公司 机器阅读理解方法、装置、电子设备及计算机存储介质
CN112487171A (zh) * 2020-12-15 2021-03-12 中国人民解放军国防科技大学 一种开放域下的事件抽取系统和方法
WO2021082086A1 (zh) * 2019-10-29 2021-05-06 平安科技(深圳)有限公司 机器阅读方法、系统、装置及存储介质
CN112818128A (zh) * 2021-01-21 2021-05-18 上海电力大学 一种基于知识图谱增益的机器阅读理解模型
CN113190659A (zh) * 2021-06-29 2021-07-30 中南大学 基于多任务联合训练的文言文机器阅读理解方法
US11544259B2 (en) * 2018-11-29 2023-01-03 Koninklijke Philips N.V. CRF-based span prediction for fine machine learning comprehension
CN116432107A (zh) * 2023-05-30 2023-07-14 江苏大学 一种细粒度情感分类方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107578106A (zh) * 2017-09-18 2018-01-12 中国科学技术大学 一种融合单词语义知识的神经网络自然语言推理方法
US20180137404A1 (en) * 2016-11-15 2018-05-17 International Business Machines Corporation Joint learning of local and global features for entity linking via neural networks
CN110134946A (zh) * 2019-04-15 2019-08-16 深圳智能思创科技有限公司 一种针对复杂数据的机器阅读理解方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180137404A1 (en) * 2016-11-15 2018-05-17 International Business Machines Corporation Joint learning of local and global features for entity linking via neural networks
CN107578106A (zh) * 2017-09-18 2018-01-12 中国科学技术大学 一种融合单词语义知识的神经网络自然语言推理方法
CN110134946A (zh) * 2019-04-15 2019-08-16 深圳智能思创科技有限公司 一种针对复杂数据的机器阅读理解方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YANN N.DAUPHIN 等: "《Language Modeling with Gated Convolutional Networks》", 《ARXIV PREPRINT ARXIV:1612.08083》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544259B2 (en) * 2018-11-29 2023-01-03 Koninklijke Philips N.V. CRF-based span prediction for fine machine learning comprehension
CN110096698A (zh) * 2019-03-20 2019-08-06 中国地质大学(武汉) 一种考虑主题的机器阅读理解模型生成方法与系统
CN110134946A (zh) * 2019-04-15 2019-08-16 深圳智能思创科技有限公司 一种针对复杂数据的机器阅读理解方法
CN110222144A (zh) * 2019-04-17 2019-09-10 深圳壹账通智能科技有限公司 文本内容提取方法、装置、电子设备及存储介质
CN110688491B (zh) * 2019-09-25 2022-05-10 暨南大学 基于深度学习的机器阅读理解方法、系统、设备及介质
CN110688491A (zh) * 2019-09-25 2020-01-14 暨南大学 基于深度学习的机器阅读理解方法、系统、设备及介质
CN111027327A (zh) * 2019-10-29 2020-04-17 平安科技(深圳)有限公司 机器阅读理解方法、设备、存储介质及装置
WO2021082086A1 (zh) * 2019-10-29 2021-05-06 平安科技(深圳)有限公司 机器阅读方法、系统、装置及存储介质
CN111027327B (zh) * 2019-10-29 2022-09-06 平安科技(深圳)有限公司 机器阅读理解方法、设备、存储介质及装置
CN111414762A (zh) * 2020-02-19 2020-07-14 重庆邮电大学 基于dcu编码和自注意力机制的机器阅读理解方法
CN111950701A (zh) * 2020-07-13 2020-11-17 中国科学技术大学 一种融合公式信息的数学题求解方法及系统
CN111950701B (zh) * 2020-07-13 2022-09-02 中国科学技术大学 一种融合公式信息的数学题求解方法及系统
CN112183085A (zh) * 2020-09-11 2021-01-05 杭州远传新业科技有限公司 机器阅读理解方法、装置、电子设备及计算机存储介质
CN112487171A (zh) * 2020-12-15 2021-03-12 中国人民解放军国防科技大学 一种开放域下的事件抽取系统和方法
CN112818128A (zh) * 2021-01-21 2021-05-18 上海电力大学 一种基于知识图谱增益的机器阅读理解模型
CN112818128B (zh) * 2021-01-21 2022-08-09 上海电力大学 一种基于知识图谱增益的机器阅读理解系统
CN113190659A (zh) * 2021-06-29 2021-07-30 中南大学 基于多任务联合训练的文言文机器阅读理解方法
CN116432107A (zh) * 2023-05-30 2023-07-14 江苏大学 一种细粒度情感分类方法

Also Published As

Publication number Publication date
CN109460553B (zh) 2023-05-16

Similar Documents

Publication Publication Date Title
CN109460553A (zh) 一种基于门限卷积神经网络的机器阅读理解方法
CN111444709B (zh) 文本分类方法、装置、存储介质及设备
CN108681610B (zh) 生成式多轮闲聊对话方法、系统及计算机可读存储介质
CN109947912A (zh) 一种基于段落内部推理和联合问题答案匹配的模型方法
CN109614471B (zh) 一种基于生成式对抗网络的开放式问题自动生成方法
CN108509411A (zh) 语义分析方法和装置
CN110134946B (zh) 一种针对复杂数据的机器阅读理解方法
CN108717574A (zh) 一种基于连词标记和强化学习的自然语言推理方法
Bhoir et al. Comparative analysis of different word embedding models
CN111274375A (zh) 一种基于双向gru网络的多轮对话方法及系统
CN110796160A (zh) 一种文本分类方法、装置和存储介质
CN110852089B (zh) 基于智能分词与深度学习的运维项目管理方法
Dai et al. Hybrid deep model for human behavior understanding on industrial internet of video things
CN113723083A (zh) 基于bert模型的带权消极监督文本情感分析方法
CN113392179A (zh) 文本标注方法及装置、电子设备、存储介质
Sadr et al. Improving the performance of text sentiment analysis using deep convolutional neural network integrated with hierarchical attention layer
Al-Sabri et al. Multi-view graph neural architecture search for biomedical entity and relation extraction
Liu et al. Hybrid neural network text classification combining TCN and GRU
CN111046157B (zh) 一种基于平衡分布的通用英文人机对话生成方法和系统
CN113408721A (zh) 神经网络结构搜索方法、装置、计算机设备和存储介质
CN113392868A (zh) 一种模型训练的方法、相关装置、设备及存储介质
CN116227603A (zh) 一种事件推理任务的处理方法、设备及介质
CN116662924A (zh) 基于双通道与注意力机制的方面级多模态情感分析方法
CN114648005A (zh) 一种多任务联合学习的多片段机器阅读理解方法及装置
Yang et al. Deepening hidden representations from pre-trained language models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant