CN109344404B - 情境感知的双重注意力自然语言推理方法 - Google Patents

情境感知的双重注意力自然语言推理方法 Download PDF

Info

Publication number
CN109344404B
CN109344404B CN201811107943.9A CN201811107943A CN109344404B CN 109344404 B CN109344404 B CN 109344404B CN 201811107943 A CN201811107943 A CN 201811107943A CN 109344404 B CN109344404 B CN 109344404B
Authority
CN
China
Prior art keywords
sentence
sentences
natural language
attention
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811107943.9A
Other languages
English (en)
Other versions
CN109344404A (zh
Inventor
陈恩红
刘淇
张琨
吕广奕
吴乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN201811107943.9A priority Critical patent/CN109344404B/zh
Publication of CN109344404A publication Critical patent/CN109344404A/zh
Application granted granted Critical
Publication of CN109344404B publication Critical patent/CN109344404B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种情境感知的双重注意力自然语言推理方法,针对具有情境信息的自然语言句子对,运用多模态学习的方法和注意力机制,充分利用了文本,图像的信息,从而更准确理解句子所表达的语义以及在这样的语义下两个句子之间的交互,进而准确判断两个句子之间是否存在推理关系,同时还可以提供一种进行句子语义表征的方法,弥补了现有方法没有考虑句子所处的情境的弊端。

Description

情境感知的双重注意力自然语言推理方法
技术领域
本发明涉及深度学习和自然语言理解技术领域,尤其涉及一种情境感知的双重注意力自然语言推理方法。
背景技术
自然语言推理(Natural Language Inference,NLI)是自然语言理解领域的一个重要组成部分,要解决的主要问题是判断是否可以从前提句子(Premise Sentence)推断出假设句子(Hypothesis Sentence)。因此自然语言推理要解决的一个首要问题是句子语义的理解,这有助于机器理解人类表达同一种意义的多种表达方式;其次,相对于自然语言理解领域的其他问题,例如对话系统,问答系统等不仅需要理解语义,同时需要兼顾生成过程中的可靠性和稳定性,自然语言理解专注于句子语义理解,这不仅保证相关技术的语义理解质量,同时相关技术可以便捷的迁移到其他场景,例如对话系统,问答系统中。因此,自然语言推理一直是自然语言理解领域探索的一个重要研究方向。
目前,关于自然语言推理的方法主要有以下方法:
1)基于句子表示的方法
基于句子表示的方法主要是通过不同的神经网络结构,例如卷积神经网络(Convolutional Neural Network,CNN),循环神经网络(Recurrent Neural Network,RNN)等抽取句子的特征信息,然后将这些特征信息映射到低维空间,得到句子表示的向量,最后通过一些分类方法判断两个句子之间的推理关系。
2)基于词匹配的方法
相对于基于句子表示的方法,词匹配的方法更关于两个句子中的词之间的匹配关系,通过注意力机制(Attention Mechanism)或者门结构(Gate Unit)等方法计算不同词之间的相似度或者距离,这些方法可以从更细粒度上建模两个句子之间的交互,利用词之间的匹配信息建模两个句子之间的推理关系。
上述自然语言推理方法都是集中于挖掘句子本身的信息,而在实际条件下,同一个句子可以根据所处情境的不同表达不同的意思,这些方法并没有利用句子的情境信息,因此缺乏对句子语义的精准理解。
发明内容
本发明的目的是提供一种情境感知的双重注意力自然语言推理方法,可以结合句子对的情境信息来获取句子的语义表示,从而准确的判断句子对中两个句子是否存在推理关系。
本发明的目的是通过以下技术方案实现的:
一种情境感知的双重注意力自然语言推理方法,包括:
获取具有异构数据的包含情境信息的图像和对应的自然语言句子对;
根据获取到的异构数据的图像和自然语言句子使用多模态学习的方法和注意力机制进行建模,获取自然语言句子对在图像注意力层的语义表示;
根据自然语言句子对在图像注意力层的语义表示,使用注意力机制和循环神经网络进行建模,获取自然语言句子对在句子注意力层的语义表示;
根据自然语言句子对在图像注意力层及句子注意力层的语义表示,利用自然语言推理中的匹配方法处理得到自然语言句子对的表示向量,以此判断自然语言句子对中两个句子之间是否存在推理关系。
由上述本发明提供的技术方案可以看出,针对具有情境信息的自然语言句子对,运用多模态学习的方法和注意力机制,充分利用了文本,图像的信息,从而更准确理解句子所表达的语义以及在这样的语义下两个句子之间的交互,进而准确判断两个句子之间是否存在推理关系,同时还可以提供一种进行句子语义表征的方法,弥补了现有方法没有考虑句子所处的情境的弊端。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种情境感知的双重注意力自然语言推理方法的流程图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明实施例提供一种情境感知的双重注意力自然语言推理方法,如图1所示,其主要包括:
步骤11、获取具有异构数据的包含情境信息的图像和对应的自然语言句子对。
本发明实施例中,每一条样例的异构数据包括:自然语言前提句子、自然语言假设句子以及对应的表示情境的图像;其中的前提句子和假设句子的推理关系由专家标注,对应的情境信息的图像由文本数据时自动获得。
步骤12、根据获取到的异构数据的图像和自然语言句子使用多模态学习的方法和注意力机制进行建模,获取自然语言句子对在图像注意力层的语义表示。
本步骤优选实施方式如下:
使用统一的数学形式表示包含情境信息的图像和对应的自然语言句子对:对于图像,用I表示,是一个固定大小(如227*227*3)的三通道图,且每一个像素值在0到255之间;对于自然语言句子对中的前提句子用
Figure BDA0001808376240000031
表示其由m个词组成的文本;对于自然语言句子对中的假设句子用
Figure BDA0001808376240000032
表示其由n个词组成的文本;其中,Sa与Sb中的每一元素均表示一个词,可以由利用整个文本数据预训练好的自编码器(AutoEncoder)得到。
对于图像表示,可以利用现有的模型,例如深度网络模型VGG或者残差网络模型ResNet处理,因为这些模型能够有效的抽取图像特征,因此抽取模型的最后一个卷积层的结果作为图像的特征表示,用c表示,从而得到了图像的低维特征表示,也即情境信息。
Sa与Sb中的所有的不重复的词组成整个文本的词典V,词典V中每个词的向量表示由利用整个文本数据预训练好的自编码器得到,所有词的向量表示集合由E表示。由于自然语言文本,尤其是中文文本,有很多的比喻,象征等表现手法,因此每个词表示的并不一定是它的字面意思。为了更好的表示文本的语义信息,利用自编码器得到每个词的低维向量表示,并且将这些信息融入到每个词的向量表示当中,由如下公式表示:
Figure BDA0001808376240000041
完成图像和文本句子的预处理之后,通过整合图像和文本信息,理解和学习在给定情境下的句子语义,得到句子的语义表示。具体如下:
考虑到句子文本的词序列信息,采用门结构循环网络GRU分别对前提句子和假设句子进行建模,得到每个句子中的每个词的隐含状态序列hi表示,这样可以得到在考虑周围上下文的条件下每个词的深层语义表示,从而得到更加全面的句子语义理解,对于t时刻的输入xt,GRU的隐含状态ht更新如下:
z=σ(xtUz+ht-1Wz)
r=σ(xtUr+ht-1Wr)
Figure BDA0001808376240000042
Figure BDA0001808376240000043
其中,z,r,cm分别是GRU的更新门,重置门,记忆单元,Uz与Wz为更新门的参数矩阵,Ur与Wr为重置门的参数矩阵,Uh与Wh为记忆单元的参数矩阵,
Figure BDA0001808376240000044
表示点乘;在这里xt表示前提句子Sa或假设句子Sb中第t个词的低维向量表示。相对于长短期记忆网络(LSTM),GRU在保证效果的基础上,拥有相对更少的门结构,计算速度更快。
利用GRU编码每个句子中每个词的表示,得到每个句子中词之间相互依赖的隐层表示,公式如下:
Figure BDA0001808376240000045
Figure BDA0001808376240000046
其中,GRU1表示前提句和假设句使用的是同一个GRU,
Figure BDA0001808376240000047
分别表示前提句子Sa第i个词和假设句子Sb中第j个词的隐层状态表示,
Figure BDA0001808376240000048
表示前提句子Sa中从第一个词开始到第i个词的词序列,
Figure BDA0001808376240000049
表示假设句子Sb中从第一个词开始到第j个词的词序列。
前文提到,同一个句子在不同情境下可以表达不同的语义,因此模型在理解语义时需要考虑句子所处的情境。而随着互联网的高速发展,人们更喜欢通过图像和文本结合的方式来表达自己的想法。因此图像可以认为是句子所处的情境的一种表现形式,文本中和图像表示越相关的内容应该得到更多的关注,而注意力机制可以帮助模型专注于输入中最相关的内容。为了整合图像和文本信息,保证模型在理解语义时能够考虑其所处的情境。本放实施例中,使用注意力机制来获取自然语言句子对的文本表示中与图像最相关的内容,并将这些内容抽取出来,作为自然语言句子对在图像注意力层的语义表示:
Figure BDA0001808376240000051
Figure BDA0001808376240000052
Figure BDA0001808376240000053
Figure BDA0001808376240000054
其中,Wa,Ua,ω为注意力单元的训练参数,k为GRU中的隐层单元维度,α为前提句子中每个词的隐层状态的注意力权重分布,ca为前提句子在图像注意力层的语义表示向量,
Figure BDA0001808376240000055
表示一个全为1的行向量;M与α均为中间量;softmax(·)表示归一化操作,保证每个词的隐层状态的注意力权重分布之和为1;通过注意力机制和图片表示的情境指导下,相关词会被选出来组成句子的语义表示。相同的操作应用到假设句子上,得到假设句子在图像注意力层的语义表示向量cb
步骤13、根据自然语言句子对在图像注意力层的语义表示,使用注意力机制和循环神经网络进行建模,获取自然语言句子对在句子注意力层的语义表示。
由于自然语言推理任务是判断两个句子之间是否存在推理关系,因此建模两个句子之间的交互和局部相关性也十分重要,因此在得到句子在给定情境下的语义表示的基础上提出句子注意力层(Sentence Attention Layer)建模两个句子之间的交互。
由于注意力机制可以帮助模型关注到输入中最相关的部分,因此在句子注意力层使用了同样的注意力机制,和图像注意力层不同的地方在于,该层的注意力单元的输入是图像注意力层的输出(即步骤12的输出):句子的语义表示,即在已经理解到的语义下建模两个句子之间的交互,并且通过这种方式可以建模句子之间的交互及局部关系。
本步骤优选实施方式如下:
将前提句子和假设句子的每个词通过和图像注意力层不同的GRU,记为GRU2,得到两个句子每个词的隐层状态表示:
Figure BDA0001808376240000056
GRU2表示在这里使用了和步骤12中参数不同的GRU结构。
在此基础上,使用注意力机制来获取自然语言句子对在句子注意力层的语义表示:
Figure BDA0001808376240000061
其中,M'与α'均为中间量;c'a表示前提句子在句子注意力层的语义表示向量,W',U',ω'是句子注意力层中注意力单元的训练参数,在已知语义的条件下,利用注意力机制,假设句子中与前提句子语义相关的信息会被抽取出来从另一个角度对前提句子的语义进行表示。相同的操作应用到假设句子上,得到假设句子在句子注意力层的语义表示向量c'b
步骤14、根据自然语言句子对在图像注意力层及句子注意力层的语义表示,利用自然语言推理中的匹配方法处理得到自然语言句子对的表示向量,以此判断自然语言句子对中两个句子之间是否存在推理关系。
对于给定的前提句子Sa、假设句子Sb以及对应的情境信息c,在得到前提句子在图像注意力层的语义表示向量ca、假设句子在图像注意力层的语义表示向量cb、前提句子在句子注意力层的语义表示向量c'a以及假设句子在句子注意力层的语义表示向量c'b后,利用启发式的方法整合这些表征信息,具体来讲,选择表示向量点乘,相减,拼接等操作将这些表征向量整合起来,获得前提句子与假设句子的最终语义表示向量va和vb;然后将va和vb拼接起来,得到最终的表示向量v,再通过一个多层感知机(MLP)求出在给定情境下两个句子之间存在推理关系的概率,上述过程表示为:
Figure BDA0001808376240000062
其中,
Figure BDA0001808376240000063
表示点乘,-表示相减,(·,·)表示拼接操作;y表示在给定情境信息c下前提句子Sa与假设句子Sb存在的推理关系类别。MLP是一个三层结构,包含两层的全连接层和ReLu激活函数,以及一层softmax输出层。在这层中,拼接操作可以最大限度的保留句子的语义表征信息,点乘可以得到两个句子之间的相似度信息,相减操作可以获取语义表征在每个维度上的不同程度。
最终根据计算得到的给定情境下两个句子之间存在推理关系的概率,来判断这两个句子之间是否存在推理关系。
本发明实施例提供的上述方案,针对具有情境信息的自然语言句子对,运用多模态学习的方法和注意力机制,充分利用了文本,图像的信息,从而更准确理解句子所表达的语义以及在这样的语义下两个句子之间的交互,进而准确判断两个句子之间是否存在推理关系,同时还可以提供一种进行句子语义表征的方法,弥补了现有方法没有考虑句子所处的情境的弊端。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (4)

1.一种情境感知的双重注意力自然语言推理方法,其特征在于,包括:
获取具有异构数据的包含情境信息的图像和对应的自然语言句子对;
根据获取到的异构数据的图像和自然语言句子使用多模态学习的方法和注意力机制进行建模,获取自然语言句子对在图像注意力层的语义表示;
根据自然语言句子对在图像注意力层的语义表示,使用注意力机制和循环神经网络进行建模,获取自然语言句子对在句子注意力层的语义表示;
根据自然语言句子对在图像注意力层及句子注意力层的语义表示,利用自然语言推理中的匹配方法处理得到自然语言句子对的表示向量,以此判断自然语言句子对中两个句子之间是否存在推理关系;
其中,所述根据获取到的异构数据的图像和自然语言句子使用多模态学习的方法和注意力机制进行建模,获取自然语言句子对在图像注意力层的语义表示包括:
使用统一的数学形式表示包含情境信息的图像和对应的自然语言句子对:对于图像,用I表示,是一个固定大小的三通道图,且每一个像素值在0到255之间;对于自然语言句子对中的前提句子用
Figure FDA0002472253650000011
表示其由m个词组成的文本;对于自然语言句子对中的假设句子用
Figure FDA0002472253650000012
表示其由n个词组成的文本;其中,Sa与Sb中的每一元素均表示一个词;
对于图像表示,利用深度网络模型VGG或者残差网络模型ResNet处理,模型的最后一个卷积层的结果作为图像的特征表示,用c表示;
Sa与Sb中的所有的不重复的词组成整个文本的词典V,词典V中每个词的向量表示由利用整个文本数据预训练好的自编码器得到,所有词的向量表示集合由E表示;再利用由自编码器得到每个词的低维向量表示,并且将这些信息融入到向量表示当中,由如下公式表示:
Figure FDA0002472253650000013
门结构循环网络GRU分别对前提句子和假设句子进行建模,得到每个句子中的每个词的隐含状态序列hi表示,这样可以得到在考虑周围上下文的条件下每个词的深层语义表示,从而得到更加全面的句子语义理解,对于t时刻的输入xt,GRU的隐含状态ht更新如下:
z=σ(xtUz+ht-1Wz)
r=σ(xtUr+ht-1Wr)
Figure FDA0002472253650000021
Figure FDA0002472253650000022
其中,z,r,cm分别是GRU的更新门,重置门,记忆单元,Uz与Wz为更新门的参数矩阵,Ur与Wr为重置门的参数矩阵,Uh与Wh为记忆单元的参数矩阵,
Figure FDA0002472253650000023
表示点乘;xt表示前提句子Sa或假设句子Sb中第t个词的低维向量表示;
利用GRU编码每个句子中每个词的表示,得到每个句子中词之间相互依赖的隐层表示,公式如下:
Figure FDA0002472253650000024
Figure FDA0002472253650000025
其中,GRU1表示前提句和假设句使用的是同一个GRU,
Figure FDA0002472253650000026
分别表示前提句子Sa第i个词和假设句子Sb中第j个词的隐层状态表示,
Figure FDA0002472253650000027
表示前提句子Sa中从第一个词开始到第i个词的词序列,
Figure FDA0002472253650000028
表示假设句子Sb中从第一个词开始到第j个词的词序列;
使用注意力机制来获取自然语言句子对的文本表示中与图像最相关的内容,并将这些内容抽取出来,作为自然语言句子对在图像注意力层的语义表示:
Figure FDA0002472253650000029
Figure FDA00024722536500000210
Figure FDA00024722536500000211
Figure FDA00024722536500000212
其中,Wa,Ua,ω为注意力单元的训练参数,k为GRU中的隐层单元维度,α为前提句子中每个词的隐层状态的注意力权重分布,ca为前提句子在图像注意力层的语义表示向量,
Figure FDA00024722536500000213
表示一个全为1的行向量;M与α均为中间量;softmax(·)表示归一化操作;相同的操作应用到假设句子上,得到假设句子在图像注意力层的语义表示向量cb
2.根据权利要求1所述的一种情境感知的双重注意力自然语言推理方法,其特征在于,所述自然语言句子对包括:前提句子与假设句子;
所述前提句子和假设句子的推理关系由专家标注,对应的情境信息的图像由获取文本数据时自动获得。
3.根据权利要求2所述的一种情境感知的双重注意力自然语言推理方法,其特征在于,所述根据自然语言句子对在图像注意力层的语义表示,使用注意力机制和循环神经网络进行建模,获取自然语言句子对在句子注意力层的语义表示包括:
将前提句子和假设句子的每个词通过和图像注意力层不同的GRU,记为GRU2,得到两个句子每个词的隐层状态表示:
Figure FDA0002472253650000031
在此基础上,使用注意力机制来获取自然语言句子对在句子注意力层的语义表示:
Figure FDA0002472253650000032
其中,M'与α'均为中间量;c'a表示前提句子在句子注意力层的语义表示向量,W',U',ω'是句子注意力层中注意力单元的训练参数;相同的操作应用到假设句子上,得到假设句子在句子注意力层的语义表示向量c'b
4.根据权利要求1或3所述的一种情境感知的双重注意力自然语言推理方法,其特征在于,根据自然语言句子对在图像注意力层及句子注意力层的语义表示,利用自然语言推理中的匹配方法处理得到自然语言句子对的表示向量,以此判断自然语言句子对中两个句子之间是否存在推理关系包括:
根据前提句子在图像注意力层的语义表示向量ca、假设句子在图像注意力层的语义表示向量cb、前提句子在句子注意力层的语义表示向量c'a以及假设句子在句子注意力层的语义表示向量c'b,利用启发式的方法整合这些表征信息,获得前提句子与假设句子的最终语义表示向量va和vb,然后将va和vb拼接起来,得到最终的表示向量v,再通过一个多层感知机MLP求出在给定情境下两个句子之间存在推理关系的概率,上述过程表示为:
Figure FDA0002472253650000033
其中,
Figure FDA0002472253650000034
表示点乘,-表示相减,(·,·)表示拼接操作;y表示在给定情境信息c下前提句子Sa与假设句子Sb存在的推理关系类别;MLP是一个三层结构,包含两层的全连接层和ReLu激活函数,以及一层softmax输出层;
最终根据计算得到的给定情境下两个句子之间存在推理关系的概率,来判断这两个句子之间是否存在推理关系。
CN201811107943.9A 2018-09-21 2018-09-21 情境感知的双重注意力自然语言推理方法 Active CN109344404B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811107943.9A CN109344404B (zh) 2018-09-21 2018-09-21 情境感知的双重注意力自然语言推理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811107943.9A CN109344404B (zh) 2018-09-21 2018-09-21 情境感知的双重注意力自然语言推理方法

Publications (2)

Publication Number Publication Date
CN109344404A CN109344404A (zh) 2019-02-15
CN109344404B true CN109344404B (zh) 2020-08-25

Family

ID=65305954

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811107943.9A Active CN109344404B (zh) 2018-09-21 2018-09-21 情境感知的双重注意力自然语言推理方法

Country Status (1)

Country Link
CN (1) CN109344404B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948691B (zh) * 2019-03-14 2022-02-18 齐鲁工业大学 基于深度残差网络及注意力的图像描述生成方法和装置
CN109948163B (zh) * 2019-03-25 2022-10-28 中国科学技术大学 序列动态阅读的自然语言语义匹配方法
CN110019685B (zh) * 2019-04-10 2021-08-20 鼎富智能科技有限公司 基于排序学习的深度文本匹配方法及装置
CN110096711B (zh) * 2019-05-09 2022-10-28 中国科学技术大学 序列全局关注和局部动态关注的自然语言语义匹配方法
CN110516065A (zh) * 2019-07-12 2019-11-29 杭州电子科技大学 一种基于多路动态掩码的注意力神经网络的方法
CN110969577B (zh) * 2019-11-29 2022-03-11 北京交通大学 一种基于深度双重注意力网络的视频超分辨率重建方法
CN111309971B (zh) * 2020-01-19 2022-03-25 浙江工商大学 一种基于多级编码的文本到视频的跨模态检索方法
CN111062220B (zh) * 2020-03-13 2020-06-16 成都晓多科技有限公司 一种基于记忆遗忘装置的端到端意图识别系统和方法
CN111671426B (zh) * 2020-05-13 2022-07-12 北京航空航天大学 基于柔性传感和深度学习的人体呼吸状态监测系统及方法
CN111859909B (zh) * 2020-07-10 2022-05-31 山西大学 一种语义场景一致性识别阅读机器人
CN113239685B (zh) * 2021-01-13 2023-10-31 中国科学院计算技术研究所 一种基于双重情感的舆情检测方法及系统
CN113010676B (zh) * 2021-03-15 2023-12-08 北京语言大学 一种文本知识提取方法、装置及自然语言推断系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108170816A (zh) * 2017-12-31 2018-06-15 厦门大学 一种基于深度神经网络的智能视觉问答模型

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170330080A1 (en) * 2016-05-13 2017-11-16 Cognitive Scale, Inc. Universal Cognitive Graph Architecture
CN107918782B (zh) * 2016-12-29 2020-01-21 中国科学院计算技术研究所 一种生成描述图像内容的自然语言的方法与系统
CN107578106B (zh) * 2017-09-18 2020-03-24 中国科学技术大学 一种融合单词语义知识的神经网络自然语言推理方法
CN108446275A (zh) * 2018-03-21 2018-08-24 北京理工大学 基于注意力双层lstm的长文本情感倾向性分析方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108170816A (zh) * 2017-12-31 2018-06-15 厦门大学 一种基于深度神经网络的智能视觉问答模型

Also Published As

Publication number Publication date
CN109344404A (zh) 2019-02-15

Similar Documents

Publication Publication Date Title
CN109344404B (zh) 情境感知的双重注意力自然语言推理方法
WO2022007823A1 (zh) 一种文本数据处理方法及装置
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN107066464B (zh) 语义自然语言向量空间
CN109376222B (zh) 问答匹配度计算方法、问答自动匹配方法及装置
CN108960338B (zh) 基于注意力反馈机制的图像自动语句标注方法
CN112287089B (zh) 用于自动问答系统的分类模型训练、自动问答方法及装置
CN111814454A (zh) 一种社交网络上的多模态网络欺凌检测模型
CN111598183A (zh) 一种多特征融合图像描述方法
WO2023134082A1 (zh) 图像描述语句生成模块的训练方法及装置、电子设备
CN110991290A (zh) 基于语义指导与记忆机制的视频描述方法
CN112131345B (zh) 文本质量的识别方法、装置、设备及存储介质
CN112231491B (zh) 基于知识结构的相似试题识别方法
Halvardsson et al. Interpretation of swedish sign language using convolutional neural networks and transfer learning
Singh et al. HINDIA: a deep-learning-based model for spell-checking of Hindi language
CN114358201A (zh) 基于文本的情感分类方法和装置、计算机设备、存储介质
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN116385937A (zh) 一种基于多粒度的跨模态交互框架解决视频问答的方法及系统
CN109948163B (zh) 序列动态阅读的自然语言语义匹配方法
Chaudhuri Visual and text sentiment analysis through hierarchical deep learning networks
US20240152707A1 (en) Automated Patent Language Generation
CN110852071A (zh) 知识点检测方法、装置、设备及可读存储介质
CN114492661A (zh) 文本数据分类方法和装置、计算机设备、存储介质
Setyono et al. Recognizing word gesture in sign system for Indonesian language (SIBI) Sentences using DeepCNN and BiLSTM
CN113705207A (zh) 语法错误识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant