CN107239560A - 一种基于深度学习的文本蕴含关系识别方法 - Google Patents

一种基于深度学习的文本蕴含关系识别方法 Download PDF

Info

Publication number
CN107239560A
CN107239560A CN201710438756.8A CN201710438756A CN107239560A CN 107239560 A CN107239560 A CN 107239560A CN 201710438756 A CN201710438756 A CN 201710438756A CN 107239560 A CN107239560 A CN 107239560A
Authority
CN
China
Prior art keywords
msubsup
mrow
mtd
matrix
premise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710438756.8A
Other languages
English (en)
Other versions
CN107239560B (zh
Inventor
刘思阳
张森林
樊臻
刘妹琴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201710438756.8A priority Critical patent/CN107239560B/zh
Publication of CN107239560A publication Critical patent/CN107239560A/zh
Application granted granted Critical
Publication of CN107239560B publication Critical patent/CN107239560B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于深度学习的文本蕴含关系识别方法,属于文本识别领域。该方法包括:步骤1:获取两个文本,将其中一个文本作为“前提”,另一个文本作为“假设”,并进行预处理,生成“前提”字符串和“假设”字符串;步骤2:生成“前提”基本矩阵的和“假设”基本矩阵;步骤3:计算“前提”和“假设”的距离关系矩阵和距离关系矩阵;步骤4:生成“前提”和“假设”的联合矩阵Up和联合矩阵矩阵Uh;步骤5:将联合矩阵分别送入深度学习模型中,生成m维双精度的“前提”句向量和“假设”句向量;步骤6:将“前提”和“假设”的句向量按照句向量混合方法生成分类向量;步骤7:将分类向量送入分类器,分类器输出“前提”和“假设”的关系。

Description

一种基于深度学习的文本蕴含关系识别方法
技术领域
本发明属于自然语言理解领域,一种基于深度学习的文本蕴含关系识别方法。
背景技术
伴随着大数据时代的到来,数据增长的速度越来越快。同时,这些数据中也充斥着大量无用、冗余的信息。让计算机“理解”文本的含义,并从大数据中收集、获取有价值的信息变得越来越重要。大数据具有4个特点:大量、高速、多样、价值,这些特征使得计算机快速从互联网上获取有价值的信息变得越来越困难。然而,一旦计算机深层次地理解了文本的语义,计算机就可以在互联网上自动收集、整理有价值的信息,极大地提高了劳动生产力。
文本蕴涵推理是自然语言处理的领域的关键和前沿问题之一,也是机器阅读的核心技术,它表现了人工智能中复杂性和自然语言的不确定性。另外,许多自然语言理解的任务,包括自动问答、信息检索与提取、机器翻译等都以该研究为核心。
虽然数据量得到了足够的积累,计算能力得到了大幅度提升,但相关的智能算法还存在着诸多问题,在自然语言理解方面存在着空白,如何使机器能够理解当前的文本并作出进一步的推理,成为当前自然语言理解里面的一个难点。
发明内容
本发明的目的在于针对现有技术的不足,并提供一种基于深度学习的文本蕴含关系识别方法
本发明的技术方案是:
一种基于深度学习的文本蕴含关系识别方法,具体按如下步骤进行:
步骤1:获取两个文本,将其中一个文本作为“前提”,另一个文本作为“假设”,并进行预处理,生成“前提”字符串和“假设”字符串其中lp为“前提”字符串Sp的长度,lh为“假设”字符串Sh的长度;
步骤2:将“前提”字符Sp和“假设”字符串Sh,采用Str2Matrix方法,生成n×lmax的“前提”基本矩阵Mp的和n×lmax的“假设”基本矩阵Mh;lmax为预设的最大句子长度;
步骤3:计算“前提”和“假设”的距离关系矩阵Dp和距离关系矩阵Dh
步骤4:生成“前提”和“假设”的联合矩阵Up和联合矩阵矩阵Uh
步骤5:将“前提”和“假设”中的联合矩阵分别送入深度学习模型中,生成m维双精度的“前提”句向量Vp和“假设”句向量Vh
步骤6:将“前提”和“假设”的句向量按照句向量混合方法生成分类向量;
步骤7:将分类向量送入分类器,分类器输出“前提”和“假设”的关系。
进一步的,“前提”是由中文或英文文本组成的短语;“假设”是由中文或英文文本组成的短语;“关系”是“前提”和“假设”之间的推理关系,推理关系包括:“蕴含”、“矛盾”和“中立”。
进一步的,所述步骤1中的预处理为:对“前提”和“假设”字符串进行分词处理
进一步的,所述步骤2中的Str2Matrix方法具体按如下步骤进行:
步骤1:S是需要处理的字符串,L为该字符串的长度,令i=0,生成n×lmax的零矩阵D;
步骤2:如果i小于等于L,执行步骤3,否则执行步骤5;
步骤3:在预训练好的字典中查找第i个单词或词语si是否存在,如果存在,将矩阵D的第i行替换成字符串S中第i个单词或词语si对应的n维双精度的词向量,如果字典中不存在si对应的N维双精度的词向量,则随机初始化词向量,并将将矩阵D的第i行替换成则随机初始化词向量;
步骤4:i加1,执行步骤2;
步骤5:结束。
进一步的,所述步骤3中距离关系矩阵Dp和Dh的计算方法如下:
距离关系矩阵Dp为lmax×lmax的矩阵如下:
距离关系矩阵Dh为Lmax×Lmax的矩阵如下:
其中d(x,y)为计算词向量x与词向量y距离的函数;表示“前提”矩阵Mp的第i行;表示“前提”矩阵Mh的第i行。
进一步的,所述步骤4中“前提”和“假设”的联合矩阵计算方法为:将基本矩阵和距离关系矩阵对应行收尾相接的方式生成联合矩阵。
进一步的,所述步骤5中联合矩阵的送入方式是将联合矩阵的行向量逐个有序的送入深度学习模型中。
进一步的,所述步骤6中的句向量混合方法具体实现方式如下:
计算Vph1,Vph2,Vph3,Vph4四个混合相量,并将其合并成最终的4m维的混合相量Vfin,混合相量的计算公式分别为:
Vfin=[Vph1 Vph2 Vph3 Vph4]
式中:Vi p为“前提”句向量Vp的第i个元素,Vi h为“假设”句向量Vh的第i个元素,i=1,2,…,m。
本发明相对于现有技术而言,具有以下有益效果:在文本推理蕴含关系时,可在同等向量长度的前提下包含更多信息,使算法的效率和精度大大提升。可以更好的实现自然语言理解任务。
附图说明
图1为本发明具体实施方式的结构原理示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步阐述和说明。本发明中各个实施方式的技术特征在没有相互冲突的前提下,均可进行相应组合。
如图1所示,一种基于深度学习的文本蕴含关系识别方法,具体按如下步骤进行:
步骤1:获取两个文本,将其中一个文本作为“前提”,另一个文本作为“假设”,并进行预处理,生成“前提”字符串和“假设”字符串其中lp为“前提”字符串Sp的长度,lh为“假设”字符串Sh的长度;
其中:“前提”是由中文或英文文本组成的短语;“假设”是由中文或英文文本组成的短语;“关系”是“前提”和“假设”之间的推理关系,推理关系包括:“蕴含”、“矛盾”和“中立”。预处理为:对“前提”和“假设”字符串进行分词处理
步骤2:将“前提”字符Sp和“假设”字符串Sh,采用Str2Matrix方法,生成n×lmax的“前提”基本矩阵Mp的和n×lmax的“假设”基本矩阵Mh;lmax为预设的最大句子长度;
Str2Matrix方法具体按如下步骤进行:
步骤2.1:S是需要处理的字符串,L为该字符串的长度,令i=0,生成n×lmax的零矩阵D;
步骤2.2:如果i小于等于L,执行步骤2.3,否则执行步骤2.5;
步骤2.3:在预训练好的字典中查找第i个单词或词语si是否存在,如果存在,将矩阵D的第i行替换成字符串S中第i个单词或词语si对应的n维双精度的词向量,如果字典中不存在si对应的N维双精度的词向量,则随机初始化词向量,并将将矩阵D的第i行替换成则随机初始化词向量;
步骤2.4:i加1,执行步骤2.2;
步骤2.5:结束。
步骤3:计算“前提”和“假设”的距离关系矩阵Dp和距离关系矩阵Dh
本步骤中距离关系矩阵Dp和Dh的计算方法如下:
距离关系矩阵Dp为lmax×lmax的矩阵如下:
距离关系矩阵Dh为Lmax×Lmax的矩阵如下:
其中d(x,y)为计算词向量x与词向量y距离的函数;表示“前提”矩阵Mp的第i行;表示“前提”矩阵Mh的第i行。
步骤4:生成“前提”和“假设”的联合矩阵Up和联合矩阵矩阵Uh
本步骤中“前提”和“假设”的联合矩阵计算方法为:将基本矩阵和距离关系矩阵对应行收尾相接的方式生成联合矩阵。
步骤5:将“前提”和“假设”中的联合矩阵分别送入深度学习模型中,生成m维双精度的“前提”句向量Vp和“假设”句向量Vh
本步骤中联合矩阵的送入方式是将联合矩阵的行向量逐个有序的送入深度学习模型中。
步骤6:将“前提”和“假设”的句向量按照句向量混合方法生成分类向量;
本步骤中的句向量混合方法具体实现方式如下:
计算Vph1,Vph2,Vph3,Vph4四个混合相量,并将其合并成最终的4m维的混合相量Vfin,混合相量的计算公式分别为:
Vfin=[Vph1 Vph2 Vph3 Vph4]
式中:Vi p为“前提”句向量Vp的第i个元素,Vi h为“假设”句向量Vh的第i个元素,i=1,2,…,m。
步骤7:将分类向量送入分类器,分类器输出“前提”和“假设”的关系。
实施例1
本实施例中,一种基于深度学习的文本蕴含关系识别算法,具体按如下步骤进行:
获取两个文本,将其中一个文本作为“前提”,另一个文本作为“假设”:
前提:Two women having drinks and smoking cigarettes at the bar.
假设:Two women are at a bar.
预设的最大语句长度为15。
步骤1:对“前提”、“假设”进行预处理,生成“前提”字符串Sp=[”Two”,”women”,”having”,”drinks”,”and”,”smoking”,”cigarettes”,”at”,”the”,”bar”,”.”]和“假设”字符串Sh=[”Two”,”women”,”are”,”at”,”a”,”bar”,”.”];
步骤2:将“前提”字符Sp和“假设”字符串Sh,采用Str2Matrix方法,生成n×lmax的“前提”基本矩阵Mp的和n×lmax的“假设”基本矩阵Mh
其中WVword表示word的n维词向量。
步骤3:计算“前提”和“假设”的距离关系矩阵Dp和距离关系矩阵Dh
由于矩阵Dp过长,横向拆分成以上两张图片。
由于矩阵Dh过长,横向拆分成以上两张图片。
步骤4:生成“前提”和“假设”的联合矩阵Up和联合矩阵矩阵Uh
步骤5:将“前提”和“假设”中的联合矩阵分别送入深度学习模型中,生成m维双精度的“前提”句向量Vp和“假设”句向量Vh
步骤6:将“前提”和“假设”的句向量按照句向量混合方法生成分类向量;
Vfin=[Vph1 Vph2 Vph3 Vph4]
步骤7:将分类向量送入分类器,分类器输出“前提”和“假设”的关系。
以上所述的实施例只是本发明的一种较佳的方案,然其并非用以限制本发明。有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型。因此凡采取等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。

Claims (8)

1.一种基于深度学习的文本蕴含关系识别方法,其特征在于:具体按如下步骤进行:
步骤1:获取两个文本,将其中一个文本作为“前提”,另一个文本作为“假设”,并进行预处理,生成“前提”字符串和“假设”字符串其中lp为“前提”字符串Sp的长度,lh为“假设”字符串Sh的长度;
步骤2:将“前提”字符Sp和“假设”字符串Sh,采用Str2Matrix方法,生成n×lmax的“前提”基本矩阵Mp的和n×lmax的“假设”基本矩阵Mh;lmax为预设的最大句子长度;
步骤3:计算“前提”和“假设”的距离关系矩阵Dp和距离关系矩阵Dh
步骤4:生成“前提”和“假设”的联合矩阵Up和联合矩阵矩阵Uh
步骤5:将“前提”和“假设”中的联合矩阵分别送入深度学习模型中,生成m维双精度的“前提”句向量Vp和“假设”句向量Vh
步骤6:将“前提”和“假设”的句向量按照句向量混合方法生成分类向量;
步骤7:将分类向量送入分类器,分类器输出“前提”和“假设”的关系。
2.根据权利要求1所述一种基于深度学习的文本蕴含关系识别方法,其特征在于:“前提”是由中文或英文文本组成的短语;“假设”是由中文或英文文本组成的短语;“关系”是“前提”和“假设”之间的推理关系,推理关系包括:“蕴含”、“矛盾”和“中立”。
3.根据权利要求1所述一种基于深度学习的文本蕴含关系识别方法,其特征在于:所述步骤1中的预处理为:对“前提”和“假设”字符串进行分词处理
4.根据权利要求1所述一种分布式网络控制系统的加密认证算法,其特征在于:所述步骤2中的Str2Matrix方法具体按如下步骤进行:
步骤1:S是需要处理的字符串,L为该字符串的长度,令i=0,生成n×lmax的零矩阵D;
步骤2:如果i小于等于L,执行步骤3,否则执行步骤5;
步骤3:在预训练好的字典中查找第i个单词或词语si是否存在,如果存在,将矩阵D的第i行替换成字符串S中第i个单词或词语si对应的n维双精度的词向量,如果字典中不存在si对应的N维双精度的词向量,则随机初始化词向量,并将将矩阵D的第i行替换成则随机初始化词向量;
步骤4:i加1,执行步骤2;
步骤5:结束。
5.根据权利要求1所述一种基于深度学习的文本蕴含关系识别方法,其特征在于所述步骤3中距离关系矩阵Dp和Dh的计算方法如下:
距离关系矩阵Dp为lmax×lmax的矩阵如下:
距离关系矩阵Dh为Lmax×Lmax的矩阵如下:
其中d(x,y)为计算词向量x与词向量y距离的函数;表示“前提”矩阵Mp的第i行;表示“前提”矩阵Mh的第i行。
6.根据权利要求1所述一种基于深度学习的文本蕴含关系识别方法,其特征在于所述步骤4中“前提”和“假设”的联合矩阵计算方法为:将基本矩阵和距离关系矩阵对应行收尾相接的方式生成联合矩阵。
7.根据权利要求1所述一种基于深度学习的文本蕴含关系识别方法,其特征在于所述步骤5中联合矩阵的送入方式是将联合矩阵的行向量逐个有序的送入深度学习模型中。
8.根据权利要求1所述一种基于深度学习的文本蕴含关系识别方法,其特征在于所述步骤6中的句向量混合方法具体实现方式如下:
计算Vph1,Vph2,Vph3,Vph4四个混合相量,并将其合并成最终的4m维的混合相量Vfin,混合相量的计算公式分别为:
<mrow> <msup> <mi>V</mi> <mrow> <mi>p</mi> <mi>h</mi> <mn>1</mn> </mrow> </msup> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>V</mi> <mn>1</mn> <mi>p</mi> </msubsup> <mo>&amp;times;</mo> <msubsup> <mi>V</mi> <mn>1</mn> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mn>2</mn> <mi>p</mi> </msubsup> <mo>&amp;times;</mo> <msubsup> <mi>V</mi> <mn>2</mn> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>p</mi> </msubsup> <mo>&amp;times;</mo> <msubsup> <mi>V</mi> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mi>m</mi> <mi>p</mi> </msubsup> <mo>&amp;times;</mo> <msubsup> <mi>V</mi> <mi>m</mi> <mi>h</mi> </msubsup> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mrow> <msup> <mi>V</mi> <mrow> <mi>p</mi> <mi>h</mi> <mn>2</mn> </mrow> </msup> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>V</mi> <mn>1</mn> <mi>p</mi> </msubsup> <mo>-</mo> <msubsup> <mi>V</mi> <mi>m</mi> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mn>2</mn> <mi>p</mi> </msubsup> <mo>-</mo> <msubsup> <mi>V</mi> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>p</mi> </msubsup> <mo>-</mo> <msubsup> <mi>V</mi> <mn>2</mn> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mi>m</mi> <mi>p</mi> </msubsup> <mo>-</mo> <msubsup> <mi>V</mi> <mn>1</mn> <mi>h</mi> </msubsup> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mrow> <msup> <mi>V</mi> <mrow> <mi>p</mi> <mi>h</mi> <mn>3</mn> </mrow> </msup> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>V</mi> <mn>1</mn> <mi>p</mi> </msubsup> <mo>&amp;times;</mo> <msubsup> <mi>V</mi> <mi>m</mi> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mn>2</mn> <mi>p</mi> </msubsup> <mo>&amp;times;</mo> <msubsup> <mi>V</mi> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>p</mi> </msubsup> <mo>&amp;times;</mo> <msubsup> <mi>V</mi> <mn>2</mn> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mi>m</mi> <mi>p</mi> </msubsup> <mo>&amp;times;</mo> <msubsup> <mi>V</mi> <mn>1</mn> <mi>h</mi> </msubsup> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mrow> <msup> <mi>V</mi> <mrow> <mi>p</mi> <mi>h</mi> <mn>2</mn> </mrow> </msup> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>V</mi> <mn>1</mn> <mi>p</mi> </msubsup> <mo>-</mo> <msubsup> <mi>V</mi> <mi>m</mi> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mn>2</mn> <mi>p</mi> </msubsup> <mo>-</mo> <msubsup> <mi>V</mi> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>p</mi> </msubsup> <mo>-</mo> <msubsup> <mi>V</mi> <mn>2</mn> <mi>h</mi> </msubsup> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>V</mi> <mi>m</mi> <mi>p</mi> </msubsup> <mo>-</mo> <msubsup> <mi>V</mi> <mn>1</mn> <mi>h</mi> </msubsup> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
Vfin=[Vph1 Vph2 Vph3 Vph4]
式中:Vi p为“前提”句向量Vp的第i个元素,Vi h为“假设”句向量Vh的第i个元素,i=1,2,…,m。
CN201710438756.8A 2017-06-12 2017-06-12 一种基于深度学习的文本蕴含关系识别方法 Active CN107239560B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710438756.8A CN107239560B (zh) 2017-06-12 2017-06-12 一种基于深度学习的文本蕴含关系识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710438756.8A CN107239560B (zh) 2017-06-12 2017-06-12 一种基于深度学习的文本蕴含关系识别方法

Publications (2)

Publication Number Publication Date
CN107239560A true CN107239560A (zh) 2017-10-10
CN107239560B CN107239560B (zh) 2020-07-03

Family

ID=59986247

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710438756.8A Active CN107239560B (zh) 2017-06-12 2017-06-12 一种基于深度学习的文本蕴含关系识别方法

Country Status (1)

Country Link
CN (1) CN107239560B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108717574A (zh) * 2018-03-26 2018-10-30 浙江大学 一种基于连词标记和强化学习的自然语言推理方法
CN108829737A (zh) * 2018-05-21 2018-11-16 浙江大学 基于双向长短期记忆网络的文本交叉组合分类方法
CN109165300A (zh) * 2018-08-31 2019-01-08 中国科学院自动化研究所 文本蕴含识别方法及装置
CN109460549A (zh) * 2018-10-12 2019-03-12 北京奔影网络科技有限公司 语义向量的处理方法及装置
CN110390397A (zh) * 2019-06-13 2019-10-29 成都信息工程大学 一种文本蕴含识别方法及装置
CN110618980A (zh) * 2019-09-09 2019-12-27 上海交通大学 基于法律文本精确匹配和矛盾检测的系统及方法
CN111666405A (zh) * 2019-03-06 2020-09-15 百度在线网络技术(北京)有限公司 用于识别文本蕴含关系的方法和装置
CN113010676A (zh) * 2021-03-15 2021-06-22 北京语言大学 一种文本知识提取方法、装置及自然语言推断系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103838835A (zh) * 2014-02-25 2014-06-04 中国科学院自动化研究所 一种网络敏感视频检测方法
US20150324456A1 (en) * 2014-05-08 2015-11-12 Electronics And Telecommunications Research Institute Question answering system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103838835A (zh) * 2014-02-25 2014-06-04 中国科学院自动化研究所 一种网络敏感视频检测方法
US20150324456A1 (en) * 2014-05-08 2015-11-12 Electronics And Telecommunications Research Institute Question answering system and method

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
GEORGIANA DINU ET AL: "Inference Rules and their Application to Recognizing Textual Entailment", 《PROCEEDINGS OF THE 12TH CONFERENCE OF THE EUROPEAN CHAPTER OF THE ACL》 *
LEI SHA ET AL: "Reading and Thinking: Re-read LSTM Unit for Textual Entailment Recognition", 《PROCEEDIGNS OF COLING 2016》 *
TIM ROCKTASCHEL ET AL: "Reasoning About Entailment with Neural Attention", 《COMPUTATION AND LAUGENGE》 *
刘阳: "基于LSTM的英文文本蕴含识别方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
梁海峰: "基于蕴含的文本搜索的研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
王宝鑫: "基于深度神经网络的文本蕴含识别及应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108717574A (zh) * 2018-03-26 2018-10-30 浙江大学 一种基于连词标记和强化学习的自然语言推理方法
CN108717574B (zh) * 2018-03-26 2021-09-21 浙江大学 一种基于连词标记和强化学习的自然语言推理方法
CN108829737A (zh) * 2018-05-21 2018-11-16 浙江大学 基于双向长短期记忆网络的文本交叉组合分类方法
CN108829737B (zh) * 2018-05-21 2021-11-05 浙江大学 基于双向长短期记忆网络的文本交叉组合分类方法
CN109165300A (zh) * 2018-08-31 2019-01-08 中国科学院自动化研究所 文本蕴含识别方法及装置
CN109460549A (zh) * 2018-10-12 2019-03-12 北京奔影网络科技有限公司 语义向量的处理方法及装置
CN111666405A (zh) * 2019-03-06 2020-09-15 百度在线网络技术(北京)有限公司 用于识别文本蕴含关系的方法和装置
CN110390397A (zh) * 2019-06-13 2019-10-29 成都信息工程大学 一种文本蕴含识别方法及装置
CN110618980A (zh) * 2019-09-09 2019-12-27 上海交通大学 基于法律文本精确匹配和矛盾检测的系统及方法
CN113010676A (zh) * 2021-03-15 2021-06-22 北京语言大学 一种文本知识提取方法、装置及自然语言推断系统
CN113010676B (zh) * 2021-03-15 2023-12-08 北京语言大学 一种文本知识提取方法、装置及自然语言推断系统

Also Published As

Publication number Publication date
CN107239560B (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN107239560A (zh) 一种基于深度学习的文本蕴含关系识别方法
CN110866117B (zh) 一种基于语义增强与多层次标签嵌入的短文本分类方法
CN107133213B (zh) 一种基于算法的文本摘要自动提取方法与系统
CN110298037B (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
Le et al. Training an end-to-end system for handwritten mathematical expression recognition by generated patterns
CN106844346A (zh) 基于深度学习模型Word2Vec的短文本语义相似性判别方法和系统
CN102662931B (zh) 一种基于协同神经网络的语义角色标注方法
CN109271537B (zh) 一种基于蒸馏学习的文本到图像生成方法和系统
CN106650789A (zh) 一种基于深度lstm网络的图像描述生成方法
CN112990296B (zh) 基于正交相似度蒸馏的图文匹配模型压缩与加速方法及系统
CN110866399B (zh) 一种基于增强字符向量的中文短文本实体识别与消歧方法
CN106569998A (zh) 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN107392147A (zh) 一种基于改进的生成式对抗网络的图像语句转换方法
CN110597998A (zh) 一种结合句法分析的军事想定实体关系抽取方法及装置
CN106502994A (zh) 一种文本的关键词提取的方法和装置
CN103984943A (zh) 一种基于贝叶斯概率框架的场景文本识别方法
CN108710611A (zh) 一种基于词网络和词向量的短文本主题模型生成方法
CN109697288B (zh) 一种基于深度学习的实例对齐方法
CN111914555B (zh) 基于Transformer结构的自动化关系抽取系统
Wu et al. Scene attention mechanism for remote sensing image caption generation
CN112347255B (zh) 基于图网络的标题和正文结合的文本分类方法
CN111008526A (zh) 一种基于双通道神经网络的命名实体识别方法
CN110705272A (zh) 一种面向汽车发动机故障诊断的命名实体识别方法
CN112307756A (zh) 基于Bi-LSTM和字词融合的汉语分词方法
CN110827351A (zh) 机器人视听协同学习新目标的语音标签自动生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant