CN111368026B - 基于词语义关系与动态卷积神经网络的文本蕴含分析方法 - Google Patents
基于词语义关系与动态卷积神经网络的文本蕴含分析方法 Download PDFInfo
- Publication number
- CN111368026B CN111368026B CN202010114403.4A CN202010114403A CN111368026B CN 111368026 B CN111368026 B CN 111368026B CN 202010114403 A CN202010114403 A CN 202010114403A CN 111368026 B CN111368026 B CN 111368026B
- Authority
- CN
- China
- Prior art keywords
- word
- sentence
- vector
- convolution
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于词语义关系与动态卷积神经网络的文本蕴含分析方法。本发明包括如下步骤:步骤1对需要进行文本蕴含的文本进行初步的数据预处理,使用ConceptNet获取词语义关系,将词语义关系嵌入到数据预处理后的词向量中;步骤2通过对词向量进行卷积操作,生成文本蕴含所需要的语义特征图;步骤3对于卷积生成的语义特征图,使用动态k‑max次池化获取句子特征向量;步骤4对两个句子分别重复以上步骤,生成两个句子特征向量,最后通过蕴含分类器输出最后文本蕴含的结果。本发明采用的技术方案具有更好的鲁棒性和自适应能力。
Description
技术领域
本发明涉及文本蕴含领域,具体涉及一种基于词语义关系与动态卷积神经网络的文本蕴含分析方法。
背景技术
文本蕴含是自然语言处理中的一个重要任务。其目标是判断是否可以从给定的前提句中合理地推断出假设句。如能从前提句中推理出假设句则推理关系为蕴含关系;如果前提句与假设句语义矛盾则推理关系为矛盾关系;如果前提句与假设句在语义上不相关则为中立关系。近些年来,随着深度学习的不断发展,使得研究员们可以方便的使用大型的标记好的数据集,例如SNLI和MultiNLI数据集),这使得训练相当复杂的基于神经网络的模型变得可行。通常,这些模型往往不使用语言分析和特征工程。但是能取得较好结果。
虽然已经证明神经网络使用大量训练数据进行建模在文本蕴含方面上非常有效,它们通常假设所有推论知识均可从提供的训练数据中学习到。但是,如果我们能利用到词汇级别的语义关系,这种语义关系应该有助于句子级别的文本蕴含。例如,前提句为有人在水壶里搅拌辣椒。假设句为有人在壶里搅拌辣椒。可以看到,在这个例子中,我们能从前提句推理出假设句。之所以我们能够正确识别这种关系是因为我们知道壶这个词包含了水壶。但是当计算机预测这两个句子之间的关系并且在训练数据集中不提供水壶与壶的词对,计算机将很难知道壶包含水壶从而判断不出这两个句子的关系。
发明内容
本发明的目的是针对现有文本蕴含技术的不足,提供一种新的利用词语义关系与动态卷积神经网络的文本蕴含方法。
为解决技术问题,本发明的解决方案包括以下步骤:
步骤1、对需要进行文本蕴含分析的语料进行初步的数据预处理,使用ConceptNet获取词语义关系,将词语义关系嵌入到数据预处理后的词向量中;
步骤2、通过对词向量进行卷积操作,生成文本蕴含所需要的语义特征图;
步骤3、对于卷积生成的语义特征图,使用动态k-max次池化获取句子特征向量;
步骤4、对两个句子分别重复以上步骤,生成两个句子特征向量,最后通过蕴含分类器输出最后文本蕴含的结果。
本发明的优点及有益效果如下:
本发明主要为了解决对文本进行文本蕴含的任务,现有的方法在训练集的数据进行预处理时没有包含两个句子之间词语义关系,这会导致模型不能利用到词与词之间关系,在测试数据中,当词对相似时,往往不能很好的正确的判断句子之间的关系,本发明采用的技术方案是利用ConceptNet获取到词对关系,并将关系嵌入到预训练好的词向量中,通过卷积池化操作获取句子特征,最后根据句子特征输出最后的结果,从而提升了准确率。
附图说明
图1是本发明的整体实施方案流程图;
图2是本发明的神经网络模型示意图;
具体实施方式
下面将结合附图详细的说明本发明的技术方案。
参照图1和图2,基于词语义关系与动态卷积神经网络的文本蕴含分析方法,包括以下步骤:
步骤1、对需要进行文本蕴含分析的语料进行初步的数据预处理,使用ConceptNet获取词语义关系,将词语义关系嵌入到数据预处理后的词向量中;
步骤2、对嵌入词语义关系的词向量进行卷积操作,生成文本蕴含所需要的语义特征图;
步骤3、对于卷积生成的语义特征图,使用动态k-max次池化获取句子特征向量;
步骤4、对两个句子分别重复步骤1-步骤3,生成两个句子特征向量,最后通过蕴含分类器输出最后文本蕴含分析的结果。
步骤1具体实现如下:
1-1对于需要进行文本蕴含分析的语料,将前提句的文本数据使用GloVe词向量模型转换成向量的表示P,P={p1,p2,...,pn},其中pi为第i个词的词向量表示形式,n为句子的长度。注意,前提句与假设句的处理方式一致,为了方便说明,以下部分都以前提句为例。
1-2将前提句和假设句的词向量进行关联建模,生成词的权重向量,其目的是让对推理有利的词获得更好的关系向量。其公式如下所示,
f(pi,qj)=W1(pi)Tqj+b1
其中W1,b1是可学习的参数,pi,qj分别为前提句的第i个词的词向量和假设句的第j个词的词向量,aij为前提句的词权重向量。
1-3利用词的权重向量,将ConceptNet生成初始的词关系向量处理成词语义关系向量。其公式如下所示,
其中p′i为前提句第i个词的词语义关系向量,rij为使用ConceptNet生成的前提句第i个词与假设句第j个词的词关系。
1-4将词语义关系向量嵌入到原本的词向量中,W=((p1,p′1),(p2,p′2),...,(pn,p′n)),其中W为前提句新的词向量矩阵。
步骤2具体实现如下:
2-1对句子的词向量矩阵进行卷积操作,使用长度为5的滤波器对句子的词向量矩阵做滤波,同时采用补零法,在滤波器滤波过程中将落在词向量矩阵之外的元素都默认为零,虽然会使得输出特征图的宽度更宽,但是能更加有效的提取句子的句首和句尾信息,其公式如下所示:
C={k1,k2,,..,kf,W,k1,k2,..,kf}
其中,ki为零向量,f为滤波器长度,W为前提句新的词向量矩阵,C为补零后的句子的词向量矩阵。
2-2.对补零后的句子的词向量矩阵,使用长度为5的滤波器滤波,提取语义特征图S,其公式如下:
步骤3、对于卷积生成的语义特征图,使用动态k-max次池化获取句子特征向量;
步骤3具体实现如下:
3-1.为了获得卷积生成的语义特征图中的重要特征,同时降低维度,对滤波器滤波的一个语义特征图取前k个最大特征值,将其组成子序列,并保持原来语义特征图序列的次序,根据网络的总共卷积层层数,当前输入句子的长度,从不同长度的句子中提取相应数量的语义特征信息;选取特征值数量的动态调整公式如下:
其中ktop为卷积池化层的层数,其层数为3,n为输入的句子长度,L是网络总共卷积层数,l为当前卷积的层数。
步骤4具体实现如下:
4-1将前提句与假设句卷积池化后生成的句子向量表示,通过连接u、v、u-v、u⊙v生成句子关系的表示,其中u为前提句的句子特征向量,v为假设句的句子特征向量;再将句子关系的表示利用300D的全连接层和3-类softmax输出层,输出最后文本蕴含的结果。
Claims (5)
1.基于词语义关系与动态卷积神经网络的文本蕴含分析方法,其特征在于包括如下步骤:
步骤1、对需要进行文本蕴含分析的语料进行初步的数据预处理,使用ConceptNet获取词语义关系,将词语义关系嵌入到数据预处理后的词向量中;
步骤2、对嵌入词语义关系的词向量进行卷积操作,生成文本蕴含所需要的语义特征图;
步骤3、对于卷积生成的语义特征图,使用动态k-max池化获取句子特征向量;
步骤4、对两个句子分别重复步骤1-步骤3,生成两个句子特征向量,最后通过蕴含分类器输出最后文本蕴含分析的结果。
2.根据权利要求1所述的基于词语义关系与动态卷积神经网络的文本蕴含分析方法,其特征在于步骤1具体实现如下:
1-1对于需要进行文本蕴含分析的语料,将前提句的文本数据使用GloVe词向量模型转换成向量的表示P,P={p1,p2,...,pn},其中pi为第i个词的词向量表示形式,n为句子的长度;所述前提句与假设句的处理方式一致;
1-2将前提句和假设句的词向量进行关联建模,生成词的权重向量,其目的是让对推理有利的词获得更好的关系向量;其公式如下所示,
f(pi,qj)=W1(pi)Tqj+b1
其中W1和b1是可学习的参数,pi,qj分别为前提句的第i个词的词向量和假设句的第j个词的词向量,aij为前提句的词权重向量;
1-3利用词权重向量,将ConceptNet生成的初始词关系向量处理成词语义关系向量;其公式如下所示,
其中,p′i为前提句第i个词的词语义关系向量,rij为使用ConceptNet生成的前提句第i个词与假设句第j个词的词关系;
1-4将词语义关系向量嵌入到原本的词向量中,W=((p1,p′1),(p2,p′2),...,(pn,p′n)),其中W为前提句新的词向量矩阵。
3.根据权利要求2所述的基于词语义关系与动态卷积神经网络的文本蕴含分析方法,其特征在于步骤2具体实现如下:
2-1.对句子的词向量矩阵进行卷积操作,使用长度为5的滤波器对句子的词向量矩阵做滤波,同时采用补零法,在滤波器滤波过程中将落在词向量矩阵之外的元素都默认为零,虽然会使得输出特征图的宽度更宽,但是能更加有效的提取句子的句首和句尾信息,其公式如下所示,
C={k1,k2,..,ki,..,kf,W,k1,k2,..,ki,..,kf}
其中,ki为零向量,f为滤波器长度,W为前提句新的词向量矩阵,C为补零后的句子的词向量矩阵;
2-2.对补零后的句子的词向量矩阵,使用长度为5的滤波器滤波,提取语义特征图S,其公式如下:
5.根据权利要求4所述的基于词语义关系与动态卷积神经网络的文本蕴含分析方法,其特征在于步骤4具体实现如下:
将前提句与假设句卷积池化后生成的句子向量表示,通过连接u、v、u-v、u⊙v生成句子关系的表示,其中u为前提句的句子特征向量,v为假设句的句子特征向量;再将句子关系的表示利用300D的全连接层和3-类softmax输出层,输出最后文本蕴含的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010114403.4A CN111368026B (zh) | 2020-02-25 | 2020-02-25 | 基于词语义关系与动态卷积神经网络的文本蕴含分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010114403.4A CN111368026B (zh) | 2020-02-25 | 2020-02-25 | 基于词语义关系与动态卷积神经网络的文本蕴含分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111368026A CN111368026A (zh) | 2020-07-03 |
CN111368026B true CN111368026B (zh) | 2020-11-24 |
Family
ID=71206421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010114403.4A Active CN111368026B (zh) | 2020-02-25 | 2020-02-25 | 基于词语义关系与动态卷积神经网络的文本蕴含分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111368026B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414731B (zh) * | 2020-02-28 | 2023-08-11 | 北京小米松果电子有限公司 | 文本标注方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107578106A (zh) * | 2017-09-18 | 2018-01-12 | 中国科学技术大学 | 一种融合单词语义知识的神经网络自然语言推理方法 |
CN108399230A (zh) * | 2018-02-13 | 2018-08-14 | 上海大学 | 一种基于卷积神经网络的中文财经新闻文本分类方法 |
CN108717574A (zh) * | 2018-03-26 | 2018-10-30 | 浙江大学 | 一种基于连词标记和强化学习的自然语言推理方法 |
CN108829722A (zh) * | 2018-05-08 | 2018-11-16 | 国家计算机网络与信息安全管理中心 | 一种远程监督的Dual-Attention关系分类方法及系统 |
CN109766994A (zh) * | 2018-12-25 | 2019-05-17 | 华东师范大学 | 一种自然语言推理的神经网络架构 |
CN110390397A (zh) * | 2019-06-13 | 2019-10-29 | 成都信息工程大学 | 一种文本蕴含识别方法及装置 |
CN110516065A (zh) * | 2019-07-12 | 2019-11-29 | 杭州电子科技大学 | 一种基于多路动态掩码的注意力神经网络的方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109478204B (zh) * | 2016-05-17 | 2023-09-15 | 微软技术许可有限责任公司 | 非结构化文本的机器理解 |
US20180018573A1 (en) * | 2016-07-12 | 2018-01-18 | Xerox Corporation | Vector operators for distributional entailment |
CN106599933A (zh) * | 2016-12-26 | 2017-04-26 | 哈尔滨工业大学 | 一种基于联合深度学习模型的文本情感分类方法 |
CN109977393B (zh) * | 2017-12-28 | 2021-09-03 | 中国科学院计算技术研究所 | 一种基于内容争议性的流行新闻预测方法和系统 |
CN110472003B (zh) * | 2019-08-08 | 2022-02-22 | 东北大学 | 基于图卷积网络的社交网络文本情感细粒度分类方法 |
-
2020
- 2020-02-25 CN CN202010114403.4A patent/CN111368026B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107578106A (zh) * | 2017-09-18 | 2018-01-12 | 中国科学技术大学 | 一种融合单词语义知识的神经网络自然语言推理方法 |
CN108399230A (zh) * | 2018-02-13 | 2018-08-14 | 上海大学 | 一种基于卷积神经网络的中文财经新闻文本分类方法 |
CN108717574A (zh) * | 2018-03-26 | 2018-10-30 | 浙江大学 | 一种基于连词标记和强化学习的自然语言推理方法 |
CN108829722A (zh) * | 2018-05-08 | 2018-11-16 | 国家计算机网络与信息安全管理中心 | 一种远程监督的Dual-Attention关系分类方法及系统 |
CN109766994A (zh) * | 2018-12-25 | 2019-05-17 | 华东师范大学 | 一种自然语言推理的神经网络架构 |
CN110390397A (zh) * | 2019-06-13 | 2019-10-29 | 成都信息工程大学 | 一种文本蕴含识别方法及装置 |
CN110516065A (zh) * | 2019-07-12 | 2019-11-29 | 杭州电子科技大学 | 一种基于多路动态掩码的注意力神经网络的方法 |
Non-Patent Citations (3)
Title |
---|
Enhanced Answer Selection in CQA Using Multi-Dimensional Features Combination;Hongjie Fan 等;《Tsinghua Science and Technology》;20190129(第03期);346-359 * |
基于深度神经网络的英文文本蕴含识别研究;韩松伯;《中国优秀硕士学位论文全文数据库信息科技辑》;20181115(第11期);I138-579 * |
高效的分布式最小连通支配集近似算法;张旻 等;《计算机工程》;20081205;第34卷(第23期);139-141+163 * |
Also Published As
Publication number | Publication date |
---|---|
CN111368026A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111325028B (zh) | 一种基于深度分层编码的智能语义匹配方法和装置 | |
CN113255320A (zh) | 基于句法树和图注意力机制的实体关系抽取方法及装置 | |
CN108197294A (zh) | 一种基于深度学习的文本自动生成方法 | |
CN106951512A (zh) | 一种基于混合编码网络的端到端对话控制方法 | |
CN113868432B (zh) | 一种用于钢铁制造企业的知识图谱自动构建方法和系统 | |
CN112232053B (zh) | 一种基于多关键词对匹配的文本相似度计算系统、方法、及存储介质 | |
CN112163429B (zh) | 结合循环网络及bert的句子相关度获取方法、系统及介质 | |
CN101751385B (zh) | 一种采用层次管道过滤器体系结构的多语言信息抽取方法 | |
CN110210016A (zh) | 基于风格引导的双线性神经网络虚假新闻检测方法及系统 | |
CN110188775A (zh) | 一种基于联合神经网络模型的图像内容描述自动生成方法 | |
CN110765755A (zh) | 一种基于双重选择门的语义相似度特征提取方法 | |
CN112000772A (zh) | 面向智能问答基于语义特征立方体的句子对语义匹配方法 | |
CN114722820A (zh) | 基于门控机制和图注意力网络的中文实体关系抽取方法 | |
CN114791958B (zh) | 一种基于变分自编码器的零样本跨模态检索方法 | |
CN113705196A (zh) | 基于图神经网络的中文开放信息抽取方法和装置 | |
CN112463924B (zh) | 面向智能问答基于内部相关性编码的文本意图匹配方法 | |
CN115545041B (zh) | 一种增强医疗语句语义向量表示的模型构造方法及系统 | |
CN113157919A (zh) | 语句文本方面级情感分类方法及系统 | |
CN112394973A (zh) | 一种基于伪孪生网络的多语言代码剽窃检测方法 | |
CN113468854A (zh) | 一种多文档自动摘要生成方法 | |
CN114781651A (zh) | 基于对比学习的小样本学习鲁棒性提升方法 | |
CN111368026B (zh) | 基于词语义关系与动态卷积神经网络的文本蕴含分析方法 | |
CN111444328A (zh) | 一种带有解释生成的自然语言自动预测推断方法 | |
CN113312498B (zh) | 用无向图嵌入知识图谱的文本信息抽取方法 | |
CN114638228A (zh) | 一种基于词集自注意力的中文命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |