CN110298037A - 基于增强注意力机制的卷积神经网络匹配的文本识别方法 - Google Patents
基于增强注意力机制的卷积神经网络匹配的文本识别方法 Download PDFInfo
- Publication number
- CN110298037A CN110298037A CN201910510842.4A CN201910510842A CN110298037A CN 110298037 A CN110298037 A CN 110298037A CN 201910510842 A CN201910510842 A CN 201910510842A CN 110298037 A CN110298037 A CN 110298037A
- Authority
- CN
- China
- Prior art keywords
- sentence
- vector
- attention
- convolutional neural
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,该方法包括:步骤1:对输入文本进行预处理,并根据文本语料预训练得到初始词向量;步骤2:利用初始词向量将输入文本中的句子转化为由初始词向量组成的矩阵;步骤3:通过带有增强注意力机制的卷积神经网络对矩阵进行编码并生成低维度句向量;步骤4:获取两两句子各自对应低维度句向量的相关性,并根据相关性结果对整体文本进行识别。与现有技术相比,本发明避免了两个句子在句子建模的过程中完全独立的缺点,在卷积神经网络获取局部上下文信息的基础上加入另一句子中相关的注意力信息,使两个句子间尽早的进行交互,并且结合了不同大小的卷积核所得到的多粒度信息。
Description
技术领域
本发明涉及人工智能与自然语言处理技术领域,尤其是涉及一种基于增强注意力机制的卷积神经网络匹配的文本识别方法。
背景技术
随着大数据时代的到来,每天都会产生海量的数据,这些数据中隐藏着大量的无关数据。使用人工的方式一一查看这些数据显然已经是不可能的。如何从这些数据中快速的过滤掉垃圾信息、迅速搜索到用户需要的内容,成为了人们越来越急迫的问题。目前,各种深度学习的技术已经广泛应用于各类自然语言处理任务中。句子匹配任务,是实现自然语言处理的基础任务。所谓句子匹配,就是计算出两个句子在语义上的关系。对论文进行抄袭检测,智能客服中的问句配对,基于答案库的简单的问答系统,使用搜索引擎进行信息检索,根据用户需求从海量文本中找到符合用户需求的相关文本等等应用都是基于文本间的语义匹配实现的。所以掌握文本相似度计算的技术,是完善自然语言处理问题的关键。
句子匹配主要包括句子相似度计算、问答匹配和自然语言推理三类。句子相似度计算用于判断两个句子是否表达相同的含义或意图。问答匹配通过问题和候选答案的相关性计算,对候选答案进行排序。自然语言推理判断前提和假设文本间是否具有蕴含关系。传统的句子匹配模型包括词袋模型和特征工程等,通常依赖于句子的词汇特征而忽略了句子的语义。
近年来,随着大规模数据集的不断发展和计算机处理能力的快速提升,深度神经网络得到了越来越广泛的应用,并且取得了很好的效果。当前对句子对进行建模的神经网络模型通常使用与训练好的词向量作为输入,通过结构和权重完全相同的孪生网络将两个句子词向量转换为低维的句子向量,然后再计算出两个句子向量间的相关性。但是这种方法使得两个句子的句子向量在生成的过程中完全独立。为了增加句子间的交互,模型逐渐引入了注意力机制。但是目前大部分注意力机制都应用于循环神经网络中,其在卷积神经网络中的表现并没有达到像循环神经网络那样惊人的效果。虽然循环神经网络在自然语言处理中的效果通常要比卷积神经网络好,但是它对时间数列数据的处理无法并行化,导致速度上要慢于卷积神经网络。所以,对卷积神经网络的研究依旧是非常必要的。
注意力机制在卷积神经网络中的应用主要是在注意力池化上。所谓注意力池化,是计算卷积操作后得到的两个句子中各个单词的向量之间的相似度得分作为注意力权重,再对句子中各个单词的卷积向量进行注意力权重的加权求和得到句子向量。这种注意力机制的方法能够使得两个句子中更重要的词获得更大的权重,但是实际上并没有加入另一个句子实质性的交互信息。另外,在句子匹配任务中,相比池化操作,用于提取出特征的卷积操作更重要。但是目前常见的注意力机制都忽略了卷积操作。所以,注意力机制在卷积神经网络中,没有发挥其应有的效果,导致实际在论文查重、搜索引擎和智能客服系统中应对复杂文本的处理上与数据库中的识别配对准确度仍不够高。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于增强注意力机制的卷积神经网络匹配的文本识别方法。
本发明的目的可以通过以下技术方案来实现:
一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,该方法包括以下步骤:
步骤1:对输入文本进行预处理,并根据文本语料预训练得到初始词向量;
步骤2:利用初始词向量将输入文本中的句子转化为由初始词向量组成的矩阵;
步骤3:通过用于增加文本句子间交互信息的带有增强注意力机制的卷积神经网络对矩阵进行处理并得到低维度句向量;
步骤4:对输入文本的句子各自对应低维度句向量进行匹配,并最终对带有匹配结果的输入文本与数据库中的数据进行识别并输出数据库中对应识别文本。
进一步地,所述的步骤1中的预处理包括对句子进行分词和去除停用词,所述步骤1中的预训练包括将经过预处理的文本输入至语言模型中得到初始词向量。
进一步地,所述步骤3中的增强注意力机制包括多窗口的词向量注意力编码、注意力卷积和多视角的相似度计算层。
进一步地,所述多窗口的词向量注意力编码具体包括:在卷积神经网络的卷积操作之前,对词向量进行增强注意力的编码,使用不同大小的窗口获取词向量上下文的信息,并计算每个词向量与另一个句子的传统注意力向量,利用相关性度量,在原始词向量中加入一部分上下文以及句子间的相关信息以增强词向量,使其既包含本身的信息又包含另一个句子的有用信息。
进一步地,所述注意力卷积具体包括:在原始上下文特征的基础上加入了另一个句子与之相关的最终的注意力向量以及多视角的匹配向量以使得在句子编码的过程中,融合了另一个句子的信息。
进一步地,所述多视角的相似度计算层具体包括:将各种卷积核得到的卷积向量进行相似度计算,得到多个不同视角的相似度后通过深度卷积网络对其进行提取得到相似度特征,利用原卷积操作得到的向量最大池化的结果与相似度特征拼接以得到最终句向量。
进一步地,所述最终的注意力向量为:
式中,表示最终的注意力向量,表示传统注意力向量,表示最大注意力向量,表示词向量,-表示元素级的减法,·表示元素级的乘法。
进一步地,所述多视角的匹配向量为:
式中,表示多视角的匹配向量,表示全局信息匹配向量,表示注意力匹配向量,表示最大注意力匹配向量。
进一步地,所述步骤4中的对输入文本的句子各自对应低维度句向量进行匹配按照句子匹配的具体任务分为两种:
种类1:对于句子匹配中的分类问题,将两个句子向量拼接起来形成新的向量,并通过多层全连接层进行特征提取,最后一层神经元的个数为分类的类别数,最后输出分类结果,其对应的描述公式为:
其中,yi表示正确的标签,表示预测的标签值,N为自然数;
种类2:对于句子匹配中的问题-答案对相关性排序任务,直接计算两个句子向量间的余弦相似度作为最终的预测结果,并按照相似度对候选答案进行排序并输出排序结果,其对应的描述公式为:
其中,M取0~1内表示边界值,表示真确答案,表示错误答案,rQ表示问题。
本发明的基本原理如下:
首先,将输入的句子对文本转换为预训练好的词向量;然后,通过基于增强注意力机制的卷积神经网络进行句子建模,生成句子向量;最后,计算两个句子向量间的相关性作为最后的输出结果。目前,虽然注意力机制在自然语言处理中得到了广泛的应用,但是在句子匹配任务中卷积神经网络的注意力机制主要集中在注意力池化操作上。注意力池化只是计算了两个句子各个单词间的匹配得分,并未加入实质性的交互信息,所以并未带来很大的提升。为解除注意力机制在卷积网络中的限制,本发明充分利用了卷积神经网络的特点设计了相应的增强注意力策略。本发明主要由多窗口的词向量注意力编码、注意力卷积和多视角的相似度计算层三种增强注意力方法组成。多窗口的词向量注意力编码,通过上下文信息与另一句子中的相关信息,利用相关性度量对词向量进行编码。注意力卷积,卷积操作中加入了两个句子间的交互信息以及相应的匹配向量。多视角的相似度计算层,计算不同卷积核大小得到的向量间的相似度。与现有技术相比,本发明避免了两个句子在句子建模的过程中完全独立的缺点,在卷积神经网络获取局部上下文信息的基础上加入另一句子中相关的注意力信息,使两个句子间尽早的进行交互,并且结合了不同大小的卷积核所得到的多粒度信息。本发明充分利用卷积的特性,有效提升了注意力机制在卷积神经网络中的性能。并且本发明可应用于句子对相似度计算、问答匹配和自然语言推理等各类句子匹配任务中,可扩展性强。
与现有技术相比,本发明具有以下优点:
(1)本发明方法中的第一步骤:对输入文本进行预处理,并根据文本语料预训练得到初始词向量,对原始文本数据进行预处理,去除了一定的无用信息。并且根据相应的任务语料训练词向量,使得词向量更能反映该任务的语义特征。
(2)本发明方法中的第三步骤:通过带有增强注意力机制的卷积神经网络对词向量进行编码并生成低维度句向量,增强注意力机制充分利用卷积的特性,增加了模型中句子之间的交互,使得注意力机制在卷积神将网络中的性能显著提升。
(3)本发明方法中增强注意力机制包括了多窗口的词向量注意力编码、注意力卷积和多视角的相似度计算层,其中多窗口的词向量注意力编码与注意力卷积融合了上下文信息与句子间的交互信息,在句子建模的过程中加入了另一个句子的信息,能够增强语义相近的单词间的特征。
(4)本发明方法中增强注意力机制包括了多窗口的词向量注意力编码、注意力卷积和多视角的相似度计算层,其中多视角的相似度计算层,结合了不同大小的卷积核所得到的信息,综合了单词级到不同大小的词组级的多粒度相似度信息。
(5)本发明方法步骤3:通过带有增强注意力机制的卷积神经网络对词向量进行编码并生成低维度句向量;集合步骤4:获取两两句子各自对应低维度句向量的相关性,并根据相关性结果对整体文本进行识别,获取句子向量后,可根据不同的任务要求对输出层进行调整,适应各类句子匹配的任务,具有可扩展性强的特点。
附图说明
图1为本发明的整体方法流程图;
图2为本发明的方法技术框架图;
图3为本发明方法中的多窗口的词向量注意力编码结构图;
图4为本发明方法中的注意力卷积结构图;
图5为本发明方法中的多视角的相似度计算层结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
如图1所示为本发明方法的流程图,包括以下步骤:
步骤1:对输入文本进行预处理,并根据文本语料预训练得到初始词向量;
步骤2:利用初始词向量将输入文本中的句子转化为由初始词向量组成的矩阵;
步骤3:通过用于增加文本句子间交互信息的带有增强注意力机制的卷积神经网络对矩阵进行处理并得到低维度句向量;
步骤4:对输入文本的句子各自对应低维度句向量进行匹配,并最终对带有匹配结果的输入文本与数据库中的数据进行识别并输出数据库中对应识别文本。
本发明的目的就是为了解决句子匹配上述现有方法存在的缺陷而提供的应用于卷积神经网络中的增强注意力策略,其能够充分利用卷积的特点,使得注意力机制在卷积神经网络中得到更好的效果,并且易于扩展。技术框架如图2所示。
本发明主要包括输入层、句子建模层和输出层三大模块。模型输入为两个句子,使用相同权重和相同结构的孪生结构的网络分别对两个句子进行编码,得到相应的句子向量。在句子建模的过程中,在卷积神经网络中加入了增强注意力机制,充分利用了卷积的特性,使得两个句子间的信息得到交互,从而提升模型的性能。最后计算两个句子向量之间的相关性,输出两个句子间的匹配结果。
具体模块架构如下:
第一部分是输入层:首先需要对任务数据进行预处理,将其处理成模型所需的形式。使用分词工具对文本进行分词,分词完成后去除文本中常见但是不重要的停用词。然后将文本输入到语言模型中,利用语言模型进行无监督训练得到相应的初始词向量。在输入层中,所有的句子都填充或截断至固定长度,然后将输入的句子对单词序列转换为对应的词向量和其中和分别表示句子X和Y中第i和第j个单词对应的d维词向量,n为句子的长度。词向量的值可以选择在训练过程中固定,也可以选择根据训练不断调整更新。
第二部分是句子建模层:得到了词向量后,需要将句子的词向量转换成低维的句子向量,从而得到句子的语义特征。传统的卷积神经网络主要通过卷积操作提取出上下文的特征,然后通过最大池化找出最重要的特征作为句子向量。这种句子建模的方法使得两个句子在编码过程中完全独立。本发明提出的增强注意力机制能够使得两个句子间尽可能的产生交互。本发明共有三种注意力策略,可以在模型中单独使用,或者混合使用,均能有效地提升模型的性能。具体的增强注意力方法如下:
1、多窗口的词向量注意力编码:此增强注意力策略应用于卷积操作之前,对词向量进行进一步的编码。首先利用不同大小的卷积窗口获取上下文信息。再计算该词的词向量与另一个句子的所有词向量之间的相似度,对另一个句子的词向量进行相似度的注意力加权求和得到与之相关的注意力向量。然后计算出上下文信息与交互信息的相关度,从而将两类信息融合起来。得到的向量与原始词向量拼接得到新的增强后的词向量。
2、注意力卷积:此增强注意力策略可代替原始的卷积操作,在卷积的同时加入对应的注意力向量以及多视角的匹配向量。注意力向量如上所述,匹配向量是指通过将词向量和另一个句子与其相关的向量映射到l个视角后,计算得到l个余弦相似度组成的向量。
3、多视角的相似度计算层:此增强注意力策略应用于卷积操作之后。一般的相似度计算层只计算相同大小的卷积核得到的向量之间的相似度。多视角的相似度计算层将各种大小的卷积核得到的向量都进行了相似度计算,得到多个不同视角的相似度特征,使模型能够反映不同单词个数构成的但语义相近的词组之间的关系。得到多视角的相似度矩阵后,为了提取出更上层的特征,分别对两个句子的相似度矩阵使用一个深度卷积网络进行特征精选。对原卷积操作后得到的向量进行最大池化,然后将精选后的特征与池化后的向量拼接,形成最终的句子向量。
第三部分是输出层:获得两个句子的句子向量后,需要计算两个句子之间的相关性。计算方法根据具体的句子匹配任务要求而定。对于句子相似度计算和自然语言推理这样的分类任务,将两个句子向量拼接起来,再通过多个全连接层进行特征提取,最后输出属于每类的概率。对于问答匹配这样的对候选答案进行相关性排序的任务,直接计算两个句子向量之间的余弦相似度来表示其相关性。
具体实施例如下:
首先对文本数据进行分词和去停用词的预处理。将分词后的文本使用语言模型训练出每个词的词向量,词向量的维度可取100维或300维。词向量的维数用d表示。每个输入的句子都通过填充0或者截断的方法缩放到固定的长度n,n为句子的平均长度或训练集句子的最大长度。
卷积核大小为k的窗口可定义为:其中表示句子X中位置i对应的窗口,即以第i个单词为中心的相邻的k个词向量。传统的卷积神经网络句子匹配模型提取窗口特征的方法如下:
从而获取上下文的信息。卷积核的大小选择2、3、4和5。然后通过最大池化操作,获取最重要的特征作为句子向量。本发明就是在此卷积神经网络的基础上添加注意力机制,以增强两个句子之间的交互,提升模型的性能。
注意力向量是两个句子信息交互的关键。本发明中使用了两类注意力向量,包括传统注意力向量和最大注意力向量。注意力向量表示句子Y中与句子X的第i个单词相关的内容的向量表示。对两个句子各个词向量间进行点乘操作作为相似度度量,在对其进行归一化得到对应的注意力权重:
传统注意力向量是对句子Y中所有词向量根据注意力权重加权求和得到的向量:
最大注意力向量是句子Y中注意力权重最大的词向量,从而提取出最重要的信息:
通过拼接两种注意力向量并且加入注意力向量与原始词向量的差和积形成最终的注意力向量:
式中,表示最终的注意力向量,表示传统注意力向量,表示最大注意力向量,表示词向量,-表示元素级的减法,·表示元素级的乘法。
在本发明中,匹配向量不是简单的计算两个句子间的余弦相似度,而是对两个句子进行多角度的匹配。我们根据上述的两类注意力向量,选择了三种匹配策略应用于模型中,分别为全匹配,注意力匹配和最大注意力匹配。表示将向量映射到l=20个视角的可训练的权重,每一行控制不同的角度。对于全匹配,句子X的每个词向量与句子Y的向量表示进行比较,来获取全局的信息。这里使用的是是句子中所有词向量的平均值来表示句子Y的向量:
对于注意力匹配和最大注意力匹配,将词向量与句子Y对应的传统注意力向量和最大注意力向量进行匹配:
最终连接这三类匹配向量,作为最终的多视角匹配向量:
式中,表示多视角的匹配向量,表示全局信息匹配向量,表示注意力匹配向量,表示最大注意力匹配向量。
多窗口的词向量注意力编码的结构如图3所示,用于卷积操作之前。通过融合词向量的上下文信息以及另一个句子的相关信息,对原始词向量进行增强。首先通过卷积操作获取词向量的上下文信息再通过上述方法计算出该词向量的传统注意力向量然后利用加法的注意力机制计算出注意力向量与该词向量之间的相关性。将与之相关的注意力向量与包含上下文信息的卷积向量按照相关性融合起来,得到增强的词向量编码。具体公式如下:
其中σ为S型生长曲线(Sigmoid),从而获取0到1之间的相关度g。 和为需要训练的权重,为需要训练的偏置项。本发明选择多种不同大小的窗口获取多粒度的特征,窗口大小设为1到5。最后,将多窗口得到的增强注意力词向量与原始词向量进行拼接,得到最终的词向量。
注意力卷积的结构如图4所示,用于替代原始的卷积操作。上述传统的卷积神经网络中的卷积操作只用来提取每个单词上下文的信息,使得句子建模的过程完全独立。注意力卷积在卷积操作中加入了相关的注意力向量和匹配向量,具体公式如下:
其中,f表示线性整流函数(Relu),以及为需要训练的参数。这样在句子建模的过程中就融入了另一句子的相关信息,包括注意力信息和多视角的匹配信息。
多视角的相似度计算层的结构如图5所示,用于卷积操作之后。这里同样使用点乘计算向量间的相似度。常用的相似度计算通过计算句子X相同卷积核大小卷积之后的向量间的相似度,并且对匹配得分进行归一化:
相似度矩阵M的第k列表示句子X中所有单词关于句子Y中的第k个单词之间的重要性。但是因为卷积操作时使用了不同大小的卷积核,获取了不同范围的上下文信息。为了体现不同大小但语义相近的词组之间的关系,使用多视角的相似度计算层,将不同卷积核得到的结果都进行了相似度计算,进一步保证了卷积网络的优势:
其中,K是卷积核大小的列表。例如,如果卷积核大小为2、3和4,两个句子不同大小间进行两两匹配可以计算得到9个相似度矩阵。再将所有的相似度矩阵看成是|K|2通道数的图片,通过一个深度的卷积网络对其进行特征提取。深度网络由五个卷积核为3×3的卷积层和一个池化窗口为2×2、步长为2的最大池化层组成。最后将深度网络输出的相似度特征向量化,与原始句子编码时采用的卷积经过最大池化后的向量拼接起来,作为最终的句子向量。
上文所述的各类增强注意力机制的计算方法都是以句子X为例,因为使用孪生结构的网络,句子Y的操作完全相同。这三种增强注意力策略可单独使用或者混合使用,均能得到比传统卷积神经网络和加入注意力池化的卷积网络更优的性能。
使用基于增强注意力机制的卷积神经网络进行句子建模之后,得到了两个句子各自的句子向量,需要计算两个句子向量间的相关性。对于自然语言推理和相似度计算这样的分类任务,输出两个句子属于每一类的概率。将两个句子向量拼接起来,然后通过两层400维的全连接层进行特征提取。为了防止过拟合,全连接层之间都加入批归一化操作。最后一层全连接层的神经元个数为类别数,使用归一化指数函数(softmax)作为激活函数。最终输出句子对属于每一类别的个数。对于该类任务使用交叉熵作为损失函数:
其中,yi表示正确的标签,表示预测的标签值。对于问答匹配这样的对候选答案进行相关性排序的任务,直接计算两个句子间的余弦相似度。训练过程中,输入为问题与候选答案中的一个正确答案和一个错误答案。使用过程中,直接输入问题-答案对即可,模型输出问答对的相关性。对于该类任务使用最大间隔损失函数:
其中,M,取值范围为0~1之间,本实施例设为0.15表示边界值,表示真确答案,表示错误答案,rQ表示问题。该损失函数能够使得问题与正确答案间的相似性比错误答案高。
在训练过程中,使用学习率为0.001的Adam优化器。对于大型数据集批处理的大小(batch size)设为128,小型数据集设为64。在使用过程中,将句子对按照上述要求处理成相应格式后,输入到基于增强注意力的卷积神经网络模型中,即可输出相应的预测结果。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (9)
1.一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,其特征在于,该方法包括以下步骤:
步骤1:对输入文本进行预处理,并根据文本语料预训练得到初始词向量;
步骤2:利用初始词向量将输入文本中的句子转化为由初始词向量组成的矩阵;
步骤3:通过用于增加文本句子间交互信息的带有增强注意力机制的卷积神经网络对矩阵进行处理并得到低维度句向量;
步骤4:对输入文本的句子各自对应低维度句向量进行匹配,并最终对带有匹配结果的输入文本与数据库中的数据进行识别并输出数据库中对应识别文本。
2.根据权利要求1所述的一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,其特征在于,所述的步骤1中的预处理包括对句子进行分词和去除停用词,所述步骤1中的预训练包括将经过预处理的文本输入至语言模型中得到初始词向量。
3.根据权利要求1所述的一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,其特征在于,所述步骤3中的增强注意力机制包括多窗口的词向量注意力编码、注意力卷积或多视角的相似度计算层。
4.根据权利要求3所述的一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,其特征在于,所述多窗口的词向量注意力编码具体包括:在卷积神经网络的卷积操作之前,对词向量进行增强注意力的编码,使用不同大小的窗口获取词向量上下文的信息,并计算每个词向量与另一个句子的传统注意力向量,利用相关性度量,在原始词向量中加入一部分上下文以及句子间的相关信息以增强词向量,使其既包含本身的信息又包含另一个句子的有用信息。
5.根据权利要求3所述的一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,其特征在于,所述注意力卷积具体包括:在原始上下文特征的基础上加入了另一个句子与之相关的最终的注意力向量以及多视角的匹配向量以使得在句子编码的过程中,融合了另一个句子的信息。
6.根据权利要求3所述的一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,其特征在于,所述多视角的相似度计算层具体包括:将各种卷积核得到的卷积向量进行相似度计算,得到多个不同视角的相似度后通过深度卷积网络对其进行提取得到相似度特征,利用原卷积操作得到的向量最大池化的结果与相似度特征拼接以得到最终句向量。
7.根据权利要求5所述的一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,其特征在于,所述最终的注意力向量为:
式中,表示最终的注意力向量,表示传统注意力向量,表示最大注意力向量,表示词向量,-表示元素级的减法,·表示元素级的乘法。
8.根据权利要求5所述的一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,其特征在于,所述多视角的匹配向量为:
式中,表示多视角的匹配向量,表示全局信息匹配向量,表示注意力匹配向量,表示最大注意力匹配向量。
9.根据权利要求1所述的一种基于增强注意力机制的卷积神经网络匹配的文本识别方法,其特征在于,所述步骤4中的对输入文本的句子各自对应低维度句向量进行匹配按照句子匹配的具体任务分为两种:
种类1:对于句子匹配中的分类问题,将两个句子向量拼接起来形成新的向量,并通过多层全连接层进行特征提取,最后一层神经元的个数为分类的类别数,最后输出分类结果,其对应的描述公式为:
其中,yi表示正确的标签,表示预测的标签值,N为自然数;
种类2:对于句子匹配中的问题-答案对相关性排序任务,直接计算两个句子向量间的余弦相似度作为最终的预测结果,并按照相似度对候选答案进行排序并输出排序结果,其对应的描述公式为:
其中,M取0~1内表示边界值,表示真确答案,表示错误答案,rQ表示问题。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910510842.4A CN110298037B (zh) | 2019-06-13 | 2019-06-13 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910510842.4A CN110298037B (zh) | 2019-06-13 | 2019-06-13 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110298037A true CN110298037A (zh) | 2019-10-01 |
CN110298037B CN110298037B (zh) | 2023-08-04 |
Family
ID=68028000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910510842.4A Active CN110298037B (zh) | 2019-06-13 | 2019-06-13 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110298037B (zh) |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110765755A (zh) * | 2019-10-28 | 2020-02-07 | 桂林电子科技大学 | 一种基于双重选择门的语义相似度特征提取方法 |
CN110781680A (zh) * | 2019-10-17 | 2020-02-11 | 江南大学 | 基于孪生网络和多头注意力机制的语义相似度匹配方法 |
CN110826298A (zh) * | 2019-11-13 | 2020-02-21 | 北京万里红科技股份有限公司 | 一种智能辅助定密系统中使用的语句编码方法 |
CN110826325A (zh) * | 2019-11-04 | 2020-02-21 | 创新工场(广州)人工智能研究有限公司 | 一种基于对抗训练的语言模型预训练方法、系统及电子设备 |
CN110874392A (zh) * | 2019-11-20 | 2020-03-10 | 中山大学 | 基于深度双向注意力机制的文本网络信息融合嵌入方法 |
CN110888944A (zh) * | 2019-11-20 | 2020-03-17 | 中山大学 | 基于多卷积窗尺寸注意力卷积神经网络实体关系抽取方法 |
CN111080513A (zh) * | 2019-10-24 | 2020-04-28 | 天津中科智能识别产业技术研究院有限公司 | 一种基于注意力机制的人脸图像超分辨率方法 |
CN111126037A (zh) * | 2019-12-18 | 2020-05-08 | 昆明理工大学 | 一种基于孪生循环神经网络的泰文句子切分方法 |
CN111128390A (zh) * | 2019-12-20 | 2020-05-08 | 昆明理工大学 | 一种基于骨科症状特征选取的文本处理方法 |
CN111259113A (zh) * | 2020-01-15 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 文本匹配方法、装置、计算机可读存储介质和计算机设备 |
CN111401554A (zh) * | 2020-03-12 | 2020-07-10 | 交叉信息核心技术研究院(西安)有限公司 | 支持多粒度稀疏与多模式量化的卷积神经网络的加速器 |
CN111460142A (zh) * | 2020-03-06 | 2020-07-28 | 南京邮电大学 | 一种基于自注意力卷积神经网络的短文本分类方法及系统 |
CN111523301A (zh) * | 2020-06-05 | 2020-08-11 | 泰康保险集团股份有限公司 | 合同文档合规性检查方法及装置 |
CN111581379A (zh) * | 2020-04-28 | 2020-08-25 | 电子科技大学 | 一种基于作文扣题度的自动作文评分计算方法 |
CN111783879A (zh) * | 2020-07-01 | 2020-10-16 | 中国人民解放军国防科技大学 | 基于正交注意力机制的层次化压缩图匹配方法及系统 |
CN111783430A (zh) * | 2020-08-04 | 2020-10-16 | 腾讯科技(深圳)有限公司 | 句对匹配率的确定方法、装置、计算机设备和存储介质 |
CN112084782A (zh) * | 2020-09-14 | 2020-12-15 | 成都数联铭品科技有限公司 | 一种基于能量增强的注意力网络的答案识别方法及系统 |
CN112085091A (zh) * | 2020-09-07 | 2020-12-15 | 中国平安财产保险股份有限公司 | 基于人工智能的短文本匹配方法、装置、设备及存储介质 |
CN112115253A (zh) * | 2020-08-17 | 2020-12-22 | 北京计算机技术及应用研究所 | 基于多视角注意力机制的深度文本排序方法 |
CN112133287A (zh) * | 2020-11-24 | 2020-12-25 | 北京世纪好未来教育科技有限公司 | 语音识别模型训练方法、语音识别方法及相关装置 |
CN112149644A (zh) * | 2020-11-09 | 2020-12-29 | 西北工业大学 | 基于全局特征指导的二维注意力机制文本识别方法 |
CN112434514A (zh) * | 2020-11-25 | 2021-03-02 | 重庆邮电大学 | 基于多粒度多通道的神经网络的语义匹配方法、装置及计算机设备 |
CN112434128A (zh) * | 2020-11-17 | 2021-03-02 | 东南大学 | 基于分层匹配注意力机制的问答文本属性类别分类方法 |
CN112559820A (zh) * | 2020-12-17 | 2021-03-26 | 中国科学院空天信息创新研究院 | 基于深度学习的样本数据集智能出题方法、装置及设备 |
CN112633008A (zh) * | 2020-12-28 | 2021-04-09 | 中国石油大学(华东) | 基于多特征注意力的卷积神经网络句子相似度计算方法 |
CN112699679A (zh) * | 2021-03-25 | 2021-04-23 | 北京沃丰时代数据科技有限公司 | 情绪识别方法、装置、电子设备及存储介质 |
CN112749566A (zh) * | 2019-10-31 | 2021-05-04 | 兰雨晴 | 一种面向英文写作辅助的语义匹配方法及装置 |
CN112860867A (zh) * | 2021-02-25 | 2021-05-28 | 电子科技大学 | 一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质 |
CN112988921A (zh) * | 2019-12-13 | 2021-06-18 | 北京四维图新科技股份有限公司 | 地图信息变化的识别方法和装置 |
CN113051929A (zh) * | 2021-03-23 | 2021-06-29 | 电子科技大学 | 一种基于细粒度语义信息增强的实体关系抽取的方法 |
CN113076127A (zh) * | 2021-04-25 | 2021-07-06 | 南京大学 | 编程环境下问答内容的提取方法、系统、电子设备及介质 |
CN113239678A (zh) * | 2021-04-02 | 2021-08-10 | 南京邮电大学 | 一种面向答案选择的多角度注意力特征匹配方法及系统 |
CN113342940A (zh) * | 2021-06-24 | 2021-09-03 | 中国平安人寿保险股份有限公司 | 文本匹配分析方法、装置、电子设备及存储介质 |
CN113673483A (zh) * | 2021-09-07 | 2021-11-19 | 天津大学 | 一种基于深度神经网络的多视角多目标关联方法 |
CN113761935A (zh) * | 2021-08-04 | 2021-12-07 | 厦门快商通科技股份有限公司 | 一种短文本语义相似度度量方法、系统及装置 |
CN114330355A (zh) * | 2020-10-09 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、电子设备及存储介质 |
CN114519357A (zh) * | 2022-01-17 | 2022-05-20 | 天津大学 | 基于机器学习的自然语言处理方法和系统 |
WO2022141844A1 (zh) * | 2020-12-31 | 2022-07-07 | 平安科技(深圳)有限公司 | 文本纠错方法、装置、设备及可读存储介质 |
CN115035912A (zh) * | 2022-06-08 | 2022-09-09 | 哈尔滨工程大学 | 基于moc模型的水声信号样本自动标注方法 |
CN116226357A (zh) * | 2023-05-09 | 2023-06-06 | 武汉纺织大学 | 一种输入中包含错误信息场景下的文档检索方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170278510A1 (en) * | 2016-03-22 | 2017-09-28 | Sony Corporation | Electronic device, method and training method for natural language processing |
CN107578106A (zh) * | 2017-09-18 | 2018-01-12 | 中国科学技术大学 | 一种融合单词语义知识的神经网络自然语言推理方法 |
CN108052588A (zh) * | 2017-12-11 | 2018-05-18 | 浙江大学城市学院 | 一种基于卷积神经网络的文档自动问答系统的构建方法 |
CN108717439A (zh) * | 2018-05-16 | 2018-10-30 | 哈尔滨理工大学 | 一种基于注意力机制和特征强化融合的中文文本分类方法 |
US20190005946A1 (en) * | 2017-06-28 | 2019-01-03 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for correcting speech recognition result, device and computer-readable storage medium |
CN109214001A (zh) * | 2018-08-23 | 2019-01-15 | 桂林电子科技大学 | 一种中文语义匹配系统及方法 |
CN109299262A (zh) * | 2018-10-09 | 2019-02-01 | 中山大学 | 一种融合多粒度信息的文本蕴含关系识别方法 |
CN109299462A (zh) * | 2018-09-20 | 2019-02-01 | 武汉理工大学 | 基于多维卷积特征的短文本相似度计算方法 |
CN109389091A (zh) * | 2018-10-22 | 2019-02-26 | 重庆邮电大学 | 基于神经网络和注意力机制结合的文字识别系统及方法 |
CN109522557A (zh) * | 2018-11-16 | 2019-03-26 | 中山大学 | 文本关系抽取模型的训练方法、装置及可读存储介质 |
CN109858032A (zh) * | 2019-02-14 | 2019-06-07 | 程淑玉 | 融合Attention机制的多粒度句子交互自然语言推理模型 |
-
2019
- 2019-06-13 CN CN201910510842.4A patent/CN110298037B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170278510A1 (en) * | 2016-03-22 | 2017-09-28 | Sony Corporation | Electronic device, method and training method for natural language processing |
US20190005946A1 (en) * | 2017-06-28 | 2019-01-03 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for correcting speech recognition result, device and computer-readable storage medium |
CN107578106A (zh) * | 2017-09-18 | 2018-01-12 | 中国科学技术大学 | 一种融合单词语义知识的神经网络自然语言推理方法 |
CN108052588A (zh) * | 2017-12-11 | 2018-05-18 | 浙江大学城市学院 | 一种基于卷积神经网络的文档自动问答系统的构建方法 |
CN108717439A (zh) * | 2018-05-16 | 2018-10-30 | 哈尔滨理工大学 | 一种基于注意力机制和特征强化融合的中文文本分类方法 |
CN109214001A (zh) * | 2018-08-23 | 2019-01-15 | 桂林电子科技大学 | 一种中文语义匹配系统及方法 |
CN109299462A (zh) * | 2018-09-20 | 2019-02-01 | 武汉理工大学 | 基于多维卷积特征的短文本相似度计算方法 |
CN109299262A (zh) * | 2018-10-09 | 2019-02-01 | 中山大学 | 一种融合多粒度信息的文本蕴含关系识别方法 |
CN109389091A (zh) * | 2018-10-22 | 2019-02-26 | 重庆邮电大学 | 基于神经网络和注意力机制结合的文字识别系统及方法 |
CN109522557A (zh) * | 2018-11-16 | 2019-03-26 | 中山大学 | 文本关系抽取模型的训练方法、装置及可读存储介质 |
CN109858032A (zh) * | 2019-02-14 | 2019-06-07 | 程淑玉 | 融合Attention机制的多粒度句子交互自然语言推理模型 |
Non-Patent Citations (6)
Title |
---|
YANG XIANG等: "Answer Selection in Community Question Answering via Attentive Neural Networks", 《IEEE》 * |
YANG XIANG等: "Answer Selection in Community Question Answering via Attentive Neural Networks", 《IEEE》, 2 March 2017 (2017-03-02) * |
李天时等: "基于外部记忆单元和语义角色知识的文本复述判别模型", 《中文信息学报 》 * |
李天时等: "基于外部记忆单元和语义角色知识的文本复述判别模型", 《中文信息学报 》, vol. 31, no. 6, 15 November 2017 (2017-11-15) * |
邓憧: "基于CNN语义匹配的自动问答系统构建方法研究", 《信息科技辑》 * |
邓憧: "基于CNN语义匹配的自动问答系统构建方法研究", 《信息科技辑》, 15 February 2018 (2018-02-15), pages 0021 * |
Cited By (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781680A (zh) * | 2019-10-17 | 2020-02-11 | 江南大学 | 基于孪生网络和多头注意力机制的语义相似度匹配方法 |
CN110781680B (zh) * | 2019-10-17 | 2023-04-18 | 江南大学 | 基于孪生网络和多头注意力机制的语义相似度匹配方法 |
CN111080513B (zh) * | 2019-10-24 | 2023-12-26 | 天津中科智能识别产业技术研究院有限公司 | 一种基于注意力机制的人脸图像超分辨率方法 |
CN111080513A (zh) * | 2019-10-24 | 2020-04-28 | 天津中科智能识别产业技术研究院有限公司 | 一种基于注意力机制的人脸图像超分辨率方法 |
CN110765755A (zh) * | 2019-10-28 | 2020-02-07 | 桂林电子科技大学 | 一种基于双重选择门的语义相似度特征提取方法 |
CN112749566A (zh) * | 2019-10-31 | 2021-05-04 | 兰雨晴 | 一种面向英文写作辅助的语义匹配方法及装置 |
CN112749566B (zh) * | 2019-10-31 | 2024-05-03 | 兰雨晴 | 一种面向英文写作辅助的语义匹配方法及装置 |
CN110826325B (zh) * | 2019-11-04 | 2023-12-26 | 创新工场(广州)人工智能研究有限公司 | 一种基于对抗训练的语言模型预训练方法、系统及电子设备 |
CN110826325A (zh) * | 2019-11-04 | 2020-02-21 | 创新工场(广州)人工智能研究有限公司 | 一种基于对抗训练的语言模型预训练方法、系统及电子设备 |
CN110826298A (zh) * | 2019-11-13 | 2020-02-21 | 北京万里红科技股份有限公司 | 一种智能辅助定密系统中使用的语句编码方法 |
CN110874392B (zh) * | 2019-11-20 | 2023-10-24 | 中山大学 | 基于深度双向注意力机制的文本网络信息融合嵌入方法 |
CN110888944B (zh) * | 2019-11-20 | 2023-04-28 | 中山大学 | 基于多卷积窗尺寸注意力卷积神经网络实体关系抽取方法 |
CN110888944A (zh) * | 2019-11-20 | 2020-03-17 | 中山大学 | 基于多卷积窗尺寸注意力卷积神经网络实体关系抽取方法 |
CN110874392A (zh) * | 2019-11-20 | 2020-03-10 | 中山大学 | 基于深度双向注意力机制的文本网络信息融合嵌入方法 |
CN112988921A (zh) * | 2019-12-13 | 2021-06-18 | 北京四维图新科技股份有限公司 | 地图信息变化的识别方法和装置 |
CN111126037A (zh) * | 2019-12-18 | 2020-05-08 | 昆明理工大学 | 一种基于孪生循环神经网络的泰文句子切分方法 |
CN111128390A (zh) * | 2019-12-20 | 2020-05-08 | 昆明理工大学 | 一种基于骨科症状特征选取的文本处理方法 |
CN111259113A (zh) * | 2020-01-15 | 2020-06-09 | 腾讯科技(深圳)有限公司 | 文本匹配方法、装置、计算机可读存储介质和计算机设备 |
CN111259113B (zh) * | 2020-01-15 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 文本匹配方法、装置、计算机可读存储介质和计算机设备 |
CN111460142B (zh) * | 2020-03-06 | 2022-09-23 | 南京邮电大学 | 一种基于自注意力卷积神经网络的短文本分类方法及系统 |
CN111460142A (zh) * | 2020-03-06 | 2020-07-28 | 南京邮电大学 | 一种基于自注意力卷积神经网络的短文本分类方法及系统 |
CN111401554A (zh) * | 2020-03-12 | 2020-07-10 | 交叉信息核心技术研究院(西安)有限公司 | 支持多粒度稀疏与多模式量化的卷积神经网络的加速器 |
CN111401554B (zh) * | 2020-03-12 | 2023-03-24 | 交叉信息核心技术研究院(西安)有限公司 | 支持多粒度稀疏与多模式量化的卷积神经网络的加速器 |
CN111581379A (zh) * | 2020-04-28 | 2020-08-25 | 电子科技大学 | 一种基于作文扣题度的自动作文评分计算方法 |
CN111581379B (zh) * | 2020-04-28 | 2022-03-25 | 电子科技大学 | 一种基于作文扣题度的自动作文评分计算方法 |
CN111523301A (zh) * | 2020-06-05 | 2020-08-11 | 泰康保险集团股份有限公司 | 合同文档合规性检查方法及装置 |
CN111783879A (zh) * | 2020-07-01 | 2020-10-16 | 中国人民解放军国防科技大学 | 基于正交注意力机制的层次化压缩图匹配方法及系统 |
CN111783879B (zh) * | 2020-07-01 | 2023-05-30 | 中国人民解放军国防科技大学 | 基于正交注意力机制的层次化压缩图匹配方法及系统 |
CN111783430A (zh) * | 2020-08-04 | 2020-10-16 | 腾讯科技(深圳)有限公司 | 句对匹配率的确定方法、装置、计算机设备和存储介质 |
CN112115253B (zh) * | 2020-08-17 | 2023-02-03 | 北京计算机技术及应用研究所 | 基于多视角注意力机制的深度文本排序方法 |
CN112115253A (zh) * | 2020-08-17 | 2020-12-22 | 北京计算机技术及应用研究所 | 基于多视角注意力机制的深度文本排序方法 |
CN112085091B (zh) * | 2020-09-07 | 2024-04-26 | 中国平安财产保险股份有限公司 | 基于人工智能的短文本匹配方法、装置、设备及存储介质 |
CN112085091A (zh) * | 2020-09-07 | 2020-12-15 | 中国平安财产保险股份有限公司 | 基于人工智能的短文本匹配方法、装置、设备及存储介质 |
CN112084782A (zh) * | 2020-09-14 | 2020-12-15 | 成都数联铭品科技有限公司 | 一种基于能量增强的注意力网络的答案识别方法及系统 |
CN112084782B (zh) * | 2020-09-14 | 2024-05-03 | 成都数联铭品科技有限公司 | 一种基于能量增强的注意力网络的答案识别方法及系统 |
CN114330355A (zh) * | 2020-10-09 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、电子设备及存储介质 |
CN112149644A (zh) * | 2020-11-09 | 2020-12-29 | 西北工业大学 | 基于全局特征指导的二维注意力机制文本识别方法 |
CN112434128A (zh) * | 2020-11-17 | 2021-03-02 | 东南大学 | 基于分层匹配注意力机制的问答文本属性类别分类方法 |
CN112133287A (zh) * | 2020-11-24 | 2020-12-25 | 北京世纪好未来教育科技有限公司 | 语音识别模型训练方法、语音识别方法及相关装置 |
CN112434514A (zh) * | 2020-11-25 | 2021-03-02 | 重庆邮电大学 | 基于多粒度多通道的神经网络的语义匹配方法、装置及计算机设备 |
CN112434514B (zh) * | 2020-11-25 | 2022-06-21 | 重庆邮电大学 | 基于多粒度多通道的神经网络的语义匹配方法、装置及计算机设备 |
CN112559820A (zh) * | 2020-12-17 | 2021-03-26 | 中国科学院空天信息创新研究院 | 基于深度学习的样本数据集智能出题方法、装置及设备 |
CN112633008A (zh) * | 2020-12-28 | 2021-04-09 | 中国石油大学(华东) | 基于多特征注意力的卷积神经网络句子相似度计算方法 |
WO2022141844A1 (zh) * | 2020-12-31 | 2022-07-07 | 平安科技(深圳)有限公司 | 文本纠错方法、装置、设备及可读存储介质 |
CN112860867A (zh) * | 2021-02-25 | 2021-05-28 | 电子科技大学 | 一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质 |
CN113051929A (zh) * | 2021-03-23 | 2021-06-29 | 电子科技大学 | 一种基于细粒度语义信息增强的实体关系抽取的方法 |
CN112699679A (zh) * | 2021-03-25 | 2021-04-23 | 北京沃丰时代数据科技有限公司 | 情绪识别方法、装置、电子设备及存储介质 |
CN113239678A (zh) * | 2021-04-02 | 2021-08-10 | 南京邮电大学 | 一种面向答案选择的多角度注意力特征匹配方法及系统 |
CN113239678B (zh) * | 2021-04-02 | 2023-06-20 | 南京邮电大学 | 一种面向答案选择的多角度注意力特征匹配方法及系统 |
CN113076127A (zh) * | 2021-04-25 | 2021-07-06 | 南京大学 | 编程环境下问答内容的提取方法、系统、电子设备及介质 |
CN113076127B (zh) * | 2021-04-25 | 2023-08-29 | 南京大学 | 编程环境下问答内容的提取方法、系统、电子设备及介质 |
CN113342940B (zh) * | 2021-06-24 | 2023-12-08 | 中国平安人寿保险股份有限公司 | 文本匹配分析方法、装置、电子设备及存储介质 |
CN113342940A (zh) * | 2021-06-24 | 2021-09-03 | 中国平安人寿保险股份有限公司 | 文本匹配分析方法、装置、电子设备及存储介质 |
CN113761935B (zh) * | 2021-08-04 | 2024-02-27 | 厦门快商通科技股份有限公司 | 一种短文本语义相似度度量方法、系统及装置 |
CN113761935A (zh) * | 2021-08-04 | 2021-12-07 | 厦门快商通科技股份有限公司 | 一种短文本语义相似度度量方法、系统及装置 |
CN113673483B (zh) * | 2021-09-07 | 2023-07-14 | 天津大学 | 一种基于深度神经网络的多视角多目标关联方法 |
CN113673483A (zh) * | 2021-09-07 | 2021-11-19 | 天津大学 | 一种基于深度神经网络的多视角多目标关联方法 |
CN114519357B (zh) * | 2022-01-17 | 2023-12-08 | 天津大学 | 基于机器学习的自然语言处理方法和系统 |
CN114519357A (zh) * | 2022-01-17 | 2022-05-20 | 天津大学 | 基于机器学习的自然语言处理方法和系统 |
CN115035912A (zh) * | 2022-06-08 | 2022-09-09 | 哈尔滨工程大学 | 基于moc模型的水声信号样本自动标注方法 |
CN115035912B (zh) * | 2022-06-08 | 2024-04-26 | 哈尔滨工程大学 | 基于moc模型的水声信号样本自动标注方法 |
CN116226357A (zh) * | 2023-05-09 | 2023-06-06 | 武汉纺织大学 | 一种输入中包含错误信息场景下的文档检索方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110298037B (zh) | 2023-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298037A (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN110490946B (zh) | 基于跨模态相似度和生成对抗网络的文本生成图像方法 | |
CN107832400B (zh) | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 | |
CN112347268A (zh) | 一种文本增强的知识图谱联合表示学习方法及装置 | |
Gallant et al. | Representing objects, relations, and sequences | |
CN110287323B (zh) | 一种面向目标的情感分类方法 | |
CN109214001A (zh) | 一种中文语义匹配系统及方法 | |
CN112541501A (zh) | 一种基于视觉语言建模网络的场景文字识别方法 | |
CN112990296A (zh) | 基于正交相似度蒸馏的图文匹配模型压缩与加速方法及系统 | |
CN112115253B (zh) | 基于多视角注意力机制的深度文本排序方法 | |
CN112232053A (zh) | 一种基于多关键词对匹配的文本相似度计算系统、方法、及存储介质 | |
CN110866542A (zh) | 一种基于特征可控融合的深度表示学习方法 | |
CN113962219A (zh) | 面向电力变压器知识检索和问答的语义匹配方法及系统 | |
CN114881042B (zh) | 基于图卷积网络融合句法依存与词性的中文情感分析方法 | |
CN115221846A (zh) | 一种数据处理方法及相关设备 | |
KR20200010672A (ko) | 딥러닝을 이용한 스마트 상품 검색 방법 및 시스템 | |
CN114037945A (zh) | 一种基于多粒度特征交互的跨模态检索方法 | |
CN114818717A (zh) | 融合词汇和句法信息的中文命名实体识别方法及系统 | |
CN116662500A (zh) | 一种基于bert模型与外部知识图谱的问答系统构建方法 | |
CN114004220A (zh) | 一种基于cpc-ann的文本情绪原因识别方法 | |
CN116912708A (zh) | 一种基于深度学习的遥感影像建筑物提取方法 | |
CN114841151A (zh) | 基于分解-重组策略的医学文本实体关系联合抽取方法 | |
CN113869054A (zh) | 一种基于深度学习的电力领域项目特征识别方法 | |
CN113920379A (zh) | 一种基于知识辅助的零样本图像分类方法 | |
CN114881038B (zh) | 基于跨度和注意力机制的中文实体与关系抽取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |