CN109902293A - 一种基于局部与全局互注意力机制的文本分类方法 - Google Patents
一种基于局部与全局互注意力机制的文本分类方法 Download PDFInfo
- Publication number
- CN109902293A CN109902293A CN201910091937.7A CN201910091937A CN109902293A CN 109902293 A CN109902293 A CN 109902293A CN 201910091937 A CN201910091937 A CN 201910091937A CN 109902293 A CN109902293 A CN 109902293A
- Authority
- CN
- China
- Prior art keywords
- global
- local
- long
- term
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于局部与全局互注意力机制的文本分类方法,步骤如下:获取文本数据,并进行预处理,将文本单词用预训练的词向量进行表示;利用长短期记忆网络捕获文本序列的全局长期依赖,利用多尺度卷积神经网络获取文本序列的局部语义特征;把全局长期依赖和局部语义特征作为局部与全局互注意力机制的输入,得到加权全局长期依赖和加权局部语义特征;再采用加权池化,得到最终的全局表示向量和局部表示向量;输入到全连接层融合全局表示向量和局部表示向量,再输入到分类层,进行分类。本发明并行地捕获全局长期依赖和局部语义特征,显式地学习这两种特征之间的交互,从而得到更好的文本全局和局部特征表示,进一步提高文本分类的精度。
Description
技术领域
本发明涉及文本分类技术领域,具体涉及一种基于局部与全局互注意力机制的文本分类方法。
背景技术
文本分类是自然语言处理中的一个基本问题,需要将一个或多个预定类别分配给一个文本序列。文本分类的核心是学习一个序列表示,来处理情感分析,问题分类和主题分类等等问题。
目前,学习一个序列表示,常用的方法是建模序列的长期依赖表示或序列的局部语义特征。卷积神经网络通过卷积核,可以比较好地提取文本序列的局部语义特征。Y.Kim提出了一个多通道卷积神经网络,使用了来自word2vec的静态词向量和在文本分类任务中微调的词向量,可以进一步提高分类准确性。虽然基于卷积神经网络的模型有利于从序列数据中学习局部响应,但它缺乏学习序列整体联系的能力。循环神经网络适用于建模序列表示以及序列的长期依赖,因此许多用于文本分类任务的循环神经网络变体被提出。Z.Yang等人提出了层次注意力模型,将注意力机制引入分层门控循环单元,使模型能够更好地捕获文档的重要信息。然而,循环神经网络中的信息是随时间步逐渐累积的,信息没有跳跃的连接,很难得到复杂的语义特征,使分类效果下降。
近期,一些研究者试图将卷积神经网络和循环神经网络的优势结合起来,利用它们来提取全局长期依赖和局部语义特征。C.Zhou等人提出了C-LSTM,利用卷积神经网络提取高层的短语表示,将其输入长短期记忆网络以获得句子表示。C-LSTM能够捕获全局长期依赖和局部语义特征,但这两种信息以级联方式连接,级联方式使模型变深,容易导致梯度消失问题。并且,这种方法没有尝试学习两种信息之间的相互作用。
发明内容
本发明的目的是为了解决现有技术中的上述缺陷,提供一种基于局部与全局互注意力机制的文本分类方法。
本发明的目的可以通过采取如下技术方案达到:
一种基于局部与全局互注意力机制的文本分类方法,所述的文本分类方法包括以下步骤:
S1、获取文本数据集,对数据进行预处理,把本文序列的每个单词映射为词向量;
S2、使用双向长短期记忆网络来捕获文本序列的全局长期依赖,同时,使用多尺度卷积神经网络提取文本序列的局部语义特征;
S3、构建一种局部与全局互注意力机制,使用步骤S2中提取的全局长期依赖和每个位置的局部语义特征作为输入,用局部语义特征关注全局长期依赖产生局部指导的全局注意力权重,进行加权得到加权全局特征,用全局长期依赖关注局部语义特征产生全局指导的局部注意力权重,进行加权得到加权局部特征;
S4、使用步骤S3中得到的加权全局特征和加权局部特征,随时间步加权池化,产生最终的全局表示向量和局部表示向量;
S5、拼接步骤S4中得到的全局表示向量和局部表示向量,输入全连接层,再输入softmax层进行分类。
进一步地,所述的步骤S2中并行提取文本序列的全局长期依赖和局部语义特征,过程如下:
S2.1、使用双向长短期记忆网络提取全局长期依赖,在时间步t,单个方向的隐藏层状态ht更新如下:
ct=ft⊙ct-1+it⊙gt
ht=ot⊙tanh(ct)
其中,ht-1是时间步t-1的单个方向长短期记忆网络隐藏层状态,kglo为单向长短期记忆网络的隐藏层状态维度,xt是时间步t的输入,it、ft、ot分别是单向长短期记忆网络的输入门、遗忘门和输出门。gt是细胞临时状态,ct是细胞状态,σ、tanh是非线性激活函数,⊙是逐元素的乘法,M是由可训练参数组成的仿射变换函数;
将文本序列以正向输入到长短期记忆网络中,并获得前向隐藏层状态
将文本序列以反方向输入长短期记忆网络,更新后向隐藏层状态隐藏层状态的两个方向连接如下:
其中,t=1,2,...,T,T是输入时间步的长度,是拼接操作,ht fb表示时间步t的全局长期依赖;
拼接每个时间步的隐藏层状态向量形成矩阵,其定义如下:
其中是文本序列的全局长期依赖矩阵,T是输入时间步的长度,kglo为单向长短期记忆网络的隐藏层状态维度,H的每列表示文本序列对应位置处的全局长期依赖;
S2.2、使用多尺度卷积神经网络提取局部语义特征,令为卷积运算的卷积核,其中,w为卷积核的宽度,d是卷积核的高度(等于输入维度),kloc是卷积核的数量,对于位置i的单词,卷积操作表示为:
其中,b表示偏置项,xi-w/2+1:i+w/2指词向量表示xi-w/2+1,...,xi,...,xi+w/2的拼接,*是卷积运算,f是非线性变换函数,是文本序列位置i处的kloc维局部w元特征向量,卷积核应用于文本序列的每个位置,使用零填充以生成与输入相同长度的特征映射:
其中,是文本序列每个位置的局部语义特征矩阵。
是使用相同大小的窗口进行卷积得到的局部语义特征矩阵。接下来使用多尺度卷积神经网络,使用不同大小的窗口进行卷积操作,假设r是窗口w的数量,可以得到r个卷积操作的结果,拼接起来得到局部语义特征
进一步地,所述的步骤S3中构建局部与全局互注意力机制的过程如下:
S3.1、采用局部与全局互注意力机制,将步骤S2中提取的全局长期依赖H和局部语义特征C作为输入,线性映射到较低维度k中,映射m次,m是局部与全局互注意力机制的子空间数目。将H和C映射到不同的子空间i:
其中,是投影参数矩阵,i=1,2,…,m。
S3.2、使用局部语义特征指导全局长期依赖,可以建模文本序列的组合语义,得到丰富的复杂语义特征。根据局部语义特征的每个位置计算全局长期依赖的全局注意力上下文,公式如下:
其中,i=1,2,…,m,是第i个子空间的全局注意力上下文,Ai∈RT×T是全局注意力权重,接着拼接每一个子空间的全局注意力上下文,得到加权全局特征
使用全局长期依赖指导局部语义特征,可以去除局部语义中冗余或者不相关的特征,根据全局长期依赖的每个位置计算局部语义特征的局部注意力上下文,公式如下:
其中,i=1,2,…,m,是第i个子空间的局部注意力上下文,Bi∈RT×T是局部注意力权重,接着拼接每一个子空间的局部注意力上下文,得到加权局部特征
进一步地,所述的步骤S4中随时间步加权池化的过程如下:
将步骤S3中得到的加权全局特征和加权局部特征作为输入,加权全局特征的随时间步加权过程如下:
其中,W(1)∈Rmk×mk,w(2)∈Rmk是权重矩阵,B(1)∈RT×mk,b(2)∈RT是偏置,α∈RT,i=1,2,…,T是加权全局特征的第i个向量的得分,zH∈Rmk是最终的全局表示向量;
类似的,加权局部特征的随时间步加权过程如下:
其中,W(3)∈Rmk×mk,w(4)∈Rmk是权重矩阵,B(3)∈RT×mk,b(4)∈RT是偏置,β∈RT,是加权局部特征的第i个向量的得分,zC∈Rmk是最终的全局表示向量。
进一步地,所述的步骤S5过程如下:
将步骤S4得到的最终全局表示向量zH和最终局部表示向量zC作为输入,预测每个类别i的概率预测公式如下:
其中,Wfc和Wsm是全连接层和softmax层的权重矩阵,bfc和bsm是偏置项;
以减少交叉熵损失作为训练目标进行训练,其中,交叉熵损失的表达式如下:
其中,y是真实分布,是预测输出分布,是两个分布的交叉熵函数。
本发明相对于现有技术具有如下的优点及效果:
本发明提出同时提取文本序列的局部信息和全局信息来建模文本表示,首先,本发明用双向长短期记忆网络提取全局特征,用卷积神经网络提取局部特征,并显式地学习这两种特征之间的交互,从而得到更好的文本全局和局部特征表示,进一步提高文本分类的精度。而现有模型大多是通过级联的方式连接全局和局部信息,级联的方式使模型加深,容易导致梯度消失问题,并且这两种信息之间没有交互。
其次,本发明提出局部与全局互注意力机制,一方面使用局部语义特征关注全局长期依赖,可以建模文本序列的组合语义,得到丰富的复杂语义特征。另一方面使用全局长期依赖关注局部语义特征,可以去除冗余或者不相关特征。
此外,本发明的方法相比目前其它同时建模文本序列长期依赖和局部语义特征的模型,可以取得较好的效果。本发明提出了一种基于局部与全局互注意力机制的文本分类方法,该方法可以得到更好的序列表示。
附图说明
图1是本发明中公开的基于局部与全局互注意力机制的文本分类方法的流程步骤图;
图2是本发明中公开的基于局部与全局互注意力机制的文本分类方法的互注意力模块图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
如图1所示,本实施例公开了基于局部与全局互注意力机制的文本分类方法,该方法包括以下步骤:
步骤S1、获取文本数据集,对数据进行预处理,把本文序列的每个单词映射为词向量。
获取SUBJ,TREC,CR,20Newsgroups,MovieReview等基准文本分类数据集和亚马逊产品评论中的十六个数据集,给定数据集其中,Wn=w1,w2,…wT是文本序列,yn是其对应的标签,T是文本序列的长度,N是数据集中的样本数。令xi∈Rd是与文本序列中的第i个词wi对应的d维词向量,这里使用300维预训练好的word2vec词向量,输入文本序列可以表示为嵌入矩阵:
其中是拼接操作,并且x1:T∈RT×d。
步骤S2、使用双向长短期记忆网络来捕获文本序列的全局长期依赖,同时,使用多尺度卷积神经网络提取文本序列的局部语义特征。具体过程如下:
S2.1、使用双向长短期记忆网络提取全局长期依赖。在时间步t,单个方向的隐藏层状态ht更新如下:
ct=ft⊙ct-1+it⊙gt
ht=ot⊙tanh(ct)
其中,ht-1是时间步t-1的单个方向长短期记忆网络隐藏层状态,kglo为单向长短期记忆网络的隐藏层状态维度,xt是时间步t的输入,it,ft,ot分别是单向长短期记忆网络的输入门,遗忘门和输出门。gt是细胞临时状态,ct是细胞状态,σ、tanh是非线性激活函数,⊙是逐元素的乘法,M是由可训练参数组成的仿射变换函数。
将文本序列以正向输入到长短期记忆网络中,并获得前向隐藏层状态类似地,文本序列以反方向输入长短期记忆网络,更新后向隐藏层状态隐藏层状态的两个方向连接如下:
其中,t=1,2,…,T,T是输入时间步的长度,是拼接操作,ht fb表示时间步t的全局长期依赖,拼接每个时间步的隐藏层状态向量形成矩阵,其定义如下:
其中,是文本序列的全局长期依赖矩阵,T是输入时间步的长度,kglo为单向长短期记忆网络隐藏层状态维度,H的每列表示文本序列对应位置处的全局长期依赖。
S2.2、使用多尺度卷积神经网络提取局部语义特征。令为卷积运算的卷积核,其中,w为卷积核的宽度,d是卷积核的高度(等于输入维度),kloc是卷积核的数量,并使kloc=128。对于位置i的单词,卷积操作可以表示为:
其中,b表示偏置项,xi-w/2+1:i+w/2指词向量表示xi-w/2+1,…,xi,…,xi+w/2的拼接,*是卷积运算,f是非线性变换函数。是文本序列位置i处的kloc维局部w元特征向量。卷积核应用于文本序列的每个位置,使用零填充以生成与输入相同长度的特征映射:
其中,是文本序列每个位置的局部语义特征矩阵。
是使用相同大小的窗口进行卷积得到的局部语义特征矩阵。接下来使用多尺度卷积神经网络,使用不同大小的窗口进行卷积操作,假设r是窗口w的数量,可以得到r个卷积操作的结果,拼接起来得到局部语义特征矩阵
步骤S3、构建一种局部与全局互注意力机制,使用步骤S2提取的全局长期依赖和每个位置的局部语义特征作为输入,用局部语义特征关注全局长期依赖产生局部指导的全局注意力权重,进行加权得到加权全局特征。用全局长期依赖关注局部语义特征产生全局指导的局部注意力权重,进行加权得到加权局部特征。
S3.1、采用局部与全局互注意力机制,首先将步骤S2提取的全局长期依赖H和局部语义特征C作为输入,线性映射到较低维度k中,映射m次,m是局部与全局互注意力机制的子空间数目。将H和C映射到不同的子空间i:
其中,是投影参数矩阵,i=1,2,…,m。
S3.2、如图2所示,使用局部语义特征指导全局长期依赖,根据局部语义特征的每个位置计算全局长期依赖的全局注意力上下文,公式如下:
其中,i=1,2,...,m,是第i个子空间的全局注意力上下文,Ai∈RT×T是全局注意力权重,接着拼接每一个子空间的全局注意力上下文,得到加权全局特征
使用全局长期依赖指导局部语义特征,根据全局长期依赖的每个位置计算局部语义特征的局部注意力上下文,公式如下:
其中,i=1,2,...,m,是第i个子空间的局部注意力上下文,Bi∈RT×T是局部注意力权重,接着拼接每一个子空间的局部注意力上下文,得到加权局部特征
步骤S4、使用步骤S3中得到的加权全局特征和加权局部特征,随时间步加权池化,产生最终的全局表示向量和局部表示向量。加权全局特征的随时间步加权过程如下:
其中,W(1)∈Rmk×mk,w(2)∈Rmk是权重矩阵,B(1)∈RT×mk,b(2)∈RT是偏置,α∈RT,是加权全局特征的第i个向量的得分,zH∈Rmk是最终的全局表示向量。
类似的,加权局部特征的随时间步加权过程如下:
其中,W(3)∈Rmk×mk,w(4)∈Rmk是权重矩阵,B(3)∈RT×mk,b(4)∈RT是偏置,β∈RT,是加权局部特征的第i个向量的得分,zC∈Rmk是最终的全局表示向量。
步骤S5、拼接步骤S4得到的全局表示向量和局部表示向量,输入全连接层,再输入softmax层进行分类。
将步骤S4得到的最终全局表示向量zH和最终局部表示向量zC作为输入,预测每个类别i的概率具体公式如下:
其中,Wfc和Wsm是全连接层和softmax层的权重矩阵。bfc和bsm是偏置项。
训练目标是减少交叉熵损失:
其中,y是真实分布,是预测输出分布,是两个分布的交叉熵函数。
综上所述,本发明可以并行地捕获全局长期依赖和局部语义特征,用于文本分类。本发明构建了局部与全局互注意力机制,一方面使用局部语义特征关注全局长期依赖,可以建模文本序列的组合语义,得到丰富的复杂语义特征。另一方面使用全局长期依赖关注局部语义特征,可以去除冗余或者不相关特征,从而得到更好的特征表示。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (5)
1.一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的文本分类方法包括以下步骤:
S1、获取文本数据集,对数据进行预处理,把文本序列的每个单词映射为词向量;
S2、使用双向长短期记忆网络来捕获文本序列的全局长期依赖,同时,使用多尺度卷积神经网络提取文本序列的局部语义特征;
S3、构建一种局部与全局互注意力机制,使用步骤S2中提取的全局长期依赖和每个位置的局部语义特征作为输入,用局部语义特征关注全局长期依赖产生局部指导的全局注意力权重,进行加权得到加权全局特征,用全局长期依赖关注局部语义特征产生全局指导的局部注意力权重,进行加权得到加权局部特征;
S4、使用上述的加权全局特征和加权局部特征,随时间步加权池化,产生最终的全局表示向量和局部表示向量;
S5、拼接上述的全局表示向量和局部表示向量,输入全连接层,再输入softmax层进行分类。
2.根据权利要求1所述的一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的步骤S2中并行提取文本序列的全局长期依赖和局部语义特征,过程如下:
S2.1、使用双向长短期记忆网络提取全局长期依赖,在时间步t,单个方向的隐藏层状态ht更新如下:
ct=ft⊙ct-1+it⊙gt
ht=ot⊙tanh(ct)
其中,ht-1是时间步t-1的单个方向长短期记忆网络隐藏层状态,kglo为单向长短期记忆网络的隐藏层状态维度,xt是时间步t的输入,it、ft、ot分别是单向长短期记忆网络的输入门、遗忘门和输出门。gt是细胞临时状态,ct是细胞状态,σ、tanh是非线性激活函数,⊙是逐元素的乘法,M是由可训练参数组成的仿射变换函数;
将文本序列以正向输入到长短期记忆网络中,并获得前向隐藏层状态
将文本序列以反方向输入长短期记忆网络,更新后向隐藏层状态隐藏层状态的两个方向连接如下:
其中,t=1,2,...,T,T是输入时间步的长度,是拼接操作,表示时间步t的全局长期依赖;
拼接每个时间步的隐藏层状态向量形成矩阵,其定义如下:
其中,是文本序列的全局长期依赖矩阵,T是输入时间步的长度,kglo为单向长短期记忆网络的隐藏层状态维度,H的每列表示文本序列对应位置处的全局长期依赖;
S2.2、使用多尺度卷积神经网络提取局部语义特征,令为卷积运算的卷积核,其中,w为卷积核的宽度,d是卷积核的高度,其值等于输入维度,kloc是卷积核的数量,对于位置i的单词,卷积操作表示为:
其中,b表示偏置项,xi-w/2+1:i+w/2指词向量表示xi-w/2+1,...,xi,...,xi+w/2的拼接,*是卷积运算,f是非线性变换函数,是文本序列位置i处的kloc维局部w元特征向量,卷积核应用于文本序列的每个位置,使用零填充以生成与输入相同长度的特征映射:
其中,是文本序列每个位置的局部语义特征矩阵,是使用相同大小的窗口进行卷积得到的局部语义特征矩阵;接下来使用多尺度卷积神经网络,使用不同大小的窗口进行卷积操作,假设r是窗口w的数量,得到r个卷积操作的结果,拼接起来得到局部语义特征矩阵
3.根据权利要求1所述的一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的步骤S3中构建局部与全局互注意力机制的过程如下:
S3.1、采用局部与全局互注意力机制,将步骤S2中提取的全局长期依赖H和局部语义特征C作为输入,线性映射到较低维度k中,映射m次,m是局部与全局互注意力机制的子空间数目,将H和C映射到不同的子空间i:
其中,是投影参数矩阵,i=1,2,…,m;
S3.2、使用局部语义特征指导全局长期依赖,根据局部语义特征的每个位置计算全局长期依赖的全局注意力上下文,公式如下:
其中,i=1,2,...,m,是第i个子空间的全局注意力上下文,Ai∈RT×T是全局注意力权重,接着拼接每一个子空间的全局注意力上下文,得到加权全局特征
使用全局长期依赖指导局部语义特征,根据全局长期依赖的每个位置计算局部语义特征的局部注意力上下文,公式如下:
其中,i=1,2,...,m,是第i个子空间的局部注意力上下文,Bi∈RT×T是局部注意力权重,接着拼接每一个子空间的局部注意力上下文,得到加权局部特征
4.根据权利要求1所述的一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的步骤S4中随时间步加权池化的过程如下:
将步骤S3中得到的加权全局特征和加权局部特征作为输入,加权全局特征的随时间步加权过程如下:
其中,W(1)∈Rmk×mk,w(2)∈Rmk是权重矩阵,B(1)∈RT×mk,b(2)∈RT是偏置,α∈RT,是加权全局特征的第i个向量的得分,zH∈Rmk是最终的全局表示向量;
加权局部特征的随时间步加权过程如下:
其中,W(3)∈Rmk×mk,w(4)∈Rmk是权重矩阵,B(3)∈RT×mk,b(4)∈RT是偏置,β∈RT,是加权局部特征的第i个向量的得分,zC∈Rmk是最终的全局表示向量。
5.根据权利要求1所述的一种基于局部与全局互注意力机制的文本分类方法,其特征在于,所述的步骤S5过程如下:
将步骤S4得到的最终全局表示向量zH和最终局部表示向量zC作为输入,预测每个类别i的概率预测公式如下:
其中,Wfc和Wsm是全连接层和softmax层的权重矩阵,bfc和bsm是偏置项;
以减少交叉熵损失作为训练目标进行训练,其中,交叉熵损失的表达式如下:
其中,y是真实分布,是预测输出分布,是两个分布的交叉熵函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910091937.7A CN109902293B (zh) | 2019-01-30 | 2019-01-30 | 一种基于局部与全局互注意力机制的文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910091937.7A CN109902293B (zh) | 2019-01-30 | 2019-01-30 | 一种基于局部与全局互注意力机制的文本分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109902293A true CN109902293A (zh) | 2019-06-18 |
CN109902293B CN109902293B (zh) | 2020-11-24 |
Family
ID=66944517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910091937.7A Active CN109902293B (zh) | 2019-01-30 | 2019-01-30 | 一种基于局部与全局互注意力机制的文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109902293B (zh) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532353A (zh) * | 2019-08-27 | 2019-12-03 | 海南阿凡题科技有限公司 | 基于深度学习的文本实体匹配方法、系统、装置 |
CN110569358A (zh) * | 2019-08-20 | 2019-12-13 | 上海交通大学 | 学习长时依赖和分层结构的文本分类模型、方法及介质 |
CN110609897A (zh) * | 2019-08-12 | 2019-12-24 | 北京化工大学 | 一种融合全局和局部特征的多类别中文文本分类方法 |
CN110619313A (zh) * | 2019-09-20 | 2019-12-27 | 西安电子科技大学 | 遥感图像判别性描述生成方法 |
CN110766073A (zh) * | 2019-10-22 | 2020-02-07 | 湖南科技大学 | 一种强化主题注意力机制的移动应用分类方法 |
CN110825874A (zh) * | 2019-10-29 | 2020-02-21 | 北京明略软件系统有限公司 | 一种中文文本分类方法和装置及计算机可读存储介质 |
CN110827813A (zh) * | 2019-10-18 | 2020-02-21 | 清华大学深圳国际研究生院 | 一种基于多模态特征的重音检测方法及系统 |
CN110825867A (zh) * | 2019-11-01 | 2020-02-21 | 科大讯飞股份有限公司 | 相似文本推荐方法、装置、电子设备和存储介质 |
CN110956044A (zh) * | 2019-12-02 | 2020-04-03 | 北明软件有限公司 | 一种基于注意力机制的司法场景用文案输入识别分类方法 |
CN111026894A (zh) * | 2019-12-12 | 2020-04-17 | 清华大学 | 基于可信度自适应匹配网络的跨模态图像文本检索方法 |
CN111147396A (zh) * | 2019-12-26 | 2020-05-12 | 哈尔滨工程大学 | 一种基于序列特征的加密流量分类方法 |
CN111191739A (zh) * | 2020-01-09 | 2020-05-22 | 电子科技大学 | 一种基于注意力机制的墙面缺陷检测方法 |
CN111221966A (zh) * | 2019-12-31 | 2020-06-02 | 北京科东电力控制系统有限责任公司 | 一种文本语义关系提取方法及系统 |
CN111341386A (zh) * | 2020-02-17 | 2020-06-26 | 大连理工大学 | 引入注意力的多尺度CNN-BiLSTM非编码RNA互作关系预测方法 |
CN111403028A (zh) * | 2020-03-19 | 2020-07-10 | 医渡云(北京)技术有限公司 | 医疗文本分类方法及装置、存储介质、电子设备 |
CN111475642A (zh) * | 2020-02-29 | 2020-07-31 | 新华三大数据技术有限公司 | 一种文本分类方法、装置及模型训练方法 |
CN111666406A (zh) * | 2020-04-13 | 2020-09-15 | 天津科技大学 | 基于自注意力的单词和标签联合的短文本分类预测方法 |
CN112347150A (zh) * | 2020-11-23 | 2021-02-09 | 北京智源人工智能研究院 | 一种学者学术标签标注方法、装置和电子设备 |
CN112364846A (zh) * | 2021-01-12 | 2021-02-12 | 深圳市一心视觉科技有限公司 | 一种人脸活体识别方法、装置、终端设备及存储介质 |
CN112651242A (zh) * | 2021-01-20 | 2021-04-13 | 重庆大学 | 一种基于内外注意力机制和可变尺度卷积的文本分类方法 |
CN112749566A (zh) * | 2019-10-31 | 2021-05-04 | 兰雨晴 | 一种面向英文写作辅助的语义匹配方法及装置 |
CN112749278A (zh) * | 2020-12-30 | 2021-05-04 | 华南理工大学 | 一种建筑工程变更指令的分类方法 |
CN112801059A (zh) * | 2021-04-07 | 2021-05-14 | 广东众聚人工智能科技有限公司 | 图卷积网络系统和基于图卷积网络系统的3d物体检测方法 |
CN112905787A (zh) * | 2020-02-25 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 文本信息处理方法、短信处理方法、电子设备及可读介质 |
CN113408343A (zh) * | 2021-05-12 | 2021-09-17 | 杭州电子科技大学 | 基于双尺度时空分块互注意力的课堂动作识别方法 |
CN113591886A (zh) * | 2020-04-30 | 2021-11-02 | 北京百度网讯科技有限公司 | 用于信息分类的方法、装置、设备及计算机可读存储介质 |
CN113726730A (zh) * | 2021-07-14 | 2021-11-30 | 国网山东省电力公司信息通信公司 | 基于深度学习算法的dga域名检测方法及系统 |
CN113779282A (zh) * | 2021-11-11 | 2021-12-10 | 南京码极客科技有限公司 | 基于自注意力和生成对抗网络的细粒度跨媒体检索方法 |
CN114239725A (zh) * | 2021-12-17 | 2022-03-25 | 四川大学 | 一种面向数据投毒攻击的窃电检测方法 |
CN114996431A (zh) * | 2022-08-01 | 2022-09-02 | 湖南大学 | 一种基于混合注意力的人机对话生成方法、系统及介质 |
CN115002559A (zh) * | 2022-05-10 | 2022-09-02 | 上海大学 | 基于门控多头位置注意力机制的视频摘要算法及系统 |
CN116881996A (zh) * | 2023-09-07 | 2023-10-13 | 华南理工大学 | 基于鼠标操作的建模意图预测方法 |
CN117556787A (zh) * | 2024-01-11 | 2024-02-13 | 西湖大学 | 为自然语言文本序列生成目标文本序列的方法和系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170192956A1 (en) * | 2015-12-31 | 2017-07-06 | Google Inc. | Generating parse trees of text segments using neural networks |
CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
CN107133211A (zh) * | 2017-04-26 | 2017-09-05 | 中国人民大学 | 一种基于注意力机制的作文评分方法 |
CN107169035A (zh) * | 2017-04-19 | 2017-09-15 | 华南理工大学 | 一种混合长短期记忆网络和卷积神经网络的文本分类方法 |
CN108334499A (zh) * | 2018-02-08 | 2018-07-27 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108415972A (zh) * | 2018-02-08 | 2018-08-17 | 合肥工业大学 | 文本情感处理方法 |
CN108595632A (zh) * | 2018-04-24 | 2018-09-28 | 福州大学 | 一种融合摘要与主体特征的混合神经网络文本分类方法 |
CN108664632A (zh) * | 2018-05-15 | 2018-10-16 | 华南理工大学 | 一种基于卷积神经网络和注意力机制的文本情感分类算法 |
CN109145112A (zh) * | 2018-08-06 | 2019-01-04 | 北京航空航天大学 | 一种基于全局信息注意力机制的商品评论分类方法 |
CN109241283A (zh) * | 2018-08-08 | 2019-01-18 | 广东工业大学 | 一种基于多角度胶囊网络的文本分类方法 |
-
2019
- 2019-01-30 CN CN201910091937.7A patent/CN109902293B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170192956A1 (en) * | 2015-12-31 | 2017-07-06 | Google Inc. | Generating parse trees of text segments using neural networks |
CN107169035A (zh) * | 2017-04-19 | 2017-09-15 | 华南理工大学 | 一种混合长短期记忆网络和卷积神经网络的文本分类方法 |
CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
CN107133211A (zh) * | 2017-04-26 | 2017-09-05 | 中国人民大学 | 一种基于注意力机制的作文评分方法 |
CN108334499A (zh) * | 2018-02-08 | 2018-07-27 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108415972A (zh) * | 2018-02-08 | 2018-08-17 | 合肥工业大学 | 文本情感处理方法 |
CN108595632A (zh) * | 2018-04-24 | 2018-09-28 | 福州大学 | 一种融合摘要与主体特征的混合神经网络文本分类方法 |
CN108664632A (zh) * | 2018-05-15 | 2018-10-16 | 华南理工大学 | 一种基于卷积神经网络和注意力机制的文本情感分类算法 |
CN109145112A (zh) * | 2018-08-06 | 2019-01-04 | 北京航空航天大学 | 一种基于全局信息注意力机制的商品评论分类方法 |
CN109241283A (zh) * | 2018-08-08 | 2019-01-18 | 广东工业大学 | 一种基于多角度胶囊网络的文本分类方法 |
Non-Patent Citations (2)
Title |
---|
JIANYU ZHAO 等: "Adaptive Learning of Local Semantic and Global Structure Representations for Text Classification", 《PROCEEDINGS OF THE 27TH INTERNATIONAL CONFERENCE ON COMPUTATIONAL LINGUISTICS》 * |
谢金宝 等: "基于语义理解注意力神经网络的多元特征融合中文文本分类", 《电子与信息学报》 * |
Cited By (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110609897A (zh) * | 2019-08-12 | 2019-12-24 | 北京化工大学 | 一种融合全局和局部特征的多类别中文文本分类方法 |
CN110569358A (zh) * | 2019-08-20 | 2019-12-13 | 上海交通大学 | 学习长时依赖和分层结构的文本分类模型、方法及介质 |
CN110532353B (zh) * | 2019-08-27 | 2021-10-15 | 海南阿凡题科技有限公司 | 基于深度学习的文本实体匹配方法、系统、装置 |
CN110532353A (zh) * | 2019-08-27 | 2019-12-03 | 海南阿凡题科技有限公司 | 基于深度学习的文本实体匹配方法、系统、装置 |
CN110619313A (zh) * | 2019-09-20 | 2019-12-27 | 西安电子科技大学 | 遥感图像判别性描述生成方法 |
CN110619313B (zh) * | 2019-09-20 | 2023-09-12 | 西安电子科技大学 | 遥感图像判别性描述生成方法 |
CN110827813A (zh) * | 2019-10-18 | 2020-02-21 | 清华大学深圳国际研究生院 | 一种基于多模态特征的重音检测方法及系统 |
CN110827813B (zh) * | 2019-10-18 | 2021-11-12 | 清华大学深圳国际研究生院 | 一种基于多模态特征的重音检测方法及系统 |
CN110766073B (zh) * | 2019-10-22 | 2023-10-27 | 湖南科技大学 | 一种强化主题注意力机制的移动应用分类方法 |
CN110766073A (zh) * | 2019-10-22 | 2020-02-07 | 湖南科技大学 | 一种强化主题注意力机制的移动应用分类方法 |
CN110825874A (zh) * | 2019-10-29 | 2020-02-21 | 北京明略软件系统有限公司 | 一种中文文本分类方法和装置及计算机可读存储介质 |
CN112749566B (zh) * | 2019-10-31 | 2024-05-03 | 兰雨晴 | 一种面向英文写作辅助的语义匹配方法及装置 |
CN112749566A (zh) * | 2019-10-31 | 2021-05-04 | 兰雨晴 | 一种面向英文写作辅助的语义匹配方法及装置 |
CN110825867A (zh) * | 2019-11-01 | 2020-02-21 | 科大讯飞股份有限公司 | 相似文本推荐方法、装置、电子设备和存储介质 |
CN110956044A (zh) * | 2019-12-02 | 2020-04-03 | 北明软件有限公司 | 一种基于注意力机制的司法场景用文案输入识别分类方法 |
CN111026894A (zh) * | 2019-12-12 | 2020-04-17 | 清华大学 | 基于可信度自适应匹配网络的跨模态图像文本检索方法 |
CN111026894B (zh) * | 2019-12-12 | 2021-11-26 | 清华大学 | 基于可信度自适应匹配网络的跨模态图像文本检索方法 |
CN111147396A (zh) * | 2019-12-26 | 2020-05-12 | 哈尔滨工程大学 | 一种基于序列特征的加密流量分类方法 |
CN111147396B (zh) * | 2019-12-26 | 2023-03-21 | 哈尔滨工程大学 | 一种基于序列特征的加密流量分类方法 |
CN111221966A (zh) * | 2019-12-31 | 2020-06-02 | 北京科东电力控制系统有限责任公司 | 一种文本语义关系提取方法及系统 |
CN111191739A (zh) * | 2020-01-09 | 2020-05-22 | 电子科技大学 | 一种基于注意力机制的墙面缺陷检测方法 |
CN111341386B (zh) * | 2020-02-17 | 2022-09-20 | 大连理工大学 | 引入注意力的多尺度CNN-BiLSTM非编码RNA互作关系预测方法 |
CN111341386A (zh) * | 2020-02-17 | 2020-06-26 | 大连理工大学 | 引入注意力的多尺度CNN-BiLSTM非编码RNA互作关系预测方法 |
CN112905787A (zh) * | 2020-02-25 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 文本信息处理方法、短信处理方法、电子设备及可读介质 |
CN111475642A (zh) * | 2020-02-29 | 2020-07-31 | 新华三大数据技术有限公司 | 一种文本分类方法、装置及模型训练方法 |
CN111403028A (zh) * | 2020-03-19 | 2020-07-10 | 医渡云(北京)技术有限公司 | 医疗文本分类方法及装置、存储介质、电子设备 |
CN111403028B (zh) * | 2020-03-19 | 2022-12-06 | 医渡云(北京)技术有限公司 | 医疗文本分类方法及装置、存储介质、电子设备 |
CN111666406A (zh) * | 2020-04-13 | 2020-09-15 | 天津科技大学 | 基于自注意力的单词和标签联合的短文本分类预测方法 |
CN111666406B (zh) * | 2020-04-13 | 2023-03-31 | 天津科技大学 | 基于自注意力的单词和标签联合的短文本分类预测方法 |
CN113591886A (zh) * | 2020-04-30 | 2021-11-02 | 北京百度网讯科技有限公司 | 用于信息分类的方法、装置、设备及计算机可读存储介质 |
CN113591886B (zh) * | 2020-04-30 | 2023-11-07 | 北京百度网讯科技有限公司 | 用于信息分类的方法、装置、设备及计算机可读存储介质 |
CN112347150A (zh) * | 2020-11-23 | 2021-02-09 | 北京智源人工智能研究院 | 一种学者学术标签标注方法、装置和电子设备 |
CN112347150B (zh) * | 2020-11-23 | 2021-08-31 | 北京智谱华章科技有限公司 | 一种学者学术标签标注方法、装置和电子设备 |
CN112749278A (zh) * | 2020-12-30 | 2021-05-04 | 华南理工大学 | 一种建筑工程变更指令的分类方法 |
CN112364846A (zh) * | 2021-01-12 | 2021-02-12 | 深圳市一心视觉科技有限公司 | 一种人脸活体识别方法、装置、终端设备及存储介质 |
CN112364846B (zh) * | 2021-01-12 | 2021-04-30 | 深圳市一心视觉科技有限公司 | 一种人脸活体识别方法、装置、终端设备及存储介质 |
CN112651242A (zh) * | 2021-01-20 | 2021-04-13 | 重庆大学 | 一种基于内外注意力机制和可变尺度卷积的文本分类方法 |
CN112651242B (zh) * | 2021-01-20 | 2024-04-26 | 重庆大学 | 一种基于内外注意力机制和可变尺度卷积的文本分类方法 |
CN112801059A (zh) * | 2021-04-07 | 2021-05-14 | 广东众聚人工智能科技有限公司 | 图卷积网络系统和基于图卷积网络系统的3d物体检测方法 |
CN113408343B (zh) * | 2021-05-12 | 2022-05-13 | 杭州电子科技大学 | 基于双尺度时空分块互注意力的课堂动作识别方法 |
CN113408343A (zh) * | 2021-05-12 | 2021-09-17 | 杭州电子科技大学 | 基于双尺度时空分块互注意力的课堂动作识别方法 |
CN113726730A (zh) * | 2021-07-14 | 2021-11-30 | 国网山东省电力公司信息通信公司 | 基于深度学习算法的dga域名检测方法及系统 |
CN113779282B (zh) * | 2021-11-11 | 2022-01-28 | 南京码极客科技有限公司 | 基于自注意力和生成对抗网络的细粒度跨媒体检索方法 |
CN113779282A (zh) * | 2021-11-11 | 2021-12-10 | 南京码极客科技有限公司 | 基于自注意力和生成对抗网络的细粒度跨媒体检索方法 |
CN114239725B (zh) * | 2021-12-17 | 2023-04-21 | 四川大学 | 一种面向数据投毒攻击的窃电检测方法 |
CN114239725A (zh) * | 2021-12-17 | 2022-03-25 | 四川大学 | 一种面向数据投毒攻击的窃电检测方法 |
CN115002559A (zh) * | 2022-05-10 | 2022-09-02 | 上海大学 | 基于门控多头位置注意力机制的视频摘要算法及系统 |
CN115002559B (zh) * | 2022-05-10 | 2024-01-05 | 上海大学 | 基于门控多头位置注意力机制的视频摘要算法及系统 |
CN114996431A (zh) * | 2022-08-01 | 2022-09-02 | 湖南大学 | 一种基于混合注意力的人机对话生成方法、系统及介质 |
CN116881996A (zh) * | 2023-09-07 | 2023-10-13 | 华南理工大学 | 基于鼠标操作的建模意图预测方法 |
CN116881996B (zh) * | 2023-09-07 | 2023-12-01 | 华南理工大学 | 基于鼠标操作的建模意图预测方法 |
CN117556787A (zh) * | 2024-01-11 | 2024-02-13 | 西湖大学 | 为自然语言文本序列生成目标文本序列的方法和系统 |
CN117556787B (zh) * | 2024-01-11 | 2024-04-26 | 西湖大学 | 为自然语言文本序列生成目标文本序列的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109902293B (zh) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902293A (zh) | 一种基于局部与全局互注意力机制的文本分类方法 | |
Kamath et al. | Deep learning for NLP and speech recognition | |
Er et al. | Attention pooling-based convolutional neural network for sentence modelling | |
Sakib et al. | An overview of convolutional neural network: Its architecture and applications | |
CN106202010B (zh) | 基于深度神经网络构建法律文本语法树的方法和装置 | |
CN111078836B (zh) | 基于外部知识增强的机器阅读理解方法、系统、装置 | |
CN108959246A (zh) | 基于改进的注意力机制的答案选择方法、装置和电子设备 | |
CN108984745A (zh) | 一种融合多知识图谱的神经网络文本分类方法 | |
CN108681539A (zh) | 一种基于卷积神经网络的蒙汉神经翻译方法 | |
CN107729309A (zh) | 一种基于深度学习的中文语义分析的方法及装置 | |
CN110377913B (zh) | 一种情感分析方法及其装置、电子设备和存储介质 | |
Tyagi et al. | Recurrent neural networks: Concepts and applications | |
CN113609965B (zh) | 文字识别模型的训练方法及装置、存储介质、电子设备 | |
Deng et al. | Foundations and Trends in Signal Processing: DEEP LEARNING–Methods and Applications | |
Xiao et al. | DAA: Dual LSTMs with adaptive attention for image captioning | |
US20230215166A1 (en) | Few-shot urban remote sensing image information extraction method based on meta learning and attention | |
CN110347836A (zh) | 融入观点句特征的汉越双语新闻情感分类方法 | |
Tang et al. | Modelling student behavior using granular large scale action data from a MOOC | |
CN115221846A (zh) | 一种数据处理方法及相关设备 | |
CN111710428B (zh) | 一种建模全局和局部上下文交互的生物医学文本表示方法 | |
CN111597341B (zh) | 一种文档级关系抽取方法、装置、设备及存储介质 | |
CN110083702A (zh) | 一种基于多任务学习的方面级别文本情感转换方法 | |
Sadr et al. | Convolutional neural network equipped with attention mechanism and transfer learning for enhancing performance of sentiment analysis | |
Hong et al. | Selective residual learning for visual question answering | |
CN108805260A (zh) | 一种图说生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |