CN113204640A - 一种基于注意力机制的文本分类方法 - Google Patents

一种基于注意力机制的文本分类方法 Download PDF

Info

Publication number
CN113204640A
CN113204640A CN202110360121.7A CN202110360121A CN113204640A CN 113204640 A CN113204640 A CN 113204640A CN 202110360121 A CN202110360121 A CN 202110360121A CN 113204640 A CN113204640 A CN 113204640A
Authority
CN
China
Prior art keywords
layer
text
representing
classification
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110360121.7A
Other languages
English (en)
Other versions
CN113204640B (zh
Inventor
于舒娟
蔡梦梦
吴梦洁
毛新涛
黄橙
徐钦晨
张昀
王秀梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202110360121.7A priority Critical patent/CN113204640B/zh
Publication of CN113204640A publication Critical patent/CN113204640A/zh
Application granted granted Critical
Publication of CN113204640B publication Critical patent/CN113204640B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Document Processing Apparatus (AREA)

Abstract

本发明提出了一种基于注意力机制的文本分类方法。所述方法使用基于DenseNet的神经网络模型;在训练神经网络之前,利用语义编码来初始化DenseNet的卷积过滤器的权重,使网络在训练之前对重要的语义信息进行辨识,从而在卷积层能捕获每个句子的有效位置信息;通过局部注意力密集连接的模块进行文本信息的特征提取。本发明文本分类方法具有更强的特征提取能力,并保留文本信息的内容,在包括情感分类和主题分类等多个文本分类的任务时,效果显著,有效地提高了分类的准确性。

Description

一种基于注意力机制的文本分类方法
技术领域
本发明属于自然语言处理中的文本分类领域,提出了一种基于注意力机制的文本分类方法。
背景技术
伴随着信息数据量的快速增长,自然语言处理在人工智能技术兴起的浪潮中有了快速地发展。文本分类是自然语言处理的基本任务,用于自然语言处理的各个领域,如信息检索,信息过滤和语义分析等方面,但是面对大数据时代涌现出的海量的短文本信息,如何划分新领域所属的类别,其训练的样本往往是不充分的。深度学习(Deep learning)[徐翼龙,李文法,周纯洁.基于深度学习的自然语言处理综述.中国计算机用户协会网络应用分会,2018.]不仅可以实现机器学习的自动化,减少了面对不同问题的人工设计成本,还增强了对数据中潜在信息的提取和分析能力。
深度学习主要通过深度神经网络(DNN)结构学习提取不同水平和不同维度的有效表示特征,以此提高在不同抽象层次上对数据的解释能力。DNN主要包括有循环神经网络(RNN)和卷积神经网络(CNN)。基于RNN的模型视文本为词序列,并可以捕获文本分类的词间依赖关系和文本结构。与RNN不同,CNN的卷积和池化结构能够很好地提取局部特征信息,因此也成功的应用到NLP中。Collobert等人首次将具有端到端训练的卷积神经网络用于自然语言处理[Ronan Collobert and Jason Weston.2008.Aunified architecture fornatural language processing:Deep neural networks with multitask learning.InProceedings of the 25th International Conference on Machine Learning.ACM,NewY ork,NY,USA,ICML’08,pages 160–167.]。文章[Shen Li,Zhe Zhao,Tao Liu,Renfen Hu,and Xiaoyong Du.2017.Initializing convolutional filters with semanticfeatures for text classification.In Proceedings of the 2017 Conference onEmpirical Methods.]优化了传统的CNN,提出了一种新的CNN权重初始化技术,在训练开始时对语义特征进行编码的卷积过滤器用于文本分类。随着CNN网络层数的不断增加,网络出现了梯度消失和模型降级(model degradation)等新问题。文献[Le,H.T.,Cerisara,C.,&Denis,A.(2017).Do Convolutional Networks need to be Deep for TextClassification?arXiv preprint arXiv:1707.04108.]提出了DenseNet模型通过将所有输入层连接到输出层,不仅改善了不同层的信息流问题,进一步减少了梯度消失和模型降级问题的产生。针对文本数据比较复杂,使用DenseNet只是通过增加网络层数对文本信息进行简单的特征提取,这不仅会导致网络参数冗余,甚至会出现网络退化现象。因此通过在神经网络DenseNet模型中加入注意力机制,能够进一步提取文本信息更深层次的特征,也可以自动选择和关注更为重要的文本特征,进一步提高文本分类的准确性。
发明内容
本发明所要解决的技术问题是为了提高文本分类的效果,提出了一种基于注意力机制的文本分类方法。本发明基于DenseNet神经网络模型,在利用语义特征初始化的DenseNet权重的基础上,结合多层次局部注意力机制到DenseNet中,不同模块的注意力机制随着层数的变化而自适应变化,自动选择与文本分类更为重要的文本信息特征,提高了文本分类的效果。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于注意力机制的文本分类方法,包含如下几个步骤:
步骤A,文本的表示,利用word2vec将文本中的单词转换成词向量,降低文本分类的复杂度,设定输入句子中每个单词被映射成一个向量xi∈Rn×d(i=0,1,2,…,n),则输入句子对应的词向量矩阵为[x1,x2,…,xn],n为句子的最大长度,d为词向量的维数;
步骤B,构建文本分类器,对输入的文本进行类别划分,文本分类器的构建基于DenseNet的神经网络,由卷积层、基于注意力机制的密集块、转换层、池化层和分类层五个部分组成;
步骤B-1,卷积层的构建包括两个过程:权重初始化和卷积过程;
步骤B-1-1,权重初始化,将输入的词向量构建N-gram模型,设定m为文本中的任一类别,利用朴素贝叶斯法计算类别m中的N-gram的比重r,公式如下:
Figure BDA0003005209930000021
式中,α是平滑参数,pm表示在类别m中包含N-gram的文本数;
Figure BDA0003005209930000022
表示在除m类别外其他类别中包含N-gram的文本数;
||pm||1表示文本中的类别m的数量,||.||1表示L1范数;
Figure BDA0003005209930000031
分别表示文本中除类别m外其他类别的数量;
利用K均值算法对比重r大于1的N-gram进行聚类,将聚类的质心向量初始化卷积层的权重;
步骤B-1-2,卷积过程,利用权重初始化的卷积层相应位置的局部表示ci为:
ci=f(Wc*xi:i+m-1+bc)
式中,xi:i+k-1表示从第i个词到第i+k-1个词对应的词向量;
Wc表示权值矩阵;
bc表示对应的偏置向量;
f表示激活函数relu;
卷积层的输出C表示为:
C=[c0,c1,…,cT]
式中,[c0,c1,…,cl]为整个句子的局部表示,T表示输入文本的长度;
步骤B-2,构建基于注意力机制密集块,进行文本信息特征的深层次提取,注意力密集块由主干模块和标记模块两部分组成,主干模块基于密集块,利用DenseNet神经元前层传递方式进行特征传递;标记模块由卷积模块和激活函数组成;
主干模块第0层到l-1层的输出特征图通道数目分别C0,C1,C2,…,Cl-2,Cl-1,则第l层的输出Xt为:
Xt=Hl([C0,C1,C2,…,Cl-1])
式中,Xt表示第t个主干模块的输出;
[C0,C1,C2,…,Cl-1]表示将0层到l-1层的输出特征图做通道的合并;
Hl代表三种操作的组合函数,分别是BN、relu以及卷积操作;
标记模块,即基于注意力密集模块,注意力系数Iatt表达式如下:
Iatt=f(Watt*C+b)
式中,Iatt表示当前文本信息的重要程度;
Watt表示注意权重向量;
b表示偏置向量;
f为激活函数sigmoid;
基于注意力密集模块的输出为:
Yt=Iatt*Xt+Xt
式中,Yt表示第t个注意力密集块的输出;
步骤B-3,构建转换层,对文本提取的特征进行降维,转换层由卷积层和最大池化层两部分组成,卷积层的卷积核大小为1×3,最大池化层的卷积核大小为1×2;
步骤B-4,构建分类层,对提取的文本特征进行归类,分类层由最大池化层和分类层两部分组成,最大池化层卷积核大小为1×7,分类层利用softmax分类器计算各个分类的概率。
本发明的有益效果是:本发明提出了一种基于注意力机制的文本分类方法,所述方法:使用基于DenseNet的神经网络模型;在训练神经网络之前,利用语义编码来初始化DenseNet的卷积过滤器的权重,使网络在训练之前对重要的语义信息进行辨识,从而在卷积层能捕获每个句子的有效位置信息;通过局部注意力密集连接的模块进行文本信息的特征提取。仿真实验证明,本发明具有更强的特征提取能力,并保留文本信息的内容,在多个文本分类的任务(包括情感分类和主题分类)效果显著,有效地提高了分类的准确性。
附图说明
图1是本发明基于注意力机制DenseNet模型的结构图。
具体实施方式
下面结合附图与仿真结果,对本发明提出的一种基于注意力机制的文本分类方法进行详细说明:
一种基于注意力机制的文本分类方法,其实施过程如下:
实验环境为Windows10 64bit操作系统,CPU为Intel i7-8700,GPU为NVIDIAGeForce RTX 2070,内存为16GB,实验基于深度学习框架Tensorflow上实现,实验的开发语言为Python。
实验的超参数设置,批量设置为64,学习率设置为1,迭代次数设置为50,使用3个基于注意力密集块,对应的过滤器数量分别为64,128,256,基于注意力密集块的卷积核大小设置为1×3,转换层中卷积层的卷积核大小为1×3,最大池化层的卷积核大小为1×2,使用交叉熵函数作为损失函数,利用Adam优化器优化模型的各个参数,为了从有限的数据中获取尽可能多的有效信息,实验采用十倍交叉验证法来评估模型的性能。
文本的表示,利用word2vec将文本中的单词转换成词向量,降低文本分类的复杂度,设定输入句子中每个单词被映射成一个向量xi∈Rn×d(i=0,1,2,…,n),则输入句子对应的词向量矩阵为[x1,x2,...,xn],n为句子的最大长度,d为词向量的维数;
构建文本分类器,对输入的文本进行类别划分,文本分类器的构建基于DenseNet的神经网络,由卷积层、基于注意力机制的密集块、转换层、池化层和分类层五个部分组成;
卷积层的构建包括两个过程:权重初始化和卷积过程;
权重初始化,将输入的词向量构建N-gram模型,设定m为文本中的任一类别,利用朴素贝叶斯法计算类别m中的N-gram的比重r,公式如下:
Figure BDA0003005209930000051
式中,α是平滑参数,pm表示在类别m中包含N-gram的文本数;
Figure BDA0003005209930000052
表示在除m类别外其他类别中包含N-gram的文本数;
||pm||1表示文本中的类别m的数量,||.||1表示L1范数;
Figure BDA0003005209930000053
分别表示文本中除类别m外其他类别的数量;
利用K均值算法对比重r大于1的N-gram进行聚类,将聚类的质心向量初始化卷积层的权重;
卷积过程,利用权重初始化的卷积层相应位置的局部表示ci为:
ci=f(Wc*xi:i+m-1+bc)
式中,xi:i+k-1表示从第i个词到第i+k-1个词对应的词向量;
Wc表示权值矩阵;
bc表示对应的偏置向量;
f表示relu函数,relu是一种激活函数;
卷积层的输出C表示为:
C=[c0,c1,...,cT]
式中,[c0,c1,...,cl]为整个句子的局部表示,T表示输入文本的长度;
构建基于注意力机制密集块,进行文本信息特征的深层次提取,注意力密集块由主干模块和标记模块两部分组成,主干模块基于密集块,利用DenseNet神经元前层传递方式进行特征传递;标记模块由卷积模块和激活函数组成;
主干模块第0层到l-1层的输出特征图通道数目分别C0,C1,C2,…,Cl-2,Cl-1,则第l层的输出Xt为:
Xt=Hl([C0,C1,C2,...,Cl-1])
式中,Xt表示第t个主干模块的输出;
[C0,C1,C2,...,Cl-1]表示将0层到l-1层的输出特征图做通道的合并;
Hl代表三种操作的组合函数,分别是BN、relu以及卷积操作;
BN表示批量归一化,是神经网络的标准化方法;
标记模块,即基于注意力密集模块,注意力系数Iatt表达式如下:
Iatt=f(Watt*C+b)
式中,Iatt表示当前文本信息的重要程度;
Watt表示注意权重向量;
b表示偏置向量;
f为sigmoid函数,sigmoid是一种取值范围为(0,1)的激活函数;
基于注意力密集模块的输出为:
Yt=Iatt*Xt+Xt
式中,Yt表示第t个注意力密集块的输出;
构建转换层,对文本提取的特征进行降维,转换层由卷积层和最大池化层两部分组成,卷积层的卷积核大小为1×3,最大池化层的卷积核大小为1×2;
构建分类层,对提取的文本特征进行归类,分类层由最大池化层和分类层两部分组成,最大池化层卷积核大小为1×7,分类层利用softmax分类器计算各个分类的概率,其中softmax分类器是指分配给正确分类标签的归一化概率。
本发明采用七种数据集,即MR、SST1、SST2、Subj、TREC、CR和MPQA评估基于注意力机制DenseNet模型在文本分类方面的性能。基于注意力机制的DenseNet模型在七个数据集上的精度均优于传统的DenseNet,在MR,SST2,Subj,TREC和MPQA上精度上分别提升了2.3%,0.6%,0.6%,0.1%,0.2%,性能优于传统的DenseNet模型。
为了进一步评估于注意力机制DenseNet模型的性能,通过EDA算法增强后的数据训练模型。在数据集MR、SST2、Subj、CR上,文本分类的精度分别比之前提升了1.1%、1.2%,0.6%和3.9%。由此可知,在文本分类任务中,基于注意力机制DenseNet模型的性能优于DenseNet。
综上所述,本发明提出的基于注意力机制DenseNet模型的文本分类方法在文本分类方面的性能优于其他模型,且能自动选择与文本分类更为重要的文本信息特征,提高文本分类的效率。

Claims (1)

1.一种基于注意力机制的文本分类方法,其特征在于,包含步骤如下:
步骤A,文本的表示,利用word2vec将文本中的单词转换成词向量,降低文本分类的复杂度,设定输入句子中每个单词被映射成一个向量xi∈Rn×d(i=0,1,2,…,n),则输入句子对应的词向量矩阵为[x1,x2,…,xn],n为句子的最大长度,d为词向量的维数;
步骤B,构建文本分类器,对输入的文本进行类别划分,文本分类器的构建基于DenseNet的神经网络,由卷积层、基于注意力机制的密集块、转换层、池化层和分类层五个部分组成;
步骤B-1,卷积层的构建包括两个过程:权重初始化和卷积过程;
步骤B-1-1,权重初始化,将输入的词向量构建N-gram模型,设定m为文本中的任一类别,利用朴素贝叶斯法计算类别m中的N-gram的比重r,公式如下:
Figure FDA0003005209920000011
式中,α是平滑参数,pm表示在类别m中包含N-gram的文本数;
Figure FDA0003005209920000012
表示在除m类别外其他类别中包含N-gram的文本数;
||pm||1表示文本中的类别m的数量,||.||1表示L1范数;
Figure FDA0003005209920000013
分别表示文本中除类别m外其他类别的数量;
利用K均值算法对比重r大于1的N-gram进行聚类,将聚类的质心向量初始化卷积层的权重;
步骤B-1-2,卷积过程,利用权重初始化的卷积层相应位置的局部表示ci为:
ci=f(Wc*xi:i+m-1+bc)
式中,xi:i+k-1表示从第i个词到第i+k-1个词对应的词向量;
Wc表示权值矩阵;
bc表示对应的偏置向量;
f表示激活函数relu;
卷积层的输出C表示为:
C=[c0,c1,…,cT]
式中,[c0,c1,…,cT]为整个句子的局部表示,T表示输入文本的长度;
步骤B-2,构建基于注意力机制密集块,进行文本信息特征的深层次提取,注意力密集块由主干模块和标记模块两部分组成,主干模块基于密集块,利用DenseNet神经元前层传递方式进行特征传递;标记模块由卷积模块和激活函数组成;
主干模块第0层到l-1层的输出特征图通道数目分别C0,C1,C2,…,Cl-2,Cl-1,则第l层的输出Xt为:
Xt=Hl([C0,C1,C2,…,Cl-1])
式中,Xt表示第t个主干模块的输出;
[C0,C1,C2,…,Cl-1]表示将0层到l-1层的输出特征图做通道的合并;
Hl代表三种操作的组合函数,分别是BN、relu以及卷积操作;
标记模块,即基于注意力密集模块,注意力系数Iatt表达式如下:
Iatt=f(Watt*C+b)
式中,Iatt表示当前文本信息的重要程度;
Watt表示注意权重向量;
b表示偏置向量;
f为激活函数sigmoid;
基于注意力密集模块的输出为:
Yt=Iatt*Xt+Xt
式中,Yt表示第t个注意力密集块的输出;
步骤B-3,构建转换层,对文本提取的特征进行降维,转换层由卷积层和最大池化层两部分组成,卷积层的卷积核大小为1×3,最大池化层的卷积核大小为1×2;
步骤B-4,构建分类层,对提取的文本特征进行归类,分类层由最大池化层和分类层两部分组成,最大池化层卷积核大小为1×7,分类层利用softmax分类器计算各个分类的概率。
CN202110360121.7A 2021-04-02 2021-04-02 一种基于注意力机制的文本分类方法 Active CN113204640B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110360121.7A CN113204640B (zh) 2021-04-02 2021-04-02 一种基于注意力机制的文本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110360121.7A CN113204640B (zh) 2021-04-02 2021-04-02 一种基于注意力机制的文本分类方法

Publications (2)

Publication Number Publication Date
CN113204640A true CN113204640A (zh) 2021-08-03
CN113204640B CN113204640B (zh) 2023-05-30

Family

ID=77026041

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110360121.7A Active CN113204640B (zh) 2021-04-02 2021-04-02 一种基于注意力机制的文本分类方法

Country Status (1)

Country Link
CN (1) CN113204640B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113988002A (zh) * 2021-11-15 2022-01-28 天津大学 一种基于神经聚类方法的近似注意力系统及方法
CN117456286A (zh) * 2023-12-22 2024-01-26 吉林农业大学 一种人参分级方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108664632A (zh) * 2018-05-15 2018-10-16 华南理工大学 一种基于卷积神经网络和注意力机制的文本情感分类算法
US20180373682A1 (en) * 2017-05-19 2018-12-27 salesforce.come, inc, Natural language processing using context-specific word vectors
CN110134786A (zh) * 2019-05-14 2019-08-16 南京大学 一种基于主题词向量与卷积神经网络的短文本分类方法
CN111325112A (zh) * 2020-01-31 2020-06-23 贵州大学 基于深度门控循环单元神经网络的刀具磨损状态监测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180373682A1 (en) * 2017-05-19 2018-12-27 salesforce.come, inc, Natural language processing using context-specific word vectors
CN108664632A (zh) * 2018-05-15 2018-10-16 华南理工大学 一种基于卷积神经网络和注意力机制的文本情感分类算法
CN110134786A (zh) * 2019-05-14 2019-08-16 南京大学 一种基于主题词向量与卷积神经网络的短文本分类方法
CN111325112A (zh) * 2020-01-31 2020-06-23 贵州大学 基于深度门控循环单元神经网络的刀具磨损状态监测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宋宇鹏;边继龙;安翔;张锡英;: "基于注意力机制的DenseNet模型的树种识别应用", 实验室研究与探索 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113988002A (zh) * 2021-11-15 2022-01-28 天津大学 一种基于神经聚类方法的近似注意力系统及方法
CN117456286A (zh) * 2023-12-22 2024-01-26 吉林农业大学 一种人参分级方法、装置及设备
CN117456286B (zh) * 2023-12-22 2024-04-16 吉林农业大学 一种人参分级方法、装置及设备

Also Published As

Publication number Publication date
CN113204640B (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
Zhang et al. A text sentiment classification modeling method based on coordinated CNN‐LSTM‐attention model
US11526680B2 (en) Pre-trained projection networks for transferable natural language representations
CN108595632B (zh) 一种融合摘要与主体特征的混合神经网络文本分类方法
CN109189925B (zh) 基于点互信息的词向量模型和基于cnn的文本分类方法
Xiang et al. A convolutional neural network-based linguistic steganalysis for synonym substitution steganography
CN108388651B (zh) 一种基于图核和卷积神经网络的文本分类方法
JP4514082B2 (ja) テキストの分類およびテキスト分類器を構築するための方法ならびに装置
CN110046252B (zh) 一种基于注意力机制神经网络与知识图谱的医疗文本分级方法
CN112883738A (zh) 基于神经网络和自注意力机制的医学实体关系抽取方法
CN111027595B (zh) 双阶段语义词向量生成方法
CN111984791B (zh) 一种基于注意力机制的长文分类方法
CN112749274B (zh) 基于注意力机制和干扰词删除的中文文本分类方法
CN113535953B (zh) 一种基于元学习的少样本分类方法
CN111552803A (zh) 一种基于图小波网络模型的文本分类方法
CN114896388A (zh) 一种基于混合注意力的层级多标签文本分类方法
CN110276396B (zh) 基于物体显著性和跨模态融合特征的图片描述生成方法
Li et al. Chinese text classification based on hybrid model of CNN and LSTM
CN112070139A (zh) 基于bert与改进lstm的文本分类方法
CN113204640A (zh) 一种基于注意力机制的文本分类方法
CN114925205B (zh) 基于对比学习的gcn-gru文本分类方法
CN114547230A (zh) 一种智能行政执法案例信息抽取和案由认定方法
CN113806543B (zh) 一种基于残差跳跃连接的门控循环单元的文本分类方法
CN116467443A (zh) 基于主题识别的网络舆情文本分类方法
CN115687609A (zh) 一种基于Prompt多模板融合的零样本关系抽取方法
CN111353032B (zh) 面向社区问答的问题分类方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant