CN111259157A - 一种基于混合双向循环胶囊网络模型的中文文本分类方法 - Google Patents
一种基于混合双向循环胶囊网络模型的中文文本分类方法 Download PDFInfo
- Publication number
- CN111259157A CN111259157A CN202010104287.8A CN202010104287A CN111259157A CN 111259157 A CN111259157 A CN 111259157A CN 202010104287 A CN202010104287 A CN 202010104287A CN 111259157 A CN111259157 A CN 111259157A
- Authority
- CN
- China
- Prior art keywords
- chinese text
- capsule network
- network model
- hybrid
- classified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种基于混合双向循环胶囊网络模型的中文文本分类方法,包括:构建混合双向循环胶囊网络模型,混合双向循环胶囊网络模型包括BiGRU网络和胶囊网络;将基于获取的待分类中文文本得到的第一字符向量输入到混合双向循环胶囊网络模型,使得BiGRU网络基于第一字符向量提取待分类中文文本的上下文特征,胶囊网络对上下文特征进行处理,输出待分类中文文本的分类结果,从而解决了现有的文本分类方法存在梯度爆炸以及容易在池化层丢失信息,无法获取文本全局信息,使得文本分类准确率不高的技术问题。
Description
技术领域
本申请涉及文本分类技术领域,尤其涉及一种基于混合双向循环胶囊网络模型的中文文本分类方法。
背景技术
随着信息化时代的发展,研究者们可以通过收集的大量文本数据进行处理和知识挖掘,建立知识图谱,大多数知识图谱是通用型知识图谱,如dbpedia、yago等,特定领域的知识图谱需要特定主题的文本数据,由于收集的文本数据主题杂乱无章,无法为计算机所“理解”,也就无法对特定领域知识进行挖掘,可以通过对原始文本进行主题分类来解决该问题。现有技术中采用循环神经网络进行文本分类存在梯度爆炸,而采用卷积神经网络进行文本分类,存在容易在池化层丢失信息,无法获取文本全局信息,使得文本分类准确率不高的问题。
发明内容
本申请提供了一种基于混合双向循环胶囊网络模型的中文文本分类方法,用于解决现有的文本分类方法存在梯度爆炸以及容易在池化层丢失信息,无法获取文本全局信息,使得文本分类准确率不高的技术问题。
有鉴于此,本申请第一方面提供了一种基于混合双向循环胶囊网络模型的中文文本分类方法,包括:
构建混合双向循环胶囊网络模型,所述混合双向循环胶囊网络模型包括BiGRU网络和胶囊网络;
将基于获取的待分类中文文本得到的第一字符向量输入到所述混合双向循环胶囊网络模型,使得所述BiGRU网络基于所述第一字符向量提取所述待分类中文文本的上下文特征,所述胶囊网络对所述上下文特征进行处理,输出所述待分类中文文本的分类结果。
优选地,所述将基于获取的待分类中文文本得到的第一字符向量输入到所述混合双向循环胶囊网络模型,包括:
基于Word2Vec模型将获取的所述待分类中文文本映射为所述第一字符向量;
将所述第一字符向量输入到所述混合双向循环胶囊网络模型。
优选地,所述基于Word2Vec模型将获取的所述待分类中文文本映射为所述第一字符向量,之前还包括:
对获取的所述待分类中文文本进行预处理。
优选地,所述将基于获取的待分类中文文本得到的第一字符向量输入到所述混合双向循环胶囊网络模型,使得所述BiGRU网络基于所述第一字符向量提取所述待分类中文文本的上下文特征,所述胶囊网络对所述上下文特征进行处理,输出所述待分类中文文本的分类结果,之前还包括:
获取待训练中文文本;
将基于所述待训练中文文本得到的第二字符向量输入到所述混合双向循环胶囊网络模型,对所述混合双向循环胶囊网络模型进行训练;
当所述混合双向循环胶囊网络模型达到收敛条件时,得到训练好的所述混合双向循环胶囊网络模型。
优选地,所述将基于所述待训练中文文本得到的第二字符向量输入到所述混合双向循环胶囊网络模型,包括:
基于Word2Vec模型将所述待训练中文文本映射为所述第二字符向量;
将所述第二字符向量输入到所述混合双向循环胶囊网络模型。
优选地,所述基于Word2Vec模型将所述待训练中文文本映射为所述第二字符向量,之前还包括:
对所述待训练中文文本进行预处理。
优选地,所述预处理包括去除停用词、去除标点符号和分词处理。
从以上技术方案可以看出,本申请具有以下优点:
本申请提供了一种基于混合双向循环胶囊网络模型的中文文本分类方法,包括:构建混合双向循环胶囊网络模型,混合双向循环胶囊网络模型包括BiGRU网络和胶囊网络;将基于获取的待分类中文文本得到的第一字符向量输入到混合双向循环胶囊网络模型,使得BiGRU网络基于第一字符向量提取待分类中文文本的上下文特征,胶囊网络对上下文特征进行处理,输出待分类中文文本的分类结果。
本申请中的基于混合双向循环胶囊网络模型的中文文本分类方法,通过构建的混合双向循环胶囊网络模型中的BiGRU网络提取文本的全局信息,并且BiGRU网络可以按照重置门和更新门的门控比例来保留和更新信息,克服了梯度爆炸和消失的问题,从而提高分类准确率;通过胶囊网络对提取的上下文特征进行分类,胶囊网络采用矢量胶囊来表示分类类别,相比于循环神经网络和卷积神经网络采用的标量神经元来表示分类类别,矢量胶囊能够表达更丰富的信息,有助于提高文本分类的准确率,从而解决了现有的文本分类方法存在梯度爆炸以及容易在池化层丢失信息,无法获取文本全局信息,使得文本分类准确率不高的技术问题。
附图说明
图1为本申请实施例提供的一种基于混合双向循环胶囊网络模型的中文文本分类方法的一个流程示意图;
图2为本申请实施例提供的一种基于混合双向循环胶囊网络模型的中文文本分类方法的另一个流程示意图;
图3为本申请实施例提供的混合双向循环胶囊网络模型的结构示意图;
图4为本申请实施例提供的BiGRU网络提取上下文特征的结构示意图;
图5为本申请实施例提供的3分类的胶囊网络分类层的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了便于理解,请参阅图1,本申请提供的一种基于混合双向循环胶囊网络模型的中文文本分类方法的一个实施例,包括:
步骤101、构建混合双向循环胶囊网络模型,混合双向循环胶囊网络模型包括BiGRU网络和胶囊网络。
需要说明的是,考虑到现有的中文文本分类方法均是采用单一的神经网络进行文本特征提取和分类,存在分类准确率不高的问题,本申请实施例中构建混合双向循环胶囊网络模型,通过将双向门控循环神经网络(Bi-directional Gated Recurrent UnitNeural Network,BiGRU)和胶囊网络结合起来,采用混合网络来进行特征提取和文本分类,解决单一网络所存在的分类准确率不高的问题。
步骤102、将基于获取的待分类中文文本得到的第一字符向量输入到混合双向循环胶囊网络模型,使得BiGRU网络基于第一字符向量提取待分类中文文本的上下文特征,胶囊网络对上下文特征进行处理,输出待分类中文文本的分类结果。
需要说明的是,将获取的待分类中文文本转为字符向量,能够使计算机能够理解词语义,将词语转化为相应的词向量后可以应用到各种神经网络中。
本申请实施例中的基于混合双向循环胶囊网络模型的中文文本分类方法,通过构建的混合双向循环胶囊网络模型中的BiGRU网络提取文本的全局信息,并且BiGRU网络可以按照重置门和更新门的门控比例来保留和更新信息,克服了梯度爆炸和消失的问题,从而提高分类准确率;通过胶囊网络对提取的上下文特征进行分类,胶囊网络采用矢量胶囊来表示分类类别,相比于循环神经网络和卷积神经网络采用的标量神经元来表示分类类别,矢量胶囊能够表达更丰富的信息,有助于提高文本分类的准确率,从而解决了现有的文本分类方法存在梯度爆炸以及容易在池化层丢失信息,无法获取文本全局信息,使得文本分类准确率不高的技术问题。
为了便于理解,请参阅图2至图5,本申请提供的一种基于混合双向循环胶囊网络模型的中文文本分类方法的另一个实施例,包括:
步骤201、构建混合双向循环胶囊网络模型,混合双向循环胶囊网络模型包括BiGRU网络和胶囊网络。
需要说明的是,考虑到现有的中文文本分类方法均是采用单一的神经网络进行文本特征提取和分类,存在分类准确率不高的问题,本申请实施例中构建混合双向循环胶囊网络模型,请参阅图3,通过将BiGRU网络和胶囊网络结合起来,采用混合网络来进行特征提取和文本分类,解决单一网络所存在的分类准确率不高的问题。
步骤202、获取待训练中文文本。
需要说明的是,待训练中文文本可以从公开的中文文本数据集中获取,待训练中文文本为固定长度N的中文文本序列,即每个待训练中文文本由N个字组成,其中,N可以根据实际情况进行设置。
步骤203、对待训练中文文本进行预处理。
需要说明的是,对待训练中文文本进行预处理,具体包括去除停用词、去除标点符号以及对待序列中文文本进行分词处理,有助于后续提高分类准确率。
步骤204、将基于待训练中文文本得到的第二字符向量输入到混合双向循环胶囊网络模型,对混合双向循环胶囊网络模型进行训练。
需要说明的是,将基于待训练中文文本得到的第二字符向量输入到混合双向循环胶囊网络模型,具体为:基于Word2Vec模型将待训练中文文本映射为第二字符向量;将第二字符向量输入到混合双向循环胶囊网络模型,其中,采用Word2Vec模型将文本映射为字符向量属于现有技术,在此不再对基于Word2Vec模型将待训练中文文本映射为第二字符向量的具体过程进行赘述。将第二字符向量输入到混合双向循环胶囊网络模型中对混合双向循环胶囊网络模型进行训练,其中,混合双向循环胶囊网络模型中的BiGRU网络相比于长短记忆网络(Long Short-Term Memory,LSTM)在传递前文信息时,包含更少的参数,训练速度更快。
步骤205、当混合双向循环胶囊网络模型达到收敛条件时,得到训练好的混合双向循环胶囊网络模型。
需要说明的是,收敛条件可以是训练过程中的混合双向循环胶囊网络模型的误差率在预置范围内,收敛条件也可以是混合双向循环胶囊网络模型在训练时的迭代次数达到预置迭代次数,当混合双向循环胶囊网络模型达到收敛条件时,停止训练,得到训练好的混合双向循环胶囊网络模型,采用训练好的混合双向循环胶囊网络模型进行文本分类。
步骤206、对获取的待分类中文文本进行预处理。
需要说明的是,对待分类中文文本进行预处理,具体包括去除停用词、去除标点符号以及对待序列中文文本进行分词处理。
步骤207、将基于获取的待分类中文文本得到的第一字符向量输入到混合双向循环胶囊网络模型,使得BiGRU网络基于第一字符向量提取待分类中文文本的上下文特征,胶囊网络对上下文特征进行处理,输出待分类中文文本的分类结果。
需要说明的是,待分类文本可以从网络中获取,待分类中文文本为固定长度N的中文文本序列,即每个待分类中文文本由N个字组成,其中,N可以根据实际情况进行设置,基于Word2Vec模型将获取的待分类中文文本映射为第一字符向量,通过Word2Vec模型将待分类中文文本中的每个字符映射为字符向量C(ci),得到第一字符向量S=[C(c1),C(c2),…,C(ci),…,C(cN)],即字符级特征,其中,ci为第i个字符;将第一字符向量输入到混合双向循环胶囊网络模型,混合双向循环胶囊网络模型的结构可以参考图3,BiGRU网络的单元由一个前向传播的GRU单元和一个后向传播的GRU单元组合而成,BiGRU网络基于输入的第一字符向量提取待分类中文文本的上下文特征的过程可以参考图4,当t时刻BiGRU网络的输入为xt,输出为ht,具体的计算公式为:
zt=σ(Uzxt+Wz[ht-1,ht+1]+bz);
rt=σ(Urxt+Wr[ht-1,ht+1]+br);
st=tanh(Usxt+Ws·rt×[ht-1,ht+1]+bs);
ht=(1-zt)×[ht-1,ht+1]+zt×st;
其中,Uz、Ur、Us、Wz、Wr和Ws均为网络权重参数,bz、br和bs为网络的偏置参数,zt为更新门,rt为重置门,用来控制信息通过的比例,st为需要更新的信息,通过重置门和更新门的门控比例保留和更新信息,克服了梯度爆炸和消失的问题,ht为t时刻的隐藏层状态,ht-1为t的上一时刻的状态,ht+1为t的下一时刻的状态,BiGRU网络基于输入的第一字符向量提取特征,输出上下文特征。
胶囊网络对上下文特征进行处理,输出待分类中文文本的分类结果,以3分类为例,图5为本申请实施例中的3分类的胶囊网络分类层的示意图,胶囊网络分为高阶胶囊和低阶胶囊,BiGRU网络输出的特征通过卷积层操作,得到的卷积结果作为胶囊网络的输入,基于卷积结果划分初级胶囊层,假设中文文本分类的类别数量为3,对应的高阶胶囊数量也为3,每个高阶胶囊的模长表示类别分类概率,模长被归一化到0-1之间,胶囊网络的squash激活函数为:
其中,vj为第j个高阶胶囊的最终输出,sj为第j个高阶胶囊的输入,j∈[1,m],高阶胶囊的输入sj的计算公式为:
sj=∑cijuj|i;
uj|i=wijli;
其中,wij为权重矩阵,uj|i为预测胶囊矢量,li为第i个低阶胶囊的输出,cij为连接权重,可以通过动态路由算法计算得到,通过动态路由算法更新bij来更新cij,具体为:对于所有的低阶胶囊i和高阶胶囊j设定参数bij,初始化为0,开始迭代,对于低阶胶囊i,可以通过softmax求出低阶胶囊与高阶胶囊的连接权重cij,即cij=softmax(bij),对于高阶胶囊j,可以求出sj和vj,然后更新参数bij,得到更新参数bij后,通过softmax求取cij,进而更新cij,更新参数bij的公式为:
bij=bij+uj|i·vj。
本申请实施例中的基于混合双向循环胶囊网络模型的中文文本分类方法,通过构建的混合双向循环胶囊网络模型中的BiGRU网络提取文本的全局信息,并且BiGRU网络可以按照重置门和更新门的门控比例来保留和更新信息,克服了梯度爆炸和消失的问题,从而提高分类准确率;再通过胶囊网络对上下文特征进行文本分类,胶囊网络采用矢量胶囊来表示分类类别,相比于现有技术中采用的循环神经网络或卷积神经网络采用的标量神经元,矢量胶囊能够表达更丰富的信息,从而通过分类准确率;本申请实施例中的基于混合双向循环胶囊网络模型的中文文本分类方法,采用混合网络的方法,有效地弥补了单一深度学习分类模型在文本分类上的不足,能够提高文本分类的准确率。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以通过一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (7)
1.一种基于混合双向循环胶囊网络模型的中文文本分类方法,其特征在于,包括:
构建混合双向循环胶囊网络模型,所述混合双向循环胶囊网络模型包括BiGRU网络和胶囊网络;
将基于获取的待分类中文文本得到的第一字符向量输入到所述混合双向循环胶囊网络模型,使得所述BiGRU网络基于所述第一字符向量提取所述待分类中文文本的上下文特征,所述胶囊网络对所述上下文特征进行处理,输出所述待分类中文文本的分类结果。
2.根据权利要求1所述的基于混合双向循环胶囊网络模型的中文文本分类方法,其特征在于,所述将基于获取的待分类中文文本得到的第一字符向量输入到所述混合双向循环胶囊网络模型,包括:
基于Word2Vec模型将获取的所述待分类中文文本映射为所述第一字符向量;
将所述第一字符向量输入到所述混合双向循环胶囊网络模型。
3.根据权利要求2所述的基于混合双向循环胶囊网络模型的中文文本分类方法,其特征在于,所述基于Word2Vec模型将获取的所述待分类中文文本映射为所述第一字符向量,之前还包括:
对获取的所述待分类中文文本进行预处理。
4.根据权利要求1所述的基于混合双向循环胶囊网络模型的中文文本分类方法,其特征在于,所述将基于获取的待分类中文文本得到的第一字符向量输入到所述混合双向循环胶囊网络模型,使得所述BiGRU网络基于所述第一字符向量提取所述待分类中文文本的上下文特征,所述胶囊网络对所述上下文特征进行处理,输出所述待分类中文文本的分类结果,之前还包括:
获取待训练中文文本;
将基于所述待训练中文文本得到的第二字符向量输入到所述混合双向循环胶囊网络模型,对所述混合双向循环胶囊网络模型进行训练;
当所述混合双向循环胶囊网络模型达到收敛条件时,得到训练好的所述混合双向循环胶囊网络模型。
5.根据权利要求4所述的基于混合双向循环胶囊网络模型的中文文本分类方法,其特征在于,所述将基于所述待训练中文文本得到的第二字符向量输入到所述混合双向循环胶囊网络模型,包括:
基于Word2Vec模型将所述待训练中文文本映射为所述第二字符向量;
将所述第二字符向量输入到所述混合双向循环胶囊网络模型。
6.根据权利要求5所述的基于混合双向循环胶囊网络模型的中文文本分类方法,其特征在于,所述基于Word2Vec模型将所述待训练中文文本映射为所述第二字符向量,之前还包括:
对所述待训练中文文本进行预处理。
7.根据权利要求3或6所述的基于混合双向循环胶囊网络模型的中文文本分类方法,其特征在于,所述预处理包括去除停用词、去除标点符号和分词处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010104287.8A CN111259157A (zh) | 2020-02-20 | 2020-02-20 | 一种基于混合双向循环胶囊网络模型的中文文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010104287.8A CN111259157A (zh) | 2020-02-20 | 2020-02-20 | 一种基于混合双向循环胶囊网络模型的中文文本分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111259157A true CN111259157A (zh) | 2020-06-09 |
Family
ID=70952957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010104287.8A Pending CN111259157A (zh) | 2020-02-20 | 2020-02-20 | 一种基于混合双向循环胶囊网络模型的中文文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259157A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111832663A (zh) * | 2020-07-30 | 2020-10-27 | 上海电机学院 | 一种基于门控循环单元的胶囊网络滚动轴承故障诊断系统 |
CN112131391A (zh) * | 2020-11-25 | 2020-12-25 | 江苏电力信息技术有限公司 | 一种基于胶囊网络的供电服务客户诉求文本分类方法 |
CN112231477A (zh) * | 2020-10-20 | 2021-01-15 | 淮阴工学院 | 一种基于改进胶囊网络的文本分类方法 |
CN112256878A (zh) * | 2020-10-29 | 2021-01-22 | 沈阳农业大学 | 一种基于深度卷积的水稻知识文本分类方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241283A (zh) * | 2018-08-08 | 2019-01-18 | 广东工业大学 | 一种基于多角度胶囊网络的文本分类方法 |
CN110046671A (zh) * | 2019-04-24 | 2019-07-23 | 吉林大学 | 一种基于胶囊网络的文本分类方法 |
-
2020
- 2020-02-20 CN CN202010104287.8A patent/CN111259157A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241283A (zh) * | 2018-08-08 | 2019-01-18 | 广东工业大学 | 一种基于多角度胶囊网络的文本分类方法 |
CN110046671A (zh) * | 2019-04-24 | 2019-07-23 | 吉林大学 | 一种基于胶囊网络的文本分类方法 |
Non-Patent Citations (3)
Title |
---|
JIANFENG DENG等: "Self-attention-based BiGRU and capsule network for named entity recognition" * |
JIANFENG DENG等: "Self-attention-based BiGRU and capsule network for named entity recognition", ARXIV.ORG/ABS/2002.00735, pages 1 * |
王盼盼: "基于BiGRU-CapsNet模型的文本分类研究" * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111832663A (zh) * | 2020-07-30 | 2020-10-27 | 上海电机学院 | 一种基于门控循环单元的胶囊网络滚动轴承故障诊断系统 |
CN112231477A (zh) * | 2020-10-20 | 2021-01-15 | 淮阴工学院 | 一种基于改进胶囊网络的文本分类方法 |
CN112231477B (zh) * | 2020-10-20 | 2023-09-22 | 淮阴工学院 | 一种基于改进胶囊网络的文本分类方法 |
CN112256878A (zh) * | 2020-10-29 | 2021-01-22 | 沈阳农业大学 | 一种基于深度卷积的水稻知识文本分类方法 |
CN112256878B (zh) * | 2020-10-29 | 2024-01-16 | 沈阳农业大学 | 一种基于深度卷积的水稻知识文本分类方法 |
CN112131391A (zh) * | 2020-11-25 | 2020-12-25 | 江苏电力信息技术有限公司 | 一种基于胶囊网络的供电服务客户诉求文本分类方法 |
CN112131391B (zh) * | 2020-11-25 | 2021-09-17 | 江苏电力信息技术有限公司 | 一种基于胶囊网络的供电服务客户诉求文本分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368996B (zh) | 可传递自然语言表示的重新训练投影网络 | |
CN107526785B (zh) | 文本分类方法及装置 | |
CN111767405B (zh) | 文本分类模型的训练方法、装置、设备及存储介质 | |
CN111967266B (zh) | 中文命名实体识别系统、模型构建方法和应用及相关设备 | |
CN108595632B (zh) | 一种融合摘要与主体特征的混合神经网络文本分类方法 | |
CN111259157A (zh) | 一种基于混合双向循环胶囊网络模型的中文文本分类方法 | |
CN111444340B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN111125358B (zh) | 一种基于超图的文本分类方法 | |
CN110196980B (zh) | 一种基于卷积网络在中文分词任务上的领域迁移 | |
CN110969020A (zh) | 基于cnn和注意力机制的中文命名实体识别方法、系统及介质 | |
US11397892B2 (en) | Method of and system for training machine learning algorithm to generate text summary | |
CN109255340A (zh) | 一种融合多种改进vgg网络的人脸识别方法 | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN111475622A (zh) | 一种文本分类方法、装置、终端及存储介质 | |
CN107766320A (zh) | 一种中文代词消解模型建立方法及装置 | |
CN112784929B (zh) | 一种基于双元组扩充的小样本图像分类方法及装置 | |
CN110222329B (zh) | 一种基于深度学习的中文分词方法和装置 | |
CN111046183A (zh) | 用于文本分类的神经网络模型的构建方法和装置 | |
CN111581970B (zh) | 一种网络语境的文本识别方法、装置及存储介质 | |
CN110276396B (zh) | 基于物体显著性和跨模态融合特征的图片描述生成方法 | |
CN111881292B (zh) | 一种文本分类方法及装置 | |
CN111460818A (zh) | 一种基于增强胶囊网络的网页文本分类方法及存储介质 | |
CN114491039B (zh) | 基于梯度改进的元学习少样本文本分类方法 | |
CN111476024A (zh) | 一种文本分词方法、装置及模型训练方法 | |
CN113220876A (zh) | 一种用于英文文本的多标签分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |