CN110489545A - 文本分类方法及装置、存储介质、计算机设备 - Google Patents
文本分类方法及装置、存储介质、计算机设备 Download PDFInfo
- Publication number
- CN110489545A CN110489545A CN201910615752.1A CN201910615752A CN110489545A CN 110489545 A CN110489545 A CN 110489545A CN 201910615752 A CN201910615752 A CN 201910615752A CN 110489545 A CN110489545 A CN 110489545A
- Authority
- CN
- China
- Prior art keywords
- text
- sentence
- information
- words
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了文本分类方法及装置、存储介质、计算机设备,涉及文本处理技术领域,可以提升文本分类准确度。其中方法包括:利用训练好的文本分类网络模型对待处理文本进行编码,得到所述待处理文本的句子信息;利用训练好的文本分类网络模型对所述句子信息进行编码,得到所述待处理文本的文本信息;利用训练好的文本分类网络模型的分类器对所述文本信息进行分类识别,得到所述待处理文本的类别。本申请适用于文章按题材进行自动分类。
Description
技术领域
本申请涉及文本处理技术领域,尤其是涉及到文本分类方法及装置、存储介质及计算机设备。
背景技术
随着深度学习和神经网络技术的快速发展,深度学习和神经网络技术能够用于文本分类,目前文本分类有着广泛的应用场景,例如,新闻网站包含大量报道文章,基于文章内容,需要将这些文章按题材进行自动分类,划分成政治、经济、军事、体育、娱乐等;又如,电子邮箱频繁接收到垃圾广告信息,通过文本分类能够从众多的邮件中识别垃圾邮件并过滤,提高邮箱用户的使用效率等。
但现有基于知识工程实现文本分类的方式存在的不足具体为,网络模型中的文本特征需要人为设定,且人为设定的文本特征不具有普遍性,当遇到新的语料环境时,需要重新对文本特征进行设定,即网络模型无法实现文本特征的自动提取,人工成本较高,且人工设定文本特征无法最大化利用文本,导致文本分类的准确度较低。
发明内容
有鉴于此,本申请提供了文本分类方法及装置、存储介质、计算机设备,主要目的在于解决现有基于知识工程实现文本分类的方式需要对文本特征进行人为设定,对网络模型提取文本特征造成一定的局限性,且在遇到新的语料环境时,网络模型无法实现文本特征的自动提取,此外,人工设定文本特征无法最大化利用文本,导致文本分类的准确度较低的技术问题。
根据本申请的一个方面,提供了一种文本分类方法,该方法包括:
利用训练好的文本分类网络模型对待处理文本进行编码,得到所述待处理文本的句子信息;
利用训练好的文本分类网络模型对所述句子信息进行编码,得到所述待处理文本的文本信息;
利用所述训练好的文本分类网络模型的分类器对所述文本信息进行分类识别,得到所述待处理文本的类别。
根据本申请的另一方面,提供了一种文本分类装置,该装置包括:
字词编码模块,用于利用训练好的文本分类网络模型对待处理文本进行编码,得到所述待处理文本的句子信息;
句子编码模块,用于利用训练好的文本分类网络模型对所述句子信息进行编码,得到所述待处理文本的文本信息;
分类识别模块,用于利用训练好的文本分类网络模型的分类器对所述文本信息进行分类识别,得到所述待处理文本的类别。
依据本申请又一个方面,提供了一种存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述文本分类方法。
依据本申请再一个方面,提供了一种计算机设备,包括存储介质、处理器及存储在存储介质上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述文本分类方法。
借由上述技术方案,本申请提供的文本分类方法及装置、存储介质、计算机设备,与现有基于知识工程实现文本分类的技术方案相比,本申请利用训练好的文本分类网络模型对待处理文本进行编码,得到待处理文本的句子信息,利用训练好的文本分类网络模型对所述句子信息进行编码,得到待处理文本的文本信息,以及利用训练好的文本分类网络模型的分类器对文本信息进行分类识别,得到待处理文本的类别。可见,通过训练好的文本分类网络模型能够有效避免现有人为设定网络模型的文本特征,导致人工成本较高,更新效率较低,以及文本分类的准确度较低的技术问题,从而在灵活应对不同的语料环境的同时,有效提升文本分类的准确度。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1示出了本申请实施例提供的一种文本分类方法的流程示意图;
图2示出了本申请实施例提供的另一种文本分类方法的流程示意图;
图3示出了本申请实施例提供的一种文本分类装置的结构示意图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本申请。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
针对现有基于知识工程实现文本分类的方式需要对文本特征进行人为设定,对网络模型提取文本特征造成一定的局限性,且人工成本较高,此外,人工设定文本特征无法最大化利用文本,导致文本分类的准确度较低的技术问题。本实施例提供了一种文本分类方法,能够有效避免现有人为设定文本特征,导致人工成本较高,更新效率较低,以及文本分类的准确度较低的技术问题,从而在灵活应对不同的语料环境的同时,有效提升文本分类的准确度,如图1所示,该方法包括:
101、利用训练好的文本分类网络模型对待处理文本进行编码,得到所述待处理文本的句子信息。
在本实施例中,文本分类网络模型为基于门控循环单元(GRU:Gated RecurrentUnit)的序列编码器,门控循环单元GRU是循环神经网络(RNN:Recurrent Neural Network)的一种变体,即在传统循环神经网络RNN上,增加门的机制来追踪时间序列中时间步隐藏状态向量的变化,门控循环单元GRU包括两种门,重置门rt和更新门zt,用于控制时间序列中的时间步信息是如何更新到当前时间步的。在时刻t,门控循环单元GRU计算新的隐藏状态向量ht的计算公式为:
其中,为候选隐藏状态向量,ht-1为上一时间步的隐藏状态向量。
更新门zt用于确定上一时间步的隐藏状态向量中的历史信息是否保留,以及确定当前时间步的候选隐藏状态是否被添加,更新门zt的计算公式为:
zt=σ(Wzxt+Uzht-1+bz)
其中,xt为时间序列在t时刻的输入向量,Wz和Uz为更新门zt的权重参数矩阵,bz为更新门zt的偏置参数矩阵,σ为带有激活函数的全连接层,候选隐藏状态向量的计算公式为:
其中,Wh和Uh为隐藏状态ht的权重参数矩阵,bh为隐藏状态ht的偏置参数矩阵。
重置门rt用于确定上一时间步的隐藏状态向量是否贡献当前时间步的候选隐藏状态向量,若rt为零,则丢弃上一时间步的隐藏状态向量。重置门rt的计算公式为:
rt=σ(Wrxt+Urht-1+br)
其中,Wr和Ur为重置门rt的权重参数矩阵,br为重置门rt的偏置参数矩阵。
因此,用于表示文本语义的隐藏状态向量的计算公式为:
ht=GRU(xt)
102、利用训练好的文本分类网络模型对所述句子信息进行编码,得到所述待处理文本的文本信息。
在实际应用的场景中,不同的字词或者句子对于一个文本的重要程度是不同的,即字词或者句子所表征的信息是否能够有效判断文本的类别,是否具有概括性作用等,且通常与上下文存在一定的相关性,例如,同样的字词或者句子在不同的上下文中体现的重要程度不同。在文本分类网络模型的每一层门控循环单元GRU之上增加注意力机制,以保证文本分类网络模型能够捕捉对文本的重要程度较高的信息,并忽略重要程度较低的信息。
103、利用训练好的文本分类网络模型的分类器对所述文本信息进行分类识别,得到所述待处理文本的类别。
在本实施例中,将获取到的待处理文本经由文本分类网络模型的字词序列编码器得到字词标注(即字词序列),经由字词注意力机制得到句子向量(即句子信息),经由句子序列编码器得到句子标注(即句子序列),经由句子注意力机制得到文本向量(即文本信息),最后将得到的文本向量输入分类器得到待处理文本的文本类别。其中,该分类器包括一个全连接层和一个Softmax层。
对于本实施例可以按照上述方案,利用训练好的文本分类网络模型对待处理文本进行编码,得到待处理文本的句子信息,利用训练好的文本分类网络模型对所述句子信息进行编码,得到待处理文本的文本信息,以及利用训练好的文本分类网络模型的分类器对文本信息进行分类识别,得到待处理文本的类别,与现有基于知识工程实现文本分类的技术方案相比,本实施例通过训练好的文本分类网络模型能够有效避免现有人为设定网络模型的文本特征,导致人工成本较高,更新效率较低,以及文本分类的准确度较低的技术问题,从而在灵活应对不同的语料环境的同时,有效提升文本分类的准确度。
进一步的,作为上述实施例具体实施方式的细化和扩展,为了完整说明本实施例的具体实施过程,提供了另一种文本分类方法,如图2所示,该方法包括:
201、构建初始文本分类网络模型。
在本实施例中,初始文本分类网络模型主要由字词序列编码器,字词注意力机制,句子序列编码器和句子注意力机制组成。具体为,利用字词序列编码器,以及字词注意力机制得到的包含字词特征信息的句子向量作为下一层句子序列编码器的输入,基于构建的初始文本分类网络模型的串行架构,根据句子注意力机制输出的包含字词特征信息和句子特征信息的文本向量实现对待处理文本的分类。
202、对所述初始文本分类网络模型中的字词序列编码器和字词注意力机制进行训练,确定字词序列编码器和字词注意力机制中的第一网络模型参数。
在实际应用的场景中,构建训练样本集,训练样本集包括一个文本,例如,一段话,该文本包括L个句子,每个句子含有T个字词。利用字词序列编码器中的字词嵌入矩阵We对字词wit进行字词嵌入得到包含字词特征信息的字词向量xit,以便利用双向门控循环单元GRU汇总两个方向的字词特征信息得到包含上下文信息的字词wit的字词标注hit。具体计算公式为:
xit=Wewit;
其中,wit表示第i个句子中第t个字词,t∈[1,T],i∈[1,L],将计算得到的两个方向的包含字词特征信息的字词标注和进行拼接,得到包含上下文信息的字词wit的字词标注hit。
需要说明的是,字词嵌入矩阵We是在大规模语料库中预先训练好的,以便直接使用该字词嵌入矩阵We而不作为网络模型参数进行训练与优化,在实际的应用场景中,直接对字词序列编码器的双向门控循环单元GRU中的第一网络模型参数Wz、Uz、bz、Wh、Uh、bh、Wr、Ur、br进行网络模型参数的训练与优化。
字词序列编码器和字词注意力机制中的第一网络模型参数是共享的,在字词注意力机制中,由于不是所有的字词对句子语义的贡献度都是相同的,因此基于字词对句子语义的重要性程度,利用字词注意力机制提取重要的、信息含量丰富的字词,得到句子向量si。具体为,利用字词注意力机制的全连接层得到字词标注hit的隐层向量uit,此处,字词注意力机制包括一个全连接层。
例如,句子“我们采用层次化注意力机制,更有效地……”,当字词标注hit经由字词注意力机制的全连接层输出隐层向量uit后,通过对比全连接层输出的隐层向量uit和可训练的字词级别的上下文向量uw(上下文向量uw为随机初始化),以及归一化或者正则化处理,得到字词重要性权重αit,具体计算公式为:
uit=tanh(Wwhit+bw)
其中,uw为字词级别的上下文向量,重要字词的权重值较大,不重要字词的权重值较小,αit为字词重要性权重。
在训练过程中,通过反向传播更新第一网络模型参数Ww,bw,uw,通过调整内部网络模型参数以确定哪些为重要字词,哪些为不重要字词,从而得到一个加权平均后的最优句子向量si,句子向量si为所有隐层向量uit的加权总和。具体为,在经由字词注意力机制处理后,句子“我们采用层次化注意力机制,更有效地……”中的“层次化”、“注意力”等关键字词被赋予的字词重要性权重αit变大,其它字词被赋予的字词重要性权重αit变小。
203、对所述初始文本分类网络模型中的句子序列编码器和句子注意力机制进行训练,确定句子序列编码器和句子注意力机制中的第二网络模型参数。
在本实施例中,将利用字词序列编码器,以及字词注意力机制得到的句子向量si作为句子序列编码器的输入,利用双向门控循环单元GRU汇总两个方向的句子特征信息得到包含上下文信息的句子标注hi。具体计算公式为:
句子注意力机制的具体计算公式为:
ui=tanh(Wshi+bS)
其中,ui为句子标注hi的隐层向量,αi为归一化或者正则化处理后的句子重要性权重,Ws、us、bs为句子注意力机制中的其它网络模型参数,v为利用句子注意力机制得到的文本向量。
在训练过程中,对字词序列编码器以及句子注意力机制中的第二网络模型参数进行更新,此处,字词序列编码器和句子注意力机制中的第二网络模型参数与字词序列编码器和字词注意力机制中的第一网络模型参数不相同,即网络模型参数不共享。
在实际应用的场景中,利用句子注意力机制得到的文本向量v为文本高层次的向量表示,即用于文本分类的特征信息,将得到的文本向量v通过由一个全连接层和一个Softmax层组成的分类器输出文本的分类结果,具体计算公式为:
P=Softmax(Wcv+bc)
其中,P为文本类别为某一类的概率,Wc、bc为Softmax层的网络模型参数,Wc为权重参数矩阵、bc为偏置参数矩阵。
设定所构建的初始文本分类网络模型的损失函数为交叉熵,具体计算公式为:
其中,j为文本d的分类标签,利用梯度下降算法优化该损失函数,并更新上述所有的第二网络模型参数,从而得到训练好的文本分类网络模型。
204、利用训练好的文本分类网络模型的字词序列编码器,对待处理文本进行字词编码得到包含字词上下文信息的字词序列。
205、利用训练好的文本分类网络模型的字词注意力机制,根据所述字词序列得到所述待处理文本的句子信息。
为了说明步骤205的具体实施方式,作为一种优选实施例,步骤205具体可以包括:利用所述字词注意力机制中的全连接层得到所述字词序列的上下文信息和所述字词序列中每个字词的特征信息;以及,根据所述字词序列的上下文信息和每个字词的特征信息确定所述字词序列中每个字词的权重信息;以及,根据所述字词序列中每个字词的权重信息,得到所述待处理文本的句子信息。
206、利用训练好的文本分类网络模型的句子序列编码器,对所述句子信息进行句子编码得到包含句子上下文信息的句子序列。
207、利用训练好的文本分类网络模型的句子注意力机制,根据所述句子序列得到所述待处理文本的文本信息。
为了说明步骤207的具体实施方式,作为一种优选实施例,步骤207具体可以包括:利用所述句子注意力机制中的全连接层得到所述句子序列的上下文信息和所述句子序列中每个句子的特征信息;以及,根据所述句子序列的上下文信息和每个句子的特征信息确定所述句子序列中每个句子的权重信息;以及,根据所述句子序列中每个句子的权重信息,得到所述待处理文本的句子信息。
208、对所述文本信息进行分类识别,得到每个类别的概率值。
209、对得到的多个概率值进行降序排列,并根据得到的降序排列结果确定所述待处理文本的类别。
在本实施例中,将利用字词注意力机制、句子注意力机制得到的包含字词特征信息和句子特征信息的文本向量作为分类器的输入,经由分类器得到待识别文本为每个文本类别的概率值,将得到的多个概率值进行降序排列,并将概率值最大值所对应的文本类别作为待处理文本的类别,从而实现待处理文本的分类。
通过应用本实施例的技术方案,利用训练好的文本分类网络模型对待处理文本进行编码,得到待处理文本的句子信息,利用训练好的文本分类网络模型对所述句子信息进行编码,得到待处理文本的文本信息,以及利用训练好的文本分类网络模型的分类器对文本信息进行分类识别,得到待处理文本的类别,与现有基于知识工程实现文本分类的技术方案相比,本实施例通过训练好的文本分类网络模型能够有效避免现有人为设定网络模型的文本特征,导致人工成本较高,更新效率较低,以及文本分类的准确度较低的技术问题,从而在灵活应对不同的语料环境的同时,有效提升文本分类的准确度。
进一步的,作为图1方法的具体实现,本申请实施例提供了一种文本分类装置,如图3所示,该装置包括:字词编码模块34、句子编码模块35、分类识别模块36。
字词编码模块34,可以用于利用训练好的文本分类网络模型对待处理文本进行编码,得到所述待处理文本的句子信息。
句子编码模块35,可以用于利用训练好的文本分类网络模型对所述句子信息进行编码,得到所述待处理文本的文本信息。
分类识别模块36,可以用于利用训练好的文本分类网络模型的分类器对所述文本信息进行分类识别,得到所述待处理文本的类别。
在具体的应用场景中,还包括构建模块31、第一训练模块32、第二训练模块33。
在具体的应用场景中,字词编码模块34包括字词序列编码器341、字词注意力机制342。
字词序列编码器341,可以用于利用训练好的文本分类网络模型的字词序列编码器,对待处理文本进行字词编码得到包含字词上下文信息的字词序列。
字词注意力机制342,可以用于利用训练好的文本分类网络模型的字词注意力机制,根据所述字词序列得到所述待处理文本的句子信息。
在具体的应用场景中,字词注意力机制342,可以具体用于利用所述字词注意力机制中的全连接层得到所述字词序列的上下文信息和所述字词序列中每个字词的特征信息;以及,根据所述字词序列的上下文信息和每个字词的特征信息确定所述字词序列中每个字词的权重信息;以及,根据所述字词序列中每个字词的权重信息,得到所述待处理文本的句子信息。
在具体的应用场景中,句子编码模块35包括句子序列编码器351、句子注意力机制352。
句子序列编码器351,可以用于利用训练好的文本分类网络模型的句子序列编码器,对所述句子信息进行句子编码得到包含句子上下文信息的句子序列。
句子注意力机制352,可以用于利用训练好的文本分类网络模型的句子注意力机制,根据所述句子序列得到所述待处理文本的文本信息。
在具体的应用场景中,句子注意力机制352,可以具体用于利用所述句子注意力机制中的全连接层得到所述句子序列的上下文信息和所述句子序列中每个句子的特征信息;以及,根据所述句子序列的上下文信息和每个句子的特征信息确定所述句子序列中每个句子的权重信息;以及,根据所述句子序列中每个句子的权重信息,得到所述待处理文本的句子信息。
在具体的应用场景中,构建模块31,可以用于构建初始文本分类网络模型。
第一训练模块32,可以用于对所述初始文本分类网络模型中的字词序列编码器和字词注意力机制进行训练,确定字词序列编码器和字词注意力机制中的第一网络模型参数。
第二训练模块33,可以用于对所述初始文本分类网络模型中的句子序列编码器和句子注意力机制进行训练,确定句子序列编码器和句子注意力机制中的第二网络模型参数。
在具体的应用场景中,分类识别模块36,具体可以用于对所述文本信息进行分类识别,得到每个类别的概率值;以及,对得到的多个概率值进行降序排列,并根据得到的降序排列结果确定所述待处理文本的类别。
需要说明的是,本申请实施例提供的一种文本分类装置所涉及各功能单元的其他相应描述,可以参考图1和图2中的对应描述,在此不再赘述。
基于上述如图1和图2所示方法,相应的,本申请实施例还提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述如图1和图2所示的文本分类方法。
基于这样的理解,本申请的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施场景所述的方法。
基于上述如图1、图2所示的方法,以及图3所示的虚拟装置实施例,为了实现上述目的,本申请实施例还提供了一种计算机设备,具体可以为个人计算机、服务器、网络设备等,该实体设备包括存储介质和处理器;存储介质,用于存储计算机程序;处理器,用于执行计算机程序以实现上述如图1和图2所示的文本分类方法。
可选的,该计算机设备还可以包括用户接口、网络接口、摄像头、射频(RadioFrequency,RF)电路,传感器、音频电路、WI-FI模块等等。用户接口可以包括显示屏(Display)、输入单元比如键盘(Keyboard)等,可选用户接口还可以包括USB接口、读卡器接口等。网络接口可选的可以包括标准的有线接口、无线接口(如蓝牙接口、WI-FI接口)等。
本领域技术人员可以理解,本实施例提供的一种计算机设备结构并不构成对该实体设备的限定,可以包括更多或更少的部件,或者组合某些部件,或者不同的部件布置。
存储介质中还可以包括操作系统、网络通信模块。操作系统是管理计算机设备硬件和软件资源的程序,支持信息处理程序以及其它软件和/或程序的运行。网络通信模块用于实现存储介质内部各组件之间的通信,以及与该实体设备中其它硬件和软件之间通信。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本申请可以借助软件加必要的通用硬件平台的方式来实现,也可以通过硬件实现。通过应用本申请的技术方案,与现有基于知识工程实现文本分类的技术方案相比,本实施例能够利用训练好的文本分类网络模型,有效避免现有人为设定网络模型的文本特征,导致人工成本较高,更新效率较低,以及文本分类的准确度较低的技术问题,从而在灵活应对不同的语料环境的同时,有效提升文本分类的准确度。
本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本申请所必须的。本领域技术人员可以理解实施场景中的装置中的模块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
上述本申请序号仅仅为了描述,不代表实施场景的优劣。以上公开的仅为本申请的几个具体实施场景,但是,本申请并非局限于此,任何本领域的技术人员能思之的变化都应落入本申请的保护范围。
Claims (10)
1.一种文本分类方法,其特征在于,包括:
利用训练好的文本分类网络模型对待处理文本进行编码,得到所述待处理文本的句子信息;
利用训练好的文本分类网络模型对所述句子信息进行编码,得到所述待处理文本的文本信息;
利用训练好的文本分类网络模型的分类器对所述文本信息进行分类识别,得到所述待处理文本的类别。
2.根据权利要求1所述的方法,其特征在于,所述利用训练好的文本分类网络模型对待处理文本进行编码,得到所述待处理文本的句子信息,具体包括:
利用训练好的文本分类网络模型的字词序列编码器,对待处理文本进行字词编码得到包含字词上下文信息的字词序列;
利用训练好的文本分类网络模型的字词注意力机制,根据所述字词序列得到所述待处理文本的句子信息。
3.根据权利要求2所述的方法,其特征在于,所述利用训练好的文本分类网络模型的字词注意力机制,根据所述字词序列得到所述待处理文本的句子信息,具体包括:
利用所述字词注意力机制中的全连接层得到所述字词序列的上下文信息和所述字词序列中每个字词的特征信息;
根据所述字词序列的上下文信息和每个字词的特征信息确定所述字词序列中每个字词的权重信息;
根据所述字词序列中每个字词的权重信息,得到所述待处理文本的句子信息。
4.根据权利要求1所述的方法,其特征在于,所述利用训练好的文本分类网络模型对所述句子序列进行编码,得到所述待处理文本的文本信息,具体包括:
利用训练好的文本分类网络模型的句子序列编码器,对所述句子信息进行句子编码得到包含句子上下文信息的句子序列;
利用训练好的文本分类网络模型的句子注意力机制,根据所述句子序列得到所述待处理文本的文本信息。
5.根据权利要求4所述的方法,其特征在于,所述利用训练好的文本分类网络模型的句子注意力机制,根据所述句子序列得到所述待处理文本的文本信息,具体包括:
利用所述句子注意力机制中的全连接层得到所述句子序列的上下文信息和所述句子序列中每个句子的特征信息;
根据所述句子序列的上下文信息和每个句子的特征信息确定所述句子序列中每个句子的权重信息;
根据所述句子序列中每个句子的权重信息,得到所述待处理文本的句子信息。
6.根据权利要求1所述的方法,其特征在于,还包括:
构建初始文本分类网络模型;
对所述初始文本分类网络模型中的字词序列编码器和字词注意力机制进行训练,确定字词序列编码器和字词注意力机制中的第一网络模型参数;
对所述初始文本分类网络模型中的句子序列编码器和句子注意力机制进行训练,确定句子序列编码器和句子注意力机制中的第二网络模型参数。
7.根据权利要求1所述的方法,其特征在于,所述利用所述训练好的文本分类网络模型的分类器对所述文本信息进行分类识别,得到所述待处理文本的类别,具体包括:
对所述文本信息进行分类识别,得到每个类别的概率值;
对得到的多个概率值进行降序排列,并根据得到的降序排列结果确定所述待处理文本的类别。
8.一种文本分类装置,其特征在于,包括:
字词编码模块,用于利用训练好的文本分类网络模型对待处理文本进行编码,得到所述待处理文本的句子信息;
句子编码模块,用于利用训练好的文本分类网络模型对所述句子信息进行编码,得到所述待处理文本的文本信息;
分类识别模块,用于利用训练好的文本分类网络模型的分类器对所述文本信息进行分类识别,得到所述待处理文本的类别。
9.一种存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1至7中任一项所述的文本分类方法。
10.一种计算机设备,包括存储介质、处理器及存储在存储介质上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至7中任一项所述的文本分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910615752.1A CN110489545A (zh) | 2019-07-09 | 2019-07-09 | 文本分类方法及装置、存储介质、计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910615752.1A CN110489545A (zh) | 2019-07-09 | 2019-07-09 | 文本分类方法及装置、存储介质、计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110489545A true CN110489545A (zh) | 2019-11-22 |
Family
ID=68546876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910615752.1A Pending CN110489545A (zh) | 2019-07-09 | 2019-07-09 | 文本分类方法及装置、存储介质、计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110489545A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111597224A (zh) * | 2020-04-17 | 2020-08-28 | 北京百度网讯科技有限公司 | 结构化信息的生成方法、装置、电子设备和存储介质 |
CN112528019A (zh) * | 2020-12-01 | 2021-03-19 | 清华大学 | 文本中实体关系处理方法、装置、电子设备及存储介质 |
CN112732871A (zh) * | 2021-01-12 | 2021-04-30 | 上海畅圣计算机科技有限公司 | 一种机器人催收获取客户意向标签的多标签分类方法 |
CN113032534A (zh) * | 2019-12-24 | 2021-06-25 | 中国移动通信集团四川有限公司 | 对话文本的分类方法和电子设备 |
CN113077051A (zh) * | 2021-04-14 | 2021-07-06 | 广东博智林机器人有限公司 | 网络模型训练方法、装置、文本分类模型及网络模型 |
CN113139057A (zh) * | 2021-05-11 | 2021-07-20 | 青岛科技大学 | 一种域适应的化工安全隐患短文本分类方法及系统 |
WO2021174822A1 (zh) * | 2020-03-02 | 2021-09-10 | 平安科技(深圳)有限公司 | 基于注意力机制的智能问答方法、装置、设备和存储介质 |
CN113505227A (zh) * | 2021-07-21 | 2021-10-15 | 兰州大学 | 文本分类方法、装置、电子设备及可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273500A (zh) * | 2017-06-16 | 2017-10-20 | 中国电子技术标准化研究院 | 文本分类器生成方法、文本分类方法、装置及计算机设备 |
CN108829818A (zh) * | 2018-06-12 | 2018-11-16 | 中国科学院计算技术研究所 | 一种文本分类方法 |
CN108846017A (zh) * | 2018-05-07 | 2018-11-20 | 国家计算机网络与信息安全管理中心 | 基于Bi-GRU和字向量的大规模新闻文本的端到端分类方法 |
CN109446328A (zh) * | 2018-11-02 | 2019-03-08 | 成都四方伟业软件股份有限公司 | 一种文本识别方法、装置及其存储介质 |
CN109918499A (zh) * | 2019-01-14 | 2019-06-21 | 平安科技(深圳)有限公司 | 一种文本分类方法、装置、计算机设备及存储介质 |
-
2019
- 2019-07-09 CN CN201910615752.1A patent/CN110489545A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273500A (zh) * | 2017-06-16 | 2017-10-20 | 中国电子技术标准化研究院 | 文本分类器生成方法、文本分类方法、装置及计算机设备 |
CN108846017A (zh) * | 2018-05-07 | 2018-11-20 | 国家计算机网络与信息安全管理中心 | 基于Bi-GRU和字向量的大规模新闻文本的端到端分类方法 |
CN108829818A (zh) * | 2018-06-12 | 2018-11-16 | 中国科学院计算技术研究所 | 一种文本分类方法 |
CN109446328A (zh) * | 2018-11-02 | 2019-03-08 | 成都四方伟业软件股份有限公司 | 一种文本识别方法、装置及其存储介质 |
CN109918499A (zh) * | 2019-01-14 | 2019-06-21 | 平安科技(深圳)有限公司 | 一种文本分类方法、装置、计算机设备及存储介质 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113032534A (zh) * | 2019-12-24 | 2021-06-25 | 中国移动通信集团四川有限公司 | 对话文本的分类方法和电子设备 |
WO2021174822A1 (zh) * | 2020-03-02 | 2021-09-10 | 平安科技(深圳)有限公司 | 基于注意力机制的智能问答方法、装置、设备和存储介质 |
CN111597224A (zh) * | 2020-04-17 | 2020-08-28 | 北京百度网讯科技有限公司 | 结构化信息的生成方法、装置、电子设备和存储介质 |
CN111597224B (zh) * | 2020-04-17 | 2023-09-15 | 北京百度网讯科技有限公司 | 结构化信息的生成方法、装置、电子设备和存储介质 |
CN112528019A (zh) * | 2020-12-01 | 2021-03-19 | 清华大学 | 文本中实体关系处理方法、装置、电子设备及存储介质 |
CN112732871A (zh) * | 2021-01-12 | 2021-04-30 | 上海畅圣计算机科技有限公司 | 一种机器人催收获取客户意向标签的多标签分类方法 |
CN113077051A (zh) * | 2021-04-14 | 2021-07-06 | 广东博智林机器人有限公司 | 网络模型训练方法、装置、文本分类模型及网络模型 |
CN113077051B (zh) * | 2021-04-14 | 2024-01-26 | 南京零洞数智科技有限公司 | 网络模型训练方法、装置、文本分类模型及网络模型 |
CN113139057A (zh) * | 2021-05-11 | 2021-07-20 | 青岛科技大学 | 一种域适应的化工安全隐患短文本分类方法及系统 |
CN113505227A (zh) * | 2021-07-21 | 2021-10-15 | 兰州大学 | 文本分类方法、装置、电子设备及可读存储介质 |
CN113505227B (zh) * | 2021-07-21 | 2022-06-10 | 兰州大学 | 文本分类方法、装置、电子设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110489545A (zh) | 文本分类方法及装置、存储介质、计算机设备 | |
CN108334605B (zh) | 文本分类方法、装置、计算机设备及存储介质 | |
WO2022012407A1 (zh) | 一种用于神经网络的训练方法以及相关设备 | |
CN107683469A (zh) | 一种基于深度学习的产品分类方法及装置 | |
WO2022057658A1 (zh) | 推荐模型训练方法、装置、计算机设备及存储介质 | |
CN109471944B (zh) | 文本分类模型的训练方法、装置及可读存储介质 | |
CN107436875A (zh) | 文本分类方法及装置 | |
WO2022068623A1 (zh) | 一种模型训练方法及相关设备 | |
CN110442857B (zh) | 情感智能判断方法、装置及计算机可读存储介质 | |
CN110083700A (zh) | 一种基于卷积神经网络的企业舆情情感分类方法及系统 | |
CN110399476A (zh) | 人才画像的生成方法、装置、设备及存储介质 | |
CN109863488A (zh) | 神经网络数据输入系统的设备/服务器部署 | |
CN104778283B (zh) | 一种基于微博的用户职业分类方法及系统 | |
US20190286989A1 (en) | Distributed neural network model utilization system | |
CN109492093A (zh) | 基于高斯混合模型和em算法的文本分类方法及电子装置 | |
CN109598307A (zh) | 数据筛选方法、装置、服务器及存储介质 | |
Shen et al. | A direct formulation for totally-corrective multi-class boosting | |
CN112819024B (zh) | 模型处理方法、用户数据处理方法及装置、计算机设备 | |
CN116664719A (zh) | 一种图像重绘模型训练方法、图像重绘方法及装置 | |
CN114358197A (zh) | 分类模型的训练方法及装置、电子设备、存储介质 | |
CN114357151A (zh) | 文本类目识别模型的处理方法、装置、设备及存储介质 | |
WO2022063076A1 (zh) | 对抗样本的识别方法及装置 | |
CN110879993A (zh) | 神经网络训练方法、人脸识别任务的执行方法及装置 | |
CN111783688B (zh) | 一种基于卷积神经网络的遥感图像场景分类方法 | |
CN110377741B (zh) | 文本分类方法、智能终端及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191122 |