CN110968697A - 文本分类方法、装置、设备及可读存储介质 - Google Patents
文本分类方法、装置、设备及可读存储介质 Download PDFInfo
- Publication number
- CN110968697A CN110968697A CN201911328004.1A CN201911328004A CN110968697A CN 110968697 A CN110968697 A CN 110968697A CN 201911328004 A CN201911328004 A CN 201911328004A CN 110968697 A CN110968697 A CN 110968697A
- Authority
- CN
- China
- Prior art keywords
- text
- classified
- word
- vector expression
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种文本分类方法、装置、设备及可读存储介质,对待分类文本进行字、词、句三个层级的编码,得到待分类文本的字级向量表达、词级向量表达和句级向量表达;将由字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到待分类文本在四元数空间的特征;至少根据待分类文本在四元数空间的特征确定待分类文本的类别。本申请实施例提供的文本分类方案,将待分类文本表示为一个纯四元数空间向量在四元数空间进行特征提取,所提取的特征保持了待分类文本的字、词、句的相关性和整体性,从而提高短文本的分类准确度。
Description
技术领域
本申请涉及自然语言处理技术领域,更具体地说,涉及一种文本分类方法、装置、设备及可读存储介质。
背景技术
文本分类是自然语言处理研究中最为广泛的任务之一,文本分类的目的是将文本分配到预先定义的某个主题类别中。
目前的文本分类方法在对长文本(如,文章)进行分类时,分类准确度较高,但对短文本(通常在100字以内)进行分类时,分类的准确度却较低。
因此,如何提高短文本的分类准确度成为亟待解决的技术问题。
发明内容
有鉴于此,本申请提供了一种文本分类方法、装置、设备及可读存储介质,以提高短文本的分类准确度。
为了实现上述目的,现提出的方案如下:
一种文本分类,包括:
对待分类文本进行字、词、句三个层级的编码,得到所述待分类文本的字级向量表达、词级向量表达和句级向量表达;
将由所述字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到所述待分类文本在所述四元数空间的特征;
至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别。
上述方法,优选的,所述待分类文本为中文文本,所述对待分类文本进行字级编码,包括:
对于所述待分类文本中的每一个字,获取该字的各个偏旁;
根据该字的各个偏旁得到该字的向量表达。
上述方法,优选的,所述将由所述字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理包括:
利用四元数卷积核对所述纯四元数空间向量表达进行四元数卷积处理,得到所述待分类文本在所述四元数空间的初始特征;
对所述待分类文本在所述四元数空间的初始特征进行降维,得到所述待分类文本在所述四元数空间的特征。
上述方法,优选的,在至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别之前,还包括:
获取所述待分类文本在实数空间的特征;
所述至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别,包括:
对所述待分类文本在所述四元数空间的特征,以及所述待分类文本在实数空间的特征进行处理,得到所述待分类文本的类别。
上述方法,优选的,所述获取所述待分类文本在实数空间的特征,包括:
获取所述待分类文本中的各个词的向量表达;
对所述待分类文本中各个词的位置进行编码,得到所述待分类文本中各个词的位置的向量表达;
对所述待分类文本中各个词的向量表达和位置的向量表达进行处理,得到所述待分类文本在实数空间的特征。
上述方法,优选的,所述对所述待分类文本中各个词的向量表达和位置的向量表达进行处理,得到所述待分类文本在实数空间的特征,包括:
对应所述待分类文本中的每一个词,将该词的向量表达和位置的向量表达相加,得到该词的与位置相关的向量表达;
将所述待分类文本中的各个词的与位置相关的向量表达输入基于动态注意力机制的编码模型,得到所述编码模型输出的所述待分类文本中的各个词在实数空间的特征。
上述方法,优选的,所述将所述待分类文本中的各个词的与位置相关的向量表达输入基于动态注意力机制的编码模型,得到所述编码模型输出的所述待分类文本中的各个词在实数空间的特征,包括:
通过所述编码模型中的注意力层,基于当前时间步长计算每一个词与所述待分类文本中各个词之间的注意力权重;用该词与所述待分类文本中的各个词之间的注意力权重,对各个词的与位置相关的向量表达加权求和,得到该词的包含上下文信息的向量表达;
通过所述编码模型中的第一归一化层对所述待分类文本中的各个词的与位置相关的向量表达,以及各个词的包含上下文信息的向量表达进行第一归一化处理,得到各个词的归一化向量表达;
通过所述编码模型中的前馈神经网络层对每一个词的与位置相关的向量表达,该词的包含上下文信息的向量表达和归一化向量表达进行特征提取,得到该词在实数空间的初始特征;
通过所述编码模型中的第二归一化层对该词的包含上下文信息的向量表达和归一化向量表达,以及该词在实数空间的初始特征进行第二归一化处理,得到所述编码模型输出的该词在实数空间的特征。
上述方法,优选的,所述对所述待分类文本在所述四元数空间的特征,以及所述待分类文本在实数空间的特征进行处理,得到所述待分类文本的类别,包括:
将所述待分类文本在所述四元数空间的特征,以及所述待分类文本中的各个词在实数空间的特征进行拼接,得到所述待分类文本的拼接特征;
利用所述拼接特征确定所述待分类文本的类别。
一种文本分类装置,包括:
编码模块,用于对待分类文本进行字、词、句三个层级的编码,得到所述待分类文本的字级向量表达、词级向量表达和句级向量表达;
处理模块,用于将由所述字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到所述待分类文本在所述四元数空间的特征;
分类模块,用于至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别。
上述装置,优选的,所述编码模块包括:
字级编码模块,用于对于所述待分类文本中的每一个字,获取该字的各个偏旁;根据该字的各个偏旁得到该字的向量表达。
上述装置,优选的,所述处理模块包括:
卷积模块,用于利用四元数卷积核对所述纯四元数空间向量表达进行四元数卷积处理,得到所述待分类文本在所述四元数空间的初始特征;
降维模块,用于对所述待分类文本在所述四元数空间的初始特征进行降维,得到所述待分类文本在所述四元数空间的特征。
上述装置,优选的,所述文本分类装置还包括:
获取模块,用于获取所述待分类文本在实数空间的特征。
所述分类模块具体用于:
对所述待分类文本在所述四元数空间的特征,以及所述待分类文本在实数空间的特征进行处理,得到所述待分类文本的类别。
上述装置,优选的,所述获取模块包括:
词向量获取模块,用于获取所述待分类文本中的各个词的向量表达;
位置向量获取模块,用于对所述待分类文本中各个词的位置进行编码,得到所述待分类文本中各个词的位置的向量表达;
融合模块,用于对所述待分类文本中各个词的向量表达和位置的向量表达进行处理,得到所述待分类文本在实数空间的特征。
上述装置,优选的,所述融合模块包括:
相加模块,用于对应所述待分类文本中的每一个词,将该词的向量表达和位置的向量表达相加,得到该词的与位置相关的向量表达;
模型调用模块,用于将所述待分类文本中的各个词的与位置相关的向量表达输入基于动态注意力机制的编码模型,得到所述编码模型输出的所述待分类文本中的各个词在实数空间的特征。
上述装置,优选的,所述模型调用模块包括:
注意力模块,用于通过所述编码模型中的注意力层,基于当前时间步长计算每一个词与所述待分类文本中各个词之间的注意力权重;用该词与所述待分类文本中的各个词之间的注意力权重,对各个词的与位置相关的向量表达加权求和,得到该词的包含上下文信息的向量表达;
第一归一化模块,用于通过所述编码模型中的第一归一化层对所述待分类文本中的各个词的与位置相关的向量表达,以及各个词的包含上下文信息的向量表达进行第一归一化处理,得到各个词的归一化向量表达;
前馈模块,用于通过所述编码模型中的前馈神经网络层对每一个词的与位置相关的向量表达,该词的包含上下文信息的向量表达和归一化向量表达进行特征提取,得到该词在实数空间的初始特征;
第二归一化模块,用于通过所述编码模型中的第二归一化层对该词的包含上下文信息的向量表达和归一化向量表达,以及该词在实数空间的初始特征进行第二归一化处理,得到所述编码模型输出的该词在实数空间的特征。
上述装置,优选的,所述分类模块包括:
拼接模块,用于将所述待分类文本在所述四元数空间的特征,以及所述待分类文本中的各个词在实数空间的特征进行拼接,得到所述待分类文本的拼接特征;
确定模块,用于利用所述拼接特征确定所述待分类文本的类别。
一种文本分类设备,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如上任一项所述的文本分类方法的各个步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上任一项所述的文本分类方法的各个步骤。
从上述的技术方案可以看出,本申请实施例提供的文本分类方法、装置、设备及可读存储介质,对待分类文本进行字、词、句三个层级的编码,得到待分类文本的字级向量表达、词级向量表达和句级向量表达;将由字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到待分类文本在四元数空间的特征;至少根据待分类文本在四元数空间的特征确定待分类文本的类别。本申请实施例提供的文本分类方案,将待分类文本表示为一个纯四元数空间向量在四元数空间进行特征提取,所提取的特征保持了待分类文本的字、词、句的相关性和整体性,从而提高短文本的分类准确度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例公开的文本分类方法的一种实现流程图;
图2为本申请实施例公开的对待分类文本进行字级编码的一种实现流程图;
图3a为本申请实施例公开的将由字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理的一种实现流程图;
图3b为本申请实施例公开的卷积网络的一种结构示意图;
图4a为本申请实施例公开的多通路混合分类模型的一种架构示意图;
图4b为本申请实施例公开的获取待分类文本在实数空间的特征的一种实现流程图;
图5a为本申请实施例公开的编码模型的一种结构示意图;
图5b为本申请实施例公开的将待分类文本中的各个词的与位置相关的向量表达输入基于动态注意力机制的编码模型,得到编码模型输出的待分类文本中的各个词在实数空间的特征的一种实现流程图;
图6为本申请实施例公开的文本分类模型的一种结构示意图
图7为本申请实施例公开的文本分类装置的一种结构示意图;
图8为本申请实施例公开的文本分类设备的硬件结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
文本分类的关键步骤是文本表示,又称为文本表达或文本特征提取。文本表示就是将纯文本转换成实数向量或矩阵的过程,即将文本进行数字化转换,文本表示的丰富度直接影响着文本分类的效果。
目前的文本表示主要分为两大类:一类是词级别的文本表示,即将词表示成词向量的形式,进而应用于文本分类等任务。该方法一般认为可以获取到词的语义信息,通过将词的语义信息添加到文本分类中来提升文本分类的效果。另一类是文档级别的文本表示,即将每个文本表示成固定长度的实数向量。其中,词级别的文本表示一般应用于基于神经网络的分类,而文档级别的文本表示应用比较广泛,既可以应用于传统的基于统计的机器学习分类器进行文本分类,也可以应用于基于神经网络的分类器进行文本分类。
结合不同的文本表示方法,研究者从不同的角度出发,提出大量文本分类方法,大致总结为三类:基于向量空间的分类,基于主题的分类方法和基于神经网络的分类方法。其中,
基于向量空间的分类方法是将文本表示成实数值分量所构成的向量,一般而言,每个分量对应一个词项,相当于将文本表示成空间中的一个点。向量不仅可以用来训练分类器,而且计算向量之间的相似度可以度量文本之间的相似度。最常用的是TF-IDF计算方式,即向量的维度对应词表的大小,对应维度使用TF-IDF计算。
基于主题的分类方法尝试从概率生成模型的角度实现文本的表示,每一个维度是一个“主题”,这个主题通常是一组词的聚类,因此可以通过主题大概猜测每个维度所代表的语义,具有一定的解释性。最早的主题模型pLSA(probabilistic LSA),假设文档具有主题分布,文档中的词从主题对应的词分布中抽取。最经典的主题模型LDA(LatentDirichlet allocation),在pLSA模型的基础上引入了狄利克雷先验分布,效果提升明显。
基于神经网络的方法因其强大的特征提取能力而受到广泛关注,各种各样的模型被相继提出,其中最具有代表性的模型,将其分为三类:基于词向量合成的模型,基于RNN/CNN的模型,基于注意力机制的模型。
本申请的发明人研究发现,现有的文本分类方法通常将词特征作为构成文本特征的基本单元,忽略了文本中重要的字信息、句信息,表达意义歧义性和模糊性较大,导致提取的文本特征较为单一,不足以涵盖文本所有的语义信息,容易出现文本信息表达不完整的问题。而基于深度学习的模型大多将分词工具得到的词作为句子的语义单元进行分析,对于汉语来说使用词作为最小语义单元存在以下问题:首先,中文文本需要分词,由分词工具得到的中文分词结果并非完全正确,不同的分词工具的效果也不同;其次,直接用词作为语义单元进行表示,忽略了词内字间的信息,另外,汉语中单独的一个字歧义性较大,一个字可能是多个不同词的组成部分;第三,单单使用字或词作为语义单元来表示文本,容易忽略词序之间的关系,丢失词序特征,使得不同的句子可能得到的是相同的向量表达。
而且,和文章相比,短文本过于短小(通常在100字以内,一般是一句话的长度),不能提供足够的词共现关系,很难从中提取有效的文本特征。因而现有的文本分类方法不适用于短文本分类,即现有的分类方法应用于短文本分类时,分类准确率低。
本申请实施例就是为解决上述问题而提出的方案。下面对本申请实施例进行解释说明。
请参阅图1,图1为本申请实施例提供的文本分类方法的一种实现流程图,可以包括:
步骤S11:对待分类文本进行字、词、句三个层级的编码,得到待分类文本的字级向量表达、词级向量表达和句级向量表达。
其中,待分类文本可以为中文文本,也可以为其它语言的文本,例如,可以为英文文本。对于中文来说,字就是指汉字,每个词由至少一个汉字构成,每个句子由多个词构成。对于英文文本来说,字指的是字母,词就是指单词,每个词(即每个单词)由至少一个字母构成,每个句子由多个单词构成。
对待分类文本中的各个字进行编码,得到待分类文本中各个字的向量表达。待分类文本中所有字的向量表达构成待分类文本的字级向量表达。待分类文本的字级向量表达可以由一个m1×n1大小的矩阵表征,其中,m1为待分类文本中字的个数,n1为字向量的维度。
对待分类文本中的各个词进行编码,得到待分类文本中各个词的向量表达。待分类文本中所有词的向量表达构成待分类文本的词级向量表达。待分类文本的词级向量表达可以由一个m2×n2大小的矩阵表征,其中,m2为待分类文本中词的个数,n2为词向量的维度。
对待分类文本中的各个句子进行编码,得到待分类文本中各个句子的向量表达。待分类文本中所有句子的向量表达构成待分类文本的句级向量表达。待分类文本的句级向量表达可以由一个m3×n3大小的矩阵表征,其中,m3为待分类文本中句子的个数,n3为句向量的维度。
在得到待分类文本的字级向量表达、词级向量表达和句级向量表达后,字级向量表达、词级向量表达和句级向量表达的大小可能是不同,可以通过补零的方式将字级向量表达、词级向量表达和句级向量表达的大小进行对齐。
比如,假设待分类文本A由两个句子组成,一个句子由8个字组成,这8个字构成了5个词,另一个句子由5个字组成,这5个字构成了3个词。则:
对待分类文本A中的各个字分别进行编码,得到各个字的向量表达,假设字向量的维度为300,则待分类文本A的13个字的向量表达构成待分类文本A的字级向量表达,该字级向量表达为13×300的矩阵;
对待分类文本A中的各个词分别进行编码,得到各个词的向量表达,假设词向量的维度也为300,则待分类文本A的8个词的向量表达构成待分类文本A的词级向量表达,该词级向量表达为8×300的矩阵;
对待分类文本A中的各个句子分别进行编码,得到各个句子的向量表达,假设句向量的维度也为300,则待分类文本A的2个句子的向量表达构成待分类文本A的句级向量表达,该句级向量表达为2×300的矩阵。
需要说明的是,这里是以字向量、词向量和句向量的维度相同进行举例说明,在实际应用中,以字向量、词向量和句向量的维度也可以不同,即n1、n2和n3可以相等,也可以不相等,本申请不做具体限定。
为了便于后续计算,需要将待分类文本的字向量表达、词向量表达和句向量表达的大小归一化,比如,将待分类文本的字向量表达、词向量表达和句向量表达的大小归一化为100×300大小,具体可以通过补零的方式将字级向量表达由13×300的矩阵归一化为100×300的矩阵,同理,通过补零的方式将词级向量表达由8×300的矩阵归一化为100×300的矩阵,通过补零的方式将句级向量表达由2×300的矩阵归一化为100×300的矩阵。
步骤S12:将由字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到待分类文本在四元数空间的特征。
四元数是复数的推广,将复数的一个虚部扩展为三个虚部,四元数的一般形式为:q=q0+q1i+q2j+q3k,
其中,q0为四元数q的实部,q1、q2、q3为四元数q的虚部;i2=j2=k2=ijk=-1。当实部q0为0时,四元数q为纯四元数。
本申请实施例中,为便于叙述,将字级向量表达记为TC、词级向量表达记为TW,句级向量表达记为TS,则由字级向量表达TC、词级向量表达TW和句级向量表达TS构成的纯四元数空间向量表达T用公式可以表示为:
T=0+TCi+TWj+TSk
以前述待分类文本A为例,对应的T为100×300的矩阵,该矩阵中的每个元素均为纯四元数,T中(a,b)位置处的元素T(a,b)为:
T(a,b)=0+TC(a,b)i+TW(a,b)j+TS(a,b)k
其中,TC(a,b)为TC中(a,b)位置处的元素,TW(a,b)为TW中(a,b)位置处的元素,TS(a,b)为TS中(a,b)位置处的元素。
可选的,可以利用四元数空间的几何变换(平移、缩放、旋转)性质,对纯四元数空间向量表达T进行几何变换,得到四元数空间特征T',将四元数空间特征T'进行维度变换,得到待分类文本在四元数空间的特征。
步骤S13:至少根据待分类文本在四元数空间的特征确定待分类文本的类别。
四元空间的特征中的元素均为四元数,为了便于分类,需要将四元数空间的特征映射为实值特征,利用该实值特征确定待分类文本的类别。可选的,可以根据预置的映射关系将四元数空间的特征映射为实值特征。比如,对于四元数空间的特征中的每一个元素,该元素对应的实值特征为:实部和各个虚部的平方和的算术平方根。即,假设四元数q=q0+q1i+q2j+q3k映射到实值空间为rq,则:
本申请实施例中,可以仅利用待分类文本在四元数空间的特征确定待分类文本的类别。
本申请实施例提供的文本分类方法,将待分类文本表示为一个纯四元数空间向量在四元数空间进行特征提取,所提取的特征保持了待分类文本的字、词、句的相关性和整体性,避免结构信息丢失,从而提高短文本的分类准确度。
本申请的发明人研究发现,很多汉字如果具有同一个偏旁可能表示同一个意思,甚至读音也一样。例如,很多带提手旁“扌”的汉字表示为一个动作,如提、挑、拎等。而现有对字进行编码的方法,均是直接对字进行编码,这样得到的字的向量表达无法体现字间相关信息。基于此,在本申请的一可选的实施例中,在待分类文本为中文文本时,上述对待分类文本进行字级编码的一种实现流程图如图2所示,可以包括:
步骤S21:对于待分类文本中的每一个字,获取该字的各个偏旁。
对于中文来说,每个字都是有一定结构的,比如“提”这个字,由偏旁“扌”和偏旁“是”这两个偏旁构成,比如“惞”这个字,由偏旁“忄”、偏旁“斤”和偏旁“欠”这三个偏旁构成,比如“国”这个字,由偏旁“口”和偏旁“玉”这两个偏旁构成,等等。
本申请实施例中,对于待分类文本中的第i(i=1,2,3,…)个字,获取该第i个字的各个偏旁。
步骤S22:根据该字的各个偏旁得到该字的向量表达。
在得到第i个字的各个偏旁后,对该第i个字的各个偏旁进行编码,得到该第i个字的向量表达。
本实施例中,在对待分类文本进行字级编码时,基于字的偏旁对字进行编码,这样得到各个字的向量表达能够体现字间相关信息。进一步提高文本分类的精度。
当然,还有一些汉字是单字,比如日,子,月,牛,羊,上,下等,对于这些单字,可以直接对该单字进行编码得到单字的向量表达即可。
可选的,可以利用预先训练好的字向量表达模型对待分类文本中的各个字进行编码,得到待分类文本的字级向量表达。
可选的,可以利用预先训练好的词向量表达模型对待分类文本中的各个词进行编码,得到待分类文本的词级向量表达。
可选的,可以利用预先训练好的句向量表达模型对待分类文本中的各个句子进行编码,得到待分类文本的句级向量表达。
其中,字向量表达模型可以是Char2Vec模型,词向量表达模型可以是Word2Vec模型,句向量表达模型可以是Sent2Vec模型。该三个模型都可以利用已有模型训练方法训练得到。
其中,字向量表达模型可以利用Word2Vec模型的网络结构来进行训练,现有技术中,在利用Word2Vec模型的网络结构训练Char2Vec模型时,输入Char2Vec模型的是字。而本申请实施例中,利用Word2Vec模型的网络结构来训练字的向量表达时,输入Char2Vec模型的是字的偏旁。
在一可选的实施例中,上述将由字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理的一种实现流程图如图3a所示,可以包括:
步骤S31:利用四元数卷积核对纯四元数空间向量表达进行四元数卷积处理,得到所述待分类文本在所述四元数空间的初始特征。
本申请实施例中,四元数卷积核中的各个元素也是四元数,每个元素都是旋转数的线性表示。即,四元数卷积核K中,位置(c,d)处的元素K(c,d)为:
利用四元数卷积核对纯四元数空间向量表达进行四元数卷积处理的过程与利用实数卷积核对实数空间的向量表达进行卷积处理的思想相同,不同之处在于实数卷积过程中特征和卷积核中的元素都是实数,因而卷积运算中元素间的运算利用的实数的性质,而四元数卷积过程特征和卷积核中的元素都是四元数,因而卷积运算中元素间的元素利用的是四元数的性质。
步骤S32:对待分类文本在所述四元数空间的初始特征进行降维,得到待分类文本在所述四元数空间的特征。
可选的,上述步骤S31-步骤S32的提取待分类文本在所述四元数空间的特征过程可以通过一个卷积网络实现。在一可选的实施例中,上述卷积网络的一种结构示意图如图3b所示,可以包括:
输入层,用于接收由字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达T。
卷积层,用于利用四元数卷积核对纯四元数空间向量表达进行四元数卷积处理,得到所述待分类文本在所述四元数空间的初始特征。可选的,本申请实施例中,对应字、词、句三个通道分别设计了一个卷积核,即卷积层中具有三个卷积核,其中,对应字通道的卷积核小于对应词通道的卷积核,对应词通道的卷积核小于对应句通道的卷积核。假设纯四元数空间向量表达T的大小为m×n,则在一可选的实施例中,对应字通道的卷积核大小可以为JC×n,对应词通道的卷积核大小可以为JW×n,对应句通道的卷积核大小可以为JS×n,其中,JC<JW<JS。这样,对应字通道的卷积核,得到的卷积结果是(m-JC+1)×1的向量,对应词通道的卷积核,得到的卷积结果是(m-JW+1)×1的向量,对应句通道的卷积核,得到的卷积结果是(m-JC+1)×1的向量。
池化层,用于对卷积层输出的三个通道的向量分别进行降维,得到三个1×1大小的向量,即三通道的1×1大小的向量。该三通道的1×1大小的向量即为待分类文本在四元数空间的特征。可选的,可以利用最大池化方法对卷积层输出的三个通道的向量分别进行降维,即对于卷积层输出的三个通道的向量中的每个通道的向量,取该通道的向量中的最大四元数作为该通道的降维后的向量。
全连接层,用于将池化层输出的三个1×1大小的向量拉伸成一个实值特征向量。为了便于进行文本分类,通过全连接层将池化层输出的三个1×1大小的向量映射为三通道的实值特征,然后将三通道的实值特征拉伸成一个3×1大小的向量,得到实值特征向量(为例便于与后续的实数空间提取的特征区分,这里的实值特征向量仍可以称为四元数空间的特征),该实值特征向量用于进行特征分类。具体映射为实值特征的过程可以参看前述实施例,这里不再赘述。
本申请实施例中,可以仅利用待分类文本在四元数空间的特征进行文本分类,基于此,上述卷积网络还可以包括:
输出层(图中未示出),该输出层用于利用全连接层输出的实值特征向量确定待分类文本的类型。
需要说明的是,上述得到待分类文本在四元数空间的特征的过程是针对一个待分类文本进行描述,在实际应用中,可以同时输入多个待分类文本,按照上述得到待分类文本在四元数空间的特征的过程对各个待分类文本分别进行处理,得到各个待分类文本在四元数空间的特征,即可以并行处理多个待分类文本。
在一可选的实施例中,还可以结合待分类文本在四元数空间的特征和待分类文本在实数空间的特征确定待分类文本的类别。如图4a所示,为本申请实施例提供的多通路混合分类模型的一种架构示意图。该示例中,除了对待分类文本在四元数空间进行特征提取外,还对待分类文本在实数空间进行特征提取,基于待分类文本在四元数空间提取的特征和在实数空间提取的特征确定待分类文本的类别。基于此,在至少根据待分类文本在四元数空间的特征确定待分类文本的类别之前,还可以包括:
获取待分类文本在实数空间的特征,即在实数间空间提取待分类文本的特征。
相应的,至少根据待分类文本在所述四元数空间的特征确定所述待分类文本的类别的一种实现方式可以为:
对待分类文本在所述四元数空间的特征,以及待分类文本在实数空间的特征进行处理,得到待分类文本的类别。
可选的,可以将待分类文本在所述四元数空间的特征,以及待分类文本在实数空间的特征进行融合处理,得到融合特征,利用该融合特征确定待分类文本的类别。
可选的,待分类文本在四元数空间的特征,以及待分类文本在实数空间的特征的维度相同,比如均为一维特征(即向量形式的特征),这样做可以使得特征融合过程不必对各通路的特征(即四元数空间的特征和实数空间的特征这两个通路的特征)进行同一维度上尺度的统一,可以避免数据信息的损失。
在待分类文本在四元数空间的特征,以及待分类文本在实数空间的特征均为向量特征的情况下,可以直接将待分类文本在四元数空间的特征(这里是指由四元数空间的特征映射得到实值特征),以及待分类文本在实数空间的特征进行拼接,得到拼接向量,利用该拼接向量对待分类文本进行分类,具体可以将该拼接向量映射到目标维度,得到融合特征,利用该融合特征确定待分类文本的类别。
如果待分类文本在四元数空间的特征,以及待分类文本在实数空间的特征不是向量特征(比如,矩阵形式的特征)的情况下,可以先将待分类文本在四元数空间的特征,以及待分类文本在实数空间的特征转换为向量特征,然后将转换得到的向量特征进行拼接,得到拼接向量,将拼接向量映射到目标维度,得到融合特征。
通过多通路特征融合的方式可以更加全面细致地提取待分类文本的深层语义特征,因此,能够进一步提高文本分类精度。
在一可选的实施例中,上述获取待分类文本在实数空间的特征的一种实现流程图如图4b所示,可以包括:
步骤S41:获取待分类文本中的各个词的向量表达。
可以利用学习好的词嵌入将待分类文本中的各个词转换为一定维度的向量,即各个词的向量表达的维度相同。或者,可以获取由前述的词向量表达模型输出的待分类文本中的各个词的向量表达。
步骤S42:对待分类文本中各个词的位置进行编码,得到待分类文本中各个词的位置的向量表达。
可选的,可以对待分类文本中各个词进行编号(比如,第一个词的编号是0,第二个词的编号是1,第三个词的编号是2,第四个词的编号是3,……,依次类推,直到待分类文本中的各个词都赋予了编号),待分类分别中词的位置是指词在待分类文本中的编号的编码。本申请实施例中,词的位置的向量表达和词的向量表达的维度(即向量中元素的个数)可以相同,也可以不同。
需要说明的是,步骤S41和步骤S42的执行顺序不做具体限定,可以先执行步骤S41,再执行步骤S42,或者,先执行步骤S42,再执行步骤S41,或者步骤S41和步骤S42同步执行。
步骤S43:对待分类文本中各个词的向量表达和位置的向量表达进行处理,得到待分类文本在实数空间的特征。
可选的,对于待分类文本中的每一个词,可以将该词的向量表达和该词的位置的向量表达相加,得到该词的与位置相关的向量表达。在一优选的实施例中,词的向量表达和该词的位置的向量表达的维度相同,这样在相加的时候,不必对两个向量表达进行对齐处理,减少信息损失。当然,如果,词的向量表达和该词的位置的向量表达的维度不同,需要先将词的向量表达和该词的位置的向量表达进行维度对齐,比如通过一定的映射关系将二者映射到同一个维度,或者,将维度较小的向量表达通过补零的方式与维度较大的向量表达进行维度对齐。
将待分类文本中的各个词的与位置相关的向量表达输入基于动态注意力机制的编码模型,得到编码模型输出的待分类文本中的各个词在实数空间的特征。
具体如何实现基于动态注意力的编码可以参看现有的基于动态注意力的编码,这里不再详述。
通过加入位置的向量表达,可以进一步提高文本分类精度。
在一可选的实施例中,请参看图5a,为本申请实施例提供的编码模型的一种结构示意图,该编码模型包括:注意力层,与注意力层连接的第一归一化层,与第一归一化层连接的前馈神经网络层,与前馈神经网络层连接的第二归一化层。各个层均引入残差连接。
基于图5a所示编码模型,上述将待分类文本中的各个词的与位置相关的向量表达输入基于动态注意力机制的编码模型,得到编码模型输出的待分类文本中的各个词在实数空间的特征的一种实现流程图如图5b所示,可以包括:
步骤S51:通过编码模型中的注意力层,利用待分类文本中的各个词的与位置相关的向量表达,基于当前时间步长计算每一个词与待分类文本中各个词之间的注意力权重;用该词与待分类文本中的各个词之间的注意力权重,对各个词的与位置相关的向量表达加权求和,得到该词的包含上下文信息的向量表达。
由于注意力权重是基于当前时间步长计算得到的,因此,注意力是动态变化的。注意力层计算注意力权重的方法可以参看已有技术,这里不再详述。
步骤S52:通过编码模型中的第一归一化层对待分类文本中的各个词的与位置相关的向量表达,以及各个词的包含上下文信息的向量表达进行第一归一化处理,得到各个词的归一化向量表达。
可选的,第一归一化层可以将待分类文本中的各个词的与位置相关的向量表达拼接为第一拼接向量,将待分类文本中的各个词的包含上下文信息的向量表达拼接为第二拼接向量,将第一拼接向量和第二拼接向量相加,得到待分类文本的第一融合向量表达,对该第一融合向量表达中的各个元素进行归一化处理,得到第一归一化融合向量表达。可选的,基于上述获得第一归一化融合向量表达的过程,并没有改变各个词的向量表达之间的相对位置关系,也没有改变各个词的向量表达的维度(向量表达的维度是指向量表达中元素的个数),因而,可以按照待分类文本中的各个词的与位置相关的向量表达拼接为第一拼接向量时,各个词的与位置相关的向量表达在第一拼接向量中的位置和各个词的与位置相关的向量表达的维度,从第一归一化融合向量表达中分割出各个词的归一化向量表达。也就是说,第一归一化融合向量表达就是待分类文本中的各个词的归一化向量表达拼接成的向量。
步骤S53:通过编码模型中的前馈神经网络层对每一个词的与位置相关的向量表达,该词的包含上下文信息的向量表达和归一化向量表达进行特征提取,得到该词在实数空间的初始特征。
前馈神经网络可以将同一个词的与位置相关的向量表达,包含上下文信息的向量表达和归一化向量表达拼接,得到每个一词的第三拼接向量,利用如下特征提取模型对每一个词的第三拼接向量进行特征提取,得到各个词在实数空间的初始特征:
FFN(x)=max(0,xW1+b1)W2+b2
其中,x表示第三拼接向量,FFN(x)表示对x进行特征提取;W1、W2、b1、b2为通过网络训练学习到的网络参数。
步骤S54:通过编码模型中的第二归一化层对每一个词的与位置相关的向量表达,该词的包含上下文信息的向量表达和归一化向量表达,以及该词在实数空间的初始特征进行第二归一化处理,得到编码模型输出的该词在实数空间的特征。
可选的,第二归一化层可以将待分类文本中的各个词的与位置相关的向量表达拼接为第一拼接向量,将各个词的包含上下文信息的向量表达拼接为第二拼接向量,将各个词的归一化向量表达拼接为第四拼接向量,将各个词的在实数空间的初始特征拼接为第五拼接向量,将第一拼接向量、第二拼接向量、第四拼接向量和第五拼接向量相加,得到待分类文本的第二融合向量表达,对该第二融合向量表达中的各个元素进行归一化处理,得到第二归一化融合向量表达。可选的,基于上述获得第二归一化融合向量表达的过程,并没有改变各个词的向量表达之间的相对位置关系,也没有改变各个词的向量表达的维度,因而,可以按照待分类文本中的各个词的与位置相关的向量表达拼接为第一拼接向量时,各个词的与位置相关的向量表达在第一拼接向量中的位置和各个词的与位置相关的向量表达的维度,从第二归一化融合向量表达中分割出各个词的在实数空间的特征。也就是说,第二归一化融合向量表达就是待分类文本中的各个词的在实数空间的特征拼接成的向量。
本申请实施例中,针对短文本短小、信息分散特性引起的数据稀疏性问题,编码模型中使用动态注意力编码加前馈申请网络的结构,并引入了稠密卷积网络(DenseConvolutional Network,DenseNet)的思想,即编码模型中每一层均与之前的所有层相关,降低了训练过程中梯度消失情况出现的概率,加强了特征的传递,使得编码模型输出的该词在实数空间的特征可以获取和保留更多的特性信息,而且,编码模块的参数数量也较少。
在一可选的实施例中,编码模型中的第一归一化层和第二归一化层的网络结构,均可以使用Transformer网络中的归一化层(Add&Normalize层)的网络结构,编码模型中的前馈申请网络层的结构也可以使用Transformer网络中的前馈神经网络层(Feed Forward)的网络结构。
本申请实施例提供的文本分类方法可以通过预先训练好的文本分类模型实现。如图6所示,为本申请实施例提供的文本分类模型的一种结构示意图,可以包括:
卷积神经网络层,用于在四元数空间对待分类文本进行特征提取,该卷积神经网络层的结构可以是如图3b所示的结构。卷积神经网络层的输入为由待分类文本的字、词、句三个层级的向量表达构成的纯四元数,输出为待分类文本在四元数空间的特征。
编码网络层,用于在实数空间对待分类文本进行特征提取,该编码网络层的结构可以是如图5a所述的结构。编码网络层的输入为待分类文本在实数空间的向量表达,输出为待分类文本在实数空间的特征。
融合层,用于对卷积神经网络层和编码网络层输出的特征进行融合,得到融合特征。
全连接层,用于对融合特征进行维度变换,得到目标维度的特征。
输出层,用于利用目标维度的特征预测待分类文本的类别。输出层可以使用SoftMax分类器预测待分类文本的类别。
该文本分类模型可以通过如下方式训练得到:
获取由样本文本的字、词、句三个层级的向量表达构成的纯四元数,以及样本文本在实数空间的向量表达;
将由样本文本的字、词、句三个层级的向量表达构成的纯四元数输入文本分类模型的卷积神经网络层,将样本文本在实数空间的向量表达输入文本分类模型的输入编码网络层,得到文本分类模型输出的样本文本所属的类别。
以文本分类模型输出的样本文本所属的类别趋近于样本文本的类别标签为目标,对文本分类模型的参数进行更新。
本申请实施例提供的文本分类方法可以用于短文本的分类,例如,可以用于互联网新闻标题的文本分类,可以分为社会、时政、教育、财经、游戏、时尚、体育、股票、娱乐、家居、房产、科技等12个类别。当然,除了互联网新闻标题,还可以用于其它短文本的分类,例如,可以用于对商品评论的分类,可以分为:非常满意,满意,一般,不满意,非常不满意5个类别。
本申请实施例提供的文本分类方法还可以用于长文本的分类,比如,可以用于文章类文本的分类等。
与方法实施例相对应,本申请实施例还提供一种文本分类装置,本申请实施例提供的文本分类装置的一种结构示意图如图7所示,可以包括:
编码模块71,处理模块72和分类模块73;其中,
编码模块71用于对待分类文本进行字、词、句三个层级的编码,得到所述待分类文本的字级向量表达、词级向量表达和句级向量表达;
处理模块72用于将由所述字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到所述待分类文本在所述四元数空间的特征;
分类模块73用于至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别。
本申请实施例提供的文本分类装置,将待分类文本表示为一个纯四元数空间向量在四元数空间进行特征提取,所提取的特征保持了待分类文本的字、词、句的相关性和整体性,避免结构信息丢失,从而提高短文本的分类准确度。
在一可选的实施例中,所述编码模块71可以包括:
字级编码模块,用于对于所述待分类文本中的每一个字,获取该字的各个偏旁;根据该字的各个偏旁得到该字的向量表达。
在一可选的实施例中,所述处理模块72可以包括:
卷积模块,用于利用四元数卷积核对所述纯四元数空间向量表达进行四元数卷积处理,得到所述待分类文本在所述四元数空间的初始特征;
降维模块,用于对所述待分类文本在所述四元数空间的初始特征进行降维,得到所述待分类文本在所述四元数空间的特征。
在一可选的实施例中,所述文本分类装置还可以包括:
获取模块,用于获取所述待分类文本在实数空间的特征。
所述分类模块73具体用于:
对所述待分类文本在所述四元数空间的特征,以及所述待分类文本在实数空间的特征进行处理,得到所述待分类文本的类别。
在一可选的实施例中,所述获取模块可以包括:
词向量获取模块,用于获取所述待分类文本中的各个词的向量表达;
位置向量获取模块,用于对所述待分类文本中各个词的位置进行编码,得到所述待分类文本中各个词的位置的向量表达;
融合模块,用于对所述待分类文本中各个词的向量表达和位置的向量表达进行处理,得到所述待分类文本在实数空间的特征。
在一可选的实施例中,所述融合模块包括:
相加模块,用于对应所述待分类文本中的每一个词,将该词的向量表达和位置的向量表达相加,得到该词的与位置相关的向量表达;
模型调用模块,用于将所述待分类文本中的各个词的与位置相关的向量表达输入基于动态注意力机制的编码模型,得到所述编码模型输出的所述待分类文本中的各个词在实数空间的特征。
在一可选的实施例中,所述模型调用模块包括:
注意力模块,用于通过所述编码模型中的注意力层,基于当前时间步长计算每一个词与所述待分类文本中各个词之间的注意力权重;用该词与所述待分类文本中的各个词之间的注意力权重,对各个词的与位置相关的向量表达加权求和,得到该词的包含上下文信息的向量表达;
第一归一化模块,用于通过所述编码模型中的第一归一化层对所述待分类文本中的各个词的与位置相关的向量表达,以及各个词的包含上下文信息的向量表达进行第一归一化处理,得到各个词的归一化向量表达;
前馈模块,用于通过所述编码模型中的前馈神经网络层对每一个词的与位置相关的向量表达,该词的包含上下文信息的向量表达和归一化向量表达进行特征提取,得到该词在实数空间的初始特征;
第二归一化模块,用于通过所述编码模型中的第二归一化层对该词的包含上下文信息的向量表达和归一化向量表达,以及该词在实数空间的初始特征进行第二归一化处理,得到所述编码模型输出的该词在实数空间的特征。
在一可选的实施例中,所述分类模块73包括:
拼接模块,用于将所述待分类文本在所述四元数空间的特征,以及所述待分类文本中的各个词在实数空间的特征进行拼接,得到所述待分类文本的拼接特征;
确定模块,用于利用所述拼接特征确定所述待分类文本的类别。
本申请实施例提供的文本分类装置可应用于文本分类设备,如PC终端、云平台、服务器及服务器集群等。可选的,图8示出了文本分类设备的硬件结构框图,参照图8,文本分类设备的硬件结构可以包括:至少一个处理器1,至少一个通信接口2,至少一个存储器3和至少一个通信总线4;
在本申请实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;
处理器1可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
对待分类文本进行字、词、句三个层级的编码,得到所述待分类文本的字级向量表达、词级向量表达和句级向量表达;
将由所述字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到所述待分类文本在所述四元数空间的特征;
至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种存储介质,该存储介质可存储有适于处理器执行的程序,所述程序用于:
对待分类文本进行字、词、句三个层级的编码,得到所述待分类文本的字级向量表达、词级向量表达和句级向量表达;
将由所述字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到所述待分类文本在所述四元数空间的特征;
至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (11)
1.一种文本分类方法,其特征在于,包括:
对待分类文本进行字、词、句三个层级的编码,得到所述待分类文本的字级向量表达、词级向量表达和句级向量表达;
将由所述字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到所述待分类文本在所述四元数空间的特征;
至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别。
2.根据权利要求1所述的方法,其特征在于,所述待分类文本为中文文本,所述对待分类文本进行字级编码,包括:
对于所述待分类文本中的每一个字,获取该字的各个偏旁;
根据该字的各个偏旁得到该字的向量表达。
3.根据权利要求1所述的方法,其特征在于,所述将由所述字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理包括:
利用四元数卷积核对所述纯四元数空间向量表达进行四元数卷积处理,得到所述待分类文本在所述四元数空间的初始特征;
对所述待分类文本在所述四元数空间的初始特征进行降维,得到所述待分类文本在所述四元数空间的特征。
4.根据权利要求1-3任意一项所述的方法,其特征在于,在至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别之前,还包括:
获取所述待分类文本在实数空间的特征;
所述至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别,包括:
对所述待分类文本在所述四元数空间的特征,以及所述待分类文本在实数空间的特征进行处理,得到所述待分类文本的类别。
5.根据权利要求4所述的方法,其特征在于,所述获取所述待分类文本在实数空间的特征,包括:
获取所述待分类文本中的各个词的向量表达;
对所述待分类文本中各个词的位置进行编码,得到所述待分类文本中各个词的位置的向量表达;
对所述待分类文本中各个词的向量表达和位置的向量表达进行处理,得到所述待分类文本在实数空间的特征。
6.根据权利要求5所述的方法,其特征在于,所述对所述待分类文本中各个词的向量表达和位置的向量表达进行处理,得到所述待分类文本在实数空间的特征,包括:
对应所述待分类文本中的每一个词,将该词的向量表达和位置的向量表达相加,得到该词的与位置相关的向量表达;
将所述待分类文本中的各个词的与位置相关的向量表达输入基于动态注意力机制的编码模型,得到所述编码模型输出的所述待分类文本中的各个词在实数空间的特征。
7.根据权利要求6所述的方法,其特征在于,所述将所述待分类文本中的各个词的与位置相关的向量表达输入基于动态注意力机制的编码模型,得到所述编码模型输出的所述待分类文本中的各个词在实数空间的特征,包括:
通过所述编码模型中的注意力层,基于当前时间步长计算每一个词与所述待分类文本中各个词之间的注意力权重;用该词与所述待分类文本中的各个词之间的注意力权重,对各个词的与位置相关的向量表达加权求和,得到该词的包含上下文信息的向量表达;
通过所述编码模型中的第一归一化层对所述待分类文本中的各个词的与位置相关的向量表达,以及各个词的包含上下文信息的向量表达进行第一归一化处理,得到各个词的归一化向量表达;
通过所述编码模型中的前馈神经网络层对每一个词的与位置相关的向量表达,该词的包含上下文信息的向量表达和归一化向量表达进行特征提取,得到该词在实数空间的初始特征;
通过所述编码模型中的第二归一化层对该词的包含上下文信息的向量表达和归一化向量表达,以及该词在实数空间的初始特征进行第二归一化处理,得到所述编码模型输出的该词在实数空间的特征。
8.根据权利要求4所述的方法,其特征在于,所述对所述待分类文本在所述四元数空间的特征,以及所述待分类文本在实数空间的特征进行处理,得到所述待分类文本的类别,包括:
将所述待分类文本在所述四元数空间的特征,以及所述待分类文本中的各个词在实数空间的特征进行拼接,得到所述待分类文本的拼接特征;
利用所述拼接特征确定所述待分类文本的类别。
9.一种文本分类装置,其特征在于,包括:
编码模块,用于对待分类文本进行字、词、句三个层级的编码,得到所述待分类文本的字级向量表达、词级向量表达和句级向量表达;
处理模块,用于将由所述字级向量表达、词级向量表达和句级向量表达构成的纯四元数空间向量表达在四元数空间进行处理,得到所述待分类文本在所述四元数空间的特征;
分类模块,用于至少根据所述待分类文本在所述四元数空间的特征确定所述待分类文本的类别。
10.一种文本分类设备,其特征在于,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1-8中任一项所述的文本分类方法的各个步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1-8中任一项所述的文本分类方法的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911328004.1A CN110968697B (zh) | 2019-12-20 | 2019-12-20 | 文本分类方法、装置、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911328004.1A CN110968697B (zh) | 2019-12-20 | 2019-12-20 | 文本分类方法、装置、设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110968697A true CN110968697A (zh) | 2020-04-07 |
CN110968697B CN110968697B (zh) | 2023-06-16 |
Family
ID=70035732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911328004.1A Active CN110968697B (zh) | 2019-12-20 | 2019-12-20 | 文本分类方法、装置、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110968697B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626889A (zh) * | 2020-06-02 | 2020-09-04 | 小红书科技有限公司 | 社交内容对应的类目预测方法及装置 |
CN112364666A (zh) * | 2020-11-12 | 2021-02-12 | 虎博网络技术(上海)有限公司 | 文本表征方法、装置及计算机设备 |
CN113569049A (zh) * | 2021-08-10 | 2021-10-29 | 燕山大学 | 一种基于层次Trans-CNN的多标签文本分类算法 |
WO2023165102A1 (zh) * | 2022-03-04 | 2023-09-07 | 合众新能源汽车股份有限公司 | 基于注意力的文本分类方法、装置及计算机可读介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107341452A (zh) * | 2017-06-20 | 2017-11-10 | 东北电力大学 | 基于四元数时空卷积神经网络的人体行为识别方法 |
WO2019080863A1 (zh) * | 2017-10-26 | 2019-05-02 | 福建亿榕信息技术有限公司 | 文本情感分类方法、存储介质及计算机 |
CN110209806A (zh) * | 2018-06-05 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 文本分类方法、文本分类装置及计算机可读存储介质 |
-
2019
- 2019-12-20 CN CN201911328004.1A patent/CN110968697B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107341452A (zh) * | 2017-06-20 | 2017-11-10 | 东北电力大学 | 基于四元数时空卷积神经网络的人体行为识别方法 |
WO2019080863A1 (zh) * | 2017-10-26 | 2019-05-02 | 福建亿榕信息技术有限公司 | 文本情感分类方法、存储介质及计算机 |
CN110209806A (zh) * | 2018-06-05 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 文本分类方法、文本分类装置及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
曾明睿;袁梦奇;邵曦;鲍秉坤;徐常胜;: "文本特征提取的研究进展" * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626889A (zh) * | 2020-06-02 | 2020-09-04 | 小红书科技有限公司 | 社交内容对应的类目预测方法及装置 |
CN112364666A (zh) * | 2020-11-12 | 2021-02-12 | 虎博网络技术(上海)有限公司 | 文本表征方法、装置及计算机设备 |
CN112364666B (zh) * | 2020-11-12 | 2023-12-08 | 虎博网络技术(上海)有限公司 | 文本表征方法、装置及计算机设备 |
CN113569049A (zh) * | 2021-08-10 | 2021-10-29 | 燕山大学 | 一种基于层次Trans-CNN的多标签文本分类算法 |
CN113569049B (zh) * | 2021-08-10 | 2024-03-29 | 燕山大学 | 一种基于层次Trans-CNN的多标签文本分类方法 |
WO2023165102A1 (zh) * | 2022-03-04 | 2023-09-07 | 合众新能源汽车股份有限公司 | 基于注意力的文本分类方法、装置及计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110968697B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109522557B (zh) | 文本关系抽取模型的训练方法、装置及可读存储介质 | |
WO2022022163A1 (zh) | 文本分类模型的训练方法、装置、设备及存储介质 | |
CN107943784B (zh) | 基于生成对抗网络的关系抽取方法 | |
CN108009148B (zh) | 基于深度学习的文本情感分类表示方法 | |
CN109858039B (zh) | 一种文本信息识别方法及识别装置 | |
CN108959482B (zh) | 基于深度学习的单轮对话数据分类方法、装置和电子设备 | |
CN110968697A (zh) | 文本分类方法、装置、设备及可读存储介质 | |
CN110851596A (zh) | 文本分类方法、装置及计算机可读存储介质 | |
CN111401061A (zh) | 基于BERT及BiLSTM-Attention的涉案新闻观点句识别方法 | |
CN110175221B (zh) | 利用词向量结合机器学习的垃圾短信识别方法 | |
CN108509427B (zh) | 文本数据的数据处理方法及应用 | |
CN111221944A (zh) | 文本意图识别方法、装置、设备和存储介质 | |
CN111522908A (zh) | 一种基于BiGRU和注意力机制的多标签文本分类方法 | |
CN110781273A (zh) | 文本数据处理方法、装置、电子设备及存储介质 | |
CN113158656B (zh) | 讽刺内容识别方法、装置、电子设备以及存储介质 | |
CN111339775A (zh) | 命名实体识别方法、装置、终端设备及存储介质 | |
CN111159409A (zh) | 基于人工智能的文本分类方法、装置、设备、介质 | |
CN114385806A (zh) | 一种基于深度学习的文本摘要方法及系统 | |
CN111985243A (zh) | 情感模型的训练方法、情感分析方法、装置及存储介质 | |
Inunganbi et al. | Handwritten Meitei Mayek recognition using three‐channel convolution neural network of gradients and gray | |
Han et al. | An attention-based neural framework for uncertainty identification on social media texts | |
Shekar et al. | Optical character recognition and neural machine translation using deep learning techniques | |
CN114925702A (zh) | 文本相似度识别方法、装置、电子设备及存储介质 | |
CN114117039A (zh) | 一种小样本文本分类方法及模型 | |
CN114417785A (zh) | 知识点标注方法、模型的训练方法、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |