CN111339305A - 文本分类方法、装置、电子设备及存储介质 - Google Patents
文本分类方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111339305A CN111339305A CN202010203466.7A CN202010203466A CN111339305A CN 111339305 A CN111339305 A CN 111339305A CN 202010203466 A CN202010203466 A CN 202010203466A CN 111339305 A CN111339305 A CN 111339305A
- Authority
- CN
- China
- Prior art keywords
- text
- training
- classification
- emotion
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种文本分类方法、装置、电子设备及存储介质,该文本分类方法包括:对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本;按照设定编码形式对所述第二文本进行文本编码,得到对应的第一文本向量编码;将所述第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和所述情感类别的概率值;其中,所述文本情感分类模型是利用设定损失函数FL对预训练模型进行训练而得到的模型。因此,本发明实施例提高了对于情感倾向模糊文本的判别能力,还提高了文本分类的准确性。
Description
技术领域
本发明涉及信息处理领域,具体涉及一种文本分类方法、装置、电子设备及存储介质。
背景技术
面向微博短文本的情感分析是网络舆情监测的重要组成部分。
目前,常用的文本情感分类方法包括:基于情感词典的情感分析,基于传统机器学习的情感分析和基于深度学习的情感分析。
但是,基于情感词典的情感分析,需要构建先进的情感词典,成本高且需不断更新;基于传统机器学习的情感分析,需要人工提取特征且模型不易训练;基于深度学习的情感分析,对于情感倾向较为模糊且文本识别准确度较低。
发明内容
由于现有方法存在上述问题,本发明实施例提出一种文本分类方法、装置、电子设备及存储介质。
第一方面,本发明实施例提出一种文本分类方法,包括:
对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本;
按照设定编码形式对所述第二文本进行文本编码,得到对应的第一文本向量编码;
将所述第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和所述情感类别的概率值;其中,
所述文本情感分类模型是利用设定损失函数FL对预训练模型进行训练而得到的模型。
可选地,所述利用设定损失函数FL对预训练模型进行训练,包括:
加载所述预训练模型,并设置对应的模型参数;
对用于模型训练的第一训练样本进行所述数据预处理,得到用于文本情感分类的第二训练文本;
按照所述设定编码形式对所述第二训练文本进行所述文本编码,得到对应的第二文本向量编码;
将所述第二文本向量编码作为所述预训练模型的输入,并通过所述预训练模型提取文本句子向量编码,以及将编码结果进行最大池化处理后得到对应的特征向量;
将所述特征向量作为用于分类处理的全连接层的输入,并在每个全连接层后对拼接后的特征数据进行正则化和非线性变换,以及通过设定分类器输出所述第二训练文本的情感类别和所述情感类别的概率值;
根据所述情感类别的概率值和所述设定损失函数FL,计算对应的损失值,并根据所述损失值对所述预训练模型的权值参数进行微调,直到损失值的大小不再发生变化或者达到迭代次数时结束训练,得到所述文本情感分类模型。
可选地,所述对用于模型训练的第一训练样本进行所述数据预处理,包括:
删除所述第一训练文本中的指定内容,所述指定内容用于表征对文本情感分类不相关的字符。
可选地,所述对用于模型训练的第一训练样本进行所述数据预处理,还包括:
对所述第一训练文本中每句文本整体语义标注对应的情感极性标签;其中,所述情感极性标签包括正面极性、中性极性和负面极性。
可选地,所述设定编码形式包括词表征、段表征和位置表征;
所述按照所述设定编码形式对所述第二训练文本进行所述文本编码,得到对应的第二文本向量编码,包括:
按照设定分词工具对所述第二训练文本进行分词,得到分词后的第三训练文本;
按照所述词表征、段表征和位置表征对所述第三训练文本分别进行编码,并对不同编码形式得到的编码进行整合,得到所述第二文本向量编码。
可选地,所述按照所述词表征、段表征和位置表征对所述第三训练文本分别进行编码,并对不同编码形式得到的编码进行整合,得到所述第二文本向量编码,包括:
针对所述第三训练文本中的每个句子,在句子开始位置设置分类标签,在句子结束位置设置结束标签,在两个句子中间设置分隔标签;
针对所述第三训练文本中的每个字,根据设定词汇表确定该字在所述设定词汇表中的位置;
根据设定的固定向量维度,在句子里面的单词掩码为1,为最大句子长度凑数而填充的单词掩码为0;
对于单句文本分类任务,对应的段表征为0;
对不同位置的字或词,添加不同的位置表征;
按照词表征、段表征和位置表征将所有编码相加,得到所述第二文本向量编码。
可选地,所述根据所述情感类别的概率值和所述设定损失函数FL,计算对应的损失值,包括:
利用第一公式计算所述损失值,其中,所述第一公式包括:
FL(pt)=(-a)×(1-pt)γ×log(pt)
其中,pt表示概率值;a表示平衡权重;FL(pt)表示损失值;γ表示聚焦参数。
第二方面,本发明实施例提出一种文本分类装置,包括:
数据预处理模块,用于对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本;
文本编码模块,用于按照设定编码形式对所述第二文本进行文本编码,得到对应的第一文本向量编码;
文本分类模块,用于将所述第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和所述情感类别的概率值;其中,所述文本情感分类模型是利用设定损失函数FL对预训练模型进行训练而得到的模型。
第三方面,本发明实施例提出一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如第一方面所述文本分类方法的步骤。
第四方面,本发明实施例提出一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如第一方面所述文本分类方法的步骤。
由上述技术方案可知,本发明实施例通过对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本,并按照设定编码形式对第二文本进行文本编码,得到对应的第一文本向量编码,以及将第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和该情感类别的概率值;其中,该文本情感分类模型是利用设定损失函数FL(Focal Loss)对预训练模型进行训练而得到的模型,从而提高了对于情感倾向模糊文本的判别能力,还提高了文本分类的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些图获得其他的附图。
图1为本发明实施例提供的一种文本分类方法的流程示意图;
图2为本发明实施例提供的训练前分类模型与训练后分类模型的效果对比图;
图3为本发明实施例提供的一种文本分类装置的结构示意图;
图4为本发明实施例提供的一种电子设备的实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了便于清楚描述本发明实施例的技术方案,在本发明的各实施例中,若采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分,本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定。
图1为本发明实施例提供的一种文本分类方法的流程示意图;该方法可以用于需要文本分类的设备上,比如:服务器;如图1所示,该文本分类方法可以包括:
S110、对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本。
具体地,第一文本可以指的是短文本,比如:通过网络爬虫技术从微博平台采集到的微博短文本。
第二文本可以是指的是对短文本进行数据预处理,得到的能够进行文本情感分类的文本。
其中,数据预处理可以包括将不适用于文本情感分类的文本转换成适用于文本情感分类的文本的一系列数据处理过程。
S120、按照设定编码形式对第二文本进行文本编码,得到对应的第一文本向量编码。
具体地,文本编码可以指的是将文本转换成特定编码表示。
S130、将第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和该情感类别的概率值;其中,该文本情感分类模型是利用设定损失函数FL(Focal Loss)对预训练模型进行训练而得到的模型。
具体地,设定损失函数FL是一种新型损失函数。其中,该新型损失函数被应用到自然语言处理当中,具体为被应用在对预训练模型的训练上,最终得到文本情感分类模型。
另外,预训练模型可以包括但不限于以下一项或多项:
TextCNN(TextConvolutional Neural Networks,文本卷积神经网络);
LSTM(Long-Short Term Memory,长短期记忆网络);
ULMFIT(Universal Language Model Fine-Tuning,通用语言模型微调);
BERT(Bidirectional Encoder Representations from Transformers,Transformers的双向编码表示);其中,Transformer是一种网络结构名称。
与此对应的,如图2所示,文本情感分类模型可以包括利用设定损失函数FL(FocalLoss)分别对TextCNN、LSTM、ULMFIT和BERT进行训练后得到的四种情感分类模型。深灰色柱形表示训练前分类模型的效果,浅灰色柱形表示训练后分类模型的效果,并且,使用训练后分类模型相对于使用训练前分类模型的分类准确率都有不同程度的提升。其中,测试指标是分类准确率(Accuracy),即在衡量文本分类结果时常用的直观的评价指标。
由上述实施例可见,通过对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本,并按照设定编码形式对第二文本进行文本编码,得到对应的第一文本向量编码,以及将第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和该情感类别的概率值;其中,该文本情感分类模型是利用设定损失函数FL(Focal Loss)对预训练模型进行训练而得到的模型,从而提高了对于情感倾向模糊文本的判别能力,还提高了文本分类的准确性。
进一步地,建立在图1所示方法的基础上,在执行S110中对待处理的第一文本进行数据预处理时,可以包括:
(1-1-1)删除所述第一文本中的指定内容,所述指定内容用于表征对文本情感分类不相关的字符。
具体地,指定内容中不包含用户所要表达的信息,其还可能成为下一步分词、文本情感分类的噪声,并对最终的文本分类结果产生负面的影响。
比如:微博内容中包含的“#话题#”、URL(Uniform Resource Locator,统一资源定位符)、以及“@用户”等一些特殊符号,均为对文本情感分类不相关的字符。
由上述实施例可见,在对待处理的第一文本进行数据预处理时,可以删除第一文本中的对文本情感分类不相关的字符,从而避免了这些不相关的字符成为下一步分词、文本情感分类的噪声,提供了文本分类的可靠性。
进一步地,建立在上述方法的基础上,在执行S110中对待处理的第一文本进行数据预处理时,还可以包括:
(1-1-2)对所述第一文本中每句文本整体语义标注对应的情感极性标签;其中,所述情感极性标签包括正面极性、中性极性和负面极性。
具体地,正面极性、中性极性和负面极性可以分别用2、1、0表示。
由上述实施例可见,在对待处理的第一文本进行数据预处理时,还可以对第一文本中每句文本整体语义标注对应的情感极性标签,其中,所述情感极性标签包括正面极性、中性极性和负面极性,这样便于下一步分词、文本情感分类等操作,提高了文本分类的效率。
进一步地,建立在上述方法的基础上,所述设定编码形式包括词表征(TokenEmbedding)、段表征(Segment Embedding)和位置表征(Position Embedding);在执行S120中按照设定编码形式对第二文本进行文本编码,得到对应的第一文本向量编码时,可以包括:
(1-2-1)按照设定分词工具对所述第二文本进行分词,得到分词后的第三文本。
具体地,可以采用Jieba分词工具将句子分词。
比如:将句子“我是中国人”处理成['我','是','中国人']这3个词,然后对“我”、“是”、“中国人”这3个词分别进行编码。
(1-2-2)按照所述词表征、段表征和位置表征对所述第三文本分别进行编码,并对不同编码形式得到的编码进行整合,得到所述第一文本向量编码。
具体地,对于BERT模型输入的标识符(Token),它的表征由其对应的词表征(TokenEmbedding)、段表征(Segment Embedding)和位置表征(Position Embedding)相加产生。
由上述实施例可见,在按照设定编码形式对第二文本进行文本编码时,可以先按照设定分词工具对所述第二文本进行分词,得到分词后的第三文本,再按照所述词表征、段表征和位置表征对所述第三文本分别进行编码,并对不同编码形式得到的编码进行整合,得到最终的第一文本向量编码,这样便于将第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和该情感类别的概率值,从而提高了文本分类的准确性。
进一步地,建立在上述方法的基础上,在执行(1-2-2)时可以包括:
(1-3-1)针对所述第三文本中的每个句子,在句子开始位置设置分类标签,在句子结束位置设置结束标签,在两个句子中间设置分隔标签。
具体地,分类标签可以为[CLS],结束标签可以为[SEP],分隔标签可以为[SEP]。
(1-3-2)针对所述第三文本中的每个字,根据设定词汇表确定该字在所述设定词汇表中的位置。
具体地,设定词汇表可以是vocab词汇表。
(1-3-3)根据设定的固定向量维度,在句子里面的单词掩码为1,为最大句子长度凑数而填充的单词掩码为0。
具体地,为了统一向量维度,可以根据设定的固定向量维度,在句子里面的单词掩码为1,为最大句子长度凑数而填充的单词掩码为0。
(1-3-4)对于单句文本分类任务,对应的段表征为0。
具体地,对于单句文本分类任务,段表征全用0表示。
(1-3-5)对不同位置的字或词,添加不同的位置表征。
具体地,由于出现在文本不同位置的字或词所携带的语义信息存在差异(比如:“我爱你”和“你爱我”),因此,需要对不同位置的字或词分别附加一个不同的向量以作区分(即位置表征)。
(1-3-6)按照词表征、段表征和位置表征将所有编码相加,得到所述第一文本向量编码。
进一步地,建立在上述方法的基础上,上述S130中利用设定损失函数FL对预训练模型进行训练时,可以包括:
(1-4-1)加载所述预训练模型,并设置对应的模型参数。
具体地,预训练模型可以为TextCNN、LSTM、ULMFIT或BERT等深度学习模型。比如:预训练模型为BERT模型。
另外,设置的模型参数可以包括:学习率,迭代轮数,批处理数量大小,最大序列长度等参数。
(1-4-2)对用于模型训练的第一训练样本进行所述数据预处理,得到用于文本情感分类的第二训练文本。
(1-4-3)按照所述设定编码形式对所述第二训练文本进行所述文本编码,得到对应的第二文本向量编码。
(1-4-4)将所述第二文本向量编码作为所述预训练模型的输入,并通过所述预训练模型提取文本句子向量编码,以及将编码结果进行最大池化处理后得到对应的特征向量。
具体地,预训练模型为BERT模型,该BERT模型采用双向Transformer作为特征提取器,经过多层转换网络后,提取文本句子向量编码,因为预训练模型采用基础BERT模型,因此维度为768。然后将编码结果进行最大池化处理后得到特征向量V,即ContextualRepresentation。由于依赖其深层网络结构以及海量数据预训练,可以更好的表征上下文信息,尤其提取深层次的语义信息。
(1-4-5)将所述特征向量作为用于分类处理的全连接层的输入,并在每个全连接层后对拼接后的特征数据进行正则化和非线性变换,以及通过设定分类器输出所述第二训练文本的情感类别和所述情感类别的概率值。
具体地,分类处理包括首先将特征向量V作为全连接层的输入,全连接层实现了将高维特征转换到对应的与类别数目相等的维度上,便于进一步分类,然后在每个全连接层后对拼接后的特征数据进行正则化和非线性变换,然后通过Softmax分类器输出待处理的文本数据的每个处理样本属于不同情感类别的概率值。其中,Softmax是一种函数,也叫归一化指数函数。
(1-4-6)根据所述情感类别的概率值和所述设定损失函数FL(Focal Loss),计算对应的损失值,并根据所述损失值对所述预训练模型的权值参数进行微调,直到损失值的大小不再发生变化或者达到迭代次数时结束训练,得到所述文本情感分类模型。
具体地,根据设定损失函数FL(Focal Loss)计算损失值,进行反向传播、微调(Fine Tuning)操作和迭代运算。其中,微调操作用于对预训练模型的权值参数进行微调。
并且,当损失值趋于稳定或者达到迭代次数时结束训练,一般迭代三轮模型趋于稳定,最终得到已训练好的文本情感分类模型。
由上述实施例可见,通过将设定损失函数FL(Focal Loss)应用到对预训练模型进行训练,最终得到已训练好的文本情感分类模型,从而实现了基于新型损失函数FL训练的文本情感分类模型,提高了对于情感倾向模糊文本的判别能力,还提高了文本情感分析整体性能。
进一步地,建立在上述方法的基础上,上述(1-4-2)对用于模型训练的第一训练样本进行所述数据预处理,可以包括:
(1-5-1)删除所述第一训练文本中的指定内容,所述指定内容用于表征对文本情感分类不相关的字符。
具体地,指定内容中不包含用户所要表达的信息,其还可能成为下一步分词、文本情感分类的噪声,并对最终的文本分类结果产生负面的影响。
比如:微博内容中包含的“#话题#”、URL(Uniform Resource Locator,统一资源定位符)、以及“@用户”等一些特殊符号,均为对文本情感分类不相关的字符。
由上述实施例可见,在对用于模型训练的第一训练样本进行所述数据预处理时,可以删除第一训练文本中的指定内容,所述指定内容用于表征对文本情感分类不相关的字符,从而避免了这些不相关的字符成为下一步分词、文本情感分类的噪声,提供了模型训练的可靠性。
进一步地,建立在上述方法的基础上,在执行上述(1-4-2)中对用于模型训练的第一训练样本进行所述数据预处理,还可以包括:
(1-5-2)对所述第一训练文本中每句文本整体语义标注对应的情感极性标签;其中,所述情感极性标签包括正面极性、中性极性和负面极性。
具体地,正面极性、中性极性和负面极性可以分别用2、1、0表示。
由上述实施例可见,在对用于模型训练的第一训练样本进行所述数据预处理时,还可以对第一训练文本中每句文本整体语义标注对应的情感极性标签,其中,所述情感极性标签包括正面极性、中性极性和负面极性,这样便于下一步分词、文本情感分类等操作,提高了模型训练的效率。
进一步地,建立在上述方法的基础上,所述设定编码形式包括词表征(TokenEmbedding)、段表征(Segment Embedding)和位置表征(Position Embedding);在执行上述(1-4-3)中按照所述设定编码形式对所述第二训练文本进行所述文本编码,得到对应的第二文本向量编码时,可以包括:
(1-6-1)按照设定分词工具对所述第二训练文本进行分词,得到分词后的第三训练文本。
具体地,可以采用Jieba分词工具将句子分词。
比如:将句子“我是中国人”处理成['我','是','中国人']这3个词,然后对“我”、“是”、“中国人”这3个词分别进行编码。
(1-6-2)按照所述词表征、段表征和位置表征对所述第三训练文本分别进行编码,并对不同编码形式得到的编码进行整合,得到所述第二文本向量编码。
由上述实施例可见,在按照设定编码形式对第二训练文本进行文本编码时,可以先按照设定分词工具对所述第二训练文本进行分词,得到分词后的第三训练文本,再按照所述词表征、段表征和位置表征对所述第三训练文本分别进行编码,并对不同编码形式得到的编码进行整合,得到最终的第二文本向量编码,这样便于将第二文本向量编码输入到预训练模型中进行训练,从而提高了模型训练的准确性。
进一步地,建立在上述方法的基础上,在执行(1-6-2)时可以包括:
(1-7-1)针对所述第三训练文本中的每个句子,在句子开始位置设置分类标签,在句子结束位置设置结束标签,在两个句子中间设置分隔标签。
具体地,分类标签可以为[CLS],结束标签可以为[SEP],分隔标签可以为[SEP]。
(1-7-2)针对所述第三训练文本中的每个字,根据设定词汇表确定该字在所述设定词汇表中的位置。
具体地,设定词汇表可以是vocab词汇表。
(1-7-3)根据设定的固定向量维度,在句子里面的单词掩码为1,为最大句子长度凑数而填充的单词掩码为0。
具体地,为了统一向量维度,可以根据设定的固定向量维度,在句子里面的单词掩码为1,为最大句子长度凑数而填充的单词掩码为0。
(1-7-4)对于单句文本分类任务,对应的段表征为0。
具体地,对于单句文本分类任务,段表征全用0表示。
(1-7-5)对不同位置的字或词,添加不同的位置表征。
具体地,由于出现在文本不同位置的字或词所携带的语义信息存在差异(比如:“我爱你”和“你爱我”),因此,需要对不同位置的字或词分别附加一个不同的向量以作区分(即位置表征)。
(1-7-6)按照词表征、段表征和位置表征将所有编码相加,得到所述第二文本向量编码。
进一步地,建立在上述方法的基础上,在执行上述(1-4-6)中根据所述情感类别的概率值和所述设定损失函数FL,计算对应的损失值时,可以根据利用第一公式计算所述损失值,其中,所述第一公式包括:
FL(pt)=(-a)×(1-pt)γ×log(pt)
其中,pt表示概率值;a表示平衡权重;FL(pt)表示损失值;γ表示聚焦参数。
具体地,(1-pt)γ为调制因子。当γ大于0时,可以降低简单样本的相对损失值,进而将注意力放在困难样本和分类错误的样本上。进一步a作为平衡权重,其中a的取值范围在0至1之间,其用于控制正负样本对总的损失的共享权重以及调节缩放比例。
上述第一公式所示的计算损失值的方法,即重塑交叉熵损失的方法,可以降低分类样本的损失权重,并把重点放在稀疏的困难样本上。其中,困难样本可以指的是情感倾向较难划分和预测概率较低的一类样本。
图3为本发明实施例提供的一种文本分类装置的结构示意图,该文本分类装置可以用于需要文本分类的设备上,比如:服务器;如图3所示,该文本分类装置可以包括:
数据预处理模块31,用于对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本;
文本编码模块32,用于按照设定编码形式对所述第二文本进行文本编码,得到对应的第一文本向量编码;
文本分类模块33,用于将所述第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和所述情感类别的概率值;其中,所述文本情感分类模型是利用设定损失函数FL对预训练模型进行训练而得到的模型。
进一步地,建立在上述所示装置的基础上,还包括:
加载所述预训练模型,并设置对应的模型参数;
训练样本预处理模块,用于对用于模型训练的第一训练样本进行所述数据预处理,得到用于文本情感分类的第二训练文本;
训练样本文本编码模块,用于按照所述设定编码形式对所述第二训练文本进行所述文本编码,得到对应的第二文本向量编码;
训练样本提取模块,用于将所述第二文本向量编码作为所述预训练模型的输入,并通过所述预训练模型提取文本句子向量编码,以及将编码结果进行最大池化处理后得到对应的特征向量;
训练样本分类模块,用于将所述特征向量作为用于分类处理的全连接层的输入,并在每个全连接层后对拼接后的特征数据进行正则化和非线性变换,以及通过设定分类器输出所述第二训练文本的情感类别和所述情感类别的概率值;
训练样本计算模块,用于根据所述情感类别的概率值和所述设定损失函数FL,计算对应的损失值,并根据所述损失值对所述预训练模型的权值参数进行微调,直到损失值的大小不再发生变化或者达到迭代次数时结束训练,得到所述文本情感分类模型。
进一步地,建立在上述所示装置的基础上,所述训练样本预处理模块可以包括:
删除子模块,用于删除所述第一训练文本中的指定内容,所述指定内容用于表征对文本情感分类不相关的字符。
进一步地,建立在上述所示装置的基础上,所述对用于模型训练的第一训练样本进行所述数据预处理,还包括:
标注子模块,用于对所述第一训练文本中每句文本整体语义标注对应的情感极性标签;其中,所述情感极性标签包括正面极性、中性极性和负面极性。
进一步地,建立在上述所示装置的基础上,所述设定编码形式包括词表征、段表征和位置表征;
所述训练样本文本编码模块可以包括:
分词子模块,用于按照设定分词工具对所述第二训练文本进行分词,得到分词后的第三训练文本;
编码子模块,用于按照所述词表征、段表征和位置表征对所述第三训练文本分别进行编码,并对不同编码形式得到的编码进行整合,得到所述第二文本向量编码。
进一步地,建立在上述所示装置的基础上,所述按编码子模块可以包括:
标签设置单元,用于针对所述第三训练文本中的每个句子,在句子开始位置设置分类标签,在句子结束位置设置结束标签,在两个句子中间设置分隔标签;
位置确定单元,用于针对所述第三训练文本中的每个字,根据设定词汇表确定该字在所述设定词汇表中的位置;
掩码设置单元,用于根据设定的固定向量维度,在句子里面的单词掩码为1,为最大句子长度凑数而填充的单词掩码为0;
段表征设置单元,用于对于单句文本分类任务,对应的段表征为0;
位置表征设置单元,用于对不同位置的字或词,添加不同的位置表征;
编码处理单元,按照词表征、段表征和位置表征将所有编码相加,得到所述第二文本向量编码。
进一步地,建立在上述所示装置的基础上,所述训练样本计算模块可以包括:
计算子模块,用于利用第一公式计算所述损失值,其中,所述第一公式包括:
FL(pt)=(-a)×(1-pt)γ×log(pt)
其中,pt表示概率值;a表示平衡权重;FL(pt)表示损失值;γ表示聚焦参数。
本发明实施例所述的文本分类装置可以用于执行上述的方法实施例,其原理和技术效果类似,此处不再赘述。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
图4为本发明实施例提供的一种电子设备的实体结构示意图,如图4所示,该电子设备可以包括:处理器(processor)401、通信接口(Communications Interface)402、存储器(memory)403和通信总线404,其中,处理器401,通信接口402,存储器403通过通信总线404完成相互间的通信。处理器401可以调用存储器403中的逻辑指令,以执行如下方法:
对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本;
按照设定编码形式对所述第二文本进行文本编码,得到对应的第一文本向量编码;
将所述第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和所述情感类别的概率值;其中,
所述文本情感分类模型是利用设定损失函数FL对预训练模型进行训练而得到的模型。
此外,上述的存储器403中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
进一步地,本发明实施例公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:
对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本;
按照设定编码形式对所述第二文本进行文本编码,得到对应的第一文本向量编码;
将所述第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和所述情感类别的概率值;其中,
所述文本情感分类模型是利用设定损失函数FL对预训练模型进行训练而得到的模型。
另一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的方法,例如包括:
对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本;
按照设定编码形式对所述第二文本进行文本编码,得到对应的第一文本向量编码;
将所述第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和所述情感类别的概率值;其中,
所述文本情感分类模型是利用设定损失函数FL对预训练模型进行训练而得到的模型。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种文本分类方法,其特征在于,包括:
对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本;
按照设定编码形式对所述第二文本进行文本编码,得到对应的第一文本向量编码;
将所述第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和所述情感类别的概率值;其中,
所述文本情感分类模型是利用设定损失函数FL对预训练模型进行训练而得到的模型。
2.根据权利要求1所述的文本分类方法,其特征在于,所述利用设定损失函数FL对预训练模型进行训练,包括:
加载所述预训练模型,并设置对应的模型参数;
对用于模型训练的第一训练样本进行所述数据预处理,得到用于文本情感分类的第二训练文本;
按照所述设定编码形式对所述第二训练文本进行所述文本编码,得到对应的第二文本向量编码;
将所述第二文本向量编码作为所述预训练模型的输入,并通过所述预训练模型提取文本句子向量编码,以及将编码结果进行最大池化处理后得到对应的特征向量;
将所述特征向量作为用于分类处理的全连接层的输入,并在每个全连接层后对拼接后的特征数据进行正则化和非线性变换,以及通过设定分类器输出所述第二训练文本的情感类别和所述情感类别的概率值;
根据所述情感类别的概率值和所述设定损失函数FL,计算对应的损失值,并根据所述损失值对所述预训练模型的权值参数进行微调,直到损失值的大小不再发生变化或者达到迭代次数时结束训练,得到所述文本情感分类模型。
3.根据权利要求2所述的文本分类方法,其特征在于,所述对用于模型训练的第一训练样本进行所述数据预处理,包括:
删除所述第一训练文本中的指定内容,所述指定内容用于表征对文本情感分类不相关的字符。
4.根据权利要求3所述的文本分类方法,其特征在于,所述对用于模型训练的第一训练样本进行所述数据预处理,还包括:
对所述第一训练文本中每句文本整体语义标注对应的情感极性标签;其中,所述情感极性标签包括正面极性、中性极性和负面极性。
5.根据权利要求2所述的文本分类方法,其特征在于,所述设定编码形式包括词表征、段表征和位置表征;
所述按照所述设定编码形式对所述第二训练文本进行所述文本编码,得到对应的第二文本向量编码,包括:
按照设定分词工具对所述第二训练文本进行分词,得到分词后的第三训练文本;
按照所述词表征、段表征和位置表征对所述第三训练文本分别进行编码,并对不同编码形式得到的编码进行整合,得到所述第二文本向量编码。
6.根据权利要求5所述的文本分类方法,其特征在于,所述按照所述词表征、段表征和位置表征对所述第三训练文本分别进行编码,并对不同编码形式得到的编码进行整合,得到所述第二文本向量编码,包括:
针对所述第三训练文本中的每个句子,在句子开始位置设置分类标签,在句子结束位置设置结束标签,在两个句子中间设置分隔标签;
针对所述第三训练文本中的每个字,根据设定词汇表确定该字在所述设定词汇表中的位置;
根据设定的固定向量维度,在句子里面的单词掩码为1,为最大句子长度凑数而填充的单词掩码为0;
对于单句文本分类任务,对应的段表征为0;
对不同位置的字或词,添加不同的位置表征;
按照词表征、段表征和位置表征将所有编码相加,得到所述第二文本向量编码。
7.根据权利要求2所述的文本分类方法,其特征在于,所述根据所述情感类别的概率值和所述设定损失函数FL,计算对应的损失值,包括:
利用第一公式计算所述损失值,其中,所述第一公式包括:
FL(pt)=(-a)×(1-pt)γ×log(pt)
其中,pt表示概率值;a表示平衡权重;FL(pt)表示损失值;γ表示聚焦参数。
8.一种文本分类装置,其特征在于,包括:
数据预处理模块,用于对待处理的第一文本进行数据预处理,得到用于文本情感分类的第二文本;
文本编码模块,用于按照设定编码形式对所述第二文本进行文本编码,得到对应的第一文本向量编码;
文本分类模块,用于将所述第一文本向量编码输入到预先训练好的文本情感分类模型中,得到对应的情感类别和所述情感类别的概率值;其中,所述文本情感分类模型是利用设定损失函数FL对预训练模型进行训练而得到的模型。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述文本分类方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述文本分类方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010203466.7A CN111339305B (zh) | 2020-03-20 | 2020-03-20 | 文本分类方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010203466.7A CN111339305B (zh) | 2020-03-20 | 2020-03-20 | 文本分类方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111339305A true CN111339305A (zh) | 2020-06-26 |
CN111339305B CN111339305B (zh) | 2023-04-14 |
Family
ID=71184285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010203466.7A Active CN111339305B (zh) | 2020-03-20 | 2020-03-20 | 文本分类方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111339305B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069311A (zh) * | 2020-08-04 | 2020-12-11 | 北京声智科技有限公司 | 一种文本提取方法、装置、设备及介质 |
CN112182214A (zh) * | 2020-09-27 | 2021-01-05 | 中国建设银行股份有限公司 | 一种数据分类方法、装置、设备及介质 |
CN113496005A (zh) * | 2021-05-26 | 2021-10-12 | 北京房多多信息技术有限公司 | 一种信息管理方法、装置、电子设备及存储介质 |
CN113609851A (zh) * | 2021-07-09 | 2021-11-05 | 浙江连信科技有限公司 | 心理学上想法认知偏差的识别方法、装置及电子设备 |
CN113724037A (zh) * | 2021-08-02 | 2021-11-30 | 深圳依时货拉拉科技有限公司 | 非正常订单处理方法、装置、存储介质和计算机设备 |
CN113836297A (zh) * | 2021-07-23 | 2021-12-24 | 北京三快在线科技有限公司 | 文本情感分析模型的训练方法及装置 |
CN115687625A (zh) * | 2022-11-14 | 2023-02-03 | 五邑大学 | 文本分类方法、装置、设备及介质 |
CN116089602A (zh) * | 2021-11-04 | 2023-05-09 | 腾讯科技(深圳)有限公司 | 信息处理方法、装置、电子设备、存储介质和程序产品 |
CN114386436B (zh) * | 2022-01-21 | 2023-07-18 | 平安科技(深圳)有限公司 | 文本数据的分析方法、模型训练方法、装置及计算机设备 |
WO2023134083A1 (zh) * | 2022-01-11 | 2023-07-20 | 平安科技(深圳)有限公司 | 基于文本的情感分类方法和装置、计算机设备、存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014048479A1 (en) * | 2012-09-27 | 2014-04-03 | Qatar Foundation | A system and method for the automatic creation or augmentation of an electronically rendered publication document |
CN107247702A (zh) * | 2017-05-05 | 2017-10-13 | 桂林电子科技大学 | 一种文本情感分析处理方法和系统 |
CN108108351A (zh) * | 2017-12-05 | 2018-06-01 | 华南理工大学 | 一种基于深度学习组合模型的文本情感分类方法 |
CN108536870A (zh) * | 2018-04-26 | 2018-09-14 | 南京大学 | 一种融合情感特征和语义特征的文本情感分类方法 |
WO2019080863A1 (zh) * | 2017-10-26 | 2019-05-02 | 福建亿榕信息技术有限公司 | 文本情感分类方法、存储介质及计算机 |
CN110543561A (zh) * | 2019-08-15 | 2019-12-06 | 阿里巴巴集团控股有限公司 | 对文本进行情感分析的方法及装置 |
CN110569508A (zh) * | 2019-09-10 | 2019-12-13 | 重庆邮电大学 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
CN110717334A (zh) * | 2019-09-10 | 2020-01-21 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN110807314A (zh) * | 2019-09-19 | 2020-02-18 | 平安科技(深圳)有限公司 | 文本情感分析模型训练方法、装置、设备及可读存储介质 |
-
2020
- 2020-03-20 CN CN202010203466.7A patent/CN111339305B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014048479A1 (en) * | 2012-09-27 | 2014-04-03 | Qatar Foundation | A system and method for the automatic creation or augmentation of an electronically rendered publication document |
CN107247702A (zh) * | 2017-05-05 | 2017-10-13 | 桂林电子科技大学 | 一种文本情感分析处理方法和系统 |
WO2019080863A1 (zh) * | 2017-10-26 | 2019-05-02 | 福建亿榕信息技术有限公司 | 文本情感分类方法、存储介质及计算机 |
CN108108351A (zh) * | 2017-12-05 | 2018-06-01 | 华南理工大学 | 一种基于深度学习组合模型的文本情感分类方法 |
CN108536870A (zh) * | 2018-04-26 | 2018-09-14 | 南京大学 | 一种融合情感特征和语义特征的文本情感分类方法 |
CN110543561A (zh) * | 2019-08-15 | 2019-12-06 | 阿里巴巴集团控股有限公司 | 对文本进行情感分析的方法及装置 |
CN110569508A (zh) * | 2019-09-10 | 2019-12-13 | 重庆邮电大学 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
CN110717334A (zh) * | 2019-09-10 | 2020-01-21 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN110807314A (zh) * | 2019-09-19 | 2020-02-18 | 平安科技(深圳)有限公司 | 文本情感分析模型训练方法、装置、设备及可读存储介质 |
Non-Patent Citations (1)
Title |
---|
RAN LI等: "A Multi-channel Neural Network for Imbalanced Emotion Recognition" * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069311A (zh) * | 2020-08-04 | 2020-12-11 | 北京声智科技有限公司 | 一种文本提取方法、装置、设备及介质 |
CN112182214A (zh) * | 2020-09-27 | 2021-01-05 | 中国建设银行股份有限公司 | 一种数据分类方法、装置、设备及介质 |
CN112182214B (zh) * | 2020-09-27 | 2024-03-19 | 中国建设银行股份有限公司 | 一种数据分类方法、装置、设备及介质 |
CN113496005B (zh) * | 2021-05-26 | 2022-04-08 | 北京房多多信息技术有限公司 | 一种信息管理方法、装置、电子设备及存储介质 |
CN113496005A (zh) * | 2021-05-26 | 2021-10-12 | 北京房多多信息技术有限公司 | 一种信息管理方法、装置、电子设备及存储介质 |
CN113609851A (zh) * | 2021-07-09 | 2021-11-05 | 浙江连信科技有限公司 | 心理学上想法认知偏差的识别方法、装置及电子设备 |
CN113836297A (zh) * | 2021-07-23 | 2021-12-24 | 北京三快在线科技有限公司 | 文本情感分析模型的训练方法及装置 |
CN113724037A (zh) * | 2021-08-02 | 2021-11-30 | 深圳依时货拉拉科技有限公司 | 非正常订单处理方法、装置、存储介质和计算机设备 |
CN116089602A (zh) * | 2021-11-04 | 2023-05-09 | 腾讯科技(深圳)有限公司 | 信息处理方法、装置、电子设备、存储介质和程序产品 |
CN116089602B (zh) * | 2021-11-04 | 2024-05-03 | 腾讯科技(深圳)有限公司 | 信息处理方法、装置、电子设备、存储介质和程序产品 |
WO2023134083A1 (zh) * | 2022-01-11 | 2023-07-20 | 平安科技(深圳)有限公司 | 基于文本的情感分类方法和装置、计算机设备、存储介质 |
CN114386436B (zh) * | 2022-01-21 | 2023-07-18 | 平安科技(深圳)有限公司 | 文本数据的分析方法、模型训练方法、装置及计算机设备 |
CN115687625A (zh) * | 2022-11-14 | 2023-02-03 | 五邑大学 | 文本分类方法、装置、设备及介质 |
CN115687625B (zh) * | 2022-11-14 | 2024-01-09 | 五邑大学 | 文本分类方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111339305B (zh) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111339305B (zh) | 文本分类方法、装置、电子设备及存储介质 | |
CN106502985B (zh) | 一种用于生成标题的神经网络建模方法及装置 | |
CN110223675B (zh) | 用于语音识别的训练文本数据的筛选方法及系统 | |
CN110717325B (zh) | 文本的情感分析方法、装置、电子设备及存储介质 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN114780831A (zh) | 基于Transformer的序列推荐方法及系统 | |
CN111538809A (zh) | 一种语音服务质量检测方法、模型训练方法及装置 | |
CN111858878B (zh) | 从自然语言文本中自动提取答案的方法、系统及存储介质 | |
CN112380866A (zh) | 一种文本话题标签生成方法、终端设备及存储介质 | |
CN111339772B (zh) | 俄语文本情感分析方法、电子设备和存储介质 | |
CN112836053A (zh) | 用于工业领域的人机对话情感分析方法及系统 | |
CN113553412A (zh) | 问答处理方法、装置、电子设备和存储介质 | |
CN111368066B (zh) | 获取对话摘要的方法、装置和计算机可读存储介质 | |
CN113486174B (zh) | 模型训练、阅读理解方法、装置、电子设备及存储介质 | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN117093864A (zh) | 文本生成模型训练方法以及装置 | |
CN110795531A (zh) | 一种意图识别方法、装置及存储介质 | |
CN115796141A (zh) | 文本数据增强方法和装置、电子设备、存储介质 | |
CN115221284A (zh) | 文本相似度的计算方法、装置、电子设备及存储介质 | |
CN115344694A (zh) | 一种基于Bert和BiLSTM的短文本情感分析方法、装置及存储介质 | |
CN113704472A (zh) | 基于主题记忆网络的仇恨和攻击性言论识别方法及系统 | |
CN112784573A (zh) | 文本情感内容分析方法、装置、设备及存储介质 | |
CN113761874A (zh) | 事件事实性预测方法、装置、电子设备与存储介质 | |
CN111428005A (zh) | 标准问答对确定方法、装置及电子设备 | |
CN114942980B (zh) | 一种确定文本匹配方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |