CN109857864A - 文本情感分类方法、装置、计算机设备及存储介质 - Google Patents
文本情感分类方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN109857864A CN109857864A CN201910012251.4A CN201910012251A CN109857864A CN 109857864 A CN109857864 A CN 109857864A CN 201910012251 A CN201910012251 A CN 201910012251A CN 109857864 A CN109857864 A CN 109857864A
- Authority
- CN
- China
- Prior art keywords
- text
- vector
- matrix
- input
- dimensionality reduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了文本情感分类方法、装置、计算机设备及存储介质。该方法包括:获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量;将所述文本识别向量进行线性判别分析降维,得到降维后文本向量;将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。该方法实现了通过卷积神经网络从中待进行情感识别文本抽取更有效的特征以输入至传统的分类器,提高分类准确率。
Description
技术领域
本发明涉及文本情感识别技术领域,尤其涉及一种文本情感分类方法、装置、计算机设备及存储介质。
背景技术
目前,文本分类问题中一般使用传统分类模型(朴素贝叶斯、SVM),或者使用深度神经网络(CNN、LSTM),但是传统分类模型难以捕捉更深层次的特征,而深度学习模型在最后多分类层中使用的分类器较弱,难以利用传统分类模型的优势。
发明内容
本发明实施例提供了一种文本情感分类方法、装置、计算机设备及存储介质,旨在解决现有技术中深度学习模型在最后多分类层中使用的分类器较弱,不能在深度学习模型中结合利用传统分类模型的优势的问题。
第一方面,本发明实施例提供了一种文本情感分类方法,其包括:
获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量;
将所述文本识别向量进行线性判别分析降维,得到降维后文本向量;以及将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。
第二方面,本发明实施例提供了一种文本情感分类装置,其包括:
文本识别向量获取单元,用于获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量;
向量降维单元,用于将所述文本识别向量进行线性判别分析降维,得到降维后文本向量;以及
情感分类单元,用于将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的文本情感分类方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的文本情感分类方法。
本发明实施例提供了一种文本情感分类方法、装置、计算机设备及存储介质。该方法获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量;将所述文本识别向量进行线性判别分析降维,得到降维后文本向量;将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。该方法实现了通过卷积神经网络从中待进行情感识别文本抽取更有效的特征以输入至传统的分类器,提高分类准确率。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的文本情感分类方法的应用场景示意图;
图2为本发明实施例提供的文本情感分类方法的流程示意图;
图3为本发明实施例提供的文本情感分类方法的子流程示意图;
图4为本发明实施例提供的文本情感分类方法的另一子流程示意图;
图5为本发明实施例提供的文本情感分类方法的另一子流程示意图;
图6为本发明实施例提供的文本情感分类装置的示意性框图;
图7为本发明实施例提供的文本情感分类装置的子单元示意性框图;
图8为本发明实施例提供的文本情感分类装置的另一子单元示意性框图;
图9为本发明实施例提供的文本情感分类装置的另一子单元示意性框图;
图10为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1是本发明实施例提供的文本情感分类方法的应用场景示意图,图2是本发明实施例提供的文本情感分类方法的流程示意图,该文本情感分类方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S110~S130。
S110、获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量。
在本实施例中,当用户端上传了待进行情感识别文本至服务器时,服务器接收所述待进行情感识别文本。之后通过服务器获取所述待进行情感识别文本所对应的词向量,将多个词向量输入至已训练的卷积神经网络模型,得到文本识别向量。通过将文本转化为文本识别向量,有效的提取了待进行情感识别文本的文本特征,便于根据文本特征进行情感识别。
在一实施例中,如图3所示,步骤S110包括:
S111、将所述待进行情感识别文本通过基于概率统计分词模型进行分词,得到与所述待进行情感识别文本对应的分词结果;
S112、通过Word2Vec模型获取所述分词结果中各词语对应的词向量。
在本实施例中,对所述待进行情感识别文本进行分词时,是通过基于概率统计模型的分词方法进行分词。例如,令C=C1C2...Cm,C是待切分的汉字串,令W=W1W2...Wn,W是切分的结果,Wa,Wb,……,Wk是C的所有可能的切分方案。那么,基于概率统计的切分模型就是能够找到目的词串W,使得W满足:P(W|C)=MAX(P(Wa|C),P(Wb|C)...P(Wk|C))的分词模型,上述分词模型得到的词串W即估计概率为最大之词串。
即对一个待分词的子串S,按照从左到右的顺序取出全部候选词w1、w2、…、wi、…、wn;在词典中查出每个候选词的概率值P(wi),并记录每个候选词的全部左邻词;计算每个候选词的累积概率,同时比较得到每个候选词的最佳左邻词;如果当前词wn是字串S的尾词,且累积概率P(wn)最大,则wn就是S的终点词;从wn开始,按照从右到左顺序,依次将每个词的最佳左邻词输出,即S的分词结果。
当获取了与所述待进行情感识别文本对应的分词结果,通过用于将词语转化为向量的Word2Vec模型对所述分词结果中每一分词进行转化,得到与每一分词对应的词向量。其中,Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模型,能将分词结果中每一词语转化成对应的词向量,具体可将分词结果每一词语都转化为一个k维的行向量。
在一实施例中,如图4所示,步骤S110还包括:
S113、将所述分词结果中各词语对应的词向量从上至下依次排列以得到输入矩阵;
S114、将所述输入矩阵作为所述已训练的卷积神经网络模型中输入层的输入,得到多个特征图;
S115、将多个特征图均输入池化层,得到每一特征图的最大值所对应一维行向量;
S116、将每一特征图的最大值所对应一维行向量输入至全连接层,得到与所述待进行情感识别文本对应的文本识别向量。
在本实施例中,将分词结果中各分词对应的词向量从上至下依次排列以得到输入矩阵,将输入矩阵作为已训练的卷积神经网络模型中输入层的输入,得到多个特征图;输入层通过卷积操作得到若干个Feature Map(Feature Map可以理解为特征图),卷积窗口的大小为h×k,其中h表示纵向词语的个数,而k表示向量的维数。通过这样一个大型的卷积窗口,将得到若干个列数为1的Feature Map。
在已训练的卷积神经网络模型的池化层中,可采用从上述多个一维的FeatureMap中提出最大的值。通过这种池化方式可以解决可变长度的句子输入问题(因为不管Feature Map中有多少个值,只需要提取其中的最大值),最终池化层的输出为各个FeatureMap的最大值,即一个一维的向量。
在已训练的卷积神经网络模型的全连接层中,全连接层的每一个结点都与上一层的所有结点相连,用于将池化层所提取到的特征综合起来,得到一个1*n的文本识别向量,例如得到一个1*300的文本识别向量。通过卷积神经网络模型能有效提取出待进行情感识别文本中更深层次的特征,使得后续的文本情感识别更加准确。
S120、将所述文本识别向量进行线性判别分析降维,得到降维后文本向量。
在本实施例中,若直接对高维的文本识别向量进行情感分类,会导致分类过程效率低下,而且无法通过朴素贝叶斯、SVM等传统分类模型对高维度的文本识别向量进行情感分类。为了既保证深度挖掘待进行情感识别文本中的特征,而且能利用朴素贝叶斯、SVM等传统分类模型分类准确的优势,此时可将所述文本识别向量进行线性判别分析降维,得到降维后文本向量。
在一实施例中,如图5所示,步骤S120包括:
S121、计算获取与所述文本识别向量对应的类内散度矩阵;
S122、计算获取与所述文本识别向量对应的类间散度矩阵;
S123、将所述类内散度矩阵的逆矩阵与所述类间散度矩阵相乘,得到目标矩阵;
S124、获取所述目标矩阵对应的多个特征值,获取特征值中数值排名位于预设的排名值阈值之前的特征值以作为目标特征值集合;
S125、根据所述目标特征值集合中每一特征值对应的特征向量,获取与所述文本识别向量对应的投影矩阵;
S126、将所述投影矩阵的转置矩阵乘以所述文本识别向量,得到降维后文本向量。
在本实施例中,线性判别分析(Linear discriminantAnalysis,LDA)是一种特征抽取的算法,它能够提高数据分析过程中的计算效率。线性判别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,即把高维空间中的数据点投影到一条直线去,将多维降为低维,并且要求投影后各样本的类间散布距离最大,同时类内散布距离最小。
为了更清楚的理解本申请的技术方案,下面对线性判别分析过程中所涉及的运算进行介绍。
类内散度矩阵定义为设有M个类别,分别为Ω1,Ω2,…,ΩM;Ωi类样本集Ωi类的散度矩阵定义为:
其中,Sw (i)即是类Ωi的协方差矩阵,m(i)是指第i类的均值;
总的类内散度矩阵为其中,Sw是所有类的特征方差的平均测度。
类间散度矩阵定义为第i个类别和第j个类别之间的散度矩阵定义为:
其中,SB (ij)是第i类和第j类之间的散度矩阵,m(i)是指第i类的均值,m(j)是指第j类的均值。
在获取了与所述文本识别向量对应的类内散度矩阵和类间散度矩阵后,先将所述类内散度矩阵的逆矩阵与所述类间散度矩阵相乘,得到目标矩阵。然后获取所述目标矩阵对应的多个特征值,获取特征值中数值排名位于预设的排名值阈值之前的特征值以作为目标特征值集合;其中,排名阈值=降维后文本向量的目标维度+1。
之后再根据所述目标特征值集合中每一特征值对应的特征向量,按从上至下的顺序将各特征向量组合,得到与所述文本识别向量对应的投影矩阵;最后将所述投影矩阵的转置矩阵乘以所述文本识别向量,得到降维后文本向量。通过降维处理,既保留了文本识别向量中的核心特征,也有效降低了维度以便于后续分类。
S130、将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。
在本实施例中,将所述降维后文本向量作为文本情感分类器的输入以进行分类文本情感分类器可以选择传统分类器(支持向量机或者贝叶斯),通过传统分类器得到文本情感识别结果。
在一实施例中,步骤S130包括:
通过将所述降维后文本向量作为预先训练的支持向量机或预先训练的贝叶斯分类器以进行分类,得到文本情感识别结果。
其中,支持向量机,是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。贝叶斯分类器是各种分类器中分类错误概率最小或者在预先给定代价的情况下平均风险最小的分类器。它的设计方法是一种最基本的统计分类方法。其分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。通过上述传统分类器对降维后文本向量进行情感分类,能提高最终分类准确率。
该方法实现了通过卷积神经网络从中待进行情感识别文本抽取更有效的特征以输入至传统的分类器,提高分类准确率。
本发明实施例还提供一种文本情感分类装置,该文本情感分类装置用于执行前述文本情感分类方法的任一实施例。具体地,请参阅图6,图6是本发明实施例提供的文本情感分类装置的示意性框图。该文本情感分类装置100可以配置于服务器中。
如图6所示,文本情感分类装置100包括文本识别向量获取单元110、向量降维单元120、情感分类单元130。
文本识别向量获取单元110,用于获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量。
在本实施例中,当用户端上传了待进行情感识别文本至服务器时,服务器接收所述待进行情感识别文本。之后通过服务器获取所述待进行情感识别文本所对应的词向量,将多个词向量输入至已训练的卷积神经网络模型,得到文本识别向量。通过将文本转化为文本识别向量,有效的提取了待进行情感识别文本的文本特征,便于根据文本特征进行情感识别。
在一实施例中,如图7所示,文本识别向量获取单元110包括:
分词单元111,用于将所述待进行情感识别文本通过基于概率统计分词模型进行分词,得到与所述待进行情感识别文本对应的分词结果;
词向量获取单元112,用于通过Word2Vec模型获取所述分词结果中各词语对应的词向量。
在本实施例中,对所述待进行情感识别文本进行分词时,是通过基于概率统计模型的分词方法进行分词。例如,令C=C1C2...Cm,C是待切分的汉字串,令W=W1W2...Wn,W是切分的结果,Wa,Wb,……,Wk是C的所有可能的切分方案。那么,基于概率统计的切分模型就是能够找到目的词串W,使得W满足:P(W|C)=MAX(P(Wa|C),P(Wb|C)...P(Wk|C))的分词模型,上述分词模型得到的词串W即估计概率为最大之词串。
即对一个待分词的子串S,按照从左到右的顺序取出全部候选词w1、w2、…、wi、…、wn;在词典中查出每个候选词的概率值P(wi),并记录每个候选词的全部左邻词;计算每个候选词的累积概率,同时比较得到每个候选词的最佳左邻词;如果当前词wn是字串S的尾词,且累积概率P(wn)最大,则wn就是S的终点词;从wn开始,按照从右到左顺序,依次将每个词的最佳左邻词输出,即S的分词结果。
当获取了与所述待进行情感识别文本对应的分词结果,通过用于将词语转化为向量的Word2Vec模型对所述分词结果中每一分词进行转化,得到与每一分词对应的词向量。其中,Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模型,能将分词结果中每一词语转化成对应的词向量,具体可将分词结果每一词语都转化为一个k维的行向量。
在一实施例中,如图8所示,文本识别向量获取单元110还包括:
输入矩阵获取单元113,用于将所述分词结果中各词语对应的词向量从上至下依次排列以得到输入矩阵;
特征图获取单元114,用于将所述输入矩阵作为所述已训练的卷积神经网络模型中输入层的输入,得到多个特征图;
池化单元115,用于将多个特征图均输入池化层,得到每一特征图的最大值所对应一维行向量;
全连接处理单元116,用于将每一特征图的最大值所对应一维行向量输入至全连接层,得到与所述待进行情感识别文本对应的文本识别向量。
在本实施例中,将分词结果中各分词对应的词向量从上至下依次排列以得到输入矩阵,将输入矩阵作为已训练的卷积神经网络模型中输入层的输入,得到多个特征图;输入层通过卷积操作得到若干个Feature Map(Feature Map可以理解为特征图),卷积窗口的大小为h×k,其中h表示纵向词语的个数,而k表示向量的维数。通过这样一个大型的卷积窗口,将得到若干个列数为1的Feature Map。
在已训练的卷积神经网络模型的池化层中,可采用从上述多个一维的FeatureMap中提出最大的值。通过这种池化方式可以解决可变长度的句子输入问题(因为不管Feature Map中有多少个值,只需要提取其中的最大值),最终池化层的输出为各个FeatureMap的最大值,即一个一维的向量。
在已训练的卷积神经网络模型的全连接层中,全连接层的每一个结点都与上一层的所有结点相连,用于将池化层所提取到的特征综合起来,得到一个1*n的文本识别向量,例如得到一个1*300的文本识别向量。通过卷积神经网络模型能有效提取出待进行情感识别文本中更深层次的特征,使得后续的文本情感识别更加准确。
向量降维单元120,用于将所述文本识别向量进行线性判别分析降维,得到降维后文本向量。
在本实施例中,若直接对高维的文本识别向量进行情感分类,会导致分类过程效率低下,而且无法通过朴素贝叶斯、SVM等传统分类模型对高维度的文本识别向量进行情感分类。为了既保证深度挖掘待进行情感识别文本中的特征,而且能利用朴素贝叶斯、SVM等传统分类模型分类准确的优势,此时可将所述文本识别向量进行线性判别分析降维,得到降维后文本向量。
在一实施例中,如图9所示,向量降维单元120包括:
第一矩阵获取单元121,用于计算获取与所述文本识别向量对应的类内散度矩阵;
第二矩阵获取单元122,用于计算获取与所述文本识别向量对应的类间散度矩阵;
目标矩阵获取单元123,用于将所述类内散度矩阵的逆矩阵与所述类间散度矩阵相乘,得到目标矩阵;
目标特征值集合获取单元124,用于获取所述目标矩阵对应的多个特征值,获取特征值中数值排名位于预设的排名值阈值之前的特征值以作为目标特征值集合;
投影矩阵获取单元125,用于根据所述目标特征值集合中每一特征值对应的特征向量,获取与所述文本识别向量对应的投影矩阵;
降维向量获取单元126,用于将所述投影矩阵的转置矩阵乘以所述文本识别向量,得到降维后文本向量。
在本实施例中,线性判别分析(Linear discriminantAnalysis,LDA)是一种特征抽取的算法,它能够提高数据分析过程中的计算效率。线性判别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,即把高维空间中的数据点投影到一条直线去,将多维降为低维,并且要求投影后各样本的类间散布距离最大,同时类内散布距离最小。
为了更清楚的理解本申请的技术方案,下面对线性判别分析过程中所涉及的运算进行介绍。
类内散度矩阵定义为设有M个类别,分别为Ω1,Ω2,…,ΩM;Ωi类样本集Ωi类的散度矩阵定义为:
其中,Sw (i)即是类Ωi的协方差矩阵,m(i)是指第i类的均值;
总的类内散度矩阵为其中,Sw是所有类的特征方差的平均测度。
类间散度矩阵定义为第i个类别和第j个类别之间的散度矩阵定义为:
其中,SB (ij)是第i类和第j类之间的散度矩阵,m(i)是指第i类的均值,m(j)是指第j类的均值。
在获取了与所述文本识别向量对应的类内散度矩阵和类间散度矩阵后,先将所述类内散度矩阵的逆矩阵与所述类间散度矩阵相乘,得到目标矩阵。然后获取所述目标矩阵对应的多个特征值,获取特征值中数值排名位于预设的排名值阈值之前的特征值以作为目标特征值集合;其中,排名阈值=降维后文本向量的目标维度+1。
之后再根据所述目标特征值集合中每一特征值对应的特征向量,按从上至下的顺序将各特征向量组合,得到与所述文本识别向量对应的投影矩阵;最后将所述投影矩阵的转置矩阵乘以所述文本识别向量,得到降维后文本向量。通过降维处理,既保留了文本识别向量中的核心特征,也有效降低了维度以便于后续分类。
情感分类单元130,用于将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。
在本实施例中,将所述降维后文本向量作为文本情感分类器的输入以进行分类文本情感分类器可以选择传统分类器(支持向量机或者贝叶斯),通过传统分类器得到文本情感识别结果。
在一实施例中,情感分类单元130还用于:
通过将所述降维后文本向量作为预先训练的支持向量机或预先训练的贝叶斯分类器以进行分类,得到文本情感识别结果。
其中,支持向量机,是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。贝叶斯分类器是各种分类器中分类错误概率最小或者在预先给定代价的情况下平均风险最小的分类器。它的设计方法是一种最基本的统计分类方法。其分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。通过上述传统分类器对降维后文本向量进行情感分类,能提高最终分类准确率。
该装置实现了通过卷积神经网络从中待进行情感识别文本抽取更有效的特征以输入至传统的分类器,提高分类准确率。
上述文本情感分类装置可以实现为计算机程序的形式,该计算机程序可以在如图10所示的计算机设备上运行。
请参阅图10,图10是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器。其中,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图10,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行文本情感分类方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行文本情感分类方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图10中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下功能:获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量;将所述文本识别向量进行线性判别分析降维,得到降维后文本向量;以及将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。
在一实施例中,处理器502在执行所述获取待进行情感识别文本所对应的词向量的步骤时,执行如下操作:将所述待进行情感识别文本通过基于概率统计分词模型进行分词,得到与所述待进行情感识别文本对应的分词结果;通过Word2Vec模型获取所述分词结果中各词语对应的词向量。
在一实施例中,处理器502在执行所述将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量的步骤时,执行如下操作:将所述分词结果中各词语对应的词向量从上至下依次排列以得到输入矩阵;将所述输入矩阵作为所述已训练的卷积神经网络模型中输入层的输入,得到多个特征图;将多个特征图均输入池化层,得到每一特征图的最大值所对应一维行向量;将每一特征图的最大值所对应一维行向量输入至全连接层,得到与所述待进行情感识别文本对应的文本识别向量。
在一实施例中,处理器502在执行所述将所述文本识别向量进行线性判别分析降维,得到降维后文本向量的步骤时,执行如下操作:计算获取与所述文本识别向量对应的类内散度矩阵;计算获取与所述文本识别向量对应的类间散度矩阵;将所述类内散度矩阵的逆矩阵与所述类间散度矩阵相乘,得到目标矩阵;获取所述目标矩阵对应的多个特征值,获取特征值中数值排名位于预设的排名值阈值之前的特征值以作为目标特征值集合;根据所述目标特征值集合中每一特征值对应的特征向量,获取与所述文本识别向量对应的投影矩阵;将所述投影矩阵的转置矩阵乘以所述文本识别向量,得到降维后文本向量。
在一实施例中,处理器502在执行所述将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果的步骤时,执行如下操作:将所述降维后文本向量作为预先训练的支持向量机或预先训练的贝叶斯分类器以进行分类,得到文本情感识别结果。
本领域技术人员可以理解,图10中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图10所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现以下步骤:获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量;将所述文本识别向量进行线性判别分析降维,得到降维后文本向量;以及将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。
在一实施例中,所述获取待进行情感识别文本所对应的词向量,包括:将所述待进行情感识别文本通过基于概率统计分词模型进行分词,得到与所述待进行情感识别文本对应的分词结果;通过Word2Vec模型获取所述分词结果中各词语对应的词向量。
在一实施例中,所述将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量,包括:将所述分词结果中各词语对应的词向量从上至下依次排列以得到输入矩阵;将所述输入矩阵作为所述已训练的卷积神经网络模型中输入层的输入,得到多个特征图;将多个特征图均输入池化层,得到每一特征图的最大值所对应一维行向量;将每一特征图的最大值所对应一维行向量输入至全连接层,得到与所述待进行情感识别文本对应的文本识别向量。
在一实施例中,所述将所述文本识别向量进行线性判别分析降维,得到降维后文本向量,包括:计算获取与所述文本识别向量对应的类内散度矩阵;计算获取与所述文本识别向量对应的类间散度矩阵;将所述类内散度矩阵的逆矩阵与所述类间散度矩阵相乘,得到目标矩阵;获取所述目标矩阵对应的多个特征值,获取特征值中数值排名位于预设的排名值阈值之前的特征值以作为目标特征值集合;根据所述目标特征值集合中每一特征值对应的特征向量,获取与所述文本识别向量对应的投影矩阵;将所述投影矩阵的转置矩阵乘以所述文本识别向量,得到降维后文本向量。
在一实施例中,所述将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果,包括:将所述降维后文本向量作为预先训练的支持向量机或预先训练的贝叶斯分类器以进行分类,得到文本情感识别结果。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种文本情感分类方法,其特征在于,包括:
获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量;
将所述文本识别向量进行线性判别分析降维,得到降维后文本向量;以及
将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。
2.根据权利要求1所述的文本情感分类方法,其特征在于,所述获取待进行情感识别文本所对应的词向量,包括:
将所述待进行情感识别文本通过基于概率统计分词模型进行分词,得到与所述待进行情感识别文本对应的分词结果;
通过Word2Vec模型获取所述分词结果中各词语对应的词向量。
3.根据权利要求1所述的文本情感分类方法,其特征在于,所述将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量,包括:
将所述分词结果中各词语对应的词向量从上至下依次排列以得到输入矩阵;
将所述输入矩阵作为所述已训练的卷积神经网络模型中输入层的输入,得到多个特征图;
将多个特征图均输入池化层,得到每一特征图的最大值所对应一维行向量;
将每一特征图的最大值所对应一维行向量输入至全连接层,得到与所述待进行情感识别文本对应的文本识别向量。
4.根据权利要求1所述的文本情感分类方法,其特征在于,所述将所述文本识别向量进行线性判别分析降维,得到降维后文本向量,包括:
计算获取与所述文本识别向量对应的类内散度矩阵;
计算获取与所述文本识别向量对应的类间散度矩阵;
将所述类内散度矩阵的逆矩阵与所述类间散度矩阵相乘,得到目标矩阵;
获取所述目标矩阵对应的多个特征值,获取特征值中数值排名位于预设的排名值阈值之前的特征值以作为目标特征值集合;
根据所述目标特征值集合中每一特征值对应的特征向量,获取与所述文本识别向量对应的投影矩阵;
将所述投影矩阵的转置矩阵乘以所述文本识别向量,得到降维后文本向量。
5.根据权利要求1所述的文本情感分类方法,其特征在于,所述将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果,包括:
将所述降维后文本向量作为预先训练的支持向量机或预先训练的贝叶斯分类器以进行分类,得到文本情感识别结果。
6.一种文本情感分类装置,其特征在于,包括:
文本识别向量获取单元,用于获取待进行情感识别文本所对应的词向量,将所述词向量输入至已训练的卷积神经网络模型,获取所述已训练的卷积神经网络模型的全连接层所输出的文本向量,以作为文本识别向量;
向量降维单元,用于将所述文本识别向量进行线性判别分析降维,得到降维后文本向量;以及
情感分类单元,用于将所述降维后文本向量作为文本情感分类器的输入以进行分类,得到文本情感识别结果。
7.根据权利要求6所述的文本情感分类装置,其特征在于,所述文本识别向量获取单元,包括:
输入矩阵获取单元,用于将所述分词结果中各词语对应的词向量从上至下依次排列以得到输入矩阵;
特征图获取单元,用于将所述输入矩阵作为所述已训练的卷积神经网络模型中输入层的输入,得到多个特征图;
池化单元,用于将多个特征图均输入池化层,得到每一特征图的最大值所对应一维行向量;
全连接处理单元,用于将每一特征图的最大值所对应一维行向量输入至全连接层,得到与所述待进行情感识别文本对应的文本识别向量。
8.根据权利要求6所述的文本情感分类装置,其特征在于,所述向量降维单元,包括:
第一矩阵获取单元,用于计算获取与所述文本识别向量对应的类内散度矩阵;
第二矩阵获取单元,用于计算获取与所述文本识别向量对应的类间散度矩阵;
目标矩阵获取单元,用于将所述类内散度矩阵的逆矩阵与所述类间散度矩阵相乘,得到目标矩阵;
目标特征值集合获取单元,用于获取所述目标矩阵对应的多个特征值,获取特征值中数值排名位于预设的排名值阈值之前的特征值以作为目标特征值集合;
投影矩阵获取单元,用于根据所述目标特征值集合中每一特征值对应的特征向量,获取与所述文本识别向量对应的投影矩阵;
降维向量获取单元,用于将所述投影矩阵的转置矩阵乘以所述文本识别向量,得到降维后文本向量。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述的文本情感分类方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至5任一项所述的文本情感分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910012251.4A CN109857864A (zh) | 2019-01-07 | 2019-01-07 | 文本情感分类方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910012251.4A CN109857864A (zh) | 2019-01-07 | 2019-01-07 | 文本情感分类方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109857864A true CN109857864A (zh) | 2019-06-07 |
Family
ID=66894065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910012251.4A Pending CN109857864A (zh) | 2019-01-07 | 2019-01-07 | 文本情感分类方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109857864A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399486A (zh) * | 2019-07-02 | 2019-11-01 | 精硕科技(北京)股份有限公司 | 一种分类方法、装置和设备、存储介质 |
CN110807314A (zh) * | 2019-09-19 | 2020-02-18 | 平安科技(深圳)有限公司 | 文本情感分析模型训练方法、装置、设备及可读存储介质 |
CN111126842A (zh) * | 2019-12-24 | 2020-05-08 | 中国银行股份有限公司 | 工单分类方法及装置 |
CN111428033A (zh) * | 2020-03-20 | 2020-07-17 | 北京邮电大学 | 一种基于双层卷积神经网络的自动化威胁情报提取方法 |
CN111552810A (zh) * | 2020-04-24 | 2020-08-18 | 深圳数联天下智能科技有限公司 | 实体抽取与分类方法、装置、计算机设备和存储介质 |
CN111615178A (zh) * | 2020-05-09 | 2020-09-01 | 腾讯科技(深圳)有限公司 | 识别无线网络类型及模型训练的方法、装置及电子设备 |
CN114547305A (zh) * | 2022-02-24 | 2022-05-27 | 金华高等研究院(金华理工学院筹建工作领导小组办公室) | 一种基于自然语言处理的文本分类系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372656A (zh) * | 2016-08-30 | 2017-02-01 | 同观科技(深圳)有限公司 | 获取深度一次性学习模型的方法、图像识别方法及装置 |
WO2017057921A1 (ko) * | 2015-10-02 | 2017-04-06 | 네이버 주식회사 | 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템 |
CN107609009A (zh) * | 2017-07-26 | 2018-01-19 | 北京大学深圳研究院 | 文本情感分析方法、装置、存储介质和计算机设备 |
CN108563779A (zh) * | 2018-04-25 | 2018-09-21 | 北京计算机技术及应用研究所 | 一种基于神经网络的无模板自然语言文本答案生成方法 |
WO2018223331A1 (en) * | 2017-06-08 | 2018-12-13 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for text attribute determination using conditional random field model |
-
2019
- 2019-01-07 CN CN201910012251.4A patent/CN109857864A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017057921A1 (ko) * | 2015-10-02 | 2017-04-06 | 네이버 주식회사 | 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템 |
CN106372656A (zh) * | 2016-08-30 | 2017-02-01 | 同观科技(深圳)有限公司 | 获取深度一次性学习模型的方法、图像识别方法及装置 |
WO2018223331A1 (en) * | 2017-06-08 | 2018-12-13 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for text attribute determination using conditional random field model |
CN107609009A (zh) * | 2017-07-26 | 2018-01-19 | 北京大学深圳研究院 | 文本情感分析方法、装置、存储介质和计算机设备 |
CN108563779A (zh) * | 2018-04-25 | 2018-09-21 | 北京计算机技术及应用研究所 | 一种基于神经网络的无模板自然语言文本答案生成方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399486A (zh) * | 2019-07-02 | 2019-11-01 | 精硕科技(北京)股份有限公司 | 一种分类方法、装置和设备、存储介质 |
CN110807314A (zh) * | 2019-09-19 | 2020-02-18 | 平安科技(深圳)有限公司 | 文本情感分析模型训练方法、装置、设备及可读存储介质 |
WO2021051598A1 (zh) * | 2019-09-19 | 2021-03-25 | 平安科技(深圳)有限公司 | 文本情感分析模型训练方法、装置、设备及可读存储介质 |
CN111126842A (zh) * | 2019-12-24 | 2020-05-08 | 中国银行股份有限公司 | 工单分类方法及装置 |
CN111428033A (zh) * | 2020-03-20 | 2020-07-17 | 北京邮电大学 | 一种基于双层卷积神经网络的自动化威胁情报提取方法 |
CN111428033B (zh) * | 2020-03-20 | 2023-04-07 | 北京邮电大学 | 一种基于双层卷积神经网络的自动化威胁情报提取方法 |
CN111552810A (zh) * | 2020-04-24 | 2020-08-18 | 深圳数联天下智能科技有限公司 | 实体抽取与分类方法、装置、计算机设备和存储介质 |
CN111552810B (zh) * | 2020-04-24 | 2024-03-19 | 深圳数联天下智能科技有限公司 | 实体抽取与分类方法、装置、计算机设备和存储介质 |
CN111615178A (zh) * | 2020-05-09 | 2020-09-01 | 腾讯科技(深圳)有限公司 | 识别无线网络类型及模型训练的方法、装置及电子设备 |
CN111615178B (zh) * | 2020-05-09 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 识别无线网络类型及模型训练的方法、装置及电子设备 |
CN114547305A (zh) * | 2022-02-24 | 2022-05-27 | 金华高等研究院(金华理工学院筹建工作领导小组办公室) | 一种基于自然语言处理的文本分类系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109857864A (zh) | 文本情感分类方法、装置、计算机设备及存储介质 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
Hendricks et al. | Women also snowboard: Overcoming bias in captioning models | |
US10325023B2 (en) | Method for assigning semantic information to word through learning using text corpus | |
CN106446526B (zh) | 电子病历实体关系抽取方法及装置 | |
CN110263673B (zh) | 面部表情识别方法、装置、计算机设备及存储介质 | |
US11544570B2 (en) | Method and apparatus for large scale machine learning | |
Raftery et al. | Variable selection for model-based clustering | |
US10963685B2 (en) | Generating variations of a known shred | |
JP5521881B2 (ja) | 画像識別情報付与プログラム及び画像識別情報付与装置 | |
CN106951825A (zh) | 一种人脸图像质量评估系统以及实现方法 | |
CN106570521B (zh) | 多语言场景字符识别方法及识别系统 | |
CN109241530A (zh) | 一种基于N-gram向量和卷积神经网络的中文文本多分类方法 | |
US20170076152A1 (en) | Determining a text string based on visual features of a shred | |
CN110046634B (zh) | 聚类结果的解释方法和装置 | |
CN104834940A (zh) | 一种基于支持向量机的医疗影像检查疾病分类方法 | |
CN110019794A (zh) | 文本资源的分类方法、装置、存储介质及电子装置 | |
Elguebaly et al. | Simultaneous high-dimensional clustering and feature selection using asymmetric Gaussian mixture models | |
CN109857893A (zh) | 图片检索方法、装置、计算机设备及存储介质 | |
CN102436637A (zh) | 从头部图像中自动分割头发的方法及其系统 | |
Melnykov et al. | Semi-supervised model-based clustering with positive and negative constraints | |
CN113705596A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN110751027A (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN104809229B (zh) | 一种文本特征词提取方法及系统 | |
CN108496185A (zh) | 用于对象检测的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |