CN112686056A - 一种情感分类方法 - Google Patents
一种情感分类方法 Download PDFInfo
- Publication number
- CN112686056A CN112686056A CN202110301286.7A CN202110301286A CN112686056A CN 112686056 A CN112686056 A CN 112686056A CN 202110301286 A CN202110301286 A CN 202110301286A CN 112686056 A CN112686056 A CN 112686056A
- Authority
- CN
- China
- Prior art keywords
- context
- semantic
- representation
- target
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 127
- 238000000034 method Methods 0.000 title claims abstract description 66
- 239000011159 matrix material Substances 0.000 claims abstract description 230
- 230000004913 activation Effects 0.000 claims abstract description 52
- 230000010354 integration Effects 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims description 42
- 230000019771 cognition Effects 0.000 claims description 39
- 239000013598 vector Substances 0.000 claims description 39
- 239000010410 layer Substances 0.000 claims description 26
- 238000003062 neural network model Methods 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 17
- 230000003993 interaction Effects 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 15
- 239000002356 single layer Substances 0.000 claims description 11
- 230000001629 suppression Effects 0.000 claims description 7
- 230000005764 inhibitory process Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 12
- 230000001149 cognitive effect Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000002679 ablation Methods 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 239000002775 capsule Substances 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000007787 long-term memory Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- ZMZDMBWJUHKJPS-UHFFFAOYSA-N thiocyanic acid Chemical compound SC#N ZMZDMBWJUHKJPS-UHFFFAOYSA-N 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明提供一种情感分类方法,包括:获取上下文对应的词嵌入矩阵和目标词对应的词嵌入矩阵;根据上下文对应的词嵌入矩阵、目标词对应的词嵌入矩阵和第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示;根据目标词语义增强的上下文表示、上下文语义增强的目标词表示和语义选择模型,得到语义选择后的上下文表示;根据语义整合模型,提取目标句子对应的句法依存树中的句法表示;根据语义选择后的上下文表示、句法表示和第二语义激活模型,得到目标词对应的情感分类结果。相对于现有技术,本发明充分捕捉了上下文中与目标词相关的语义信息,又综合考虑上下文、目标词与句法之间的联系,提高了情感分类的准确性。
Description
技术领域
本发明涉及自然语言处理技术领域,特别是涉及一种情感分类方法。
背景技术
由于用户留在论坛或电商平台上的评论对商家分析用户观点等方面具有重要意义,因此,情感分析受到越来越多的关注。情感分析是自然语言处理(Natural LanguageProcessing,NLP)中的重要任务,其目的在于对带有情感色彩的主观性文本进行分析。
目前,有很多方法用于对句子或文档的整体进行情感极性分类,然而,在一个句子或者文档中通常会具有不同的目标词,目标词的情感极性可能是不同的。如果直接进行整体的情感极性分类,就会导致对目标词的情感极性判断出现错误。因此,针对目标词的属性级情感分类方法越来越为重要。
现有技术中存在一些将神经网络与注意力机制相结合的方法用以进行属性级的情感分类,这些方法虽然能够克服浅层学习模型的缺陷,但是依旧存在如下问题:一方面,其不能充分捕捉上下文中与目标词相关的语义信息,在语义关系较远或者词序发生变化时易造成错误判断;另一方面,其没有考虑上下文和目标词与句法之间的联系,且由于缺乏句法的约束技术,可能会将句法上不相关的上下文单词识别为判断目标词情感分类的线索,降低了情感分类的准确性。
发明内容
为克服相关技术中存在的问题,本发明实施例提供了一种情感分类方法,包括如下步骤:
获取目标句子对应的词嵌入矩阵;其中,所述目标句子对应的词嵌入矩阵包括上下文对应的词嵌入矩阵和目标词对应的词嵌入矩阵;
根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示;
根据所述目标词语义增强的上下文表示、所述上下文语义增强的目标词表示和预设的语义选择模型,得到语义选择后的上下文表示;
获取所述目标句子对应的句法依存树,根据预设的语义整合模型,提取所述目标句子对应的句法依存树中的句法表示;
根据所述语义选择后的上下文表示、所述句法表示和预设的第二语义激活模型,得到所述目标词对应的情感分类结果。
可选的,所述根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示,包括步骤:
根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的隐藏状态提取模型,得到所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵;
获取所述上下文与所述目标词之间的公共信息矩阵,根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的语义信息交互模型,得到目标词语义增强的上下文表示和上下文语义增强的目标词表示。
可选的,所述根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的隐藏状态提取模型,得到所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵,包括步骤:
对所述目标词对应的词嵌入矩阵进行平均池化,得到平均目标词向量;
根据所述平均目标词向量和所述上下文对应的词嵌入矩阵,得到融入目标词信息的上下文对应的词嵌入矩阵;
将所述目标词对应的词嵌入矩阵和所述融入目标词信息的上下文对应的词嵌入矩阵分别输入预设的GRU神经网络模型中,得到所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵。
可选的,所述获取所述上下文与所述目标词之间的公共信息矩阵,根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的语义信息交互模型,得到目标词语义增强的上下文表示和上下文语义增强的目标词表示,包括步骤:
根据所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的公共信息矩阵计算公式,得到所述公共信息矩阵;
根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的目标词语义增强计算公式,得到所述目标词语义增强的上下文表示;
根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的上下文语义增强计算公式,得到所述上下文语义增强的目标词表示。
可选的,所述根据所述目标词语义增强的上下文表示、所述上下文语义增强的目标词表示和预设的语义选择模型,得到语义选择后的上下文表示,包括步骤:
对所述上下文增强的目标词表示进行平均池化,得到目标词查询向量;
将所述目标词查询向量分别输入若干个单层注意力模型,得到若干个注意力系数矩阵;
获取若干个所述注意力系数矩阵相加后的平均值,得到语义选择抑制参数;
根据所述语义选择抑制参数和所述上下文对应的隐藏状态矩阵,得到所述语义选择后的上下文表示。
可选的,所述根据预设的语义整合模型,提取所述目标句子对应的句法依存树中的句法表示,包括步骤:
根据所述句法依存树,得到所述目标句子中的单词对应的邻接矩阵,其中,所述邻接矩阵表示所述目标句子中的单词的邻接关系;
将所述邻接矩阵输入预设的图卷积神经网络模型,得到所述目标句子的句法表示。
可选的,所述将所述邻接矩阵输入预设的图卷积神经网络模型,得到所述目标句子的句法表示,包括步骤:
将所述邻接矩阵和上一层的输出结果输入至预设图卷积运算公式中,得到当前层的输出结果,重复执行输入操作,直至得到所述预设的图卷积神经网络模型的输出层的输出结果,获取所述目标句子的句法表示。
可选的,所述根据所述语义选择后的上下文表示、所述句法表示和预设的第二语义激活模型,得到所述目标词对应的情感分类结果,包括步骤:
提取所述语义选择后的上下文表示的局部特征和所述句法表示中的局部特征,得到目标语义表示和目标句法表示;
根据所述目标语义表示、所述目标句法表示和预设的情感极性分类函数,得到所述目标词对应的情感分类结果。
可选的,所述提取所述语义选择后的上下文表示的局部特征和所述句法表示中的局部特征,得到目标语义表示和目标句法表示,包括步骤:
将所述语义选择后的上下文表示输入预设的第一局部特征提取网络,得到所述语义选择后的上下文表示的局部特征;
将所述句法表示输入预设的第二局部特征提取网络,得到所述句法表示的局部特征;
对所述语义选择后的上下文表示的局部特征和所述句法表示的局部特征进行最大池化操作,得到所述目标语义表示和目标句法表示。
可选的,在根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示之前,包括步骤:
获取用于训练语义认知模型的训练集;其中,所述语义认知模型包括第一语义激活模型、语义选择模型、语义整合模型和第二语义激活模型;
基于所述训练集、预设的反向传播算法和预设的损失函数迭代训练所述语义认知模型,更新所述语义认知模型内的训练参数,直至满足训练终止条件,得到训练好的语义认知模型。
本发明实施例通过获取目标句子对应的词嵌入矩阵;其中,所述目标句子对应的词嵌入矩阵包括上下文对应的词嵌入矩阵和目标词对应的词嵌入矩阵;根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示;根据所述目标词语义增强的上下文表示、所述上下文语义增强的目标词表示和预设的语义选择模型,得到语义选择后的上下文表示;获取所述目标句子对应的句法依存树,根据预设的语义整合模型,提取所述目标句子对应的句法依存树中的句法表示;根据所述语义选择后的上下文表示、所述句法表示和预设的第二语义激活模型,得到所述目标词对应的情感分类结果。通过上述第一语义激活模型、语义选择模型、语义整合模型和第二语义激活模型模拟了双侧大脑的语义认知过程,使本方法既能够更充分捕捉上下文中与目标词相关的语义信息,减少无关信息的影响,又能综合考虑上下文和目标词与句法之间的联系,将句法信息融入在句法表示中,从而提升情感分类的准确性,并且,由于是分别进行语义信息和句法信息的提取,还能够有效避免信息的混杂,进一步改善情感分类的效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本发明一个示例性实施例提供的情感分类方法的流程示意图;
图2为本发明一个示例性实施例提供的情感分类方法中S102的流程示意图;
图3为本发明一个示例性实施例提供的情感分类方法中S1021的流程示意图;
图4为本发明一个示例性实施例提供的情感分类方法中S1022的流程示意图;
图5为本发明一个示例性实施例提供的语义信息交互模型的内部结构示意图;
图6为本发明一个示例性实施例提供的情感分类方法中S103的流程示意图;
图7为本发明一个示例性实施例提供的多层平均注意力模型的内部结构示意图;
图8为本发明一个示例性实施例提供的情感分类方法中S104的流程示意图;
图9为本发明一个示例性实施例提供的句法依存树的示意图;
图10为本发明一个示例性实施例提供的邻接矩阵的示意图;
图11为本发明一个示例性实施例提供的情感分类方法中S105的流程示意图;
图12为本发明另一个示例性实施例提供的情感分类方法的流程示意图;
图13为本发明一个示例性实施例提供的语义认知模型的内部结构示意图;
图14为本发明一个示例性实施例提供的多层平均注意力中的层数对语义认知模型的准确率的影响结果示意图;
图15为本发明另一个示例性实施例提供的多层平均注意力中的层数对语义认知模型的准确率的影响结果示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语 “如果”/“若” 可以被解释成为 “在……时” 或“当……时” 或 “响应于确定”。
请参阅图1,图1为本发明一个示例性实施例提供的情感分类方法的流程示意图,所述方法由情感分类设备执行,包括如下步骤:
S101:获取目标句子对应的词嵌入矩阵;其中,所述目标句子对应的词嵌入矩阵包括上下文对应的词嵌入矩阵和目标词对应的词嵌入矩阵。
在本申请实施例中,所述目标句子中包括上下文和目标词。所述上下文中包括多个单词,所述目标词中包括至少一个单词。
情感分类设备对上下文和目标词进行词嵌入处理,获取上下文对应的词嵌入矩阵和目标词对应的词嵌入矩阵。
其中,词嵌入处理是一种将文本进行数字化表示的处理方式,其能够将单词映射到高维的向量中以实现对单词的表示。若将多个单词分别映射到高维向量,那么得到的就是一个由多个高维向量组成的词嵌入矩阵。
在本申请实施例中,上下文对应的词嵌入矩阵表示为,
目标词对应的词嵌入矩阵表示为,其中,分别表示
上下文中每个单词对应的高维向量,分别表示目标词中每个单词对应的高维向
量,表示上下文对应的词嵌入矩阵为n行列的矩阵,表示上下文对应的词
嵌入矩阵为m行列,表示每个单词对应的高维向量的维度。
在一个可选的实施例中,进行词嵌入处理的方式可以是通过现有的词嵌入工具,例如GloVe或word2vec等,在本申请实施例中,基于GloVe的并行化处理以及利于处理大数据集的优势,采用GloVe对上下文和目标词进行词嵌入转换,获取上下文对应的词嵌入矩阵和目标词对应的词嵌入矩阵。
S102:根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示。
情感分类设备将所述上下文对应的词嵌入矩阵和所述目标词对应的词嵌入矩阵输入值预设的第一语义激活模型,得到目标词语义增强的上下文表示和上下文语义增强的目标词表示。
在本申请实施例中,所述第一语义激活模型用于将目标词的信息融入至上下文中,初步建立起目标词与上下文之间的关联。
所述第一语义激活模型也可以称之为左半球语义激活模型(Left HemisphereSemantic Activation, LH-SA),其是预先训练好并设置在情感分类设备中的模型,具体地,第一语义激活模型的训练过程可以在情感分类设备中进行,也可以在其他外部设备中进行,并在训练完成后移植至情感分类设备中。
在一个可选的实施例中,为更好地建立目标词与上下文之间的关联,使其交互过程中既不会损失自身的重要信息,由能够融入有用的相关信息,请参阅图2,步骤S102包括步骤S1021~S1022,具体如下:
S1021:根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的隐藏状态提取模型,得到所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵。
情感分类设备将所述上下文对应的词嵌入矩阵和所述目标词对应的词嵌入矩阵输入至预设的隐藏状态提取模型,得到所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵。
在本申请实施例中,所述预设的隐藏状态提取模型用于提取上下文和目标词中隐藏的状态信息,从而获取到含有更多语义信息的上下文对应的隐藏状态矩阵和目标词对应的隐藏状态矩阵。
在一个可选的实施例中,隐藏状态提取模型可以为任意一种循环神经网络模型,例如:LSTM长短期记忆网络模型、Bi-LSTM双向长短期记忆网络模型(Bidirectional LongShort-Term Memory networks,)、GRU神经网络模型或者Bi-GRU神经网络模型等。
具体地,为了提取到更为丰富的隐藏状态信息,请参阅图3,步骤S1021包括步骤S10211~S10213,如下:
S10211:对所述目标词对应的词嵌入矩阵进行平均池化,得到平均目标词向量。
情感分类设备根据目标词对应的词嵌入矩阵和预设的第一平均池化公式,得到平均目标词向量。
其中,预设的第一平均池化公式如下:
S10212:根据所述平均目标词向量和所述上下文对应的词嵌入矩阵,得到融入目标词信息的上下文对应的词嵌入矩阵。
S10213:将所述目标词对应的词嵌入矩阵和所述融入目标词信息的上下文对应的词嵌入矩阵分别输入预设的GRU神经网络模型中,得到所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵。
预设的GRU神经网络模型一种门控循环神经网络模型,其相较于LSTM长短期记忆网络模型缺少一个门控,参数也更好,因此,采用预设的GRU神经网络模型能够高效地不做到上下文和目标词的隐藏信息。
本申请实施例中,所述GRU神经网络模型训练过程可以在情感分类设备中进行,也可以在其他外部设备中进行,并在训练完成后移植至情感分类设备中。
需要说明的是,关于GRU神经网络内部的运算公式均为现有技术,在此不进行展开说明。
S1022:获取所述上下文与所述目标词之间的公共信息矩阵,根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的语义信息交互模型,得到目标词语义增强的上下文表示和上下文语义增强的目标词表示。
情感分类设备首先获取所述上下文与所述目标词之间的公共信息矩阵。其中,所述公共信息矩阵是与上下文和目标词均相关的矩阵,其能够实现上下文信息与目标词信息交互的过程中,不会丧失与自身相关的重要信息,又能够加入与彼此相关的有用信息。
之后,情感分类设备将所述公共信息矩阵、所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵输入预设的语义信息交互模型,得到目标词语义增强的上下文表示和上下文语义增强的目标词表示。
其中,预设的第一语义激活模型中包括语义信息交互模型,语义信息交互模型(Information Interaction Module,IIM)其是预先训练好并设置在情感分类设备中的模型,具体地,语义信息交互模型的训练过程可以在情感分类设备中进行,也可以在其他外部设备中进行,并在训练完成后移植至情感分类设备中。
在一个可选的实施例中,请参阅图4,步骤S1022包括步骤S10221~S10223,具体如下:
S10221:根据所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的公共信息矩阵计算公式,得到所述公共信息矩阵。
其中,预设的公共信息矩阵计算公式如下:
是一种现有的线性整流函数(Rectified Linear Unit,relu),表示是一个行列的可训练参数矩阵,表示目标词对应的隐藏状
态矩阵的转置,表示公共信息矩阵是一个n行m列的矩阵,,其中,表示公共信息矩阵中包括的各行向量。
S10222:根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的目标词语义增强计算公式,得到所述目标词语义增强的上下文表示。
其中,预设的目标词语义增强计算公式如下:
S10223:根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的上下文语义增强计算公式,得到所述上下文语义增强的目标词表示。
其中,预设的目标词语义增强计算公式如下:
请参阅图5,其为本发明一个示例性实施例提供的语义信息交互模型的内部结构示意图。图5中更加形象化地展现了语义信息交互模型的内部处理过程。
S103:根据所述目标词语义增强的上下文表示、所述上下文语义增强的目标词表示和预设的语义选择模型,得到语义选择后的上下文表示。
预设的语义选择模型(Semantic Selection, SS)是一种语义交互过程,在情感分类设备基于预设的第一语义激活模型,获取到目标词语义增强的上下文表示和上下文语义增强的目标词表示之后,情感分类设备进一步将目标词语义增强的上下文表示和上下文语义增强的目标词表示输入至预设的语义选择模型,模拟了大脑的语义选择决策过程,从而实现从多个竞争信息中选择目标信息,并抑制无关信息。
在本申请实施例中,预设的语义选择模型是预先训练好并设置在情感分类设备中的模型,具体地,语义选择模型的训练过程可以在情感分类设备中进行,也可以在其他外部设备中进行,并在训练完成后移植至情感分类设备中。
在一个可选的实施例中,为实现更准确地语义选择,请参阅图6,步骤S103包括步骤S1031~S1034,具体如下:
S1031:对所述上下文增强的目标词表示进行平均池化,得到目标词查询向量。
其中,预设的第二平均池化公式如下:
S1032:将所述目标词查询向量分别输入若干个单层注意力模型,得到若干个注意力系数矩阵。
在本申请实施例中,多层平均注意力模型(Multi-layered Average Attention,MLA-ATT)中包括若干个单层注意力模型,基于注意力机制的原理,利用其实现语义选择的认知过程。
其中,每个单层注意力模型也均是预先训练好并设置在情感分类设备中的模型,具体地,单层注意力模型的训练过程可以在情感分类设备中进行,也可以在其他外部设备中进行,并在训练完成后移植至情感分类设备中。
其中,预设的单层注意力计算公式如下:
表示现有的双曲正切函数;表示目标词语义增强的上下文表示;,表示是第k个单层注意力模型中行列的可训练参数矩阵;表示
目标词查询向量的转置;表示是一个1行列的全一向量,表示是一个1行n列的全一向量;表示的转置;,表示是第k个单层注意力
模型中1行列的可训练向量;表示是一个南岸行列的矩阵;
表示现有的softmax激活函数; 表示是第k个n行列的注意力系数矩阵。
S1033:获取若干个所述注意力系数矩阵相加后的平均值,得到语义选择抑制参数。
其中,预设的求和平均公式如下:
S1034:根据所述语义选择抑制参数和所述上下文对应的隐藏状态矩阵,得到所述语义选择后的上下文表示。
请参阅图7,其为本发明一个示例性实施例提供的多层平均注意力模型的内部结构示意图。图7中更加形象化地展现了多层平均注意力模型的内部处理过程。
S104:获取所述目标句子对应的句法依存树,根据预设的语义整合模型,提取所述目标句子对应的句法依存树中的句法表示。
情感分类设备先获取所述目标句子对应的句法依存树,再根据句法依存树和预设的语义整合模型,提取目标句子对应的句法依存树中的句法表示。
在本申请实施例中,预设的语义整合模型(Semantic Integration, SI)用于提取目标句子对应的句法依存树中的句法表示,综合考虑上下文、目标词与句法之间的联系,把句法信息更好地融入至句法表示里。
所述语义整合模型是预先训练好并设置在情感分类设备中的模型,具体地,语义整合模型的训练过程可以在情感分类设备中进行,也可以在其他外部设备中进行,并在训练完成后移植至情感分类设备中。
所述句法依存树能够形象的体现出目标句子中单词的依存关系,在本申请实施例中,可以通过spaCy进行句法依存树的获取。
在一个可选的实施例中,请参阅图8,为更准确地获取句法表示,步骤S104包括步骤S1041~S1042,具体如下:
S1041:根据所述句法依存树,得到所述目标句子中的单词对应的邻接矩阵,其中,所述邻接矩阵表示所述目标句子中的单词的邻接关系。
情感分类设备根据句法依存树,得到所述目标句子中的单词对应的邻接矩阵。
其中,邻接矩阵表示所述目标句子中的单词的邻接关系。
请参阅图9和图10,图9为本发明一个示例性实施例提供的句法依存树的示意图,图10为本发明一个示例性实施例提供的邻接矩阵的示意图。
图9中所示的句法依存树中展现了目标句子“The price is reasonablealthough the service is poor”中单词的依存关系。图10为图9中所示的句法依存树对应的邻接矩阵。对于存在依存关系的两个单词,邻接矩阵中对应的值为1,不存在依存关系的两个单词,邻接矩阵中对应的值为0,单词与自身默认存在依存关系。
S1042:将所述邻接矩阵输入预设的图卷积神经网络模型,得到所述目标句子的句法表示。
预设的语义整合模型中包括图卷积神经网络模型。
所述图卷积神经网络(GCN)用于对图结构类型的数据进行处理,其中图结构即拓扑结构,也可以称之为非欧几里得结构,常见的图结构包括例如社交网络、信息网络等,能够很更好地整合句子中的句法,得到目标句子中的句法表示。
具体地,情感分类设备将所述邻接矩阵和上一层的输出结果输入至预设图卷积运
算公式中,得到当前层的输出结果,重复执行输入操作,直至得到所述预设的图卷积神经网
络模型的输出层的输出结果,获取所述目标句子的句法表示。
其中,预设图卷积运算公式如下:
表示邻接矩阵的第i行第j列的值;表示第层的权重,是一个可训练参数,表示是一个行列的矩阵;表示预设的图卷积神经网络模型中第j
个单词的第层的输出结果;表示预设的图卷积神经网络模型中第i个单词的第层
的中间结果;表示第i个单词在句法依存树中的深度,表示第层的偏置,
是一个可训练参数;表示预设的图卷积神经网络模型中的激活函数;表示预设的
图卷积神经网络模型中第i个单词的第层的输出结果。
S105:根据所述语义选择后的上下文表示、所述句法表示和预设的第二语义激活模型,得到所述目标词对应的情感分类结果。
预设的第二语义激活模型也可以称之为右半球语义激活模型(Right HemisphereSemantic Activation, RH-SA),其是一种粗略式的语义激活模型,其能够处理无语义关系或语义关系较远的单词。
所述预设的第二语义激活模型是一种预先训练好并设置在情感分类设备中的模型,具体地,第二语义激活模型的训练过程可以在情感分类设备中进行,也可以在其他外部设备中进行,并在训练完成后移植至情感分类设备中。
情感分类设备将语义选择后的上下文表示和句法表示输入预设的第二语义激活模型,得到所述目标词对应的情感分类结果。
在一个可选的实施例中,请参阅图11,为提高情感分类结果的准确性,步骤S105包括步骤S1051~S1052,具体如下:
S1051:提取所述语义选择后的上下文表示和所述句法表示中的局部特征,得到目标语义表示和目标句法表示。
在一个可选的实施例中,预设的第一局部特征提取网络为现有的CNN卷积神经网络。
在一个可选的实施例中,预设的第二局部特征提取网络为现有的CNN卷积神经网络。
对于第一局部特征提取网络和第二局部特征提取网络中的卷积步长可以进行合理化设置,在此不进行限定。
S1052:根据所述目标语义表示、所述目标句法表示和预设的情感极性分类函数,得到所述目标词对应的情感分类结果。
预设的情感极性分类函数如下:
本发明实施例通过获取目标句子对应的词嵌入矩阵;其中,所述目标句子对应的词嵌入矩阵包括上下文对应的词嵌入矩阵和目标词对应的词嵌入矩阵;根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示;根据所述目标词语义增强的上下文表示、所述上下文语义增强的目标词表示和预设的语义选择模型,得到语义选择后的上下文表示;获取所述目标句子对应的句法依存树,根据预设的语义整合模型,提取所述目标句子对应的句法依存树中的句法表示;根据所述语义选择后的上下文表示、所述句法表示和预设的第二语义激活模型,得到所述目标词对应的情感分类结果。通过上述第一语义激活模型、语义选择模型、语义整合模型和第二语义激活模型模拟了双侧大脑的语义认知过程,使本方法既能够更充分捕捉上下文中与目标词相关的语义信息,减少无关信息的影响,又能综合考虑上下文和目标词与句法之间的联系,将句法信息融入在句法表示中,从而提升情感分类的准确性,并且,由于是分别进行语义信息和句法信息的提取,还能够有效避免信息的混杂,进一步改善情感分类的效果。
在另一个实施例中,请参阅图12,所述情感分类方法还包括步骤S106~S107,具体如下:
S106:获取用于训练所述语义认知模型的训练集;其中,所述语义认知模型包括第一语义激活模型、语义选择模型、语义整合模型和第二语义激活模型。
情感分类设备获取训练语义认知模型的训练集。其中,语义认知模型(BSSCN)包括第一语义激活模型、语义选择模型、语义整合模型和第二语义激活模型。
关于第一语义激活模型、语义选择模型、语义整合模型和第二语义激活模型已上述说明,不再赘述。
S107:基于所述训练集、预设的反向传播算法和预设的损失函数迭代训练所述语义认知模型,更新所述语义认知模型内的训练参数,直至满足训练终止条件,得到训练好的语义认知模型。
情感分类设备基于训练集、预设的反向传播算法和预设的损失函数迭代训练语义认知模型,更新语义认知模型内的训练参数,直至满足训练终止条件,得到训练好的语义认知模型。
其中,训练参数包括第一语义激活模型、语义选择模型、语义整合模型和第二语义激活模型中所有可训练参数。
预设的反向传播算法中计算梯度和更新参数的公式如下:
在本实施例中,通过训练集对语义认知模型进行训练,能够尽可能地优化语义认知模型中的每个模型的可训练参数,提高情感分类的准确性。
请参阅图13,其为本发明一个示例性实施例提供的语义认知模型的内部结构示意图。图13中更加形象化地展现了语义认知模型(BSSCN)的内部处理过程。
下面将对本申请实施例提出的情感分类方法进行实验论证,论证过程如下:
一、数据集及实验设置:
选取SemEval 2014 Task4数据集里的Laptop14评论数据集(数据集1)和Restaurant14(数据集2)和、Dong等人收集并公开的ACL 14 上的Twitter数据集(数据集3),这些数据集里的每个评论都由句子、句子里的上下文和目标词以及目标词对应的情感标签(情感分为消极、中性、积极三类)组成。
三个数据集的分布统计结果如表1所示:
在实验中,我们使用300维的Glove词向量来初始化上下文及目标词,获取上下文
对应的词嵌入矩阵和目标词对应的词嵌入矩阵,所有的参数矩阵通过均匀分布来初始化产生,偏置的初始值均为0。模型采用Adam优化器。为了防止过拟
合,我们还设置了Dropout rate为0.5。除此之外,我们设置学习率为0.0005,正则项的
权重设置为0.0001。
二、基线模型:
为验证模型的有效性,我们将BSSCN与以下描述的几种最新方法做对比:
1、基于句法的模型Syntax-aware models:
(1)模型1:LSTM+SynATT,提出将注意力机制与句法信息相结合以提高注意力机制的效果。
(2)模型2:ASGCN,同时利用依存树距离和句法信息构图,在此基础上使用GCN,提高了模型效果。
(3)模型3:CDT,结合GCN与Bi-LSTM模型,以获取句子的结构信息和上下文信息,之后将这两个信息用于情感分析。
(4)模型4:TD-GAT,利用了词之间的依赖关系并结合GAT,更加有针对性的进行属性级情感分析。
(5)模型5:BiGCN,提出使用词汇图来获取全局单词共现信息,并在每个词汇图与句法图建立概念层次结构以单独处理多种功能关系,并使两者协同工作。
2、基于注意力的模型Attention-based models:
(1)模型6:ATAE-LSTM,通过拼接目标词与上下文,然后通过LSTM编码,学习不同的目标词在上下文的句子表示,最后通过注意力机制获取最终的句子表示。
(2)模型7:IAN,提出一种交互注意力捕获上下文与目标词的联系,使得最终的表示里更好地考虑了目标词信息。
(3)模型8:RAM,提出一种多跳注意力以更好地获取远距离的上下文与目标词之间的联系。
(4)模型9:MGAN,提出一种同时使用细粒度和粗粒度注意力的多粒度注意力机制来捕获目标词和上下文之间的单词级别的交互信息。
(5)模型10:IACapsNet,使用胶囊网络来处理重叠的情感特征,并将交互注意力引入胶囊网络中。
3、类人认知模型Human-likecognition models:
(1)模型11:HSCN,提出模拟人类阅读认知的三个过程(pre-reading, activereading, andpost-reading)的情感分析模型,并设计对应的功能模块。
(2)模型12:HHAS,首次利用先验情感知识和强化学习来模拟人类阅读认知过程并用于属性级情感分析。
三、对比结果与分析:
在实验中,使用准确率(Accuracy)和宏观综合值(MacroF1)作为评价指标来验证模型。我们将对比模型分为三大类,基于句法的模型、基于注意力的模型和类人认知模型,并分别与它们对比,为评估结果的稳定性,我们还运行了10次本申请实施例提出的语义认知模型(BSSCN模型),并计算了均值和标准差,语义认知模型在Laptop14、 Restaurant14、Twitter等3个数据集结果如表2所示。结果显示语义认知模型在准确率和MacroF1分数大多优于其他对比模型,这证明了语义认知模型的有效性。
对比于其它基于句法的模型,语义认知模型的准确率和MacroF1分数均有明显提升。CDT模型相比于LSTM+SynATT、ASGCN等几个模型,其对于句法信息的融合更为深入,并且最终只取目标词位置的输出作为情感表示可以去除其它无关信息的影响,所以效果优于其它模型,而语义认知模型选择将语义信息与句法信息分开计算以避免信息相互干扰,最后拼接作为最终表示用于情感分类。相比于这部分里面表现最好的CDT模型,语义认知模型在这3个数据集分别提高了0.55%,0.29%和0.48%。这说明了对于句法信息的利用方式和信息的处理上,语义认知模型表现的更优秀。
在基于注意力模型部分,语义认知模型表现出最好的性能。IACapsNet模型对比于ATAE-LSTM、IAN、MGAN等基线模型,加入胶囊网络来保持句子的整体结构信息,因此效果优于其它基线模型。而我们的语义认知模型则即改进注意力机制以获取与目标词更相关的上下文信息,又加入了句法信息,并分开计算,这样既可以获取目标词的相关语义信息,也可以保持句子结构信息。语义认知模型相比于表现最好的IACapsNet模型,在3个数据集上分别提高了0.94%,0.80%和0.13%,MacroF1分数均有明显提升。
对比于其它类人感知模型,语义认知模型整体表现更为优秀。HSCN模型模拟人类阅读认知的3个过程,并在回读阶段调整语义偏差。HHSN模型在HSCN的基础之上,重新设计了类人阅读认知3个过程,并以情感信息为先验知识,以强化学习来优化回读阶段,以增强目标词相关的语义表示。但这两个模型都只考虑了句子的语义信息,而语义认知模型既考虑了语义信息,还考虑句子的句法信息,实验结果证明我们想法的有效性。语义认知模型比使用了Elmo词嵌入的HHSN模型在Laptop和Twitter数据集分别提升了0.24%,2.74%。
语义认知模型在Rest14上表现最好,Laptop14次之,Twitter效果最差。可能是因为Laptop14和Rest14对于句法信息较敏感,而Twitter的口语化表达较多,且含有大量未登录词,所以导致效果最低。我们将在消融实验部分验证这些猜想。
表2的验证结果单位为(%),最优结果用粗体标出,”-”表示对应的方法没有给出该结果,”*”表示使用了Elmo词嵌入,未特殊说明的方法均使用Glove词嵌入,每个方法后面的括号内的数字表示方法提出的年份。本模型结果后的括号内表示均值及标准差。
四、消融学习及分析:
为了分析语义认知模型(BSSCN模型)各个子模型(也可以称之为模块)的影响和验证上一个小节的猜想,我们分别去除了语义信息交互模型(IIM模型)、多层平均注意力模型(MLA-ATT模型)、含GCN的语义整合模型(SI模型)、第二语义激活模型(RH-SA模型)。我们在表3展示了实验结果。结果显示,总体上来看,MLA-ATT模型对于模型性能的影响最大,这是因为这个模型主要负责选择目标词相关语义信息,并抑制无关语义信息,而提取目标词的语义信息的效率会直接影响情感分类的效率。除此之外,我们还可以看到RH-SA对3个数据集均有明显影响,验证了模拟粗略式的语义激活的RH-SA模型确实可以补充和完善语义表示。IIM的消融结果表明在进行信息选择前先进行信息交互有利于提取更多目标词相关的语义表示。而对于Twitter我们可以观察到对它影响最小的是消除了能补充句法信息的含GCN的SI模型,这也证明了Twitter确实相比于其它两个数据集对句法信息不敏感的猜想。但我们的模型同时考虑了语义信息与句法信息,并分开处理,最后拼接融合,才能3个数据集上获得最佳性能。
上方表3的消融实验结果单位为(%),最优结果用粗体标出。
MLA-ATT层数分析及案例分析:
在这一个小节里面,我们探索了多层平均注意力模型(MLA-ATT模型)的层数K对于实验结果的影响。除此之外,我们还将举例并可视化MLA-ATT模型过程,以说明其有效性。为此我们在Laptop14,Restaurant14和Twitter数据集上分别测试了本文BSSCN模型在的性能,以准确率为评价指标,实验结果图14所示:
从图中我们可以明显观察到,图14中的图表的横坐标为多层平均注意力模型的层
数,用k表示,当时,三个数据集下的模型都可以取得最高的准确率(77.74%,82.59%,
75.14%),这表明了MLA-ATT的对多个注意力层求平均的思想确实能够提升模型的性能,尤
其是在时。我们猜测这可能和注意力机制的计算缺陷有关,注意力机制是基于两个词
的词嵌入计算的,这就导致了有可能会使得两个句法关系较远或者语义关系较远的词被分
配错误的权重,故我们选择了一个案例“The price is reasonable although the
service is poor”,以“price”为目标词,以并可视化其注意力计算过程以验证这个猜测,
结果如图15所示。
从图15中我们可以看到在MLA-ATT计算过程中的第5层,对于目标“price”,它把主要的注意力权重分配给了目标“service”的情感词“poor”,而给了自己的情感词“reasonable”分配了一个极小的权重,这无疑会导致最终的情感分类结果出现误差。我们推断出现分配错误的原因一个可能是词嵌入的影响,导致根据语义计算上出现错误,另一个可能是因为训练时参数矩阵的初始化及更新的影响。但我们可以看到这种错误出现的次数只要能够小于正确分配的次数,就能减小偏差,从而改善模型性能。所以我们使用一种多层相加然后求平均的思想来消除偏差。图15中的最后输出也验证了这种想法的可行性。
本发明并不局限于上述实施方式,如果对本发明的各种改动或变形不脱离本发明的精神和范围,倘若这些改动和变形属于本发明的权利要求和等同技术范围之内,则本发明也意图包含这些改动和变形。
Claims (10)
1.一种情感分类方法,其特征在于,包括步骤:
获取目标句子对应的词嵌入矩阵;其中,所述目标句子对应的词嵌入矩阵包括上下文对应的词嵌入矩阵和目标词对应的词嵌入矩阵;
根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示;
根据所述目标词语义增强的上下文表示、所述上下文语义增强的目标词表示和预设的语义选择模型,得到语义选择后的上下文表示;
获取所述目标句子对应的句法依存树,根据预设的语义整合模型,提取所述目标句子对应的句法依存树中的句法表示;
根据所述语义选择后的上下文表示、所述句法表示和预设的第二语义激活模型,得到所述目标词对应的情感分类结果。
2.根据权利要求1所述的情感分类方法,其特征在于,所述根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示,包括步骤:
根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的隐藏状态提取模型,得到所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵;
获取所述上下文与所述目标词之间的公共信息矩阵,根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的语义信息交互模型,得到目标词语义增强的上下文表示和上下文语义增强的目标词表示。
3.根据权利要求2所述的情感分类方法,其特征在于,所述根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的隐藏状态提取模型,得到所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵,包括步骤:
对所述目标词对应的词嵌入矩阵进行平均池化,得到平均目标词向量;
根据所述平均目标词向量和所述上下文对应的词嵌入矩阵,得到融入目标词信息的上下文对应的词嵌入矩阵;
将所述目标词对应的词嵌入矩阵和所述融入目标词信息的上下文对应的词嵌入矩阵分别输入预设的GRU神经网络模型中,得到所述上下文对应的隐藏状态矩阵和所述目标词对应的隐藏状态矩阵。
4.根据权利要求2所述的情感分类方法,其特征在于,所述获取所述上下文与所述目标词之间的公共信息矩阵,根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的语义信息交互模型,得到目标词语义增强的上下文表示和上下文语义增强的目标词表示,包括步骤:
根据所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的公共信息矩阵计算公式,得到所述公共信息矩阵;
根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的目标词语义增强计算公式,得到所述目标词语义增强的上下文表示;
根据所述公共信息矩阵、所述上下文对应的隐藏状态矩阵、所述目标词对应的隐藏状态矩阵和预设的上下文语义增强计算公式,得到所述上下文语义增强的目标词表示。
5.根据权利要求1所述的情感分类方法,其特征在于,所述根据所述目标词语义增强的上下文表示、所述上下文语义增强的目标词表示和预设的语义选择模型,得到语义选择后的上下文表示,包括步骤:
对所述上下文增强的目标词表示进行平均池化,得到目标词查询向量;
将所述目标词查询向量分别输入若干个单层注意力模型,得到若干个注意力系数矩阵;
获取若干个所述注意力系数矩阵相加后的平均值,得到语义选择抑制参数;
根据所述语义选择抑制参数和所述上下文对应的隐藏状态矩阵,得到所述语义选择后的上下文表示。
6.根据权利要求1所述的情感分类方法,其特征在于,所述根据预设的语义整合模型,提取所述目标句子对应的句法依存树中的句法表示,包括步骤:
根据所述句法依存树,得到所述目标句子中的单词对应的邻接矩阵,其中,所述邻接矩阵表示所述目标句子中的单词的邻接关系;
将所述邻接矩阵输入预设的图卷积神经网络模型,得到所述目标句子的句法表示。
7.根据权利要求6所述的情感分类方法,其特征在于,所述将所述邻接矩阵输入预设的图卷积神经网络模型,得到所述目标句子的句法表示,包括步骤:
将所述邻接矩阵和上一层的输出结果输入至预设图卷积运算公式中,得到当前层的输出结果,重复执行输入操作,直至得到所述预设的图卷积神经网络模型的输出层的输出结果,获取所述目标句子的句法表示。
8.根据权利要求1所述的情感分类方法,其特征在于,所述根据所述语义选择后的上下文表示、所述句法表示和预设的第二语义激活模型,得到所述目标词对应的情感分类结果,包括步骤:
提取所述语义选择后的上下文表示的局部特征和所述句法表示中的局部特征,得到目标语义表示和目标句法表示;
根据所述目标语义表示、所述目标句法表示和预设的情感极性分类函数,得到所述目标词对应的情感分类结果。
9.根据权利要求8所述的情感分类方法,其特征在于,所述提取所述语义选择后的上下文表示的局部特征和所述句法表示中的局部特征,得到目标语义表示和目标句法表示,包括步骤:
将所述语义选择后的上下文表示输入预设的第一局部特征提取网络,得到所述语义选择后的上下文表示的局部特征;
将所述句法表示输入预设的第二局部特征提取网络,得到所述句法表示的局部特征;
对所述语义选择后的上下文表示的局部特征和所述句法表示的局部特征进行最大池化操作,得到所述目标语义表示和目标句法表示。
10.根据权利要求1所述的情感分类方法,其特征在于,在根据所述上下文对应的词嵌入矩阵、所述目标词对应的词嵌入矩阵和预设的第一语义激活模型,获取目标词语义增强的上下文表示和上下文语义增强的目标词表示之前,包括步骤:
获取用于训练语义认知模型的训练集;其中,所述语义认知模型包括第一语义激活模型、语义选择模型、语义整合模型和第二语义激活模型;
基于所述训练集、预设的反向传播算法和预设的损失函数迭代训练所述语义认知模型,更新所述语义认知模型内的训练参数,直至满足训练终止条件,得到训练好的语义认知模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110301286.7A CN112686056B (zh) | 2021-03-22 | 2021-03-22 | 一种情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110301286.7A CN112686056B (zh) | 2021-03-22 | 2021-03-22 | 一种情感分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112686056A true CN112686056A (zh) | 2021-04-20 |
CN112686056B CN112686056B (zh) | 2021-07-06 |
Family
ID=75455733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110301286.7A Active CN112686056B (zh) | 2021-03-22 | 2021-03-22 | 一种情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112686056B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112883741A (zh) * | 2021-04-29 | 2021-06-01 | 华南师范大学 | 基于双通道图神经网络的特定目标情感分类方法 |
CN113254637A (zh) * | 2021-05-07 | 2021-08-13 | 山东师范大学 | 一种融合语法的方面级文本情感分类方法及系统 |
CN113449110A (zh) * | 2021-08-30 | 2021-09-28 | 华南师范大学 | 情感分类方法、装置、存储介质及计算机设备 |
CN114297390A (zh) * | 2021-12-30 | 2022-04-08 | 江南大学 | 一种长尾分布场景下的方面类别识别方法及系统 |
CN114722808A (zh) * | 2022-03-14 | 2022-07-08 | 天津大学 | 基于多上下文和多词段图卷积网络的特定目标情感识别模型 |
CN118152914A (zh) * | 2024-03-18 | 2024-06-07 | 山东管理学院 | 一种语义结构图引导的ecg自编码方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012134180A2 (ko) * | 2011-03-28 | 2012-10-04 | 가톨릭대학교 산학협력단 | 문장에 내재한 감정 분석을 위한 감정 분류 방법 및 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법 |
US20170308267A1 (en) * | 2016-04-26 | 2017-10-26 | International Business Machines Corporation | Contextual determination of emotion icons |
CN107491531A (zh) * | 2017-08-18 | 2017-12-19 | 华南师范大学 | 基于集成学习框架的中文网络评论情感分类方法 |
CN109408823A (zh) * | 2018-10-31 | 2019-03-01 | 华南师范大学 | 一种基于多通道模型的特定目标情感分析方法 |
US20200104313A1 (en) * | 2018-09-19 | 2020-04-02 | Servicenow, Inc. | Selectively generating word vector and paragraph vector representations of fields for machine learning |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
CN111813895A (zh) * | 2020-08-07 | 2020-10-23 | 深圳职业技术学院 | 一种基于层次注意力机制和门机制的属性级别情感分析方法 |
CN112131383A (zh) * | 2020-08-26 | 2020-12-25 | 华南师范大学 | 特定目标的情感极性分类方法 |
CN112417157A (zh) * | 2020-12-15 | 2021-02-26 | 华南师范大学 | 一种基于深度学习网络的文本属性词的情感分类方法 |
-
2021
- 2021-03-22 CN CN202110301286.7A patent/CN112686056B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012134180A2 (ko) * | 2011-03-28 | 2012-10-04 | 가톨릭대학교 산학협력단 | 문장에 내재한 감정 분석을 위한 감정 분류 방법 및 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법 |
US20170308267A1 (en) * | 2016-04-26 | 2017-10-26 | International Business Machines Corporation | Contextual determination of emotion icons |
CN107491531A (zh) * | 2017-08-18 | 2017-12-19 | 华南师范大学 | 基于集成学习框架的中文网络评论情感分类方法 |
US20200104313A1 (en) * | 2018-09-19 | 2020-04-02 | Servicenow, Inc. | Selectively generating word vector and paragraph vector representations of fields for machine learning |
CN109408823A (zh) * | 2018-10-31 | 2019-03-01 | 华南师范大学 | 一种基于多通道模型的特定目标情感分析方法 |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
CN111813895A (zh) * | 2020-08-07 | 2020-10-23 | 深圳职业技术学院 | 一种基于层次注意力机制和门机制的属性级别情感分析方法 |
CN112131383A (zh) * | 2020-08-26 | 2020-12-25 | 华南师范大学 | 特定目标的情感极性分类方法 |
CN112417157A (zh) * | 2020-12-15 | 2021-02-26 | 华南师范大学 | 一种基于深度学习网络的文本属性词的情感分类方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112883741A (zh) * | 2021-04-29 | 2021-06-01 | 华南师范大学 | 基于双通道图神经网络的特定目标情感分类方法 |
CN112883741B (zh) * | 2021-04-29 | 2021-07-27 | 华南师范大学 | 基于双通道图神经网络的特定目标情感分类方法 |
CN113254637A (zh) * | 2021-05-07 | 2021-08-13 | 山东师范大学 | 一种融合语法的方面级文本情感分类方法及系统 |
CN113449110A (zh) * | 2021-08-30 | 2021-09-28 | 华南师范大学 | 情感分类方法、装置、存储介质及计算机设备 |
CN113449110B (zh) * | 2021-08-30 | 2021-12-07 | 华南师范大学 | 情感分类方法、装置、存储介质及计算机设备 |
CN114297390A (zh) * | 2021-12-30 | 2022-04-08 | 江南大学 | 一种长尾分布场景下的方面类别识别方法及系统 |
CN114297390B (zh) * | 2021-12-30 | 2024-04-02 | 江南大学 | 一种长尾分布场景下的方面类别识别方法及系统 |
CN114722808A (zh) * | 2022-03-14 | 2022-07-08 | 天津大学 | 基于多上下文和多词段图卷积网络的特定目标情感识别模型 |
CN118152914A (zh) * | 2024-03-18 | 2024-06-07 | 山东管理学院 | 一种语义结构图引导的ecg自编码方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112686056B (zh) | 2021-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112686056B (zh) | 一种情感分类方法 | |
CN111488734B (zh) | 基于全局交互和句法依赖的情感特征表示学习系统及方法 | |
CN107943784B (zh) | 基于生成对抗网络的关系抽取方法 | |
CN110096711B (zh) | 序列全局关注和局部动态关注的自然语言语义匹配方法 | |
KR20180125905A (ko) | 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치 | |
CN110489755A (zh) | 文本生成方法和装置 | |
Wu et al. | Modeling incongruity between modalities for multimodal sarcasm detection | |
CN109977234A (zh) | 一种基于主题关键词过滤的知识图谱补全方法 | |
CN107704456B (zh) | 识别控制方法以及识别控制装置 | |
CN112232087B (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN109992779A (zh) | 一种基于cnn的情感分析方法、装置、设备及存储介质 | |
Guan et al. | Autoattend: Automated attention representation search | |
CN106782501A (zh) | 基于人工智能的语音特征提取方法和装置 | |
CN112883714B (zh) | 基于依赖图卷积和迁移学习的absc任务句法约束方法 | |
CN109214006A (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN113641822B (zh) | 一种基于图神经网络的细粒度情感分类方法 | |
Wu et al. | Speech emotion recognition using sequential capsule networks | |
CN112905772B (zh) | 语义相关性分析方法、装置及相关产品 | |
Halvardsson et al. | Interpretation of swedish sign language using convolutional neural networks and transfer learning | |
CN113157919A (zh) | 语句文本方面级情感分类方法及系统 | |
CN113656564A (zh) | 一种基于图神经网络的电网业务对话数据情感检测方法 | |
CN117251057A (zh) | 一种基于aigc构建ai数智人的方法及系统 | |
CN114254645A (zh) | 一种人工智能辅助写作系统 | |
CN116484042A (zh) | 一种结合自相关与交互引导式注意力机制的视觉问答方法 | |
CN115510230A (zh) | 一种基于多维特征融合与比较增强学习机制的蒙古语情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |