CN110866405A - 一种基于语句信息的方面级情感分类方法 - Google Patents
一种基于语句信息的方面级情感分类方法 Download PDFInfo
- Publication number
- CN110866405A CN110866405A CN201911113011.XA CN201911113011A CN110866405A CN 110866405 A CN110866405 A CN 110866405A CN 201911113011 A CN201911113011 A CN 201911113011A CN 110866405 A CN110866405 A CN 110866405A
- Authority
- CN
- China
- Prior art keywords
- vector
- weight
- sentence
- hidden state
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于语句信息的方面级情感分类方法,本发明基于语句信息的注意力机制结合句子的整体语义信息捕获给定方面的重要信息,并将整个语句信息加入输出向量表达中,提高了模型处理复杂句子的能力;同时本发明采用基于上下文的注意力机制,与基于位置的注意力机制相比,不仅考虑到了句子的语序信息,还考虑到了单词与方面之间的交互信息,因此能为给定方面构建更合理的定制记忆,使得本发明的分类准确率更高。
Description
技术领域
本发明涉及情感分析研究领域,具体涉及一种基于语句信息的方面级情感分类方法。
背景技术
随着互联网在现实生活中的普及,网民数量急剧增加,在网上对事物发表评论已经变成了常态,用户对事物的评论数量也随之呈指数型快速增长。方面级情感分类任务的目标在于通过自动化的方式挖掘用户评论语句蕴含的关于给定事物的情感极性,以快速获取大众对事物的喜好信息,近年来受到了各界的青睐。
方面级情感分类问题(aspect based sentiment classification,ABSC),目的是确定用户在评论中对特定方面所表达的意见是积极、消极还是中性的。对于方面级情感分类问题,如果模型不能区分不同方面,在实际应用中就会出现问题,近年来,为了解决这一问题,引入了一些基于神经网络的注意力模型。然而,现阶段大部分基于神经网络的注意力模型存在一些共同的问题:
第一,在这个领域中大多数注意力建模策略中计算注意力得分时候大多只考虑了方面词的表面语义信息,而忽略了方面所在语句的信息,然而由于相同的词语在不同的语句可能会表示出不同的语义信息。
第二,现有的注意力模型在计算注意力得分时候大多只考虑“词级”的信息,而忽视了句子的整体语句信息。然而,在实际用户评论中常见反讽或讽刺句等复杂句。
第三,一个句子可能包含多个方面。因此,每个上下文词对于句子关于给定的不同方面的情感极性的判断可能有不同的重要性。基于记忆的模型通常建立在位置注意力机制的基础上,该机制通常建立在更接近方面的上下文单词更为重要的假设基础上,但在某些情况下这一假设并不成立。
方面级情感分类旨在确定句子关于给定方面的情感极性。传统的方法通常来自计算语言学领域,这些方法大多是基于手工编制的词汇和句法特征的机器学习模型,这些模型的性能高度依赖于特征工程的质量的优劣。
递归神经网络(Recursive neural networks,RecNNs)最早是由Dong等人引入该领域的,他们提出了一种可以自适应地将上下文词的情感特征传递给目标的自适应递归神经网络。RecNNs已经被证明可以有效地从文本的递归结构中获得句子表达,但是在实践中经常遇到语法分析错误的情况。
Tang等人提出了一种依赖于目标的长短时记忆网络模型(target-dependentlong short-term memory network model,TD-LSTM),该模型分别利用两个LSTM网络,令左上下文和右上下文学习对于给定方面的表达,但计算量较大。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于语句信息的方面级情感分类方法解决了现有模型在方面级情感中准确率低的问题。
为了达到上述发明目的,本发明采用的技术方案为:
提供一种基于语句信息的方面级情感分类方法,其包括以下步骤:
S1、将句子S拆分成含有方面的左上下文和含有方面的右上下文,并分别获取左上下文对应的向量表Els和右上下文对应的向量表Ers;
S2、采用神经网络模型分别对Els和Ers进行建模,获取与Els相对应的隐状态表Hls和与Ers相对应的隐状态表Hrs;
S3、分别获取隐状态表Hls对应的注意力权重表βls和隐状态表Hrs对应的注意力权重表βrs;
S4、根据注意力权重表βls和注意力权重表βrs获取方面的注意力权重向量,进而得到上下文注意力权重向量;
S5、根据上下文注意力权重向量和对应的记忆切片获取权重记忆向量,并将权重记忆向量中各元素的平均值作为语句信息;
S6、采用三输入的前馈神经网络获取语句信息中各元素对应的注意力权重αi,并根据注意力权重αi和存放在记忆模块中的记忆输出对应的向量Vts;
S7、将句子S的句子表示加入到向量Vts中,得到融合后的句子表示向量;
S8、采用softmax层对融合后的句子表示向量进行预测,得到句子S关于给定方面的感情极性概率分布,完成基于语句信息的方面级情感分类。
进一步地,步骤S1的具体方法为:
对于句子S={s1,s2,…,si,…si+L,…,sN-1,sN},其中方面词组为Sv={si,…,si+L},将句子中其余部分分为上下文,并将句子中方面词组左边的上下文称为左上下文Sl={s1,…,si-1},右边的上下文称为右上下文Sr={si+L+1,…,sN};即得到含有方面的左上下文Sls={s1,…,si,…si+L}和含有方面的右上下文Srs={si,…si+L,…,sN};其中i表示方面中的第一个词的下标;i+L表示方面中最后一个词的下标;N表示句子中单词的个数;
通过无监督方法、距离监督方法或随机初始化的方法产生一个词表示矩阵其中为实数集,d为单词向量维度,|V|表示词汇表中单词的数量;根据词表示矩阵将句子S中的单词进行映射,获得对应的向量表示,进而得到左上下文对应的向量表Els和右上下文对应的向量表Ers;其中Els={e1,...,ei-1,ei,...,ei+L},Ers={ei,...,ei+L,ei+L+1,...,eN}。
进一步地,步骤S2的具体方法包括以下子步骤:
S2-1、将Els输入门控神经单元并从右向左运行门控神经单元;
S2-2、在t时间步,对于Els={e1,...,ei-1,ei,...,ei+L}中的任一个元素et,根据公式:
rt=σ(Wret+Urht-1)
zt=σ(Wzet+Uzht-1)
获取其内部隐藏状态ht;将每个元素对应的内部隐藏状态组合起来即得到与Els相对应的隐状态表其中Wr、Ur、Wz、Uz、Wh和Uh均为权重矩阵,且均属于σ(·)为sigmoid函数;rt为更新门;zt为重置门;ht-1为元素et在t-1时间步的内部隐藏状态;tanh(·)为双曲正切函数;为中间量;⊙为按位相乘运算;1为单位向量;为元素ei+L对应的内部隐藏状态;
S2-3、将Ers输入门控神经单元并从左向右运行门控神经单元;
S2-4、在t时间步,对于Ers={ei,...,ei+L,ei+L+1,...,eN}中的任一个元素,采用与步骤S2-2相同的公式获取Ers中每个元素对应的内部隐藏状态,并进一步得到与Ers相对应的隐状态表 为元素ei对应的内部隐藏状态。
进一步地,步骤S3的具体方法为:
根据公式:
βl=σ(W10hl+b5)+bl
获取隐状态表Hls中任一元素hl对应的注意力权重βl;将每个隐状态表Hls中的元素对应的注意力权重进行组合即得到隐状态表Hls对应的注意力权重表βls,其中W10为权重矩阵,b5为偏置参数,bl为基础的注意力权重,
根据公式:
βr=σ(W11hr+b6)+br
获取隐状态表Hrs中任一元素hr对应的注意力权重βr;将每个隐状态表Hrs中的元素对应的注意力权重进行组合即得到隐状态表Hrs对应的注意力权重表βrs,其中W11为权重矩阵,b6为偏置参数,br为基础的注意力权重,
进一步地,步骤S4的具体方法为:
基于注意力权重表βls中第k个元素和注意力权重表βrs中第k个元素,根据公式:
获取对应方面的注意力权重βk,进而得到对应方面的注意力权重βa={βi,...,βi+L};其中i≤k≤i+L;
将向量βlc={β1,...,βi-1}、βa={βi,...,βi+L}和向量βrc={βi+L+1,...,βN}拼接为上下文注意力权重向量β={β1,β2,...,βN}。
进一步地,步骤S5的具体方法为:
根据公式
mωn=yn⊙mn
获取记忆切片mn对应的权重记忆,进而得到权重记忆向量Mω={mω1,mω2,...,mωN};将权重记忆向量中各元素的平均值作为语句信息Vs;其中记忆切片mn为记忆M中的第n个记忆切片,mn=en,表示句子S所对应的向量表E={e1,e2,…,ei,…,ei+L,…,eN}中的第n个元素;yn是在词嵌入的维度上复制βn共d次获得的向量,yn∈β,βn为上下文注意力权重向量β中的第n个元素。
进一步地,步骤S6的具体方法为:
将方面中包含的所有方面词向量的平均值作为方面信息Va,并根据公式:
cn=W6 tanh(W7mi+W8Va+W9Vs+b4)
根据公式:
获取语句信息中第n个元素对应的注意力权重αn,进而得到语句信息对应的注意力权重α=(α1,...,αn,...,αN);其中exp(·)为以自然常数e为底的指数函数;cj为语句信息中第j个元素;
根据公式:
Vts=Mα
获取三输入的前馈神经网络输出的向量Vts。
进一步地,步骤S8的具体方法为:
根据公式:
pred=soft max(W5Vns+b3)
获取融合后的句子表示向量Vns关于给定方面的感情极性概率分布pred,即句子S关于给定方面的感情极性概率分布;其中soft max(·)为softmax函数; 表示一个空间大小为C的条件概率分布;W5为权重矩阵,b3为偏置向量,是线性层的参数。
本发明的有益效果为:
1、本发明基于语句信息的注意力机制结合句子的整体语义信息捕获给定方面的重要信息,并将整个语句信息加入输出向量表达中,提高了模型处理复杂句子的能力;同时本发明采用基于上下文的注意力机制,与基于位置的注意力机制相比,不仅考虑到了句子的语序信息,还考虑到了单词与方面之间的交互信息,因此能为给定方面构建更合理的定制记忆,使得本发明的分类准确率更高。
2、本发明不使用多跳计算机制,使得本发明的训练迭代时间更短,更容易训练,有效降低使用难度,提高效率。
3、本发明为模块化结构,且各模块之间的耦合性较低,任意模块可以被相似功能组件替代,因此本方法更容易根据实际应用扩展。
附图说明
图1为本发明的流程示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,该基于语句信息的方面级情感分类方法包括以下步骤:
S1、将句子S拆分成含有方面的左上下文和含有方面的右上下文,并分别获取左上下文对应的向量表Els和右上下文对应的向量表Ers;
S2、采用神经网络模型分别对Els和Ers进行建模,获取与Els相对应的隐状态表Hls和与Ers相对应的隐状态表Hrs;
S3、分别获取隐状态表Hls对应的注意力权重表βls和隐状态表Hrs对应的注意力权重表βrs;
S4、根据注意力权重表βls和注意力权重表βrs获取方面的注意力权重向量,进而得到上下文注意力权重向量;
S5、根据上下文注意力权重向量和对应的记忆切片获取权重记忆向量,并将权重记忆向量中各元素的平均值作为语句信息;
S6、采用三输入的前馈神经网络获取语句信息中各元素对应的注意力权重αi,并根据注意力权重αi和存放在记忆模块中的记忆输出对应的向量Vts;
S7、将句子S的句子表示加入到向量Vts中,得到融合后的句子表示向量;
S8、采用softmax层对融合后的句子表示向量进行预测,得到句子S关于给定方面的感情极性概率分布,完成基于语句信息的方面级情感分类。
步骤S1的具体方法为:
对于句子S={s1,s2,…,si,…si+L,…,sN-1,sN},其中方面词组为Sv={si,…,si+L},将句子中其余部分分为上下文,并将句子中方面词组左边的上下文称为左上下文Sl={s1,…,si-1},右边的上下文称为右上下文Sr={si+L+1,…,sN};即得到含有方面的左上下文Sls={s1,…,si,…si+L}和含有方面的右上下文Srs={si,…si+L,…,sN};其中i表示方面中的第一个词的下标;i+L表示方面中最后一个词的下标;N表示句子中单词的个数;
通过无监督方法、距离监督方法或随机初始化的方法产生一个词表示矩阵其中为实数集,d为单词向量维度,|V|表示词汇表中单词的数量;根据词表示矩阵将句子S中的单词进行映射,获得对应的向量表示,进而得到左上下文对应的向量表Els和右上下文对应的向量表Ers;其中Els={e1,...,ei-1,ei,...,ei+L},Ers={ei,...,ei+L,ei+L+1,...,eN}。
步骤S2的具体方法包括以下子步骤:
S2-1、将Els输入门控神经单元并从右向左运行门控神经单元;
S2-2、在t时间步,对于Els={e1,...,ei-1,ei,...,ei+L}中的任一个元素et,根据公式:
rt=σ(Wret+Urht-1)
zt=σ(Wzet+Uzht-1)
获取其内部隐藏状态ht;将每个元素对应的内部隐藏状态组合起来即得到与Els相对应的隐状态表其中Wr、Ur、Wz、Uz、Wh和Uh均为权重矩阵,且均属于σ(·)为sigmoid函数;rt为更新门;zt为重置门;ht-1为元素et在t-1时间步的内部隐藏状态;tanh(·)为双曲正切函数;为中间量;⊙为按位相乘运算;1为单位向量;为元素ei+L对应的内部隐藏状态;
S2-3、将Ers输入门控神经单元并从左向右运行门控神经单元;
S2-4、在t时间步,对于Ers={ei,...,ei+L,ei+L+1,...,eN}中的任一个元素,采用与步骤S2-2相同的公式获取Ers中每个元素对应的内部隐藏状态,并进一步得到与Ers相对应的隐状态表 为元素ei对应的内部隐藏状态。
步骤S3的具体方法为:根据公式:
βl=σ(W10hl+b5)+bl
获取隐状态表Hls中任一元素hl对应的注意力权重βl;将每个隐状态表Hls中的元素对应的注意力权重进行组合即得到隐状态表Hls对应的注意力权重表βls,其中W10为权重矩阵,b5为偏置参数,bl为基础的注意力权重,
根据公式:
βr=σ(W11hr+b6)+br
获取隐状态表Hrs中任一元素hr对应的注意力权重βr;将每个隐状态表Hrs中的元素对应的注意力权重进行组合即得到隐状态表Hrs对应的注意力权重表βrs,其中W11为权重矩阵,b6为偏置参数,br为基础的注意力权重,
步骤S4的具体方法为:基于注意力权重表βls中第k个元素和注意力权重表βrs中第k个元素,根据公式:
获取对应方面的注意力权重βk,进而得到对应方面的注意力权重βa={βi,...,βi+L};其中i≤k≤i+L;
将向量βlc={β1,...,βi-1}、βa={βi,...,βi+L}和向量βrc={βi+L+1,...,βN}拼接为上下文注意力权重向量β={β1,β2,...,βN}。
步骤S5的具体方法为:根据公式
mωn=yn⊙mn
获取记忆切片mn对应的权重记忆,进而得到权重记忆向量Mω={mω1,mω2,...,mωN};将权重记忆向量中各元素的平均值作为语句信息Vs;其中记忆切片mn为记忆M中的第n个记忆切片,mn=en,表示句子S所对应的向量表E={e1,e2,…,ei,…,ei+L,…,eN}中的第n个元素;yn是在词嵌入的维度上复制βn共d次获得的向量,yn∈β,βn为上下文注意力权重向量β中的第n个元素。
步骤S6的具体方法为:将方面中包含的所有方面词向量的平均值作为方面信息Va,并根据公式:
cn=W6 tanh(W7mi+W8Va+W9Vs+b4)
根据公式:
获取语句信息中第n个元素对应的注意力权重αn,进而得到语句信息对应的注意力权重α=(α1,...,αn,...,αN);其中exp(·)为以自然常数e为底的指数函数;cj为语句信息中第j个元素;
根据公式:
Vts=Mα
获取三输入的前馈神经网络输出的向量Vts。
步骤S8的具体方法为:根据公式:
pred=soft max(W5Vns+b3)
获取融合后的句子表示向量Vns关于给定方面的感情极性概率分布pred,即句子S关于给定方面的感情极性概率分布;其中soft max(·)为softmax函数; 表示一个空间大小为C的条件概率分布;W5为权重矩阵,b3为偏置向量,是线性层的参数。
在具体实施过程中,本方法可以采用样本进行预先训练,并以有监督的方式最小化交叉熵损失目标,损失函数为:
los s=-∑ilog pti
其中log为对数,pti为本方法得到的第i个训练案例的可能性。利用反向传播计算参数的梯度,并用随机梯度下降法对其进行更新。
综上所述,本发明基于语句信息的注意力机制结合句子的整体语义信息捕获给定方面的重要信息,并将整个语句信息加入输出向量表达中,提高了模型处理复杂句子的能力;同时本发明采用基于上下文的注意力机制,与基于位置的注意力机制相比,不仅考虑到了句子的语序信息,还考虑到了单词与方面之间的交互信息,因此能为给定方面构建更合理的定制记忆,使得本发明的分类准确率更高,可提高人工智能对文字或语句的理解能力,做出更符合人类表达方式的行为或更符合人类预期的操作。
Claims (8)
1.一种基于语句信息的方面级情感分类方法,其特征在于,包括以下步骤:
S1、将句子S拆分成含有方面的左上下文和含有方面的右上下文,并分别获取左上下文对应的向量表Els和右上下文对应的向量表Ers;
S2、采用神经网络模型分别对Els和Ers进行建模,获取与Els相对应的隐状态表Hls和与Ers相对应的隐状态表Hrs;
S3、分别获取隐状态表Hls对应的注意力权重表βls和隐状态表Hrs对应的注意力权重表βrs;
S4、根据注意力权重表βls和注意力权重表βrs获取方面的注意力权重向量,进而得到上下文注意力权重向量;
S5、根据上下文注意力权重向量和对应的记忆切片获取权重记忆向量,并将权重记忆向量中各元素的平均值作为语句信息;
S6、采用三输入的前馈神经网络获取语句信息中各元素对应的注意力权重αi,并根据注意力权重αi和存放在记忆模块中的记忆输出对应的向量Vts;
S7、将句子S的句子表示加入到向量Vts中,得到融合后的句子表示向量;
S8、采用softmax层对融合后的句子表示向量进行预测,得到句子S关于给定方面的感情极性概率分布,完成基于语句信息的方面级情感分类。
2.根据权利要求1所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S1的具体方法为:
对于句子S={s1,s2,…,si,…si+L,…,sN-1,sN},其中方面词组为Sv={si,…,si+L},将句子中其余部分分为上下文,并将句子中方面词组左边的上下文称为左上下文Sl={s1,…,si-1},右边的上下文称为右上下文Sr={si+L+1,…,sN};即得到含有方面的左上下文Sls={s1,…,si,…si+L}和含有方面的右上下文Srs={si,…si+L,…,sN};其中i表示方面中的第一个词的下标;i+L表示方面中最后一个词的下标;N表示句子中单词的个数;
3.根据权利要求2所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S2的具体方法包括以下子步骤:
S2-1、将Els输入门控神经单元并从右向左运行门控神经单元;
S2-2、在t时间步,对于Els={e1,...,ei-1,ei,...,ei+L}中的任一个元素et,根据公式:
rt=σ(Wret+Urht-1)
zt=σ(Wzet+Uzht-1)
获取其内部隐藏状态ht;将每个元素对应的内部隐藏状态组合起来即得到与Els相对应的隐状态表其中Wr、Ur、Wz、Uz、Wh和Uh均为权重矩阵,且均属于σ(·)为sigmoid函数;rt为更新门;zt为重置门;ht-1为元素et在t-1时间步的内部隐藏状态;tanh(·)为双曲正切函数;为中间量;⊙为按位相乘运算;1为单位向量;为元素ei+L对应的内部隐藏状态;
S2-3、将Ers输入门控神经单元并从左向右运行门控神经单元;
4.根据权利要求3所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S3的具体方法为:
根据公式:
βl=σ(W10hl+b5)+bl
获取隐状态表Hls中任一元素hl对应的注意力权重βl;将每个隐状态表Hls中的元素对应的注意力权重进行组合即得到隐状态表Hls对应的注意力权重表βls,其中W10为权重矩阵,b5为偏置参数,bl为基础的注意力权重,
根据公式:
βr=σ(W11hr+b6)+br
6.根据权利要求5所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S5的具体方法为:
根据公式
mωn=yn⊙mn
获取记忆切片mn对应的权重记忆,进而得到权重记忆向量Mω={mω1,mω2,...,mωN};将权重记忆向量中各元素的平均值作为语句信息Vs;其中记忆切片mn为记忆M中的第n个记忆切片,mn=en,表示句子S所对应的向量表E={e1,e2,…,ei,…,ei+L,…,eN}中的第n个元素;yn是在词嵌入的维度上复制βn共d次获得的向量,yn∈β,βn为上下文注意力权重向量β中的第n个元素。
7.根据权利要求6所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S6的具体方法为:
将方面中包含的所有方面词向量的平均值作为方面信息Va,并根据公式:
cn=W6 tanh(W7mi+W8Va+W9Vs+b4)
获取语句信息中第n个元素对判断句子S对应给定方面情感极性重要性的分数cn;其中W6、W7、W8、W9和b4是三输入的前馈神经网络的模型参数;
根据公式:
获取语句信息中第n个元素对应的注意力权重αn,进而得到语句信息对应的注意力权重α=(α1,...,αn,...,αN);其中exp(·)为以自然常数e为底的指数函数;cj为语句信息中第j个元素;
根据公式:
Vts=Mα
获取三输入的前馈神经网络输出的向量Vts。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911113011.XA CN110866405A (zh) | 2019-11-14 | 2019-11-14 | 一种基于语句信息的方面级情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911113011.XA CN110866405A (zh) | 2019-11-14 | 2019-11-14 | 一种基于语句信息的方面级情感分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110866405A true CN110866405A (zh) | 2020-03-06 |
Family
ID=69653981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911113011.XA Withdrawn CN110866405A (zh) | 2019-11-14 | 2019-11-14 | 一种基于语句信息的方面级情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110866405A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062220A (zh) * | 2020-03-13 | 2020-04-24 | 成都晓多科技有限公司 | 一种基于记忆遗忘装置的端到端意图识别系统和方法 |
CN114781352A (zh) * | 2022-04-07 | 2022-07-22 | 重庆邮电大学 | 一种基于语法依赖类型和方面间关联的情感分析方法 |
CN116561323A (zh) * | 2023-06-30 | 2023-08-08 | 西安邮电大学 | 一种基于方面词嵌入图卷积网络的情感分析方法 |
US11966702B1 (en) * | 2020-08-17 | 2024-04-23 | Alphavu, Llc | System and method for sentiment and misinformation analysis of digital conversations |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718543A (zh) * | 2016-01-18 | 2016-06-29 | 腾讯科技(深圳)有限公司 | 语句的展示方法和装置 |
CN109086357A (zh) * | 2018-07-18 | 2018-12-25 | 深圳大学 | 基于变分自动编码器的情感分类方法、装置、设备及介质 |
CN109472031A (zh) * | 2018-11-09 | 2019-03-15 | 电子科技大学 | 一种基于双记忆注意力的方面级别情感分类模型及方法 |
CN109597997A (zh) * | 2018-12-07 | 2019-04-09 | 上海宏原信息科技有限公司 | 基于评论实体、方面级情感分类方法和装置及其模型训练 |
CN110287323A (zh) * | 2019-06-27 | 2019-09-27 | 成都冰鉴信息科技有限公司 | 一种面向目标的情感分类方法 |
-
2019
- 2019-11-14 CN CN201911113011.XA patent/CN110866405A/zh not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718543A (zh) * | 2016-01-18 | 2016-06-29 | 腾讯科技(深圳)有限公司 | 语句的展示方法和装置 |
CN109086357A (zh) * | 2018-07-18 | 2018-12-25 | 深圳大学 | 基于变分自动编码器的情感分类方法、装置、设备及介质 |
CN109472031A (zh) * | 2018-11-09 | 2019-03-15 | 电子科技大学 | 一种基于双记忆注意力的方面级别情感分类模型及方法 |
CN109597997A (zh) * | 2018-12-07 | 2019-04-09 | 上海宏原信息科技有限公司 | 基于评论实体、方面级情感分类方法和装置及其模型训练 |
CN110287323A (zh) * | 2019-06-27 | 2019-09-27 | 成都冰鉴信息科技有限公司 | 一种面向目标的情感分类方法 |
Non-Patent Citations (1)
Title |
---|
QIAO LIU 等: "Content Attention Model for Aspect Based Sentiment Analysis", 《THE 2018 WORLD WIDE WEB CONFERENCE》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062220A (zh) * | 2020-03-13 | 2020-04-24 | 成都晓多科技有限公司 | 一种基于记忆遗忘装置的端到端意图识别系统和方法 |
CN111062220B (zh) * | 2020-03-13 | 2020-06-16 | 成都晓多科技有限公司 | 一种基于记忆遗忘装置的端到端意图识别系统和方法 |
US11966702B1 (en) * | 2020-08-17 | 2024-04-23 | Alphavu, Llc | System and method for sentiment and misinformation analysis of digital conversations |
CN114781352A (zh) * | 2022-04-07 | 2022-07-22 | 重庆邮电大学 | 一种基于语法依赖类型和方面间关联的情感分析方法 |
CN116561323A (zh) * | 2023-06-30 | 2023-08-08 | 西安邮电大学 | 一种基于方面词嵌入图卷积网络的情感分析方法 |
CN116561323B (zh) * | 2023-06-30 | 2023-09-19 | 西安邮电大学 | 一种基于方面词嵌入图卷积网络的情感分析方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110866405A (zh) | 一种基于语句信息的方面级情感分类方法 | |
Pichotta et al. | Using sentence-level LSTM language models for script inference | |
Granroth-Wilding et al. | What happens next? event prediction using a compositional neural network model | |
Wang et al. | Chat more: Deepening and widening the chatting topic via a deep model | |
CN109117483B (zh) | 神经网络机器翻译模型的训练方法及装置 | |
US20180329884A1 (en) | Neural contextual conversation learning | |
CN110879940B (zh) | 一种基于深度神经网络的机器翻译方法及系统 | |
CN109359294B (zh) | 一种基于神经机器翻译的古汉语翻译方法 | |
CN109614471B (zh) | 一种基于生成式对抗网络的开放式问题自动生成方法 | |
CN111460132B (zh) | 一种基于图卷积神经网络的生成式会议摘要方法 | |
CN109308353B (zh) | 词嵌入模型的训练方法及装置 | |
CN108363743A (zh) | 一种智能问题生成方法、装置和计算机可读存储介质 | |
CN109190126B (zh) | 词嵌入模型的训练方法及装置 | |
CN112232087B (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN107679225B (zh) | 一种基于关键词的回复生成方法 | |
CN109783825B (zh) | 一种基于神经网络的古文翻译方法 | |
CN109145304B (zh) | 一种基于字的中文观点要素情感分析方法 | |
CN110046353B (zh) | 一种基于多语言层次机制的方面级情感分析方法 | |
CN109271636B (zh) | 词嵌入模型的训练方法及装置 | |
CN113255366B (zh) | 一种基于异构图神经网络的方面级文本情感分析方法 | |
CN111353040A (zh) | 基于gru的属性级别情感分析方法 | |
CN111046157B (zh) | 一种基于平衡分布的通用英文人机对话生成方法和系统 | |
Greenstein et al. | Japanese-to-english machine translation using recurrent neural networks | |
CN110457714A (zh) | 一种基于时序主题模型的自然语言生成方法 | |
CN111949762A (zh) | 基于上下文情感对话的方法和系统、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200306 |
|
WW01 | Invention patent application withdrawn after publication |