CN108460009B - 嵌入情感词典的注意力机制循环神经网络文本情感分析法 - Google Patents

嵌入情感词典的注意力机制循环神经网络文本情感分析法 Download PDF

Info

Publication number
CN108460009B
CN108460009B CN201711340972.5A CN201711340972A CN108460009B CN 108460009 B CN108460009 B CN 108460009B CN 201711340972 A CN201711340972 A CN 201711340972A CN 108460009 B CN108460009 B CN 108460009B
Authority
CN
China
Prior art keywords
emotion
word
words
corpus
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711340972.5A
Other languages
English (en)
Other versions
CN108460009A (zh
Inventor
陆逸扉
杨伟伟
方梓丞
印鉴
潘文杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Guangzhou Zhongda Nansha Technology Innovation Industrial Park Co Ltd
Original Assignee
Sun Yat Sen University
Guangzhou Zhongda Nansha Technology Innovation Industrial Park Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University, Guangzhou Zhongda Nansha Technology Innovation Industrial Park Co Ltd filed Critical Sun Yat Sen University
Priority to CN201711340972.5A priority Critical patent/CN108460009B/zh
Publication of CN108460009A publication Critical patent/CN108460009A/zh
Application granted granted Critical
Publication of CN108460009B publication Critical patent/CN108460009B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3335Syntactic pre-processing, e.g. stopword elimination, stemming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种嵌入情感词典的注意力机制循环神经网络文本情感分析法。该发明主要根据获取的英文评论,对其情感极性进行标注。通过爬虫或其他软件获取需要的语料集,首先进行去除停用词的操作,接着采用word2vec算法对处理后的语料进行训练来得到相应的词向量。将训练集输入到基于注意力机制的循环神经网络(RNN/LSTM)结构中,在实现注意力权重训练的过程中,将词语的情感极性程度嵌入进去,使模型的关注点更接近于人类的理解,最终提高了文本情感分析的准确度。

Description

嵌入情感词典的注意力机制循环神经网络文本情感分析法
技术领域
本发明涉及自然语言处理领域,更具体地,涉及一种嵌入情感词典的注意力机制循环神经网络文本情感分析法。
背景技术
伴随着网络科技的不断发展,互联网已逐渐演变为人们发表观点,交流感情的一个主要的平台。人们在网上分享、评论和表达对各种事物的意见和看法,例如对电影,商品等的评论,这些评论的数据已呈现出一种爆炸式增长的趋势,仅仅通过人工手段去筛选出人们对某个事物的积极评论还是消极评论,已成为一项不可能完成的任务,因此一个能自动分析文本情感倾向的工具应运而生。
文本情感分析(SentiWordNet)是对具有情感色彩的主观性文本进行分析、处理、归纳、和推理的过程,例如根据评论来分析用户对某个电影的“画面、音效、剧情、演员阵容”等属性的情感倾向。从不同立场、出发点、个人态度和喜好出发,人们对不同的对象和事件所表达的态度、意见和情感的倾向性是存在差异的。一般依据需要处理文本的长度的不同,文本情感分析分为词语级、短语级、句子级和篇章级等几个研究层次。按照情感粒度的大小不同,文本情感分析又分为细粒度和粗粒度。
发明内容
本发明提供一种嵌入情感词典的注意力机制循环神经网络文本情感分析法。
为了达到上述技术效果,本发明的技术方案如下:
一种嵌入情感词典的注意力机制循环神经网络文本情感分析法,包括以下步骤:
S1:首先获取英文文本语料,接着对语料进行情感分类标注,最后将语料分为训练和测试集两个集合;
S2:对步骤S1中的所有语料集进行停用词处理;
S3:使用word2vec算法对步骤S2中获取的语料进行训练得到相应的词向量;
S4:根据sentiwordnet获取预知的各词语的情感极性分布,并对句子中极性较大的词语分配较大的权重;
S5:将训练集语料放进具有注意力机制的循环神经网络中进行训练,在训练过程中使模型的注意力拟合步骤S4所获取的词语的权重;
S6:将步骤S2和步骤S3处理获取的测试集语料放入步骤S5中,最终获取测试集的情感分类结果。
进一步地,所述步骤S1的具体过程是:
先通过爬虫或其它手段获取具有情感极性的英文文本语料;接着对文本语料进行情感分类标注,文本标注分为积极,中性,消极三种;最后将标注好的文本语料以8:2的比例划分为训练集和测试集两个集合。
进一步地,所述步骤S2的具体过程是:
对获取的英文语料做去停用词的处理,去除句子中“the”,“this”,“a”,“an”等不表达情感的词语。
进一步地,所述步骤S3的具体过程如下:
使用python中的gensim库,对步骤S2得到的语料进行训练,通过训练获取语料库中每个词语对应的词向量。
进一步地,所述步骤S4的具体过程如下:
S41:根据情感词典sentiwordnet获取训练语料中各词语对应的客观值,若某词语在词典中有多个客观值,则取其平均值;若某词语在词典中不存在客观值,则设置其客观值为1;
S42:根据每句中各词语的客观值,判断该词在情感分析过程中的重要程度。具体的确定过程如下:用1减去各词的客观值来获取各词的偏激值,接着使用
Figure BDA0001508361720000021
计算各词的重要程度。举例如下:假设某句子的词语数量为n,句中词语的偏激值分别为k1,k2,……,kn,则第i个词语对应的重要程度Swi的计算公式为
Figure BDA0001508361720000022
进一步地,所述步骤S5的具体过程如下:
S51:根据步骤S3获取的词向量,按照句子中词语的顺序作为不同时间步的输入,使用基于注意力机制的循环神经网络(Attention Based LSTM)训练情感分析模型,Attention Based LSTM网络具体实现公式如下:
Figure BDA0001508361720000031
ft=σ(Wf·X+bf)
it=σ(Wi·X+bi)
ot=σ(Wo·X+bo)
ct=ft⊙ct-1+it⊙tanh(Wc·X+bc)
ht=ot⊙tanh(ct)
M=tanh(H)
α=softmax(wTM)
r=HαT
其中,σ为sigmoid激活函数,操作符⊙为乘积操作,ft,it、ot分别为遗忘门,输入门和输出门,ct表示记忆单元,α代表注意力的权重,Wf,bf,Wi,bi,bi,bo,Wc,bc,w是模型训练过程中需要学习的参数。
最终的文本特征向量表示如下:
h*=tanh(Wpr+WxhN)
其中Wp和Wx是需要学习的参数。
S52:对训练获取文本的特征向量做softmax分类得到最终预测结果,此处模型优化的目标不仅在于使预测结果与真实情感标签更接近,还要使步骤
S51)中获取的注意力权重与步骤S42)中获取的权重接近,损失函数具体如下:
Figure BDA0001508361720000032
其中,i为训练集中句子的索引,j为不同分类的索引,y为文本中情感标签的真实分布,
Figure BDA0001508361720000033
为模型预测的标签分布,α和β属于超参,为惩罚系数,最后一项表示对参数进行L2正则化惩罚,distance表示注意力权重与步骤S42中获取的权重间的距离,具体计算公式如下:
Figure BDA0001508361720000034
Figure BDA0001508361720000035
其中L是当前句子的长度,δ是超参。
S53:对每个minibatch中的语料计算损失函数,并通过反向传播来优化网络内的参数。经过多轮迭代后,当准确率趋于稳定时,完成模型训练。
进一步地,所述步骤S6的具体过程如下:
将通过步骤S2和步骤S3处理后的测试集语料放入步骤S5中来获取情感分类结果,需要注意的是,此处不需要借助情感词典来判断其重要程度,而是将测试集放入之前训练好的模型中去自动分析测试集语料中需要重点关注的情感词。与现有技术相比,本发明技术方案的有益效果如下:
本发明使用情感词典获取的每个词语的情感极性程度,对应于词语蕴含的情感信息,并对蕴含情感信息越多的词语赋予更大的权重,在基于注意力机制的循环神经网络的训练过程中,使模型的注意力拟合词语的权重。接着依据注意力机制将词语的情感极性程度嵌入到循环神经网络中,达到模型的关注点更接近于人类的理解的目的,最终提高了文本情感分析的准确度。
附图说明
图1为本发明流程示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种嵌入情感词典的注意力机制循环神经网络文本情感分析法,包括以下步骤:
S1:首先获取英文文本语料,接着对语料进行情感分类标注,最后将语料分为训练和测试集两个集合;
S2:对步骤S1中的所有语料集进行停用词处理;
S3:使用word2vec算法对步骤S2中获取的语料进行训练得到相应的词向量;
S4:根据sentiwordnet获取预知的各词语的情感极性分布,并对句子中极性较大的词语分配较大的权重;
S5:将训练集语料放进具有注意力机制的循环神经网络中进行训练,在训练过程中使模型的注意力拟合步骤S4所获取的词语的权重;
S6:将步骤S2和步骤S3处理获取的测试集语料放入步骤S5中,最终获取测试集的情感分类结果。
进一步地,所述步骤S1的具体过程是:
先通过爬虫或其它手段获取具有情感极性的英文文本语料;接着对文本语料进行情感分类标注,文本标注分为积极,中性,消极三种;最后将标注好的文本语料以8:2的比例划分为训练集和测试集两个集合。
进一步地,所述步骤S2的具体过程是:
对获取的英文语料做去停用词的处理,去除句子中“the”,“this”,“a”,“an”等不表达情感的词语。
进一步地,所述步骤S3的具体过程如下:
使用python中的gensim库,对步骤S2得到的语料进行训练,通过训练获取语料库中每个词语对应的词向量。
进一步地,所述步骤S4的具体过程如下:
S41:根据情感词典sentiwordnet获取训练语料中各词语对应的客观值,若某词语在词典中有多个客观值,则取其平均值;若某词语在词典中不存在客观值,则设置其客观值为1;
S42:根据每句中各词语的客观值,判断该词在情感分析过程中的重要程度。具体的确定过程如下:用1减去各词的客观值来获取各词的偏激值,接着使用
Figure BDA0001508361720000051
计算各词的重要程度。举例如下:假设某句子的词语数量为n,句中词语的偏激值分别为k1,k2,……,kn,则第i个词语对应的重要程度Swi的计算公式为
Figure BDA0001508361720000052
进一步地,所述步骤S5的具体过程如下:
S51:根据步骤S3获取的词向量,按照句子中词语的顺序作为不同时间步的输入,使用基于注意力机制的循环神经网络(Attention Based LSTM)训练情感分析模型,Attention Based LSTM网络具体实现公式如下:
Figure BDA0001508361720000061
ft=σ(Wf·X+bf)
it=σ(Wi·X+bi)
ot=σ(Wo·X+bo)
ct=ft⊙ct-1+it⊙tanh(Wc·X+bc)
ht=ot⊙tanh(ct)
M=tanh(H)
α=softmax(wTM)
r=HαT
其中,σ为sigmoid激活函数,操作符⊙为乘积操作,ft,it、ot分别为遗忘门,输入门和输出门,ct表示记忆单元,α代表注意力的权重,Wf,bf,Wi,bi,bi,bo,Wc,bc,w是模型训练过程中需要学习的参数。
最终的文本特征向量表示如下:
h*=tanh(Wpr+WxhN)
其中Wp和Wx是需要学习的参数。
S52:对训练获取文本的特征向量做softmax分类得到最终预测结果,此处模型优化的目标不仅在于使预测结果与真实情感标签更接近,还要使步骤
S51)中获取的注意力权重与步骤S42)中获取的权重接近。损失函数具体如下:
Figure BDA0001508361720000062
其中,i为训练集中句子的索引,j为不同分类的索引,y为文本中情感标签的真实分布,
Figure BDA0001508361720000063
为模型预测的标签分布,α和β属于超参,为惩罚系数,最后一项表示对参数进行L2正则化惩罚,distance表示注意力权重与步骤S42中获取的权重间的距离,具体计算公式如下:
Figure BDA0001508361720000064
Figure BDA0001508361720000065
其中L是当前句子的长度,δ是超参。
S53:对每个minibatch中的语料计算损失函数,并通过反向传播来优化网络内的参数。经过多轮迭代后,当准确率趋于稳定时,完成模型训练。
进一步地,所述步骤S6的具体过程如下:
将通过步骤S2和步骤S3处理后的测试集语料放入步骤S5中来获取情感分类结果,需要注意的是,此处不需要借助情感词典来判断其重要程度,而是将测试集放入之前训练好的模型中去自动分析测试集语料中需要重点关注的情感词。
首先,通过爬虫从网上获取相关的语料集,例如,可以从IMDB上获取到关于某部电影的评论,并为其评论打上积极或消极的标签,并将获取的预料集以8:2分为训练集和测试集。然后对语料集进行停用词去除的处理,把“the”,“this”,“a”,“an”等不表达情感的词语删除。接着针对去除停用词处理的语料,使用word2vec模型,训练出语料集中各词语对应的词向量。接下来在情感词典sentiwordnet中,找出各词语对应的客观值。用1减去获取的各个词的客观值,则是各词对应的偏激值。紧接着进行softmax变换,实现对句子中各词的分类。举例如下:句子“i hate this movie”,首先在情感词典中进行查询,“i”、“hate”、和“movie”的平均客观值分别为0.9375、0.375和1,由于“this”在情感词典中不存在,则客观值为1,那么这四个词的偏激值分别为0.0625,0.625,0,0。然后进行softmax变换,则这四个词的重要程度分别变成了0.21580184、0.37874402、0.20272707和0.20272707。需要注意的是,为了使模型学会如何捕捉重要词语的能力,对模型进行训练和测试的时候是有区别的。在对模型进行训练时,需要计算加入经过训练获取的注意力粉盒与根据情感词典获取的重要程度的两个分部之间的huber距离,通过对损失函数的优化,进行多次的迭代后,当训练集准确度趋于稳定时,保存模型的各参数,此时模型具有自动捕捉重要情感词的能力。在对模型进行测试时,不需要再借助情感词典来判断测试集的情感取向,只需要将句子中各词的词向量按照顺序放入训练好的模型中来获取该句子的情感取向。
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (5)

1.一种嵌入情感词典的注意力机制循环神经网络的文本情感分析方法,其特征在于,包括以下步骤:
S1:获取英文文本语料,接着对语料进行情感分类标注,将语料分为训练和测试集两个集合;
S2:对步骤S1中的所有语料集进行停用词处理;
S3:使用word2vec算法对步骤S2中获取的语料进行训练得到相应的词向量;
S4:根据sentiwordnet获取预 置 的各词语的情感极性分布,并对句子中极性大的词语分配大的权重;
S5:将训练集语料放进具有注意力机制的循环神经网络中进行训练,在训练过程中使模型的注意力拟合步骤S4所获取的词语的权重;
S6:将步骤S2和步骤S3处理获取的测试集语料放入步骤S5)中,最终获取测试集的情感分类结果;
所述步骤S4的具体过程如下:
S41:根据情感词典sentiwordnet获取训练语料中各词语对应的客观值,若某词语在词典中有多个客观值,则取其平均值;若某词语在词典中不存在客观值,则设置其客观值为1;
S42:根据每句中各词语的客观值,判断该词在情感分析过程中的重要程度:具体的确定过程如下:用1减去各词的客观值来获取各词的偏激值,接着使用
Figure FDA0003716497500000011
计算各词的重要程度,某一句子的词语数量为n,句中词语的偏激值分别为k1,k2,……,kn,则第i个词语对应的重要程度Swi的计算公式为
Figure FDA0003716497500000012
所述步骤S5的具体过程如下:
S51:根据步骤S3获取的词向量,按照句子中词语的顺序作为不同时间步的输入,使用基于注意力机制的循环神经网络训练情感分析模型,其具体实现公式如下:
Figure FDA0003716497500000013
ft=σ(Wf·X+bf)
it=σ(Wi·X+bi)
ot=σ(Wo·X+bo)
ct=ft⊙ct-1+it⊙tanh(Wc·X+bc)
ht=ot⊙tanh(ct)
M=tanh(H)
α=softmax(wTM)
r=Hα T
其中,σ为sigmoid激活函数,操作符⊙为乘积操作,ft,it、ot分别为遗忘门,输入门和输出门,ct表示记忆单元,α代表注意力的权重,Wf,bf,Wi,bi,bo,Wc,bc,w是模型训练过程中需要学习的参数;
最终的文本特征向量表示如下:
h*=tanh(Wpr+WxhN)
其中Wp和Wx是需要学习的参数;
S52:对训练获取文本的特征向量做softmax分类得到最终预测结果,此处模型优化的目标不仅在于使预测结果与真实情感标签更一致,还要使步骤S51中获取的注意力权重与步骤S42中获取的权重一致,损失函数具体如下:
Figure FDA0003716497500000021
其中,i为训练集中句子的索引,j为不同分类的索引,y为文本中情感标签的真实分布,
Figure FDA0003716497500000022
为模型预测的标签分布,α和β属于超参,为惩罚系数,最后一项表示对参数进行L2正则化惩罚,distance表示注意力权重与步骤S42中获取的权重间的距离,具体计算公式如下:
Figure FDA0003716497500000023
Figure FDA0003716497500000024
其中L是当前句子的长度,δ是超参;
S53:对每个minibatch中的语料计算损失函数,并通过反向传播来优化网络内的参数,经过多轮迭代后,当准确率趋于稳定时,完成模型训练。
2.根据权利要求1所述 的嵌入情感词典的注意力机制循环神经网络文本情感分析方法,其特征在于,所述步骤S1的具体过程是:
先通过爬虫或其它软件获取具有情感极性的英文文本语料;接着对文本语料进行情感分类标注,文本标注分为积极,中性,消极三种;最后将标注好的文本语料以8:2的比例划分为训练集和测试集两个集合。
3.根据权利要求2所述的嵌入情感词典的注意力机制循环神经网络文本情感分析方法,其特征在于,所述步骤S2的具体过程是:
对获取的英文语料做去停用词的处理,去除句子中“the”,“this”,“a”,“an”等不表达情感的词语。
4.根据权利要求3所述的嵌入情感词典的注意力机制循环神经网络文本情感分析方法,其特征在于,所述步骤S3的具体过程如下:
使用python中的gensim库,对步骤S2得到的语料进行训练,通过训练获取语料库中每个词语对应的词向量。
5.根据权利要求4所述的嵌入情感词典的注意力机制循环神经网络文本情感分析方法,其特征在于,所述步骤S6的具体过程如下:
将通过步骤S2和步骤S3处理后的测试集语料放入步骤S5中来获取情感分类结果,需要注意的是,此处不需要借助情感词典来判断其重要程度,而是将测试集放入之前训练好的模型中去自动分析测试集语料中需要重点关注的情感词。
CN201711340972.5A 2017-12-14 2017-12-14 嵌入情感词典的注意力机制循环神经网络文本情感分析法 Active CN108460009B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711340972.5A CN108460009B (zh) 2017-12-14 2017-12-14 嵌入情感词典的注意力机制循环神经网络文本情感分析法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711340972.5A CN108460009B (zh) 2017-12-14 2017-12-14 嵌入情感词典的注意力机制循环神经网络文本情感分析法

Publications (2)

Publication Number Publication Date
CN108460009A CN108460009A (zh) 2018-08-28
CN108460009B true CN108460009B (zh) 2022-09-16

Family

ID=63221124

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711340972.5A Active CN108460009B (zh) 2017-12-14 2017-12-14 嵌入情感词典的注意力机制循环神经网络文本情感分析法

Country Status (1)

Country Link
CN (1) CN108460009B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145304B (zh) * 2018-09-07 2022-09-06 中山大学 一种基于字的中文观点要素情感分析方法
CN109670169B (zh) * 2018-11-16 2020-12-04 中山大学 一种基于特征提取的深度学习情感分类方法
CN109543039B (zh) * 2018-11-23 2022-04-08 中山大学 一种基于深度网络的自然语言情感分析方法
CN109902174B (zh) * 2019-02-18 2023-06-20 山东科技大学 一种基于方面依赖的记忆网络的情感极性检测方法
CN109858034B (zh) * 2019-02-25 2023-02-03 武汉大学 一种基于注意力模型和情感词典的文本情感分类方法
CN109933664B (zh) * 2019-03-12 2021-09-07 中南大学 一种基于情感词嵌入的细粒度情绪分析改进方法
CN110032736A (zh) * 2019-03-22 2019-07-19 深兰科技(上海)有限公司 一种文本分析方法、装置及存储介质
CN109992780B (zh) * 2019-03-29 2022-07-01 哈尔滨理工大学 一种基于深度神经网络特定目标情感分类方法
CN109992668B (zh) * 2019-04-04 2023-02-21 上海冰鉴信息科技有限公司 一种基于自注意力的企业舆情分析方法和装置
CN110263321B (zh) * 2019-05-06 2023-06-09 成都数联铭品科技有限公司 一种情感词典构建方法及系统
CN110362819B (zh) * 2019-06-14 2023-03-31 中电万维信息技术有限责任公司 基于卷积神经网络的文本情感分析方法
CN112216307B (zh) * 2019-07-12 2023-05-16 华为技术有限公司 语音情感识别方法以及装置
CN111078881B (zh) * 2019-12-09 2023-04-07 携程计算机技术(上海)有限公司 细粒度情感分析方法、系统、电子设备和存储介质
CN111222344B (zh) * 2020-01-03 2023-07-18 支付宝(杭州)信息技术有限公司 训练神经网络的方法、装置及电子设备
CN111522913A (zh) * 2020-04-16 2020-08-11 山东贝赛信息科技有限公司 一种适用于长文本和短文本的情感分类方法
CN113688202B (zh) * 2021-07-30 2024-03-15 杭州网易云音乐科技有限公司 情感极性分析方法、装置、电子设备以及计算机存储介质
CN113688236A (zh) * 2021-08-03 2021-11-23 东北大学秦皇岛分校 基于微博评论构建公民接种新冠疫苗的情感分类方法
US20230342553A1 (en) * 2022-04-22 2023-10-26 Lemon Inc. Attribute and rating co-extraction
CN116522932B (zh) * 2023-06-26 2023-09-19 云目未来科技(湖南)有限公司 一种文本分析方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541838A (zh) * 2010-12-24 2012-07-04 日电(中国)有限公司 用于优化情感分类器的方法和设备
CN107038480A (zh) * 2017-05-12 2017-08-11 东华大学 一种基于卷积神经网络的文本情感分类方法
CN107092596A (zh) * 2017-04-24 2017-08-25 重庆邮电大学 基于attention CNNs和CCR的文本情感分析方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120179751A1 (en) * 2011-01-06 2012-07-12 International Business Machines Corporation Computer system and method for sentiment-based recommendations of discussion topics in social media

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541838A (zh) * 2010-12-24 2012-07-04 日电(中国)有限公司 用于优化情感分类器的方法和设备
CN107092596A (zh) * 2017-04-24 2017-08-25 重庆邮电大学 基于attention CNNs和CCR的文本情感分析方法
CN107038480A (zh) * 2017-05-12 2017-08-11 东华大学 一种基于卷积神经网络的文本情感分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
sentiwordnet的简单使用;weixin_30852451;《CSDN》;20140319;第1-2页 *
基于知识元和集成学习的中文微博情感分析;刘政;《中国优秀硕士学位论文全文数据库》;20160315;I138-7906 *

Also Published As

Publication number Publication date
CN108460009A (zh) 2018-08-28

Similar Documents

Publication Publication Date Title
CN108460009B (zh) 嵌入情感词典的注意力机制循环神经网络文本情感分析法
Xu et al. A social emotion classification approach using multi-model fusion
Wen et al. Dynamic interactive multiview memory network for emotion recognition in conversation
CN110222178A (zh) 文本情感分类方法、装置、电子设备及可读存储介质
Alam et al. Sentiment analysis for Bangla sentences using convolutional neural network
Anand et al. Deep learning and natural language processing in computation for offensive language detection in online social networks by feature selection and ensemble classification techniques
Yoshihara et al. Leveraging temporal properties of news events for stock market prediction.
CN109271636B (zh) 词嵌入模型的训练方法及装置
Konstantinov et al. Approach to the use of language models BERT and Word2vec in sentiment analysis of social network texts
Zouzou et al. Text sentiment analysis with CNN & GRU model using GloVe
Tseng et al. Couples Behavior Modeling and Annotation Using Low-Resource LSTM Language Models.
Ortiz-Bejar et al. INGEOTEC at IberEval 2018 Task HaHa: µTC and EvoMSA to detect and score humor in texts
Pascual et al. Prosodic break prediction with RNNs
Mukhlash et al. Opinion mining on book review using convolutional neural network algorithm long short term memory
Solovyev et al. Generation of a dictionary of abstract/concrete words by a multilayer neural network
Pathuri et al. Feature based sentimental analysis for prediction of mobile reviews using hybrid bag-boost algorithm
CN112200674A (zh) 一种证券市场情绪指数智能计算信息系统
Ermatita et al. Sentiment Analysis of COVID-19 using Multimodal Fusion Neural Networks.
Litvinov Research of neural network methods of text information classification
CN114757310B (zh) 情感识别模型及其训练方法、装置、设备及可读存储介质
Wakchaure et al. A scheme of answer selection in community question answering using machine learning techniques
CN115906824A (zh) 一种文本细粒度情感分析方法、系统、介质和计算设备
Jiang et al. Network public comments sentiment analysis based on multilayer convolutional neural network
Vukojičić et al. Optimization of Multimodal Trait Prediction Using Particle Swarm Optimization
Basarslan et al. Sentiment analysis with various deep learning models on movie reviews

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant