CN108460009A - 嵌入情感词典的注意力机制循环神经网络文本情感分析法 - Google Patents

嵌入情感词典的注意力机制循环神经网络文本情感分析法 Download PDF

Info

Publication number
CN108460009A
CN108460009A CN201711340972.5A CN201711340972A CN108460009A CN 108460009 A CN108460009 A CN 108460009A CN 201711340972 A CN201711340972 A CN 201711340972A CN 108460009 A CN108460009 A CN 108460009A
Authority
CN
China
Prior art keywords
word
neural network
recurrent neural
language material
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711340972.5A
Other languages
English (en)
Other versions
CN108460009B (zh
Inventor
陆逸扉
杨伟伟
方梓丞
印鉴
潘文杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Guangzhou Zhongda Nansha Technology Innovation Industrial Park Co Ltd
Original Assignee
Sun Yat Sen University
Guangzhou Zhongda Nansha Technology Innovation Industrial Park Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University, Guangzhou Zhongda Nansha Technology Innovation Industrial Park Co Ltd filed Critical Sun Yat Sen University
Priority to CN201711340972.5A priority Critical patent/CN108460009B/zh
Publication of CN108460009A publication Critical patent/CN108460009A/zh
Application granted granted Critical
Publication of CN108460009B publication Critical patent/CN108460009B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3335Syntactic pre-processing, e.g. stopword elimination, stemming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种嵌入情感词典的注意力机制循环神经网络文本情感分析法。该发明主要根据获取的英文评论,对其情感极性进行标注。通过爬虫或其他软件获取需要的语料集,首先进行去除停用词的操作,接着采用word2vec算法对处理后的语料进行训练来得到相应的词向量。将训练集输入到基于注意力机制的循环神经网络(RNN/LSTM)结构中,在实现注意力权重训练的过程中,将词语的情感极性程度嵌入进去,使模型的关注点更接近于人类的理解,最终提高了文本情感分析的准确度。

Description

嵌入情感词典的注意力机制循环神经网络文本情感分析法
技术领域
本发明涉及自然语言处理领域,更具体地,涉及一种嵌入情感词典的注意力机制循环神经网络文本情感分析法。
背景技术
伴随着网络科技的不断发展,互联网已逐渐演变为人们发表观点,交流感情的一个主要的平台。人们在网上分享、评论和表达对各种事物的意见和看法,例如对电影,商品等的评论,这些评论的数据已呈现出一种爆炸式增长的趋势,仅仅通过人工手段去筛选出人们对某个事物的积极评论还是消极评论,已成为一项不可能完成的任务,因此一个能自动分析文本情感倾向的工具应运而生。
文本情感分析(SentiWordNet)是对具有情感色彩的主观性文本进行分析、处理、归纳、和推理的过程,例如根据评论来分析用户对某个电影的“画面、音效、剧情、演员阵容”等属性的情感倾向。从不同立场、出发点、个人态度和喜好出发,人们对不同的对象和事件所表达的态度、意见和情感的倾向性是存在差异的。一般依据需要处理文本的长度的不同,文本情感分析分为词语级、短语级、句子级和篇章级等几个研究层次。按照情感粒度的大小不同,文本情感分析又分为细粒度和粗粒度。
发明内容
本发明提供一种嵌入情感词典的注意力机制循环神经网络文本情感分析法。
为了达到上述技术效果,本发明的技术方案如下:
一种嵌入情感词典的注意力机制循环神经网络文本情感分析法,包括以下步骤:
S1:首先获取英文文本语料,接着对语料进行情感分类标注,最后将语料分为训练和测试集两个集合;
S2:对步骤S1中的所有语料集进行停用词处理;
S3:使用word2vec算法对步骤S2中获取的语料进行训练得到相应的词向量;
S4:根据sentiwordnet获取预知的各词语的情感极性分布,并对句子中极性较大的词语分配较大的权重;
S5:将训练集语料放进具有注意力机制的循环神经网络中进行训练,在训练过程中使模型的注意力拟合步骤S4所获取的词语的权重;
S6:将步骤S2和步骤S3处理获取的测试集语料放入步骤S5中,最终获取测试集的情感分类结果。
进一步地,所述步骤S1的具体过程是:
先通过爬虫或其它手段获取具有情感极性的英文文本语料;接着对文本语料进行情感分类标注,文本标注分为积极,中性,消极三种;最后将标注好的文本语料以8:2的比例划分为训练集和测试集两个集合。
进一步地,所述步骤S2的具体过程是:
对获取的英文语料做去停用词的处理,去除句子中“the”,“this”,“a”,“an”等不表达情感的词语。
进一步地,所述步骤S3的具体过程如下:
使用python中的gensim库,对步骤S2得到的语料进行训练,通过训练获取语料库中每个词语对应的词向量。
进一步地,所述步骤S4的具体过程如下:
S41:根据情感词典sentiwordnet获取训练语料中各词语对应的客观值,若某词语在词典中有多个客观值,则取其平均值;若某词语在词典中不存在客观值,则设置其客观值为1;
S42:根据每句中各词语的客观值,判断该词在情感分析过程中的重要程度。具体的确定过程如下:用1减去各词的客观值来获取各词的偏激值,接着使用计算各词的重要程度。举例如下:假设某句子的词语数量为n,句中词语的偏激值分别为k1,k2,……,kn,则第i个词语对应的重要程度Swi的计算公式为
进一步地,所述步骤S5的具体过程如下:
S51:根据步骤S3获取的词向量,按照句子中词语的顺序作为不同时间步的输入,使用基于注意力机制的循环神经网络(Attention Based LSTM)训练情感分析模型,Attention Based LSTM网络具体实现公式如下:
ft=σ(Wf·X+bf)
it=σ(Wi·X+bi)
ot=σ(Wo·X+bo)
ct=ft⊙ct-1+it⊙tanh(Wc·X+bc)
ht=ot⊙tanh(ct)
M=tanh(H)
α=softmax(wTM)
r=HαT
其中,σ为sigmoid激活函数,操作符⊙为乘积操作,ft,it、ot分别为遗忘门,输入门和输出门,ct表示记忆单元,α代表注意力的权重,Wf,bf,Wi,bi,bi,bo,Wc,bc,w是模型训练过程中需要学习的参数。
最终的文本特征向量表示如下:
h*=tanh(Wpr+WxhN)
其中Wp和Wx是需要学习的参数。
S52:对训练获取文本的特征向量做softmax分类得到最终预测结果,此处模型优化的目标不仅在于使预测结果与真实情感标签更接近,还要使步骤
S51)中获取的注意力权重与步骤S42)中获取的权重接近,损失函数具体如下:
其中,i为训练集中句子的索引,j为不同分类的索引,y为文本中情感标签的真实分布,为模型预测的标签分布,α和β属于超参,为惩罚系数,最后一项表示对参数进行L2正则化惩罚,distance表示注意力权重与步骤S42中获取的权重间的距离,具体计算公式如下:
其中L是当前句子的长度,δ是超参。
S53:对每个minibatch中的语料计算损失函数,并通过反向传播来优化网络内的参数。经过多轮迭代后,当准确率趋于稳定时,完成模型训练。
进一步地,所述步骤S6的具体过程如下:
将通过步骤S2和步骤S3处理后的测试集语料放入步骤S5中来获取情感分类结果,需要注意的是,此处不需要借助情感词典来判断其重要程度,而是将测试集放入之前训练好的模型中去自动分析测试集语料中需要重点关注的情感词。与现有技术相比,本发明技术方案的有益效果如下:
本发明使用情感词典获取的每个词语的情感极性程度,对应于词语蕴含的情感信息,并对蕴含情感信息越多的词语赋予更大的权重,在基于注意力机制的循环神经网络的训练过程中,使模型的注意力拟合词语的权重。接着依据注意力机制将词语的情感极性程度嵌入到循环神经网络中,达到模型的关注点更接近于人类的理解的目的,最终提高了文本情感分析的准确度。
附图说明
图1为本发明流程示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种嵌入情感词典的注意力机制循环神经网络文本情感分析法,包括以下步骤:
S1:首先获取英文文本语料,接着对语料进行情感分类标注,最后将语料分为训练和测试集两个集合;
S2:对步骤S1中的所有语料集进行停用词处理;
S3:使用word2vec算法对步骤S2中获取的语料进行训练得到相应的词向量;
S4:根据sentiwordnet获取预知的各词语的情感极性分布,并对句子中极性较大的词语分配较大的权重;
S5:将训练集语料放进具有注意力机制的循环神经网络中进行训练,在训练过程中使模型的注意力拟合步骤S4所获取的词语的权重;
S6:将步骤S2和步骤S3处理获取的测试集语料放入步骤S5中,最终获取测试集的情感分类结果。
进一步地,所述步骤S1的具体过程是:
先通过爬虫或其它手段获取具有情感极性的英文文本语料;接着对文本语料进行情感分类标注,文本标注分为积极,中性,消极三种;最后将标注好的文本语料以8:2的比例划分为训练集和测试集两个集合。
进一步地,所述步骤S2的具体过程是:
对获取的英文语料做去停用词的处理,去除句子中“the”,“this”,“a”,“an”等不表达情感的词语。
进一步地,所述步骤S3的具体过程如下:
使用python中的gensim库,对步骤S2得到的语料进行训练,通过训练获取语料库中每个词语对应的词向量。
进一步地,所述步骤S4的具体过程如下:
S41:根据情感词典sentiwordnet获取训练语料中各词语对应的客观值,若某词语在词典中有多个客观值,则取其平均值;若某词语在词典中不存在客观值,则设置其客观值为1;
S42:根据每句中各词语的客观值,判断该词在情感分析过程中的重要程度。具体的确定过程如下:用1减去各词的客观值来获取各词的偏激值,接着使用计算各词的重要程度。举例如下:假设某句子的词语数量为n,句中词语的偏激值分别为k1,k2,……,kn,则第i个词语对应的重要程度Swi的计算公式为
进一步地,所述步骤S5的具体过程如下:
S51:根据步骤S3获取的词向量,按照句子中词语的顺序作为不同时间步的输入,使用基于注意力机制的循环神经网络(Attention Based LSTM)训练情感分析模型,Attention Based LSTM网络具体实现公式如下:
ft=σ(Wf·X+bf)
it=σ(Wi·X+bi)
ot=σ(Wo·X+bo)
ct=ft⊙ct-1+it⊙tanh(Wc·X+bc)
ht=ot⊙tanh(ct)
M=tanh(H)
α=softmax(wTM)
r=HαT
其中,σ为sigmoid激活函数,操作符⊙为乘积操作,ft,it、ot分别为遗忘门,输入门和输出门,ct表示记忆单元,α代表注意力的权重,Wf,bf,Wi,bi,bi,bo,Wc,bc,w是模型训练过程中需要学习的参数。
最终的文本特征向量表示如下:
h*=tanh(Wpr+WxhN)
其中Wp和Wx是需要学习的参数。
S52:对训练获取文本的特征向量做softmax分类得到最终预测结果,此处模型优化的目标不仅在于使预测结果与真实情感标签更接近,还要使步骤
S51)中获取的注意力权重与步骤S42)中获取的权重接近。损失函数具体如下:
其中,i为训练集中句子的索引,j为不同分类的索引,y为文本中情感标签的真实分布,为模型预测的标签分布,α和β属于超参,为惩罚系数,最后一项表示对参数进行L2正则化惩罚,distance表示注意力权重与步骤S42中获取的权重间的距离,具体计算公式如下:
其中L是当前句子的长度,δ是超参。
S53:对每个minibatch中的语料计算损失函数,并通过反向传播来优化网络内的参数。经过多轮迭代后,当准确率趋于稳定时,完成模型训练。
进一步地,所述步骤S6的具体过程如下:
将通过步骤S2和步骤S3处理后的测试集语料放入步骤S5中来获取情感分类结果,需要注意的是,此处不需要借助情感词典来判断其重要程度,而是将测试集放入之前训练好的模型中去自动分析测试集语料中需要重点关注的情感词。
首先,通过爬虫从网上获取相关的语料集,例如,可以从IMDB上获取到关于某部电影的评论,并为其评论打上积极或消极的标签,并将获取的预料集以8:2分为训练集和测试集。然后对语料集进行停用词去除的处理,把“the”,“this”,“a”,“an”等不表达情感的词语删除。接着针对去除停用词处理的语料,使用word2vec模型,训练出语料集中各词语对应的词向量。接下来在情感词典sentiwordnet中,找出各词语对应的客观值。用1减去获取的各个词的客观值,则是各词对应的偏激值。紧接着进行softmax变换,实现对句子中各词的分类。举例如下:句子“i hate this movie”,首先在情感词典中进行查询,“i”、“hate”、和“movie”的平均客观值分别为0.9375、0.375和1,由于“this”在情感词典中不存在,则客观值为1,那么这四个词的偏激值分别为0.0625,0.625,0,0。然后进行softmax变换,则这四个词的重要程度分别变成了0.21580184、0.37874402、0.20272707和0.20272707。需要注意的是,为了使模型学会如何捕捉重要词语的能力,对模型进行训练和测试的时候是有区别的。在对模型进行训练时,需要计算加入经过训练获取的注意力粉盒与根据情感词典获取的重要程度的两个分部之间的huber距离,通过对损失函数的优化,进行多次的迭代后,当训练集准确度趋于稳定时,保存模型的各参数,此时模型具有自动捕捉重要情感词的能力。在对模型进行测试时,不需要再借助情感词典来判断测试集的情感取向,只需要将句子中各词的词向量按照顺序放入训练好的模型中来获取该句子的情感取向。
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (7)

1.一种嵌入情感词典的注意力机制循环神经网络文本情感分析法,其特征在于,包括以下步骤:
S1:获取英文文本语料,对语料进行情感分类标注,将语料分为训练和测试集两个集合;
S2:对步骤S1中的所有语料集合进行停用词处理;
S3:使用word2vec算法对步骤S2中处理的语料进行训练得到相应的词向量;
S4:根据sentiwordnet获取预知的各词语的情感极性分布,并对句子中极性较大的词语分配较大的权重;
S5:将训练集语料放进具有注意力机制的循环神经网络中进行训练,在训练过程中使模型的注意力拟合步骤S4所获取的词语的权重;
S6:将步骤S2和步骤S3处理获取的测试集语料放入步骤S5中,获取测试集的情感分类结果。
2.根据权利要求1叙述的嵌入情感词典的注意力机制循环神经网络文本情感分析法,其特征在于,所述步骤S1的具体过程是:
先获取具有情感极性的英文文本语料;接着对文本语料进行情感分类标注,文本标注分为积极,中性,消极三种;最后将标注好的文本语料以8:2的比例划分为训练集和测试集两个集合。
3.根据权利要求2所述的嵌入情感词典的注意力机制循环神经网络文本情感分析法,其特征在于,所述步骤S2的具体过程是:
对获取的英文语料做去停用词的处理,去除句子中“the”,“this”,“a”,“an”不表达情感的词语。
4.根据权利要求3所述的嵌入情感词典的注意力机制循环神经网络文本情感分析法,其特征在于,所述步骤S3的具体过程如下:
使用python中的gensim库,对步骤S2得到的语料进行训练,通过训练获取语料库中每个词语对应的词向量。
5.根据权利要求4所述的嵌入情感词典的注意力机制循环神经网络文本情感分析法,其特征在于,所述步骤S4的具体过程如下:
S41:根据情感词典sentiwordnet获取训练语料中各词语对应的客观值,若某词语在词典中有多个客观值,则取其平均值;若某词语在词典中不存在客观值,则设置其客观值为1;
S42:根据每句中各词语的客观值,判断该词在情感分析过程中的重要程度:具体的确定过程如下:用1减去各词的客观值来获取各词的偏激值,接着使用计算各词的重要程度,某一句子的词语数量为n,句中词语的偏激值分别为k1,k2,……,kn,则第i个词语对应的重要程度Swi的计算公式为
6.根据权利要求5所述的嵌入情感词典的注意力机制循环神经网络文本情感分析法,其特征在于,所述步骤S5的具体过程如下:
S51:根据步骤S3获取的词向量,按照句子中词语的顺序作为不同时间步的输入,使用基于注意力机制的循环神经网络训练情感分析模型,其具体实现公式如下:
ft=σ(Wf·X+bf)
it=σ(Wi·X+bi)
ot=σ(Wo·X+bo)
ct=ft⊙ct-1+it⊙tanh(Wc·X+bc)
ht=ot⊙tanh(ct)
M=tanh(H)
α=softmax(wTM)
r=HαT
其中,σ为sigmoid激活函数,操作符⊙为乘积操作,ft,it、ot分别为遗忘门,输入门和输出门,ct表示记忆单元,α代表注意力的权重,Wf,bf,Wi,bi,bi,bo,Wc,bc,w是模型训练过程中需要学习的参数;
最终的文本特征向量表示如下:
h*=tanh(Wpr+WxhN)
其中Wp和Wx是需要学习的参数;
S52:对训练获取文本的特征向量做softmax分类得到最终预测结果,此处模型优化的目标不仅在于使预测结果与真实情感标签更接近,还要使步骤S51中获取的注意力权重与步骤S42)中获取的权重接近,损失函数具体如下:
其中,i为训练集中句子的索引,j为不同分类的索引,y为文本中情感标签的真实分布,为模型预测的标签分布,α和β属于超参,为惩罚系数,最后一项表示对参数进行L2正则化惩罚,distance表示注意力权重与步骤S42中获取的权重间的距离,具体计算公式如下:
其中L是当前句子的长度,δ是超参。
S53:对每个minibatch中的语料计算损失函数,并通过反向传播来优化网络内的参数,经过多轮迭代后,当准确率趋于稳定时,完成模型训练。
7.根据权利要求6所述的嵌入情感词典的注意力机制循环神经网络文本情感分析法,其特征在于,所述步骤S6的具体过程如下:
将通过步骤S2和步骤S3处理后的测试集语料放入步骤S5中来获取情感分类结果,需要注意的是,此处不需要借助情感词典来判断其重要程度,而是将测试集放入之前训练好的模型中去自动分析测试集语料中需要重点关注的情感词。
CN201711340972.5A 2017-12-14 2017-12-14 嵌入情感词典的注意力机制循环神经网络文本情感分析法 Active CN108460009B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711340972.5A CN108460009B (zh) 2017-12-14 2017-12-14 嵌入情感词典的注意力机制循环神经网络文本情感分析法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711340972.5A CN108460009B (zh) 2017-12-14 2017-12-14 嵌入情感词典的注意力机制循环神经网络文本情感分析法

Publications (2)

Publication Number Publication Date
CN108460009A true CN108460009A (zh) 2018-08-28
CN108460009B CN108460009B (zh) 2022-09-16

Family

ID=63221124

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711340972.5A Active CN108460009B (zh) 2017-12-14 2017-12-14 嵌入情感词典的注意力机制循环神经网络文本情感分析法

Country Status (1)

Country Link
CN (1) CN108460009B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145304A (zh) * 2018-09-07 2019-01-04 中山大学 一种基于字的中文观点要素情感分析方法
CN109543039A (zh) * 2018-11-23 2019-03-29 中山大学 一种基于深度网络的自然语言情感分析方法
CN109670169A (zh) * 2018-11-16 2019-04-23 中山大学 一种基于特征提取的深度学习情感分类方法
CN109858034A (zh) * 2019-02-25 2019-06-07 武汉大学 一种基于注意力模型和情感词典的文本情感分类方法
CN109902174A (zh) * 2019-02-18 2019-06-18 山东科技大学 一种基于方面依赖的记忆网络的情感极性检测方法
CN109933664A (zh) * 2019-03-12 2019-06-25 中南大学 一种基于情感词嵌入的细粒度情绪分析改进方法
CN109992668A (zh) * 2019-04-04 2019-07-09 上海冰鉴信息科技有限公司 一种基于自注意力的企业舆情分析方法和装置
CN109992780A (zh) * 2019-03-29 2019-07-09 哈尔滨理工大学 一种基于深度神经网络特定目标情感分类方法
CN110032736A (zh) * 2019-03-22 2019-07-19 深兰科技(上海)有限公司 一种文本分析方法、装置及存储介质
CN110263321A (zh) * 2019-05-06 2019-09-20 成都数联铭品科技有限公司 一种情感词典构建方法及系统
CN110362819A (zh) * 2019-06-14 2019-10-22 中电万维信息技术有限责任公司 基于卷积神经网络的文本情感分析方法
CN111078881A (zh) * 2019-12-09 2020-04-28 携程计算机技术(上海)有限公司 细粒度情感分析方法、系统、电子设备和存储介质
CN111222344A (zh) * 2020-01-03 2020-06-02 支付宝(杭州)信息技术有限公司 训练神经网络的方法、装置及电子设备
CN111522913A (zh) * 2020-04-16 2020-08-11 山东贝赛信息科技有限公司 一种适用于长文本和短文本的情感分类方法
CN112216307A (zh) * 2019-07-12 2021-01-12 华为技术有限公司 语音情感识别方法以及装置
CN113688202A (zh) * 2021-07-30 2021-11-23 杭州网易云音乐科技有限公司 情感极性分析方法、装置、电子设备以及计算机存储介质
CN113688236A (zh) * 2021-08-03 2021-11-23 东北大学秦皇岛分校 基于微博评论构建公民接种新冠疫苗的情感分类方法
CN116522932A (zh) * 2023-06-26 2023-08-01 云目未来科技(湖南)有限公司 一种文本分析方法及系统
WO2023204759A1 (en) * 2022-04-22 2023-10-26 Lemon Inc. Attribute and rating co-extraction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541838A (zh) * 2010-12-24 2012-07-04 日电(中国)有限公司 用于优化情感分类器的方法和设备
US20120179751A1 (en) * 2011-01-06 2012-07-12 International Business Machines Corporation Computer system and method for sentiment-based recommendations of discussion topics in social media
CN107038480A (zh) * 2017-05-12 2017-08-11 东华大学 一种基于卷积神经网络的文本情感分类方法
CN107092596A (zh) * 2017-04-24 2017-08-25 重庆邮电大学 基于attention CNNs和CCR的文本情感分析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541838A (zh) * 2010-12-24 2012-07-04 日电(中国)有限公司 用于优化情感分类器的方法和设备
US20120179751A1 (en) * 2011-01-06 2012-07-12 International Business Machines Corporation Computer system and method for sentiment-based recommendations of discussion topics in social media
CN107092596A (zh) * 2017-04-24 2017-08-25 重庆邮电大学 基于attention CNNs和CCR的文本情感分析方法
CN107038480A (zh) * 2017-05-12 2017-08-11 东华大学 一种基于卷积神经网络的文本情感分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WEIXIN_30852451: "sentiwordnet的简单使用", 《CSDN》 *
刘政: "基于知识元和集成学习的中文微博情感分析", 《中国优秀硕士学位论文全文数据库》 *

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145304A (zh) * 2018-09-07 2019-01-04 中山大学 一种基于字的中文观点要素情感分析方法
CN109145304B (zh) * 2018-09-07 2022-09-06 中山大学 一种基于字的中文观点要素情感分析方法
CN109670169B (zh) * 2018-11-16 2020-12-04 中山大学 一种基于特征提取的深度学习情感分类方法
CN109670169A (zh) * 2018-11-16 2019-04-23 中山大学 一种基于特征提取的深度学习情感分类方法
CN109543039A (zh) * 2018-11-23 2019-03-29 中山大学 一种基于深度网络的自然语言情感分析方法
CN109543039B (zh) * 2018-11-23 2022-04-08 中山大学 一种基于深度网络的自然语言情感分析方法
CN109902174B (zh) * 2019-02-18 2023-06-20 山东科技大学 一种基于方面依赖的记忆网络的情感极性检测方法
CN109902174A (zh) * 2019-02-18 2019-06-18 山东科技大学 一种基于方面依赖的记忆网络的情感极性检测方法
CN109858034B (zh) * 2019-02-25 2023-02-03 武汉大学 一种基于注意力模型和情感词典的文本情感分类方法
CN109858034A (zh) * 2019-02-25 2019-06-07 武汉大学 一种基于注意力模型和情感词典的文本情感分类方法
CN109933664A (zh) * 2019-03-12 2019-06-25 中南大学 一种基于情感词嵌入的细粒度情绪分析改进方法
CN110032736A (zh) * 2019-03-22 2019-07-19 深兰科技(上海)有限公司 一种文本分析方法、装置及存储介质
CN109992780B (zh) * 2019-03-29 2022-07-01 哈尔滨理工大学 一种基于深度神经网络特定目标情感分类方法
CN109992780A (zh) * 2019-03-29 2019-07-09 哈尔滨理工大学 一种基于深度神经网络特定目标情感分类方法
CN109992668A (zh) * 2019-04-04 2019-07-09 上海冰鉴信息科技有限公司 一种基于自注意力的企业舆情分析方法和装置
CN109992668B (zh) * 2019-04-04 2023-02-21 上海冰鉴信息科技有限公司 一种基于自注意力的企业舆情分析方法和装置
CN110263321A (zh) * 2019-05-06 2019-09-20 成都数联铭品科技有限公司 一种情感词典构建方法及系统
CN110362819A (zh) * 2019-06-14 2019-10-22 中电万维信息技术有限责任公司 基于卷积神经网络的文本情感分析方法
CN112216307A (zh) * 2019-07-12 2021-01-12 华为技术有限公司 语音情感识别方法以及装置
CN112216307B (zh) * 2019-07-12 2023-05-16 华为技术有限公司 语音情感识别方法以及装置
CN111078881A (zh) * 2019-12-09 2020-04-28 携程计算机技术(上海)有限公司 细粒度情感分析方法、系统、电子设备和存储介质
CN111078881B (zh) * 2019-12-09 2023-04-07 携程计算机技术(上海)有限公司 细粒度情感分析方法、系统、电子设备和存储介质
CN111222344A (zh) * 2020-01-03 2020-06-02 支付宝(杭州)信息技术有限公司 训练神经网络的方法、装置及电子设备
CN111222344B (zh) * 2020-01-03 2023-07-18 支付宝(杭州)信息技术有限公司 训练神经网络的方法、装置及电子设备
CN111522913A (zh) * 2020-04-16 2020-08-11 山东贝赛信息科技有限公司 一种适用于长文本和短文本的情感分类方法
CN113688202A (zh) * 2021-07-30 2021-11-23 杭州网易云音乐科技有限公司 情感极性分析方法、装置、电子设备以及计算机存储介质
CN113688202B (zh) * 2021-07-30 2024-03-15 杭州网易云音乐科技有限公司 情感极性分析方法、装置、电子设备以及计算机存储介质
CN113688236A (zh) * 2021-08-03 2021-11-23 东北大学秦皇岛分校 基于微博评论构建公民接种新冠疫苗的情感分类方法
WO2023204759A1 (en) * 2022-04-22 2023-10-26 Lemon Inc. Attribute and rating co-extraction
CN116522932A (zh) * 2023-06-26 2023-08-01 云目未来科技(湖南)有限公司 一种文本分析方法及系统
CN116522932B (zh) * 2023-06-26 2023-09-19 云目未来科技(湖南)有限公司 一种文本分析方法及系统

Also Published As

Publication number Publication date
CN108460009B (zh) 2022-09-16

Similar Documents

Publication Publication Date Title
CN108460009A (zh) 嵌入情感词典的注意力机制循环神经网络文本情感分析法
Lotfian et al. Curriculum learning for speech emotion recognition from crowdsourced labels
CN107608956B (zh) 一种基于cnn-grnn的读者情绪分布预测算法
CN109447140A (zh) 一种基于神经网络深度学习的图像识别并推荐认知的方法
Rei et al. Grasping the finer point: A supervised similarity network for metaphor detection
Zhao et al. Self-adaptive hierarchical sentence model
CN106055673B (zh) 一种基于文本特征嵌入的中文短文本情感分类方法
CN109284506A (zh) 一种基于注意力卷积神经网络的用户评论情感分析系统及方法
CN108229582A (zh) 一种面向医学领域的多任务命名实体识别对抗训练方法
Wen et al. Dynamic interactive multiview memory network for emotion recognition in conversation
CN108647219A (zh) 一种结合情感词典的卷积神经网络文本情感分析方法
CN109408633A (zh) 一种多层注意力机制的循环神经网络模型的构建方法
CN107818084B (zh) 一种融合点评配图的情感分析方法
CN108733675B (zh) 基于大量样本数据的情感评价方法及装置
Zhang Machine learning approaches to predicting company bankruptcy
CN106547866A (zh) 一种基于情感词随机共现网络的细粒度情感分类方法
Hasanuzzaman et al. Temporal orientation of tweets for predicting income of users
Olkiewicz et al. Emotion-based image retrieval—An artificial neural network approach
CN106202299B (zh) 一种基于残疾人特征的残疾人权威用户推荐方法
Çaylı et al. Auxiliary classifier based residual rnn for image captioning
Isaac et al. A Conceptual Enhancement of LSTM Using Knowledge Distillation for Hate Speech Detection
CN114997369A (zh) 量化神经网络中多个输入变量之间相互作用的方法及应用
Muhdalifah Pooling comparison in CNN architecture for Javanese script classification
CN109726383A (zh) 一种文章语义向量表示方法和系统
Ren Construction of a thinking model for Literary Writing based on Deep Spatio-Temporal Residual Convolutional Neural Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant