CN110147452A - 一种基于层级bert神经网络的粗粒度情感分析方法 - Google Patents
一种基于层级bert神经网络的粗粒度情感分析方法 Download PDFInfo
- Publication number
- CN110147452A CN110147452A CN201910410332.XA CN201910410332A CN110147452A CN 110147452 A CN110147452 A CN 110147452A CN 201910410332 A CN201910410332 A CN 201910410332A CN 110147452 A CN110147452 A CN 110147452A
- Authority
- CN
- China
- Prior art keywords
- vector
- sentence
- coarseness
- sentiment analysis
- subordinate clause
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明涉及一种基于层级BERT神经网络的粗粒度情感分析方法,属于Web挖掘和智能信息处理技术领域;包括以下步骤:语料获取:获取粗粒度情感分析的语料;语料预处理:包括字符清理、从句切分以及从句向量构建;构建句子向量:利用双向长短期记忆网络、多层感知机和注意力机制对从句向量进行计算生成句子向量;梯度协调机制优化:引入梯度协调机制解决粗粒度情感分析中数据类别不平衡问题;采用层级BERT神经网络进行粗粒度情感分析。对比现有技术,本发明通过层级BERT神经网络对评论文本进行包含深层语义信息的句子向量的构建,提高了粗粒度情感分析任务的准确性,在信息推荐、舆情监控等领域具有广阔的应用前景。
Description
技术领域
本发明属于Web挖掘和智能信息处理技术领域,涉及一种基于层级BERT(基于变换器的双向编码表示,全称Bidirectional Encoder Representation from Transformers)神经网络的粗粒度情感分析方法。
背景技术
粗粒度的文本情感挖掘,简称为粗粒度情感分析。粗粒度情感分析旨在于对评论文本进行情感极性的类别判别。情感极性包括褒义、贬义和中性三种类别。评论文本分为篇章级评论文本和句子级评论文本。
目前,粗粒度情感分析方法主要包括基于规则和统计融合的方法、基于机器学习的方法,以及基于深度学习的方法。
基于规则和统计融合的粗粒度情感分析方法是指通过规则分析与统计方法相融合的策略来进行粗粒度情感分析。例如,闫晓东等在文献《基于情感词典的藏语文本句子情感分类》(中文信息学报,2018)中,首先,人工构建了极性词典,极性词典包括程度副词词典、转折词词典、否定词词典等;然后,构建由极性词与修饰词构成的极性短语;最后,基于极性短语及其极性强度判别句子情感极性。
基于机器学习的方法是指采用决策树、支持向量机和条件随机场等分类器进行粗粒度情感分析。例如,王义真等在文献《基于SVM的高维混合特征短文本情感分类》(计算机技术与发展,2018)中,首先,抽取了表情符号特征、词聚类特征、词性标注特征和否定特征等六种情感分类特征;然后,采用支持向量机SVM(全称Support Vector Machine)进行短文本的情感分类。
基于深度学习的方法是指通过深度神经网络模型进行粗粒度情感分析。例如,Liao等在文献《Perspective Level Microblog Sentiment Classification Based onConvolutional Memory Network》(Pattern Recognition Artificial Intelligence,2018)中,通过卷积运算扩展上下文词序进行注意力建模,设计了一种基于卷积神经网络的视角层次的微博情感分类方法。
现有的粗粒度情感分析方法主要存在如下问题:第一,粗粒度情感分析方法在进行文本情感极性分类时,主要采用Word2Vec等传统语言模型进行词、句子等文本向量模型的训练。传统语言模型多为浅层单向神经网络,难以深度描述或反映文本的语义信息。第二,现有粗粒度情感分析方法在生成文本向量表示时缺乏对文本语义信息深层次的挖掘,并且缺乏对分类数据类别不均衡问题的优化处理。
发明内容
本发明的目的是为了解决粗粒度情感分析中存在的上述问题,提供一种基于层级BERT神经网络的粗粒度情感分析方法。
本方法的特点是:(1)本发明将粗粒度情感分析任务转换为文本分类任务,采用层级BERT神经网络模型生成文本的分布式表示,然后通过Softmax方法进行句子级文本的情感极性分类。层级BERT神经网络模型包括BERT模型与层级神经网络模型。(2)本发明基于两种粒度的文本向量计算生成文本的分布式表示。两种粒度的文本向量包括从句级向量和句子级向量。句子级向量由从句级向量通过双向长短期记忆网络、多层感知机以及注意力机制计算生成。注意力机制使得在基于从句级向量生成句子级向量时,对不同从句进行了差异化处理,突出了构成句子级向量表示起关键作用的从句级向量。(3)本发明引入梯度协调机制以处理粗粒度情感分析数据不同类别样本数量不均衡的问题,提高了情感极性类别识别的准确性。
本发明的目的是通过以下技术方案实现的。
一种基于层级BERT神经网络的粗粒度情感分析方法,包括如下步骤:
步骤1,获取粗粒度情感分析的语料
作为优选,语料的获取通过以下过程完成:采集互联网评论网站文本信息,构建为粗粒度情感分析的语料;或采集现有的根据评论网站信息构建的评论文本数据集,作为粗粒度情感分析的语料。
步骤2,语料预处理构建从句向量
本步骤主要工作为对步骤1所获取的语料进行无用字符清理、基于修辞结构理论的从句切分工作以及从句向量的构建。
步骤3,构建句子向量
本步骤主要工作为对步骤2所构建的从句向量采用双向长短期记忆网络、多层感知机以及注意力机制计算生成表示原始句子的句向量,具体过程如下:
步骤3.1,对于步骤2生成的从句向量,进入编码层进行从句向量的编码计算。编码层包括双向长短期记忆网络和多层感知机。
步骤3.2,对于步骤3.1生成的从句向量,进入注意力层进行计算,生成句向量。通过注意力层区分不同从句对生成句向量的权重,以突出重要从句对生成句向量的贡献度。
步骤4,基于梯度协调机制优化的情感极性识别
本步骤主要工作为对步骤3生成的句向量v利用Softmax进行计算,并通过基于交叉熵损失函数设计的梯度协调机制,从梯度计算的角度对类别不均衡问题进行优化处理。
步骤5,采用层级BERT网络进行粗粒度情感分析
使用步骤4生成的粗粒度情感分析模型对输入语料在经步骤2、3处理后的句子向量进行情感极性识别。
至此,就完成了本方法的全部过程。
本发明的有益效果:
本发明的方法,针对粗粒度情感分析的情感极性识别问题,提供一种基于层级BERT神经网络的粗粒度情感分析方法。
(1)本发明采用一种基于层级BERT模型的句向量生成方法。首先,通过将评论文本切分为从句级文本,并利用BERT模型将其转换为包含深度语义信息的从句级文本向量;其次,采用双向长短期记忆网络(Bidirectional Long Short-Term Memory Network,简称Bi-LSTM)和多层感知机(Multi-Layer Perception,简称MLP)对从句级文本向量进行语义编码计算;最后,通过对从句编码向量进行注意力机制计算,在区分不同从句对句子向量生成的不同贡献度的基础上,计算生成包含更丰富语义信息的句级向量,作为原始句子的分布式表示进行情感极性的识别计算,提高了粗粒度情感分析的准确性。
(2)本发明采取梯度协调机制进行类别不均衡问题的优化。基于交叉熵损失函数设计的梯度协调机制可以从梯度计算的角度对类别不均衡问题进行优化处理。通过引入梯度协调机制,在层级BERT神经网络的基础上对情感极性类别识别问题的准确性进行了优化提高。
本发明提供的方法在舆情监控、主题检测、信息推荐和电子商务等领域具有广阔的应用前景。
附图说明
图1为本发明实施例一种基于层级BERT神经网络的粗粒度情感分析方法的流程示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细的说明。
实施例1
基于本发明方法的粗粒度情感分析方法,以Ubuntu 16.04操作系统为开发平台,开发语言选择the Debian Almquist Shell(dash)与python2.7,深度学习开发框架为TensorFlow 1.9。如图1所示为一种基于层级BERT神经网络的粗粒度情感分析方法,包含如下步骤:
步骤1,获取粗粒度情感分析的语料
作为优选,语料的获取通过以下过程完成:采集互联网评论网站文本信息,构建为粗粒度情感分析的语料;或采集现有的根据评论网站信息构建的评论文本数据集,作为粗粒度情感分析的语料。可以采集点评网站Yelp数据,Yelp包括了餐馆等场景下的用户评论,对于获取的数据采取Json的格式保存到本地计算机。
步骤2,语料预处理构建从句向量
语料预处理包括字符清理、从句切分,以及从句向量构建。
首先,对语料中的句子进行字符清理,包括过滤无用标点符号以及乱码字符。停用标点符号包括{,,.,:,;,’,~,`,!,@,#,$,&,*,(,),”}。例如,对于句子“The food isgreat and tasty and the#hot dogs are especially top notch:)”包含着无用的字符,如“#”和表情“:)”,需要在字符清理中进行过滤。经过字符清理完成的句子为“The food isgreat and tasty and the hot dogs are especially top notch”。
其次,对语料中的句子采用修辞结构理论进行从句切分。从句切分是指将句子切分为从句的序列。采用修辞结构理论(Rhetorical Structure Theory,简称RST)基于文本局部之间关系对句子进行从句切分。
对于上例中完成字符清理的句子“The food is great and tasty and the hotdogs are especially top notch”进行从句切分,从句切分的结果为“The food is greatand tasty”,“and the hot dogs are especially top notch”。
然后,采用BERT模型构建从句向量。根据情感分析语料对BERT模型进行再训练。BERT模型是上下文有关的双向语言模型。本发明基于完成预训练的BERT模型,利用情感分析语料库对模型进行再训练,生成满足粗粒度情感分析需求的BERT模型。进一步,通过再训练的BERT模型构建从句向量。
步骤3,构建句子向量
构建句向量是指采用双向长短期记忆网络、多层感知机以及注意力机制对从句向量进行计算生成句子向量。本实施例采用如下过程实现:
步骤3.1,对于步骤2生成的从句向量,进入编码层进行计算。编码层包括双向长短期记忆网络(Bidirectional Long Short-Term Memory Network,简称Bi-LSTM)和多层感知机(Multi-Layer Perception,简称MLP)。
首先,对于句子s及其通过步骤2生成的k个从句向量,采用双向长短期记忆网络对从句进行编码计算。将第i个从句经过双向长短期记忆网络的编码计算生成的向量表示为hi。
然后,对由经过Bi-LSTM编码计算生成的向量hi采用多层感知机进行进一步编码计算。将hi经过多层感知机的编码计算生成的向量表示为ui,下面式子给出了ui的计算方法,其中Ws和bs为权重,通过模型训练产生,tanh表示作为激活函数的反双曲正切函数。
ui=tanh(Ws×hi+bs)
步骤3.2,对于步骤3.1生成的从句向量,进入注意力层进行计算,生成句向量。通过注意力层区分不同从句对生成句向量的权重,以突出重要从句对生成句向量的贡献度。
注意力层的计算步骤包括:
首先,对于第i个从句经编码层编码计算生成的向量ui,采取注意力机制计算向量ui的权重。注意力机制旨在于度量每个从句在生成句向量中的重要程度。对于k个从句,设每个从句的注意力权重为ai,ai计算公式如下式所示,其中,us为权重,通过模型训练产生,表示对ui的转置操作。
然后,根据注意力权重ai(1≤i≤k),生成句子s的句向量v,句向量v的计算方法如下式所示。
步骤4,基于梯度协调机制优化的情感极性识别
对于句子s的句向量v,计算情感极性类别的概率p=Softmax(wcv+bc),其中Wc和bc为权重。对于句子s经过步骤3生成的句向量进行Softmax计算,生成对于褒义、贬义和中性三个类别的概率p1,p2,p3,选取最大概率对应的极性类别为句子的粗粒度情感分析结果。
针对情感极性类别识别问题中的数据类别不均衡问题,本发明采取基于交叉熵损失函数设计的梯度协调机制从梯度计算的角度对类别不均衡问题进行优化处理。通过引入梯度协调机制,在层级BERT神经网络的基础上对情感极性类别识别问题的准确性进行优化提升。
步骤5,采用层级BERT网络进行粗粒度情感分析
经过步骤1-4完成了对基于层级BERT神经网络的粗粒度情感分析模型的训练,然后利用经过训练的模型对句子进行粗粒度情感分析,输出句子的粗粒度情感分析结果。
对于句子s,通过基于层级BERT神经网络模型的粗粒度情感分析结果为,判别出句子s的唯一情感极性标签L。具体来说,对于每一个句子,设由t个词组成,记为s={wi1,wi2,wi3,…,wit},其中wij表示构成s的词语。通过本发明所提出的基于层级BERT神经网络的粗粒度情感分析模型,进行计算,判别出句子对应的唯一情感极性类别标签L,L∈{褒义,中性,贬义}。例如,针对用户评论s=“I really love the fondant au chocolat!”,通过基于层级BERT神经网络模型进行粗粒度情感分析的结果为褒义,即这是一条褒义的评论文本。
为说明本发明的粗粒度情感分析效果,本实验是在同等条件下,以相同的训练集和测试集分别采用基于支持向量机、基于LSTM-GRNN模型,以及基于本发明的基于层级BERT神经网络模型的粗粒度情感分析方法进行粗粒度情感分析。LSTM-GRNN为利用LSTM(LongShort Term Memory,简称LSTM)计算句向量,并利用门控递归神经网络(Gated RecurrentNeural Network,简称GRNN)进行句向量分类的方法。采用Accuracy(准确率)作为评测指标对识别效果进行度量。
其中TP代表模型预测为真且用例真值为真,即正确接受;FN代表模型预测为假但用例真值为真,即错误拒绝;FP代表模型预测为真但用例真值为假,即错误接受;TN代表模型预测为假且用例真值为假,即正确拒绝。基于本发明方法的粗粒度情感分析的效果如下:基于支持向量机的粗粒度情感分析方法的准确率约为61.8%,基于LSTM-GRNN的粗粒度情感分析方法的准确率约为67.1%,本发明提出的基于层级BERT神经网络模型的粗粒度情感分析方法的准确率约为75.41%。本发明通过层级BERT神经网络对评论文本进行包含深层语义信息的句子向量的构建,提高了粗粒度情感分析任务的准确性,在信息推荐、舆情监控等领域具有广阔的应用前景。
为了说明本发明的内容及实施方式,本说明书给出了具体实施例。在实施例中引入细节的目的不是限制权利要求书的范围,而是帮助理解本发明所述方法。本领域的技术人员应理解:在不脱离本发明及其所附权利要求的精神和范围内,对最佳实施例步骤的各种修改、变化或替换都是可能的。因此,本发明不应局限于最佳实施例及附图所公开的内容。
Claims (5)
1.一种基于层级BERT神经网络的粗粒度情感分析方法,其特征在于:包括以下步骤:
步骤1,获取粗粒度情感分析的语料;
步骤2,对步骤1所获取的语料进行预处理构建从句向量;
步骤3,对步骤2得到的从句向量进行计算构建句子向量;
步骤4,利用步骤3构建的句子向量进行情感极性的识别计算,并采取梯度协调机制进行优化;
步骤5,使用步骤4生成的粗粒度情感分析模型对输入语料在经步骤2、3处理后的句子向量进行情感极性识别。
2.根据权利要求1所述的一种基于层级BERT神经网络的粗粒度情感分析方法,其特征在于,所述步骤1通过以下过程完成:
采集互联网评论网站文本信息,构建为粗粒度情感分析的语料;或采集现有的根据评论网站信息构建的评论文本数据集,作为粗粒度情感分析的语料。
3.根据权利要求1所述的一种基于层级BERT神经网络的粗粒度情感分析方法,其特征在于,所述步骤2通过以下过程完成:
首先,对语料中的句子进行字符清理,包括过滤无用标点符号以及乱码字符;
然后,对语料中的句子采用修辞结构理论进行从句切分;
最后,采用BERT模型构建从句向量。
4.根据权利要求1所述的一种基于层级BERT神经网络的粗粒度情感分析方法,其特征在于,所述步骤3通过双向长短期记忆网络、多层感知机以及注意力机制完成句子向量的计算,具体过程如下:
步骤3.1,对于步骤2生成的从句向量,进入如下编码层进行计算;编码层包括双向长短期记忆网络Bi-LSTM(Bidirectional Long Short-Term Memory Network)和多层感知机MLP(Multi-Layer Perception):
首先,对于句子s及其通过步骤2生成的k个从句向量,采用Bi-LSTM对从句进行编码计算,将第i个从句经过Bi-LSTM的编码计算生成的向量表示为hi;
然后,对hi采用MLP进行编码计算,将hi经过MLP的编码计算生成的向量表示为ui,下面式子给出了ui的计算方法,其中Ws和bs为权重,tanh表示作为激活函数的反双曲正切函数:
ui=tanh(Ws×hi+bs);
步骤3.2,对于步骤3.1生成的从句向量,进入注意力层进行计算,生成句向量;通过注意力层区分不同从句对生成句向量的权重,以突出重要从句对生成句向量的贡献度;
注意力层的计算步骤包括:
首先,对于第i个从句经编码层编码计算生成的向量ui,采取注意力机制计算向量ui的权重:对于k个从句,设每个从句的注意力权重为ai,ai计算公式如下式所示,其中,us为权重:
然后,根据注意力权重ai(1≤i≤k),生成句子s的句向量v,句向量v的计算方法如下式所示:
5.根据权利要求1-4任一所述的一种基于层级BERT神经网络的粗粒度情感分析方法,其特征在于,所述步骤4通过以下内容完成:
对于句子s的句向量v,计算情感极性类别的概率p=Softmax(wcv+bc),其中Wc和bc为权重;对于句子s经过步骤3生成的句向量进行Softmax计算,生成对于褒义、贬义和中性三个类别的概率p1,p2,p3,选取最大概率对应的极性类别为句子的粗粒度情感分析结果;
针对情感极性类别识别问题中的数据类别不均衡问题,采取基于交叉熵损失函数设计的梯度协调机制从梯度计算的角度对类别不均衡问题进行优化处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910410332.XA CN110147452B (zh) | 2019-05-17 | 2019-05-17 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910410332.XA CN110147452B (zh) | 2019-05-17 | 2019-05-17 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110147452A true CN110147452A (zh) | 2019-08-20 |
CN110147452B CN110147452B (zh) | 2022-03-01 |
Family
ID=67595657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910410332.XA Active CN110147452B (zh) | 2019-05-17 | 2019-05-17 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110147452B (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110569508A (zh) * | 2019-09-10 | 2019-12-13 | 重庆邮电大学 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
CN110674252A (zh) * | 2019-08-26 | 2020-01-10 | 银江股份有限公司 | 一种面向司法领域的高精度语义搜索系统 |
CN110688585A (zh) * | 2019-09-25 | 2020-01-14 | 北京工业大学 | 一种基于神经网络和协同过滤的个性化电影推荐方法 |
CN110717334A (zh) * | 2019-09-10 | 2020-01-21 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN111026847A (zh) * | 2019-12-09 | 2020-04-17 | 北京邮电大学 | 一种基于注意力网络和长短期记忆网络的文本情感识别方法 |
CN111159332A (zh) * | 2019-12-03 | 2020-05-15 | 厦门快商通科技股份有限公司 | 一种基于bert的文本多意图识别方法 |
CN111198713A (zh) * | 2020-01-02 | 2020-05-26 | 晶晨半导体(深圳)有限公司 | 基于Android的同份源代码兼容各客户需求的方法和装置 |
CN111222344A (zh) * | 2020-01-03 | 2020-06-02 | 支付宝(杭州)信息技术有限公司 | 训练神经网络的方法、装置及电子设备 |
CN111310474A (zh) * | 2020-01-20 | 2020-06-19 | 桂林电子科技大学 | 基于激活-池化增强bert模型的在线课程评论情感分析方法 |
CN111444709A (zh) * | 2020-03-09 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、存储介质及设备 |
CN111651986A (zh) * | 2020-04-28 | 2020-09-11 | 银江股份有限公司 | 事件关键词提取方法、装置、设备及介质 |
CN111709223A (zh) * | 2020-06-02 | 2020-09-25 | 上海硬通网络科技有限公司 | 基于bert的句子向量生成方法、装置及电子设备 |
CN111858933A (zh) * | 2020-07-10 | 2020-10-30 | 暨南大学 | 基于字符的层次化文本情感分析方法及系统 |
CN111950296A (zh) * | 2020-08-21 | 2020-11-17 | 桂林电子科技大学 | 一种基于bert微调模型的评论目标情感分析 |
CN111966917A (zh) * | 2020-07-10 | 2020-11-20 | 电子科技大学 | 一种基于预训练语言模型的事件检测与摘要方法 |
CN112131469A (zh) * | 2020-09-22 | 2020-12-25 | 安徽农业大学 | 一种基于评论文本的深度学习推荐方法 |
CN112231478A (zh) * | 2020-10-22 | 2021-01-15 | 电子科技大学 | 基于bert和多层注意力机制的方面级情感分类方法 |
CN112259260A (zh) * | 2020-11-18 | 2021-01-22 | 中国科学院自动化研究所 | 基于智能穿戴设备的智能医疗问答方法、系统及装置 |
CN112416956A (zh) * | 2020-11-19 | 2021-02-26 | 重庆邮电大学 | 一种基于bert和独立循环神经网络的问句分类方法 |
WO2021072852A1 (zh) * | 2019-10-16 | 2021-04-22 | 平安科技(深圳)有限公司 | 序列标注方法、系统和计算机设备 |
WO2021081945A1 (zh) * | 2019-10-31 | 2021-05-06 | 深圳市欢太科技有限公司 | 一种文本分类方法、装置、电子设备及存储介质 |
CN113157920A (zh) * | 2021-04-08 | 2021-07-23 | 西安交通大学 | 一种基于机器阅读理解范式的方面级情感分析方法及系统 |
CN113158644A (zh) * | 2021-05-13 | 2021-07-23 | 山西大学 | 一种基于多任务学习的修辞格及隐式情绪识别方法 |
CN113362858A (zh) * | 2021-07-27 | 2021-09-07 | 中国平安人寿保险股份有限公司 | 语音情感分类方法、装置、设备及介质 |
CN113761182A (zh) * | 2020-06-17 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种确定业务问题的方法和装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080249764A1 (en) * | 2007-03-01 | 2008-10-09 | Microsoft Corporation | Smart Sentiment Classifier for Product Reviews |
WO2012134180A2 (ko) * | 2011-03-28 | 2012-10-04 | 가톨릭대학교 산학협력단 | 문장에 내재한 감정 분석을 위한 감정 분류 방법 및 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법 |
CN105955959A (zh) * | 2016-05-06 | 2016-09-21 | 深圳大学 | 一种情感分类方法及系统 |
CN106383815A (zh) * | 2016-09-20 | 2017-02-08 | 清华大学 | 结合用户和产品信息的神经网络情感分析方法 |
CN107133224A (zh) * | 2017-04-25 | 2017-09-05 | 中国人民大学 | 一种基于主题词的语言生成方法 |
CN107330032A (zh) * | 2017-06-26 | 2017-11-07 | 北京理工大学 | 一种基于递归神经网络的隐式篇章关系分析方法 |
CN108446275A (zh) * | 2018-03-21 | 2018-08-24 | 北京理工大学 | 基于注意力双层lstm的长文本情感倾向性分析方法 |
CN109165387A (zh) * | 2018-09-20 | 2019-01-08 | 南京信息工程大学 | 一种基于gru神经网络的中文评论情感分析法 |
CN109508375A (zh) * | 2018-11-19 | 2019-03-22 | 重庆邮电大学 | 一种基于多模态融合的社交情感分类方法 |
CN109558487A (zh) * | 2018-11-06 | 2019-04-02 | 华南师范大学 | 基于层次性多注意力网络的文档分类方法 |
CN109635109A (zh) * | 2018-11-28 | 2019-04-16 | 华南理工大学 | 基于lstm并结合词性及多注意力机制的句子分类方法 |
-
2019
- 2019-05-17 CN CN201910410332.XA patent/CN110147452B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080249764A1 (en) * | 2007-03-01 | 2008-10-09 | Microsoft Corporation | Smart Sentiment Classifier for Product Reviews |
WO2012134180A2 (ko) * | 2011-03-28 | 2012-10-04 | 가톨릭대학교 산학협력단 | 문장에 내재한 감정 분석을 위한 감정 분류 방법 및 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법 |
CN105955959A (zh) * | 2016-05-06 | 2016-09-21 | 深圳大学 | 一种情感分类方法及系统 |
CN106383815A (zh) * | 2016-09-20 | 2017-02-08 | 清华大学 | 结合用户和产品信息的神经网络情感分析方法 |
CN107133224A (zh) * | 2017-04-25 | 2017-09-05 | 中国人民大学 | 一种基于主题词的语言生成方法 |
CN107330032A (zh) * | 2017-06-26 | 2017-11-07 | 北京理工大学 | 一种基于递归神经网络的隐式篇章关系分析方法 |
CN108446275A (zh) * | 2018-03-21 | 2018-08-24 | 北京理工大学 | 基于注意力双层lstm的长文本情感倾向性分析方法 |
CN109165387A (zh) * | 2018-09-20 | 2019-01-08 | 南京信息工程大学 | 一种基于gru神经网络的中文评论情感分析法 |
CN109558487A (zh) * | 2018-11-06 | 2019-04-02 | 华南师范大学 | 基于层次性多注意力网络的文档分类方法 |
CN109508375A (zh) * | 2018-11-19 | 2019-03-22 | 重庆邮电大学 | 一种基于多模态融合的社交情感分类方法 |
CN109635109A (zh) * | 2018-11-28 | 2019-04-16 | 华南理工大学 | 基于lstm并结合词性及多注意力机制的句子分类方法 |
Non-Patent Citations (5)
Title |
---|
BO SUN 等: "《LSTM for dynamic emotion and group emotion recognition in the wild》", 《ACM》 * |
BUYU LI等: "《Gradient Harmonized Single-stage Detector》", 《ARXIV》 * |
JIANFEI YU等: "《Improving Multi-label Emotion Classification via Sentiment Classification with Dual Attention Transfer Network》", 《PROCEEDINGS OF THE 2018 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 * |
陈珂 等: "《基于多通道卷积神经网络的中文微博情感分析》", 《计算机研究与发展》 * |
龚泽阳等: "《基于深度学习的中英文混合短文本情感分析》", 《信息与电脑》 * |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674252A (zh) * | 2019-08-26 | 2020-01-10 | 银江股份有限公司 | 一种面向司法领域的高精度语义搜索系统 |
CN110569508A (zh) * | 2019-09-10 | 2019-12-13 | 重庆邮电大学 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
CN110717334A (zh) * | 2019-09-10 | 2020-01-21 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN110717334B (zh) * | 2019-09-10 | 2023-10-10 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN110688585A (zh) * | 2019-09-25 | 2020-01-14 | 北京工业大学 | 一种基于神经网络和协同过滤的个性化电影推荐方法 |
CN110688585B (zh) * | 2019-09-25 | 2022-04-19 | 北京工业大学 | 一种基于神经网络和协同过滤的个性化电影推荐方法 |
WO2021072852A1 (zh) * | 2019-10-16 | 2021-04-22 | 平安科技(深圳)有限公司 | 序列标注方法、系统和计算机设备 |
WO2021081945A1 (zh) * | 2019-10-31 | 2021-05-06 | 深圳市欢太科技有限公司 | 一种文本分类方法、装置、电子设备及存储介质 |
CN111159332A (zh) * | 2019-12-03 | 2020-05-15 | 厦门快商通科技股份有限公司 | 一种基于bert的文本多意图识别方法 |
CN111026847A (zh) * | 2019-12-09 | 2020-04-17 | 北京邮电大学 | 一种基于注意力网络和长短期记忆网络的文本情感识别方法 |
CN111026847B (zh) * | 2019-12-09 | 2022-04-26 | 北京邮电大学 | 一种基于注意力网络和长短期记忆网络的文本情感识别方法 |
CN111198713B (zh) * | 2020-01-02 | 2023-11-28 | 晶晨半导体(深圳)有限公司 | 基于Android的同份源代码兼容各客户需求的方法和装置 |
CN111198713A (zh) * | 2020-01-02 | 2020-05-26 | 晶晨半导体(深圳)有限公司 | 基于Android的同份源代码兼容各客户需求的方法和装置 |
CN111222344B (zh) * | 2020-01-03 | 2023-07-18 | 支付宝(杭州)信息技术有限公司 | 训练神经网络的方法、装置及电子设备 |
CN111222344A (zh) * | 2020-01-03 | 2020-06-02 | 支付宝(杭州)信息技术有限公司 | 训练神经网络的方法、装置及电子设备 |
CN111310474A (zh) * | 2020-01-20 | 2020-06-19 | 桂林电子科技大学 | 基于激活-池化增强bert模型的在线课程评论情感分析方法 |
CN111444709A (zh) * | 2020-03-09 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、存储介质及设备 |
CN111444709B (zh) * | 2020-03-09 | 2022-08-12 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、存储介质及设备 |
CN111651986A (zh) * | 2020-04-28 | 2020-09-11 | 银江股份有限公司 | 事件关键词提取方法、装置、设备及介质 |
CN111651986B (zh) * | 2020-04-28 | 2024-04-02 | 银江技术股份有限公司 | 事件关键词提取方法、装置、设备及介质 |
CN111709223A (zh) * | 2020-06-02 | 2020-09-25 | 上海硬通网络科技有限公司 | 基于bert的句子向量生成方法、装置及电子设备 |
CN111709223B (zh) * | 2020-06-02 | 2023-08-08 | 上海硬通网络科技有限公司 | 基于bert的句子向量生成方法、装置及电子设备 |
CN113761182A (zh) * | 2020-06-17 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种确定业务问题的方法和装置 |
CN111966917A (zh) * | 2020-07-10 | 2020-11-20 | 电子科技大学 | 一种基于预训练语言模型的事件检测与摘要方法 |
CN111966917B (zh) * | 2020-07-10 | 2022-05-03 | 电子科技大学 | 一种基于预训练语言模型的事件检测与摘要方法 |
CN111858933A (zh) * | 2020-07-10 | 2020-10-30 | 暨南大学 | 基于字符的层次化文本情感分析方法及系统 |
CN111950296A (zh) * | 2020-08-21 | 2020-11-17 | 桂林电子科技大学 | 一种基于bert微调模型的评论目标情感分析 |
CN111950296B (zh) * | 2020-08-21 | 2023-10-20 | 湖南马兰数字教育科技有限公司 | 一种基于bert微调模型的评论目标情感分析 |
CN112131469A (zh) * | 2020-09-22 | 2020-12-25 | 安徽农业大学 | 一种基于评论文本的深度学习推荐方法 |
CN112231478B (zh) * | 2020-10-22 | 2022-06-24 | 电子科技大学 | 基于bert和多层注意力机制的方面级情感分类方法 |
CN112231478A (zh) * | 2020-10-22 | 2021-01-15 | 电子科技大学 | 基于bert和多层注意力机制的方面级情感分类方法 |
CN112259260B (zh) * | 2020-11-18 | 2023-11-17 | 中国科学院自动化研究所 | 基于智能穿戴设备的智能医疗问答方法、系统及装置 |
CN112259260A (zh) * | 2020-11-18 | 2021-01-22 | 中国科学院自动化研究所 | 基于智能穿戴设备的智能医疗问答方法、系统及装置 |
CN112416956A (zh) * | 2020-11-19 | 2021-02-26 | 重庆邮电大学 | 一种基于bert和独立循环神经网络的问句分类方法 |
CN113157920B (zh) * | 2021-04-08 | 2023-01-03 | 西安交通大学 | 一种基于机器阅读理解范式的方面级情感分析方法及系统 |
CN113157920A (zh) * | 2021-04-08 | 2021-07-23 | 西安交通大学 | 一种基于机器阅读理解范式的方面级情感分析方法及系统 |
CN113158644B (zh) * | 2021-05-13 | 2022-09-20 | 山西大学 | 一种基于多任务学习的修辞格及隐式情绪识别方法 |
CN113158644A (zh) * | 2021-05-13 | 2021-07-23 | 山西大学 | 一种基于多任务学习的修辞格及隐式情绪识别方法 |
CN113362858A (zh) * | 2021-07-27 | 2021-09-07 | 中国平安人寿保险股份有限公司 | 语音情感分类方法、装置、设备及介质 |
CN113362858B (zh) * | 2021-07-27 | 2023-10-31 | 中国平安人寿保险股份有限公司 | 语音情感分类方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110147452B (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110147452A (zh) | 一种基于层级bert神经网络的粗粒度情感分析方法 | |
CN108363753B (zh) | 评论文本情感分类模型训练与情感分类方法、装置及设备 | |
CN112001187B (zh) | 一种基于中文句法和图卷积神经网络的情感分类系统 | |
CN112001185A (zh) | 一种结合中文句法和图卷积神经网络的情感分类方法 | |
CN109858032A (zh) | 融合Attention机制的多粒度句子交互自然语言推理模型 | |
CN108804612B (zh) | 一种基于对偶神经网络模型的文本情感分类方法 | |
CN108399158A (zh) | 基于依存树和注意力机制的属性情感分类方法 | |
CN108363690A (zh) | 基于神经网络的对话语义意图预测方法及学习训练方法 | |
CN112001186A (zh) | 一种利用图卷积神经网络和中文句法的情感分类方法 | |
CN109766544A (zh) | 基于lda和词向量的文档关键词抽取方法和装置 | |
CN110347819A (zh) | 一种基于正负样本对抗训练的文本摘要生成方法 | |
CN112559734A (zh) | 简报生成方法、装置、电子设备及计算机可读存储介质 | |
Wei et al. | Target-guided emotion-aware chat machine | |
Wei et al. | LSTM-SN: complex text classifying with LSTM fusion social network | |
Suhartono et al. | Argument annotation and analysis using deep learning with attention mechanism in Bahasa Indonesia | |
Wagner et al. | Complex evolutionary artificial intelligence in cognitive digital twinning | |
CN116522945A (zh) | 一种食品安全领域中命名实体的识别模型和方法 | |
CN116758558A (zh) | 基于跨模态生成对抗网络的图文情感分类方法及系统 | |
Wang et al. | Emotion analysis of microblog based on emotion dictionary and Bi-GRU | |
Zhao et al. | English oral evaluation algorithm based on fuzzy measure and speech recognition | |
Yang et al. | Multi-applicable text classification based on deep neural network | |
Ji et al. | LSTM based semi-supervised attention framework for sentiment analysis | |
CN115906824A (zh) | 一种文本细粒度情感分析方法、系统、介质和计算设备 | |
Patil et al. | Hate speech detection using deep learning and text analysis | |
Alsheri et al. | MOOCSent: a sentiment predictor for massive open online courses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |