CN110210027A - 基于集成学习的细粒度情感分析方法、装置、设备及介质 - Google Patents
基于集成学习的细粒度情感分析方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN110210027A CN110210027A CN201910466122.2A CN201910466122A CN110210027A CN 110210027 A CN110210027 A CN 110210027A CN 201910466122 A CN201910466122 A CN 201910466122A CN 110210027 A CN110210027 A CN 110210027A
- Authority
- CN
- China
- Prior art keywords
- model
- sentiment analysis
- participle
- vector
- integrated study
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于集成学习的细粒度情感分析方法,涉及文本挖掘领域,用于解决单模型的不能对多个类别情感进行分析的问题,该方法包括以下步骤:获取文本数据,基于单层一维卷积神经网络,通过嵌入层、max‑pooling层、transformer层、门单元层、softmax层的处理完成模型训练;通过集成学习获得TEACHER模型;经模型蒸馏得到STUDENT模型;加载TEACHER模型和STUDENT对文本数据进行分析,得到情感分析结果。本发明还公开了一种基于集成学习情感分析装置、电子设备和计算机存储介质。本发明通过文本数据进行分析,得到多类别的情感分析结果。
Description
技术领域
本发明涉及文本挖掘领域,尤其涉及一种基于集成学习的细粒度情感分析方法、装置、设备及介质。
背景技术
互联网技术和信息技术的飞速发展导致了信息资源的急剧增长,从而引起严重的信息过载问题。如何从海量的文本数据中挖掘出隐含的有用信息引起人们越来越多的关注,自然语言处理技术由此产生,而情感分析就是其中相当重要的一部分。
针对在线评论的细粒度情感分析对于深刻理解商家和用户、挖掘用户情感等方面有至关重要的价值,并且在互联网行业有极其广泛的应用,主要用于个性化推荐、智能搜索、产品反馈、业务安全等。
现有技术的细粒度情感分析方法基于卷积神经网络实现,一般包括如下步骤:
1)分词;
2)将分词后的句子输入到嵌入层,获得句子每个词向量表示;
3)输入到两个独立的卷积神经网络层,将这两个输出与类别的向量进行拼接,输入到新型门单元;
4)门单元输出结果输入到max-pooling层,然后将输出结果输入到 softmax层;
5)根据softmax层的输出结果来得到当前类别的情感极性。
利用上述方法进行情感分析的缺陷在于:
1.卷积神经网络的接收域太有限,所以对于长距离的句子效果很差;
2.一个模型只能判断当前评论数据属于哪个类别的情感,不能对多个类别同时进行情感分析;
3.单模型在线预测效果差。
发明内容
为了克服现有技术的不足,本发明的目的之一在于提供一种基于集成学习的细粒度情感分析方法,其通过在模型底层引入共享嵌入层、transformer 层、门单元层,使用集成学习思想来训练多个不同参数的模型进行模型融合,解决单模型在线预测效果差的问题。
本发明的目的之一采用以下技术方案实现:
基于集成学习的细粒度情感分析方法,包括以下步骤:
步骤一:获取文本,对所述文本进行分词,得到分词结果;
步骤二:将分词结果输入到嵌入层,设定文本的最大分词数,调整所述分词结果使其符合最大分词数;将符合最大分词数的分词结果转为特定维度的词向量,使得所述文本的所有分词构成矩阵一;
步骤三:设定每个分词的最大字数,调整每个分词的字数使其符合最大字数;将构成每个分词的字转为特定维度的字向量,使得所有分词的字构成三维矩阵;
步骤四:将三维矩阵输入到不同核的单层一维卷积神经网络中,得到输出结果按照最后一维度进行拼接后,输入到max-pooling层,由所述 max-pooling层输出二维矩阵;
步骤五:将矩阵一和二维矩阵按照最后一维度进行拼接,得到矩阵二,将矩阵二输入到不两个不共享参数的transformer层,得到两个输出矩阵;
步骤六:设置N个情感类别,将所述两个输出矩阵输入到门单元层,然后将所述门单元层输入到N个三层全连接层,得到N个向量;
步骤七:将所述N个向量分别输入到softmax层,得到N个类别的同维度情感向量,利用分类算法计算所述N个类别的同维度情感向量的得分,保存得分最高的模型,记为单次模型;
重复步骤一至七过程得到M个单次模型,然后对所述M个单次模型进行集成学习,步骤如下:
s1:加载所述M个单次模型;
s2:将每个模型的softmax层输出的N个类别的同维度情感向量进行加权平均,融合为包含N个向量的TEACHER模型。
最后,将文本输入到TEACHER模型,可以得到N个结果,分别对应N 个类别的情感。
进一步地,调整所述分词结果使其符合最大分词数的方法为:当所述文本的分词数大于所述最大分词数时,对所述分词结果进行截断;当所述文本的分词数小于最大分词数时,使用标识符一进行补全。
进一步地,调整每个分词的字数使其符合最大字数的方法为:当每个分词的字数大于所述最大字数时,对分词的字数进行截断,当分词的字数小于所述最大字数时,使用标识符二进行补全。
进一步地,为了提高在线预测速度,使用模型蒸馏技术,根据所述步骤一到七训练得到STUDENT模型,其中所述STUDENT模型通过所述 TEACHER模型的N个向量和单次模型的N个向量进行相加得到N1个向量,然后分别将所述N1个向量输入到softmax层,得到N1个结果,以供在线使用;在线预测时,加载STUDENT模型,文本输入到所述STUDENT模型(这里不进入到TEACHER模型),可以得到N1个结果,分别对应N1个类别的情感。
进一步地,所述卷积神经网络的计算公式为:
其中,W为卷积核,而X则为输入;当X是一个二维输入的矩阵,那么W也是一个二维的矩阵。
进一步地,所述transformer层包括Attention层,
设Q、K和V均为矩阵,所述Attention层的计算公式如下:
使用Multi-head Attention完善Attention层,具体公式如下:
Multihead(Q,K,V)=Concat(head1,...head8)W,
headi=Attention(QWi Q,KWi K,VWi V)
其中W,QWi Q,KWi K,VWi V都是权重矩阵。
进一步地,所述门单元层的计算方法:
ai=relu(Xi:i+k*Wa+Vava+ba)
si=tanh(Xi:i+k*Ws+bs)
ci=si×ai
其中Wa,Va,Ws为参数矩阵;ba,bs为偏置,Xi:i+k表示一个矩阵区域,va表示类别名称的词向量表示,ci为获得特征。
本发明的目的之二在于提供一种基于集成学习的细粒度情感分析装置,其通过集成学习对多个模型进行模型融合,解决单一模型只能判断单一类别的情感的问题。
本发明的目的之二采用以下技术方案实现:
基于集成学习的细粒度情感分析装置,其包括:
数据获取模块,用于获取文本数据;
情感分析模块,利用TEACHER模型对所述文本数据进行处理得到情感分析结果,所述情感分析结果包含多个情感类别;
结果输出模块,用于输出所述情感分析结果。
本发明的目的之三在于提供执行发明目的之一的电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,所述计算机程序被处理器执行时实现上述的基于集成学习的细粒度情感分析方法。
本发明的目的之四在于提供存储发明目的之一的计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的基于集成学习的细粒度情感分析方法。
相比现有技术,本发明的有益效果在于:
本发明通过引入transformer层来代替卷积神经网络,以解决对长距离句子的分析效果差的问题;在模型底层共享嵌入层、transformer层、门单元层门,且为每个情感类别添加独占层,解决单一模型只能分析文本中的单一类别情感的问题,实现对多个类别情感进行分析;本发明还提出集成学习思想来训练不同参数的模型以进行模型融合,解决了单一模型在线预测效果差的问题;除此之外,为了提高在线预测速度,本发明还使用模型蒸馏技术来解决预测速度过慢的问题。
附图说明
图1是本发明基于集成学习的细粒度情感分析方法的原理图;
图2是实施例1中基于集成学习模型融合的情感分析流程图;
图3是实施例2的基于集成学习的细粒度情感分析装置的结构框图;
图4是实施例3的电子设备的结构框图。
具体实施方式
以下将结合附图,对本发明进行更为详细的描述,需要说明的是,下参照附图对本发明进行的描述仅是示意性的,而非限制性的。各个不同实施例之间可以进行相互组合,以构成未在以下描述中示出的其他实施例。
实施例1
本实施例提供了一种基于集成学习的细粒度情感分析方法,旨在使用transformer层代替卷积神经网络,以解决对长距离句子的分析效果差的问题;在模型底层共享嵌入层、transformer层、门单元层门,且为每个情感类别添加独占层,解决单一模型只能分析文本中的单一情感类别的问题。
如图1所示,基于集成学习的细粒度情感分析方法,其包括以下步骤:
步骤一:获取文本,通过pkuseg分词工具对所述文本进行分词,得到分词结果;
步骤二:将分词结果输入到嵌入层,设定文本的最大分词数为 seq_max_length,调整所述分词结果使其符合最大分词数:当所述文本的分词数大于seq_max_length时,将所述分词结果进行截断到seq_max_length;当所述文本的分词数小于seq_max_length时,使用UNK_WORD标识符进行补全,经调整后文本的分词结果中包含的分词个数等于seq_max_length;将调整后的分词结果的每个分词通过word2vec转为特定维度的词向量,使得所述文本的所有分词构成矩阵一,记为W。
步骤三:设定每个分词的最大字数char_max_length,调整每个分词的字数使其符合最大字数:当每个分词的字数大于char_max_length时,将分词的字数截断到char_max_length;当分词的字数小于char_max_length时,使用 UNK_char标识符补全,经调整后的每个分词的字数均等于char_max_length;将构成每个分词的字依次通过word2vec转为特定维度的字向量,使得分词结果的所有分词的字构成三维矩阵,记为C;
步骤四:将三维矩阵C输入到不同核的单层一维卷积神经网络中,得到输出结果按照最后一维度进行拼接后,输入到max-pooling层,由所述 max-pooling层输出二维矩阵C1;
步骤五:将矩阵一W和二维矩阵C1按照最后一维度进行拼接,得到矩阵二,记为C2,将矩阵二C2输入到两个不共享参数的transformer层,得到两个输出矩阵;
步骤六:设置N个情感类别,将步骤五中的两个输出矩阵输入到门单元层,然后将门单元层输入到N个三层全连接层,每个三层全连接层的参数不共享,得到N个向量,记为S;
步骤七:将上述N个向量分别输入到softmax层,得到N个类别的情感,利用分类算法计算所述N个类别的同维度情感向量的F1值(衡量单个分类效果的度量指标),保存上述过程中F1值最高的模型为单次模型;
重复步骤一至七过程得到M个单次模型,然后对所述M个单次模型进行集成学习,集成学习是指通过不同方式获得不同模型,并按照某种方式进行模型融合,形成一个新模型,该新模型具有更好的模型效果,如图2所示,具体步骤如下:
s1:加载M个单次模型;
s2:将每个模型的softmax层输出的N个类别的同维度情感向量进行加权平均,融合为包含N个向量的TEACHER模型。
在此举例说明上述步骤四和步骤五中按最后一维度进行拼接(合并)的方法为:设向量1=[a,b,c],向量形状为(1,3),向量2=[d,e,f],向量形状为(1,3),将向量1和向量2按最后一维合并得到[a,b,c,d,e,f],向量形状为(1,6)。
在对文本进行细粒度情感分析时,将文本输入到TEACHER模型,可以得到N个结果,分别对应N个类别的情感。
在本实施例中,pkuseg分词工具为现有分词工具,支持细分领域分词,能有效提升分词准确度。word2vec为词向量转换工具,在此对其进行简单介绍:word2vec分为CBOW(Continuous Bag-of-Words)和skip-gram两种模型。CBOW模型的训练输入是某一个特征词的上下文相关的词对应的词向量,而输出就是这特定的一个词的词向量;Skip-Gram模型和CBOW的思路是反着来的,即输入是特定的一个词的词向量,而输出是特定词对应的上下文词向量。max-pooling层使用max-pooling技术对输入张量的各个子矩阵进行压缩,并用最大值表示该区域。
步骤四中,卷积神经网络的计算公式为:
其中,W为卷积核,而X则为输入;当X是一个二维输入的矩阵,那么W也是一个二维的矩阵;当X是多维张量,那么W也是一个多维的张量。
步骤五中的transformer层包括Attention层,设Q、K和V均为矩阵,所述Attention层的计算公式如下:
使用Multi-head Attention完善Attention层,具体公式如下:
Multihead(Q,K,V)=Concat(head1,...head8)W,
headi=Attention(QWi Q,KWi K,VWi V)
其中W,QWi Q,KWi K,VWi V都是权重矩阵。
步骤六中,门单元层的计算方法:
ai=relu(Xi:i+k*Wa+Vava+ba)
si=tanh(Xi:i+k*Ws+bs)
ci=si×ai
其中Wa,Va,Ws为参数矩阵;ba,bs为偏置,Xi:i+k表示一个矩阵区域,va表示类别名称的词向量表示,ci为获得特征。
优选地,为了提高在线预测速度,使用模型蒸馏技术,根据上述步骤一到七训练得到STUDENT模型,其中与上述步骤一到七的不同之处在于:所述STUDENT模型通过所述TEACHER模型的N个向量和单次模型的N个向量进行相加得到N1个向量,然后分别将所述N1个向量输入到softmax层,得到N1个结果,以供在线使用。
在线预测时,加载STUDENT模型,将文本输入到所述STUDENT模型 (在此不进入到TEACHER模型),可以得到N1个结果,分别对应N1个类别的情感。
在此举例说明上述TEACHER模型的N个向量和单次模型的N个向量进行相加的方式为:设TEACHER模型的N个向量=[a,b,c],向量形状为(1, 3),单次模型的N个向量=[d,e,f],向量形状为(1,3);将所述TEACHER 模型的N个向量和单次模型的N个向量相加得到N1个向量[a+d,b+e,c+f],向量形状为(1,3)。
上述模型蒸馏技术是通过集成学习获得大模型的知识,将这些知识转移到小模型上,从而提高模型的在线使用效率,在本实施例中,是指将 TEACHER模型的知识转移到STUDENT模型上,使得STUDENT模型具备在线预测的能力。
为了证明本发明的有益效果,提出实验例对本实施例提供的方法进行进一步地说明。
实验例
通过整理得到细粒度情感分析数据集,其包含20个细粒度类别的情感倾向,分别为交通是否便利(traffic convenience)、距离商圈远近(distance from businessdistrict)、是否容易寻找(easy to find)、排队等候时间(wait time)、服务人员态度(waiter’s attitude)、是否容易停车(parking convenience)、点菜/ 上菜速度(servingspeed)、点菜/上菜速度(serving speed)、性价比 (cost-effective)、折扣力度(discount)、装修情况(decoration)、嘈杂情况(noise)、就餐空间(space)、卫生情况(cleaness)、分量(portion)、口感(taste)、外观(look)、推荐程度(recommendation)、本次消费感受(overall experience)、再次消费的意愿(willing to consume again)。每个细粒度要素的情感倾向有四种状态:正向、中性、负向、未提及。使用[1,0,-1,-2]四个值对情感倾向进行描述,情感倾向值及其含义对照表如下所示:
使用20个细粒度情感维度下的用户评论的F1值的均值作为本次的评价指标,F1值是衡量单个分类效果的度量指标,F1值越高,则表明分类效果越好,F1值的具体计算方法:
其中F1_score(i)为对应细粒度情感维度下的macroF1值,macroF1值是衡量多个分类平均效果的度量指标,macroF1值越高,证明分类效果越好,F1_score(i)可以通过以下公式计算得到:
在本实验例中将基于门卷积神经网络的细粒度情感分析方法记为ACSA 算法,将ACSA算法中卷积神经网络替换为transformer技术,记为TRSA算法,将模型集成的TRSA模型记为ETRSA模型,将ESRSA模型和模型蒸馏合并记为EDTRSA模型,通过以下具体实验证明本实施例基于集成学习的细粒度情感分析方法的有益效果,以下实验环境是一致的。
实验1:
解决卷积神经网络的接收域有限,不能处理长距离句子的问题。
ACSA模型与一个情感类别的TRSA模型的参数基本一致,重复运行5 次,每次记录各自的F1_score,求5次F1_score平均值,结果如表1所示。
表1:
这里需要说明,这份数据集中字的个数大于512的占比超过12.75%,从表1可知,TRSA模型在五次平均F1_score得分为70.24,ACSA模型在五次平均 F1_score得分为68.72,TRSA模型比ACSA模型的F1_score提升2.211%,说明使用 transformer技术可以获得更好的F1_score,从而证明TRSA模型与ACSA模型相比,TRSA模型对长距离句子具有更好的处理效果。
实验2:
解决单模型在线预测效果差的问题。
ETRSA模型与TRSA模型的参数基本一致,重复运行5次,每次记录各自的F1_score_mean,求5次F1_score_mean的平均值,结果如表2所示。
表2:
模型 | ETRSA模型 | TRSA模型 |
F<sub>1_score_mean</sub> | 71.86 | 70.24 |
在本实验中ETRSA模型集成了3个TRSA模型。TRSA模型在五次平均 F1_score_mean得分为70.24,ETRSA模型在五次平均F1_score_mean得分为71.68,由表 2可知ETRSA模型比TRSA模型的F1_score_mean提升2.31%,说明使用集成学习技术可以更好的解决单模型在线预测效果差的问题。
实验3:
解决单个模型只能判断当前评论数据属于单个类别的情感,不能对多个类别的情感同时进行情感分析的问题。
本实验针对每个细粒度类别训练一个ACSA模型,在此需要训练20个 ACSA模型;将1个TRSA模型、20个ACSA模型的F1_score得分分别求平均,重复运行5次,每次记录各自的F1_score_mean,求5次F1_score_mean的平均值,结果如表3所示。
表3:
模型 | 20个ACSA模型 | TRSA模型 |
F<sub>1_score_mean</sub> | 67.84 | 67.45 |
从表3可知,出20个ACSA模型与一个TRSA模型的分析效果相当,但是对于ACSA模型而言需要训练20个模型,具有更大的工作量,所以选用TRSA模型进行多类别的情感分析更加高效。
实验4:
为了证明EDTRSA(STUDENT)模型具有更好的在线预测速度,比较一下ETRSA模型与EDTRSA模型的预测时间和F1_score_mean。数据量为10000 条,求平均运行时间,记录各自的F1_score_mean,结果如表4、表5所示。
表4:
模型 | ETRSA模型 | EDTRSA模型 |
运行时间 | 10.23条/s | 30.64条/s |
表5:
模型 | ETRSA模型 | EDTRSA模型 |
F<sub>1_score_mean</sub> | 71.25 | 71.86 |
由表4和表5可知,使用模型蒸馏牺牲了部分的F1_score_mean,但是显著提升了预测速度,证明EDTRSA(STUDENT)模型具有更好的在线预测速度。
综上实验数据,本实施例基于集成学习的情感分析方法提供的模型比单一模型具有更好的F1得分,比基于门卷积神经网络的细粒度情感分析方法相比能够同时预测多个类别的情感,且具有更快的预测速度。
实施例2
实施例公开了一种对应实施例1的基于集成学习的细粒度情感分析方法对应的装置,为上述实施例的虚拟装置结构,请参照图3所示,包括:
基于集成学习的细粒度情感分析装置,其包括:
数据获取模块310,用于获取文本数据;
情感分析模块320,加载TEACHER模型对所述文本数据进行处理得到情感分析结果,所述情感分析结果包含多个情感类别,在情感分析模块加载 STUDENT模型进行情感类别的在线预测;
结果输出模块330,用于输出所述情感分析结果。
实施例3
图4为本发明实施例3提供的一种电子设备的结构示意图,如图4所示,该电子设备包括处理器410、存储器420、输入装置430和输出装置440;计算机设备中处理器410的数量可以是一个或多个,图4中以一个处理器410为例;电子设备中的处理器410、存储器420、输入装置430和输出装置440可以通过总线或其他方式连接,图4中以通过总线连接为例。
存储器420作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的基于集成学习的细粒度情感分析方法对应的程序指令/模块(例如,基于集成学习的细粒度情感分析装置中的数据获取模块310、情感分析320和结果输出模块330)。处理器410通过运行存储在存储器420中的软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现上述实施例的基于集成学习的细粒度情感分析方法。
存储器420可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器420可进一步包括相对于处理器410 远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实施例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置430可用于接收输入的评论文本数据等。输出装置440可包括显示屏等显示设备,用于显示情感分析结果。
实施例4
本发明实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行实施例1的基于集成学习的细粒度情感分析方法,该方法的原理简述为:
获取文本数据,基于单层一维卷积神经网络,通过max-pooling层、 transformer层、门单元层、softmax层的处理完成单次模型训练;
通过对单次模型的集成学习获得TEACHER模型;经模型蒸馏得到 STUDENT模型;
加载TEACHER模型和STUDENT模型对文本数据进行分析,得到情感分析结果。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的基于集成学习的细粒度情感分析方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory, RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台电子设备(可以是手机,个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述基于集成学习的细粒度情感分析装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
对本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及形变,而所有的这些改变以及形变都应该属于本发明权利要求的保护范围之内。
Claims (10)
1.一种基于集成学习的细粒度情感分析方法,其特征在于,包括以下步骤:
步骤一:获取文本,对所述文本进行分词,得到分词结果;
步骤二:将分词结果输入到嵌入层,设定文本的最大分词数,调整所述分词结果使其符合最大分词数;将符合最大分词数的分词结果转为特定维度的词向量,使得所述文本的所有分词构成矩阵一;
步骤三:设定每个分词的最大字数,调整每个分词的字数使其符合最大字数;将构成每个分词的字转为特定维度的字向量,使得所有分词的字构成三维矩阵;
步骤四:将三维矩阵输入到不同核的单层一维卷积神经网络中,得到输出结果按照最后一维度进行合并,然后输入到max-pooling层,由所述max-pooling层输出二维矩阵;
步骤五:将矩阵一和二维矩阵按照最后一维度进行合并,得到矩阵二,将矩阵二输入到两个不共享参数的transformer层,得到两个输出矩阵;
步骤六:设置N个情感类别,将所述两个输出矩阵输入到门单元层,然后将所述门单元层输入到N个三层全连接层,得到N个向量;
步骤七:将所述N个向量分别输入到softmax层,得到N个类别的同维度情感向量,利用分类算法计算所述N个类别的同维度情感向量的得分,保存得分最高的模型,记为单次模型;
重复步骤一至七过程得到M个单次模型,然后对所述M个单次模型进行集成学习,步骤如下:
s1:加载所述M个单次模型;
s2:将每个模型的softmax层输出的N个类别的同维度情感向量进行加权平均,融合为包含N个向量的TEACHER模型;
最后,将文本输入到TEACHER模型,可以得到N个结果,分别对应N个类别的情感。
2.如权利要求1所述的基于集成学习的细粒度情感分析方法,其特征在于,调整所述分词结果使其符合最大分词数的方法为:当所述文本的分词数大于所述最大分词数时,对所述分词结果进行截断;当所述文本的分词数小于最大分词数时,使用标识符一进行补全。
3.如权利要求1或2所述的基于集成学习的细粒度情感分析方法,其特征在于,调整每个分词的字数使其符合最大字数的方法为:当每个分词的字数大于所述最大字数时,对分词的字数进行截断,当分词的字数小于所述最大字数时,使用标识符二进行补全。
4.如权利要求3所述的基于集成学习的细粒度情感分析方法,其特征在于,使用模型蒸馏技术,根据所述步骤一到七训练得到STUDENT模型,其中所述STUDENT模型通过所述TEACHER模型的N个向量和单次模型的N个向量进行相加得到N1个向量,然后分别将所述N1个向量输入到softmax层,得到N1个结果。
5.如权利要求1或4所述的基于集成学习的细粒度情感分析方法,其特征在于,所述卷积神经网络的计算公式为:
其中,W为卷积核,而X则为输入;当X是一个二维输入的矩阵,那么W也是一个二维的矩阵。
6.如权利要求5所述的基于集成学习的细粒度情感分析方法,其特征在于,所述transformer层包括Attention层,
设Q、K和V均为矩阵,所述Attention层的计算公式如下:
使用Multi-head Attention完善Attention层,具体公式如下:
Multihead(Q,K,V)=Concat(head1,...head8)W,
headi=Attention(QWi Q,KWi K,VWi V)
其中W,QWi Q,KWi K,VWi V都是权重矩阵。
7.如权利要求1或6所述的基于集成学习的细粒度情感分析方法,其特征在于,所述门单元层的计算方法:
ai=relu(Xi:i+k*Wa+Vava+ba)
si=tanh(Xi:i+k*Ws+bs)
ci=si×ai
其中Wa,Va,Ws为参数矩阵;ba,bs为偏置,Xi:i+k表示一个矩阵区域,va表示类别名称的词向量表示,ci为获得特征。
8.一种基于集成学习的细粒度情感分析装置,其特征在于,其包括:
数据获取模块,用于获取文本数据;
情感分析模块,利用TEACHER模型对所述文本数据进行处理得到情感分析结果;
结果输出模块,用于输出所述情感分析结果。
9.一种电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的基于集成学习的细粒度情感分析方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的基于集成学习的细粒度情感分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910466122.2A CN110210027B (zh) | 2019-05-30 | 2019-05-30 | 基于集成学习的细粒度情感分析方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910466122.2A CN110210027B (zh) | 2019-05-30 | 2019-05-30 | 基于集成学习的细粒度情感分析方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110210027A true CN110210027A (zh) | 2019-09-06 |
CN110210027B CN110210027B (zh) | 2023-01-24 |
Family
ID=67789660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910466122.2A Active CN110210027B (zh) | 2019-05-30 | 2019-05-30 | 基于集成学习的细粒度情感分析方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110210027B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021047286A1 (zh) * | 2019-09-12 | 2021-03-18 | 华为技术有限公司 | 文本处理模型的训练方法、文本处理方法及装置 |
CN113204633A (zh) * | 2021-06-01 | 2021-08-03 | 吉林大学 | 一种语义匹配蒸馏方法及装置 |
CN113255796A (zh) * | 2021-06-02 | 2021-08-13 | 北京理工大学 | 一种基于教学机制的情感分析方法 |
CN113535963A (zh) * | 2021-09-13 | 2021-10-22 | 深圳前海环融联易信息科技服务有限公司 | 一种长文本事件抽取方法、装置、计算机设备及存储介质 |
CN114332544A (zh) * | 2022-03-14 | 2022-04-12 | 之江实验室 | 一种基于图像块评分的细粒度图像分类方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108427670A (zh) * | 2018-04-08 | 2018-08-21 | 重庆邮电大学 | 一种基于语境词向量和深度学习的情感分析方法 |
WO2018212584A2 (ko) * | 2017-05-16 | 2018-11-22 | 삼성전자 주식회사 | 딥 뉴럴 네트워크를 이용하여 문장이 속하는 클래스를 분류하는 방법 및 장치 |
CN109740154A (zh) * | 2018-12-26 | 2019-05-10 | 西安电子科技大学 | 一种基于多任务学习的在线评论细粒度情感分析方法 |
-
2019
- 2019-05-30 CN CN201910466122.2A patent/CN110210027B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018212584A2 (ko) * | 2017-05-16 | 2018-11-22 | 삼성전자 주식회사 | 딥 뉴럴 네트워크를 이용하여 문장이 속하는 클래스를 분류하는 방법 및 장치 |
CN108427670A (zh) * | 2018-04-08 | 2018-08-21 | 重庆邮电大学 | 一种基于语境词向量和深度学习的情感分析方法 |
CN109740154A (zh) * | 2018-12-26 | 2019-05-10 | 西安电子科技大学 | 一种基于多任务学习的在线评论细粒度情感分析方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021047286A1 (zh) * | 2019-09-12 | 2021-03-18 | 华为技术有限公司 | 文本处理模型的训练方法、文本处理方法及装置 |
CN113204633A (zh) * | 2021-06-01 | 2021-08-03 | 吉林大学 | 一种语义匹配蒸馏方法及装置 |
CN113255796A (zh) * | 2021-06-02 | 2021-08-13 | 北京理工大学 | 一种基于教学机制的情感分析方法 |
CN113255796B (zh) * | 2021-06-02 | 2022-11-04 | 北京理工大学 | 一种基于教学机制的情感分析方法 |
CN113535963A (zh) * | 2021-09-13 | 2021-10-22 | 深圳前海环融联易信息科技服务有限公司 | 一种长文本事件抽取方法、装置、计算机设备及存储介质 |
CN114332544A (zh) * | 2022-03-14 | 2022-04-12 | 之江实验室 | 一种基于图像块评分的细粒度图像分类方法和装置 |
CN114332544B (zh) * | 2022-03-14 | 2022-06-07 | 之江实验室 | 一种基于图像块评分的细粒度图像分类方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110210027B (zh) | 2023-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110210027A (zh) | 基于集成学习的细粒度情感分析方法、装置、设备及介质 | |
CN109492101B (zh) | 基于标签信息与文本特征的文本分类方法、系统及介质 | |
Ishaq et al. | Aspect-based sentiment analysis using a hybridized approach based on CNN and GA | |
CN109460737A (zh) | 一种基于增强式残差神经网络的多模态语音情感识别方法 | |
CN109740154A (zh) | 一种基于多任务学习的在线评论细粒度情感分析方法 | |
CN110866542B (zh) | 一种基于特征可控融合的深度表示学习方法 | |
CN111767741A (zh) | 一种基于深度学习和tfidf算法的文本情感分析方法 | |
CN110532379B (zh) | 一种基于lstm的用户评论情感分析的电子资讯推荐方法 | |
CN111160037A (zh) | 一种支持跨语言迁移的细粒度情感分析方法 | |
CN111242729A (zh) | 一种基于长短期兴趣的序列化推荐方法 | |
CN110060772B (zh) | 一种基于社交网络的职业心理性格分析方法 | |
CN110825850B (zh) | 一种自然语言主题分类方法及装置 | |
CN105022754A (zh) | 基于社交网络的对象分类方法及装置 | |
CN111460157A (zh) | 用于多领域文本分类的循环卷积多任务学习方法 | |
CN110472115B (zh) | 一种基于深度学习的社交网络文本情感细粒度分类方法 | |
CN105184654A (zh) | 一种基于社区划分的舆情热点实时获取方法与获取装置 | |
CN110019563B (zh) | 一种基于多维数据的肖像建模方法和装置 | |
CN112464106B (zh) | 对象推荐方法及装置 | |
CN103345525B (zh) | 文本分类方法、装置及处理器 | |
Shen et al. | Empirical evaluation of RNN architectures on sentence classification task | |
CN114358813B (zh) | 一种基于场矩阵因子分解机改进的广告投放方法及系统 | |
CN111666410B (zh) | 商品用户评论文本的情感分类方法及系统 | |
Belhouchette | Facial recognition to identify emotions: an application of deep learning | |
Sridhar et al. | Performance Analysis of Two-Stage Iterative Ensemble Method over Random Oversampling Methods on Multiclass Imbalanced Datasets | |
CN107492384B (zh) | 一种基于模糊最近邻算法的语音情感识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 23 / F, World Trade Center, 857 Xincheng Road, Binjiang District, Hangzhou City, Zhejiang Province, 310051 Applicant after: Hangzhou Yuanchuan Xinye Technology Co.,Ltd. Address before: 23 / F, World Trade Center, 857 Xincheng Road, Binjiang District, Hangzhou City, Zhejiang Province, 310051 Applicant before: Hangzhou Yuanchuan New Technology Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |