CN111309909B - 一种基于混合模型的文本情感分类方法 - Google Patents

一种基于混合模型的文本情感分类方法 Download PDF

Info

Publication number
CN111309909B
CN111309909B CN202010091064.2A CN202010091064A CN111309909B CN 111309909 B CN111309909 B CN 111309909B CN 202010091064 A CN202010091064 A CN 202010091064A CN 111309909 B CN111309909 B CN 111309909B
Authority
CN
China
Prior art keywords
layer
text
lstm
attention
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010091064.2A
Other languages
English (en)
Other versions
CN111309909A (zh
Inventor
王丹
余悦任
杜金莲
付利华
苏航
李童
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202010091064.2A priority Critical patent/CN111309909B/zh
Publication of CN111309909A publication Critical patent/CN111309909A/zh
Application granted granted Critical
Publication of CN111309909B publication Critical patent/CN111309909B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种基于混合模型的文本情感分类方法属于计算机软件领域。该方法主要包含数据处理层、机器学习处理层、CNN处理层、LSTM‑Attention处理层、自适应决策层。待分类数据经过机器学习处理层、CNN处理层和LSTM‑Attention处理层分别处理,最后将其处理结果一同输入到自适应决策层中,自适应决策层根据不同处理层以往的分类结果自适应调整各层结果所占的权重,从而得到最终的分类结果。相比单一的机器学习和单一的深度学习方法,该方法处理效果明显,并且结果具有良好的可解释性,应用前景广泛。

Description

一种基于混合模型的文本情感分类方法
技术领域
本发明设计一种基于卷积神经网络、循环神经网络、注意力机制的文本情感分类方法,属于计算机软件领域。
背景技术
在当今社交网络环境中,网民可以通过新闻跟帖、微博、贴吧、论坛等多种形式,针对某一热点事件发表个人观点,表达自己的情感倾向性。如果通过情感分析技术,从海量在线评论文本中获取网民的情感倾向,无论是对政府部门有效地进行舆情监控,还是其他相关团体从中提取有价值的信息,都有非常重要的现实意义。因此,这一类自然语言处理问题已引起研究者的普遍关注。
目前常用的文本情感分类方法包括基于词典的情感分类、基于传统机器学习的情感分类和基于深度学习的分类方法。前两种分类方法对人工先验知识要求较高,需要人工提取特征和构建情感词典等,处理效果较为理想,但过程繁琐。后一种由深度学习自动提取特征,处理过程简便,但是结果不具有可解释性,效果也差一些。
综上所述,当下需要一种处理结果简便,具有效果良好且可解释性的文本情感分类方法。
发明内容
本发明的内容为:
①提出了一种基于混合模型的文本情感分类方法,该模型能够很好的融合传统机器学习情感分类和深度学习情感分类方法,分类效果良好,并且具有可解释性。
②提出了一种高效的自适应决策方法,根据多个分类器的决策结果及历史表现进行决策判定。
③对相关模型和判断方法进行了测试,验证了其有效性。
本发明采用深度学习技术卷积神经网络(Convolutional Neural Network,CNN)提取数据隐藏高维空间特征,长短期记忆(Long short-term memory,LSTM)提取数据时间特征并通过Attention对不同词语赋予不同的权重,同时借鉴集成学习的分类结果,最终经过自适应决策进行二分类,实现分类功能。
为达到以上发明目的,经过研究讨论和反复实践,检测方案最终如下。
1、方案总体设计
本方案主要分为数据处理层、机器学习处理层、CNN处理层、LSTM-Attention处理层和自适应决策层。
(1)数据处理层:文本向量化,即将文本数据映射为高维实数向量。采用Word2vec文本向量化方法,对原始文本进行向量化处理。
(2)机器学习处理层:利用主成分分析(PCA)、潜在语意分析(LSI)和独立成分分析(ICA)对文本进行特征提取,通过传统机器学习进行特征学习。
(3)CNN处理层:使用三个卷积层,卷积核逐渐减小,缩小特征的范围,全面提取文本向量数据的空间特征。同时最大池化、激励层的使用可以降低特征维度,加快模型收敛速度,得到依据隐藏高维特征分类结果。
(4)LSTM-Attention处理层:t时刻的输出,由t-k,t-k+1,...,t-1等k个时刻的历史输出和t时刻的输入共同决定,每一个时刻对最终输出结果的影响是不同的。
使用Attention来对不同时刻的前k个历史序列赋予不同的权重,灵活捕捉局部和全局的联系,增强模型可解释性,提高检测准确率。
(5)自适应决策层:自适应调整机器学习处理层、CNN处理层和LSTM-Attention处理层的处理结果对最终结果的影响权重,提高检测准确率。
2、运行环境
本方案采用Python语言实现,用深度学习框架TensorFlow实现核心部分编写。实验环境为:Windows10 64bit,经验证,在Windows 10 64bit,Ubuntu 18.04LTS 64bit以及macOS 10.13.6运行良好。
一种基于混合模型的文本情感分类方法,其特征在于,包括如下步骤:
步骤1.对原始数据进行预处理,将文本数据转换为文本向量:包含如下几步:
1.1.加载原始文本数据data;
1.2.对原始文本进行分词;
1.3.依据上一步的分词词频进行编号;
1.4.将每个样本中的每个词转换为数字列表;
1.5.将每条样本划分为相同长度maxlen;
1.6.得到预处理文本向量数据D;
步骤2.机器学习处理层,采用机器学习的方法对原始文本数据data进行分类,具体步骤为:
2.1.运用朴素贝叶斯对文本进行分类,得到其分类结果R1;
2.2.运用梯度下降对文本进行分类,得到其分类结果R2;
2.3.运用支持向量机对文本进行分类,得到其分类结果R3;
步骤3.CNN处理层,包含采用三层卷积层、两层dropout层、一层最大池化以及两层全连接层,对步骤1得到的文本向量数据D进行隐藏高维特征提取,并依据这些特征对文本情感进行分类,具体网络结构为:
3.1.第1层卷积层滤波器为256、卷积核为5、步长为1,激活函数relu;
3.2.第2层dropout层,dropout值为0.1;
3.3.第3层卷积层滤波器为128、卷积核为5、步长为1,激活函数relu;
3.4.第4层dropout层,dropout值为0.1;
3.5.第5层卷积层滤波器为64、卷积核为5、步长为1、激活函数relu;
3.6.第6层最大池化层池化核为3、步长为3;
3.7.第7层Flatten层,展平数据;
3.8.第8层全连接层神经元个数为128;
3.9.第9层全连接层神经元个数为1,激活函数sigmoid,得到分类结果R4;
步骤4.LSTM-Attention处理层,对步骤1得到的文本向量数据D采用带有注意力机制的LSTM网络进行时间序列特征提取,并依据这些特征对文本情感进行分类,其过程为:
4.1.计算D中每条文本向量的实际长度;
4.2.将数据加载到LSTM-Attention处理;
4.3.输出分类结果R5;
步骤5.自适应决策层,对步骤2的结果R1,R2,R3,步骤3的结果R4,步骤4的结果R5自适应加权得到最终分类结果,具体步骤如下:
5.1.加载R1-R5;
5.2.初始化R1-R5的权重Wj向量;
5.3.开始拟合训练;
5.4.根据R1-R5的错误率更新Wj的值;
5.5.保存模型。
步骤4.1.中每条文本向量的实际长度,其计算方法为maxlen-count0,其中maxlen与步骤1.5中相同,count0为当前文本向量末尾0的个数;步骤4.2.中LSTM计算公式如(1)、(2)、(3)、(4)所示:
ft=σ(Wf×[ht-1,xt]+bf) (1)
it=σ(Wi×[ht-1,xt]+bi) (2)
Figure BDA0002383734300000041
Figure BDA0002383734300000042
其中,ft为遗忘门参数,ct为细胞状态更新参数,ht-1和ct-1分别为隐层输出和t-1时刻的细胞状态,xt为t时刻输入的文本向量,
Figure BDA0002383734300000043
是细胞状态的更新备选值,it为输入门参数,Wf为LSTM模型内待训练的遗忘门权重参数,bf为LSTM模型内待训练的遗忘门偏置参数,Wi为LSTM模型内待训练的输入门权重参数,bi为LSTM模型内待训练的输入门偏置参数,WC为LSTM模型内待训练的细胞状态更新权重参数,bC为LSTM模型内待训练的细胞状态更新偏置参数,σ为sigmoid激活函数;在该模型中it=1-βft,β为调节系数取值
Figure BDA0002383734300000044
调节遗忘门和输入门对下一个时刻状态的影响权重,即遗忘门参数ft同时决定旧细胞遗忘的信息与新细胞加入的信息,细胞状态的更新公式,如公式(5)所示:
Figure BDA0002383734300000045
从(5)中可以看出,遗忘门参数ft是通过对新旧细胞状态加权求和来更新当前时刻细胞状态的,针对该加权系数采用自注意力机制来获取,即通过训练注意力模型中的参数来获取细胞自身状态中的信息,从而更新为新的细胞状态,因此,遗忘门参数ft,可通过公式(6)得到,
ft=σ(Vf×tanh(Wf×ct-1)) (6)
其中,Vf为遗忘门内注意力机制待训练参数,tanh为激活函数;
时序特征维度的注意力加权详细步骤为:LSTM模型输出的最后一个时刻记为oL与整个输出记为ot作注意力运算的参数,将获取的加权系数作用在ot的时间维度上,并在时间维度上求和作为输出,如公式(7)、(8)所示:
st=softmax(oL×(ot×wt)T) (7)
Figure BDA0002383734300000051
其中,st表示时间维度上的注意力加权系数,oL是LSTM模型最后一个时刻的输出值,wt是ot在时间维度上的权重系数,·表示Hadamard乘法;outt为时间维度上求和后的时间加权输出,st与ot表示时间维度的信息相乘;时间维度上的加权和outt即为LSTM-Attention处理层的输出R5。
步骤5.2.中,各个分类器(朴素贝叶斯、随机梯度下降、支持向量机、CNN、LSTM-Attention)的初始化权重为0.2,计算方法为:
Figure BDA0002383734300000052
其中Wj为第j个分类器的权重,N=5表示分类器个数;步骤5.3.中,学习率lr为0.001,迭代次数epochs为300,若损失值loss在m代没有下降,将提前结束训练否则迭代300次结束,m值为10;步骤5.4.中动态更新Wj的算法为
Figure BDA0002383734300000053
其中ej为第j个分类器的错误率,最后根据公式(9)得到最后检测结果,其中gj(x)为第j个分类器,∑对各个分类器乘以权重求和得到最终分类结果;
Figure BDA0002383734300000054
本方案具有较强的通用性,在设计之初就考虑了对其他操作系统的支持,最大程度做到平台无关性。
本方案依赖的核心库包括:TensorFlow1.14,numpy1.17.3,pandas0.25.3,jieba0.39,matplotlib3.1.1,由于Python对跨平台支持友好,这些库在不同平台上都能够安装运行。
附图说明
图1模型架构设计图
图2LSTM结构图
具体实施方案
本方案的原理是文本数据经过预处理转换为文本向量,然后经过CNN处理层和LSTM-Attention处理层并行处理,最后与机器学习训练的分类器一并经过自适应决策层实现情感分类,模型架构设计如图1所示。
5.1数据处理层
数据预处理主要将文字特征转换为数字特征;将每条文本转换为数字列表;将每条文本设置为相同长度;将每个词编码转换为词向量。处理算法描述如算法1所示:
Figure BDA0002383734300000061
步骤1中data单条记录格式为一段长度不超140的文本,并标有积极或消极标签;步骤2中采用已有分词库jieba进行分词操作;步骤4中样本的相同长度maxlen值为50,这里50是样本长度的中位数,可以根据样本实际情况进行调整超过部分截掉,不足部分用0补齐;步骤5中得到的预处理数据D为具有相同长度的文本向量。
5.2机器学习处理层
机器学习处理层,其主要功能为运用已有传统机器学习方法,朴素贝叶斯、随机梯度下降(SGD)、支持向量机(SVM)等传统算法,计算情感类别,其分类结果分别为R1,R2,R3,最后将结果一同输入到自适应决策层中。
5.3CNN处理层
CNN处理层包含三层卷积层、两层dropout层、最大池化层和两层全连接层,负责提取文本向量中隐含的高维特征,采用滤波器不断减小的三层卷积层,局部特征和全局特征全都覆盖到,同时采用最大池化层,保留最明显的特征同时降低数据维度,加快模型收敛速度,CNN处理层的算法描述如算法2所示:
Figure BDA0002383734300000071
上述算法步骤0中,滤波器大小为256,卷积核大小为5,步长为1,通道数为1,激活函数为relu;骤1中dropout值为0.1;步骤2中滤波器大小为128,卷积核大小为5,步长为1,激活函数为relu;步骤3中dropout值为0.1;步骤4中滤波器大小为64,卷积核大小为5,步长1,激活函数为relu;步骤5中池化核大小为3,步长为3;步骤7中,全连接层神经元个数为128个;步骤8中,全连接层神经元个数为1,激活函数为sigmoid。
5.4LSTM-Attention处理层
循环神经网络(Recurrent Neural Network,RNN)是一种处理时间序列问题并获得良好效果的神经网络。进一步讲,当处理后续输入数据时,之前输入序列所携带的信息可以保存在网络内。RNN在语音识别、机器翻译和自然语言处理等任务中被广泛应用。但是,RNN在长时间序列预测中,存在梯度消失和梯度爆炸的问题,由此限制了RNN处理长时间序列信息的能力。LSTM作为RNN的扩展,通过一种特殊的记忆单元设计来学习长期依赖,每个单元包含四部分分别为:循环连接单元、输入门、输出门和遗忘门,其结构如图2所示。
在长时间的序列预测中,随着时间的进展不同词语对预测结果的贡献度是不一致的。
因此需要通过注意力机制的方式动态调整每个词在单条样本中对应的权重。其原理是不同的词语对最终结果的贡献度不同,通过提高贡献度高的词语权重,从而提高分类的准确率。
LSTM-Attention处理层的算法描述如算法3所示:
Figure BDA0002383734300000081
算法3步骤1中,数据片段实际有效长度是不包含末尾0的长度,可以通过算法1中maxlen减末尾零的个数获得;步骤2,LSTM-Attention处理过程是算法3的关键,详细说明如下,LSTM包含循环连接单元、输入门、输出门和遗忘门,其中遗忘门是LSTM可以处理长时间序列信息的关键。通过Attention优化LSTM模型中的遗忘门计算方式,在LSTM模型中的遗忘门用来决定什么样的信息应该丢弃,什么样的数据应该保留,它会直接参与新细胞状态更新的计算中。在LSTM模型中,遗忘门与细胞状态的更新状态只与上一时刻隐藏层数据与当前时刻输入有关,该遗忘门的计算方式,如公式(10)所示:
ft=σ(Wf×[ht-1,xt]+bf) (10)
该细胞更新状态,如公式(11)、(12)、(13)所示:
it=σ(Wi×[ht-1,xt]+bi) (11)
Figure BDA0002383734300000082
Figure BDA0002383734300000083
其中,ft为遗忘门参数,ct为细胞状态更新参数,ht-1和ct-1分别为隐层输出和t-1时刻的细胞状态,xt为t时刻的输入,
Figure BDA0002383734300000084
是细胞状态的更新备选值,it为输入门参数,Wf为LSTM模型内待训练的遗忘门权重参数,bf为LSTM模型内待训练的遗忘门偏置参数,Wi为LSTM模型内待训练的输入门权重参数,bi为LSTM模型内待训练的输入门偏置参数,WC为LSTM模型内待训练的细胞状态更新权重参数,bC为LSTM模型内待训练的细胞状态更新偏置参数,σ为sigmoid激活函数。在该模型中it=1-βft,β为调节系数,调节遗忘门和输入门对下一个时刻状态的影响权重,β取值为0.5其值越大遗忘门对下一时刻状态的影响权重越大。即ft同时决定旧细胞遗忘的信息与新细胞加入的信息,细胞状态的更新公式,如公式(14)所示:
Figure BDA0002383734300000091
从(14)中可以看出,遗忘门参数ft是通过对新旧细胞状态加权求和来更新当前时刻细胞状态的,针对该加权系数采用自注意力机制来获取,即通过训练注意力模型中的参数来获取细胞自身状态中的信息,从而更新为新的细胞状态,因此,遗忘门参数ft,可通过公式(15)得到,
ft=σ(Vf×tanh(Wf×ct-1)) (15)
其中,Vf为遗忘门内注意力机制待训练参数,tanh为激活函数。
时序特征维度的注意力加权详细步骤为:LSTM模型输出的最后一个时刻记为oL与整个输出记为ot作注意力运算的参数,将获取的加权系数作用在ot的时间维度上,并在时间维度上求和作为输出,如公式(16)、(17)所示:
st=softmax(oL×(ot×wt)T) (16)
Figure BDA0002383734300000092
其中,st表示时间维度上的注意力加权系数,wt是ot在时间维度上的权重系数,·表示Hadamard乘法;outt为时间维度上求和后的时间加权输出,st与ot表示时间维度的信息相乘。时间维度上的加权和outt即为LSTM-Attention处理层的输出R5,也是自适应决策层的一个输入。
5.5自适应决策层:
该层采用自适应决策算法,基于分类器正确率的表现动态调整各个分类器所占的权重,其算法描述如算法4所示:
Figure BDA0002383734300000101
上述算法,步骤1中各个分类器(朴素贝叶斯、SGD、SVM、CNN、LSTM-Attention)所占的权重相同即
Figure BDA0002383734300000102
Wj为第j个分类器的权重,N为分类器个数;步骤2中需要设定学习率lr为0.001,随着训练轮数增加可适当降低学习率从而避免震荡,迭代次数epochs为300,若损失值loss在m轮没有下降,将提前结束训练但最大迭代次数为300,m这里取10表示10个epoch内损失没有下降结束训练;步骤3中动态更新Wj的算法为
Figure BDA0002383734300000103
其中ej为第j个分类器的错误率,Wj随着ej的减小而增大,也就是说误差率越小的分类器所占权重越大,最后根据公式(18)得到最后检测结果,其中gj(x)为第j个分类器,∑对各个分类器乘以权重求和得到最终分类结果。
Figure BDA0002383734300000104
保存模型,然后退出。
最后输入待分类情感文本,经过已保存的模型中处理,输出当前情感文本的分类结果,即是积极情感还是消极情感。
3、为了测试提出的基于混合模型的文本情感分类方法,本次实验采用Github开源数据集simplifyweibo,是带有情感标注的微博数据集。训练集的总样本个数为361744,正样本个数为199496,负样本个数为162248,标签由积极和消极两种情感类型组成。实验随机抽取20000条正样本和19000条负样本,并且样本集按照8:2的比例划分为训练集和测试集进行模型的训练和测试。
通过使用simplifyweibo数据集对朴素贝叶斯、随机梯度下降、支持向量机等机器学习方法以及CNN和LSTM-Attention等深度学习方法进行实验,结果如下表所示:
Figure BDA0002383734300000111
本专利自适应决策方法在F1度量值以及准确率方面在测试中均取得良好效果,原因在于自适应决策结合了朴素贝叶斯、SGD、SVM、CNN、LSTM-Attention多个模型的优点,自适应调整不同模型在最终分类结果中的权重;在可解释性方面,自适应决策方法可以依据模型的权重向量W对分类结果进行解释。
综上所述,本发明基于混合模型,采用机器学习和深度学习相结合的分类方法,模型准确率得到提高,同时分类结果具有良好的解释性。

Claims (3)

1.一种基于混合模型的文本情感分类方法,其特征在于,包括如下步骤:
步骤1.对原始数据进行预处理,将文本数据转换为文本向量:包含如下几步:
1.1.加载原始文本数据data;
1.2.对原始文本进行分词;
1.3.依据上一步的分词词频进行编号;
1.4.将每个样本中的每个词转换为数字列表;
1.5.将每条样本划分为相同长度maxlen;
1.6.得到预处理文本向量数据D;
步骤2.机器学习处理层,采用机器学习的方法对原始文本数据data进行分类,具体步骤为:
2.1.运用朴素贝叶斯对文本进行分类,得到其分类结果R1;
2.2.运用梯度下降对文本进行分类,得到其分类结果R2;
2.3.运用支持向量机对文本进行分类,得到其分类结果R3;
步骤3.CNN处理层,包含采用三层卷积层、两层dropout层、一层最大池化以及两层全连接层,对步骤1得到的文本向量数据D进行隐藏高维特征提取,并依据这些特征对文本情感进行分类,具体网络结构为:
3.1.第1层卷积层滤波器为256、卷积核为5、步长为1,激活函数relu;
3.2.第2层dropout层,dropout值为0.1;
3.3.第3层卷积层滤波器为128、卷积核为5、步长为1,激活函数relu;
3.4.第4层dropout层,dropout值为0.1;
3.5.第5层卷积层滤波器为64、卷积核为5、步长为1、激活函数relu;
3.6.第6层最大池化层池化核为3、步长为3;
3.7.第7层Flatten层,展平数据;
3.8.第8层全连接层神经元个数为128;
3.9.第9层全连接层神经元个数为1,激活函数sigmoid,得到分类结果R4;
步骤4.LSTM-Attention处理层,对步骤1得到的文本向量数据D采用带有注意力机制的LSTM网络进行时间序列特征提取,并依据这些特征对文本情感进行分类,其过程为:
4.1.计算D中每条文本向量的实际长度;
4.2.将数据加载到LSTM-Attention处理;
4.3.输出分类结果R5;
步骤5.自适应决策层,对步骤2的结果R1,R2,R3,步骤3的结果R4,步骤4的结果R5自适应加权得到最终分类结果,具体步骤如下:
5.1.加载R1-R5;
5.2.初始化R1-R5的权重Wj向量;
5.3.开始拟合训练;
5.4.根据R1-R5的错误率更新Wj的值;
5.5.保存模型。
2.根据权利要求1所述的基于混合模型的文本情感分类方法,其特征在于:步骤4.1.中每条文本向量的实际长度,其计算方法为maxlen-count0,其中maxlen与步骤1.5中相同,count0为当前文本向量末尾0的个数;步骤4.2.中LSTM计算公式如(1.1)、(1.2)、(1.3)、(1.4)所示:
ft=σ(Wf×[ht-1,xt]+bf) (1.1)
it=σ(Wi×[ht-1,xt]+bi) (1.2)
Figure FDA0002383734290000021
Figure FDA0002383734290000022
其中,ft为遗忘门参数,ct为细胞状态更新参数,ht-1和ct-1分别为隐层输出和t-1时刻的细胞状态,xt为t时刻输入的文本向量,
Figure FDA0002383734290000023
是细胞状态的更新备选值,it为输入门参数,Wf为LSTM模型内待训练的遗忘门权重参数,bf为LSTM模型内待训练的遗忘门偏置参数,Wi为LSTM模型内待训练的输入门权重参数,bi为LSTM模型内待训练的输入门偏置参数,WC为LSTM模型内待训练的细胞状态更新权重参数,bC为LSTM模型内待训练的细胞状态更新偏置参数,σ为sigmoid激活函数;在该模型中it=1-βft,β为调节系数取值
Figure FDA0002383734290000024
调节遗忘门和输入门对下一个时刻状态的影响权重,即遗忘门参数ft同时决定旧细胞遗忘的信息与新细胞加入的信息,细胞状态的更新公式,如公式(1.5)所示:
Figure FDA0002383734290000031
从(1.5)中可以看出,遗忘门参数ft是通过对新旧细胞状态加权求和来更新当前时刻细胞状态的,针对该加权系数采用自注意力机制来获取,即通过训练注意力模型中的参数来获取细胞自身状态中的信息,从而更新为新的细胞状态,因此,遗忘门参数ft,可通过公式(1.6)得到,
ft=σ(Vf×tanh(Wf×ct-1)) (1.6)
其中,Vf为遗忘门内注意力机制待训练参数,tanh为激活函数;
时序特征维度的注意力加权详细步骤为:LSTM模型输出的最后一个时刻记为oL与整个输出记为ot作注意力运算的参数,将获取的加权系数作用在ot的时间维度上,并在时间维度上求和作为输出,如公式(1.7)、(1.8)所示:
st=softmax(oL×(ot×wt)T) (1.7)
Figure FDA0002383734290000032
其中,st表示时间维度上的注意力加权系数,oL是LSTM模型最后一个时刻的输出值,wt是ot在时间维度上的权重系数,·表示Hadamard乘法;outt为时间维度上求和后的时间加权输出,st与ot表示时间维度的信息相乘;时间维度上的加权和outt即为LSTM-Attention处理层的输出R5。
3.根据权利要求1所述的基于混合模型的文本情感分类方法,其特征在于:步骤5.2.中,各个分类器: 朴素贝叶斯、随机梯度下降、支持向量机、CNN、LSTM-Attention的初始化权重为0.2,计算方法为:
Figure FDA0002383734290000033
其中Wj为第j个分类器的权重,N=5表示分类器个数;步骤5.3.中,学习率lr为0.001,迭代次数epochs为300,若损失值loss在m代没有下降,将提前结束训练否则迭代300次结束,m值为10;步骤5.4.中动态更新Wj的算法为
Figure FDA0002383734290000034
其中ej为第j个分类器的错误率,最后根据公式(1.9)得到最后检测结果,其中gj(x)为第j个分类器,∑对各个分类器乘以权重求和得到最终分类结果;
Figure FDA0002383734290000035
CN202010091064.2A 2020-02-13 2020-02-13 一种基于混合模型的文本情感分类方法 Active CN111309909B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010091064.2A CN111309909B (zh) 2020-02-13 2020-02-13 一种基于混合模型的文本情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010091064.2A CN111309909B (zh) 2020-02-13 2020-02-13 一种基于混合模型的文本情感分类方法

Publications (2)

Publication Number Publication Date
CN111309909A CN111309909A (zh) 2020-06-19
CN111309909B true CN111309909B (zh) 2021-07-30

Family

ID=71159921

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010091064.2A Active CN111309909B (zh) 2020-02-13 2020-02-13 一种基于混合模型的文本情感分类方法

Country Status (1)

Country Link
CN (1) CN111309909B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308306A (zh) * 2020-10-27 2021-02-02 贵州工程应用技术学院 一种多模态输入的煤与瓦斯突出危险预测方法
CN112632222B (zh) * 2020-12-25 2023-02-03 海信视像科技股份有限公司 一种终端设备和确定数据所属领域的方法
CN113269048B (zh) * 2021-04-29 2024-05-28 北京工业大学 基于深度学习和混合噪声数据增强的运动想象脑电信号分类方法
CN113342973A (zh) * 2021-06-03 2021-09-03 重庆南鹏人工智能科技研究院有限公司 一种基于疾病二分类器的辅助诊断模型的诊断方法
CN113627550A (zh) * 2021-08-17 2021-11-09 北京计算机技术及应用研究所 一种基于多模态融合的图文情感分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107665248A (zh) * 2017-09-22 2018-02-06 齐鲁工业大学 基于深度学习混合模型的文本分类方法和装置
CN108268461A (zh) * 2016-12-30 2018-07-10 广东精点数据科技股份有限公司 一种基于混合分类器的文本分类装置
WO2020004369A1 (ja) * 2018-06-29 2020-01-02 学校法人東京女子医科大学 心電図画像を用いた機械学習による心電図診断装置
CN110647980A (zh) * 2019-09-18 2020-01-03 成都理工大学 一种基于gru神经网络的时间序列预测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10108902B1 (en) * 2017-09-18 2018-10-23 CS Disco, Inc. Methods and apparatus for asynchronous and interactive machine learning using attention selection techniques

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108268461A (zh) * 2016-12-30 2018-07-10 广东精点数据科技股份有限公司 一种基于混合分类器的文本分类装置
CN107665248A (zh) * 2017-09-22 2018-02-06 齐鲁工业大学 基于深度学习混合模型的文本分类方法和装置
WO2020004369A1 (ja) * 2018-06-29 2020-01-02 学校法人東京女子医科大学 心電図画像を用いた機械学習による心電図診断装置
CN110647980A (zh) * 2019-09-18 2020-01-03 成都理工大学 一种基于gru神经网络的时间序列预测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Research on Web Text Classification Algorithm Based on Improved CNN and SVM;Zhiquan Wang;《2017 17th IEEE International Conference on Communication Technology》;20180517;第1958-1961页 *
基于Stacking融合深度学习模型和传统机器学习模型的短文本情感分类研究;周青松;《无线互联科技》;20181231(第24期);第63-65页 *

Also Published As

Publication number Publication date
CN111309909A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
CN111309909B (zh) 一种基于混合模型的文本情感分类方法
Kim et al. Towards speech emotion recognition" in the wild" using aggregated corpora and deep multi-task learning
CN111368996B (zh) 可传递自然语言表示的重新训练投影网络
CN112163426B (zh) 一种基于注意力机制与图长短时记忆神经网络结合的关系抽取方法
Chien et al. Bayesian recurrent neural network for language modeling
Xu et al. Investigation on the Chinese text sentiment analysis based on convolutional neural networks in deep learning.
CN112579778B (zh) 基于多层次的特征注意力的方面级情感分类方法
Li et al. Towards Discriminative Representation Learning for Speech Emotion Recognition.
CN109189925A (zh) 基于点互信息的词向量模型和基于cnn的文本分类方法
CN112364638B (zh) 一种基于社交文本的人格识别方法
CN111368086A (zh) 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法
CN111522956A (zh) 基于双通道和层次化注意力网络的文本情感分类方法
CN112232087B (zh) 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法
CN112699960A (zh) 基于深度学习的半监督分类方法、设备及存储介质
CN112926322A (zh) 融合自注意力机制和深度学习的文本分类方法及系统
Leeman-Munk et al. Ncsu_sas_sam: Deep encoding and reconstruction for normalization of noisy text
CN114860930A (zh) 一种文本分类方法、装置以及存储介质
Zouzou et al. Text sentiment analysis with CNN & GRU model using GloVe
Zhang et al. Attention pooling-based bidirectional gated recurrent units model for sentimental classification
Yadav et al. A comparative study of deep learning methods for hate speech and offensive language detection in textual data
Rahman Robust and consistent estimation of word embedding for bangla language by fine-tuning word2vec model
CN113204640B (zh) 一种基于注意力机制的文本分类方法
Silva et al. Intelligent genetic fuzzy inference system for speech recognition: An approach from low order feature based on discrete cosine transform
CN116204644A (zh) 一种基于VAE和Attention的主题增强文本情感分类方法
CN113342964B (zh) 一种基于移动业务的推荐类型确定方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant