CN110046223B - 基于改进型卷积神经网络模型的影评情感分析方法 - Google Patents

基于改进型卷积神经网络模型的影评情感分析方法 Download PDF

Info

Publication number
CN110046223B
CN110046223B CN201910191148.0A CN201910191148A CN110046223B CN 110046223 B CN110046223 B CN 110046223B CN 201910191148 A CN201910191148 A CN 201910191148A CN 110046223 B CN110046223 B CN 110046223B
Authority
CN
China
Prior art keywords
layer
word
words
text
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910191148.0A
Other languages
English (en)
Other versions
CN110046223A (zh
Inventor
李俭兵
刘栗材
张功国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Information Technology Designing Co ltd
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing Information Technology Designing Co ltd
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Information Technology Designing Co ltd, Chongqing University of Post and Telecommunications filed Critical Chongqing Information Technology Designing Co ltd
Priority to CN201910191148.0A priority Critical patent/CN110046223B/zh
Publication of CN110046223A publication Critical patent/CN110046223A/zh
Application granted granted Critical
Publication of CN110046223B publication Critical patent/CN110046223B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明请求保护一种基于改进型卷积神经网络模型的影评情感分析方法。在输入层和卷积层之间引入权重分布层,可以对文本中重要部分分析,减少噪音,使处理的特征得到提升。利用卷积建立模型,卷积方法是在字词的周围产生局部特征,然后使用局部最大值的方式组合,以创建固定大小的特征。在卷积层中使用的是梯度下降法来计算,可能会出现梯度弥散,引入门控机制降低弥散;其次,在新模型中取消了softmax层,加入支持向量机层;最后,使用条件随机场不仅处理传统模型在第i个标签上的特征函数也处理其前后位置的信息特征函数。本发明在传统卷积神经网络的基础上进行改进,添加了条件随机场层,从而可以提取高级抽象的特征,具有更好的分类能力。

Description

基于改进型卷积神经网络模型的影评情感分析方法
技术领域
本发明属于中文文本情感分析,尤其涉及一种基于改进型卷积神经网络模型的影评情感分析方法。
背景技术
近年来很多人开始在网络上表达自己的想法和意见。在观看了电影后,在豆瓣等地方留下自己的影评,来表达自己对这电影的一些观点。将这些海量的情感文本进行数据分析,有助于用户在网络上有更好的体验感以及帮助网站更好的运营。传统的电影推荐方法主要是利用目标客户的打分记录来找到和他相似的用户,或者利用用户的历史偏好找到前n个和以往观看过相似的电影来做推荐,这类推荐方法的操作简便,精度较高。缺点也很明显,有些观众可能会随某时刻心情随意打分导致推荐的结果并不可信。这时候观影用户对电影主观的评价内容可以更好的发挥作用,通过评论的分析可更为准确的获取用户对电影的评价。
目前,文本情感分析主要方法有利用机器学习方法和基于词典方法。在现在的研究中,基于词典的情感分析最为基础的还是进行情感词典的构建,而中文的情感词典资源过少且不够完善,加上中文语言的“一义多词”和“网络化”的影响,一部情感词典往往很难去解决情感分析中的问题。
由于计算能力受到内存和带宽等因素的约束,循环神经网络(RNN)和长短期记忆网络(LSTM)的计算是非常困难。RNN的缺点在于没有办法使各部分平行化处理,导致训练时间长,有较高的时间复杂度,LSTM也没有办法达到并行化,它当前时刻的输出信息依赖前一个时刻隐藏层的状态。反而,CNN算法可以提升计算的速度,并且避免了RNN经常出现的梯度消失及梯度爆炸问题。但是,CNN也有很大的缺点,对于长文本上下文信息的获取和非连续词汇间的相关性计算较困难。
发明内容
本发明旨在解决以上现有技术电影影评文本短,新鲜词多,语序不合理等特点,传统的情感分析方法已无法体现句子的正确语义的问题,提出了一种基于改进型卷积神经网络模型的影评情感分析方法。本发明的技术方案如下:
一种基于改进型卷积神经网络模型的影评情感分析方法,其包括以下步骤:
步骤1、文本预处理步骤:输入原始的中文影评文本,并通过文本预处理过程来转化成便于计算机处理的数字形式,输入步骤2改进的卷积神经网络模型;
步骤2、对传统卷积神经网络模型进行改进,改进主要在于:在输入层和卷积层之间引入了权重分布层,可以对影评文本重要部分进行分析,减少噪音,使处理的特征得到提升;所述卷积层采用梯度下降法来计算,会出现梯度弥散,梯度下降法中加入门控机制来降低弥散,还保留了模型的非线性;
步骤3、把影评文本中特征经过线性变化和支持向量机层后,得到的概率传送给条件随机场,条件随机场模型选择概率最大的标注序列为最终的序列标注结果,将传统条件随机场的线性特征函数转化为该模型输出的非线性特征函数,拟合数据。条件随机场层是基于训练的词性知识信息帮助模型更好的理解了文本的语义,同时和神经网络学习的语义特征进行整体的优化求解。最后用条件随机场层获取全局最优的输出序列,即文本情感分析概率值。
进一步的,所述步骤1文本预处理步骤具体包括:先将输入样本的词语序列分别转换成对应的预训练字和词粒度词向量序列,词粒度嵌入,包含了嵌入矩阵的列向量,每一方框包含了一句话中的某个词,每一列表示了这一句话,通过用矩阵向量表示词粒度嵌入;字粒度嵌入,从字中提取信息,考虑语句中所有的包括哈希标签在内的字符,并选择重要的特征;字粒度嵌入由嵌入矩阵中的列向量进行编码,给定一个字符,其嵌入有矩阵向量乘积获得。
进一步的,所述步骤1文本预处理步骤还包括:
首先要对中文文本原始语料使用jieba软件进行分词,为了充分保留文本信息,分词后的语料依然保留标点与所有字、词;使用word2vec算法对分词后的语料先单独进行预训练生成词向量词典;其中的字词是不重复的,word2vec 会对文本中的字、词和标点等基本元素的出现频率进行统计,通过无监督训练,获得作为语料基础构成元素的字词对应的指定维度的向量表征。
进一步的,所述步骤2的权重分布层自动提取出非连续词语的前后文信息间的关系,具体包括:权重分布层首先为每个字词建立上下文向量,使字词向量与其进行拼接,从而作为该字词的新表示方式,另外,根据汉语的表达习惯,距离远的词汇往往联系较少,权重分布层里考虑到距离衰减度的影响;
权重分布层是在输入层输出句子X后根据重要性将不同权重赋予在上下文向量Zi上,再分别对字词打分再进行加权计算;
Figure BDA0001993456850000031
权重a≥0且
Figure BDA0001993456850000032
其中
score(xi,xj)=xi Twaxj
wa是一个词向量,通过加大权重分布的数量,增加不同score(xi,xj)的个数,即词向量wa变成对应词向量矩阵Wa
score(xi,xj)'=xi TWaxj
通过使用欧式距离计算两个字词间距离,在权重计算里面加入距离衰减度,由于欧式距离值较大,为了保证在同一级别中,再对其归一化,使sim(xi,xj)∈[0,1];
Figure BDA0001993456850000033
Figure BDA0001993456850000034
从而得到下面式子:
Figure BDA0001993456850000035
进一步的,使score(xi,xj)'值大的在上下文向量Zi中的权重更大,随着句子长度增加会产生一定的噪声,为了避免这些影响,增加了衰减因子γ∈[0,1]来作为惩罚;
score(xi,xj)'=(1-γ)kxi TWaxj
k=|j-i|-1,当γ趋于1时,代表考虑的只有局部范围上下文,趋于0时,考虑更广的范围;然后把权重分布层获得的向量与单词向量串联,得到更新的xi,再传入卷积层,使其在宽度为n的滑窗上进行卷积。
进一步的,所述卷积层具体包括:卷积方法是在字词的周围产生局部特征,然后使用局部最大值的方式来组合,以创建固定大小的特征,为了提取不同的局部特征,使用3层卷积层,使其卷积上下文窗口n的大小依次为2,3,4倍的字词粒度向量维度;
一个句子{r1,r2,r3,...,rm},定义向量zm为词向量的连接,可表示为:
zm=(rm-(k-1)/2,…,rm+(k-1)/2)T
在卷积层中使用的是梯度下降法来确定模型中的参数值,使用梯度下降法的过程中可能会出现梯度弥散或爆炸,所以引入门控机制来解决这个问题。门控机制的梯度如下式:
Figure BDA0001993456850000041
上式中衰减项只有一个,证明加入门控机制可以用来降低弥散,使在卷积层中衰减的速度降慢;
在卷积层后再用池化层连接,在池化层采用局部最大值的方法进行特征的采样,得到宽度大小一样的特征值
Figure BDA0001993456850000042
则有:
Figure BDA0001993456850000043
进一步的,所述步骤3将传统CRF的线性特征函数转化为CNN-SVM模型输出的非线性特征函数,从而更好的拟合数据,如下式:
Figure BDA0001993456850000044
Figure BDA0001993456850000045
表示转移概率,bt-1是前一词语的情感标识,bt表示当前字词的情感标识,Pbt(y|ht)表示发射概率,表示先位置字词归属每一类情感分类的概率值。Ptb表示序列结果的概率值。
本发明的优点及有益效果如下:
本发明通过一种基于改进型卷积神经网络模型的影评情感分析方法对电影影评进行情感分析。传统的情感分析模型在处理电影影评文本短,新鲜词多,语序不合理等特点时十分困难。首先对卷积神经网络做了改进,传统卷积神经网络存在对长文本上下文信息的获取和非连续词汇间的相关性计算上困难的问题。本方法的权重分布层可以对重要部分进行分析,减少噪音,使处理的特征得到提升,弥补卷积神经网络的长语句中上下文信息关联上的缺陷问题。再因为卷积层中使用的是梯度下降法来计算,会出现梯度弥散,加入门控机制来降低弥散,并且保留了模型的非线性。另外考虑到上下文信息带有自身固有的属性特征和语序不合理性。并且利用字粒度词向量为特征,从而解决了歧义词的切分问题,并且能学习到更加具体的特征。
为了对重要部分进行分析,减少噪音,使处理的特征得到提升,在输入层和卷积层中加入权重分布层。权重分布层是在输入层输出句子X后根据重要性将不同权重赋予在上下文向量Zi上,再分别对字词打分再进行加权计算,引入的Zi计算式如下,其中xj′是xj的扩展词向量。
Figure BDA0001993456850000051
score(xi,xj)'=(1-γ)kxi TWaxj
Figure BDA0001993456850000052
另外在卷积层中使用的是梯度下降法来计算,会出现梯度弥散,引入门控机制来降低梯度弥散,并且保留了模型的非线性。因此针对中文长文本局部和上下文信息传递,从两个方向来卷积,使影评上下文和局部有更多联系以达到进一步提高特征学习和特征提取能力。
Figure BDA0001993456850000053
Figure BDA0001993456850000061
Figure BDA0001993456850000062
M(X,V,b)=δ(X×V,b)
W和V分别为不一致的卷积核,输出通道数为n,核宽度为k,b为偏置参数,M(X,V,b)是门函数。对输入的传递信息进行卷积就是进行门控,将信息传递的速度进行控制,使其始终在(0,1)间。
最后的条件随机场进一步弥补了卷积神经网络不能正确的对上下文信息的获取和非连续词汇间的相关性计算问题。我们考虑利用词语的词性对句子中知识信息进行序列标注。条件随机场层是基于我们前期训练的词性知识信息帮助模型更好的理解文本的语义,同时和神经网络学习的语义特征进行整体的优化求解。最后用条件随机场获取全局最优的输出序列。
附图说明
图1是本发明提供优选实施例流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
如图1所示,先将输入样本的词语序列分别转换成对应的预训练字和词粒度词向量序列。词粒度嵌入,包含了嵌入矩阵的列向量,每一方框包含了一句话中的某个词,每一列表示了这一句话。通过用矩阵向量表示词粒度嵌入。字粒度嵌入,从字中提取信息,考虑语句中所有的字符(包括哈希标签等),并选择重要的特征。字粒度嵌入由嵌入矩阵中的列向量进行编码,给定一个字符,其嵌入有矩阵向量乘积获得。
权重分布层首先为每个字词建立上下文向量,使字词向量与其进行拼接,从而作为该字词的新表示方式。另外,根据汉语的表达习惯,距离远的词汇往往联系较少,权重分布层里考虑到距离衰减度的影响。
权重分布层是在输入层输出句子X后根据重要性将不同权重赋予在上下文向量Zi上,在影响语句情感分析时,通过这种方式可以知道哪些词语更重要,对句意影响更大,再分别对字词打分再进行加权计算。
Figure BDA0001993456850000071
权重a≥0且
Figure BDA0001993456850000072
其中
score(xi,xj)=xi Twaxj
wa是一个词向量。由于汉语中一词多义等因素,一句话在不同环境中语义不一样,一种意思的权重分布只能在对应的语义上面合理,在其他语义上效果就不明显,所以通过加大权重分布的数量,增加不同score(xi,xj)的个数,即词向量 wa变成对应词向量矩阵Wa
score(xi,xj)'=xi TWaxj
另外考虑到距离远的词汇往往联系较少的原因,通过使用欧式距离计算两个字词间距离,在权重计算里面加入距离衰减度。由于欧式距离值较大,为了保证在同一级别中,再对其归一化,使sim(xi,xj)∈[0,1]。
Figure BDA0001993456850000073
Figure BDA0001993456850000074
从而得到下面式子:
Figure BDA0001993456850000075
通过计算,使score(xi,xj)'值大的在上下文向量Zi中的权重更大。随着句子长度增加会产生一定的噪声,为了避免这些影响,增加了衰减因子γ∈[0,1]来作为惩罚。
score(xi,xj)'=(1-γ)kxi TWaxj
k=|j-i|-1,当γ趋于1时,代表考虑的只有局部范围上下文,趋于0时,考虑更广的范围。
然后把权重分布层获得的向量与单词向量串联,得到更新的xi,再传入卷积层,使其在宽度为n的滑窗上进行卷积。
然后利用卷积建立模型,卷积方法是在字词的周围产生局部特征,然后使用局部最大值的方式来组合,以创建固定大小的特征。为了提取不同的局部特征,使用3层卷积层,使其卷积上下文窗口n的大小依次为2,3,4倍的字词粒度向量维度。
一个句子{r1,r2,r3,…,rm},定义向量zm为词向量的连接:
zm=(rm-(k-1)/2,…,rm+(k-1)/2)T
在卷积层进行最大化操作后,特征向量Xwch中的第j个元素如下:
Figure BDA0001993456850000081
该卷积层的权重矩阵W0,用这权重矩阵提取给定字词的窗口周围的局部特征。为了增加神经网络模型的非线性,在上面的卷积层后再加ReLu作为激活函数,但是使用sigmod函数会导致将近一半的神经元被激活。ReLu会使一部分神经元的输出为0,自动引入稀疏性,相当于无监督预练习。并且减少了参数的相互依存关系,缓解了过拟合问题的发生。句子1中的特征矩阵包含n个词表示为X[1:n],则有:
X[1:n]=x1+x2+x3+…+xn
“+”表示串接操作。然后利用大小为h×k的滤波器对输入特征矩阵进行卷积操作,提取次序列特征,计算公式如下:
Ci=f(w.xi:(i+h-1)+b)
Ci代表特征图中第i个特征值,h表示在窗口大小k下的长度,w为滤波器参数,b为偏置量,而f(.)表示该卷积核函数。因此可以得出特征C表示为:
C=[c1,c2,c3,…,cn-h+1]
在卷积层中使用的是梯度下降法来计算,会出现梯度弥散,加入门控机制来降低弥散,并且保留了模型的非线性。因为分析的字词对前后的字词有依赖性,如果一句话的开头是积极正向的,但是结尾是负面,最后实际情感分类也就是负面。例如“这部电影的导演和剧本都是非常不错的,但主角那糟糕的演技把这全毁了”。因此针对中文长文本局部和上下文信息传递,从两个方向来卷积,使上下文和局部有更多联系以达到进一步提高特征学习和特征提取能力。
Figure BDA0001993456850000091
Figure BDA0001993456850000092
Figure BDA0001993456850000093
M(X,V,b)=δ(X×V,b)
W和V分别为不一致的卷积核,输出通道数为n,核宽度为k,b为偏置参数,M(X,V,b)是门函数。对输入的传递信息进行卷积就是进行门控,将信息传递的速度进行控制,使其始终在(0,1)间。
门控机制的梯度如下式:
Figure BDA0001993456850000094
上式中衰减项只有δ'(X)一个,证明加入门控机制可以用来降低弥散,使在卷积层中衰减的速度降慢。
在卷积层后再用池化层连接,在池化层采用局部最大值的方法进行特征的采样,得到宽度大小一样的特征值
Figure BDA0001993456850000095
则有:
Figure BDA0001993456850000096
池化层(Max-over-time pooling)解决了句子长度不一的问题,保证全连接输入神经元数目一定。池化方式有降维处理,从而降低计算复杂度,只需通过提取其中的最大值,池化层的输出为各个特征图的最大值,即一个一维向量。卷积层和池化层为特征提取层,模型经过三次特征提取层可得到全局特征值V 如下:
Figure BDA0001993456850000097
其中
Figure BDA0001993456850000101
表示第k种类型的滤波器产生的第L个特征值。将句子的全局特征值给两个全连接层进行随机参数更新的方法处理,在每次前向传播进行参数学习的时候,随机参数选取指定的比例学习特征,在反向传播进行参数的梯度下降更新时,更新在前向传播中选定的特征。从而得出句子x的每个情感标签的得分,如下式:
S=W3h(W2Xwch+b2)+b3
W3,W2表示权重矩阵,b2,b3表示需要学习的超参数,h(.)表示正切函数。为了把情感标签的得分转换成条件概率分布,引入了Softmax,通过比较预测的标签值和真实的标签值来调整CNN模型。
Figure BDA0001993456850000102
表示每个情感标签,B表示参数集合。再对这个式子取对数,可得:
Figure BDA0001993456850000103
在神经网络中,经常要计算按照正向传播计算的分数S1,和按照正确标注计算的分数S2的差距,来计算出Loss,才能应用反向传播。在下式中计算出占得比重越大,这样本的Loss就越小。在训练集c中,我们采用随机梯度下降法 (SGD)来进行最优化训练,每一次迭代计算mini-batch的梯度,然后对参数进行更新。
Figure BDA0001993456850000104
卷积层执行dropout,并根据训练集的规模选择适合的mini-batch。在卷积层加dropout提高了模型泛化能力。dropout是指网络中隐藏层节点会随机的暂时被选择隐藏而不工作,其权重会保留下来。dropout的作用是防止隐含层神经元之间的自适应性。
由于传统的卷积神经网络的softmax层在执行分类的时候,容易过拟合。所以在CRCNN-SVM模型中取消了softmax层。当训练集的精确率在CNN上表现稳定时,保持训练好的模型参数,将经过采样层获取的特征向量Strain导出。再把句子放进模型,从而获取特征向量Stest
另外再添加一个SVM层,从而能更有效进行二分类。
SVM是一种有监督的学习模型。通过上述方法,我们可以获得数据特征向量,然后选择模型适用的核函数,通过核函数巧妙地将数据映射到更高维度,从而利用一个超平面来对非线性数据进行分类。核函数事先在低维上进行运算,而分类效果表现在高维上,因此不会增加计算复杂度。该模型的优化目标,是最大化分类的超平面和两类数据的间距,最后得到类别标签。核方法是一种很巧妙的方法,既可以将特征映射到较高的维度,又可以地利用了SVM的内积运算避免了维度计算量的复杂。最后的最优化问题如下式:
Figure BDA0001993456850000111
Figure BDA0001993456850000112
ai≥0,i=1,…,n
最后用条件随机场获取全局最优的输出序列,进一步弥补了CNN不能正确的对上下文信息的获取和非连续词汇间的相关性计算问题。我们考虑利用词语的词性对句子中知识信息进行序列标注。条件随机场层是基于我们前期训练的词性知识信息帮助模型更好的理解文本的语义,同时和神经网络学习的语义特征进行整体的优化求解。最后用条件随机场层获取全局最优的输出序列。条件随机场模型选择概率最大的标注序列为最终的序列标注结果,此处的概率是指转移概率和发射概率,发射概率是指序列中的词语或字符属于每一标签类的概率,转移概率是指该标签类到下一个标签类的概率。特征通过线性变化和SVM层后输出的概率是发射概率。
CNN-SVM模型在第i个位置上的标签的输出,可以看作条件随机场里当前字词的标签概率,另外条件随机场还考虑了当前位置的上下文标签的概率。通过计算所有可能的序列标注结果中序列概率值最大的标注序列作为模型最终的预测结果。通过这种方式,将传统条件随机场的线性特征函数转化为CNN-SVM模型输出的非线性特征函数,从而更好的拟合数据。
Figure BDA0001993456850000121
Figure BDA0001993456850000122
表示转移概率,bt-1是前一词语的情感标识,bt表示当前字词的情感标识。Pbt(y|ht)表示发射概率,表示先位置字词归属每一类情感分类的概率值。 Ptb表示序列结果的概率值。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (4)

1.一种基于改进型卷积神经网络模型的影评情感分析方法,其特征在于,包括以下步骤:
步骤1、文本预处理步骤:输入原始的中文影评文本,并通过文本预处理过程来转化成便于计算机处理的数字形式,输入步骤2改进的卷积神经网络模型;
步骤2、在输入层和卷积层之间引入了权重分布层,权重分布层用于自动提取出非连续词语的前后文信息间的关系,权重分布层对文本中重要部分进行分析;所述卷积层采用梯度下降法来计算,梯度下降法中加入门控机制来降低弥散,还保留了模型的非线性;
步骤3、把影评文本特征经过线性变化和支持向量机层后,得到的概率传送给条件随机场,条件随机场模型选择概率最大的标注序列为最终的序列标注结果,将传统条件随机场的线性特征函数转化为该模型输出的非线性特征函数,拟合数据,条件随机场层是基于训练的词性知识信息帮助模型更好的理解了文本的语义,同时和神经网络学习的语义特征进行整体的优化求解,最后用条件随机场层获取全局最优的输出序列,即文本情感分析概率值;
所述步骤2的权重分布层自动提取出非连续词语的前后文信息间的关系,具体包括:权重分布层首先为每个字词建立上下文向量,使字词向量与其进行拼接,从而作为该字词的新表示方式,另外,根据汉语的表达习惯,距离远的词汇往往联系较少,权重分布层里考虑到距离衰减度的影响;
权重分布层是在输入层输出句子Xi后根据重要性将不同权重赋予在上下文向量Zi上,再分别对字词打分再进行加权计算;
Figure FDA0002964262640000011
权重a≥0且
Figure FDA0002964262640000012
其中
score(xi,xj)=xi Τwaxj
wa是一个词向量,通过加大权重分布的数量,增加不同score(xi,xj)的个数,即词向量wa变成对应词向量矩阵Wa
score(xi,xj)'=xi ΤWaxj
通过使用欧式距离计算两个字词间距离,在权重计算里面加入距离衰减度,由于欧式距离值较大,为了保证在同一级别中,再对其归一化,使sim(xi,xj)∈[0,1],最终可用下式来表示sim(xi,xj),其中xj′是xj的扩展词向量;
Figure FDA0002964262640000021
Figure FDA0002964262640000022
从而得到下面式子:
Figure FDA0002964262640000023
使score(xi,xj)'值大的在上下文向量Zi中的权重更大,随着句子长度增加会产生一定的噪声,为了避免这些影响,增加了衰减因子γ∈[0,1]作为惩罚;
score(xi,xj)'=(1-γ)kxi TWaxj
k=|j-i|-1,当γ趋于1时,代表考虑的只有局部范围上下文,趋于0时,考虑更广的范围,得到最新评分后带入ai,j计算式计算权重,从而得到Zi;将权重分布层获得的向量与单词向量串联,得到更新的Xi,再传入卷积层,使其在宽度为n的滑窗上进行卷积;
所述卷积层具体包括:卷积方法是在字词的周围产生局部特征,然后使用局部最大值的方式来组合,以创建固定大小的特征,为了提取不同的局部特征,使用3层卷积层,使其卷积上下文窗口n的大小依次为2,3,4倍的字词粒度向量维度;
在卷积层中使用的是梯度下降法来确定模型中的参数值,使用梯度下降法的过程中可能会出现梯度弥散或爆炸,所以加入门控机制来解决这个问题,门控机制的梯度如下式:
Figure FDA0002964262640000024
上式中衰减项只有一个δ'(X),证明加入门控机制可以用来降低弥散,使在卷积层中衰减的速度降慢;
在卷积层后再用池化层连接,在池化层采用局部最大值的方法进行特征的采样,得到宽度大小一样的特征值
Figure FDA0002964262640000031
则有:
Figure FDA0002964262640000032
2.根据权利要求1所述的一种基于改进型卷积神经网络模型的影评情感分析方法,其特征在于,所述步骤1文本预处理步骤具体包括:先将输入样本的词语序列分别转换成对应的预训练字和词粒度词向量序列,词粒度嵌入,包含了嵌入矩阵的列向量,每一方框包含了一句话中的某个词,每一列表示了这一句话,通过用矩阵向量表示词粒度嵌入;字粒度嵌入,从字中提取信息,考虑语句中所有的包括哈希标签在内的字符,并选择重要的特征;字粒度嵌入由嵌入矩阵中的列向量进行编码,给定一个字符,其嵌入有矩阵向量乘积获得。
3.根据权利要求2所述的一种基于改进型卷积神经网络模型的影评情感分析方法,其特征在于,所述步骤1文本预处理步骤还包括:
首先要对中文文本原始语料使用jieba软件进行分词,为了充分保留文本信息,分词后的语料依然保留标点与所有字、词;使用word2vec算法对分词后的语料先单独进行预训练生成词向量词典;其中的字词是不重复的,word2vec会对文本中的字、词和标点等基本元素的出现频率进行统计,通过无监督训练,获得作为语料基础构成元素的字词对应的指定维度的向量表征。
4.根据权利要求1所述的一种基于改进型卷积神经网络模型的影评情感分析方法,其特征在于,所述步骤3将传统条件随机场的线性特征函数转化为CNN-SVM模型输出的非线性特征函数,从而更好的拟合数据,如下式:
Figure FDA0002964262640000033
Figure FDA0002964262640000034
表示转移概率,bt-1是前一词语的情感标识,bt表示当前字词的情感标识,Pbt(y|ht)表示发射概率,表示先位置字词归属每一类情感分类的概率值,Ptb表示序列结果的概率值。
CN201910191148.0A 2019-03-13 2019-03-13 基于改进型卷积神经网络模型的影评情感分析方法 Active CN110046223B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910191148.0A CN110046223B (zh) 2019-03-13 2019-03-13 基于改进型卷积神经网络模型的影评情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910191148.0A CN110046223B (zh) 2019-03-13 2019-03-13 基于改进型卷积神经网络模型的影评情感分析方法

Publications (2)

Publication Number Publication Date
CN110046223A CN110046223A (zh) 2019-07-23
CN110046223B true CN110046223B (zh) 2021-05-18

Family

ID=67273685

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910191148.0A Active CN110046223B (zh) 2019-03-13 2019-03-13 基于改进型卷积神经网络模型的影评情感分析方法

Country Status (1)

Country Link
CN (1) CN110046223B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111639152B (zh) * 2019-08-29 2021-04-13 上海卓繁信息技术股份有限公司 意图识别方法
CN110851718B (zh) * 2019-11-11 2022-06-28 重庆邮电大学 一种基于长短时记忆网络以及用户评论的电影推荐方法
CN111400612B (zh) * 2020-03-11 2022-10-18 重庆邮电大学 一种融合社交影响和项目关联的个性化推荐方法
CN112905756A (zh) * 2021-01-19 2021-06-04 郑州轻工业大学 一种基于交互式长短期记忆网络的对话情感分析方法
US20230342553A1 (en) * 2022-04-22 2023-10-26 Lemon Inc. Attribute and rating co-extraction

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740349A (zh) * 2016-01-25 2016-07-06 重庆邮电大学 一种结合Doc2vec和卷积神经网络的情感分类方法
CN106096664A (zh) * 2016-06-23 2016-11-09 广州云数信息科技有限公司 一种基于社交网络数据的情感分析方法
CN107506722A (zh) * 2017-08-18 2017-12-22 中国地质大学(武汉) 一种基于深度稀疏卷积神经网络人脸情感识别方法
CN108427670A (zh) * 2018-04-08 2018-08-21 重庆邮电大学 一种基于语境词向量和深度学习的情感分析方法
CN108446271A (zh) * 2018-03-07 2018-08-24 中山大学 基于汉字部件特征的卷积神经网络的文本情感分析方法
CN109213868A (zh) * 2018-11-21 2019-01-15 中国科学院自动化研究所 基于卷积注意力机制网络的实体级别情感分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10311454B2 (en) * 2017-06-22 2019-06-04 NewVoiceMedia Ltd. Customer interaction and experience system using emotional-semantic computing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740349A (zh) * 2016-01-25 2016-07-06 重庆邮电大学 一种结合Doc2vec和卷积神经网络的情感分类方法
CN106096664A (zh) * 2016-06-23 2016-11-09 广州云数信息科技有限公司 一种基于社交网络数据的情感分析方法
CN107506722A (zh) * 2017-08-18 2017-12-22 中国地质大学(武汉) 一种基于深度稀疏卷积神经网络人脸情感识别方法
CN108446271A (zh) * 2018-03-07 2018-08-24 中山大学 基于汉字部件特征的卷积神经网络的文本情感分析方法
CN108427670A (zh) * 2018-04-08 2018-08-21 重庆邮电大学 一种基于语境词向量和深度学习的情感分析方法
CN109213868A (zh) * 2018-11-21 2019-01-15 中国科学院自动化研究所 基于卷积注意力机制网络的实体级别情感分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"基于深度学习的中文影评情感分析";周敬一 等;《上海大学学报》;20181031;第25卷(第5期);第703-712页 *
"注意力增强的双向LSTM情感分析";关鹏飞 等;《中文信息学报》;20190227;第33卷(第2期);第105-111页 *
Xi Quyang et al.."Sentiment Analysis Using Convolutional Neural Network".《2015 IEEE International Conference on Computer and Information Technology;Ubiquitous Computing and Communications》.2015,第2359-2364页. *

Also Published As

Publication number Publication date
CN110046223A (zh) 2019-07-23

Similar Documents

Publication Publication Date Title
CN110046223B (zh) 基于改进型卷积神经网络模型的影评情感分析方法
CN110609897B (zh) 一种融合全局和局部特征的多类别中文文本分类方法
CN107608956B (zh) 一种基于cnn-grnn的读者情绪分布预测算法
CN110929030B (zh) 一种文本摘要和情感分类联合训练方法
CN106897371B (zh) 中文文本分类系统及方法
CN106569998A (zh) 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN111078833B (zh) 一种基于神经网络的文本分类方法
CN109800437A (zh) 一种基于特征融合的命名实体识别方法
CN112749274B (zh) 基于注意力机制和干扰词删除的中文文本分类方法
CN104285224B (zh) 用于对文本进行分类的方法
CN110046250A (zh) 三嵌入卷积神经网络模型及其文本多分类方法
CN111241425B (zh) 一种基于层次注意力机制的poi推荐方法
CN112364638A (zh) 一种基于社交文本的人格识别方法
Zhang Research on text classification method based on LSTM neural network model
CN110276396B (zh) 基于物体显著性和跨模态融合特征的图片描述生成方法
CN112784532A (zh) 用于短文本情感分类的多头注意力记忆网络
CN111723572B (zh) 基于CNN卷积层和BiLSTM的中文短文本相关性度量方法
CN114417851A (zh) 一种基于关键词加权信息的情感分析方法
CN113934835B (zh) 结合关键词和语义理解表征的检索式回复对话方法及系统
CN115169349A (zh) 基于albert的中文电子简历命名实体识别方法
Wang et al. W-RNN: News text classification based on a Weighted RNN
AU2019101147A4 (en) A sentimental analysis system for film review based on deep learning
Ueno et al. A spoiler detection method for japanese-written reviews of stories
CN116049377A (zh) 一种基于矩阵分解和crnn的上下文感知推荐系统和方法
CN113505226B (zh) 融合图卷积神经网络的文本情感分类系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant