CN107608956A - 一种基于cnn‑grnn的读者情绪分布预测算法 - Google Patents
一种基于cnn‑grnn的读者情绪分布预测算法 Download PDFInfo
- Publication number
- CN107608956A CN107608956A CN201710792420.1A CN201710792420A CN107608956A CN 107608956 A CN107608956 A CN 107608956A CN 201710792420 A CN201710792420 A CN 201710792420A CN 107608956 A CN107608956 A CN 107608956A
- Authority
- CN
- China
- Prior art keywords
- msub
- vector
- mrow
- mood
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
Abstract
本发明涉及一种基于CNN‑GRNN(Convolutional Neural Network‑ General Regression Neural Network)的读者情绪分布预测算法,与读者情绪有关的语义特征可以分配更大的注意力概率权重,突出了与读者情绪有关的语义特征的作用,减少了其他非相关特征的干扰,因此本算法又可称为CNN‑GRNN‑CBAT,其中CBAT表示Context Based Attention。
Description
技术领域
本发明涉及文本情感分析领域,具体涉及一种基于CNN-GRNN的读者情绪分布预测算法。
背景技术
随着信息技术的不断发展和Web2.0的到来,人们习惯于借助在线新闻网站、论坛和微博等新一代网络媒体表达自己的观点和态度,互联网成为了人们交流观点、抒发情感的平台,网络中积累了海量的能够反映人们情绪和行为的文本信息,因此,文本情感分析技术应运而生并成为自然语言处理和计算语言学的研究热点。目前情感分析的工作大多集中于文本直接呈现的情感极性的研究,这些研究主要采用单标签的方式将文本分为正面态度和负面态度,包括热门的微博情感倾向性分析,以及在线评论网站中用户评论文本的情感分类等,而针对文本所可能引发的读者情绪的研究较少。
读者情绪分析旨在研究语言文字激发人们产生喜、怒、哀、乐等情绪的机制,并预测读者阅读文本后可能产生的情绪。读者情绪研究一方面可用于舆情监控的早期预警。传统舆情监控系统大多是基于热点分析,通过对热点话题进行跟踪来实现舆情的预警,但是热点表明事件已经造成足够大的影响,舆情监控的延时和代价较大,而情绪预测的方法能够更快地预测到可能导致读者负面情绪的文本,及时采取相应的跟踪措施,从而尽早控制和解决问题。另一方面可预测人们阅读文本后的情绪信息,辅助网络媒体提供商更好地了解用户的偏好,为用户提供个性化的推荐服务。因此读者情绪分析具有重要的研究价值和现实意义。但由于人类的情绪十分复杂,读者情绪预测的研究相对困难,目前仍处于起步阶段,研究成果较少。Bhowmick等人考虑读者产生的几种主要情绪,使用RAkEL算法将文本划分到多个情绪类别。Xu等人利用LDA主题模型把文本映射到隐含的主题特征空间,从而将读者情绪与文本的隐含主题相关联,提高了多标签情绪分类的准确度。温雯等人进一步提出基于多类别语义词簇的方法,将词语表示成词向量的形式,并针对标签对其进行聚类形成多个语义词簇,影响读者情绪的文本特征可以通过不同语义词簇的频率来表示,最后采用MLKNN进行多标签分类。
现有的研究方法主要是将读者情绪预测转换成多标签文本分类问题,认为分类后文本所属的情绪标签即是读者可能产生的情绪,忽略了文本的语序和语法信息,而且难以捕捉复杂的语言现象和人类多种情绪之间的复杂性。
发明内容
为了克服现有技术的缺陷,本专利提供一种基于CNN-GRNN(ConvolutionalNeural Network-General Regression Neural Network)的读者情绪分布预测算法,能够通过分配句子的注意力概率权重来准确捕捉读者可能产生的情绪。
针对上述技术问题,本专利是这样加以解决的:一种基于CNN-GRNN的读者情绪分布预测算法,其步骤如下所示:
S1、将文本的多个句子合并为一个数据集,通过每个句子对应的矩阵计算句子特征向量;
S2、序列层:按上下文顺序从上到下依次对每个句子的句子特征向量进行迭代,每迭代一次就得到一个隐含层向量,并计算每个隐含层向量的注意力概率权重,将每个隐含层向量和相对应的注意力概率权重相乘后累加得到语义编码,再结合语义编码和最后迭代得到的隐含层向量进行聚合运算得到文本特征向量;
S3、设文本情绪标签数目为k,将文本特征向量转换成长度等于k的向量,通过回归模型得到文本的情绪标签分布
本专利中的语义编码包括每个句子的注意力概率权重,也即包括有注意力概率分布,而最后迭代得到的隐含层向量包含了所有句子特征向量的信息,也即文本总体向量,最终语义编码和文本总体向量通过聚合运算得到文本特征向量,包含了所有句子特征向量的注意力概率分布信息,因此,与读者情绪有关的语义特征可以分配更大的注意力概率权重,突出了与读者情绪有关的语义特征的作用,减少了其他非相关特征的干扰。
进一步地,在所述步骤S2中引入用于感知语义特征的上下文向量uc,通过该向量计算每个隐含层向量hi的注意力概率权重αi,具体公式为ui=tanh(Wahi+ba)及其中,Wa和ba分别表示系数矩阵和偏置向量,Wa、ba和uc通过训练获得,L为隐含层向量的数量。
进一步地,所述步骤S2中文本特征向量通过d=tanh(Wpν+WxhL)得到,其中hL表示最后迭代得到的隐含层向量,ν表示语义编码,Wp和Wx是不同的系数矩阵,它们的值通过训练获得。
进一步地,所述步骤S1可以分为输入层和句子特征提取层:
所述步骤S1可以分为输入层和句子特征提取层:
S11、输入层:设数据集中句子的最大词数量n作为每一句的固定长度,句子中的每个词用词向量至表示,设词向量的维度为d,数据集中词数量不足n的句子,其中缺少的词向量从高斯分布中随机初始化,将数据集中每个句子用矩阵表示为
S12、句子特征提取层:通过每个句子对应的矩阵计算句子特征向量。
进一步地,所述步骤S12中的句子特征提取层包括卷积层和下采样层,每个句子对应的矩阵先后经过卷积层和下采样层后得出句子特征向量。
进一步地,所述卷积层的步骤为:设定不同大小的滤波器,分别对句子矩阵进行连续的卷积操作,每次连续的卷积操作后均得到多个特征映射数组;下采样层的步骤为:分别对所有特征映射数组进行采样,得到的多个局部最优特征值,并将其组合成句子特征向量。
本专利采用不同大小的局部单词窗口,也即采用多种不同窗口大小的滤波器,每种滤波器均提取出一个特征映射数组,也就是说对多种不同的单词的上下文组合方式进行采样,以尽可能充分地考虑到词语之间的上下文信息,使最终获得的情绪标签分布更为准确。
进一步地,所述卷积层的卷积操作具体为:
在包含n个词向量的句子矩阵中,采用大小为h的滤波器进行卷积操作,其公式为yi=f(W·xi:i+h-1+b),其中yi表示特征映射数组中的第i个元素,xi:i+h-1代表h个词组成的局部单词窗口,其中,W为系数矩阵,b为偏置系数,它们的值通过训练获得。
进一步地,所述步骤S3中,通过softmax回归模型得到文本的情绪标签分布:p(x,θ)=softmax(Wsdx+bs);其中p是k维的多项式分布,分别表示k个情绪标签所占的比重,Ws和bs分别表示系数矩阵和偏置系数,它们的值通过训练集训练获得,dx指文本特征向量,x∈D,D为训练集,θ表示softmax回归模型中所要调整的参数。
进一步地,softmax回归模型的损失函数为 求参数向量θ使损失函数J(θ)最小,其中设τ为训练集中设定好的读者情绪标签集合中任意元素,pk(x,θ)用于对应每个不同τ的预测概率值,zk用于对应各个不同τ的真实概率值,为L2正则项。
进一步地,所述步骤S2中的迭代公式如下:
其中st是当前输入的句子特征向量,ht-1是上一次迭代得到的隐含层向量,重置门限rt和更新门限zt控制每个隐含层向量的信息更新;Wz、Wr、Wh、Uz、Ur和Uh分别为不同的系数矩阵,bz、br和bh表示偏置向量,上述参数均通过训练获得。
相比于现有技术,本方案的有益效果为:通过分配与读者情绪相关的语义特征更高的注意力概率权重,突出与读者情绪有关的语义特征的作用,减少了其他非相关特征的干扰,便于更准确地获取情绪标签分布。
附图说明
图1是本专利的算法流程图。
图2是本专利步骤S1至S2的示意图。
图3是本专利步骤S3至S4的示意图。
图4是本专利对算法进行训练的方法流程图。
具体实施方式
下面结合实施例和附图对本专利进行详细说明。
如图1至3所示的一种基于CNN-GRNN(Convolutional Neural Network-GeneralRegression Neural Network)的读者情绪分布预测算法,其步骤如下所示:
S1、输入层:将文本的L个句子合并为一个数据集,设数据集中句子的最大词数量n作为每一句的固定长度,句子中的每个词用词向量至表示,设词向量的维度为d,对数据集中词数量不足n的句子,其中缺少的词向量从高斯分布U(-0.25,0.25)中随机初始化,将数据集中每个句子用矩阵表示为
S2、句子特征提取层:通过每个句子对应的矩阵计算句子特征向量;
S3、序列层:采用循环神经网络对每个句子的句子特征向量进行迭代,每迭代一次就得到一个隐含层向量,并计算每个隐含层向量的注意力概率权重,将每个隐含层向量和相对应的注意力概率权重相乘后累加得到语义编码,也即所述语义编码通过公式语义编码和最后迭代得到的隐含层向量进行聚合运算得到文本特征向量;
S4、设文本情绪标签数目为k,将文本特征向量转换成长度等于k的向量,通过回归模型得到文本的情绪标签分布。
本专利中的语义编码包括每个句子的注意力概率权重,也即包括有注意力概率分布,而最后迭代得到的隐含层向量包含了所有句子特征向量的信息,也即文本总体向量,最终语义编码和文本总体向量通过聚合运算得到文本特征向量,包含了所有句子特征向量的注意力概率分布信息,因此,与读者情绪有关的语义特征可以分配更大的注意力概率权重,突出了与读者情绪有关的语义特征的作用,减少了其他非相关特征的干扰,因此本算法又可称为CNN-GRNN-CBAT,其中CBAT为Context Based Attention。
在所述步骤S3中引入用于感知重要语义特征的上下文向量uc,通过该向量计算每个隐含层向量hi的注意力概率权重αi,具体公式为ui=tanh(Wahi+ba)及其中,Wa和ba分别表示系数矩阵和偏置向量,Wa、ba和uc通过训练获得,因为每个句子都对应着一个隐含层向量,ui为感知隐含层向量hi所对应句子的重要语义特征的向量。
步骤S2中文本特征向量通过d=tanh(Wpv+WxhL)得到,其中hL表示最后迭代得到的隐含层向量,ν表示语义编码,Wp和Wx是不同的系数矩阵,它们的值通过训练获得。
所述步骤S2中的句子特征提取层包括卷积层和下采样层,其中卷积层的步骤为:设定C个不同大小的滤波器,分别对句子矩阵进行连续的卷积操作,每次在连续的卷积操作后均得到m个特征映射数组,卷积操作具体为:
在包含n个词向量的句子矩阵中,采用大小为h的滤波器进行卷积操作,其公式为yi=f(W·xi:i+h-1+b),其中yi表示特征映射数组中的第i个元素,xi:i+h-1代表h个词组成的局部单词窗口,其中,W为系数矩阵,b为偏置系数,它们的值通过训练获得;当单词窗口由x1:h逐步滑动到xn-h+1:n时,得到特征映射数组c={y1,y2,…,yn+h-1};
下采样层的步骤为:采用Gollobert提出的max-over-time pooling方法对所有特征映射数组进行采样,得到的多个局部最优特征值,局部最优特征值与特征映射数组的关系为并将多个局部最优特征值组合成句子特征向量 其中表示第j(1≤l≤C)种类型的滤波器得到的第l(1≤l≤m)个特征映射数组的局部最优特征值,通过上述计算可得到L个句子特征向量。
本专利采用不同大小的局部单词窗口,也即采用多种不同窗口大小的滤波器,每种滤波器均提取出一个特征映射数组,也就是说对多种不同的单词的上下文组合方式进行采样,以尽可能充分地考虑到词语之间的上下文信息,使最终获得的情绪标签分布更为准确。
所述步骤S4中,通过softmax回归模型得到文本的情绪标签分布:p(x,θ)=softmax(Wsdx+bs);其中p是k维的多项式分布,分别表示k个情绪标签所占的比重,Ws和bs分别表示系数矩阵和偏置系数,它们的值通过训练集训练获得,dx指文本特征向量,x∈D,D为训练集,θ表示softmax回归模型中所要调整的参数,具体为[W*,U*,b*,uc],其中下标*表示任意字符,因此,带*下标的三项参数可代表本专利中提到的所有系数矩阵和偏置向量。
所述步骤S2中的迭代公式如下:
其中st是当前输入的句子特征向量,ht-1是上一次迭代得到的隐含层向量,重置门限rt和更新门限zt控制每个隐含层向量的信息更新;Wz、Wr、Wh、Uz、Ur和Uh分别为不同的系数矩阵,bz、br和bh表示偏置向量,上述参数均通过训练获得。
softmax回归模型的损失函数为求参数向量θ使损失函数J(θ)最小,其中设τ为训练集中设定好的读者情绪标签集合中任意元素,pk(x,θ)用于对应每个不同τ的预测概率值,zk用于对应各个不同τ的真实概率值,为L2正则项。
采用mini-batch梯度下降法,在利用损失函数进行迭代过程中,利用小部分样本代替所有的样本参与计算,在寻找到全局最优解的同时加快模型训练速度。
下面对本算法的实际运行效果进行实验对比。
实验所用的数据来自于雅虎奇摩的新闻语料,该语料搜集了雅虎各频道的热点新闻以及相应的读者情绪投票数据,数据的组织形式包括题目、新闻内容、评论文本、读者投票总数和各种情绪所占的比重。其中,情绪标签共有8个,依次为:实用、感人、开心、超扯、无聊、害怕、难过、火大。语料库中包括49000篇文本,共6552869投票数。每篇新闻投票数不等,最高为51890。为了保证每篇新闻都有足够多的用户投票数据,我们对10票以下的新闻进行过滤,最终得到的22841篇新闻文本作为实验数据集,总投票数为6469025,即平均每篇新闻文本的投票数约为283。
实验采用的数据集涵盖了范围较广的多种人类情绪,不局限于常用的产品或电影评论数据集的正面/负面情感,每篇文本以相互关联的情绪标签上的多项式分布作为标注。随机选择实验数据集中2/3的样本作为训练数据集,剩余的1/3为测试数据集,进行读者情绪分布预测和预测效果评估。
实验预先利用Google开源的word2vec中的Skip-gram模型在1.2G的中文维基百科语料上进行无监督的词向量学习,词向量维度设置为200,学习率0.03,生成包含51万个词汇的分布式词向量表示模型,学习到的词向量存储在词表中。采用ICTCLAS分词工具对实验文本进行分词,以词语作为句子的基本组成单位,将词语表示成对应的词向量形式。对于没有出现在词表中的未登录词语,采用高斯分布U(-0.1,0.1)随机生成词向量。
设定卷积神经网络的卷积核窗口大小分别为3,4,5,每种卷积核数目为100,卷积核函数选择ReLU函数。门限循环神经网络的隐含层向量和注意力层中的上下文向量均设置维度100,上下文向量以随机生成的方式进行初始化。训练过程中,设置mini-batch大小为64,相似长度(文本中句子数目)的文本组织在一个批次中,对乱序的小批次样本进行随机梯度下降。
首先在实验数据集上评估本实施例预测情绪标签分布的能力,预测情绪标签分布与真实情绪标签分布之间的距离越接近表明模型的预测效果越好。因此,采取平均绝对误差(MAE)、均方根误差(RMSE)和皮尔逊相关系数(r)三个指标来度量模型的性能,具体为 和其中zi是真实情绪标签分布,pi是预测情绪标签分布,n是测试样本的数目。和分别对应于真实情绪标签分布和预测情绪标签分布的算数平均数,σ是标准差。MAE和RMSE值越小表明模型预测情绪标签分布的效果越好,r越大表明效果越好。
分别评估了基于词袋模型的Binary BoW、以神经网络为基础的RAE、CNN、LSTM、CNN-GRNN、CNN-GRNN-CBAT模型的性能。其中RAE由Richard Socher提出,采用递归自动编码器以半监督的方式通过重构误差和结合文本情绪分布构建句子特征向量,平均所有句子特征向量作为文本特征向量,并训练softmax回归预测情绪分布。CNN和LSTM方法都将文本视为一个长句,结合word2vec训练的词向量构建文本特征向量。
实验结果如上表所示,可以看到对比传统的词袋模型,采用了词向量和深度学习技术的神经网络模型显著的提高了预测的效果。在几种神经网络模型中,RAE的效果最差,说明以平均句子特征向量作为文本特征向量的方式会引入噪音反而造成训练数据质量下降。而CNN-GRNN模型,与将文本视为一个长句进行处理的CNN、LSTM方法相比达到了更高的性能,说明以“词语-句子-文本”这种自下而上的层次结构提取文本语义特征的有效性,不仅考虑了句子内部的语义信息,还考虑了句子之间的依赖关系。另外,融合了注意力机制的CNN-GRNN-CBAT进一步地提升了模型的预测能力,得到的预测分布最接近于真实的情绪分布,即注意力机制能够感知上下文信息,找到更能影响读者情绪的关键文本特征,从而提升情绪预测的准确率。
在读者情绪预测任务上大多数的研究工作都是采用多标签分类的方式,下面接着评估本实施例在多标签读者情绪分类上的效果。观察数据集发现,同一篇文本不同读者的产生的情绪是有差异的,情绪标签的比例不等,但大致会集中在某一个或某几个标签。对数据集的情绪标签分布进行处理,确定最佳分界阈值为0.23,即认为有23%或者以上的投票比例的标签就是文本的标签,由此得到的分布情况如下表所示:
标签数目 | 文档数 | 百分比 |
1 | 10963 | 48% |
2 | 10506 | 46% |
3 | 1370 | 6% |
其中有48%的文档只有1个标签有23%或者以上的读者情绪投票比例,其他以此类推。
将本文模型训练得到的文本特征向量作为多标签分类器的输入,预测文本对应的情绪标签分布,与基准方法WLDA-MLKNN、MWC-W2V-MLKNN进行对比实验。其中WLDA-MLKNN方法设定LDA的维度为80,MWC-W2V-MLKNN方法取特征维度为200,MLKNN的参数k都设置为8。采用汉明损失(Hamming-Loss,HL)、1-错误率(One-Error,OE)以及平均精度(AveragePrecision,AVP)作为评估方法。HL和OE均为值越低越好,而AVP值越高说明效果越好。
模型 | HL | OE | AVP |
WLDA-MLKNN | 0.1539 | 0.3184 | 0.7683 |
MWC-W2V-MLKNN | 0.1383 | 0.2659 | 0.8049 |
CNN-GRNN | 0.1287 | 0.2280 | 0.8314 |
CNN-GRNN-CBAT | 0.1204 | 0.1976 | 0.8523 |
通过上表可得,采用CNN-GRNN模型进行多标签读者情绪分类的效果明显好于WLDA-MKLNN和MWC-W2V-MLKNN,平均精度分别增加了约7%和3%,其他的几种评估指标也比较好。这是由于这两种方法仅考虑提取与读者情绪有关的语义特征,忽略了文本本身的语序和语法信息,而在中文表达中,同样的词语前后的修饰词或者上下文语境不同,表达的含义相差甚远,从而影响了对情绪标签的判断。CNN-GRNN-CBAT模型的平均精度在CNN-GRNN的基础上提升了约2%,说明了在提取文本特征时加强与读者情绪有关的关键的文本特征比重,同时弱化其他非相关特征比重的重要性。本实验证明了本文提出的方法在多标签情绪分类问题上同样具有一定的优越性。
Claims (10)
1.一种基于CNN-GRNN的读者情绪分布预测算法,其特征在于,包括如下步骤:
S1、将文本的多个句子合并为一个数据集,通过每个句子对应的矩阵计算句子特征向量;
S2、序列层:按上下文顺序从上到下依次对每个句子的句子特征向量进行迭代,每迭代一次就得到一个隐含层向量,并计算每个隐含层向量的注意力概率权重,将每个隐含层向量和相对应的注意力概率权重相乘后累加得到语义编码,再结合语义编码和最后迭代得到的隐含层向量进行聚合运算得到文本特征向量;
S3、设文本情绪标签数目为k,将文本特征向量转换成长度等于k的向量,通过回归模型得到文本的情绪标签分布。
2.根据权利要求1所述的读者情绪分布预测算法,其特征在于,在所述步骤S2中引入用于感知语义特征的上下文向量uc,通过该向量计算每个隐含层向量hi的注意力概率权重αi,具体公式为ui=tanh(Wahi+ba)及其中,Wa和ba分别表示系数矩阵和偏置向量,Wa、ba和uc通过训练获得,L为隐含层向量的数量。
3.根据权利要求1所述的读者情绪分布预测算法,其特征在于,所述步骤S2中文本特征向量通过d=tanh(Wpv+WxhL)得到,其中hL表示最后迭代得到的隐含层向量,v表示语义编码,Wp和Wx是不同的系数矩阵,它们的值通过训练获得。
4.根据权利要求1所述的读者情绪分布预测算法,其特征在于,所述步骤S1可以分为输入层和句子特征提取层:
S11、输入层:设数据集中句子的最大词数量n作为每一句的固定长度,句子中的每个词用词向量至表示,设词向量的维度为d,数据集中词数量不足n的句子,其中缺少的词向量从高斯分布中随机初始化,将数据集中每个句子用矩阵表示为
S12、句子特征提取层:通过每个句子对应的矩阵计算句子特征向量。
5.根据权利要求4所述的读者情绪分布预测算法,其特征在于,所述步骤S12中的句子特征提取层包括卷积层和下采样层,每个句子对应的矩阵先后经过卷积层和下采样层后得出句子特征向量。
6.根据权利要求5所述的读者情绪分布预测算法,其特征在于,所述卷积层的步骤为:设定不同大小的滤波器,分别对句子矩阵进行连续的卷积操作,每次连续的卷积操作后均得到多个特征映射数组;下采样层的步骤为:分别对所有特征映射数组进行采样,得到的多个局部最优特征值,并将其组合成句子特征向量。
7.根据权利要求6所述的读者情绪分布预测算法,其特征在于,所述卷积层的卷积操作具体为:
在包含n个词向量的句子矩阵中,采用大小为h的滤波器进行卷积操作,其公式为yi=f(W·xi:i+h-1+b),其中yi表示特征映射数组中的第i个元素,xi:i+h-1代表h个词组成的局部单词窗口,其中,W为系数矩阵,b为偏置系数,它们的值通过训练获得。
8.根据权利要求1至7任一项所述的读者情绪分布预测算法,其特征在于,所述步骤S3中,通过softmax回归模型得到文本的情绪标签分布:p(x,θ)=softmax(Wsdx+bs);其中p是k维的多项式分布,分别表示k个情绪标签所占的比重,Ws和bs分别表示系数矩阵和偏置系数,它们的值通过训练集训练获得,dx指文本特征向量,x∈D,D为训练集,θ表示softmax回归模型中所要调整的参数。
9.根据权利要求8所述的读者情绪分布预测算法,其特征在于,softmax回归模型的损失函数为求参数向量θ使损失函数J(θ)最小,其中设τ为训练集中设定好的读者情绪标签集合中任意元素,pk(x,θ)用于对应每个不同τ的预测概率值,zk用于对应各个不同τ的真实概率值,为L2正则项。
10.根据权利要求1至7任一项所述的读者情绪分布预测算法,其特征在于,所述步骤S2中的迭代公式如下:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>z</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mi>&sigma;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>W</mi>
<mi>z</mi>
</msub>
<msub>
<mi>s</mi>
<mi>t</mi>
</msub>
<mo>+</mo>
<msub>
<mi>U</mi>
<mi>z</mi>
</msub>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>b</mi>
<mi>z</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>r</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mi>&sigma;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>W</mi>
<mi>r</mi>
</msub>
<msub>
<mi>s</mi>
<mi>t</mi>
</msub>
<mo>+</mo>
<msub>
<mi>U</mi>
<mi>r</mi>
</msub>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>b</mi>
<mi>r</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>h</mi>
<mo>~</mo>
</mover>
<mo>=</mo>
<mi>tanh</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>W</mi>
<mi>h</mi>
</msub>
<msub>
<mi>s</mi>
<mi>t</mi>
</msub>
<mo>+</mo>
<msub>
<mi>r</mi>
<mi>t</mi>
</msub>
<mo>&CenterDot;</mo>
<mo>(</mo>
<mrow>
<msub>
<mi>U</mi>
<mi>h</mi>
</msub>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mo>)</mo>
<mo>+</mo>
<msub>
<mi>b</mi>
<mi>h</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>h</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>z</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&CenterDot;</mo>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>z</mi>
<mi>t</mi>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mover>
<mi>h</mi>
<mo>~</mo>
</mover>
<mi>t</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中st是当前输入的句子特征向量,ht-1是上一次迭代得到的隐含层向量,重置门限rt和更新门限zt控制每个隐含层向量的信息更新;Wz、Wr、Wh、Uz、Ur和Uh分别为不同的系数矩阵,bz、br和bh表示偏置向量,上述参数均通过训练获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710792420.1A CN107608956B (zh) | 2017-09-05 | 2017-09-05 | 一种基于cnn-grnn的读者情绪分布预测算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710792420.1A CN107608956B (zh) | 2017-09-05 | 2017-09-05 | 一种基于cnn-grnn的读者情绪分布预测算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107608956A true CN107608956A (zh) | 2018-01-19 |
CN107608956B CN107608956B (zh) | 2021-02-19 |
Family
ID=61057278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710792420.1A Active CN107608956B (zh) | 2017-09-05 | 2017-09-05 | 一种基于cnn-grnn的读者情绪分布预测算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107608956B (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108228910A (zh) * | 2018-02-09 | 2018-06-29 | 艾凯克斯(嘉兴)信息科技有限公司 | 一种将循环神经网络应用在关联选择问题上的方法 |
CN108334499A (zh) * | 2018-02-08 | 2018-07-27 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108363790A (zh) * | 2018-02-12 | 2018-08-03 | 百度在线网络技术(北京)有限公司 | 用于对评论进行评估的方法、装置、设备和存储介质 |
CN108388654A (zh) * | 2018-03-01 | 2018-08-10 | 合肥工业大学 | 一种基于转折句语义块划分机制的情感分类方法 |
CN108536754A (zh) * | 2018-03-14 | 2018-09-14 | 四川大学 | 基于blstm和注意力机制的电子病历实体关系抽取方法 |
CN108595717A (zh) * | 2018-05-18 | 2018-09-28 | 北京慧闻科技发展有限公司 | 用于文本分类的数据处理方法、数据处理装置和电子设备 |
CN108763384A (zh) * | 2018-05-18 | 2018-11-06 | 北京慧闻科技发展有限公司 | 用于文本分类的数据处理方法、数据处理装置和电子设备 |
CN109670542A (zh) * | 2018-12-11 | 2019-04-23 | 田刚 | 一种基于评论外部信息的虚假评论检测方法 |
CN109801706A (zh) * | 2018-12-12 | 2019-05-24 | 清华大学 | 心理压力问题的感知方法及装置 |
CN109920539A (zh) * | 2019-03-11 | 2019-06-21 | 重庆科技学院 | 一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统 |
CN110032645A (zh) * | 2019-04-17 | 2019-07-19 | 携程旅游信息技术(上海)有限公司 | 文本情感识别方法、系统、设备以及介质 |
CN110083836A (zh) * | 2019-04-24 | 2019-08-02 | 哈尔滨工业大学 | 一种文本预测结果的关键证据抽取方法 |
CN110134946A (zh) * | 2019-04-15 | 2019-08-16 | 深圳智能思创科技有限公司 | 一种针对复杂数据的机器阅读理解方法 |
CN110147781A (zh) * | 2019-05-29 | 2019-08-20 | 重庆交通大学 | 基于机器学习的桥梁振动模态可视化损伤识别方法 |
WO2019174423A1 (zh) * | 2018-03-16 | 2019-09-19 | 北京国双科技有限公司 | 实体情感分析方法及相关装置 |
CN110362809A (zh) * | 2018-03-26 | 2019-10-22 | 优酷网络技术(北京)有限公司 | 文本分析方法及装置 |
CN110362808A (zh) * | 2018-03-26 | 2019-10-22 | 优酷网络技术(北京)有限公司 | 文本分析方法及装置 |
CN110362810A (zh) * | 2018-03-26 | 2019-10-22 | 优酷网络技术(北京)有限公司 | 文本分析方法及装置 |
CN110555346A (zh) * | 2018-06-01 | 2019-12-10 | 杭州海康威视数字技术股份有限公司 | 驾驶员情绪检测方法、装置、电子设备及存储介质 |
CN110555104A (zh) * | 2018-03-26 | 2019-12-10 | 优酷网络技术(北京)有限公司 | 文本分析方法及装置 |
WO2020147409A1 (zh) * | 2019-01-14 | 2020-07-23 | 平安科技(深圳)有限公司 | 一种文本分类方法、装置、计算机设备及存储介质 |
CN111797196A (zh) * | 2020-06-01 | 2020-10-20 | 武汉大学 | 一种结合注意力机制lstm和神经主题模型的服务发现方法 |
WO2020211701A1 (zh) * | 2019-04-17 | 2020-10-22 | 华为技术有限公司 | 模型训练方法、情绪识别方法及相关装置和设备 |
CN113469260A (zh) * | 2021-07-12 | 2021-10-01 | 天津理工大学 | 一种基于卷积神经网络、注意力机制及自注意力变换器的视觉描述方法 |
CN113705558A (zh) * | 2021-08-31 | 2021-11-26 | 平安普惠企业管理有限公司 | 基于上下文迭代的情绪识别方法、装置、设备及存储介质 |
CN117633239A (zh) * | 2024-01-23 | 2024-03-01 | 中国科学技术大学 | 一种结合组合范畴语法的端到端方面情感识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104965822A (zh) * | 2015-07-29 | 2015-10-07 | 中南大学 | 一种基于计算机信息处理技术的中文文本情感分析方法 |
CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
-
2017
- 2017-09-05 CN CN201710792420.1A patent/CN107608956B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104965822A (zh) * | 2015-07-29 | 2015-10-07 | 中南大学 | 一种基于计算机信息处理技术的中文文本情感分析方法 |
CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
Non-Patent Citations (3)
Title |
---|
BONGGUN SHIN等: "Lexicon Integrated CNN Models with Attention for Sentiment Analysis", 《ARXIV:1610.06272[CS.CL]》 * |
ZICHAO YANG等: "Hierarchical Attention Networks for Document Classification", 《PROCEEDINGS OF NAACL-HLT 2016》 * |
江帆等: "《基于CNN-GRNN型的图像识别》", 《计算机工程》 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334499A (zh) * | 2018-02-08 | 2018-07-27 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108334499B (zh) * | 2018-02-08 | 2022-03-18 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108228910A (zh) * | 2018-02-09 | 2018-06-29 | 艾凯克斯(嘉兴)信息科技有限公司 | 一种将循环神经网络应用在关联选择问题上的方法 |
CN108363790A (zh) * | 2018-02-12 | 2018-08-03 | 百度在线网络技术(北京)有限公司 | 用于对评论进行评估的方法、装置、设备和存储介质 |
US11403680B2 (en) | 2018-02-12 | 2022-08-02 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus for evaluating review, device and storage medium |
CN108388654A (zh) * | 2018-03-01 | 2018-08-10 | 合肥工业大学 | 一种基于转折句语义块划分机制的情感分类方法 |
CN108388654B (zh) * | 2018-03-01 | 2020-03-17 | 合肥工业大学 | 一种基于转折句语义块划分机制的情感分类方法 |
CN108536754A (zh) * | 2018-03-14 | 2018-09-14 | 四川大学 | 基于blstm和注意力机制的电子病历实体关系抽取方法 |
WO2019174423A1 (zh) * | 2018-03-16 | 2019-09-19 | 北京国双科技有限公司 | 实体情感分析方法及相关装置 |
CN110362810A (zh) * | 2018-03-26 | 2019-10-22 | 优酷网络技术(北京)有限公司 | 文本分析方法及装置 |
CN110555104A (zh) * | 2018-03-26 | 2019-12-10 | 优酷网络技术(北京)有限公司 | 文本分析方法及装置 |
CN110362809A (zh) * | 2018-03-26 | 2019-10-22 | 优酷网络技术(北京)有限公司 | 文本分析方法及装置 |
CN110362808A (zh) * | 2018-03-26 | 2019-10-22 | 优酷网络技术(北京)有限公司 | 文本分析方法及装置 |
CN108763384A (zh) * | 2018-05-18 | 2018-11-06 | 北京慧闻科技发展有限公司 | 用于文本分类的数据处理方法、数据处理装置和电子设备 |
CN108595717A (zh) * | 2018-05-18 | 2018-09-28 | 北京慧闻科技发展有限公司 | 用于文本分类的数据处理方法、数据处理装置和电子设备 |
CN110555346A (zh) * | 2018-06-01 | 2019-12-10 | 杭州海康威视数字技术股份有限公司 | 驾驶员情绪检测方法、装置、电子设备及存储介质 |
CN109670542A (zh) * | 2018-12-11 | 2019-04-23 | 田刚 | 一种基于评论外部信息的虚假评论检测方法 |
CN109801706A (zh) * | 2018-12-12 | 2019-05-24 | 清华大学 | 心理压力问题的感知方法及装置 |
CN109801706B (zh) * | 2018-12-12 | 2020-11-10 | 清华大学 | 心理压力问题的感知方法及装置 |
WO2020147409A1 (zh) * | 2019-01-14 | 2020-07-23 | 平安科技(深圳)有限公司 | 一种文本分类方法、装置、计算机设备及存储介质 |
CN109920539A (zh) * | 2019-03-11 | 2019-06-21 | 重庆科技学院 | 一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统 |
CN110134946A (zh) * | 2019-04-15 | 2019-08-16 | 深圳智能思创科技有限公司 | 一种针对复杂数据的机器阅读理解方法 |
CN110134946B (zh) * | 2019-04-15 | 2023-04-18 | 深圳智能思创科技有限公司 | 一种针对复杂数据的机器阅读理解方法 |
WO2020211701A1 (zh) * | 2019-04-17 | 2020-10-22 | 华为技术有限公司 | 模型训练方法、情绪识别方法及相关装置和设备 |
CN110032645B (zh) * | 2019-04-17 | 2021-02-09 | 携程旅游信息技术(上海)有限公司 | 文本情感识别方法、系统、设备以及介质 |
CN110032645A (zh) * | 2019-04-17 | 2019-07-19 | 携程旅游信息技术(上海)有限公司 | 文本情感识别方法、系统、设备以及介质 |
CN110083836A (zh) * | 2019-04-24 | 2019-08-02 | 哈尔滨工业大学 | 一种文本预测结果的关键证据抽取方法 |
CN110147781A (zh) * | 2019-05-29 | 2019-08-20 | 重庆交通大学 | 基于机器学习的桥梁振动模态可视化损伤识别方法 |
CN110147781B (zh) * | 2019-05-29 | 2022-11-15 | 重庆交通大学 | 基于机器学习的桥梁振动模态可视化损伤识别方法 |
CN111797196A (zh) * | 2020-06-01 | 2020-10-20 | 武汉大学 | 一种结合注意力机制lstm和神经主题模型的服务发现方法 |
CN113469260A (zh) * | 2021-07-12 | 2021-10-01 | 天津理工大学 | 一种基于卷积神经网络、注意力机制及自注意力变换器的视觉描述方法 |
CN113705558A (zh) * | 2021-08-31 | 2021-11-26 | 平安普惠企业管理有限公司 | 基于上下文迭代的情绪识别方法、装置、设备及存储介质 |
CN117633239A (zh) * | 2024-01-23 | 2024-03-01 | 中国科学技术大学 | 一种结合组合范畴语法的端到端方面情感识别方法 |
CN117633239B (zh) * | 2024-01-23 | 2024-05-17 | 中国科学技术大学 | 一种结合组合范畴语法的端到端方面情感识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107608956B (zh) | 2021-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107608956A (zh) | 一种基于cnn‑grnn的读者情绪分布预测算法 | |
CN107992531B (zh) | 基于深度学习的新闻个性化智能推荐方法与系统 | |
Zuo et al. | Tag-aware recommender systems based on deep neural networks | |
CN108763362B (zh) | 基于随机锚点对选择的局部模型加权融合Top-N电影推荐方法 | |
CN109145112B (zh) | 一种基于全局信息注意力机制的商品评论分类方法 | |
CN111966917B (zh) | 一种基于预训练语言模型的事件检测与摘要方法 | |
CN107330049B (zh) | 一种新闻热度预估方法及系统 | |
CN110287320A (zh) | 一种结合注意力机制的深度学习多分类情感分析模型 | |
CN110765775B (zh) | 一种融合语义和标签差异的命名实体识别领域自适应的方法 | |
CN109635280A (zh) | 一种基于标注的事件抽取方法 | |
CN109284506A (zh) | 一种基于注意力卷积神经网络的用户评论情感分析系统及方法 | |
CN107038480A (zh) | 一种基于卷积神经网络的文本情感分类方法 | |
CN108388544A (zh) | 一种基于深度学习的图文融合微博情感分析方法 | |
CN106569998A (zh) | 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法 | |
CN110096575B (zh) | 面向微博用户的心理画像方法 | |
CN112307351A (zh) | 用户行为的模型训练、推荐方法、装置和设备 | |
CN108256968B (zh) | 一种电商平台商品专家评论生成方法 | |
CN110119849B (zh) | 一种基于网络行为的人格特质预测方法及系统 | |
CN113392209A (zh) | 一种基于人工智能的文本聚类方法、相关设备及存储介质 | |
CN107273348A (zh) | 一种文本的话题和情感联合检测方法及装置 | |
CN111260428A (zh) | 一种商品推荐方法和装置 | |
CN108733675A (zh) | 基于大量样本数据的情感评价方法及装置 | |
Islam et al. | Review analysis of ride-sharing applications using machine learning approaches: Bangladesh perspective | |
CN113934835B (zh) | 结合关键词和语义理解表征的检索式回复对话方法及系统 | |
CN111241271B (zh) | 文本情感分类方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |