CN110807320B - 基于cnn双向gru注意力机制的短文本情感分析方法 - Google Patents

基于cnn双向gru注意力机制的短文本情感分析方法 Download PDF

Info

Publication number
CN110807320B
CN110807320B CN201911092403.2A CN201911092403A CN110807320B CN 110807320 B CN110807320 B CN 110807320B CN 201911092403 A CN201911092403 A CN 201911092403A CN 110807320 B CN110807320 B CN 110807320B
Authority
CN
China
Prior art keywords
word
emotion
cnn
vector
gru
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911092403.2A
Other languages
English (en)
Other versions
CN110807320A (zh
Inventor
刘新亮
张腾
高彦平
高圣乔
陈念
洪坤明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Technology and Business University
Original Assignee
Beijing Technology and Business University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Technology and Business University filed Critical Beijing Technology and Business University
Priority to CN201911092403.2A priority Critical patent/CN110807320B/zh
Publication of CN110807320A publication Critical patent/CN110807320A/zh
Application granted granted Critical
Publication of CN110807320B publication Critical patent/CN110807320B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

一种基于CNN双向GRU注意力机制的短文本情感分析方法,包括:对短文本预处理,除噪、分词、词性标注、去除停用词;通过连续词袋模型(CBOW)将句子以词为单位通过负采样训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合;计算情感词在不同数据集文档出现频数计算情感分值继而转化成情感特征向量矩阵;词嵌入与特征嵌入拓扑作为卷积神经网络输入,通过卷积,池化得到句子表征;通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征;两种表征拓扑结合作为全连接层输入,输出情感分析结果。

Description

基于CNN双向GRU注意力机制的短文本情感分析方法
技术领域
本发明属于自然语言处理领域,尤其涉及一种基于CNN双向GRU注意力机制的短文本情感分析方法
背景技术
随着互联网的高速发展,越来越多的用户通过社交媒体表达自己的观点抒发自己的情感评论,其中大多数评论以短文本的形式存在。热点事件会引起社会的广泛关注讨论,及时掌握舆情导向,获取用户情感倾向是一个极具挑战性任务。
情感分析通过对文本的预处理,分析,挖掘用户的情感倾向,可以了解到大众对热点事件的情感变化,也是自然语言处理的重要方向之一。情感分析研究方法主要分为基于词典的方法,基于机器学习的方法,基于深度学习的方法。基于词典的方法主要依赖于词典的构建与选择判断句子情感极性,不同的词语有着不用的情感得分,对句子情感分类的贡献度不同,但因其领域适应性较差,通常作为辅助方法。基于机器学习的方法依赖选取有效特征组合利用分类器进行情感分类,但这种方法需要大量人工标注数据集来训练模型,费时费力。基于深度学习的方法,可以挖掘深层的语义情感含义,应用广泛,但是有监督的深度学习仍需要大量标注,而无监督方法对于文本的语义关联要求较高,其中否定词、程度副词、转折词等的使用可能导致句子的情感极性偏移影响情感分析结果准确性,还需进一步发展改进。
发明内容
本发明针对上述问题:本发明提供一种基于CNN双向GRU注意力机制的短文本情感分析方法。充分利用情感词自身信息,根据情感词在数据集内不同极性的句子中出现的频率来计算情感得分得出情感特征向量矩阵融入卷积网络;对影响句子极性的否定词、转折词通过双向GRU注意力机制深入获取句子表征,从而提高情感分析结果的准确性;减少人工标注环节极大节省工时。
为实现上述目的,提出本发明的技术方案:基于CNN双向GRU注意力机制的短文本情感分析方法,根据情感词在数据集内不同极性的句子中出现的频率来计算情感得分,融入卷积神经网络,对影响句子极性的否定词转折词通过双向GRU注意力机制深入获取句子表征,从而提高情感分析结果的准确性。
本发明的技术方案包括:对短文本预处理,除噪、分词、词性标注、去除停用词;通过连续词袋模型(CBOW)将句子以词为单位通过负采样训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合;计算情感词在不同数据集文档出现频数计算情感分值继而转化成特征向量;词嵌入与特征嵌入拓扑作为卷积神经网络输入,卷积,池化得到句子表征;通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征;两种表征拓扑结合作为全连接层输入,输出情感分析结果。
具体步骤如下:
(1)对短文本预处理,除噪、分词、词性标注、去除停用词。用中科院分词系统(NLPIR)对句子进行分词、词性标注,用哈工大停用词库去除停用词。
(2)通过连续词袋模型(CBOW)将句子以词为单位通过负采样训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合。即每一个词wi都会由一个多维的向量qi表示。
(3)计算情感词在不同数据集文档出现频数计算情感分值继而转化成特征向量。
Figure BDA0002267243340000021
Figure BDA0002267243340000022
使用Hownet情感词典,wi为情感词典的第i个情感词,
Figure BDA0002267243340000023
为包含情感词wi的积极情感数据样本个数,
Figure BDA0002267243340000024
为包含情感词wi的消极情感数据样本个数,F(wi)为情感词wi在数据集上的文档频数。Fmin为最小文档频数,Fmax为最大文档频数,S(wi)为包含情感词wi的情感得分。
Figure BDA0002267243340000025
β、k为可调参数。对每一个情感词wi都会得到情感得S(wi)分值继而得到一个多维的连续值向量e(wi)。
(4)词嵌入与特征嵌入拓扑作为卷积神经网络输入,卷积,池化得到句子表征。若wi词为情感词,词嵌入与特征嵌入拓扑得出为xi,CNN可接收句子的平行化输入,卷积窗口长度为h,通过卷积核对输入矩阵x1:n进行卷积操作可得到卷积后特征向量:c=[c1,c2,…,cn-h+1]。
(5)通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征。具体步骤如附图3所示。词嵌入表征经过双向GRU网络输出句子的隐含层表征向量ε。门控循环单元(GRU)如图2所示:
Figure BDA0002267243340000031
Figure BDA0002267243340000032
Figure BDA0002267243340000033
其中ωt,ξt分别表示t时刻Bi-GRU所对应的前向隐层状态
Figure BDA0002267243340000034
和反向隐状态
Figure BDA0002267243340000035
的权重,ζt表示t时刻隐层状态所对应的偏置项。
将否定词、转折词和程度副词作为参数化查询项va,由双向GRU网络输出的句子表征和参数化查询项va得到M,由M和参数化查询项va得到权重αi,由αi和εi得到关于否定词、转折词和程度副词作为参数化查询项注意力机制的特征向量&。
M=tanh(wsεi+wtva)
Figure BDA0002267243340000036
Figure BDA0002267243340000037
其中ws为特性向量εi的可调节权重矩阵,wt为参数化查询项va的可调节权重矩阵,MT为权重矩阵M的转置矩阵。
(6)将CNN提取的到的特征向量
Figure BDA0002267243340000038
和通过双向GRU循环神经网络参数查询项为否定词转折词注意力机制获取表征&拓扑结合作为全连接层输入,输出情感分析概率结果P。
Figure BDA0002267243340000039
其中wp为权重矩阵,y为偏置项,soft max为CNN网络全连接层的回归函数,值域为[0,1]。
有益效果:
本发明提供一种基于CNN双向GRU注意力机制的短文本情感分析方法。充分利用情感词自身信息,根据情感词在数据集内不同极性的句子中出现的频率来计算情感得分得出情感特征向量矩阵融入卷积网络;对影响句子极性的否定词、转折词通过双向GRU注意力机制深入获取句子表征,从而提高情感分析结果的准确性;减少人工标注环节极大节省工时。
附图说明
图1本发明的方法流程图。
图2为本发明GRU网络内部结构图;
图3本发明双向GRU网络注意力机制模型。
具体实施方式
下面结合附图和具体实施方式对本发明进行描述。
其中,附图1描述了基于CNN双向GRU注意力机制的短文本情感分析方法方法处理过程。
如图1所示,本发明具体的实现步骤:
(1)对短文本预处理,除噪、分词、词性标注、去除停用词。用中科院分词系统(NLPIR)对句子进行分词、词性标注,用哈工大停用词库去除停用词。
(2)通过连续词袋模型(CBOW)将句子以词为单位训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合。连续词袋模型是Word2vec词嵌入的一种,基于某中心词在文本序列前后的背景词来生成该中心词,构建词向量矩阵。即每一个词wi都会由一个多维的向量qi表示。Word2vec词嵌入的训练方法主要有二次采样和负采样,负采样即对于一对中心词和背景词随机采样K个噪声词来进行近似训练,通过考虑同时含有正类样本和负类样本的相互独立事件来构造损失函数。每次让一个训练样本只更新部分权重,其他权重全部固定;减少计算量。
(3)计算情感词在不同数据集文档出现频数计算情感分值继而转化成特征向量。
Figure BDA0002267243340000041
Figure BDA0002267243340000042
使用Hownet情感词典,wi为情感词典的第i个情感词,
Figure BDA0002267243340000043
为包含情感词wi的积极情感数据样本个数,
Figure BDA0002267243340000044
为包含情感词wi的消极情感数据样本个数,F(wi)为情感词wi在数据集上的文档频数。Fmin为最小文档频数,Fmax为最大文档频数,S(wi)为包含情感词wi的情感得分。
Figure BDA0002267243340000045
β、k为可调参数。对每一个情感词wi都会得到情感得S(wi)分值继而得到一个多维的连续值向量e(wi)。
(4)词嵌入与特征嵌入拓扑作为卷积神经网络输入,卷积,池化得到句子表征。若wi词为情感词,词嵌入与特征嵌入拓扑得出为:
Figure BDA0002267243340000046
CNN可接收句子的平行化输入,卷积窗口长度为h,通过卷积核对输入矩阵x1:n进行卷积操作:
ci=f(w·xi:i+h+1+b)
其中,w∈Rh×l为卷积核权重,l为xi的维度,b为偏置项,f为激活函数,xi:i+h+1为一个卷积窗口的词向量矩阵。长度为n的句子通过卷积操作可得到卷积后特征向量:c=[c1,c2,…,cn-h+1],其中c∈Rn-h+1
采取最大池化方法对卷积后的特征向量c进行池化操作,提取最重要信息,对于有m个卷积核的窗口池化后得到CNN提取的到的特征向量
Figure BDA0002267243340000051
(5)门控循环单元(GRU)如图2所示,图中更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息带入越多。重置门控制前一状态有多少信息被写入到当前的候选隐藏状态
Figure BDA0002267243340000052
上,重置门越小,前一状态的信息被写入的越少。候选隐藏状态
Figure BDA0002267243340000053
来辅助稍后的隐藏状态计算,如果重置门中元素值接近0,那么意味着重置对应隐藏状态元素为0,即丢弃上一时间步的隐藏状态。如果元素值接近1,那么表示保留上-时间步的隐藏状态。设隐藏单元个数为h,给定时间步t的小批量输入Xt∈Rn×d(样本数为n,输入个数为d和上一时间步隐藏状态Ht-1∈Rn×h。重置门Rt∈Rn×h和更新门Zt∈Rn×h的计算如下:
Rt=σ(XtWxr+Ht-1Whr+br)
Zt=σ(XtWxz+Ht-1Whz+bz)
其中Wxr,Wxz∈Rd×h和,Whr,Whz∈Rh×h是权重参数,br,bz∈R1×h是偏差参数。σ是sigmoid函数,值域为[0,1].时间步t的候选隐藏状态
Figure BDA0002267243340000054
的计算为:
Figure BDA0002267243340000055
其中Wxh∈Rd×h和Whh∈Rh×h是权重参数,bh∈R1×h是偏差参数;
时间步t的隐藏状态Ht∈Rn×h为:
Figure BDA0002267243340000056
通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征。具体步骤如附图3所示。词嵌入表征经过双向GRU网络输出句子的隐含层表征向量ε。
Figure BDA0002267243340000061
Figure BDA0002267243340000062
Figure BDA0002267243340000063
其中ωt,ξt分别表示t时刻Bi-GRU所对应的前向隐层状态
Figure BDA0002267243340000064
和反向隐状态
Figure BDA0002267243340000065
的权重,ζt表示t时刻隐层状态所对应的偏置项。
将否定词、转折词和程度副词作为参数化查询项va注意力嵌入,由双向GRU网络输出的句子表征和参数化查询项va得到M,由M和参数化查询项va得到特征权重αi,最终由特征权重αi和双向GRU网络输出的表征εi得到关于否定词、转折词和程度副词作为参数化查询项注意力机制的特征向量&。
M=tanh(wsεi+wtva)
Figure BDA0002267243340000066
Figure BDA0002267243340000067
其中ws为特性向量εi的可调节权重矩阵,wt为参数化查询项va的可调节权重矩阵,MT为权重矩阵M的转置矩阵。
(6)将CNN提取的到的特征向量
Figure BDA0002267243340000068
和通过双向GRU循环神经网络参数查询项为否定词转折词注意力机制获取表征&拓扑结合作为全连接层输入,输出情感分析概率结果P。
Figure BDA0002267243340000069
其中wp为权重矩阵,y为偏置项,soft max为CNN网络全连接层的回归函数,值域为[0,1],因而每个短文本最后输出的概率结果P值域为[0,1],即转换为一个二分类问题,以0.5为预值,概率大于0.5的为一类,概率小于0.5的为另一类,与之对应的分类是消极和积极,示例如表1所示。
表1经典短文本分析
Figure BDA00022672433400000610
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,且应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (5)

1.一种基于CNN双向GRU注意力机制的短文本情感分析方法,其特征在于:所述包括以下步骤:
步骤(1)对短文本预处理,除噪、分词、词性标注、去除停用词,用中科院分词系统(NLPIR)对句子进行分词、词性标注,用哈工大停用词库去除停用词;
步骤(2)通过连续词袋模型(CBOW)将句子以词为单位通过负采样训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合;
步骤(3)计算情感词在不同数据集文档出现频数计算情感分值继而转化成情感特征向量矩阵;
步骤(4)词嵌入与特征嵌入拓扑作为卷积神经网络输入,通过卷积,池化得到句子表征;
步骤(5)通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征;所述步骤(5)中,通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征,词嵌入表征经过双向GRU网络输出句子的隐含层表征向量ε,门控循环单元(GRU)表示为:
Figure FDA0004106185460000011
Figure FDA0004106185460000012
Figure FDA0004106185460000013
其中ωt,ξt分别表示t时刻Bi-GRU所对应的前向隐层状态
Figure FDA0004106185460000014
和反向隐状态
Figure FDA0004106185460000015
的权重,ζt表示t时刻隐层状态所对应的偏置项;
将否定词、转折词和程度副词作为参数化查询项va,由双向GRU网络输出的表征和参数化查询项va得到M,由M和参数化查询项va得到权重αi,由αi和εi得到关于否定词、转折词和程度副词作为参数化查询项注意力机制的特征向量&;
M=tanh(wsεi+wtva)
Figure FDA0004106185460000016
Figure FDA0004106185460000017
其中ws为特性向量εi的可调节权重矩阵,wt为参数化查询项va的可调节权重矩阵,MT为权重矩阵M的转置矩阵;
步骤(6)两种表征拓扑结合作为全连接层输入,输出情感分析结果。
2.根据权利要求1所述的基于CNN双向GRU注意力机制的短文本情感分析方法,其特征在于:
所述步骤(2)中,CBOW即连续词袋模型是Word2vec词嵌入的一种,基于某中心词在文本序列前后的背景词来生成该中心词,构建词向量矩阵,即每一个词wi都会由一个多维的向量qi表示。
3.根据权利要求1所述的基于CNN双向GRU注意力机制的短文本情感分析方法,其特征在于:
所述步骤(3)中,计算情感词在不同数据集文档出现频数计算情感分值继而转化成特征向量,具体如下:
Figure FDA0004106185460000021
Figure FDA0004106185460000022
使用Hownet情感词典,wi为情感词典的第i个情感词,
Figure FDA0004106185460000023
为包含情感词wi的积极情感数据样本个数,
Figure FDA0004106185460000024
为包含情感词wi的消极情感数据样本个数,F(wi)为情感词wi在数据集上的文档频数;Fmin为最小文档频数,Fmax为最大文档频数,S(wi)为包含情感词wi的情感得分;
Figure FDA0004106185460000025
β、k为可调参数;对每一个情感词wi都会得到情感得S(wi)分值继而得到一个多维的连续值向量e(wi)。
4.根据权利要求1所述的基于CNN双向GRU注意力机制的短文本情感分析方法,其特征在于:
所述步骤(4)中,词嵌入与特征嵌入拓扑作为卷积神经网络输入,卷积,池化得到句子表征;具体包括:
若wi词为情感词,词嵌入与特征嵌入拓扑得出为:
Figure FDA0004106185460000026
CNN接收句子的平行化输入,卷积窗口长度为h,通过卷积核对输入矩阵x1:n进行卷积操作:
ci=f(w·xi:i+h+1+b)
其中,w∈Rh×l为卷积核权重,l为xi的维度,b为偏置项,f为激活函数,xi:i+h+1为一个卷积窗口的词向量矩阵;长度为n的句子通过卷积操作可得到卷积后特征向量:c=[c1,c2,···,cn-h+1],其中c∈Rn-h+1
采取最大池化方法对卷积后的特征向量c进行池化操作,提取最重要信息,对于有m个卷积核的窗口池化后得到CNN提取的到的特征向量
Figure FDA0004106185460000031
5.根据权利要求4所述的基于CNN双向GRU注意力机制的短文本情感分析方法,其特征在于,所述步骤(6)具体为:
将CNN提取的到的特征向量
Figure FDA0004106185460000032
和通过双向GRU循环神经网络参数查询项为否定词转折词注意力机制获取表征&拓扑结合作为全连接层输入,输出情感分析概率结果P:
Figure FDA0004106185460000033
其中wp为权重矩阵,y为偏置项,softmax为CNN网络全连接层的回归函数,值域为[0,1]。
CN201911092403.2A 2019-11-11 2019-11-11 基于cnn双向gru注意力机制的短文本情感分析方法 Active CN110807320B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911092403.2A CN110807320B (zh) 2019-11-11 2019-11-11 基于cnn双向gru注意力机制的短文本情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911092403.2A CN110807320B (zh) 2019-11-11 2019-11-11 基于cnn双向gru注意力机制的短文本情感分析方法

Publications (2)

Publication Number Publication Date
CN110807320A CN110807320A (zh) 2020-02-18
CN110807320B true CN110807320B (zh) 2023-05-19

Family

ID=69501752

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911092403.2A Active CN110807320B (zh) 2019-11-11 2019-11-11 基于cnn双向gru注意力机制的短文本情感分析方法

Country Status (1)

Country Link
CN (1) CN110807320B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696674B (zh) * 2020-06-12 2023-09-08 电子科技大学 一种电子病历的深度学习方法及系统
CN111881291A (zh) * 2020-06-19 2020-11-03 山东师范大学 一种文本情感分类方法及系统
CN112559842A (zh) * 2020-07-07 2021-03-26 武汉纺织大学 基于深度学习注意力机制的电商评论数据分析方法及装置
CN112507723B (zh) * 2020-12-03 2024-06-18 南京理工大学 基于多模型融合的新闻情感分析方法
CN112507115B (zh) * 2020-12-07 2023-02-03 重庆邮电大学 一种弹幕文本中情感词的分类方法、装置及存储介质
CN112528672B (zh) * 2020-12-14 2021-07-30 北京邮电大学 一种基于图卷积神经网络的方面级情感分析方法及装置
CN112598044B (zh) * 2020-12-17 2024-04-02 中山大学 一种基于多通道图卷积的文本分类方法
CN112504971B (zh) * 2021-02-08 2021-04-20 湖北鑫英泰系统技术股份有限公司 一种变压器油中特征气体的光声光谱识别方法与装置
CN113761910A (zh) * 2021-03-17 2021-12-07 中科天玑数据科技股份有限公司 一种融合情感特征的评论文本细粒度情感分析方法
CN113033212B (zh) * 2021-03-31 2024-04-30 中国邮政储蓄银行股份有限公司 文本数据处理方法及装置
CN113392881B (zh) * 2021-05-27 2023-04-18 重庆大学 一种基于迁移学习的旋转机械故障诊断方法
CN113869065B (zh) * 2021-10-15 2024-04-12 梧州学院 一种基于“单词-短语”注意力机制的情感分类方法和系统
CN115935075B (zh) * 2023-01-30 2023-08-18 杭州师范大学钱江学院 融合推文信息和行为特征的社交网络用户抑郁症检测方法
CN116362237B (zh) * 2023-04-17 2024-07-19 内蒙古工业大学 一种混合策略感知的文本情感强度标注方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3047353C (en) * 2017-01-06 2023-05-23 The Toronto-Dominion Bank Learning document embeddings with convolutional neural network architectures
CN108763326B (zh) * 2018-05-04 2021-01-12 南京邮电大学 一种基于特征多样化的卷积神经网络的情感分析模型构建方法
CN110097089A (zh) * 2019-04-05 2019-08-06 华南理工大学 一种基于注意力组合神经网络的文档级别的情感分类方法

Also Published As

Publication number Publication date
CN110807320A (zh) 2020-02-18

Similar Documents

Publication Publication Date Title
CN110807320B (zh) 基于cnn双向gru注意力机制的短文本情感分析方法
CN112001185B (zh) 一种结合中文句法和图卷积神经网络的情感分类方法
CN108763326B (zh) 一种基于特征多样化的卷积神经网络的情感分析模型构建方法
CN111209738B (zh) 一种联合文本分类的多任务命名实体识别方法
CN108363743B (zh) 一种智能问题生成方法、装置和计算机可读存储介质
CN112001187B (zh) 一种基于中文句法和图卷积神经网络的情感分类系统
CN111160037B (zh) 一种支持跨语言迁移的细粒度情感分析方法
CN109325231B (zh) 一种多任务模型生成词向量的方法
CN106980608A (zh) 一种中文电子病历分词和命名实体识别方法及系统
CN112487143A (zh) 一种基于舆情大数据分析的多标签文本分类方法
CN106980609A (zh) 一种基于词向量表示的条件随机场的命名实体识别方法
CN110287323B (zh) 一种面向目标的情感分类方法
CN111274790B (zh) 基于句法依存图的篇章级事件嵌入方法及装置
CN111368086A (zh) 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法
CN112001186A (zh) 一种利用图卷积神经网络和中文句法的情感分类方法
CN109726745B (zh) 一种融入描述知识的基于目标的情感分类方法
CN109086269B (zh) 一种基于语义资源词表示和搭配关系的语义双关语识别方法
CN111581364B (zh) 一种面向医疗领域的中文智能问答短文本相似度计算方法
CN111078833A (zh) 一种基于神经网络的文本分类方法
CN110765769A (zh) 一种基于子句特征的实体属性依赖情感分析方法
CN112836051A (zh) 一种在线自学习的法院电子卷宗文本分类方法
CN114417851B (zh) 一种基于关键词加权信息的情感分析方法
CN111222318A (zh) 基于双通道双向lstm-crf网络的触发词识别方法
CN111507093A (zh) 一种基于相似字典的文本攻击方法、装置及存储介质
CN114925205B (zh) 基于对比学习的gcn-gru文本分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant