CN111814450B - 一种基于残差注意力的方面级情感分析方法 - Google Patents

一种基于残差注意力的方面级情感分析方法 Download PDF

Info

Publication number
CN111814450B
CN111814450B CN202010664010.0A CN202010664010A CN111814450B CN 111814450 B CN111814450 B CN 111814450B CN 202010664010 A CN202010664010 A CN 202010664010A CN 111814450 B CN111814450 B CN 111814450B
Authority
CN
China
Prior art keywords
text
information
target
predicted
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010664010.0A
Other languages
English (en)
Other versions
CN111814450A (zh
Inventor
熊庆宇
吴超
高旻
王凯歌
易华玲
杨正益
文俊浩
张致远
吴丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202010664010.0A priority Critical patent/CN111814450B/zh
Publication of CN111814450A publication Critical patent/CN111814450A/zh
Application granted granted Critical
Publication of CN111814450B publication Critical patent/CN111814450B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于残差注意力的方面级情感分析方法,方法包括以下步骤:对输入的语句和所有的方面目标信息进行编码,得到文本编码;对待预测的方面目标在文本中的位置信息进行编码,并与得到的文本编码进行融合;对待预测的方面目标信息和融入位置编码的文本编码进行处理;将得到的编码与融入位置信息的文本编码进行结合;提取其余方面目标中的信息,与得到的文本编码进行交互处理,然后从得到的文本编码中过滤;对过滤后的文本编码进行处理,得到最终结果。本发明提出了一种将残差网络引入到注意力机制的方法,能够显著的提高文本方面级别情感分析的准确率,并且模型具有较好的鲁棒性和通用性,分析的效率也有了一定的提升。

Description

一种基于残差注意力的方面级情感分析方法
技术领域
本发明涉及自然语言处理领域,尤其涉及一种基于残差注意力的方面级情感分析方法。
背景技术
随着互联网的飞速发展,网络已然成为生活中必不可少的一部分。根据中国互联网络信息中心于2019年8月发布的《中国互联网络发展状况统计报告》的数据显示,截至2019年6月,我国网民规模为8.54亿,互联网普及率达61.2%;我国手机网民规模达8.47亿,使用手机上网的比例达99.1%。网络用户也越来越习惯于在各类网站上发表自己的意见和观点,逐渐从过去单纯的信息获取者变成网络内容的主要制造者。互联网数据中心(IDC)在一份报告中预测道:截止到2020年,数据量将会增长至400亿TB(4*1022字节),即比2010年初增长了50倍;其中包含了大量来源于社交网络、新闻报道和电商平台等领域的文本数据,使得文本信息挖掘的相关研究颇受关注。作为文本挖掘中一个重要研究方向为情感分析,其在对发布者所表述的情感进行判别方面具有关键作用。
目前,方面级的情感分析方法大致有两类,一类是基于规则和情感词典的方法,另一类则是基于神经网络的方法。
其中,基于规则和情感词典的方法主要是利用人为构建的情感词典和语义规则来提取文本中各方面目标所对应的情感词,然后对情感词典中情感词对应的分值进行统计,得出方面情感的最终得分。例如专利CN111027322A公开了一种面向财经新闻数据的细粒度情感分析方法,利用现有的实体识别及提取方法,获取到该篇新闻的所有上市公司实体集合,然后利用情感词典对上市公司实体集合中的每个实体进行情感分析和计算,得到每篇文章中每个上市公司的情感极性;这种分析方法需要耗费大量的成本去构建准确且全面的情感词典,并且要定义复杂的语义语法规则,如否定词、程度副词等,并且这种方法只能面向特定的领域,如果要应用到其他的领域中,则需要构建不同的情感词典和规则,迁移能力差且情感分析效果并不明显。
而基于神经网络的方法主要使用各类改进的神经网络模型对文本进行分析建模,而后在语料库上训练模型,最后利用训练好的模型对待处理的文本进行分析。例如专利CN110046353A公开了一种基于多语言层次机制的方面级情感分析方法,首先将输入文本转化为向量表示,然后获取输入文本中各个句子之间的时序关系,同时获取方面词在单个句子中的局部特征和在整个句子中的长距离依赖关系,然后基于分类特征来判别输入文本中不同方面的情感极性,最后获得方面词的情感信息;这种方法没有很好的处理方面词在文中所处的位置信息以及其他方面词对待预测方面词产生的情感干扰。
因此,本领域亟待一种能够在方面级情感分析过程中过滤掉其他方面目标对应的情感信息的方面级情感分析方法。
发明内容
本发明的目的是提供一种在方面级情感分析过程中能够过滤掉其他方面目标对应的情感信息,可以很好的对文本中方面目标的情感进行建模,减少其他方面情感产生的干扰,从而高效且准确的对文本的方面级情感进行分析的基于残差注意力的方面级情感分析方法。
一种基于残差注意力的方面级情感分析方法,所述方面级情感分析方法包括以下步骤:
S1:对输入的文本和所有的方面目标信息进行编码,将文本和所有的方面目标信息转变成张量形式,得到文本编码;
S2:利用相对位置编码函数对待预测的方面目标在文本中的相对位置信息进行编码,并将得到的位置编码与S1中得到的文本编码进行融合;
S3:利用注意力机制对待预测的方面目标和步骤S2中融入位置编码的文本编码进行处理;
S4:利用残差机制将S3中处理后得到的编码与融入位置信息的文本编码进行结合,作为融合待预测方面目标信息的文本编码;
S5:利用卷积神经网络提取其余方面目标中的特征信息,与步骤S1中得到的文本编码进行交互处理,然后从步骤S4得到的文本编码中过滤,得到最终面向方面级情感分析的特征;
S6:利用最大池化层、全连接层和Softmax层对步骤S5过滤后的文本编码进行处理,得到最终结果。
本发明的原理为:
本发明克服了传统的情感分析方法中往往是对文本整体的情感倾向进行分析,不能有效判别各个方面所表述的情感的不足,在卷积神经网络和传统注意力机制的基础上将残差网络引入注意力机制,将原始信息和注意力机制处理得到的结果进行结合,还提出了一种其余方面目标处理机制,对文本中除待预测方面目标之外的其余方面目标的情感信息进行处理,并在文本编码信息中过滤掉此类信息,减少其余方面目标的情感信息对当前方面目标的情感预测产生干扰。
本发明的有益效果在于:
可以很好的解决传统注意力机制原始信息损失的问题,使得注意力机制处理后得到的信息更加丰富;对文本中含有多个方面目标的文本,尤其是方面目标对应的情感不同时,效果尤为明显。与现有的技术相比,本发明能够显著的提高文本方面级别情感分析的准确率,能够很好的对多方面文本的情感进行处理,并且具有较好的鲁棒性和通用性,分析的效率也有显著的提升。
附图说明
图1为本发明的一种情感分析模型结构示意图。
图2为本发明的一种残差注意力机制示意图。
具体实施方式
体现本发明特征与优点的典型实施方式将在以下的说明中详细叙述,应理解的是本发明能够在不同的实施方式上具有各种的变化,其皆不脱离本发明的范围,且其中的说明及图示在本质上是当作说明之用,而非用以限制本发明。
一种基于残差注意力的方面级情感分析方法,所述方面级情感分析方法包括以下步骤:
S1:对输入的文本和所有的方面目标信息进行编码,将文本和所有的方面目标信息转变成张量形式,得到文本编码;
S2:利用相对位置编码函数对待预测的方面目标在文本中的相对位置信息进行编码,并将得到的位置编码与S1中得到的文本编码进行融合;
S3:利用注意力机制对待预测的方面目标和步骤S2中融入位置编码的文本编码进行处理;
S4:利用残差机制将S3中处理后得到的编码与融入位置信息的文本编码进行结合,作为融合待预测方面目标信息的文本编码;
S5:利用卷积神经网络提取其余方面目标中的特征信息,与步骤S1中得到的文本编码进行交互处理,然后从步骤S4得到的文本编码中过滤,得到最终面向方面级情感分析的特征;
S6:利用最大池化层、全连接层和Softmax层对步骤S5过滤后的文本编码进行处理,得到最终结果。
如图1所示,本发明在卷积神经网络和传统注意力机制的基础上,提出了一种将残差网络引入到注意力机制的方法,将原始信息和注意力机制处理得到的结果进行结合,然后提出了一种其余方面目标处理机制,对文本中除待预测方面目标之外的其余方面目标的情感信息进行处理,并在文本编码信息中过滤掉此类信息,减少其余方面目标的情感信息对当前方面目标的情感预测产生干扰,对文本中含有多个方面目标的文本,尤其是方面目标对应的情感不同时,效果尤为明显。
进一步地,包括建立一种基于残差注意力的方面级情感分析模型,模型包括词向量编码模块、位置编码模块、残差注意力模块、其余方面目标处理模块和情感分类模块;
词向量编码模块:对输入的文本和所有的方面目标信息进行编码,将文本和所有的方面目标信息转变成张量形式,得到文本编码;
位置编码模块:对待预测的方面目标在文本中的位置信息进行编码,并与词向量编码模块得到的文本编码进行融合;
残差注意力模块:利用注意力机制对待预测的方面目标信息编码和融入位置信息的文本编码进行处理,再利用残差机制将融入位置信息的文本编码和注意力机制处理后得到的编码进行结合,作为融合了待预测方面信息的文本编码;
其余方面目标处理模块:用卷积神经网络提取其余方面目标中的信息,对词向量编码模块得到的文本编码进行交互处理,并从残差注意力模块处理得到的文本编码中过滤;
情感分类模块:利用最大池化层、全连接层和Softmax层对最后的文本编码进行处理。
具体地,词向量编码模块利用词嵌入算法对输入的语句和所有的方面目标信息进行编码,所有的方面目标信息包括待预测的方面目标信息和其余方面目标信息;位置编码模块能有效的在文本编码中融入位置信息;其余方面目标处理模块能够减少其他方面说对应的情感信息。
进一步地,步骤S1中设定输入的文本集合为包含n个单词,文本序列的向量表示为c'∈Rn×d;设定待预测的方面目标集合为/>包含m个单词,待预测方面目标的向量表示为a'∈Rm×d;设定其余方面目标集合为O={o1,o2,...,ot},共包含t个其余方面目标,/>代表其余方面目标集合中的第i个,包含li个单词,第i个其余方面目标的向量表示为/>其中d为词向量的维度。
进一步地,步骤S2中相对位置编码函数为:
将位置编码融入到文本编码中的得到融合了位置信息的文本编码函数为:
cp=c'Δexpand(p)
其中,i和j分别代表待预测方面目标首末单词在文中的位置,r和rl是以待预测方面为界,右半文本中离方面目标最近一个其余方面目标的首单词索引以及长度;p∈Rn×1是整个文本相对于待预测方面的位置编码,Δ代表张量的相对位置元素相乘,cp∈Rn×d就是融合了位置信息的文本编码,expand(*)为维度扩展。
具体地,如果此其余方面目标不存在,那么r=rl=0,左半段文本的处理方式与右半段文本的处理方式类似。此外,将位置编码的1维扩展到文本编码的d维,Δ代表张量的相对位置元素相乘操作,此时cp∈Rn×d就是融合了位置信息的文本编码。
进一步地,步骤S3中对待预测的方面目标的处理公式为:
ha=tan(Conv1d(a'|e,f,q,p,s))
h'a=MaxPool1d(ha|s')
其中,e、f、q、p、s和s'分别是卷积和池化操作的参数,ha、h'a分别代表卷积操作后的输出以及最大池化层操作后的输出。
具体地,利用卷积操作和最大池化操作对待预测方面进行处理,提取其中的信息;然后利用k个不同卷积核得到在原维度上进行叠加得到he∈R(k*f)可以更好的融入到后面的信息整合部分,在新的维度上进行组合得到h'e∈Rk×f×1用于残差注意力机制,可以得到k个不同的注意力值,增强注意力机制的性能。
进一步地,步骤S3中对融入位置编码的文本编码进行处理的公式为:
hi=Wc·(cp)T+bc
其中Wa∈Rf×f,ba∈Rf×1,WC∈Rf×d,bc∈Rf×1是模型参数,Sa∈Rn×1是注意力机制得到的注意力矩阵,k为卷积核的数量值,为利用k个卷积核得到的输出,hi代表文本序列加上加上权值参数后的输出,fi代表k个卷积核得到的输出加上权值参数后的结果;
然后对注意力矩阵进行处理:
c”=tan(cpΔexpand(sa))
cr=relu(cp+c”)
其中,Δ代表张量的相对位置元素相乘,expand(*)为维度扩展,c”代表文本序列和注意力矩阵融合后的结果。
具体地,如图2所示,将h'e中的元素分开处理,然后相加后取平均值;对注意力矩阵进行扩展处理,使得矩阵维度与原文本编码维度相同;对应位置元素相乘,保证了同一个单词的d维具有相同的注意力值,然后非线性处理后和原文本编码相加。
进一步地,步骤S5中提取其余方面目标信息中的特征信息表示为O'={o'1,o'2,...,o't),对其进行处理,处理函数如下,
g'o=Wo*oe+bo
lo=sigmoid(conv(c')+g'o)
其中,Wo和bo为模型参数,lo为其余方面目标提取到的信息特征,oe代表多个其余目标方面提取到的特征信息均值化操作的结果,g'o代表oe加上权值参数后的结果。
具体地,其余方面目标的特征由提取待预测方面目标中信息的方式对其余方面目标进行处理而得到,并对其进行均值化处理,然后利用卷积操作对词向量编码后的文本向量进行处理,然后将二者进行叠加,最后利用sigmoid函数进行非线性处理。
进一步地,步骤S5中得到最终面向方面级情感分析的特征的处理公式为,
hc=tan(conv(cr))
h'c=tan(conv(cr)+g')-lo
g'=Wg*he+bg
ho=maxpool(hc×h'c)
其中,其中,Wg和bg为模型参数,he为利用k个不同卷积核得到并在原维度上进行叠加得到的he∈R(k*f),hc代表对经过注意力机制处理后的文本序列进行卷积操作,g'代表待预测的方面信息加上权值参数后的输出,hc'代表在提取到的文本信息和待预测的方面信息进行融合同时从其中过滤掉其余方面的信息,ho代表将通过注意力机制提取到的文本信息和过滤后的文本信息进行融合,并使用最大池化层来提取特征信息。
具体地,对通过残差注意力机制得到的文本编码和待预测方面目标提取到的特征进行整合,然后过滤掉其余方面目标提取到的特征,使用最大池化层对特征进行降维,使用全连接层对最终的特征表示进行处理。
进一步地,步骤S6中得到最终结果的处理公式为,
hm=tan(Wm·ho+bm)
其中,Wm和bm为模型参数,hm代表模型最后一个分类层的输出。
具体地,提取符合任务输出需求的更高级特征,然后使用softmax函数对特征进行归一化处理,再利用argmax函数得到最终的情感分类结果。

Claims (1)

1.一种基于残差注意力的方面级情感分析方法,其特征在于,所述方面级情感分析方法包括以下步骤:
S1:对输入的文本和所有的方面目标信息进行编码,将文本和所有的方面目标信息转变成张量形式,得到文本编码;其中设定输入的文本集合为包含n个单词,文本序列的向量表示为c'∈Rn×d;设定待预测的方面目标集合为/>包含m个单词,待预测方面目标的向量表示为a'∈Rm×d;设定其余方面目标集合为O={o1,o2,...,ot},共包含t个其余方面目标,/>代表其余方面目标集合中的第i个,包含li个单词,第i个其余方面目标的向量表示为/>其中d为词向量的维度;
S2:利用相对位置编码函数对待预测的方面目标在文本中的相对位置信息进行编码,并将得到的位置编码与S1中得到的文本编码进行融合;相对位置编码函数为:
将位置编码融入到文本编码中的得到融合了位置信息的文本编码函数为:
cp=c'Δexpand(p)
其中,i和j分别代表待预测方面目标首末单词在文中的位置,r和rl是以待预测方面为界,右半文本中离方面目标最近一个其余方面目标的首单词索引以及长度;p∈Rn×1是整个文本相对于待预测方面的位置编码,Δ代表张量的相对位置元素相乘,cp∈Rn×d就是融合了位置信息的文本编码,expand(*)为维度扩展;
S3:利用注意力机制对待预测的方面目标和步骤S2中融入位置编码的文本编码进行处理;
对待预测的方面目标的处理公式为:
ha=tan(Conv1d(a'|e,f,q,p,s))
h′a=MaxPool1d(ha|s')
其中,e、f、q、p、s和s'分别是卷积和池化操作的参数,ha、h′a分别代表卷积操作后的输出以及最大池化层操作后的输出;
对融入位置编码的文本编码进行处理的公式为:
hi=Wc·(cp)T+bc
其中Wa∈Rf×f,ba∈Rf×1,WC∈Rf×d,bc∈Rf×1是模型参数,Sa∈Rn×1是注意力机制得到的注意力矩阵,k为卷积核的数量值,为利用k个卷积核得到的输出/>hi代表文本序列加上加上权值参数后的输出,fi代表k个卷积核得到的输出加上权值参数后的结果;
然后对注意力矩阵进行处理公式为:
c”=tan(cpΔexpand(sa))
cr=relu(cp+c”)
其中,Δ代表张量的相对位置元素相乘,expand(*)为维度扩展,c”代表文本序列和注意力矩阵融合后的结果;
S4:利用残差机制将S3中处理后得到的编码与融入位置信息的文本编码进行结合,作为融合待预测方面目标信息的文本编码;
S5:利用卷积神经网络提取其余方面目标中的特征信息,与步骤S1中得到的文本编码进行交互处理,然后从步骤S4得到的文本编码中过滤,得到最终面向方面级情感分析的特征;
提取其余方面目标信息中的特征信息表示为O'={o′1,o′2,...,o′t},对其进行处理,处理函数如下:
g′o=Wo*oe+bo
lo=sigmoid(conv(c')+g′o)
其中,Wo和bo为模型参数,lo为其余方面目标提取到的信息特征,oe代表多个其余目标方面提取到的特征信息均值化操作的结果,g′o代表oe加上权值参数后的结果;
得到最终面向方面级情感分析的特征的处理公式为:
hc=tan(conv(cr))
h′c=tan(conv(cr)+g')-lo
g'=Wg*he+bg
ho=maxpool(hc×h′c)
其中,Wg和bg为模型参数,he为利用k个不同卷积核得到并在原维度上进行叠加得到的he∈R(k*f),hc代表对经过注意力机制处理后的文本序列进行卷积操作,g'代表待预测的方面信息加上权值参数后的输出,h′c代表在提取到的文本信息和待预测的方面信息进行融合同时从其中过滤掉其余方面的信息,ho代表将通过注意力机制提取到的文本信息和过滤后的文本信息进行融合,并使用最大池化层来提取特征信息;
S6:利用最大池化层、全连接层和Softmax层对步骤S5过滤后的文本编码进行处理,得到最终结果,得到最终结果的处理公式为:
hm=tan(Wm·ho+bm)
其中,Wm和bm为模型参数。
CN202010664010.0A 2020-07-10 2020-07-10 一种基于残差注意力的方面级情感分析方法 Active CN111814450B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010664010.0A CN111814450B (zh) 2020-07-10 2020-07-10 一种基于残差注意力的方面级情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010664010.0A CN111814450B (zh) 2020-07-10 2020-07-10 一种基于残差注意力的方面级情感分析方法

Publications (2)

Publication Number Publication Date
CN111814450A CN111814450A (zh) 2020-10-23
CN111814450B true CN111814450B (zh) 2023-08-11

Family

ID=72842269

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010664010.0A Active CN111814450B (zh) 2020-07-10 2020-07-10 一种基于残差注意力的方面级情感分析方法

Country Status (1)

Country Link
CN (1) CN111814450B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112579778B (zh) * 2020-12-23 2022-08-26 重庆邮电大学 基于多层次的特征注意力的方面级情感分类方法
CN113378545B (zh) * 2021-06-08 2022-02-11 北京邮电大学 一种方面级情感分析方法、装置、电子设备及存储介质
CN114429122B (zh) * 2022-01-25 2024-06-11 重庆大学 一种基于循环注意力的方面级情感分析系统和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法
CN110502626A (zh) * 2019-08-27 2019-11-26 重庆大学 一种基于卷积神经网络的方面级情感分析方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726207B2 (en) * 2018-11-27 2020-07-28 Sap Se Exploiting document knowledge for aspect-level sentiment classification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法
CN110502626A (zh) * 2019-08-27 2019-11-26 重庆大学 一种基于卷积神经网络的方面级情感分析方法

Also Published As

Publication number Publication date
CN111814450A (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
CN110119765B (zh) 一种基于Seq2seq框架的关键词提取方法
CN111814450B (zh) 一种基于残差注意力的方面级情感分析方法
CN110502626B (zh) 一种基于卷积神经网络的方面级情感分析方法
CN110309839B (zh) 一种图像描述的方法及装置
CN110717047A (zh) 一种基于图卷积神经网络的Web服务分类方法
CN111966786B (zh) 一种微博谣言检测方法
CN107688576B (zh) 一种cnn-svm模型的构建及倾向性分类方法
CN114757182A (zh) 一种改进训练方式的bert短文本情感分析方法
CN110728144B (zh) 一种基于上下文语义感知的抽取式文档自动摘要方法
CN114880461A (zh) 一种结合对比学习和预训练技术的中文新闻文本摘要方法
CN113220890A (zh) 一种基于预训练的结合新闻标题和新闻长文本内容的深度学习方法
CN116205222A (zh) 一种基于多通道注意力融合的方面级情感分析系统及方法
CN110472245A (zh) 一种基于层次化卷积神经网络的多标记情绪强度预测方法
CN112818698A (zh) 一种基于双通道模型的细粒度的用户评论情感分析方法
Jia Sentiment classification of microblog: A framework based on BERT and CNN with attention mechanism
CN111339772B (zh) 俄语文本情感分析方法、电子设备和存储介质
CN114004220A (zh) 一种基于cpc-ann的文本情绪原因识别方法
Zhang et al. Exploring deep recurrent convolution neural networks for subjectivity classification
Chen et al. Chinese Weibo sentiment analysis based on character embedding with dual-channel convolutional neural network
CN112287240A (zh) 基于双嵌入多层卷积神经网络的案件微博评价对象抽取方法及装置
CN115422939A (zh) 一种基于大数据的细粒度商品命名实体识别方法
CN116910238A (zh) 一种基于孪生网络的知识感知虚假新闻检测方法
CN111460147A (zh) 一种基于语义增强的标题短文本分类方法
Huang A CNN model for SMS spam detection
CN111061876A (zh) 事件舆情数据分析方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant