CN113220884A - 基于双滑动窗口的图神经网络文本情感分类方法 - Google Patents

基于双滑动窗口的图神经网络文本情感分类方法 Download PDF

Info

Publication number
CN113220884A
CN113220884A CN202110547737.5A CN202110547737A CN113220884A CN 113220884 A CN113220884 A CN 113220884A CN 202110547737 A CN202110547737 A CN 202110547737A CN 113220884 A CN113220884 A CN 113220884A
Authority
CN
China
Prior art keywords
text
global
word
window
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110547737.5A
Other languages
English (en)
Other versions
CN113220884B (zh
Inventor
李向华
吴欣俣
高超
王震
朱培灿
李学龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110547737.5A priority Critical patent/CN113220884B/zh
Publication of CN113220884A publication Critical patent/CN113220884A/zh
Application granted granted Critical
Publication of CN113220884B publication Critical patent/CN113220884B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及文本情感分类技术领域,且公开了基于双滑动窗口的图神经网络文本情感分类方法,采用全局滑动窗口获取单词对之间的权重,采用PMI互信息计算权重。该基于双滑动窗口的图神经网络文本情感分类方法,引入全局滑动窗口和局部滑动窗口来构建文本级图,全局窗口在文本之间滑动用来确定单词连边权重,局部滑动窗口在文本内滑动用来确定单词之间连边情况;采用门控图神经网络更新节点,综合考虑邻居节点信息和边的权重更新当前节点;引入注意力机制学习单词节点权重,采用最大池化和平均池化结合的方式学习图表示进行分类。本发明采用全局窗口局部窗口来获取全局信息和局部信息,并且能获取多样性的全局信息,高效融合全局信息和局部信息。

Description

基于双滑动窗口的图神经网络文本情感分类方法
技术领域
本发明涉及人工智能与文本分类技术领域,具体为基于双滑动窗口的图神经网络文本情感分类方法。
背景技术
随着社交媒体的快速发展,互联网(例如:微博、淘宝、twitter)上涌现了大量用户参与的文本信息,这些文本信息中蕴含了丰富的用户观点和情绪。这不仅为消费者提供了产品使用体验交流平台,另一方面也为商家提供了信息展示和产品改进的平台。从海量文本中提取这一类带有情感的文本,并对其进行文本情感的分析和研究,具有很强的应用价值。
情感分析使用自然语言处理(NLP)、文本分析和计算技术自动从情感评论中提取或分类情感。对这些情感和观点的分析已经应用到许多领域,如消费者信息、市场营销、书籍、应用程序、网站和社交媒体等。例如,在美国2016年总统竞选中,有研究针对Twitter用户发布的相关帖子进行观点及情绪分析,最终成功预测出竞选的候选人;在2011年日本大地震期间,有研究对社交媒体上地震相关的帖子进行情感分析,提出了一种大数据驱动的灾害响应方法。该模型通过机器学习方法对分类后的灾难数据进行分类,分析人们的情绪,有助于应急响应人员和救援人员制定更好的策略,以有效地管理快速变化的灾害环境。通过对2014年加州南纳帕地震期间的相关推特的帖子进行分析,以分析人们在2014年加州南纳帕6.0级地震之前、期间和之后的情绪和流动性;在金融市场领域,金融文本数据分析平台利用情感分析技术,分析挖掘各大财经网站、股票论坛中不同的立场不同的思维方式的人群的不同观点与情绪,分析挖掘反应投资者情绪的网络舆情,形成指标,为投资者提供参考;在电商平台上,消费者在购物后所填写的商品评论反映了消费者对商品各个方面的情感态度,例如手机产品的性能是否能满足消费者的需要、定价是否合理等。因此,对海量文本进行有效的文本情感分类具有现实意义和广泛的应用场景。
针对文本情感分类这一研究课题的解决方案,国内外研究现状主要从三方面展开介绍:(1)基于词典的方法。该方法主要通过制定一系列的情感词典和规则,对文本进行拆句、分析及匹配词典(一般有词性分析,句法依存分析),计算情感值,最后通过情感值作为文本的情感倾向判断的依据。常用的情感词典包括LIWC、NRC和HowNet等。基于情感词典的方法简单易于理解,但是由于语言的多样性,维护情感词典需要花费大量人力资源。同时,由于语言的复杂性,对于一些隐式情感句子,采用情感词典的方法难以准确判断其情感极性。(2)基于传统深度学习的方法。随着词向量模型的提出和深度学习的快速发展,出现了很多基于深度学习的文本分类模型。例如,TextCNN模型将卷积神经网络首次应用到文本分类任务,利用多个不同大小的卷积核来捕捉句子局部特征信息,提取句子中的关键信息。随后,由于Transformer机制的流行,出现了许多基于此的语言模型进行分类任务,例如:GPT和BERT。虽然基于深度学习的文本情感分类方法能有效利用单词的上下文关系,但其假设文本之间相互独立,忽略了文本的全局信息。(3)基于图神经网络的方法。基于图神经网络的模型最近已经被广泛应用到文本情感分类领域。根据构图方法的不同,我们将现有图神经网络的方法分为语料库级图和文本级图两种方式。语料库级图将所有单词作为节点放在一个大图上,通过单词对在整个语料库中的共现情况确定连边及权重;文本级图以文本为单位构图,每个文本有其特殊的结构。在当前文本中出现的所有单词作为节点,节点之间的连边由滑动窗口决定,节点对之间的权重由单词对在当前文本中的共现情况决定。语料库级图关注于整个语料库中的全局信息,文本级图关注于当前文本的全局信息。
然而,现有基于图神经网络的文本情感分类方法仅关注于节点的局部信息或者全局信息,难以将局部信息和全局信息很好的结合起来。此外,现有方法在获取全局信息时忽略了全局信息的多样性,即同样的两个单词节点在不同文本中可能具有不同的关系或者紧密程度。
发明内容
(一)解决的技术问题
针对现有技术不足,本发明提供了基于双滑动窗口的图神经网络文本情感分类方法,结合了全局信息和局部信息来学习图表示。具备特征明显且多样化,分类效率高等优点,解决了现有情感分类不能深入挖掘文本特征,难以高效结合全局信息和局部信息的问题,最终实现高效率情感分类。
(二)技术方案
为实现上述结合了全局信息和局部信息来学习图表示,而且全局滑动窗口方法获取的全局信息具有多样性目的,本发明提供如下技术方案:基于双滑动窗口的图神经网络文本情感分类方法,包括以下步骤:
S1:采用全局滑动窗口获取单词对之间的权重,采用PMI互信息计算权重:
Figure BDA0003074238670000031
Figure BDA0003074238670000032
Figure BDA0003074238670000033
S2:构建文本级图G=(E,N),每个文本有其特殊图结构。其中,E为边集合,N为单词节点集合。单词之间的连边由局部滑动窗口确定,出现在同一窗口内的单词之间相互连接,边的权重从S1计算的全局共享矩阵中获取。
S3:初始化节点表示。节点表示从Glove词向量获取。
S4:更新节点表示。采用GG-NN(门控图神经网络)的方式更新节点表示:
Ht=GRU(Ht-1,at)
S5:引入注意力机制,为每个节点学习一个权重:
Figure BDA0003074238670000041
Figure BDA0003074238670000042
S6:学习文本级图表示。全局池化和平均池化结合的方式:
Figure BDA0003074238670000043
S7:预测文本标签。对当前文本进行分类:
Y=softmax(WYHG+b)
S8:计算真实标签和预测标签之间的损失,采用交叉熵损失计算公式:
Figure BDA0003074238670000044
优选的,所述步骤1中W(wi,wj)是当前窗口中同时包含单词wi和单词wj的文本数量,W(wi)是当前窗口中包含单词wi的文本数量,W是全局窗口的大小。这样,同一滑动全局窗口内的文本计算的权重可以形成一个全局共享矩阵。采用滑动全局窗口的方式计算单词对之间的权重,相同窗口内的文本中的单词对共享权重,不同窗口内的文本中的单词对权重可能不同。因此,采用全局滑动窗口的方式计算单词对之间的权重能够获取全局信息的多样性。
优选的,所述步骤4中其中Ht-1为某节点在t-1时刻的表示,at为这个节点的邻居节点在t时刻的表示,Ht为这一节点更新后的节点表示。具体的更新过程如下所示:
at=AHt-1Wa+b
zt=σ(Wzat+UzHt-1)
rt=σ(Wrat+UrHt-1)
Figure BDA0003074238670000045
Figure BDA0003074238670000046
其中,A为邻接矩阵。U、Wa、Wz、Wr、Wh和b为训练权重和偏置参数,b的取值范围在[-1,1]之间。σ(x)=1/(1+e-x)是sigmoid函数,是点乘计算方法。tanh函数为非线性特征转换。z和r分别为更新门和遗忘门。
优选的,所述步骤5中其中,i和j是多层感知机。av为当前单词的权重,σ(x)是sigmoid函数,将单词权重值映射在[0,1]之间,Hv为加权后单词表示,tanh函数为非线性特征转换。
优选的,所述步骤6中其中,HG为学习到的文本级图表示,V为当前文本中单词的数量,Hv为加权后单词表示,Maxpooling表示最大池化。
优选的,所述步骤7中其中,Y为预测标签,即分类标签。WY和b为权重和偏置参数,b的取值范围在[-1,1]之间,softmax将输出结果应设[0,1]之间。
(三)有益效果
与现有技术相比,本发明提供了基于双滑动窗口的文本情感分类方法。
具备以下有益效果:
1、该基于双滑动窗口的图神经网络文本情感分类方法,通过引入全局滑动窗口和局部滑动窗口来获取全局信息和局部信息。全局滑动窗口在文本间滑动,采用互信息(Pointwise Mutual Information,PMI)的方法计算单词对之间的权重,出现在同一全局窗口中的单词对共享同样权重,相同单词对在不同窗口中的权重可能不同。局部滑动窗口在文本内滑动,用来确定单词之间的连边关系,出现在同一窗口内的单词相互连接。
2、该基于双滑动窗口的图神经网络文本情感分类方法,通过采用GG-NN(GatedGraph Neural Networks)的方式来训练文本图,其节点更新方式类似于GRU,考虑当前时刻邻居节点的表示和前一时刻该节点的表示来更新当前节点。最后,引入注意力机制和最大池化与平均池化结合的方式来聚合成图表示进行分类。本发明不仅结合了全局信息和局部信息来学习图表示,而且全局滑动窗口方法获取的全局信息具有多样性,能解决现有基于图神经网络文本情感分类方法存在的全局信息和局部信息难以高效结合的问题。
附图说明
图1为本发明的流程图;
图2为本发明的详细图解;
图3展示了本发明在不同大小的全局滑动窗口大小下的分类精度。其中,图3(a)为在数据集MR上的分类精度;图3(b)为在数据集SST1上的分类精度;图3(c)为在数据集TREC上的分类精度;图3(d)为在数据集Ohsumed上的分类精度;
图4展示了本发明在不同大小的局部滑动窗口下的分类精度。图4(a)为在数据集MR上的分类精度;图4(b)为在数据集Ohsumed上的分类精度;
图5展示了7种方法(TextCNN,TextRNN,FastText,TextGCN,TexlLevelGNN,TextING,TW-TGNN)在不同训练集比例下的分类精度。图5(a)为在数据集MR上的分类精度;图5(b)为在数据集SST2上的分类精度;
图6展示了两种方法(TextGCN,TW-TGNN)在数据集Ohsumed上文档嵌入可视化。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面将结合附图1-6,提供一种技术方案:基于双滑动窗口的图神经网络文本情感分类方法,对本发明的优选实施例进行详细的描述。
图1是本发明实施方式的流程图;
表1展示了本发明使用数据集的规模:
表1测试数据集和网络层规模设置
Figure BDA0003074238670000071
图2所示的是本发明的详细图解。
表2展示了在所有数据集上,不同方法的分类精度。每一种方法我们都运行10次取平均值,加粗字体为最高分类精度,加下划线为第二高分类精度。
表2所有数据集上的分类精度
Figure BDA0003074238670000072
Figure BDA0003074238670000081
表3展示了三种方法(Dynamic Global Win.,Corpus-level Global Win.,NoGlobal Win.)在不同数据集上的消融实验。其中,方法Dynamic Global Win.为本发明,方法Corpus-level Global Win.为采用语料库级窗口构建的全局共享矩阵,方法No GlobalWin.不采用全局窗口。Corpus-level Global Win.每对节点之间的权值是固定的,采用互信息PMI对边权重进行初始化,在三个数据集上的分类精度,本发发明均高于语料库级窗口,说明动态的边权重能更好建模单词对之间的关系。No Global Win.我们只需设置局部滑动窗口并随机初始化边的权值,与本发明和Corpus-level Global Win.相比,没有全局窗口模型的性能变差,这意味着全局共现信息是重要的,即使是固定的全局共享权值也能提高性能。
表3消融实验
Figure BDA0003074238670000082
图3展示了本发明在不同大小的全局滑动窗口大小下的分类精度。其中,图3(a)为在数据集MR上的分类精度;图3(b)为在数据集SST1上的分类精度;图3(c)为在数据集TREC上的分类精度;图3(d)为在数据集Ohsumed上的分类精度。其中横坐标为全局滑动窗口的大小,纵坐标为分类精度。实验结果表明,当全局滑动窗口为20时,测试精度达到最高,当窗口不断增大时,分类精度变得越平滑。这说明,过大的全局滑动窗口大小不能提供更多的全局信息,同时还可能导致更大的内存消耗,而没有全局窗口的模型无法获得足够的全局词共现信息。
图4展示了本发明在不同大小的局部滑动窗口下的分类精度。图4(a)为在数据集MR上的分类精度;图4(b)为在数据集Ohsumed上的分类精度。横坐标为局部滑动窗口大小,纵坐标为分类精度。实验结果表明,当局部滑动窗口为4时,测试精度达到最好效果。这说明,局部窗口过小不能反映足够的局部关系,而过大的可能会导致节点之间不必要的连接。因此,合适的局部窗口大小确保了更多的局部语义信息的传播。
图5展示了7种方法(TextCNN,TextRNN,FastText,TextGCN,TexlLevelGNN,TextING,TW-TGNN)在不同训练集比例下的分类精度。图5(a)为在数据集MR上的分类精度;图5(b)为在数据集SST2上的分类精度。横坐标为不同大小的训练集比例,纵坐标为分类精度。实验结果表明,随着训练集比例不断增加,分类精度也逐渐提高。本发明(TW-TGNN)比其他基准方法表现出更好的性能,在两个数据集上,平均分类准确率比基于图的方法高出约1%,比基于机器学习的方法高出约2%。此外,本发明在训练集较小的情况下可以获得更好的分类精度,这再次证明了我们的发明结合动态全局信息和局部信息的有效性。
图6展示了两种方法(TextGCN,TW-TGNN)在数据集Ohsumed上文档嵌入可视化。可以看到,相比于语料库级构图法TextGCN,本发明能学习到更具有区分度的文档表示。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (6)

1.基于双滑动窗口的图神经网络文本情感分类方法,其特征在于,包括以下步骤:
S1:采用全局滑动窗口获取单词对之间的权重,采用PMI互信息计算权重:
Figure FDA0003074238660000011
Figure FDA0003074238660000012
Figure FDA0003074238660000013
S2:构建文本级图G=(E,N),每个文本有其特殊图结构。其中,E为边集合,N为单词节点集合。单词之间的连边由局部滑动窗口确定,出现在同一窗口内的单词之间相互连接,边的权重从S1计算的全局共享矩阵中获取。
S3:初始化节点表示。节点表示从Glove词向量获取。
S4:更新节点表示。采用GG-NN(门控图神经网络)的方式更新节点表示:
Ht=GRU(Ht-1,at)
S5:引入注意力机制,为每个节点学习一个权重:
Figure FDA0003074238660000014
Figure FDA0003074238660000015
S6:学习文本级图表示。全局池化和平均池化结合的方式:
Figure FDA0003074238660000016
S7:预测文本标签。对当前文本进行分类:
Y=softmax(WYHG+b)
S8:计算真实标签和预测标签之间的损失,采用交叉熵损失计算公式:
Figure FDA0003074238660000017
2.根据权利要求1所述的基于双滑动窗口的图神经网络文本情感分类方法,其特征在于,所述步骤1中W(wi,wj)是当前窗口中同时包含单词wi和单词wj的文本数量,W(wi)是当前窗口中包含单词wi的文本数量,W是全局窗口的大小。这样,同一滑动全局窗口内的文本计算的权重可以形成一个全局共享矩阵。采用滑动全局窗口的方式计算单词对之间的权重,相同窗口内的文本中的单词对共享权重,不同窗口内的文本中的单词对权重可能不同。因此,采用全局滑动窗口的方式计算单词对之间的权重能够获取全局信息的多样性。
3.根据权利要求1所述的基于双滑动窗口的图神经网络文本情感分类方法,其特征在于,所述步骤4中其中Ht-1为某节点在t-1时刻的表示,at为这个节点的邻居节点在t时刻的表示,Ht为这一节点更新后的节点表示。具体的更新过程如下所示:
at=AHt-1Wa+b
zt=σ(Wzat+UzHt-1)
rt=σ(Wrat+UrHt-1)
Figure FDA0003074238660000021
Figure FDA0003074238660000022
其中,A为邻接矩阵。U、Wa、Wz、Wr、Wh和b为训练权重和偏置参数,b的取值范围在[-1,1]之间。σ(x)=1/(1+e-x)是sigmoid函数,是点乘计算方法。tanh函数为非线性特征转换。z和r分别为更新门和遗忘门。
4.根据权利要求1所述的基于双滑动窗口的图神经网络文本情感分类方法,其特征在于,所述步骤5中其中,i和j是多层感知机。av为当前单词的权重,σ(x)是sigmoid函数,将单词权重值映射在[0,1]之间,Hv为加权后单词表示,tanh函数为非线性特征转换。
5.根据权利要求1所述的基于双滑动窗口的图神经网络文本情感分类方法,其特征在于,所述步骤6中其中,HG为学习到的文本级图表示,V为当前文本中单词的数量,Hv为加权后单词表示,Maxpooling表示最大池化。
6.根据权利要求1所述的基于双滑动窗口的图神经网络文本情感分类方法,其特征在于,所述步骤7中其中,Y为预测标签,即分类标签。WY和b为权重和偏置参数,b的取值范围在[-1,1]之间,softmax将输出结果应设[0,1]之间。
CN202110547737.5A 2021-05-19 2021-05-19 基于双滑动窗口的图神经网络文本情感分类方法 Active CN113220884B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110547737.5A CN113220884B (zh) 2021-05-19 2021-05-19 基于双滑动窗口的图神经网络文本情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110547737.5A CN113220884B (zh) 2021-05-19 2021-05-19 基于双滑动窗口的图神经网络文本情感分类方法

Publications (2)

Publication Number Publication Date
CN113220884A true CN113220884A (zh) 2021-08-06
CN113220884B CN113220884B (zh) 2023-01-31

Family

ID=77093220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110547737.5A Active CN113220884B (zh) 2021-05-19 2021-05-19 基于双滑动窗口的图神经网络文本情感分类方法

Country Status (1)

Country Link
CN (1) CN113220884B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114528374A (zh) * 2022-01-19 2022-05-24 浙江工业大学 一种基于图神经网络的电影评论情感分类方法及装置
CN114925205A (zh) * 2022-06-09 2022-08-19 西北工业大学 基于对比学习的gcn-gru文本分类方法
CN115455438A (zh) * 2022-11-09 2022-12-09 南昌航空大学 一种程序切片漏洞检测方法、系统、计算机及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705260A (zh) * 2019-09-24 2020-01-17 北京工商大学 一种基于无监督图神经网络结构的文本向量生成方法
CN112015863A (zh) * 2020-08-26 2020-12-01 华东师范大学 一种基于图神经网络的多元特征融合中文文本分类方法
CN112347248A (zh) * 2020-10-30 2021-02-09 山东师范大学 一种方面级文本情感分类方法及系统
US20210058345A1 (en) * 2019-08-22 2021-02-25 Adobe Inc. Utilizing a graph neural network to identify supporting text phrases and generate digital query responses

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210058345A1 (en) * 2019-08-22 2021-02-25 Adobe Inc. Utilizing a graph neural network to identify supporting text phrases and generate digital query responses
CN110705260A (zh) * 2019-09-24 2020-01-17 北京工商大学 一种基于无监督图神经网络结构的文本向量生成方法
CN112015863A (zh) * 2020-08-26 2020-12-01 华东师范大学 一种基于图神经网络的多元特征融合中文文本分类方法
CN112347248A (zh) * 2020-10-30 2021-02-09 山东师范大学 一种方面级文本情感分类方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LIANG YAO等: "Graph Convolutional Networks for Text Classification", 《THE THIRTY-THIRD AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE(AAAI-19)》 *
YUFENG ZHANG等: "Every Document Owns Its Structure:Inductive Text Classification via Graph Neural Networks", 《ARXIV:2004.13826》 *
YUTING WAN: "Short-Text Sentiment Classification Based on Graph-LSTM", 《 2019 INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE AND ADVANCED MANUFACTURING (AIAM)》 *
杨玉亭等: "面向上下文注意力联合学习网络的方面级情感分类模型", 《模式识别与人工智能》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114528374A (zh) * 2022-01-19 2022-05-24 浙江工业大学 一种基于图神经网络的电影评论情感分类方法及装置
CN114925205A (zh) * 2022-06-09 2022-08-19 西北工业大学 基于对比学习的gcn-gru文本分类方法
CN114925205B (zh) * 2022-06-09 2024-03-05 西北工业大学 基于对比学习的gcn-gru文本分类方法
CN115455438A (zh) * 2022-11-09 2022-12-09 南昌航空大学 一种程序切片漏洞检测方法、系统、计算机及存储介质
CN115455438B (zh) * 2022-11-09 2023-02-07 南昌航空大学 一种程序切片漏洞检测方法、系统、计算机及存储介质

Also Published As

Publication number Publication date
CN113220884B (zh) 2023-01-31

Similar Documents

Publication Publication Date Title
Wang et al. Using a stacked residual LSTM model for sentiment intensity prediction
CN111444709B (zh) 文本分类方法、装置、存储介质及设备
Rojas‐Barahona Deep learning for sentiment analysis
Ren et al. Neural networks for deceptive opinion spam detection: An empirical study
CN113220884B (zh) 基于双滑动窗口的图神经网络文本情感分类方法
CN110609899B (zh) 一种基于改进bert模型的特定目标情感分类方法
CN108363695B (zh) 一种基于双向依赖语法树表征的用户评论属性抽取方法
CN111079409B (zh) 一种利用上下文和方面记忆信息的情感分类方法
Huang et al. Attention-enabled gated spiking neural P model for aspect-level sentiment classification
CN108388654B (zh) 一种基于转折句语义块划分机制的情感分类方法
Zhou et al. Sentiment analysis of text based on CNN and bi-directional LSTM model
Yang et al. Microblog sentiment analysis via embedding social contexts into an attentive LSTM
Nareshkumar et al. An exploration of intelligent deep learning models for fine grained aspect-based opinion mining
CN109992784B (zh) 一种融合多模态信息的异构网络构建和距离度量方法
CN112069320B (zh) 一种基于跨度的细粒度情感分析方法
CN114881042B (zh) 基于图卷积网络融合句法依存与词性的中文情感分析方法
Liu et al. A novel aspect-based sentiment analysis network model based on multilingual hierarchy in online social network
Khine et al. Applying deep learning approach to targeted aspect-based sentiment analysis for restaurant domain
Chandra et al. Utilizing gated recurrent units to retain long term dependencies with recurrent neural network in text classification
Fu et al. A CNN-LSTM network with attention approach for learning universal sentence representation in embedded system
Xu et al. [Retracted] Research on the Construction of Crossborder e‐Commerce Logistics Service System Based on Machine Learning Algorithms
Arroni et al. Sentiment analysis and classification of hotel opinions in twitter with the transformer architecture
Ren et al. A hierarchical neural network model with user and product attention for deceptive reviews detection
Wang et al. Sentiment analysis of commodity reviews based on ALBERT-LSTM
Venkataraman et al. FBO‐RNN: Fuzzy butterfly optimization‐based RNN‐LSTM for extracting sentiments from Twitter Emoji database

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant