CN114791950A - 基于词性位置与图卷积网络的方面级情感分类方法及装置 - Google Patents

基于词性位置与图卷积网络的方面级情感分类方法及装置 Download PDF

Info

Publication number
CN114791950A
CN114791950A CN202210473923.3A CN202210473923A CN114791950A CN 114791950 A CN114791950 A CN 114791950A CN 202210473923 A CN202210473923 A CN 202210473923A CN 114791950 A CN114791950 A CN 114791950A
Authority
CN
China
Prior art keywords
word
information
context
words
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210473923.3A
Other languages
English (en)
Inventor
孔韦韦
王泽�
雷阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Posts and Telecommunications
Original Assignee
Xian University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Posts and Telecommunications filed Critical Xian University of Posts and Telecommunications
Priority to CN202210473923.3A priority Critical patent/CN114791950A/zh
Publication of CN114791950A publication Critical patent/CN114791950A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本公开实施例是关于一种基于词性位置与图卷积网络的方面级情感分类方法及装置。该方法包括以下步骤:根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示;为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树;通过学习方面词与上下文之间的交互信息,实现情感分类。本公开实施例解决了处理文本情感分析任务时忽视单词的词性位置信息以及方面词与上下文的交互信息学习不足等问题;本方法综合了词性位置信息和图卷积网络的优势,进一步提升了方面级情感分类效果,具有更为理想的文本情感分析准确率。

Description

基于词性位置与图卷积网络的方面级情感分类方法及装置
技术领域
本公开实施例涉及文本分析技术领域,尤其涉及一种基于词性位置与图卷积网络的方面级情感分类方法及装置。
背景技术
随着网络技术以及大数据的迅猛发展,句子文本中的方面级情感精确分类日益成为自然语言处理领域中的热点问题,其主要研究内容是判断一句话中的不同方面词在本句中的情感极性,从而为舆情研究、商业策略制定等提供参考,既具有良好的学术价值,又拥有广阔的应用前景。
目前,神经网络、句法依存树和注意力机制等方法已经在方面级情感分类任务上取得了较好的效果,但仍具有一定的不足。这些不足包括:(1)未能充分考虑单词的词性位置信息,尤其忽略了句子的语法依赖信息,对于部分因语法表达而远离方面词的情感词,其对应权重被线性降低,从而影响了最终分类效果;(2)对方面词与上下文的交互信息学习不足。现有研究往往是对方面词和上下文信息单独建模,通过注意力机制学习交互信息,但学习到的与上下文无联系的方面词表征忽略了上下文对方面词的影响,在计算注意力权重时,效果大打折扣,无法凸显重要信息。
因此,有必要改善上述相关技术方案中存在的一个或者多个问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开实施例的目的在于提供一种基于词性位置与图卷积网络的方面级情感分类方法及装置,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的一个或者多个问题。
根据本公开实施例的第一方面,提供一种基于词性位置与图卷积网络的方面级情感分类方法,所述方法包括以下步骤:
根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示;
为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树;
通过学习方面词与上下文之间的交互信息,实现情感分类。
本公开的一种示例性实施例中,所述根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示,包括:
计算单词间的相对距离向量;
根据方面词的相对距离向量计算出各单词的词性位置权重;
将句子文本中的单词映射到低维向量空间,获得句子的词向量表示。
本公开的一种示例性实施例中,所述为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树,包括:
对目标句子上下文的语义特征进行提取;
利用句法依存树构建邻接矩阵;
利用相对距离向量构造与所述邻接矩阵相对应的词性位置权重矩阵;
为每个句子文本生成增强句法依存树。
本公开的一种示例性实施例中,所述对目标句子上下文的语义特征进行提取包括:
利用双向长短期记忆网络模型对目标句子上下文的语义特征进行提取。
本公开的一种示例性实施例中,所述通过学习方面词与上下文之间的交互信息,实现情感分类,包括:
通过掩码机制和交互注意力机制学习方面词与上下文之间的交互信息,实现情感分类。
本公开的一种示例性实施例中,所述通过学习方面词与上下文之间的交互信息,实现情感分类,包括:
采用图卷积网络将句法信息以及词性位置信息的信息特征进行融合,获得句子文本的多信息特征表示;
采用掩码机制对非方面词信息进行屏蔽,同时保持方面词信息不变;
采用交互式注意力来捕捉上下文中的重要情感特征,为上下文单词设置基于交互的注意力权重;
对特征表示进行计算得出情感分类结果。
本公开的一种示例性实施例中,所述对特征表示进行计算得出情感分类结果,包括:
采用归一化指数函数计算情感类别空间中的概率分布;
将各个情感极性预测值的归一化结果的最大值所对应的情感极性标签作为最终的情感分类结果。
根据本公开实施例的第二方面,提供一种基于词性位置与图卷积网络的方面级情感分类装置,包括:
词向量获取单元,用于根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示;
依存树生成单元,用于为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树;
情感分类单元,用于通过学习方面词与上下文之间的交互信息,实现情感分类。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任一项实施例所述基于词性位置与图卷积网络的方面级情感分类方法的步骤。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任意一个实施例中所述基于词性位置与图卷积网络的方面级情感分类方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开的实施例中,通过上述方法,解决了处理文本情感分析任务时忽视单词的词性位置信息以及方面词与上下文的交互信息学习不足等问题;本方法综合了词性位置信息和图卷积网络的优势,进一步提升了方面级情感分类效果,具有更为理想的文本情感分析准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本实施例中基于词性位置与图卷积网络的方面级情感分类方法的流程图;
图2示出本公开示例性实施例中的所述根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示的流程图;
图3示出本公开示例性实施例中所述所述为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树的流程图;
图4示出本公开示例性实施例中所述对目标句子上下文的语义特征进行提取的流程图;
图5示出本公开示例性实施例中的所述通过学习方面词与上下文之间的交互信息,实现情感分类的流程图;
图6示出本公开又一个示例性实施例中所述通过学习方面词与上下文之间的交互信息,实现情感分类的流程图;
图7示出本公开示例性实施例中的所述对特征表示进行计算得出情感分类结果的流程图;
图8示出本公开示例性实施例中的基于词性位置与图卷积网络的方面级情感分类装置的结构示意图;
图9示出本公开示例性实施例中基于词性位置与图卷积网络的方面级情感分类方法的总体架构图;
图10示出本公开示例性实施例中一种电子设备的结构示意图;
图11示出本公开示例性实施例中用于实现基于词性位置与图卷积网络的方面级情感分类方法的程序产品的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例实施方式中首先提供了一种基于词性位置与图卷积网络的方面级情感分类方法,参考图1所示,该方法可以包括下述步骤:
步骤S101,根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示。现有技术中未能充分考虑单词的词性位置,本方法中根据单词的词性位置获取句子的词向量,充分考虑了单词的词性位置,使方面级情感分类结果更准确。
步骤S102,为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树。对句子的语法依赖信息,例如部分因语法表达而远离方面词的情感词,其对应的权重没有被线性降低,从而提高了最终的情感分类效果。
步骤S103,通过学习方面词与上下文之间的交互信息,实现情感分类。对方面词和上下文的交互信息进行综合学习,学习到的方面词表征考虑了上下文的影响,可以提高情感分类效果。
通过上述方法,解决了处理文本情感分析任务时忽视单词的词性位置信息以及方面词与上下文的交互信息学习不足等问题;本方法综合了词性位置信息和图卷积网络的优势,进一步提升了方面级情感分类效果,具有更为理想的文本情感分析准确率。
下面,将参考图2至图8对本示例实施方式中的上述方法的各个步骤进行更详细的说明。
请参考图2,所述步骤S101还可以包括步骤S201-S203,。
步骤S201,计算单词间的相对距离向量。具体地,给定一个长度为n的句子文本S=(w1,w2,...,ax,...,ay,...,wn),方面词集合为a,其中,ax和ay是方面词a的起始单词和终止单词,且0≤x≤y≤n,可以得出方面词a的相对距离向量RS,a为:
RS,a={r1,a,r2,a,...,ri,a,...,rn,a},1≤i≤n (1)
其中,rn,a为方面词a与单词wn的相对距离。
步骤S202,根据方面词的相对距离向量计算出各单词的词性位置权重。具体地,句子S中每个单词wi(0≤i≤n)的词性位置权重li,a为:
Figure BDA0003624371460000061
其中,max(·)为取最大值操作算子,故各单词的词性位置权重LLaL,a为:
LLaL,a={l1,a,l2,a,...,li,a,...,ln,a},1≤i≤n (3)
步骤S203,将句子文本中的单词映射到低维向量空间,获得句子的词向量表示。具体地,本发明的文本嵌入采用预训练词典GloVe(Global Vectors for WordRepresentation,低维词表征学习用模型),嵌入矩阵为
Figure BDA0003624371460000062
其中,m为词典的单词数量,dw是词嵌入时的维度。针对S中的每个单词wi(0≤i≤n),均在G中查询对应的词向量vi,若词典中未收录该单词,则在区间[-0.25,0.25]内采用正态分布对其进行随机初始化。因此,句子S的初始词向量表示为一个尺寸为n×d的矩阵表示:
M={v1,v2,...,vi,...,vn},1≤i≤n (4)
综合词性位置权重LLaL,a对句子S的初始词向量进行改进,得到句子S的词向量表示为:
MLaL,a=M*LLaL,a={v1,a,v2,a,...,vi,a,...,vn,a},1≤i≤n (5)在一个实施例中,请参考图3,所述步骤S102包括步骤S301-S304:
步骤S301,对目标句子上下文的语义特征进行提取。具体地,在一个实施例中,请参考图4,所述步骤S301包括步骤S401:步骤S401,利用双向长短期记忆网络模型对目标句子上下文的语义特征进行提取。可以采用双向长短期记忆网络(Bi-directional LongShort-Term Memory,Bi-LSTM)模型对上下文的语义特征加以提取。由于Bi-LSTM由一个正向LSTM和反向LSTM构成,故Bi-LSTM的计算公式如下:
Figure BDA0003624371460000071
Figure BDA0003624371460000072
Figure BDA0003624371460000073
其中,
Figure BDA0003624371460000074
为正向LSTM在t时刻的输出,
Figure BDA0003624371460000075
为反向LSTM在t时刻的输出,将
Figure BDA0003624371460000076
Figure BDA0003624371460000077
进行拼接可以得到Bi-LSTM的最终输出ht
将句子S的词向量表示MLaL,a输入到Bi-LSTM模型中,从而得到句子S的上下文特征HS,a
HS,a=Bi-LSTM(MLaL,a)={h1,a,h2,a,...,hi,a,...,hn,a},1≤i≤n (9)
其中,
Figure BDA0003624371460000078
是句子S的词向量表示MLaL,a经Bi-LSTM编码后的特征表示。
步骤S302,利用句法依存树构建邻接矩阵,例如可以通过分析单词间的句法依存关系构建了一个对称矩阵A,即Ai,j=Ai,j,由于每个单词均与自身邻接,故将矩阵A的对角线元素值均置为1:
Figure BDA0003624371460000079
步骤S303,利用相对距离向量构造与所述邻接矩阵相对应的词性位置权重矩阵。利用相对距离向量RS,a构造与邻接矩阵A相对应的词性位置权重矩阵WLaL,a
Figure BDA0003624371460000081
其中,|·|为绝对值算子。
步骤S304,为每个句子文本生成增强句法依存树。为每个句子文本S生成包含更丰富信息的增强句法依存树:
Figure BDA0003624371460000082
其中,DLaL,a为句子文本S中针对方面词集合a生成的增强邻接矩阵,该矩阵用于刻画句子文本S对应的增强句法依存树。
在一个实施例中,请参考图5,所述步骤S103,包括步骤S501:
步骤S501,通过掩码机制和交互注意力机制学习方面词与上下文之间的交互信息,实现情感分类。注意力交互层主要任务是检索隐层表征中的重要信息,并对每个单词根据交互注意力赋予权重。
在一个实施例中,请参考图6,所述步骤S103,包括步骤S601-S604:
步骤S601,采用图卷积网络将句法信息以及词性位置信息的信息特征进行融合,获得句子文本的多信息特征表示。具体地,令H0=HS,a,第l层GCN中的每个结点在自身邻域内针对隐层表示加以更新:
Figure BDA0003624371460000083
Figure BDA0003624371460000084
其中,
Figure BDA0003624371460000085
是句法依存树中第i个结点的度;Wl和bl为训练参数;
Figure BDA0003624371460000086
为倒置转换参数,用于提升接近方面词的上下文单词的重要性,并同时减少依赖项解析过程中产生的噪声和偏差,该参数可以通过倒置转换函数
Figure BDA0003624371460000087
加以获得:
Figure BDA0003624371460000091
Figure BDA0003624371460000092
其中,
Figure BDA0003624371460000093
是结点i的位置权重;x为方面词的起始单词位置,y为方面词的终止单词位置,且满足x≤y。
拥有L层的GCN模型对应的最终输出结果为:
Figure BDA0003624371460000094
Figure BDA0003624371460000095
步骤S602,采用掩码机制对非方面词信息进行屏蔽,同时保持方面词信息不变。具体地,将
Figure BDA0003624371460000096
中的非方面词信息置0,即:
Figure BDA0003624371460000097
因此,可以得到仅包含方面词信息的隐层输出为:
Figure BDA0003624371460000099
步骤S603,采用交互式注意力来捕捉上下文中的重要情感特征,为上下文单词设置基于交互的注意力权重。具体地,注意力权重χ;
Figure BDA00036243714600000910
Figure BDA00036243714600000911
进一步可以得到最终情感分类的特征表示r:
Figure BDA00036243714600000912
步骤S604,对特征表示进行计算得出情感分类结果。具体地,请参考图7,所述步骤S604还可以包括步骤S701-S702:
步骤S701,采用归一化指数函数计算情感类别空间中的概率分布。具体地,采用Softmax函数(归一化指数函数)计算情感类别空间中的概率分布:
Figure BDA0003624371460000101
其中,C是情感分类数,Wp和bp是分类层中可以训练的权重和偏置向量,PS,a是各个情感极性预测值的归一化结果。
步骤S702,将各个情感极性预测值的归一化结果的最大值所对应的情感极性标签作为最终的情感分类结果。具体地,取PS,a中的最大值所对应的情感极性标签作为最终的情感分类结果:
p=max(pS,a) (23)
试验例:
本发明方法的仿真实验环境为:Windows 10操作系统,Intel(R)Core(TM)i5-6400CPU,16GB内存,编程语言为Python 3.8,深度学习框架为PyTorch 1.6.0,并采用GeForceGTX 1070GPU(精视显卡)进行加速运算。本发明方法的总体架构图如图9所示,为了更好地对本发明的技术方案加以理解,本实施例选用了三组情感分类公开数据集,即TWITTER(推特)数据集、SemEval2014(全球最大的语义评测大赛)任务4中的LAP14数据集和REST14数据集,情感极性分为积极、中立和消极三类,各数据集的情感极性分布如表1所示。此外,本发明实验采用预训练词典Glove840B对单词进行大小为300维的词嵌入,对于在词典未登录的单词采用正态分布初始化,根据大量仿真实验结果,当GCN层数为2时具有较好的实验效果,因此,本发明中的GCN层数设置为2,使用Adam优化器来加快模型收敛,学习率为10-3,并引入Dropout(在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃)缓解过拟合,大小设置为0.3,并且所有的可训练参数W和b采用均匀分布随机初始化,Batchsize设置为32。
表1数据集统计信息
Figure BDA0003624371460000111
仿真对比实验:
为了验证本发明方法的有效性,以下通过若干组仿真实验来验证相比传统的经典文本情感分类方法以及目前主流方法而言,本发明方法具有更为理想的文本情感分析效果。
遵循本发明的技术方案,本实验选取或构建了13种代表性方法进行对比,具体包括:
(1)LSTM:将句子的文本编码输入到LSTM网络中得到最后一个隐层输出作为情感分类的特征;
(2)ATAE-LSTM:在LSTM基础引入方面词嵌入和注意力机制完成情感分类;
(3)IAN:采用两个长短期记忆网络分别对方面词和上下文单独建模,使用注意力机制得到分类特征;
(4)RAM:使用多重注意力机制和记忆网络学习句子表征完成情感分类;
(5)AOA:利用过度注意模块提取方面词与上下文之间的关系;
(6)TNet-LF:使用CNN代替注意力机制提取特征,并提出特征变换组件CPT来弥补CNN的缺陷;
(7)TranCaps:利用胶囊网络封装不同粒度的语义信息进行情感分析;
(8)ASGCN-DT:利用GCN在句法依存树中使用有向图提取句法信息和单词依赖来处理方面级情感分类;
(9)ASGCN-DG:利用GCN在句法依存树中使用无向图提取句法信息和单词依赖来处理方面级情感分类;
(10)kumaGCN:在原有的句法树基础上引入潜在图结构来补充句法特征;
(11)DGEDT(BiGCN):使用有向邻接矩阵输入GCN中,拼接得到BiGCN的结果,与上下文语义交互学习,得到最终表示;
(12)FSDT-GCN:在本发明构建的模型上未使用相对词性位置权重,仅融合原始句法依存树;
(13)RPW-GCN:在本发明构建的模型上仅使用相对位置权重对词向量加权和增强句法依存树;
经过对比实验,包括本发明方法在内的14种方法的实验结果分别如表2所示,其中实验结果单位均为%,N/A表示未取得实验结果,黑体加粗值为最佳实验结果,下划线值为次优实验结果。Acc和Macro_F1分别表示用于对模型进行评估的准确率指标和宏平均F1值指标。
表2 12种方法对应的实验结果
Figure BDA0003624371460000121
由表2的实验数据可知,本发明方法在三个数据集上的效果几乎完全优于其他13种方法。与LSTM等经典方法相比,本发明方法的各项指标值均有十分显著的提升;与基于注意力机制的IAN方法相比,本发明方法在三个数据集上准确率分别提升了0.76%、5.42%、2.35%。IAN方法仅使用原始上下文信息和上下文与方面词两者单独建模交互,而本发明方法为上下文信息引入词性位置信息并通过增强句法依存树建立了单词之间的依存关系;相较于AOA方法仅使用基于传统注意力的AOA模块来捕捉方面词与上下文之间的交互信息,而本发明方法采用的交互注意力机制相比传统的注意力机制更能准确的为上下文单词分配权重,在三个数据集上的准确率分别提升了0.96%、4.85%、1.64%。此外,相比于基于注意力机制的方法,除了本发明方法以外的基于GCN的方法均取得了更好的效果,然而却忽略了句子所附带的诸如词性位置信息等额外信息;相较于ASGCN-DG方法,本发明方法在三个数据集上的准确率分别提升了1.11%、1.92%、0.84%,ASGCN-DG方法采用的是原始句法依存树,而本发明方法使用的是引入词性位置信息的增强句法依存树,这进一步表明单词的词性位置信息在情感分类方面的有效性。需要说明的是,本发明方法虽然在TWITTER数据集仿真实验中的实验结果为次优,但相较其余13种方法具有良好的整体成绩。
本发明还提供了一种基于词性位置与图卷积网络的方面级情感分类装置,请参考图8,包括:
词向量获取单元101,用于根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示;
依存树生成单元102,用于为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树;
情感分类单元103,用于通过学习方面词与上下文之间的交互信息,实现情感分类。
在一个实施例中,所述词向量获取单元101包括:
相对距离向量计算单元,用于计算单词间的相对距离向量;
位置权重计算单元,用于根据方面词的相对距离向量计算出各单词的词性位置权重;
词向量获取单元,用于将句子文本中的单词映射到低维向量空间,获得句子的词向量表示。
在一个实施例中,所述依存树生成单元102包括:
语义特征提取单元,用于对目标句子上下文的语义特征进行提取;
邻接矩阵构建单元,用于利用句法依存树构建邻接矩阵;
矩阵构造单元,用于利用相对距离向量构造与所述邻接矩阵相对应的词性位置权重矩阵;
增强依存树生成单元,用于为每个句子文本生成增强句法依存树。
在一个实施例中,所述语义特征提取单元包括:
上下文语义特征提取单元,用于利用双向长短期记忆网络模型对目标句子上下文的语义特征进行提取。
在一个实施例中,所述情感分类单元103包括:
情感分类实现单元,用于通过掩码机制和交互注意力机制学习方面词与上下文之间的交互信息,实现情感分类。
在一个实施例中,所述情感分类单元103还可以包括:
多信息特征表示获取单元,用于采用图卷积网络将句法信息以及词性位置信息的信息特征进行融合,获得句子文本的多信息特征表示;
信息屏蔽单元,用于采用掩码机制对非方面词信息进行屏蔽,同时保持方面词信息不变;
情感特征捕捉单元,用于采用交互式注意力来捕捉上下文中的重要情感特征,为上下文单词设置基于交互的注意力权重;
情感分类计算单元,用于对特征表示进行计算得出情感分类结果。
在一个实施例中,所述情感特征捕捉单元包括:
概率分布计算单元,用于采用归一化指数函数计算情感类别空间中的概率分布;
情感标签获取单元,用于将各个情感极性预测值的归一化结果的最大值所对应的情感极性标签作为最终的情感分类结果。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
应当注意,尽管在上文详细描述中提及了用于动作执行的系统的若干模块,但是这种划分并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块的特征和功能可以在一个模块中具体化。反之,上文描述的一个模块的特征和功能可以进一步划分为由多个模块来具体化。作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现木发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
参见图10,本发明实施例还提供了一种电子设备300,电子设备300包括至少一个存储器310、至少一个处理器320以及连接不同平台系统的总线330。
存储器310可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)211和/或高速缓存存储器312,还可以进一步包括只读存储器(ROM)313。
其中,存储器310还存储有计算机程序,计算机程序可以被处理器320执行,使得处理器320执行本发明任一项实施例中基于词性位置与图卷积网络的方面级情感分类方法的步骤,其具体实现方式与上述基于词性位置与图卷积网络的方面级情感分类方法的实施例中记载的实施方式、所达到的技术效果一致,部分内容不再赘述。
存储器310还可以包括具有至少一个程序模块315的实用工具314,这样的程序模块315包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
相应的,处理器320可以执行上述计算机程序,以及可以执行实用工具314。
总线330可以表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、图形加速端口、处理器或者使用多种总线结构中的任意总线结构的局域总线。
电子设备300也可以与一个或多个外部设备340例如键盘、指向设备、蓝牙设备等通信,还可与一个或者多个能够与该电子设备300交互的设备通信,和/或与使得该电子设备300能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等)通信。这种通信可以通过输入输出接口350进行。并且,电子设备300还可以通过网络适配器360与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器360可以通过总线330与电子设备300的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质用于存储计算机程序,所述计算机程序被执行时实现本发明实施例中基于词性位置与图卷积网络的方面级情感分类方法的步骤,其具体实现方式与上述基于词性位置与图卷积网络的方面级情感分类方法的实施例中记载的实施方式、所达到的技术效果一致,部分内容不再赘述。
图11示出了本实施例提供的用于实现上述基于词性位置与图卷积网络的方面级情感分类方法的程序产品400,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品400不限于此,在本发明中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。程序产品400可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等,或者上述的任意合适的组合。可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言诸如Java、C++等,还包括常规的过程式程序设计语言诸如C语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (10)

1.基于词性位置与图卷积网络的方面级情感分类方法,其特征在于,所述方法包括以下步骤:
根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示;
为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树;
通过学习方面词与上下文之间的交互信息,实现情感分类。
2.根据权利要求1所述的方法,其特征在于,所述根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示,包括:
计算单词间的相对距离向量;
根据方面词的相对距离向量计算出各单词的词性位置权重;
将句子文本中的单词映射到低维向量空间,获得句子的词向量表示。
3.根据权利要求2所述的方法,其特征在于,所述为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树,包括:
对目标句子上下文的语义特征进行提取;
利用句法依存树构建邻接矩阵;
利用相对距离向量构造与所述邻接矩阵相对应的词性位置权重矩阵;
为每个句子文本生成增强句法依存树。
4.根据权利要求3所述的方法,其特征在于,所述对目标句子上下文的语义特征进行提取,包括:
利用双向长短期记忆网络模型对目标句子上下文的语义特征进行提取。
5.根据权利要求1所述的方法,其特征在于,所述通过学习方面词与上下文之间的交互信息,实现情感分类,包括:
通过掩码机制和交互注意力机制学习方面词与上下文之间的交互信息,实现情感分类。
6.根据权利要求1所述的方法,其特征在于,所述通过学习方面词与上下文之间的交互信息,实现情感分类,包括:
采用图卷积网络将句法信息以及词性位置信息的信息特征进行融合,获得句子文本的多信息特征表示;
采用掩码机制对非方面词信息进行屏蔽,同时保持方面词信息不变;
采用交互式注意力来捕捉上下文中的重要情感特征,为上下文单词设置基于交互的注意力权重;
对特征表示进行计算得出情感分类结果。
7.根据权利要求6所述的方法,其特征在于,所述对特征表示进行计算得出情感分类结果,包括:
采用归一化指数函数计算情感类别空间中的概率分布;
将各个情感极性预测值的归一化结果的最大值所对应的情感极性标签作为最终的情感分类结果。
8.基于词性位置与图卷积网络的方面级情感分类装置,其特征在于,包括:
词向量获取单元,用于根据单词的词性位置信息获得所述单词所在的句子文本的词向量表示;
依存树生成单元,用于为每个目标句子生成融合词性位置信息和图卷积网络信息的增强句法依存树;
情感分类单元,用于通过学习方面词与上下文之间的交互信息,实现情感分类。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7任一项所述基于词性位置与图卷积网络的方面级情感分类方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1~7任一项所述基于词性位置与图卷积网络的方面级情感分类方法的步骤。
CN202210473923.3A 2022-04-29 2022-04-29 基于词性位置与图卷积网络的方面级情感分类方法及装置 Pending CN114791950A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210473923.3A CN114791950A (zh) 2022-04-29 2022-04-29 基于词性位置与图卷积网络的方面级情感分类方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210473923.3A CN114791950A (zh) 2022-04-29 2022-04-29 基于词性位置与图卷积网络的方面级情感分类方法及装置

Publications (1)

Publication Number Publication Date
CN114791950A true CN114791950A (zh) 2022-07-26

Family

ID=82462249

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210473923.3A Pending CN114791950A (zh) 2022-04-29 2022-04-29 基于词性位置与图卷积网络的方面级情感分类方法及装置

Country Status (1)

Country Link
CN (1) CN114791950A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115906863A (zh) * 2022-10-25 2023-04-04 华南师范大学 基于对比学习的情感分析方法、装置、设备以及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115906863A (zh) * 2022-10-25 2023-04-04 华南师范大学 基于对比学习的情感分析方法、装置、设备以及存储介质
CN115906863B (zh) * 2022-10-25 2023-09-12 华南师范大学 基于对比学习的情感分析方法、装置、设备以及存储介质

Similar Documents

Publication Publication Date Title
CN112131366B (zh) 训练文本分类模型及文本分类的方法、装置及存储介质
CN112528672B (zh) 一种基于图卷积神经网络的方面级情感分析方法及装置
CN111444340B (zh) 文本分类方法、装置、设备及存储介质
EP3832519A1 (en) Method and apparatus for evaluating translation quality
US20200104102A1 (en) Automated content editor
CN108959246A (zh) 基于改进的注意力机制的答案选择方法、装置和电子设备
CN109840287A (zh) 一种基于神经网络的跨模态信息检索方法和装置
CN110704576B (zh) 一种基于文本的实体关系抽取方法及装置
CN108062388A (zh) 人机对话的回复生成方法和装置
CN116820429B (zh) 代码处理模型的训练方法、装置、电子设备及存储介质
CN110162771A (zh) 事件触发词的识别方法、装置、电子设备
CN112364167A (zh) 基于深度学习的意图识别方法、系统、设备及存储介质
CN115310551A (zh) 文本分析模型训练方法、装置、电子设备和存储介质
CN115221846A (zh) 一种数据处理方法及相关设备
CN112214595A (zh) 类别确定方法、装置、设备及介质
Mai et al. A unimodal representation learning and recurrent decomposition fusion structure for utterance-level multimodal embedding learning
Bai et al. Ofasys: A multi-modal multi-task learning system for building generalist models
CN114791950A (zh) 基于词性位置与图卷积网络的方面级情感分类方法及装置
CN108475346A (zh) 神经随机访问机器
CN113705207A (zh) 语法错误识别方法及装置
WO2023116572A1 (zh) 一种词句生成方法及相关设备
Li et al. Effective representation for easy-first dependency parsing
CN114490946A (zh) 基于Xlnet模型的类案检索方法、系统及设备
Quan et al. Compound Aspect Extraction by Augmentation and Constituency Lattice
CN113420869A (zh) 基于全方向注意力的翻译方法及其相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination