CN113869058A - 基于lc-gcn方面级情感分析方法、系统、存储介质和电子设备 - Google Patents
基于lc-gcn方面级情感分析方法、系统、存储介质和电子设备 Download PDFInfo
- Publication number
- CN113869058A CN113869058A CN202111008997.1A CN202111008997A CN113869058A CN 113869058 A CN113869058 A CN 113869058A CN 202111008997 A CN202111008997 A CN 202111008997A CN 113869058 A CN113869058 A CN 113869058A
- Authority
- CN
- China
- Prior art keywords
- context
- word
- matrix
- gcn
- comment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 85
- 238000004458 analytical method Methods 0.000 title claims abstract description 56
- 239000011159 matrix material Substances 0.000 claims abstract description 159
- 239000013598 vector Substances 0.000 claims description 58
- 238000004590 computer program Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 37
- 239000000284 extract Substances 0.000 abstract description 12
- 238000000605 extraction Methods 0.000 abstract description 10
- 238000005065 mining Methods 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 14
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于LC‑GCN方面级情感分析方法、系统、存储介质和电子设备,涉及方面级情感分析技术领域。本发明提出的上下文动态赋权方法,增强了特征提取过程对局部上下文的关注度;构建了融合了上下文句法特征和局部上下文语义信息的邻接图;采用多层图卷积网络(GCN)的方式不断提取聚焦于局部上下文的方面词特征,保证方面词特征矩阵融合局部上下文信息,实现更加准确地挖掘评论文本的各方面情感。
Description
技术领域
本发明涉及方面级情感分析技术领域,具体涉及一种基于LC-GCN方面级情感分析方法、系统、存储介质和电子设备。
背景技术
随着互联网技术和社交媒体的不断发展,由互联网用户产生的关于产品、服务或事件的评论数据迅速增长。如何利用自然语言处理(Natural Language Processing,NLP)技术从评论文本中挖掘有价值的信息,例如情感分析任务,已成为当前研究热点且受到众多研究人员的高度关注。
情感分析任务除了分析整体评论情感外,其子任务可进一步挖掘评论文本中评论者关于一个或多个方面的情感极性,因此方面级情感分析成为NLP领域重要研究方向之一。方面级情感分析可细粒度地挖掘评论文本中某一方面的情感极性,例如评论语句“Goodfood but dreadful service at that restaurant”,传统情感分析仅从整体上分析其情感极性为中性,而方面级情感分析可分析出用户对于“food”和“service”两方面分别表现为积极和消极的情绪。可见方面级情感分析可从评论文本中分析评论者对于不同方面的喜好程度,该研究任务挖掘的信息受益于产品推荐、股票预测和舆情分析等实际应用领域。
目前,在方面级情感分析任务中,由于基于卷积神经网络(CNN)可提取局部信息,以及循环神经网络(RNN)可提取长距离信息,因此两种深度学习知识常被用于提取上下文特征信息。常用的分析手段还包括注意力机制和句法依存解析技术。其中,注意力机制可用于关联上下文和方面词信息,实现将方面词信息融入上下文特征的效果。而句法依存解析技术可用于解析上下文中各词之间存在的句法依存结构。此外,有研究表明上下文中方面词的情感特征取决于其周围单词特征信息,因此还提出局部上下文(Local Context,LC)的概念。
但是,现有方面级情感分析技术进行特征提取时,存在忽略上下文各词间存在的句法关系和未能针对性地提取上下文语义信息两方面问题,可能提取部分与方面词无关的噪声信息,导致无法准确挖掘评论文本的各方面情感。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种基于LC-GCN方面级情感分析方法、系统、存储介质和电子设备,解决了现有方面级情感分析技术未能针对性地提取上下文的句法关系和语义信息的技术问题。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:
一种基于LC-GCN方面级情感分析方法,包括:
根据待分析的评论上下文,获取词嵌入矩阵,所述评论上下文中至少包括一个方面词;
根据所述词嵌入矩阵,获取融合了上下文语义的隐藏特征向量;
根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图;
根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵;
根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。
优选的,所述根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵,具体包括:
S1a、定义所述方面词在评论上下文为中心位置,获取所述方面词在评论上下文中的局部上下文;
S2a、根据当前单词在所述评论上下文中的位置与所述中心位置的语义相关距离,判断当前单词是否属于所述局部上下文;
S3a、根据判断结果,采用动态上下文赋权方式获取所述动态上下文权重矩阵。
优选的,所述局部上下文加权邻接图的获取方式,具体包括:
S1b、根据所述评论上下文,采用句法依存解析方法获取原始句法依存图;
S2b、根据所述原始句法依存图中各个节点的依存关系,获取句法依存矩阵;
S3b、根据当前节点与所述方面词对应节点的语义相关距离,计算所述评论上下文的权重矩阵;
S4b、根据所述句法依存矩阵和权重矩阵,获取所述局部上下文加权邻接图。
优选的,所述根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,具体包括:
S1c、根据所述隐藏特征向量和动态上下文权重矩阵,获取输入到首层GCN网络的特征矩阵;
S2c、根据所述局部上下文加权邻接图,以及所述原始句法依存图中各个节点的依存关系,获取标准化的各节点的度;
其中,Gi表示所述评论上下文中第i个单词在所述局部上下文加权邻接图G中对应的元素;Di,j表示当前单词i对应节点与其他任意单词j对应节点之间的依存关系,若存在依存关系,取1,否则取0;表示当前节点i的度,n表示所述评论上下文中一共包括n个单词;表示标准化的当前节点的度;
S3c、根据所述第一特征矩阵和标准化的各节点的度,采用多层GCN网络获取所述方面词特征矩阵;
其中,ReLU表示非线性激活函数;Wl和bl分别表示需要预先训练的参数矩阵和偏置项;l表示总层数为L层的GCN网络中的第l层;表示所述评论上下文中第i个单词在所述动态上下文权重矩阵Wh中对应元素;分别表示第l-1层和第l层GCN网络输出的特征矩阵;表示第l-1层GCN网络提取到的特征矩阵经过上下文动态赋权所得结果,当l取1时,表示所述隐藏特征向量。
优选的,所述标记所述方面词特征矩阵,具体包括:
根据所述当前单词在所述评论上下文中的位置与所述中心位置的语义相关距离,保留所述方面词特征矩阵中的方面词特征向量;采用零向量替换所述方面词特征矩阵中的非方面词特征向量,获取所述标记后的方面词特征矩阵。
优选的,所述获取所述方面词对应的情感极性,具体包括:
S1d、根据所述隐藏特征向量和标记后的方面词特征矩阵,采用点积注意力的赋权方式,获取所述评论上下文中各词与所述方面词之间的相关性;
S2d、根据所述各词与所述方面词之间的相关性,获取最终特征信息;
S3d、将所述最终特征信息输入全连接层后,采用softmax分类器计算得到各种情感极性对应的概率值,将最高概率值对应的情感极性作为所述方面词对应的情感极性。
优选的,所述根据待分析的评论上下文,获取词嵌入矩阵,具体采用预训练GloVe语料库生成所述词嵌入矩阵。
优选的,所述根据所述词嵌入矩阵,获取融合了上下文语义的隐藏特征向量,具体采用BiLSTM网络获取所述隐藏特征向量。
一种基于LC-GCN方面级情感分析系统,包括:
词嵌入模块,用于根据待分析的评论上下文,获取词嵌入矩阵,所述评论上下文中至少包括一个方面词;
融合模块,用于根据所述词嵌入矩阵,获取融合了上下文语义的隐藏特征向量;
第一获取模块,用于根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图;
第二获取模块,用于根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵;
输出模块,用于根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。
一种存储介质,其存储有用于基于LC-GCN方面级情感分析的计算机程序,其中,所述计算机程序使得计算机执行如上所述的基于LC-GCN方面级情感分析方法。
一种电子设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如上所述的基于LC-GCN方面级情感分析方法。
(三)有益效果
本发明提供了一种基于LC-GCN方面级情感分析方法、系统、存储介质和电子设备。与现有技术相比,具备以下有益效果:
本发明中待分析的评论上下文至少包括一个方面词;根据评论上下文的词嵌入矩阵,获取融合了上下文语义的隐藏特征向量;根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图;根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵;根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。提出的上下文动态赋权方法,增强了特征提取过程对局部上下文的关注度;构建了融合了上下文句法特征和局部上下文语义信息的邻接图;采用多层图卷积网络(GCN)的方式不断提取聚焦于局部上下文的方面词特征,保证方面词特征矩阵融合局部上下文信息,实现更加准确地挖掘评论文本的各方面情感。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于LC-GCN方面级情感分析方法的方法流程示意图;
图2为本发明实施例提供的一种LC-GCN模型结构示意图;
图3为本发明实施例提供的一个基于现有句法依存解析方法生成上下文句法依存图的示例;
图4为本发明实施例提供的一种基于LC-GCN方面级情感分析方法的系统结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例通过提供一种基于LC-GCN方面级情感分析方法、系统、存储介质和电子设备,解决了现有方面级情感分析技术未能针对性地提取上下文的句法关系和语义信息的技术问题,实现更加准确地挖掘评论文本的各方面情感。
本申请实施例中的技术方案为解决上述技术问题,总体思路如下:
本发明实施例中待分析的评论上下文至少包括一个方面词;根据评论上下文的词嵌入矩阵,获取融合了上下文语义的隐藏特征向量;根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图;根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵;根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。提出的上下文动态赋权方法,增强了特征提取过程对局部上下文的关注度;构建了融合了上下文句法特征和局部上下文语义信息的邻接图;采用多层图卷积网络(GCN)的方式不断提取聚焦于局部上下文的方面词特征,保证方面词特征矩阵融合局部上下文信息,实现更加准确地挖掘评论文本的各方面情感。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
实施例:
第一方面,如图1所示,本发明实施例提供了一种基于LC-GCN方面级情感分析方法,包括:
S1、根据待分析的评论上下文,获取词嵌入矩阵,所述评论上下文中至少包括一个方面词;
S2、根据所述词嵌入矩阵,获取融合了上下文语义的隐藏特征向量;
S3、根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图;
S4、根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵;
S5、根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。
本发明实施例提出的上下文动态赋权方法,增强了特征提取过程对局部上下文的关注度;构建了融合了上下文句法特征和局部上下文语义信息的邻接图;采用多层图卷积网络(GCN)的方式不断提取聚焦于局部上下文的方面词特征,保证方面词特征矩阵融合局部上下文信息,实现更加准确地挖掘评论文本的各方面情感。
需要说明的是,为了有针对性地提取上下文语义信息和句法特征,本发明实施例提出的情感分析方法可以理解为依托于LC-GCN模型展开,如图2所示,具体是指一种基于局部上下文(Local Context,LC)和图卷积网络(Graph Convolutional Networks,GCN)的方面级情感分析模型(LC-GCN),模型总体结构由上下文特征融合、构建加权矩阵和加权邻接图、方面词特征提取和输出四个部分组成。
下面将结合具体内容介绍上述方案的各个步骤,具体如下:
S1、根据待分析的评论上下文,获取词嵌入矩阵,所述评论上下文中至少包括一个方面词。
本发明实施例给定一条包括n个单词的待分析的评论上下文c=[w1,w2...,wτ+1,...,wτ+m,...,wn],其子序列t=[wτ+1,...,wτ+m]是长度为m的方面词(即该方面词包括m个单词,wτ+1表示该方面词在评论上下文中的起始单词)。而本发明实施例的任务为预测所述评论上下文c中方面词t的情感极性。
具体的,获取所述评论上下文的词嵌入矩阵,具体采用预训练GloVe语料库生成所述词嵌入矩阵。
词嵌入操作是指将所述评论上下文中每个单词wi根据其在词嵌入查询表V中的索引,映射成低维特征向量xi的过程,其中V∈RN×e_dim,xi∈Re_dim,N和e_dim分别表示查询表大小和词向量维度。所述评论上下文c通过词嵌入操作后,可生成对应的词嵌入矩阵X=[x1,x2,...xn],其中X∈Rn×e_dim。由于本文模型采用预训练GloVe语料库作为词嵌入查询表来初始化词向量,显然由此方式生成的词向量未融合上下文信息,需要进一步特征融合操作。
S2、根据所述词嵌入矩阵,获取融合了上下文语义的隐藏特征向量。
为了使词嵌入后的低维向量结合上下文信息,本步骤利用BiLSTM网络可提取长距离特征的优势,从前向和后向分别提取上下文隐藏特征,以此方式生成的特征信息可充分将上下文信息融合,因此本发明实施例将词嵌入矩阵X输入BiLSTM网络,经前向LSTM网络生成隐藏特征矩阵同样方式由后向LSTM网络生成隐藏特征矩阵其中h_dim表示隐藏维度。
S3、根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图。
考虑到方面词特征很大程度取决于其周围信息,本发明实施例在更新隐藏特征向量和构建邻接图的过程中,采用赋权的方式不断提升对局部上下文的关注度。
一方面,为了突出局部上下文隐藏特征信息的重要性,通过上下文动态赋权的方式,削弱了与方面词语义无关的特征信息。
另一方面,在由现有句法依存解析方法生成上下文句法依存图的基础上,为局部上下文赋权修整句法依存图,由此构成的邻接图利用了上下文句法信息的同时,有效地融入了语义信息。
所述S3中获取动态上下文权重矩阵具体包括:
S1a、定义所述方面词在评论上下文为中心位置,获取所述方面词在评论上下文中的局部上下文。
在所述评论上下文c中,将所述方面词t所在的中心位置前α到后α个上下文词所组成的子序列lc=[wτ+1-α,...,wτ+1,...wτ+m,...wτ+m+α]称为所述方面词在评论上下文中的局部上下文(Local Context,LC);α表示调整局部上下文序列长度的参数。
S2a、根据当前单词在所述评论上下文中的位置与所述中心位置的语义相关距离,判断当前单词是否属于所述局部上下文。
其中,i和Pa分别表示在所述评论上下文中当前单词wi的位置和方面词的中心位置;SRDi表示当前单词wi在所述评论上下文中的位置与所述中心位置的语义相关距离;比较当前单词wi的语义相关距离SRDi与α大小关系,判断该单词是否属于局部上下文,具体采用LCi标记当前单词wi是否属于所述局部上下文,属于时,取True,否则取False。
S3a、根据判断结果,采用动态上下文赋权方式获取所述动态上下文权重矩阵。
对于上下文隐藏特征,处于局部上下文的信息决定了方面词情感极性,而非局部上下文信息随着离方面词距离的增加,呈现出语义相关度递减的趋势。
为了突出局部上下文语义特征,且保留非局部上下文信息,本发明实施例采取了动态上下文赋权的方式,可减小由非局部上下文隐藏特征产生的噪声影响。
如上式所示,根据非局部上下文各词与局部上下文的语义距离计算权重,其中E表示元素为1的2*h_dim维列向量,即E∈R2*h_dim。最终生成的动态上下文权重矩阵其中表示当前单词wi对应的权重;Wh∈Rn×2*h_dim用于后续步骤中为上下文隐藏特征向量赋权,以更新所提取到的特征。
所述S3中所述局部上下文加权邻接图的获取方式,具体包括:
S1b、根据所述评论上下文,采用句法依存解析方法获取原始句法依存图。
为方便理解,图3给出一个句法依存解析方法生成上下文句法依存图的一个示例,从“food”周围的“Good”可判断对于“food”这一方面表达的是积极情感,从“dreadful”可判断“service”为消极情感,显然生成的原始句法依存图包含了上下文各词(各个节点)间存在的句法依存关系。
S2b、根据所述原始句法依存图中各个节点的依存关系,获取句法依存矩阵D(Dependency Matrix)。
如上式所示,Di,j表示当前单词i对应节点与其他任意单词j对应节点之间的依存关系,若存在依存关系,取1,否则取0。其中wi→wj即表示两者之间存在依存关系。
为了适应后续步骤中GCN网络处理无向邻接图的情形,如本步骤中第二个公式所示,将存在依存关系的两个节点对应位置Di,j和Dj,i在句法依存矩阵中置为1,否则为0,以此生成以主对角线为轴对称的句法依存矩阵D,其中D∈Rn×n。
S3b、根据当前节点与所述方面词对应节点的语义相关距离,计算所述评论上下文的权重矩阵。
本步骤构建权重矩阵的方法如下式所示,当两个节点同时属于局部上下文时,根据各节点与方面词节点的语义相关距离计算相应的权重,否则权重为0。对输入的评论上下文中局部上下文赋权,可生成权重矩阵Wg(Weighted Matrix),其中Wg∈Rn×n。
S4b、根据所述句法依存矩阵和权重矩阵,获取所述局部上下文加权邻接图。
S4、根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵。
在经过上述步骤S2中BiLSTM网络提取上下文语义信息(隐藏特征向量)后,如何针对性地提取上下文句法特征是关键。在修整后的句法依存图(局部上下文加权邻接图)的基础上,本发明实施例采用GCN网络提取上下文句法信息,同时为GCN网络提取到的非局部上下文隐藏特征动态赋权,可针对性地提取局部上下文句法特征。其次,为了多次卷积提取结合了局部上下文语义的句法特征,本文通过多层GCN网络提取不断聚焦于局部上下文信息方面词特征,以上下文动态赋权的方式不断削弱了与方面词无关的特征。最后,通过mask标记提取由多层GCN网络生成的聚集了局部上下文信息的方面词特征矩阵。
所述S4具体包括:
S1c、根据所述隐藏特征向量和动态上下文权重矩阵,获取输入到首层GCN网络的特征矩阵。
S2c、根据所述局部上下文加权邻接图,以及所述原始句法依存图中各个节点的依存关系,获取标准化的各节点的度。
由于所述局部上下文加权邻接图中不同节点重要程度不同,需要根据图中各节点的度进行标准化。
其中,Gi表示所述评论上下文中第i个单词在所述局部上下文加权邻接图G中对应的元素;Di,j表示当前单词i对应节点与其他任意单词j对应节点之间的依存关系,若存在依存关系,取1,否则取0;表示当前节点i的度,n表示所述评论上下文中一共包括n个单词;表示标准化的当前节点的度;
S3c、根据所述第一特征矩阵和标准化的各节点的度,采用多层GCN网络获取所述方面词特征矩阵;
在GCN网络特征提取过程中,第l层GCN网络的每个节点输出的特征矩阵根据上式计算更新,该过程提取的特征融合了与其相邻节点的特征信息。
其中,ReLU表示非线性激活函数;Wl和bl分别表示需要预先训练的参数矩阵和偏置项;l表示总层数为L层的GCN网络中的第l层;表示所述评论上下文中第i个单词在所述动态上下文权重矩阵Wh中对应元素;分别表示第l-1层和第l层GCN网络输出的特征矩阵;表示第l-1层GCN网络提取到的特征矩阵经过上下文动态赋权所得结果,当l取1时,表示所述隐藏特征向量。
在所述局部上下文加权邻接图G保持不变的前提下,不断通过上述上下文动态赋权的方式为每层GCN提取到的特征赋权,经过多层GCN特征提取后,最终得到充分聚焦于局部上下文信息的方面词特征矩阵其中HL∈Rn×2*h_dim。
所述S4中标记所述方面词特征矩阵,具体包括:
经过上述L层GCN网络提取的方面词特征矩阵充分融合了局部上下文信息,为了提取方面词特征,本发明实施例采用mask标记从该方面词特征矩阵HL中提取方面词所在位置的特征向量。
具体的,如上式所示,根据所述当前单词在所述评论上下文中的位置与所述中心位置的语义相关距离(当语义相关距离为0时,对应位置向量即为方面词特征向量),保留所述方面词特征矩阵中的方面词特征向量;采用零向量替换所述方面词特征矩阵中的非方面词特征向量,获取所述标记后的方面词特征矩阵
S5、根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。
本步骤根据由BiLSTM提取的隐藏特征向量,采用点积注意力赋权方式提取与所述方面词相关的重要特征信息。
所述S5具体包括:
S1d、根据所述隐藏特征向量和标记后的方面词特征矩阵,如下面两个公式所示,采用点积注意力的赋权方式获取所述评论上下文中各词与所述方面词之间的相关性αt。
S2d、根据所述各词与所述方面词之间的相关性,如下式所示,获取最终特征信息r。
S3d、将所述最终特征信息输入全连接层后,采用softmax分类器计算得到各种情感极性对应的概率值y,将最高概率值对应的情感极性作为所述方面词对应的情感极性。
y=softmax(Wor+bo)
本发明实施例中的情感极性可以根据实际需要设定种类,例如包括积极情感、消极情感以及中性情感。
为了有针对性地提取上下文语义信息和句法特征,由上述介绍内容可知,本发明实施例提出的情感分析方法可以理解为依托于LC-GCN模型展开,如图3所示,具体是指一种基于局部上下文(Local Context,LC)和图卷积网络(Graph Convolutional Networks,GCN)的方面级情感分析模型(LC-GCN)。
为了验证本发明实施例提供的LC-GCN模型相较于现有技术,能能够更加准确地挖掘评论文本的各方面情感,提供如下对比实验予以证明。
首先介绍两种用于对比参照的现有模型。
(1)GCAE模型:主要根据上下文与方面词的相关信息构建了门控卷积网络,进而可在特征提取过程中将与方面词无关的上下文信息剔除。
具体实现过程如下:首先,使用预训练语料库作为词嵌入工具可生成上下文和方面词的特征表示Ec和Ea。其次,构建门控卷积网络过程中使用卷积神经网络对方面词特征向量Ea进行卷积操作后,通过最大池化得到最具代表的方面词特征信息Ga。对上下文进行卷积操作后将结果使用tanh激活函数进行特征强化得到Gc,随后通过上下文和方面词卷积结果相加的方式进行相似度计算,通过relu激活函数可将与方面词无关的上下文信息置为0,即可得到过滤矩阵Fc。使用另一种卷积对上下文进行卷积操作可得G′c,并将结果通过过滤矩阵Fc,即可实现卷积过程的门控机制。最终将卷积后的结果使用最大池化作为最终提取到的特征,并使用softmax分类器计算每种情感极性的概率值,选择其中最大值作为预测结果。
(2)ASGCN模型:首次使用GCN网络,在句法依存解析上下文生成句法依存结构的基础上,提取上下文句法特征。
具体实现过程如下:首先,通过预训练语料库glove得到上下文词嵌入表示为Wc后,使用BiLSTM网络提取上下文特征信息得到Hc。其次,使用句法依存解析技术解析上下文生成了邻接图G,使用GCN网络根据邻接图和上下文特征信息,提取上下文句法特征最后,从上下文句法特征中抽取出方面词特征Ha,以点积注意力的方式与上下文特征Hc关联生成最后特征。
A、数据集和实验参数设置
实验采用国际语义评测大会SemEval2014任务4中提供的两种公开数据集,分别是顾客关于饭店(Restaurant)和笔记本(Laptop)的评论文本。数据集中方面词情感极性包括积极(Positive)、中性(Neural)和消极(Negative)三种。实验过程中将两种数据集划分成训练集和测试集,根据情感极性分类统计各数据量如表1所示。
表1数据统计表
本发明实施例提供的LC-GCN模型在实验过程中,使用300维预训练GloVe语料库初始化词嵌入矩阵,将BiLSTM提取的单向隐藏层维度h_dim设置为300。局部上下文中可调整参数α和GCN层数L可能随数据集中数据特征差异而不同,经过实验分析可得具体参数值如表2所示。在模型训练过程中,将数据按每批32条分批训练,将学习率设置为0.001,并采用Adam优化器不断优化模型参数。
表2参数α和GCN层数设置L
B、验证模型分类效果
实验采用Accuracy和Macro-F1两种评价指标来表示模型分类效果。
如上式所示,Accuracy表示模型预测正确的样本数与总样本数之比,其中T表示预测正确的样本数,N表示总样本数。
如上式所示,Macro-F1由各个类别的F1值表示精确率和召回率的调和平均,其中每个类别中,TP表示预测正样本数,FP表示预测错误正样本数,TN表示预测正确负样本数,FN表示预测错误的负样本数。正如上所述,为了验证本发明实施例提供的LC-GCN模型分类效果的有效性,实验选取GCAE模型和ASGCN模型两种方面级别情感分析模型进行分析和对比。
表3模型分类效果
实验结果如表3所示,本发明实施例在两种数据集上的各种指标都处于最优(加粗的数据表示效果最佳),可验证本发明实施例在该任务下的有效性。
第二方面,本发明实施例提供了一种基于LC-GCN方面级情感分析系统,包括:
词嵌入模块,用于根据待分析的评论上下文,获取词嵌入矩阵,所述评论上下文中至少包括一个方面词;
融合模块,用于根据所述词嵌入矩阵,获取融合了上下文语义的隐藏特征向量;
第一获取模块,用于根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图;
第二获取模块,用于根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵;
输出模块,用于根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。
第三方面,本发明实施例提供了一种存储介质,其存储有用于基于LC-GCN方面级情感分析的计算机程序,其中,所述计算机程序使得计算机执行如上所述的基于LC-GCN方面级情感分析方法。
第四方面,本发明实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如上所述的基于LC-GCN方面级情感分析方法。
可理解的是,本发明实施例提供的基于LC-GCN方面级情感分析系统、存储介质和电子设备与本发明实施例提供的基于LC-GCN方面级情感分析方法相对应,其有关内容的解释、举例和有益效果等部分可以参考基于LC-GCN方面级情感分析方法中的相应部分,此处不再赘述。
综上所述,与现有技术相比,具备以下有益效果:
本发明实施例中待分析的评论上下文至少包括一个方面词;根据评论上下文的词嵌入矩阵,获取融合了上下文语义的隐藏特征向量;根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图;根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵;根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。提出的上下文动态赋权方法,增强了特征提取过程对局部上下文的关注度;构建了融合了上下文句法特征和局部上下文语义信息的邻接图;采用多层图卷积网络(GCN)的方式不断提取聚焦于局部上下文的方面词特征,保证方面词特征矩阵融合局部上下文信息,实现更加准确地挖掘评论文本的各方面情感。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于LC-GCN方面级情感分析方法,其特征在于,包括:
根据待分析的评论上下文,获取词嵌入矩阵,所述评论上下文中至少包括一个方面词;
根据所述词嵌入矩阵,获取融合了上下文语义的隐藏特征向量;
根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图;
根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵;
根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。
2.如权利要求1所述的基于LC-GCN方面级情感分析方法,其特征在于,所述根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵,具体包括:
S1a、定义所述方面词在评论上下文为中心位置,获取所述方面词在评论上下文中的局部上下文;
S2a、根据当前单词在所述评论上下文中的位置与所述中心位置的语义相关距离,判断当前单词是否属于所述局部上下文;
S3a、根据判断结果,采用动态上下文赋权方式获取所述动态上下文权重矩阵。
3.如权利要求1所述的基于LC-GCN方面级情感分析方法,其特征在于,所述局部上下文加权邻接图的获取方式,具体包括:
S1b、根据所述评论上下文,采用句法依存解析方法获取原始句法依存图;
S2b、根据所述原始句法依存图中各个节点的依存关系,获取句法依存矩阵;
S3b、根据当前节点与所述方面词对应节点的语义相关距离,计算所述评论上下文的权重矩阵;
S4b、根据所述句法依存矩阵和权重矩阵,获取所述局部上下文加权邻接图。
4.如权利要求3所述的基于LC-GCN方面级情感分析方法,其特征在于,所述根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,具体包括:
S1c、根据所述隐藏特征向量和动态上下文权重矩阵,获取输入到首层GCN网络的特征矩阵;
S2c、根据所述局部上下文加权邻接图,以及所述原始句法依存图中各个节点的依存关系,获取标准化的各节点的度;
其中,Gi表示所述评论上下文中第i个单词在所述局部上下文加权邻接图G中对应的元素;Di,j表示当前单词i对应节点与其他任意单词j对应节点之间的依存关系,若存在依存关系,取1,否则取0;表示当前节点i的度,n表示所述评论上下文中一共包括n个单词;表示标准化的当前节点的度;
S3c、根据所述第一特征矩阵和标准化的各节点的度,采用多层GCN网络获取所述方面词特征矩阵;
5.如权利要求2所述的基于LC-GCN方面级情感分析方法,其特征在于,所述标记所述方面词特征矩阵,具体包括:
根据所述当前单词在所述评论上下文中的位置与所述中心位置的语义相关距离,保留所述方面词特征矩阵中的方面词特征向量;采用零向量替换所述方面词特征矩阵中的非方面词特征向量,获取所述标记后的方面词特征矩阵。
6.如权利要求2所述的基于LC-GCN方面级情感分析方法,其特征在于,所述获取所述方面词对应的情感极性,具体包括:
S1d、根据所述隐藏特征向量和标记后的方面词特征矩阵,采用点积注意力的赋权方式,获取所述评论上下文中各词与所述方面词之间的相关性;
S2d、根据所述各词与所述方面词之间的相关性,获取最终特征信息;
S3d、将所述最终特征信息输入全连接层后,采用softmax分类器计算得到各种情感极性对应的概率值,将最高概率值对应的情感极性作为所述方面词对应的情感极性。
7.如权利要求1~6任一项所述的基于LC-GCN方面级情感分析方法,其特征在于,所述根据待分析的评论上下文,获取词嵌入矩阵,具体采用预训练GloVe语料库生成所述词嵌入矩阵;和/或
所述根据所述词嵌入矩阵,获取融合了上下文语义的隐藏特征向量,具体采用BiLSTM网络获取所述隐藏特征向量。
8.一种基于LC-GCN方面级情感分析系统,其特征在于,包括:
词嵌入模块,用于根据待分析的评论上下文,获取词嵌入矩阵,所述评论上下文中至少包括一个方面词;
融合模块,用于根据所述词嵌入矩阵,获取融合了上下文语义的隐藏特征向量;
第一获取模块,用于根据所述方面词在评论上下文中的局部上下文,获取动态上下文权重矩阵和局部上下文加权邻接图;
第二获取模块,用于根据所述隐藏特征向量、动态上下文权重矩阵和局部上下文加权邻接图,采用多层GCN网络获取聚焦于局部上下文信息的方面词特征矩阵,并标记所述方面词特征矩阵;
输出模块,用于根据标记后的方面词特征矩阵,获取所述方面词对应的情感极性。
9.一种存储介质,其特征在于,其存储有用于基于LC-GCN方面级情感分析的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1~7任一项所述的基于LC-GCN方面级情感分析方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如权利要求1~7任一项所述的基于LC-GCN方面级情感分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111008997.1A CN113869058B (zh) | 2021-08-31 | 2021-08-31 | 基于lc-gcn方面级情感分析方法、系统、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111008997.1A CN113869058B (zh) | 2021-08-31 | 2021-08-31 | 基于lc-gcn方面级情感分析方法、系统、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113869058A true CN113869058A (zh) | 2021-12-31 |
CN113869058B CN113869058B (zh) | 2024-07-12 |
Family
ID=78988803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111008997.1A Active CN113869058B (zh) | 2021-08-31 | 2021-08-31 | 基于lc-gcn方面级情感分析方法、系统、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113869058B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114861072A (zh) * | 2022-07-05 | 2022-08-05 | 浙商银行股份有限公司 | 一种基于层间组合机制的图卷积网络推荐方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10769374B1 (en) * | 2019-04-24 | 2020-09-08 | Honghui CHEN | Answer selection method for question answering system and the system |
CN112329474A (zh) * | 2020-11-02 | 2021-02-05 | 山东师范大学 | 融合注意力的方面级用户评论文本情感分析方法及系统 |
CN112347248A (zh) * | 2020-10-30 | 2021-02-09 | 山东师范大学 | 一种方面级文本情感分类方法及系统 |
WO2021109671A1 (zh) * | 2019-12-02 | 2021-06-10 | 广州大学 | 一种支持跨语言迁移的细粒度情感分析方法 |
CN113157919A (zh) * | 2021-04-07 | 2021-07-23 | 山东师范大学 | 语句文本方面级情感分类方法及系统 |
CN113254637A (zh) * | 2021-05-07 | 2021-08-13 | 山东师范大学 | 一种融合语法的方面级文本情感分类方法及系统 |
-
2021
- 2021-08-31 CN CN202111008997.1A patent/CN113869058B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10769374B1 (en) * | 2019-04-24 | 2020-09-08 | Honghui CHEN | Answer selection method for question answering system and the system |
WO2021109671A1 (zh) * | 2019-12-02 | 2021-06-10 | 广州大学 | 一种支持跨语言迁移的细粒度情感分析方法 |
CN112347248A (zh) * | 2020-10-30 | 2021-02-09 | 山东师范大学 | 一种方面级文本情感分类方法及系统 |
CN112329474A (zh) * | 2020-11-02 | 2021-02-05 | 山东师范大学 | 融合注意力的方面级用户评论文本情感分析方法及系统 |
CN113157919A (zh) * | 2021-04-07 | 2021-07-23 | 山东师范大学 | 语句文本方面级情感分类方法及系统 |
CN113254637A (zh) * | 2021-05-07 | 2021-08-13 | 山东师范大学 | 一种融合语法的方面级文本情感分类方法及系统 |
Non-Patent Citations (1)
Title |
---|
陈佳伟;韩芳;王直杰;: "基于自注意力门控图卷积网络的特定目标情感分析", 计算机应用, no. 08, 10 August 2020 (2020-08-10) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114861072A (zh) * | 2022-07-05 | 2022-08-05 | 浙商银行股份有限公司 | 一种基于层间组合机制的图卷积网络推荐方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113869058B (zh) | 2024-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111061856B (zh) | 一种基于知识感知的新闻推荐方法 | |
CN108932342A (zh) | 一种语义匹配的方法、模型的学习方法及服务器 | |
CN107992531A (zh) | 基于深度学习的新闻个性化智能推荐方法与系统 | |
CN113591483A (zh) | 一种基于序列标注的文档级事件论元抽取方法 | |
CN109726745B (zh) | 一种融入描述知识的基于目标的情感分类方法 | |
CN107341145A (zh) | 一种基于深度学习的用户情感分析方法 | |
CN109376222A (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
CN115048447B (zh) | 一种基于智能语义补全的数据库自然语言接口系统 | |
CN114648031B (zh) | 基于双向lstm和多头注意力机制的文本方面级情感识别方法 | |
CN107688870A (zh) | 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置 | |
CN116521882A (zh) | 基于知识图谱的领域长文本分类方法及系统 | |
CN111507093A (zh) | 一种基于相似字典的文本攻击方法、装置及存储介质 | |
LU506520B1 (en) | A sentiment analysis method based on multimodal review data | |
CN112818698A (zh) | 一种基于双通道模型的细粒度的用户评论情感分析方法 | |
CN110569355A (zh) | 一种基于词块的观点目标抽取和目标情感分类联合方法及系统 | |
CN113821588A (zh) | 文本处理方法、装置、电子设备及存储介质 | |
CN117763228A (zh) | 一种基于多元文化框架的创意表达动态适配方法 | |
CN114444515A (zh) | 一种基于实体语义融合的关系抽取方法 | |
CN114443846A (zh) | 一种基于多层级文本异构图的分类方法、装置及电子设备 | |
CN113869058A (zh) | 基于lc-gcn方面级情感分析方法、系统、存储介质和电子设备 | |
CN113538106A (zh) | 基于评论整合挖掘的商品精细化推荐方法 | |
CN111382333B (zh) | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 | |
CN113761910A (zh) | 一种融合情感特征的评论文本细粒度情感分析方法 | |
CN116340507A (zh) | 一种基于混合权重和双通道图卷积的方面级情感分析方法 | |
CN116186599A (zh) | 一种基于对比学习和图学习的法案文本多标签分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |