CN114218922A - 一种基于双通道图卷积网络的方面情感分析方法 - Google Patents

一种基于双通道图卷积网络的方面情感分析方法 Download PDF

Info

Publication number
CN114218922A
CN114218922A CN202111554887.5A CN202111554887A CN114218922A CN 114218922 A CN114218922 A CN 114218922A CN 202111554887 A CN202111554887 A CN 202111554887A CN 114218922 A CN114218922 A CN 114218922A
Authority
CN
China
Prior art keywords
text
representation
word
emotion analysis
enhanced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202111554887.5A
Other languages
English (en)
Inventor
朱小飞
朱玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Technology
Original Assignee
Chongqing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Technology filed Critical Chongqing University of Technology
Priority to CN202111554887.5A priority Critical patent/CN114218922A/zh
Publication of CN114218922A publication Critical patent/CN114218922A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及自然语言处理技术领域,具体涉及一种基于双通道图卷积网络的方面情感分析方法,包括:获取待分析的目标文本;将目标文本输入经过预先训练的方面情感分析模型中;首先对目标文本进行文本编码,生成文本语义表示;然后基于目标文本构建文本序列图和增强句法依赖图,并基于两种图的结构信息进行建模;再通过多层的CoGCN以相互增强的方式融合两种图的结构信息,生成文本结构表示;最后分别从文本语义表示和文本结构表示中获取句子表示,合并生成最终的特定方面句子表示;基于特定方面句子表示生成情感标签上的预测概率分布,即为目标文本的方面情感分析结果。本发明方面情感分析方法能够提升方面情感分析的准确性和全面性。

Description

一种基于双通道图卷积网络的方面情感分析方法
技术领域
本发明涉及自然语言处理技术领域,具体涉及一种基于双通道图卷积网络的方面情感分析方法。
背景技术
随着社交媒体和电商平台的快速发展,越来越多的网络用户愿意在网络发表自己对某件事情或商品的评价,这些看法中包含用户的情感信息。因此,对各大平台上带有情感倾向的言论和评价进行分析,可以带来多方面的效益,例如消费者可以根据购物网站的商品评价详细了解商品信息;企业可以通过监控社交媒体的用户评价修改营销信息、品牌定位、产品开发;股民根据评价选择是否买入股票。所以,情感分析是一种具有很大实际应用价值的文本分类技术,被广泛的应用于产品反馈、舆情监控、股市预测和电影票房预测等方面。
针对文本所涉及到的评价对象情感倾向性分析的问题,公开号为CN112115700A的中国专利公开了《一种基于依存句法树和深度学习的方面级情感分析方法》,其包括:对待分析的文本进行分词和嵌入训练处理,得到文本中的每个单词的词向量表达,输入到双向长短时神经网络中得到每个单词和文本的整合信息;利用文本中的所有单词构造依存句法树,利用依存句法树构造GCN图,将文本的整合信息与GCN图进行迭代处理,得到文本中的评价对象的依存句法树表示;对文本的整合信息和评价对象的依存句法树表示进行结合,对结合的结果使用CNN进行分析处理,得到文本对评价对象的情感预测结果。
上述现有方案的方面级情感分析方法通过依存句法树构造GCN图,进而利用文本的语义信息,并强调了评价对象在方面级情感分析的重要性。但是,现有基于GCN的方法通常只对一种结构信息(即句法依存结构)进行建模,而在很大程度上忽略了单词之间的其他丰富的结构信息,例如单词在一个时间窗口内的连续结构,或单词与单词之间在整个语料库上的共现结构,导致方面情感分析的全面性和准确性不好。因此,如何设计一种能够提升方面情感分析准确性和全面性的方法是亟需解决的技术问题。
发明内容
针对上述现有技术的不足,本发明所要解决的技术问题是:如何提供一种基于双通道图卷积网络的方面情感分析方法,从而提升方面情感分析的准确性和全面性。
为了解决上述技术问题,本发明采用了如下的技术方案:
一种基于双通道图卷积网络的方面情感分析方法,包括以下步骤:
S1:获取待分析的目标文本;
S2:将目标文本输入经过预先训练的方面情感分析模型中;
所述方面情感分析模型首先对目标文本进行文本编码,生成文本语义表示;然后基于目标文本构建文本序列图和增强句法依赖图,并基于两种图的结构信息进行建模;再通过多层的CoGCN以相互增强的方式融合两种图的结构信息,生成文本结构表示;最后分别从文本语义表示和文本结构表示中获取句子表示,合并生成最终的特定方面句子表示;
S3:基于特定方面句子表示生成情感标签上的预测概率分布,即为目标文本的方面情感分析结果。
优选的,通过如下步骤生成文本语义表示:
S201:将目标文本经过预训练词嵌入矩阵,得到对应的词嵌入表示矩阵;
S202:在目标文本中引入绝对距离,得到对应的位置序列;
S203:随机初始化位置的嵌入查询表,将位置序列映射到位置嵌入矩阵;
S204:通过双向LSTM学习目标文本中每个单词的嵌入表示,生成文本语义表示;
其中,单词的嵌入表示通过词嵌入表示和位置嵌入表示拼接得到。
优选的,文本语义表示
Figure BDA0003418818610000021
其中,
Figure BDA0003418818610000022
预训练词嵌入矩阵:
Figure BDA0003418818610000023
词嵌入表示矩阵:
Figure BDA0003418818610000024
位置序列:(a1,…,aτ+1,…,aτ+m,…,an)
位置嵌入矩阵:
Figure BDA0003418818610000025
式中:
Figure BDA0003418818610000026
分别是前向和后向LSTM的表示;
Figure BDA0003418818610000027
dw=de+da;[;]表示拼接操作。
优选的,通过如下步骤生成文本结构表示:
S211:基于目标文本构建对应的文本序列图和增强句法依赖图;
S212:通过文本语义表示初始化文本序列图和增强句法依赖图的节点表示;
S213:通过文本序列结构通道和增强依赖结构通道从文本序列图和增强句法依赖图中获取对应的顺序结构信息和句法依赖结构信息并进行建模;
S214:CoGCN通过协同注意力整合顺序结构信息和句法依赖结构信息,计算和更新文本序列图和增强句法依赖图的表示;
S215:通过门控机制融合文本序列图和增强句法依赖图的表示,生成文本结构表示。
优选的,步骤S211中,构建的文本序列图表示为:
V={hi|i∈[1,n]};
E={eij|i∈[1,n];j∈[i-p,i+p]};
式中:hi表示目标文本S第i个单词wi的特征表示;V、E表示文本序列图的节点和边;p表示设置的用于收集目标文本S中不同窗口大小信息的阈值;n表示单词的数量;eij表示节点i和节点j之间边的权重。
优选的,步骤S211中,构建增强句法依赖图时,基于全局共现信息引入单词之间正相关信息,以丰富句法依赖结构。
优选的,文本结构表示的计算公式为:
Hg=gHs,(L)+(1-g)Hd,(L)
其中,g=σ(Wg[Hs,(L);Hd,(L)]);
Hs,(L)、Hd,(L)分别为文本序列图和增强句法依赖图的表示;
Figure BDA0003418818610000031
Figure BDA0003418818610000032
分别为从第l层协同注意力层中文本序列图和增强依赖图学习到的表示;
Hs,(l)和Hd,(l)通过公式Hs,(l),Hd,(l)=CoAttention(Hs,(l),Hd,(l))更新;
CoAttention表示执行以下公式:
A1=softmax(Hs,(l)W1Hd,(l)T);
A2=softmax(Hd,(l)W2Hs,(l)T);
Hs,(l)=A2Hd,(l)
Hd,(l)=A1Hs,(l)
式中:
Figure BDA0003418818610000033
分别表示从Hd,(l)到Hs,(l)以及Hs,(l)到Hd,(l)的临时对齐矩阵投影;σ表示激活函数;L表示CoGCN的层数;
Figure BDA0003418818610000034
均表示训练参数。
优选的,通过如下步骤生成特定方面句子表示:
S221:基于文本语义表示H生成对应的最终语义表示zsem
S222:基于文本结构表示Hg生成对应的最终结构表示zstru
S223:对最终语义表示zsem和最终结构表示zstru进行连接操作,生成特定方面句子表示r;
其中,
Figure BDA0003418818610000041
式中:
Figure BDA0003418818610000042
表示连接操作。
优选的,步骤S221中,首先基于文本语义表示H屏蔽非方面词并保持方面词不变,得到零掩码表示Hmask_a;然后在零掩码表示Hmask_a上进行最大池化操,得到方面表示
Figure BDA0003418818610000043
最后检索与方面语义相关的重要特征,并为每个单词设置基于检索的注意力权重,生成最终语义表示zsem
其中,H=(h1,…,hτ+1,…,hτ+m,…,hn);
Hmask_a=(0,…,hτ+1,…,hτ+m,…,0);
Figure BDA0003418818610000044
Figure BDA0003418818610000045
式中:式中:at表示第t个单词在方面的注意力分数,ei表示第i个单词与方面词的语义相关度。
优选的,步骤S222中,首先基于文本结构表示Hg从结构角度检索与方面相关的上下文信息,得到零掩码表示Hmask_b;然后在Hmask_b上进行最大池化操作,得到方面表示
Figure BDA0003418818610000046
最后检索与方面语义相关的重要特征,并为每个单词设置基于检索的注意力权重,生成最终结构表示zstru
其中,
Figure BDA0003418818610000047
Figure BDA0003418818610000048
Figure BDA0003418818610000049
Figure BDA00034188186100000410
Figure BDA00034188186100000411
式中:at表示第t个单词在方面的注意力分数。
优选的,步骤S3中,将特定方面句子表示输入全连接层和softmax层,以输出情感标签上的预测概率分布p=softmax(Wyr+by),
Figure BDA0003418818610000051
式中:dy表示情感标签的数量;r表示特定方面句子表示;
Figure BDA0003418818610000052
分别是可训练参数和偏置。
本发明中的方面情感分析方法与现有技术相比,具有如下有益效果:
本发明构建文本序列图和增强句法依赖图并基于两种图的结构信息进行建模,能够获取文本序列图的顺序结构信息和增强句法依赖图的句法依赖结构信息,并能够通过多层的CoGCN以相互增强的方式融合两种图的结构信息,即捕获和融合了更丰富的结构信息,从而能够提升方面情感分析的准确性和全面性。同时,本发明从文本语义表示和文本结构表示中获取句子表示的方式,能够从语义角度和结构两个角度去获取表示并合并生成特定方面句子表示,进而能够更好的反映和表示文本的方面情感极性,从而能够进一步提升方面情感分析的准确性。
附图说明
为了使发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为方面情感分析方法的逻辑框图;
图2为方面情感分析模型的网络结构图;
图3为文本序列图和增强句法依赖图的构建过程示意图;
图4为CoGCN层数(L)的影响示意图;
图5为滑动窗口(Window size)大小的影响示意图。
具体实施方式
下面通过具体实施方式进一步详细的说明:
实施例:
本实施例中公开了一种基于双通道图卷积网络的方面情感分析方法。
如图1所示基于双通道图卷积网络的方面情感分析方法,包括以下步骤:
S1:获取待分析的目标文本;目标文本
Figure BDA0003418818610000053
具有n个单词wi和m个单词的方面词(从τ+1开始)。本发明的目标是识别给定方面的目标文本S的情感极性。
S2:将目标文本输入经过预先训练的方面情感分析模型中;
所述方面情感分析模型首先对目标文本进行文本编码,生成文本语义表示;然后基于目标文本构建文本序列图和增强句法依赖图,并基于两种图的结构信息进行建模;再通过多层的CoGCN以相互增强的方式融合两种图的结构信息,生成文本结构表示;最后分别从文本语义表示和文本结构表示中获取句子表示,合并生成最终的特定方面句子表示;
其中,对于方面情感分析模型的训练,使用标准的梯度下降算法,并将损失函数定义为预测概率分布和真实标签的交叉熵。
损失函数
Figure BDA0003418818610000061
式中:
Figure BDA0003418818610000062
表示带标签的句子集合;Y表示真实标签矩阵;ydk表示句子d是标签k的预测概率;λ表示L2正则化的系数;Θ表示所有参数。
S3:基于特定方面句子表示生成情感标签上的预测概率分布,即为目标文本的方面情感分析结果。
本发明构建文本序列图和增强句法依赖图并基于两种图的结构信息进行建模,能够获取文本序列图的顺序结构信息和增强句法依赖图的句法依赖结构信息,并能够通过多层的CoGCN以相互增强的方式融合两种图的结构信息,即捕获和融合了更丰富的结构信息,从而能够提升方面情感分析的准确性和全面性。同时,本发明从文本语义表示和文本结构表示中获取句子表示的方式,能够从语义角度和结构两个角度去获取表示并合并生成特定方面句子表示,进而能够更好的反映和表示文本的方面情感极性,从而能够进一步提升方面情感分析的准确性。
结合图2所示,方面情感分析模型通过文本编码模块生成文本语义表示,具体通过如下步骤生成文本语义表示:
S201:将目标文本经过预训练词嵌入矩阵,得到对应的词嵌入表示矩阵;
S202:在目标文本中引入绝对距离,得到对应的位置序列;
S203:随机初始化位置的嵌入查询表,将位置序列映射到位置嵌入矩阵;
S204:通过双向LSTM学习目标文本中每个单词的嵌入表示,生成文本语义表示;
其中,单词的嵌入表示通过词嵌入表示和位置嵌入表示拼接得到。
具体的,文本语义表示
Figure BDA0003418818610000063
其中,
Figure BDA0003418818610000064
预训练词嵌入矩阵:
Figure BDA0003418818610000065
词嵌入表示矩阵:
Figure BDA0003418818610000071
位置序列:(a1,…,aτ+1,…,aτ+m,…,an)
位置嵌入矩阵:
Figure BDA0003418818610000072
Figure BDA0003418818610000073
dw=de+da
式中:
Figure BDA0003418818610000074
分别是前向和后向LSTM的表示,
Figure BDA0003418818610000075
dw=de+da;[;]表示拼接操作。
本发明通过文本编码的方式获取文本语义表示,能够从语义角度反映和表示文本的方面情感极性,从而能够辅助提升方面情感分析的准确性。
结合图2所示,方面情感分析模型通过双通道图编码模块生成文本结构表示,具体通过如下步骤生成文本结构表示:
S211:基于目标文本构建对应的文本序列图和增强句法依赖图;
S212:通过文本语义表示初始化文本序列图和增强句法依赖图的节点表示;
S213:通过文本序列结构通道和增强依赖结构通道从文本序列图和增强句法依赖图中获取对应的顺序结构信息和句法依赖结构信息并进行建模;
S214:CoGCN通过协同注意力整合顺序结构信息和句法依赖结构信息,计算和更新文本序列图和增强句法依赖图的表示;
S215:通过门控机制融合文本序列图和增强句法依赖图的表示,生成文本结构表示。
具体的,为每个目标文本序列构建一个文本序列图,在序列中的单词节点用一个小窗口连接,并且节点的表示将通过GCN在文本序列图中进行更新,即一个节点聚合来自其相邻节点的信息以更新其表示。本发明为给定的文本构建图,首先将文本中出现的所有单词视为图节点,如果两个单词在同一窗口中,则将它们连接起来,设置了一个阈值p来收集文本中不同窗口大小的信息。
构建的文本序列图表示为:
V={hi|i∈[1,n]};
E={eij|i∈[1,n];j∈[i-p,i+p]};
式中:hi表示目标文本S第i个单词的特征表示;V、E表示文本序列图的节点和边;p表示设置的用于收集目标文本S中不同窗口大小信息的阈值;n表示单词的数量;eij表示节点i和节点j之间边的权重。
图3(a)显示了文本序列图的构图过程
形式上,节点i和节点j之间的权重计算如下:
Figure BDA0003418818610000081
向每个节点添加自循环,并通过非线性转换之前对图卷积中的激活进行归一化操作,这可以形式化如下:
Figure BDA0003418818610000082
Figure BDA0003418818610000083
其中,
Figure BDA0003418818610000084
为(l-1)层中第j个节点学习到的表示
Figure BDA0003418818610000085
σ表示非线性函数,如Relu;Norm(·)表示正则化层;
Figure BDA0003418818610000086
I表示n×n的单位矩阵;
Figure BDA0003418818610000087
表示第i个节点的度;Ws,(l)和bs,(l)表示具体某层的可训练参数;l表示层数;i表示聚合的目标节点。
通过应用GCN在文本序列图上,得到第l层的表示:
Figure BDA0003418818610000088
构建增强句法依赖图时,基于全局共现信息引入单词之间正相关信息,以丰富句法依赖结构。现有基于GCN的方法主要侧重基于句法依赖树的结构来捕获单词的远距离关系,使得构建的句法图有时会过于稀疏,导致方面情感分析的准确性不好。本发明通过基于全局共现信息引入单词之间正相关信息来进一步丰富句法依赖结构,能够解决稀疏问题的影响,进而能够提升方面情感分析的准确性。
本发明考虑了全局词共现信息以获得具有高相关性的词对,例如点互信息(PMI)。
与直接利用句法依赖树的传统方法不同,本发明通过添加相对于全局词共现视角即具有高相关关系的边来进一步扩展句法依赖树,并获得增强的依赖图。
形式上,单词对(wi,wj)的PMI值计算如下:
Figure BDA0003418818610000089
Figure BDA00034188186100000810
Figure BDA00034188186100000811
其中,#W(i)表示整个语料中包含单词wi的滑动窗口数量;#W(i;j)表示同时包含单词wi和wj的滑动窗口数量;#W是语料库中滑动窗口的总数。
只考虑其词对的PMI值为正的边,图3(b)表示增强依赖图的构建过程。
句法依赖树中边的权重是相等的(如默认为1),而PMI值在一个很大的范围内,如[0,+∞],如果直接将PMI值作为边的权重,这些句法边的影响将大大减弱。为此,本发明为每条PMI边分配一个边权重,而不是使用原始PMI值作为边权重。形式上,节点i和节点j之间的边的权重定义为:
Figure BDA0003418818610000091
Figure BDA0003418818610000092
由于增强依赖图中有两种类型的边(即PMI边和句法边),采用基于异构图的图卷积网络来聚合来自不同类型边的信息。此时,每个节点首先聚合来自相同类型边的信息,然后将每个边类型的相应表示拼接起来作为节点的新表示:
Figure BDA0003418818610000093
Figure BDA0003418818610000094
Figure BDA0003418818610000095
其中,
Figure BDA0003418818610000096
为(l-1)层中第j个节点学习到的表示
Figure BDA0003418818610000097
σ表示非线性函数,如Relu;Norm(·)表示正则化层,
Figure BDA0003418818610000098
I表示n×n的单位矩阵,
Figure BDA0003418818610000099
表示第i个节点的度;Wd,(l)和bd,(l)表示具体层的可训练参数;l表示层数;i表示聚合的目标节点。
通过应用GCN在增强句法依赖图上,可以得到第l层的表示:
Figure BDA00034188186100000910
文本结构表示的计算公式为:
Hg=gHs,(L)+(1-g)Hd,(L)
其中,g=σ(Wg[Hs,(L);Hd,(L)]);
Hs,(L)、Hd,(L)分别为文本序列图和增强句法依赖图的表示;
Figure BDA00034188186100000911
Figure BDA00034188186100000912
分别为从第l层协同注意力层中文本序列图和增强依赖图学习到的表示;
Hs,(l)和Hd,(l)通过公式Hs,(l),Hd,(l)=CoAttention(Hs,(l),Hd,(l))更新;
CoAttention表示执行以下公式:
A1=softmax(Hs,(l)W1Hd,(l)T);
A2=softmax(Hd,(l)W2Hs,(l)T);
Hs,(l)=A2Hd,(l)
Hd,(l)=A1Hs,(l)
式中:
Figure BDA0003418818610000101
分别表示从Hd,(l)到Hs,(l)以及Hs,(l)到Hd,(l)的临时对齐矩阵投影;σ表示激活函数;L表示CoGCN的层数;
Figure BDA0003418818610000102
均表示训练参数。
本发明构建文本序列图和增强句法依赖图并基于两种图的结构信息进行建模,能够获取文本序列图的顺序结构信息和增强句法依赖图的句法依赖结构信息,并能够通过多层的CoGCN以相互增强的方式融合两种图的结构信息,即捕获和融合了更丰富的结构信息,从而能够提升方面情感分析的准确性和全面性。同时,本发明能够从结构角度反映和表示文本的方面情感极性,从而能够辅助提升方面情感分析的准确性。最后,本发明通过基于全局共现信息引入单词之间正相关信息来进一步丰富句法依赖结构,能够解决稀疏问题的影响。
结合图2所示,方面情感分析模型通过特定方面的注意力模块生成特定方面句子表示,具体通过如下步骤生成特定方面句子表示:
S221:基于文本语义表示H生成对应的最终语义表示zsem
S222:基于文本结构表示Hg生成对应的最终结构表示zstru
S223:对最终语义表示zsem和最终结构表示zstru进行连接操作,生成特定方面句子表示r;
其中,
Figure BDA0003418818610000103
式中:
Figure BDA0003418818610000104
表示连接操作。
具体的,生成最终语义表示zsem时,首先基于文本语义表示H屏蔽非方面词并保持方面词不变,得到零掩码表示Hmask_a;然后在零掩码表示Hmask_a上进行最大池化操,得到方面表示
Figure BDA0003418818610000105
最后检索与方面语义相关的重要特征,并为每个单词设置基于检索的注意力权重,生成最终语义表示zsem
其中,H=(h1,…,hτ+1,…,hτ+m,…,hn);
Hmask_a=(0,…,hτ+1,…,hτ+m,…,0);
Figure BDA0003418818610000111
Figure BDA0003418818610000112
式中:式中:at表示第t个单词在方面的注意力分数,ei表示第i个单词与方面词的语义相关度。
生成最终结构表示zstru时,首先基于文本结构表示Hg从结构角度检索与方面相关的上下文信息,得到零掩码表示Hmask_b;然后在Hmask_b上进行最大池化操作,得到方面表示
Figure BDA0003418818610000113
最后检索与方面语义相关的重要特征,并为每个单词设置基于检索的注意力权重,生成最终结构表示zstru
其中,
Figure BDA0003418818610000114
Figure BDA0003418818610000115
Figure BDA0003418818610000116
Figure BDA0003418818610000117
Figure BDA0003418818610000118
式中:at表示第t个单词在方面的注意力分数。
本发明提出了两种特定于方面的注意力机制,即特定于方面的语义注意力和特定于方面的结构注意力,使得能够从语义角度和结构两个角度去获取表示,并合并生成特定方面句子表示,进而能够更好的反映和表示文本的方面情感极性,从而能够进一步提升方面情感分析的准确性。
具体实施过程中,将特定方面句子表示输入全连接层和softmax层,以输出情感标签上的预测概率分布p=softmax(Wyr+by),
Figure BDA0003418818610000119
式中:dy表示情感标签的数量;r表示特定方面句子表示;
Figure BDA0003418818610000121
分别是可训练参数和偏置。
为了更好的说明本发明方面情感分析方法的优势,本实施例公开了如下实验。
一、数据集
本实验在五个基准数据集上进行,分别是Twitter(来自Dong L,Wei F,Tan C,etal.《Adaptive recursive neural network for target-dependent twitter sentimentclassification》)、LAPTOP(来自Kirange D K,Deshmukh R R,Kirange M D K.《Aspectbased sentiment analysis SEMEVAL-2014task 4》)、REST14(来自Pontiki M,Galanis D,Papageorgiou H,et al.《Semeval-2015task 12:Aspect based sentiment analysis》)、REST15和REST16(来自Pontiki M,Galanis D,Papageorgiou H,et al.《Semeval-2016task5:Aspect based sentiment analysis》)。数据集由两类数据组成:笔记本电脑和餐厅。我们删除了具有冲突极性和句子中没有明确方面的样本。数据集的统计数据在表1中展示。
表1 数据统计
Figure BDA0003418818610000122
二、基线方法
本实验对比了以下8个先进的模型:
LSTM(来自Tang D,Qin B,Feng X,et al.《Effective LSTMs for target-dependent sentiment classification》):它提出了一个依赖于目标的LSTMs来模拟目标和上下文词之间的交互。
MemNet(来自Tang D,Qin B,Liu T.《Aspect level sentiment classificationwith deep memory network》):与序列神经模型(如LSTM)不同,该模型利用深度记忆网络进行方面级别的情感分类,在上下文词嵌入上使用多跳注意力层进行句子表示。
AOA(来自Huang B,Ou Y,Carley K M.《Aspect level sentimentclassification with attention-over-attention neural networks》):它通过attention-over-attention模块捕获方面词和上下文词之间的交互。
IAN(来自Ma D,Li S,Zhang X,et al.《Interactive attention networks foraspect-level sentiment classification》):它提出了一个交互式注意力网络来交互式地学习上下文和目标方面,并分别生成目标和上下文的表示。
TNet-LF(来自Li X,Bing L,Lam W,et al.《Transformation networks fortarget-oriented sentiment classification》):它提出了一个特定于目标的转换组件,以更好地将目标方面信息集成到单词表示中。
ASGCN(来自Zhang C,Li Q,Song D.《Aspect-based sentiment classificationwith aspect-specific graph convolutional networks》):为了利用远程单词依赖,这项工作通过在
句子的依赖树上应用图卷积网络(GCN)来考虑句法信息。
ASCNN(来自Zhang C,Li Q,Song D.《Aspect-based sentiment classificationwith aspect-specific graph convolutional networks》):这是ASGCN的简化模型,在ASGCN中用2层CNN代替了2层GCN。
BiGCN(Zhang M,Qian T.《Convolution over Hierarchical Syntactic andLexical Graphs for Aspect Level Sentiment Analysis》):它使用层次图结构来整合单词共现信息和依赖类型信息。
三、评估指标
对于评估,采用准确度(ACC)和宏观平均F1分数(F1)两个指标来衡量基于方面的情感分类的性能。
ACC:准确度衡量所有样本中正确预测样本的百分比。正式定义为:
Figure BDA0003418818610000131
其中T是预测正确的样本数量,N是总共的样本数量,更高的正确率表明更好的性能。
F1:在这项工作中,使用宏平均F1(来自Peng H,Li J,He Y,et al.《Large-scalehierarchical text classification with recursively regularized deep graph-cnn》)来评估所有不同类别标签的平均F1。它赋予每个标签相同的权重。形式上,宏观平均F1定义为:
Figure BDA0003418818610000132
其中
Figure BDA0003418818610000133
TPt,FPt,FNt分别表示在标签集C中第t个标签的真阳性、假阳性和假阴性。
四、实验设置
对于SEDC-GCN,使用300维预训练的GloVe向量(来自Pennington J,Socher R,Manning C D.《Glove:Global vectors for word representation》)初始化词嵌入,位置(即句子中每个词相对于目标方面的相对位置)的维数设置为30。文本序列图中的阈值p设置为2,增强依赖图中PMI的滑动窗口大小设置为3,CoGCN层数设置为3,下面的实验将验证其影响。我们使用Adam作为优化器,学习率为0.003。L2正则化系数为10*5,batch size为16。所有实验均在配备Intel Core CPU I7-9700K 3.6GHz和NVIDIA GeForce RTX 2080TI的硬件上进行。
五、实验结果
性能对比结果如表2所示。本发明的方法(SEDC-GCN)在所有数据集上在评估指标ACC和F1都取得了最佳性能,这证明了我们模型的优越性。具体来说,LSTM方法在五个数据集上获得了最差的结果。MemNet实现了比LSTM更好的性能,因为它利用对上下文词嵌入的多跳注意力来进行句子表示。AOA和IAN这两种方法采用了类似的策略,即它们利用注意力机制来捕捉上下文和目标方面之间的交互信息,并且与MemNet相比,它们表现出更好和有竞争力的性能。TNet-LF方法建议利用特定于目标的转换组件来更好地将目标信息集成到单词表示中。它表现出比上述所有基线更好的性能。ASCNN是ASGCN-DG的简化版本,它使用CNN层代替ASGCN-DG中的GCN层。ASCNN和ASGCN-DG的不同表现表明ASCNN不擅长捕捉上下文词之间的长期依赖关系,而利用依赖树的ASGCN-DG可以有效地保留远程多词句法关系。性能最好的基线方法BiGCN利用分层图结构来集成单词共现信息和依赖树信息。
与所有基线相比,本发明的方法(SEDC-GCN)实现了最佳性能。主要原因是我们开发了一个双通道图编码,可以从两个不同的角度有效地捕捉丰富的结构信息。
表2 所有方法在准确性(ACC)和F1分数(F1)方面的性能比较
Figure BDA0003418818610000141
六、消融实验
我们进行了消融研究,以研究我们提出的模型中的不同组件如何对整体性能做出贡献。
我们将完整模型SEDC-GCN与其四个变体进行比较:
SEDC-GCN(w/oSeqGCN):我们从双通道图编码中移除了文本序列图,其中利用文本序列图在一个相对小的窗口内通过相邻词学习表示。
SEDC-GCN(w/oEdepGCN):我们丢弃了增强的依赖图,它探索从依赖树中提取的句法信息。请注意,增强依赖图的建模对于捕获单词之间的远距离关系很有用。
SEDC-GCN(w/oDual.):这个变体没有考虑双通道图编码,它从两个不同的角度对结构信息进行建模,即文本序列结构通道和增强的依赖结构通道。
SEDC-GCN(w/oAtten.):我们用简单的基于检索的注意力(来自Zhang C,Li Q,Song D.《Aspect-based sentiment classification with aspect-specific graphconvolutional networks》)替换了特定于方面的结构注意力。
表3展示了消融研究的结果。首先,从双通道图编码(即SEDC-GCN(w/oSeqGCN))中删除文本序列图会导致所有数据集的性能大幅下降。它验证了通过合理小窗口内的相邻词捕获文本序列信息的有效性。类似地,删除增强依赖图,即SEDC-GCN(w/oEdepGCN),导致性能显着下降,这揭示了对增强依赖图建模的重要性。
此外,如果移除双通道图编码,性能将显着下降,尤其是在数据集LAPTOP、REST14和REST15上。这是合理的,因为双通道图编码利用了来自文本序列图和增强依赖图的结构信息,即SEDC-GCN(w/oSeqGCN)和SEDC-GCN(w/oEdepGCN)。它还表明,在双通道图编码中探索文本序列图和增强依赖图时,它们在某种程度上是互补的。
最后,移除特定于方面的结构注意力,即SEDC-GCN(w/oAtten.),导致所有数据集的性能显着下降,这表明使用特定于方面的结构注意力模块的有效性。
表3 在五个数据集上的准确性(ACC)和F1分数(F1)的消融研究结果
Figure BDA0003418818610000151
七、协同注意力网络层数影响
为了研究双通道图编码中层数的影响,我们研究了SEDC-GCN在图4中从1到8层的性能。我们可以清楚地看到,数据集TWITTER上的性能,它会随着层数的增加而增加,在这两个指标方面都在第3层达到峰值。之后,当进一步增加层数时,它开始逐渐下降。在其他数据集上也观察到类似的结果。
这主要是因为如果我们选择的层数较少,则无法很好地探索来自两个通道(即文本序列通道和增强依赖通道)的结构信息。相反,当我们使用大量层时,可能会导致节点表示的可区分性降低,遭受过度平滑的问题。它表明我们的模型可以在相对较少的层数下实现好的性能。
八、滑动窗口(Window size)大小的影响
在增强依赖图的构建过程中,利用滑动窗口大小来计算单词共现,即如果两个单词出现在滑动窗口中,则将它们视为共现。较大的滑动窗口大小表明即使两个词在序列中彼此相距遥远,也将被认为是相关的。图5显示了SEDC-GCN在所有五个数据集上的性能,窗口大小从1到8不等。从图5可以看到滑动窗口大小影响SEDC-GCN在精度和F1方面的性能。
在五个数据集上,不同滑动窗口大小的精度和F1的变化具有相似的趋势。具体来说,随着滑动窗口大小的增加,SEDC-GCN的性能首先上升,直到窗口大小等于3时达到峰值。当我们不断增加滑动窗口大小时,它开始逐渐下降。这种变化趋势是合理的,因为当滑动窗口尺寸较小时,无法编码足够的词之间的相关信息,导致性能较差。当滑动窗口大小设置为较大值时,可能会引入更多不相关的相关信息,使其任务的效率降低。
九、案例分析
本实验还介绍了一个案例研究,其中包含几个随机抽样的案例。具体来说,我们在表4中将本发明提出的方法SEDC-GCN和两个性能最佳的基线(即ASGCN和BiGCN)生成的注意力分数可视化,以及它们对这些样本和真实标签的相应预测。背景色标表示每个样本中单词的注意力分数,颜色越深代表注意力分数越高。
对于第一个样本中的方面“chinesestyleindianfood”,ASGCN做出了错误的预测,因为它容易注意到与样本中的另一个方面“place”相关的意见词“not”。而BiGCN和我们提出的模型SEDC-GCN有效地关注了方面的相应意见词。
考虑到第二个样本,ASGCN和BiGCN两种基线方法都关注不正确的意见词,例如“bigger”,并且错误地将方面“cd/dvddrive”的情绪预测为“negative”。相比之下,SEDC-GCN主要关注方面词本身,并为给定的方面分配正确的标签“中性”。
最后一个样本“abeautifulatmosphere,perfectfordrinksandappetizers”,它包含两个方面(即“atmosphere”和“drinks”),具有不同的情感态度。这三种方法都可以正确识别方面的情感“atmosphere”通过更多地关注意见词“beautiful”和“perfect”。但是,考虑到“drinks”方面,ASGCN和BiGCN都在关注“perfect”这个方面的意见时做出了错误的分类,这些词是对“atmosphere”方面的意见,而不是“drinks”。本发明的方法SEDC-GCN对“beautiful”和“perfect”等不相关的意见词给予较少的关注,并正确地将“drinks”方面的情感标签识别为“中性”。这一结果也与不同方面极性表现的实验分析一致,当多个方面的极性不同时,本发明的方法始终比ASGCN和BiGCN表现得更好。
通过上面的比较,我们可以看到本发明的方法SEDC-GCN通过对来自不同通道的丰富结构信息进行有效建模,可以正确地关注特定方面的意见词。
表4 案例分析
Figure BDA0003418818610000171
结论
本发明提出了方面情感分析模型(SEDC-GCN)其具有一个双通道图编码,从两个不同的角度对结构信息进行建模,即文本序列结构通道和增强依赖结构通道,然后,能够从两个不同的角度获得句子表示,即基于文本编码的语义角度和基于双通道图编码的结构角度。
在五个公开的数据集上进行了广泛的实验,实验结果表明,与最先进的基线方法相比,本发明提出的方法实现了最佳性能。
需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管通过参照本发明的优选实施例已经对本发明进行了描述,但本领域的普通技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离所附权利要求书所限定的本发明的精神和范围。同时,实施例中公知的具体结构及特性等常识在此未作过多描述。最后,本发明要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。

Claims (10)

1.一种基于双通道图卷积网络的方面情感分析方法,其特征在于,包括以下步骤:
S1:获取待分析的目标文本;
S2:将目标文本输入经过预先训练的方面情感分析模型中;
所述方面情感分析模型首先对目标文本进行文本编码,生成文本语义表示;然后基于目标文本构建文本序列图和增强句法依赖图,并基于两种图的结构信息进行建模;再通过多层的CoGCN以相互增强的方式融合两种图的结构信息,生成文本结构表示;最后分别从文本语义表示和文本结构表示中获取句子表示,合并生成最终的特定方面句子表示;
S3:基于特定方面句子表示生成情感标签上的预测概率分布,即为目标文本的方面情感分析结果。
2.如权利要求1所述的基于双通道图卷积网络的方面情感分析方法,其特征在于,通过如下步骤生成文本语义表示:
S201:将目标文本经过预训练词嵌入矩阵,得到对应的词嵌入表示矩阵;
S202:在目标文本中引入绝对距离,得到对应的位置序列;
S203:随机初始化位置的嵌入查询表,将位置序列映射到位置嵌入矩阵;
S204:通过双向LSTM学习目标文本中每个单词的嵌入表示,生成文本语义表示;
其中,单词的嵌入表示通过词嵌入表示和位置嵌入表示拼接得到。
3.如权利要求2所述的基于双通道图卷积网络的方面情感分析方法,其特征在于:
文本语义表示
Figure FDA0003418818600000011
其中,
Figure FDA0003418818600000012
预训练词嵌入矩阵:
Figure FDA0003418818600000013
词嵌入表示矩阵:
Figure FDA0003418818600000014
位置序列:(a1,…,aτ+1,…,aτ+m,…,an)
位置嵌入矩阵:
Figure FDA0003418818600000015
式中:
Figure FDA0003418818600000016
分别是前向和后向LSTM的表示;
Figure FDA0003418818600000017
dw=de+da;[;]表示拼接操作。
4.如权利要求2所述的基于双通道图卷积网络的方面情感分析方法,其特征在于,通过如下步骤生成文本结构表示:
S211:基于目标文本构建对应的文本序列图和增强句法依赖图;
S212:通过文本语义表示初始化文本序列图和增强句法依赖图的节点表示;
S213:通过文本序列结构通道和增强依赖结构通道从文本序列图和增强句法依赖图中获取对应的顺序结构信息和句法依赖结构信息并进行建模;
S214:CoGCN通过协同注意力整合顺序结构信息和句法依赖结构信息,计算和更新文本序列图和增强句法依赖图的表示;
S215:通过门控机制融合文本序列图和增强句法依赖图的表示,生成文本结构表示。
5.如权利要求4所述的基于双通道图卷积网络的方面情感分析方法,其特征在于:步骤S211中,构建增强句法依赖图时,基于全局共现信息引入单词之间正相关信息,以丰富句法依赖结构。
6.如权利要求4所述的基于双通道图卷积网络的方面情感分析方法,其特征在于,文本结构表示的计算公式为:
Hg=gHs,(L)+(1-g)Hd,(L)
其中,g=σ(Wg[Hs,(L);Hd,(L)]);
Hs,(L)、Hd,(L)分别为文本序列图和增强句法依赖图的表示;
Figure FDA0003418818600000021
Figure FDA0003418818600000022
分别为从第l层协同注意力层中文本序列图和增强依赖图学习到的表示;
Hs,(l)和Hd,(l)通过公式Hs,(l),Hd,(l)=CoAttention(Hs,(l),Hd,(l))更新;
CoAttention表示执行以下公式:
A1=softmax(Hs,(l)W1Hd,(l)T);
A2=softmax(Hd,(l)W2Hs,(l)T);
Hs,(l)=A2Hd,(l)
Hd,(l)=A1Hs,(l)
式中:
Figure FDA0003418818600000023
分别表示从Hd,(l)到Hs,(l)以及Hs,(l)到Hd,(l)的临时对齐矩阵投影;σ表示激活函数;L表示CoGCN的层数;
Figure FDA0003418818600000024
均表示训练参数。
7.如权利要求4所述的基于双通道图卷积网络的方面情感分析方法,其特征在于,通过如下步骤生成特定方面句子表示:
S221:基于文本语义表示H生成对应的最终语义表示zsem
S222:基于文本结构表示Hg生成对应的最终结构表示zstru
S223:对最终语义表示zsem和最终结构表示zstru进行连接操作,生成特定方面句子表示r;
其中,
Figure FDA0003418818600000031
式中:
Figure FDA0003418818600000032
表示连接操作。
8.如权利要求7所述的基于双通道图卷积网络的方面情感分析方法,其特征在于:步骤S221中,首先基于文本语义表示H屏蔽非方面词并保持方面词不变,得到零掩码表示Hmask_a;然后在零掩码表示Hmask_a上进行最大池化操,得到方面表示
Figure FDA0003418818600000033
最后检索与方面语义相关的重要特征,并为每个单词设置基于检索的注意力权重,生成最终语义表示zsem
其中,H=(h1,…,hτ+1,…,hτ+m,…,hn);
Hmask_a=(0,…,hτ+1,…,hτ+m,…,0);
Figure FDA0003418818600000034
Figure FDA0003418818600000035
式中:at表示第t个单词在方面的注意力分数,ei表示第i个单词与方面词的语义相关度。
9.如权利要求7所述的基于双通道图卷积网络的方面情感分析方法,其特征在于:步骤S222中,首先基于文本结构表示Hg从结构角度检索与方面相关的上下文信息,得到零掩码表示Hmask_b;然后在Hmask_b上进行最大池化操作,得到方面表示
Figure FDA0003418818600000036
最后检索与方面语义相关的重要特征,并为每个单词设置基于检索的注意力权重,生成最终结构表示zstru
其中,
Figure FDA0003418818600000037
Figure FDA0003418818600000038
Figure FDA0003418818600000039
Figure FDA00034188186000000310
式中:at表示第t个单词在方面的注意力分数。
10.如权利要求1所述的基于双通道图卷积网络的方面情感分析方法,其特征在于,步骤S3中,将特定方面句子表示输入全连接层和softmax层,以输出情感标签上的预测概率分布p=softmax(Wyr+by),
Figure FDA0003418818600000041
式中:dy表示情感标签的数量;r表示特定方面句子表示;
Figure FDA0003418818600000042
分别是可训练参数和偏置。
CN202111554887.5A 2021-12-17 2021-12-17 一种基于双通道图卷积网络的方面情感分析方法 Withdrawn CN114218922A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111554887.5A CN114218922A (zh) 2021-12-17 2021-12-17 一种基于双通道图卷积网络的方面情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111554887.5A CN114218922A (zh) 2021-12-17 2021-12-17 一种基于双通道图卷积网络的方面情感分析方法

Publications (1)

Publication Number Publication Date
CN114218922A true CN114218922A (zh) 2022-03-22

Family

ID=80703835

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111554887.5A Withdrawn CN114218922A (zh) 2021-12-17 2021-12-17 一种基于双通道图卷积网络的方面情感分析方法

Country Status (1)

Country Link
CN (1) CN114218922A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114564967A (zh) * 2022-04-29 2022-05-31 天津大学 一种面向情感语义的语义标注及语义依存分析方法及装置
CN114722833A (zh) * 2022-04-19 2022-07-08 清华大学 一种语义分类方法及装置
CN115374281A (zh) * 2022-08-30 2022-11-22 重庆理工大学 基于多粒度融合和图卷积网络的会话情感分析方法
CN116662554A (zh) * 2023-07-26 2023-08-29 之江实验室 基于异构图卷积神经网络的传染病方面级情感分类方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114722833A (zh) * 2022-04-19 2022-07-08 清华大学 一种语义分类方法及装置
CN114564967A (zh) * 2022-04-29 2022-05-31 天津大学 一种面向情感语义的语义标注及语义依存分析方法及装置
CN115374281A (zh) * 2022-08-30 2022-11-22 重庆理工大学 基于多粒度融合和图卷积网络的会话情感分析方法
CN115374281B (zh) * 2022-08-30 2024-04-05 重庆理工大学 基于多粒度融合和图卷积网络的会话情感分析方法
CN116662554A (zh) * 2023-07-26 2023-08-29 之江实验室 基于异构图卷积神经网络的传染病方面级情感分类方法
CN116662554B (zh) * 2023-07-26 2023-11-14 之江实验室 基于异构图卷积神经网络的传染病方面级情感分类方法

Similar Documents

Publication Publication Date Title
Torfi et al. Natural language processing advancements by deep learning: A survey
CN110826336B (zh) 一种情感分类方法、系统、存储介质及设备
CN114218922A (zh) 一种基于双通道图卷积网络的方面情感分析方法
CN109376222B (zh) 问答匹配度计算方法、问答自动匹配方法及装置
Li et al. Improving convolutional neural network for text classification by recursive data pruning
CN107688870B (zh) 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置
CN114818717B (zh) 融合词汇和句法信息的中文命名实体识别方法及系统
CN113869034B (zh) 基于强化依赖图的方面情感分类方法
Mozafari et al. BAS: an answer selection method using BERT language model
CN112528136A (zh) 一种观点标签的生成方法、装置、电子设备和存储介质
Xiao et al. User preference mining based on fine-grained sentiment analysis
CN114417823B (zh) 一种基于句法和图卷积网络的方面级情感分析方法及装置
Gao et al. Joint event causality extraction using dual-channel enhanced neural network
Liu et al. Unveiling consumer preferences in automotive reviews through aspect-based opinion generation
Zhang et al. SKG-Learning: A deep learning model for sentiment knowledge graph construction in social networks
Lee et al. Detecting suicidality with a contextual graph neural network
CN117876929B (zh) 一种渐进式多尺度上下文学习的时序目标定位方法
Deorukhkar et al. A detailed review of prevailing image captioning methods using deep learning techniques
CN114036246A (zh) 商品图谱向量化方法、装置、电子设备及存储介质
CN117670017B (zh) 一种基于事件的风险识别方法、装置以及电子设备
CN116414988A (zh) 基于依赖关系增强的图卷积方面级情感分类方法及系统
CN115659990A (zh) 烟草情感分析方法、装置及介质
CN112364666B (zh) 文本表征方法、装置及计算机设备
CN114595370A (zh) 模型训练、排序方法、装置、电子设备及存储介质
CN113157892A (zh) 用户意图处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20220322