CN114881042A - 基于图卷积网络融合句法依存与词性的中文情感分析方法 - Google Patents
基于图卷积网络融合句法依存与词性的中文情感分析方法 Download PDFInfo
- Publication number
- CN114881042A CN114881042A CN202210625855.8A CN202210625855A CN114881042A CN 114881042 A CN114881042 A CN 114881042A CN 202210625855 A CN202210625855 A CN 202210625855A CN 114881042 A CN114881042 A CN 114881042A
- Authority
- CN
- China
- Prior art keywords
- vector
- text
- word
- chinese
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于图卷积网络融合句法依存与词性的中文情感分析方法,采用词向量模型对上下文文本和方面词进行向量化表示;词向量模型将每个待分析的中文文本矩阵与文本中单词的词性标注矩阵进行拼接操作将图卷积网络中的编码部分与长短期记忆网络进行融合;多头交互注意力网络对具有上下文特征的隐藏层向量和具有语义信息的隐藏层向量分别通过多头注意力得到经过注意力值加权之后的向量矩阵;将两个隐层向量矩阵与交互多头注意力机制输出的两个矩阵的池化结果进行拼接得到融合后的文本表示再通过Softmax进行概率计算确定情感极性。本发明将中文中的词性标记与向量表示融合,特征提取既拥有强大特征提取能力,在中文数据集的情感分析上有良好的表现。
Description
技术领域
本发明涉及文本情感分析技术,特别涉及基于图卷积网络的中文情感分析技术。
背景技术
自然语言处理NLP就是一个对人们平时所使用的语言进行处理使得计算机能够理解的一项工作,情感分析是NLP领域中一个非常重要的组成部分,是通过对文本内容进行深入分析,挖掘出背后所隐藏的主客观情感,判断其情感倾向。通常会从粒度大小进行区分,从三个方面来对文本情感分析进行研究,分别是:方面级、句子级、篇章级。
方面级情感分析ABSA是目前细粒度最小的一种分析方式,它目的是分析在文本可能存在的各个方面实体的情感倾向。人们所表达的各种文本中所体现的情感并不是只有正面和负面两种而是更加复杂多样的,体现在文本情感分析中,对文本的情感分类标签不止有二分类,还涌现出了包含正面,中性,负面的三分类标签和包含非常正面,一般正面,中性,一般负面,非常负面的五分类。
向量空间模型最初使用一种独热编码(One-hot)对文本信息进行向量化表示便于计算机处理,是种非常简洁直观且常用的文本表示方法,独热编码得到的向量是由0和1表示,向量中唯一一个1所处的位置就是该单词在词典中所处的绝对位置,所以以独热编码方法得到的向量表示的维数取决于词典中总计拥有的单词个数。这样能够保证文本中的每一个词语的向量化表示是唯一的不会产生冲突。我们通过一个例子来阐释独热码的原理,比如文本为“我爱吃苹果”,词典中的单词有“苹果、爱、我、吃”,根据独热编码方式,可以得到例句的编码表为:[0,0,1,0]、[0,1,0,0]、[0,0,0,1]、[1,0,0,0]。我们最终通过将在这几个向量相拼接就能够将“我爱吃苹果”这句话通过一个矩阵进行表示。对于独热编码中存在的一些缺点,一种优化方法就是为文本中的每个单词赋予一个权重,自然而然地就能想到使用单词出现的频次作为每一个单词的权重是最简单的方法,但是单词的频次越高并不能代表这个单词对句子的含义影响就越大,例如英文中的“the”,中文中的“啊”、“的”等,在日常使用中出现的频率极高,但是对句意额影响极低。
词频-逆文档频率TF-IDF是一种更加有效地计算频率权重的方式,其中TF(TermFrequency)代表的是某个单词在某篇文档中被使用到的的频率。而IDF(Inverse DocumentFrequency)指的是该单词的普遍程度,含有该单词的文档数目越少则IDF就越大,则代表该利用该单词能够很好的对不同的文档进行辨别。Bengio首次将神经网络应用到词向量的训练任务中,提出了自然网络语言模型(Neural Network Language Model,NNLM),在输入时使用独热码编码,然后通过三层神经网络将其映射为低维度向量。伴随神经网络在理论上的不断创新发展与计算机硬件的不断成熟和低廉,许多研究者们也将神经网络用于对文本进行处理,利用神经网络获得更好的文本向量表示,由Tomas Mikolov发布的Word2vec模型就是一种经典的词嵌入工具,是一种对NNLM的改良,精简掉了NNLM中的非线性隐藏层,Word2vec的主要工作就是进行预训练将稀疏的词特征向量变成稠密的特征向量,得到了学术界和工业界的广泛应用。
Word2vec主要根据不同的任务设计了两个不同的模型,分别为连续词袋模型CBOW与Skip-gram模型。
图神经网络Transformer
Transformer的核心就是注意力机制,是一种完全由自注意力机制与前馈神经网络所组成的结构。Transformer并且有使用传统神经网络如CNN,RNN等,而是完全只使用自注意力机制(Self-Attention)机制对输入进行特征提取和建模。由于其不再依赖输入序列的顺序,能够对输入序列进行并行计算,且有着高效的捕捉长距离单词之间联系的能力。BERT预训练模型在当下红极一时,在许多任务中都取得了SOTA的好成绩,BERT的核心就在于堆叠多层的Transformer结构。
Transformer主要由编码器encoder与解码器decoder构成,由于在本文的情感分类任务中主要使用Transformer中的编码器部分,我们将对编码器做出详细介绍。在文本表示向量被送入Transforer的encoder结构之前会进行位置编码,给每一个词向量一个位置向量。
Transformer结构的输入是由文本的词向量表示加上上一步中得到的位置向量所构成的。编码器中含有许多个结构相同的子结构,每个子结构中都含有一个多头自注意力层与全连接前馈网络层,每层都包含有归一化与残差连接操作。
图卷积网络GCN
GCN利用了图谱理论在谱空间定义了图的卷积,图卷积神经网络开始走进大家的视野,成为了众多GNN网络结构中最被大家所接受的一种网络框架,目前被广泛应用的一种GCN结构是Kipf等人提出的一个图谱卷积的局部一阶近似。图卷积网络通过将每一个节点及其邻近节点生成为该节点的一种嵌入向量表示形式,这种表示形式能够将该节点与其邻近节点的依赖特征关系包含其中,在对一些包含丰富依赖和连接关系的信息进行处理时有着很高的效率,在实际工程中都会为每一个节点加入一个自环。
图卷积网络也被广泛应用于推荐系统,动作识别和流量预测领域。在自然语言处理领域,图卷积网络也被证实在事件检测,语义角色标记,文本分类等领域有着不错的性能表现。这些研究表明了图卷积网络能够高效地捕捉节点之间的依赖连接关系,对于图结构的数据有着传统卷积神经网络无法比拟的优势。
中文互联网正在经历蓬勃发展,中文也是世界上使用人数最多的语言之一,对中文文本进行情感分析就成为了一项重要的任务。现如今对于句子级情感分析主要集中在对英文文本进行分析,许多模型在中文数据集上进行情感分析时没有对中文句法与词性信息进行充分利用。
发明内容
本发明所要解决的技术问题是,提供一种能对文本中中文句法与词性信息进行充分利用的中文情感分析方法。
本发明为解决上述技术问题所采用的技术方案是,基于图卷积网络融合句法依存与词性的中文情感分析方法,包括以下步骤:
1)词嵌入步骤:采用词向量模型对上下文文本和方面词进行向量化表示;词向量模型将每个待分析的中文文本矩阵与文本中单词的词性标注矩阵进行拼接操作,得到既融合了语义特征信息又融合了文本词性特征的上下文文本向量;
2)特征提取步骤:将图卷积网络中的编码部分与长短期记忆网络LSTM进行融合,利用图卷积网络中的编码部分分别对上下文文本向量与方面词向量进行编码得到具有句法依存关系的上下文文本编码与方面词编码,分别将上下文文本编码与方面词编码输出至LSTM,LSTM的隐藏层输出具有上下文特征的隐藏层向量hc和具有语义信息的隐藏层向量ht至交互多头注意网络;
3)交互多头注意步骤:多头交互注意力网络对具有上下文特征的隐藏层向量hc和具有语义信息的隐藏层向量ht分别通过多头注意力得到经过注意力值加权之后的向量矩阵hct、htc;
4)向量表示融合与情感极性分类步骤:将隐层向量矩阵hc、ht与交互多头注意力机制输出的两个矩阵hct、htc进行均值池化,然后将这4个矩阵池化结果进行拼接,得到融合后的文本表示,最后将融合之后的文本表示通过Softmax进行概率计算确定情感极性。
本发明的有益效果是,将中文中的词性标记与向量表示相融合,再利用图卷积网络对句法依存关系进行特征提取,特征提取时将图卷积网络中的编码部分与LSTM网相结合,使用图卷积网络的强大的特征学习能力学习上下文中单词之间的特征关系,与目标方面词中单词之间的特征关系,使用LSTM学习二者的序列相对位置特征,通过取长补短让特征提取模块既拥有强大特征提取能力,又能够不丢失相对位置信息,本发明方法的在中文数据集的情感分析上有良好的表现。
附图说明
图1为实施例LSTM融合Transformer-Encoder的特征提取模块结构图;
图2为“今天天气很好。”的依存分析树;
图3为对句子的词性标注示意图;
图4为实施例融合Transformer-Encoder与LSTM结构的多头交互注意力方面级情感分析模型示意图。
具体实施方式
实施例提出的融合Transformer-encoder与LSTM的多头交互注意力机制方面级情感分析模型中特征提取模块是由Transformer的Encoder层与长短期记忆LSTM网络所组成,也就是说使用LSTM模型取代了Transformer的decoder层。通常来说Transformer结构与LSTM结构都可以用来在序列信息中提取特征,LSTM通过引入三个门结构,获得了能够捕捉长距离特征信息的能力,并且由于其是按照一定顺序输入的,天然适合处理有序的序列,但是其仍然有速度慢,不能并行计算,没有完全解决梯度消失问题的缺点。
Transformer结构通过堆叠注意力的方式能够获得强大的学习能力,一次性输入所有词句,让其获得了并行计算的能力,但是同时由于其使用函数式绝对位置编码方式,为每一个词通过三角函数的方式计算一个位置向量,这样的方式导致其失去了词语词之间的相对位置关系。例如句子“我喜欢你”与句子“你喜欢我”,词与词之间的相对位置发生了改变会导致句子的意思发生天翻地覆的变化。所以我们将Transformer的encoder结构与LSTM网络相结合,使用Transformer的强大的特征学习能力学习上下文中单词之间的特征关系,与目标方面词中单词之间的特征关系,使用LSTM学习二者的序列相对位置特征,通过取长补短让特征提取模块既拥有强大特征提取能力,又能够不丢失相对位置信息。
实施例模型中的LSTM融合Transformer-Encoder的特征提取模块结构如图1,包括Transformer的encoder接收输入input,其输出与LSTM相连,LSTM的输出即为特征提取模块的输出;
Transformer的encoder包括多头注意力机制Multi-Head Attention、残差相加与归一化模块Add&Norm和前馈层Feed Forward Layer,
Multi-Head Attention通过不同的线性变化将输入的Q、K、V三个矩阵映射到不同的维度的空间,针对不同的维度空间上存在不同的特征,多头注意力能够提取多种注意力信息,多种注意力信息与输入数据通过进行拼接Add&Norm,拼接得到的特征再与其自身经过Feed Forward Layer的结果进行拼接Add&Norm得到最终输出。
以往的方面级情感分析模型,往往忽略了对目标方面词的关注的建模,而只关注于目标上下文。实施例提出的交互多头注意力机制由两部分组成,一个部分是上下文文本矩阵作为注意力函数中的查询Query,目标方面词矩阵作为键Key的多头注意力部分,另一个部分是将上下文文本矩阵作为Key,而将目标方面词作为Query的多头注意力部分。这两个部分分别代表了对于上下文文本来说目标方面词的哪些内容对自己比较重要,和对于目标方面词来说上下文文本中哪些方面对自己比较重要这两方面的信息。经过这样交互注意的方式可以充分获取文本与目标方面词相互之间的特征关系。同时采用多头注意力机制也能大大增加模型的并行计算能力,从而提升模型的性能,在不同的特征空间内提取更加多样的特征信息。
基于图卷积网络的词性与句法依存关系的中文文本情感分析模型:
中文有与英文不一样的句法依存关系,英文通常以单个单词作为一个词,而中文则是许多字构成一个词,每个中文词有自己不同的词性。针对这些特点实施例提出将中文中的词性标记与向量表示相融合,再利用图卷积网络对句法依存关系进行特征提取,在中文数据集上有良好的表现。中文与英文的语法不同,相比较有着更复杂的句法结构,可能会导致同样的模型在中文语料下就会存在性能的降低的情况。为了更有效的分析一个句子的句法结构,可以引入句法依存分析树,根据对主谓,动宾等句法关系的提取来表示句子中不同主体之间的依存关系。图2展示了一个中文句子“今天天气很好。”的依存分析树。“今天”为核心词Root,“今天”和“好”之间存在依存关系中的核心关系HED,“天气”与“好”之间存在依存关系中主谓关系SBV,“今天”与“天气”之间存在依存关系中的定中关系ATT,“今天”与“的”之间存在依存关系的右附加关系,“好”与“很”之间存在依存关系中的状中关系ADV。对于该句子的词性标注如图3,“今天”为机构团体nt、“的”为组词u、“天气”为名词n、“很”为副词d,“好”为形容词a。
一个单词的词性对其所表示的含义也有着巨大的影响,一个词的词性代表了其在一个句子中所发挥的作用,对一个词的词性进行标记也是目前文本处理领域的一个重难点,因为词语往往具有一次多义的情况,有时候既可以作为名词也可以作为形容词。语言技术平台ltp工具中也提供了对于中文词语的词性标注功能,我们也将使用ltp来对我们的数据进行词性标注工作。
实现实施例方面级情感分析方法的融合Transformer-Encoder与LSTM结构的多头交互注意力方面级情感分析模型,其结构如图2所示,包括词嵌入模块、特征提取模块、交互多头注意模块和向量表示融合与情感极性分类模块,分别实现以下步骤:
(1)词嵌入步骤:在我们的模型中,我们采用预训练好的词向量模型GloVe对上下文文本c和方面词t进行向量化表示为Wc与Wt。
(2)特征提取步骤:将Transformer结构中的Encoder部分与LSTM网络进行融合,分别对n个上下文文本与m个方面词进行编码,最后将LSTM网络的隐藏层输出作为结果,得到具有上下文特征和语义信息的隐藏层向量 与
(3)交互多头注意步骤:这一层中将使用多头交互注意力网络InteractiveMulti-Head Attention Layer,对上下文与目标方面词通过多头注意力得到经过注意力值Attention Weight加权之后的两个不同的向量矩阵与
(4)向量表示融合与情感极性分类步骤:将隐层向量矩阵hc、ht与交互多头注意力机制输出的两个矩阵hct、htc进行均值池化Pool,然后将这4个矩阵池化结果进行拼接,得到融合后的文本表示。在这个模块中我们还将融合之后的文本表示通过Softmax进行概率计算以及确定情感极性。
对于基于图卷积网络融合句法依存与词性的中文情感分析模型通过ltp分析得到的句法依存信息可以构建出一个图结构G=(V,E),其中V代表图中的节点的集合,在实施例任务中,每一个节点就代表了中文句子中的每一个单词,E代表了图中每条边的集合,eij=(vi,vj)属于E代表的含义是在节点Vi与Vj之间存在一条Vi指向Vj的边,也表示节点Vi与Vj所表示的单词之间存在句法上的依存关系。根据Kipf在他们的研究中为每个节点加入一个自环且为每一条有向边添加一条反向的有向边能够提升GCN网络的泛化能力。
我们采用中文维基百科来训练Word2vec模型,中文维基百科拥有非常高质量的中文文本语料,但中文维基百科中存在不少的繁体字和英文,在训练之前也需要进行预处理,去除这些干扰因素,然后进行分词训练模型,通过在更好的语料中训练得到词向量可以有更好的表达能力有更丰富的特征,为后续的额任务带来巨大帮助,我们将Word2vec得到的向量维度指定为200维。我们可以通过训练好的Word2vec模型得到每个中文文本的向量表示矩阵为X={x1,x2,...,xk},k指的是文本中单词的个数。与我们得到的词性标注矩阵p的向量个数一致,我们将这两个矩阵进行拼接操作,得到既融合了语义特征信息又融合了文本词性特征的特征向量矩阵V={v1,v2,...,vk},其中vi=[xi;pi],v∈Rd×k,d为向量维度,d的值为228,k为单词个数。
为了能够获取文本的序列顺序信息,同时模拟人类在阅读时候的特点,即会同时关注当前文本的上下文信息,在本文中我们将采取双向循环门控单元Bi-GRU来对输入的文本编码进行特征提取和捕捉当前文本的前后文信息。Bi-GRU通过应用两个方向相反的GRU网络,高效且全面地捕捉文本的上下文信息,由于GRU在结构上比LSTM少了一个门结构,所以相比较于Bi-LSTM,Bi-GRU的结构更加简单,需要训练的参数更小,同时又保持了不逊色于LSTM的性能。
我们会将临接矩阵设置为一个m×m大小的矩阵,其中m指的是数据集中的最大文本长度,对于没有达到m长度的句子,我们在空白区域使用0进行填充。每一个GCN层中,一个节点只能够捕获其邻近节点的信息然后自我迭代更新,通过对GCN层的堆叠每一个节点就有能力捕获到更远节点的信息。而在我们的任务中,每一个节点之间的关系由句法依存构成的邻接矩阵决定,在本模型中使用ReLU函数进行非线性变换,则在图结构中信息的传递可以用以下公式计算:
Wi第i层权重矩阵,Hi为第i层的输入,D为一个对角矩阵,每个对角上的元素都是该节点的度数,包括出度和入度。
在训练过程中,实施例使用带有L2正则化项的交叉熵损失函数Loss来计算在训练过程中预测出的结果与真实标签之间的误差,其计算方式为:
其中,qk为真实标签分布,pk为预测标签分布,K为标签总数,λ为正则化系数,Θ为整个模型需要训练更新的参数集合,θ为当前模型参数。通过在训练过程中不断进行反向传播这种方式不断对模型的各种权重参数进行更新和迭代,让损失函数值逐渐趋于最小值,从而得到最优的模型。
Claims (1)
1.基于图卷积网络融合句法依存与词性的中文情感分析方法,其特征在于,包括以下步骤:
1)词嵌入步骤:采用词向量模型对上下文文本和方面词进行向量化表示;词向量模型将每个待分析的中文文本矩阵与文本中单词的词性标注矩阵进行拼接操作,得到既融合了语义特征信息又融合了文本词性特征的上下文文本向量;
2)特征提取步骤:将图卷积网络中的编码部分与长短期记忆网络LSTM进行融合,利用图卷积网络中的编码部分分别对上下文文本向量与方面词向量进行编码得到具有句法依存关系的上下文文本编码与方面词编码,分别将上下文文本编码与方面词编码输出至LSTM,LSTM的隐藏层输出具有上下文特征的隐藏层向量hc和具有语义信息的隐藏层向量ht至交互多头注意网络;
3)交互多头注意步骤:多头交互注意力网络对具有上下文特征的隐藏层向量hc和具有语义信息的隐藏层向量ht分别通过多头注意力得到经过注意力值加权之后的向量矩阵hct、htc;
4)向量表示融合与情感极性分类步骤:将隐层向量矩阵hc、ht与交互多头注意力机制输出的两个矩阵hct、htc进行均值池化,然后将这4个矩阵池化结果进行拼接,得到融合后的文本表示,最后将融合之后的文本表示通过Softmax进行概率计算确定情感极性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210625855.8A CN114881042B (zh) | 2022-06-02 | 2022-06-02 | 基于图卷积网络融合句法依存与词性的中文情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210625855.8A CN114881042B (zh) | 2022-06-02 | 2022-06-02 | 基于图卷积网络融合句法依存与词性的中文情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114881042A true CN114881042A (zh) | 2022-08-09 |
CN114881042B CN114881042B (zh) | 2023-05-02 |
Family
ID=82680131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210625855.8A Active CN114881042B (zh) | 2022-06-02 | 2022-06-02 | 基于图卷积网络融合句法依存与词性的中文情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114881042B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115712726A (zh) * | 2022-11-08 | 2023-02-24 | 华南师范大学 | 基于双词嵌入的情感分析方法、装置以及设备 |
CN115758211A (zh) * | 2022-11-10 | 2023-03-07 | 中国电信股份有限公司 | 文本信息分类方法、装置、电子设备和存储介质 |
CN117332788A (zh) * | 2023-11-30 | 2024-01-02 | 山东同其万疆科技创新有限公司 | 一种基于英语口语文本的语义分析方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200034436A1 (en) * | 2018-07-26 | 2020-01-30 | Google Llc | Machine translation using neural network models |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
CN112232087A (zh) * | 2020-10-20 | 2021-01-15 | 中国民航大学 | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 |
CN112732916A (zh) * | 2021-01-11 | 2021-04-30 | 河北工业大学 | 一种基于bert的多特征融合模糊文本分类模型 |
CN112948588A (zh) * | 2021-05-11 | 2021-06-11 | 中国人民解放军国防科技大学 | 一种用于情报快速整编的中文文本分类方法 |
CN113361258A (zh) * | 2021-05-17 | 2021-09-07 | 山东师范大学 | 基于图卷积网络和选择注意力的方面级情感分析方法及系统 |
CN113377908A (zh) * | 2021-06-08 | 2021-09-10 | 四川大学 | 基于可学习多单词对打分器的方面级情感三元组抽取方法 |
CN114492458A (zh) * | 2022-02-25 | 2022-05-13 | 桂林电子科技大学 | 一种基于多头注意力和词共现的方面级情感分析方法 |
-
2022
- 2022-06-02 CN CN202210625855.8A patent/CN114881042B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200034436A1 (en) * | 2018-07-26 | 2020-01-30 | Google Llc | Machine translation using neural network models |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
CN112232087A (zh) * | 2020-10-20 | 2021-01-15 | 中国民航大学 | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 |
CN112732916A (zh) * | 2021-01-11 | 2021-04-30 | 河北工业大学 | 一种基于bert的多特征融合模糊文本分类模型 |
CN112948588A (zh) * | 2021-05-11 | 2021-06-11 | 中国人民解放军国防科技大学 | 一种用于情报快速整编的中文文本分类方法 |
CN113361258A (zh) * | 2021-05-17 | 2021-09-07 | 山东师范大学 | 基于图卷积网络和选择注意力的方面级情感分析方法及系统 |
CN113377908A (zh) * | 2021-06-08 | 2021-09-10 | 四川大学 | 基于可学习多单词对打分器的方面级情感三元组抽取方法 |
CN114492458A (zh) * | 2022-02-25 | 2022-05-13 | 桂林电子科技大学 | 一种基于多头注意力和词共现的方面级情感分析方法 |
Non-Patent Citations (4)
Title |
---|
GEN LI 等: "Sentiment Information based Model For Chinese text Sentiment Analysis" * |
XIAODI WANG 等: "A novel network with multiple attention mechanisms for aspect-level sentiment analysis" * |
杨玉亭;冯林;代磊超;苏菡;: "面向上下文注意力联合学习网络的方面级情感分类模型" * |
王青松: "基于深度学习的文本情感分析研究" * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115712726A (zh) * | 2022-11-08 | 2023-02-24 | 华南师范大学 | 基于双词嵌入的情感分析方法、装置以及设备 |
CN115712726B (zh) * | 2022-11-08 | 2023-09-12 | 华南师范大学 | 基于双词嵌入的情感分析方法、装置以及设备 |
CN115758211A (zh) * | 2022-11-10 | 2023-03-07 | 中国电信股份有限公司 | 文本信息分类方法、装置、电子设备和存储介质 |
CN115758211B (zh) * | 2022-11-10 | 2024-03-01 | 中国电信股份有限公司 | 文本信息分类方法、装置、电子设备和存储介质 |
CN117332788A (zh) * | 2023-11-30 | 2024-01-02 | 山东同其万疆科技创新有限公司 | 一种基于英语口语文本的语义分析方法 |
CN117332788B (zh) * | 2023-11-30 | 2024-03-01 | 山东同其万疆科技创新有限公司 | 一种基于英语口语文本的语义分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114881042B (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110083705B (zh) | 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端 | |
Yao et al. | Bi-directional LSTM recurrent neural network for Chinese word segmentation | |
CN111581401B (zh) | 一种基于深度相关性匹配的局部引文推荐系统及方法 | |
CN108829722A (zh) | 一种远程监督的Dual-Attention关系分类方法及系统 | |
CN114881042B (zh) | 基于图卷积网络融合句法依存与词性的中文情感分析方法 | |
CN110287323B (zh) | 一种面向目标的情感分类方法 | |
Li et al. | A method of emotional analysis of movie based on convolution neural network and bi-directional LSTM RNN | |
CN110796160A (zh) | 一种文本分类方法、装置和存储介质 | |
Irsoy et al. | Bidirectional recursive neural networks for token-level labeling with structure | |
CN115034224A (zh) | 一种融合多种文本语义结构图表示的新闻事件检测方法和系统 | |
Wang et al. | Text categorization with improved deep learning methods | |
CN114254645A (zh) | 一种人工智能辅助写作系统 | |
Marreddy et al. | Multi-task text classification using graph convolutional networks for large-scale low resource language | |
CN114492459A (zh) | 基于知识图谱与交互图卷积的评论情感分析方法及系统 | |
Yao | Attention-based BiLSTM neural networks for sentiment classification of short texts | |
Kumar et al. | An abstractive text summarization technique using transformer model with self-attention mechanism | |
CN111950281B (zh) | 一种基于深度学习和上下文语义的需求实体共指检测方法和装置 | |
CN116562286A (zh) | 一种基于混合图注意力的智能配置事件抽取方法 | |
Cai et al. | Multi-view and attention-based bi-lstm for weibo emotion recognition | |
Lu et al. | Incorporating Lexicons into LSTM for sentiment classification | |
Hsiao et al. | Construction of an artificial intelligence writing model for English based on fusion neural network model | |
CN114154505A (zh) | 一种面向电力规划评审领域的命名实体识别方法 | |
Park et al. | A neural language model for multi-dimensional textual data based on CNN-LSTM network | |
Tolegen et al. | Voted-perceptron approach for Kazakh morphological disambiguation | |
Tho | N/A Modern Approaches in Natural Language Processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |