CN112527966A - 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 - Google Patents

基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 Download PDF

Info

Publication number
CN112527966A
CN112527966A CN202011505978.5A CN202011505978A CN112527966A CN 112527966 A CN112527966 A CN 112527966A CN 202011505978 A CN202011505978 A CN 202011505978A CN 112527966 A CN112527966 A CN 112527966A
Authority
CN
China
Prior art keywords
vector
word
implicit
information
gru
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011505978.5A
Other languages
English (en)
Other versions
CN112527966B (zh
Inventor
付蔚
王榆心
王彦青
张棚
刘庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202011505978.5A priority Critical patent/CN112527966B/zh
Publication of CN112527966A publication Critical patent/CN112527966A/zh
Application granted granted Critical
Publication of CN112527966B publication Critical patent/CN112527966B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于Bi‑GRU神经网络和自注意力机制的网络文本情感分析方法,属于信息技术领域。该方法包括:S1:获取网络文本信息,利用词嵌入向量对文本进行编码;S2:通过Bi‑GRU网络层对句子的前向和后向信息进行汇总,然后对来自这两个方向的信息进行合并得到最终的隐含向量;S3:将得到的隐含向量输入到多层感知器中,得到新的隐含表示,然后计算单词的重要性词级上下文向量,在训练过程中随机初始化并且共同学习;S4:将每个单词的隐含向量乘以其通过自注意力层获得的对应权重,然后通过改进的softmax层进行文本情感分类。本发明能有效提高网络文本情感分类准确性。

Description

基于Bi-GRU神经网络和自注意力机制的网络文本情感分析 方法
技术领域
本发明属于信息技术领域,涉及一种基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法。
背景技术
人们通过文字在互联网下进行交流以传达各自的情感,借助这种广泛的沟通方式,实现了高效而又便捷的信息和价值观传递。故挖掘互联网环境下文字及其传递的情感关系,不仅仅是对促进NLP领域的研究和发展有着推动作用,还对人们实际的生活中有着实在的价值。
情感分析目前是自然语言处理中的一个重要的研究方向,是一个处理、分析、归纳和推理哪些具有情感因素的主观性文本的过程,能够反映人们的观点、情绪、评估对注入产品、服务、组织等实体的态度。对网络文本进行细致的情绪极性分类是文本情感分析中一个重要而又具有挑战性的课题。网络文本可以包含多个方面术语,不同方面术语会产生不同的情感表达。整个句子的极性与方面词和观点词高度相关。此外,如何有效地利用上下文信息和语义特征,以及如何建模方面词与包括意见词在内的上下文词之间的相互关系,是网络文本情感分类面临的两个挑战。
网络文本的情感分类任务大致可以分为三个阶段:数据收集及预处理,特征提取和特征学习。特征提取主要有人工提取和通过学习得到特征。在特征学习过程中,传统的机器学习算法在计算复杂度上优于深度学习算法,但是不能像深度学习算法一样能够学习文本的语义关系。LSTM神经网络在表示句子的语义组成方面有较好的表现,可以更好地捕捉较长的依赖关系。然而,LSTM神经网络只能捕捉句子的前向部分。有时一个句子中一个词的语义仅靠句子的历史信息是不能正确表达的,同时用于LSTM加入了多个门导致参数的增加从而导致计算量的大幅度上升。
因此,亟需一种计算量小且准确性高的文本清关分析方法。
发明内容
有鉴于此,本发明的目的在于提供一种基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法。实现了根据输入的网络文本对其进行向量化处理,利用带有自注意力机制的Bi-GRU神经网络提取文本中的重要特征,再通过改进的softmax层进行文本情绪分类,提高了文本情感分类的准确性。
为达到上述目的,本发明提供如下技术方案:
一种基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法,具体包括以下步骤:
S1:获取网络文本信息,使用Word2vec分布式词嵌入编码方式对输入文本进行编码,将词序列{wi1,wi2,…,win}转换为计算机能够识别的词嵌入向量{w1,w2,…,wn};
S2:通过Bi-GRU网络层对句子的前向和后向信息进行汇总,然后对来自这两个方向的信息进行合并得到最终的Bi-GRU模型的隐含向量;
S3:训练方面词向量,将方面词向量与隐含向量融合,将融合后得到的隐含向量作为输入输入到一个简单的多层感知器中,得到新的隐含表示,然后计算单词的重要性词级上下文向量作为判断句子中不同单词重要性的高维的表示,在训练过程中随机初始化并且共同学习;
S4:通过获得的每个单词的隐含向量乘以其通过自注意力层获得的对应的权重得到一个向量,再将该向量通过改进的softmax分类器中进行文本情感分类,整个过程使用Adam梯度下降的优化方案对损失函数进行优化。
进一步,步骤S2具体包括以下步骤:
S21:将步骤S1得到的词嵌入向量输入到网络中;
S22:构建两个独立的GRU,它们可以对句子的前向和后向信息进行汇总,然后对来自这两个方向的信息进行合并,在这个模型中,两个相反方向的参数是独立的,但是它们共同拥有一个句子的词嵌入;
前向GRU根据前向隐含向量和嵌入输入词计算出一个隐含向量,后向GRU根据后向隐含向量和嵌入输入词计算出一个隐含向量;
S23:将得到的前向隐含向量和后向隐含向量合并到Bi-GRU模型的最终隐含向量中。
进一步,步骤S3具体包括以下步骤:
S31:构建一个简单的多层感知器;
S32:将隐含向量和随机初始向量输入到构建的简单的多层感知器共同学习得到新的隐藏表示ut和上下文向量uw
S33:通过公式
Figure BDA0002844951680000021
计算每个词的注意力权重。
进一步,步骤S32中,将隐含向量和随机初始向量输入到构建的简单的多层感知器共同学习,具体包括:
S321:为每一个方面术语训练一个嵌入向量,假设有k个方面术语e1,e2,…ek,则方面词向量表示为:
Figure BDA0002844951680000031
S322:将方面词向量和隐含向量进行融合得到新的隐含向量,融合的隐含向量表示为:
fi=hi+vat
其中,{h1,h2,…,hn}为隐含向量;
S323:将融合后向量和随机初始向量输入到构建的简单的多层感知器共同学习得到新的隐藏表示ut和上下文向量uw
进一步,步骤S4具体包括以下步骤:
S41:通过自注意力层获得注意力权重;
S42:通过注意力权重与对应隐含向量的加权和来计算句子向量,计算公式为:
Figure BDA0002844951680000032
S43:S表示一个句子向量,可以看作是带有注意力权重的情感特征,将s输入改进的softmax分类器中实现情感分类,改进的softmax函数如下:
Figure BDA0002844951680000033
其中,C′表示减去输入信号中的最大值从而实现溢出抑制。
S44:在模型训练过程中,采用反向传播算法,反向计算每个神经元的误差项值;采用Adam梯度下降的优化方案对损失函数进行优化。
本发明的有益效果在于:本发明在网络文本情感分类中通过Bi-GRU神经网络能够结合上下文对文本情感特征提取更加准确,同时相比于目前最主流的RNN模型LSTM来说,GRU作为LSTM的一种变体,将LSTM中的输入门、输出门和记忆门简化成了更新门和权重门,在继承了LSTM的处理自然语言能力的同时,更少的参数能够大大降低计算量,同时对于给定的一个句子,不是所有上下文词对一个句子的语义都有相同的作用。而且由于句子的情绪极性与句子中的方面词和意见词高度相关。因此,如何在情绪分析中集中注意这些方面的问题就显得尤为重要。然而,标准的Bi-GRU无法识别哪一个是情感分析中更重要的部分。所以加入了方面词的词嵌入向量,引入自我注意力机制,可以抓住句子的重要部分,提高这些部分的特征权重,使得情感分类更加准确。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法的框架图;
图2为Bi-GRU神经网络层模型;
图3为加入自注意力机制的Bi-GRU神经网络模型。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
请参阅图1~图3,图1所示为本发明的基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法的整体模型图,该方法具体包括以下步骤:
步骤S1:获取网络文本信息,使用Word2vec这种分布式词嵌入编码方式对输入文本进行编码,将词序列{wi1,wi2,…,win}转换为计算机能够识别的词嵌入向量{w1,w2,…,wn}。
步骤S2:通过Bi-GRU网络层对句子的前向和后向信息进行汇总,然后对来自这两个方向的信息进行合并得到最终的Bi-GRU模型的隐含向量。
Bi-GRU神经网络层如图2所示,步骤S2具体包括以下步骤:
步骤S21:将得到的词嵌入向量{w1,w2,…,wn}输入到网络中;
步骤S22:构建两个独立的GRU,对于单个GRU单元,其计算如下:
Figure BDA0002844951680000041
zt=σ(Wzxt+UZht-1)
Figure BDA0002844951680000042
rt=σ(Wtxt+Utht-1)
其中,zt是更新门,决定了当前时刻状态和前一时刻状态对输出结构的影响程度,σ代表sigmoid函数;ht表示输出;
Figure BDA0002844951680000043
表示当前的隐藏状态;rt是重置门,受到上一时刻状态ht-1的影响;
Figure BDA0002844951680000051
表示向量对应位置的元素相乘的运算。
构建的两个独立的GRU它们可以对句子的前向和后向信息进行汇总,然后对来自这两个方向的信息进行合并,在这个模型中,两个相反方向的参数是独立的,但是它们共同拥有一个句子的词嵌入。
步骤S23:前向GRU根据前向隐含向量fht-1和嵌入输入词xt计算出一个隐含向量fht,后向GRU根据后向隐含向量bht-1和嵌入输入词xt计算出一个隐含向量bht
步骤S24:将得到的前向隐含向量和后向隐含向量合并到Bi-GRU模型的最终隐含向量中,最终的Bi-GRU隐含向量ht为:ht=[fht,bht]。
步骤S3:训练方面词向量,将方面词向量与隐含向量融合,将融合后得到的隐含向量作为输入输入到一个简单的多层感知器中,得到新的隐含表示,然后计算单词的重要性词级上下文向量作为判断句子中不同单词重要性的高维的表示,在训练过程中随机初始化并且共同学习。
基于自注意力的Bi-GRU神经网络模型如图3所示,步骤S3具体包括:
步骤S31:构建的一个简单的多层感知器。
步骤S32:由于句子的情绪极性与句子中的方面词和意见词高度相关。因此,如何在情绪分析中集中注意这些方面的问题就显得尤为重要。然而,标准的Bi-GRU无法识别哪一个是情感分析中更重要的部分。所以引入自我注意力机制,可以抓住句子的重要部分。图3中{w1,w2,…,wn}表示句子的嵌入词,长度为n,{h1,h2,…,hn}为隐含向量。
Figure BDA0002844951680000054
为注意力权重。为每一个方面术语训练一个嵌入向量,假设有k个方面术语e1,e2,…ek,则方面词向量表示为:
Figure BDA0002844951680000052
步骤S33:将方面词向量和隐含向量进行融合得到新的隐含向量,融合的隐含向量表示为:fi=hi+vat
步骤S34:将得到的隐含向量和随机初始向量输入到构建的简单的多层感知器共同学习得到新的隐藏表示ut和上下文向量uw
步骤S35:通过公式
Figure BDA0002844951680000053
计算每个词的注意力权重。
步骤S4:通过获得的每个单词的隐含向量乘以其通过自注意力层获得的对应的权重得到一个向量,再将该向量通过改进的softmax层进行文本情感分类。
步骤S4具体包括以下步骤:
步骤S41:通过自注意力层获得注意力权重。
步骤S42:通过注意力权重与对应隐藏向量的加权和来计算句子向量,句子向量由公式
Figure BDA0002844951680000061
计算,S表示一个句子向量,可以看作是带有注意力权重的情感特征。
步骤S43:由于softmax函数的运算涉及到了指数计算,由于指数函数容易呈现爆照式的增长,故对于计算机而言会存在溢出的问题,所以对softmax函数进行改进,令改进的softmax函数如下:
Figure BDA0002844951680000062
其中,C′表示减去输入信号中的最大值从而实现溢出抑制。
步骤S44:将S输入的softmax分类器中实现情感分类。
步骤S45:在模型训练过程中,采用反向传播算法,反向计算每个神经元的误差项值,例如递归神经网络的反向传播,Bi-GRU的误差项包括两个方向:一个是沿时间反向传播,另一个是将误差项向上移动一层传播。采用Adam梯度下降的优化方案对损失函数进行优化,其更新迭代公式如下:
Figure BDA0002844951680000063
采用交叉熵误差作为目标函数:
Figure BDA0002844951680000064
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (5)

1.一种基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法,其特征在于,该方法具体包括以下步骤:
S1:获取网络文本信息,使用Word2vec分布式词嵌入编码方式对输入文本进行编码,将词序列{wi1,wi2,…,win}转换为计算机能够识别的词嵌入向量{w1,w2,…,wn};
S2:通过Bi-GRU网络层对句子的前向和后向信息进行汇总,然后对来自这两个方向的信息进行合并得到最终的Bi-GRU模型的隐含向量;
S3:训练方面词向量,将方面词向量与隐含向量融合,将融合后得到的隐含向量作为输入输入到多层感知器中,得到新的隐含表示,然后计算单词的重要性词级上下文向量作为判断句子中不同单词重要性的高维的表示,在训练过程中随机初始化并且共同学习;
S4:通过获得的每个单词的隐含向量乘以其通过自注意力层获得的对应的权重得到一个向量,再将该向量通过改进的softmax分类器中进行文本情感分类,整个过程使用Adam梯度下降的优化方案对损失函数进行优化。
2.根据权利要求1所述的网络文本情感分析方法,其特征在于,步骤S2具体包括以下步骤:
S21:将步骤S1得到的词嵌入向量输入到网络中;
S22:构建两个独立的GRU,对句子的前向和后向信息进行汇总,然后对来自这两个方向的信息进行合并;
前向GRU根据前向隐含向量和嵌入输入词计算出一个隐含向量,后向GRU根据后向隐含向量和嵌入输入词计算出一个隐含向量;
S23:将得到的前向隐含向量和后向隐含向量合并到Bi-GRU模型的最终隐含向量中。
3.根据权利要求1所述的网络文本情感分析方法,其特征在于,步骤S3具体包括以下步骤:
S31:构建一个简单的多层感知器;
S32:将隐含向量和随机初始向量输入到构建的简单的多层感知器共同学习得到新的隐藏表示ut和上下文向量uw
S33:通过公式
Figure FDA0002844951670000011
计算每个词的注意力权重。
4.根据权利要求3所述的网络文本情感分析方法,其特征在于,步骤S32中,将隐含向量和随机初始向量输入到构建的简单的多层感知器共同学习,具体包括:
S321:为每一个方面术语训练一个嵌入向量,假设有k个方面术语e1,e2,...ek,则方面词向量表示为:
Figure FDA0002844951670000021
S322:将方面词向量和隐含向量进行融合得到新的隐含向量,融合的隐含向量表示为:
fi=hi+vat
其中,{h1,h2,…,hn}为隐含向量;
S323:将融合后向量和随机初始向量输入到构建的简单的多层感知器共同学习得到新的隐藏表示ut和上下文向量uw
5.根据权利要求4所述的网络文本情感分析方法,其特征在于,步骤S4具体包括以下步骤:
S41:通过自注意力层获得注意力权重;
S42:通过注意力权重与对应隐含向量的加权和来计算句子向量,计算公式为:
Figure FDA0002844951670000022
S43:将s输入改进的softmax分类器中实现情感分类,改进的softmax函数如下:
Figure FDA0002844951670000023
其中,C′表示减去输入信号中的最大值;
S44:在模型训练过程中,采用反向传播算法,反向计算每个神经元的误差项值;采用Adam梯度下降的优化方案对损失函数进行优化。
CN202011505978.5A 2020-12-18 2020-12-18 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 Active CN112527966B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011505978.5A CN112527966B (zh) 2020-12-18 2020-12-18 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011505978.5A CN112527966B (zh) 2020-12-18 2020-12-18 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法

Publications (2)

Publication Number Publication Date
CN112527966A true CN112527966A (zh) 2021-03-19
CN112527966B CN112527966B (zh) 2022-09-20

Family

ID=75001881

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011505978.5A Active CN112527966B (zh) 2020-12-18 2020-12-18 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法

Country Status (1)

Country Link
CN (1) CN112527966B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435211A (zh) * 2021-07-19 2021-09-24 北京理工大学 一种结合外部知识的文本隐式情感分析方法
CN113723287A (zh) * 2021-08-30 2021-11-30 平安科技(深圳)有限公司 基于双向循环神经网络的微表情识别方法、装置及介质
CN114186063A (zh) * 2021-12-14 2022-03-15 合肥工业大学 跨域文本情绪分类模型的训练方法和分类方法
CN115022194A (zh) * 2022-05-24 2022-09-06 桂林电子科技大学 基于sa-gru的网络安全态势预测方法
CN115758211A (zh) * 2022-11-10 2023-03-07 中国电信股份有限公司 文本信息分类方法、装置、电子设备和存储介质
CN116894115A (zh) * 2023-06-12 2023-10-17 国网湖北省电力有限公司经济技术研究院 一种电网基建档案自动归档方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740349A (zh) * 2016-01-25 2016-07-06 重庆邮电大学 一种结合Doc2vec和卷积神经网络的情感分类方法
CN109389091A (zh) * 2018-10-22 2019-02-26 重庆邮电大学 基于神经网络和注意力机制结合的文字识别系统及方法
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法
CN110069778A (zh) * 2019-04-18 2019-07-30 东华大学 中文融入嵌入词位置感知的商品情感分析方法
CN110083833A (zh) * 2019-04-18 2019-08-02 东华大学 中文字词向量和方面词向量联合嵌入情感分析方法
US20200159863A1 (en) * 2018-11-20 2020-05-21 Sap Se Memory networks for fine-grain opinion mining
CN111324739A (zh) * 2020-05-15 2020-06-23 支付宝(杭州)信息技术有限公司 一种文本情感分析方法及系统
CN111428004A (zh) * 2020-03-26 2020-07-17 辽宁工程技术大学 一种融合辅助信息与层级自注意力循环神经网络方面的情感分析方法
CN111783474A (zh) * 2020-07-16 2020-10-16 厦门市美亚柏科信息股份有限公司 一种评论文本观点信息处理方法、装置及存储介质
CN111813895A (zh) * 2020-08-07 2020-10-23 深圳职业技术学院 一种基于层次注意力机制和门机制的属性级别情感分析方法
CN111985205A (zh) * 2020-08-05 2020-11-24 重庆大学 一种方面级情感分类模型
CN112001187A (zh) * 2020-08-26 2020-11-27 重庆理工大学 一种基于中文句法和图卷积神经网络的情感分类系统
WO2020238783A1 (zh) * 2019-05-28 2020-12-03 腾讯科技(深圳)有限公司 一种信息处理方法、装置及存储介质
CN112861522A (zh) * 2021-02-01 2021-05-28 合肥工业大学 基于双重注意力机制的方面级情感分析方法、系统及模型

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740349A (zh) * 2016-01-25 2016-07-06 重庆邮电大学 一种结合Doc2vec和卷积神经网络的情感分类方法
CN109389091A (zh) * 2018-10-22 2019-02-26 重庆邮电大学 基于神经网络和注意力机制结合的文字识别系统及方法
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法
US20200159863A1 (en) * 2018-11-20 2020-05-21 Sap Se Memory networks for fine-grain opinion mining
CN110069778A (zh) * 2019-04-18 2019-07-30 东华大学 中文融入嵌入词位置感知的商品情感分析方法
CN110083833A (zh) * 2019-04-18 2019-08-02 东华大学 中文字词向量和方面词向量联合嵌入情感分析方法
WO2020238783A1 (zh) * 2019-05-28 2020-12-03 腾讯科技(深圳)有限公司 一种信息处理方法、装置及存储介质
CN111428004A (zh) * 2020-03-26 2020-07-17 辽宁工程技术大学 一种融合辅助信息与层级自注意力循环神经网络方面的情感分析方法
CN111324739A (zh) * 2020-05-15 2020-06-23 支付宝(杭州)信息技术有限公司 一种文本情感分析方法及系统
CN111783474A (zh) * 2020-07-16 2020-10-16 厦门市美亚柏科信息股份有限公司 一种评论文本观点信息处理方法、装置及存储介质
CN111985205A (zh) * 2020-08-05 2020-11-24 重庆大学 一种方面级情感分类模型
CN111813895A (zh) * 2020-08-07 2020-10-23 深圳职业技术学院 一种基于层次注意力机制和门机制的属性级别情感分析方法
CN112001187A (zh) * 2020-08-26 2020-11-27 重庆理工大学 一种基于中文句法和图卷积神经网络的情感分类系统
CN112861522A (zh) * 2021-02-01 2021-05-28 合肥工业大学 基于双重注意力机制的方面级情感分析方法、系统及模型

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
C JIANG等: "Speech Emotion Recognition based on DCNN BiGRU Self-attention Model", 《2020 INTERNATIONAL CONFERENCE ON INFORMATION SCIENCE, PARALLEL AND DISTRIBUTED SYSTEMS (ISPDS)》 *
J TANG等: "Progressive Self-Supervised Attention Learning for Aspect-Level Sentiment Analysis", 《PROCEEDINGS OF THE 57TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》 *
季威志: "基于BiGRU-CNN-Attention模型的股市评论情感分析", 《工业控制计算机》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435211A (zh) * 2021-07-19 2021-09-24 北京理工大学 一种结合外部知识的文本隐式情感分析方法
CN113723287A (zh) * 2021-08-30 2021-11-30 平安科技(深圳)有限公司 基于双向循环神经网络的微表情识别方法、装置及介质
CN114186063A (zh) * 2021-12-14 2022-03-15 合肥工业大学 跨域文本情绪分类模型的训练方法和分类方法
CN114186063B (zh) * 2021-12-14 2024-06-21 合肥工业大学 跨域文本情绪分类模型的训练方法和分类方法
CN115022194A (zh) * 2022-05-24 2022-09-06 桂林电子科技大学 基于sa-gru的网络安全态势预测方法
CN115022194B (zh) * 2022-05-24 2023-09-26 桂林电子科技大学 基于sa-gru的网络安全态势预测方法
CN115758211A (zh) * 2022-11-10 2023-03-07 中国电信股份有限公司 文本信息分类方法、装置、电子设备和存储介质
CN115758211B (zh) * 2022-11-10 2024-03-01 中国电信股份有限公司 文本信息分类方法、装置、电子设备和存储介质
CN116894115A (zh) * 2023-06-12 2023-10-17 国网湖北省电力有限公司经济技术研究院 一种电网基建档案自动归档方法
CN116894115B (zh) * 2023-06-12 2024-05-24 国网湖北省电力有限公司经济技术研究院 一种电网基建档案自动归档方法

Also Published As

Publication number Publication date
CN112527966B (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN112527966B (zh) 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN111275085B (zh) 基于注意力融合的在线短视频多模态情感识别方法
CN110929030B (zh) 一种文本摘要和情感分类联合训练方法
US11862145B2 (en) Deep hierarchical fusion for machine intelligence applications
Wen et al. Dynamic interactive multiview memory network for emotion recognition in conversation
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN110866542B (zh) 一种基于特征可控融合的深度表示学习方法
CN111966800B (zh) 情感对话生成方法、装置及情感对话模型训练方法、装置
CN111159368A (zh) 一种个性化对话的回复生成方法
CN110991290B (zh) 基于语义指导与记忆机制的视频描述方法
CN113435211B (zh) 一种结合外部知识的文本隐式情感分析方法
CN112883714B (zh) 基于依赖图卷积和迁移学习的absc任务句法约束方法
CN112784532B (zh) 用于短文本情感分类的多头注意力记忆系统
CN111985205A (zh) 一种方面级情感分类模型
CN111127146A (zh) 基于卷积神经网络与降噪自编码器的信息推荐方法及系统
CN113139850A (zh) 一种缓解数据稀疏性和商品冷启动的商品推荐模型
CN111914553B (zh) 一种基于机器学习的金融信息负面主体判定的方法
CN113408430A (zh) 基于多级策略和深度强化学习框架的图像中文描述系统及方法
CN116579347A (zh) 一种基于动态语义特征融合的评论文本情感分析方法、系统、设备及介质
CN115935975A (zh) 一种情感可控的新闻评论生成方法
CN113887836B (zh) 一种融合事件环境信息的叙述性事件预测方法
CN117033602A (zh) 一种多模态的用户心智感知问答模型的构建方法
CN114036298B (zh) 一种基于图卷积神经网络与词向量的节点分类方法
CN113868374B (zh) 基于多头注意力机制的图卷积网络生物医学信息提取方法
CN114328866A (zh) 应答流畅准确的强拟人化智能对话机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant