CN113435211A - 一种结合外部知识的文本隐式情感分析方法 - Google Patents

一种结合外部知识的文本隐式情感分析方法 Download PDF

Info

Publication number
CN113435211A
CN113435211A CN202110811087.0A CN202110811087A CN113435211A CN 113435211 A CN113435211 A CN 113435211A CN 202110811087 A CN202110811087 A CN 202110811087A CN 113435211 A CN113435211 A CN 113435211A
Authority
CN
China
Prior art keywords
representing
knowledge
word
representation
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110811087.0A
Other languages
English (en)
Other versions
CN113435211B (zh
Inventor
史树敏
邬成浩
黄河燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202110811087.0A priority Critical patent/CN113435211B/zh
Publication of CN113435211A publication Critical patent/CN113435211A/zh
Application granted granted Critical
Publication of CN113435211B publication Critical patent/CN113435211B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种结合外部知识的文本隐式情感分析方法,属于自然语言处理情感分析技术领域。本方法利用TransE模型对常识知识数据集预训练。对常识知识数据集中的每个知识子图,通过注意力机制计算每个知识子图的向量表示。对于需要进行隐式情感分析的句子采用预训练的单词特征向量表示文本序列中的每个单词的向量化表示,并与知识图特征向量表示进行拼接,得到结合外部知识的单词融合特征表示。使用双向长短时记忆网络对融合外部知识的单词表示进行句子层面的文本编码。通过注意力机制决定每个词语在表示学习过程中的重要性。最后将句子表示通过Softmax层计算对应的概率向量。本方法丰富了句子语义表达,更好建模句子表示,提升了文本隐式情感分析性能。

Description

一种结合外部知识的文本隐式情感分析方法
技术领域
本发明涉及一种结合外部知识的隐式情感分析方法,具体涉及一种利用外部常识知识库中抽取到的信息有效识别文本中的隐式情感的方法,属于自然语言处理情感分析技术领域。
背景技术
近年来,随着互联网及社交网络的发展,文本情感分析已成为自然语言处理领域最热门的研究方向之一。全面、精确地理解文本所表达的情感,能够应用于股市预测、客户反馈跟踪、意见挖掘等众多场景,产生广泛的社会效益。
文本情感分析,是对带有情感色彩的主观性文本进行分析、处理、归纳和推理的过程。从文本的语言表达层面,可划分为显式情感分析和隐式情感分析。其中,隐式情感分析被定义为“不含有显式情感词,但表达了主观情感的语言片段(句子,从句或短语)”。
目前,显式情感分析作为该领域的基础性研究内容,已经取得了许多丰硕的成果,而隐式情感分析研究仍处于起步阶段。在日常表达中,人们在对客观事物体验及其行为所反映出的情感是丰富而抽象的,除采用显式情感词表达情感外,还采用客观陈述或修辞方式来隐式地表达自己的情感。通过对隐式情感分析的研究,能够更全面、更精确得提升文本情感分析的性能,可以为文本表示学习、自然语言理解、用户建模、知识嵌入等方面研究起到积极的推动作用,也可进一步促进基于文本情感分析相关领域的应用和产业的快速发展。
目前,现有的隐式情感分析方法,主要是围绕文本语义信息、句法信息及上下文信息编码上,通过融合多层次的信息进行隐式情感的识别。然而,由于隐式情感文本本身所提供的信息不足,仅对隐式情感文本建模,无法有效捕获隐藏的情感特征。
发明内容
本发明的目的是针对现有技术没有充分弥补隐式情感文本有效信息不足的缺陷,为解决有效捕获文本隐藏的情感特征的技术问题,提出了一种结合外部知识的文本隐式情感分析方法。
首先,对有关概念进行说明:
定义1:知识图谱G
指由实体(节点)和关系(不同类型的边)组成的多关系图。
知识图谱G由多个子图构成,其表达式为:
Figure BDA0003168196670000021
代表一系列知识子图的集合。
定义2:文本序列s
其表达式为:{s=w1,w2,...,wN},表示需要进行情感分析的句子,该句子中有N个单词w1,w2,...,wN,下标N为句子单词序列长度,w代表单词。
定义3:输入文本序列的单词特征向量
指将输入文本序列向量化所使用的预训练向量,包括语义向量和位置向量。其中,语义向量指当前单词的语义特征信息,位置向量指当前单词在文本序列的位置特征信息。
定义4:注意力
指为了合理利用有限的视觉信息处理资源,人类需要选择视觉区域中的特定部分,然后集中关注它的现象。
人工智能利用这一现象,提出使得神经网络具备选择特定的输入的能力。本方法中,注意力体现在:
(1)若知识图谱中关系(边)和实体(节点)的相关性更高,则赋予其更高的权重;
(2)若句子中的单词与当前句的表示更相关,则赋予这个词更高的权重。
本发明采用以下技术方案实现。
一种结合外部知识的文本隐式情感分析方法,包括以下步骤:
步骤1:利用TransE模型(知识图谱领域的一种经典模型),对常识知识数据集进行预训练,得到实体嵌入和关系嵌入。
其中,所述常识知识数据集,是通过挑选ConceptNet中满足条件的<头实体-关系-尾实体>三元组构建组成的知识图。
ConceptNet是一个开放的、多语言的知识图谱,专注于单词和短语的含义相关的一般知识,能够表示短语的含义之间的众所周知的关系。
所述实体嵌入,是指知识图谱中的实体用低维向量的表示。
所述关系嵌入,是指知识图谱中的关系用低维向量的表示。
步骤2:对常识知识数据集中的每一个知识子图,通过注意力机制,计算每个知识子图的向量表示gi
方法如下:
Figure BDA0003168196670000031
Figure BDA0003168196670000032
Figure BDA0003168196670000033
其中,gi代表知识图谱G中的第i个知识子图,其表达式为:
Figure BDA0003168196670000034
Figure BDA0003168196670000035
代表一系列三元组的集合,
Figure BDA0003168196670000036
表示第i个知识子图中三元组的个数。τi代表子图中的第i个<头实体-关系-尾实体>三元组,表达式为:τi=(h,r,t),h代表头实体,r代表关系,t代表尾实体。
Figure BDA0003168196670000041
表示第n个三元组在整个知识子图中的注意力权重,即第n个三元组在整个知识子图中的重要性。
Figure BDA0003168196670000042
表示第n个三元组的整体向量表示。s表示文本序列。T表示矩阵转置。Wh、Wr、Wt分别是是第n个三元组中头实体hn、关系rn、尾实体tn的权重矩阵。
步骤3:对于输入的需要进行隐式情感分析的句子,即文本序列,采用预训练的单词特征向量来表示文本序列中的每个单词的向量化表示,并与步骤2中获得的每个词为核心实体的知识图特征向量表示进行拼接,得到结合外部知识的单词融合特征表示。
其中,每个单词的语义表示、位置表示的加和,作为单词特征向量,从而得到文本序列中各个词对应的特征向量。
步骤4:使用双向长短时记忆网络LSTM,对步骤3得到的融合外部知识的单词表示进行句子层面的文本编码。
其中,长短时记忆网络按照式3至式7,进行网络中节点状态计算:
i(t)=δ(Uix(t)+Wih(t-1)+bi) (3)
f(t)=δ(Ufx(t)+Wfh(t-1)+bf) (4)
o(t)=δ(Uox(t)+Woh(t-1)+bo) (5)
c(t)=f(t)⊙c(t-1)+i(t)⊙tanh(Ucx(t)+Wch(t-1)+bc) (6)
h(t)=o(t)⊙tanh(c(t)) (7)
其中,x(t),i(t),f(t),o(t),c(t)及h(t)分别表示LSTM在时刻t下的输入向量、输入门状态、遗忘门状态、输出门状态、内存单元状态和隐藏层状态。W、U、b分别代表循环网络结构的参数、输入结构的参数及偏差项参数。符号⊙表示元素积。可以根据模型的输出得到对应时刻t下每个句子的序列表示向量。δ()表示sigmoid函数。bi表示计算输入门状态时的偏差项参数,bf表示计算遗忘门状态时的偏差项参数,bo表示计算输出门状态时的偏差项参数,bc表示计算内存单元状态时的偏差项参数。Ui表示计算输入门状态时输入向量的权重矩阵,Uf表示计算遗忘门状态时输入向量的权重矩阵,Uo表示计算输出门状态时输入向量的权重矩阵,Uc表示计算内存单元状态时输入向量的权重矩阵。Wi表示计算输入门状态时隐藏层状态的权重矩阵,Wf表示计算遗忘门状态时隐藏层状态的权重矩阵,Wo表示计算输出门状态时隐藏层状态的权重矩阵,Wc表示计算内存单元状态时隐藏层状态的权重矩阵。
为了获取每个词相关的前文和后文的信息,使用双向LSTM对序列编码,将前向和后向LSTM得到的序列的第i个元素的表示向量拼接,得到最终的表示hi。公式如下:
Figure BDA0003168196670000051
Figure BDA0003168196670000052
Figure BDA0003168196670000053
其中,
Figure BDA0003168196670000054
表示前向LSTM网络输出的第i个元素的隐状态表示,
Figure BDA0003168196670000055
表示前向LSTM网络,di表示输入序列中第i个元素的表示,L表示句子中所包含的词语个数。
Figure BDA0003168196670000056
表示后向LSTM网络输出的第i个元素的隐状态表示,
Figure BDA0003168196670000057
表示后向LSTM网络。
步骤5:通过注意力Attention机制决定步骤4中每个词语在表示学习过程中的重要性。
计算每个词语的注意力得分ai
Figure BDA0003168196670000058
其中,hi表示输入序列中第i个元素的表示,hj表示输入序列中第j个元素的表示;L为句子中所包含的词语个数;Wa为Attention层的参数矩阵,每个句子表示为一组词序列,进一步表示为词序列中各个经过连接后的词表示的加权平均,其中的权值即为式11计算出的Attention值。
具体地,每个句子的表示v为如下形式,其中L为句子中所包含的词语个数:
Figure BDA0003168196670000061
步骤6:将步骤5中的句子表示,通过Softmax层计算对应的概率向量。
所述概率向量Y的每一个元素表示对应句子的特定隐式情感的概率,计算公式如下:
Figure BDA0003168196670000062
其中,yi表示句子为第i种隐式情感的概率,wi表示第i个权重参数,wj表示第j个权重参数;bi表示第i个偏差项参数,bj表示第j个偏差项参数;K表示概率向量的维度;vT表示句子表示v的转置。
在得到每个句子对应的概率向量后,使用交叉熵作为损失函数,使用梯度下降的方式对参数进行更新,最小化模型的预测误差。
至此,从步骤1到步骤6,得到了给定句子的隐式情感概率,完成了结合外部知识的隐式情感分析。
有益效果
本发明方法,对比现有技术,具有以下优点:
本方法考虑到隐式情感句本身有效信息不足的问题,利用外部常识知识库对隐式情感句的信息进行扩充,丰富了句子的语义表达,可以更好地建模句子表示,提升隐式情感分析性能。
附图说明
图1为本发明方法的流程图。
具体实施方式
下面将结合说明书附图对及实施例对本发明方法作进一步详细说明。
如图1所示,本发明包括以下步骤:
步骤A:预训练实体、关系嵌入;
具体到本实施例中,通过抽取到的常识知识数据集,预训练得到100维的实体嵌入和关系嵌入,具体与发明内容步骤1相同;
步骤B:计算知识图的表示;
具体到本实施例中,对每一个实体,以该实体为核心,通过常识知识数据集中的三元组,抽取到与该实体直接相连的知识子图,并通过注意力机制计算得到当前实体为核心的知识子图表示,具体与发明内容步骤2相同;
步骤C:获得句子中词的融合特征表示;
具体到本实施例中,将所需进行隐式情感分析的句子中每个单词的单词特征向量和当前单词为核心的知识子图表示拼接得到融合特征表示,具体与发明内容步骤3相同;
步骤D:双向LSTM编码器训练;
具体到本实施例中,与发明内容步骤4相同;
步骤E:注意力网络训练:
具体到本实施例中,与发明内容步骤5相同;
步骤F:计算隐式情感概率;
具体到本实施例中,与发明内容步骤6相同。
实施例
以隐式情感句“I was asked to attend my best friend’s funeral”为实施例,本实施例将以具体实例对本发明所述的一种结合外部知识的隐式情感分析方法的具体操作步骤进行详细说明;
一种结合外部知识的隐式情感分析方法的处理流程如图1所示;从图1可以看出,一种结合外部知识的隐式情感分析方法,包括以下步骤:
步骤A:预训练实体、关系嵌入;
具体到本实施例中,通过TransE模型与训练从ConceptNet常识知识库中抽取所有英文实体而构成的常识知识数据集,得到数据集中所有实体的100维嵌入和关系的100维嵌入。
步骤B:计算知识图的表示;
具体到本实施例“I was asked to attend my best friend’s funeral”中,计算句子中每个单词为核心实体的知识子图表示,以单词funeral为例,抽取出以其为核心实体的知识子图(funeral,Synonyms,obsequy),(funeral,CausesOf,killing),(funeral,CausesOf,dying),(funeral,EffectsOf,sadness),通过注意力机制计算funeral的知识子图表示;
步骤C:获得句子中词的融合特征表示;
获取当前句子中每个词在大规模文本数据集上预训练的Word2Vec单词特征向量,并与每个词的知识子图表示进行拼接得到词的融合特征表示;
步骤D:双向LSTM编码器训练;
具体到本实施例中,将I was asked to attend my best friend’s funeral输入到双向LSTM编码其中,获得融合上下文信息的每个词的表示;
步骤E:注意力网络训练:
具体到本实施例中,通过注意力机制决定每个词语在表示学习过程中的重要性。计算每个词语的注意力得分,并作为权重计算得句子的最终表示;
步骤F:计算隐式情感概率;
具体到本实施例中,通过将句子表示输入Softmax层计算对应的概率向量,得到句子最有可能所属的隐式情感。

Claims (3)

1.一种结合外部知识的文本隐式情感分析方法,首先,对有关概念进行说明:
定义1:知识图谱G,指由实体和关系组成的多关系图;
知识图谱G由多个子图构成,其表达式为:
Figure FDA0003168196660000011
代表一系列知识子图的集合;
定义2:文本序列s
其表达式为:{s=w1,w2,...,wN},表示需要进行情感分析的句子,该句子中有N个单词w1,w2,...,wN,下标N为句子单词序列长度,w代表单词;
定义3:输入文本序列的单词特征向量
指将输入文本序列向量化所使用的预训练向量,包括语义向量和位置向量;其中,语义向量指当前单词的语义特征信息,位置向量指当前单词在文本序列的位置特征信息;
定义4:注意力
指为了合理利用有限的视觉信息处理资源,人类需要选择视觉区域中的特定部分,然后集中关注它的现象;
注意力体现在:
若知识图谱中关系和实体的相关性更高,则赋予其更高的权重;
若句子中的单词与当前句的表示更相关,则赋予这个词更高的权重;
其特征在于,包括以下步骤:
步骤1:利用TransE模型,对常识知识数据集进行预训练,得到实体嵌入和关系嵌入;
其中,所述常识知识数据集,是通过挑选知识图谱中满足条件的<头实体-关系-尾实体>三元组构建组成的知识图;
所述实体嵌入,是指知识图谱中的实体用低维向量的表示;
所述关系嵌入,是指知识图谱中的关系用低维向量的表示;
步骤2:对常识知识数据集中的每一个知识子图,通过注意力机制,计算每个知识子图的向量表示gi,方法如下:
Figure FDA0003168196660000021
Figure FDA0003168196660000022
Figure FDA0003168196660000023
其中,gi代表知识图谱G中的第i个知识子图,其表达式为:
Figure FDA0003168196660000024
Figure FDA0003168196660000025
代表一系列三元组的集合,
Figure FDA0003168196660000028
表示第i个知识子图中三元组的个数;τi代表子图中的第i个<头实体-关系-尾实体>三元组,表达式为:τi=(h,r,t),h代表头实体,r代表关系,t代表尾实体;
Figure FDA0003168196660000026
表示第n个三元组在整个知识子图中的注意力权重,即第n个三元组在整个知识子图中的重要性;
Figure FDA0003168196660000027
表示第n个三元组的整体向量表示;s表示文本序列;T表示矩阵转置;Wh、Wr、Wt分别是是第n个三元组中头实体hn、关系rn、尾实体tn的权重矩阵。
步骤3:对于输入的需要进行隐式情感分析的句子,即文本序列,采用预训练的单词特征向量来表示文本序列中的每个单词的向量化表示,并与步骤2中获得的每个词为核心实体的知识图特征向量表示进行拼接,得到结合外部知识的单词融合特征表示;
其中,每个单词的语义表示、位置表示的加和,作为单词特征向量,从而得到文本序列中各个词对应的特征向量;
步骤4:使用双向长短时记忆网络LSTM,对步骤3得到的融合外部知识的单词表示进行句子层面的文本编码;
其中,长短时记忆网络按照式3至式7,进行网络中节点状态计算:
i(t)=δ(Uix(t)+Wih(t-1)+bi) (3)
f(t)=δ(Ufx(t)+Wfh(t-1)+bf) (4)
o(t)=δ(Uox(t)+Woh(t-1)+bo) (5)
c(t)=f(t)⊙c(t-1)+i(t)⊙tanh(Ucx(t)+Wch(t-1)+bc) (6)
h(t)=o(t)⊙tanh(c(t)) (7)
其中,x(t),i(t),f(t),o(t),c(t)及h(t)分别表示LSTM在时刻t下的输入向量、输入门状态、遗忘门状态、输出门状态、内存单元状态和隐藏层状态;W、U、b分别代表循环网络结构的参数、输入结构的参数及偏差项参数;符号⊙表示元素积;可以根据模型的输出得到对应时刻t下每个句子的序列表示向量;δ()表示sigmoid函数;bi表示计算输入门状态时的偏差项参数,bf表示计算遗忘门状态时的偏差项参数,bo表示计算输出门状态时的偏差项参数,bc表示计算内存单元状态时的偏差项参数;Ui表示计算输入门状态时输入向量的权重矩阵,Uf表示计算遗忘门状态时输入向量的权重矩阵,Uo表示计算输出门状态时输入向量的权重矩阵,Uc表示计算内存单元状态时输入向量的权重矩阵;Wi表示计算输入门状态时隐藏层状态的权重矩阵,Wf表示计算遗忘门状态时隐藏层状态的权重矩阵,Wo表示计算输出门状态时隐藏层状态的权重矩阵,Wc表示计算内存单元状态时隐藏层状态的权重矩阵;
为了获取每个词相关的前文和后文的信息,使用双向LSTM对序列编码,将前向和后向LSTM得到的序列的第i个元素的表示向量拼接,得到最终的表示hi,公式如下:
Figure FDA0003168196660000031
Figure FDA0003168196660000032
Figure FDA0003168196660000041
其中,
Figure FDA0003168196660000042
表示前向LSTM网络输出的第i个元素的隐状态表示,
Figure FDA0003168196660000043
表示前向LSTM网络,di表示输入序列中第i个元素的表示,L表示句子中所包含的词语个数;
Figure FDA0003168196660000044
表示后向LSTM网络输出的第i个元素的隐状态表示,
Figure FDA0003168196660000045
表示后向LSTM网络;
步骤5:通过注意力Attention机制决定步骤4中每个词语在表示学习过程中的重要性;
步骤6:将步骤5中的句子表示,通过Softmax层计算对应的概率向量;
在得到每个句子对应的概率向量后,使用交叉熵作为损失函数,使用梯度下降的方式对参数进行更新,最小化模型的预测误差。
2.如权利要求1所述的一种结合外部知识的文本隐式情感分析方法,其特征在于,步骤5的实现方法如下:
计算每个词语的注意力得分ai
Figure FDA0003168196660000046
其中,hi表示输入序列中第i个元素的表示,hj表示输入序列中第j个元素的表示;L为句子中所包含的词语个数;Wa为Attention层的参数矩阵,每个句子表示为一组词序列,进一步表示为词序列中各个经过连接后的词表示的加权平均,其中的权值即为式11计算出的Attention值;
每个句子的表示v为如下形式,其中L为句子中所包含的词语个数:
Figure FDA0003168196660000047
3.如权利要求1所述的一种结合外部知识的文本隐式情感分析方法,其特征在于,步骤6中,概率向量的每一个元素表示对应句子的特定隐式情感的概率,计算公式如下:
Figure FDA0003168196660000051
其中,yi表示句子为第i种隐式情感的概率,wi表示第i个权重参数,wj表示第j个权重参数;bi表示第i个偏差项参数,bj表示第j个偏差项参数;K表示概率向量的维度;vT表示句子表示v的转置。
CN202110811087.0A 2021-07-19 2021-07-19 一种结合外部知识的文本隐式情感分析方法 Active CN113435211B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110811087.0A CN113435211B (zh) 2021-07-19 2021-07-19 一种结合外部知识的文本隐式情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110811087.0A CN113435211B (zh) 2021-07-19 2021-07-19 一种结合外部知识的文本隐式情感分析方法

Publications (2)

Publication Number Publication Date
CN113435211A true CN113435211A (zh) 2021-09-24
CN113435211B CN113435211B (zh) 2022-07-19

Family

ID=77760833

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110811087.0A Active CN113435211B (zh) 2021-07-19 2021-07-19 一种结合外部知识的文本隐式情感分析方法

Country Status (1)

Country Link
CN (1) CN113435211B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688212A (zh) * 2021-10-27 2021-11-23 华南师范大学 句子情感分析方法、装置以及设备
CN114547312A (zh) * 2022-04-07 2022-05-27 华南师范大学 基于常识知识图谱的情感分析方法、装置以及设备
CN115618045A (zh) * 2022-12-16 2023-01-17 华南理工大学 一种视觉问答方法、装置及存储介质
CN115905518A (zh) * 2022-10-17 2023-04-04 华南师范大学 基于知识图谱的情感分类方法、装置、设备以及存储介质
CN116108856A (zh) * 2023-02-14 2023-05-12 华南理工大学 基于长短回路认知与显隐情感交互的情感识别方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN110069778A (zh) * 2019-04-18 2019-07-30 东华大学 中文融入嵌入词位置感知的商品情感分析方法
CN111274396A (zh) * 2020-01-20 2020-06-12 福州大学 一种基于外部知识的视角级文本情感分类方法及系统
CN112527966A (zh) * 2020-12-18 2021-03-19 重庆邮电大学 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN113010693A (zh) * 2021-04-09 2021-06-22 大连民族大学 融合指针生成网络的知识图谱智能问答方法
US20210192364A1 (en) * 2019-12-17 2021-06-24 Beijing Baidu Netcom Science Technology Co., Ltd. Representation learning method and device based on natural language and knowledge graph

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN110069778A (zh) * 2019-04-18 2019-07-30 东华大学 中文融入嵌入词位置感知的商品情感分析方法
US20210192364A1 (en) * 2019-12-17 2021-06-24 Beijing Baidu Netcom Science Technology Co., Ltd. Representation learning method and device based on natural language and knowledge graph
CN111274396A (zh) * 2020-01-20 2020-06-12 福州大学 一种基于外部知识的视角级文本情感分类方法及系统
CN112527966A (zh) * 2020-12-18 2021-03-19 重庆邮电大学 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN113010693A (zh) * 2021-04-09 2021-06-22 大连民族大学 融合指针生成网络的知识图谱智能问答方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688212A (zh) * 2021-10-27 2021-11-23 华南师范大学 句子情感分析方法、装置以及设备
CN113688212B (zh) * 2021-10-27 2022-02-08 华南师范大学 句子情感分析方法、装置以及设备
CN114547312A (zh) * 2022-04-07 2022-05-27 华南师范大学 基于常识知识图谱的情感分析方法、装置以及设备
CN115905518A (zh) * 2022-10-17 2023-04-04 华南师范大学 基于知识图谱的情感分类方法、装置、设备以及存储介质
CN115905518B (zh) * 2022-10-17 2023-10-20 华南师范大学 基于知识图谱的情感分类方法、装置、设备以及存储介质
CN115618045A (zh) * 2022-12-16 2023-01-17 华南理工大学 一种视觉问答方法、装置及存储介质
CN116108856A (zh) * 2023-02-14 2023-05-12 华南理工大学 基于长短回路认知与显隐情感交互的情感识别方法及系统

Also Published As

Publication number Publication date
CN113435211B (zh) 2022-07-19

Similar Documents

Publication Publication Date Title
CN113435211B (zh) 一种结合外部知识的文本隐式情感分析方法
CN111783474B (zh) 一种评论文本观点信息处理方法、装置及存储介质
CN111159368B (zh) 一种个性化对话的回复生成方法
CN109614471B (zh) 一种基于生成式对抗网络的开放式问题自动生成方法
CN110321563B (zh) 基于混合监督模型的文本情感分析方法
CN112527966B (zh) 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN110427616B (zh) 一种基于深度学习的文本情感分析方法
CN111914556B (zh) 基于情感语义转移图谱的情感引导方法及系统
CN111125333B (zh) 一种基于表示学习与多层覆盖机制的生成式知识问答方法
CN113326374B (zh) 基于特征增强的短文本情感分类方法及系统
CN111966800A (zh) 情感对话生成方法、装置及情感对话模型训练方法、装置
CN114911932A (zh) 基于主题语义增强的异构图结构多会话者情感分析方法
CN114387537A (zh) 一种基于描述文本的视频问答方法
CN115935975A (zh) 一种情感可控的新闻评论生成方法
CN112183106A (zh) 一种基于音素联想及深度学习的语义理解方法及装置
Wu et al. Research on the Application of Deep Learning-based BERT Model in Sentiment Analysis
CN110046239B (zh) 基于情感编辑的对话方法
CN113947074A (zh) 一种深度协同交互的情感原因联合抽取方法
CN116757195B (zh) 一种基于提示学习的隐性情感识别方法
CN112560440A (zh) 一种基于深度学习的面向方面级情感分析的句法依赖方法
CN114757310B (zh) 情感识别模型及其训练方法、装置、设备及可读存储介质
CN115600582B (zh) 一种基于预训练语言模型的可控文本生成方法
CN116204644A (zh) 一种基于VAE和Attention的主题增强文本情感分类方法
CN115169429A (zh) 一种轻量化方面级文本情感分析方法
CN114298011A (zh) 神经网络、训练方法、方面级情感分析方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant