CN114817566A - 基于情绪嵌入的情绪原因对抽取方法 - Google Patents

基于情绪嵌入的情绪原因对抽取方法 Download PDF

Info

Publication number
CN114817566A
CN114817566A CN202210464202.6A CN202210464202A CN114817566A CN 114817566 A CN114817566 A CN 114817566A CN 202210464202 A CN202210464202 A CN 202210464202A CN 114817566 A CN114817566 A CN 114817566A
Authority
CN
China
Prior art keywords
emotion
clause
reason
embedding
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210464202.6A
Other languages
English (en)
Other versions
CN114817566B (zh
Inventor
饶国政
李志威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202210464202.6A priority Critical patent/CN114817566B/zh
Publication of CN114817566A publication Critical patent/CN114817566A/zh
Application granted granted Critical
Publication of CN114817566B publication Critical patent/CN114817566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开一种基于情绪嵌入的情绪原因对抽取方法,利用基于情绪嵌入对情绪原因对抽取的模型实现情绪原因对抽取,该模型的抽取通过词嵌入、情绪编码、原因编码、情绪原因对编码和情绪原因对预测实现,通过词嵌入获得输入文本的词嵌入表征;通过情绪编码,获得情绪子句级特征表示;通过原因编码,获得原因子句级特征表示;然后利用情绪原因对编码,获得情绪原因对特征编码;最后利用softmax图层输出标签上的概率分布,实现情绪原因对抽取。本发明的方法可以利用情绪和原因之间的因果关系和相互指示的特性,提高情绪原因对抽取的能力。

Description

基于情绪嵌入的情绪原因对抽取方法
技术领域
本发明涉及情绪原因分析技术领域,特别是涉及一种基于情绪嵌入的情绪原因对抽取方法。
背景技术
互联网变得越来越普及,人们的生活和互联网的联系越来越紧密,越来越多的人开始通过互联网获取各类资讯以及发表自己的看法与意见。文本数据是互联网上每天源源不断的产生新的数据中,质量最高,数量也最多的一种。另一方面,文本数据也是最符合人们语言习惯的一种数据类型,因成为是人们获取信息和表达情绪最重的一种载体之一。如何对这些海量的文本数据进行分析来获取有用信息有非常重要的研究价值,文本数据的情绪分析是具体分析的一个方向。但是目前的文本情绪分析仅仅关注情绪类别,属于比较浅层的情绪分析任务。而我们有时候更关心到底是什么原因导致了这些情感,由此衍生了更深层次的情绪分析任务:情绪原因对抽取。。
情绪原因对抽取任务在许多领域中都有重要的意义,可以广泛应用于医学、社会学、商业分析等领域。现有研究主要处理方式是先分别获取情绪特征表示和原因特征表示,然后将它们进行拼接组合,生成情绪原因对特征表示,最后再对此特征表示进行特征转换。这些研究完全忽略了情绪和原因之间存在因果关系这一事实,未能利用它们相互指示的特性。
发明内容
本发明的目的是针对现有技术中存在的技术缺陷,而提供一种基于情绪嵌入的情绪原因对抽取模型,并提供基于情绪嵌入的情绪原因对抽取模型进行情绪原因对抽取的方法。
为实现本发明的目的所采用的技术方案是:
一种情绪嵌入的情绪原因对抽取方法,包括:
基于情绪嵌入的情绪原因对抽取模型实现情绪原因对抽取,该模型的实现步骤如下:
S1.词嵌入编码
模型的输入通过词嵌入得到文本的时序表示s={s1,s2,…,sn};
S2.情绪编码
通过第一层词级Bi-LSTM网络得到情绪词级特征表示
Figure BDA0003623025090000021
Figure BDA0003623025090000022
其中,
Figure BDA0003623025090000023
是词级Bi-LSTM网络,用于提取情绪词特征
Figure BDA0003623025090000024
然后将r′e输入到子句级Bi-LSTM网络中,最终得到情绪子句级特征表示
Figure BDA0003623025090000025
Figure BDA0003623025090000026
其中,
Figure BDA0003623025090000027
是子句级Bi-LSTM网络,用于提取情绪子句特征
Figure BDA0003623025090000028
S3.原因编码
原因编码包括词级Bi-LSTM网络、情绪融合模块、情感嵌入模块和子句级Bi-LSTM网络;
通过词级Bi-LSTM网络,得到原因词级特征表示
Figure BDA0003623025090000029
使用一个大小受限的窗口在情感子句表示re上进行滑动,然后将窗口中的所有特征表示进行融合,最后将融合后的特征嵌入到中心子的原因词级特征中;当融合窗口的大小为t时,表示以当前子句为中心,即0位置,需要对{-t,…,0,…,t}范围内的情绪子句进行情绪特征融合操作;当t=0时,表示不对情感子句做融合操作,换句话说,是情感和原因的子句级特征是独立提取的;
在情感嵌入模块中,将原因词级特征表示r′c、情感词级特征表示r′e和情感子句级特征表示融合re′进行拼接,生成带有情感特征嵌入的原因词级特征表示rce
rce=[r′c,r′e,re′]
其中[,]表示拼接函数,然后将它们输入到一个子句级Bi-LSTM网络中,得到原因子句级特征表示;
Figure BDA0003623025090000031
其中,
Figure BDA0003623025090000032
表示子句级别的Bi-LSTM网络,用于提取原因子句级特征表示
Figure BDA0003623025090000033
S4.情绪原因对编码
首先,将情感子句和原因子句两两组会配对,得到情感原因对,记为
Figure BDA0003623025090000034
其中包括情感从句特征re和原因从句特征rc
Figure BDA0003623025090000035
Figure BDA0003623025090000036
作为图的一个节点,所有具有相同情绪特征的节点一起构建一个简单图,称为子句对图;一个N个子句的文档总共需要构建N个子句对图;另外,一般情绪子句与对应的原因子句的距离大部分都比较近,因此只将与中心节点距离小于等于2的子句对用于构建子句对图,即
Figure BDA0003623025090000037
每个图具有三种不同的边,分别是D0边,用于表示节点自迁移的自循环边;D1边,用于连接距离为1的邻接节点,例如对于中心节点
Figure BDA0003623025090000038
则其邻接节点
Figure BDA0003623025090000039
Figure BDA00036230250900000310
需要用D1连接起来;D2边,用于连接距离为2的邻接节点,具体用法如D1;
通过对情绪子句编码网络和情绪嵌入网络的输出进行特征转换,可以得到转换得到节点
Figure BDA0003623025090000041
的特征表示
Figure BDA0003623025090000042
具体情况是,子句对图中的特征
Figure BDA0003623025090000043
是由与其连接的节点根据不同的边使用不同转换参数变换后集成得到;
Figure BDA0003623025090000044
其中
Figure BDA0003623025090000045
是权重矩阵,分别表示与节点
Figure BDA0003623025090000046
连接的D1边、D2边和D0边的权重;z是归一化因子,它的值等于节点的度,σ表示非线性激活函数,使用的是ReLU作为激活函数;
在对情绪原因对进行分类前加入距离信息,对于候选子句对节点
Figure BDA0003623025090000047
的最终表示pfinal
Figure BDA0003623025090000048
与di,j的拼接,
Figure BDA0003623025090000049
其中
Figure BDA00036230250900000410
是距离嵌入;
S5.情绪原因对预测
方法使用全连接神经网络作为分类器,对最终的情绪原因对pfinal进行分类;
Figure BDA00036230250900000411
其中,Wp是权重矩阵,bp是偏置向量;
通过最小化预测概率和真实标签之间的差值来得到最终的优化后的模型,文档中所有子句的交叉熵损失函数如下:
Figure BDA00036230250900000412
其中yij
Figure BDA00036230250900000413
分别是子句对pij的真实预测值。
本发明模型与基准之间的差异具有统计学意义。使用准确率、召回率和F1值作为指标,将本发明模型与多个基准进行比较。本发明模型在ECPE任务中准确率和F1值方面均优于基线模型,EEM-ECPE模型提高了分别提高了5.56%和1.22%,EEM-ECPE-BERT模型分别提高了4.45%和1.61%。结果证明,方法可以通过情绪嵌入明显增强情绪原因对抽取的性能。
附图说明
图1是本发明的基于情绪嵌入的情绪原因对抽取模型整体结构图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明的基于情绪嵌入的情绪原因对抽取方法,利用基于情绪嵌入的情绪原因对抽取的模型实现情绪原因对抽取,该模型的实现步骤如下:
步骤一:词嵌入编码
模型的输入通过词嵌入得到文本的时序表示s={s1,s2,…,sn},
S2.情绪编码
通过第一层词级Bi-LSTM网络得到情绪词级特征表示
Figure BDA0003623025090000051
Figure BDA0003623025090000052
其中,
Figure BDA0003623025090000053
是词级Bi-LSTM网络,用于提取情绪词特征
Figure BDA0003623025090000054
然后将r′e输入到子句级Bi-LSTM网络中,最终得到情绪子句级特征表示
Figure BDA0003623025090000055
Figure BDA0003623025090000056
其中,
Figure BDA0003623025090000057
是子句级Bi-LSTM网络,用于提取情绪子句特征
Figure BDA0003623025090000058
步骤三:原因编码
原因编码由四个组件组成,包括词级Bi-LSTM网络、情绪融合模块、情感嵌入模块和子句级Bi-LSTM网络;
通过词级Bi-LSTM网络我们得到了原因词级特征表示
Figure BDA0003623025090000061
使用一个大小受限的窗口在情感子句表示re上进行滑动,然后将窗口中的所有特征表示进行融合,最后将融合后的特征嵌入到中心子的原因词级特征中;当融合窗口的大小为t时,表示以当前子句为中心(即0位置),需要对{-t,…,0,…,t}范围内的情绪子句进行情绪特征融合操作;特别情况是当t=0时,表示不对情感子句做融合操作,换句话说,就是情感和原因的子句级特征是独立提取的;
在情感嵌入模块中,将原因词级特征表示r′c、情感词级特征表示r′e和情感子句级特征表示融合re′进行拼接,生成带有情感特征嵌入的原因词级特征表示rce
rce=[r′c,r′e,re′]
其中[,]表示拼接函数,然后将它们输入到一个子句级Bi-LSTM网络中,得到原因子句级特征表示;
Figure BDA0003623025090000062
其中,
Figure BDA0003623025090000063
表示子句级别的Bi-LSTM网络,用于提取原因子句级特征表示
Figure BDA0003623025090000064
步骤四:情绪原因对编码
首先,我们将情感子句和原因子句两两组会配对,得到情感原因对,记为
Figure BDA0003623025090000065
其中包括情感从句特征re和原因从句特征rc
Figure BDA0003623025090000066
Figure BDA0003623025090000071
作为图的一个节点,所有具有相同情绪特征的节点一起构建一个简单图,称为子句对图;一个N个子句的文档总共需要构建N个子句对图;另外,一般情绪子句与对应的原因子句的距离大部分都比较近,因此只将与中心节点距离小于等于2的子句对用于构建子句对图,即
Figure BDA0003623025090000072
每个图具有三种不同的边,分别是D0边,用于表示节点自迁移的自循环边;D1边,用于连接距离为1的邻接节点,例如对于中心节点
Figure BDA0003623025090000073
则其邻接节点
Figure BDA0003623025090000074
Figure BDA0003623025090000075
需要用D1连接起来;D2边,用于连接距离为2的邻接节点,具体用法如D1;
通过对情绪子句编码网络和情绪嵌入网络的输出进行特征转换,可以得到转换得到节点
Figure BDA0003623025090000076
的特征表示
Figure BDA0003623025090000077
具体情况是,子句对图中的特征
Figure BDA0003623025090000078
是由与其连接的节点根据不同的边使用不同转换参数变换后集成得到;
Figure BDA0003623025090000079
其中
Figure BDA00036230250900000710
是权重矩阵,分别表示与节点
Figure BDA00036230250900000711
连接的D1边、D2边和D0边的权重;z是归一化因子,它的值等于节点的度,σ表示非线性激活函数,使用的是ReLU作为激活函数;
在对情绪原因对进行分类前加入距离信息,对于候选子句对节点
Figure BDA00036230250900000712
的最终表示pfinal
Figure BDA00036230250900000713
与di,j的拼接,
Figure BDA00036230250900000714
其中
Figure BDA00036230250900000715
是距离嵌入;
步骤五:情绪原因对预测
使用全连接神经网络作为分类器,对最终的情绪原因对pfinal进行分类;
Figure BDA00036230250900000716
其中,Wp是权重矩阵,bp是偏置向量;
通过最小化预测概率和真实标签之间的差值来得到最终的优化后的模型,文档中所有子句的交叉熵损失函数如下:
Figure BDA0003623025090000081
其中yij
Figure BDA0003623025090000082
分别是子句对pij的真实预测值。
实验验证:
实验基于夏和丁开源的,通过与其他强大的基线模型进行比较来评估提出的模型的性能,并分析模型的性能。
ECPE中文语料库是在新浪新闻情绪原因语料上进行了再次加工而来的,语料共有1945个样本,一个样本可能含有一个或多个情绪,一个情绪可能拥有一个或者多个与之所对应的原因。其中,仅含还有一个情绪的样本有1816个,占比高达93.34%;含有两个及以上情绪的样本有129个,仅占总样本数7.63%。
90%的数据被随机选择用于训练,剩余的数据用于测试。实验重复两次10折交叉验证共计20次实验并报告平均结果。在实验中,使用了词嵌入,它使用Word2Vec工具包在110万个中文微博语料库上进行了预训练,词嵌入的维度为200。此外,还使用了BERT词向量表示中的基础中文模型。Word2Vec词嵌入的维数是200维,Bi-LSTM和GCN的隐藏单元都是100。BERT词嵌入的维数是768维,Bi-LSTM和GCN的隐藏单元都是200。包括权重矩阵与偏置向量等其他可学习参数通过均匀分布U(-0.01,0.01)来初始化。在训练时,我们使用Adam优化器来更新所有参数。小批量大小和学习率分别设置为32和0.005。为了减少过拟合,将dropou应用于所有特征向量,包括词嵌入和隐藏表示,并将其设置为0.5。每个子句的最多词数和每个文档的最大子句数分别设置为75和100。情感嵌入的方法使用的滑动窗口大小为1,融合方法维均值融合。
Figure BDA0003623025090000091
上表显示了本发明模型EEM-ECPE-BERT与基准在情绪原因对抽取(ECPE)任务和情绪子句抽取(EE)和原因子句抽取(CE)两个子任务的结果。EEM-ECPE模型在ECPE任务中的准确率和F1值取得了最好的结果,优于所有基线模型。具体的,EEM-ECPE模型与之前的最佳模型PairGCN相比,在ECPE的准确率和F1值分别提高了5.56%和1.22%。结果表明本发明模型确实能够利用情绪和原因之间的因果关系和相互指示的特性,提高了情绪原因对预测的能力。
Figure BDA0003623025090000092
上表显示了本发明模型EEM-ECPE-BERT与基准在情绪原因对抽取(ECPE)任务和情绪子句抽取(EE)和原因子句抽取(CE)两个子任务中使用的了BERT的结果。EEM-ECPE-BERT模型在ECPE任务中的准确率和F1值取得了最好的结果,优于所有基线模型。
具体的,EEM-ECPE-BERT模型与之前的最佳模型PairGCN-BERT相比,在ECPE的准确率和F1值分别提高了4.45%和1.61%。结果表明本发明模型确实能够利用情绪和原因之间的因果关系和相互指示的特性,提高了情绪原因对预测的能力。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.基于情绪嵌入的情绪原因对抽取方法,其特征在于,基于情绪嵌入的情绪原因对抽取的模型实现情绪原因对抽取,该模型的实现步骤如下:
S1.词嵌入编码
模型的输入通过词嵌入得到文本的时序表示s={s1,s2,…,sn};
S2.情绪编码
通过第一层词级Bi-LSTM网络得到情绪词级特征表示
Figure FDA0003623025080000011
Figure FDA0003623025080000012
其中,
Figure FDA0003623025080000013
是词级Bi-LSTM网络,用于提取情绪词特征
Figure FDA0003623025080000014
然后将r′e输入到子句级Bi-LSTM网络中,最终得到情绪子句级特征表示
Figure FDA0003623025080000015
Figure FDA0003623025080000016
其中,
Figure FDA0003623025080000017
是子句级Bi-LSTM网络,用于提取情绪子句特征
Figure FDA0003623025080000018
S3.原因编码
原因编码包括词级Bi-LSTM网络、情绪融合模块、情感嵌入模块和子句级Bi-LSTM网络;
通过词级Bi-LSTM网络,得到原因词级特征表示
Figure FDA0003623025080000019
使用一个大小受限的窗口在情感子句表示re上进行滑动,然后将窗口中的所有特征表示进行融合,最后将融合后的特征嵌入到中心子的原因词级特征中;当融合窗口的大小为t时,表示以当前子句为中心,即0位置,需要对{-t,…,0,…,t}范围内的情绪子句进行情绪特征融合操作;当t=0时,表示不对情感子句做融合操作,实现情感和原因的子句级特征是独立提取的;
在情感嵌入模块中,将原因词级特征表示r′c、情感词级特征表示r′e和情感子句级特征表示融合re′进行拼接,生成带有情感特征嵌入的原因词级特征表示rce
rce=[r′c,r′e,re′]
其中[,]表示拼接函数,然后将它们输入到一个子句级Bi-LSTM网络中,得到原因子句级特征表示;
Figure FDA0003623025080000021
其中,
Figure FDA0003623025080000022
表示子句级别的Bi-LSTM网络,用于提取原因子句级特征表示
Figure FDA0003623025080000023
S4.情绪原因对编码
首先,将情感子句和原因子句两两组会配对,得到情感原因对,记为
Figure FDA0003623025080000024
其中包括情感从句特征re和原因从句特征rc
Figure FDA0003623025080000025
Figure FDA0003623025080000026
作为图的一个节点,所有具有相同情绪特征的节点一起构建一个简单图,称为子句对图;一个N个子句的文档总共需要构建N个子句对图;由于一般情绪子句与对应的原因子句的距离大部分都比较近,因此只将与中心节点距离小于等于2的子句对用于构建子句对图,即
Figure FDA0003623025080000027
每个图具有三种不同的边,分别是D0边,用于表示节点自迁移的自循环边;D1边,用于连接距离为1的邻接节点,对于中心节点
Figure FDA0003623025080000028
则其邻接节点
Figure FDA0003623025080000029
Figure FDA00036230250800000210
需要用D1连接起来;D2边,用于连接距离为2的邻接节点,具体用法如D1;
通过对情绪子句编码网络和情绪嵌入网络的输出进行特征转换,可以得到转换得到节点
Figure FDA0003623025080000031
的特征表示
Figure FDA0003623025080000032
具体情况是,子句对图中的特征
Figure FDA0003623025080000033
是由与其连接的节点根据不同的边使用不同转换参数变换后集成得到;
Figure FDA0003623025080000034
其中
Figure FDA0003623025080000035
是权重矩阵,分别表示与节点
Figure FDA0003623025080000036
连接的D1边、D2边和D0边的权重;z是归一化因子,它的值等于节点的度,σ表示非线性激活函数,使用的是ReLU作为激活函数;
在对情绪原因对进行分类前加入距离信息,对于候选子句对节点
Figure FDA0003623025080000037
的最终表示pfinal
Figure FDA0003623025080000038
与di,j的拼接,
Figure FDA0003623025080000039
其中
Figure FDA00036230250800000310
是距离嵌入;
S5.情绪原因对预测
使用全连接神经网络作为分类器,对最终的情绪原因对pfinal进行分类;
Figure FDA00036230250800000311
其中,Wp是权重矩阵,bp是偏置向量;
通过最小化预测概率和真实标签之间的差值来得到最终的优化后的模型,文档中所有子句的交叉熵损失函数如下:
Figure FDA00036230250800000312
其中yij
Figure FDA00036230250800000313
分别是子句对pij的真实预测值。
2.根据权利要求1所述基于情绪嵌入的情绪原因对抽取方法,其特征在于,情绪融合的方法包括均值融合法与和值融合法;其中,均值融合法是对窗口内的所有情绪子句特征作取平均值操作,情绪子句均值融合后的特征re′的计算方式:
Figure FDA0003623025080000041
和值融合法是对窗口内的所有情绪子句特征作求和操作,情绪子句和值融合后的特征re′的计算方式:
Figure FDA0003623025080000042
3.根据权利要求2所述基于情绪嵌入的情绪原因对抽取方法,其特征在于,情绪融合的窗口大小设置为0、1、3。
4.根据权利要求1所述基于情绪嵌入的情绪原因对抽取方法,其特征在于,所述模型是用PyTorch框架实现的。
CN202210464202.6A 2022-04-29 2022-04-29 基于情绪嵌入的情绪原因对抽取方法 Active CN114817566B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210464202.6A CN114817566B (zh) 2022-04-29 2022-04-29 基于情绪嵌入的情绪原因对抽取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210464202.6A CN114817566B (zh) 2022-04-29 2022-04-29 基于情绪嵌入的情绪原因对抽取方法

Publications (2)

Publication Number Publication Date
CN114817566A true CN114817566A (zh) 2022-07-29
CN114817566B CN114817566B (zh) 2023-03-10

Family

ID=82509420

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210464202.6A Active CN114817566B (zh) 2022-04-29 2022-04-29 基于情绪嵌入的情绪原因对抽取方法

Country Status (1)

Country Link
CN (1) CN114817566B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115495572A (zh) * 2022-08-01 2022-12-20 广州大学 一种基于复合情绪分析的抑郁情绪辅助管理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010054568A (ja) * 2008-08-26 2010-03-11 Oki Electric Ind Co Ltd 感情識別装置、感情識別方法およびプログラム
CN105183807A (zh) * 2015-08-26 2015-12-23 苏州大学张家港工业技术研究院 一种基于结构句法的情绪原因事件识别方法及系统
CN110162636A (zh) * 2019-05-30 2019-08-23 中森云链(成都)科技有限责任公司 基于d-lstm的文本情绪原因识别方法
CN110222342A (zh) * 2019-06-13 2019-09-10 哈尔滨工业大学(深圳) 结合情感原因发现的文本情感预测学习系统
CN111382565A (zh) * 2020-03-09 2020-07-07 南京理工大学 基于多标签的情绪-原因对抽取方法及系统
CN113505583A (zh) * 2021-05-27 2021-10-15 山东交通学院 基于语义决策图神经网络的情感原因子句对提取方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010054568A (ja) * 2008-08-26 2010-03-11 Oki Electric Ind Co Ltd 感情識別装置、感情識別方法およびプログラム
CN105183807A (zh) * 2015-08-26 2015-12-23 苏州大学张家港工业技术研究院 一种基于结构句法的情绪原因事件识别方法及系统
CN110162636A (zh) * 2019-05-30 2019-08-23 中森云链(成都)科技有限责任公司 基于d-lstm的文本情绪原因识别方法
CN110222342A (zh) * 2019-06-13 2019-09-10 哈尔滨工业大学(深圳) 结合情感原因发现的文本情感预测学习系统
CN111382565A (zh) * 2020-03-09 2020-07-07 南京理工大学 基于多标签的情绪-原因对抽取方法及系统
CN113505583A (zh) * 2021-05-27 2021-10-15 山东交通学院 基于语义决策图神经网络的情感原因子句对提取方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
FAN WEI等: "Order-guided deep neural network for emotion-cause pair prediction", 《APPLIED SOFT COMPUTING JOURNAL》 *
冯浩甲等: "Sen-BiGAT-Inter:情绪原因对抽取方法", 《中文信息学报》 *
刘瑾等: "情绪与电生理研究进展", 《生物医学工程学杂志》 *
张晨等: "基于神经网络的微博情绪识别与诱因抽取联合模型", 《计算机应用》 *
慕永利等: "基于E-CNN的情绪原因识别方法", 《中文信息学报》 *
陈珊珊等: "文本情绪原因检测研究综述", 《现代计算机》 *
高德辰等: "基于图依存分析的情感原因对抽取任务", 《计算机应用研究》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115495572A (zh) * 2022-08-01 2022-12-20 广州大学 一种基于复合情绪分析的抑郁情绪辅助管理方法

Also Published As

Publication number Publication date
CN114817566B (zh) 2023-03-10

Similar Documents

Publication Publication Date Title
Cao et al. Deep neural networks for learning graph representations
CN111125358B (zh) 一种基于超图的文本分类方法
CN108229582A (zh) 一种面向医学领域的多任务命名实体识别对抗训练方法
CN105183833B (zh) 一种基于用户模型的微博文本推荐方法及其推荐装置
CN111127146B (zh) 基于卷积神经网络与降噪自编码器的信息推荐方法及系统
CN108363695B (zh) 一种基于双向依赖语法树表征的用户评论属性抽取方法
CN107273913B (zh) 一种基于多特征融合的短文本相似度计算方法
Li et al. Multi-level network embedding with boosted low-rank matrix approximation
CN112650929B (zh) 一种融入评论信息的图神经网络推荐方法
CN112364638B (zh) 一种基于社交文本的人格识别方法
CN112749274B (zh) 基于注意力机制和干扰词删除的中文文本分类方法
CN109033294B (zh) 一种融入内容信息的混合推荐方法
CN110597979A (zh) 一种基于自注意力的生成式文本摘要方法
CN110532378B (zh) 一种基于主题模型的短文本方面提取方法
Phan et al. Aspect-level sentiment analysis using CNN over BERT-GCN
CN113435211A (zh) 一种结合外部知识的文本隐式情感分析方法
CN109614611B (zh) 一种融合生成非对抗网络与卷积神经网络的情感分析方法
CN115952292B (zh) 多标签分类方法、装置及计算机可读介质
CN115017299A (zh) 一种基于去噪图自编码器的无监督社交媒体摘要方法
Aziguli et al. A robust text classifier based on denoising deep neural network in the analysis of big data
CN111814450B (zh) 一种基于残差注意力的方面级情感分析方法
CN114817566B (zh) 基于情绪嵌入的情绪原因对抽取方法
Jiang et al. Text semantic classification of long discourses based on neural networks with improved focal loss
CN111581379A (zh) 一种基于作文扣题度的自动作文评分计算方法
CN110910235A (zh) 一种基于用户关系网络的贷中异常行为检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant