CN113158644A - 一种基于多任务学习的修辞格及隐式情绪识别方法 - Google Patents
一种基于多任务学习的修辞格及隐式情绪识别方法 Download PDFInfo
- Publication number
- CN113158644A CN113158644A CN202110522766.6A CN202110522766A CN113158644A CN 113158644 A CN113158644 A CN 113158644A CN 202110522766 A CN202110522766 A CN 202110522766A CN 113158644 A CN113158644 A CN 113158644A
- Authority
- CN
- China
- Prior art keywords
- emotion
- representation
- lattice
- sentence
- retrieval
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及计算机文本情感分析领域,具体涉及一种基于多任务学习的修辞格及隐式情绪识别方法。本方法为了识别修辞格与情绪而提出,首先利用BERT与Tree‑LSTMs捕获句子的语义及句法表示。基于此,设计门控机制的修辞格分类器与基于语义的情绪分类器,分别获取句子的修辞格及情绪的关联分布表示。然后构建融入关联表示的多标签预测,得到句子的修辞格与情绪的标签集。
Description
技术领域
本发明涉及计算机文本情感分析领域,具体涉及一种基于多任务学习的修辞格及隐式情绪识别方法。
背景技术
修辞格的隐式情绪表达广泛存在于文学作品、产品评论等文本中,开展修辞格及情绪分析相关研究,可为智慧教育及产品舆情分析等提供技术支撑。在智能教育中,解答文学作品的语言鉴赏类阅读理解题,如“阅读材料从多个角度抒发着对生命的敬畏,请选择一个细节进行语言特色分析”,需要修辞格与情绪相关知识的支持。修辞格及情绪的自动识别技术,可以帮助学生快速分析及解答习题,巩固相关知识点,从而帮助学生提高成绩的同时,减轻了教师的负担。另外,相关识别技术也可实现自动评卷系统,精准挖掘用户知识的薄弱点,完成个性化教学,提升系统的性能。在产品舆情分析中,修辞格的情绪分析技术可以帮助实现先进的自动评价系统,协助消费者快速挑选合适的产品,提高生产者快速挖掘产品缺陷和不足的能力,提升产品质量,为用户提供更好的体验。
在修辞格识别任务中,现存识别方法的特征构造耗费时力,且特定模型仅解决一种修辞格识别,泛化性差。在文本情绪识别中,目前大多数研究集中于显式情绪识别,学者鲜有涉及隐式情绪,尤其是修辞格的隐式情绪识别。
修辞格的构成依赖于语义与句法信息,且修辞格与情绪间具有强关联性。如,“比喻、排比、拟人”等修辞格更倾向表达“好”的情绪;而“反问、反语”等修辞格更倾向表达“恶”的情绪。另外,现有研究验证了预训练语言模型及多任务学习机制是解决隐式情绪识别的重要武器,为本发明提供了理论基础。因此,如何利用预训练语言模型及多任务学习机制,准确地从文本上下文中动态挖掘特定修辞格依赖的语义与句法信息;构建修辞格与情绪类别间的关联关系,相互促进两个识别任务,是亟待解决的问题。本发明提供一种基于多任务学习的修辞格及情绪识别方法,可以服务于智慧教育以及产品舆情分析。
发明内容
本发明的目的是为了识别修辞格与情绪而提出的基于多任务学习的方法。该方法针对修辞格构成模式灵活、类别与情绪类别间具有关联性的特点,设计语义与句法模块,捕获构成修辞格及情绪的语义与句法信息;并提出关联表示,编码修辞格与情绪之间的关系,以提升修辞格及情绪的识别性能。在修辞格及情绪数据集上,修辞格及情绪识别的F1值分别取得了93.83与88.84,均高于目前最好的多任务方法。
为达到上述目的,本发明的构思为:首先,利用BERT与Tree-LSTMs捕获句子的语义及句法表示。基于此,设计门控机制的修辞格分类器与基于语义的情绪分类器,分别获取句子的修辞格及情绪的关联分布表示。然后,构建融入关联表示的多标签预测,得到句子的修辞格与情绪的标签集。
为了达到上述目的,本发明采用了下列技术方案:
一种基于多任务学习的修辞格及隐式情绪识别方法,包括以下步骤:
步骤1,语义信息编码:对于包含N个词语的句子S={w1,w2,...,wN},利用BERT模型,捕获句子S的语义表示srsem;
步骤2,句法信息编码:利用预训练的综合词义词向量与知识词向量,通过拼接的方式,获取句子S的词向量矩阵X={x1,x2,...,xN},然后采用Tree-LSTMs模型编码句子S的句法表示srsyn;
步骤3,修辞格关联分布表示获取:基于上述步骤句子S的语义与句法表示,为每个修辞格设计独立的基于门控机制的分类器,从而获得输入句子S的第i类修辞格概率将R类修辞格概率连接成一个修辞格的分布表示用于计算情绪的关联分布表示;
步骤5,修辞格预测:为了融入情绪的分布表示,提升句子的修辞格预测,基于情绪关联分布表示结合第i类修辞格分类器获取的特征表示,获取修辞格识别新特征fi r,以预测第i类修辞格的概率连接R类修辞格的预测概率为概率分布表示用于句子的情绪预测;
步骤6,情绪预测:利用句子的修辞格预测概率分布及语义表示,通过公式(16)计算出一个新的关联特征,然后设计sigmoid分类器预测情绪的概率分布,见公式(17):
步骤7,修辞格与情绪标签确定:修辞格的隐式情绪句常利用多种修辞格增强句子表达,同时传递多种情绪。因此,利用修辞格及情绪识别任务的阈值threr与three,将预测概率大于阈值的句子标记为特定的类别,从而获取句子的修辞格及情绪标签集,见公式(18):
步骤8,设计基于多任务学习机制的目标函数:鉴于修辞格及情绪识别任务采用的多标签预测方式,利用分类模型中普遍使用的一对多交叉熵损失函数度量两个任务的损失;考虑到修辞格与情绪类别间的关联,设计多任务学习的目标函数,使得本发明在参数共享信息的基础上,相互促进两个任务的识别效果。
进一步地,所述步骤1中利用BERT模型,捕获句子S的语义表示srsem,具体步骤为:
步骤1.1,将句子规范化为BERT模型需要的格式,即在句子开头加入[CLS]表示;
步骤1.2,利用[CLS]的输出作为整个句子的语义表示,如公式(1)所示:
srsem=BERT(S) (1)
进一步地,所述步骤2中利用预训练的综合词义词向量与知识词向量,通过拼接的方式,获取句子S的词向量矩阵X={x1,x2,...,xN},然后采用Tree-LSTMs模型编码句子S的句法表示srsyn,具体步骤为:
步骤2.1,结合两类不同预训练词向量,获取句子S的词向量矩阵X={x1,x2,...,xN},一类为大规模语料库上训练的词向量,用于表达词语在多种上下文环境下的综合词义;另一类为基于知识库的确切词义的词向量,如公式(2)所示:
xi=[gi||ki] (2)
其中,xi为词语wi(i=1,2,...N)的词向量,gi代表词语的综合含义词向量,来源于腾讯智能实验室;ki为基于义原的知识词向量,通过SE-WRL模型获取;“||”表示连接操作;
步骤2.2,将词向量矩阵X作为Tree-LSTMs的输入,并利用句子依存句法树的根结点表示作为句子的句法表示,如公式(3)所示:
srsyn=Tree-LSTM(X,Xsyn) (3)
步骤3.1,动态结合特定修辞依赖的语义与句法表示,句子S的表示由公式(4)~(7)计算:
ri=σ(Wi r*[srsyn,srsem]) (4)
zi=σ(Wi z*[srsyn,srsem]) (5)
其中,ri、zi和sri r分别代表第i类修辞格分类器中句子表示的重置门、更新门及隐层状态;Wi r、Wi z与分别为重置门、更新门及隐层状态计算过程中训练参数;σ和tanh为sigmoid函数及双曲正切函数,代表按元素乘法;即sri r为d2维向量;
步骤3.2,在句子表示的基础上,通过公式(8)提取特定修辞格的特征,公式(8)如下:
步骤3.3,句子S的第i类修辞格的概率通过公式(9)计算:
步骤3.4,R类修辞格概率通过公式(10)连接成一个修辞格的分布表示,用于计算情绪的关联分布表示,公式(10)如下:
步骤4.1,情绪分类器的特征利用公式(11)计算:
其中,sre为获取句子情绪关联分布表示的特征;
步骤4.2,句子的情绪关联分布表示通过公式(12)获取:
步骤5.1,基于情绪关联分布表示下的转换特征fe→r通过公式(13)获取:
其中,We→r代表情绪关联分布表示的转换矩阵;
步骤5.3,第i类修辞格的预测概率通过sigmoid分类器获取,见公式(15):
进一步地,所述步骤8中鉴于修辞格及情绪识别任务采用的多标签预测方式,利用分类模型中普遍使用的一对多交叉熵损失函数度量两个任务的损失;考虑到修辞格与情绪类别间的关联,设计多任务学习的目标函数,使得本发明在参数共享信息的基础上,相互促进两个任务的识别效果,具体步骤为:
步骤8.1,利用一对多交叉熵计算修辞格识别任务的损失,如公式(19)所示:
步骤8.2,利用一对多交叉熵计算情绪识别任务损失,如公式(20)所示:
步骤8.3,综合两个识别任务的损失作为本发明的总损失,如公式(21)所示:
loss=lossr+losse (21)
其中,loss为本发明的总损失。
与现有技术相比,本发明具有以下优点:
1.针对文本语义与句法信息不同的展示方式,分别采用BERT及树状结构的Tree-LSTMs模型,构建文本的句法与语义表示。
2.针对不同修辞格构成模式对句子的语义与句法信息依赖程度不同,本发明为修辞格设计基于门控机制的分类器,具有较好的泛化性。
3.设计修辞格及情绪的关联分布表示,刻画修辞格与情绪标签间的关系,提升本发明对两个任务的识别效果。
4.本发明采用多任务学习机制训练模型,调整共享的参数。在语义及句法表示、关联分布表示及预测过程中,深层地挖掘修辞格与情绪识别任务的关系,从而取得更好的效果。
附图说明
图1是本发明的整体层次结构框架图;
图2为在修辞格及情绪识别任务中,经验地选取最佳阈值three(上)与threr(下)的过程。
具体实施方式
如图1所示,本发明的一种基于多任务学习的修辞格及隐式情绪识别方法将修辞格及情绪识别划分为三个子模块,每个模块间逐层相连,最后通过多任务机制将其融合进行训练,具体包括以下步骤:
步骤1,语义信息编码:对于包含N个词语的句子S={w1,w2,...,wN},利用BERT模型,捕获句子S的语义表示srsem,具体步骤为:
步骤1.1,将句子规范化为BERT模型需要的格式,即在句子开头加入[CLS]表示;
步骤1.2,利用[CLS]的输出作为整个句子的语义表示,如公式(1)所示:
srsem=BERT(S) (1)
步骤2,句法信息编码:利用预训练的综合词义词向量与知识词向量,通过拼接的方式,获取句子S的词向量矩阵X={x1,x2,...,xN},然后采用Tree-LSTMs模型编码句子S的句法表示srsyn,具体步骤为:
步骤2.1,结合两类不同预训练词向量,获取句子S的词向量矩阵X={x1,x2,...,xN},一类为大规模语料库上训练的词向量,用于表达词语在多种上下文环境下的综合词义;另一类为基于知识库的确切词义的词向量,如公式(2)所示:
xi=[gi||ki] (2)
其中,xi为词语wi(i=1,2,...N)的词向量,gi代表词语的综合含义词向量,来源于腾讯智能实验室;ki为基于义原的知识词向量,通过SE-WRL模型获取;“||”表示连接操作;
步骤2.2,将词向量矩阵X作为Tree-LSTMs的输入,并利用句子依存句法树的根结点表示作为句子的句法表示,如公式(3)所示:
srsyn=Tree-LSTM(X,Xsyn) (3)
步骤3,修辞格关联分布表示获取:基于上述步骤句子S的语义与句法表示,为每个修辞格设计独立的基于门控机制的分类器,从而获得输入句子S的第i类修辞格概率将R类修辞格概率连接成一个修辞格的分布表示用于计算情绪的关联分布表示,具体步骤为:
步骤3.1,动态结合特定修辞依赖的语义与句法表示,句子S的表示由公式(4)~(7)计算:
ri=σ(Wi r*[srsyn,srsem]) (4)
zi=σ(Wi z*[srsyn,srsem]) (5)
其中,ri、zi和sri r分别代表第i类修辞格分类器中句子表示的重置门、更新门及隐层状态;Wi r、Wi z与分别为重置门、更新门及隐层状态计算过程中训练参数;σ和tanh为sigmoid函数及双曲正切函数,代表按元素乘法;即sri r为d2维向量;
步骤3.2,在句子表示的基础上,通过公式(8)提取特定修辞格的特征,公式(8)如下:
步骤3.3,句子S的第i类修辞格的概率通过公式(9)计算:
步骤3.4,R类修辞格概率通过公式(10)连接成一个修辞格的分布表示,用于计算情绪的关联分布表示,公式(10)如下:
步骤4.1,情绪分类器的特征利用公式(11)计算:
其中,sre为获取句子情绪关联分布表示的特征;
步骤4.2,句子的情绪关联分布表示通过公式(12)获取:
步骤5,修辞格预测:基于情绪关联分布表示结合第i类修辞格分类器获取的特征表示,获取修辞格识别新特征fi r,以预测第i类修辞格的概率连接R类修辞格的预测概率为概率分布表示用于句子的情绪预测,具体步骤为:
步骤5.1,基于情绪关联分布表示下的转换特征fe→r通过公式(13)获取:
其中,We→r代表情绪关联分布表示的转换矩阵;
步骤5.3,第i类修辞格的预测概率通过sigmoid分类器获取,见公式(15):
步骤6,情绪预测:利用句子的修辞格预测概率分布及语义表示,通过公式(16)计算出一个新的关联特征,然后设计sigmoid分类器预测情绪的概率分布,见公式(17):
步骤7,修辞格与情绪标签确定:利用修辞格及情绪识别任务的阈值threr与three,将预测概率大于阈值的句子标记为特定的类别,从而获取句子的修辞格及情绪标签集,见公式(18):
步骤8,设计基于多任务学习机制的目标函数:鉴于修辞格及情绪识别任务采用的多标签预测方式,利用分类模型中普遍使用的一对多交叉熵损失函数度量两个任务的损失,考虑到修辞格与情绪类别间的关联,设计多任务学习的目标函数,使得本发明在参数共享信息的基础上,相互促进两个任务的识别效果,具体步骤为:
步骤8.1,利用一对多交叉熵计算修辞格识别任务的损失,如公式(19)所示:
步骤8.2,利用一对多交叉熵计算情绪识别任务损失,如公式(20)所示:
步骤8.3,综合两个识别任务的损失作为本发明的总损失,如公式(21)所示:
loss=lossr+losse (21)
其中,loss为本发明的总损失。
本发明的一些参数设定和细节说明:
1.基于Tree-LSTMs的句法表示中,使用斯坦福句法分析器自动解析句子的依存句法。
2.句法树词嵌入层,选取腾讯人工智能实验室的基于大规模多领域语料训练的综合词向量与窗口为3的SE-WRL模型训练的知识词向量,它们维度都为200。
3.通过网格搜索方式,微调Tree-LSTMs隐层维度、修辞格分类器的特征维度、修辞格预测阈值及情绪预测阈值,依据验证集最佳的微平均F1值,它们的值分别设置为64、64、0.88和0.73。
4.为了保证本发明在同一参数配置下稳定的结果,对本发明的参数环境设置种子值为666。
5.训练过程中,批量样本数为6,Epoch值为15。
6.利用初始学习率为0.00005的Adamax优化模型。
7.为了避免产生过拟合问题,训练过程中,在BERT模型和预测层上设置值为0.1的dropout。
为了验证本发明的有效性,表1展示了面向中文构建的一个多标签的修辞格及情绪数据集。数据集源语料来自课本、文学作品、网站及微博,3个研究生完成了标注任务,最终数据库包括11820个句子。在修辞格数据中,3个人标注结果的kappa值为0.848,0.692,0.757;情绪数据中,kappa值为0.458,0.512,0.556。实验过程中,我们根据8:1:1比例划分数据集为训练集、验证集及测试集。
表1修辞格与情绪数据集统计结果
进一步,为了验证本发明的有效性,表2展示了本发明与多个表现优异的多任务模型在修辞格及情绪识别任务中的结果,其中选取的多任务模型的介绍具体如下:
CNN-Adversarial-MUL:多任务学习通过共享相关任务的参数,促进多个任务效果的提升。然而模型的共享部分包含多个任务的共享特征及特定任务的私有特征,学习过程中,相关任务的私有特征对目标任务造成了干扰。因此,一种用于文本分类的对抗式多任务学习框架缓解了共享和私有特征之间的相互干扰。
BERT-MUL:预训练语言模型的语义刻画能力已在多个自然语言理解任务中获得验证,特别是BERT语言模型。基于BERT,提出了一种神经网络的多任务学习框架,用于解决多种自然语言理解任务。模型受益于大量跨任务数据相互产生的正则化效应,使得模型可以学习更通用的语义表示,加快模型对新任务的适应。
表2多任务学习模型的修辞格与情绪识别结果(%)
实验结果表明,本发明优于现有的最好的多任务基准模型。此优势主要得益于以下原因:(1)本发明利用修辞格与情绪的关联分布表示,提升了修辞格及情绪的识别效果。(2)基于门控机制的修辞格分类器,根据特定修辞格类别的特点,自动选取文本的语义及句法信息,能为特定修辞格的识别提供更加精准的信息,且使得本发明有更好的泛化性。
更进一步,为了验证本发明各个模块的重要部分对识别任务的有效性,表2展示了本发明与单任务模型在修辞格及情绪识别中的结果,表3从任务关联学习、基于门控机制的修辞格分类器、词嵌入三个方面,展示了消融模型对修辞格及情绪识别的影响。单任务模型及消融模型的设计具体如下:
(a)任务关联学习
RI-SIG:单任务模式下,在句子的语义及句法表示的基础上,基于门控机制的修辞格分类器识别修辞格。
EI-SIG:单任务模式下,基于BERT模型表示句子语义,利用情绪分类器识别情绪。
w/o RheFusing:情绪识别过程中,移除修辞格的关联分布表示,即基于文本语义表示,利用情绪分类器预测句子的情绪标签。
w/o EmoFusing:修辞格识别过程中,移除情绪的关联分布表示,即基于门控机制的修辞格分类器完成句子的修辞格识别。
w/o Fusing:情绪及修辞格的识别过程中,均移除对应的关联分布表示。
(b)基于门控机制的修辞格分类器
SameRepresentforRI:针对所有修辞格类别,设计一个基于门控机制的修辞格分类器,完成识别任务。
w/o Gate:修辞格分类器中,删除动态结合语义与句法信息的门控机制,句子表示通过连接语义与句法表示获得。
w/o Tree:移除修辞格分类器中的句法表示。
(c)词嵌入
w/o ComprehensiveEmb,w/o KnowledgeEmb:分别移除基于Tree-LSTMs句法表示中的综合词向量或知识词向量。
表3单任务与多任务模型的修辞格与情绪识别结果(%)
表3展示的实验结果表明,在修辞格及情绪识别两个任务中,本发明结果优于单任务模型,从而验证了多任务学习策略对两个识别任务的有效性。其原因是两个任务在多任务学习的策略下,共同调整模型的共享参数,相互促进学习更有效的识别特征,从而提升了两个任务的识别结果。
表4消融实验结果(%)
表4展示的消融实验结果,可得出以下结论:(1)w/o RheFusing、w/o EmoFusing和w/o Fusing的F1值均低于本发明,从而证明本发明的关联分布表示可以相互提升修辞格及情绪的识别的性能。(2)在修辞格识别任务中,SameRepresentforRI、w/o Gate和w/o Tree的F1值均低于本发明,即验证基于门控机制的修辞格分类器是有效的。(3)在基于Tree-LSTMs句法表示中,w/o ComprehensiveEmb和w/o KnowledgeEmb的F1值均低于本发明,并且w/oKnowledgeEmb的F1值最低,此结果证明两种词向量中包含互补的信息,当同时利用两个词向量时,全面准确地刻画了词语的语义。另外,知识词向量可以将词语的含义表达地更为准确。
最后,图2展示了在修辞格及情绪识别任务中,经验地选取最佳阈值threr与three的过程。本发明采用广泛使用的网格搜索方法,以0.01为间隔,从0.01到0.99,调整参数threr与three,然后分别选择在验证集上实现最佳Micro-F1结果的值,用于修辞格和情绪的预测。图2中本发明在情绪识别(图上半部分)与修辞格识别(图下半部分)任务中,当threr=0.88与three=0.73时,本发明取得了最佳的结果,因此,选取此两个阈值确定修辞格及情绪标签。
本发明说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。尽管本文结合实施例的描述,协助技术人员理解本发明的核心思想,但本发明不受限于展示的具体实施例。对于本技术领域的普通技术人员,对本发明核心思想范围内,对实施例进行改变,同样属于本发明保护之列。
Claims (7)
1.一种基于多任务学习的修辞格及隐式情绪识别方法,其特征在于,包括以下步骤:
步骤1,语义信息编码:对于包含N个词语的句子S={w1,w2,...,wN},利用BERT模型,捕获句子S的语义表示srsem;
步骤2,句法信息编码:利用预训练的综合词义词向量与知识词向量,通过拼接的方式,获取句子S的词向量矩阵X={x1,x2,...,xN},然后采用Tree-LSTMs模型编码句子S的句法表示srsyn;
步骤3,修辞格关联分布表示获取:基于上述步骤句子S的语义与句法表示,为每个修辞格设计独立的基于门控机制的分类器,从而获得输入句子S的第i类修辞格概率将R类修辞格概率连接成一个修辞格的分布表示用于计算情绪的关联分布表示;
步骤6,情绪预测:利用句子的修辞格预测概率分布及语义表示,通过公式(16)计算出一个新的关联特征,然后设计sigmoid分类器预测情绪的概率分布,见公式(17):
步骤7,修辞格与情绪标签确定:利用修辞格及情绪识别任务的阈值threr与three,将预测概率大于阈值的句子标记为特定的类别,从而获取句子的修辞格及情绪标签集,见公式(18):
步骤8,设计基于多任务学习机制的目标函数:鉴于修辞格及情绪识别任务采用的多标签预测方式,利用分类模型中普遍使用的一对多交叉熵损失函数度量两个任务的损失;考虑到修辞格与情绪类别间的关联,设计多任务学习的目标函数,使得本发明在参数共享信息的基础上,相互促进两个任务的识别效果。
3.根据权利要求1所述的一种基于多任务学习的修辞格及隐式情绪识别方法,其特征在于,所述步骤2中利用预训练的综合词义词向量与知识词向量,通过拼接的方式,获取句子S的词向量矩阵X={x1,x2,...,xN},然后采用Tree-LSTMs模型编码句子S的句法表示srsyn,具体步骤为:
步骤2.1,结合两类不同预训练词向量,获取句子S的词向量矩阵X={x1,x2,...,xN},一类为大规模语料库上训练的词向量,用于表达词语在多种上下文环境下的综合词义;另一类为基于知识库的确切词义的词向量,如公式(2)所示:
xi=[gi||ki] (2)
其中,xi为词语wi(i=1,2,...N)的词向量,gi代表词语的综合含义词向量,来源于腾讯智能实验室;ki为基于义原的知识词向量,通过SE-WRL模型获取;“||”表示连接操作;
步骤2.2,将词向量矩阵X作为Tree-LSTMs的输入,并利用句子依存句法树的根结点表示作为句子的句法表示,如公式(3)所示:
srsyn=Tree-LSTM(X,Xsyn) (3)
4.根据权利要求1所述的一种基于多任务学习的修辞格及隐式情绪识别方法,其特征在于,所述步骤3中基于上述步骤句子S的语义与句法表示,为每个修辞格设计独立的基于门控机制的分类器,从而获得输入句子S的第i类修辞格概率将R类修辞格概率连接成一个修辞格的分布表示具体步骤为:
步骤3.1,动态结合特定修辞依赖的语义与句法表示,句子S的表示由公式(4)~(7)计算:
ri=σ(Wi r*[srsyn,srsem]) (4)
zi=σ(Wi z*[srsyn,srsem]) (5)
其中,ri、zi和sri r分别代表第i类修辞格分类器中句子表示的重置门、更新门及隐层状态;Wi r、Wi z与分别为重置门、更新门及隐层状态计算过程中训练参数;σ和tanh为sigmoid函数及双曲正切函数,代表按元素乘法;即sri r为d2维向量;
步骤3.2,在句子表示的基础上,通过公式(8)提取特定修辞格的特征,公式(8)如下:
步骤3.3,句子S的第i类修辞格的概率通过公式(9)计算:
步骤3.4,R类修辞格概率通过公式(10)连接成一个修辞格的分布表示,用于计算情绪的关联分布表示,公式(10)如下:
6.根据权利要求1所述的一种基于多任务学习的修辞格及隐式情绪识别方法,其特征在于,所述步骤5中基于情绪关联分布表示结合第i类修辞格分类器获取的特征表示,获取修辞格识别新特征fi r,以预测第i类修辞格的概率连接R类修辞格的预测概率为概率分布表示具体步骤为:
步骤5.1,基于情绪关联分布表示下的转换特征fe→r通过公式(13)获取:
其中,We→r代表情绪关联分布表示的转换矩阵;
步骤5.3,第i类修辞格的预测概率通过sigmoid分类器获取,见公式(15):
7.根据权利要求1所述的一种基于多任务学习的修辞格及隐式情绪识别方法,其特征在于,所述步骤8中鉴于修辞格及情绪识别任务采用的多标签预测方式,利用分类模型中普遍使用的一对多交叉熵损失函数度量两个任务的损失;考虑到修辞格与情绪类别间的关联,设计多任务学习的目标函数,使得本发明在参数共享信息的基础上,相互促进两个任务的识别效果,具体步骤为:
步骤8.1,利用一对多交叉熵计算修辞格识别任务的损失,如公式(19)所示:
步骤8.2,利用一对多交叉熵计算情绪识别任务损失,如公式(20)所示:
步骤8.3,综合两个识别任务的损失作为本发明的总损失,如公式(21)所示:
loss=lossr+losse (21)
其中,loss为本发明的总损失。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110522766.6A CN113158644B (zh) | 2021-05-13 | 2021-05-13 | 一种基于多任务学习的修辞格及隐式情绪识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110522766.6A CN113158644B (zh) | 2021-05-13 | 2021-05-13 | 一种基于多任务学习的修辞格及隐式情绪识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113158644A true CN113158644A (zh) | 2021-07-23 |
CN113158644B CN113158644B (zh) | 2022-09-20 |
Family
ID=76875266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110522766.6A Active CN113158644B (zh) | 2021-05-13 | 2021-05-13 | 一种基于多任务学习的修辞格及隐式情绪识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113158644B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109933795A (zh) * | 2019-03-19 | 2019-06-25 | 上海交通大学 | 基于上下文-情感词向量的文本情感分析系统 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
CN110162636A (zh) * | 2019-05-30 | 2019-08-23 | 中森云链(成都)科技有限责任公司 | 基于d-lstm的文本情绪原因识别方法 |
CN110717334A (zh) * | 2019-09-10 | 2020-01-21 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN111209401A (zh) * | 2020-01-03 | 2020-05-29 | 西安电子科技大学 | 网络舆情文本信息情感极性分类处理系统及方法 |
CN111382565A (zh) * | 2020-03-09 | 2020-07-07 | 南京理工大学 | 基于多标签的情绪-原因对抽取方法及系统 |
CN111488734A (zh) * | 2020-04-14 | 2020-08-04 | 西安交通大学 | 基于全局交互和句法依赖的情感特征表示学习系统及方法 |
CN111966827A (zh) * | 2020-07-24 | 2020-11-20 | 大连理工大学 | 基于异构二部图的对话情感分析方法 |
CN112183064A (zh) * | 2020-10-22 | 2021-01-05 | 福州大学 | 基于多任务联合学习的文本情绪原因识别系统 |
US20210089936A1 (en) * | 2019-09-24 | 2021-03-25 | International Business Machines Corporation | Opinion snippet detection for aspect-based sentiment analysis |
CN112560432A (zh) * | 2020-12-11 | 2021-03-26 | 中南大学 | 基于图注意力网络的文本情感分析方法 |
WO2021082786A1 (zh) * | 2019-10-30 | 2021-05-06 | 腾讯科技(深圳)有限公司 | 语义理解模型的训练方法、装置、电子设备及存储介质 |
-
2021
- 2021-05-13 CN CN202110522766.6A patent/CN113158644B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109933795A (zh) * | 2019-03-19 | 2019-06-25 | 上海交通大学 | 基于上下文-情感词向量的文本情感分析系统 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
CN110162636A (zh) * | 2019-05-30 | 2019-08-23 | 中森云链(成都)科技有限责任公司 | 基于d-lstm的文本情绪原因识别方法 |
CN110717334A (zh) * | 2019-09-10 | 2020-01-21 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
US20210089936A1 (en) * | 2019-09-24 | 2021-03-25 | International Business Machines Corporation | Opinion snippet detection for aspect-based sentiment analysis |
WO2021082786A1 (zh) * | 2019-10-30 | 2021-05-06 | 腾讯科技(深圳)有限公司 | 语义理解模型的训练方法、装置、电子设备及存储介质 |
CN111209401A (zh) * | 2020-01-03 | 2020-05-29 | 西安电子科技大学 | 网络舆情文本信息情感极性分类处理系统及方法 |
CN111382565A (zh) * | 2020-03-09 | 2020-07-07 | 南京理工大学 | 基于多标签的情绪-原因对抽取方法及系统 |
CN111488734A (zh) * | 2020-04-14 | 2020-08-04 | 西安交通大学 | 基于全局交互和句法依赖的情感特征表示学习系统及方法 |
CN111966827A (zh) * | 2020-07-24 | 2020-11-20 | 大连理工大学 | 基于异构二部图的对话情感分析方法 |
CN112183064A (zh) * | 2020-10-22 | 2021-01-05 | 福州大学 | 基于多任务联合学习的文本情绪原因识别系统 |
CN112560432A (zh) * | 2020-12-11 | 2021-03-26 | 中南大学 | 基于图注意力网络的文本情感分析方法 |
Non-Patent Citations (3)
Title |
---|
XIAODONG LIU 等: "Multi-Task Deep Neural Networks for Natural Language Understanding", 《PROCEEDINGS OF THE 57TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》, 2 August 2019 (2019-08-02), pages 4487 - 4496 * |
潘东行 等: "一种融合上下文特征的中文隐式情感分类模型", 《计算机工程与科学》, vol. 42, no. 2, 28 February 2020 (2020-02-28), pages 341 - 350 * |
郭庆 等: "基于tree LSTM的旅游评论情感分析方法研究", 《计算机应用研究》, vol. 37, 31 December 2020 (2020-12-31), pages 63 - 65 * |
Also Published As
Publication number | Publication date |
---|---|
CN113158644B (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902298B (zh) | 一种自适应学习系统中领域知识建模及知识水平估测方法 | |
CN107943784B (zh) | 基于生成对抗网络的关系抽取方法 | |
CN110532557B (zh) | 一种无监督的文本相似度计算方法 | |
CN110334354A (zh) | 一种中文关系抽取方法 | |
CN107967318A (zh) | 一种采用lstm神经网络的中文短文本主观题自动评分方法和系统 | |
CN108363743A (zh) | 一种智能问题生成方法、装置和计算机可读存储介质 | |
CN111310474A (zh) | 基于激活-池化增强bert模型的在线课程评论情感分析方法 | |
CN106503055A (zh) | 一种从结构化文本到图像描述的生成方法 | |
CN111209384A (zh) | 基于人工智能的问答数据处理方法、装置及电子设备 | |
CN112149421A (zh) | 一种基于bert嵌入的软件编程领域实体识别方法 | |
CN110489750A (zh) | 基于双向lstm-crf的缅甸语分词及词性标注方法及装置 | |
CN110825867B (zh) | 相似文本推荐方法、装置、电子设备和存储介质 | |
CN114492441A (zh) | 基于机器阅读理解的BiLSTM-BiDAF命名实体识别方法 | |
CN110968708A (zh) | 一种教育信息资源属性标注方法及系统 | |
CN111368082A (zh) | 一种基于层次网络的领域自适应词嵌入的情感分析方法 | |
CN114417851A (zh) | 一种基于关键词加权信息的情感分析方法 | |
CN113408852A (zh) | 基于在线学习行为和深度神经网络的元认知能力评估模型 | |
CN110852071B (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN112069781A (zh) | 一种评语生成方法、装置、终端设备及存储介质 | |
CN114492460A (zh) | 基于衍生提示学习的事件因果关系抽取方法 | |
Chen et al. | Research on automatic essay scoring of composition based on CNN and OR | |
CN112966518B (zh) | 一种面向大规模在线学习平台的优质答案识别方法 | |
CN114218379A (zh) | 一种面向智能问答系统的无法回答问题的归因方法 | |
CN112883723A (zh) | 基于布鲁姆认知分类理论的深度神经网络认知水平评价模型 | |
CN113158644B (zh) | 一种基于多任务学习的修辞格及隐式情绪识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |