CN109299267B - 一种文本对话的情绪识别与预测方法 - Google Patents
一种文本对话的情绪识别与预测方法 Download PDFInfo
- Publication number
- CN109299267B CN109299267B CN201811202768.1A CN201811202768A CN109299267B CN 109299267 B CN109299267 B CN 109299267B CN 201811202768 A CN201811202768 A CN 201811202768A CN 109299267 B CN109299267 B CN 109299267B
- Authority
- CN
- China
- Prior art keywords
- emotion
- conversation
- text
- emotional
- text conversation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及文本交互应用开发技术领域,公开了一种文本对话的情绪识别与预测方法,包括用于文本对话情绪识别任务的交互式双状态情绪细胞模型和用于文本对话情绪预测任务的交互式双状态情绪细胞模型,用于文本对话情绪识别任务的交互式双状态情绪细胞模型由情绪特征提取层和情绪传播层组成,方法步骤包括文本对话情绪识别和文本对话情绪预测。本发明提出的模型充分体现了文本对话情绪分析的特性,更加适合对话情绪识别与预测任务。精准的识别与预测文本对话中情绪。模型可以充分的建模对话过程中情绪的传播特性:上下文依赖性、持续性、感染性,对情感抚慰、人机对话、智能问答、私人助理机器人、智能客服等应用研究都具有重要的指导意义。
Description
技术领域
本发明涉及文本交互应用开发技术领域,特别涉及一种文本对话的情绪识别与预测方法。
背景技术
Tian等人研究了两种声学特征对对话情绪识别的影响,利用SVM以及LSTM-RNN建立分类器对对话进行情绪分类。
Felbo等人利用了推特上丰富的表情标签来对模型进行远监督训练,在情绪分类、情感分类、讽刺检测等任务上都取得了领先水平。
有些工作利用了多模态的方法,利用视频、音频、文本中丰富特征来进行对话情绪识别。然而社交媒体、即时通讯、在线客服、电子邮件等大多数场景下缺乏视频音频数据,仅仅有文本数据信息。并且,图灵测试设计的对话也是仅仅发生在文本上,声调和面部表情都不起所用,也就是说,仅在文本上的对话情绪分析更能凸显机器的智能性。
另外一些工作在微博twitter等社交媒体文本数据上进行了情绪分析,但是这些社交媒体上的文本数据与文本对话数据有一定的区别。文本对话数据有其特有的属性与特点,例如情绪的波动变化,情绪的交互,情绪的延续等。
发明内容
发明的目的在于提供一种文本对话的情绪识别与预测方法,本发明提出的模型充分体现了文本对话情绪分析的特性,更加适合对话情绪识别与预测任务。精准的识别与预测文本对话中情绪。模型可以充分的建模对话过程中情绪的传播特性:上下文依赖性、持续性、感染性,对情感抚慰、人机对话、智能问答、私人助理机器人、智能客服等应用研究都具有重要的指导意义,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种文本对话的情绪识别与预测方法,包括用于文本对话情绪识别任务的交互式双状态情绪细胞模型和用于文本对话情绪预测任务的交互式双状态情绪细胞模型,其中,用于文本对话情绪识别任务的交互式双状态情绪细胞模型由情绪特征提取层和情绪传播层组成,方法步骤包括文本对话情绪识别和文本对话情绪预测,其中,文本对话情绪识别包括如下步骤:
步骤一:首先,定义两个对话者A和B,A代表对话的发起者,B代表对话的回复者;
文本对话情绪预测包括如下步骤:
步骤一:在应答话语的候选集中选出一个应答;
步骤二:如果一个应答可能会使客户或病人产生负面情绪,则将此应答从候选集中删除,相反,若此应答可能使用户产生满意的情绪,则此应答应该被赋予更高的权重去生成。
进一步地,情绪特征提取层由特征提取单元组成,通过LSTM模型以及attention机制来对对话中的句子进行自动特征提取,学习句子的向量表示,为第二层做准备。
进一步地,情绪传播层由交互式双状态情绪细胞组成。
进一步地,特征提取单元的计算公式如下:
hm,n=LSTM(wm,n)
其中,m=1,2,…,M,m代表对话中的句子索引,n=1,2,…,Nm,n代表句子中的词索引,Waw为attention参数矩阵,am,n为自动学习到的词wm,n的权重,通过与第n个词的向量表示hm,n进行加权相乘,最终得到第m句子的向量表示xm。
进一步地,识别任务中,一个交互式双状态情绪细胞的计算公式如下:
im=σ(Wiixm+bii+Whih(m-1)+bhi)
gm=tanh(Wigxm+big+Whgh(m-1)+bhg)
om=σ(Wioxm+bio+Whoh(m-1)+bho)
em=σ(Wiexm+bie+Wheh(m-1)+bhe)
If Um is what A said:
If Um is what B said:
Em~p(Em|U≤m)=Softmax(Wwhm+bw)
进一步地,识别任务中,目标函数最大化L(Θ)
进一步地,预测任务中,一个交互式双状态情绪细胞的计算公式如下:
im=σ(Wiixm+bii+Whih(m-1)+bhi)
gm=tanh(Wigxm+big+Whgh(m-1)+bhg)
om=σ(Wioxm+bio+Whoh(m-1)+bho)
If Um is what A said:
If Um is what B said:
Em~p(Em|U<m)=Softmax(Wwhm-1+bw)
进一步地,预测任务中,目标函数最大化L(Θ)
与现有技术相比,本发明的有益效果是:本发明提出的文本对话的情绪识别与预测方法,模型方法总体上由两层构成,第一层叫作情绪特征提取层,由情绪特征提取单元构成,主要作用是对历史对话的情绪信息进行自动抽取,刻画文本对话情绪的上下文依赖性。第二层叫作情绪传播层,由情绪细胞构成。情绪细胞包含了四个组件:情绪记忆单元、情绪输入门、情绪交互门以及情绪输出门。两个独立的情绪记忆单元分别用来存储对话过程中对话双方的情绪状态,刻画对话过程中情绪状态的持续或波动;情绪输入门控制信息向情绪记忆单元的流入;情绪交互门用来模拟对话双方情绪之间的影响与感染现象;情绪输出门则是模拟人们对话过程中的情绪表达、情绪发泄、情绪倾述等特性。本发明提出的模型充分体现了文本对话情绪分析的特性,更加适合对话情绪识别与预测任务。精准的识别与预测文本对话中情绪。模型可以充分的建模对话过程中情绪的传播特性:上下文依赖性、持续性、感染性,对情感抚慰、人机对话、智能问答、私人助理机器人、智能客服等应用研究都具有重要的指导意义。
附图说明
图1为本发明的文本对话情绪识别任务的交互式双状态情绪细胞模型总体框图;
图2为本发明的特征提取单元示意图;
图3为本发明的一个情绪细胞示意图;
图4为本发明的交互式双状态细胞示意图;
图5为本发明在上DailyDialog的实验结果示意图;
图6为本发明的某些类别上的F1值示意图;
图7为本发明在DailyDialog数据集上对于预测任务的实验结果示意图;
图8为本发明在Cornell Movie-Dialogs Corpus上针对预测任务的实验结果示意图;
图9为本发明的情绪特征提取层的Attention权重可视化展示图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,一种文本对话的情绪识别与预测方法,包括用于文本对话情绪识别任务的交互式双状态情绪细胞模型和用于文本对话情绪预测任务的交互式双状态情绪细胞模型,其中,用于文本对话情绪识别任务的交互式双状态情绪细胞模型由情绪特征提取层和情绪传播层组成,第一层叫做情绪特征提取层,由特征提取单元(Emotion FeatureExtraction Unit)构成,主要用于对话句子中重要情绪特征的自动提取,第二层叫做情绪传播层,由交互式双状态情绪细胞(Interactive Double States-Emotion Cell)构成,主要用于建模文本对话中情绪的传播变化情况。
情绪特征提取层由特征提取单元构成,通过LSTM模型以及attention机制来对对话中的句子进行自动特征提取,学习句子的向量表示,为第二层做准备。情绪特征提取层借助神经网络来自动提取整个历史对话信息,刻画的是文本对话中情绪的上下文依赖性。特征提取单元如图2所示。特征提取单元的计算公式如下:
hm,n=LSTM(wm,n)
其中,m=1,2,…,M,m代表对话中的句子索引,n=1,2,…,Nm,n代表句子中的词索引,Waw为attention参数矩阵,其代表的意思可以看成是“what are the informativewords?”,am,n为自动学习到的词wm,n的权重,通过与第n个词的向量表示hm,n进行加权相乘,最终得到第m句子的向量表示xm。
情绪传播层由交互式双状态情绪细胞(Interactive Double States-EmotionCell)构成,用来建模对话情绪的传播,首先介绍情绪细胞,情绪细胞的提出受到LongShort-Term Memory model(LSTM)模型[17]的启发,LSTM模型被提出来建模序列数据的长距离依赖,用于克服传统RNN循环神经网络梯度弥散问题。一个情绪细胞如图3所示。
情绪记忆单元存储对话过程中的情绪状态,刻画的是对话过程中情绪状态的波动与变化过程;情绪输入门根据历史情绪对心情以及未来情绪状态的影响来控制历史情绪向情绪记忆单元的流入;情绪遗忘门来模拟人们对话过程中对以往情绪的遗忘特性;情绪输出门则是模拟人们对话过程中的情绪表达、情绪发泄、情绪倾述等特性。
根据之前的分析知道,文本对话情绪与一般的文本情绪分析不同,除了上下文依赖性,还有情绪状态持续性和情绪状态交互感染性。因此提出了交互式双状态细胞来刻画文本对话中情绪的这几个特性。交互式双状态细胞如图4所示。
其中,文本对话情绪识别包括如下步骤:
步骤一:对话通常涉及到两个人或者两个人以上,不失一般性,本发明仅仅考虑两个人之间的对话,首先,定义两个对话者A和B,A代表对话的发起者,B代表对话的回复者;
E={no emotion/neutral,anger,disgust,fear,happiness,sadness,surprise}。
Picard等人中定义了情感计算任务的四种类型,如表1所示,可以将其类比到文本对话情绪分析任务中。其中“perceive emotion”感知情绪是一切情绪分析任务中的基石。因此本发明的情绪分析主要专注于研究机器自动感知情绪,“express emotion”表达情绪留到未来工作中。本发明将文本对话上的情绪感知任务分为两个子任务,一个是文本对话情绪识别,另一个是文本对话情绪预测。
表1情感计算4种类型
文本对话情绪识别任务是指,给定对话D=(U1,U2,…,UM),识别说话者的情绪状态ED=(E1,E2,…,EM),
其中U≤m=U1,U2,…,Um
也就是说,用前m个文本对话历史信息(包含第m个话语),来识别第m时刻对话者的情绪状态。
识别任务中,一个交互式双状态情绪细胞(Interactive Double States-EmotionCell)的计算公式如下:
im=σ(Wiixm+bii+Whih(m-1)+bhi)
gm=tanh(Wigxm+big+Whgh(m-1)+bhg)
om=σ(Wioxm+bio+Whoh(m-1)+bho)
em=σ(Wiexm+bie+Wheh(m-1)+bhe)
If Um is what A said:
If Um is what B said:
Em~p(Em|U≤m)=Softmax(Wwhm+bw)
其中,im表示情绪输入门,om表示情绪输出门,em表示情绪交互门, 分别表示对话者A和B的情绪记忆单元,的意思是,A在第m时刻的情绪状态由A自己前一个状态的情绪以及B上个时刻的情绪对自己的影响以及此时A说的话imgm共同决定,xm代表第m个句子向量,hm代表m时刻的输出值,m=1,2,…,M。
识别任务中,目标函数最大化L(Θ)
目标函数的意思是:在给定对话历史信息U≤m或的条件下,使得系统识别情感标签为gold label真实标签Em的概率尽可能的大。
在实际的操作编程中,用分类问题中常用的最小化交叉熵损失函数来近似的最大化目标函数。
在对话场景中,感知情绪不仅仅是指给定一个话语去自动识别其中的情绪。事实上,在很大一部分场景中,需要在还未知对方的话语时就获取对方的情绪。例如,在人机对话、智能客服、情绪安抚等应用中,需要在应答话语的候选集中选出一个应答,文本对话情绪预测包括如下步骤:
步骤一:在应答话语的候选集中选出一个应答;
步骤二:如果一个应答可能会使客户或病人产生负面情绪,则将此应答从候选集中删除,相反,若此应答可能使用户产生满意的情绪,则此应答应该被赋予更高的权重去生成。
情绪预测,即预测情绪的走势。给定一个对话的前m轮话语,需要预测出这个对话下一时刻的情绪,即第m+1轮话语的情绪状态。
对于对话D=(U1,U2,…,UM-1),预测其情绪状态ED=(E2,E3,…,EM)
其中,U≤m=U1,U2,…,Um
即在对方还未说话之前就预测对方可能的情绪,这样可以避免说一些让对方产生负面情绪的话,或者让对话按照计划的方向进行。
预测任务中,一个交互式双状态情绪细胞(Interactive Double States-EmotionCell)的计算公式如下:
im=σ(Wiixm+bii+Whih(m-1)+bhi)
gm=tanh(Wigxm+big+Whgh(m-1)+bhg)
om=σ(Wioxm+bio+Whoh(m-1)+bho)
If Um is what A said:
If Um is what B said:
Em~p(Em|U<m)=Softmax(Wwhm-1+bw)
预测任务中,目标函数最大化L(Θ)
本发明提出IDS-ECM的主要思想为:(1)既然对话是两个人之间的交互式的信息交流,那么对话者A和B在对话过程中可能展现出不同的情绪变化。为两个对话者A和B分别建立不同的情绪状态记忆来分别刻画各自的情绪状态,这样有助于保留各自的历史情绪状态,凸显情绪的持续性。当识别A的情绪时,只需用到A的情绪状态,当识别B的情绪时,只需用到B的情绪状态。(2)对话双方在交流的过程中,情绪是会互相影响的,“We sometimessay emotions are contagious”。因此设计了交互式门控单元来模拟对话者双方之间的情绪感染特性。(3)短对话过程中,情绪状态有一定的持续性,可能会改变,但不会很快的遗忘。情绪发生改变只不过是表达的情绪发生了改变,之前的情绪状态依然存储在情绪记忆单元中,并没有完全被遗忘。也就是说在未来某个时刻,也还可能会进行表达。因此根据短对话的特点,去除了情绪遗忘门。
以下对本发明的实验进行分析
1.实验数据
本发明的实验采用了两个数据集,一个是人工标注了情绪的DailyDialog数据集,另一个数据集为在Cornell Movie-Dialogs Corpus数据集的基础上进行自动情绪标注的数据集。
DailyDialog
DailyDialog为Danescu等人构建的一个日常多轮对话语料库,数据集包含丰富的情绪,表明情绪带入可以强化人们之间的社会联系,是社交中必不可少的一部分。并且,在对话生成中考虑情绪因素也对对话自动生成有重要作用。其标注的情感标签体系为:E={no emotion/neutral,anger,disgust,fear,happiness,sadness,surprise}。
Cornell Movie-Dialogs Corpus
Cornell Movie-Dialogs Corpus是一个从电影剧本中抽取出来的虚拟多轮对话数据。
然而,由于人工标注耗时耗力,人工标注过情绪的文本对话数据并不多见,Cornell Movie-Dialogs Corpus数据集也没有标注情绪标签。因此使用了自动标注的方法对Cornell Movie-Dialogs Corpus数据集进行自动标注。
Felbo等人利用了推特上丰富的表情标签来对模型进行远监督训练,在情绪分类、情感分类、讽刺检测等任务上都取得了领先水平。因此利用其训练好的先进分类器对Cornell Movie-Dialogs Corpus进行自动情绪标注。对数据进行了随机切分。表2是在DailyDialog和Cornell Movie-Dialogs Corpus数据集上的一些数量统计。
表2:数据集上的数据统计
DailyDialog | Cornell Movie-Dialogs Corpus | |
Train | 11118 | 66290 |
Validation | 1000 | 8286 |
Test | 1000 | 8287 |
All | 13118 | 82863 |
值得注意的是,DailyDialog数据是人工精确标注过的,作为实验的主要数据集进行分析,而MovieDialog是自动标注数据集,标注结果难免存在误差,只作为次要的补充的数据集进行分析。
2.实验参数设置
用PyTorch来实现提出的模型,剪枝了长度大于30的句子以及对话轮数大于15的对话。词表大小为5万,对每个词进行了嵌入式表示,word embedding size大小为256维,用Felbo等人训练好的词向量进行初始化而不是随机初始化。在第一层的特征自动提取阶段,使用的是带attention的一层双向LSTM模型,其中attention变量和LSTM hidden size的大小都为512维。第二层中hidden size的大小也为512。Dropout rate为0.2,learning rate为0.001。用交叉熵损失函数作为模型优化目标函数,The optimization algorithm isAdam。Batch size为128,epoch为100。程序是在NviDIA GeForce GTX 1080型号显卡上运行的。
3.评价指标evaluation metric
评价指标采用macro-average宏平均F1值。
n代表类别的总个数,Fi代表第i类的F1值。
4.Baseline:LSTM model with attention
SemVal2018task1中的任务中大多数模型采用的是基于深度学习模型LSTM,因此将文本对话情绪分析看成是简单的文本情绪分类问题,利用单句的LSTM+attention对当前句子Um进行文本分类,此方法作为实验的一个baseline。
5.实验结果及分析
主要是情绪识别和情绪预测任务上的实验结果及分析。包括了在所有类别上总的宏平均F1值以及在某些单类上的结果。
5.1在文本对话情绪识别任务上的实验结果
如图5,Figure 6展示了在上DailyDialog的实验结果,可以看出,在预测任务中,baseline模型的收敛速度要快于提出的模型,这是因为,单句对话情绪分类模型的优化目标是句子级的,而本发明提出的模型是对话级的,优化的复杂度要大于baseline模型,本发明提出的模型更难优化。从最终收敛的结果上看,本发明的模型在训练集上的封闭测试和在测试集的结果都优于baseline模型。这是由于本发明的模型考虑了对话的历史信息,而话语的情绪是依赖于上下文语境的。模型在训练集上封闭测试结果在一定程度上反应了模型对数据的建模能力。
如图6,展示了某些类别上的F1值,从图6中可以看出,本发明的模型在‘anger’、‘disgust’和‘sadness’上结果优于baseline模型,而在‘happiness’上结果与baseline模型相当。正如前文所述,本发明的模型考虑了情绪的上下文依赖性、持续性、感染性,而baseline模型则没有。那么图6的实验结果说明,负类情绪如‘anger’、‘disgust’和‘sadness’相较于正类情绪如‘happiness’的识别需要更多的历史信息,如自身的历史情绪状态。因此,负类情绪具有很强的持续性。如果一个人的历史的情绪为负类,那么这个人未来的情绪状态很可能与历史的负类情绪状态保持一致,而不容易受到他人情绪的干扰或者感染。
为了进一步验证以上结论,在训练数据上进行了统计分析:简单的统计了一下情绪直接持续率与情绪直接感染率。情绪直接持续率是指,如果当前时刻A/B的情绪是Em,并且在下一时刻依然是Em,即那么就说情绪Em发生了一次直接持续,否则不算,最终统计直接持续量的比率。情绪直接传染率是指,如果当前时刻A/B的情绪是Em,并且下一时刻对方B/A的情绪是Em,即那么就说情绪Em发生了一次直接感染,否则不算,最终统计直接感染量的比率。分别对类别‘anger’、‘disgust’、‘sadness’和‘happiness’进行了统计。如下表3展示了在情绪持续性和情绪感染性上不同情绪类别的统计差异。
从上表中可以看出,负类情绪如‘anger’、‘disgust’和‘sadness’的持续率(53.44%,42.68%,34.63%)要明显高于感染率(12.47%,13.91%,6.65%),证明了前文的假设:负类情绪具有强持续性。此外,从表中还可以看出,正类情绪如‘happiness’的感染率(63.37%)明显高于负类情绪(12.47%,13.91%,6.65%),说明了正类情绪具有较强感染性。
这个积极情绪与消极情绪在对话中的传播差异现象在应用中给了很大的启发。例如,对于情绪安抚师,要尽可能的在与患者交流的过程中表现出积极的情绪,以此来感染患者,达到情绪安抚的目的。同时,医生也不必担心每天要接触很多悲观的患者而使自己感染负面情绪,因为负面情绪具有较弱的传染性。
5.2在文本对话情绪预测任务中的实验结果
如图7,显示了在DailyDialog数据集上对于预测任务的实验结果,除了与在识别任务中相似的结论外,还可以得到以下结论。在预测任务中,baseline模型用上一时刻的话语来推理当前时刻的情绪,仅考虑了上一个状态和当前状态的交互(传染)作用,而未考虑历史情绪状态的延续。本发明的模型同时考虑了历史情绪状态的交互以及延续。例如,第m-2时刻A的情绪是happiness,第m-1句话B的情绪是fear,那么第m时刻A的情绪可能会受到B的情绪的影响,产生fear,也可能会延续自己的历史情绪happiness,而未受到m-1时刻B的情绪fear的影响。在第二种场景下,baseline模型由于只考虑了m-1时刻B的情绪,而未考虑历史信息,其推理能力就不如本发明提出的模型。
从图7的(b)中得知,IDS-ECM在推理任务上的结果要优于ECM。这是因为,IDS-ECM使用了交互的双情绪状态记忆单元来分别刻画A和B的情绪状态,每个情绪状态记忆单元专注于推理自身的情绪。并且,由于IDS-ECM移除了情绪遗忘门,使得在短对话中的有效信息可以充分的保留。因此本发明提出的IDS-ECM更加适合情绪推理任务。
通过对比图5和图7,可以看出,模型在情绪预测任务上的结果要明显差于在情绪识别任务上的结果,这与预期一致。情绪预测任务用到了更少的对话信息,因此较于情绪识别任务来说更难。
如图8显示了在Cornell Movie-Dialogs Corpus上针对预测任务的实验结果,其结果与DailyDialog上的实验结果类似。
5.3运行时间
统计了模型在DailyDialog数据集上的运行100个epochs的运行时间,结果如下表4所示。由于设计的两个模型是以对话为单位运行的,而baseline模型是以句子为单位运行的,因此本发明的算法运行时间总体要比baseline短。IDS-ECM算法在预测任务中算法更复杂,因此花费时间较高。
表4:模型运行时间统计表
模型 | Identification(min) | Prediction(min) |
Baseline | 174 | 142 |
ECM | 46 | 43 |
IDS-ECM | 46 | 173 |
情绪特征提取层的Attention权重可视化展示,本发明的模型第一层为情绪特征提取层,使用LSTM以及Attention技术对对话进行自动的情绪特征提取,为了验证特征自动抽取的有效性,从测试集举了一个对话例子来展现自动抽取的特征的attention权重。从图9中可以看出,情绪特征提取层能够有效的提取出对于情绪分析有用的特征,而不需要人工的特征工程。
综上所述,本发明提出的文本对话的情绪识别与预测方法,模型方法总体上由两层构成,第一层叫作情绪特征提取层,由情绪特征提取单元构成,主要作用是对历史对话的情绪信息进行自动抽取,刻画文本对话情绪的上下文依赖性。第二层叫作情绪传播层,由情绪细胞构成。情绪细胞包含了四个组件:情绪记忆单元、情绪输入门、情绪交互门以及情绪输出门。两个独立的情绪记忆单元分别用来存储对话过程中对话双方的情绪状态,刻画对话过程中情绪状态的持续或波动;情绪输入门控制信息向情绪记忆单元的流入;情绪交互门用来模拟对话双方情绪之间的影响与感染现象;情绪输出门则是模拟人们对话过程中的情绪表达、情绪发泄、情绪倾述等特性。本发明提出的模型充分体现了文本对话情绪分析的特性,更加适合对话情绪识别与预测任务。精准的识别与预测文本对话中情绪。模型可以充分的建模对话过程中情绪的传播特性:上下文依赖性、持续性、感染性,对情感抚慰、人机对话、智能问答、私人助理机器人、智能客服等应用研究都具有重要的指导意义。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (6)
1.一种文本对话的情绪识别与预测方法,其特征在于,包括用于文本对话情绪识别任务的交互式双状态情绪细胞模型和用于文本对话情绪预测任务的交互式双状态情绪细胞模型,其中,用于文本对话情绪识别任务的交互式双状态情绪细胞模型由情绪特征提取层和情绪传播层组成,方法步骤包括文本对话情绪识别和文本对话情绪预测,其中,文本对话情绪识别包括如下步骤:
步骤一:首先,定义两个对话者A和B,A代表对话的发起者,B代表对话的回复者;
在识别任务中,一个交互式双状态情绪细胞的计算公式如下:
im=σ(Wiixm+bii+Whih(m-1)+bhi)
gm=tanh(Wigxm+big+Whgh(m-1)+bhg)
om=σ(Wioxm+bio+Whoh(m-1)+bho)
em=σ(Wiexm+bie+Wheh(m-1)+bhe)
当话语Um是由A所说时:
当话语Um是由B所说时:
Em~p(Em|U≤m)=Softmax(Wwhm+bw)
文本对话情绪预测包括如下步骤:
步骤一:在应答话语的候选集中选出一个应答;
步骤二:如果一个应答会使用户产生负面情绪,则将此应答从候选集中删除,相反,若此应答使用户产生满意的情绪,则此应答被赋予更高的权重去生成;
在预测任务中,一个交互式双状态情绪细胞的计算公式如下:
im=σ(Wiixm+bii+Whih(m-1)+bhi)
gm=tanh(Wigxm+big+Whgh(m-1)+bhg)
om=σ(Wioxm+bio+Whoh(m-1)+bho)
当话语Um是由A所说时:
当话语Um是由B所说时:
Em~p(Em|U<m)=Softmax(Wwhm-1+bw)
2.根据权利要求1所述的一种文本对话的情绪识别与预测方法,其特征在于,情绪特征提取层由特征提取单元组成,通过LSTM模型以及attention机制来对对话中的句子进行自动特征提取,学习句子的向量表示,为第二层做准备。
3.根据权利要求1所述的一种文本对话的情绪识别与预测方法,其特征在于,情绪传播层由交互式双状态情绪细胞组成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811202768.1A CN109299267B (zh) | 2018-10-16 | 2018-10-16 | 一种文本对话的情绪识别与预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811202768.1A CN109299267B (zh) | 2018-10-16 | 2018-10-16 | 一种文本对话的情绪识别与预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109299267A CN109299267A (zh) | 2019-02-01 |
CN109299267B true CN109299267B (zh) | 2022-04-01 |
Family
ID=65162813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811202768.1A Active CN109299267B (zh) | 2018-10-16 | 2018-10-16 | 一种文本对话的情绪识别与预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109299267B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109951607B (zh) * | 2019-03-29 | 2021-01-26 | 努比亚技术有限公司 | 一种内容处理方法、终端及计算机可读存储介质 |
CN110162625B (zh) * | 2019-04-19 | 2020-01-14 | 杭州电子科技大学 | 基于句内词对关系和上下文用户特征的反讽检测方法 |
CN110427454B (zh) * | 2019-06-21 | 2024-03-15 | 平安科技(深圳)有限公司 | 文本情绪分析方法及装置、电子设备和非暂态存储介质 |
CN110587621B (zh) * | 2019-08-30 | 2023-06-06 | 深圳智慧林网络科技有限公司 | 机器人、基于机器人的病人看护方法和可读存储介质 |
CN111460143A (zh) * | 2020-03-11 | 2020-07-28 | 华南理工大学 | 一种多人对话系统的情绪识别模型 |
CN111950275B (zh) * | 2020-08-06 | 2023-01-17 | 平安科技(深圳)有限公司 | 基于循环神经网络的情绪识别方法、装置及存储介质 |
CN112069316B (zh) * | 2020-09-03 | 2021-08-24 | 常州微亿智造科技有限公司 | 情绪识别方法和装置 |
CN112270168B (zh) * | 2020-10-14 | 2023-11-24 | 北京百度网讯科技有限公司 | 对白情感风格预测方法、装置、电子设备及存储介质 |
CN113535957B (zh) * | 2021-07-27 | 2022-08-02 | 哈尔滨工业大学 | 基于双重知识交互和多任务学习的对话情绪识别网络模型系统、构建方法、设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106055662A (zh) * | 2016-06-02 | 2016-10-26 | 竹间智能科技(上海)有限公司 | 基于情感的智能对话方法及系统 |
CN108415923B (zh) * | 2017-10-18 | 2020-12-11 | 北京邮电大学 | 封闭域的智能人机对话系统 |
CN108363690A (zh) * | 2018-02-08 | 2018-08-03 | 北京十三科技有限公司 | 基于神经网络的对话语义意图预测方法及学习训练方法 |
CN108446275A (zh) * | 2018-03-21 | 2018-08-24 | 北京理工大学 | 基于注意力双层lstm的长文本情感倾向性分析方法 |
-
2018
- 2018-10-16 CN CN201811202768.1A patent/CN109299267B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109299267A (zh) | 2019-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109299267B (zh) | 一种文本对话的情绪识别与预测方法 | |
Tripathi et al. | Deep learning based emotion recognition system using speech features and transcriptions | |
Fung et al. | Towards empathetic human-robot interactions | |
Perez-Gaspar et al. | Multimodal emotion recognition with evolutionary computation for human-robot interaction | |
CN110675859B (zh) | 结合语音与文本的多情感识别方法、系统、介质及设备 | |
CN108829662A (zh) | 一种基于条件随机场结构化注意力网络的对话行为识别方法及系统 | |
Liu et al. | Group gated fusion on attention-based bidirectional alignment for multimodal emotion recognition | |
Li et al. | Interactive double states emotion cell model for textual dialogue emotion prediction | |
CN113987179A (zh) | 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质 | |
Li et al. | Enhancing emotion inference in conversations with commonsense knowledge | |
CN112949684B (zh) | 一种基于强化学习框架的多模态检测对话情感信息的方法 | |
CN111460143A (zh) | 一种多人对话系统的情绪识别模型 | |
Fu et al. | CONSK-GCN: conversational semantic-and knowledge-oriented graph convolutional network for multimodal emotion recognition | |
CN114911932A (zh) | 基于主题语义增强的异构图结构多会话者情感分析方法 | |
CN112131367A (zh) | 自审核的人机对话方法、系统及可读存储介质 | |
Gupta et al. | Speech emotion recognition using svm with thresholding fusion | |
Chen et al. | Sequence-to-sequence modelling for categorical speech emotion recognition using recurrent neural network | |
CN116049387A (zh) | 一种基于图卷积的短文本分类方法、装置、介质 | |
Vashishtha et al. | Unsupervised fuzzy inference system for speech emotion recognition using audio and text cues (workshop paper) | |
Yang et al. | Gated multimodal fusion with contrastive learning for turn-taking prediction in human-robot dialogue | |
Zhao et al. | Knowledge-aware bayesian co-attention for multimodal emotion recognition | |
CN114020897A (zh) | 一种对话情感识别方法及相关装置 | |
CN116204644A (zh) | 一种基于VAE和Attention的主题增强文本情感分类方法 | |
Kalamani et al. | Feature selection algorithms for automatic speech recognition | |
Atmaja et al. | Dimensional Speech Emotion Recognition from Acoustic and Text Features using Recurrent Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |