CN115858756A - 基于感知情绪倾向的共情人机对话系统 - Google Patents
基于感知情绪倾向的共情人机对话系统 Download PDFInfo
- Publication number
- CN115858756A CN115858756A CN202211634216.4A CN202211634216A CN115858756A CN 115858756 A CN115858756 A CN 115858756A CN 202211634216 A CN202211634216 A CN 202211634216A CN 115858756 A CN115858756 A CN 115858756A
- Authority
- CN
- China
- Prior art keywords
- emotion
- attention
- vector
- emotional
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明涉及一种基于感知情绪倾向的共情人机对话系统,包括:外部知识模块,用于对输入语句,通过概念网络和vad情感向量,构建情感上下文向量;情感上下文编码器模块,用于基于transformer编码器对情感上下文向量进行编码,然后输入多头注意力网络,得到情绪信号;情感倾向编码器模块,用于计算输入语句中词语与情感之间的情绪倾向性;共享注意力模块,用于共享多头注意力网络的注意力参数,获得多个注意力特征,并采用多元残差网络进行融合,得到融合注意力特征向量;情感依赖解码器模块,用于整合情绪信号和融合注意力特征向量,基于transformer解码器,利用多头交叉注意力网络,输出预测的对话回复。该系统有利于感知词语的情绪倾向性,获得更好的对话回复。
Description
技术领域
本发明涉及人机对话技术领域,尤其涉及一种基于感知情绪倾向的共情人机对话系统。
背景技术
共情是一种复杂的社会情感行为,是情感和认知机制相互作用的结果。人机对话旨在研究如何使计算机来理解和运用人类社会的自然语言。共情对话系统通过整合情感相关因素,有利于对话系统加强与人类用户的情感联系,以提升用户的满意度以及参与度,其在对话领域有着重要作用。
由于大量对话数据的可用性以及对话AI的神经方法的发展,人们对开发智能的开放域对话系统产生了浓厚的兴趣,闲聊型对话应运而生。与传统的面向任务的机器人不同,开放域对话系统旨在通过满足人类对沟通,情感和社会归属感的需求与用户建立长期联系,致力于解决三种开发这样的系统所面临的挑战:语义,一致性和交互性。语义要求对话系统不仅要了解对话的内容,还要识别对话过程中用户的情感和社交需求。一致性要求该系统表现出一致的个性以赢得用户的信任并获得他们的长期信任。互动性是指系统产生人际反应以实现特定社会目标(例如娱乐和顺应性)的能力。
闲聊型对话的解决方法主要有三种:
(1)基于生成式的对话
使用语言模型生成目标句子,缺点是往往会生成一些泛泛无意义的回复,学术界称之为“安全回复”。生成式对话也很容易出现前后回复不一致或者句子不通顺的问题,但优点在于生成式对话生成的句子更加灵活和丰富。生成式对话对数据集质量要求往往较高。
(2)基于检索式的对话
工业上颇爱使用,其基本思想是假设收集现实已有对话范例,在出现相似对话时候,只要从范例中匹配出相应回复即可。
具体而言,假定现实对话中存在一个匹配关系(C,R),对话范例中存在匹配关系(C*,R*)。通过检索算法,根据C找C*,得到几个候选的R*,再从中选择最合适的R。这种方法缺点在于极其依赖检索算法的性能,可能出现最佳回复不在检索算法选取的候选回复中,以及不能够根据场景生成多样的回复。
(3)基于生成及检索式对话
将生成式和检索式结合使用,核心思想是:先检索,后改写。
具体而言,与检索式对话类似地,根据C匹配C*,找到候选的R*,提取R*的骨架(模板回复格式),通过编辑向量对R*进行改写,最终生成回复R。
总而言之,开放域对话系统在当下任务中需要考虑如何将现实世界的实体和知识嵌入到对话中去。外部知识库对于系统提供人际反应是至关重要的。系统回复的语气也需要根据用户的情绪状态和情感进行调整。闲聊型对话相比于任务型对话,往往没有固定的回复标准,但其对回复的丰富性要求也更高,对于相应情感是否充分表达也是重要的参考指标。同时由于网络的遗忘性,历史输入信息容易丢失,上下文回复存在矛盾性也是令人头疼的问题,这都是未来需要解决的问题。
发明内容
本发明的目的在于提供一种基于感知情绪倾向的共情人机对话系统,该系统有利于感知词语的情绪倾向性,获得更好的对话回复。
为实现上述目的,本发明采用的技术方案是:一种基于感知情绪倾向的共情人机对话系统,包括:
外部知识模块,用于对输入语句,通过概念网络和vad情感向量,构建情感上下文向量;
情感上下文编码器模块,用于基于transformer编码器对情感上下文向量进行编码,然后输入多头注意力网络,得到情绪信号;
情感倾向编码器模块,用于计算输入语句中词语与情感之间的情绪倾向性,以更好地表示出词语与相应情感之间的相关性信息;
共享注意力模块,用于共享情感上下文编码器模块中多头注意力网络不同层的注意力参数,获得多个注意力特征,并采用多元残差网络融合多个注意力特征,得到融合注意力特征向量,以提高语义信息丰富程度;
情感依赖解码器模块,用于整合情绪信号和融合注意力特征向量,基于transformer解码器,利用多头交叉注意力网络,输出预测的对话回复。
进一步地,所述外部知识模块将输入语句与外部知识图谱概念网络和vad情感向量匹配,计算情感强度和候选概念词组中的置信度得分,通过选择得分较高的概念词组,得到一个四元组,所述四元组包括与输入语句中词汇相关联的头部概念、关系、尾部概念以及相应的置信度得分,并将所述四元组组合为一个情感上下文。
进一步地,所述情感上下文编码器模块基于transformer编码器结构,包括词嵌入层、多头注意力网络和情感信号层;
所述词嵌入层通过预训练Glove向量,将情感上下文中每一个词语转化为多维的嵌入向量,组合所有词语的嵌入向量,输入到多头注意力网络中;
所述多头注意力网络将词嵌入层编码后的向量作为输入,通过以下公式提取输入语句的语义信息,并将提取后的向量通过残差连接和标准化层,以进行后续处理和系统优化:
MutiHead(Q,K,V)=Concat(head1,...,headh)WO
其中,Q,K,V分别表示在注意力机制中将输入向量线性变换为查询向量Q、键向量K和值向量V,MutiHead(Q,K,V)表示计算三个向量分为多头后再拼接的结果,headi表示第i个头的注意力值,h表示注意力头的数量,Concat(head1,...,headh)表示将多个注意力头的结果进行拼接,WO表示多头拼接时的初始权重矩阵,分别表示将查询向量Q、键向量K和值向量V分别与其权重矩阵相乘的结果,/>表示利用三个向量与其权重矩阵相乘后的结果计算注意力值;
所述情感信号层将多头注意力网络的输出作为输入,并计算出情感信号;所述情感信号包括经过精炼的语义信息和用于情感分类的信息,其计算公式如下:
其中,表示情感上下文变量,/>表示多头注意力网络的输出,e为外部知识图谱中概念网络的顶点数量;exp(ηi)表示以自然常数e为底的指数函数,ηi表示对应/>的情感强度,ce是一个d维大小的向量;We为[32,d]大小的权重矩阵,d为嵌入层的维度大小;softmax(Wece)表示使用softmax线性层将ce向量投影到情绪信号Pe。
进一步地,所述情感倾向编码器模块包括词嵌入层、情绪倾向计算层和编码器层,所述情感倾向编码器模块的词嵌入层与情感上下文编码器模块的词嵌入层相同,所述情绪倾向计算层用于获得每一个词语与32种情绪的关联性,这种关联性即为情绪倾向性;
首先将输入语句通过词嵌入层转化为向量表示,若输入语句的词嵌入表示为[w1,w2,,...,wd],d为句子中的单词个数,则语句中的第i个单词wi∈[w1,w2,,...,wd],i∈[1,d];若32个情感向量的词嵌入用[e1,e2,,...,e32]来表示,则每个情感词ej∈[e1,e2,,...,e32],j∈[1,32];那么,wi与ej的情绪相关性为:
其中,oij表示情绪相关性,即计算出来的余弦相似度;Cosine(wi,ej)表示计算wi和ej两个向量的余弦相似度,||wi||表示向量模长;
对每一类情感在余弦相似度上的均值执行去平均操作,以使词语的整体情感表达趋于稳定;即对某一类情感ej在整个数据集中单词的余弦相似度取均值:
其中,n为整个数据集中的单词个数;
再执行去平均操作,得到wi与ej的去平均后最终的情绪相关性Oij:
Oij=oij-Avg(w,ej)
在使用余弦相似度时,还通过idf计算词语权重,以减少高频词的影响;
其中,idfi表示第i个词语的idf值,即词语权重Wi,|D|表示语料库中的文档总数,|N|表示包含该词语的文档数;
所述编码器层的输入为情绪倾向度;对于情绪倾向度ETi,j,通过对去平均的情绪相关性与词语的权重进行融合得到,即:
ETi,j=Oij×Wi,j
其中,ETi表示词语i的所有情绪倾向度,ETi=[ETi,1,ETi,2...ETi,64];将ETi输入到与transformer结构相同的情绪倾向编码器模块中,并将该输出与情感上下文编码器模块的输出进行拼接:
OUTemo=Emo_encoder(ETi)
OUTece=Emo_contextx_encoder(Wi)
其中,Emo_encoder(ETi)表示将ETi作为情感倾向编码器模块的输入,得到输出OUTemo;Emo_contextx_encoder(Wi)表示将第i个词语的嵌入向量Wi作为情感倾向编码器模块的输入,得到输出OUTece,表示将两个输出进行拼接,得到输出OUTei,OUTei为一个d+64维大小的向量。
将所有输入词语的OUTe综合并输出到情感上下文编码器模块的情感信号层,其中OUTe=[OUTe1,OUTe2,....OUTen],n为输入词语总数;计算出包含上下文语义信息和词语情绪倾向性的情感信号,用于解码器模块产生丰富的回复。
进一步地,所述共享注意力模块采用两个共享注意力网络分别共享情感上下文编码器中多头注意力网络的第2层和第3层的注意力参数,两个共享注意力网络的最后一层输出的注意力特征输入到特征融合层;
特征融合层采用多元残差网络进行特征融合,融合两个共享注意力网络输出的语义信息;所述多元残差网络包括投影部分和关联部分;所述投影部分首先将两个注意力特征As1和As2映射到同一对象空间,As1映射为Hs1,As2映射为Hs2,则:
Hs1=As1+Relu(Wms1As1)
Hs2=As2+Relu(Wms2As2)
然后,采用双线性策略来关联不同注意力特征的关系;首先对As1和As2分别与权重矩阵W进行拼接,得到x1与x2,然后将得到的x1和x2进行乘积运算,得到Z:
W=UVT
再通过池化层得到输出R:
R=AvgPool(Z)
所述多元残差网络得到的输出结果为R与H两部分的输出拼接,即:
M=R+H
其中,M为输出的融合注意力特征后的向量。
进一步地,所述情感依赖解码器模块首先通过情感信号得到分类器相应的情感分类,明确所述输入语句属于哪一种情感,该情感信号为情感上下文编码器模块和情感倾向编码器模块输出拼接计算后的结果,即包含上下文语义信息和每个词语的情绪倾向信息;然后将融合注意力特征向量与情感信号同时输入到多头交叉注意力网络中,提取其中包含的所有语义信息,再经过前馈神经网络,得到输出向量;最后经过标准化层,得到最终预测的对话回复。
进一步地,所述系统在模型的训练阶段,根据预测和实际结果信息的前向传播以及误差的后向传播,不断对模型参数进行调整,从而优化目标损失函数。
与现有技术相比,本发明具有以下有益效果:本发明提供了一种基于感知情绪倾向的共情人机对话系统,该系统通过编码器学习词语的情绪倾向性,并通过共享注意力网络保留部分原始语义信息,提高系统对于情绪的感知度和回复多样性,最后通过解码器得到最终的回复,从而可以获得更好的对话回复。
附图说明
图1是本发明实施例的模型架构图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种基于感知情绪倾向的共情人机对话系统,包括:外部知识模块、情感上下文编码器模块、情感倾向编码器模块、共享注意力模块和情感依赖解码器模块。
所述外部知识模块用于对输入语句,通过概念网络和vad情感向量,构建情感上下文向量。
所述情感上下文编码器模块用于基于transformer编码器对情感上下文向量进行编码,然后输入多头注意力网络,得到情绪信号。
所述情感倾向编码器模块用于计算输入语句中词语与情感之间的情绪倾向性,以更好地表示出词语与相应情感之间的相关性信息。
所述共享注意力模块用于共享情感上下文编码器模块中多头注意力网络不同层的注意力参数,获得多个注意力特征,并采用多元残差网络融合多个注意力特征,得到融合注意力特征向量,以提高语义信息丰富程度。
所述情感依赖解码器模块用于整合情绪信号和融合注意力特征向量,基于transformer解码器,利用多头交叉注意力网络,输出预测的对话回复。
下面分别对各模块的配置功能作进一步的详细描述。
1)外部知识模块
外部知识模块主要用于关联输入内容和外部知识。所述外部知识模块将输入语句与外部知识图谱ConceptNet和vad情感向量匹配,计算情感强度和候选概念词组中的置信度得分,通过选择得分较高的概念词组,得到一个四元组。所述四元组包括与输入语句中词汇相关联的头部概念、关系、尾部概念以及相应的置信度得分,并将所述四元组组合为一个情感上下文。
2)情感上下文编码器模块
所述情感上下文编码器模块基于transformer编码器结构,包括词嵌入层、多头注意力网络和情感信号层。
所述词嵌入层通过预训练Glove向量,将情感上下文中每一个词语转化为300维向量,组合所有词语的嵌入向量,输入到多头注意力网络中。
所述多头注意力网络将词嵌入层编码后的向量作为输入,通过以下公式提取输入语句的语义信息,并将提取后的向量通过残差连接和标准化层,以进行后续处理和系统优化:
MutiHead(Q,K,V)=Concat(head1,...,headh)WO
其中,Q,K,V分别表示在注意力机制中将输入向量线性变换为查询向量Q、键向量K和值向量V,MutiHead(Q,K,V)表示计算三个向量分为多头后再拼接的结果,headi表示第i个头的注意力值,h表示注意力头的数量,Concat(head1,...,headh)表示将多个注意力头的结果进行拼接,WO表示多头拼接时的初始权重矩阵,分别表示将查询向量Q、键向量K和值向量V分别与其权重矩阵相乘的结果,/>表示利用三个向量与其权重矩阵相乘后的结果计算注意力值。
所述情感信号层将多头注意力网络的输出作为输入,并计算出情感信号;所述情感信号包括经过精炼的语义信息和用于情感分类的信息,其计算公式如下:
其中,表示情感上下文变量,/>表示多头注意力网络的输出,e为外部知识图谱中概念网络的顶点数量;exp(ηi)表示以自然常数e为底的指数函数,ηi表示对应/>的情感强度,ce是一个d维大小的向量;We为[32,d]大小的权重矩阵,d为嵌入层的维度大小;softmax(Wece)表示使用softmax线性层将ce向量投影到情绪信号Pe。
3)情感倾向编码器模块
情感倾向编码器模块主要用于通过情感上下文计算情绪倾向值。所述情感倾向编码器模块包括词嵌入层、情绪倾向计算层和编码器层。
所述情感倾向编码器模块的词嵌入层与情感上下文编码器模块的词嵌入层相同。所述情绪倾向计算层用于获得每一个词语与32种情绪的关联性,我们将这种关联性称为情绪倾向性。
首先将输入语句通过词嵌入层转化为向量表示,若输入语句的词嵌入表示为[w1,w2,,...,wd],d为句子中的单词个数,则语句中的第i个单词wi∈[w1,w2,,...,wd],i∈[1,d];若32个情感向量的词嵌入用[e1,e2,,...,e32]来表示,则每个情感词ej∈[e1,e2,,...,e32],j∈[1,32];那么,wi与ej的情绪相关性为:
其中,oij表示情绪相关性,即计算出来的余弦相似度;Cosine(wi,ej)表示计算wi和ej两个向量的余弦相似度,||wi||表示向量模长;
由于词嵌入层本身具有一定缺陷,对于某些情绪计算出的值较小,不能明显地体现出情绪的相关性,对情绪向量的计算造成干扰。为了显著体现词语对情绪的相关性,通过对每一类情感在余弦相似度上的均值执行去平均操作,使得词语的整体情感表达趋于稳定。即对某一类情感ej在整个数据集中单词的余弦相似度取均值:
其中,n为整个数据集中的单词个数。
再执行去平均操作,得到wi与ej的去平均后最终的情绪相关性Oij:
Oij=oij-Avg(w,ej)
在使用余弦相似度时,还通过idf计算词语权重,以减少高频词的影响。
对于数据集中的所有词语,每一个词都有对应的词频,即词语出现的次数。分析实例可以发现,“我”、“你”和“他”等高频词汇虽然在对话中占到了很大的比例,但其和情感的相关性不高。而另一些如“喜欢”、“恶心”、“讨厌”等词语却往往可以表达出用户的特定情感。因此,为了减少停用词和高频词对情绪倾向判断的影响,我们将IDF算法引入,以区分不同的词在对话中的重要性,即得到词语的权重Wi,j。
其中,idfi表示第i个词语的idf值,即词语权重Wi,|D|表示语料库中的文档总数,|N|表示包含该词语的文档数。
从上式我们可以看到,得到的权重WI,j会随着词语在语料库中出现的频率成反比。
所述编码器层的输入为情绪倾向度。对于情绪倾向度ETi,j,通过对去平均的情绪相关性与词语的权重进行融合得到,即:
ETi,j=Oij×Wi,j
其中,ETi表示词语i的所有情绪倾向度,ETi=[ETi,1,ETi,2...ETi,64];将ETi输入到与transformer结构相同的情绪倾向编码器模块中,并将该输出与情感上下文编码器模块的输出进行拼接:
OUTemo=Emo_encoder(ETi)
OUTece=Emo_contextx_encoder(Wi)
其中,Emo_encoder(ETi)表示将ETi作为情感倾向编码器模块的输入,得到输出OUTemo;Emo_contextx_encoder(Wi)表示将第i个词语的嵌入向量Wi作为情感倾向编码器模块的输入,得到输出OUTece,表示将两个输出进行拼接,得到输出OUTei,OUTei为一个d+64维大小的向量。/>
将所有输入词语的OUTe综合并输出到情感上下文编码器模块的情感信号层,其中OUTe=[OUTe1,OUTe2,....OUTen],n为输入词语总数;计算出包含上下文语义信息和词语情绪倾向性的情感信号,用于解码器模块产生丰富的回复。
所述情感信号层将多头注意力网络的输出和情感倾向编码器的输入拼接后作为总体输入,并计算出情感信号;所述情感信号包括经过情感倾向信息,精炼的语义信息和用于情感分类的信息。
4)共享注意力模块
在本系统中,多头注意力网络通过层层堆叠实现语义信息提取,上一层的输出作为下一层的输入。多头自注意力网络中的参数携带了一定的语义信息,因此,我们将编码器中自注意力层的参数共享到解码器中。如将编码器中的第二层注意力的参数共享到解码器,则可以表示为:
[MHAttd1,MHAttd2,MHAttd3...MHAttdn]
=[MHAtte2,MHAtte2,MHAtte2...MHAtte2]
其中,MHAttdi,i∈(1,n)表示解码器中多头注意力层的参数,n为多头注意力层的最大层数。MHAtte2则表示编码器中多头注意力网络中第二层的参数。
在本实施例中,所述共享注意力模块采用两个共享注意力网络分别共享情感上下文编码器中多头注意力网络的第2层和第3层的注意力参数,两个共享注意力网络的最后一层输出的注意力特征输入到特征融合层。
特征融合层采用多元残差网络进行特征融合,融合两个共享注意力网络输出的语义信息;所述多元残差网络包括投影部分和关联部分。所述投影部分首先将两个注意力特征As1和As2映射到同一对象空间,As1映射为Hs1,As2映射为Hs2,则:
Hs1=As1+Relu(Wms1As1)
Hs2=As2+Relu(Wms2As2)
然后,采用双线性策略来关联不同注意力特征的关系。
首先对As1和As2分别与权重矩阵W进行拼接,得到x1与x2,然后将得到的x1和x2进行乘积运算,得到Z:
W=UVT
再通过池化层得到输出R:
R=AvgPool(Z)
所述多元残差网络得到的输出结果为R与H两部分的输出拼接,即:
M=R+H
其中,M为输出的融合注意力特征后的向量。
5)情感依赖解码器模块
所述情感依赖解码器模块首先通过情感信号得到分类器相应的情感分类,明确所述输入语句属于哪一种情感,该情感信号为情感上下文编码器模块和情感倾向编码器模块输出拼接计算后的结果,即包含上下文语义信息和每个词语的情绪倾向信息,添加情绪倾向信息能更明显地表达输入语句的情感特征;然后将融合注意力特征向量与情感信号同时输入到多头交叉注意力网络中,提取其中包含的所有语义信息,再经过前馈神经网络,得到输出向量;最后经过标准化层,得到最终预测的对话回复。
在本实施例中,所述系统在模型的训练阶段,根据预测和实际结果信息的前向传播以及误差的后向传播,不断对模型参数进行调整,从而优化目标损失函数。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (7)
1.一种基于感知情绪倾向的共情人机对话系统,其特征在于,包括:
外部知识模块,用于对输入语句,通过概念网络和vad情感向量,构建情感上下文向量;
情感上下文编码器模块,用于基于transformer编码器对情感上下文向量进行编码,然后输入多头注意力网络,得到情绪信号;
情感倾向编码器模块,用于计算输入语句中词语与情感之间的情绪倾向性,以更好地表示出词语与相应情感之间的相关性信息;
共享注意力模块,用于共享情感上下文编码器模块中多头注意力网络不同层的注意力参数,获得多个注意力特征,并采用多元残差网络融合多个注意力特征,得到融合注意力特征向量,以提高语义信息丰富程度;
情感依赖解码器模块,用于整合情绪信号和融合注意力特征向量,基于transformer解码器,利用多头交叉注意力网络,输出预测的对话回复。
2.根据权利要求1所述的基于感知情绪倾向的共情人机对话系统,其特征在于,所述外部知识模块将输入语句与外部知识图谱概念网络和vad情感向量匹配,计算情感强度和候选概念词组中的置信度得分,通过选择得分较高的概念词组,得到一个四元组,所述四元组包括与输入语句中词汇相关联的头部概念、关系、尾部概念以及相应的置信度得分,并将所述四元组组合为一个情感上下文。
3.根据权利要求2所述的基于感知情绪倾向的共情人机对话系统,其特征在于,所述情感上下文编码器模块基于transformer编码器结构,包括词嵌入层、多头注意力网络和情感信号层;
所述词嵌入层通过预训练Glove向量,将情感上下文中每一个词语转化为多维的嵌入向量,组合所有词语的嵌入向量,输入到多头注意力网络中;
所述多头注意力网络将词嵌入层编码后的向量作为输入,通过以下公式提取输入语句的语义信息,并将提取后的向量通过残差连接和标准化层,以进行后续处理和系统优化:
MutiHead(Q,K,V)=Concat(head1,...,headh)WO
其中,Q,K,V分别表示在注意力机制中将输入向量线性变换为查询向量Q、键向量K和值向量V,MutiHead(Q,K,V)表示计算三个向量分为多头后再拼接的结果,headi表示第i个头的注意力值,h表示注意力头的数量,Concat(head1,...,headh)表示将多个注意力头的结果进行拼接,WO表示多头拼接时的初始权重矩阵,分别表示将查询向量Q、键向量K和值向量V分别与其权重矩阵相乘的结果,/>表示利用三个向量与其权重矩阵相乘后的结果计算注意力值;
所述情感信号层将多头注意力网络的输出和情感倾向编码器模块的输入拼接后作为总体输入,并计算出情感信号;所述情感信号包括经过情感倾向信息,精炼的语义信息和用于情感分类的信息,其计算公式如下:
4.根据权利要求3所述的基于感知情绪倾向的共情人机对话系统,其特征在于,所述情感倾向编码器模块包括词嵌入层、情绪倾向计算层和编码器层,所述情感倾向编码器模块的词嵌入层与情感上下文编码器模块的词嵌入层相同,所述情绪倾向计算层用于获得每一个词语与32种情绪的关联性,这种关联性即为情绪倾向性;
首先将输入语句通过词嵌入层转化为向量表示,若输入语句的词嵌入表示为[w1,w2,,...,wd],d为句子中的单词个数,则语句中的第i个单词wi∈[w1,w2,,...,wd],i∈[1,d];若32个情感向量的词嵌入用[e1,e2,,...,e32]来表示,则每个情感词ej∈[e1,e2,,...,e32],j∈[1,32];那么,wi与ej的情绪相关性为:
其中,oij表示情绪相关性,即计算出来的余弦相似度;Cosine(wi,ej)表示计算wi和ej两个向量的余弦相似度,||wi||表示向量模长;
对每一类情感在余弦相似度上的均值执行去平均操作,以使词语的整体情感表达趋于稳定;即对某一类情感ej在整个数据集中单词的余弦相似度取均值:
其中,n为整个数据集中的单词个数;
再执行去平均操作,得到wi与ej的去平均后最终的情绪相关性Oij:
Oij=o1j-Avg(w,ej)
在使用余弦相似度时,还通过idf计算词语权重,以减少高频词的影响;
其中,idfi表示第i个词语的idf值,即词语权重Wi,|D|表示语料库中的文档总数,|N|表示包含该词语的文档数;
所述编码器层的输入为情绪倾向度;对于情绪倾向度ETi,j,通过对去平均的情绪相关性与词语的权重进行融合得到,即:
ETi,j=Oij×Wi
其中,ETi表示词语i的所有情绪倾向度,ETi=[ETi,1,ETi,2...ETi,64];将ETi输入到与transformer结构相同的情绪倾向编码器模块中,并将该输出与情感上下文编码器模块的输出进行拼接:
OUTemo=Emo_encoder(ETi)
OUTece=Emo_contextx_encoder(Wi)
其中,Emo_encoder(ETi)表示将ETi作为情感倾向编码器模块的输入,得到输出OUTemo;Emo_contextx_encoder(Wi)表示将第i个词语的嵌入向量Wi作为情感倾向编码器模块的输入,得到输出OUTece,表示将两个输出进行拼接,得到输出OUTei,OUTei为一个d+64维大小的向量;
将所有输入词语的OUTe综合并输出到情感上下文编码器模块的情感信号层,其中OUTe=[OUTe1,OUTe2,....OUTen],n为输入词语总数;计算出包含上下文语义信息和词语情绪倾向性的情感信号,用于解码器模块产生丰富的回复。
5.根据权利要求4所述的基于感知情绪倾向的共情人机对话系统,其特征在于,所述共享注意力模块采用两个共享注意力网络分别共享情感上下文编码器中多头注意力网络的第2层和第3层的注意力参数,两个共享注意力网络的最后一层输出的注意力特征输入到特征融合层;
特征融合层采用多元残差网络进行特征融合,融合两个共享注意力网络输出的语义信息;所述多元残差网络包括投影部分和关联部分;所述投影部分首先将两个注意力特征As1和As2映射到同一对象空间,As1映射为Hs1,As2映射为Hs2,则:
Hs1=As1+Relu(Wms1As1)
Hs2=As2+Relu(Wms2As2)
然后,采用双线性策略来关联不同注意力特征的关系;首先对As1和As2分别与权重矩阵W进行拼接,得到x1与x2,然后将得到的x1和x2进行乘积运算,得到Z:
W=UVT
再通过池化层得到输出R:
R=AvgPool(Z)
所述多元残差网络得到的输出结果为R与H两部分的输出拼接,即:
M=R+H
其中,M为输出的融合注意力特征后的向量。
6.根据权利要求5所述的基于感知情绪倾向的共情人机对话系统,其特征在于,所述情感依赖解码器模块首先通过情感信号得到分类器相应的情感分类,明确所述输入语句属于哪一种情感,该情感信号为情感上下文编码器模块和情感倾向编码器模块输出拼接计算后的结果,即包含上下文语义信息和每个词语的情绪倾向信息;然后将融合注意力特征向量与情感信号同时输入到多头交叉注意力网络中,提取其中包含的所有语义信息,再经过前馈神经网络,得到输出向量;最后经过标准化层,得到最终预测的对话回复。
7.根据权利要求6所述的基于感知情绪倾向的共情人机对话系统,其特征在于,所述系统在模型的训练阶段,根据预测和实际结果信息的前向传播以及误差的后向传播,不断对模型参数进行调整,从而优化目标损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211634216.4A CN115858756A (zh) | 2022-12-19 | 2022-12-19 | 基于感知情绪倾向的共情人机对话系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211634216.4A CN115858756A (zh) | 2022-12-19 | 2022-12-19 | 基于感知情绪倾向的共情人机对话系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115858756A true CN115858756A (zh) | 2023-03-28 |
Family
ID=85674185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211634216.4A Pending CN115858756A (zh) | 2022-12-19 | 2022-12-19 | 基于感知情绪倾向的共情人机对话系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115858756A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116306686A (zh) * | 2023-05-22 | 2023-06-23 | 中国科学技术大学 | 一种多情绪指导的共情对话生成方法 |
CN117892736A (zh) * | 2023-12-29 | 2024-04-16 | 华中师范大学 | 基于情境感知与情绪推理的共情对话生成方法 |
-
2022
- 2022-12-19 CN CN202211634216.4A patent/CN115858756A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116306686A (zh) * | 2023-05-22 | 2023-06-23 | 中国科学技术大学 | 一种多情绪指导的共情对话生成方法 |
CN116306686B (zh) * | 2023-05-22 | 2023-08-29 | 中国科学技术大学 | 一种多情绪指导的共情对话生成方法 |
CN117892736A (zh) * | 2023-12-29 | 2024-04-16 | 华中师范大学 | 基于情境感知与情绪推理的共情对话生成方法 |
CN117892736B (zh) * | 2023-12-29 | 2024-06-18 | 华中师范大学 | 基于情境感知与情绪推理的共情对话生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | Deep learning and its applications to signal and information processing [exploratory dsp] | |
CN115858756A (zh) | 基于感知情绪倾向的共情人机对话系统 | |
CN113158665A (zh) | 一种基于文本摘要生成与双向语料改善对话文本生成的方法 | |
CN113254610B (zh) | 面向专利咨询的多轮对话生成方法 | |
CN110990555B (zh) | 端到端检索式对话方法与系统及计算机设备 | |
CN115204143B (zh) | 一种基于prompt的文本相似度计算方法及系统 | |
CN112364148B (zh) | 一种基于深度学习方法的生成型聊天机器人 | |
CN113407663B (zh) | 基于人工智能的图文内容质量识别方法和装置 | |
CN117236410B (zh) | 一种可信的电子文件大语言模型训练、推理方法和装置 | |
CN113392265A (zh) | 多媒体处理方法、装置及设备 | |
CN115497465A (zh) | 语音交互方法、装置、电子设备和存储介质 | |
CN117892237B (zh) | 一种基于超图神经网络的多模态对话情绪识别方法及系统 | |
CN117574904A (zh) | 基于对比学习和多模态语义交互的命名实体识别方法 | |
CN117634459A (zh) | 目标内容生成及模型训练方法、装置、系统、设备及介质 | |
CN112463935B (zh) | 一种带有强泛化知识选择的开放域对话生成方法及系统 | |
CN117875395A (zh) | 多模态预训练模型的训练方法、装置及存储介质 | |
CN111414466A (zh) | 一种基于深度模型融合的多轮对话建模方法 | |
CN116258147A (zh) | 一种基于异构图卷积的多模态评论情感分析方法及系统 | |
CN116910190A (zh) | 多任务感知模型获取方法、装置、设备及可读存储介质 | |
CN115795010A (zh) | 一种外部知识辅助的多因素层次建模共情对话生成方法 | |
CN117807995B (zh) | 一种情绪引导的摘要生成方法、系统、装置及介质 | |
CN116561350B (zh) | 一种资源生成方法及相关装置 | |
Parihar et al. | HTGAN: An architecture for Hindi Text based Image Synthesis | |
CN117521674B (zh) | 对抗信息的生成方法、装置、计算机设备和存储介质 | |
CN114692613A (zh) | 一种关键词抽取方法及装置和编码器和解码器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |