CN116306686A - 一种多情绪指导的共情对话生成方法 - Google Patents
一种多情绪指导的共情对话生成方法 Download PDFInfo
- Publication number
- CN116306686A CN116306686A CN202310574090.4A CN202310574090A CN116306686A CN 116306686 A CN116306686 A CN 116306686A CN 202310574090 A CN202310574090 A CN 202310574090A CN 116306686 A CN116306686 A CN 116306686A
- Authority
- CN
- China
- Prior art keywords
- emotion
- node
- nodes
- representing
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000008451 emotion Effects 0.000 claims abstract description 275
- 230000002996 emotional effect Effects 0.000 claims description 40
- 230000006870 function Effects 0.000 claims description 32
- 230000036651 mood Effects 0.000 claims description 31
- 230000004044 response Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 230000008447 perception Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 5
- 238000012546 transfer Methods 0.000 abstract description 3
- 238000004458 analytical method Methods 0.000 abstract description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 abstract description 2
- 238000011161 development Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明涉及人工智能领域。本发明提供一种多情绪指导的共情对话生成方法,该方法将输入的文本进行上下文编码,并为文本中的每个词汇计算情绪强度值,根据情绪强度值构造多级情绪关系图来描述输入的文本和情绪的关系,并基于多级情绪关系图构造多级情绪关系图网络,迭代更新多级情绪关系图网络中的情绪边特征和节点特征,通过情绪边特征与全局上下文特征预测情绪概率的分布,通过改变初始情绪边权重和改变情绪节点的集合对多级情绪关系图网络进行改造更新,并生成答复语句。本发明通过对情感共现关系的分析和预测,实现了富含多种情绪的对话中的共情表达,提高了对话的情感交流效果和共情价值,指导对话的发展和转移,提高了对话的质量和效果。
Description
技术领域
本发明涉及人工智能领域,具体涉及一种多情绪指导的共情对话生成方法。
背景技术
开放域对话生成模型近年来受到了广泛的研究与发展,其中结合个性和情绪特征可以使对话系统生成更人类化的回复。为此,早期的方法将指定的情绪标签作为输入,以生成情绪化的对话响应。然而,真实的对话场景中,往往并不提供直接的情绪指导,而是要求听者根据对话内容,以推断说话者的情绪,进而产生富含同理心的共情响应。此类任务被称之为共情对话生成。
目前的共情对话生成方法多遵循多任务学习的范式,通过联合训练一个情绪预测任务与对话生成任务,以实现具有共情约束的生成。这些方法大多从两个方面改善共情响应的生成,一类方法聚焦于提升情绪的预测准确性,通过引入外部知识,挖掘情绪原因,以及更细粒度的情绪信息建模等;另一类方法则重在改进生成策略,基于强化学习,混合专家模型,模拟说话者情绪等手段。
然而,这些方法均基于预测单个情绪标签,将获得的情绪信息注入现有的对话生成模型以生成共情响应,这样的方法在简单的对话场景中,尚有较为良好的表现,但在更加复杂的长对话语境下,则缺乏有效的共情理解。原因在于复杂的长对话中,往往伴随着多种情绪的组合与转移,存在一定的情绪共现关系,这种单情绪的信息预测与指导,将抑制对话中存在的其他情绪的共情价值,而不利于富含多种情绪的对话中的共情表达。
发明内容
为解决上述问题,本发明提供一种多情绪指导的共情对话生成方法。
该方法在推理阶段,将文本输入完成训练的对话生成模型,得到与文本情绪一致的答复语句;对话生成模型在推理阶段不使用情绪标签;所述对话生成模型的训练包括以下步骤:
步骤一,准备训练样本,每个训练样本包含m个句子和q种情绪标签;
步骤二,上下文编码:用编码器将训练样本的m个句子串成词汇序列,并在首端插入特殊字符串[CLS],得到上下文序列X,将q种情绪标签及上下文序列X分别转换为情绪嵌入向量xe及上下文嵌入向量x,将上下文嵌入向量x输入到Transformer进行全局编码处理,得到全局上下文特征;
步骤三,多级情绪关系图网络:对上下文序列X中每个词汇,计算情绪强度值;基于情绪强度值构建多级情绪关系图,用多级情绪关系图描述训练样本中句子和情绪标签的关系,多级情绪关系图的节点包括情绪词节点Vw与情绪节点Ve;构建多级情绪关系图网络,将情绪嵌入向量xe作为情绪节点Ve的初始特征,将上下文嵌入向量x作为情绪词节点Vw的初始特征,迭代更新多级情绪关系图网络中的情绪边特征和节点特征,得到情绪边特征及节点特征/>;
进一步的,步骤三中,所述计算情绪强度值的过程,具体包括:
进一步的,步骤三中,所述基于情绪强度值构建多级情绪关系图,用多级情绪关系图描述训练样本中句子和情绪标签的关系,具体包括:
将每个情绪词节点Vw指向所有排序在前的情绪词所对应的情绪词节点的连接边,所述排序指按在上下文序列X中次序排序;
将每个情绪词节点Vw指向所有情绪节点Ve的连接边;
将特殊字符[CLS]的节点指向所有情绪词节点Vw和所有情绪节点Ve的连接边,将得到的图定义为全局情绪图G;
其中,均为可学习的参数矩阵,/>表示元素点乘操作,/>是一个2层的线性映射网络,/>表示对K个局部情绪图中的节点特征的串联操作,/>表示节点/>的邻域节点的下标的集合,/>代表节点/>关于邻域节点/>特征的权重向量,/>是/>进一步使用Softmax函数归一化的结果,/>表示Softmax函数,/>表示转置;
进一步的,步骤四具体包括:
其中,代表初步情绪特征,全局上下文特征的中间量/>由全局上下文特征/>经过一个平均池化层处理得到,||代表特征串联操作,/>代表结合/>和/>的情绪感知信号,/>、/>都是线性映射的权重,/>表示基于所述上下文序列X来预测情绪ε的概率分布,/>表示Softmax函数,/>表示第k个局部情绪图中节点/>和节点/>的每个邻域节点之间的情绪边的情绪边特征;
优选的,步骤五具体包括:
将情绪节点划分为有关情绪节点及无关情绪节点:
其中,代表节点/>的有关情绪节点集合,/>代表节点/>的无关情绪节点集合,/>是计算过程中的节点/>的有关情绪节点的中间变量的集合,/>、/>、/>分别为/>、/>和/>中所有节点的节点特征平均值,C代表求补集操作,|V|代表对集合/>取模操作,/>代表对括号内的表达式关于/>求最大值;
进一步的,步骤六具体包括:
其中,代表先前响应输入与全局上下文信息的注意力向量,/>为t时刻前的响应输入,/>为t-1时刻的相应输入,MH-Att代表前馈连接网络,FFN代表多头注意层,LayerNorm代表层归一化操作,/>为线性映射的权重,/>代表计算/>的中间量;
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
提供了一种针对对话的情感应答生成方法,可以根据对话内容生成与对话共情的应答,实现对复杂多变的情感信息的准确识别和表达,通过对情感共现关系的分析和预测,实现了富含多种情绪的对话中的共情表达,提高了对话的情感交流效果和共情价值,指导对话的发展和转移,提高了对话的质量和效果。
附图说明
图1为本发明实施例提供的多情绪指导的对话生成模型框图;
图2为本发明实施例提供的多级情绪关系图网络的示意图。
具体实施方式
以下结合附图和具体实施例,对本发明进行详细说明,在详细说明本发明各实施例的技术方案前,对所涉及的名词和术语进行解释说明,在本说明书中,名称相同或标号相同的部件代表相似或相同的结构,且仅限于示意的目的。
本发明提出了一种多情绪指导的对话生成模型,基于情绪关系图以学习对话中情绪的共现关系,基于捕捉的对话情绪信息,自适应的选用单情绪、多情绪进行指导,以实现多情绪的共情对话生成。
本发明首先阐述共情对话生成的任务范式。对于每一个样本,给定包含m句对话的上下文,共情对话生成任务旨在生成与上下文对话情绪一致且包含丰富信息的下一句对话y。同时,样本提供了q种情绪标签,在训练时用以指导基于上下文语义的情绪预测以实现共情约束,而在推理阶段不予使用。
下面进一步阐述本发明的多情绪指导的对话生成模型,图1展示了对话生成模型整体的结构示意图。本发明提供的对话生成模型可分为五个模块:上下文编码器、多级情绪关系图网络、情绪预测器、门控模块及响应生成器。首先,采用上下文编码器对上下文对话及q种情绪标签进行特征编码,并采用一个Transformer编码层获得对话全局特征表示。将上下文编码器中得到的对话与情绪的基本嵌入向量作为节点特征,基于情绪强度值构造多级情绪关系图网络。并依据情绪关系图网络捕捉的情绪信息进行情绪预测,通过一个门控模块以实现单情绪、多情绪的自适应选择指导,最终经过响应生成器实现多情绪的共情响应生成。
1.上下文编码器
上下文编码器对上下文对话及q种情绪标签进行特征编码,并采用一个Transformer编码层获得对话全局特征表示。
上下文编码器由一个上下文嵌入器,一个情绪嵌入器以及一个Transformer编码层构成。上下文编码器将q种情绪标签及原始上下文对话U作为输入。
首先将上下文对话U中的m句对话串联成长词汇序列,并在开头插入特殊字符[CLS],得到上下文序列,其中p-1即上下文序列X中的词汇总数。将q种情绪标签及上下文序列X分别转换为情绪嵌入向量xe及上下文嵌入向量x,上下文嵌入向量x进一步输入到Transformer进行全局编码处理,获得全局上下文特征/>:
2.多级情绪关系图网络
为学习多种情绪间的共现关系,本发明基于词汇情绪强度值构造情绪关系图。引入外部知识模型SKEP以获取词汇的情绪强度值,对于任一词汇,SKEP输出一个[0,1]区间内表示词汇积极程度的分值/>。每个词汇/>的情绪强度值/>为:
2.1多级情绪关系图的构造
多级情绪关系图考虑了两种节点信息,分别为情绪词节点Vw与情绪节点Ve,以及两种节点连接边构造体系:全局与局部图连接边。
对于全局连接,本发明应用两种类型的有向边来构造全局情绪图G:
(1)将每个情绪词节点Vw指向所有排序在前的情绪词所对应的情绪词节点的连接边,所述排序指按在上下文序列X中次序排序。
(2)将每个情绪词节点Vw指向所有情绪节点Ve的连接边。这是由于在长对话中,不同的情绪转折,可能将导向不同的新情绪,因此情绪词的先后次序首先成为构造全局情绪图G的一大要素。
(3)将特殊字符[CLS]的节点指向所有情绪词节点Vw和所有情绪节点Ve的连接边。
在全局情绪图G的基础上,根据不同词汇的情绪强度值实现局部细化。基于情绪强度值,对话生成模型能够控制哪些情绪词应该受到更多的关注,因此,通过设置K个不同的情绪强度阈值范围,全局情绪图将被扩展为K个细化的局部情绪图Gk,k=1,2,…,K,以从K个不同的层级关注对话情绪信息,每个局部情绪图中的情绪词节点Vw的情绪强度均在对应的情绪强度阈值范围内。
全局情绪图G和K个局部情绪图Gk组成了多级情绪关系图。
一个具体的多级情绪关系图边连接示例如图2所示。以上下文序列中的词汇“幸存”对应的情绪词节点的边连接为例,构造全局情绪图时,存在两种边连接关系:(1)情绪词节点指向先前的情绪词节点,(2)情绪词节点指向所有情绪节点,(3)特殊字符[CLS]的节点指向所有情绪词节点和情绪节点。因此情绪词节点“幸存”指向先前所有词汇“[CLS]”...“我”以及所有情绪“害怕”...。
构造细节的局部连接图时,本发明应用K个不同的情绪强度阈值范围,筛除情绪强度值小于情绪强度阈值范围的节点,得到K个局部细化情绪图,可以从K个不同的层级关注对话情绪信息。如对较小的情绪强度阈值范围,几乎所有词汇被保留,对较大的情绪强度阈值范围,只有“害怕”“感激”这类情绪较强的词汇被保留。
情绪强度阈值范围包含较大的阈值的局部情绪图包含较少的情绪词节点,对话生成模型能够更针对性的学习局部情绪特征,反之对于情绪强度阈值范围包含较大的阈值的局部情绪图,对话生成模型能够学习到更全局的情绪特征。
2.2多级情绪关系图的更新
在完成多级情绪关系图的构造后,本发明进一步设计了一个结合了多图网络(multi-graph network)及多头注意力(multi-head attention)的注意力机制,以实现多级情绪关系图中节点特征和边特征的更新。
其中,均为可学习的参数矩阵,/>表示元素点乘操作,/>是一个2层的线性映射网络,/>表示对K个局部情绪图中的节点特征的串联操作,/>表示/>是节点/>的邻域节点,/>代表节点/>关于邻域节点/>特征的权重向量,/>是/>进一步使用Softmax函数归一化的结果,T代表矩阵转置,/>表示Softmax函数,/>表示转置。
3.情绪预测器
多层情绪关系图的情绪边特征直接的反应了对话上下文词汇对不同情绪的注意程度,因此,本发明通过情绪边特征与全局上下文特征/>预测情绪的概率分布P,采用一个线性映射层和Softmax层获得情绪类别的分类表示。
计算情绪的概率分布P:
其中,代表初步情绪特征,全局上下文特征的中间量/>由全局上下文特征/>经过一个平均池化层处理得到,||代表特征串联操作,/>代表结合/>和/>的情绪感知信号,/>、/>都是线性映射的权重,/>表示基于上下文序列X来预测情绪ε的概率分布,/>表示第k个局部情绪图中节点/>和节点/>的每个邻域节点之间的情绪边的情绪边特征;
4.门控模块
考虑到单情绪感知和多情绪选择之间的矛盾,本发明设计了一个门控模块来学习如何保留初始的情绪边特征与情绪感知信号之间的有意义内容。
然而,这样简单的软门控策略可能引入不需要的情绪信息从而造成噪声干扰,因此,本发明更进一步的提出了硬门控策略。考虑到对话相关的情绪与无关的情绪应当在注意力特征上表现出一定的区分,本发明采用最大类间方差算法将情绪节点划分为有关情绪节点及无关情绪节点:
其中,代表节点/>的有关情绪节点集合,/>代表节点/>的无关情绪节点集合,/>是计算过程中的节点/>的有关情绪节点的中间变量的集合,/>、/>、/>分别为/>、/>和中所有节点的节点特征平均值,C代表求补集操作,|V|代表对集合/>取模操作,/>代表对括号内的表达式关于/>求最大值。
总的来说,软门控策略更加的灵活,但存在引入噪声的可能,硬门控策略针对性更强,但可能遗漏需要的情感信息。基于软门控策略(改变初始情绪边权重)与硬门控策略(改变情绪节点集合)对多层情绪关系图网络进行改造,迭代更新多级情绪关系图网络的情绪边特征和节点特征,以最后一层的节点特征集合作为经过门控处理的节点特征,以最后一层的边特征集合作为经过门控处理的情绪边特征/>,以进行多情绪指导的响应生成。
5.响应生成器
最终,对话生成模型结合全局上下文特征的中间量与节点特征/>生成答复语句。考虑到节点特征中不仅编码了情绪信息,同时编码了情绪指导的语义信息,本发明采用节点特征/>以用于解码。对话生成模型采用了一个修改的transformer解码层进行解码。
其中,代表先前响应输入与全局上下文信息的注意力向量,/>为t时刻前的响应输入,/>为t-1时刻的相应输入,MH-Att代表前馈连接网络,FFN代表多头注意层,LayerNorm代表层归一化操作,/>为线性映射的权重,/>代表计算/>的中间量。
考虑所有的组件,对话生成模型的整体损失函数即为:
本发明立足于全局及局部表征的角度,基于情绪强度值设计了一个多级情绪关系图网络,将多情绪共情的思想引入到了共情对话生成的任务中来,提出了一个多情绪指导的对话生成模型,自适应的实现单情绪、多情绪的选择,从多个层级挖掘对话中的情绪信息,实现情绪关系的建模与学习,辅助多情绪的指导生成。
以上所述实施方式仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明的权利要求书确定的保护范围内。
Claims (7)
1.一种多情绪指导的共情对话生成方法,其特征在于,在推理阶段,将文本输入完成训练的对话生成模型,得到与文本情绪一致的答复语句;对话生成模型在推理阶段不使用情绪标签;所述对话生成模型的训练包括以下步骤:
步骤一,准备训练样本,每个训练样本包含m个句子和q种情绪标签;
步骤二,上下文编码:用编码器将训练样本的m个句子串成词汇序列,并在首端插入特殊字符串[CLS],得到上下文序列X,将q种情绪标签及上下文序列X分别转换为情绪嵌入向量xe及上下文嵌入向量x,将上下文嵌入向量x输入到Transformer进行全局编码处理,得到全局上下文特征;
步骤三,多级情绪关系图网络:对上下文序列X中每个词汇,计算情绪强度值;基于情绪强度值构建多级情绪关系图,用多级情绪关系图描述训练样本中句子和情绪标签的关系,多级情绪关系图的节点包括情绪词节点Vw与情绪节点Ve;构建多级情绪关系图网络,将情绪嵌入向量xe作为情绪节点Ve的初始特征,将上下文嵌入向量x作为情绪词节点Vw的初始特征,迭代更新多级情绪关系图网络中的情绪边特征和节点特征,得到情绪边特征及节点特征/>;
3.根据权利要求1所述多情绪指导的共情对话生成方法,其特征在于,步骤三中,所述基于情绪强度值构建多级情绪关系图,用多级情绪关系图描述训练样本中句子和情绪标签的关系,具体包括:
将每个情绪词节点Vw指向所有排序在前的情绪词所对应的情绪词节点的连接边,所述排序指按在上下文序列X中次序排序;
将每个情绪词节点Vw指向所有情绪节点Ve的连接边;
将特殊字符[CLS]的节点指向所有情绪词节点Vw和所有情绪节点Ve的连接边,将得到的图定义为全局情绪图G;
4.根据权利要求3所述多情绪指导的共情对话生成方法,其特征在于,步骤三中,基于所述情绪强度值构造多级情绪关系图网络,并迭代更新多级情绪关系图网络中的情绪边特征和节点特征,得到情绪边特征及节点特征/>的过程,具体包括:
其中,均为可学习的参数矩阵,/>表示元素点乘操作,/>是一个2层的线性映射网络,/>表示对K个局部情绪图中的节点特征的串联操作,/>表示节点/>的邻域节点的下标的集合,/>代表节点/>关于邻域节点/>特征的权重向量,/>是/>进一步使用Softmax函数归一化的结果,/>表示Softmax函数,/>表示转置;
6.根据权利要求5所述多情绪指导的共情对话生成方法,其特征在于,步骤五具体包括:
将情绪节点划分为有关情绪节点及无关情绪节点:
其中,代表节点/>的有关情绪节点集合,/>代表节点/>的无关情绪节点集合,/>是计算过程中的节点/>的有关情绪节点的中间变量的集合,/>、/>、/>分别为/>、/>和/>中所有节点的节点特征平均值,C代表求补集操作,|V|代表对集合/>取模操作,/>代表对括号内的表达式关于/>求最大值;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310574090.4A CN116306686B (zh) | 2023-05-22 | 2023-05-22 | 一种多情绪指导的共情对话生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310574090.4A CN116306686B (zh) | 2023-05-22 | 2023-05-22 | 一种多情绪指导的共情对话生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116306686A true CN116306686A (zh) | 2023-06-23 |
CN116306686B CN116306686B (zh) | 2023-08-29 |
Family
ID=86791004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310574090.4A Active CN116306686B (zh) | 2023-05-22 | 2023-05-22 | 一种多情绪指导的共情对话生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116306686B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117808011A (zh) * | 2024-03-01 | 2024-04-02 | 青岛网信信息科技有限公司 | 一种带有模拟情绪的聊天机器人的方法、介质及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805089A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态的情绪识别方法 |
CN110472245A (zh) * | 2019-08-15 | 2019-11-19 | 东北大学 | 一种基于层次化卷积神经网络的多标记情绪强度预测方法 |
KR20210015010A (ko) * | 2019-07-31 | 2021-02-10 | 주식회사 휴마트컴퍼니 | 심리상담 데이터를 이용한 텍스트 내 감정분석을 위한 시스템 및 방법 |
WO2021174757A1 (zh) * | 2020-03-03 | 2021-09-10 | 深圳壹账通智能科技有限公司 | 语音情绪识别方法、装置、电子设备及计算机可读存储介质 |
US20220050972A1 (en) * | 2020-08-14 | 2022-02-17 | Iurii Usov | Intelligent discovery multi-turn open dialogue agent |
CN114742073A (zh) * | 2022-04-07 | 2022-07-12 | 清华大学深圳国际研究生院 | 一种基于深度学习的对话情绪自动识别方法 |
WO2023009020A1 (en) * | 2021-07-26 | 2023-02-02 | "Stc"-Innovations Limited" | Neural network training and segmenting an audio recording for emotion recognition |
US20230048098A1 (en) * | 2021-08-16 | 2023-02-16 | Hong Kong Applied Science and Technology Research Institute Company Limited | Apparatus and method for speech-emotion recognition with quantified emotional states |
CN115730070A (zh) * | 2022-11-25 | 2023-03-03 | 重庆邮电大学 | 一种人机共情对话方法、系统、电子设备和介质 |
CN115858756A (zh) * | 2022-12-19 | 2023-03-28 | 福州大学 | 基于感知情绪倾向的共情人机对话系统 |
-
2023
- 2023-05-22 CN CN202310574090.4A patent/CN116306686B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805089A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态的情绪识别方法 |
KR20210015010A (ko) * | 2019-07-31 | 2021-02-10 | 주식회사 휴마트컴퍼니 | 심리상담 데이터를 이용한 텍스트 내 감정분석을 위한 시스템 및 방법 |
CN110472245A (zh) * | 2019-08-15 | 2019-11-19 | 东北大学 | 一种基于层次化卷积神经网络的多标记情绪强度预测方法 |
WO2021174757A1 (zh) * | 2020-03-03 | 2021-09-10 | 深圳壹账通智能科技有限公司 | 语音情绪识别方法、装置、电子设备及计算机可读存储介质 |
US20220050972A1 (en) * | 2020-08-14 | 2022-02-17 | Iurii Usov | Intelligent discovery multi-turn open dialogue agent |
WO2023009020A1 (en) * | 2021-07-26 | 2023-02-02 | "Stc"-Innovations Limited" | Neural network training and segmenting an audio recording for emotion recognition |
US20230048098A1 (en) * | 2021-08-16 | 2023-02-16 | Hong Kong Applied Science and Technology Research Institute Company Limited | Apparatus and method for speech-emotion recognition with quantified emotional states |
CN114742073A (zh) * | 2022-04-07 | 2022-07-12 | 清华大学深圳国际研究生院 | 一种基于深度学习的对话情绪自动识别方法 |
CN115730070A (zh) * | 2022-11-25 | 2023-03-03 | 重庆邮电大学 | 一种人机共情对话方法、系统、电子设备和介质 |
CN115858756A (zh) * | 2022-12-19 | 2023-03-28 | 福州大学 | 基于感知情绪倾向的共情人机对话系统 |
Non-Patent Citations (2)
Title |
---|
OCHS, M., SADEK, D. & PELACHAUD, C.: "A formal model of emotions for an empathic rational dialog agent", AUTONOMOUS AGENTS AND MULTI-AGENT SYSTEMS, no. 24, pages 410 * |
于尊瑞 , 毛震东, 王泉, 张勇东: "基于预训练语言模型的关键词感知问题生成", 计算机工程, vol. 48, no. 2, pages 125 - 131 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117808011A (zh) * | 2024-03-01 | 2024-04-02 | 青岛网信信息科技有限公司 | 一种带有模拟情绪的聊天机器人的方法、介质及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116306686B (zh) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108734276B (zh) | 一种基于对抗生成网络的模仿学习对话生成方法 | |
Saul et al. | Mixed memory markov models: Decomposing complex stochastic processes as mixtures of simpler ones | |
CN109887484B (zh) | 一种基于对偶学习的语音识别与语音合成方法及装置 | |
CN103049792B (zh) | 深层神经网络的辨别预训练 | |
Thomson | Statistical methods for spoken dialogue management | |
CN110377916B (zh) | 词预测方法、装置、计算机设备及存储介质 | |
CN110275939B (zh) | 对话生成模型的确定方法及装置、存储介质、电子设备 | |
CN112417894B (zh) | 一种基于多任务学习的对话意图识别方法及识别系统 | |
CN106448670A (zh) | 基于深度学习和强化学习的自动回复对话系统 | |
CN112541063B (zh) | 一种基于自学习对话模型的人机对话方法及系统 | |
CN112214591B (zh) | 一种对话预测的方法及装置 | |
CN110060657B (zh) | 基于sn的多对多说话人转换方法 | |
CN111966800A (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN113435211B (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
CN116306686B (zh) | 一种多情绪指导的共情对话生成方法 | |
CN112115687A (zh) | 一种结合知识库中的三元组和实体类型的生成问题方法 | |
CN113987179A (zh) | 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质 | |
Chen et al. | Exploiting future word contexts in neural network language models for speech recognition | |
CN112347756A (zh) | 一种基于序列化证据抽取的推理阅读理解方法及系统 | |
CN114168707A (zh) | 一种面向推荐的情绪型对话方法 | |
CN110297894B (zh) | 一种基于辅助网络的智能对话生成方法 | |
CN110955765A (zh) | 智能助理的语料构建方法、装置、计算机设备和存储介质 | |
CN111563161B (zh) | 一种语句识别方法、语句识别装置及智能设备 | |
CN112560440A (zh) | 一种基于深度学习的面向方面级情感分析的句法依赖方法 | |
CN117094365A (zh) | 图文生成模型的训练方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |