CN113254625A - 一种基于交互融合的情感对话生成方法及系统 - Google Patents

一种基于交互融合的情感对话生成方法及系统 Download PDF

Info

Publication number
CN113254625A
CN113254625A CN202110798849.8A CN202110798849A CN113254625A CN 113254625 A CN113254625 A CN 113254625A CN 202110798849 A CN202110798849 A CN 202110798849A CN 113254625 A CN113254625 A CN 113254625A
Authority
CN
China
Prior art keywords
emotion
vector
interactive
dialogue
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110798849.8A
Other languages
English (en)
Other versions
CN113254625B (zh
Inventor
张宾
孙喜民
高亚斌
贾江凯
王帅
李慧超
刘丹
王明达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid E Commerce Co Ltd
State Grid E Commerce Technology Co Ltd
Original Assignee
State Grid E Commerce Co Ltd
State Grid E Commerce Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid E Commerce Co Ltd, State Grid E Commerce Technology Co Ltd filed Critical State Grid E Commerce Co Ltd
Priority to CN202110798849.8A priority Critical patent/CN113254625B/zh
Publication of CN113254625A publication Critical patent/CN113254625A/zh
Application granted granted Critical
Publication of CN113254625B publication Critical patent/CN113254625B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于交互融合的情感对话生成方法及系统,包括:S100:接收对话语句文本;S200:情感分类器识别对话语句文本所蕴含的情感类别,并表示为向量;S300:编码器将对话语句文本编码为上下文向量;S400:细粒度交互模块将对话语句文本的情感类别表示向量和上下文向量融合,生成交互式向量;S500:解码器利用交互式向量进行解码,生成回复;S600:输出回复。本发明可解决现有人机对话系统情感感知能力较弱,情感表达能力不足的问题。

Description

一种基于交互融合的情感对话生成方法及系统
技术领域
本发明属于自然语言处理中的智能人机对话技术领域,具体涉及一种基于交互融合的情感对话生成方法及系统。
背景技术
构建智能人机对话系统是自然语言处理(NLP)中一项极具挑战性和重要意义的任务,目前被学术界和工业界广泛关注。情感是人类区别于机器的一种重要特征,在社交场景中发挥着重要作用。例如在医疗保健领域,情感预测可用于心理健康咨询,帮助预测和预防自杀或抑郁。有研究表明,在对话系统中处理情感可以提高用户满意度,并减少对话故障的发生。让机器理解情感一直是人工智能的一个长期目标。
现有的相关技术普遍存在三方面问题:(1)生成回复的情感类别需提前指定,这不符合实际情况。日常生活中,对话发起者不会在说话的同时告诉应答者希望得到的回复情感。(2)将内容与情感独立进行编码,但内容与情感间的依赖不足。(3)由于缺乏对生成过程的有效控制,模型容易生成诸如“yes”、“no”、“I don’t know”、“I’m not sure”等安全回复问题。以上问题导致对话模型的情感感知能力较弱并且情感表达能力不足。
发明内容
本发明的目的是提供一种基于交互融合的情感对话生成方法及系统,以解决现有人机对话系统情感感知能力较弱、情感表达能力不足的问题。
本发明实施例提供一种基于交互融合的情感对话生成方法,包括:
S100:接收对话语句文本;
S200:情感分类器识别对话语句文本所蕴含的情感类别,并表示为向量;
S300:编码器将对话语句文本编码为上下文向量;
S400:细粒度交互模块将对话语句文本的情感类别表示向量和上下文向量融合,生成交互式向量;
本步骤进一步包括:
S410:将情感类别表示向量映射到高维的向量空间;
S420:根据注意力机制,基于情感类别表示向量和上下文向量,学习情感类别表示向量每一维的权重;
S430:对情感类别表示向量的每一维乘以相应权重,再与上下文向量拼接,得交互式向量;
S500:解码器利用交互式向量进行解码,生成回复;
S600:输出回复。
可选的,在一些实施例中,情感分类器采用基于BERT的情感分类器。
可选的,在一些实施例中,步骤S300具体为:
编码器将对话语句文本编码成隐藏状态序列;利用注意力机制对隐藏状态序列中各隐藏状态求加权和,得上下文向量。
可选的,在一些实施例中,解码器采用单向LSTM神经网络。
可选的,在一些实施例中,步骤S500中,解码器的总损失函数
Figure DEST_PATH_IMAGE002AA
为Seq2Seq模型损失
Figure 955248DEST_PATH_IMAGE004
和最大化情感表达损失
Figure 485586DEST_PATH_IMAGE006
的加权和:
Figure 111215DEST_PATH_IMAGE008
;其中:权重
Figure 258163DEST_PATH_IMAGE009
是待学习参数,
Figure 755003DEST_PATH_IMAGE010
为Seq2Seq模型的参数;最大化情感表达损失
Figure 795640DEST_PATH_IMAGE012
Figure 454155DEST_PATH_IMAGE014
表示Seq2Seq模型的损失,
Figure 698186DEST_PATH_IMAGE016
通过惩罚生成词
Figure 998717DEST_PATH_IMAGE018
的情感表示与中性情感词
Figure 769227DEST_PATH_IMAGE020
之间的距离,
Figure 988855DEST_PATH_IMAGE022
为生成词
Figure 844816DEST_PATH_IMAGE023
的情感表示,当
Figure 949038DEST_PATH_IMAGE024
为VAD词典中存在的词,则其情感表示为
Figure 183842DEST_PATH_IMAGE026
;否则,其情感表示为
Figure 449738DEST_PATH_IMAGE027
可选的,在一些实施例中,采用情感分类数据集训练情感分类器;
采用已训练的情感分类器对对话语料集进行情感标记,情感标记后的对话语料集即情感对话语料库;
以情感对话语料库作为训练使用的数据集,按如下步骤进行训练:
接收训练数据;
情感分类器识别训练数据所蕴含的情感类别,并表示为向量;
编码器将训练数据编码为上下文向量;
将训练数据的情感类别表示向量和上下文向量融合,生成交互式向量;
解码器利用交互式向量进行解码,生成回复。
相应的,本发明实施例提供一种基于交互融合的情感对话生成系统,包括:
接收模块,用来接收对话语句文本;
情感分类模块,用来识别对话语句文本所蕴含的情感类别,并表示为向量;
编码模块,用来将对话语句文本编码为上下文向量;
细粒度交互模块,用来将对话语句文本的情感类别表示向量和上下文向量融合,生成交互式向量;
所述细粒度交互模块进一步包括:
第一子模块,用来将情感类别表示向量映射到高维的向量空间;
第二子模块,用来根据注意力机制,基于情感类别表示向量和上下文向量,学习情感类别表示向量每一维的权重;
第三子模块,用来对情感类别表示向量的每一维乘以相应权重,再与上下文向量拼接,得交互式向量;
解码模块,用来利用交互式向量进行解码,生成回复;
输出模块,用来输出回复。
和现有技术相比,本发明的特点为:
本发明可解决现有人机对话系统情感感知能力较弱,情感表达能力不足,以及生成回复的安全性问题,可应用于情感聊天机器人、心理健康智能咨询等。
附图说明
图1为实施例的情感对话生成方法流程示意图;
图2为实施例中模型训练流程示意图。
具体实施方式
下面将结合附图对本发明的具体实施方式做详细说明。显然,所描述的具体实施方式仅仅是本发明的一部分实施例,而不是全部的实施例。基于所描述的具体实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他具体实施方式,都属于本发明保护的范围。
本发明实施例提供的一种基于交互融合的情感对话生成方法,其执行主体可以是具有文本输入输出功能的智能终端设备,例如平板电脑、智能手机等。本发明实施例提供的一种基于交互融合的情感对话生成系统,其可集成于上述终端设备中。
本发明的一个具体实施例为情感聊天机器人,显然情感聊天机器人仅为本发明的实施例之一,其并不限定本发明的保护范围。用户通过输入模块输入对话语句文本,终端设备通过对对话语句进行语义分析和情感分析,输出具情感表达的回复。
图1所示为实施例中的基于交互融合的情感对话生成方法,具体过程如下:
S100:接收由输入模块输入的对话语句文本。
S200:情感分类器识别接收的对话语句文本所蕴含的情感类别,并将情感类别表示为向量,本实施例采用基于BERT情感分类器。
S300:编码器将接收的对话语句文本编码为上下文向量。
将接收的对话语句文本记为文本序列
Figure 917628DEST_PATH_IMAGE029
Figure 559962DEST_PATH_IMAGE030
表示对话语句所包含的T个单词。本实施例中编码器基于BiLSTM神经网络实现,使用BiLSTM神经网络可更好的捕捉双向的语义依赖。编码过程如下所示:
Figure 305064DEST_PATH_IMAGE032
(1)
式(1)中,
Figure 617228DEST_PATH_IMAGE033
表示当前时刻i编码器中BiLSTM网络的隐藏状态,
Figure 182202DEST_PATH_IMAGE034
表示前一时刻i-1编码器中BiLSTM网络的隐藏状态;
Figure 752860DEST_PATH_IMAGE036
表示当前时刻i输入单词
Figure 86890DEST_PATH_IMAGE037
的表示向量。
最终编码器将文本序列
Figure 960168DEST_PATH_IMAGE028
编码成隐藏状态的序列
Figure 884874DEST_PATH_IMAGE038
。再使用注意力机制,时刻i的上下文向量
Figure 603431DEST_PATH_IMAGE039
为输入序列所有时刻的隐藏状态的加权和,即
Figure 447759DEST_PATH_IMAGE041
;其中
Figure 226359DEST_PATH_IMAGE042
的权重
Figure 641291DEST_PATH_IMAGE043
由公式
Figure 429119DEST_PATH_IMAGE045
计算得到,
Figure 737740DEST_PATH_IMAGE046
表示一个多层感知器,
Figure 77455DEST_PATH_IMAGE047
为时刻i-1解码器的隐藏状态,
Figure 838738DEST_PATH_IMAGE048
Figure 40043DEST_PATH_IMAGE049
分别表示时刻kj的隐藏状态。
S400:细粒度交互模块将对话语句文本的情感类别表示向量和上下文向量融合,生成交互式向量。
情感类别表示向量采用emo表示,为情感分类器的输出。上下文向量采用
Figure 468750DEST_PATH_IMAGE039
表示,
Figure 589153DEST_PATH_IMAGE039
为时刻i的上下文向量,细粒度交互模块对emo
Figure 493524DEST_PATH_IMAGE039
进行交互式表示,以促进情感和文本的充分交互融合。细粒度交互模块通过控制对话过程中文本和情感之间的信息交互,使用情感面向整个对话文本进行注意力机制编码,在每一个向量维度上分别控制混合比例,进而得到情感与文本的交互式表示。
本实施例中,交互向量的生成具体为:
S410:将情感类别表示向量emo映射到高维的向量空间。
S420:为能着重关注输入文本序列所蕴含的情感词汇,基于情感类别表示向量emo和上下文向量
Figure 357575DEST_PATH_IMAGE039
,学习情感类别表示向量每一维的权重ATTN,根据self-attention(注意力)机制思想计算权重:
Figure 250575DEST_PATH_IMAGE051
(2)
式(2)中,
Figure 73038DEST_PATH_IMAGE052
Figure 808913DEST_PATH_IMAGE053
为self-attention机制中的参数向量,
Figure 601288DEST_PATH_IMAGE054
为向量
Figure 739009DEST_PATH_IMAGE053
的维度。
S430:将情感类别表示向量emo的每一维乘以对应权重
Figure 339230DEST_PATH_IMAGE056
,之后再与时刻i的上下文向量
Figure 562401DEST_PATH_IMAGE039
拼接,得到情感和文本的交互式向量
Figure 33833DEST_PATH_IMAGE058
Figure 150694DEST_PATH_IMAGE060
(3)
式(3)中,
Figure 314959DEST_PATH_IMAGE062
表示拼接函数。
S500:解码器利用交互式向量
Figure 635213DEST_PATH_IMAGE063
生成回复并输出。
解码器利用交互式向量
Figure 644757DEST_PATH_IMAGE064
进行解码,生成输出序列,即回复。本实施例中解码器采用单向LSTM神经网络。
本实施例中,回复的生成具体为:
(1)将交互式向量
Figure 22649DEST_PATH_IMAGE065
、前一时刻已解码的词向量
Figure 951291DEST_PATH_IMAGE067
和前一时刻解码器的隐藏状态
Figure 414633DEST_PATH_IMAGE068
作为解码器的输入,更新解码器在时刻i的隐藏状态
Figure 837655DEST_PATH_IMAGE069
Figure 804474DEST_PATH_IMAGE071
(4)
式(4)中,词向量
Figure 44963DEST_PATH_IMAGE072
为解码器在时刻i-1的输出。
(2)解码器从输出的概率分布
Figure 854656DEST_PATH_IMAGE074
中抽样生成单词
Figure 471582DEST_PATH_IMAGE076
,即:
Figure 168274DEST_PATH_IMAGE078
(5)
式(5)中,
Figure 845243DEST_PATH_IMAGE080
为待学习参数,由训练确定。
在时刻i,Seq2Seq模型损失函数
Figure 752019DEST_PATH_IMAGE082
计算如下所示:
Figure 766111DEST_PATH_IMAGE084
(6)
为了对生成过程进行有效控制,避免生成安全回复,一种优选方案为,在解码器引入最大化情感表达损失函数。
引入一个常用的外部情感词典——VAD词典。VAD词典由13915个英语单词组成,它将单词映射到一个三维的情感空间,即每个单词根据三个情感维度进行评价,每个维度的取值范围为1-9,其中V(Valence)表示情感的极性,1对应非常情感消极的单词,9对应情感非常积极的单词。A(Arousal)表示情感唤起人兴奋的强度,1对应的情感强度最低,9对应的情感强度最高。D(Dominance)表示情感的控制力,1、5、9分别对应非常无力、中性和非常有力。例如bored在VAD词典中的表示为
Figure 973102DEST_PATH_IMAGE086
给定一个词
Figure 162250DEST_PATH_IMAGE087
,其情感表示
Figure 556322DEST_PATH_IMAGE089
为:
Figure 515051DEST_PATH_IMAGE091
(7)
当词
Figure 435602DEST_PATH_IMAGE087
为VAD词典
Figure DEST_PATH_IMAGE093
中存在的词,则其情感表示为
Figure 798582DEST_PATH_IMAGE095
;否则其情感表示定义为
Figure 945529DEST_PATH_IMAGE097
,代表中性情感词。
引入最大化情感表达损失函数,对生成过程进行控制,鼓励模型生成的回复尽可能地表达情感,避免生成安全回复。
i时刻,最大化情感表达损失
Figure 176790DEST_PATH_IMAGE099
计算如下所示:
Figure DEST_PATH_IMAGE101
(8)
式(8)中,
Figure 686269DEST_PATH_IMAGE102
为Seq2Seq模型的参数。
第一部分
Figure 485729DEST_PATH_IMAGE104
表示Seq2Seq模型的损失,第二部分
Figure 119973DEST_PATH_IMAGE106
通过惩罚生成词
Figure 154925DEST_PATH_IMAGE108
的情感表示与中性情感词
Figure 50069DEST_PATH_IMAGE109
之间的距离,使模型能够在生成过程中主动选择情感丰富的词汇。
i时刻,总损失函数
Figure DEST_PATH_IMAGE111
为Seq2Seq模型损失
Figure 489271DEST_PATH_IMAGE112
和最大化情感表达损失
Figure DEST_PATH_IMAGE113
的加权和:
Figure DEST_PATH_IMAGE115
(9)
其(9)中,权重
Figure 938707DEST_PATH_IMAGE116
是待学习参数,由训练确定。
在本发明基于交互融合的情感对话生成方法实现前,需要进行模型训练,图2所示为本实施例的训练过程,具体包括:
(1)训练出较精确的情感分类器,具体为:
使用情感分类数据集CBET训练出较精确的情感分类器。CBET是带情感类别标签的数据集,包含81163条文本,是目前情感分类领域可用的最大语料库,涵盖9种情感类别,包括Anger(愤怒)、Fear(恐惧)、Joy(高兴)、Love(喜欢)、Sadness(悲伤)、Surprise(惊讶)、Thankfulness(感恩)、Disgust(厌恶)、Guilt(内疚)等。情感类别标签见表1所示。TwitterPersona是英文对话语料库,数据来自于Twitter FireHose,由从中采样的12000轮次对话组成。
表1 情感类别标签化
Anger Fear Joy Love Sadness Surprise Thankfulness Disgust Guilt
0 1 2 3 4 5 6 7 8
训练时,首先利用CBET数据集分别训练多种基于不同模型的情感分类器,其中包括常用的基于机器学习的情感分类模型SVM(支持向量机)、MLP(多层感知器)、LSTM(循环神经网络)、Bi-LSTM(双向循环神经网络)、CNN(卷积神经网络)、BERT(语言表示模型)。最终选择基于语言表示模型(BERT)的情感分类器,其分类效果最佳,精确度可达93.2%。
(2)利用训练的情感分类器构建情感对话语料库,具体为:
利用训练的情感分类器对不带情感类别标签的Twitter Persona对话语料集进行情感标记,情感标记后的Twitter Persona对话语料集即情感对话语料库。
(3)以情感对话语料库作为训练数据集,对所构建的情感对话生成模型进行训练,训练过程包括输入训练数据、情感分类器识别训练数据所蕴含的情感类别并表示为向量、编码器将训练数据编码为上下文向量、将训练数据的情感类别表示向量和上下文向量融合成交互式向量、解码器利用交互式向量进行解码。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (7)

1.一种基于交互融合的情感对话生成方法,其特征是,包括:
S100:接收对话语句文本;
S200:情感分类器识别对话语句文本所蕴含的情感类别,并表示为向量;
S300:编码器将对话语句文本编码为上下文向量;
S400:细粒度交互模块将对话语句文本的情感类别表示向量和上下文向量融合,生成交互式向量;
本步骤进一步包括:
S410:将情感类别表示向量映射到高维的向量空间;
S420:根据注意力机制,基于情感类别表示向量和上下文向量,学习情感类别表示向量每一维的权重;
S430:对情感类别表示向量的每一维乘以相应权重,再与上下文向量拼接,得交互式向量;
S500:解码器利用交互式向量进行解码,生成回复;
S600:输出回复。
2.如权利要求1所述的基于交互融合的情感对话生成方法,其特征是:
所述情感分类器采用基于BERT的情感分类器。
3.如权利要求1所述的基于交互融合的情感对话生成方法,其特征是:
步骤S300具体为:
编码器将对话语句文本编码成隐藏状态序列;利用注意力机制对隐藏状态序列中各隐藏状态求加权和,得上下文向量。
4.如权利要求1所述的基于交互融合的情感对话生成方法,其特征是:
步骤S500中解码器采用单向LSTM神经网络。
5.如权利要求1所述的基于交互融合的情感对话生成方法,其特征是:
步骤S500中,解码器的总损失函数
Figure 816003DEST_PATH_IMAGE001
为Seq2Seq模型损失
Figure 193895DEST_PATH_IMAGE002
和最大化情感表达损失
Figure 997903DEST_PATH_IMAGE003
的加权和:
Figure 336611DEST_PATH_IMAGE004
;其中:
权重
Figure 884267DEST_PATH_IMAGE005
是待学习参数,
Figure 975720DEST_PATH_IMAGE006
为Seq2Seq模型的参数;
最大化情感表达损失
Figure 481788DEST_PATH_IMAGE007
Figure 901268DEST_PATH_IMAGE008
表示Seq2Seq模型的损失,
Figure 127981DEST_PATH_IMAGE009
通过惩罚生成词
Figure 214885DEST_PATH_IMAGE010
的情感表示与中性情感词
Figure 750909DEST_PATH_IMAGE011
之间的距离,
Figure 923264DEST_PATH_IMAGE012
为生成词
Figure 812723DEST_PATH_IMAGE010
的情感表示,当
Figure 629500DEST_PATH_IMAGE010
为VAD词典中存在的词,则其情感表示为
Figure 477371DEST_PATH_IMAGE013
;否则,其情感表示为
Figure 996077DEST_PATH_IMAGE011
6.如权利要求1所述的基于交互融合的情感对话生成方法,其特征是:
采用情感分类数据集训练情感分类器;
采用已训练的情感分类器对对话语料集进行情感标记,情感标记后的对话语料集即情感对话语料库;
以情感对话语料库作为训练使用的数据集,按如下步骤进行训练:
接收训练数据;
情感分类器识别训练数据所蕴含的情感类别,并表示为向量;
编码器将训练数据编码为上下文向量;
将训练数据的情感类别表示向量和上下文向量融合,生成交互式向量;
解码器利用交互式向量进行解码,生成回复。
7.一种基于交互融合的情感对话生成系统,其特征是,包括:
接收模块,用来接收对话语句文本;
情感分类模块,用来识别对话语句文本所蕴含的情感类别,并表示为向量;
编码模块,用来将对话语句文本编码为上下文向量;
细粒度交互模块,用来将对话语句文本的情感类别表示向量和上下文向量融合,生成交互式向量;
所述细粒度交互模块进一步包括:
第一子模块,用来将情感类别表示向量映射到高维的向量空间;
第二子模块,用来根据注意力机制,基于情感类别表示向量和上下文向量,学习情感类别表示向量每一维的权重;
第三子模块,用来对情感类别表示向量的每一维乘以相应权重,再与上下文向量拼接,得交互式向量;
解码模块,用来利用交互式向量进行解码,生成回复;
输出模块,用来输出回复。
CN202110798849.8A 2021-07-15 2021-07-15 一种基于交互融合的情感对话生成方法及系统 Active CN113254625B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110798849.8A CN113254625B (zh) 2021-07-15 2021-07-15 一种基于交互融合的情感对话生成方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110798849.8A CN113254625B (zh) 2021-07-15 2021-07-15 一种基于交互融合的情感对话生成方法及系统

Publications (2)

Publication Number Publication Date
CN113254625A true CN113254625A (zh) 2021-08-13
CN113254625B CN113254625B (zh) 2021-11-16

Family

ID=77180355

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110798849.8A Active CN113254625B (zh) 2021-07-15 2021-07-15 一种基于交互融合的情感对话生成方法及系统

Country Status (1)

Country Link
CN (1) CN113254625B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688204A (zh) * 2021-08-16 2021-11-23 南京信息工程大学 一种利用相似场景及混合注意力的多人会话情感预测方法
CN113946670A (zh) * 2021-10-19 2022-01-18 北京理工大学 一种面向对话情感识别的对比式上下文理解增强方法
CN115424605A (zh) * 2022-11-01 2022-12-02 北京红棉小冰科技有限公司 语音合成方法、装置、电子设备及计算机可读存储介质
WO2023159759A1 (zh) * 2022-02-22 2023-08-31 平安科技(深圳)有限公司 模型的训练方法、情感消息生成方法和装置、设备、介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427490A (zh) * 2019-07-03 2019-11-08 华中科技大学 一种基于自注意力机制的情感对话生成方法与装置
US20200202887A1 (en) * 2018-12-19 2020-06-25 Disney Enterprises, Inc. Affect-driven dialog generation
CN111522924A (zh) * 2020-03-31 2020-08-11 华东师范大学 一种带有主题感知的情感聊天式回复生成方法
CN111986687A (zh) * 2020-06-23 2020-11-24 合肥工业大学 基于交互式解码的双语情感对话生成系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200202887A1 (en) * 2018-12-19 2020-06-25 Disney Enterprises, Inc. Affect-driven dialog generation
CN110427490A (zh) * 2019-07-03 2019-11-08 华中科技大学 一种基于自注意力机制的情感对话生成方法与装置
CN111522924A (zh) * 2020-03-31 2020-08-11 华东师范大学 一种带有主题感知的情感聊天式回复生成方法
CN111986687A (zh) * 2020-06-23 2020-11-24 合肥工业大学 基于交互式解码的双语情感对话生成系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688204A (zh) * 2021-08-16 2021-11-23 南京信息工程大学 一种利用相似场景及混合注意力的多人会话情感预测方法
CN113688204B (zh) * 2021-08-16 2023-04-25 南京信息工程大学 一种利用相似场景及混合注意力的多人会话情感预测方法
CN113946670A (zh) * 2021-10-19 2022-01-18 北京理工大学 一种面向对话情感识别的对比式上下文理解增强方法
CN113946670B (zh) * 2021-10-19 2024-05-10 北京理工大学 一种面向对话情感识别的对比式上下文理解增强方法
WO2023159759A1 (zh) * 2022-02-22 2023-08-31 平安科技(深圳)有限公司 模型的训练方法、情感消息生成方法和装置、设备、介质
CN115424605A (zh) * 2022-11-01 2022-12-02 北京红棉小冰科技有限公司 语音合成方法、装置、电子设备及计算机可读存储介质
CN115424605B (zh) * 2022-11-01 2023-02-03 北京红棉小冰科技有限公司 语音合成方法、装置、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN113254625B (zh) 2021-11-16

Similar Documents

Publication Publication Date Title
CN113254625B (zh) 一种基于交互融合的情感对话生成方法及系统
Kamath et al. Deep learning for NLP and speech recognition
CN110427490B (zh) 一种基于自注意力机制的情感对话生成方法与装置
Merdivan et al. Dialogue systems for intelligent human computer interactions
CN111930918B (zh) 一种跨模态的双边个性化人机社交对话生成方法及系统
KR102315830B1 (ko) 반지도 학습 기반 단어 단위 감정 임베딩과 lstm 모델을 이용한 대화 내에서 발화의 감정 분류 방법
KR20190071527A (ko) 발화의 의미를 분석하기 위한 전자 장치 및 그의 동작 방법
Liu et al. Reinforcement learning for emotional text-to-speech synthesis with improved emotion discriminability
CN111986687B (zh) 基于交互式解码的双语情感对话生成系统
CN114995657B (zh) 一种智能机器人的多模态融合自然交互方法、系统及介质
CN112905772B (zh) 语义相关性分析方法、装置及相关产品
CN111382257A (zh) 一种生成对话下文的方法和系统
Bothe et al. Dialogue-based neural learning to estimate the sentiment of a next upcoming utterance
CN112131367A (zh) 自审核的人机对话方法、系统及可读存储介质
Lee et al. Word-level emotion embedding based on semi-supervised learning for emotional classification in dialogue
Scotti et al. A modular data-driven architecture for empathetic conversational agents
CN114444510A (zh) 情感交互方法及装置、情感交互模型的训练方法及装置
CN114386426A (zh) 一种基于多元语义融合的金牌话术推荐方法及装置
CN112364659A (zh) 一种无监督的语义表示自动识别方法及装置
Kazakova et al. Analysis of natural language processing technology: modern problems and approaches
CN113010662B (zh) 一种层次化会话式机器阅读理解系统和方法
Buçinca et al. AffectON: Incorporating affect into dialog generation
Lv et al. StyleBERT: Chinese pretraining by font style information
Paul et al. Intent based multimodal speech and gesture fusion for human-robot communication in assembly situation
CN116108856B (zh) 基于长短回路认知与显隐情感交互的情感识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant