CN112966083A - 一种基于对话历史建模的多轮对话生成方法及装置 - Google Patents

一种基于对话历史建模的多轮对话生成方法及装置 Download PDF

Info

Publication number
CN112966083A
CN112966083A CN202110259589.7A CN202110259589A CN112966083A CN 112966083 A CN112966083 A CN 112966083A CN 202110259589 A CN202110259589 A CN 202110259589A CN 112966083 A CN112966083 A CN 112966083A
Authority
CN
China
Prior art keywords
history
word
dialog
dialogue
statement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110259589.7A
Other languages
English (en)
Other versions
CN112966083B (zh
Inventor
凌艳香
蔡飞
陈洪辉
杨文静
梁政
张清辉
王天琦
陶卿曌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202110259589.7A priority Critical patent/CN112966083B/zh
Publication of CN112966083A publication Critical patent/CN112966083A/zh
Application granted granted Critical
Publication of CN112966083B publication Critical patent/CN112966083B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

一种基于对话历史建模的多轮对话生成方法及装置,属于人工智能领域,其特征在于,利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化获取近邻感知的对话历史语义表示;利用面向对话历史的注意力机制使查询语句自动从对话历史中吸收相关语义信息,得到对话历史增强的查询语义表示;再根据本申请新增的近邻感知的对话历史语义表示、及对话历史增强的查询语义表示通过神经网络逐词生成回复语句,能够有效捕捉对话历史中篇章级别的连贯语义关系,缓解对话历史建模的长期依赖问题和记忆延迟问题,并充分挖掘了查询语句在捕捉当前对话焦点时的重要作用,使得所生成的对话具备更好的上下文一致性和信息丰富性。

Description

一种基于对话历史建模的多轮对话生成方法及装置
技术领域
本发明属于人工智能领域,尤其涉及一种基于对话历史建模的多轮对话生成方法及装置。
背景技术
开放域对话系统旨在实现让机器与人类在开放领域话题上进行自然语言交互。近年来,由于大规模数据的可得性以及深度学习技术的进步,基于神经网络的对话生成在开放域对话系统中引起了广泛的研究兴趣。与单轮场景相比,多轮对话在日常生活中更为广泛,但也对上下文一致性提出了更严格的要求。在多轮对话中,回复语句的生成不仅应取决于用户最近的消息,还应与对话历史保持一致,避免在逻辑、情感等方面的矛盾。因此,如何建模对话历史成为了多轮对话生成的关键内容之一。
目前对话历史建模方法可以大致分为两类:层次建模方法和非层次建模方法。层次建模方法在句子和篇章两个层面上建模对话历史,着重研究对话历史中蕴含的语义关系以及话题转移关系等,部分研究还将记忆网络、隐变量模型以及变分自编码器融入了层次建模方法中。非层次建模方法通常按照对话顺序将对话历史串联为一个句子,或将对话历史综合重写为一个信息更加丰富的句子,然后将该句子输入到传统序列到序列框架以生成答复语句。与层次建模方法相比,非层次建模方法本质上还是单轮对话生成,忽略了对话历史中动态变化的话题流,因此层次类建模方法在捕捉对话过程中的语义变化上性能更佳。
对话历史建模的一个关键问题就是获取对话历史的语义表示。目前的层次类建模方法通常将对话历史中各个轮次的语句视为相互独立的句子,然后进行单独的语义编码。这种做法忽略了一个重要事实,即多轮对话产生于一个连贯一致的交流过程,其中涉及的各个轮次的语句是前后关联的。对话历史中相邻的语句间存在显式的回复关系。如果单独编码这些语句却不考虑它们之间的语义关系,层次类建模方法可能无法捕获对话历史中篇章级别的连贯关系。
此外,对话历史中多个语句的重要性不同,对当前轮次的回复生成存在不同的影响力。因此,如何找到与当前回复生成最相关的历史语句,也是对话历史建模的关键问题之一。目前的层次类建模方法主要利用各种注意力机制来计算历史语句的重要性,进而通过加权整合来获得对话历史的语义表示。但大量研究和实验结果证明,这种做法不能保证生成回复语句的相关性和一致性。
发明内容
本发明旨在解决上述问题,提供一种基于对话历史建模的多轮对话生成方法及装置。
第一方面,本发明提供一种基于对话历史建模的多轮对话生成方法,包括:
通过神经网络获得对话历史中每个语句的初始词级语义表示;
利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化,获取近邻感知的对话历史语义表示;
将对话历史中的最新语句定义为查询语句,先利用自注意力机制捕捉查询语句中词之间的关系,然后利用面向对话历史的注意力机制使查询语句自动从对话历史中吸收相关语义信息,得到对话历史增强的查询语义表示;
根据近邻感知的对话历史语义表示、及对话历史增强的查询语义表示,通过神经网络逐词生成回复语句。
进一步,本发明所述基于对话历史建模的多轮对话生成方法,所述获得对话历史中每个语句的初始词级语义表示通过双向门控循环神经网络实现;所述生成回复语句通过单向门控循环神经网络实现。
进一步,本发明所述基于对话历史建模的多轮对话生成方法,所述对对话历史的语义表示过程进行优化,对对话历史中的任一历史语句进行重编码,使之能够保留其相邻历史语句的语义信息,通过轮次方向上的顺序整合进而获取近邻感知的对话历史语义表示。
进一步,本发明所述基于对话历史建模的多轮对话生成方法,所述通过神经网络获得对话历史中每个语句的初始词级语义表示,给定包含M条语句的多轮对话{U1,...,UM},M≥2,其中最后一条最新语句UM定义为查询语句,前M-1条语句序列U<M={U1,...,UM-1}定义为对话历史;
多轮对话生成就是通过计算条件概率P(UM+1∣U<M;UM)来根据对话历史以及查询语句来生成回复语句UM+1
设回复UM+1包含NM+1个词,即
Figure BDA0002969273060000021
则条件概率P(UM+1∣U<M;UM)可分解为:
Figure BDA0002969273060000031
其中wn,M+1表示回复UM+1中第n个位置的词;w<n,M+1表示回复UM+1中前n-1个词,即w<n,M+1=(w1,M+1,...,wn-1,M+1);
多轮对话{U1,...,UM}中任一语句Um(m∈[1,M])包含Nm个词,即
Figure BDA0002969273060000032
通过双向门控循环神经网络将每个词wn,m(n∈[1,Nm])编码为一向量,计算过程如下:
Figure BDA0002969273060000033
Figure BDA0002969273060000034
Figure BDA0002969273060000035
其中
Figure BDA0002969273060000036
表示词wn,m对应的随机初始化的词向量;
Figure BDA0002969273060000037
Figure BDA0002969273060000038
分别表示前向和后向循环神经网络得到的词wn,m对应的向量;
Figure BDA0002969273060000039
为词wn,m最终的向量表示;Um的初始词级语义被表示为一个向量序列,即
Figure BDA00029692730600000310
更进一步,本发明所述基于对话历史建模的多轮对话生成方法,所述利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化,对于Um中的任一词wn,m(n∈[1,Nm]),通过前向Transformer编码器
Figure BDA00029692730600000315
将其进行如下重编码:
Figure BDA00029692730600000311
Figure BDA00029692730600000312
Figure BDA00029692730600000313
其中,q,k,v分别为Transformer编码器中注意力机制对应的查询向量、键向量和值向量;
对于第一个语句U1,设置
Figure BDA00029692730600000314
Transformer编码器的注意力机制变为自注意力机制;
同理,对于后向Transformer编码器
Figure BDA0002969273060000041
重编码过程为:
Figure BDA0002969273060000042
Figure BDA0002969273060000043
Figure BDA0002969273060000044
以上
Figure BDA0002969273060000045
Figure BDA0002969273060000046
分别表示词wn,m(n∈[1,Nm])经过
Figure BDA0002969273060000047
Figure BDA0002969273060000048
重编码后的向量表示;通过特征维度的向量拼接操作
Figure BDA0002969273060000049
zn,m为词wn,m最终的重编码向量,它不仅包含词wn,m自身的语义特征,还纳入了邻居语句中相关的语义特征;
经过以上重编码过程,语句Um被重编码为
Figure BDA00029692730600000410
将其每个词对应的重编码向量进行相加,得到Um的语句级别的表示,即
Figure BDA00029692730600000411
通过双向门控循环神经网络对对话历史的重编码向量进行轮次方向上的顺序整合,过程如下:
Figure BDA00029692730600000412
Figure BDA00029692730600000413
Figure BDA00029692730600000414
其中
Figure BDA00029692730600000415
为Um(m∈[1,M-1])经过保留模块重编码后的向量表示;
Figure BDA00029692730600000416
被定义为对话历史U<M={U1,...,UM-1}的近邻语义感知的特征表示。
更进一步,本发明所述基于对话历史建模的多轮对话生成方法,所述得到对话历史增强的查询语义表示,对UM中的任一词wi,M,计算它与UM中其他词的相关性:
Figure BDA00029692730600000417
其中βi,j是词wj,M相对于词wi,M的相关性,j≠i∈[1,NM];grelu表示一个以ReLU为激活函数的全连接神经网络;f是点积操作;根据UM中其他词对于词wi,M的相关性,将其他词的语义融入wi,M的特征表示:
Figure BDA0002969273060000051
其中向量ri,M不仅包含词wi,M自身的语义,还包含了UM中其他词的语义,具有句子级别的语境信息;
继续计算词wi,M与对话历史中任一语句Um(m∈[1,M-1])的相关性:
Figure BDA0002969273060000052
接着,根据相关性大小将相应对话历史中语句的语义信息融入词wi,M的表示:
Figure BDA0002969273060000053
其中
Figure BDA0002969273060000054
为词wi,M经过选择模块编码后的特征表示,不仅包含词wi,M本身语义,还融入了查询UM中其他词以及对话历史的语义信息;
Figure BDA0002969273060000055
定义为对话历史增强的查询UM的特征表示。
更进一步,本发明所述基于对话历史建模的多轮对话生成方法,所述通过神经网络逐词生成回复语句,在生成第t个词时,将词分布概率表示为:
Figure BDA0002969273060000056
其中
Figure BDA0002969273060000057
是从词典中预测出的词,Wdec为映射矩阵;
Figure BDA0002969273060000058
是第t个位置上的隐状态,通过单向门控循环神经网络获得,具体如下:
Figure BDA0002969273060000059
Figure BDA00029692730600000510
其中
Figure BDA00029692730600000511
为词
Figure BDA00029692730600000512
的词向量;
ct是对话的统一表示,通过一个查询注意力机制和一个对话历史注意力机制来共同获得,过程如下:
Figure BDA00029692730600000513
Figure BDA00029692730600000514
Figure BDA0002969273060000061
其中
Figure BDA0002969273060000062
Figure BDA0002969273060000063
分别代表查询中词wn,M和对话历史语句Um对于第t个词的重要性;gtanh是一个以tanh为激活函数的前馈神经网络;Concat[;]表示向量维度上的拼接操作。
第二方面,本发明提供一种基于对话历史建模的多轮对话生成装置,包括:语句编码模块,用于通过神经网络获得对话历史中每个语句的初始词级语义表示;保留模块,用于利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化,获取近邻感知的对话历史语义表示;
选择模块,用于将对话历史中的最新语句定义为查询语句,先利用自注意力机制捕捉查询语句中词之间的关系,然后利用面向对话历史的注意力机制使查询语句自动从对话历史中吸收相关语义信息,得到对话历史增强的查询语义表示;
回复解码模块,用于根据近邻感知的对话历史语义表示、对话历史增强的查询语义表示,通过神经网络逐词生成回复语句。
第三方面,本发明提供一种基于对话历史建模的多轮对话生成装置,包括存储器和处理器;所述存储器,用于存储计算机程序;所述处理器,用于当执行所述计算机程序时,实现前述第一方面所述的基于对话历史建模的多轮对话生成方法。
第四方面,本发明提供一种计算机可读存储介质,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现前述第一方面所述的基于对话历史建模的多轮对话生成方法。
本发明所述基于对话历史建模的多轮对话生成方法及装置,在现有技术的基础上,利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化获取近邻感知的对话历史语义表示;同时将对话历史中的最新语句定义为查询语句,先利用自注意力机制捕捉查询语句中词之间的关系,然后利用面向对话历史的注意力机制使查询语句自动从对话历史中吸收相关语义信息,得到对话历史增强的查询语义表示;再根据本申请新增的近邻感知的对话历史语义表示、及对话历史增强的查询语义表示通过神经网络逐词生成回复语句,能够有效捕捉对话历史中篇章级别的连贯语义关系,缓解对话历史建模的长期依赖问题和记忆延迟问题,并充分挖掘了查询语句在捕捉当前对话焦点时的重要作用,使得所生成的对话具备更好的上下文一致性和信息丰富性。
附图说明
图1为本发明所述基于对话历史建模的多轮对话生成装置结构示意图;
图2为本发明所述不同对话历史长度下各模型在自动评估结果示意图;
图3为本发明所述不同查询语句长度下各模型自动评估结果示意图;
图4为本发明所述短查询样本中不同对话历史长度下各模型在自动评估结果示意图。
具体实施方式
下面通过附图及实施例对本发明所述基于对话历史建模的多轮对话生成方法及装置进行详细说明。
实施例一
通过神经网络获得对话历史中每个语句的初始词级语义表示;利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化,获取近邻感知的对话历史语义表示;将对话历史中的最新语句定义为查询语句,先利用自注意力机制捕捉查询语句中词之间的关系,然后利用面向对话历史的注意力机制使查询语句自动从对话历史中吸收相关语义信息,得到对话历史增强的查询语义表示;根据近邻感知的对话历史语义表示、及对话历史增强的查询语义表示,通过神经网络逐词生成回复语句。
在本公开实施例中多轮对话生成可形式化定义为:给定包含M条(M≥2)语句的多轮对话{U1,...,UM},最后一条语句UM定义为查询语句,前M-1条语句序列U<M={U1,...,UM-1}定义为对话历史。多轮对话生成的任务就是通过计算条件概率P(UM+1∣U<M;UM)来根据对话历史以及查询语句来生成回复语句UM+1。设回复UM+1包含NM+1个词,即
Figure BDA0002969273060000071
则条件概率P(UM+1∣U<M;UM)可大致分解为:
Figure BDA0002969273060000072
其中wn,M+1表示回复UM+1中第n个位置的词;w<n,M+1表示回复UM+1中前n-1个词,即w<n,M+1=(w1,M+1,...,wn-1,M+1)。
在本实施例中的解码过程中生成第t个词时,同时考虑了查询语句和对话历史的信息,将采用这种解码策略的多轮对话生成方法命名为KS-CQ;为了探索查询语句对回复生成的具体作用,在本公开实施例中还设置了一个变种模型KS-Q,它在解码时只考虑查询语句的信息,即:
Figure BDA0002969273060000081
同时,在本公开实施例中采用基于交叉熵的负对数似然作为损失函数,即
Figure BDA0002969273060000082
其中
Figure BDA0002969273060000083
和wt分别为生成回复
Figure BDA0002969273060000084
和真实回复UM+1在第t个位置上的词。Θ表示模型的可训练参数集合。
在本公开实例中使用了两个开源的多轮对话基准数据集;一个是DailyDialog数据集,是从日常生活中的人与人对话中收集的。它总共包含13,118个高质量的英文对话,涵盖文化,教育和旅游等各个主题。使用官方开源的训练/验证/测试集划分,即11,118/1,000/1,000。另一个是KdConv数据集,是一个中文多轮对话数据集,包含4.5K个来自电影、音乐和旅游三个领域的对话。与DailyDialog数据集不同,KdConv中每个语句都会被关联到特定的知识三元组。将公开下载的数据集按照80%/10%/10%的比例划分为训练/验证/测试集。
为了增加训练数据的规模,对以上两个数据集进行了如下预处理。对于一个包含M个语句的对话,其中M≥2,在其第m轮(2≤m<M),将Um定义为查询语句,U<m={U1,...,Um-1}定义为对话历史,Um+1定义为真实的回复。对对话轮数超过15和语句长度超过50的样本进行了截断。最终,在DailyDialog上获得了76,052/6,740条样本用于训练/测试,在KdConv上获得了56,644/6,294个样本。表2展示了预处理后数据集的一些统计特征。
表2
Figure BDA0002969273060000085
Figure BDA0002969273060000091
在本公开实施例中将本实施例所述KS-CQ模型与现有的以下几个多轮对话生成的基线模型进行对比,包括:HRED:一种经典的分层多轮对话生成模型。WSeq:一种考虑了查询在多轮对话生成中特殊作用的模型。SD-HRED:一种基于HRED和动态静态注意力机制的多轮对话生成模型。HRAN:一种分层循环注意力机制的多轮对话生成模型。ReCoSa:一种混合了Transformer和HRED结构的多轮回复模型。
在本公开实施例中,除了KS-CQ外,还设置了5个变种模型,包括KS-Q,PrKS-CQ,PoKS-CQ,K-CQ和S-CQ,每个变种模型的具体模块组成见表3。具体来说,KS-Q用来研究查询语句和对话历史在回复生成中的差异性作用。PrKS-CQ和PoKS-CQ用于分析前向邻居和后向邻居对于保留模块的差异性影响,其中PrKS-CQ采用了“前向保留”操作,PoKS-CQ采用了“后向保留”操作。K-CQ和S-CQ是两个消融模型,用来分析保留模块和选择模块的贡献。
表3
Figure BDA0002969273060000092
在本公开实施例中对于上述所有的模型,词向量均采取随机初始化,并在训练中进行自动更新,维度为512。GRU和BiGRU均采用2层512个神经元。Transformer编码器中的多头数量设置为4,自注意力机制的隐藏层大小为512。参数优化采用Adam优化器,学习率设置为0.0001,批处理规模为64。
根据现有技术,通过自动评估和人工评估两种方式对上述所有模型进行评估。
在自动评估过程中为了确保自动评估的公平性和全面性,从以下两个方面来选取指标进行评估:适当性。多轮对话生成的适当性,通常通过比较预测回复和真实回复之间的相似性来评估。生成回复与真实回复越相近,表示其适当性越好。常见的指标有BLEU、ROUGE等,但这些指标是从词重叠角度评估相似性。部分研究证明BLEU和ROUGE的评估结果与人工评估结果相关性差,因此采用基于词向量的话题相似性评估指标,即Average,Extrema,Greedy来评估回复的适当性。基于词向量的话题相似性评估指标,首先将回复中各个词映射到词向量空间,然后计算回复整体的词向量表示,进而通过计算生成回复和真实回复在词向量上的余弦距离来判断二者之间在语义上的相似性。
信息丰富性;采用平均词级熵Η(ω)来评估生成回复的信息丰富性。对于第j个生成回复中的第i个词wi,j,其词级熵H(wi,j)=-p(wi,jwi-2,j;wi-1,j)logp(wi,jwi-2,j;wi-1,j),其中概率p(wi,jwi-2,j;wi-1,j)通过三元词组{wi-2,j,wi-1,j,wi,j}在训练集中共现的频率近似得到。
因此,
Figure BDA0002969273060000101
其中Ω表示测试集中生成的回复的总个数,Nj表示第j个生成回复包含的词数量。
由KS-CQ及其变体KS-Q,PrKS-CQ和PoKS-CQ,以及基准模型自动评估的结果见表4。
表4
Figure BDA0002969273060000102
Figure BDA0002969273060000111
通过表4可见,KS-CQ在两个数据集上的所有指标都优于基线模型,尤其在DailyDialog数据集上Average指标的提升幅度较大。这证实了KS-CQ模型在多轮对话生成上的有效性。
对于所有模型,DailyDialog数据集上所有指标的性能低于KdConv数据集上的性能。这可能是由于DailyDialog数据集是从人类日常谈话中收集的,并且包含许多口语表达。KdConv数据集中的大多数对话均包含丰富的知识实体信息,因此与DailyDialog数据集中的对话相比,语句的信息更丰富、语义更容易识别,进而导致各模型生成的回复质量相对较高。
在DailyDialog数据集上,KS-CQ比基线模型取得了较大幅度的改进,这证明了KS-CQ在语义稀疏的日常对话生成上的有效性。
同时,由表4可见,与KS-CQ相比,仅使用查询表示来生成响应的变体模型KS-Q在两个数据集上的所有指标均发生性能下降,这说明对话历史在多轮对话生成中发挥着重要作用。
将KS-Q与基线模型相比,发现即使没有对话历史信息的输入,KS-Q也可以在某些指标上击败一些基线模型,例如DailyDialog数据集上的Average和Extrema指标,KS-Q优于所有基线模型。KS-Q模型的优越性可归因于其中的选择模块,该模块充分利用对话历史信息来丰富查询语句的表示,能够提高生成回复的质量。
由此可见,一方面对话历史和查询语句对于多轮对话生成都很重要;另一方面查询语句在回复生成中发挥主导作用,可以有效地过滤掉对话历史中的噪声信息,捕捉当前对话的焦点。
同时,由表4可见,在大多数情况下,KS-CQ的性能比PrKS-CQ或PoKS-CQ要好,说明前向邻居语句和后向邻居语句都能增强对话历史的表示过程。在DailyDialog数据集上,PrKS-CQ和PoKS-CQ在大多数指标上(Greedy除外)击败了基线模型。这证实了保留模块背后设计思想的有效性,即对话历史中的语句是相互依赖的,并且它们的语义表示可以通过前向和后向的邻居语句来增强。
PrKS-CQ在DailyDialog数据集的Η(ω)指标上始终优于PoKS-CQ,甚至优于KS-CQ。因为多轮对话本身是按时间顺序推进的,后向语句往往是根据前向语句生成,因此前向邻居能够在重编码中发挥更多作用。
在人工评估中,邀请4名受过良好高等教育且并未参与本研究的人员进行人工评估。随机从DailyDialog的测试集中选取了300个样本,然后通过KS-CQ以及其他模型进行回复生成。此处采用DailyDialog数据集进行人工评估,是因为该数据集中的对话内容大多来自日常对话,不需要评估员具备特定领域的知识,易于判断。评估员根据两个准则进行评估:首先是适当性,即生成回复是否能恰当回应给定的对话历史和查询语句;其次是信息丰富性,生成回复是否是通用化的无意义性回复,比如“好的”、“我不知道”等。每个准则上,都采用1-5的打分,分数越高,表示对应指标上表现越好。人工评估结果如表5所示。
表5
Figure BDA0002969273060000121
Figure BDA0002969273060000131
如表5所示,KS-CQ在适当性和信息丰富性方面实现了最佳性能,这从人类主观角度证实了KS-CQ在多轮对话生成上的有效性。与最佳基线相比,即SD-HRED和HRED,KS-CQ在两个指标上均获得较低的标准差。这表明多个人类评估员对KS-CQ的良好性能具有较高的一致性。
通过分别消除保留和选择模块,训练不完整的KS-CQ模型来观察性能变化。使用S-CQ和K-CQ分别表示没有保留模块和选择模块的模型,其组件详情见表3。模型消融结果见表6。
表6
Figure BDA0002969273060000132
如表6所示,与完整模型KS-CQ相比,消融模型S-CQ和K-CQ在大多数指标方面的性能在两个数据集上都下降。这说明保留模块和选择模块都对KS-CQ有贡献。比较DailyDialog数据集中的S-CQ和K-CQ,从大多数指标来看,K-CQ的性能下降大于S-CQ;但在KdConv数据集上正好相反。由于DailyDialog数据集中的查询语句相对是口语和非正式的,因此存在较多的信息遗漏和共指现象。选择模块能够利用对话历史信息优化查询表示,这能够有效的缓解信息遗漏、共指等现象对查询语句表示上的负面作用。而在KdConv数据集中,虽然语句通常包含丰富的实体信息,但对话轮次较多,对话历史往往很长。此时保留模块能够提供捕获对话历史中长期依赖的记忆能力,为较长的对话历史生成有效的语义表示。
通过表6和表4的结果结合可见:S-CQ和K-CQ在几个指标上击败了最好的基线模型,例如在上DailyDialog数据集上,S-CQ和K-CQ在Average和Extrema指标上比最佳基线(HRED和Wseq)性能更好。说明保留模块和选择模块,可以进行单独使用,对对话历史建模均有较好的改进作用。
在DailyDialog数据集上分析KS-CQ模型以及基线模型在不同对话历史长度上的性能,此处对话历史长度是指对话历史中包含的语句数量。首先根据对话历史长度将这6,740个测试样本分成三组,各组的对话历史长度分别为[1,5]、(5,10]、>10,其中[1,5]组包含63.32%的样本,(5,10]组包含28.95%的样本,>10包含7.73%的样本。然后,根据各种指标评估模型性能。结果见图2。
如图2所示:KS-CQ在Average和Extrema指标上,在各个对话历史长度下均获得最佳性能,表明它能为短对话和长对话生成适当的响应,对于对话历史长度变化具有较好的鲁棒性。
对于对话历史长度大于5的样本,KS-CQ在Greedy和Η(ω)指标上略逊于基线模型ReCoSa。由于随着对话历史长度的增加,对话涉及的话题转移频率越高、跨度越大,增加了KS-CQ捕捉对话焦点的难度。与基线模型相比,KS-CQ在各个对话历史长度下的指标之间获得了更加均衡的良好性能。
整体来看,KS-CQ能在不同对话历史长度下保持稳定的性能,当对话历史长度增加时,某些指标的性能仅会发生小幅度下降。表明对话历史长度的增加可能使KS-CQ更难产生适当和信息丰富的回复;也体现了KS-CQ对对话历史长度变化的鲁棒性。
在DailyDialog数据集上分析KS-CQ和基线模型在不同查询语句长度下的性能变化,此处查询语句长度是指查询语句中包含的词数量。根据查询语句长度的大小将6,740个测试样本拆分为三组,各组对应的查询语句长度分别为[1,5]、(5,15]、>15,其中[1,5]涵盖了13.71%的测试样本,(5,15]涵盖60.28%的样本,>15涵盖了26.01%的样本。通常来说,查询语句长度越长,其中包含的有效信息越多,分析结果见图3。
如图3所示:KS-CQ在所有查询语句长度下在各个指标上展现了持续的良好性能。尤其在查询语句长度不超过5时,此时的查询较短,包含的有效信息较少,KS-CQ和基线模型之间的性能差距更加明显。表明KS-CQ可以有效地利用短查询携带的有限语义,来生成适当且内容丰富的响应。归因于选择模块,它通过选择性地从相关对话历史中吸收信息来丰富查询的语义表示。
在所有指标上所有模型的性能都随着查询长度的增加而提高,说明查询语句的长度的确会影响多轮对话生成的结果。
基于上述分析,可以看出对于多轮对话生成任务来说,短查询的建模难度较大。因为在短查询情况下,查询语句包含的信息十分有限,而且短查询通常是一些常用的语句表达,比如“我不知道”、“是的”等等。为了深入了解此类情况下模型性能的变化,选择具有短查询的样本,这些样本的查询语句的长度均不超过5。进一步分析各模型在短查询情况下不同对话历史长度中的性能,结果见图4。
通过将图4的结果与图2的结果进行比较:在短查询情况下,所有模型在所有指标上且在各个对话历史长度下均显式出性能下降,证实短查询建模的难度。随着对话历史长度的增加,KS-CQ的性能在Η(ω)指标上呈现增长趋势,但在大多数适当性指标(如Average和Greedy)上呈现下降趋势。这种现象的原因是,更多的对话历史一方面提供了丰富的语义信息,有助于在回复中生成多样化的词,但另一方面随着对话历史长度的增加,主题转换的频率更高,这使得预测当前对话焦点的难度增加,难以生成合适相关的回复。
短查询情况下,由于查询语句包含的信息较少,难以有效地过滤掉对话历史中的噪声。但在这种情况下,KS-CQ在各个对话历史长度下仍展示出了卓越的性能。
同时,在本公开实施例中在两个测试集上选择了3个案例进行演示,结果见表7。
表7
Figure BDA0002969273060000161
Figure BDA0002969273060000171
Figure BDA0002969273060000181
在案例一中,对话历史很短,只有一个语句,而查询语句存在典型的“一对多”情况,即它可能存在多个合适的回复。在这种情况下,HRED、SD-HRED和KS-CQ都生成了更加恰当的回复,但KS-CQ生成的回复中包含“汉堡”这个关键词,明显比其他回复中涉及的“香槟”、“龙虾尾”更符合“早餐”的语境。
在案例二中,对话历史很长,查询语句是一个问题。基线模型HRED、WSeq和HRAN生成了不相关的回复,说明它们未能正确理解对话当前的焦点。虽然基线模性SD-HRED和ReCoSa都捕捉到了“音乐”这个关键点,但他们生成的回复信息不够丰富。与基线模型相比,KS-CQ生成的回复与真实回复高度一致,并准确预测了“古典乐”这个关键词。
案例三来自于KdConv数据集,能明显看出对话中包含较多的实体信息,各个对话轮次在话题上转换较为频繁,尤其是查询语句和对话历史在话题上发生了明显的改变。此时,基线模性HRED、SD-HRED、HRAN和ReCoSa生成的回复对查询语句来说似乎合理且自然,但它们明显与对话历史中的信息发生了重复或者冲突。WSeq和KS-CQ产生了相对更加适当的回复,而KS-CQ生成回复中包含的“他是个很优秀的演员”则对对话历史中“他是英国的影视演员”给出了一个很好的呼应。但是,可以注意到,无论是基线模型还是KS-CQ模型,它们产生的回复与真实回复还存在较大差距。这可能是因为查询语句和对话历史在话题上发生了急剧的转换,增加了预测对话焦点的难度。
实施例二
本公开另一实施例提供一种基于对话历史建模的多轮对话生成装置,如图1所示,语句编码模块,用于获取对话历史中每个单独语句的初始词级语义表示,通过双向门控循环神经网络(Bidirectional Gated Recurrent Unit,BiGRU)实现;保留模块,利用各个历史语句之间的显式回复关系来优化对话历史的语义表示过程,依托Transformer编码器结构对任一历史语句进行重编码,使之能够保留其相邻历史语句的语义信息,通过轮次方向上的顺序整合进而获取近邻感知的对话历史语义表示;选择模块,着重对对话历史中最新的语句(定义为查询语句)进行建模。首先利用自注意力机制捕捉查询语句中词之间的关系,然后利用面向对话历史的注意力机制使查询语句自动从对话历史中吸收相关语义信息,进而来丰富自身的语义表示;回复解码模块,根据保留模块得到的近邻感知的对话历史语义表示、以及选择模块得到的对话历史增强的查询语义表示,通过单向门控循环神经网络(Gated Recurrent Unit,GRU)逐词生成回复语句。
实施例三
在本公开另一具体实施例所述基于对话历史建模的多轮对话生成装置,包括存储器和处理器;所述存储器,用于存储计算机程序;所述处理器,当执行所述计算机程序代码在计算机上运行时,使得计算机执行上述第一方面及实施例一所述基于对话历史建模的多轮对话生成方法,具体对话生成步骤与前述实施例相同,不再赘述。
实施例四
在本公开另一具体实施例计算机可读介质,所述计算机可读介质存储有程序代码,当所述计算机程序代码在计算机上运行时,使计算机执行上述第一方面及实施例一所述基于对话历史建模的多轮对话生成方法,具体对话生成步骤与前述实施例相同,不再赘述。
所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输。所述计算机可读存储介质可以是计算机能够读取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,数字通用光盘(DVD))或者半导体介质(例如,固态硬盘(SSD))等。
计算机存储代码所形成软件可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。
在本实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种基于对话历史建模的多轮对话生成方法,其特征在于包括:
通过神经网络,获得对话历史中每个语句的初始词级语义表示;
利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化,获取近邻感知的对话历史语义表示;
将对话历史中的最新语句定义为查询语句,先利用自注意力机制捕捉查询语句中词之间的关系,然后利用面向对话历史的注意力机制使查询语句自动从对话历史中吸收相关语义信息,得到对话历史增强的查询语义表示;
根据近邻感知的对话历史语义表示、对话历史增强的查询语义表示,通过神经网络逐词生成回复语句。
2.根据权利要求1所述基于对话历史建模的多轮对话生成方法,其特征在于:所述获得对话历史中每个语句的初始词级语义表示通过双向门控循环神经网络实现;所述生成回复语句通过单向门控循环神经网络实现。
3.根据权利要求1所述基于对话历史建模的多轮对话生成方法,所述对对话历史的语义表示过程进行优化,其特征在于:对对话历史中的任一历史语句进行重编码,使之能够保留其相邻历史语句的语义信息,通过轮次方向上的顺序整合进而获取近邻感知的对话历史语义表示。
4.根据权利要求1所述基于对话历史建模的多轮对话生成方法,所述通过神经网络,获得对话历史中每个语句的初始词级语义表示,其特征在于:给定包含M条语句的多轮对话{U1,...,UM},M≥2,其中最后一条最新语句UM定义为查询语句,前M-1条语句序列U<M={U1,...,UM-1}定义为对话历史;
多轮对话生成就是通过计算条件概率P(UM+1∣U<M;UM)来根据对话历史以及查询语句来生成回复语句UM+1
设回复UM+1包含NM+1个词,即
Figure FDA0002969273050000011
则条件概率P(UM+1∣U<M;UM)可分解为:
Figure FDA0002969273050000012
其中wn,M+1表示回复UM+1中第n个位置的词;w<n,M+1表示回复UM+1中前n-1个词,即w<n,M+1=(w1,M+1,...,wn-1,M+1);
多轮对话{U1,...,UM}中任一语句Um(m∈[1,M])包含Nm个词,即
Figure FDA00029692730500000219
通过双向门控循环神经网络将每个词wn,m(n∈[1,Nm])编码为一向量,计算过程如下:
Figure FDA0002969273050000021
Figure FDA0002969273050000022
Figure FDA0002969273050000023
其中
Figure FDA0002969273050000024
表示词
Figure FDA0002969273050000025
对应的随机初始化的词向量;
Figure FDA0002969273050000026
Figure FDA0002969273050000027
分别表示前向和后向循环神经网络得到的词wn,m对应的向量;
Figure FDA0002969273050000028
为词wn,m最终的向量表示;Um的初始词级语义被表示为一个向量序列,即
Figure FDA0002969273050000029
5.根据权利要求4所述基于对话历史建模的多轮对话生成方法,所述利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化,其特征在于:对于Um中的任一词wn,m(n∈[1,Nm]),通过前向Transformer编码器
Figure FDA00029692730500000217
将其进行如下重编码:
Figure FDA00029692730500000210
Figure FDA00029692730500000211
Figure FDA00029692730500000212
其中,q,k,v分别为Transformer编码器中注意力机制对应的查询向量、键向量和值向量;
对于第一个语句U1,设置
Figure FDA00029692730500000213
Transformer编码器的注意力机制变为自注意力机制;
同理,对于后向Transformer编码器
Figure FDA00029692730500000218
重编码过程为:
Figure FDA00029692730500000214
Figure FDA00029692730500000215
Figure FDA00029692730500000216
以上
Figure FDA0002969273050000031
Figure FDA0002969273050000032
分别表示词wn,m(n∈[1,Nm])经过
Figure FDA00029692730500000313
Figure FDA00029692730500000314
重编码后的向量表示;通过特征维度的向量拼接操作
Figure FDA0002969273050000033
zn,m为词wn,m最终的重编码向量,它不仅包含词wn,m自身的语义特征,还纳入了邻居语句中相关的语义特征;
经过以上重编码过程,语句Um被重编码为
Figure FDA0002969273050000034
将其每个词对应的重编码向量进行相加,得到Um的语句级别的表示,即
Figure FDA0002969273050000035
通过双向门控循环神经网络对对话历史的重编码向量进行轮次方向上的顺序整合,过程如下:
Figure FDA0002969273050000036
Figure FDA0002969273050000037
Figure FDA0002969273050000038
其中
Figure FDA0002969273050000039
为Um(m∈[1,M-1])经过重编码后的向量表示;
Figure FDA00029692730500000310
被定义为对话历史U<M={U1,...,UM-1}的近邻语义感知的特征表示。
6.根据权利要求5所述基于对话历史建模的多轮对话生成方法,所述得到对话历史增强的查询语义表示,其特征在于:
对UM中的任一词wi,M,计算它与UM中其他词的相关性:
Figure FDA00029692730500000311
其中βi,j是词wj,M相对于词wi,M的相关性,j≠i∈[1,NM];grelu表示一个以ReLU为激活函数的全连接神经网络;f是点积操作;根据UM中其他词对于词wi,M的相关性,将其他词的语义融入wi,M的特征表示:
Figure FDA00029692730500000312
其中向量ri,M不仅包含词wi,M自身的语义,还包含了UM中其他词的语义,具有句子级别的语境信息;
继续计算词wi,M与对话历史中任一语句Um(m∈[1,M-1])的相关性:
Figure FDA0002969273050000041
接着,根据相关性大小将相应对话历史中语句的语义信息融入词wi,M的表示:
Figure FDA0002969273050000042
其中
Figure FDA0002969273050000043
不仅包含词wi,M本身语义,还融入了查询UM中其他词以及对话历史的语义信息;
Figure FDA0002969273050000044
定义为对话历史增强的查询UM的特征表示。
7.根据权利要求6所述基于对话历史建模的多轮对话生成方法,所述通过神经网络逐词生成回复语句,其特征在于:在生成第t个词时,将词分布概率表示为:
Figure FDA0002969273050000045
其中
Figure FDA0002969273050000046
是从词典中预测出的词,Wdec为映射矩阵;
Figure FDA0002969273050000047
是第t个位置上的隐状态,通过单向门控循环神经网络获得,具体如下:
Figure FDA0002969273050000048
Figure FDA0002969273050000049
其中
Figure FDA00029692730500000410
为词
Figure FDA00029692730500000411
的词向量;
ct是对话的统一表示,通过一个查询注意力机制和一个对话历史注意力机制来共同获得,过程如下:
Figure FDA00029692730500000412
Figure FDA00029692730500000413
Figure FDA00029692730500000414
其中
Figure FDA00029692730500000415
Figure FDA00029692730500000416
分别代表查询中词wn,M和对话历史语句Um对于第t个词的重要性;
gtanh是一个以tanh为激活函数的前馈神经网络;Concat[;]表示向量维度上的拼接操作。
8.一种基于对话历史建模的多轮对话生成装置,其特征在于包括:
语句编码模块,用于获得对话历史中每个语句的初始词级语义表示;
保留模块,用于利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化,获取近邻感知的对话历史语义表示;
选择模块,用于将对话历史中的最新语句定义为查询语句,先利用自注意力机制捕捉查询语句中词之间的关系,然后利用面向对话历史的注意力机制使查询语句自动从对话历史中吸收相关语义信息,得到对话历史增强的查询语义表示;
回复解码模块,用于根据近邻感知的对话历史语义表示、及对话历史增强的查询语义表示,通过神经网络逐词生成回复语句。
9.一种基于对话历史建模的多轮对话生成装置,其特征在于,包括存储器和处理器;所述存储器,用于存储计算机程序;所述处理器,用于当执行所述计算机程序时,实现如权利要求1-7任一项所述的基于对话历史建模的多轮对话生成方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现如权利要求1-7任一项所述的基于对话历史建模的多轮对话生成方法。
CN202110259589.7A 2021-03-10 2021-03-10 一种基于对话历史建模的多轮对话生成方法及装置 Active CN112966083B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110259589.7A CN112966083B (zh) 2021-03-10 2021-03-10 一种基于对话历史建模的多轮对话生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110259589.7A CN112966083B (zh) 2021-03-10 2021-03-10 一种基于对话历史建模的多轮对话生成方法及装置

Publications (2)

Publication Number Publication Date
CN112966083A true CN112966083A (zh) 2021-06-15
CN112966083B CN112966083B (zh) 2022-08-12

Family

ID=76277060

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110259589.7A Active CN112966083B (zh) 2021-03-10 2021-03-10 一种基于对话历史建模的多轮对话生成方法及装置

Country Status (1)

Country Link
CN (1) CN112966083B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515617A (zh) * 2021-07-30 2021-10-19 中央财经大学 一种对话生成模型的方法、装置以及设备
CN113792064A (zh) * 2021-08-30 2021-12-14 阿里巴巴达摩院(杭州)科技有限公司 实现多轮对话的方法及装置和关系模型生成方法
CN114117025A (zh) * 2022-01-28 2022-03-01 阿里巴巴达摩院(杭州)科技有限公司 信息查询方法、装置、存储介质及系统
CN114706967A (zh) * 2022-04-01 2022-07-05 中国人民解放军国防科技大学 一种上下文自适应的智能对话响应生成方法、装置及介质
CN115617971A (zh) * 2022-11-14 2023-01-17 湖南君安科技有限公司 基于ALBERT-Coref模型的对话文本生成方法
CN118260394A (zh) * 2024-03-27 2024-06-28 深圳市神州云海智能科技有限公司 一种回复信息生成方法、装置、终端设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200027553A1 (en) * 2018-07-18 2020-01-23 International Business Machines Corporation Dynamic selection of virtual agents in a mutli-domain expert system
CN111353029A (zh) * 2020-02-22 2020-06-30 杭州电子科技大学 一种基于语义匹配的多轮对话口语理解方法
CN111462750A (zh) * 2020-03-20 2020-07-28 北京邮电大学 语义与知识增强的端到端任务型对话系统及方法
CN111625639A (zh) * 2020-06-02 2020-09-04 中国人民解放军国防科技大学 一种基于多轮响应生成的上下文建模方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200027553A1 (en) * 2018-07-18 2020-01-23 International Business Machines Corporation Dynamic selection of virtual agents in a mutli-domain expert system
CN111353029A (zh) * 2020-02-22 2020-06-30 杭州电子科技大学 一种基于语义匹配的多轮对话口语理解方法
CN111462750A (zh) * 2020-03-20 2020-07-28 北京邮电大学 语义与知识增强的端到端任务型对话系统及方法
CN111625639A (zh) * 2020-06-02 2020-09-04 中国人民解放军国防科技大学 一种基于多轮响应生成的上下文建模方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨成彪等: "一种基于记忆网络的多轮对话下的意图识别方法", 《电子技术与软件工程》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113515617A (zh) * 2021-07-30 2021-10-19 中央财经大学 一种对话生成模型的方法、装置以及设备
CN113515617B (zh) * 2021-07-30 2023-07-04 中央财经大学 一种对话生成模型的方法、装置以及设备
CN113792064A (zh) * 2021-08-30 2021-12-14 阿里巴巴达摩院(杭州)科技有限公司 实现多轮对话的方法及装置和关系模型生成方法
CN114117025A (zh) * 2022-01-28 2022-03-01 阿里巴巴达摩院(杭州)科技有限公司 信息查询方法、装置、存储介质及系统
CN114706967A (zh) * 2022-04-01 2022-07-05 中国人民解放军国防科技大学 一种上下文自适应的智能对话响应生成方法、装置及介质
CN114706967B (zh) * 2022-04-01 2024-10-15 中国人民解放军国防科技大学 一种上下文自适应的智能对话响应生成方法、装置及介质
CN115617971A (zh) * 2022-11-14 2023-01-17 湖南君安科技有限公司 基于ALBERT-Coref模型的对话文本生成方法
CN118260394A (zh) * 2024-03-27 2024-06-28 深圳市神州云海智能科技有限公司 一种回复信息生成方法、装置、终端设备以及存储介质

Also Published As

Publication number Publication date
CN112966083B (zh) 2022-08-12

Similar Documents

Publication Publication Date Title
CN112966083B (zh) 一种基于对话历史建模的多轮对话生成方法及装置
Serban et al. A deep reinforcement learning chatbot
Karpukhin et al. Dense passage retrieval for open-domain question answering
Lowe et al. Training end-to-end dialogue systems with the ubuntu dialogue corpus
Fan et al. Augmenting transformers with KNN-based composite memory for dialog
US20180329884A1 (en) Neural contextual conversation learning
Sheikh et al. Generative model chatbot for human resource using deep learning
CN113535918B (zh) 预训练对偶注意力神经网络语义推断对话检索方法及系统、检索设备、存储介质
CN112948558B (zh) 面向开放域对话系统的上下文增强的问题生成方法及装置
KR102697095B1 (ko) Qa 모델을 이용하여 지식 그래프를 구축하는 방법, 장치 및 컴퓨터 프로그램
He et al. Neurally-guided semantic navigation in knowledge graph
Meng et al. Masked graph learning with recurrent alignment for multimodal emotion recognition in conversation
de Bayser et al. Learning multi-party turn-taking models from dialogue logs
Surendran et al. Conversational AI-A retrieval based chatbot
Chien et al. Amortized mixture prior for variational sequence generation
Zhang et al. Macr: Multi-information augmented conversational recommender
Cvejoski Deep Dynamic Language Models
Liu et al. Dialog generation model based on variational Bayesian knowledge retrieval method
Mazumder On-the-job continual and interactive learning of factual knowledge and language grounding
Li Deep latent variable models for text modelling
Chien et al. Sequential learning and regularization in variational recurrent autoencoder
Toshniwal Efficient and Interpretable Neural Models for Entity Tracking
Giulianelli Neural Models of Language Use: Studies of Language Comprehension and Production in Context
Gupta et al. Combining text and vision in compound semantics: Towards a cognitively plausible multimodal model
Zhou Building reliable and transparent machine learning systems using structured intermediate representations

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant