CN109918484B - 对话生成方法和装置 - Google Patents
对话生成方法和装置 Download PDFInfo
- Publication number
- CN109918484B CN109918484B CN201811625078.7A CN201811625078A CN109918484B CN 109918484 B CN109918484 B CN 109918484B CN 201811625078 A CN201811625078 A CN 201811625078A CN 109918484 B CN109918484 B CN 109918484B
- Authority
- CN
- China
- Prior art keywords
- context vector
- retrieval result
- score
- retrieval
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种对话生成方法和装置,方法包括:对用户输入语句进行检索处理以获得检索结果集和评分集;其中,检索结果集包括第一检索结果,评分集包括第一评分,第一检索结果对应一个第一评分;根据第一检索结果和第一评分确定第一检索结果权重;根据第一检索结果和第一检索结果权重确定附加上下文向量;对附加上下文向量和第一上下文向量进行拼接处理,以得到第二上下文向量,其中,通过对用户输入语句进行编码后获得第一上下文向量;对第二上下文向量进行解码处理,以得到用户输入语句对应的回复语句。本发明中根据检索结果和用户输入语句获得回复语句,以使检索结果和用户输入语句同时影响回复语句生成,提高回复语句的精确度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种对话生成方法和装置。
背景技术
通用对话系统作为人工智能的重要场景,得到越来越多的关注,通用对话系统通过人机交互以一问一答的方式为用户智能提供信息服务,因此,对话的生成是一个重要环节。
目前采用最多的对话生成方法是基于编码器-解码器的框架,编码器对用户输入的语句和语句的附加信息利用循环神经网络进行编码,生成上下文向量。其中,语句的附加信息包括:语句主题以及常识信息。然后,对上下文向量利用循环神经网络进行解码,生成用户输入的语句的回复语句。
然而,现有的对话生成方法由于仅通过输入语句和精度低的附加信息生成回复语句,导致生成回复语句精确度低。
发明内容
本发明提供一种对话生成方法和装置,以解决现有的对话生成方法由于仅通过输入语句和精度低的附加信息生成回复语句,导致生成回复语句精确度低的技术问题。
第一方面,本发明提供一种对话生成方法,包括:对用户输入语句进行检索处理以获得检索结果集和评分集;其中,检索结果集包括第一检索结果,评分集包括第一评分,第一检索结果对应一个第一评分;根据第一检索结果和第一评分确定第一检索结果权重;根据第一检索结果和第一检索结果权重确定附加上下文向量;对附加上下文向量和第一上下文向量进行拼接处理,以得到第二上下文向量,其中,通过对用户输入语句进行编码后获得第一上下文向量;对第二上下文向量进行解码处理,以得到用户输入语句对应的回复语句。
在本发明提供的一种对话生成方法中,对用户输入语句进行检索处理获得多个检索结果和多个评分,利用每个检索结果和对应评分获得该检索结果的权重,进而对所有检索结果进行加权平均得到附加上下文向量,对附加上下文向量和第一上下文向量进行解码得到回复语句,实现根据检索结果和用户输入语句获得回复语句,提高回复语句的精确度。
可选地,根据第一检索结果和第一评分获得第一检索结果权重,具体包括:对第一检索结果利用循环神经网络进行编码,以得到编码后的第一检索结果;对编码后的第一检索结果进行学习训练得到训练评分;根据训练评分、第一评分以及参照系数获得第一检索结果权重,其中,参照系数用于表示训练评分对第一检索结果权重的影响度。
在本发明提供的一种对话生成方法中,根据训练评分、第一评分以及参照系数获得第一检索结果权重,通过调节参照系数以调解训练评分对第一检索结果权重影响,进而实现对回复语句精确度的调整。
可选地,根据第一检索结果和第一检索结果权重获得附加上下文向量,具体包括:对第一检索结果以及第一检索结果权重进行加权处理获得附加上下文向量。
在本发明提供的一种对话生成方法中,对第一检索结果以及第一检索结果权重进行加权处理,获得附加上下文向量,实现将多个检索结果转化为附加上下文向量,进而,根据对附加上下文向量和第一上下文向量进行解码得到回复语句,提高回复语句的精确度。
可选地,对附加上下文向量和第一上下文向量进入拼接处理,得到第二上下文向量,具体包括:将附加上下文向量中元素增加至第一上下文向量中,以得到第二上下文向量,以使第二上下文向量的长度为第一上下文向量的长度与附加上下文向量的长度之和。
在本发明提供的一种对话生成方法中,通过将附加上下文向量中元素增加至第一上下文向量中,可以同时体现附加上下文向量和第一上下文向量对回复语句的影响,进而体现检索结果和用户输入语句对回复语句的影响,提高回复语句的精确度。
可选地,对编码后的第一检索结果进行学习训练得到训练评分,具体包括:
根据如下公式得到训练评分:
o′k,t=f(Wβ[st-1;rk,t])
可选地,对训练评分、第一评分以及参照系数获得第一检索结果权重,具体包括:
根据如下公式获得第一检索结果权重:
βk,t=zk,t·sck,t+(1-zk,t)·o′k,t
其中,βk,t表示解码时刻t第k个检索结果权重,sck,t表示解码时刻t第k个检索结果的评分,zk,t表示解码时刻t第k个检索结果对应的参照系数。
可选地,对第一检索结果以第一检索结果权重进行加权处理获得附加上下文向量,具体包括:
根据如下公式获得附加上下文向量:
可选地,对第二上下文向量进行解码处理,得到用户输入语句对应的回复语句,具体包括:对第二上下文向量利用循环神经网络进行解码处理,以得到用户输入语句对应的回复语句;其中,第一上下文向量通过对用户输入语句利用循环神经网络进行编码后获得。
在本发明提供的一种对话生成方法中,通过对用户输入语句利用循环神经网络进行编码获得第一上下文向量,对检索结果利用循环神经网络进行编码后处理得到附加上下文向量,再通过对附加上下文向量和第一上下文向量进行拼接处理,以便对第二上下文向量利用循环神经网络进行解码处理,最终获得准确度高的回复语句。
第二方面,本发明提供一种对话生成装置,包括:检索模块,用于对用户输入语句进行检索处理获得检索结果集和评分集;其中,检索结果集包括第一检索结果,评分集包括第一评分,第一检索结果对应一个第一评分;获得模块,用于根据第一检索结果和第一评分获得第一检索结果权重;获得模块还用于对第一检索结果和第一检索结果权重获得附加上下文向量;拼接模块,用于对附加上下文向量和第一上下文向量进入拼接处理,得到第二上下文向量,其中,第一上下文向量通过对用户输入语句进行编码后获得;解码模块,用于对第二上下文向量进行解码处理,得到用户输入语句对应的回复语句。
可选地,获得模块具体用于:对所述第一检索结果利用循环神经网络进行编码,得到编码后的第一检索结果;对所述编码后的第一检索结果进行学习训练得到训练评分;根据所述训练评分、第一评分以及参照系数获得第一检索结果权重,其中,所述参照系数用于表示训练评分对所述第一检索结果权重的影响度。
可选地,获得模块具体用于:对第一检索结果以及第一检索结果权重进行加权处理获得附加上下文向量。
可选地,拼接模块具体用于:将附加上下文向量中元素增加至第一上下文向量中,以得到第二上下文向量,以使第二上下文向量的长度为第一上下文向量的长度与附加上下文向量的长度之和。
可选地,获得模块具体用于:
根据如下公式得到训练评分:
o′k,t=f(Wβ[st-1;rk,t])
可选地,获得模块具体用于:
根据如下公式获得第一检索结果权重:
βk,t=zk,t·sck,t+(1-zk,t)·o′k,t
其中,βk,t表示解码时刻t第k个检索结果权重,sck,t表示解码时刻t第k个检索结果的评分,zk,t表示解码时刻t第k个检索结果对应的参照系数。
可选地,获得模块具体用于:
根据如下公式获得附加上下文向量:
可选地,解码模块具体用于:对第二上下文向量利用循环神经网络进行解码处理,以得到用户输入语句对应的回复语句;其中,第一上下文向量通过对用户输入语句利用循环神经网络进行编码后获得。
本发明提供一种对话生成方法和装置,在对话生成方法中,对用户输入语句进行检索处理获得多个检索结果和多个评分,利用每个检索结果和对应评分获得该检索结果的权重,对所有检索结果进行加权平均得到附加上下文向量,对附加上下文向量和第一上下文向量进行拼接处理后,得到第二上下文向量,对第二上下文向量进行解码得到回复语句,根据检索结果和用户输入语句获得回复语句,以使检索结果和用户输入语句同时影响回复语句生成,提高回复语句的精确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明根据一示例性实施例示出的对话生成方法的流程图;
图2为本发明根据另一示例性实施例示出的对话生成方法的流程图;
图3为基于图2所示实施例提供的对话生成方法的原理框图;
图4为基于图2所示实施例提供的对话生成方法中生成附加上下向量的原理框图;
图5为本发明根据一示例性实施例示出的对话生成装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种对话生成方法和装置,以解决现有的对话生成方法由于仅通过输入语句和精度低的附加信息生成回复语句,导致生成回复语句精确度低的技术问题。
图1为本发明根据一示例性实施例示出的对话生成方法的流程图。如图1所示,本发明提供的对话生成方法,包括:
S101、对用户输入语句进行检索处理以获得检索结果集和评分集。
更具体地,提取用户输入语句中关键词,利用关键词在数据库中查找与用户输入语句有关的信息,按照查找到的信息与用户输入语句的相关度,截取前ns个信息作为检索结果,即可以获得ns个检索结果,ns个检索结果构成检索结果集。并根据ns个检索结果与用户输入语句的相关度对每个检索结果进行评分,得到ns个评分,且一个检索结果对应一个评分,ns个评分构成评分集合。
在本实施例中,Apache Solr被选作检索模块,其默认的排序算法BM25作为相关性得分。其他更加复杂的信息检索系统也可以被用作检索模块。
S102、根据第一检索结果和第一评分确定第一检索结果权重。
更具体地,由于第一检索结果为文字信息,需要将第一检索结果编码,以便对编码后的第一检索结果进行。在获得编码后的第一检索结果,对编码后的第一检索结果进行学习训练得到训练评分,最终,根据训练评分、第一评分以及参照系数获得第一检索结果权重。其中,参照系数用于表示训练评分对第一检索结果权重的影响度,当参照系数比较大时,训练评分对第一检索结果权重的影响度大,当参照系数比较小时,训练评分对第一检索结果权重的影响度小。
S103、根据第一检索结果和第一检索结果权重确定附加上下文向量。
更具体地,对第一检索结果以及第一检索结果权重进行加权处理获得附加上下文向量。
S104、对附加上下文向量和第一上下文向量进行拼接处理,以得到第二上下文向量。
更具体地,对附加上下文向量和第一上下文向量进行拼接处理为:将附加上下文向量中元素增加至第一上下文向量中,以得到第二上下文向量,以使第二上下文向量的长度为第一上下文向量的长度与附加上下文向量的长度之和。其中,通过对用户输入语句进行编码后获得第一上下文向量,且对用户输入语句进行编码的方式与对第一检索结果进行编码的方式相同。
S105、对第二上下文向量进行解码处理,以得到用户输入语句对应的回复语句。
更具体地,通过对第二上下文向量进行解码处理,其中,解码处理与对第一检索结果进行编码处理、以及对用户输入结果进行编码处理为一组逆运算,通过对第二上下文向量进行解码处理,将数学量变成可以文字语句,最终得到用户输入语句对应的回复语句。
在本实施例中,对用户输入语句进行检索处理获得多个检索结果和多个评分,利用每个检索结果和对应评分获得该检索结果的权重,对所有检索结果进行加权平均得到附加上下文向量,对附加上下文向量和第一上下文向量进行拼接处理后,得到第二上下文向量,对第二上下文向量进行解码得到回复语句,根据检索结果和用户输入语句获得回复语句,以使检索结果和用户输入语句同时影响回复语句生成,提高回复语句的精确度。
图2为本发明根据另一示例性实施例示出的对话生成方法的流程图。图3为基于图2所示实施例提供的对话生成方法的原理框图。如图2所示,本实施例提供的对话生成方法包括:
S201、对用户输入语句进行检索处理以获得检索结果集和评分集。
S202、对第一检索结果利用循环神经网络进行编码,以得到编码后的第一检索结果。
ok,t,j=tanh(Wα[st-1;hk,j])
其中,rk,t表示在解码时刻t第k个检索结果的向量表示,ok,t,j和αk,t,j是归一化前和归一化后的第k个检索结果中的第j个词在生成回复语句中第t个词时的权重,Wα表示随机矩阵,st-1表示在循环神经网络中解码时刻t-1的隐含层变量,随机矩阵Wα的初始值随机给出,在进行循环神经网络编码和解码过程中,不断学习,获得最佳的随机矩阵。
S203、对编码后的第一检索结果进行学习训练得到训练评分。
更具体地,图4为基于图2所示实施例提供的对话生成方法中生成附加上下向量的原理框图。如图4所示,根据如下公式对编码后的第一检索结果进行学习训练得到训练评分:
o′k,t=f(Wβ[st-1;rk,t])
其中,o′k,t表示解码时刻t训练评分,Wβ表示随机矩阵,st-1表示在循环神经网络中解码时刻t-1的隐含层变量,rk,t表示在解码时刻t第k个检索结果的向量表示,随机矩阵Wβ的初始值随机给出,在进行循环神经网络编码和解码过程中,不断学习,获得最佳的随机矩阵。
S204、根据训练评分、第一评分以及参照系数获得第一检索结果权重,其中,参照系数用于表示训练评分对第一检索结果权重的影响度。
更具体地,根据如下公式获得第一检索结果权重:
βk,t=zk,t·sck,t+(1-zk,t)·o′k,t
其中,βk,t表示解码时刻t第k个检索结果权重,sck,t表示解码时刻t第k个检索结果的评分,zk,t表示解码时刻t第k个检索结果对应的参照系数。
S205、根据第一检索结果和第一检索结果权重确定附加上下文向量。
更具体地,根据如下公式对第一检索结果以第一检索结果权重进行加权处理获得附加上下文向量:
S206、将附加上下文向量中元素增加至第一上下文向量中,以得到第二上下文向量。
更具体地,对用户输入语句利用循环神经网络进行编码,得到第一上下文向量假设用户输入语句是X=(x1,x2,…,xn),编码器是一个双向的循环神经网络,将输入X编码为一个向量序列h=(h1,h2,…,hn)。对于每个词xi,其对应的隐含层表示为:
ejk=tanh(Wα[sj-1;hk])
其中αjk是hk归一化后的权重,ejk是归一化之前的权重,Wα表示随机矩阵,st-1表示在循环神经网络中解码时刻t-1的隐含层变量,随机矩阵Wα的初始值随机给出,在进行循环神经网络编码和解码过程中,不断学习,获得最佳的随机矩阵。
根据如下公式将附加上下文向量中元素增加至第一上下文向量中,以得到第二上下文向量:
其中,αt表示解码时刻t的第二上下文向量。
S207、对第二上下文向量利用循环神经网络进行解码处理,以得到用户输入语句对应的回复语句。
更具体地,在本实施例中,利用循环神经网络对第二上下文向量进行解码。其中,循环神经网络使用门结构循环单元,(Gated Recurrent Unit,简称,GRU)作为循环单元。引入了注意力机制以增强其能力。
在解码第j个词时,解码器的目标是最大化生成目标词yj的条件概率,也就是:
p(yj|x<j,x)=f(yj-1,sj)
sj=g(yj-1,sj-1,cj)
其中,p(yj|x<j,x)表示目标词yj的条件概率,f(·)是softmax激活函数,sj是解码器中第j个词的隐含层向量,同样由GRU计算得到。特别的是,y0是句子解码的起始符号,而s0是编码器最后一个时刻的隐含层向量hn。
在本实施例提供的对话生成方法中,通过检索得到评分与训练学习得到的训练,利用训练得分可以修正在检索过程中基于简单的匹配信息产生的偏差。另外,利用sigmoid函数对检索结果的向量表示进行训练得到训练评分,能够体现由检索结果是否对生成回复语句有作用。最终,检索结果与用户输入语句一起在解码器中发挥作用,从而增强了模型的学习能力,使模型能够生成出更具有信息量的回复。
图5为本发明根据一示例性实施例示出的对话生成装置的结构示意图。如图5所示,本发明提供一种对话生成装置300,包括:检索模块301,用于对用户输入语句进行检索处理获得检索结果集和评分集;其中,检索结果集包括第一检索结果,评分集包括第一评分,第一检索结果对应一个第一评分;获得模块302,用于根据第一检索结果和第一评分获得第一检索结果权重;获得模块302还用于对第一检索结果和第一检索结果权重获得附加上下文向量;拼接模块303,用于对附加上下文向量和第一上下文向量进入拼接处理,得到第二上下文向量,其中,第一上下文向量通过对用户输入语句进行编码后获得;解码模块304,用于对第二上下文向量进行解码处理,得到用户输入语句对应的回复语句。
可选地,获得模块302具体用于:对第一检索结果利用循环神经网络进行编码,得到编码后的第一检索结果;对编码后的第一检索结果进行学习训练得到训练评分;根据训练评分、第一评分以及参照系数获得第一检索结果权重,其中,参照系数用于表示训练评分对所述第一检索结果权重的影响度。
可选地,获得模块302具体用于:对第一检索结果以及第一检索结果权重进行加权处理获得附加上下文向量。
可选地,拼接模块303具体用于:将附加上下文向量中元素增加至第一上下文向量中,以得到第二上下文向量,以使第二上下文向量的长度为第一上下文向量的长度与附加上下文向量的长度之和。
可选地,获得模块302具体用于:
根据如下公式得到训练评分:
o′k,t=f(Wβ[st-1;rk,t])
可选地,获得模块302具体用于:
根据如下公式获得第一检索结果权重:
βk,t=zk,t·sck,t+(1-zk,t)·o′k,t
其中,βk,t表示解码时刻t第k个检索结果权重,sck,t表示第k个检索结果的评分,zk,t表示解码时刻t第k个检索结果对应的参照系数。
可选地,获得模块302具体用于:
根据如下公式获得附加上下文向量:
可选地,解码模块304具体用于:对第二上下文向量利用循环神经网络进行解码处理,以得到用户输入语句对应的回复语句;其中,第一上下文向量通过对用户输入语句利用循环神经网络进行编码后获得。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (8)
1.一种对话生成方法,其特征在于,包括:
对用户输入语句进行检索处理以获得检索结果集和评分集;其中,所述检索结果集包括第一检索结果,所述评分集包括第一评分,所述第一检索结果对应一个所述第一评分;
根据所述第一检索结果和所述第一评分确定第一检索结果权重;
根据所述第一检索结果和所述第一检索结果权重确定附加上下文向量;
对所述附加上下文向量和第一上下文向量进行拼接处理,以得到第二上下文向量,其中,通过对所述用户输入语句进行编码后获得所述第一上下文向量;
对所述第二上下文向量进行解码处理,以得到所述用户输入语句对应的回复语句;
其中,所述根据所述第一检索结果和所述第一评分获得第一检索结果权重,具体包括:
对所述第一检索结果利用循环神经网络进行编码,以得到编码后的第一检索结果;
对所述编码后的第一检索结果进行学习训练得到训练评分;
根据所述训练评分、第一评分以及参照系数获得第一检索结果权重,其中,所述参照系数用于表示所述训练评分对所述第一检索结果权重的影响度。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一检索结果和所述第一检索结果权重获得附加上下文向量,具体包括:
对所述第一检索结果以及所述第一检索结果权重进行加权处理获得所述附加上下文向量。
3.根据权利要求1所述的方法,其特征在于,所述对所述附加上下文向量和第一上下文向量进入拼接处理,得到第二上下文向量,具体包括:
将附加上下文向量中元素增加至所述第一上下文向量中,以得到所述第二上下文向量,以使所述第二上下文向量的长度为所述第一上下文向量的长度与所述附加上下文向量的长度之和。
5.根据权利要求1所述的方法,其特征在于,根据所述训练评分、第一评分以及参照系数获得第一检索结果权重,具体包括:
根据如下公式获得第一检索结果权重:
βk,t=zk,t·sck,t+(1-zk,t)·o′k,t
其中,βk,t表示解码时刻t第k个检索结果权重,sck,t表示解码时刻t第k个检索结果的评分,zk,t表示解码时刻t第k个检索结果对应的参照系数,o′k,t表示解码时刻t第k个检索结果的训练评分。
7.根据权利要求1所述的方法,其特征在于,所述对所述第二上下文向量进行解码处理,得到所述用户输入语句对应的回复语句,具体包括:
对所述第二上下文向量利用循环神经网络进行解码处理,以得到所述用户输入语句对应的所述回复语句;
其中,所述第一上下文向量通过对所述用户输入语句利用循环神经网络进行编码后获得。
8.一种对话生成装置,其特征在于,包括:
检索模块,用于对用户输入语句进行检索处理获得检索结果集和评分集;其中,所述检索结果集包括第一检索结果,所述评分集包括第一评分,所述第一检索结果对应一个所述第一评分;
获得模块,用于根据所述第一检索结果和所述第一评分获得第一检索结果权重;
所述获得模块还用于对所述第一检索结果和所述第一检索结果权重获得附加上下文向量;
拼接模块,用于对所述附加上下文向量和第一上下文向量进入拼接处理,得到第二上下文向量,其中,所述第一上下文向量通过对所述用户输入语句进行编码后获得;
解码模块,用于对所述第二上下文向量进行解码处理,得到所述用户输入语句对应的回复语句;
所述检索模块具体用于:
对所述第一检索结果利用循环神经网络进行编码,得到编码后的第一检索结果;
对所述编码后的第一检索结果进行学习训练得到训练评分;
对所述训练评分、第一评分以及参照系数获得第一检索结果权重,其中,所述参照系数用于表示训练评分对所述第一检索结果权重的影响度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811625078.7A CN109918484B (zh) | 2018-12-28 | 2018-12-28 | 对话生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811625078.7A CN109918484B (zh) | 2018-12-28 | 2018-12-28 | 对话生成方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109918484A CN109918484A (zh) | 2019-06-21 |
CN109918484B true CN109918484B (zh) | 2020-12-15 |
Family
ID=66960138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811625078.7A Active CN109918484B (zh) | 2018-12-28 | 2018-12-28 | 对话生成方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109918484B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110457459B (zh) * | 2019-08-16 | 2022-04-08 | 达闼机器人有限公司 | 基于人工智能的对话生成方法、装置、设备及存储介质 |
CN111159467B (zh) * | 2019-12-31 | 2022-05-10 | 青岛海信智慧家居系统股份有限公司 | 一种处理信息交互的方法及设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295792A (zh) * | 2016-08-05 | 2017-01-04 | 北京光年无限科技有限公司 | 基于多模型输出的对话数据交互处理方法及装置 |
CN106649786A (zh) * | 2016-12-28 | 2017-05-10 | 北京百度网讯科技有限公司 | 基于深度问答的答案检索方法及装置 |
CN107885756A (zh) * | 2016-09-30 | 2018-04-06 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
CN108280218A (zh) * | 2018-02-07 | 2018-07-13 | 逸途(北京)科技有限公司 | 一种基于检索和生产混合问答的流程系统 |
CN109002500A (zh) * | 2018-06-29 | 2018-12-14 | 北京百度网讯科技有限公司 | 对话生成方法、装置、设备及计算机可读介质 |
CN109063174A (zh) * | 2018-08-21 | 2018-12-21 | 腾讯科技(深圳)有限公司 | 查询答案的生成方法及装置、计算机存储介质、电子设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11113598B2 (en) * | 2015-06-01 | 2021-09-07 | Salesforce.Com, Inc. | Dynamic memory network |
-
2018
- 2018-12-28 CN CN201811625078.7A patent/CN109918484B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295792A (zh) * | 2016-08-05 | 2017-01-04 | 北京光年无限科技有限公司 | 基于多模型输出的对话数据交互处理方法及装置 |
CN107885756A (zh) * | 2016-09-30 | 2018-04-06 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
CN106649786A (zh) * | 2016-12-28 | 2017-05-10 | 北京百度网讯科技有限公司 | 基于深度问答的答案检索方法及装置 |
CN108280218A (zh) * | 2018-02-07 | 2018-07-13 | 逸途(北京)科技有限公司 | 一种基于检索和生产混合问答的流程系统 |
CN109002500A (zh) * | 2018-06-29 | 2018-12-14 | 北京百度网讯科技有限公司 | 对话生成方法、装置、设备及计算机可读介质 |
CN109063174A (zh) * | 2018-08-21 | 2018-12-21 | 腾讯科技(深圳)有限公司 | 查询答案的生成方法及装置、计算机存储介质、电子设备 |
Non-Patent Citations (2)
Title |
---|
A Survey on Dialogue Systems:Recent Advances and New Frontiers;Chen Hongshen,Liu Xiaorui,Yin Dawei, Tang Jiliang;《Acm Sigkdd Explorations Newsletter》;20171231;全文 * |
Two are Better than One:An Ensemble of Retrieval and Generetion Based Dialog Systems;Song Yiping,Yan Rui,et al.;《arXiv》;20161023;正文第2部分 * |
Also Published As
Publication number | Publication date |
---|---|
CN109918484A (zh) | 2019-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11593612B2 (en) | Intelligent image captioning | |
CN107358948B (zh) | 基于注意力模型的语言输入关联性检测方法 | |
CN109840287B (zh) | 一种基于神经网络的跨模态信息检索方法和装置 | |
CN110188176B (zh) | 深度学习神经网络及训练、预测方法、系统、设备、介质 | |
CN108681610B (zh) | 生成式多轮闲聊对话方法、系统及计算机可读存储介质 | |
CN111858931B (zh) | 一种基于深度学习的文本生成方法 | |
CN110347799B (zh) | 语言模型训练方法、装置和计算机设备 | |
CN111368565A (zh) | 文本翻译方法、装置、存储介质和计算机设备 | |
CN111401084A (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
CN110990555B (zh) | 端到端检索式对话方法与系统及计算机设备 | |
CN111966800A (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN112527966B (zh) | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 | |
CN110263304B (zh) | 语句编码方法、语句解码方法、装置、存储介质及设备 | |
CN110069611B (zh) | 一种主题增强的聊天机器人回复生成方法及装置 | |
CN110569505A (zh) | 一种文本输入方法及装置 | |
CN111814489A (zh) | 口语语义理解方法及系统 | |
Chen et al. | Exploiting future word contexts in neural network language models for speech recognition | |
CN110597968A (zh) | 一种回复选择方法及装置 | |
CN112905755A (zh) | 一种回复文本预测方法、装置、设备及存储介质 | |
CN113609284A (zh) | 一种融合多元语义的文本摘要自动生成方法及装置 | |
CN111782788A (zh) | 一种面向开放域对话系统的情感回复自动生成方法 | |
CN109918484B (zh) | 对话生成方法和装置 | |
CN110992943B (zh) | 基于词混淆网络的语义理解方法及系统 | |
Liu | Neural question generation based on Seq2Seq | |
Zapotoczny et al. | Lattice Generation in Attention-Based Speech Recognition Models. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |