CN108734276B - 一种基于对抗生成网络的模仿学习对话生成方法 - Google Patents
一种基于对抗生成网络的模仿学习对话生成方法 Download PDFInfo
- Publication number
- CN108734276B CN108734276B CN201810401081.4A CN201810401081A CN108734276B CN 108734276 B CN108734276 B CN 108734276B CN 201810401081 A CN201810401081 A CN 201810401081A CN 108734276 B CN108734276 B CN 108734276B
- Authority
- CN
- China
- Prior art keywords
- generator
- discriminator
- training
- sentence
- corpus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种基于对抗生成网络的模仿学习对话生成方法,该方法包括以下步骤:1)建立对话语句专家语料库;2)建立对抗生成网络,对抗生成网络中的生成器包括一对编码器和译码器;3)建立假语料库;4)对判别器进行第一次分类训练;5)将输入语句输入至生成器中,并采用强化学习架构对生成器中的编码器和译码器进行训练;6)将步骤5)生成的输出语句加入到假语料库中,继续训练判别器;7)采用对抗生成网络的训练方式交替进行生成器的训练和判别器的训练,直至生成器和判别器均收敛。与现有技术相比,本发明可生成更类似人类的对话语句并避免出现过多通用回答,且能够提升对话生成模型的训练效果,解决了通用回答频率过高的问题。
Description
技术领域
本发明涉及人工智能与认知计算领域的对话生成研究技术,尤其是涉及一种基于对抗生成网络的模仿学习对话生成方法。
背景技术
互联网已经成为世界上十分重要的信息传播工具,其海量的文本数据中存在着巨大的价值。对话系统,也称作交互式会话代理、虚拟代理或聊天机器人,有着广泛的应用场景,如技术支持服务、语言学习工具、个人助理等等。对话系统作为实现自然语言理解和体现机器智能的重要交互接口受到了广泛关注。目前,如何让机器与人类进行持续的、有意义的、有个性风格的对话是对话生成领域待解决的重要问题之一。
自然语言对话系统的技术主要分为两类:基于手写规则技术和基于数据驱动技术。基于规则的解决方案过于依赖精心设计的有限的对话参数或是一些手工模板,而模板又是领域敏感的,因此这类解决方案泛化能力和通用性较差,离复杂场景下的实用化还有很大距离。基于数据驱动的方法又分为基于检索的方式和基于生成的方式。基于检索的方式将大量的单轮对话实例存储在索引里,每一个实例由一个对话输入和其所对应的回复组成。每输入一个信息,检索模块从索引中检索与其相关的信息和回复,并将最适合的回复返回,作为给出的回答。这种方式的优点是不会出现语法错误,但模式是通过检索的方式给出索引库中已有的回答,而符合自然语言处理宗旨的模式应该是通过结合之前的经验进行思考以给出回答,因此受到广泛关注的是基于生成的方式。现有的基于生成方式的对话生成模型往往存在生成语句中不符合人类语言习惯的语句占比很高、生成通用语句的频率很高等问题。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于对抗生成网络的模仿学习对话生成方法。
本发明的目的可以通过以下技术方案来实现:
一种基于对抗生成网络的模仿学习对话生成方法,包括以下步骤:
1)建立相应类型的专家语料库。
2)建立一个包括生成器和判别器的对抗生成网络(GAN,Generative AdversarialNetworks),GAN中的生成器(Generator)由一对编码器(Encoder)和译码器(Decoder)组成,GAN中的判别器是由前馈神经网络构成的分类器。
分类器最优解的形式如下:
其中,pdata(x)为来自专家语料库的真实样本分布,可将其标签设置为1;pg为来自假语料的样本分布,可将其标签设置为0;G代表GAN中的生成器,D代表GAN中的判别器。
生成器的用途是:编码器利用循环神经网络(RNN,Recurrent neural Network)或长短期记忆网络(LSTM,Long Short-Term Memory)按时间步逐次处理输入语句中的每个词语的词向量,将最后处理得到的语句向量输入到译码器中,译码器利用RNN或LSTM处理语句向量,每个时间步接受上一时间步的输出词语及译码器循环神经网络的隐藏层状态生成当前时间步的输出词语直至生成终止符号,从而实现对答语句的输出。
3)初始化GAN的参数,并利用初始化参数后的生成器生成假语料库。
4)利用步骤1)获取的专家语料库和步骤3)获取的假语料库对步骤2)中的判别器进行第一次基于有监督学习的分类训练,使判别器能够正确判断其输入是人类的专家语料还是不符合人类语言习惯的假语料。
5)将输入语句输入至步骤2)所得到的生成器中,生成器所输出的输出语句输入到步骤4)所得到的判别器中,判别器将返回的分类结果(真为1,假为0)作为回报(Return)信号输入到步骤2)得到的生成器中,其梯度计算公式如下:
其中,J(θ)为参数θ下的梯度,πθ是指在参数θ下的策略π,s是状态state,a是动作action,R是在状态s下执行动作a所获得的累计回报Return。
译码器最后一个时间步的循环神经网络隐藏层状态则作为状态(State),译码器生成输出语句则作为动作(Action),获取状态、动作、回报后,生成器中的编码器和译码器将作为一个整体进行强化学习训练。
输入语句由一系列词语(x1,…,xT)构成,输出语句由一系列词语(y1,…,yT')构成,则有:
ht=sigm(Whxxt+Whhht-1)
yt=Wyhht
其中,ht为t时刻的隐藏层向量,W为神经网络的参数矩阵,Whx代表输入层的参数矩阵,Whh代表隐藏层的参数矩阵,Wyh代表输出层的参数矩阵。xt为t时刻的输入,yt为t时刻的输出。p(y1,…,yT′|x1,…,xT)表示输入语句生成输出语句的概率。
6)将步骤5)获取的生成语句加入到假语料库中,与步骤1)所得的专家语料库一起进行判别器的训练;
7)按照对抗生成网络的训练方式交替进行步骤5)中的训练和步骤6)中的训练,直至生成器和判别器均收敛。
利用GAN将采用对抗生成的方式来同时训练生成器和判别器,其优化目标函数为:
其中,pz(z)是生成器生成的样本的分布。判别器D尽可能地区分真实样本和生成样本,即其生成值D(x)尽可能大、D(G(z))尽可能小,即由生成器及判别器的输出共同构建的目标函数值V(D,G)整体尽可能大;生成器G希望能尽可能地骗过判别器D,即D(G(z))尽可能大,即V(D,G)整体尽可能小。生成器G和判别器D相互对抗,即minGmaxDV(D,G),最后达到全局最优。
与现有技术相比,本发明具有以下优点:
(1)本发明在对话生成的训练过程中同时采用了基于对抗生成网络的有监督学习方法和强化学习方法,避免了传统的对话生成方法单纯采用有监督学习导致容易出现过拟合的问题。同时强化学习中的计算累计回报的机制可以一定程度上考虑长期依赖,从而改善通用回答出现频率过高的问题,提升对话生成的多样性;
(2)本发明在对抗生成网络的基础上引入了强化学习的训练框架,直接通过对抗生成网络中判别器的信号来避免强化学习耗时耗力的奖励函数设计,同时基于图灵测试的思想,将判别器的输出信号定为判别“采自人类专家的真实语料”还是“生成器生成的语料”,从而提升整个对话生成的效果,使得生成的对话语句更类似真实的人类专家的语句;
(3)本发明通过对对话生成过程中的生成器和判别器进行训练,能够生成符合专家语料库中的语句风格的回答,且随着专家语料库的积累,能够在原有的模型基础上继续训练,进一步提升回答语句的多样性。
附图说明
图1为本发明方法的流程原理示意图;
图2为本发明实施例中LSTM细胞结构示意图;
图3为本发明实施例中编码器-译码器的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
本发明涉及一种基于对抗生成网络的模仿学习对话生成方法,包括以下步骤:
1)建立相应类型的专家语料库。
2)建立一个包括生成器和判别器的对抗生成网络(GAN),GAN中的生成器(Generator)由一对编码器(Encoder)和译码器(Decoder)组成,GAN中的判别器是由前馈神经网络构成的分类器。
分类器最优解的形式如下:
其中,pdata(x)为来自专家语料库的真实样本分布,可将其标签设置为1;pg为来自假语料的样本分布,可将其标签设置为0;G代表GAN中的生成器,D代表GAN中的判别器。
生成器的用途是:编码器利用循环神经网络(RNN)或长短期记忆网络(LSTM)按时间步逐次处理输入语句中的每个词语的词向量,将最后处理得到的语句向量输入到译码器中,译码器利用RNN或LSTM处理语句向量,每个时间步接受上一时间步的输出词语及译码器循环神经网络的隐藏层状态生成当前时间步的输出词语直至生成终止符号,从而实现对答语句的输出。
3)初始化GAN的参数,并利用初始化参数后的生成器生成一系列假语料,构成假语料库。
4)利用步骤1)获取的专家语料库和步骤3)获取的假语料对步骤2)中的判别器进行第一次基于有监督学习的分类训练,使判别器能够正确判断其输入是人类的专家语料还是不符合人类语言习惯的假语料。
5)将输入语句输入至步骤2)所得到的生成器中,生成器所输出的输出语句输入到步骤4)所得到的判别器中,判别器将返回的分类结果(真为1,假为0)作为回报(Return)信号输入到步骤2)得到的生成器中,其梯度计算公式如下:
其中,J(θ)为参数θ下的梯度,πθ是指在参数θ下的策略π,s是状态state,a是动作action,R是在状态s下执行动作a所获得的累计回报Return。
译码器最后一个时间步的循环神经网络隐藏层状态则作为状态(State),译码器生成输出语句则作为动作(Action),获取状态、动作、回报后,生成器中的编码器和译码器将作为一个整体进行强化学习训练。
输入语句由一系列词语(x1,…,xT)构成,输出语句由一系列词语(y1,…,yT′)构成,则有:
ht=sigm(Whxxt+Whhht-1)
yt=Wyhht
其中,W为神经网络的参数矩阵,Whx代表输入层的参数矩阵,Whh代表隐藏层的参数矩阵,Wyh代表输出层的参数矩阵。xt为t时刻的输入,yt为t时刻的输出,ht为t时刻的隐藏层向量。p(y1,…,yT′|x1,…,xT)表示输入语句生成输出语句的概率。
6)将步骤5)获取的生成语句加入到假语料库中,与步骤1)所得的专家语料库一起进行判别器的训练;
7)按照对抗生成网络的训练方式交替进行步骤5)中的训练和步骤6)中的训练,直至生成器和判别器均收敛。
在本实施例中,所指的模仿学习是一种监督学习问题,是一类重要的机器学习问题。在模仿学习问题中,已知的信息只有专家的行为数据,没有其他强化信号,模仿学习希望能够利用已知的专家数据产生与专家行为表现相似的策略。传统的实现模仿学习的方法主要分为两种:行为克隆法和逆强化学习法,在本实施例中所述的基于对抗生成网络的模仿学习方法利用了一种较为新颖的对抗生成式的深度学习机制,其目的是为了产生与专家样本相近的生成样本。最基本的对抗生成网络由两部分组成:生成器(简称G)用来产生样本,判别器(简称D)用来评判专家样本和生成样本。GAN定义了一个G和D相互对抗的博弈问题,通过不断迭代的对抗训练方式来生成逐渐靠近专家样本的生成样本。在本实施例中,基于对抗生成网络的模仿学习将对抗生成机制用在模仿学习中,以生成与专家数据表现相近的行为策略,这种方法与行为克隆法相似,都利用状态动作对作为训练的对象,但该方法又具有较好泛化能力;这种方法与逆强化学习法相似,都存在奖赏函数参与到训练过程中,但该方法又避开了奖赏函数的自身强化学习过程,减少了训练时间。
在本实施例中,对话语句的生成采用了编码器(Encoder)和译码器(Decoder)结构,编码器和译码器均由循环神经网络变体LSTM构成,编码器利用一个LSTM网络按时间步逐次处理输入语句中的每个词语的词向量,将最后处理得到的语句向量输入到译码器中,译码器利用另一个或同一个LSTM处理语句向量,每个时间步接受上一时间步的输出词语及译码器循环神经网络的隐藏层状态生成当前时间步的输出词语直至生成终止符号,从而实现对答语句的输出。LSTM的计算公式如下:
it=σ(Wxixt+Whiht-1+Wcict-1+bi)
ft=σ(Wxfxt+Whfht-1+Wcfct-1+bf)
ct=ftct-1+ittanh(Wxcxt+Whcht-1+bc)
ot=σ(Wxoxt+Whoht-1+Wcoct+bo)
ht=ottanh(ct)
其中,σ是sigmoid函数,i,f,c,o(包括下标中出现的i,f,c,o)分别代表输入门(input gate)、忘记门(forget gate)、细胞门(cell)和输出门(output gate)。W代表参数矩阵,不同的下标区分了在计算中与不同的向量相乘的参数矩阵。b代表偏置量。如图2所示,细胞门保存了隐层的状态,输入门表示是否允许当前的输入信息加入到隐层状态中,输出门表示是否允许当前隐层节点的输出值传递到下一层,忘记门表示是否保留当前节点的历史状态。
编码器和译码器的结构如图3所示,图中在每一时间步输入编码器的词语分别是A、B、C,译码器每一时间步输出的词语分别是W、X、Y、Z。
在本实施例中,假语句由尚未训练收敛的生成器G提供,判别专家语句和假语句的是GAN中的判别器D,D由一层循环神经网络变体LSTM和两个全连接层构成,采用图灵测试的方式,如果输入是专家语句,则输出类别为1,反之如果输入是假语句,则输出类别为0。
在本实施例中,如图1所示,判别器返回的类别将作为生成器获得的回报信号R,译码器此时最后一层隐藏层状态作为状态s,输出语句这一行为作为动作a,采用策略梯度的方式来对生成器进行梯度更新,计算公式如下:
在本实施例中,GAN将采用对抗生成的方式来同时训练生成器和判别器,其优化目标函数为:
其中,pz(z)是生成器生成的样本的分布。判别器D希望能尽可能地区分真实样本和生成样本,即D(x)尽可能大、D(G(z))尽可能小,即V(D,G)整体尽可能大;生成器G希望能尽可能地骗过判别器D,即D(G(z))尽可能大,即V(D,G)整体尽可能小。生成器G和判别器D相互对抗,即minGmaxDV(D,G),最后达到全局最优。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (8)
1.一种基于对抗生成网络的模仿学习对话生成方法,其特征在于,该方法包括以下步骤:
S1:建立相应类型的专家语料库;
S2:建立一个包括生成器和判别器的对抗生成网络,其中,生成器包括一对编码器和译码器;
S3:初始化对抗生成网络的参数,并利用初始化参数后的生成器生成假语料库;
S4:利用步骤S1获取的专家语料库和步骤S3获取的假语料库对判别器进行第一次分类训练;
S5:将输入语句输入至生成器中,生成器所输出的输出语句输入到步骤S4训练后的判别器中,判别器将返回的分类结果作为回报,采用强化学习架构训练生成器;
S6:将步骤S5生成的输出语句加入到假语料库中,与步骤S1所获取的专家语料库一同采用对抗生成网络的训练方式进行判别器的训练;
S7:交替进行步骤S5中生成器的训练和步骤S6中判别器的训练,直至生成器和判别器均收敛;
步骤S2中,对抗生成网络中的判别器为前馈神经网络构成的分类器;
所述的对抗生成网络的训练方式的优化目标函数为:
其中,
式中,G为GAN中的生成器,D为GAN中的判别器,V(D,G)为由生成器及判别器的输出共同构建的目标函数值,pdata(x)为来自专家语料库的真实样本分布,pz(z)为生成器的生成样本分布。
2.根据权利要求1所述的一种基于对抗生成网络的模仿学习对话生成方法,其特征在于,判别器的训练过程采用有监督学习方法。
3.根据权利要求1所述的一种基于对抗生成网络的模仿学习对话生成方法,其特征在于,步骤S5中,分类结果包括输入为专家语句时,输出类别为1,输入为假语句时,输出类别为0。
4.根据权利要求1所述的一种基于对抗生成网络的模仿学习对话生成方法,其特征在于,所述的编码器采用循环神经网络或长短期记忆网络按时间步逐次处理输入语句中的每个词语的词向量。
5.根据权利要求4所述的一种基于对抗生成网络的模仿学习对话生成方法,其特征在于,所述的译码器利用循环神经网络或长短期记忆网络处理语句向量。
6.根据权利要求1所述的一种基于对抗生成网络的模仿学习对话生成方法,其特征在于,所述的步骤S5的具体内容为:
输入语句输入到步骤S2所获得的生成器中,生成器将输出的输出语句输入到步骤S4所得到的判别器中,判别器将返回的分类结果作为回报信号输入至生成器,译码器最后一个时间步的循环神经网络隐藏层状态作为状态,译码器生成输出语句作为动作,获取状态、动作、回报后,生成器中的编码器和译码器将作为一个整体进行强化学习训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810401081.4A CN108734276B (zh) | 2018-04-28 | 2018-04-28 | 一种基于对抗生成网络的模仿学习对话生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810401081.4A CN108734276B (zh) | 2018-04-28 | 2018-04-28 | 一种基于对抗生成网络的模仿学习对话生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108734276A CN108734276A (zh) | 2018-11-02 |
CN108734276B true CN108734276B (zh) | 2021-12-31 |
Family
ID=63940079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810401081.4A Active CN108734276B (zh) | 2018-04-28 | 2018-04-28 | 一种基于对抗生成网络的模仿学习对话生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108734276B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492385A (zh) * | 2018-11-05 | 2019-03-19 | 桂林电子科技大学 | 一种基于深度学习的密码生成方法 |
CN109583346A (zh) * | 2018-11-21 | 2019-04-05 | 齐鲁工业大学 | 基于lstm-fc的脑电信号特征提取与分类识别方法 |
CN109614471B (zh) * | 2018-12-07 | 2021-07-02 | 北京大学 | 一种基于生成式对抗网络的开放式问题自动生成方法 |
CN111611354B (zh) * | 2019-02-26 | 2023-09-29 | 北京嘀嘀无限科技发展有限公司 | 人机对话控制方法、装置、服务器及可读存储介质 |
CN111768784A (zh) * | 2019-03-15 | 2020-10-13 | 上海火商智能科技有限公司 | 一种基于生成式对抗网络的语音生成方法 |
CN109918493A (zh) * | 2019-03-19 | 2019-06-21 | 重庆邮电大学 | 一种基于长短期记忆神经网络的对话生成方法 |
CN110032633B (zh) * | 2019-04-17 | 2021-03-23 | 腾讯科技(深圳)有限公司 | 多轮对话处理方法、装置和设备 |
CN110297894B (zh) * | 2019-05-22 | 2021-03-26 | 同济大学 | 一种基于辅助网络的智能对话生成方法 |
CN110196899B (zh) * | 2019-06-11 | 2020-07-21 | 中央民族大学 | 一种低资源语言问答语料库生成方法 |
CN110298391B (zh) * | 2019-06-12 | 2023-05-02 | 同济大学 | 一种基于小样本的迭代式增量对话意图类别识别方法 |
CN110347819A (zh) * | 2019-06-21 | 2019-10-18 | 同济大学 | 一种基于正负样本对抗训练的文本摘要生成方法 |
CN110472280B (zh) * | 2019-07-10 | 2024-01-12 | 广东工业大学 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
CN112311733A (zh) * | 2019-07-30 | 2021-02-02 | 四川大学 | 一种基于强化学习优化xss检测模型防御对抗攻击的方法 |
CN110727844B (zh) * | 2019-10-21 | 2022-07-01 | 东北林业大学 | 一种基于生成对抗网络的在线评论商品特征观点提取方法 |
CN112837676B (zh) * | 2019-11-04 | 2023-12-01 | 深圳市优必选科技股份有限公司 | 一种语句生成方法、语句生成装置及智能设备 |
CN110866101B (zh) * | 2019-11-07 | 2022-11-01 | 昆明理工大学 | 一种基于近端策略优化与对抗学习的对话生成方法 |
CN111160512B (zh) * | 2019-12-04 | 2023-06-13 | 华东师范大学 | 基于生成式对抗网络构建双判别器对话生成模型的方法 |
CN110942774A (zh) * | 2019-12-12 | 2020-03-31 | 北京声智科技有限公司 | 一种人机交互系统、其对话方法、介质和设备 |
US11429996B2 (en) | 2020-01-21 | 2022-08-30 | International Business Machines Corporation | System and method for generating preferred ameliorative actions using generative adversarial networks |
CN111310915B (zh) * | 2020-01-21 | 2023-09-01 | 浙江工业大学 | 一种面向强化学习的数据异常检测防御方法 |
CN111488988B (zh) * | 2020-04-16 | 2021-10-29 | 清华大学 | 基于对抗学习的控制策略模仿学习方法及装置 |
CN111737439B (zh) * | 2020-07-31 | 2020-12-11 | 支付宝(杭州)信息技术有限公司 | 一种问题生成方法及装置 |
CN111737440B (zh) * | 2020-07-31 | 2021-03-05 | 支付宝(杭州)信息技术有限公司 | 一种问题生成方法及装置 |
CN112069795B (zh) * | 2020-08-28 | 2023-05-30 | 平安科技(深圳)有限公司 | 基于掩码语言模型的语料检测方法、装置、设备及介质 |
CN113379027A (zh) * | 2021-02-24 | 2021-09-10 | 中国海洋大学 | 一种生成对抗交互模仿学习方法、系统、存储介质及应用 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107293289A (zh) * | 2017-06-13 | 2017-10-24 | 南京医科大学 | 一种基于深度卷积生成对抗网络的语音生成方法 |
CN107368475A (zh) * | 2017-07-18 | 2017-11-21 | 中译语通科技(北京)有限公司 | 一种基于生成对抗神经网络的机器翻译方法和系统 |
CN107392147A (zh) * | 2017-07-20 | 2017-11-24 | 北京工商大学 | 一种基于改进的生成式对抗网络的图像语句转换方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6599294B2 (ja) * | 2016-09-20 | 2019-10-30 | 株式会社東芝 | 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム |
-
2018
- 2018-04-28 CN CN201810401081.4A patent/CN108734276B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107293289A (zh) * | 2017-06-13 | 2017-10-24 | 南京医科大学 | 一种基于深度卷积生成对抗网络的语音生成方法 |
CN107368475A (zh) * | 2017-07-18 | 2017-11-21 | 中译语通科技(北京)有限公司 | 一种基于生成对抗神经网络的机器翻译方法和系统 |
CN107392147A (zh) * | 2017-07-20 | 2017-11-24 | 北京工商大学 | 一种基于改进的生成式对抗网络的图像语句转换方法 |
Non-Patent Citations (1)
Title |
---|
Adversarial Learning for Neural Dialogue Generation;Jiwei Li et.al;《arxiv》;20170924;第3节 * |
Also Published As
Publication number | Publication date |
---|---|
CN108734276A (zh) | 2018-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108734276B (zh) | 一种基于对抗生成网络的模仿学习对话生成方法 | |
Mishra et al. | Tracking state changes in procedural text: a challenge dataset and models for process paragraph comprehension | |
Liu et al. | Knowledge diffusion for neural dialogue generation | |
CN107578106B (zh) | 一种融合单词语义知识的神经网络自然语言推理方法 | |
CN111897941B (zh) | 对话生成方法、网络训练方法、装置、存储介质及设备 | |
US20180329884A1 (en) | Neural contextual conversation learning | |
Liu et al. | Multi-timescale long short-term memory neural network for modelling sentences and documents | |
CN112541063B (zh) | 一种基于自学习对话模型的人机对话方法及系统 | |
CN114168749A (zh) | 一种基于知识图谱和疑问词驱动的问题生成系统 | |
CN112417894A (zh) | 一种基于多任务学习的对话意图识别方法及识别系统 | |
CN112559706B (zh) | 对话生成模型的训练方法、对话方法、设备以及存储介质 | |
CN110297894B (zh) | 一种基于辅助网络的智能对话生成方法 | |
Hashana et al. | Deep Learning in ChatGPT-A Survey | |
CN114328866A (zh) | 应答流畅准确的强拟人化智能对话机器人 | |
CN111046157B (zh) | 一种基于平衡分布的通用英文人机对话生成方法和系统 | |
CN112560440A (zh) | 一种基于深度学习的面向方面级情感分析的句法依赖方法 | |
CN112463935A (zh) | 一种带有强泛化知识选择的开放域对话生成方法及模型 | |
CN116384373A (zh) | 一种基于知识蒸馏框架的方面级情感分析方法 | |
CN114168769B (zh) | 基于gat关系推理的视觉问答方法 | |
CN114239575B (zh) | 语句分析模型的构建方法、语句分析方法、装置、介质和计算设备 | |
Gupta | A review of generative AI from historical perspectives | |
Afrae et al. | A Question answering System with a sequence to sequence grammatical correction | |
Le et al. | Towards a human-like chatbot using deep adversarial learning | |
Kreyssig | Deep learning for user simulation in a dialogue system | |
Dasgupta et al. | A Review of Generative AI from Historical Perspectives |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |