CN111581455B - 文本生成模型的生成方法、装置和电子设备 - Google Patents

文本生成模型的生成方法、装置和电子设备 Download PDF

Info

Publication number
CN111581455B
CN111581455B CN202010349040.2A CN202010349040A CN111581455B CN 111581455 B CN111581455 B CN 111581455B CN 202010349040 A CN202010349040 A CN 202010349040A CN 111581455 B CN111581455 B CN 111581455B
Authority
CN
China
Prior art keywords
text
generation model
text generation
training
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010349040.2A
Other languages
English (en)
Other versions
CN111581455A (zh
Inventor
宋珍巧
周浩
陈家泽
李磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010349040.2A priority Critical patent/CN111581455B/zh
Publication of CN111581455A publication Critical patent/CN111581455A/zh
Application granted granted Critical
Publication of CN111581455B publication Critical patent/CN111581455B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • G06F16/90344Query processing by using string matching techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开实施例公开了一种文本生成模型的生成方法、装置、电子设备和计算机可读存储介质。其中该文本生成模型的生成方法包括:根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。上述方法,通过一个训练好的模型来监督训练其他相关的模型,解决了现有技术中的由于训练集中的数据质量不高所导致的模型质量不高的技术问题。

Description

文本生成模型的生成方法、装置和电子设备
技术领域
本公开涉及文本生成领域,尤其涉及一种文本生成模型的生成方法、装置、电子设备及计算机可读存储介质。
背景技术
随着互联网技术的发展,互联网的传播形态正在不断的变革之中,从早期的PC电脑端,到今天的智能手机端,网民接入网络的方式越来越便捷,人们进入了一个移动互联网时代,以智能手机、平板电脑等为代表的移动终端已经日益大众化,移动互联网应用逐渐渗透到人们的日常生活当中,人们可以随时随地的享受着新技术带来的便利。
搜索是互联网的常用技术,通常搜索引擎在召回用户搜索的内容时会在召回的内容中插入广告,以希望用户可以点击广告。一般来说用户的搜索词和广告之间用广告关键词作为桥梁,也即是说搜索词与广告关键词有对应关系,而广告关键词和广告有对应关系,这样当用户使用搜索词进行内容搜索时,可以插入与其所对应的关键词所对应的广告。在这种情况下,产生与搜索词和广告相关的关键词是至关重要的。
近年来,现有技术中通常使用深度学习的方法,自动生成所述关键词,如使用训练好的关键词生成模型,通过输入搜索词或广告生成对应的关键词,但是这种方法受制于训练数据的准确度,如从搜索词到关键词的训练数据以及从广告到关键词的数据难以获取,并且训练数据的噪音很大,因此无法训练生成好用的关键词生成模型。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开实施例提供一种文本生成模型的生成方法,包括:
根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;
根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。
第二方面,本公开实施例提供一种本生成方法,其特征在于,包括:
将输入文本输入根据第一方面所述文本生成模型的生成方法所生成的任一文本生成模型;
所述文本生成模型根据所述输入文本生成输出文本。
第三方面,本公开实施例提供一种文本生成模型的生成装置,包括:
第一生成模块,用于根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;
第二生成模块,用于根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。
第四方面,本公开实施例提供一种文本生成装置,其特征在于,包括:
输入模块,用于将输入文本输入根据第一方面中任一项的所述文本生成模型的生成方法所生成的任一文本生成模型;
输出模块,用于所述文本生成模型根据所述输入文本生成输出文本。
第五方面,本公开实施例提供一种电子设备,包括:至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有能被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述第一方面或第二方面中的任一所述的方法。
第六方面,本公开实施例提供一种非暂态计算机可读存储介质,其特征在于,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行前述第一方面或第二方面中的任一所述的方法。
本公开实施例公开了一种文本生成模型的生成方法、装置、电子设备和计算机可读存储介质。其中该文本生成模型的生成方法包括:根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。上述方法,通过一个训练好的模型来监督训练其他相关的模型,解决了现有技术中的由于训练集中的数据质量不高所导致的模型质量不高的技术问题。
上述说明仅是本公开技术方案的概述,为了能更清楚了解本公开的技术手段,而可依照说明书的内容予以实施,并且为让本公开的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例的应用场景示意图;
图2为本公开实施例提供的文本生成模型的生成方法的流程示意图;
图3为本公开实施例提供的文本生成模型的生成方法中的步骤S202的一个具体实施方式意图;
图4为本公开实施例提供的文本生成模型的生成方法中的步骤S201的一个具体实施方式意图;
图5为本公开实施例提供的文本生成方法的流程示意图;
图6为本公开实施例提供的文本生成模型的生成装置的实施例的结构示意图;
图7为本公开实施例提供的文本生成装置的实施例的结构示意图;
图8为根据本公开实施例提供的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1为本公开实施例的应用场景示意图。如图1所示,用户通过终端设备101输入搜索词“减肥”,广告主通过终端设备102上传了广告内容“买这款减肥茶!”,用户的搜索词通过服务器生成了关键词“身材管理”,而该关键词也跟广告主的广告关联;服务器103向用户的终端设备101反馈带有搜索结果的网页,并在该网页中插入与关键词“身材管理”相关的广告。
图2为本公开实施例提供的文本生成模型的生成方法实施例的流程图,本实施例提供的该文本生成模型的生成方法可以由一文本生成模型的生成装置来执行,该文本生成模型的生成装置可以实现为软件,或者实现为软件和硬件的组合,该文本生成模型的生成装置可以集成设置在文本生成模型的生成系统中的某设备中,比如文本生成模型的生成服务器或者文本生成模型的生成终端设备中。如图2所示,该方法包括如下步骤:
步骤S201,根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;
在本公开实施例中,所述第一训练文本数据集为高质量的训练数据集,所述第一训练文本数据集中包括第一训练文本与第二训练文本的对应关系。示例性的,以广告领域为例,所述第一训练文本数据集中包括广告与搜索词之间的对应关系,这种对应关系是由用户的搜索和点击动作所生成的,因此相关性是确定的,这种训练集的质量比较高,噪音较少。典型的,以图1中的场景为例,当用户搜索的搜索词为“减肥”,且用户点击了“买这款减肥茶”所对应的广告,则<买这款减肥茶,减肥>即为第一训练文本数据集中的数据,即“买这款减肥茶”和“减肥”具有对应关系,第一训练文本数据集中的训练数据均为第一训练文本和第二训练文本的数据对。
可选的,所述第一文本生成模型为从序列到序列的模型,所述从序列到序列的模型的输入为一个字符串,输出是另外一个字符串。将所述第一训练文本数据集中的第一训练文本作为所述第一文本生成模型的输入,将所述第二训练文本作为监督数据,其输出为从第一训练文本得到其对应的第二训练文本的条件概率值,通过损失函数迭代所述第一文本生成模型的参数直至达到收敛条件,所述收敛条件可以损失函数的值小于预设的阈值或者迭代次数达到预设的迭代次数阈值。由于所述第一训练文本数据集是基于用户的动作所生成的数据,因此其准确性高,生成的第一文本生成模型为质量较高的模型,其用于根据第一文本生成第二文本,以上述示例为例,所述第一文本生成模型的输入可以是广告,其输出可以是与所述广告对应的搜索词。
可选的,所述从序列到序列的模型为带有GRU(Gate Recurrent Unit,门循环单元)的循环神经网络。其包括编码器部分和解码器部分,设
Figure GDA0004069433760000051
为输入的文本,其表示一个句子,所述编码器首先将其转换成其对应的向量,示例性的,可以通过词嵌入将所述X映射成对应的向量,以Emb(xi)来表示映射之后的向量。所述循环神经网络中包括多个隐藏层,每个隐藏层的输出为:
hi=GRU(Emb(xi),hi-1) (1)
其中,i=1,2,......,Tx,其中Tx为文本X的长度,xi表示文本X中的第i个词,Emb(xi)表示xi的向量形式,编码器的最后一个隐藏层的输出
Figure GDA0004069433760000061
作为解码器的第一个输入。所述解码器通过以下方式预测出文本
Figure GDA0004069433760000062
的中每一个词:
Figure GDA0004069433760000063
其中,j=1,2,......,Ty,所述Ty为文本Y的长度,
Figure GDA0004069433760000064
Emb(yj-1)为文本Y中的词yj-1的向量形式;Wo为模型的可训练参数。最终通过最大化以下似然函数可以得到所述第一文本生成模型:
Figure GDA0004069433760000065
步骤S202,根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。
在该步骤中,所述第二训练文本数据集中包括第一训练文本与第三训练文本的对应关系,所述第三训练文本数据集中包括第三训练文本与第二训练文本的对应关系,所述第二训练文本数据集和所述第三训练文本数据集为低质量训练数据集。示例性的,所述第二训练文本数据集为广告和关键词的数据集,其中包括广告与关键词的对应关系,如<买这款减肥茶,身材管理>;所述第三训练文本数据集为关键词和搜索词的数据集,其中包括关键词和搜索词的对应关系,如<身材管理,减肥>。为了叙述方便,将第一训练文本记为A,将第二训练文本记为Q,将第三训练文本记为K,则第一训练数据集为<A,Q>,第二训练数据集为<A,K>,第三训练数据集为<K,Q>。
由于<A,Q>为高质量数据集,用其训练出来的第一文本生成模型为高质量模型,因此所述第一文本生成模型的预测结果可以代替所述<A,K>和<K,Q>中的监督数据作为训练所述第二文本生成模型和第三文本生成模型的监督数据。可选的,所述步骤S202包括:
步骤S301,获取第二文本生成模型的参数和第三文本生成模型的参数;
步骤S302,根据第一联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数;
步骤S303,根据第一联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数;
步骤S304,重复上述迭代过程直至达到收敛条件;
其中在所述第一联合损失函数中,将所述第一文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型和所述第三文本生成模型的标注值。
可选的,所述第二文本生成模型和所述第三文本生成模型均为序列到序列的生成模型,如其可以是与步骤S201中所述的GRU循环神经网络;将所述第二文本生成模型的参数的集合记为θak,将所述第三文本生成模型的参数的集合记为θkq,在步骤S301中,获取当前的θak和θkq,所述当前的θak和θkq可以是初始化的参数。
在步骤S302和步骤S303中,根据第一联合损失函数以及生成模型对应的训练数据集对所述参数进行迭代。可选的,所述第一联合损失函数包括:似然损失函数和交叉熵损失函数,其中所述似然损失函数包括所述第二文本生成模型和所述第三文本生成模型的预测值,所述交叉熵损失函数包括由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值。
示例性的,所述第一联合损失函数为:
L1=λ1LM1+(1-λ1)LT1 (4)
其中,
Figure GDA0004069433760000071
为所述似然损失函数;
其中,
Figure GDA0004069433760000072
为所述交叉熵损失函数;
其中0<λ1<1为权重参数,用于平衡所述似然损失函数以及所述交叉熵损失函数在所述第一联合损失函数中所占的比例;所述p(k|a;θak)为所述第二文本生成模型在参数为θak时,通过训练数据<a,k>得到的预测值,所述p(q|k;θkq)为所述第三文本生成模型在参数为θkq时,通过训练数据<k,q>得到的预测值;所述p(q|a;θaq)为通过训练好的所述第一文本生成模型通过训练数据<a,q>得到的预测值,该预测值在该步骤中作为训练所述第二和第三文本生成模型的标注值,即监督数据。通过最大似然估计:
Figure GDA0004069433760000081
来估计所述第一文本生成模型的预测值,即通过第二文本生成模型的预测值以及第三文本生成模型的预测值来表示所述交叉熵损失函数中第一文本生成模型的预测值。在公式(7)中,
Figure GDA0004069433760000082
可以通过枚举所有与a和q相关的k得到,但是在实际计算时,无法枚举出所有的k,因此对于每个输入的a,可以使用以下方式得到近似的k:
Figure GDA0004069433760000083
其中,j=1,2,......,Tk,Tk表示k的长度;V是预先设置的词典,w是V中可以枚举出的所有可能的词;Emb(w)为w的向量形式,
Figure GDA0004069433760000084
为第二文本生成模型中解码器的第j个隐藏层的输出;
Figure GDA0004069433760000085
是根据公式(3)计算出来的w的预测概率值。根据公式(8)可以计算出一个序列
Figure GDA0004069433760000086
用来表示k。接下来,
Figure GDA0004069433760000087
在训练生成第三文本生成模型时被作为所述第三文本生成模型的输入以预测q。由此可以计算出公式(7)的值。
在上述实施例中,公式(4)中的所有概率值均可以通过公式(3)计算出来。
可选的,在步骤S302和步骤S303中,分别使用梯度下降法来更新所述第二文本生成模型和第三文本生成模型的参数,具体的:
Figure GDA0004069433760000088
其中η为学习率,为预先设置的参数,其表示参数每次更新的幅度。
在步骤S304中,通过上述迭代方式不断的迭代计算所述参数直至到达收敛条件,其中所述收敛条件为所述L1小于预设的阈值或者所述迭代的次数大于预设的迭代次数阈值。
达到收敛条件时所得到的θak和θkq即为所述第二文本生成模型和所述第三文本生成模型的参数,由此可以得到训练好的第二文本生成模型和所述第三文本生成模型。由于在损失函数中加入了通过高质量训练数据得到的第一文本生成模型所生成的预测值作为监督数据,又通过第二文本生成模型的预测值以及第三文本生成模型的预测值近似生成所述第一文本生成模型的预测值,因此可以通过第一文本生成模型监督所述第二文本生成模型和第三文本生成模型的训练过程以得到高质量的第二文本生成模型和第三文本生成模型。
在上述实施例中,在生成所述第一文本生成模型之后,可以通过第一联合损失函数同时训练出第二文本生成模型和第三文本生成模型。然而,所述第一训练文本数据集实际上还包括了第二训练文本和第一训练文本的对应关系,如<A,Q>中训练数据<a,q>,不仅表示了a和q对应,还表示q和a对应,因此利用这种互信息,实际上可以同时训练两个生成方向相反的文本生成模型。因此在该实施例中,所述步骤S201还包括:
在根据所述第一训练文本数据集训练生成第一文本生成模型的同时,根据所述第一训练文本数据集训练生成第四文本生成模型,其中所述第四文本生成模型用于根据第二文本生成第一文本。所述训练过程进一步包括:
步骤S401,获取第一文本生成模型的参数和第四文本生成模型的参数;
步骤S402,根据第二联合损失函数以及所述第一训练文本数据集迭代更新所述第一文本生成模型的参数和所述第四文本生成模型的参数;
步骤S403,重复上述迭代过程直至达到收敛条件;
其中所述第二联合损失函数为表示所述第一训练文本数据集中的第一训练文本和第二训练文本之间的互信息的下界的函数。
设所述第一训练文本和第二训练文本之间的互信息为I(A,Q),则根据互信息的定义可以得到表示所述互信息的下界的函数:
Figure GDA0004069433760000091
其中p(a,q)为A和Q的联合概率密度函数,p(a)和p(q)分别为A和Q的边缘概率密度函数。假设A和Q都是从均匀分布的数据集中采样到的数据,则上述公式(8)可以转换为:
Figure GDA0004069433760000101
其中α表示从均匀分布的A或Q中采样的概率。通过最大化所述公式(9)的值可以同时训练所述第一文本生成模型p(q|a;θaq)和所述第二文本生成模型p(a|q;θqa)。
在该实施例中,在同时生成第一文本生成模型和第四文本生成模型的情况下,在后续训练生成所述第二文本生成模型和所述第三文本生成模型的同时,还可以同时训练生成第五文本生成模型和第六文本生成模型,其中所述第五文本生成模型用于根据第三文本生成第一文本,所述第六文本生成模型用于根据第二文本生成第三文本。由于第五文本生成模型的生成方向与所述第二文本生成模型相反,因此他们可以使用同一个数据集和同一个损失函数进行训练;所述第六文本生成模型与所述第三文本生成模型的情况相同。所述训练过程进一步包括:
获取第二文本生成模型的参数、第三文本生成模型的参数、第五文本生成模型的参数和第六文本生成模型的参数;
根据第三联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数和所述第五文本生成模型的参数;
根据第三联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数所述第六文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第三联合损失函数中,将所述第一文本生成模型和所述第四文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的标注值。
上述训练过程与步骤S301-步骤S304中的步骤相似,只是在损失函数中加入了与第五文本生成模型和第六文本生成模型对应的部分,相同的部分不再赘述。可选的,所述第三联合损失函数包括:似然损失函数和交叉熵损失函数;其中所述似然损失函数包括:所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的预测值;所述交叉熵损失函数包括:由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值;由所述第四文本生成模型生成的标注值以及由所述第五文本生成模型和所述第六文本生成模型的预测值所表示的第四文本生成模型的预测值。
示例性的,所述第三联合损失函数为:
L=λLM+(1-λ)LT (11)
其中,
Figure GDA0004069433760000111
Figure GDA0004069433760000112
为似然损失函数;
其中,
Figure GDA0004069433760000113
Figure GDA0004069433760000114
为交叉熵损失函数;
其中0<λ<1为权重参数,用于平衡所述似然损失函数以及所述交叉熵损失函数在所述第一联合损失函数中所占的比例;所述p(k|a;θak)为所述第二文本生成模型在参数为θak时,通过训练数据<a,k>得到的预测值;所述p(a|k;θka)为所述第五文本生成模型在参数为θka时,通过训练数据<a,k>得到的预测值;所述p(q|k;θkq)为所述第三文本生成模型在参数为θkq时,通过训练数据<k,q>得到的预测值;所述p(k|q;θqk)为第六文本生成模型在参数为θqk时,通过训练数据<k,q>得到的预测值;所述p(q|a;θaq)为通过训练好的所述第一文本生成模型通过训练数据<a,q>得到的预测值,该预测值在该步骤中作为训练所述第二和第三文本生成模型的标注值,即监督数据;所述p(a|q;θqa)为通过训练好的所述第四文本生成模型通过训练数据<a,q>得到的预测值,该预测值在该步骤中作为训练所述第五和第六文本生成模型的标注值,即监督数据。通过最大似然估计:
Figure GDA0004069433760000115
来估计所述第一文本生成模型的预测值,即通过第二文本生成模型的预测值以及第三文本生成模型的预测值来表示所述交叉熵损失函数中第一文本生成模型的预测值。
通过最大似然那估计:
Figure GDA0004069433760000116
来估计所述第四文本生成模型的预测值,即通过第五文本生成模型的预测值以及第六文本生成模型的预测值来表示所述交叉熵损失函数中第四文本生成模型的预测值。可以理解的,公式(14)中的k同样可以使用如公式(7)中的方法通过词典和第六文本生成模型计算出一个序列k%来表示公式(14)中的k。由此可以计算出公式(14)的值。
由此,可以计算出公式(11)的值,公式(11)中的所有概率值均可以通过公式(3)计算出来。
可选的,上述参数的迭代过程同样可以使用如步骤S302和步骤S303中的方法直到达到收敛条件分别以得到第二、第三、第五和第六文本生成模型的参数。由此,在步骤S201中可以同时训练2个模型,在步骤S202中可以同时训练4个模型,整个文本生成模型的生成方法可以得到6个文本生成模型,分别表示不同的生成方向。
如图5所示,本公开实施例还提供了一种文本生成方法,包括:
步骤S501,将输入文本输入根据文本生成模型的生成方法所生成的任一文本生成模型;
步骤S502,所述文本生成模型根据所述输入文本生成输出文本。
在该实施例中,生成输出文本时,可以通过加入约束条件的集束搜索来完成。可以理解的,上述文本生成模型在每个阶段预测输出文本中的一个词,通过集束搜索算法输出的多个文本的相似度比较高,因此输出文本的多样性不够。在本公开实施例中,加入一个约束条件,以增加输出文本的多样性。所述约束条件为N个候选序列的第一个词必须不同,文本序列中的第一个词被确定之后,后续的词可以继续通过通常的集束搜索或者贪婪搜索算法来选择,则最终可以生成N个不同的文本序列,由此可以增加输出文本的多样性。对应于上述示例中,则可以产生更多不同的与搜索词和广告对应的关键词。
上述实施例公开了一种文本生成模型的生成方法,其中所述方法包括:根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。上述方法,通过一个训练好的模型来监督训练其他相关的模型,解决了现有技术中的由于训练集中的数据质量不高所导致的模型质量不高的技术问题。
在上文中,虽然按照上述的顺序描述了上述方法实施例中的各个步骤,本领域技术人员应清楚,本公开实施例中的步骤并不必然按照上述顺序执行,其也可以倒序、并行、交叉等其他顺序执行,而且,在上述步骤的基础上,本领域技术人员也可以再加入其他步骤,这些明显变型或等同替换的方式也应包含在本公开的保护范围之内,在此不再赘述。
图6为本公开实施例提供的文本生成模型的生成装置实施例的结构示意图,如图6所示,该装置600包括:第一生成模块601和第二生成模块602。
其中,
第一生成模块601,用于根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;
第二生成模块602,用于根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。
进一步的,所述第二生成模块602,还用于:
获取第二文本生成模型的参数和第三文本生成模型的参数;
根据第一联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数;
根据第一联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第一联合损失函数中,将所述第一文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型和所述第三文本生成模型的标注值。
进一步的,所述第一联合损失函数中包括:似然损失函数和交叉熵损失函数,其中所述似然损失函数包括所述第二文本生成模型和所述第三文本生成模型的预测值,所述交叉熵损失函数包括由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值。
进一步的,所述第一生成模块601还用于:
在根据所述第一训练文本数据集训练生成第一文本生成模型的同时,根据所述第一训练文本数据集训练生成第四文本生成模型,其中所述第四文本生成模型用于根据第二文本生成第一文本。
进一步的,所述第一生成模块601还用于:
获取第一文本生成模型的参数和第四文本生成模型的参数;
根据第二联合损失函数以及所述第一训练文本数据集迭代更新所述第一文本生成模型的参数和所述第四文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中所述第二联合损失函数为表示所述第一训练文本数据集中的第一训练文本和第二训练文本之间的互信息的下界的函数。
进一步的,所述第二生成模块602,还用于:
在训练生成所述第二文本生成模型和所述第三文本生成模型的同时,还训练生成第五文本生成模型和第六文本生成模型;其中,所述第五文本生成模型用于根据第三文本生成第一文本,所述第六文本生成模型用于根据第二文本生成第三文本。
进一步的,所述第二生成模块602,还用于:
获取第二文本生成模型的参数、第三文本生成模型的参数、第五文本生成模型的参数和第六文本生成模型的参数;
根据第三联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数和所述第五文本生成模型的参数;
根据第三联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数所述第六文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第三联合损失函数中,将所述第一文本生成模型和所述第四文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的标注值。
进一步的,所述第三联合损失函数中包括:似然损失函数和交叉熵损失函数;其中所述似然损失函数包括:所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的预测值;所述交叉熵损失函数包括:由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值;由所述第四文本生成模型生成的标注值以及由所述第五文本生成模型和所述第六文本生成模型的预测值所表示的第四文本生成模型的预测值。
图6所示装置可以执行图2-图4所示实施例的方法,本实施例未详细描述的部分,可参考对图2-图4所示实施例的相关说明。该技术方案的执行过程和技术效果参见图2-图4所示实施例中的描述,在此不再赘述。
图7为本公开实施例提供的文本生成装置实施例的结构示意图,如图7所示,该装置700包括:输入模块701和输出模块702。其中,
输入模块701,用于将输入文本输入根据文本生成模型的生成方法所生成的任一文本生成模型;
输出模块702,用于所述文本生成模型根据所述输入文本生成输出文本。
图7所示装置可以执行图5所示实施例的方法,本实施例未详细描述的部分,可参考对图5所示实施例的相关说明。该技术方案的执行过程和技术效果参见图5所示实施例中的描述,在此不再赘述。
下面参考图8,其示出了适于用来实现本公开实施例的电子设备800的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置806;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808;以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,提供了一种文本生成模型的生成方法,包括:
根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;
根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。
进一步的,所述根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,包括:
获取第二文本生成模型的参数和第三文本生成模型的参数;
根据第一联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数;
根据第一联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第一联合损失函数中,将所述第一文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型和所述第三文本生成模型的标注值。
进一步的,所述第一联合损失函数中包括:似然损失函数和交叉熵损失函数,其中所述似然损失函数包括所述第二文本生成模型和所述第三文本生成模型的预测值,所述交叉熵损失函数包括由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值。
进一步的,所述根据第一训练文本数据集训练生成第一文本生成模型,还包括:
在根据所述第一训练文本数据集训练生成第一文本生成模型的同时,根据所述第一训练文本数据集训练生成第四文本生成模型,其中所述第四文本生成模型用于根据第二文本生成第一文本。
进一步的,所述在根据所述第一训练文本数据集训练生成第一文本生成模型的同时,根据所述第一训练文本数据集训练生成第四文本生成模型,包括:
获取第二文本生成模型的参数和第三文本生成模型的参数;
根据第二联合损失函数以及所述第一训练文本数据集迭代更新所述第一文本生成模型的参数和所述第四文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中所述第二联合损失函数为表示所述第一训练文本数据集中的第一训练文本和第二训练文本之间的互信息的下界的函数。
进一步的,所述根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,还包括:
在训练生成所述第二文本生成模型和所述第三文本生成模型的同时,还训练生成第五文本生成模型和第六文本生成模型;其中,所述第五文本生成模型用于根据第三文本生成第一文本,所述第六文本生成模型用于根据第二文本生成第三文本。
进一步的,所述在训练生成所述第二文本生成模型和所述第三文本生成模型的同时,还训练生成第五文本生成模型和第六文本生成模型,包括:
获取第二文本生成模型的参数、第三文本生成模型的参数、第五文本生成模型的参数和第六文本生成模型的参数;
根据第三联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数和所述第五文本生成模型的参数;
根据第三联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数所述第六文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第三联合损失函数中,将所述第一文本生成模型和所述第四文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的标注值。
进一步的,所述第三联合损失函数中包括:似然损失函数和交叉熵损失函数;其中所述似然损失函数包括:所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的预测值;所述交叉熵损失函数包括:由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值;由所述第四文本生成模型生成的标注值以及由所述第五文本生成模型和所述第六文本生成模型的预测值所表示的第四文本生成模型的预测值。
根据本公开的一个或多个实施例,提供了一种文本生成方法,其特征在于,包括:
将输入文本输入根据本公开实施例中任一项的所述文本生成模型的生成方法所生成的任一文本生成模型;
所述文本生成模型根据所述输入文本生成输出文本。
根据本公开的一个或多个实施例,提供了一种文本生成模型的生成装置,包括:
第一生成模块,用于根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;
第二生成模块,用于根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本。
进一步的,所述第二生成模块,还用于:
获取第二文本生成模型的参数和第三文本生成模型的参数;
根据第一联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数;
根据第一联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第一联合损失函数中,将所述第一文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型和所述第三文本生成模型的标注值。
进一步的,所述第一联合损失函数中包括:似然损失函数和交叉熵损失函数,其中所述似然损失函数包括所述第二文本生成模型和所述第三文本生成模型的预测值,所述交叉熵损失函数包括由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值。
进一步的,所述第一生成模块还用于:
在根据所述第一训练文本数据集训练生成第一文本生成模型的同时,根据所述第一训练文本数据集训练生成第四文本生成模型,其中所述第四文本生成模型用于根据第二文本生成第一文本。
进一步的,所述第一生成模块还用于:
获取第一文本生成模型的参数和第四文本生成模型的参数;
根据第二联合损失函数以及所述第一训练文本数据集迭代更新所述第一文本生成模型的参数和所述第四文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中所述第二联合损失函数为表示所述第一训练文本数据集中的第一训练文本和第二训练文本之间的互信息的下界的函数。
进一步的,所述第二生成模块,还用于:
在训练生成所述第二文本生成模型和所述第三文本生成模型的同时,还训练生成第五文本生成模型和第六文本生成模型;其中,所述第五文本生成模型用于根据第三文本生成第一文本,所述第六文本生成模型用于根据第二文本生成第三文本。
进一步的,所述第二生成模块,还用于:
获取第二文本生成模型的参数、第三文本生成模型的参数、第五文本生成模型的参数和第六文本生成模型的参数;
根据第三联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数和所述第五文本生成模型的参数;
根据第三联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数所述第六文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第三联合损失函数中,将所述第一文本生成模型和所述第四文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的标注值。
进一步的,所述第三联合损失函数中包括:似然损失函数和交叉熵损失函数;其中所述似然损失函数包括:所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的预测值;所述交叉熵损失函数包括:由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值;由所述第四文本生成模型生成的标注值以及由所述第五文本生成模型和所述第六文本生成模型的预测值所表示的第四文本生成模型的预测值。
根据本公开的一个或多个实施例,提供了一种文本生成装置,其特征在于,包括:
输入模块,用于将输入文本输入根据本公开实施例中任一项的所述文本生成模型的生成方法所生成的任一文本生成模型;
输出模块,用于所述文本生成模型根据所述输入文本生成输出文本。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有能被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述任一所述文本生成模型的生成方法或所述文本生成方法。
根据本公开的一个或多个实施例,提供了一种非暂态计算机可读存储介质,其特征在于,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行前述任一所述文本生成模型的生成方法或所述文本生成方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本申请的范围(包括权利要求)被限于这些例子;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本申请实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本申请实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本申请实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本申请的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本申请实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本申请的具体实施例对本申请进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本申请实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本申请实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (12)

1.一种文本生成模型的生成方法,其特征在于,包括:
根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;其中,所述第一训练文本数据集包括第一训练文本与第二训练文本的对应关系;
根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本;
所述方法具体包括:
获取第二文本生成模型的参数和第三文本生成模型的参数;
根据第一联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数;
根据第一联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第一联合损失函数中,将所述第一文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型和所述第三文本生成模型的标注值。
2.如权利要求1所述的文本生成模型的生成方法,其中所述第一联合损失函数中包括:似然损失函数和交叉熵损失函数,其中所述似然损失函数包括所述第二文本生成模型和所述第三文本生成模型的预测值,所述交叉熵损失函数包括由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值。
3.如权利要求1所述的文本生成模型的生成方法,其中所述根据第一训练文本数据集训练生成第一文本生成模型,还包括:
在根据所述第一训练文本数据集训练生成第一文本生成模型的同时,根据所述第一训练文本数据集训练生成第四文本生成模型,其中所述第四文本生成模型用于根据第二文本生成第一文本。
4.如权利要求3所述的文本生成模型的生成方法,其中所述在根据所述第一训练文本数据集训练生成第一文本生成模型的同时,根据所述第一训练文本数据集训练生成第四文本生成模型,包括:
获取第二文本生成模型的参数和第三文本生成模型的参数;
根据第二联合损失函数以及所述第一训练文本数据集迭代更新所述第一文本生成模型的参数和所述第四文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中所述第二联合损失函数为表示所述第一训练文本数据中的第一训练文本和第二训练文本之间的互信息的下界的函数。
5.如权利要求3所述的文本生成模型的生成方法,其中所述根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,还包括:
在训练生成所述第二文本生成模型和所述第三文本生成模型的同时,还训练生成第五文本生成模型和第六文本生成模型;其中,所述第五文本生成模型用于根据第三文本生成第一文本,所述第六文本生成模型用于根据第二文本生成第三文本。
6.如权利要求5所述的文本生成模型的生成方法,其中所述在训练生成所述第二文本生成模型和所述第三文本生成模型的同时,还训练生成第五文本生成模型和第六文本生成模型,包括:
获取第二文本生成模型的参数、第三文本生成模型的参数、第五文本生成模型的参数和第六文本生成模型的参数;
根据第三联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数和所述第五文本生成模型的参数;
根据第三联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数所述第六文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第三联合损失函数中,将所述第一文本生成模型和所述第四文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的标注值。
7.如权利要求6所述的文本生成模型的生成方法,其中所述第三联合损失函数中包括:似然损失函数和交叉熵损失函数;其中所述似然损失函数包括:所述第二文本生成模型、所述第三文本生成模型、所述第五文本生成模型和所述第六文本生成模型的预测值;所述交叉熵损失函数包括:由所述第一文本生成模型生成的标注值以及由所述第二文本生成模型和所述第三文本生成模型的预测值所表示的第一文本生成模型的预测值;由所述第四文本生成模型生成的标注值以及由所述第五文本生成模型和所述第六文本生成模型的预测值所表示的第四文本生成模型的预测值。
8.一种文本生成方法,其特征在于,包括:
将输入文本输入根据所述权利要求1-7中任一项的所述文本生成模型的生成方法所生成的任一文本生成模型;
所述文本生成模型根据所述输入文本生成输出文本。
9.一种文本生成模型的生成装置,其特征在于,包括:
第一生成模块,用于根据第一训练文本数据集训练生成第一文本生成模型,所述第一文本生成模型用于根据第一文本生成第二文本;其中,所述第一训练文本数据集包括第一训练文本与第二训练文本的对应关系;
第二生成模块,用于根据所述第一训练文本数据集、所述第一文本生成模型、第二训练文本数据集和第三训练文本数据集训练生成第二文本生成模型和第三文本生成模型,其中所述第二文本生成模型用于根据第一文本生成第三文本,所述第三文本生成模型用于根据第三文本生成第二文本;
其中,第二生成模块,还用于:
获取第二文本生成模型的参数和第三文本生成模型的参数;
根据第一联合损失函数以及所述第二训练文本数据集迭代更新所述第二文本生成模型的参数;
根据第一联合损失函数以及所述第三训练文本数据集迭代更新所述第三文本生成模型的参数;
重复上述迭代过程直至达到收敛条件;
其中在所述第一联合损失函数中,将所述第一文本生成模型在所述第一训练文本数据集中生成的预测值作为训练所述第二文本生成模型和所述第三文本生成模型的标注值。
10.一种文本生成装置,其特征在于,包括:
输入模块,用于将输入文本输入根据所述权利要求1-7中任一项的所述文本生成模型的生成方法所生成的任一文本生成模型;
输出模块,用于所述文本生成模型根据所述输入文本生成输出文本。
11.一种电子设备,包括:
存储器,用于存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,使得所述处理器运行时实现根据权利要求1-8中任意一项所述的方法。
12.一种非暂态计算机可读存储介质,用于存储计算机可读指令,当所述计算机可读指令由计算机执行时,使得所述计算机执行权利要求1-8中任意一项所述的方法。
CN202010349040.2A 2020-04-28 2020-04-28 文本生成模型的生成方法、装置和电子设备 Active CN111581455B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010349040.2A CN111581455B (zh) 2020-04-28 2020-04-28 文本生成模型的生成方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010349040.2A CN111581455B (zh) 2020-04-28 2020-04-28 文本生成模型的生成方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN111581455A CN111581455A (zh) 2020-08-25
CN111581455B true CN111581455B (zh) 2023-03-21

Family

ID=72111868

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010349040.2A Active CN111581455B (zh) 2020-04-28 2020-04-28 文本生成模型的生成方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN111581455B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115909354B (zh) * 2022-11-11 2023-11-10 北京百度网讯科技有限公司 文本生成模型的训练方法、文本获取方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004072780A2 (en) * 2003-02-05 2004-08-26 Verint Systems, Inc. Method for automatic and semi-automatic classification and clustering of non-deterministic texts
JP6004452B2 (ja) * 2014-07-24 2016-10-05 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 言語モデル用の学習テキストを選択する方法及び当該学習テキストを使用して言語モデルを学習する方法、並びに、それらを実行するためのコンピュータ及びコンピュータ・プログラム
JP6426971B2 (ja) * 2014-10-16 2018-11-21 日本放送協会 学習データ生成装置及びそのプログラム
US10552468B2 (en) * 2016-11-01 2020-02-04 Quid, Inc. Topic predictions based on natural language processing of large corpora
US10044647B1 (en) * 2018-03-09 2018-08-07 Capital One Services, Llc Systems and methods for controlling enrollment and secure persistent SMS texting account servicing with an intelligent assistant
US10685050B2 (en) * 2018-04-23 2020-06-16 Adobe Inc. Generating a topic-based summary of textual content
CN108563779B (zh) * 2018-04-25 2022-03-08 北京计算机技术及应用研究所 一种基于神经网络的无模板自然语言文本答案生成方法
CN109740167B (zh) * 2019-02-01 2020-03-17 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109933662B (zh) * 2019-02-15 2021-03-12 北京奇艺世纪科技有限公司 模型训练方法、信息生成方法、装置、电子设备和计算机可读介质
CN109992771B (zh) * 2019-03-13 2020-05-05 北京三快在线科技有限公司 一种文本生成的方法及装置
CN110276081B (zh) * 2019-06-06 2023-04-25 百度在线网络技术(北京)有限公司 文本生成方法、装置及存储介质
CN110457483B (zh) * 2019-06-21 2022-02-18 浙江大学 一种基于神经主题模型的长文本生成方法
CN110909179B (zh) * 2019-11-29 2022-07-08 思必驰科技股份有限公司 文本生成模型的优化方法及系统

Also Published As

Publication number Publication date
CN111581455A (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
CN113436620B (zh) 语音识别模型的训练方法、语音识别方法、装置、介质及设备
CN111625645B (zh) 文本生成模型的训练方法、装置和电子设备
CN112270200B (zh) 一种文本信息的翻译方法、装置、电子设备和存储介质
CN113327599B (zh) 语音识别方法、装置、介质及电子设备
CN113362811B (zh) 语音识别模型的训练方法、语音识别方法和装置
JP7520246B2 (ja) テキストを生成するための方法および装置
CN112650841A (zh) 信息处理方法、装置和电子设备
CN111898338B (zh) 文本生成方法、装置和电子设备
CN115908640A (zh) 生成图像的方法、装置、可读介质及电子设备
CN113591490B (zh) 信息处理方法、装置和电子设备
CN115270717A (zh) 一种立场检测方法、装置、设备及介质
CN114765025A (zh) 语音识别模型的生成方法、识别方法、装置、介质及设备
CN111581455B (zh) 文本生成模型的生成方法、装置和电子设备
CN115129877B (zh) 标点符号预测模型的生成方法、装置和电子设备
WO2023138361A1 (zh) 图像处理方法、装置、可读存储介质及电子设备
CN111653261A (zh) 语音合成方法、装置、可读存储介质及电子设备
CN111626044B (zh) 文本生成方法、装置、电子设备及计算机可读存储介质
CN111898658B (zh) 图像分类方法、装置和电子设备
CN111582456B (zh) 用于生成网络模型信息的方法、装置、设备和介质
CN110688508B (zh) 图文数据扩充方法、装置及电子设备
CN117376634B (zh) 一种短视频配乐方法、装置、电子设备和存储介质
CN111860518B (zh) 用于分割图像的方法、装置、设备和计算机可读介质
CN111933122B (zh) 语音识别方法、装置、电子设备和计算机可读介质
US20240330769A1 (en) Object processing method, device, readable medium and electronic device
CN116432650A (zh) 文本处理方法、装置、可读介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant