CN113642305A - 一种文本生成方法、装置、存储介质及电子设备 - Google Patents

一种文本生成方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN113642305A
CN113642305A CN202110839934.4A CN202110839934A CN113642305A CN 113642305 A CN113642305 A CN 113642305A CN 202110839934 A CN202110839934 A CN 202110839934A CN 113642305 A CN113642305 A CN 113642305A
Authority
CN
China
Prior art keywords
text
optimized
reward
model
reinforcement learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110839934.4A
Other languages
English (en)
Inventor
冉祥映
陆源源
汪沁
俞鸿飞
兰田
富饶
侯培旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202110839934.4A priority Critical patent/CN113642305A/zh
Publication of CN113642305A publication Critical patent/CN113642305A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

本说明书公开了一种文本生成方法、装置、存储介质及电子设备,本说明书实施例可以采用强化学习模型生成目标文本,在对强化学习模型进行训练时,可以将原始文本样本输入强化学习模型中的文本生成子模型,根据原始文本样本生成待优化目标文本。然后,可以根据待优化目标文本与标准信息,确定待优化目标文本的被关注程度。根据被关注程度,确定强化学习模型的至少一个奖励。根据至少一个奖励,确定强化学习模型的综合奖励。以综合奖励最大化为训练目标,对强化学习模型进行训练。在对强化学习模型进行训练的过程中,不需要依靠大量的标注文本,并且根据强化学习模型确定的奖励可以提高目标文本的被关注程度,从而提高目标文本的质量。

Description

一种文本生成方法、装置、存储介质及电子设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种文本生成方法、装置、存储介质及电子设备。
背景技术
如今,随着技术的发展,自然语言处理技术的应用越来越广泛。那么,通过自然语言处理技术所得到的自然语言文本更是随处可见,在这种情况下,自然语言文本的质量就显得十分重要。
以商家的推荐文本为例,现有技术中通常采用文本生成模型输出商家的推荐文本。在对文本生成模型进行训练时,只将商家信息输入该文本生成模型中,根据输入的商家信息生成待优化的推荐文本。以推荐文本与标注文本的差异最小化为训练目标,对该文本生成模型进行训练。
在对现有技术中的文本生成模型进行训练时,不仅需要依赖大量的训练样本和标注文本,而且文本生成模型只学习到如何根据商家信息生成推荐文本,并未考虑生成的推荐文本的质量优劣。因此,在使用该文本生成模型生成推荐文本时,容易生成质量差的推荐文本,从而影响用户体验。
发明内容
本说明书实施例提供一种文本生成方法、装置、存储介质及电子设备,以部分解决上述现有技术存在的问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种文本生成方法,包括:
获取原始文本样本和标准信息;
将所述原始文本样本输入强化学习模型中的文本生成子模型,通过所述文本生成子模型,根据所述原始文本样本生成待优化目标文本;
根据所述待优化目标文本与所述标准信息中的标准文本,确定所述待优化目标文本的被关注程度;
根据所述被关注程度,确定所述强化学习模型的至少一个奖励;
根据所述至少一个奖励,确定所述强化学习模型的综合奖励;
以所述综合奖励最大化为训练目标,对所述强化学习模型进行训练;
在所述强化学习模型训练完成之后,将获取到的原始文本输入所述文本生成子模型中,通过所述文本生成子模型输出目标文本。
可选地,所述标准信息还包括:商家信息。
可选地,根据所述被关注程度,确定所述强化学习模型的至少一个奖励,具体包括:
根据所述被关注程度,确定所述强化学习模型的第一奖励;
根据所述待优化目标文本与所述原始文本样本,确定所述待优化目标文本与所述原始文本样本之间的语义差异;
根据所述语义差异,确定所述强化学习模型的第二奖励;
根据所述待优化目标文本的语法,确定所述待优化目标文本的语言流畅度;
根据所述语言流畅度,确定所述强化学习模型的第三奖励;
根据所述待优化目标文本与所述商家信息,确定所述待优化目标文本与所述商家信息之间的关联关系;
根据所述关联关系,确定所述强化学习模型的第四奖励。
可选地,根据所述至少一个奖励,确定所述强化学习模型的综合奖励,具体包括:
将所述第一奖励、所述第二奖励、所述第三奖励和所述第四奖励进行加权求和,得到所述强化学习模型的综合奖励,其中,所述第一奖励的权重大于除所述第一奖励之外的其他奖励中任意奖励的权重。
可选地,所述强化学习模型还包括:文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型;
确定所述待优化目标文本的被关注程度,具体包括:
通过所述文本风格分类子模型,确定所述待优化目标文本被关注的概率;
根据所述概率,确定所述待优化目标文本的被关注程度;
确定所述待优化目标文本与所述原始文本样本之间的语义差异,具体包括:
通过所述文本内容子模型,确定所述待优化目标文本的语义内容与所述原始文本样本的语义内容之间的相似度;
根据所述相似度,确定所述待优化目标文本与所述原始文本样本之间的语义差异;
确定所述待优化目标文本的语言流畅度,具体包括:
通过所述文本语言子模型,确定所述待优化目标文本的语言流畅度;
确定所述待优化目标文本与所述商家信息之间的关联关系,具体包括:
通过所述文本匹配子模型,确定所述待优化目标文本与所述商家信息之间的相关度。
可选地,对所述强化学习模型进行训练,具体包括:
调整所述文本生成子模型的模型参数,并调整文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型中至少一个模型的模型参数。
可选地,对所述强化学习模型进行训练,具体包括:
调整所述文本生成子模型的模型参数。
可选地,所述方法还包括:
根据文本质量条件,对所述目标文本进行筛选;
根据筛选结果,确定最终目标文本。
本说明书提供的一种文本生成装置,包括:
获取模块,用于获取原始文本样本和标准信息;
待优化目标文本生成模块,用于将所述原始文本样本输入强化学习模型中的文本生成子模型,通过所述文本生成子模型,根据所述原始文本样本生成待优化目标文本;
第一确定模块,用于根据所述待优化目标文本与所述标准信息中的标准文本,确定所述待优化目标文本的被关注程度;
第二确定模块,用于根据所述被关注程度,确定所述强化学习模型的至少一个奖励;
第三确定模块,用于根据所述至少一个奖励,确定所述强化学习模型的综合奖励;
训练模块,用于以所述综合奖励最大化为训练目标,对所述强化学习模型进行训练;
目标文本生成模块,用于在所述强化学习模型训练完成之后,将获取到的原始文本输入所述文本生成子模型中,通过所述文本生成子模型输出目标文本。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的文本生成方法。
本说明书提供的一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的文本生成方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
本说明书实施例中可以采用强化学习模型生成目标文本,在对强化学习模型进行训练时,可以将原始文本样本输入强化学习模型中的文本生成子模型,根据原始文本样本生成待优化目标文本。然后,可以根据待优化目标文本与标准信息,确定待优化目标文本的被关注程度。根据被关注程度,确定强化学习模型的至少一个奖励。根据至少一个奖励,确定强化学习模型的综合奖励。以综合奖励最大化为训练目标,对强化学习模型进行训练。在对强化学习模型进行训练的过程中,不需要依靠大量的标注文本,并且根据强化学习模型确定的奖励可以提高目标文本的被关注程度,从而提高目标文本的质量。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书实施例提供的文本生成流程示意图;
图2为本说明书实施例提供的强化学习模型的结构示意图;
图3为本说明书实施例提供的文本生成装置结构示意图;
图4为本说明书实施例提供的电子设备的结构示意图。
具体实施方式
现有技术中,在对常规的文本生成模型进行训练时,需要获取不同商家信息以及各商家对应的标注文本,将不同商家信息输入文本生成模型,通过文本生成模型输出待优化文本,以待优化文本与对应的标注文本之间的差异最小化为训练目标,对文本生成模型进行训练。现有技术在对文本生成模型进行训练的过程中,需要严格依靠样本对来训练,即,一个商家信息对应该商家的标注文本。这样训练样本的获取比较困难,获取成本高。并且,现有技术中的文本生成模型只学习到如何根据商家信息和词库中的词语组词成句,并不考虑生成的文本的质量。所以,现有技术中的文本生成模型生成的文本的质量较差,影响用户的体验。其中,对于文本的质量主要考虑文本表达是否具有吸引力,将文本表达不具有吸引力的文本,作为低质量文本;将文本表达具有吸引力的文本,作为高质量文本。
而本说明书提供的文本生成方法旨在采用强化学习模型将低质量文本转换成高质量文本。在对强化学习模型进行训练时,根据低质量的文本生成待优化目标文本,根据待优化目标文本的文本内容、文本风格、文本流畅性和文本与商家信息的相关性,确定强化学习模型中的综合奖励。以综合奖励最大化为训练目标,对强化学习模型进行训练,以此提高目标文本的质量。
在本说明书实施例中,在强化学习模型训练过程中,不需要获取与低质量文本一一对应的标注文本,只需要根据每次反馈的奖励大小,不断调整强化学习模型的模型参数,以生成质量最好的目标文本,即,获得最优解。通过强化学习模型生成的目标文本比现有技术中生成的文本的质量更高,更具有实用价值。
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的文本生成流程示意图,包括:
S100:获取原始文本样本和标准信息。
在本说明书实施例中,可以采用强化学习模型根据低质量文本生成高质量文本。但在使用强化学习模型之前,需要对强化学习模型进行训练。其中,强化学习模型可包括:文本生成子模型。需要说明的是,本说明书中高质量文本可以指文本表达具有吸引力的文本,而低质量文本可以指文本表达不具有吸引力的普通文本。
具体的,针对文本库中任意文本,根据该文本中的标点符号,将该文本拆分成多个子文本。根据每个子文本的语义,筛选出符合预设条件的子文本,作为原始文本样本(即,低质量文本)。其中,预设条件可以是表达积极情感的文本。其中,原始文本样本也可以是商家评论区内用户的评论语句。同时,可以获取标准信息。其中,标准信息可以包括:标准文本和商家信息。标准文本可以是高质量文本,即,文本表达具有吸引力的文本。商家信息可以包括:商家类型、商家标签等信息。
对于标准文本的获取,可以获取人工撰写的高质量文本,也可以获取用户点击率较高的文本,还可以获取高质量的标题文本,甚至可以获取商家评论区中用户评论的高质量评论语句。其中,标准文本不需要与原始文本样本一一对应。
以用户的评论文本为例,针对每个商家,可以从该商家的评论区中抽取用户表达喜欢该商家的评论文本,并将评论文本作为原始文本样本。这时,抽取的评论文本只考虑评论文本语义是否表达了积极情感(即,正面评论),而不考虑评论文本的句式表达是否具有吸引力。即,抽取的评论文本可能存在句式不具有吸引力的普通评论文本,也可能存在句式具有吸引力的高质量评论文本。同时,还需要获取该商家的相关信息,比如:商家类型、商家标签等信息。另外,标准文本可以是与该商家相关的高质量文本,也可以是与该商家无关的高质量文本。
S102:将所述原始文本样本输入强化学习模型中的文本生成子模型,通过所述文本生成子模型,根据所述原始文本样本生成待优化目标文本。
在本说明书实施例中,在通过步骤S100获取到原始文本样本之后,将原始文本样本输入强化学习模型中的文本生成子模型。可以通过文本生成子模型,将原始文本样本转换成待优化目标文本。
需要说明的是,本说明书中的文本生成子模型可以是指针生成网络模型(Pointer-Generator Networks),也可以是其他的能够生成文本的模型,对此不作限制。
S104:根据所述待优化目标文本与所述标准信息中的标准文本,确定所述待优化目标文本的被关注程度。
在本说明书实施例中,待优化目标文本的被关注程度可以是指待优化目标文本的文本描述具有吸引力的程度。可以将待优化目标文本的文本描述与标准文本的文本描述进行比较,确定待优化目标文本的被关注程度。
具体的,可以计算待优化目标文本与标准文本之间的相似度,根据相似度,确定待优化目标文本的被关注程度。其中,相似度越大,待优化目标文本的被关注程度越高。
S106:根据所述被关注程度,确定所述强化学习模型的至少一个奖励。
S108:根据所述至少一个奖励,确定所述强化学习模型的综合奖励。
S110:以所述综合奖励最大化为训练目标,对所述强化学习模型进行训练。
在本说明书实施例中,可以直接将待优化目标文本与标准文本之间的相似度作为强化学习模型的第一奖励。其中,待优化目标文本与标准文本之间的相似度越大,第一奖励也越大。
在只考虑待优化目标文本的文本描述是否具有吸引力的情况下,可以将第一奖励作为综合奖励。然后,以综合奖励最大化为训练目标,调整文本生成子模型的模型参数。
但是,在实际应用中是不可能只考虑待优化目标文本的文本描述是否具有吸引力这一种情况,还需要考虑待优化目标文本的语义内容、语言流畅性以及目标文本与商家之间的关联关系。
因此,在对强化学习模型进行训练时,可以根据待优化目标文本的文本描述是否具有吸引力、语义内容、语言流畅性以及待优化目标文本与商家的关联关系中至少一个方面,确定强化学习模型的奖励。
对于语义内容,可以根据待优化目标文本与原始文本样本,确定待优化目标文本与原始文本样本之间的语义差异。根据语义差异,确定强化学习模型的第二奖励。其中,语义差异越大,第二奖励越小;语义差异越小,第二奖励越大。
进一步,可以计算待优化目标文本的语义内容与原始文本样本的语义内容的相似度,根据相似度确定待优化目标文本与原始文本样本之间的语义差异。
对于语言流畅性,可以根据待优化目标文本的语法,确定待优化目标文本的语言流畅度。根据语言流畅度,确定强化学习模型的第三奖励。其中,语言流畅度越大,第三奖励越大。
对于目标文本与商家之间的关联关系,可以根据待优化目标文本与商家信息,确定待优化目标文本与商家信息之间的关联关系。根据关联关系,确定强化学习模型的第四奖励。其中,待优化目标文本与商家信息之间的关联越密切,第四奖励越大。
进一步,可以计算待优化目标文本与指定商家信息之间的互信息或交叉熵,确定待优化目标文本与指定商家信息之间的关联关系。
然后,将第一奖励、第二奖励、第三奖励和第四奖励进行加权求和,得到综合奖励。
在进行加权求和时,由于本说明中更注重待优化目标文本的文本表达是否具有吸引力,所以,第一奖励的权重比其他三个奖励的权重都要大。
在确定了综合奖励之后,可以以综合奖励最大化为训练目标,调整强化学习模型中文本生成子模型的模型参数。
S112:在所述强化学习模型训练完成之后,将获取到的原始文本输入所述文本生成子模型中,通过所述文本生成子模型输出目标文本。
在本说明书实施例中,在将强化学习模型训练完成之后,可以将获取到的原始文本直接输入强化学习模型中的文本生成子模型,通过文本生成子模型输出高质量的目标文本。其中,原始文本可以是商家评论区中用户的评论语句。
比如:将“大骨火锅汤底非常香”输入文本生成子模型,通过文本生成子模型输出“大骨熬制的火锅汤底浓香四溢”。
在对强化学习模型训练时,由于综合奖励更注重文本描述是否具有吸引力,所以生成的目标文本在其他方面可能会存在问题。因此,在使用强化学习模型得到目标文本之后,可以根据文本质量条件,对多个目标文本进行筛选。根据筛选结果,确定最终的目标文本。其中,文本质量条件可包括:目标文本是否与指定商家相关,目标文本的语义内容是否表达情感积极的内容,目标文本的语言是否流畅等。
具体的,获取不同的原始文本,将不同的原始文本输入文本生成子模型中,通过文本生成子模型输出不同的目标文本。针对每个目标文本,根据文本质量条件,对该目标文本进行筛选,根据筛选结果,确定最终的目标文本。
针对不同的文本质量条件,可以按照不同的筛选顺序进行筛选。
在本说明书实施例中,以依次按照目标文本是否与指定商家相关、目标文本的语言是否流畅、目标文本的语义内容是否表达情感积极的内容的筛选顺序为例,对生成的目标文本进行筛选。
具体的,可以先通过词频-逆文本频率指数算法,获取代表指定商家的关键词,再针对每个目标文本,判断该目标文本中是否存在关键词。若该目标文本中不存在该关键词,则将该目标文本从所有目标文本中删除。并将剩下的目标文本作为第一目标文本。
进一步,通过语言模型,判断每个第一目标文本的语言表达是否流畅,根据判断结果,将语言表达不流畅的第一目标文本删除,并将剩下的第一目标文本作为第二目标文本。
再进一步,通过情感分析模型删除第二目标文本中情感负面的文本,得到最终的目标文本。
通过上述图1所示的方法可见,本说明书可以采用强化学习模型生成目标文本,在对强化学习模型进行训练时,可以将原始文本样本输入强化学习模型中的文本生成子模型,根据原始文本样本生成待优化目标文本。然后,可以根据待优化目标文本与标准信息,确定待优化目标文本的被关注程度。根据被关注程度,确定强化学习模型的至少一个奖励。根据至少一个奖励,确定强化学习模型的综合奖励。以综合奖励最大化为训练目标,对强化学习模型进行训练。在对强化学习模型进行训练的过程中,不需要依靠大量的标注文本,并且根据强化学习模型确定的综合奖励可以提高目标文本的被关注程度,从而提高目标文本的质量。
进一步的,本说明书实施例中提供一种强化学习模型的结构示意图,如图2所示。
在图2中,强化学习模型除了包括文本生成子模型之外,还包括文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型。
在如图1所示的步骤S106中,确定强化学习模型的至少一个奖励时,可以通过文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型分别确定一个奖励。
在实际应用中,为了提高强化学习模型训练的稳定性,可以预先将文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型进行单独训练。然后,将预先训练完成的文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型应用到强化学习模型中。
针对待优化目标文本的被关注程度,可以先根据低质量文本和标准文本,对文本风格分类子模型进行训练。然后,将训练完成的文本风格分类子模型应用到强化学习模型中。具体的,可以将待优化目标文本输入训练完成的文本风格分类子模型中,通过文本风格分类子模型输出待优化目标文本被关注的概率。根据概率,确定待优化目标文本的被关注程度。并且可以将待优化目标文本被关注的概率作为第一奖励。其中,概率越大,待优化目标文本的被关注程度越高,第一奖励越大。其中,文本风格分类模型可以是TextCNN、RNN等模型。
针对待优化目标文本的语义内容,可以将待优化目标文本与原始文本样本输入预先训练的文本内容模型,通过文本内容模型,根据待优化目标文本的语义内容与原始文本样本的语义内容,确定待优化目标文本与原始文本样本之间的相似度,并将相似度作为强化学习模型的第二奖励。其中,待优化目标文本与原始文本样本之间的相似度越大,待优化目标文本与原始文本样本之间的语义差异越大,第二奖励也越大。文本内容模型可以是词移距离模型等。
针对待优化目标文本的语言流畅性,将待优化目标文本输入预先训练的文本语言模型,通过文本语言模型,得到待优化目标文本的语言流畅度,并将语言流畅度作为强化学习模型的第三奖励。
针对待优化目标文本与指定商家之间的关联关系,可以将待优化目标文本与指定商家信息输入文本匹配模型,通过文本匹配模型,得到待优化目标文本与指定商家信息之间的相关度,并将相关度作为强化学习模型的第四奖励。其中,待优化目标文本与指定商家信息之间的相关度越大,待优化目标文本与指定商家信息之间的关联关系越密切,第四奖励越大。文本匹配模型可以是DSSM、ESIM等模型。
最后,可以将第一奖励、第二奖励、第三奖励和第四奖励中至少一个作为强化学习模型的综合奖励。
在对强化学习模型的不断训练中,待优化目标文本的文本描述与标准文本的文本描述越来越接近。在这种情况下,文本生成子模型的模型参数逐渐趋于平稳。为了使文本生成模型生成更好的目标文本,可以对强化学习模型进行优化。由于本说明书注重文本表达是否具有吸引力,所以在强化学习模型优化过程中可以固定文本生成子模型的模型参数,调整文本风格分类子模型的模型参数。
具体的,可以将待优化目标文本和标准文本输入文本风格分类子模型,通过文本风格分类子模型,将待优化目标文本与标准文本进行分类。至少以分类结果的准确性最高为训练目标,对文本风格分类子模型进行训练。将文本风格分类子模型训练完成之后,再调整文本生成子模型的模型参数,直至收敛。
除了上述将预先训练的文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型应用到强化学习模型之外,还可以将未训练的文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型参与到强化学习模型的训练过程中。
具体的,在对强化学习模型训练的过程中,在调整文本生成子模型的模型参数的同时,还需要调整文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型中至少一个模型的模型参数。
进一步,以未训练的文本风格分类子模型为例,针对强化学习模型中的文本生成子模型和文本风格分类模型,对整个强化学习模型进行训练。其中,可以将第一奖励作为强化学习模型的综合奖励。
具体的,将原始文本样本输入文本生成子模型,通过文本生成子模型输出待优化目标文本。然后,将待优化目标文本与标准信息中的标准文本输入文本风格分类子模型中,通过文本风格分类子模型,将待优化目标文本与标准文本进行风格分类。以待优化目标文本与标准文本之间的风格差异的最小化、分类结果的准确性最高为训练目标,对强化学习模型进行训练。其中,风格差异可以指被关注程度的差异。
在这样的训练过程中,文本生成子模型与文本风格分类模型可以形成对抗训练,以此提高强化学习模型的文本生成效率。
以上为本说明书实施例提供的文本生成方法,基于同样的思路,本说明书还提供了相应的装置、存储介质和电子设备。
图3为本说明书实施例提供的一种文本生成装置的结构示意图,所述装置包括:
获取模块301,用于获取原始文本样本和标准信息;
待优化目标文本生成模块302,用于将所述原始文本样本输入强化学习模型中的文本生成子模型,通过所述文本生成子模型,根据所述原始文本样本生成待优化目标文本;
第一确定模块303,用于根据所述待优化目标文本与所述标准信息中的标准文本,确定所述待优化目标文本的被关注程度;
第二确定模块304,用于根据所述被关注程度,确定所述强化学习模型的至少一个奖励;
第三确定模块305,用于根据所述至少一个奖励,确定所述强化学习模型的综合奖励;
训练模块306,用于以所述综合奖励最大化为训练目标,对所述强化学习模型进行训练;
目标文本生成模块307,用于在所述强化学习模型训练完成之后,将获取到的原始文本输入所述文本生成子模型中,通过所述文本生成子模型输出目标文本。
可选地,所述标准信息还包括:商家信息。
可选地,所述第二确定模块304,具体根据所述被关注程度,确定所述强化学习模型的第一奖励;根据所述待优化目标文本与所述原始文本样本,确定所述待优化目标文本与所述原始文本样本之间的语义差异;根据所述语义差异,确定所述强化学习模型的第二奖励;根据所述待优化目标文本的语法,确定所述待优化目标文本的语言流畅度;根据所述语言流畅度,确定所述强化学习模型的第三奖励;根据所述待优化目标文本与所述商家信息,确定所述待优化目标文本与所述商家信息之间的关联关系;根据所述关联关系,确定所述强化学习模型的第四奖励。
可选地,所述第三确定模块305,具体用于将所述第一奖励、所述第二奖励、所述第三奖励和所述第四奖励进行加权求和,得到所述强化学习模型的综合奖励,其中,所述第一奖励的权重大于除所述第一奖励之外的其他奖励中任意奖励的权重。
可选地,所述强化学习模型还包括:文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型。
可选地,所述第一确定模块303,具体用于通过所述文本风格分类子模型,确定所述待优化目标文本被关注的概率;根据所述概率,确定所述待优化目标文本的被关注程度。
可选地,所述第二确定模块304,具体用于通过所述文本内容子模型,确定所述待优化目标文本的语义内容与所述原始文本样本的语义内容之间的相似度;根据所述相似度,确定所述待优化目标文本与所述原始文本样本之间的语义差异。
可选地,所述第二确定模块304,具体用于通过所述文本语言子模型,确定所述待优化目标文本的语言流畅度。
可选地,所述第二确定模块304,具体用于通过所述文本匹配子模型,确定所述待优化目标文本与所述商家信息之间的相关度。
可选地,所述训练模块306,具体用于调整所述文本生成子模型的模型参数,并调整文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型中至少一个模型的模型参数。
可选地,所述训练模块306,具体用于调整所述文本生成子模型的模型参数。
可选地,所述目标文本生成模块307,还用于根据文本质量条件,对所述目标文本进行筛选;根据筛选结果,确定最终目标文本。
本说明书还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可用于执行上述图1提供的文本生成方法。
基于图1所示的文本生成方法,本说明书实施例还提供了图4所示的无人设备的结构示意图。如图4,在硬件层面,该无人设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的文本生成方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种文本生成方法,其特征在于,包括:
获取原始文本样本和标准信息;
将所述原始文本样本输入强化学习模型中的文本生成子模型,通过所述文本生成子模型,根据所述原始文本样本生成待优化目标文本;
根据所述待优化目标文本与所述标准信息中的标准文本,确定所述待优化目标文本的被关注程度;
根据所述被关注程度,确定所述强化学习模型的至少一个奖励;
根据所述至少一个奖励,确定所述强化学习模型的综合奖励;
以所述综合奖励最大化为训练目标,对所述强化学习模型进行训练;
在所述强化学习模型训练完成之后,将获取到的原始文本输入所述文本生成子模型中,通过所述文本生成子模型输出目标文本。
2.如权利要求1所述的方法,其特征在于,所述标准信息还包括:商家信息;
根据所述被关注程度,确定所述强化学习模型的至少一个奖励,具体包括:
根据所述被关注程度,确定所述强化学习模型的第一奖励;
根据所述待优化目标文本与所述原始文本样本,确定所述待优化目标文本与所述原始文本样本之间的语义差异;
根据所述语义差异,确定所述强化学习模型的第二奖励;
根据所述待优化目标文本的语法,确定所述待优化目标文本的语言流畅度;
根据所述语言流畅度,确定所述强化学习模型的第三奖励;
根据所述待优化目标文本与所述商家信息,确定所述待优化目标文本与所述商家信息之间的关联关系;
根据所述关联关系,确定所述强化学习模型的第四奖励。
3.如权利要求2所述的方法,其特征在于,根据所述至少一个奖励,确定所述强化学习模型的综合奖励,具体包括:
将所述第一奖励、所述第二奖励、所述第三奖励和所述第四奖励进行加权求和,得到所述强化学习模型的综合奖励,其中,所述第一奖励的权重大于除所述第一奖励之外的其他奖励中任意奖励的权重。
4.如权利要求2所述的方法,其特征在于,所述强化学习模型还包括:文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型;
确定所述待优化目标文本的被关注程度,具体包括:
通过所述文本风格分类子模型,确定所述待优化目标文本被关注的概率;
根据所述概率,确定所述待优化目标文本的被关注程度;
确定所述待优化目标文本与所述原始文本样本之间的语义差异,具体包括:
通过所述文本内容子模型,确定所述待优化目标文本的语义内容与所述原始文本样本的语义内容之间的相似度;
根据所述相似度,确定所述待优化目标文本与所述原始文本样本之间的语义差异;
确定所述待优化目标文本的语言流畅度,具体包括:
通过所述文本语言子模型,确定所述待优化目标文本的语言流畅度;
确定所述待优化目标文本与所述商家信息之间的关联关系,具体包括:
通过所述文本匹配子模型,确定所述待优化目标文本与所述商家信息之间的相关度。
5.如权利要求4所述的方法,其特征在于,对所述强化学习模型进行训练,具体包括:
调整所述文本生成子模型的模型参数,并调整文本风格分类子模型、文本内容子模型、文本语言子模型和文本匹配子模型中至少一个模型的模型参数。
6.如权利要求1所述的方法,其特征在于,对所述强化学习模型进行训练,具体包括:
调整所述文本生成子模型的模型参数。
7.如权利要求1所述的方法,其特征在于,所述方法还包括:
根据文本质量条件,对所述目标文本进行筛选;
根据筛选结果,确定最终目标文本。
8.一种文本生成装置,其特征在于,包括:
获取模块,用于获取原始文本样本和标准信息;
待优化目标文本生成模块,用于将所述原始文本样本输入强化学习模型中的文本生成子模型,通过所述文本生成子模型,根据所述原始文本样本生成待优化目标文本;
第一确定模块,用于根据所述待优化目标文本与所述标准信息中的标准文本,确定所述待优化目标文本的被关注程度;
第二确定模块,用于根据所述被关注程度,确定所述强化学习模型的至少一个奖励;
第三确定模块,用于根据所述至少一个奖励,确定所述强化学习模型的综合奖励;
训练模块,用于以所述综合奖励最大化为训练目标,对所述强化学习模型进行训练;
目标文本生成模块,用于在所述强化学习模型训练完成之后,将获取到的原始文本输入所述文本生成子模型中,通过所述文本生成子模型输出目标文本。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-7任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-7任一项所述的方法。
CN202110839934.4A 2021-07-22 2021-07-22 一种文本生成方法、装置、存储介质及电子设备 Withdrawn CN113642305A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110839934.4A CN113642305A (zh) 2021-07-22 2021-07-22 一种文本生成方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110839934.4A CN113642305A (zh) 2021-07-22 2021-07-22 一种文本生成方法、装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN113642305A true CN113642305A (zh) 2021-11-12

Family

ID=78418250

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110839934.4A Withdrawn CN113642305A (zh) 2021-07-22 2021-07-22 一种文本生成方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN113642305A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460463A (zh) * 2018-11-15 2019-03-12 平安科技(深圳)有限公司 基于数据处理的模型训练方法、装置、终端及存储介质
CN111291175A (zh) * 2020-01-22 2020-06-16 大连海事大学 一种基于策略梯度算法的自动生成提交需求摘要的方法
CN112000769A (zh) * 2020-08-17 2020-11-27 东北林业大学 一种基于对抗网络的服装商品广告文案生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460463A (zh) * 2018-11-15 2019-03-12 平安科技(深圳)有限公司 基于数据处理的模型训练方法、装置、终端及存储介质
CN111291175A (zh) * 2020-01-22 2020-06-16 大连海事大学 一种基于策略梯度算法的自动生成提交需求摘要的方法
CN112000769A (zh) * 2020-08-17 2020-11-27 东北林业大学 一种基于对抗网络的服装商品广告文案生成方法

Similar Documents

Publication Publication Date Title
CN106503192B (zh) 基于人工智能的命名实体识别方法及装置
CN110457449B (zh) 在线训练模型的方法、装置、设备及存储介质
CN110032730B (zh) 一种文本数据的处理方法、装置和设备
CN115952272B (zh) 一种生成对话信息的方法、装置、设备及可读存储介质
CN111144126A (zh) 一种语义分析模型的训练方法、语义分析方法及装置
CN116227474B (zh) 一种对抗文本的生成方法、装置、存储介质及电子设备
Dethlefs et al. Conditional random fields for responsive surface realisation using global features
Kenny Human and machine translation
CN116628198A (zh) 一种文本生成模型的训练方法、装置、介质及电子设备
CN114332873A (zh) 一种识别模型的训练方法及装置
CN113887206B (zh) 一种模型训练及关键词提取方法及装置
CN113887235A (zh) 一种信息推荐的方法及装置
CN116630480B (zh) 一种交互式文本驱动图像编辑的方法、装置和电子设备
Wang et al. Data augmentation for internet of things dialog system
CN117216271A (zh) 一种文章文本处理方法、装置以及设备
CN116127328A (zh) 一种对话状态识别模型的训练方法、装置、介质及设备
CN113887234B (zh) 一种模型训练以及推荐方法及装置
CN108519986B (zh) 一种网页生成方法、装置及设备
CN113642305A (zh) 一种文本生成方法、装置、存储介质及电子设备
CN110321433B (zh) 确定文本类别的方法及装置
CN112579768A (zh) 一种情感分类模型训练方法、文本情感分类方法及装置
CN106776529B (zh) 业务情感分析方法及装置
CN116501852B (zh) 一种可控对话模型训练方法、装置、存储介质及电子设备
CN115017915B (zh) 一种模型训练、任务执行的方法及装置
CN117369783B (zh) 一种安全代码生成模型的训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20211112