CN115909354A - 文本生成模型的训练方法、文本获取方法及装置 - Google Patents

文本生成模型的训练方法、文本获取方法及装置 Download PDF

Info

Publication number
CN115909354A
CN115909354A CN202211417275.6A CN202211417275A CN115909354A CN 115909354 A CN115909354 A CN 115909354A CN 202211417275 A CN202211417275 A CN 202211417275A CN 115909354 A CN115909354 A CN 115909354A
Authority
CN
China
Prior art keywords
text
original
character
noise
disturbance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211417275.6A
Other languages
English (en)
Other versions
CN115909354B (zh
Inventor
丁思宇
赵晏彬
王硕寰
孙宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202211417275.6A priority Critical patent/CN115909354B/zh
Publication of CN115909354A publication Critical patent/CN115909354A/zh
Application granted granted Critical
Publication of CN115909354B publication Critical patent/CN115909354B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

本公开提出了一种文本生成模型的训练方法、文本获取方法及装置,涉及自然语言处理和深度学习等人工智能领域,方法包括基于原始文本对初始文本生成模型进行训练,得到候选文本生成模型;对原始文本进行扰动,以获取原始文本的噪声文本;获取原始文本和噪声文本的字符映射关系;根据原始文本、噪声文本和字符映射关系,对候选文本生成模型进行训练,以得到训练好的目标文本生成模型。本公开中,提高了目标文本生成模型输出的文本内容与人们惯用的阅读习惯之间的适配度,优化了人们的阅读体验,提高了目标文本生成模型在重复文本内容生成场景下的鲁棒性,优化了文本生成模型的实用性和适用性。

Description

文本生成模型的训练方法、文本获取方法及装置
技术领域
本公开涉及数据处理领域,尤其涉及自然语言处理、深度学习等人工智能领域,适用于文本生成场景。
背景技术
随着技术的发展,在文本生成的场景下,可以通过预训练语言模型实现文本内容的生成和输出,其中,预训练语言模型可以基于最大似然估计的解码策略输出需要生成的文本。
然而,基于最大似然估计的解码策略的预训练语言模型输出的文本内容中,存在可能包括重复的文本内容,对于人们的阅读体验造成了一定程度的影响。
发明内容
本公开提出了一种文本生成模型的训练方法、文本获取方法及装置。
根据本公开的第一方面,提出了一种文本生成模型的训练方法,方法包括:基于原始文本对初始文本生成模型进行训练,得到候选文本生成模型;对所述原始文本进行扰动,以获取所述原始文本的噪声文本;获取所述原始文本和所述噪声文本的字符映射关系;根据所述原始文本、所述噪声文本和所述字符映射关系,对所述候选文本生成模型进行训练,以得到训练好的目标文本生成模型。
根据本公开的第二方面,提出了一种文本获取方法,方法包括:获取目标文本生成模型,其中,所述目标文本生成模型基于上述第一方面提出的文本生成模型的训练方法得到;获取文本生成的需求信息,并根据所述需求信息获取所述目标文本生成模型输出的目标文本。
根据本公开的第三方面,提出了一种文本生成模型的训练装置,装置包括:第一训练模块,用于基于原始文本对初始文本生成模型进行训练,得到候选文本生成模型;扰动模块,用于对所述原始文本进行扰动,以获取所述原始文本的噪声文本;第一获取模块,用于获取所述原始文本和所述噪声文本的字符映射关系;第二训练模块,用于根据所述原始文本、所述噪声文本和所述字符映射关系,对所述候选文本生成模型进行训练,以得到训练好的目标文本生成模型。
根据本公开的第四方面,提出了一种文本获取装置,装置包括:第二获取模块,用于获取目标文本生成模型,其中,所述目标文本生成模型基于上述第三方面提出的文本生成模型的训练装置得到;生成模块,用于获取文本生成的需求信息,并根据所述需求信息获取所述目标文本生成模型输出的目标文本。
根据本公开的第五方面,提出了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述第一方面所述的文本生成模型的训练方法和/或上述第二方面所述的文本获取方法。
根据本公开的第六方面,提出了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述第一方面所述的文本生成模型的训练方法和/或上述第二方面所述的文本获取方法。
根据本公开的第七方面,提出了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述第一方面所述的文本生成模型的训练方法和/或上述第二方面所述的文本获取方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开一实施例的文本生成模型的训练方法的流程示意图;
图2为本公开另一实施例的文本生成模型的训练方法的流程示意图;
图3为本公开一实施例的原始文本和噪声文本的示意图;
图4为本公开另一实施例的文本生成模型的训练方法的流程示意图;
图5为本公开一实施例的文本生成模型的训练的示意图;
图6为本公开另一实施例的文本生成模型的训练方法的流程示意图;
图7为本公开另一实施例的原始文本和噪声文本的示意图;
图8为本公开另一实施例的原始文本和噪声文本的示意图;
图9为本公开另一实施例的原始文本和噪声文本的示意图;
图10为本公开另一实施例的原始文本和噪声文本的示意图;
图11为本公开一实施例的文本获取方法的流程示意图;
图12为本公开一实施例的文本生成模型的训练装置的结构示意图;
图13为本公开一实施例的文本获取装置的结构示意图;
图14为本公开一实施例的电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
数据处理(data processing),数据处理是系统工程和自动控制的基本环节,数据是对事实、概念或指令的一种表达形式,可由人工或自动化装置进行处理。数据经过解释并赋予一定的意义之后,便成为信息。数据处理是对数据的采集、存储、检索、加工、变换和传输。数据处理的基本目的是从大量的、可能是杂乱无章的、难以理解的数据中抽取并推导出对于某些特定的人们来说是有价值、有意义的数据。
自然语言处理(Natural Language Processing,NLP),是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统。
深度学习(Deep Learning,DL),是机器学习领域中一个新的研究方向,深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
人工智能(Artificial Intelligence,AI),是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。
图1为本公开一实施例的文本生成模型的训练方法的流程示意图,如图1所示,该方法包括:
S101,基于原始文本对初始文本生成模型进行训练,得到候选文本生成模型。
实现中,可以通过文本生成模型生成文本生成需求对应的文本内容,在该过程中,文本生成模型可以采用相关技术中的最大似然估计的解码策略,实现文本内容的生成,在该场景下,采用最大似然估计的解码策略实现文本生成的模型,存在可能输出重复的文本内容。
本公开实施例中,可以基于文本生成模型输出的重复文本内容对文本生成模型进行再次的模型训练,从而实现文本生成模型输出重复的文本内容的概率的降低。
可选地,可以获取待训练的初始文本生成模型,并基于原始文本对初始文本生成模型进行文本内容生成的模型训练,并将训练好的文本生成模型确定为候选文本生成模型。
S102,对原始文本进行扰动,以获取原始文本的噪声文本。
实现中,候选文本生成模型在文本生成场景下存在可能输出重复的文本内容,在该场景下,为了降低候选文本生成模型输出重复文本内容的概率,使得对候选文本生成模型进行训练后得到的目标文本生成模型输出的文本内容更加符合人们的阅读习惯,可以获取原始文本的噪声文本,并基于噪声文本对候选文本生成模型进行训练。
可选地,可以对组成原始文本的字符进行随机地扰动,其中,可以基于候选文本生成模型输出的重复的文本内容,对原始文本中的字符进行扰动,进而将扰动后得到的文本内容,确定为原始文本的噪声文本。
需要说明的是,噪声文本可以为与原始文本语义相同或者相近,但存在至少部分的组成字符不同的文本内容,也可以为与原始文本存在部分组成字符相同但是语义不同的文本内容,此处不做具体限定。
作为一种示例,设定原始文本为“不论是在艺术手法还是在思维深度上,四大名著都代表了中国古典小说的巅峰,是悠悠中国文学史上灿烂辉煌的一笔。研读四大名著,在怡情悦性的同时,也让我们更深刻地理解自己的民族和文化。”
在该场景下,可以对该原始文本进行扰动处理,得到扰动处理后的文本内容“在艺术手法和思维深度两个方面,四大名著都代表着中国古代文学的巅峰,是悠悠中国文学史上灿烂辉煌的一笔。通过研读四大名著,不仅能够怡情悦性,还能让我们对自己的民族和文化有更深刻地理解。”并将该扰动处理后得到的文本内容确定为原始文本的噪声文本。
S103,获取原始文本和噪声文本的字符映射关系。
本公开实施例中,组成原始文本的字符与组成噪声文本的字符之间存在映射关系,可以将该映射关系确定为原始文本和噪声文本之间的字符映射关系。
作为一种示例,设定原始文本为“研读四大名著,在怡情悦性的同时,也让我们更深刻地理解自己的民族和文化。”
该原始文本的噪声文本为“通过研读四大名著,不仅能够怡情悦性,还能让我们对自己的民族和文化有更深刻地理解。”
在该示例中,可以分别获取组成原始文本的各字符与组成噪声文本的各字符之间的映射关系,从而得到原始文本与噪声文本之间的映射关系。
比如,可以获取原始文本中的字符“研读”,与噪声文本中的字符“研读”之间的映射关系,以及原始文本中的剩余字符与噪声文本中的剩余字符之间的映射关系,基于组成原始文本的全部字符与组成噪声文本的全部字符之间的映射关系,得到原始文本与噪声文本之间的字符映射关系。
S104,根据原始文本、噪声文本和字符映射关系,对候选文本生成模型进行训练,以得到训练好的目标文本生成模型。
为了降低候选文本生成模型输出重复文本的概率,可以基于原始文本和噪声文本,以及原始文本和噪声文本之间的字符映射关系,对候选文本生成模型进行训练。其中,可以将原始文本、噪声文本以及字符映射关系输入候选文本生成模型中对候选生成模型进行训练。
本公开实施例中,候选文本生成模型可以基于字符映射关系,确定原始文本与噪声文本中存在映射关系的字符组,并学习字符组内的原始文本的字符与噪声文本的字符之间的关系以及差异。
可选地,基于学习到的字符组内的原始文本的字符与噪声文本的字符之间的关系以及差异,获取候选文本生成模型的训练损失,并基于该训练损失对候选文本生成模型进行优化,并返回继续迭代,直至获取训练好的目标文本生成模型。
本公开提出的文本生成模型的训练方法,对初始文本生成模型进行训练得到候选文本生成模型,并对训练初始文本生成模型的原始文本进行扰动,得到原始文本的噪声文本。获取原始文本和噪声文本之间的字符映射关系,并基于原始文本、噪声文本以及字符映射关系对候选文本生成模型进行训练,直至训练结束得到训练好的目标文本生成模型。本公开中,基于原始文本和噪声文本对候选文本生成模型进行训练,提高了目标文本生成模型输出的文本内容与人们惯用的阅读习惯之间的适配度,优化了人们的阅读体验,提高了目标文本生成模型在重复文本内容生成场景下的鲁棒性,优化了文本生成模型的实用性和适用性。
上述实施例中,关于字符映射关系的获取,可结合图2进一步理解,图2为本公开另一实施例的文本生成模型的训练方法的流程示意图,如图2所示,该方法包括:
S201,获取候选文本生成模型生成重复内容的惩罚函数,并根据惩罚函数,确定原始文本与噪声文本的映射策略。
本公开实施例中,候选文本生成模型存在生成重复内容对应的惩罚函数,为了降低候选文本生成模型的训练成本,可以采用相关技术中的惩罚函数,作为候选文本生成模型的惩罚函数。
可选地,可以采用复制(ditto)策略下的重复内容的惩罚函数,作为候选文本生成模型进行训练时使用的惩罚函数。
可选地,可以采用相关技术中的外点惩罚函数作为候选文本生成模型在进行模型训练时使用的惩罚函数。
作为一种示例,候选文本生成模型生成重复内容的惩罚函数L可以如下所示:
Figure BDA0003939106540000061
上述公式中,X为原始文本扰动n+1次得到的噪声文本集合,其中,X=(x0.0,...,x0,l,x1.0,...,x1,l,x2.0,...,x2,l,...,xN.0,...,xN,l),l为原始文本和噪声文本的文本长度。
由上述公式可知,输入上述惩罚函数的公式中进行计算的噪声文本与原始文本的文本长度相同,在该场景下,若噪声文本与原始文本的文本长度不同,则无法将上述惩罚函数作为候选文本生成模型的训练过程中的惩罚函数。
进一步地,为了实现候选文本生成模型对上述惩罚函数的复用,可以基于噪声文本与原始文本的文本长度相同的要求,确定原始文本与噪声文本的映射策略,基于该映射策略使得噪声文本可以在文本长度与原始文本的文本长度不同的情况下,仍然可以使用上述惩罚函数作为候选文本生成模型的训练使用的生成重复内容的惩罚函数。
可以理解为,基于该映射策略构建的原始文本与噪声文本之间的映射关系,使得候选文本生成模型可以在噪声文本与原始文本的文本长度不同的情况下,依然可以学习到具备映射关系的字符之间的关系以及差异,从而实现以降低候选文本生成模型输出重复的文本内容为目的的模型训练。
S202,根据映射策略,获取原始文本与噪声文本的字符映射关系。
可选地,可以获取原始文本中的扰动原始字符,和噪声文本中的扰动噪声字符。
本公开实施例中,可以通过对原始文本的扰动处理得到噪声文本,在该过程中,可以将原始文本中被扰动的字符确定为原始文本中的扰动原始字符,并将基于扰动原始字符所得到的噪声文本中的字符,确定为噪声文本中的扰动噪声字符。
比如,设定原始文本为“研读四大名著,可以让我们更深刻地理解自己的民族和文化”,通过对该原始文本中的部分字符进行扰动,得到原始文本的噪声文本为“阅读四大名著,可以让我们更深刻地理解自己的宣传教育和文化”。
其中,在对原始文本进行扰动处理的过程中,对原始文本中的字符“研读”进行了扰动处理,则可以将字符“研读”确定为原始文本中的扰动原始字符。
相应地,对原始文本中的扰动原始字符“研读”进行扰动得到的噪声文本中的字符为“阅读”,则可以将字符“阅读”确定为该噪声文本中的扰动噪声字符。
可选的,响应于映射策略指示原始文本的第一文本长度与噪声文本的第二文本长度相同,获取扰动原始字符在原始文本中的第一字符位置,扰动噪声字符在噪声文本中的第二字符位置,原始文本中的非扰动原始字符的第三字符位置,和噪声文本中非扰动噪声字符的第四字符位置。
本公开实施例中,在使用上述惩罚函数L作为候选文本生成模型的重复内容生成的惩罚函数的场景下,原始文本与噪声文本之间的映射策略可以为原始文本的文本长度与噪声文本的文本长度相同。
其中,可以将原始文本的文本长度标识为第一文本长度,噪声文本的文本长度标识为第二文本长度。
在对原始文本中的部分字符进行扰动处理的场景下,可以分别获取原始文本中的扰动原始字符在原始文本中字符位置,并标识为第一字符位置。相应地,获取扰动原始字符进行扰动处理后得到的噪声文本中的扰动噪声字符在噪声文本中的字符位置,并标识为第二字符位置。
相应地,可以获取原始文本中非扰动原始字符的字符位置,并标识为第三字符位置,以及噪声文本中非扰动噪声字符的字符位置,标识为第四字符位置。
需要说明的是,原始文本中的非扰动原始字符与噪声文本中的非扰动噪声字符相同。
可选地,根据第一字符位置、第二字符位置、第三字符位置和第四字符位置,获取原始文本和噪声文本的字符映射关系。
本公开实施例中,为了实现对上述惩罚函数L的复用,可以构建第一字符位置和第二字符位置的第一位置映射关系,和第三字符位置和第四字符位置之间的第二位置映射关系。
其中,可以构建第一字符位置与第二字符位置上的映射关系,并将其确定为第一字符位置与第二字符位置之间的第一位置映射关系,并基于第一位置映射关系,得到第一字符位置上的扰动原始字符与第二字符位置上的扰动噪声字符之间的字符映射关系。
以图3所示的原始文本和噪声文本作为示例,如图3所示,图3中的原始文本的扰动原始字符为“民”和“族”,其对应的噪声文本中的扰动噪声字符为“宣传”和“教育”,由图3可知,可以分别构建扰动原始字符“民”和“族”在原始文本中的第一字符位置,与扰动噪声字符“宣传”和“教育”在噪声文本中的第二字符位置之间的第一位置映射关系,从而得到扰动原始字符“民”与扰动噪声字符“宣传”之间的字符映射关系,以及扰动原始字符“族”与扰动噪声字符“教育”之间的字符映射关系。
相应地,还可以构建第三字符位置与第四字符位置上的映射关系,并将其确定为第三字符位置与第四字符位置之间的第二位置映射关系,并基于第二位置映射关系,得到第三字符位置上的非扰动原始字符与第四字符位置上的非扰动噪声字符之间的字符映射关系。
依然以图3所示的原始文本和噪声文本作为示例,如图3所示,图3中的原始文本的非扰动原始字符为“名”和“著”,其对应的噪声文本中的非扰动噪声字符为“名”和““著”,由图3可知,可以分别构建非扰动原始字符为“名”和“著”在原始文本中的第三字符位置,与非扰动噪声字符为“名”和“著”在噪声文本中的第四字符位置之间的第二位置映射关系,从而得到非扰动原始字符为“名”与非扰动噪声字符为“名”之间的字符映射关系,以及非扰动原始字符“著”与非扰动噪声字符“著”之间的字符映射关系。
可选地,基于第一位置映射关系和第二位置映射关系,获取原始本文和噪声文本的字符映射关系。
本公开实施例中,第一位置映射关系为原始文本中的第一字符位置与噪声文本中的第二字符位置之间的位置映射关系,在该场景下,可以确定位于第一字符位置上的扰动原始字符,与位于第二字符位置上的扰动噪声字符具备映射关系。
相应地,第二位置映射关系为原始文本中的第三字符位置与噪声文本中的第四字符位置之间的位置映射关系,在该场景下,可以确定位于第三字符位置上的非扰动原始字符,与位于第四字符位置上的非扰动噪声字符具备映射关系。
进一步地,可以将上述获取到的扰动原始字符与扰动噪声字符之间的映射关系,与非扰动原始字符与非扰动噪声字符之间的映射关系进行整合,从而得到原始文本中全部字符与噪声文本中的全部字符之间的映射关系,并将其确定为原始文本与噪声文本之间的字符映射关系。
本公开提出的文本生成模型的训练方法,获取候选文本生成模型生成重复内容的惩罚函数,并基于惩罚函数确定原始文本与噪声文本之间的映射策略,进而得到原始文本与噪声文本之间的字符映射关系。本公开中,基于原始文本与噪声文本之间的字符映射关系的构建,在不限制噪声文本的文本长度的场景下,实现了要求噪声文本与原始文本的文本长度相同的惩罚函数的复用,使得候选文本生成模型可以基于要求噪声文本与原始文本的文本长度相同的惩罚函数实现模型的训练,降低了候选文本生成模型的训练成本。
上述实施例中,关于候选文本生成模型的训练,可结合图4进一步理解,图4为本公开另一实施例的文本生成模型的训练方法的流程示意图,如图4所示,该方法包括:
S401,将原始文本、噪声文本和字符映射关系输入候选文本生成模型,并获取候选文本生成模型根据字符映射关系,得到的原始文本中的样本原始字符在噪声文本中的样本映射噪声字符。
可选地,可以将原始文本、噪声文本以及原始文本与噪声文本之间的字符映射关系,输入候选文本生成模型进行训练。
在该场景下,候选文本生成模型可以从字符映射关系中,获取样本原始字符的目标映射关系,并将目标映射关系在噪声文本中关联的噪声字符,确定为样本原始字符的样本映射噪声字符。
本公开实施例中,原始文本与噪声文本之间的字符映射关系包括有原始文本中的全部的字符与噪声文本中的全部的字符之间的映射关系,则可以从字符映射关系中,获取样本原始字符对应的映射关系,作为目标映射关系,并将目标映射关系在噪声文本中关联的噪声字符,确定为样本原始字符的对应的样本映射噪声字符。
依然以图3为例,设定样本原始字符为“民”,由图3中的原始文本与噪声文本之间的字符映射关系中,获取样本原始字符“民”的目标映射关系,并将该目标映射关系在噪声文本中关联的噪声字符“宣传”,确定为样本原始字符“民”在噪声文本中的样本映射噪声字符。
S402,获取候选文本生成模型得到的样本原始字符与样本映射噪声字符之间的字符损失,并根据字符损失获取候选文本生成模型的训练损失。
本公开实施例中,基于对候选文本生成模型的训练,可以实现候选文本生成模型输出重复的文本内容的概率,如图5所示,设定基于图5所示的原始文本“I LOVE ORANGES”,以及噪声文本“I LOVE ORANGES”对图5所示的候选文本生成模型进行训练。
如图5所示,基于原始文本“I LOVE ORANGES”,以及噪声文本“I LOVE ORANGES”对候选文本生成模型的训练,可以使得训练结束后得到的文本生成模型输出的文本内容中出现“LOVE”以及“ORANGES”的概率伴随文本内容输出的次数下降。
为更好理解,可结合图5所示,其中,设定第1次输出文本生成内容中出现“LOVE”的概率为p1,第2次输出文本生成内容中出现“LOVE”的概率为p2,第3次输出文本生成内容中出现“LOVE”的概率为p3,则由图5所示的p1>p2>p3可知,伴随文本内容生成次数的增加,文本生成模型输出的文本内容中出现“LOVE”的概率呈下降趋势。
相应地,设定第1次输出文本生成内容中出现“ORANGES”的概率为q1,第2次输出文本生成内容中出现“ORANGES”的概率为q2,第3次输出文本生成内容中出现“ORANGES”的概率为q3,则由图5所示的q1>q2>q3可知,伴随文本内容生成次数的增加,文本生成模型输出的文本内容中出现“ORANGES”的概率呈下降趋势。
在该场景下,将原始文本、噪声文本以及字符映射关系输入候选文本生成模型之后,候选文本生成模型可以基于字符映射关系确定样本原始字符以及该样本原始字符映射的样本映射噪声字符,并基于候选文本生成模型中的各处理层,学习样本原始字符与样本噪声字符之间的差异以及关系,进而得到样本原始字符与样本噪声字符之间的字符损失。
可选地,在上述惩罚函数L的基础上,可以获取候选文本生成模型对应的重复内容的惩罚函数L1,公式如下:
Figure BDA0003939106540000091
上述公式中,X为原始文本扰动n+1次得到的噪声文本集合,其中,X=(x0.0,...,x0,l,x1.0,...,x1,l,x2.0,...,x2,l,...,xN.0,...,xN,l),l为原始文本和噪声文本的文本长度,f(l)为字符映射关系对应的映射函数。
可选地,候选文本生成模型获取样本原始字符与样本映射噪声字符之间的字符损失后,可以基于全部的字符损失得到原始文本与噪声文本之间的损失,并将其作为候选文本生成模型的训练损失。
S403,根据训练损失调整候选文本生成模型的模型参数,并返回使用下一原始样本的样本原始字符和下一原始文本的噪声文本中的样本映射噪声字符,对模型参数调整后的候选文本生成模型继续进行训练,直至训练结束得到训练好的目标文本生成模型。
本公开实施例中,可以根据当前轮次的候选文本生成模型训练得到的训练损失,对候选文本生成模型的模型参数进行调整。
进一步地,使用下一原始文本与下一原始文本对应的噪声文本对模型参数调整后的候选文本生成模型继续进行模型训练,直至训练结束。
可选地,可以基于训练的轮次设定候选文本生成模型的训练结束条件,当某一轮次的模型训练结束后,总的训练轮次满足了预设的训练结束条件,则可以结束候选文本生成模型的训练,并将该轮次训练结束后得到的候选文本生成模型,作为训练好的目标文本生成模型。
可选地,还可以基于模型的训练输出设定对应的训练结束条件,当某一轮次的训练中模型的输出满足预设的训练结束条件时,则可以结束候选文本生成模型的训练,并将该轮次训练结束后得到的候选文本生成模型,作为训练好的目标文本生成模型。
本公开提出的候选文本生成模型的训练方法,将原始文本、噪声文本与字符映射关系输入候选文本生成模型进行模型训练,并通过样本原始字符与样本映射噪声字符之间的字符损失,得到候选文本生成模型的训练损失,并基于训练损失对候选文本生成模型进行迭代优化,直至训练结束得到训练好的目标文本生成模型。本公开中,通过原始文本与噪声文本之间的字符映射关系,在不限制噪声文本的文本长度的场景下,实现了要求噪声文本与原始文本的文本长度相同的惩罚函数的复用,通过原始文本与噪声文本对候选文本生成模型进行训练,降低了训练好的目标文本生成模型在文本生成场景下输出重复的文本内容的概率,提高了目标文本生成模型输出的文本内容与人们惯用的阅读习惯之间的适配度,进而提高了目标文本生成模型在重复文本内容生成场景下的鲁棒性,优化了文本生成模型的实用性和适用性。
上述实施例中,关于原始文本的扰动得到噪声文本,可结合图6进一步理解,图6为本公开另一实施例的文本生成模型的训练方法的流程示意图,如图6所示,该方法包括:
S601,获取候选扰动策略,并从候选扰动策略中随机选择至少一个作为原始文本的扰动策略。
实现中,文本内容存在多种扰动方法,其中,可以将能够实现文本内容的扰动从而生成对应的噪声文本内容的方法进行整合,从而得到原始文本的候选扰动策略。
本公开实施例中,候选扰动策略可以包括随机扰动策略、相同和/相近语义扰动策略、字符减少扰动策略、字符增加扰动策略、字符内排序调整扰动策略和字符间排序调整扰动策略等。
在该场景下,可以从候选扰动策略中选择至少一种,作为原始文本的扰动策略,也就是说,扰动策略,包括候选扰动策略中的随机扰动策略、相同和/相近语义扰动策略、字符减少扰动策略、字符增加扰动策略、字符内排序调整扰动策略和字符间排序调整扰动策略中的至少一种。
可以理解为,扰动策略可以包括候选扰动策略中的一种扰动策略,也可以包括候选扰动策略中的两种以上的扰动策略的任意组合。
S602,根据扰动策略,获取原始文本中的扰动原始字符,并对扰动原始字符进行扰动处理,以获取原始文本的噪声文本。
可选地,响应于扰动策略为随机扰动策略,获取原始文本中获取第一随机原始字符作为扰动原始字符,并从预设的词表中随机获取第一词表字符替代原始文本中的扰动原始字符,以获取原始文本的噪声文本。
本公开实施例中,当扰动策略包括候选扰动策略中包括的随机扰动策略时,可以从原始文本中随机获取至少一个字符,作为第一随机原始字符,并将其确定为原始文本在随机扰动策略下的扰动原始字符。
在该场景下,可以从预设的字符组成的词表中随机选择至少一个字符,作为第一词表字符,并通过第一词表字符对原始文本中的扰动原始字符进行替代,从而得到原始文本在随机扰动策略下的噪声文本。
作为一种示例,设定原始文本为“不论是在艺术手法还是在思维深度上,它们都代表了中国古典小说的巅峰,是悠悠中国文学史上灿烂辉煌的一笔。研读四大名著,在怡情悦性的同时,也让我们更深刻地理解自己的民族和文化。”
基于随机扰动策略从该原始文本中随机选择至少一个第一随机原始字符作为扰动原始字符,并从预设的词表中随机选择至少一个第一词表字符对扰动原始字符进行替代,进而得到该原始文本基于随机扰动策略得到的噪声文本“无论是在艺术手法还是在考虑深度上,它们都代表了中国古典小说的巅峰,是太庙中国文学史上灿烂辉煌的一笔。研读四大名著,在宣传教育的同时,也让我们更深刻地理解自己的民族和文化。”
如图3所示,可以从图3的原始文本中获取第一随机原始字符“研”以及“民”和“族”作为原始文本中的扰动原始字符,并从预设的词表中随机获取第一词表字符“阅”、“宣传”以及“教育”,其中,第一词表字符“阅”对“研”进行替代,第一词表字符“宣传”对“民”进行替代,以及第一词表字符“教育”对“族”进行替代,进而得到图3所示的噪声文本。
可选地,响应于扰动策略为相同和/相近语义扰动策略,从原始文本中获取第二随机原始字符作为扰动原始字符,并从预设的词表中获取与扰动原始字符语义匹配的第二词表字符替代原始文本中的扰动原始字符,以获取原始文本的噪声文本。
本公开实施例中,当扰动策略包括候选扰动策略中包括的相同和/相近语义扰动策略时,可以从原始文本中随机获取至少一个字符,作为第二随机原始字符,并将其确定为原始文本在相同和/相近语义扰动策略下的扰动原始字符。
在该场景下,可以将预设的词表中的字符与扰动原始字符进行语义匹配,从而得到与扰动原始字符语义相同和/或相近的字符,作为与扰动原始字符语义匹配的第二词表字符,并通过第二词表字符对原始文本中的扰动原始字符进行替代,从而得到原始文本在相同和/相近语义扰动策略下的噪声文本。
作为一种示例,设定原始文本为“不论是在艺术手法还是在思维深度上,它们都代表了中国古典小说的巅峰,是悠悠中国文学史上灿烂辉煌的一笔。研读四大名著,在怡情悦性的同时,也让我们更深刻地理解自己的民族和文化。”
基于相同和/相近语义扰动策略从该原始文本中随机选择至少一个第二随机原始字符作为扰动原始字符,并从预设的词表中选择与扰动原始字符语义相同和/或相近的第二词表字符对扰动原始字符进行替代,进而得到该原始文本基于相同和/相近语义扰动策略得到的噪声文本“不论是在艺术技巧还是在思考深度上,它们都代表了中国古典小说的顶峰,是漫漫中国文学史上光辉灿烂的一笔。研读四大名著,在怡情养性的同时,也让我们更深刻地理解自己的民族和文化。”
如图7所示,可以从图7的原始文本中获取第二随机原始字符“研”、“深刻”以及“理解”作为原始文本中的扰动原始字符,并从预设的词表中与扰动原始字符语义相同和/或相近的第二词表字符“阅”、“深入”和“认识”,其中,第二词表字符“阅”对“研”进行替代,第二词表字符“深入”对“深刻”进行替代,以及第二词表字符“认识”对“理解”进行替代,进而得到图7所示的噪声文本。
可选地,响应于扰动策略为字符减少扰动策略,从原始文本中获取第三随机原始字符作为扰动原始字符,并将扰动原始字符从原始文本中删除,以获取原始文本的噪声文本。
本公开实施例中,当扰动策略包括候选扰动策略中包括的字符减少扰动策略时,可以从原始文本中随机获取一个字符,作为第三随机原始字符,并将其确定为原始文本在字符减少扰动策略下的扰动原始字符。
在该场景下,可以将原始文本中的扰动原始字符进行删除,从而得到原始文本在字符减少扰动策略下的噪声文本。
如图8所示,可以从图8的原始文本中获取第三随机原始字符“可以”作为原始文本中的扰动原始字符,并将其进行删除,进而得到图8所示的噪声文本。
可选地,响应于扰动策略为字符增加扰动策略,从原始文本中获取第四随机原始字符作为扰动原始字符,并从预设的词表中随机获取第三词表字符添加至扰动原始字符在原始文本中的关联位置,以获取原始文本的噪声文本。
本公开实施例中,当扰动策略包括候选扰动策略中包括的字符增加扰动策略时,可以从原始文本中随机获取一个字符,作为第四随机原始字符,并将其确定为原始文本在字符增加扰动策略下的扰动原始字符。
在该场景下,可以从预设的词表中的随机获取一个或者多个字符,作为第三词表字符,并将第三词表字符添加至扰动原始字符在原始文本中的关联位置,从而得到原始文本在字符增加扰动策略下的噪声文本。
其中,关联位置可以为基于人们对原始文本的阅读顺序下扰动原始字符的前叙相邻字符位置,和/或扰动原始字符的后续相邻字符位置。
如图8所示,可以从图8的原始文本中获取第四随机原始字符“研”和“自”作为原始文本中的扰动原始字符,并从预设的词表中随机获取至少一个字符的第三词表字符“阅读”和“和认识”,在该场景下,可以将第三词表字符“阅读”放置于原始文本中扰动原始字符“研”的关联位置中的前叙相邻字符位置,以及将第三词表字符“和认识”放置于原始文本中扰动原始字符“自”的关联位置中的前叙相邻字符位置,从而得到原始文本在字符增加扰动策略下的噪声文本。
作为一种示例,设定原始文本为“不论是在艺术手法还是在思维深度上,它们都代表了中国古典小说的巅峰,是悠悠中国文学史上灿烂辉煌的一笔。研读四大名著,在怡情悦性的同时,也让我们更深刻地理解自己的民族和文化。”
基于字符减少扰动策略从该原始文本中随机选择至少一个第三随机原始字符作为扰动原始字符,并将其从原始文本中删除。和/或,基于字符增加扰动策略从该原始文本中随机选择至少一个第四随机原始字符作为扰动原始字符,并从预设的词表中随机获取至少一个第三词表字符添加至原始文本中的扰动原始字符的关联位置,进而得到原始文本对应的噪声文本“无论是在艺术手法还是在上,它们都代表了古典小说的巅峰,是悠悠中国文学史上灿烂辉煌的一笔。通过研读四大名著,在怡情悦性的同时,也让我们更深刻地理解自己的民族和文化。”
可选地,响应于扰动策略为字符内排序调整扰动策略,从原始文本中获取第五随机原始字符作为扰动原始字符,并调整扰动原始字符包括的全部字符的排序,以获取原始文本的噪声文本。
本公开实施例中,当扰动策略包括候选扰动策略中包括的字符内排序调整扰动策略时,可以从原始文本中随机获取多个字符,作为第五随机原始字符,并将其确定为原始文本在字符内排序调整扰动策略下的扰动原始字符。
在该场景下,可以对扰动原始字符可以为多个字符,其中,可以对扰动原始字符包括的多个字符的排序进行调整,从而得到原始文本在字符内排序调整扰动策略下的噪声文本。
作为一种示例,设定原始文本为“不论是在艺术手法还是在思维深度上,它们都代表了中国古典小说的巅峰,是悠悠中国文学史上灿烂辉煌的一笔。研读四大名著,在怡情悦性的同时,也让我们更深刻地理解自己的民族和文化。”
基于字符内排序调整扰动策略从该原始文本中随机选择多个第五随机原始字符作为扰动原始字符,并扰动原始字符中包括的多个字符的排序进行调整,进而得到原始文本对应的噪声文本“不论是在术艺手法还是在思维深度上,它们都代表了中国小说古典的巅峰,是悠悠中国史文学上灿烂辉煌的一笔。研读著四名大,在怡情悦性的同时,也让我们更深刻地解理自己的民族和文化。”
如图9所示,可以从图9的原始文本中获取第五随机原始字符“民族”作为原始文本中的扰动原始字符,并对扰动原始字符“民族”进行内部的字符排序的调整,调整为“族民”,进而得到图9所示的噪声文本。
可选地,响应于扰动策略为字符间排序调整扰动策略,从原始文本中获取第六随机原始字符作为扰动原始字符,并调整扰动原始字符在原始文本中的排序,以获取原始文本的噪声文本。
本公开实施例中,当扰动策略包括候选扰动策略中包括的字符间排序调整扰动策略时,可以从原始文本中随机获取多个字符,作为第六随机原始字符,并将其确定为原始文本在字符内排序调整扰动策略下的扰动原始字符。
在该场景下,可以对多个扰动原始字符在原始文本中的排序进行调整,从而得到原始文本在字符间排序调整扰动策略下的噪声文本。
作为一种示例,设定原始文本为“不论是在艺术手法还是在思维深度上,它们都代表了中国古典小说的巅峰,是悠悠中国文学史上灿烂辉煌的一笔。研读四大名著,在怡情悦性的同时,也让我们更深刻地理解自己的民族和文化。”
基于字符间排序调整扰动策略从该原始文本中随机选择多个第六随机原始字符作为扰动原始字符,并将该多个扰动原始字符在原始文本中的排序进行调整,进而得到原始文本对应的噪声文本“不论是在思维深度还是在艺术手法上,它们都代表了中国古典小说的巅峰,是悠悠中国文学史上灿烂辉煌的一笔。研读四大名著,在怡情悦性时,也让我们理解自己的民族和文化。”
如图10所示,可以从图10的原始文本中获取第六随机原始字符“民族”和“文化”作为原始文本中的扰动原始字符,并对扰动原始字符“民族”和“文化”在原始文本中的排序进行调整,进而得到图10所示的噪声文本。
本公开提出的文本生成模型的训练方法,获取候选扰动策略并从候选扰动策略中确定至少一个作为原始文本的扰动策略,进而根据原始文本的扰动策略确定原始文本中的扰动原始字符,并对其进行扰动处理,从而得到原始文本的噪声文本。本公开中,通过多种扰动策略对原始文本中的扰动原始字符进行扰动处理,优化了噪声文本的多样性,使得噪声文本与实际场景中候选文本生成模型所输出的重复的文本内容之间的相似度得以提升,进而使得基于噪声文本进行训练所得到的目标文本生成模型输出的文本内容与人们惯用的阅读习惯之间适配程度得以提高。
本公开还提出一种文本获取方法,可结合图11理解,图11为本公开一实施例的文本获取方法的流程示意图,如图11所示,该方法包括:
S1101,获取目标文本生成模型。
本公开实施例中,目标文本生成模型通过上述图1至图10的实施例提出的文本生成模型的训练方法训练得到。
S1102,获取文本生成的需求信息,并根据需求信息获取目标文本生成模型输出的目标文本。
可选地,可以获取文本生成场景下的需求信息,并基于图1至图10的实施例提出的文本生成模型的训练方法训练好的目标文本生成模型,输出与文本生成的需求信息匹配的文本内容,作为目标文本。
本公开提出的文本获取方法,通过训练好的目标文本生成模型获取满足文本生成的需求信息的目标文本,降低了文本生成场景下模型输出重复的文本内容的概率,优化了模型输出的文本内容与人们惯用的阅读习惯之间的适配性。
上述几种实施例提出的文本生成模型的训练方法相对应,本公开的一个实施例还提出了一种文本生成模型的训练系统,由于本公开实施例提出的文本生成模型的训练系统与上述几种实施例提出的文本生成模型的训练方法相对应,因此上述文本生成模型的训练方法的实施方式也适用于本公开实施例提出的文本生成模型的训练系统,在下述实施例中不再详细描述。
图12为本公开一实施例的文本生成模型的训练装置的结构示意图,如图12所示,文本生成模型的训练装置1200,包括第一训练模块121、扰动模块122、第一获取模块123和第二训练模块124,其中:
第一训练模块121,用于基于原始文本对初始文本生成模型进行训练,得到候选文本生成模型;
扰动模块122,用于对原始文本进行扰动,以获取原始文本的噪声文本;
第一获取模块123,用于获取原始文本和噪声文本的字符映射关系;
第二训练模块124,用于根据原始文本、噪声文本和字符映射关系,对候选文本生成模型进行训练,以得到训练好的目标文本生成模型。
本公开实施例中,第一获取模块123,还用于:获取候选文本生成模型生成重复内容的惩罚函数,并根据惩罚函数,确定原始文本与噪声文本的映射策略;根据映射策略,获取原始文本与噪声文本的字符映射关系。
本公开实施例中,第一获取模块123,还用于:获取原始文本中的扰动原始字符,和噪声文本中的扰动噪声字符;响应于映射策略指示原始文本的第一文本长度与噪声文本的第二文本长度相同,获取扰动原始字符在原始文本中的第一字符位置,扰动噪声字符在噪声文本中的第二字符位置,原始文本中的非扰动原始字符的第三字符位置,和噪声文本中非扰动噪声字符的第四字符位置;根据第一字符位置、第二字符位置、第三字符位置和第四字符位置,获取原始文本和噪声文本的字符映射关系。
本公开实施例中,第一获取模块123,还用于:构建第一字符位置和第二字符位置的第一位置映射关系,和第三字符位置和第四字符位置之间的第二位置映射关系;基于第一位置映射关系和第二位置映射关系,获取原始本文和噪声文本的字符映射关系。
本公开实施例中,第二训练模块124,还用于:将原始文本、噪声文本和字符映射关系输入候选文本生成模型,并获取候选文本生成模型根据字符映射关系,得到的原始文本中的样本原始字符在噪声文本中的样本映射噪声字符;获取候选文本生成模型得到的样本原始字符与样本映射噪声字符之间的字符损失,并根据字符损失获取候选文本生成模型的训练损失;根据训练损失调整候选文本生成模型的模型参数,并返回使用下一原始样本的样本原始字符和下一原始文本的噪声文本中的样本映射噪声字符,对模型参数调整后的候选文本生成模型继续进行训练,直至训练结束得到训练好的目标文本生成模型。
本公开实施例中,第二训练模块124,还用于:从字符映射关系中,获取样本原始字符的目标映射关系,并将目标映射关系在噪声文本中关联的噪声字符,确定为样本原始字符的样本映射噪声字符。
本公开实施例中,扰动模块122,还用于:获取候选扰动策略,并从候选扰动策略中随机选择至少一个作为原始文本的扰动策略;根据扰动策略,获取原始文本中的扰动原始字符,并对扰动原始字符进行扰动处理,以获取原始文本的噪声文本。
本公开实施例中,扰动策略,包括候选扰动策略中的随机扰动策略、相同和/相近语义扰动策略、字符减少扰动策略、字符增加扰动策略、字符内排序调整扰动策略和字符间排序调整扰动策略中的至少一种。
本公开实施例中,扰动模块122,还用于:响应于扰动策略为随机扰动策略,获取原始文本中获取第一随机原始字符作为扰动原始字符,并从预设的词表中随机获取第一词表字符替代原始文本中的扰动原始字符,以获取原始文本的噪声文本。
本公开实施例中,扰动模块122,还用于:响应于扰动策略为相同和/相近语义扰动策略,从原始文本中获取第二随机原始字符作为扰动原始字符,并从预设的词表中获取与扰动原始字符语义匹配的第二词表字符替代原始文本中的扰动原始字符,以获取原始文本的噪声文本。
本公开实施例中,扰动模块122,还用于:响应于扰动策略为字符减少扰动策略,从原始文本中获取第三随机原始字符作为扰动原始字符,并将扰动原始字符从原始文本中删除,以获取原始文本的噪声文本。
本公开实施例中,扰动模块122,还用于:响应于扰动策略为字符增加扰动策略,从原始文本中获取第四随机原始字符作为扰动原始字符,并从预设的词表中随机获取第三词表字符添加至扰动原始字符在原始文本中的关联位置,以获取原始文本的噪声文本。
本公开实施例中,扰动模块122,还用于:响应于扰动策略为字符内排序调整扰动策略,从原始文本中获取第五随机原始字符作为扰动原始字符,并调整扰动原始字符包括的全部字符的排序,以获取原始文本的噪声文本。
本公开实施例中,扰动模块122,还用于:响应于扰动策略为字符间排序调整扰动策略,从原始文本中获取第六随机原始字符作为扰动原始字符,并调整扰动原始字符在原始文本中的排序,以获取原始文本的噪声文本。
本公开提出的文本生成模型的训练装置,对初始文本生成模型进行训练得到候选文本生成模型,并对训练初始文本生成模型的原始文本进行扰动,得到原始文本的噪声文本。获取原始文本和噪声文本之间的字符映射关系,并基于原始文本、噪声文本以及字符映射关系对候选文本生成模型进行训练,直至训练结束得到训练好的目标文本生成模型。本公开中,基于原始文本和噪声文本对候选文本生成模型进行训练,提高了目标文本生成模型输出的文本内容与人们惯用的阅读习惯之间的适配度,优化了人们的阅读体验,提高了目标文本生成模型在重复文本内容生成场景下的鲁棒性,优化了文本生成模型的实用性和适用性。
上述几种实施例提出的文本获取方法相对应,本公开的一个实施例还提出了一种文本获取系统,由于本公开实施例提出的文本获取系统与上述几种实施例提出的文本获取方法相对应,因此上述文本获取方法的实施方式也适用于本公开实施例提出的文本获取系统,在下述实施例中不再详细描述。
图13为本公开一实施例的文本生成模型的训练装置的结构示意图,如图13所示,文本获取装置1300,包括第二获取模块131和生成模块132,其中:
第二获取模块131,用于获取目标文本生成模型,其中,目标文本生成模型基于图1至图10的实施例提出的文本生成模型的训练装置得到;
生成模块132,用于获取文本生成的需求信息,并根据需求信息获取目标文本生成模型输出的目标文本。
本公开提出的文本获取装置,通过训练好的目标文本生成模型获取满足文本生成的需求信息的目标文本,降低了文本生成场景下模型输出重复的文本内容的概率,优化了模型输出的文本内容与人们惯用的阅读习惯之间的适配性。
根据本公开的实施例,本公开还提出了一种电子设备、一种可读存储介质和一种计算机程序产品。
图14示出了可以用来实施本公开的实施例的示例电子设备1400的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图14所示,设备1400包括计算单元1401,其可以根据存储在只读存储器(ROM)1402中的计算机程序或者从存储单元1408加载到随机访问存储器(RAM)1403中的计算机程序,来执行各种适当的动作和处理。在RAM 1403中,还可存储设备1400操作所需的各种程序和数据。计算单元1401、ROM 1402以及RAM 1403通过总线1404彼此相连。输入/输出(I/O)接口1405也连接至总线1404。
设备1400中的多个部件连接至I/O接口1405,包括:输入单元1406,例如键盘、鼠标等;输出单元1406,例如各种类型的显示器、扬声器等;存储单元1408,例如磁盘、光盘等;以及通信单元1409,例如网卡、调制解调器、无线通信收发机等。通信单元1409允许设备1400通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1401可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1401的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1401执行上文所描述的各个方法和处理,例如文本生成模型的训练方法和/或文本获取方法。例如,在一些实施例中,文本生成模型的训练方法和/或文本获取方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1408。在一些实施例中,计算机程序的部分或者全部可以经由ROM1402和/或通信单元1409而被载入和/或安装到设备1400上。当计算机程序加载到RAM 1403并由计算单元1401执行时,可以执行上文描述的文本生成模型的训练方法和/或文本获取方法的一个或多个步骤。备选地,在其他实施例中,计算单元1401可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行文本生成模型的训练方法和/或文本获取方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提出给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提出与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提出给计算机。其它种类的装置还可以用于提出与用户的交互;例如,提出给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (33)

1.一种文本生成模型的训练方法,其中,所述方法包括:
基于原始文本对初始文本生成模型进行训练,得到候选文本生成模型;
对所述原始文本进行扰动,以获取所述原始文本的噪声文本;
获取所述原始文本和所述噪声文本的字符映射关系;
根据所述原始文本、所述噪声文本和所述字符映射关系,对所述候选文本生成模型进行训练,以得到训练好的目标文本生成模型。
2.根据权利要求1所述的方法,其中,所述获取所述原始文本和所述噪声文本的字符映射关系,包括:
获取所述候选文本生成模型生成重复内容的惩罚函数,并根据所述惩罚函数,确定所述原始文本与所述噪声文本的映射策略;
根据所述映射策略,获取所述原始文本与所述噪声文本的所述字符映射关系。
3.根据权利要求2所述的方法,其中,所述根据所述映射策略,获取所述原始文本与所述噪声文本的所述字符映射关系,包括:
获取所述原始文本中的扰动原始字符,和所述噪声文本中的扰动噪声字符;
响应于所述映射策略指示所述原始文本的第一文本长度与所述噪声文本的第二文本长度相同,获取所述扰动原始字符在所述原始文本中的第一字符位置,所述扰动噪声字符在所述噪声文本中的第二字符位置,所述原始文本中的非扰动原始字符的第三字符位置,和所述噪声文本中非扰动噪声字符的第四字符位置;
根据所述第一字符位置、所述第二字符位置、所述第三字符位置和所述第四字符位置,获取所述原始文本和所述噪声文本的所述字符映射关系。
4.根据权利要求3所述的方法,其中,所述根据所述第一字符位置、所述第二字符位置、所述第三字符位置和所述第四字符位置,获取所述原始文本和所述噪声文本的所述字符映射关系,包括:
构建所述第一字符位置和所述第二字符位置的第一位置映射关系,和所述第三字符位置和所述第四字符位置之间的第二位置映射关系;
基于所述第一位置映射关系和所述第二位置映射关系,获取所述原始本文和所述噪声文本的所述字符映射关系。
5.根据权利要求1-4中任一项所述的方法,其中,所述根据所述原始文本、所述噪声文本和所述字符映射关系,对所述候选文本生成模型进行训练,以得到训练好的目标文本生成模型,包括:
将所述原始文本、所述噪声文本和所述字符映射关系输入所述候选文本生成模型,并获取所述候选文本生成模型根据所述字符映射关系,得到的所述原始文本中的样本原始字符在所述噪声文本中的样本映射噪声字符;
获取所述候选文本生成模型得到的所述样本原始字符与所述样本映射噪声字符之间的字符损失,并根据所述字符损失获取所述候选文本生成模型的训练损失;
根据所述训练损失调整所述候选文本生成模型的模型参数,并返回使用下一原始样本的样本原始字符和下一原始文本的噪声文本中的样本映射噪声字符,对模型参数调整后的候选文本生成模型继续进行训练,直至训练结束得到训练好的目标文本生成模型。
6.根据权利要求5所述的方法,其中,所述根据所述字符映射关系,获取所述原始文本中的样本原始字符在所述噪声文本中的样本映射噪声字符,包括:
从所述字符映射关系中,获取所述样本原始字符的目标映射关系,并将所述目标映射关系在所述噪声文本中关联的噪声字符,确定为所述样本原始字符的所述样本映射噪声字符。
7.根据权利要求1所述的方法,其中,所述对所述原始文本进行扰动,以获取所述原始文本的噪声文本,包括:
获取候选扰动策略,并从所述候选扰动策略中随机选择至少一个作为所述原始文本的所述扰动策略;
根据所述扰动策略,获取所述原始文本中的扰动原始字符,并对所述扰动原始字符进行扰动处理,以获取所述原始文本的所述噪声文本。
8.根据权利要求7所述的方法,其中,所述扰动策略,包括所述候选扰动策略中的随机扰动策略、相同和/相近语义扰动策略、字符减少扰动策略、字符增加扰动策略、字符内排序调整扰动策略和字符间排序调整扰动策略中的至少一种。
9.根据权利要求8所述的方法,其中,所述根据所述扰动策略,获取所述原始文本中的扰动原始字符,并对所述扰动原始字符进行扰动处理,以获取所述原始文本的所述噪声文本,包括:
响应于所述扰动策略为随机扰动策略,获取所述原始文本中获取第一随机原始字符作为所述扰动原始字符,并从预设的词表中随机获取第一词表字符替代所述原始文本中的所述扰动原始字符,以获取所述原始文本的所述噪声文本。
10.根据权利要求8所述的方法,其中,所述根据所述扰动策略,获取所述原始文本中的扰动原始字符,并对所述扰动原始字符进行扰动处理,以获取所述原始文本的所述噪声文本,包括:
响应于所述扰动策略为相同和/相近语义扰动策略,从所述原始文本中获取第二随机原始字符作为所述扰动原始字符,并从预设的词表中获取与所述扰动原始字符语义匹配的第二词表字符替代所述原始文本中的所述扰动原始字符,以获取所述原始文本的所述噪声文本。
11.根据权利要求8所述的方法,其中,所述根据所述扰动策略,获取所述原始文本中的扰动原始字符,并对所述扰动原始字符进行扰动处理,以获取所述原始文本的所述噪声文本,包括:
响应于所述扰动策略为字符减少扰动策略,从所述原始文本中获取第三随机原始字符作为所述扰动原始字符,并将所述扰动原始字符从所述原始文本中删除,以获取所述原始文本的所述噪声文本。
12.根据权利要求8所述的方法,其中,所述根据所述扰动策略,获取所述原始文本中的扰动原始字符,并对所述扰动原始字符进行扰动处理,以获取所述原始文本的所述噪声文本,包括:
响应于所述扰动策略为字符增加扰动策略,从所述原始文本中获取第四随机原始字符作为所述扰动原始字符,并从预设的词表中随机获取第三词表字符添加至所述扰动原始字符在原始文本中的关联位置,以获取所述原始文本的所述噪声文本。
13.根据权利要求8所述的方法,其中,所述根据所述扰动策略,获取所述原始文本中的扰动原始字符,并对所述扰动原始字符进行扰动处理,以获取所述原始文本的所述噪声文本,包括:
响应于所述扰动策略为字符内排序调整扰动策略,从所述原始文本中获取第五随机原始字符作为所述扰动原始字符,并调整所述扰动原始字符包括的全部字符的排序,以获取所述原始文本的所述噪声文本。
14.根据权利要求8所述的方法,其中,所述根据所述扰动策略,获取所述原始文本中的扰动原始字符,并对所述扰动原始字符进行扰动处理,以获取所述原始文本的所述噪声文本,包括:
响应于所述扰动策略为字符间排序调整扰动策略,从所述原始文本中获取第六随机原始字符作为所述扰动原始字符,并调整所述扰动原始字符在所述原始文本中的排序,以获取所述原始文本的所述噪声文本。
15.一种文本获取方法,其中,所述方法包括:
获取目标文本生成模型,其中,所述目标文本生成模型基于权利要求1-14任一项所述的文本生成模型的训练方法得到;
获取文本生成的需求信息,并根据所述需求信息获取所述目标文本生成模型输出的目标文本。
16.一种文本生成模型的训练装置,其中,所述装置包括:
第一训练模块,用于基于原始文本对初始文本生成模型进行训练,得到候选文本生成模型;
扰动模块,用于对所述原始文本进行扰动,以获取所述原始文本的噪声文本;
第一获取模块,用于获取所述原始文本和所述噪声文本的字符映射关系;
第二训练模块,用于根据所述原始文本、所述噪声文本和所述字符映射关系,对所述候选文本生成模型进行训练,以得到训练好的目标文本生成模型。
17.根据权利要求16所述的装置,其中,所述第一获取模块,还用于:
获取所述候选文本生成模型生成重复内容的惩罚函数,并根据所述惩罚函数,确定所述原始文本与所述噪声文本的映射策略;
根据所述映射策略,获取所述原始文本与所述噪声文本的所述字符映射关系。
18.根据权利要求17所述的装置,其中,所述第一获取模块,还用于:
获取所述原始文本中的扰动原始字符,和所述噪声文本中的扰动噪声字符;
响应于所述映射策略指示所述原始文本的第一文本长度与所述噪声文本的第二文本长度相同,获取所述扰动原始字符在所述原始文本中的第一字符位置,所述扰动噪声字符在所述噪声文本中的第二字符位置,所述原始文本中的非扰动原始字符的第三字符位置,和所述噪声文本中非扰动噪声字符的第四字符位置;
根据所述第一字符位置、所述第二字符位置、所述第三字符位置和所述第四字符位置,获取所述原始文本和所述噪声文本的所述字符映射关系。
19.根据权利要求18所述的装置,其中,所述第一获取模块,还用于:
构建所述第一字符位置和所述第二字符位置的第一位置映射关系,和所述第三字符位置和所述第四字符位置之间的第二位置映射关系;
基于所述第一位置映射关系和所述第二位置映射关系,获取所述原始本文和所述噪声文本的所述字符映射关系。
20.根据权利要求16-19中任一项所述的装置,其中,所述第二训练模块,还用于:
将所述原始文本、所述噪声文本和所述字符映射关系输入所述候选文本生成模型,并获取所述候选文本生成模型根据所述字符映射关系,得到的所述原始文本中的样本原始字符在所述噪声文本中的样本映射噪声字符;
获取所述候选文本生成模型得到的所述样本原始字符与所述样本映射噪声字符之间的字符损失,并根据所述字符损失获取所述候选文本生成模型的训练损失;
根据所述训练损失调整所述候选文本生成模型的模型参数,并返回使用下一原始样本的样本原始字符和下一原始文本的噪声文本中的样本映射噪声字符,对模型参数调整后的候选文本生成模型继续进行训练,直至训练结束得到训练好的目标文本生成模型。
21.根据权利要求20所述的装置,其中,所述第二训练模块,还用于:
从所述字符映射关系中,获取所述样本原始字符的目标映射关系,并将所述目标映射关系在所述噪声文本中关联的噪声字符,确定为所述样本原始字符的所述样本映射噪声字符。
22.根据权利要求16所述的装置,其中,所述扰动模块,还用于:
获取候选扰动策略,并从所述候选扰动策略中随机选择至少一个作为所述原始文本的所述扰动策略;
根据所述扰动策略,获取所述原始文本中的扰动原始字符,并对所述扰动原始字符进行扰动处理,以获取所述原始文本的所述噪声文本。
23.根据权利要求22所述的装置,其中,所述扰动策略,包括所述候选扰动策略中的随机扰动策略、相同和/相近语义扰动策略、字符减少扰动策略、字符增加扰动策略、字符内排序调整扰动策略和字符间排序调整扰动策略中的至少一种。
24.根据权利要求23所述的装置,其中,所述扰动模块,还用于:
响应于所述扰动策略为随机扰动策略,获取所述原始文本中获取第一随机原始字符作为所述扰动原始字符,并从预设的词表中随机获取第一词表字符替代所述原始文本中的所述扰动原始字符,以获取所述原始文本的所述噪声文本。
25.根据权利要求23所述的装置,其中,所述扰动模块,还用于:
响应于所述扰动策略为相同和/相近语义扰动策略,从所述原始文本中获取第二随机原始字符作为所述扰动原始字符,并从预设的词表中获取与所述扰动原始字符语义匹配的第二词表字符替代所述原始文本中的所述扰动原始字符,以获取所述原始文本的所述噪声文本。
26.根据权利要求23所述的装置,其中,所述扰动模块,还用于:
响应于所述扰动策略为字符减少扰动策略,从所述原始文本中获取第三随机原始字符作为所述扰动原始字符,并将所述扰动原始字符从所述原始文本中删除,以获取所述原始文本的所述噪声文本。
27.根据权利要求23所述的装置,其中,所述扰动模块,还用于:
响应于所述扰动策略为字符增加扰动策略,从所述原始文本中获取第四随机原始字符作为所述扰动原始字符,并从预设的词表中随机获取第三词表字符添加至所述扰动原始字符在原始文本中的关联位置,以获取所述原始文本的所述噪声文本。
28.根据权利要求23所述的装置,其中,所述扰动模块,还用于:
响应于所述扰动策略为字符内排序调整扰动策略,从所述原始文本中获取第五随机原始字符作为所述扰动原始字符,并调整所述扰动原始字符包括的全部字符的排序,以获取所述原始文本的所述噪声文本。
29.根据权利要求23所述的装置,其中,所述扰动模块,还用于:
响应于所述扰动策略为字符间排序调整扰动策略,从所述原始文本中获取第六随机原始字符作为所述扰动原始字符,并调整所述扰动原始字符在所述原始文本中的排序,以获取所述原始文本的所述噪声文本。
30.一种文本获取装置,其中,所述装置包括:
第二获取模块,用于获取目标文本生成模型,其中,所述目标文本生成模型基于权利要求16-29任一项所述的文本生成模型的训练装置得到;
生成模块,用于获取文本生成的需求信息,并根据所述需求信息获取所述目标文本生成模型输出的目标文本。
31.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-14和/或权利要求15中任一项所述的方法。
32.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-14和/或权利要求15中任一项所述的方法。
33.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-14和/或权利要求15中任一项所述的方法。
CN202211417275.6A 2022-11-11 2022-11-11 文本生成模型的训练方法、文本获取方法及装置 Active CN115909354B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211417275.6A CN115909354B (zh) 2022-11-11 2022-11-11 文本生成模型的训练方法、文本获取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211417275.6A CN115909354B (zh) 2022-11-11 2022-11-11 文本生成模型的训练方法、文本获取方法及装置

Publications (2)

Publication Number Publication Date
CN115909354A true CN115909354A (zh) 2023-04-04
CN115909354B CN115909354B (zh) 2023-11-10

Family

ID=86495012

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211417275.6A Active CN115909354B (zh) 2022-11-11 2022-11-11 文本生成模型的训练方法、文本获取方法及装置

Country Status (1)

Country Link
CN (1) CN115909354B (zh)

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170060854A1 (en) * 2015-08-25 2017-03-02 Alibaba Group Holding Limited Statistics-based machine translation method, apparatus and electronic device
CN108334487A (zh) * 2017-07-14 2018-07-27 腾讯科技(深圳)有限公司 缺失语意信息补全方法、装置、计算机设备和存储介质
US20190213253A1 (en) * 2018-01-11 2019-07-11 RivetAI, Inc. Script writing and content generation tools and improved operation of same
CN110276081A (zh) * 2019-06-06 2019-09-24 百度在线网络技术(北京)有限公司 文本生成方法、装置及存储介质
CN111160568A (zh) * 2019-12-27 2020-05-15 北京百度网讯科技有限公司 机器阅读理解模型训练方法、装置、电子设备和存储介质
US20200192941A1 (en) * 2018-12-17 2020-06-18 Beijing Baidu Netcom Science And Technology Co., Ltd. Search method, electronic device and storage medium
CN111460099A (zh) * 2020-03-30 2020-07-28 招商局金融科技有限公司 关键词提取方法、装置及存储介质
CN111581455A (zh) * 2020-04-28 2020-08-25 北京字节跳动网络技术有限公司 文本生成模型的生成方法、装置和电子设备
CN112580339A (zh) * 2020-12-18 2021-03-30 北京百度网讯科技有限公司 模型的训练方法、装置、电子设备及存储介质
CN112580822A (zh) * 2020-12-16 2021-03-30 北京百度网讯科技有限公司 机器学习模型的对抗训练方法装置、电子设备和介质
CN113158665A (zh) * 2021-04-02 2021-07-23 西安交通大学 一种基于文本摘要生成与双向语料改善对话文本生成的方法
US20210248484A1 (en) * 2020-06-22 2021-08-12 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for generating semantic representation model, and storage medium
US20210286946A1 (en) * 2020-03-16 2021-09-16 Samsung Sds Co., Ltd. Apparatus and method for learning text detection model
WO2021201907A1 (en) * 2020-03-30 2021-10-07 Oracle International Corporation Noise data augmentation for natural language processing
CN113792849A (zh) * 2021-09-09 2021-12-14 北京百度网讯科技有限公司 字符生成模型的训练方法、字符生成方法、装置和设备
CN114022887A (zh) * 2022-01-04 2022-02-08 北京世纪好未来教育科技有限公司 文本识别模型训练及文本识别方法、装置、电子设备
CN114638198A (zh) * 2022-03-02 2022-06-17 深圳Tcl新技术有限公司 一种文本标注方法、装置、智能设备及介质
CN114756659A (zh) * 2022-05-10 2022-07-15 平安科技(深圳)有限公司 语言模型训练方法、装置、设备及存储介质
CN114841142A (zh) * 2022-04-22 2022-08-02 北京字跳网络技术有限公司 文本生成方法、装置、电子设备和存储介质
CN115062718A (zh) * 2022-06-29 2022-09-16 北京百度网讯科技有限公司 语言模型训练方法、装置、电子设备及存储介质
CN115146641A (zh) * 2022-07-07 2022-10-04 云知声智能科技股份有限公司 一种ner带噪训练方法及装置

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170060854A1 (en) * 2015-08-25 2017-03-02 Alibaba Group Holding Limited Statistics-based machine translation method, apparatus and electronic device
CN108334487A (zh) * 2017-07-14 2018-07-27 腾讯科技(深圳)有限公司 缺失语意信息补全方法、装置、计算机设备和存储介质
US20190213253A1 (en) * 2018-01-11 2019-07-11 RivetAI, Inc. Script writing and content generation tools and improved operation of same
US20200192941A1 (en) * 2018-12-17 2020-06-18 Beijing Baidu Netcom Science And Technology Co., Ltd. Search method, electronic device and storage medium
CN110276081A (zh) * 2019-06-06 2019-09-24 百度在线网络技术(北京)有限公司 文本生成方法、装置及存储介质
US20210201196A1 (en) * 2019-12-27 2021-07-01 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for training machine reading comprehension model, and storage medium
CN111160568A (zh) * 2019-12-27 2020-05-15 北京百度网讯科技有限公司 机器阅读理解模型训练方法、装置、电子设备和存储介质
US20210286946A1 (en) * 2020-03-16 2021-09-16 Samsung Sds Co., Ltd. Apparatus and method for learning text detection model
WO2021201907A1 (en) * 2020-03-30 2021-10-07 Oracle International Corporation Noise data augmentation for natural language processing
CN111460099A (zh) * 2020-03-30 2020-07-28 招商局金融科技有限公司 关键词提取方法、装置及存储介质
CN111581455A (zh) * 2020-04-28 2020-08-25 北京字节跳动网络技术有限公司 文本生成模型的生成方法、装置和电子设备
US20210248484A1 (en) * 2020-06-22 2021-08-12 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for generating semantic representation model, and storage medium
CN112580822A (zh) * 2020-12-16 2021-03-30 北京百度网讯科技有限公司 机器学习模型的对抗训练方法装置、电子设备和介质
CN112580339A (zh) * 2020-12-18 2021-03-30 北京百度网讯科技有限公司 模型的训练方法、装置、电子设备及存储介质
CN113158665A (zh) * 2021-04-02 2021-07-23 西安交通大学 一种基于文本摘要生成与双向语料改善对话文本生成的方法
CN113792849A (zh) * 2021-09-09 2021-12-14 北京百度网讯科技有限公司 字符生成模型的训练方法、字符生成方法、装置和设备
CN114022887A (zh) * 2022-01-04 2022-02-08 北京世纪好未来教育科技有限公司 文本识别模型训练及文本识别方法、装置、电子设备
CN114638198A (zh) * 2022-03-02 2022-06-17 深圳Tcl新技术有限公司 一种文本标注方法、装置、智能设备及介质
CN114841142A (zh) * 2022-04-22 2022-08-02 北京字跳网络技术有限公司 文本生成方法、装置、电子设备和存储介质
CN114756659A (zh) * 2022-05-10 2022-07-15 平安科技(深圳)有限公司 语言模型训练方法、装置、设备及存储介质
CN115062718A (zh) * 2022-06-29 2022-09-16 北京百度网讯科技有限公司 语言模型训练方法、装置、电子设备及存储介质
CN115146641A (zh) * 2022-07-07 2022-10-04 云知声智能科技股份有限公司 一种ner带噪训练方法及装置

Also Published As

Publication number Publication date
CN115909354B (zh) 2023-11-10

Similar Documents

Publication Publication Date Title
CN110717017B (zh) 一种处理语料的方法
JP7421604B2 (ja) モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
KR102577514B1 (ko) 텍스트 창작 방법, 텍스트 창작 장치, 전자 기기 및 저장 매체
EP3702928A1 (en) Method for question answering service, question answering system and storage medium
CN111241237B (zh) 一种基于运维业务的智能问答数据处理方法及装置
CN112487182A (zh) 文本处理模型的训练方法、文本处理方法及装置
US11636341B2 (en) Processing sequential interaction data
CN112507101B (zh) 一种建立预训练语言模型的方法和装置
CN110162767A (zh) 文本纠错的方法和装置
CN113127624B (zh) 问答模型的训练方法及装置
RU2721190C1 (ru) Обучение нейронных сетей с использованием функций потерь, отражающих зависимости между соседними токенами
CN113392209B (zh) 一种基于人工智能的文本聚类方法、相关设备及存储介质
CN111898374B (zh) 文本识别方法、装置、存储介质和电子设备
EP3732592A1 (en) Intelligent routing services and systems
CN111767694B (zh) 文本生成方法、装置和计算机可读存储介质
WO2021082086A1 (zh) 机器阅读方法、系统、装置及存储介质
CN113239169A (zh) 基于人工智能的回答生成方法、装置、设备及存储介质
CN114299194B (zh) 图像生成模型的训练方法、图像生成方法及装置
WO2017136674A1 (en) Generating feature embeddings from a co-occurrence matrix
CN116012481B (zh) 图像生成处理方法、装置、电子设备及存储介质
CN116152833B (zh) 基于图像的表格还原模型的训练方法及表格还原方法
CN111858898A (zh) 基于人工智能的文本处理方法、装置及电子设备
CN111444725B (zh) 语句的生成方法、装置、存储介质和电子装置
CN113392179A (zh) 文本标注方法及装置、电子设备、存储介质
CN111625715A (zh) 信息提取方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant