CN116628198A - 一种文本生成模型的训练方法、装置、介质及电子设备 - Google Patents
一种文本生成模型的训练方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN116628198A CN116628198A CN202310515566.7A CN202310515566A CN116628198A CN 116628198 A CN116628198 A CN 116628198A CN 202310515566 A CN202310515566 A CN 202310515566A CN 116628198 A CN116628198 A CN 116628198A
- Authority
- CN
- China
- Prior art keywords
- text
- template
- original text
- training
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 173
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000013145 classification model Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 7
- 230000000694 effects Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 18
- 230000008451 emotion Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000006872 improvement Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 239000004575 stone Substances 0.000 description 5
- HEFNNWSXXWATRW-UHFFFAOYSA-N Ibuprofen Chemical compound CC(C)CC1=CC=C(C(C)C(O)=O)C=C1 HEFNNWSXXWATRW-UHFFFAOYSA-N 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 239000003205 fragrance Substances 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000000779 smoke Substances 0.000 description 3
- 239000007858 starting material Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- MCSXGCZMEPXKIW-UHFFFAOYSA-N 3-hydroxy-4-[(4-methyl-2-nitrophenyl)diazenyl]-N-(3-nitrophenyl)naphthalene-2-carboxamide Chemical group Cc1ccc(N=Nc2c(O)c(cc3ccccc23)C(=O)Nc2cccc(c2)[N+]([O-])=O)c(c1)[N+]([O-])=O MCSXGCZMEPXKIW-UHFFFAOYSA-N 0.000 description 1
- 241000508725 Elymus repens Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/186—Templates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Machine Translation (AREA)
Abstract
本说明书公开了一种文本生成模型的训练方法、装置、介质及电子设备,包括:先将从通用文本数据集中确定出的原始文本输入预先训练的类型识别模型,确定原始文本的模板标注。再根据模板标注,确定模板标注对应的目标模板。然后,根据原始文本、模板标注以及目标模板,生成训练文本生成模型的训练样本,将输入部分输入待训练的文本生成模型,得到输出文本,以样本标注与输出文本之间的差异最小为训练目标,对待训练的文本生成模型进行训练,增加了训练文本生成模型的训练样本,使得可以在训练样本较少的情况下,训练文本生成模型,使得文本生成模型训练效果好,提高文本生成模型的输出文本的准确性。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种文本生成模型的训练方法、装置、介质及电子设备。
背景技术
随着科技的不断发展,自然语言处理得到广泛的关注,自然语言模型逐渐走入人们的视野,其中,文本生成模型在自然语言处理中占有重要的地位。
自然语言模型训练的特点是需要大量样本训练,文本生成模型也不例外,但是可能在通用的数据集中适用于该场景下的训练样本比较少,或者适用于该场景下的采集的数据可能未进行标注,导致训练该场景下的文本生成模型的训练样本比较少,文本生成模型训练效果不好,使得文本生成模型的输出文本不准确。因此,如何在训练样本比较少的情况下训练文本生成模型是一个问题。
基于此,本说明书提供了一种文本生成模型的训练方法。
发明内容
本说明书提供一种文本生成模型的训练方法、装置、介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了文本生成模型的训练装置,包括:
从通用文本数据集中确定原始文本;
将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注;
根据所述模板标注,确定所述模板标注对应的目标模板;
根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,其中,所述目标模板用于将所述原始文本中的至少部分内容划分为样本标注,以及将划分为样本标注以外的原始文本和所述模板标注拼接为输入部分;
将所述输入部分输入待训练的文本生成模型,得到输出文本,以所述样本标注与所述输出文本之间的差异最小为训练目标,对所述待训练的文本生成模型进行训练。
可选地,从通用文本数据集中确定原始文本,具体包括:
确定待训练的文本生成模型的参数尺寸;
根据所述参数尺寸,确定训练样本的数量;
从通用文本数据集中确定所述数量的原始文本。
可选地,根据所述模板标注,确定所述模板标注对应的目标模板,具体包括:
根据所述模板标注,从预设的各提示模板中,选取所述模板标注对应的目标模板。
可选地,所述模板标注为任务类型;
根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,具体包括:
确定所述原始文本包含的第一文本和第二文本;
根据所述目标模板,确定所述第一文本和所述模板标注进行拼接作为所述目标模板的输入部分,以及确定所述第二文本作为所述目标模板的样本标注;
根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
可选地,所述模板标注为主题类型;
根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,具体包括:
根据所述目标模板,确定所述模板标注作为所述目标模板的输入部分,以及确定所述原始文本作为所述目标模板的样本标注;
根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
可选地,所述类型识别模型为文本分类模型;
将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注,具体包括:
将所述原始文本输入预先训练的文本分类模型,确定所述原始文本的任务类型,并作为模板标注。
可选地,所述类型识别模型为关键词提取模型;
将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注,具体包括:
将所述原始文本输入预先训练的关键词提取模型,确定所述原始文本的主题类型,并作为模板标注。
可选地,将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注,具体包括:
响应于用户输入的类型信息,从预先训练的类型识别模型中,确定所述原始文本的目标类型识别模型;
将所述原始文本输入所述目标类型识别模型,确定所述原始文本的模板标注。
可选地,将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注,具体包括:
确定预先训练的各类型识别模型;
针对每一个类型识别模型,将所述原始文本输入该类型识别模型,得到输出结果;
将得到的各输出结果作为所述原始文本的模板标注。
本说明书提供了一种文本生成模型的训练装置,包括:
第一确定模块,用于从通用文本数据集中确定原始文本;
第二确定模块,用于将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注;
第三确定模块,用于根据所述模板标注,确定所述模板标注对应的目标模板;
生成模块,用于根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,其中,所述目标模板用于将所述原始文本中的至少部分内容划分为样本标注,以及将划分为样本标注以外的原始文本和所述模板标注拼接为输入部分;
训练模块,用于将所述输入部分输入待训练的文本生成模型,得到输出文本,以所述样本标注与所述输出文本之间的差异最小为训练目标,对所述待训练的文本生成模型进行训练。
可选地,所述第一确定模块具体用于,确定待训练的文本生成模型的参数尺寸;根据所述参数尺寸,确定训练样本的数量;从通用文本数据集中确定所述数量的原始文本。
可选地,所述第三确定模块具体用于,根据所述模板标注,从预设的各提示模板中,选取所述模板标注对应的目标模板。
可选地,所述模板标注为任务类型;
所述生成模块具体用于,确定所述原始文本包含的第一文本和第二文本;根据所述目标模板,确定所述第一文本和所述模板标注进行拼接作为所述目标模板的输入部分,以及确定所述第二文本作为所述目标模板的样本标注;根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
可选地,所述模板标注为主题类型;
所述生成模块具体用于,根据所述目标模板,确定所述模板标注作为所述目标模板的输入部分,以及确定所述原始文本作为所述目标模板的样本标注;根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
可选地,所述类型识别模型为文本分类模型;
所述第二确定模块具体用于,将所述原始文本输入预先训练的文本分类模型,确定所述原始文本的任务类型,并作为模板标注。
可选地,所述类型识别模型为关键词提取模型;
所述第二确定模块具体用于,将所述原始文本输入预先训练的关键词提取模型,确定所述原始文本的主题类型,并作为模板标注。
可选地,所述第二确定模块具体用于,响应于用户输入的类型信息,从预先训练的类型识别模型中,确定所述原始文本的目标类型识别模型;将所述原始文本输入所述目标类型识别模型,确定所述原始文本的模板标注。
可选地,所述第二确定模块具体用于,确定预先训练的各类型识别模型;针对每一个类型识别模型,将所述原始文本输入该类型识别模型,得到输出结果;将得到的各输出结果作为所述原始文本的模板标注。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述文本生成模型的训练方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述文本生成模型的训练方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
本说明书提供的文本生成模型的训练方法,先从通用文本数据集中确定原始文本,将原始文本输入预先训练的类型识别模型,确定原始文本的模板标注。然后,根据模板标注,确定模板标注对应的目标模板。根据原始文本、模板标注以及目标模板,生成训练文本生成模型的训练样本。将输入部分输入待训练的文本生成模型,得到输出文本,以样本标注与输出文本之间的差异最小为训练目标,对待训练的文本生成模型进行训练。
从上述方法中可以看出,本申请在训练文本生成模型时,先将从通用文本数据集中确定出的原始文本输入预先训练的类型识别模型,确定原始文本的模板标注。再根据模板标注,确定模板标注对应的目标模板。然后,根据原始文本、模板标注以及目标模板,生成训练文本生成模型的训练样本,将输入部分输入待训练的文本生成模型,得到输出文本,以样本标注与输出文本之间的差异最小为训练目标,对待训练的文本生成模型进行训练。通过根据通用文本数据集中的原始文本以及模板标注,利用目标模板,生成训练文本生成模型的训练样本,增加了训练文本生成模型的训练样本,使得可以在训练样本较少的情况下,训练文本生成模型,使得文本生成模型训练效果好,提高文本生成模型的输出文本的准确性。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种文本生成模型的训练方法的流程示意图;
图2为本说明书中提供的一种生成训练样本的流程示意图;
图3为本说明书中提供的另一种生成训练样本的流程示意图;
图4为本说明书提供的一种文本生成模型的训练装置结构的示意图;
图5为本说明书提供的一种对应于图1的电子设备的结构示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种文本生成模型的训练方法的流程示意图,包括以下步骤:
S100:从通用文本数据集中确定原始文本。
本说明书中,用于训练文本生成模型的设备可以从通用文本数据集中确定原始文本。其中,用于训练文本生成模型的设备可以是服务器,也可以是诸如台式电脑、笔记本电脑等电子设备。为了便于描述,下面仅以服务器为执行主体,对本说明书提供的文本生成模型的训练方法进行说明。
通用文本数据集可以为预先收集的文本数据,也可以为任意已有的文本数据集,本说明书不做具体限定。由于通用文本数据集中的样本为预先从各种数据提供平台收集得到的,比如网站端或者移动端,故通用文本数据集中的文本的形式可能是多种多样的,比如文本可以为“北京的天气真好。”,再比如文本可以为“你吃饭了么,我吃饭了。”
具体的,服务器可以从通用文本数据集中随机确定原始文本。当然,由于通用文本数据集的收集来源可能不同,为了保证确定出原始文本的分布均匀,也就是从每一个收集来源确定出的原始文本的数量相同,故服务器可以从通用文本数据集对应的每一个收集来源中,确定相同数量的文本作为原始文本。
另外,服务器还可以确定待训练的文本生成模型的参数尺寸,根据参数尺寸,确定训练样本的数量。然后,从通用文本数据集中确定数量的原始文本。
在根据参数尺寸,确定训练样本的数量时,可以采用如下公式进行计算:
其中,m为训练文本生成模型的预期损失,Nc、Dc、αN和αD为设置的常数,比如Nc可以为6.4×1013,Dc可以为1.8×1013,αN可以为0.076,αD可以为0.103,N为文本生成模型的参数尺寸,D为原始文本的数量。
S102:将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注。
服务器可以将原始文本输入预先训练的类型识别模型,确定原始的模板标注。其中,类型识别模型可以为文本分类模型和关键词提取模型中的任意一种,类型识别模型可以为预先基于文本数据集训练得到的模型,也可以为任意已有的开源模型,本说明书不做具体限定。模板标注为将原始文本输入类型识别模型之后得到的标注。
具体的,服务器可以将原始文本输入预先训练的类型识别模型,得到类型识别模型的输出结果,根据输出结果,确定原始的模板标注。其中,模板标注可以为任务类型、主题类型、关键词类型、体裁类型和情感类型等类型中的一种,本说明书不做具体限定。任务类型表示原始文本用于何种任务,在本说明书中该任务类型包括开放问答、文案生成、文本匹配、故事生成、文本摘要、古诗生成、编程、实体识别、情感分析、文本纠错、散文生成、对联生成、成语释义、作文生成、翻译、评论生成、阅读理解、歌词生成、小说生成、关键词识别、文言文翻译现代文、文本推断等多种自然语言处理任务中的至少一种。主题类型是指原始文本的主题词,每一个原始文本至少有一个主题。关键词类型是指原始文本的关键词集合,每一个原始文本有1个关键词,也可以有多个关键词,比如某一原始文本有3个关键词。体裁类型包括记叙文、说明文、议论文、应用文、诗歌、小说、戏剧、散文等,具体体裁类型可根据需要设置。情感类型包括积极、消极、中性等。
在本说明书中,不同的模板标注可以对应不同的类型识别模型,对于任务类型、体裁类型、情感类型这些有确定的离散类别或者限制类别的模型标注,比如情感类型包括“积极、消极、中性”,可以预先训练文本分类模型或者使用任意已有的开源的文本分类模型。因此,当类型识别模型为文本分类模型时,以模板标注为任务类型为例,服务器可以将原始文本输入预先训练的文本分类模型,确定原始文本的任务类型,并作为模板标注。其中,文本分类模型可以为预先基于文本数据集训练的模型,也可以为任意已有的开源的文本分类模型。上述仅以模板标注为任务类型为例进行说明,但当模板标注为体裁类型或者情感类型时,服务器也可以按照上述过程执行,在此就不在赘述。
另外,对于关键词类型、主题类型这些没有确定分类或者不限制类别的模板标注,可以预先训练关键词提取模型或者使用任意已有的开源的关键词提取模型。因此,当类型识别模型为关键词提取模型,以模板标注为主题类型为例,服务器可以将原始文本输入预先训练的关键词提取模型,确定原始文本的主题类型,并作为模板标注。其中,关键词提取模型可以为预先基于文本数据集训练的模型,也可以为任意已有的开源的关键词提取模型。上述仅以模板标注为主题类型为例进行说明,但当模板标注为关键词类型时,服务器也可以按照上述过程执行,在此就不再赘述。
S104:根据所述模板标注,确定所述模板标注对应的目标模板。
服务器可以根据模板标注,确定模板标注对应的目标模板。具体的,服务器可以根据原始文本的模板标注,从预设的各提示模板中,选取模板标注对应的目标模板。其中,提示模板为将训练样本的输入部分和样本标注进行拼接的模板。不同的模板标注对应的模板不同,当模板标注为任务类型时,该模板标注对应的目标模板可以为“<S>请基于【原始文本1】实现【任务类型】任务:</T></T>【原始文本2】。<E>”。其中,<S>为起始符,</T></T>为分隔符,<E>为终止符,在本说明书中仅以上述<S>、</T></T>和<E>表示起始符、分隔符和终止符为例进行说明,还可以采用其他任意符号、数字或者字母等作为起始符、分隔符和终止符,在此就不再赘述。上述“【】”表示模板中的槽位,槽位中的“原始文本1”和“原始文本2”为通用文本数据集中的一对原始文本,槽位中的“任务类型”为原始文本对应的模板标注。
例如,原始文本1为“石中央又生一树,高百余尺,条干偃阴为五色,翠叶如盘,花径尺余,色深碧,蕊深红,异香成烟,著物霏霏。”,原始文本2为“大石的中央长着一棵树,一百多尺高,枝干是彩色的,树叶有盘子那样大,花的直径有一尺宽,花瓣深蓝色,花中飘出奇异的香气笼罩着周围,如烟似雾。”,原始文本1和原始文本2为一对原始文本,通过上述步骤S102,可以得到该原始文本对应的模板标注为文言文翻译现代文这一任务类型,故该原始文本对应的目标模板为“<S>请基于【原始文本1】实现【任务类型】任务:</T></T>【原始文本2】。<E>”。
当然,在本说明书中,当模板标注为主题类型时,该模板标注对应的目标模板可以为“<S>请基于【主题】进行生成:</T></T>【原始文本】<E>”,其中,槽位中的“主题”为基于槽位中的“原始文本”得到的主题,即“原始文本”对应的模板标注。
当模板标注为关键词类型时,该模板标注对应的目标模板可以为“<S>生成的文本需要包含【关键词1】、【关键词2】、…、【关键词N】:</T></T>【原始文本】<E>”,其中,槽位中的“关键词”是基于槽位中的“原始文本”得到的关键词,即“原始文本”对应的模板标注,可以为一个或者多个关键词,且关键词顺序不做限制,N为正整数。
当模板标注为体裁类型时,该模板标注对应的目标模板可以为“<S>【体裁】</T></T>【原始文本】<E>”,其中,槽位中的“体裁”为基于槽位中的“原始文本”得到的体裁类型。
当模板标注为情感类型时,该模板标注对应的目标模板可以为“<S>请使用【情感类型】的情感,生成文本:</T></T>【原始文本】<E>”,其中,槽位中的“情感类型”是基于槽位中的“原始文本”得到的情感分类,即“原始文本”对应的模板标注。
S106:根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,其中,所述目标模板用于将所述原始文本中的至少部分内容划分为样本标注,以及将划分为样本标注以外的原始文本和所述模板标注拼接为输入部分。
服务器可以根据原始文本、模板标注以及目标模板,生成训练文本生成模型的训练样本。具体的,服务器可以根据目标模板,将原始文本以及原始文本对应的模板标注填入目标模板中,生成训练文本生成模型的训练样本。其中,目标模板用于将原始文本中的至少部分内容划分为样本标注,以及将划分为样本标注以外的原始文本和模板标注拼接为输入部分。故训练样本的格式可以为“<S>文本</T></T>文本<E>”,其中,前部的“<S>文本</T></T>”为输入部分,后部的“文本”为样本标注。通过目标模板对原始文本以及模板标注进行划分,得到训练文本生成模型的训练样本,可以将原本不可以作为训练文本生成模型的训练样本的原始文本,作为训练样本,增加了训练文本生成模型的训练样本。另外,目标模板中的输入部分除了包括划分为样本标注以外的原始文本和模板标注的拼接内容之外,还可以包括固定的提示信息,提示信息为目标模板自带的且固有的内容,有助于后续文本生成模型的输出文本更加准确。
继续沿用上例,如图2所示,图2为本说明书中提供的一种生成训练样本的流程示意图,将由原始文本1和原始文本2构成的原始文本以及原始文本对应的1模板标注,即文言文翻译现代文,填入目标模板中,生成训练文本生成模型的训练样本,即训练样本为“<S>请基于【石中央又生一树,高百余尺,条干偃阴为五色,翠叶如盘,花径尺余,色深碧,蕊深红,异香成烟,著物霏霏。】实现【文言文翻译现代文】任务:</T></T>【大石的中央长着一棵树,一百多尺高,枝干是彩色的,树叶有盘子那样大,花的直径有一尺宽,花瓣深蓝色,花中飘出奇异的香气笼罩着周围,如烟似雾。】<E>”其中,“<S>请基于【石中央又生一树,高百余尺,条干偃阴为五色,翠叶如盘,花径尺余,色深碧,蕊深红,异香成烟,著物霏霏。】实现【文言文翻译现代文】任务:</T></T>”为输入部分,“【大石的中央长着一棵树,一百多尺高,枝干是彩色的,树叶有盘子那样大,花的直径有一尺宽,花瓣深蓝色,花中飘出奇异的香气笼罩着周围,如烟似雾。】”为样本标注。
再例如,如图3所示,图3为本说明书中提供的另一种生成训练样本的流程示意图,假设原始为本为“我在北京的一所大学里读书。”,该原始文本对应的主题为“北京”,目标模板为“<S>请基于【主题】进行生成:</T></T>【原始文本】<E>”,故将该原始文本以及该原始文本对应的模板标注填入目标模板中,生成训练文本生成模型的训练样本,即训练样本为“<S>请基于【北京】进行生成:</T></T>【我在北京的一所大学里读书。】<E>”,其中,“<S>请基于【北京】进行生成:</T></T>”为输入部分,“【我在北京的一所大学里读书。】”为样本标注。
S108:将所述输入部分输入待训练的文本生成模型,得到输出文本,以所述样本标注与所述输出文本之间的差异最小为训练目标,对所述待训练的文本生成模型进行训练。
服务器可以将输入部分输入待训练的文本生成模型,得到输出文本,以样本标注与输出文本之间的差异最小为训练目标,对待训练的文本生成模型进行训练。其中,文本生成模型可以为自回归(Autoregressive,简称AR)模型,比如生成式预训练转换(GenerativePre-trained Transformer,简称GPT)系列的模型,再比如在AR模型的基础上融合自编码(Autoencoder,简称AE)技术的模型,也可以为其他已有的结构的文本生成模型,本说明书不做具体限定。
具体的,服务器可以将输入部分输入待训练的文本生成模型,得到输出文本,将样本标注与输出文本输入损失函数中,确定损失,以损失最小为训练目标,对待训练的文本生成模型进行训练。其中,为了避免输入部分以及标识符对输出文本的影响,使得文本生成模型更多的关注输出文本的质量,故可以对损失函数进行改进,使得在将输出文本以及样本标注输入改进后的损失函数时,可以不计算输入部分以及标识符的损失,即去掉“<S>文本</T></T>”和<E>的损失,损失函数可以如下所示:
L1(u)=∑log P(ui|ui-k,...,ui-1;Θ)
其中,u={u1,u2,...,un},表示为输入部分经分词后得到的向量,L1(u)表示损失函数,k表示滑动窗口,ui|ui-k,...,ui-1表示基于k个历史词ui-k,...,ui-1预测ui,P为条件概率,i为正整数,Θ为整体的取值空间,故P(ui|ui-k,...,ui-1;Θ)表示在整体的取值空间中基于历史词ui-k,...,ui-1预测ui的条件概率。
改进后的损失函数是将其中log P(u3|u1,u2),...,log P(um|um-k,...,um-1)设置为0,即“<S>文本</T></T>”所对应的部分的损失设置为0,以及将log P(un|un-k,...,un-1)设置为0,即“<E>”所对应的部分损失设置为0,也就是um表示</T></T>所对应的部分,公式中um之前项的损失都设为0,un表示<E>所对应的部分。
从上述方法中可以看出,本申请在训练文本生成模型时,先将从通用文本数据集中确定出的原始文本输入预先训练的类型识别模型,确定原始文本的模板标注。再根据模板标注,确定模板标注对应的目标模板。然后,根据原始文本、模板标注以及目标模板,生成训练文本生成模型的训练样本,将输入部分输入待训练的文本生成模型,得到输出文本,以样本标注与输出文本之间的差异最小为训练目标,对待训练的文本生成模型进行训练。可以在文本生成模型的训练样本较少时,通过根据通用文本数据集中的原始文本以及模板标注,利用目标模板,生成训练文本生成模型的训练样本,增加训练文本生成模型的训练样本,使得可以在充足的训练样本下,训练文本生成模型,使得训练完成的文本生成模型训练效果好,提高文本生成模型的输出文本的准确性。
在上述步骤S106中,当模板标注为任务类型时,服务器可以确定原始文本包含的第一文本和第二文本,根据目标模板,确定第一文本和模板标注进行拼接作为目标模板的输入部分,以及确定第二文本作为目标模板的样本标注。然后,根据输入部分和样本标注,生成训练文本生成模型的训练样本。
另外,在当模板标注为主题类型时,服务器可以根据目标模板,确定模板标注作为目标模板的输入部分,以及确定原始文本作为目标模板的样本标注,根据输入部分和样本标注,生成训练文本生成模型的训练样本。
上述仅说明两种类型的模板标注(即任务类型和主题类型),根据其他类型的模板标注对应的目标模板确定训练样本的过程与上述过程类似,在此就不再赘述。
在本说明书中,原始文本的模板标注可以为一个,也可以为多个。在上述步骤S102中,服务器可以确定预先训练的各类型识别模型,针对每一个类型识别模型,将原始文本输入该类型识别模型,得到输出结果,将得到的各输出结果作为原始文本的模板标注。
基于此,在上述步骤S104根据模板标注,确定模板标注对应的目标模板时,服务器可以根据原始文本的多个模板标注,确定多个模板标注对应的目标模板,比如当原始文本的模板标注包含任务类型、关键词类型、主题类型、体裁类型、情感类型五种类型时,目标模板可以为“<S>请基于【原始文本1】实现【任务类型】任务,具体要求:主题为【主题类型】,生成文本需要包含【关键词1】、【关键词2】、…、【关键词N】,生成文本为【体裁类型】体裁,并以【情感类型】的情感进行生成:</T></T>【原始文本2】<E>”。
服务器还可以从原始文本的多个模板标注中,选取至少一个模板标注作为目标模板标注,确定目标模板标注对应的目标模板,其中,在选取目标模板标注时,服务器可以从多个模板标注中,随机选取至少一个模板标注作为目标模板标注,还可以按照指定规则,选取至少一个模板标注作为目标模板标注。服务器也可以针对原始文本的每一模板标注,确定该模板标注对应的模板。
在本说明书中,为了使得文本生成模型更加适用于某种场景下或者更加通用,用户可以选择类型识别模型,使得后续根据类型识别模型,确定出的原始文本的模板标注的类型唯一或者较多。若模板标注的类型单一,后续根据模板标注确定出的目标模板就比较单一,生成的训练样本更加适用于某种场景下的文本生成模型。若模板标注的类型较多,后续可以根据模板标注,可以确定出多个目标模板,根据多个目标模板,生成原始文本对应的多个训练样本,增加文本生成模型的训练样本,且不同训练样本可以基于不同的目标模板生成,使得训练完成的文本生成模型更加通用,可以应用于不同的场景或者不同的任务。故在上述步骤S102中,服务器可以响应于用户输入的类型信息,从预先训练的类型识别模型中,确定原始文本的目标类型识别模型,将原始文本输入目标类型识别模型,确定原始文本的模板标注。
在本说明书中,待训练的文本生成模型还可以为任意已有的预训练的文本生成模型,服务器可以基于训练样本,对预训练的文本生成模型进行微调,故在上述步骤S108中,服务器可以将输入部分输入预训练的文本生成模型,得到输出文本,以样本标注与输出文本之间的差异最小为训练目标,对预训练的文本生成模型进行微调。其中,在对预训练的文本生成模型进行微调得到文本生成模型时,改进后的损失函数可以如下所示:
L2(C)=∑logP(y|x1,…,xm)
L3(C)=L2(C)+λL1(C)
其中,L1(C)为模型在预训练时的损失,L3(C)为改进后的损失函数,x1,…,xm表示“<S>文本</T></T>”部分,y表示“<S>文本</T></T>”到“<E>”中间的部分,λ为超参数。P(y|x1,…,xm)表示基于x1,…,xm预测y的条件概率。
在本说明书中,目标模板中的输入部分包括的提示信息可以为符合人类语言逻辑的内容,有助于后续文本生成模型的输出文本更加符合人类逻辑语言,且更加可控。
在本说明书中,得到训练完成的文本生成模型之后,服务器可以响应于用户的输入操作,确定输入文本,将输入文本输入训练完成的文本生成模型,得到输出文本。其中,输入文本与训练样本的格式(即“<S>输入部分</T></T>样本标注<E>”)类似,输入文本的格式为“<S>输入部分</T></T>”。例如,用户输入的文本(即输入文本)为“<S>我们布置了一篇以“杭州的夏天”为题的作文,你能帮我写吗?</T></T>”,将该输入文本输入训练完成的文本生成模型,得到输出文本。
为了保证文本生成模型的生成效果,且使得输出文本的质量高,服务器还可以将输入文本多次输入文本生成模型,将得到的各输出结果输入打分函数中,得到各输出结果的分数,将分数最高的输出结果作为输出文本。
以上为本说明书的一个或多个实施的方法,基于同样的思路,本说明书还提供了相应的文本生成模型的训练装置,如图4所示。
图4为本说明书提供的一种的文本生成模型的训练装置的示意图,包括:
第一确定模块200,用于从通用文本数据集中确定原始文本;
第二确定模块202,用于将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注;
第三确定模块204,用于根据所述模板标注,确定所述模板标注对应的目标模板;
生成模块206,用于根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,其中,所述目标模板用于将所述原始文本中的至少部分内容划分为样本标注,以及将划分为样本标注以外的原始文本和所述模板标注拼接为输入部分;
训练模块208,用于将所述输入部分输入待训练的文本生成模型,得到输出文本,以所述样本标注与所述输出文本之间的差异最小为训练目标,对所述待训练的文本生成模型进行训练。
可选地,所述第一确定模块200具体用于,确定待训练的文本生成模型的参数尺寸;根据所述参数尺寸,确定训练样本的数量;从通用文本数据集中确定所述数量的原始文本。
可选地,所述第三确定模块204具体用于,根据所述模板标注,从预设的各提示模板中,选取所述模板标注对应的目标模板。
可选地,所述模板标注为任务类型;
所述生成模块206具体用于,确定所述原始文本包含的第一文本和第二文本;根据所述目标模板,确定所述第一文本和所述模板标注进行拼接作为所述目标模板的输入部分,以及确定所述第二文本作为所述目标模板的样本标注;根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
可选地,所述模板标注为主题类型;
所述生成模块206具体用于,根据所述目标模板,确定所述模板标注作为所述目标模板的输入部分,以及确定所述原始文本作为所述目标模板的样本标注;根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
可选地,所述类型识别模型为文本分类模型;
所述第二确定模块202具体用于,将所述原始文本输入预先训练的文本分类模型,确定所述原始文本的任务类型,并作为模板标注。
可选地,所述类型识别模型为关键词提取模型;
所述第二确定模块202具体用于,将所述原始文本输入预先训练的关键词提取模型,确定所述原始文本的主题类型,并作为模板标注。
可选地,所述第二确定模块202具体用于,响应于用户输入的类型信息,从预先训练的类型识别模型中,确定所述原始文本的目标类型识别模型;将所述原始文本输入所述目标类型识别模型,确定所述原始文本的模板标注。
可选地,所述第二确定模块202具体用于,确定预先训练的各类型识别模型;针对每一个类型识别模型,将所述原始文本输入该类型识别模型,得到输出结果;将得到的各输出结果作为所述原始文本的模板标注。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种文本生成模型的训练方法。
本说明书还提供了图5所示的一种对应于图1的电子设备的示意结构图。如图5所示,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的文本生成模型的训练方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (20)
1.一种文本生成模型的训练方法,其特征在于,包括:
从通用文本数据集中确定原始文本;
将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注;
根据所述模板标注,确定所述模板标注对应的目标模板;
根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,其中,所述目标模板用于将所述原始文本中的至少部分内容划分为样本标注,以及将划分为样本标注以外的原始文本和所述模板标注拼接为输入部分;
将所述输入部分输入待训练的文本生成模型,得到输出文本,以所述样本标注与所述输出文本之间的差异最小为训练目标,对所述待训练的文本生成模型进行训练。
2.如权利要求1所述的方法,其特征在于,从通用文本数据集中确定原始文本,具体包括:
确定待训练的文本生成模型的参数尺寸;
根据所述参数尺寸,确定训练样本的数量;
从通用文本数据集中确定所述数量的原始文本。
3.如权利要求1所述的方法,其特征在于,根据所述模板标注,确定所述模板标注对应的目标模板,具体包括:
根据所述模板标注,从预设的各提示模板中,选取所述模板标注对应的目标模板。
4.如权利要求1所述的方法,其特征在于,所述模板标注为任务类型;
根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,具体包括:
确定所述原始文本包含的第一文本和第二文本;
根据所述目标模板,确定所述第一文本和所述模板标注进行拼接作为所述目标模板的输入部分,以及确定所述第二文本作为所述目标模板的样本标注;
根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
5.如权利要求1所述的方法,其特征在于,所述模板标注为主题类型;
根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,具体包括:
根据所述目标模板,确定所述模板标注作为所述目标模板的输入部分,以及确定所述原始文本作为所述目标模板的样本标注;
根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
6.如权利要求1所述的方法,其特征在于,所述类型识别模型为文本分类模型;
将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注,具体包括:
将所述原始文本输入预先训练的文本分类模型,确定所述原始文本的任务类型,并作为模板标注。
7.如权利要求1所述的方法,其特征在于,所述类型识别模型为关键词提取模型;
将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注,具体包括:
将所述原始文本输入预先训练的关键词提取模型,确定所述原始文本的主题类型,并作为模板标注。
8.如权利要求1所述的方法,其特征在于,将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注,具体包括:
响应于用户输入的类型信息,从预先训练的类型识别模型中,确定所述原始文本的目标类型识别模型;
将所述原始文本输入所述目标类型识别模型,确定所述原始文本的模板标注。
9.如权利要求1所述的方法,其特征在于,将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注,具体包括:
确定预先训练的各类型识别模型;
针对每一个类型识别模型,将所述原始文本输入该类型识别模型,得到输出结果;
将得到的各输出结果作为所述原始文本的模板标注。
10.一种文本生成模型的训练装置,其特征在于,包括:
第一确定模块,用于从通用文本数据集中确定原始文本;
第二确定模块,用于将所述原始文本输入预先训练的类型识别模型,确定所述原始文本的模板标注;
第三确定模块,用于根据所述模板标注,确定所述模板标注对应的目标模板;
生成模块,用于根据所述原始文本、所述模板标注以及所述目标模板,生成训练文本生成模型的训练样本,其中,所述目标模板用于将所述原始文本中的至少部分内容划分为样本标注,以及将划分为样本标注以外的原始文本和所述模板标注拼接为输入部分;
训练模块,用于将所述输入部分输入待训练的文本生成模型,得到输出文本,以所述样本标注与所述输出文本之间的差异最小为训练目标,对所述待训练的文本生成模型进行训练。
11.如权利要求10所述的装置,其特征在于,所述第一确定模块具体用于,确定待训练的文本生成模型的参数尺寸;根据所述参数尺寸,确定训练样本的数量;从通用文本数据集中确定所述数量的原始文本。
12.如权利要求10所述的装置,其特征在于,所述第三确定模块具体用于,根据所述模板标注,从预设的各提示模板中,选取所述模板标注对应的目标模板。
13.如权利要求10所述的装置,其特征在于,所述模板标注为任务类型;
所述生成模块具体用于,确定所述原始文本包含的第一文本和第二文本;根据所述目标模板,确定所述第一文本和所述模板标注进行拼接作为所述目标模板的输入部分,以及确定所述第二文本作为所述目标模板的样本标注;根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
14.如权利要求10所述的装置,其特征在于,所述模板标注为主题类型;
所述生成模块具体用于,根据所述目标模板,确定所述模板标注作为所述目标模板的输入部分,以及确定所述原始文本作为所述目标模板的样本标注;根据所述输入部分和所述样本标注,生成训练文本生成模型的训练样本。
15.如权利要求10所述的装置,其特征在于,所述类型识别模型为文本分类模型;
所述第二确定模块具体用于,将所述原始文本输入预先训练的文本分类模型,确定所述原始文本的任务类型,并作为模板标注。
16.如权利要求10所述的装置,其特征在于,所述类型识别模型为关键词提取模型;
所述第二确定模块具体用于,将所述原始文本输入预先训练的关键词提取模型,确定所述原始文本的主题类型,并作为模板标注。
17.如权利要求10所述的装置,其特征在于,所述第二确定模块具体用于,响应于用户输入的类型信息,从预先训练的类型识别模型中,确定所述原始文本的目标类型识别模型;将所述原始文本输入所述目标类型识别模型,确定所述原始文本的模板标注。
18.如权利要求10所述的装置,其特征在于,所述第二确定模块具体用于,确定预先训练的各类型识别模型;针对每一个类型识别模型,将所述原始文本输入该类型识别模型,得到输出结果;将得到的各输出结果作为所述原始文本的模板标注。
19.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~9任一项所述的方法。
20.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310515566.7A CN116628198A (zh) | 2023-05-08 | 2023-05-08 | 一种文本生成模型的训练方法、装置、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310515566.7A CN116628198A (zh) | 2023-05-08 | 2023-05-08 | 一种文本生成模型的训练方法、装置、介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116628198A true CN116628198A (zh) | 2023-08-22 |
Family
ID=87609133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310515566.7A Pending CN116628198A (zh) | 2023-05-08 | 2023-05-08 | 一种文本生成模型的训练方法、装置、介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116628198A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117372631A (zh) * | 2023-12-07 | 2024-01-09 | 之江实验室 | 一种多视角图像生成模型的训练方法、应用方法 |
CN117744837A (zh) * | 2023-12-29 | 2024-03-22 | 支付宝(杭州)信息技术有限公司 | 一种模型训练、文本检测方法、装置、存储介质及设备 |
CN117807961A (zh) * | 2024-03-01 | 2024-04-02 | 之江实验室 | 一种文本生成模型的训练方法、装置、介质及电子设备 |
CN117807963A (zh) * | 2024-03-01 | 2024-04-02 | 之江实验室 | 一种指定领域的文本生成方法及装置 |
CN117807961B (zh) * | 2024-03-01 | 2024-05-31 | 之江实验室 | 一种文本生成模型的训练方法、装置、介质及电子设备 |
-
2023
- 2023-05-08 CN CN202310515566.7A patent/CN116628198A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117372631A (zh) * | 2023-12-07 | 2024-01-09 | 之江实验室 | 一种多视角图像生成模型的训练方法、应用方法 |
CN117372631B (zh) * | 2023-12-07 | 2024-03-08 | 之江实验室 | 一种多视角图像生成模型的训练方法、应用方法 |
CN117744837A (zh) * | 2023-12-29 | 2024-03-22 | 支付宝(杭州)信息技术有限公司 | 一种模型训练、文本检测方法、装置、存储介质及设备 |
CN117807961A (zh) * | 2024-03-01 | 2024-04-02 | 之江实验室 | 一种文本生成模型的训练方法、装置、介质及电子设备 |
CN117807963A (zh) * | 2024-03-01 | 2024-04-02 | 之江实验室 | 一种指定领域的文本生成方法及装置 |
CN117807963B (zh) * | 2024-03-01 | 2024-04-30 | 之江实验室 | 一种指定领域的文本生成方法及装置 |
CN117807961B (zh) * | 2024-03-01 | 2024-05-31 | 之江实验室 | 一种文本生成模型的训练方法、装置、介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116628198A (zh) | 一种文本生成模型的训练方法、装置、介质及电子设备 | |
CN115952272B (zh) | 一种生成对话信息的方法、装置、设备及可读存储介质 | |
CN116227474B (zh) | 一种对抗文本的生成方法、装置、存储介质及电子设备 | |
CN110599998A (zh) | 一种语音数据生成方法及装置 | |
CN116595999B (zh) | 一种机器翻译模型训练方法和装置 | |
CN112417093B (zh) | 一种模型训练的方法及装置 | |
CN116720008B (zh) | 一种机器阅读方法、装置、存储介质及电子设备 | |
CN114332873A (zh) | 一种识别模型的训练方法及装置 | |
CN112308113A (zh) | 一种基于半监督的目标识别方法、设备及介质 | |
CN108446266B (zh) | 一种语句拆分的方法、装置及设备 | |
CN108875743B (zh) | 一种文本识别方法及装置 | |
CN107247704B (zh) | 词向量处理方法、装置以及电子设备 | |
CN117371532A (zh) | 一种知识库管理方法、系统、设备及介质 | |
CN113887234B (zh) | 一种模型训练以及推荐方法及装置 | |
CN115130621B (zh) | 一种模型训练方法、装置、存储介质及电子设备 | |
CN117807961B (zh) | 一种文本生成模型的训练方法、装置、介质及电子设备 | |
CN107844472B (zh) | 词向量处理方法、装置以及电子设备 | |
CN116451808B (zh) | 一种模型训练的方法、装置、存储介质及电子设备 | |
CN114999611B (zh) | 一种模型训练和信息推荐的方法及装置 | |
CN117591661B (zh) | 一种基于大语言模型的问答数据构建方法及装置 | |
CN117079646B (zh) | 一种语音识别模型的训练方法、装置、设备及存储介质 | |
CN115017915B (zh) | 一种模型训练、任务执行的方法及装置 | |
CN113642305A (zh) | 一种文本生成方法、装置、存储介质及电子设备 | |
CN117033469B (zh) | 一种基于表格语义注释的数据库检索方法、装置以及设备 | |
CN117271611B (zh) | 一种基于大模型的信息检索方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |