CN116186200B - 模型训练方法、装置、电子设备和存储介质 - Google Patents
模型训练方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN116186200B CN116186200B CN202310086175.8A CN202310086175A CN116186200B CN 116186200 B CN116186200 B CN 116186200B CN 202310086175 A CN202310086175 A CN 202310086175A CN 116186200 B CN116186200 B CN 116186200B
- Authority
- CN
- China
- Prior art keywords
- prompt
- information
- model
- word
- teacher model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 153
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012360 testing method Methods 0.000 claims description 10
- 238000012935 Averaging Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000004821 distillation Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 102100036822 Ankyrin repeat and KH domain-containing protein 1 Human genes 0.000 description 1
- 101000928335 Homo sapiens Ankyrin repeat and KH domain-containing protein 1 Proteins 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
本公开公开了一种模型训练方法、装置、电子设备和存储介质,涉及计算机技术领域,尤其涉及小样本模型训练技术领域。具体实现方案为:采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,其中,所述至少一个提示词槽与所述输入文本对应;从外部知识库中对所述至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;基于所述至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型。采用上述方案的本公开可以在降低提示信息获取成本的同时提高模型的鲁棒性。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及小样本模型训练技术领域,具体涉及一种模型训练方法、装置、电子设备和存储介质。
背景技术
如今自然语言领域发展走向超大规模模型时代,针对规模较大的模型,在有限算力下,可以采用提示学习方式获取模型。其中,提示学习方法会在每次模型预测时为数据增加固定的提示,并将整体下游训练的形式适配成与预训练一致,让整体下游任务更加贴近于上游,可以充分利用预训练大模型的能力。由于不同的场景严重依赖于提示信息,不同的提示信息会造成较大的效果方差,且人工构造且不断尝试的实验方法成本高,使得模型训练整体效果在不同场景下稳定性不足,模型的鲁棒性较差。
发明内容
本公开提供了一种模型训练方法、装置、电子设备和存储介质,主要目的在于降低提示信息获取成本的同时提高模型的鲁棒性。
根据本公开的一方面,提供了一种模型训练方法,包括:
采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,其中,所述至少一个提示词槽与所述输入文本对应;
从外部知识库中对所述至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;
基于所述至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型。
根据本公开的另一方面,提供了一种模型训练装置,包括:
信息搜索单元,用于采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,其中,所述至少一个提示词槽与所述输入文本对应;
信息扩充单元,用于从外部知识库中对所述至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;
模型训练单元,用于基于所述至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述一方面中任一项所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行前述一方面中任一项所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现前述一方面中任一项所述的方法。
在本公开一个或多个实施例中,采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,其中,所述至少一个提示词槽与所述输入文本对应;从外部知识库中对所述至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;基于所述至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型。因此,采用预训练大模型获取提示信息,无需人工设计提示信息,可以提高提示信息与输入文本的匹配性,且通过外部知识库和至少一个教师模型获取学生模型,使得学生模型可以集成多个模型的优势,进而可以在降低提示信息获取成本的同时提高模型的鲁棒性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的模型训练方法的流程示意图;
图2是根据本公开第二实施例的模型训练方法的流程示意图;
图3是根据本公开实施例的一种提示信息确定的流程示意图;
图4是根据本公开实施例的一种提示信息确定的流程示意图;
图5是根据本公开实施例的一种模型蒸馏方式的流程示意图;
图6(a)是用来实现本公开实施例的模型训练方法的一种模型训练装置的结构示意图;
图6(b)是用来实现本公开实施例的模型训练方法的一种模型训练装置的结构示意图;
图7是用来实现本公开实施例的模型训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在一些实施例之中,在自然语言处理领域得到一个效果不错的模型时,往往需要大量的样本标注,例如可以引入人工知识,但是针对人工知识的高昂数据标注成本限制了模型的应用范围。此外在一些专业性极强的领域,比如医学,军工等样本量较小,无法进行有效的模型训练。为此,小样本学习受到了广大研究者的关注,所谓小样本学习,也就是在有限样本量下通过某种手段达到和全量样本相近的效果,可以降低应用成本。
随着预训练语言模型的发展,大模型加部分标注样本微调的范式成为了主流,受益于预训练大模型的自监督学习方法,其拥有强大的通用性与泛化性,单个大模型结合微调基本上在不同的场景都能达到不错的效果。然而由于下游微调任务与预训练任务的不一致性,往往需要较为大量的样本让整体大模型的参数去适应下游微调任务。
为了进一步降低训练样本量,更加充分利用大模型的能力,研究者们提出了一种新的下游任务训练范式,称之为“提示学习”;顾名思义,提示学习方法会在每次模型预测时为数据增加固定的提示,并将整体下游训练的形式适配成与预训练一致,让整体下游任务更加贴近于上游,充分利用预训练大模型的能力。虽然提示学习方法在小样本场景下取得了一定效果,但不同的场景严重依赖于提示信息,不同的提示信息会造成较大的效果方差,而人工构造且不断尝试的实验方法成本高,且整体效果在不同场景下稳定性不足。因此,会出现单一的提示信息不适于单个场景的多个任务,使得提示信息和场景不匹配的情况,且提示信息构造限制,使得模型的鲁棒性较差。
下面结合具体的实施例对本公开进行详细说明。
在一个实施例中,如图1所示,图1是根据本公开第一实施例的模型训练方法的流程示意图,该方法可依赖于计算机程序实现,可运行于进行模型训练的装置上。该计算机程序可集成在应用中,也可作为独立的工具类应用运行。
其中,模型训练装置可以是具有模型训练功能的电子设备,该电子设备包括但不限于:可穿戴设备、手持设备、个人电脑、平板电脑、车载设备、智能手机、计算设备或连接到无线调制解调器的其它处理设备等。在不同的网络中电子设备可以叫做不同的名称,例如:用户设备、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、用户终端、终端、无线通信设备、用户代理或用户装置、蜂窝电话、无绳电话、个人数字处理(personal digital assistant,PDA)、第五代移动通信技术(5th Generation MobileCommunication Technology,5G)网络、第四代移动通信技术(the 4th generation mobilecommunication technology,4G)网络、第三代移动通信技术(3rd-Generation,3G)网络或未来演进网络中的电子设备等。
具体的,该模型训练方法包括:
S101,采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息;
本公开实施例例如可以应用于小样本模型训练场景。
根据一些实施例,预训练大模型是指用于获取提示信息的模型。该预训练大模型并不特指某一固定模型。例如,当预训练大模型中的模型参数发生变化时,该预训练大模型也可以相应变化。
易于理解的是,输入文本是指针对当前场景所述输入的文本信息。本公开实施例的技术方案例如可以应用于自然语言处理领域。
可选的,网格式提示信息搜索例如可以是对输入文本进行遍历和以及对输入文本对应的提示词槽进行循环填充的过程。例如,电子设备可以在预先设定的范围内进行遍历搜索。
根据一些实施例,提示词槽是指用于填写提示词的槽位。该提示词槽并不特指某一固定提示词槽。例如,当输入文本发生变化时,该提示词槽也可以相应变化。其中,至少一个提示词槽与输入文本对应。
在一些实施例中,提示信息是指针对输入文本所确定的提示信息。其中,不同的输入文本对应不同的提示信息。不同的预训练大模型可以获取不同的输入文本。
根据一些实施例,电子设备可以采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息。
S102,从外部知识库中对至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;
根据一些实施例,外部知识库例如可以包括多个提示词。该提示词例如可以不同于预训练大模型确定的提示词。该外部知识库并不特指某一固定知识库。例如,当输入文本发生变化时,该外部知识库也可以相应变化。
易于理解的是,电子设备可以采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息。
S103,基于至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型。
根据一些实施例,教师模型例如可以是基于至少一个提示信息中某一提示信息和小样本训练数据进行训练得到的。其中,不同的教师模型例如可以是基于不同的提示信息训练得到的。
易于理解的是,电子设备可以采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,并基于至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型。其中,目标预训练语言模型例如可以是该学生模型。
在本公开一个或多个实施例中,采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,其中,所述至少一个提示词槽与所述输入文本对应;从外部知识库中对所述至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;基于所述至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型。因此,采用预训练大模型获取提示信息,无需人工设计提示信息,可以提高提示信息与输入文本的匹配性,且通过外部知识库和至少一个教师模型获取学生模型,使得学生模型可以集成多个模型的优势,进而可以在降低提示信息获取成本的同时提高模型的鲁棒性。
在一个实施例中,如图2所示,图2是根据本公开第二实施例的模型训练方法的流程示意图。其中,
S201,采用[MASK]对输入文本对应的所有提示词槽进行初始化,得到初始化之后的至少一个提示词槽;
在一些实施例之中,[MASK]是指标签标识位,可以对输入文本对应的所有的提示槽进行占位。[MASK]用于对输入文本对应的所有提示词槽进行初始化。
根据一些实施例,在电子设备获取到输入文本时,可以使用[MASK]初始化所有提示词槽,得到初始化之后的至少一个提示词槽。其中,至少一个提示词槽与输入文本对应。例如,不同长度的输入文本对应不同数量的提示词槽。或者可以基于预先设置的提示词槽配置信息确定至少一个提示词槽。
S202,采用预训练大模型对输入文本进行网格式提示信息搜索,获取初始化之后的至少一个提示词槽对应的提示信息;
具体过程如上所述,此处不再赘述。本公开实施例中的可选例之间可以任意组合,在不矛盾的情况下本公开实施例可与其他实施例的步骤、其他实施例中的可选例组合。
根据一些实施例,采用预训练大模型对输入文本进行网格式提示信息搜索,获取初始化之后的至少一个提示词槽对应的提示信息时,可以在候选词集合中随机选择任一第一候选提示词填入初始化之后的至少一个提示词槽中任一提示词槽;采用预训练大模型预测得到任一第一候选提示词对应的至少一个标签的概率,并基于至少一个标签的概率,确定任一第一候选提示词的标签预测概率;遍历候选词集合,得到至少一个第一候选提示词的标签预测概率,并将标签预测概率最高的第一候选提示词填入任一提示词槽中,得到任一提示词槽对应的提示信息;遍历初始化之后的至少一个提示词槽,得到初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息。因此,可以对多个标签输出概率进行平均来提升预测的稳定性,且无需人工干涉,免去了高昂的专家设计与试错成本,以一种自动化的方式产出相应的提示信息,提高提示信息信息与输入文本的匹配性,使得提示信息更加贴合于当前使用场景。
根据一些实施例,该方法还包括:对标签池中的至少一个标签进行概率平均,得到至少一个概率平均后的标签。因此,通过构造多个标签池,并对多个标签输出概率进行平均来提升预测的稳定性,可以提高模型获取的准确性。
根据一些实施例,遍历初始化之后的至少一个提示词槽,得到初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息,包括:
按照初始化之后的至少一个提示词槽从左往右的顺序,遍历初始化之后的至少一个提示词槽,得到初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息。
根据一些实施例,图3是根据本公开实施例的一种提示信息确定的流程示意图。如图3所示,输入文本例如可以是“我爱看电影”,[MASK1]-[MASK4]例如可以是模板词,[MASK5]例如可以是标签标签位。电子设备例如可以使用[MASK]初始化所有提示词槽;可以构造标签池,集成多个标签进行概率平均,可以增强模型预测鲁棒性;从候选词中随机选择并填入[MASK],利用预训练大模型预测多个标签的概率,可以选取集成标签预测概率最高的那个词固定填入到当前[MASK]位,循环上述过程,直到所有[MASK]被填充完毕。
易于理解的是,如图3所示,可以圈定正向标签有【是,有,好】三个字,负向标签有【否,无,坏】三个字;以情感分类为例子,假设模型的输入是:
[CLS]这句话是否正向?[MASK][SEP]我爱看这个电影[SEP]
其中这句话是否正向?这几个提示信息是通过遍历搜索到的;输入模型后,模型去预测[MASK]这个标志位分别是上述6个字的概率,对正向的概率求平均,对负向的概率求平均来表示最终情感倾向性。其中,6个字例如可以包括是,有,好,否,无,坏。
在遍历搜索提示信息的时,例如可以是每填入一个字,输入模型一次,得到上述6个字的概率,分别记录正向和负向的平均概率,在循环多次即在同一个位置填入不同的字后,可以选取概率最高的字最为当前位置的提示字。
S203,对至少一个提示词槽对应的提示信息进行实体识别和分面识别,得到至少一个提示词槽对应的提示信息的实体信息和分面信息;
具体过程如上所述,此处不再赘述。
根据一些实施例,实体是指能够独立存在的、作为一切属性的基础和万物本原的东西。本公开实施例中的实体是指提示信息中的命名实体。该实体包括但不限于人名、地名、句子中的主语等。其中,不同的提示信息例如可以对应不同的实体。
在一些实施例之中,当获取到至少一个提示词槽对应的提示信息时,可以对至少一个提示词槽对应的提示信息进行实体识别和分面识别,得到至少一个提示词槽对应的提示信息的实体信息和分面信息。其中,实体识别和分面识别可以是同时执行的,还可以是先执行实体识别,后执行分面识别,还可以是先执行分面识别,后执行分面识别。
S204,从外部知识库中对实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息;
具体过程如上所述,此处不再赘述。
根据一些实施例,从外部知识库中对实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息,包括:从外部知识库中对实体信息和分面信息进行信息搜索,根据相似度确定至少一个第二候选提示词;采用至少一个第二候选提示词对提示信息进行扩充,获取扩充后的至少一个提示信息。因此,通过外部知识库可以减少数据分布缺失的情况,可以对提示信息进行补充,同时,通过对扩充后的至少一个提示信息进行训练可以提高模型的鲁棒性。
易于理解的是,根据相似度确定至少一个第二候选提示词例如可以是根据相似度由高到低的顺序选择预设数量的第二候选提示词,例如还是可以是获取相似度大于相似度阈值的至少一个第二候选提示词。
根据一些实施例,采用至少一个第二候选提示词对提示信息进行扩充,获取扩充后的至少一个提示信息,包括:获取至少一个第二候选提示词中任一第二候选提示词的位置信息;根据位置信息和任一第二候选提示词,对提示信息进行替换,获取扩充后的至少一个提示信息,可以丰富提示信息,减少提示信息确定不全面的情况。
易于理解的是,分面识别主要用于确定提示信息主要表示的意图。根据一些实施例,图4是根据本公开实施例的一种提示信息确定的流程示意图。如图4所示,例如提示信息是为:这个句子是否正向?其中。电子设备识别出来的信息例如可以是:「句子」是实体,「是否正向?」是分面。电子设备从外部知识库中对实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息例如可以是可以将「句子」换为「话」,「短语」等等;而「是否正向?」可以换为「是否正面?」,「是否积极?」等等。
S205,基于至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型。
具体过程如上所述,此处不再赘述。
根据一些实施例,基于至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练时,可以在至少一个提示信息中获取至少一个教师模型中任一教师模型对应的提示信息;采用任一教师模型对应的提示信息和小样本训练数据对任一教师模型进行训练,得到训练后的任一教师模型;遍历提示信息,获取与提示信息对应的至少一个训练后的教师模型,其中,至少一个提示信息对应的第一数量与至少一个训练后的教师模型对应的第二数量相同。
根据一些实施例,将训练后的至少一个教师模型蒸馏到学生模型上,包括:采用训练后的至少一个教师模型对测试数据进行测试打分,获取训练后的至少一个教师模型对应的至少一个指标信息;获取至少一个指标信息中最高指标信息对应的权重组合,并根据权重组合,将训练后的至少一个教师模型蒸馏到学生模型上,其中,权重组合中包括训练后的至少一个教师模型对应的权重。
根据一些实施例,获取训练后的至少一个教师模型对应的至少一个指标信息,包括:确定训练后的至少一个教师模型中的目标教师模型,其中,目标教师模型为训练后的至少一个教师模型中指标最高的模型;将目标教师模型的打分权重设置为预设值;对训练后的至少一个教师模型中除目标教师模型之外的模型进行归一化,并乘以权重集合中与当前遍历轮次对应的权重,并对权重加成后的至少一个教师模型;对所有教师模型进行加权求和,得到训练后的至少一个教师模型对应的指标信息;重复获取训练后的至少一个教师模型的指标信息,直至遍历完成权重集合中所有权重。因此,学生模型可以集成多个教师模型的优点,且在预测时没有引入额外的时间消耗,因此可以在不影响模型预设时长的同时提高模型的预测准确性。另外,采用加权求和的方式,可以提高模型的预测准确性。
易于理解的是,电子设备获取到的至少一个提示信息假设有N个,其中,N为正整数。基于提示信息可以训练N个教师模型。可以使用多个模型对测试集进行测试打分,得到N个指标。例如,电子设备可以固定指标最高的教师模型的打分权重为1;然后对剩下的教师模型打分进行归一化,并且乘上权重;最后再对所有教师模型的打分进行加权求和,得到一个新的指标信息。
其中,权重集合是指包括至少一个权重的集合,也就是由至少一个权重汇聚而成的集体。该权重集合例如可以是[0.01-0.99],该权重集合例如还可以是[0.1-0.9]。
易于理解的是,当电子设备对权重集合进行遍历之后可以确定最高指标信息对应的权重组合,可以根据该权重组合将教师模型蒸馏到学生模型上。
根据一些实施例,图5是根据本公开实施例的一种模型蒸馏方式的流程示意图。如图5所示,例如可以采用“这段语料是否正向”对模型1进行训练,采用“这段语料是否积极”对模型2进行训练,采用“这段文本是否正向”对模型K进行训练。可以将k个教师模型进行加权求和,得到k个教师模型模型对应的评分。可以获取最高评分对应的权重组合,并根据该权重组合将k个教师模蒸馏到学生模型上,以得到目标预训练语言模型。
易于理解的是,电子设备可以采用交叉熵函数对学生模型进行调整,可以提高模型获取的准确性。
在本公开一个或多个实施例中,采用[MASK]对输入文本对应的所有提示词槽进行初始化,得到初始化之后的至少一个提示词槽,采用预训练大模型对输入文本进行网格式提示信息搜索,获取初始化之后的至少一个提示词槽对应的提示信息,可以提高提示信息与输入文本的匹配性,即提高提示信息与场景的贴合性,提升模型的训练效果。其次,对至少一个提示词槽对应的提示信息进行实体识别和分面识别,得到至少一个提示词槽对应的提示信息的实体信息和分面信息,从外部知识库中对实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息,可以减少数据缺失的情况,同时采用扩充后的至少一个提示信息对模型进行训练,可以提高模型的鲁棒性。最后基于至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型,使得学生模型可以集成多个模型的优势,可以提高模型的鲁棒性。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
请参见图6(a),其示出了用来实现本公开实施例的模型训练方法的一种模型训练装置的结构示意图。该模型训练装置可以通过软件、硬件或者两者的结合实现成为装置的全部或一部分。该模型训练装置600包括信息搜索单元601、信息扩充单元602和模型训练单元603,其中:
信息搜索单元601,用于采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,其中,至少一个提示词槽与输入文本对应;
信息扩充单元602,用于从外部知识库中对至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;
模型训练单元603,用于基于至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型。
可选的,其中,信息搜索单元601,用于采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息时,具体用于:
采用[MASK]对输入文本对应的所有提示词槽进行初始化,得到初始化之后的至少一个提示词槽;
采用预训练大模型对输入文本进行网格式提示信息搜索,获取初始化之后的至少一个提示词槽对应的提示信息。
可选的,其中,信息搜索单元601,用于采用预训练大模型对输入文本进行网格式提示信息搜索,获取初始化之后的至少一个提示词槽对应的提示信息时,具体用于:
在候选词集合中随机选择任一第一候选提示词填入初始化之后的至少一个提示词槽中任一提示词槽;
采用预训练大模型预测得到任一第一候选提示词对应的至少一个标签的概率,并基于至少一个标签的概率,确定任一第一候选提示词的标签预测概率;
遍历候选词集合,得到至少一个第一候选提示词的标签预测概率,并将标签预测概率最高的第一候选提示词填入任一提示词槽中,得到任一提示词槽对应的提示信息;
遍历初始化之后的至少一个提示词槽,得到初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息。
可选的,其中,信息搜索单元601,用于遍历初始化之后的至少一个提示词槽,得到初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息时,具体用于:
按照初始化之后的至少一个提示词槽从左往右的顺序,遍历初始化之后的至少一个提示词槽,得到初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息。
可选的,其中,请参见图6(b),其示出了用来实现本公开实施例的模型训练方法的一种模型训练装置的结构示意图。装置600还包括概率平均单元604,用于:
对标签池中的至少一个标签进行概率平均,得到至少一个概率平均后的标签。
可选的,其中,信息扩充单元602,用于从外部知识库中对至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息时,具体用于:
对至少一个提示词槽对应的提示信息进行实体识别和分面识别,得到至少一个提示词槽对应的提示信息的实体信息和分面信息;
从外部知识库中对实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息。
可选的,其中,信息扩充单元602,用于从外部知识库中对实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息时,具体用于:
从外部知识库中对实体信息和分面信息进行信息搜索,根据相似度确定至少一个第二候选提示词;
采用至少一个第二候选提示词对提示信息进行扩充,获取扩充后的至少一个提示信息。
可选的,其中,信息扩充单元602,用于采用至少一个第二候选提示词对提示信息进行扩充,获取扩充后的至少一个提示信息时,具体用于:
获取至少一个第二候选提示词中任一第二候选提示词的位置信息;
根据位置信息和任一第二候选提示词,对提示信息进行替换,获取扩充后的至少一个提示信息。
可选的,其中,模型训练单元603,用于基于至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练时,具体用于:
在至少一个提示信息中获取至少一个教师模型中任一教师模型对应的提示信息;
采用任一教师模型对应的提示信息和小样本训练数据对任一教师模型进行训练,得到训练后的任一教师模型;
遍历提示信息,获取与提示信息对应的至少一个训练后的教师模型,其中,至少一个提示信息对应的第一数量与至少一个训练后的教师模型对应的第二数量相同。
可选的,其中,模型训练单元603,用于将训练后的至少一个教师模型蒸馏到学生模型上时,具体用于:
采用训练后的至少一个教师模型对测试数据进行测试打分,获取训练后的至少一个教师模型对应的至少一个指标信息;
获取至少一个指标信息中最高指标信息对应的权重组合,并根据权重组合,将训练后的至少一个教师模型蒸馏到学生模型上,其中,权重组合中包括训练后的至少一个教师模型对应的权重。
可选的,其中,模型训练单元603,用于获取训练后的至少一个教师模型对应的至少一个指标信息时,具体用于:
确定训练后的至少一个教师模型中的目标教师模型,其中,目标教师模型为训练后的至少一个教师模型中指标最高的模型;
将目标教师模型的打分权重设置为预设值;
对训练后的至少一个教师模型中除目标教师模型之外的模型进行归一化,并乘以权重集合中与当前遍历轮次对应的权重,并对权重加成后的至少一个教师模型;
对所有教师模型进行加权求和,得到训练后的至少一个教师模型对应的指标信息;
重复获取训练后的至少一个教师模型的指标信息,直至遍历完成权重集合中所有权重。
要说明的是,上述实施例提供的模型训练装置在执行模型训练方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的模型训练装置与模型训练方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
上述本公开实施例序号仅仅为了描述,不代表实施例的优劣。
综上,本公开实施例提供的装置,通过信息搜索单元,用于采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,其中,至少一个提示词槽与输入文本对应;信息扩充单元,用于从外部知识库中对至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;模型训练单元,用于基于至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型。因此,采用预训练大模型获取提示信息,无需人工设计提示信息,可以提高提示信息与输入文本的匹配性,且通过外部知识库和至少一个教师模型获取学生模型,使得学生模型可以集成多个模型的优势,进而可以在降低提示信息获取成本的同时提高模型的鲁棒性。
本公开的技术方案中,所涉及的用户个人信息的获取、存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。其中,本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,电子设备包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储电子设备操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
电子设备中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许电子设备通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如模型训练方法。例如,在一些实施例中,模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到电子设备上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或电子设备上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据电子设备)、或者包括中间件部件的计算系统(例如,应用电子设备)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和电子设备。客户端和电子设备一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-电子设备关系的计算机程序来产生客户端和电子设备的关系。电子设备可以是云电子设备,又称为云计算电子设备或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。电子设备也可以为分布式系统的电子设备,或者是结合了区块链的电子设备。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (22)
1.一种模型训练方法,包括:
采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,其中,所述至少一个提示词槽与所述输入文本对应;
从外部知识库中对所述至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;
基于所述至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并采用训练后的至少一个教师模型对测试数据进行测试打分,获取所述训练后的至少一个教师模型对应的至少一个指标信息;
获取至少一个指标信息中最高指标信息对应的权重组合,并根据所述权重组合,将所述训练后的至少一个教师模型蒸馏到学生模型上,其中,所述权重组合中包括所述训练后的至少一个教师模型对应的权重。
2.根据权利要求1所述的方法,其中,所述采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,包括:
采用[MASK]对输入文本对应的所有提示词槽进行初始化,得到初始化之后的至少一个提示词槽;
采用预训练大模型对所述输入文本进行网格式提示信息搜索,获取所述初始化之后的至少一个提示词槽对应的提示信息。
3.根据权利要求2所述的方法,其中,所述采用预训练大模型对所述输入文本进行网格式提示信息搜索,获取所述初始化之后的至少一个提示词槽对应的提示信息,包括:
在候选词集合中随机选择任一第一候选提示词填入所述初始化之后的至少一个提示词槽中任一提示词槽;
采用预训练大模型预测得到所述任一第一候选提示词对应的至少一个标签的概率,并基于所述至少一个标签的概率,确定所述任一第一候选提示词的标签预测概率;
遍历所述候选词集合,得到至少一个第一候选提示词的标签预测概率,并将所述标签预测概率最高的第一候选提示词填入所述任一提示词槽中,得到所述任一提示词槽对应的提示信息;
遍历所述初始化之后的至少一个提示词槽,得到所述初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息。
4.根据权利要求3所述的方法,其中,所述遍历所述初始化之后的至少一个提示词槽,得到所述初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息,包括:
按照所述初始化之后的至少一个提示词槽从左往右的顺序,遍历所述初始化之后的至少一个提示词槽,得到所述初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息。
5.根据权利要求3所述的方法,其中,所述方法还包括:
对标签池中的至少一个标签进行概率平均,得到至少一个概率平均后的标签。
6.根据权利要求1所述的方法,其中,所述从外部知识库中对所述至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息,包括:
对所述至少一个提示词槽对应的提示信息进行实体识别和分面识别,得到所述至少一个提示词槽对应的提示信息的实体信息和分面信息,其中,所述分面识别用于确定所述提示信息表示的意图,所述分面信息为通过所述分面识别得到的所述提示信息表示的意图信息;
从外部知识库中对所述实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息。
7.根据权利要求6所述的方法,其中,所述从外部知识库中对所述实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息,包括:
从外部知识库中对所述实体信息和分面信息进行信息搜索,根据相似度确定至少一个第二候选提示词;
采用所述至少一个第二候选提示词对所述提示信息进行扩充,获取扩充后的至少一个提示信息。
8.根据权利要求7所述的方法,其中,所述采用所述至少一个第二候选提示词对所述提示信息进行扩充,获取扩充后的至少一个提示信息,包括:
获取所述至少一个第二候选提示词中任一第二候选提示词的位置信息;
根据所述位置信息和所述任一第二候选提示词,对所述提示信息进行替换,获取扩充后的至少一个提示信息。
9.根据权利要求1所述的方法,其中,所述基于所述至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,包括:
在所述至少一个提示信息中获取所述至少一个教师模型中任一教师模型对应的提示信息;
采用所述任一教师模型对应的提示信息和小样本训练数据对所述任一教师模型进行训练,得到训练后的任一教师模型;
遍历所述提示信息,获取与所述提示信息对应的至少一个训练后的教师模型,其中,所述至少一个提示信息对应的第一数量与所述至少一个训练后的教师模型对应的第二数量相同。
10.根据权利要求1所述的方法,其中,所述获取所述训练后的至少一个教师模型对应的至少一个指标信息,包括:
确定所述训练后的至少一个教师模型中的目标教师模型,其中,所述目标教师模型为所述训练后的至少一个教师模型中指标最高的模型;
将所述目标教师模型的打分权重设置为预设值;
对所述训练后的至少一个教师模型中除所述目标教师模型之外的模型进行归一化,并乘以权重集合中与当前遍历轮次对应的权重,并对权重加成后的至少一个教师模型;
对所有教师模型进行加权求和,得到所述训练后的至少一个教师模型对应的指标信息;
重复获取所述训练后的至少一个教师模型的指标信息,直至遍历完成所述权重集合中所有权重。
11.一种模型训练装置,包括:
信息搜索单元,用于采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息,其中,所述至少一个提示词槽与所述输入文本对应;
信息扩充单元,用于从外部知识库中对所述至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息;
模型训练单元,用于基于所述至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练,并将训练后的至少一个教师模型蒸馏到学生模型上,以得到目标预训练语言模型;
所述模型训练单元,用于将训练后的至少一个教师模型蒸馏到学生模型上时,具体用于:
采用训练后的至少一个教师模型对测试数据进行测试打分,获取所述训练后的至少一个教师模型对应的至少一个指标信息;
获取至少一个指标信息中最高指标信息对应的权重组合,并根据所述权重组合,将所述训练后的至少一个教师模型蒸馏到学生模型上,其中,所述权重组合中包括所述训练后的至少一个教师模型对应的权重。
12.根据权利要求11所述的装置,其中,所述信息搜索单元,用于采用预训练大模型对输入文本进行网格式提示信息搜索,获取至少一个提示词槽对应的提示信息时,具体用于:
采用[MASK]对输入文本对应的所有提示词槽进行初始化,得到初始化之后的至少一个提示词槽;
采用预训练大模型对所述输入文本进行网格式提示信息搜索,获取所述初始化之后的至少一个提示词槽对应的提示信息。
13.根据权利要求12所述的装置,其中,所述信息搜索单元,用于采用预训练大模型对所述输入文本进行网格式提示信息搜索,获取所述初始化之后的至少一个提示词槽对应的提示信息时,具体用于:
在候选词集合中随机选择任一第一候选提示词填入所述初始化之后的至少一个提示词槽中任一提示词槽;
采用预训练大模型预测得到所述任一第一候选提示词对应的至少一个标签的概率,并基于所述至少一个标签的概率,确定所述任一第一候选提示词的标签预测概率;
遍历所述候选词集合,得到至少一个第一候选提示词的标签预测概率,并将所述标签预测概率最高的第一候选提示词填入所述任一提示词槽中,得到所述任一提示词槽对应的提示信息;
遍历所述初始化之后的至少一个提示词槽,得到所述初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息。
14.根据权利要求13所述的装置,其中,所述信息搜索单元,用于遍历所述初始化之后的至少一个提示词槽,得到所述初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息时,具体用于:
按照所述初始化之后的至少一个提示词槽从左往右的顺序,遍历所述初始化之后的至少一个提示词槽,得到所述初始化之后的至少一个提示词槽中所有提示词槽对应的提示信息。
15.根据权利要求13所述的装置,其中,所述装置还包括概率平均单元,用于:
对标签池中的至少一个标签进行概率平均,得到至少一个概率平均后的标签。
16.根据权利要求11所述的装置,其中,所述信息扩充单元,用于从外部知识库中对所述至少一个提示词槽对应的提示信息进行信息扩充,获取扩充后的至少一个提示信息时,具体用于:
对所述至少一个提示词槽对应的提示信息进行实体识别和分面识别,得到所述至少一个提示词槽对应的提示信息的实体信息和分面信息,其中,所述分面识别用于确定所述提示信息表示的意图,所述分面信息为通过所述分面识别得到的所述提示信息表示的意图信息;
从外部知识库中对所述实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息。
17.根据权利要求16所述的装置,其中,所述信息扩充单元,用于从外部知识库中对所述实体信息和分面信息进行信息扩充,获取扩充后的至少一个提示信息时,具体用于:
从外部知识库中对所述实体信息和分面信息进行信息搜索,根据相似度确定至少一个第二候选提示词;
采用所述至少一个第二候选提示词对所述提示信息进行扩充,获取扩充后的至少一个提示信息。
18.根据权利要求17所述的装置,其中,所述信息扩充单元,用于采用所述至少一个第二候选提示词对所述提示信息进行扩充,获取扩充后的至少一个提示信息时,具体用于:
获取所述至少一个第二候选提示词中任一第二候选提示词的位置信息;
根据所述位置信息和所述任一第二候选提示词,对所述提示信息进行替换,获取扩充后的至少一个提示信息。
19.根据权利要求11所述的装置,其中,所述模型训练单元,用于基于所述至少一个提示信息和小样本训练数据,对至少一个教师模型进行模型训练时,具体用于:
在所述至少一个提示信息中获取所述至少一个教师模型中任一教师模型对应的提示信息;
采用所述任一教师模型对应的提示信息和小样本训练数据对所述任一教师模型进行训练,得到训练后的任一教师模型;
遍历所述提示信息,获取与所述提示信息对应的至少一个训练后的教师模型,其中,所述至少一个提示信息对应的第一数量与所述至少一个训练后的教师模型对应的第二数量相同。
20.根据权利要求11所述的装置,其中,所述模型训练单元,获取用于所述训练后的至少一个教师模型对应的至少一个指标信息时,具体用于:
确定所述训练后的至少一个教师模型中的目标教师模型,其中,所述目标教师模型为所述训练后的至少一个教师模型中指标最高的模型;
将所述目标教师模型的打分权重设置为预设值;
对所述训练后的至少一个教师模型中除所述目标教师模型之外的模型进行归一化,并乘以权重集合中与当前遍历轮次对应的权重,并对权重加成后的至少一个教师模型;
对所有教师模型进行加权求和,得到所述训练后的至少一个教师模型对应的指标信息;
重复获取所述训练后的至少一个教师模型的指标信息,直至遍历完成所述权重集合中所有权重。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其特征在于,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行根据权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310086175.8A CN116186200B (zh) | 2023-01-19 | 2023-01-19 | 模型训练方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310086175.8A CN116186200B (zh) | 2023-01-19 | 2023-01-19 | 模型训练方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116186200A CN116186200A (zh) | 2023-05-30 |
CN116186200B true CN116186200B (zh) | 2024-02-09 |
Family
ID=86436000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310086175.8A Active CN116186200B (zh) | 2023-01-19 | 2023-01-19 | 模型训练方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116186200B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116595130B (zh) * | 2023-07-18 | 2024-02-20 | 深圳须弥云图空间科技有限公司 | 基于小语言模型的多种任务下的语料扩充方法及装置 |
CN117057414A (zh) * | 2023-08-11 | 2023-11-14 | 佛山科学技术学院 | 一种面向文本生成的多步协作式提示学习的黑盒知识蒸馏方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101545A (zh) * | 2020-08-28 | 2020-12-18 | 北京百度网讯科技有限公司 | 蒸馏系统的训练方法、装置、设备及存储介质 |
CN113987209A (zh) * | 2021-11-04 | 2022-01-28 | 浙江大学 | 基于知识指导前缀微调的自然语言处理方法、装置、计算设备和存储介质 |
CN114722805A (zh) * | 2022-06-10 | 2022-07-08 | 苏州大学 | 基于大小导师知识蒸馏的少样本情感分类方法 |
CN114818891A (zh) * | 2022-04-14 | 2022-07-29 | 人民网股份有限公司 | 小样本多标签文本分类模型训练方法及文本分类方法 |
CN114969332A (zh) * | 2022-05-18 | 2022-08-30 | 北京百度网讯科技有限公司 | 训练文本审核模型的方法和装置 |
CN115203419A (zh) * | 2022-07-21 | 2022-10-18 | 北京百度网讯科技有限公司 | 语言模型的训练方法、装置及电子设备 |
CN115526332A (zh) * | 2022-08-17 | 2022-12-27 | 阿里巴巴(中国)有限公司 | 基于预训练语言模型的学生模型训练方法和文本分类系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107391485A (zh) * | 2017-07-18 | 2017-11-24 | 中译语通科技(北京)有限公司 | 基于最大熵和神经网络模型的韩语命名实体识别方法 |
US11604965B2 (en) * | 2019-05-16 | 2023-03-14 | Salesforce.Com, Inc. | Private deep learning |
US20220188622A1 (en) * | 2020-12-10 | 2022-06-16 | International Business Machines Corporation | Alternative soft label generation |
-
2023
- 2023-01-19 CN CN202310086175.8A patent/CN116186200B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101545A (zh) * | 2020-08-28 | 2020-12-18 | 北京百度网讯科技有限公司 | 蒸馏系统的训练方法、装置、设备及存储介质 |
CN113987209A (zh) * | 2021-11-04 | 2022-01-28 | 浙江大学 | 基于知识指导前缀微调的自然语言处理方法、装置、计算设备和存储介质 |
CN114818891A (zh) * | 2022-04-14 | 2022-07-29 | 人民网股份有限公司 | 小样本多标签文本分类模型训练方法及文本分类方法 |
CN114969332A (zh) * | 2022-05-18 | 2022-08-30 | 北京百度网讯科技有限公司 | 训练文本审核模型的方法和装置 |
CN114722805A (zh) * | 2022-06-10 | 2022-07-08 | 苏州大学 | 基于大小导师知识蒸馏的少样本情感分类方法 |
CN115203419A (zh) * | 2022-07-21 | 2022-10-18 | 北京百度网讯科技有限公司 | 语言模型的训练方法、装置及电子设备 |
CN115526332A (zh) * | 2022-08-17 | 2022-12-27 | 阿里巴巴(中国)有限公司 | 基于预训练语言模型的学生模型训练方法和文本分类系统 |
Non-Patent Citations (2)
Title |
---|
SentiBERT:结合情感信息的预训练语言模型;杨晨;宋晓宁;宋威;;计算机科学与探索(第09期);全文 * |
基于中文文本的同义词提取方法研究;杨浩天;胡勇;王正;;现代计算机(第15期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116186200A (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116186200B (zh) | 模型训练方法、装置、电子设备和存储介质 | |
CN112487173B (zh) | 人机对话方法、设备和存储介质 | |
CN113836925B (zh) | 预训练语言模型的训练方法、装置、电子设备及存储介质 | |
CN113392253B (zh) | 视觉问答模型训练及视觉问答方法、装置、设备及介质 | |
CN114840671A (zh) | 对话生成方法、模型的训练方法、装置、设备及介质 | |
CN113360700B (zh) | 图文检索模型的训练和图文检索方法、装置、设备和介质 | |
CN114399772B (zh) | 样本生成、模型训练和轨迹识别方法、装置、设备和介质 | |
CN115062718A (zh) | 语言模型训练方法、装置、电子设备及存储介质 | |
CN113095065B (zh) | 一种中文字向量学习方法及装置 | |
CN113033194B (zh) | 语义表示图模型的训练方法、装置、设备和存储介质 | |
CN116049370A (zh) | 信息查询方法和信息生成模型的训练方法、装置 | |
CN113850383A (zh) | 文本匹配模型训练方法、装置、电子设备及存储介质 | |
CN115840867A (zh) | 数学解题模型的生成方法、装置、电子设备和存储介质 | |
CN112925912A (zh) | 文本处理方法、同义文本召回方法及装置 | |
CN112905917A (zh) | 内链生成方法、模型训练方法、相关装置及电子设备 | |
CN116737888B (zh) | 对话生成模型的训练方法和答复文本的确定方法、装置 | |
CN115034388B (zh) | 排序模型的量化参数的确定方法、装置及电子设备 | |
CN116628004B (zh) | 信息查询方法、装置、电子设备及存储介质 | |
CN116244432B (zh) | 语言模型的预训练方法、装置及电子设备 | |
CN114896993B (zh) | 翻译模型的生成方法、装置、电子设备及存储介质 | |
CN115482809B (zh) | 关键词检索方法、装置、电子设备以及存储介质 | |
CN114461771A (zh) | 问答方法、装置、电子设备和可读存储介质 | |
CN117236340A (zh) | 问答方法、装置、设备和介质 | |
CN116090437A (zh) | 完型填空题目的处理方法、装置、设备及存储介质 | |
CN116842942A (zh) | 数据处理方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |