CN116595130A - 基于小语言模型的多种任务下的语料扩充方法及装置 - Google Patents

基于小语言模型的多种任务下的语料扩充方法及装置 Download PDF

Info

Publication number
CN116595130A
CN116595130A CN202310876639.5A CN202310876639A CN116595130A CN 116595130 A CN116595130 A CN 116595130A CN 202310876639 A CN202310876639 A CN 202310876639A CN 116595130 A CN116595130 A CN 116595130A
Authority
CN
China
Prior art keywords
model
data
language model
language
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310876639.5A
Other languages
English (en)
Other versions
CN116595130B (zh
Inventor
汪骞
暴宇健
王芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Xumi Yuntu Space Technology Co Ltd
Original Assignee
Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Xumi Yuntu Space Technology Co Ltd filed Critical Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority to CN202310876639.5A priority Critical patent/CN116595130B/zh
Publication of CN116595130A publication Critical patent/CN116595130A/zh
Application granted granted Critical
Publication of CN116595130B publication Critical patent/CN116595130B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及文本处理技术领域,提供了一种基于小语言模型的多种任务下的语料扩充方法及装置。该方法包括:获取大语言模型和小语言模型,大语言模型的模型规模大于小语言模型的模型规模;基于自回归语言任务分别对大语言模型和小语言模型进行预训练;基于多种自然语言任务对预训练后的大语言模型进行多任务训练;将多任务训练后的大语言模型作为教师模型,将预训练后的小语言模型作为学生模型,进行从教师模型到学生模型的知识蒸馏;通过知识蒸馏后的小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充。采用上述技术手段,解决现有技术中,利用模型进行数据增强,产生的数据质量差,且只能进行一种自然语言任务下的数据增强的问题。

Description

基于小语言模型的多种任务下的语料扩充方法及装置
技术领域
本申请涉及文本处理技术领域,尤其涉及一种基于小语言模型的多种任务下的语料扩充方法及装置。
背景技术
在文本处理中,为了提高对训练数据进行数据增强的效率,可以使用模型进行数据增强。但是每个进行数据增强的模型仅可以对一种自然语言任务对应的训练数据进行数据增强,针对不同自然语言任务对应的训练数据进行数据增强,需要多个进行数据增强的模型,且每个进行数据增强的模型的训练均是不同的,这给多种自然语言任务下的数据增强带来了极大的不变。同时,目前使用的进行数据增强的模型产生数据质量较差。
发明内容
有鉴于此,本申请实施例提供了一种基于小语言模型的多种任务下的语料扩充方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,利用模型进行数据增强,产生的数据质量差,且只能进行一种自然语言任务下的数据增强的问题。
本申请实施例的第一方面,提供了一种基于小语言模型的多种任务下的语料扩充方法,包括:获取大语言模型和小语言模型,其中,大语言模型的模型规模大于小语言模型的模型规模;基于自回归语言任务分别对大语言模型和小语言模型进行预训练;基于多种自然语言任务对预训练后的大语言模型进行多任务训练;将多任务训练后的大语言模型作为教师模型,将预训练后的小语言模型作为学生模型,进行从教师模型到学生模型的知识蒸馏;通过知识蒸馏后的小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充。
本申请实施例的第二方面,提供了一种基于小语言模型的多种任务下的语料扩充装置,包括:获取模块,被配置为获取大语言模型和小语言模型,其中,大语言模型的模型规模大于小语言模型的模型规模;预训练模块,被配置为基于自回归语言任务分别对大语言模型和小语言模型进行预训练;多任务训练模块,被配置为基于多种自然语言任务对预训练后的大语言模型进行多任务训练;蒸馏模块,被配置为将多任务训练后的大语言模型作为教师模型,将预训练后的小语言模型作为学生模型,进行从教师模型到学生模型的知识蒸馏;语料扩充模块,被配置为通过知识蒸馏后的小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本申请实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:因为本申请实施例通过获取大语言模型和小语言模型,其中,大语言模型的模型规模大于小语言模型的模型规模;基于自回归语言任务分别对大语言模型和小语言模型进行预训练;基于多种自然语言任务对预训练后的大语言模型进行多任务训练;将多任务训练后的大语言模型作为教师模型,将预训练后的小语言模型作为学生模型,进行从教师模型到学生模型的知识蒸馏;通过知识蒸馏后的小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充,因此,采用上述技术手段,可以解决现有技术中,利用模型进行数据增强,产生的数据质量差,且只能进行一种自然语言任务下的数据增强的问题,进而提高数据增强产生数据的质量,提供针对多种自然语言任务下的数据增强的方法。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例提供的一种基于小语言模型的多种任务下的语料扩充方法的流程示意图;
图2是本申请实施例提供的一种确定数据组中最后一条数据对应的相似句的方法的流程示意图;
图3是本申请实施例提供的一种基于小语言模型的多种任务下的语料扩充装置的结构示意图;
图4是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
图1是本申请实施例提供的一种基于小语言模型的多种任务下的语料扩充方法的流程示意图。图1的基于小语言模型的多种任务下的语料扩充方法可以由计算机或服务器,或者计算机或服务器上的软件执行。如图1所示,该基于小语言模型的多种任务下的语料扩充方法包括:
S101,获取大语言模型和小语言模型,其中,大语言模型的模型规模大于小语言模型的模型规模;
S102,基于自回归语言任务分别对大语言模型和小语言模型进行预训练;
S103,基于多种自然语言任务对预训练后的大语言模型进行多任务训练;
S104,将多任务训练后的大语言模型作为教师模型,将预训练后的小语言模型作为学生模型,进行从教师模型到学生模型的知识蒸馏;
S105,通过知识蒸馏后的小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充。
教师模型的模型规模远大于学生模型的模型规模,可以说,教师模型是重量级的模型,学生模型是轻量级的模型。大语言模型是LLM模型,英文全称是Large LanguageModel,是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务。小语言模型是transformers的多层decoder结构构成的。自回归语言任务可以是自监督模型常用的自回归语言模型任务,自回归语言任务是根据句子的前半部分,补全句子的后半部分,如原句为:明天天气晴。当大语言模型的输入是“明天天”,输出是“明天天气”等。多种自然语言任务,包括:常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务;多任务训练,包括:常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务下的训练。基于多种自然语言任务对预训练后的大语言模型进行多任务训练,是对大语言模型进行同时进行常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务下的训练。
知识蒸馏后的学生模型的即是通过知识蒸馏后的小语言模型。
根据本申请实施例提供的技术方案,获取大语言模型和小语言模型,其中,大语言模型的模型规模大于小语言模型的模型规模;基于自回归语言任务分别对大语言模型和小语言模型进行预训练;基于多种自然语言任务对预训练后的大语言模型进行多任务训练;将多任务训练后的大语言模型作为教师模型,将预训练后的小语言模型作为学生模型,进行从教师模型到学生模型的知识蒸馏;通过知识蒸馏后的小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充。采用上述技术手段,可以解决现有技术中,利用模型进行数据增强,产生的数据质量差,且只能进行一种自然语言任务下的数据增强的问题,进而提高数据增强产生数据的质量,提供针对多种自然语言任务下的数据增强的方法。
因为大语言模型经过多任务训练,所以大语言模型可以进行多种自然语言任务下的数据增强,之后在大语言模型和小语言模型之间进行知识蒸馏,使得小语言模型进行多种自然语言任务下的数据增强,同时因为小语言模型通过知识蒸馏,从大语言模型学到了大量的“知识”,所以小语言模型相较于常用的进行数据增强的模型产生数据的质量较高。小语言模型的模型规模小,所以小语言模型适用于只能运行轻量级模型的场景中的数据增强。
将多任务训练后的大语言模型作为教师模型,将预训练后的小语言模型作为学生模型,进行从教师模型到学生模型的知识蒸馏,包括:获取知识蒸馏对应的训练数据,将知识蒸馏对应的训练数据均输入教师模型和学生模型,得到教师模型和学生模型的输出;基于教师模型和学生模型的输出,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数。
基于教师模型和学生模型的输出,利用目标损失函数计算损失值
其中,为教师模型的输出,/>为学生模型的输出,下标s用于标记为学生模型的输出,下标t用于标记/>是教师模型的输出,τ为学生模型和教师模型的温度超参,/>和/>均与τ相关,/>为目标损失函数,是计算推土机距离的函数。
推土机距离是Wasserstein距离,Wasserstein距离也叫做推土机距离(EarthMover's distance),是现有的,所以不再赘述。
确定学生模型和教师模型的模型规模;基于学生模型和教师模型的模型规模,确定学生模型和教师模型的温度超参;其中,温度超参用于约束学生模型和教师模型的输出。
模型规模即模型大小,模型的模型规模可以通过模型的参数量来衡量。可以将多个教师模型的模型规模的平均值与学生模型的模型规模的比值缩小或扩大一定倍数后作为温度超参。往往将模型最终计算得到的分布除以温度超参,作为模型的输出分布。
通过知识蒸馏后的小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充,包括:获取待进行语料扩充的目标任务对应的数据集,将数据集中的数据按照小组进行划分,得到多个数据组,其中,目标任务是多种任务中的一种,每个数据组包括N条数据,第i条数据和第i+1条数据互为相似句,N为奇数,第N条数据没有其对应的相似句,i为开区间(0,N)内的奇数,i+1小于N;将多个数据组依次输入知识蒸馏后的小语言模型,输出每个数据组中第N条数据对应的相似句,其中,每个数据组中第N条数据对应的相似句,是小语言模型以上下文学习的方法进行目标任务下的语料扩充得到的。
将多个数据组依次输入知识蒸馏后的小语言模型,输出每个数据组中第N条数据对应的相似句,包括:将每个数据组中互为相似句的第i条数据和第i+1条数据作为一对数据,每个数据组具有(N-1)/2对数据;小语言模型基于每个数据组中的(N-1)/2对数据,以上下文学习的方法对该数据组中第N条数据进行目标任务下的语料扩充,得到该数据组中第N条数据对应的相似句。
比如N为5,一个数据组有5条数据,则i为1和3,第1条数据和第2条数据互为相似句,第3条数据和第4条数据互为相似句,第5条数据没有对应的相似句,i+1最大是4,所以i+1小于N。第1条数据和第2条数据为一对数据,第3条数据和第4条数据为一对数据,该数据组中共有(N-1)/2,也就是2对数据。将数据集中的数据按照小组进行划分,就是在目标任务对应的数据集中挑选出5条数据作为一个数据组,其中,第1条数据和第2条数据互为相似句,第3条数据和第4条数据互为相似句,第5条数据没有对应的相似句。
将一个数据组中的(N-1)/2对数据作为上文,将该数据组中第N条数据作为下文,以上下文学习的方法对该数据组中第N条数据进行目标任务下的语料扩充,得到该数据组中第N条数据对应的相似句。
或者将一个数据组中所有的数据作为上文,将该数据组中第N条数据对应的相似句(未知)作为下文,以上下文学习的方法对该数据组中第N条数据进行目标任务下的语料扩充,得到该数据组中第N条数据对应的相似句。
图2是本申请实施例提供的一种确定数据组中最后一条数据对应的相似句的方法的流程示意图。如图2所示,包括:
S201,获取待进行语料扩充的目标任务对应的数据集;
S202,将数据集中的数据按照小组进行划分,得到多个数据组,其中,目标任务是多种任务中的一种,每个数据组包括N条数据,第i条数据和第i+1条数据互为相似句,N为奇数,第N条数据没有其对应的相似句,i为开区间(0,N)内的奇数,i+1小于N;
S203,将每个数据组中互为相似句的第i条数据和第i+1条数据作为一对数据,每个数据组具有(N-1)/2对数据,将多个数据组依次输入知识蒸馏后的小语言模型:
S204,小语言模型基于每个数据组中的(N-1)/2对数据,以上下文学习的方法对该数据组中第N条数据进行目标任务下的语料扩充,得到该数据组中第N条数据对应的相似句;
S205,小语言模型输出每个数据组中第N条数据对应的相似句。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图3是本申请实施例提供的一种基于小语言模型的多种任务下的语料扩充装置的示意图。如图3所示,该基于小语言模型的多种任务下的语料扩充装置包括:
获取模块301,被配置为获取大语言模型和小语言模型,其中,大语言模型的模型规模大于小语言模型的模型规模;
预训练模块302,被配置为基于自回归语言任务分别对大语言模型和小语言模型进行预训练;
多任务训练模块303,被配置为基于多种自然语言任务对预训练后的大语言模型进行多任务训练;
蒸馏模块304,被配置为将多任务训练后的大语言模型作为教师模型,将预训练后的小语言模型作为学生模型,进行从教师模型到学生模型的知识蒸馏;
语料扩充模块305,被配置为通过知识蒸馏后的小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充。
教师模型的模型规模远大于学生模型的模型规模,可以说,教师模型是重量级的模型,学生模型是轻量级的模型。大语言模型是LLM模型,英文全称是Large LanguageModel,是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务。小语言模型是transformers的多层decoder结构构成的。自回归语言任务可以是自监督模型常用的自回归语言模型任务,自回归语言任务是根据句子的前半部分,补全句子的后半部分,如原句为:明天天气晴。当大语言模型的输入是“明天天”,输出是“明天天气”等。多种自然语言任务,包括:常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务;多任务训练,包括:常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务下的训练。基于多种自然语言任务对预训练后的大语言模型进行多任务训练,是对大语言模型进行同时进行常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务下的训练。
根据本申请实施例提供的技术方案,获取大语言模型和小语言模型,其中,大语言模型的模型规模大于小语言模型的模型规模;基于自回归语言任务分别对大语言模型和小语言模型进行预训练;基于多种自然语言任务对预训练后的大语言模型进行多任务训练;将多任务训练后的大语言模型作为教师模型,将预训练后的小语言模型作为学生模型,进行从教师模型到学生模型的知识蒸馏;通过知识蒸馏后的小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充。采用上述技术手段,可以解决现有技术中,利用模型进行数据增强,产生的数据质量差,且只能进行一种自然语言任务下的数据增强的问题,进而提高数据增强产生数据的质量,提供针对多种自然语言任务下的数据增强的方法。
因为大语言模型经过多任务训练,所以大语言模型可以进行多种自然语言任务下的数据增强,之后在大语言模型和小语言模型之间进行知识蒸馏,使得小语言模型进行多种自然语言任务下的数据增强,同时因为小语言模型通过知识蒸馏,从大语言模型学到了大量的“知识”,所以小语言模型相较于常用的进行数据增强的模型产生数据的质量较高。小语言模型的模型规模小,所以小语言模型适用于只能运行轻量级模型的场景中的数据增强。
可选地,蒸馏模块304还被配置为获取知识蒸馏对应的训练数据,将知识蒸馏对应的训练数据均输入教师模型和学生模型,得到教师模型和学生模型的输出;基于教师模型和学生模型的输出,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数。
可选地,蒸馏模块304还被配置为基于教师模型和学生模型的输出,利用目标损失函数计算损失值
其中,为教师模型的输出,/>为学生模型的输出,下标s用于标记为学生模型的输出,下标t用于标记/>是教师模型的输出,τ为学生模型和教师模型的温度超参,/>和/>均与τ相关,/>为目标损失函数,是计算推土机距离的函数。
推土机距离是Wasserstein距离,Wasserstein距离也叫做推土机距离(EarthMover's distance),是现有的,所以不再赘述。
可选地,蒸馏模块304还被配置为确定学生模型和教师模型的模型规模;基于学生模型和教师模型的模型规模,确定学生模型和教师模型的温度超参;其中,温度超参用于约束学生模型和教师模型的输出。
模型规模即模型大小,模型的模型规模可以通过模型的参数量来衡量。可以将多个教师模型的模型规模的平均值与学生模型的模型规模的比值缩小或扩大一定倍数后作为温度超参。往往将模型最终计算得到的分布除以温度超参,作为模型的输出分布。
可选地,语料扩充模块305还被配置为获取待进行语料扩充的目标任务对应的数据集,将数据集中的数据按照小组进行划分,得到多个数据组,其中,目标任务是多种任务中的一种,每个数据组包括N条数据,第i条数据和第i+1条数据互为相似句,N为奇数,第N条数据没有其对应的相似句,i为开区间(0,N)内的奇数,i+1小于N;将多个数据组依次输入知识蒸馏后的小语言模型,输出每个数据组中第N条数据对应的相似句,其中,每个数据组中第N条数据对应的相似句,是小语言模型以上下文学习的方法进行目标任务下的语料扩充得到的。
可选地,语料扩充模块305还被配置为将每个数据组中互为相似句的第i条数据和第i+1条数据作为一对数据,每个数据组具有(N-1)/2对数据;小语言模型基于每个数据组中的(N-1)/2对数据,以上下文学习的方法对该数据组中第N条数据进行目标任务下的语料扩充,得到该数据组中第N条数据对应的相似句。
比如N为5,一个数据组有5条数据,则i为1和3,第1条数据和第2条数据互为相似句,第3条数据和第4条数据互为相似句,第5条数据没有对应的相似句,i+1最大是4,所以i+1小于N。第1条数据和第2条数据为一对数据,第3条数据和第4条数据为一对数据,该数据组中共有(N-1)/2,也就是2对数据。将数据集中的数据按照小组进行划分,就是在目标任务对应的数据集中挑选出5条数据作为一个数据组,其中,第1条数据和第2条数据互为相似句,第3条数据和第4条数据互为相似句,第5条数据没有对应的相似句。
可选地,语料扩充模块305还被配置为将一个数据组中的(N-1)/2对数据作为上文,将该数据组中第N条数据作为下文,以上下文学习的方法对该数据组中第N条数据进行目标任务下的语料扩充,得到该数据组中第N条数据对应的相似句。
可选地,语料扩充模块305还被配置为将一个数据组中所有的数据作为上文,将该数据组中第N条数据对应的相似句(未知)作为下文,以上下文学习的方法对该数据组中第N条数据进行目标任务下的语料扩充,得到该数据组中第N条数据对应的相似句。
可选地,语料扩充模块305还被配置为获取待进行语料扩充的目标任务对应的数据集;将数据集中的数据按照小组进行划分,得到多个数据组,其中,目标任务是多种任务中的一种,每个数据组包括N条数据,第i条数据和第i+1条数据互为相似句,N为奇数,第N条数据没有其对应的相似句,i为开区间(0,N)内的奇数,i+1小于N;将每个数据组中互为相似句的第i条数据和第i+1条数据作为一对数据,每个数据组具有(N-1)/2对数据,将多个数据组依次输入知识蒸馏后的小语言模型:小语言模型基于每个数据组中的(N-1)/2对数据,以上下文学习的方法对该数据组中第N条数据进行目标任务下的语料扩充,得到该数据组中第N条数据对应的相似句;输出每个数据组中第N条数据对应的相似句。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图4是本申请实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种基于小语言模型的多种任务下的语料扩充方法,其特征在于,包括:
获取大语言模型和小语言模型,其中,所述大语言模型的模型规模大于所述小语言模型的模型规模;
基于自回归语言任务分别对所述大语言模型和所述小语言模型进行预训练;
基于多种自然语言任务对所述预训练后的所述大语言模型进行多任务训练;
将所述多任务训练后的所述大语言模型作为教师模型,将所述预训练后的所述小语言模型作为学生模型,进行从所述教师模型到所述学生模型的知识蒸馏;
通过所述知识蒸馏后的所述小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充。
2.根据权利要求1所述的方法,其特征在于,将所述多任务训练后的所述大语言模型作为教师模型,将所述预训练后的所述小语言模型作为学生模型,进行从所述教师模型到所述学生模型的知识蒸馏,包括:
获取所述知识蒸馏对应的训练数据,将所述知识蒸馏对应的训练数据均输入所述教师模型和所述学生模型,得到所述教师模型和所述学生模型的输出;
基于所述教师模型和所述学生模型的输出,利用目标损失函数计算损失值,并基于所述损失值更新所述学生模型的模型参数。
3.根据权利要求1所述的方法,其特征在于,基于所述教师模型和所述学生模型的输出,利用目标损失函数计算损失值
其中,为所述教师模型的输出,/>为所述学生模型的输出,下标s用于标记为所述学生模型的输出,下标t用于标记/>是所述教师模型的输出,τ为所述学生模型和所述教师模型的温度超参,/>和/>均与τ相关,/>为所述目标损失函数,是计算推土机距离的函数。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
确定所述学生模型和所述教师模型的模型规模;
基于所述学生模型和所述教师模型的模型规模,确定所述学生模型和所述教师模型的温度超参;
其中,所述温度超参用于约束所述学生模型和所述教师模型的输出。
5.根据权利要求1所述的方法,其特征在于,通过所述知识蒸馏后的所述小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充,包括:
获取待进行所述语料扩充的目标任务对应的数据集,将所述数据集中的数据按照小组进行划分,得到多个数据组,其中,所述目标任务是多种任务中的一种,每个数据组包括N条数据,第i条数据和第i+1条数据互为相似句,N为奇数,第N条数据没有其对应的相似句,i为开区间(0,N)内的奇数,i+1小于N;
将多个数据组依次输入所述知识蒸馏后的所述小语言模型,输出每个数据组中第N条数据对应的相似句,其中,每个数据组中第N条数据对应的相似句,是所述小语言模型以所述上下文学习的方法进行所述目标任务下的语料扩充得到的。
6.根据权利要求5所述的方法,其特征在于,将多个数据组依次输入所述知识蒸馏后的所述小语言模型,输出每个数据组中第N条数据对应的相似句,包括:
将每个数据组中互为相似句的第i条数据和第i+1条数据作为一对数据,每个数据组具有(N-1)/2对数据;
所述小语言模型基于每个数据组中的(N-1)/2对数据,以所述上下文学习的方法对该数据组中第N条数据进行所述目标任务下的语料扩充,得到该数据组中第N条数据对应的相似句。
7.根据权利要求1所述的方法,其特征在于,多种自然语言任务,包括:常识问答任务、文案生成任务、翻译任务、自动摘要任务、文本分类任务和对话任务;
所述多任务训练,包括:所述常识问答任务、所述文案生成任务、所述翻译任务、所述自动摘要任务、所述文本分类任务和所述对话任务下的训练。
8.一种基于小语言模型的多种任务下的语料扩充装置,其特征在于,包括:
获取模块,被配置为获取大语言模型和小语言模型,其中,所述大语言模型的模型规模大于所述小语言模型的模型规模;
预训练模块,被配置为基于自回归语言任务分别对所述大语言模型和所述小语言模型进行预训练;
多任务训练模块,被配置为基于多种自然语言任务对所述预训练后的所述大语言模型进行多任务训练;
蒸馏模块,被配置为将所述多任务训练后的所述大语言模型作为教师模型,将所述预训练后的所述小语言模型作为学生模型,进行从所述教师模型到所述学生模型的知识蒸馏;
语料扩充模块,被配置为通过所述知识蒸馏后的所述小语言模型以上下文学习的方法进行多种自然语言任务下的语料扩充。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
CN202310876639.5A 2023-07-18 2023-07-18 基于小语言模型的多种任务下的语料扩充方法及装置 Active CN116595130B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310876639.5A CN116595130B (zh) 2023-07-18 2023-07-18 基于小语言模型的多种任务下的语料扩充方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310876639.5A CN116595130B (zh) 2023-07-18 2023-07-18 基于小语言模型的多种任务下的语料扩充方法及装置

Publications (2)

Publication Number Publication Date
CN116595130A true CN116595130A (zh) 2023-08-15
CN116595130B CN116595130B (zh) 2024-02-20

Family

ID=87606597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310876639.5A Active CN116595130B (zh) 2023-07-18 2023-07-18 基于小语言模型的多种任务下的语料扩充方法及装置

Country Status (1)

Country Link
CN (1) CN116595130B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117743545A (zh) * 2023-12-20 2024-03-22 北京橡数科技有限公司 一种基于toB企服项目交付系统业务数据获取方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112541076A (zh) * 2020-11-09 2021-03-23 北京百度网讯科技有限公司 目标领域的扩充语料生成方法、装置和电子设备
US20210142164A1 (en) * 2019-11-07 2021-05-13 Salesforce.Com, Inc. Multi-Task Knowledge Distillation for Language Model
CN113408808A (zh) * 2021-06-28 2021-09-17 北京百度网讯科技有限公司 训练方法、数据生成方法、装置、电子设备以及存储介质
CN113515948A (zh) * 2021-01-11 2021-10-19 腾讯科技(深圳)有限公司 语言模型训练方法、装置、设备及存储介质
CN114818902A (zh) * 2022-04-21 2022-07-29 浪潮云信息技术股份公司 基于知识蒸馏的文本分类方法及系统
CN115203419A (zh) * 2022-07-21 2022-10-18 北京百度网讯科技有限公司 语言模型的训练方法、装置及电子设备
CN116186200A (zh) * 2023-01-19 2023-05-30 北京百度网讯科技有限公司 模型训练方法、装置、电子设备和存储介质
CN116362351A (zh) * 2023-05-29 2023-06-30 深圳须弥云图空间科技有限公司 利用噪声扰动训练预训练语言模型的方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210142164A1 (en) * 2019-11-07 2021-05-13 Salesforce.Com, Inc. Multi-Task Knowledge Distillation for Language Model
CN112541076A (zh) * 2020-11-09 2021-03-23 北京百度网讯科技有限公司 目标领域的扩充语料生成方法、装置和电子设备
CN113515948A (zh) * 2021-01-11 2021-10-19 腾讯科技(深圳)有限公司 语言模型训练方法、装置、设备及存储介质
CN113408808A (zh) * 2021-06-28 2021-09-17 北京百度网讯科技有限公司 训练方法、数据生成方法、装置、电子设备以及存储介质
CN114818902A (zh) * 2022-04-21 2022-07-29 浪潮云信息技术股份公司 基于知识蒸馏的文本分类方法及系统
CN115203419A (zh) * 2022-07-21 2022-10-18 北京百度网讯科技有限公司 语言模型的训练方法、装置及电子设备
CN116186200A (zh) * 2023-01-19 2023-05-30 北京百度网讯科技有限公司 模型训练方法、装置、电子设备和存储介质
CN116362351A (zh) * 2023-05-29 2023-06-30 深圳须弥云图空间科技有限公司 利用噪声扰动训练预训练语言模型的方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117743545A (zh) * 2023-12-20 2024-03-22 北京橡数科技有限公司 一种基于toB企服项目交付系统业务数据获取方法和系统
CN117743545B (zh) * 2023-12-20 2024-05-17 北京橡数科技有限公司 一种基于toB企服项目交付系统业务数据获取方法和系统

Also Published As

Publication number Publication date
CN116595130B (zh) 2024-02-20

Similar Documents

Publication Publication Date Title
US11544474B2 (en) Generation of text from structured data
US10540585B2 (en) Training sequence generation neural networks using quality scores
CN107408111A (zh) 端对端语音识别
CN109960815B (zh) 一种神经机器翻译nmt模型的创建方法及系统
CN116595130B (zh) 基于小语言模型的多种任务下的语料扩充方法及装置
CN116362351B (zh) 利用噪声扰动训练预训练语言模型的方法及装置
CN116595159B (zh) 数学题解答模型训练方法及装置
CN114818891B (zh) 小样本多标签文本分类模型训练方法及文本分类方法
CN116523031B (zh) 语言生成模型的训练方法、语言生成方法及电子设备
CN115238893B (zh) 面向自然语言处理的神经网络模型量化方法和装置
WO2021002968A1 (en) Model generation based on model compression
CN112364990A (zh) 通过元学习实现语法改错少样本领域适应的方法及系统
CN116483979A (zh) 基于人工智能的对话模型训练方法、装置、设备及介质
CN116610795B (zh) 文本检索方法及装置
US20230145129A1 (en) Generating neural network outputs by enriching latent embeddings using self-attention and cross-attention operations
CN116542328A (zh) Ctr预测模型的知识蒸馏方法及装置
CN112036183A (zh) 基于BiLSTM网络模型及CRF模型的分词方法、装置、计算机装置及计算机存储介质
CN116595385B (zh) 作文生成模型训练方法及装置
CN111723548B (zh) 评论扩展方法及装置
CN116522152B (zh) 基于回译的翻译模型训练方法及装置
US20230138232A1 (en) Conversion learning apparatus, conversion learning method, conversion learning program and conversion apparatus
US20240354632A1 (en) Method and apparatus for generating target deep learning model
CN116610788A (zh) 基于训练数据的数据量训练预训练语言模型的方法及装置
CN118626612A (zh) 模型训练方法、文本生成方法、装置、设备和介质
WO2023144385A1 (en) Local cross-attention operations in neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant