CN116542328B - Ctr预测模型的知识蒸馏方法及装置 - Google Patents

Ctr预测模型的知识蒸馏方法及装置 Download PDF

Info

Publication number
CN116542328B
CN116542328B CN202310820709.5A CN202310820709A CN116542328B CN 116542328 B CN116542328 B CN 116542328B CN 202310820709 A CN202310820709 A CN 202310820709A CN 116542328 B CN116542328 B CN 116542328B
Authority
CN
China
Prior art keywords
model
student model
student
teacher models
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310820709.5A
Other languages
English (en)
Other versions
CN116542328A (zh
Inventor
董辉
暴宇健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Xumi Yuntu Space Technology Co Ltd
Original Assignee
Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Xumi Yuntu Space Technology Co Ltd filed Critical Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority to CN202310820709.5A priority Critical patent/CN116542328B/zh
Publication of CN116542328A publication Critical patent/CN116542328A/zh
Application granted granted Critical
Publication of CN116542328B publication Critical patent/CN116542328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及机器学习技术领域,提供了一种CTR预测模型的知识蒸馏方法及装置。该方法包括:获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型;将训练数据分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的输出;利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;基于学生模型的输出和加权和,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数,以完成从多个教师模型到学生模型的知识蒸馏。采用上述技术手段,解决现有技术中,通过知识蒸馏得到的小规模的CTR预测模型往往使用效果不尽人意的问题。

Description

CTR预测模型的知识蒸馏方法及装置
技术领域
本申请涉及机器学习技术领域,尤其涉及一种CTR预测模型的知识蒸馏方法及装置。
背景技术
推荐系统在当今生活扮演着不可或缺的作用,无论是网络购物,新闻阅读,还是视频观看等,都有其身影。用户点击预测(Click Through Rate,CTR)是推荐系统中的关键任务,它可以估计用户点击一个item的概率,用于执行CTR任务模型的称之为CTR预测模型。在很多场景下,只能运行小规模的CTR预测模型,所以常用知识蒸馏的方法将大规模的CTR预测模型的知识迁移给小规模的CTR预测模型,但是知识蒸馏得到的小规模的CTR预测模型往往使用效果不尽人意,比如精度低和泛化能力差等。
发明内容
有鉴于此,本申请实施例提供了一种CTR预测模型的知识蒸馏方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,通过知识蒸馏得到的小规模的CTR预测模型往往使用效果不尽人意的问题。
本申请实施例的第一方面,提供了一种CTR预测模型的知识蒸馏方法,包括:获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型,其中,学生模型和多个教师模型均为CTR预测模型;获取训练数据,将训练数据分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的输出;利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;基于学生模型的输出和加权和,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数,以完成从多个教师模型到学生模型的知识蒸馏。
本申请实施例的第二方面,提供了一种CTR预测模型的知识蒸馏装置,包括:获取模块,被配置为获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型,其中,学生模型和多个教师模型均为CTR预测模型;输入模块,被配置为获取训练数据,将训练数据分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的输出;计算模块,被配置为利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;蒸馏模块,被配置为基于学生模型的输出和加权和,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数,以完成从多个教师模型到学生模型的知识蒸馏。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本申请实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:因为本申请实施例通过获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型,其中,学生模型和多个教师模型均为CTR预测模型;获取训练数据,将训练数据分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的输出;利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;基于学生模型的输出和加权和,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数,以完成从多个教师模型到学生模型的知识蒸馏,因此,采用上述技术手段,可以解决现有技术中,通过知识蒸馏得到的小规模的CTR预测模型往往使用效果不尽人意的问题,进而提高通过知识蒸馏得到的小规模的CTR预测模型的使用效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例提供的一种CTR预测模型的知识蒸馏方法的流程示意图;
图2是本申请实施例提供的一种动态调整超参温度的方法的流程示意图;
图3是本申请实施例提供的一种CTR预测模型的知识蒸馏装置的结构示意图;
图4是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
图1是本申请实施例提供的一种CTR预测模型的知识蒸馏方法的流程示意图。图1的CTR预测模型的知识蒸馏方法可以由计算机或服务器,或者计算机或服务器上的软件执行。如图1所示,该CTR预测模型的知识蒸馏方法包括:
S101,获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型,其中,学生模型和多个教师模型均为CTR预测模型;
S102,获取训练数据,将训练数据分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的输出;
S103,利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;
S104,基于学生模型的输出和加权和,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数,以完成从多个教师模型到学生模型的知识蒸馏。
将多个教师模型各自的输出均输入门控模型,门控模型输出多个教师模型各自的输出对应的权重。计算多个教师模型各自的输出的加权和,是将每个教师模型的输出与其对应的权重相乘,然后将所有教师模型的输出与对应的权重相乘的结果相加,得到加权和。基于损失值更新学生模型的模型参数,就是从多个教师模型到学生模型的知识蒸馏的过程,也是基于多个教师模型,训练学生模型的过程。
CTR,全称是Click Through Rate,也就是点击预测模型。本申请实施例中训练得到的CTR预测模型可以用于网络购物、新闻阅读以及视频观看等场景中预测用户喜欢的目标,将预测的目标推荐给用户。训练数据和CTR预测模型的使用场景是一致的。比如在网络购物场景下,训练数据是大量用户点击购买商品的数据。
教师模型的模型规模远大于学生模型的模型规模,所以说,教师模型是重量级的模型,学生模型是轻量级的模型。因为人们在学习的时候是由不同的老师教授不同学科的知识,本申请实施例基于该思想,在知识蒸馏中利用多个教师模型训练学生模型,使得学生模型学习到最多的知识,进而提高通过知识蒸馏得到的学生模型的使用效果,包括提高学生模型的精度和泛化能力等。学生模型即为小规模的CTR预测模型,教师模型即为大规模的CTR预测模型。
根据本申请实施例提供的技术方案,获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型,其中,学生模型和多个教师模型均为CTR预测模型;获取训练数据,将训练数据分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的输出;利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;基于学生模型的输出和加权和,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数,以完成从多个教师模型到学生模型的知识蒸馏,因此,采用上述技术手段,可以解决现有技术中,通过知识蒸馏得到的小规模的CTR预测模型往往使用效果不尽人意的问题,进而提高通过知识蒸馏得到的小规模的CTR预测模型的使用效果。
基于学生模型的输出和加权和,利用目标损失函数计算损失值
其中,为所述学生模型的输出,/>为所述加权和,x为所述训练数据,y为所述训练数据的标签,下标s用于标记/>为所述学生模型的输出,下标t用于标记是所述加权和,/>与多个教师模型各自的输出相关,τ为所述学生模型和多个教师模型的温度超参,/>和/>均与τ相关,/>为交叉熵损失函数,/>为计算推土机距离的函数,β为预设权重。
温度超参是一个超参数,温度超参的大小控制了学生模型和教师模型各自的预测结果和学生模型和教师模型之间的平滑程度,决定了学生模型和教师模型之间的概率分布间的距离,τ越大(τ>1),就会使得概率分布越平滑,τ越小(0<τ<1),越接近0,会使得概率分布越尖锐。τ的大小影响着知识蒸馏中学生模型学习的难度,不同的τ会产生不同的蒸馏结果。
推土机距离是Wasserstein距离,Wasserstein距离也叫做推土机距离(EarthMover's distance),是现有的,所以不再赘述。/>计算的结果,可以看做是蒸馏损失值,/>计算的结果,可以看做是交叉熵损失值,损失值包括蒸馏损失值和交叉熵损失值。/>可以用KL-div散度函数替代。
门控模型由多个全连接神经网络串行连接,以及在每两个相邻的全连接神经网络之间插入激活函数组成;门控模型已经过训练,能为不同教师模型的输出分配对应的权重,其中,门控模型分配的权重为大于0且小于1的标量,每次门控模型分配的所有权重的和为1。
全连接神经网络是MLP(Multi-LayerPerceptron),即多层感知机,是一种趋向结构的人工神经网络。激活函数可以是Gelu(Gaussian Error Linear Unit)。门控模型还可以是任意的GateNet模型。
比如门控模型内部网络依次是:全连接神经网络、Gelu激活函数、全连接神经网络、Gelu激活函数、全连接神经网络。
基于学生模型的输出和加权和,利用目标损失函数计算损失值之前,方法还包括:将多个教师模型各自的输出均输入注意力模型,输出加权和,其中,注意力模型已经过训练,能通过融合多个教师模型各自的输出,得到多个教师模型各自的输出的加权和。
注意力模型可以是任意的单头注意力网络或多头注意力网络,本申请实施例通过注意力模型融合多个教师模型的输出。
将训练数据分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的输出之前,方法还包括:确定学生模型和多个教师模型各自的模型规模;基于学生模型和多个教师模型各自的模型规模,确定学生模型和多个教师模型的温度超参;其中,温度超参与学生模型和多个教师模型各自的输出相关。
模型规模即模型大小,模型的模型规模可以通过模型的参数量来衡量。可以将多个教师模型的模型规模的平均值与学生模型的模型规模的比值缩小或扩大一定倍数后作为温度超参。本申请实施例提供了一种静态温度超参。每个模型都可以具有一个温度超参。
图2是本申请实施例提供的一种动态调整超参温度的方法的流程示意图。该动态调整超参温度的方法应用于在对学生模型进行的多批次训练中,如图2所示,包括:
S201,根据当前批次计算得到的推土机距离,利用梯度反向网络计算当前批次采用的超参温度的梯度,其中,损失值包括推土机距离,若当前批次为第一批次,则当前批次采用的超参温度是根据用户指令设置的;
S202,根据当前批次采用的超参温度以及其梯度,利用可学习超参温度网络确定当前批次的下一个批次采用的超参温度。
本申请实施例提供了一种动态温度超参,第一批次采用的超参温度是根据用户指令设置,也可以是根据以往训练的经验设置。每个批次更新一次学生模型的模型参数。对模型进行多批次训练为常用技术,不再赘述,本申请实施例是在多批次训练中动态调整超参温度。
梯度反向网络GRL (Gradient ReversalLayer)用于反向计算超参温度的梯度,将当前批次计算得到的推土机距离输入梯度反向网络,输出当前批次采用的超参温度的梯度。可学习超参温度网络是一个神经网络,将当前批次采用的超参温度以及其(“其”代表当前批次采用的超参温度)梯度输入可学习超参温度网络,输出当前批次的下一个批次采用的超参温度。可学习超参温度网络通过常规模型训练即可达到该效果。
在一个可选实施例中,将训练数据按照预设比例划分为第一训练数据和第二训练数据;将第一训练数据中的样本输入学生模型,得到学生模型的第一输出,基于第一训练数据中样本的标签和第一输出,利用交叉熵损失函数计算交叉熵损失值,基于交叉熵损失值更新学生模型的模型参数,以完成对学生模型的第一阶段训练,其中,目标损失函数包括交叉熵损失函数;将第二训练数据中的样本分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的第二输出,利用门控模型确定多个教师模型各自的第二输出对应的权重,基于多个教师模型各自的第二输出所对应的权重,计算多个教师模型各自的输出的加权和,基于学生模型的第二输出和加权和,利用目标损失函数计算损失值,基于损失值更新学生模型的模型参数,以完成对学生模型的第二阶段训练。
本申请实施例通过两个阶段训练,进一步提高最终学生模型的使用效果,提高知识蒸馏的效果。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图3是本申请实施例提供的一种CTR预测模型的知识蒸馏装置的示意图。如图3所示,该CTR预测模型的知识蒸馏装置包括:
获取模块301,被配置为获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型,其中,学生模型和多个教师模型均为CTR预测模型;
输入模块302,被配置为获取训练数据,将训练数据分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的输出;
计算模块303,被配置为利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;
蒸馏模块304,被配置为基于学生模型的输出和加权和,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数,以完成从多个教师模型到学生模型的知识蒸馏。
将多个教师模型各自的输出均输入门控模型,门控模型输出多个教师模型各自的输出对应的权重。计算多个教师模型各自的输出的加权和,是将每个教师模型的输出与其对应的权重相乘,然后将所有教师模型的输出与对应的权重相乘的结果相加,得到加权和。基于损失值更新学生模型的模型参数,就是从多个教师模型到学生模型的知识蒸馏的过程,也是基于多个教师模型,训练学生模型的过程。
CTR,全称是Click Through Rate,也就是点击预测模型。本申请实施例中训练得到的CTR预测模型可以用于网络购物、新闻阅读以及视频观看等场景中预测用户喜欢的目标,将预测的目标推荐给用户。训练数据和CTR预测模型的使用场景是一致的。比如在网络购物场景下,训练数据是大量用户点击购买商品的数据。
教师模型的模型规模远大于学生模型的模型规模,所以说,教师模型是重量级的模型,学生模型是轻量级的模型。因为人们在学习的时候是由不同的老师教授不同学科的知识,本申请实施例基于该思想,在知识蒸馏中利用多个教师模型训练学生模型,使得学生模型学习到最多的知识,进而提高通过知识蒸馏得到的学生模型的使用效果,包括提高学生模型的精度和泛化能力等。学生模型即为小规模的CTR预测模型,教师模型即为大规模的CTR预测模型。
根据本申请实施例提供的技术方案,获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型,其中,学生模型和多个教师模型均为CTR预测模型;获取训练数据,将训练数据分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的输出;利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;基于学生模型的输出和加权和,利用目标损失函数计算损失值,并基于损失值更新学生模型的模型参数,以完成从多个教师模型到学生模型的知识蒸馏,因此,采用上述技术手段,可以解决现有技术中,通过知识蒸馏得到的小规模的CTR预测模型往往使用效果不尽人意的问题,进而提高通过知识蒸馏得到的小规模的CTR预测模型的使用效果。
可选地,蒸馏模块304还被配置为基于学生模型的输出和加权和,利用目标损失函数计算损失值
其中,为所述学生模型的输出,/>为所述加权和,x为所述训练数据,y为所述训练数据的标签,下标s用于标记/>为所述学生模型的输出,下标t用于标记是所述加权和,/>与多个教师模型各自的输出相关,τ为所述学生模型和多个教师模型的温度超参,/>和/>均与τ相关,/>为交叉熵损失函数,/>为计算推土机距离的函数,β为预设权重。
温度超参是一个超参数,温度超参的大小控制了学生模型和教师模型各自的预测结果和学生模型和教师模型之间的平滑程度,决定了学生模型和教师模型之间的概率分布间的距离,τ越大(τ>1),就会使得概率分布越平滑,τ越小(0<τ<1),越接近0,会使得概率分布越尖锐。τ的大小影响着知识蒸馏中学生模型学习的难度,不同的τ会产生不同的蒸馏结果。
推土机距离是Wasserstein距离,Wasserstein距离也叫做推土机距离(EarthMover's distance),是现有的,所以不再赘述。/>计算的结果,可以看做是蒸馏损失值,/>计算的结果,可以看做是交叉熵损失值,损失值包括蒸馏损失值和交叉熵损失值。/>可以用KL-div散度函数替代。
门控模型由多个全连接神经网络串行连接,以及在每两个相邻的全连接神经网络之间插入激活函数组成;门控模型已经过训练,能为不同教师模型的输出分配对应的权重,其中,门控模型分配的权重为大于0且小于1的标量,每次门控模型分配的所有权重的和为1。
全连接神经网络是MLP(Multi-LayerPerceptron),即多层感知机,是一种趋向结构的人工神经网络。激活函数可以是Gelu(Gaussian Error Linear Unit)。门控模型还可以是任意的GateNet模型。
比如门控模型内部网络依次是:全连接神经网络、Gelu激活函数、全连接神经网络、Gelu激活函数、全连接神经网络。
可选地,计算模块303还被配置为将多个教师模型各自的输出均输入注意力模型,输出加权和,其中,注意力模型已经过训练,能通过融合多个教师模型各自的输出,得到多个教师模型各自的输出的加权和。
注意力模型可以是任意的单头注意力网络或多头注意力网络,本申请实施例通过注意力模型融合多个教师模型的输出。
可选地,获取模块301还被配置为确定学生模型和多个教师模型各自的模型规模;基于学生模型和多个教师模型各自的模型规模,确定学生模型和多个教师模型的温度超参;其中,温度超参与学生模型和多个教师模型各自的输出相关。
模型规模即模型大小,模型的模型规模可以通过模型的参数量来衡量。可以将多个教师模型的模型规模的平均值与学生模型的模型规模的比值缩小或扩大一定倍数后作为温度超参。本申请实施例提供了一种静态温度超参。每个模型都可以具有一个温度超参。
可选地,计算模块303还被配置为根据当前批次计算得到的推土机距离,利用梯度反向网络计算当前批次采用的超参温度的梯度,其中,损失值包括推土机距离,若当前批次为第一批次,则当前批次采用的超参温度是根据用户指令设置的;根据当前批次采用的超参温度以及其梯度,利用可学习超参温度网络确定当前批次的下一个批次采用的超参温度。
本申请实施例提供了一种动态温度超参,第一批次采用的超参温度是根据用户指令设置,也可以是根据以往训练的经验设置。每个批次更新一次学生模型的模型参数。对模型进行多批次训练为常用技术,不再赘述,本申请实施例是在多批次训练中动态调整超参温度。
梯度反向网络GRL (Gradient ReversalLayer)用于反向计算超参温度的梯度,将当前批次计算得到的推土机距离输入梯度反向网络,输出当前批次采用的超参温度的梯度。可学习超参温度网络是一个神经网络,将当前批次采用的超参温度以及其(“其”代表当前批次采用的超参温度)梯度输入可学习超参温度网络,输出当前批次的下一个批次采用的超参温度。可学习超参温度网络通过常规模型训练即可达到该效果。
可选地,蒸馏模块304还被配置为将训练数据按照预设比例划分为第一训练数据和第二训练数据;将第一训练数据中的样本输入学生模型,得到学生模型的第一输出,基于第一训练数据中样本的标签和第一输出,利用交叉熵损失函数计算交叉熵损失值,基于交叉熵损失值更新学生模型的模型参数,以完成对学生模型的第一阶段训练,其中,目标损失函数包括交叉熵损失函数;将第二训练数据中的样本分别输入学生模型和多个教师模型,得到学生模型和多个教师模型各自的第二输出,利用门控模型确定多个教师模型各自的第二输出对应的权重,基于多个教师模型各自的第二输出所对应的权重,计算多个教师模型各自的输出的加权和,基于学生模型的第二输出和加权和,利用目标损失函数计算损失值,基于损失值更新学生模型的模型参数,以完成对学生模型的第二阶段训练。
本申请实施例通过两个阶段训练,进一步提高最终学生模型的使用效果,提高知识蒸馏的效果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图4是本申请实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (8)

1.一种CTR预测模型的知识蒸馏方法,其特征在于,包括:
获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型,其中,所述学生模型和多个教师模型均为CTR预测模型;
获取训练数据,将所述训练数据分别输入所述学生模型和多个教师模型,得到所述学生模型和多个教师模型各自的输出;
利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;
基于所述学生模型的输出和所述加权和,利用目标损失函数计算损失值,并基于所述损失值更新所述学生模型的模型参数,以完成从多个教师模型到所述学生模型的知识蒸馏;
其中,更新模型参数后的所述学生模型应用于网络购物场景,用于预测推荐给用户的目标,所述训练数据是大量用户点击购买商品的数据;
其中,基于所述学生模型的输出和所述加权和,利用目标损失函数计算损失值
其中,为所述学生模型的输出,/>为所述加权和,x为所述训练数据,y为所述训练数据的标签,下标s用于标记/>为所述学生模型的输出,下标t用于标记是所述加权和,/>与多个教师模型各自的输出相关,τ为所述学生模型和多个教师模型的温度超参,/>和/>均与τ相关,/>为交叉熵损失函数,/>为计算推土机距离的函数,β为预设权重;
其中,将所述训练数据按照预设比例划分为第一训练数据和第二训练数据;将所述第一训练数据中的样本输入所述学生模型,得到所述学生模型的第一输出,基于所述第一训练数据中样本的标签和所述第一输出,利用交叉熵损失函数计算交叉熵损失值,基于所述交叉熵损失值更新所述学生模型的模型参数,以完成对所述学生模型的第一阶段训练,其中,所述目标损失函数包括交叉熵损失函数;将所述第二训练数据中的样本分别输入所述学生模型和多个教师模型,得到所述学生模型和多个教师模型各自的第二输出,利用门控模型确定多个教师模型各自的第二输出对应的权重,基于多个教师模型各自的第二输出所对应的权重,计算多个教师模型各自的输出的加权和,基于所述学生模型的第二输出和所述加权和,利用所述目标损失函数计算所述损失值,基于所述损失值更新所述学生模型的模型参数,以完成对所述学生模型的第二阶段训练;
其中,在对所述学生模型进行训练中,所述学生模型的超参温度被设置为动态超参温度。
2.根据权利要求1所述的方法,其特征在于,所述门控模型由多个全连接神经网络串行连接,以及在每两个相邻的全连接神经网络之间插入激活函数组成;
所述门控模型已经过训练,能为不同教师模型的输出分配对应的权重,其中,所述门控模型分配的权重为大于0且小于1的标量,每次所述门控模型分配的所有权重的和为1。
3.根据权利要求1所述的方法,其特征在于,基于所述学生模型的输出和所述加权和,利用目标损失函数计算损失值之前,所述方法还包括:
将多个教师模型各自的输出均输入注意力模型,输出所述加权和,其中,所述注意力模型已经过训练,能通过融合多个教师模型各自的输出,得到多个教师模型各自的输出的所述加权和。
4.根据权利要求1所述的方法,其特征在于,将所述训练数据分别输入所述学生模型和多个教师模型,得到所述学生模型和多个教师模型各自的输出之前,所述方法还包括:
确定所述学生模型和多个教师模型各自的模型规模;
基于所述学生模型和多个教师模型各自的模型规模,确定所述学生模型和多个教师模型的温度超参;
其中,所述温度超参与所述学生模型和多个教师模型各自的输出相关。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在对所述学生模型进行的多批次训练中,按照如下方法提供一种动态超参温度:
根据当前批次计算得到的推土机距离,利用梯度反向网络计算当前批次采用的超参温度的梯度,其中,所述损失值包括所述推土机距离,若当前批次为第一批次,则当前批次采用的超参温度是根据用户指令设置的;
根据当前批次采用的超参温度以及其梯度,利用可学习超参温度网络确定当前批次的下一个批次采用的超参温度。
6.一种CTR预测模型的知识蒸馏装置,其特征在于,包括:
获取模块,被配置为获取多个已训练好的重量级的教师模型和一个未被训练的轻量级的学生模型,其中,所述学生模型和多个教师模型均为CTR预测模型;
输入模块,被配置为获取训练数据,将所述训练数据分别输入所述学生模型和多个教师模型,得到所述学生模型和多个教师模型各自的输出;
计算模块,被配置为利用门控模型确定多个教师模型各自的输出对应的权重,并基于多个教师模型各自的输出所对应的权重,计算多个教师模型各自的输出的加权和;
蒸馏模块,被配置为基于所述学生模型的输出和所述加权和,利用目标损失函数计算损失值,并基于所述损失值更新所述学生模型的模型参数,以完成从多个教师模型到所述学生模型的知识蒸馏;
其中,更新模型参数后的所述学生模型应用于网络购物场景,用于预测推荐给用户的目标,所述训练数据是大量用户点击购买商品的数据;
其中,基于所述学生模型的输出和所述加权和,利用目标损失函数计算损失值
其中,为所述学生模型的输出,/>为所述加权和,x为所述训练数据,y为所述训练数据的标签,下标s用于标记/>为所述学生模型的输出,下标t用于标记是所述加权和,/>与多个教师模型各自的输出相关,τ为所述学生模型和多个教师模型的温度超参,/>和/>均与τ相关,/>为交叉熵损失函数,/>为计算推土机距离的函数,β为预设权重;
其中,将所述训练数据按照预设比例划分为第一训练数据和第二训练数据;将所述第一训练数据中的样本输入所述学生模型,得到所述学生模型的第一输出,基于所述第一训练数据中样本的标签和所述第一输出,利用交叉熵损失函数计算交叉熵损失值,基于所述交叉熵损失值更新所述学生模型的模型参数,以完成对所述学生模型的第一阶段训练,其中,所述目标损失函数包括交叉熵损失函数;将所述第二训练数据中的样本分别输入所述学生模型和多个教师模型,得到所述学生模型和多个教师模型各自的第二输出,利用门控模型确定多个教师模型各自的第二输出对应的权重,基于多个教师模型各自的第二输出所对应的权重,计算多个教师模型各自的输出的加权和,基于所述学生模型的第二输出和所述加权和,利用所述目标损失函数计算所述损失值,基于所述损失值更新所述学生模型的模型参数,以完成对所述学生模型的第二阶段训练;
其中,在对所述学生模型进行训练中,所述学生模型的超参温度被设置为动态超参温度。
7.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述方法的步骤。
CN202310820709.5A 2023-07-06 2023-07-06 Ctr预测模型的知识蒸馏方法及装置 Active CN116542328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310820709.5A CN116542328B (zh) 2023-07-06 2023-07-06 Ctr预测模型的知识蒸馏方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310820709.5A CN116542328B (zh) 2023-07-06 2023-07-06 Ctr预测模型的知识蒸馏方法及装置

Publications (2)

Publication Number Publication Date
CN116542328A CN116542328A (zh) 2023-08-04
CN116542328B true CN116542328B (zh) 2023-11-10

Family

ID=87458245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310820709.5A Active CN116542328B (zh) 2023-07-06 2023-07-06 Ctr预测模型的知识蒸馏方法及装置

Country Status (1)

Country Link
CN (1) CN116542328B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117521848B (zh) * 2023-11-10 2024-05-28 中国科学院空天信息创新研究院 面向资源受限场景的遥感基础模型轻量化方法、装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109120652A (zh) * 2018-11-09 2019-01-01 重庆邮电大学 基于差分wgan网络安全态势预测
WO2023279693A1 (zh) * 2021-07-09 2023-01-12 平安科技(深圳)有限公司 知识蒸馏方法、装置、终端设备及介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109120652A (zh) * 2018-11-09 2019-01-01 重庆邮电大学 基于差分wgan网络安全态势预测
WO2023279693A1 (zh) * 2021-07-09 2023-01-12 平安科技(深圳)有限公司 知识蒸馏方法、装置、终端设备及介质

Also Published As

Publication number Publication date
CN116542328A (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN109947919B (zh) 用于生成文本匹配模型的方法和装置
CN109446430A (zh) 产品推荐的方法、装置、计算机设备及可读存储介质
CN106909931B (zh) 一种用于机器学习模型的特征生成方法、装置和电子设备
Stone Calibrating rough volatility models: a convolutional neural network approach
Griffin et al. In search of lost mixing time: adaptive Markov chain Monte Carlo schemes for Bayesian variable selection with very large p
CN116542328B (zh) Ctr预测模型的知识蒸馏方法及装置
CN116578875B (zh) 基于多行为的点击预测模型训练方法及装置
US20230259739A1 (en) Image detection method and apparatus, computer-readable storage medium, and computer device
CN111259647A (zh) 基于人工智能的问答文本匹配方法、装置、介质及电子设备
CN116362351A (zh) 利用噪声扰动训练预训练语言模型的方法及装置
CN114912030A (zh) 权益模型训练方法、推荐方法及电子终端和计算机介质
CN110503181B (zh) 用于生成多层神经网络的方法和装置
CN108694232B (zh) 一种基于信任关系特征学习的社会化推荐方法
CN113129053B (zh) 信息推荐模型训练方法、信息推荐方法及存储介质
CN116562357B (zh) 点击预测模型训练方法及装置
CN116541608B (zh) 房源推荐方法、装置、电子设备及存储介质
CN110489435B (zh) 基于人工智能的数据处理方法、装置、及电子设备
CN117056595A (zh) 一种交互式的项目推荐方法、装置及计算机可读存储介质
KR20210090706A (ko) 정렬
CN115292390A (zh) 负荷信息生成方法、装置、电子设备和计算机可读介质
CN114493674A (zh) 一种广告点击率预测模型及方法
CN111768220A (zh) 生成车辆定价模型的方法和装置
CN111522887B (zh) 用于输出信息的方法和装置
CN116911956A (zh) 基于知识蒸馏的推荐模型训练方法、装置及存储介质
Tiwari et al. Recursive orthogonal least squares based adaptive control of a polymerisation reactor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant