CN112529181A - 用于模型蒸馏的方法和装置 - Google Patents
用于模型蒸馏的方法和装置 Download PDFInfo
- Publication number
- CN112529181A CN112529181A CN202011473804.5A CN202011473804A CN112529181A CN 112529181 A CN112529181 A CN 112529181A CN 202011473804 A CN202011473804 A CN 202011473804A CN 112529181 A CN112529181 A CN 112529181A
- Authority
- CN
- China
- Prior art keywords
- scene
- batch
- teacher
- student
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000004821 distillation Methods 0.000 title claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims description 7
- 230000017105 transposition Effects 0.000 claims description 6
- 230000015654 memory Effects 0.000 abstract description 18
- 238000001514 detection method Methods 0.000 abstract description 10
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本申请公开了用于模型蒸馏的方法和装置,涉及人工智能技术领域,具体涉及深度学习和计算机视觉技术领域。该方法包括:利用每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征;利用学生模型,提取至少两批场景图像的特征,得到批量学生特征;对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景教师相似度集合和学生相似度集合;利用至少两个场景教师相似度集合,训练学生模型。本申请可以提高模型对不同场景图像的检测精度和检测速度。并且有助于降低执行设备的延时,减少内存等计算资源的占用和消耗。
Description
技术领域
本申请涉及人工智能技术领域,具体涉及深度学习和计算机视觉技术领域,尤其涉及用于模型蒸馏的方法和装置。
背景技术
模型蒸馏技术是采用一个已经训练好的教师模型,监督学生模型进行训练的过程。教师模型通常具有某种预测能力,比如针对某一种目标有很强的预测能力。举例来说,可以是针对人脸的检测能力,或者针对特殊形状的检测能力等等。
在相关技术中,对象识别技术很难同时在不同的场景下都保持很高的识别精度,主要原因是不同场景下的对象特征可能差异很大,因此,现有人脸模型很难保持良好的泛化性。
发明内容
提供了一种用于模型蒸馏的方法、装置、电子设备以及存储介质。
根据第一方面,提供了一种用于模型蒸馏的方法,包括:利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征;利用学生模型,提取至少两批场景图像的特征,得到批量学生特征;将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到批量学生特征对应的学生相似度集合;利用至少两个场景教师相似度集合,监督学生相似度集合,以训练学生模型,得到训练后模型,其中,训练后模型用于预测至少两个场景的图像。
根据第二方面,提供了一种用于模型蒸馏的装置,包括:教师提取单元,被配置成利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征;学生提取单元,被配置成利用学生模型,提取至少两批场景图像的特征,得到批量学生特征;确定单元,被配置成将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到批量学生特征对应的学生相似度集合;训练单元,被配置成利用至少两个场景教师相似度集合,监督学生相似度集合,以训练学生模型,得到训练后模型,其中,训练后模型用于预测至少两个场景的图像。
根据第三方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如用于模型蒸馏的方法中任一实施例的方法。
根据第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如用于模型蒸馏的方法中任一实施例的方法。
根据第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如用于模型蒸馏的方法中任一实施例的方法。
根据本申请的方案,可以利用不同场景的教师模型,监督学生模型的训练,从而得到具有对不同场景图像的预测功能的学生模型。并且,通过本申请的蒸馏过程可以提高模型对不同场景图像的检测精度和检测速度。进一步地,有助于降低执行设备的延时,减少内存等计算资源的占用和消耗。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请一些实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于模型蒸馏的方法的一个实施例的流程图;
图3是根据本申请的用于模型蒸馏的方法的一个应用场景的示意图;
图4是根据本申请的用于模型蒸馏的方法的又一个实施例的流程图;
图5是根据本申请的用于模型蒸馏的装置的一个实施例的结构示意图;
图6是用来实现本申请实施例的用于模型蒸馏的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于模型蒸馏的方法或用于模型蒸馏的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频类应用、直播应用、即时通信工具、邮箱客户端、社交平台软件等。
这里的终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对接收到的至少两批场景图像等数据进行分析等处理,并将处理结果(例如训练后模型)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于模型蒸馏的方法可以由服务器105或者终端设备101、102、103执行,相应地,用于模型蒸馏的装置可以设置于服务器105或者终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于模型蒸馏的方法的一个实施例的流程200。该用于模型蒸馏的方法,包括以下步骤:
步骤201,利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征。
在本实施例中,用于模型蒸馏的方法运行于其上的执行主体(例如图1所示的服务器或终端设备)可以从本设备或其它电子设备获取至少两批(batch)场景图像,利用至少两个场景教师模型分别提取该至少两批场景图像的特征,并将提取的结果作为批量教师特征。至少两个场景教师模型是分别用于对该至少两个场景的图像进行预测的模型。这里的预测可以是进行图像识别、图像检测等等。至少两个场景教师模型所对应的至少两个场景,与得到的批量教师特征所对应的至少两个场景是相同的。
这里的至少两批图像中的任一批图像可以指一定数量的图像,比如32个图像。这里的图像可以是各种图像,比如人脸图像、物品图像。本申请中的学生模型和教师模型均为深度神经网络。
至少两个场景中的各个场景是不同的场景。举例来说,至少两个场景可以包括生活照场景和证件照场景。每个场景教师模型用于检测至少一种场景的图像。至少两个场景教师模型中的各个场景教师模型分别用于检测不同场景的图像。比如,至少两个场景教师模型中的A模型用于检测一批X场景的图像,得到X场景的批量教师特征。B模型用于检测一批Y场景的图像,得到Y场景的批量教师特征。或者至少两个场景教师模型中的C模型用于检测X场景和Y场景的图像,得到X批量教师特征和Y批量教师特征,至少两个场景教师模型中的D模型用于检测Y场景和Z场景的图像,得到Y批量教师特征和Z批量教师特征。
步骤202,利用学生模型,提取至少两批场景图像的特征,得到批量学生特征。
在本实施例中,上述执行主体可以利用学生模型,提取至少两批场景图像的特征,得到批量学生特征。这里的批量学生特征包括与上述至少两个场景分别对应的特征。本申请中的场景教师模型的参数数量可以大于学生模型的参数数量。
在实践中,可以对上述至少两批场景图像进行组合,从而组合得到一个总的批量场景图像,比如至少两批场景图像中有两批场景图像,分别为32个图像,这里的总的批量场景图像可以是64个图像。上述执行主体可以将该总的批量场景图像一同输入学生模型,以得到批量学生特征。
步骤203,将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到批量学生特征对应的学生相似度集合。
在本实施例中,上述执行主体可以将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,并对该目标批量特征确定相似度集合。具体地,上述执行主体可以对该目标批量特征中的图像的特征(比如每个特征),确定该特征与目标批量特征中各个图像(也可以是各个其它图像)的特征的特征相似度,以得到与至少两个场景的批量教师特征分别对应的场景教师相似度集合,也即至少两个教师相似度集合,并得到与批量学生特征对应的学生相似度集合。
举例来说,证件照场景的批量教师特征包括32个证件照图像的特征。这32个证件照图像的特征可以以矩阵的形式排列。上述执行主体可以对于矩阵中的第一个证件照图像A的特征,确定A的特征与自身的余弦相似度,确定A的特征与第二个证件照图像B的特征之间的余弦相似度,确定A与第三个证件照图像C的特征之间的余弦相似度……以此类推,直到对A的特征遍历确定了与各个图像的特征的余弦相似度。之后,上述执行主体可以对该矩阵中除A以外的每个证件照图像的特征,遍历确定该特征与矩阵中各个图像的特征之间的余弦相似度。对于矩阵中的各个图像特征进行遍历确定的结果,即可以组成相似度集合。
步骤204,利用至少两个场景教师相似度集合,监督学生相似度集合,以训练学生模型,得到训练后模型,其中,训练后模型用于预测至少两个场景的图像。
在本实施例中,上述执行主体可以利用至少两个场景教师相似度集合,监督上述学生相似度集合,以训练上述学生模型,得到训练后模型。该训练后模型兼具了上述至少两个场景教师模型的预测功能,可以预测上述至少两个场景的图像。具体地,上述执行主体可以采用预设的损失函数,确定出学生相似度集合与场景教师相似度集合之间的损失值,并利用该损失值进行方向传播以进行训练。
本申请的上述实施例提供的方法提出了针对不同场景图像的模型蒸馏过程,可以利用不同场景的教师模型,监督学生模型的训练,从而得到具有对不同场景图像的预测功能的学生模型。并且,通过本申请的蒸馏过程可以提高模型对不同场景图像的检测精度和检测速度。进一步地,有助于降低执行设备的延时,减少内存等计算资源的占用和消耗。
在本实施例的一些可选的实现方式中,响应于至少两个场景包括第一场景和第二场景,至少两个场景教师模型包括与第一场景对应的第一场景教师模型和与第二场景对应的第二场景教师模型;步骤201可以包括:利用第一场景教师模型提取第一场景对应的一批场景图像的特征,得到与第一场景对应的批量教师特征;利用第二场景教师模型提取第二场景对应的一批场景图像的特征,得到与第二场景对应的批量教师特征。
在这些可选的实现方式中,上述执行主体可以在至少两个场景包括第一场景和第二场景的情况下,确定第一场景对应的一批场景图像的特征,作为与第一场景对应的批量教师特征。并且,上述执行主体可以确定第二场景对应的一批场景图像的特征,作为与第二场景对应的批量教师特征。上述的任一批场景图像均在上述至少两批场景图像中。
这些实现方式可以在存在第一场景的场景教师模型和第二场景的场景教师模型的情况下,分别利用不同的场景教师模型提取批量教师特征,以便于后续针对不同场景确定损失值。
在本实施例的一些可选的实现方式中,步骤203可以包括:响应于至少两个场景包括第一场景和第二场景,将第一场景的批量教师特征、第二场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到第一场景的批量教师特征对应的第一场景教师相似度集合、第二场景的批量教师特征对应的第二场景教师相似度集合和批量学生特征对应的学生相似度集合。
在这些可选的实现方式中,可以针对第一场景的批量教师特征、第二场景的批量教师特征和批量学生特征中的每一者,确定对应的相似度集合。这些实现方式在存在第一场景和第二场景的情况下,可以针对第一场景和第二场景分别确定相对应的相似度集合,从而可以准确地蒸馏出能够准确预测各个场景的图像的模型。
在本实施例的一些可选的实现方式中,步骤203可以包括:将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,确定该目标批量向量的转置结果;对该目标批量特征与转置结果进行矩阵的点乘,将至少两个场景的批量教师特征对应的点乘结果作为至少两个场景教师相似度集合,并将批量学生特征对应的点乘结果作为学生相似度集合。
在这些可选的实现方式中,这里的批量特征是以矩阵也即批量特征矩阵的形式呈现的。上述执行主体在确定相似度时,可以对于每个批量特征矩阵,将该批量特征矩阵和该批量特征矩阵的转置结果进行矩阵点乘,得到点乘结果。该点乘结果即是相似度集合。
这些实现方式可以通过矩阵的点乘,简化确定相似度集合的步骤以减少计算量,有助提高模型的蒸馏效率。
继续参见图3,图3是根据本实施例的用于模型蒸馏的方法的应用场景的一个示意图。在图3的应用场景中,执行主体301利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征302。执行主体301利用学生模型,提取至少两批场景图像的特征,得到批量学生特征303。执行主体301将至少两个场景的批量教师特征302和批量学生特征303中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景的批量教师特征对应的至少两个场景教师相似度集合304,并得到批量学生特征对应的学生相似度集合305。执行主体301利用至少两个场景教师相似度集合304,监督学生相似度集合305,以训练学生模型,得到训练后模型306,其中,训练后模型306用于预测至少两个场景的图像。
进一步参考图4,其示出了用于模型蒸馏的方法的又一个实施例的流程400。该流程400,包括以下步骤:
步骤401,利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征。
在本实施例中,用于模型蒸馏的方法运行于其上的执行主体(例如图1所示的服务器或终端设备)可以从本设备或其它电子设备获取至少两批场景图像,利用至少两个场景教师模型分别提取该至少两批场景图像的特征,并将提取的结果作为批量教师特征。至少两个场景教师模型是分别用于对该至少两个场景的图像进行预测的模型。这里的预测可以是进行图像识别、图像检测等等。至少两个场景教师模型所对应的至少两个场景,与得到的批量教师特征所对应的至少两个场景是相同的。
步骤402,利用学生模型,提取至少两批场景图像的特征,得到批量学生特征。
在本实施例中,上述执行主体可以利用学生模型,提取至少两批场景图像的特征,得到批量学生特征。这里的批量学生特征包括与上述至少两个场景分别对应的特征。本申请中的场景教师模型的参数数量可以大于学生模型的参数数量。
步骤403,将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到批量学生特征对应的学生相似度集合。
在本实施例中,上述执行主体可以将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,并对该目标批量特征确定相似度集合。具体地,上述执行主体可以对该目标批量特征中的图像的特征(比如每个特征),确定该特征与目标批量特征中各个图像(也可以是各个其它图像)的特征的特征相似度,以得到与至少两个场景的批量教师特征分别对应的场景教师相似度集合,也即至少两个教师相似度集合,并得到与批量学生特征对应的学生相似度集合。
步骤404,在至少两个场景教师相似度集合和至少两个场景分别对应的学生相似度子集合中,确定相同场景的场景教师相似度集合和学生相似度子集合之间的损失值,根据至少两个场景对应的至少两个损失值,确定学生模型的损失值。
在本实施例中,批量学生特征对应的学生相似度集合包括与至少两个场景分别对应的学生相似度子集合。上述执行主体可以确定相同场景的场景教师相似度集合和学生相似度子集合之间的损失值。
这里的学生相似度集合可以是各种形式的,比如可以是相似度矩阵或者相似度队列。在实践中,在输入学生模型的至少两批场景图像中,每一批场景图像的图像之间是连续、紧凑的,相应地,得到的特征之间,相同场景的特征也是连续的,得到的相似度之间,相同场景的相似度也是连续的。相似度可以以矩阵的形式呈现。比如,学生相似度集合中,一个学生相似度子集中包括输入学生模型的、矩阵中位置在前的32个场景图像对应的相似度,另一个学生相似度子集中包括输入学生模型的、矩阵中位置在后的32个场景图像对应的相似度。
举例来说,至少两批图像中存在一批生活照,共有32个图像,还存在一批证件照,共有32个图像。分别利用两个场景教师模型,得到两个场景教师相似度集合分别是对应生活照的A和对应证件照的B。利用学生相似度集合得到这总共64个图像对应的学生相似度集合。该学生相似度集合分为32个生活照对应的学生相似度子集合X和32个证件照对应的学生相似度集合Y。上述执行主体可以确定A和X之间的损失值F1,并确定B和Y之间的损失值F2。这里的F1和F2即是至少两个损失值。
上述执行主体可以采用各种方式根据至少两个损失值,确定学生模型的损失值。比如,上述执行主体可以直接将至少两个损失值的和,作为学生模型的损失值。或者,上述执行主体还可以针对该学生模型,计算出其它的损失值,将至少两个损失值和该其它的损失值的和作为学生模型的损失值。再或者将该至少两个损失值的和输入指定模型,将从该指定模型输出的结果作为学生模型的损失值。
上述执行主体确定损失值所采用的损失函数可以是各种损失函数,比如二范数(L2)损失函数。在实践中,上述执行主体可以针对相同场景的场景教师相似度集合和学生相似度子集合中,相同图像的相似度(也即场景教师相似度和学生相似度)确定图像对应的损失值,并将各个图像对应的损失值之和,作为一个场景(也即上述相同场景)对应的损失值,也即场景教师相似度集合和学生相似度子集合之间的损失值。
步骤405,利用学生模型的损失值,训练学生模型,其中,训练后模型用于预测至少两个场景的图像。
在本实施例中,上述执行主体可以利用学生模型的损失值进行反向传播,以训练学生模型。
本实施例可以利用场景教师模型对应的相似度集合,监督学生相似度集合中相同场景的子集合,从而确保蒸馏出能够准确预测各个场景的模型。
在本实施例的一些可选的实现方式中,步骤404可以包括:响应于至少两个场景包括第一场景和第二场景,确定第一场景的教师相似度集合和学生相似度子集合之间的损失值,作为第一损失值;确定第二场景的教师相似度集合和学生相似度子集合之间的损失值,作为第二损失值;根据第一损失值和第二损失值的和,确定学生模型的损失值。
在这些可选的实现方式中,对于第一场景的教师相似度集合和第一场景的学生相似度子集合,上述执行主体可以确定这两者之间的损失值,并将该损失值作为第一损失值。并且,上述执行主体可以对于第二场景的教师相似度集合和第二场景的学生相似度子集合,上述执行主体可以确定这两者之间的损失值,并将该损失值作为第二损失值。
之后,上述执行主体可以采用各种方式根据第一损失值和第二损失值的和,确定学生模型的损失值。比如,上述执行主体可以直接将第一损失值和第二损失值的和作为学生模型的损失值。或者,上述执行主体可以在上述至少两个场景不仅包括第一场景和第二场景的情况下,确定出其它场景分别对应的损失值,并将各个场景的损失值进行加和,并将该加和结果作为学生模型的损失值。
这些实现方式可以在存在包括第一场景和第二场景的不同场景的情况下,准确地确定出与各个场景分别对应的损失值。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于模型蒸馏的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征或效果。该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于模型蒸馏的装置500包括:教师提取单元501、学生提取单元502、确定单元503和训练单元504。其中,教师提取单元501,被配置成利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征;学生提取单元502,被配置成利用学生模型,提取至少两批场景图像的特征,得到批量学生特征;确定单元503,被配置成将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到批量学生特征对应的学生相似度集合;训练单元504,被配置成利用至少两个场景教师相似度集合,监督学生相似度集合,以训练学生模型,得到训练后模型,其中,训练后模型用于预测至少两个场景的图像。
在本实施例中,用于模型蒸馏的装置500的教师提取单元501、学生提取单元502、确定单元503和训练单元504的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,批量学生特征对应的学生相似度集合包括与至少两个场景分别对应的学生相似度子集合;训练单元,进一步被配置成按照如下方式执行利用至少两个场景教师相似度集合,监督学生相似度集合:在至少两个场景教师相似度集合和至少两个场景分别对应的学生相似度子集合中,确定相同场景的场景教师相似度集合和学生相似度子集合之间的损失值,根据至少两个场景对应的至少两个损失值,确定学生模型的损失值;利用学生模型的损失值,训练学生模型。
在本实施例的一些可选的实现方式中,训练单元,进一步被配置成按照如下方式执行在至少两个场景教师相似度集合和至少两个场景分别对应的学生相似度子集合中,确定相同场景的场景教师相似度集合和学生相似度子集合之间的损失值,根据至少两个场景对应的至少两个损失值,确定学生模型的损失值:响应于至少两个场景包括第一场景和第二场景,确定第一场景的教师相似度集合和学生相似度子集合之间的损失值,作为第一损失值;确定第二场景的教师相似度集合和学生相似度子集合之间的损失值,作为第二损失值;根据第一损失值和第二损失值的和,确定学生模型的损失值。
在本实施例的一些可选的实现方式中,响应于至少两个场景包括第一场景和第二场景,至少两个场景教师模型包括与第一场景对应的第一场景教师模型和与第二场景对应的第二场景教师模型;教师提取单元,进一步被配置成按照如下方式执行利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征:利用第一场景教师模型提取第一场景对应的一批场景图像的特征,得到与第一场景对应的批量教师特征;利用第二场景教师模型提取第二场景对应的一批场景图像的特征,得到与第二场景对应的批量教师特征。
在本实施例的一些可选的实现方式中,确定单元,进一步被配置成按照如下方式执行将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到批量学生特征对应的学生相似度集合:响应于至少两个场景包括第一场景和第二场景,将第一场景的批量教师特征、第二场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到第一场景的批量教师特征对应的第一场景教师相似度集合、第二场景的批量教师特征对应的第二场景教师相似度集合和批量学生特征对应的学生相似度集合。
在本实施例的一些可选的实现方式中,确定单元,进一步被配置成按照如下方式将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到批量学生特征对应的学生相似度集合:将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,确定该目标批量向量的转置结果;对该目标批量特征与转置结果进行矩阵的点乘,将至少两个场景的批量教师特征对应的点乘结果作为至少两个场景教师相似度集合,并将批量学生特征对应的点乘结果作为学生相似度集合。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图6所示,是根据本申请实施例的用于模型蒸馏的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的用于模型蒸馏的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的用于模型蒸馏的方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的用于模型蒸馏的方法对应的程序指令/模块(例如,附图5所示的教师提取单元501、学生提取单元502、确定单元503和训练单元504)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的用于模型蒸馏的方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据用于模型蒸馏的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至用于模型蒸馏的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
用于模型蒸馏的方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与用于模型蒸馏的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括教师提取单元501、学生提取单元502、确定单元503和训练单元504。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,学生提取单元还可以被描述为“利用学生模型,提取至少两批场景图像的特征,得到批量学生特征的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征;利用学生模型,提取至少两批场景图像的特征,得到批量学生特征;将至少两个场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于目标批量特征中图像的特征,确定该特征与目标批量特征中各个图像的特征的特征相似度,得到至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到批量学生特征对应的学生相似度集合;利用至少两个场景教师相似度集合,监督学生相似度集合,以训练学生模型,得到训练后模型,其中,训练后模型用于预测至少两个场景的图像。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (15)
1.一种用于模型蒸馏的方法,所述方法包括:
利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征;
利用学生模型,提取所述至少两批场景图像的特征,得到批量学生特征;
将所述至少两个场景的批量教师特征和所述批量学生特征中的每一者作为目标批量特征,对于所述目标批量特征中图像的特征,确定该特征与所述目标批量特征中各个图像的特征的特征相似度,得到所述至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到所述批量学生特征对应的学生相似度集合;
利用所述至少两个场景教师相似度集合,监督所述学生相似度集合,以训练所述学生模型,得到训练后模型,其中,所述训练后模型用于预测所述至少两个场景的图像。
2.根据权利要求1所述的方法,其中,所述批量学生特征对应的学生相似度集合包括与所述至少两个场景分别对应的学生相似度子集合;
所述利用所述至少两个场景教师相似度集合,监督所述学生相似度集合,包括:
在所述至少两个场景教师相似度集合和所述至少两个场景分别对应的学生相似度子集合中,确定相同场景的场景教师相似度集合和学生相似度子集合之间的损失值,根据所述至少两个场景对应的至少两个损失值,确定所述学生模型的损失值;
利用所述学生模型的损失值,训练所述学生模型。
3.根据权利要求2所述的方法,其中,所述在所述至少两个场景教师相似度集合和所述至少两个场景分别对应的学生相似度子集合中,确定相同场景的场景教师相似度集合和学生相似度子集合之间的损失值,根据所述至少两个场景对应的至少两个损失值,确定所述学生模型的损失值,包括:
响应于所述至少两个场景包括第一场景和第二场景,确定第一场景的教师相似度集合和学生相似度子集合之间的损失值,作为第一损失值;
确定第二场景的教师相似度集合和学生相似度子集合之间的损失值,作为第二损失值;
根据所述第一损失值和所述第二损失值的和,确定所述学生模型的损失值。
4.根据权利要求1所述的方法,其中,响应于所述至少两个场景包括第一场景和第二场景,所述至少两个场景教师模型包括与第一场景对应的第一场景教师模型和与第二场景对应的第二场景教师模型;
所述利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征,包括:
利用所述第一场景教师模型提取所述第一场景对应的一批场景图像的特征,得到与所述第一场景对应的批量教师特征;
利用所述第二场景教师模型提取所述第二场景对应的一批场景图像的特征,得到与所述第二场景对应的批量教师特征。
5.根据权利要求1所述的方法,其中,所述将所述至少两个场景的批量教师特征和所述批量学生特征中的每一者作为目标批量特征,对于所述目标批量特征中图像的特征,确定该特征与所述目标批量特征中各个图像的特征的特征相似度,得到所述至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到所述批量学生特征对应的学生相似度集合,包括:
响应于所述至少两个场景包括第一场景和第二场景,将所述第一场景的批量教师特征、第二场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于所述目标批量特征中图像的特征,确定该特征与所述目标批量特征中各个图像的特征的特征相似度,得到所述第一场景的批量教师特征对应的第一场景教师相似度集合、所述第二场景的批量教师特征对应的第二场景教师相似度集合和所述批量学生特征对应的学生相似度集合。
6.根据权利要求1-5之一所述的方法,其中,所述将所述至少两个场景的批量教师特征和所述批量学生特征中的每一者作为目标批量特征,对于所述目标批量特征中图像的特征,确定该特征与所述目标批量特征中各个图像的特征的特征相似度,得到所述至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到所述批量学生特征对应的学生相似度集合,包括:
将所述至少两个场景的批量教师特征和所述批量学生特征中的每一者作为目标批量特征,确定该目标批量向量的转置结果;
对该目标批量特征与所述转置结果进行矩阵的点乘,将所述至少两个场景的批量教师特征对应的点乘结果作为所述至少两个场景教师相似度集合,并将所述批量学生特征对应的点乘结果作为所述学生相似度集合。
7.一种用于模型蒸馏的装置,所述装置包括:
教师提取单元,被配置成利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征;
学生提取单元,被配置成利用学生模型,提取所述至少两批场景图像的特征,得到批量学生特征;
确定单元,被配置成将所述至少两个场景的批量教师特征和所述批量学生特征中的每一者作为目标批量特征,对于所述目标批量特征中图像的特征,确定该特征与所述目标批量特征中各个图像的特征的特征相似度,得到所述至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到所述批量学生特征对应的学生相似度集合;
训练单元,被配置成利用所述至少两个场景教师相似度集合,监督所述学生相似度集合,以训练所述学生模型,得到训练后模型,其中,所述训练后模型用于预测所述至少两个场景的图像。
8.根据权利要求7所述的装置,其中,所述批量学生特征对应的学生相似度集合包括与所述至少两个场景分别对应的学生相似度子集合;
所述训练单元,进一步被配置成按照如下方式执行所述利用所述至少两个场景教师相似度集合,监督所述学生相似度集合:
在所述至少两个场景教师相似度集合和所述至少两个场景分别对应的学生相似度子集合中,确定相同场景的场景教师相似度集合和学生相似度子集合之间的损失值,根据所述至少两个场景对应的至少两个损失值,确定所述学生模型的损失值;
利用所述学生模型的损失值,训练所述学生模型。
9.根据权利要求8所述的装置,其中,所述训练单元,进一步被配置成按照如下方式执行所述在所述至少两个场景教师相似度集合和所述至少两个场景分别对应的学生相似度子集合中,确定相同场景的场景教师相似度集合和学生相似度子集合之间的损失值,根据所述至少两个场景对应的至少两个损失值,确定所述学生模型的损失值:
响应于所述至少两个场景包括第一场景和第二场景,确定第一场景的教师相似度集合和学生相似度子集合之间的损失值,作为第一损失值;
确定第二场景的教师相似度集合和学生相似度子集合之间的损失值,作为第二损失值;
根据所述第一损失值和所述第二损失值的和,确定所述学生模型的损失值。
10.根据权利要求7所述的装置,其中,响应于所述至少两个场景包括第一场景和第二场景,所述至少两个场景教师模型包括与第一场景对应的第一场景教师模型和与第二场景对应的第二场景教师模型;
所述教师提取单元,进一步被配置成按照如下方式执行所述利用至少两个场景教师模型中的每个场景教师模型,提取至少两批场景图像中与该场景教师模型的场景相同的一批场景图像的特征,得到与至少两个场景分别对应的批量教师特征:
利用所述第一场景教师模型提取所述第一场景对应的一批场景图像的特征,得到与所述第一场景对应的批量教师特征;
利用所述第二场景教师模型提取所述第二场景对应的一批场景图像的特征,得到与所述第二场景对应的批量教师特征。
11.根据权利要求7所述的装置,其中,所述确定单元,进一步被配置成按照如下方式执行所述将所述至少两个场景的批量教师特征和所述批量学生特征中的每一者作为目标批量特征,对于所述目标批量特征中图像的特征,确定该特征与所述目标批量特征中各个图像的特征的特征相似度,得到所述至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到所述批量学生特征对应的学生相似度集合:
响应于所述至少两个场景包括第一场景和第二场景,将所述第一场景的批量教师特征、第二场景的批量教师特征和批量学生特征中的每一者作为目标批量特征,对于所述目标批量特征中图像的特征,确定该特征与所述目标批量特征中各个图像的特征的特征相似度,得到所述第一场景的批量教师特征对应的第一场景教师相似度集合、所述第二场景的批量教师特征对应的第二场景教师相似度集合和所述批量学生特征对应的学生相似度集合。
12.根据权利要求7-11之一所述的装置,其中,所述确定单元,进一步被配置成按照如下方式所述将所述至少两个场景的批量教师特征和所述批量学生特征中的每一者作为目标批量特征,对于所述目标批量特征中图像的特征,确定该特征与所述目标批量特征中各个图像的特征的特征相似度,得到所述至少两个场景的批量教师特征对应的至少两个场景教师相似度集合,并得到所述批量学生特征对应的学生相似度集合:
将所述至少两个场景的批量教师特征和所述批量学生特征中的每一者作为目标批量特征,确定该目标批量向量的转置结果;
对该目标批量特征与所述转置结果进行矩阵的点乘,将所述至少两个场景的批量教师特征对应的点乘结果作为所述至少两个场景教师相似度集合,并将所述批量学生特征对应的点乘结果作为所述学生相似度集合。
13.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
15.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011473804.5A CN112529181B (zh) | 2020-12-15 | 2020-12-15 | 用于模型蒸馏的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011473804.5A CN112529181B (zh) | 2020-12-15 | 2020-12-15 | 用于模型蒸馏的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112529181A true CN112529181A (zh) | 2021-03-19 |
CN112529181B CN112529181B (zh) | 2024-04-23 |
Family
ID=74999828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011473804.5A Active CN112529181B (zh) | 2020-12-15 | 2020-12-15 | 用于模型蒸馏的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112529181B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116361658A (zh) * | 2023-04-07 | 2023-06-30 | 北京百度网讯科技有限公司 | 模型训练方法、任务处理方法、装置、电子设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180268292A1 (en) * | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Learning efficient object detection models with knowledge distillation |
US20200134506A1 (en) * | 2018-10-29 | 2020-04-30 | Fujitsu Limited | Model training method, data identification method and data identification device |
CN111639710A (zh) * | 2020-05-29 | 2020-09-08 | 北京百度网讯科技有限公司 | 图像识别模型训练方法、装置、设备以及存储介质 |
CN111695699A (zh) * | 2020-06-12 | 2020-09-22 | 北京百度网讯科技有限公司 | 用于模型蒸馏的方法、装置、电子设备及可读存储介质 |
-
2020
- 2020-12-15 CN CN202011473804.5A patent/CN112529181B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180268292A1 (en) * | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Learning efficient object detection models with knowledge distillation |
US20200134506A1 (en) * | 2018-10-29 | 2020-04-30 | Fujitsu Limited | Model training method, data identification method and data identification device |
CN111639710A (zh) * | 2020-05-29 | 2020-09-08 | 北京百度网讯科技有限公司 | 图像识别模型训练方法、装置、设备以及存储介质 |
CN111695699A (zh) * | 2020-06-12 | 2020-09-22 | 北京百度网讯科技有限公司 | 用于模型蒸馏的方法、装置、电子设备及可读存储介质 |
Non-Patent Citations (2)
Title |
---|
张彤彤;董军宇;赵浩然;李琼;孙鑫;: "基于知识蒸馏的轻量型浮游植物检测网络", 应用科学学报, no. 03 * |
葛仕明;赵胜伟;刘文瑜;李晨钰;: "基于深度特征蒸馏的人脸识别", 北京交通大学学报, no. 06 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116361658A (zh) * | 2023-04-07 | 2023-06-30 | 北京百度网讯科技有限公司 | 模型训练方法、任务处理方法、装置、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112529181B (zh) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111598164B (zh) | 识别目标对象的属性的方法、装置、电子设备和存储介质 | |
CN110795569B (zh) | 知识图谱的向量表示生成方法、装置及设备 | |
CN112001180A (zh) | 多模态预训练模型获取方法、装置、电子设备及存储介质 | |
CN113407850B (zh) | 一种虚拟形象的确定和获取方法、装置以及电子设备 | |
CN112241716B (zh) | 训练样本的生成方法和装置 | |
CN112509690A (zh) | 用于控制质量的方法、装置、设备和存储介质 | |
CN112507090A (zh) | 用于输出信息的方法、装置、设备和存储介质 | |
CN111782785B (zh) | 自动问答方法、装置、设备以及存储介质 | |
CN111582477B (zh) | 神经网络模型的训练方法和装置 | |
CN111241838A (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN112561059B (zh) | 用于模型蒸馏的方法和装置 | |
EP3879457A2 (en) | Method and apparatus for model distillation | |
CN111753964A (zh) | 神经网络的训练方法和装置 | |
JP7267379B2 (ja) | 画像処理方法、事前トレーニングモデルのトレーニング方法、装置及び電子機器 | |
CN114266937A (zh) | 模型训练、图像处理方法,装置,设备以及存储介质 | |
CN111563541B (zh) | 图像检测模型的训练方法和装置 | |
CN112529181B (zh) | 用于模型蒸馏的方法和装置 | |
CN111767990A (zh) | 神经网络的处理方法和装置 | |
CN112784102A (zh) | 视频检索方法、装置和电子设备 | |
CN112733879A (zh) | 针对不同场景的模型蒸馏方法和装置 | |
CN113128436B (zh) | 关键点的检测方法和装置 | |
CN111510376B (zh) | 图像处理方法、装置及电子设备 | |
CN113033485A (zh) | 关键点的检测方法和装置 | |
CN111767988A (zh) | 神经网络的融合方法和装置 | |
CN113792876A (zh) | 骨干网络的生成方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |