CN111160533A - 一种基于跨分辨率知识蒸馏的神经网络加速方法 - Google Patents

一种基于跨分辨率知识蒸馏的神经网络加速方法 Download PDF

Info

Publication number
CN111160533A
CN111160533A CN201911409490.XA CN201911409490A CN111160533A CN 111160533 A CN111160533 A CN 111160533A CN 201911409490 A CN201911409490 A CN 201911409490A CN 111160533 A CN111160533 A CN 111160533A
Authority
CN
China
Prior art keywords
resolution
network
low
teacher
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911409490.XA
Other languages
English (en)
Other versions
CN111160533B (zh
Inventor
冯展祥
赖剑煌
谢晓华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Sun Yat Sen University
Original Assignee
National Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Sun Yat Sen University filed Critical National Sun Yat Sen University
Priority to CN201911409490.XA priority Critical patent/CN111160533B/zh
Publication of CN111160533A publication Critical patent/CN111160533A/zh
Application granted granted Critical
Publication of CN111160533B publication Critical patent/CN111160533B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了一种基于跨分辨率知识蒸馏的神经网络加速方法,包括:获取高、低分辨率训练样本;构建高、低分辨率学生网络;通过高分辨率样本数据预训练教师网络;固定教师网络参数,并从高分辨率图像提取教师网络输出;利用学生网络提取低分辨率图像特征,并通过跨分辨率蒸馏损失约束高分辨率教师网络和低分辨率学生网络输出特征保持一致;测试阶段,利用学生网络从低分辨率输入图像提取鲁棒特征。本发明利用跨分辨率蒸馏损失实现高低分辨率领域之间的知识传播,通过从低分辨率图像提取特征加速网络,减少计算复杂度,利用高分辨率图像先验知识提高深度特则的判别能力和泛化能力,在大幅度减少深度网络计算复杂度的同时保持优秀的识别性能。

Description

一种基于跨分辨率知识蒸馏的神经网络加速方法
技术领域
本发明涉及深度学习领域,特别涉及一种基于跨分辨率知识蒸馏的神经网络加速方法。
背景技术
随着大数据的普及和深度学习技术的进步,深度网络取得了长足的进步,并且在人脸识别、行人再识别、物体分类等多个研究任务都取得了重大突破。但是,当前技术在应用场景中面临计算复杂度高、运算速度慢的难题,导致很多深度网络无法满足实时性和资源受限场景的应用需求。
针对神经网络计算复杂度高的问题,Hinton等人提出了知识蒸馏的框架:通过很深的网络学习判别鲁棒的特征,把该网络作为教师网络。对于同样的输入,构建一个小而浅的学生网络,并约束学生网络输出与教师网络输出保持一致,通过教师网络知识指导学习网络学习判别鲁棒特征,同时降低神经网络的计算复杂度。
虽然知识蒸馏的方法能在降低神经网络复杂度的同时保持较高的网络性能,但是该方法在应用中并不方便。对于不同的计算复杂度需求,需要重新设计新的网络结构进行知识蒸馏学习,不利于实际应用。此外,网络的计算复杂度主要涉及两方面,一方面是网络的结构,另一方面是输入图像的分辨率。当前知识蒸馏的方法只考虑压缩学生网络的结构和网络参数数量,并没有考虑输入图像的分辨率对计算复杂度的影响。显然,降低输入图像的分辨率能显著降低神经网络提取特征的计算复杂度,但是同时也会降低深度特征的鲁棒性和泛化能力,不利于神经网络的应用。
发明内容
为了克服当前知识蒸馏算法的不足,本发明提出了一种基于跨分辨率知识蒸馏的神经网络加速方法,该方法提出跨分辨率知识蒸馏的框架,通过在高分辨率图像训练教师网络学习鲁棒特征,然后利用教师网络先验知识指导学生网络,提高低分辨率图像深度特征的鲁棒性,实现快速鲁棒的特征提取过程。
本发明的目的通过以下的技术方案实现:一种基于跨分辨率知识蒸馏的神经网络加速方法,包括步骤:
(1)获取同一图像的高分辨率图像和低分辨率图像,将上述高分辨率图像和低分辨率图像分别作为高分辨率训练样本、低分辨率训练样本;
(2)构建跨分辨率知识蒸馏基本框架,该框架包括高分辨率教师网络和低分辨率学生网络;
(3)通过高分辨率样本数据预训练高分辨率教师网络,得到教师网络参数;
(4)固定教师网络参数,并从高分辨率图像提取教师网络输出;利用学生网络提取低分辨率图像特征,并通过跨分辨率蒸馏损失约束高分辨率教师网络和低分辨率学生网络输出特征保持一致;
(5)测试阶段,利用学生网络从低分辨率输入图像提取鲁棒特征。
优选的,所述步骤(1)中,对高分辨率训练样本和低分辨率训练样本均进行归一化预处理,预处理的公式为(x-均值)/标准差,其中x为训练数据,数值在[0,1]区间。
优选的,所述步骤(2)中,高分辨率教师网络和低分辨率学生网络均使用ResNet50作为基准网络提取深度特征。
优选的,所述步骤(3)中,通过高分辨率样本数据对高分辨率教师网络进行预训练,以获取高分辨率领域先验知识,方法是:
将教师网络参数表示为Wt,高分辨率教师网络的特征提取过程可以表示为:
zt=f(xh;Wt)
xh表示高分辨率训练样本,获得教师网络输出特征以后,通过Softmax损失学习判别特征,其公式为:
Lt=LCE(y,zt)
其中y为训练样本对应的类标,LCE为交叉熵损失函数。
优选的,所述步骤(4)中,跨分辨率知识蒸馏损失包括两部分,其中一部分是分辨率无关蒸馏损失LRD,另外一部分是成对欧式空间特征约束LPEC;跨分辨率知识蒸馏损失的目标函数可以表示为:
L=(1-α)LCE(y,zs)+αLRD+βLPEC
其中,α是分辨率无关蒸馏损失相关的权值,β是成对欧式空间特征约束相关的权值,LCE是交叉熵损失函数,y是训练样本对应的类标,zs是学生网络的输出。
更进一步的,分辨率无关蒸馏损失迫使学生网络模仿教师网络的输出,使得来自不同分辨率输入图像的网络产生分布接近的输出特征,方法是:
采用KL散度约束学生网络和教师网络的响应输出以获取相近的特征概率分布,用公式可以表示为:
Figure BDA0002349586110000031
其中zt和zs对应教师网络和学生网络的输出,σ(.)对应Softmax函数的响应,T是平滑蒸馏损失的参数,N表示样本个数,LKL(.)是KL散度,其公式为:
Figure BDA0002349586110000032
其中
Figure BDA0002349586110000033
更进一步的,所述成对欧式空间特征约束直接在特征空间对教师网络和学生网络的特征进行约束,使得教师网络的输出和学生网络的输出在欧式空间尽可能接近,用公式表示为:
Figure BDA0002349586110000034
其中,(xh,xl)表示高分辨率训练样本、低分辨率训练样本,N表示样本个数,,Wt代表教师网络的参数,Ws代表学生网络的参数。
本发明与现有技术相比,具有如下优点和有益效果:
1)本发明通过降低输入图像的分辨率减少神经网络特征提取的计算复杂度,提高运算速度,同时通过蒸馏高分辨率教师网络的先验知识提高低分辨率学生网络的判别能力和泛化能力,在提高特征提取速度的同时保持网络的性能。
2)本发明在平衡网络计算复杂度和性能方面比传统的知识蒸馏算法更有优势,能以更低的计算复杂度获取更好的识别准确率。
3)本发明具有很高的灵活度,能根据应用环境的计算资源调整学生网络的输入图像大小,满足实际应用中的多元化需求。
附图说明
图1是本发明总框架图。
图2是本发明使用的测试图样例。
图3是本发明在DukeMTMC数据库与其他主流方法对比结果。
图4是本发明在Market-1501数据库与其他主流方法对比结果。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
如图1所示,本实施例提供一种基于跨分辨率知识蒸馏的神经网络加速方法,该方法包括高分辨率教师网络和低分辨率学生网络,其中,高分辨率教师网络通过从高分辨率训练样本学习和提取鲁棒的特征表示,低分辨率学生网络通过低分辨率输入快速提取深度特征,并通过跨分辨率知识蒸馏损失提取高分辨率教师网络的先验知识,提高特征的判别能力。
本实施例中,首先需要根据应用环境需求重采样获取高分辨率训练样本和低分辨率训练样本,构建高分辨率教师网络和低分辨率学生网络,主要包括获取样本数据、高分辨率教师网络预训练、基于跨分辨率蒸馏的低分辨率学生网络训练三个步骤。
在获取样本数据步骤,获取高分辨率训练样本
Figure BDA0002349586110000041
和低分辨率训练样本
Figure BDA0002349586110000042
高低分辨率图像一一对应。为了便于后面模型训练,本实施例将高分辨率训练样本的大小统一调整设置为384*128像素,将低分辨率训练样本的大小统一设置为128*128像素。对所有训练样本,首先获得数值在[0,1]区间的训练数据x,然后进行归一化预处理,归一化预处理使用的均值为(0.485,0.456,0.406),标准差为(0.229,0.224,0.225),计算公式为(x-均值)/标准差。
本实施例中构建的跨分辨率知识蒸馏基本框架包括高分辨率教师网络和低分辨率学生网络,均通过利用上述训练样本训练得到。其中网络可使用ResNet50作为基准网络提取深度特征。
进行跨分辨率知识蒸馏学习之前,首先需要通过高分辨率样本训练判别的高分辨率教师网络,获取高分辨率领域先验知识。令网络参数表示为Wt,高分辨率教师网络的特征提取过程可以表示为:
zt=f(xh;Wt)
获得教师网络输出特征以后,我们通过Softmax损失学习判别特征,其公式为:
Lt=LCE(y,zt)
其中y为训练样本对应的类标,LCE为交叉熵损失函数。
获得预训练的教师网络以后,第二步是将教师网络的先验知识迁移到学生网络中去,克服分辨率变化带来的特征差异,提高低分辨率学生网络的判别能力和泛化能力。给定成对的高低分辨率训练样本(xh,xl),可以通过教师网络和学生网络提取对应的网络输出(f(xh;Wt),f(xl;Ws)),并通过跨分辨率知识蒸馏损失(RKD)进行约束以确保来自高分辨率图像和低分辨率图像的深度特征保持一致。
具体的,该损失包括两部分,其中一部分是分辨率无关蒸馏损失(RD),另外一部分是成对欧式空间特征约束(PEC)。
所述分辨率无关蒸馏损失迫使学生网络模仿教师网络的输出,使得来自不同分辨率输入图像的网络产生分布接近的输出特征,从而减少不同分辨率之间的鸿沟。具体地,本实施例采用KL散度约束学生网络和教师网络的响应输出以获取相近的特征概率分布,用公式可以表示为:
Figure BDA0002349586110000051
其中zt和zs对应教师网络和学生网络的输出,σ(.)对应Softmax函数的响应,T是平滑蒸馏损失的参数,LKL(.)是KL散度,其公式为:
Figure BDA0002349586110000052
其中
Figure BDA0002349586110000053
所述成对欧式空间特征约束直接在特征空间对教师网络和学生网络的特征进行约束,使得教师网络的输出和学生网络的输出在欧式空间尽可能接近,用公式可以表示为:
Figure BDA0002349586110000054
最终,跨分辨率知识蒸馏过程的目标函数可以表示为:
L=(1-α)LCE(y,zs)+αLRD+βLPEC
其中,α是分辨率无关蒸馏损失相关的权值,β是成对欧式空间特征约束相关的权值。
本实例通过实验对方法的效果进行说明。本实施例采用DukeMTMC和Market-1501这两个主流的行人再识别数据库进行网络训练和测试:DukeMTMC数据集共有1812类行人的36411张图像样本,来自8个不同的摄像头。其中,训练集包括702类行人的16522张训练样本,测试集包括702类行人的17661张测试样本,另有402个干扰行人图像;Market-1501数据集共有1501类行人的32668张图像样本,来自6个不同的摄像头。其中,训练集包括751类行人的12936张训练样本,测试集包括750类行人的19732张训练样本。DukeMTMC和Market-1501行人数据库的实例如图2所示。在本实施例中,使用ResNet50作为基准网络提取深度特征。测试阶段,使用累计匹配特性(CMC)和平均精度均值(mAP)去评估不同算法的识别效果,并用每秒浮点运算次数(FLOPs)去衡量不同算法的计算复杂度。在这两个数据库,统一设置α=0.1,β=1,T=8。实验结果如表1所示。
表1不同网络结构实验结果
Figure BDA0002349586110000061
从表1可以看到,相比于用高分辨率图像(384*128)训练的ResNet50模型,用更小的模型(ResNet18)进行训练会导致性能下降:在DukeMTMC数据库,首位识别率从85.7%降到83.3%,mAP从73.6%降到69%,在Market数据库,首位识别率从93.9%降到91.9%,mAP从84.7%降到79.9%;类似地,用更低的分辨率(128*128)进行训练也会导致性能下降:在DukeMTMC数据库,首位识别率从85.7%降到83.3%,mAP从73.6%降到69.2%,在Market数据库,首位识别率从93.9%降到90.8%,mAP从84.7%降到78.4%。另外,RKD损失函数能有效提高低分辨率学生网络的性能,在DukeMTMC数据库上,首位识别率和mAP分别提升2%和3.6%,在Market-1501数据库,首位识别率和mAP分别提升2.5%和5%。对比传统的知识蒸馏框架(KD),本实施例方法使用同样的损失函数,能取得非常接近甚至更优的识别精度,而且需要的计算复杂度更低(2.1×109对比3×109)。与教师网络相比,基于RKD的学生网络能取得非常接近的精度,譬如在Market1501数据库,首位识别率的精度是93.3%对93.9%,但是需要的计算复杂度降到了1/3左右(2.1×109对比6.1×109)。
图3和图4对比了RKD方法和其他一些主流方法的综合性能,其中图3显示的是在DukeMTMC数据库上的对比结果,图4显示的是在Market-1501数据库上的对比结果。可以看到,相比于KD方法,RKD方法能在用更小的计算复杂度的前提下取得更优的识别准确率。相比于教师网络,RKD方法能用小得多的计算复杂度获得接近的识别准确率。
表2显示了消融实验的结果,如下:
表2姿态算法的可视化结果
Figure BDA0002349586110000071
从表2可以看到,成对欧式空间特征约束能提升学生网络的性能,在DukeMTMC从83.3%/69.2%的首位识别率/mAP提升到了83.8%/70.7%,在Market-1501从90.8%/78.4%的首位识别率/mAP提升到了92.8%/81.3%。加入分辨率无关蒸馏损失能进一步提升学生网络的性能,在DukeMTMC上提升了1.5%/2.1%的首位识别率/mAP,在Market-1501上提升了0.5%/2.1%的首位识别率/mAP。
本发明利用跨分辨率蒸馏损失实现高低分辨率领域之间的知识传播,通过从低分辨率图像提取特征加速网络,减少计算复杂度,利用高分辨率图像先验知识提高深度特则的判别能力和泛化能力,在大幅度减少深度网络计算复杂度的同时保持优秀的识别性能。本发明具有应用灵活,综合性能优异的特点。
本领域普通技术人员可以意识到,结合本发明中所公开的实施例描述的各示例的算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
另外,在本发明实施例中的实现各算法步骤的功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (7)

1.一种基于跨分辨率知识蒸馏的神经网络加速方法,其特征在于,包括步骤:
(1)获取同一图像的高分辨率图像和低分辨率图像,将上述高分辨率图像和低分辨率图像分别作为高分辨率训练样本、低分辨率训练样本;
(2)构建跨分辨率知识蒸馏基本框架,该框架包括高分辨率教师网络和低分辨率学生网络;
(3)通过高分辨率样本数据预训练高分辨率教师网络,得到教师网络参数;
(4)固定教师网络参数,并从高分辨率图像提取教师网络输出;利用学生网络提取低分辨率图像特征,并通过跨分辨率蒸馏损失约束高分辨率教师网络和低分辨率学生网络输出特征保持一致;
(5)测试阶段,利用学生网络从低分辨率输入图像提取鲁棒特征。
2.根据权利要求1所述的基于跨分辨率知识蒸馏的神经网络加速方法,其特征在于,所述步骤(1)中,对高分辨率训练样本和低分辨率训练样本均进行归一化预处理,预处理的公式为(x-均值)/标准差,其中x为训练数据,数值在[0,1]区间。
3.根据权利要求1所述的基于跨分辨率知识蒸馏的神经网络加速方法,其特征在于,所述步骤(2)中,高分辨率教师网络和低分辨率学生网络均使用ResNet50作为基准网络提取深度特征。
4.根据权利要求1所述的基于跨分辨率知识蒸馏的神经网络加速方法,其特征在于,所述步骤(3)中,通过高分辨率样本数据对高分辨率教师网络进行预训练,以获取高分辨率领域先验知识,方法是:
将教师网络参数表示为Wt,高分辨率教师网络的特征提取过程可以表示为:
zt=f(xh;Wt)
xh表示高分辨率训练样本,获得教师网络输出特征以后,通过Softmax损失学习判别特征,其公式为:
Lt=LCE(y,zt)
其中y为训练样本对应的类标,LCE为交叉熵损失函数。
5.根据权利要求4所述的基于跨分辨率知识蒸馏的神经网络加速方法,其特征在于,所述步骤(4)中,跨分辨率知识蒸馏损失包括两部分,其中一部分是分辨率无关蒸馏损失LRD,另外一部分是成对欧式空间特征约束LPEC;跨分辨率知识蒸馏损失的目标函数可以表示为:
L=(1-α)LCE(y,zs)+αLRD+βLPEC
其中,α是分辨率无关蒸馏损失相关的权值,β是成对欧式空间特征约束相关的权值,LCE是交叉熵损失函数,y是训练样本对应的类标,zs是学生网络的输出。
6.根据权利要求5所述的基于跨分辨率知识蒸馏的神经网络加速方法,其特征在于,分辨率无关蒸馏损失迫使学生网络模仿教师网络的输出,使得来自不同分辨率输入图像的网络产生分布接近的输出特征,方法是:
采用KL散度约束学生网络和教师网络的响应输出以获取相近的特征概率分布,用公式可以表示为:
Figure FDA0002349586100000021
其中zt和zs对应教师网络和学生网络的输出,σ(.)对应Softmax函数的响应,T是平滑蒸馏损失的参数,N表示样本个数,LKL(.)是KL散度,其公式为:
Figure FDA0002349586100000022
其中
Figure FDA0002349586100000023
7.根据权利要求5所述的基于跨分辨率知识蒸馏的神经网络加速方法,其特征在于,所述成对欧式空间特征约束直接在特征空间对教师网络和学生网络的特征进行约束,使得教师网络的输出和学生网络的输出在欧式空间尽可能接近,用公式表示为:
Figure FDA0002349586100000024
其中,(xh,xl)表示高分辨率训练样本、低分辨率训练样本,N表示样本个数,Wt代表教师网络的参数,Ws代表学生网络的参数。
CN201911409490.XA 2019-12-31 2019-12-31 一种基于跨分辨率知识蒸馏的神经网络加速方法 Active CN111160533B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911409490.XA CN111160533B (zh) 2019-12-31 2019-12-31 一种基于跨分辨率知识蒸馏的神经网络加速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911409490.XA CN111160533B (zh) 2019-12-31 2019-12-31 一种基于跨分辨率知识蒸馏的神经网络加速方法

Publications (2)

Publication Number Publication Date
CN111160533A true CN111160533A (zh) 2020-05-15
CN111160533B CN111160533B (zh) 2023-04-18

Family

ID=70559878

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911409490.XA Active CN111160533B (zh) 2019-12-31 2019-12-31 一种基于跨分辨率知识蒸馏的神经网络加速方法

Country Status (1)

Country Link
CN (1) CN111160533B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111967573A (zh) * 2020-07-15 2020-11-20 中国科学院深圳先进技术研究院 数据处理方法、装置、设备及计算机可读存储介质
CN111985620A (zh) * 2020-08-21 2020-11-24 苏州浪潮智能科技有限公司 一种神经网络模型知识蒸馏方法、系统、设备及介质
CN112348167A (zh) * 2020-10-20 2021-02-09 华东交通大学 一种基于知识蒸馏的矿石分选方法和计算机可读存储介质
CN112580783A (zh) * 2020-12-16 2021-03-30 浙江工业大学 一种高维深度学习模型向低维迁移知识的跨维度知识迁移方法
CN113033767A (zh) * 2021-02-19 2021-06-25 北京大学 基于知识蒸馏的神经网络的数据压缩恢复方法及系统
CN113095251A (zh) * 2021-04-20 2021-07-09 清华大学深圳国际研究生院 一种人体姿态估计方法及系统
CN113112020A (zh) * 2021-03-25 2021-07-13 厦门大学 一种基于生成网络与知识蒸馏的模型网络提取和压缩方法
CN113160041A (zh) * 2021-05-07 2021-07-23 深圳追一科技有限公司 一种模型训练方法及模型训练装置
CN113435334A (zh) * 2021-06-28 2021-09-24 中国科学院上海微系统与信息技术研究所 一种基于深度学习的小目标人脸识别方法
CN113724379A (zh) * 2021-07-08 2021-11-30 中国科学院空天信息创新研究院 三维重建方法、装置、设备及存储介质
CN113807214A (zh) * 2021-08-31 2021-12-17 中国科学院上海微系统与信息技术研究所 基于deit附属网络知识蒸馏的小目标人脸识别方法
CN115797976A (zh) * 2023-01-12 2023-03-14 广州紫为云科技有限公司 一种低分辨率的实时手势识别方法
CN117576381A (zh) * 2024-01-16 2024-02-20 深圳华付技术股份有限公司 目标检测训练方法及电子设备、计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830813A (zh) * 2018-06-12 2018-11-16 福建帝视信息科技有限公司 一种基于知识蒸馏的图像超分辨率增强方法
CN109063565A (zh) * 2018-06-29 2018-12-21 中国科学院信息工程研究所 一种低分辨率人脸识别方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830813A (zh) * 2018-06-12 2018-11-16 福建帝视信息科技有限公司 一种基于知识蒸馏的图像超分辨率增强方法
CN109063565A (zh) * 2018-06-29 2018-12-21 中国科学院信息工程研究所 一种低分辨率人脸识别方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
QUAN ZHANG 等: "DHML: Deep Heterogeneous Metric Learning for VIS-NIR Person Re-identification" *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111967573A (zh) * 2020-07-15 2020-11-20 中国科学院深圳先进技术研究院 数据处理方法、装置、设备及计算机可读存储介质
CN111985620A (zh) * 2020-08-21 2020-11-24 苏州浪潮智能科技有限公司 一种神经网络模型知识蒸馏方法、系统、设备及介质
WO2022037165A1 (zh) * 2020-08-21 2022-02-24 苏州浪潮智能科技有限公司 一种神经网络模型知识蒸馏方法、系统、设备及介质
CN112348167A (zh) * 2020-10-20 2021-02-09 华东交通大学 一种基于知识蒸馏的矿石分选方法和计算机可读存储介质
CN112348167B (zh) * 2020-10-20 2022-10-11 华东交通大学 一种基于知识蒸馏的矿石分选方法和计算机可读存储介质
CN112580783B (zh) * 2020-12-16 2024-03-22 浙江工业大学 一种高维深度学习模型向低维迁移知识的跨维度知识迁移方法
CN112580783A (zh) * 2020-12-16 2021-03-30 浙江工业大学 一种高维深度学习模型向低维迁移知识的跨维度知识迁移方法
CN113033767A (zh) * 2021-02-19 2021-06-25 北京大学 基于知识蒸馏的神经网络的数据压缩恢复方法及系统
CN113112020A (zh) * 2021-03-25 2021-07-13 厦门大学 一种基于生成网络与知识蒸馏的模型网络提取和压缩方法
CN113112020B (zh) * 2021-03-25 2022-06-28 厦门大学 一种基于生成网络与知识蒸馏的模型网络提取和压缩方法
CN113095251A (zh) * 2021-04-20 2021-07-09 清华大学深圳国际研究生院 一种人体姿态估计方法及系统
CN113160041A (zh) * 2021-05-07 2021-07-23 深圳追一科技有限公司 一种模型训练方法及模型训练装置
CN113160041B (zh) * 2021-05-07 2024-02-23 深圳追一科技有限公司 一种模型训练方法及模型训练装置
CN113435334A (zh) * 2021-06-28 2021-09-24 中国科学院上海微系统与信息技术研究所 一种基于深度学习的小目标人脸识别方法
CN113435334B (zh) * 2021-06-28 2024-02-27 中国科学院上海微系统与信息技术研究所 一种基于深度学习的小目标人脸识别方法
CN113724379B (zh) * 2021-07-08 2022-06-17 中国科学院空天信息创新研究院 融合图像与激光点云的三维重建方法及装置
CN113724379A (zh) * 2021-07-08 2021-11-30 中国科学院空天信息创新研究院 三维重建方法、装置、设备及存储介质
CN113807214A (zh) * 2021-08-31 2021-12-17 中国科学院上海微系统与信息技术研究所 基于deit附属网络知识蒸馏的小目标人脸识别方法
CN113807214B (zh) * 2021-08-31 2024-01-05 中国科学院上海微系统与信息技术研究所 基于deit附属网络知识蒸馏的小目标人脸识别方法
CN115797976A (zh) * 2023-01-12 2023-03-14 广州紫为云科技有限公司 一种低分辨率的实时手势识别方法
CN117576381A (zh) * 2024-01-16 2024-02-20 深圳华付技术股份有限公司 目标检测训练方法及电子设备、计算机可读存储介质

Also Published As

Publication number Publication date
CN111160533B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN111160533B (zh) 一种基于跨分辨率知识蒸馏的神经网络加速方法
US11908244B2 (en) Human posture detection utilizing posture reference maps
CN113221639B (zh) 一种基于多任务学习的代表性au区域提取的微表情识别方法
CN109993100B (zh) 基于深层特征聚类的人脸表情识别的实现方法
WO2016138838A1 (zh) 基于投影极速学习机的唇语识别方法和装置
CN106570522B (zh) 物体识别模型的建立方法及物体识别方法
CN109829414B (zh) 一种基于标签不确定性和人体组件模型的行人再识别方法
CN113807340B (zh) 一种基于注意力机制的不规则自然场景文本识别方法
CN110826462A (zh) 一种非局部双流卷积神经网络模型的人体行为识别方法
CN112070768A (zh) 基于Anchor-Free的实时实例分割方法
CN112418166B (zh) 一种基于多模态信息的情感分布学习方法
CN112488963A (zh) 一种用于农作物病害数据的增强方法
Zhuang et al. A handwritten Chinese character recognition based on convolutional neural network and median filtering
CN111666845A (zh) 基于关键帧采样的小样本深度学习多模态手语识别方法
CN110826534A (zh) 一种基于局部主成分分析的人脸关键点检测方法及系统
CN116311483B (zh) 基于局部面部区域重构和记忆对比学习的微表情识别方法
CN111401209B (zh) 一种基于深度学习的动作识别方法
CN109284765A (zh) 基于负值特征的卷积神经网络的自然图像分类方法
CN109165551B (zh) 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法
Zhang et al. Research On Face Image Clustering Based On Integrating Som And Spectral Clustering Algorithm
CN111079715B (zh) 一种基于双字典学习的遮挡鲁棒性人脸对齐方法
Marjusalinah et al. Classification of finger spelling American sign language using convolutional neural network
CN115223001A (zh) 一种基于迁移学习的医学图像识别方法
CN111783526A (zh) 一种利用姿势不变和图结构对齐的跨域行人重识别方法
CN111209433A (zh) 一种基于特征增强的视频分类算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant