CN112825143A - 深度卷积神经网络压缩方法、装置、存储介质及设备 - Google Patents
深度卷积神经网络压缩方法、装置、存储介质及设备 Download PDFInfo
- Publication number
- CN112825143A CN112825143A CN201911138226.7A CN201911138226A CN112825143A CN 112825143 A CN112825143 A CN 112825143A CN 201911138226 A CN201911138226 A CN 201911138226A CN 112825143 A CN112825143 A CN 112825143A
- Authority
- CN
- China
- Prior art keywords
- dcnn
- training
- batch
- sample
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000006835 compression Effects 0.000 title claims abstract description 40
- 238000007906 compression Methods 0.000 title claims abstract description 40
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 36
- 238000003860 storage Methods 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 112
- 239000011159 matrix material Substances 0.000 claims abstract description 49
- 230000006870 function Effects 0.000 claims description 41
- 230000015654 memory Effects 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 8
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 abstract description 13
- 238000003909 pattern recognition Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000005056 compaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种深度卷积神经网络压缩方法、装置、存储介质及设备,属于模式识别领域。该方法包括:获取DCNN、精简网络和训练集;使用训练集训练DCNN;从训练集的每个类别中随机选取一个样本组成训练子集;将训练子集输入训练好的DCNN,提取第一特征矩阵,并得到在DCNN的特征层或分类层的输出;将训练子集中样本的标签替换为DCNN的输出;从训练子集中分批取出样本输入精简网络,计算损失函数并更新精简网络的参数;重复上述步骤,直至训练子集中所有样本被取出;迭代上述步骤一定次数,完成精简网络的训练。本发明提高了精简网络算法的准确率,加速了精简网络模型的收敛。
Description
技术领域
本发明涉及模式识别领域,特别是指一种深度卷积神经网络压缩方法、装置、计算机可读存储介质及设备。
背景技术
卷积神经网络(Convolutional Neural Network,CNN),也简称为网络,是一类模式识别方法。该方法旨在使用卷积的方法对图像等数据进行表征量化,进而完成分类或是回归任务。该方法目前在图像分类、语音识别等方向表现出了优异的性能。
近年来随着深度学习的发展,为了显著的提升模型准确率,网络的计算量和参数随之大幅增加,这种巨大的网络模型也称为深度卷积神经网络(Deep ConvolutionalNeural Network,DCNN)。但是这些DCNN在部署阶段,往往需要占用巨大内存资源,同时运行起来极其耗时,尤其是在移动终端上,运算资源有限,导致这些准确率高的DCNN在实际的运用过程中举步维艰。
为了在更多场景中应用DCNN,需要对DCNN模型进行压缩和加速,常用的模型压缩加速算法有模型裁剪法、模型搜索法等。但是这些方法压缩后得到的精简网络的准确率很难满足要求,效果较差。
发明内容
为解决上述技术问题,本发明提供一种深度卷积神经网络压缩方法、装置、存储介质及设备,提高了精简网络算法的准确率,加速了精简网络模型的收敛。
本发明提供技术方案如下:
第一方面,本发明提供一种深度卷积神经网络压缩方法,所述方法包括:
步骤S1:获取DCNN、与DCNN对应的精简网络和训练集,所述训练集包括多个类别的样本,所述样本上设置有表示该样本类别的标签;
步骤S2:使用训练集训练DCNN;
步骤S3:从训练集的每个类别中随机选取一个样本,组成训练子集;
步骤S4:将训练子集输入训练好的DCNN,提取第一特征矩阵,并得到训练子集中每个样本在DCNN的特征层或分类层的输出;
步骤S5:将训练子集中每个样本的标签替换为该样本在DCNN的特征层或分类层的输出;
步骤S6:从训练子集中取出一批样本输入精简网络,得到第二特征矩阵;
步骤S7:根据第一特征矩阵、第二特征矩阵和替换后的标签计算损失函数;
步骤S8:采用随机梯度下降法更新精简网络的参数;
步骤S9:判断训练子集中是否有样本未被取出,若是,返回步骤S6,否则,执行步骤S10;
步骤S10:判断是否达到迭代次数,若是,完成精简网络的训练,结束,否则,返回步骤S3。
进一步的,所述损失函数的计算公式为:
Loss(Ibatch,batch)=Softmaxloss(pre_logit,batch)
其中,Loss(Ibatch,batch)为计算得到的损失函数值,Softmaxloss()为多分类交叉熵损失函数, 为的转置,为第一特征矩阵,为第二特征矩阵,batch为替换后的标签,Ibatch为从训练子集中取出的一批样本。
进一步的,所述DCNN和精简网络用于人脸识别,所述训练集的样本通过如下方法得到:
对人脸图像进行人脸检测和关键点定位,得到人脸区域和人脸关键点,所述人脸关键点包括左眼坐标和右眼坐标;
通过仿射变换将左眼坐标和右眼坐标对齐到指定坐标位置;
将人脸区域归一化为指定的大小并进行灰度化,得到样本;
为样本设置表示该样本类别的标签。
进一步的,所述左眼坐标对齐到(30,30)坐标,所述右眼坐标对齐到(30,70)坐标,将人脸区域归一化为100*100的大小。
第二方面,本发明提供一种深度卷积神经网络压缩装置,所述装置包括:
获取模块,用于获取DCNN、与DCNN对应的精简网络和训练集,所述训练集包括多个类别的样本,所述样本上设置有表示该样本类别的标签;
DCNN训练模块,使用训练集训练DCNN;
训练子集获取模块,从训练集的每个类别中随机选取一个样本,组成训练子集;
第一特征矩阵提取模块,用于将训练子集输入训练好的DCNN,提取第一特征矩阵,并得到训练子集中每个样本在DCNN的特征层或分类层的输出;
标签替换模块,用于将训练子集中每个样本的标签替换为该样本在DCNN的特征层或分类层的输出;
第二特征矩阵提取模块,用于从训练子集中取出一批样本输入精简网络,得到第二特征矩阵;
损失函数计算模块,用于根据第一特征矩阵、第二特征矩阵和替换后的标签计算损失函数;
参数更新模块,用于采用随机梯度下降法更新精简网络的参数;
第一判断模块,用于判断训练子集中是否有样本未被取出,若是,返回第二特征矩阵提取模块,否则,执行第二判断模块;
第二判断模块,用于判断是否达到迭代次数,若是,完成精简网络的训练,结束,否则,返回训练子集获取模块。
进一步的,所述损失函数的计算公式为:
Loss(Ibatch,batch)=Softmaxloss(pre_logit,batch)
其中,Loss(Ibatch,batch)为计算得到的损失函数值,Softmaxloss()为多分类交叉熵损失函数, 为的转置,为第一特征矩阵,为第二特征矩阵,batch为替换后的标签,Ibatch为从训练子集中取出的一批样本。
进一步的,所述DCNN和精简网络用于人脸识别,所述训练集的样本通过如下单元得到:
人脸检测和关键点定位单元,用于对人脸图像进行人脸检测和关键点定位,得到人脸区域和人脸关键点,所述人脸关键点包括左眼坐标和右眼坐标;
对齐单元,用于通过仿射变换将左眼坐标和右眼坐标对齐到指定坐标位置;
归一化和灰度化单元,用于将人脸区域归一化为指定的大小并进行灰度化,得到样本;
标签设置单元,用于为样本设置表示该样本类别的标签。
进一步的,所述左眼坐标对齐到(30,30)坐标,所述右眼坐标对齐到(30,70)坐标,将人脸区域归一化为100*100的大小。
第三方面,本发明提供一种用于深度卷积神经网络压缩的计算机可读存储介质,包括用于存储处理器可执行指令的存储器,所述指令被所述处理器执行时实现第一方面所述的深度卷积神经网络压缩方法的步骤。
第四方面,本发明提供一种用于深度卷积神经网络压缩的设备,包括至少一个处理器以及存储计算机可执行指令的存储器,所述处理器执行所述指令时实现第一方面所述的深度卷积神经网络压缩方法的步骤。
本发明具有以下有益效果:
本发明使用DCNN的输出代替原有的类别标签训练精简网络,使得精简网络更接近真实分类,准确率高,基于全局特征结构进行模型压缩,提高了精简网络算法的准确率,加速了精简网络模型的收敛。
附图说明
图1为本发明的深度卷积神经网络压缩方法流程图;
图2为本发明的深度卷积神经网络压缩方法示意图;
图3为人脸样本的获取过程;
图4为本发明的深度卷积神经网络压缩装置示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
本发明实施提供了一种深度卷积神经网络压缩方法,如图1-2所示,该方法包括:
步骤S1:获取DCNN、与DCNN对应的精简网络和训练集,训练集包括多个类别的样本,每个类别包括多个样本,样本上设置有表示该样本类别的标签。
示例性的,以人脸识别为例,训练集为{Ii,j},i=1,2,...,C;j=1,2,...,C_i,C为人脸id数(类别数),C_i为第i类的样本数量。
本发明不限制DCNN的获取方式,DCNN可以是根据识别或分类需要设计的结构复杂、高精度的大网络,也可以是现有的已经存在的高精度的网络,精简网络是与DCNN对应的结构简单、内存占用小的网络或者是现有技术中已存在的结构简单的网络。
本发明不限制DCNN和精简网络的结构,只要两者能够对应即可:DCNN为结构复杂、高精度的大网络或者组合网络,精简网络为结构简单、内存占用小的小网络,DCNN和精简网络用于同样的识别或分类任务,并且DCNN的分类的类别和精简网络的分类的类别相同。
步骤S2:使用训练集训练DCNN。
本步骤通过常规的方法训练DCNN,将训练集的样本输入DCNN,计算损失函数,通过反向传播训练更新DCNN的参数。
步骤S3:从训练集的每个类别中随机选取一个样本,组成训练子集。
示例性的,从练集为{Ii,j}每一类随机选取一个样本Ii,记为Ii,进而构成一个全id训练子集Iiter。
步骤S4:将训练子集输入训练好的DCNN,提取第一特征矩阵,并得到训练子集中每个样本在DCNN的特征层或分类层的输出。
示例性的,训练好的DCNN对Iiter提取第一特征矩阵即 该特征集构成的矩阵维度为C*dim(DCNN(Iiter)),C为类别数,dim(DCNN(Iiter))为第一特征矩阵DCNN(Iiter)的秩。
步骤S5:将训练子集中每个样本的标签替换为该样本在DCNN的特征层或分类层的输出。
现有技术中,样本标签一般是one-hot标签,这种标签中只有一个类别为1,其他类别为0,这种标签包含的信息量很低。DCNN的输出包含的类别分布信息更丰富,拥有不同类别之间关系的信息,样本输入DCNN后,在DCNN的特征层或分类层会有一个输出,使用DCNN的特征层或分类层的输出代替原有的类别标签,使用这种类别标签的数据集训练的精简网络更接近真实分类,能够提升准确率。
由于使用DCNN大模型的输出训练精简网络模型,相当于精简网络模型的参数是从DCNN上学习到的,也就是说,精简网络相当于DCNN压缩精简后的网络。
本步骤中,如果是将训练子集中每个样本的标签替换为该样本在DCNN的特征层的输出,那么还要求DCNN的该特征层的输出的维数与精简网络的某一个特征层的输出的维数相同。
步骤S6:从训练子集中取出一批样本输入精简网络,得到第二特征矩阵。
步骤S7:根据第一特征矩阵、第二特征矩阵和替换后的标签计算损失函数。
损失函数为交叉熵损失函数。
步骤S8:采用随机梯度下降法(Stochastic gradient descent,SGD)更新精简网络的参数。
步骤S9:判断训练子集中是否有样本未被取出,若是,返回步骤S6,否则,执行步骤S10。
示例性的,如果Iiter仍有未取到的样本则返回步骤S6,重新取出一批样本,如果Iiter样本全部取到,步骤S10。
步骤S10:判断是否达到迭代次数epoch_num,若是,完成精简网络的训练,输出精简网络模型,结束,精简网络模型可以视为DCNN精简压缩后的网络,否则,返回步骤S3。
本发明并不是训练集的每个样本同时输入DCNN和精简网络,其压缩算法并不是1:1的。如果压缩算法是1:1的,那么目标函数是对二者输出进行一对一计算度量的,是一种局部度量,无法考虑全局结构,所以学习效率比较低,效果较差。本发明并不是每个样本同时输入DCNN和精简网络,而是基于全局特征结构进行模型压缩,可以提高算法准确率,加速模型收敛。
综上所述,本发明使用DCNN的输出代替原有的类别标签训练精简网络,使得精简网络更接近真实分类,准确率高,基于全局特征结构进行模型压缩,提高了精简网络算法的准确率,加速了精简网络模型的收敛。
作为本发明的一种改进,损失函数的计算公式为:
Loss(Ibatch,batch)=Softmaxloss(pre_logit,batch)
其中,Loss(Ibatch,batch)为计算得到的损失函数值,Softmaxloss()为多分类交叉熵损失函数, 为的转置,为第一特征矩阵,为第二特征矩阵,batch为替换后的标签,Ibatch为从训练子集中取出的一批样本。
以DCNN和精简网络用于人脸识别为例,如图3所示,训练集的(人脸)样本通过如下方法得到:
步骤S110:对人脸图像进行人脸检测和关键点定位,得到人脸区域和人脸关键点,人脸关键点包括左眼坐标和右眼坐标。人脸检测算法优选为基于CNN的人脸检测算法。
步骤S120:通过仿射变换将左眼坐标和右眼坐标对齐到指定坐标位置。
步骤S130:将人脸区域归一化为指定的大小并进行灰度化,得到样本。
步骤S140:为样本设置表示该样本类别的标签。
示例性的,左眼坐标对齐到(30,30)坐标,右眼坐标对齐到(30,70)坐标,将人脸区域归一化为100*100的大小。
实施例2:
本发明实施例提供了一种深度卷积神经网络压缩装置,如图4所示,该装置包括:
获取模块1,用于获取DCNN、与DCNN对应的精简网络和训练集,训练集包括多个类别的样本,样本上设置有表示该样本类别的标签。
DCNN训练模块2,使用训练集训练DCNN。
训练子集获取模块3,从训练集的每个类别中随机选取一个样本,组成训练子集。
第一特征矩阵提取模块4,用于将训练子集输入训练好的DCNN,提取第一特征矩阵,并得到训练子集中每个样本在DCNN的特征层或分类层的输出。
标签替换模块5,用于将训练子集中每个样本的标签替换为该样本在DCNN的特征层或分类层的输出。
第二特征矩阵提取模块6,用于从训练子集中取出一批样本输入精简网络,得到第二特征矩阵。
损失函数计算模块7,用于根据第一特征矩阵、第二特征矩阵和替换后的标签计算损失函数。
参数更新模块8,用于采用随机梯度下降法更新精简网络的参数。
第一判断模块9,用于判断训练子集中是否有样本未被取出,若是,返回第二特征矩阵提取模块6,否则,执行第二判断模块。
第二判断模块10,用于判断是否达到迭代次数,若是,完成精简网络的训练,结束,否则,返回训练子集获取模块3。
本发明使用DCNN的输出代替原有的类别标签训练精简网络,使得精简网络更接近真实分类,准确率高,基于全局特征结构进行模型压缩,提高了精简网络算法的准确率,加速了精简网络模型的收敛。
本发明的损失函数的计算公式为:
Loss(Ibatch,batch)=Softmaxloss(pre_logit,batch)
其中,Loss(Ibatch,batch)为计算得到的损失函数值,Softmaxloss()为多分类交叉熵损失函数, 为的转置,为第一特征矩阵,为第二特征矩阵,batch为替换后的标签,Ibatch为从训练子集中取出的一批样本。
以DCNN和精简网络用于人脸识别为例,如图3所示,训练集的样本通过如下单元得到:
人脸检测和关键点定位单元,用于对人脸图像进行人脸检测和关键点定位,得到人脸区域和人脸关键点,人脸关键点包括左眼坐标和右眼坐标。
对齐单元,用于通过仿射变换将左眼坐标和右眼坐标对齐到指定坐标位置。
归一化和灰度化单元,用于将人脸区域归一化为指定的大小并进行灰度化,得到样本。
标签设置单元,用于为样本设置表示该样本类别的标签。
示例性的,左眼坐标对齐到(30,30)坐标,右眼坐标对齐到(30,70)坐标,将人脸区域归一化为100*100的大小。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
实施例3:
本说明书提供的上述实施例所述的方法可以通过计算机程序实现业务逻辑并记录在存储介质上,所述的存储介质可以计算机读取并执行,实现本说明书实施例1所描述方案的效果。因此,本发明还提供用于深度卷积神经网络压缩的计算机可读存储介质,包括用于存储处理器可执行指令的存储器,指令被处理器执行时实现包括实施例1的深度卷积神经网络压缩方法的步骤。
本发明使用DCNN的输出代替原有的类别标签训练精简网络,使得精简网络更接近真实分类,准确率高,基于全局特征结构进行模型压缩,提高了精简网络算法的准确率,加速了精简网络模型的收敛。
所述存储介质可以包括用于存储信息的物理装置,通常是将信息数字化后再以利用电、磁或者光学等方式的媒体加以存储。所述存储介质有可以包括:利用电能方式存储信息的装置如,各式存储器,如RAM、ROM等;利用磁能方式存储信息的装置如,硬盘、软盘、磁带、磁芯存储器、磁泡存储器、U盘;利用光学方式存储信息的装置如,CD或DVD。当然,还有其他方式的可读存储介质,例如量子存储器、石墨烯存储器等等。
上述所述的存储介质根据方法实施例的描述还可以包括其他的实施方式。具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
实施例4:
本发明还提供一种用于深度卷积神经网络压缩的设备,所述的设备可以为单独的计算机,也可以包括使用了本说明书的一个或多个所述方法或一个或多个实施例装置的实际操作装置等。所述用于深度卷积神经网络压缩的设备可以包括至少一个处理器以及存储计算机可执行指令的存储器,处理器执行所述指令时实现上述任意一个或者多个实施例1中所述深度卷积神经网络压缩方法的步骤。
本发明使用DCNN的输出代替原有的类别标签训练精简网络,使得精简网络更接近真实分类,准确率高,基于全局特征结构进行模型压缩,提高了精简网络算法的准确率,加速了精简网络模型的收敛。
上述所述的设备根据方法或者装置实施例的描述还可以包括其他的实施方式,具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
需要说明的是,本说明书上述所述的装置或者系统根据相关方法实施例的描述还可以包括其他的实施方式,具体的实现方式可以参照方法实施例的描述,在此不作一一赘述。本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于硬件+程序类、存储介质+程序实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、车载人机交互设备、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书一个或多个时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述并不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种深度卷积神经网络压缩方法,其特征在于,所述方法包括:
步骤S1:获取DCNN、与DCNN对应的精简网络和训练集,所述训练集包括多个类别的样本,所述样本上设置有表示该样本类别的标签;
步骤S2:使用训练集训练DCNN;
步骤S3:从训练集的每个类别中随机选取一个样本,组成训练子集;
步骤S4:将训练子集输入训练好的DCNN,提取第一特征矩阵,并得到训练子集中每个样本在DCNN的特征层或分类层的输出;
步骤S5:将训练子集中每个样本的标签替换为该样本在DCNN的特征层或分类层的输出;
步骤S6:从训练子集中取出一批样本输入精简网络,得到第二特征矩阵;
步骤S7:根据第一特征矩阵、第二特征矩阵和替换后的标签计算损失函数;
步骤S8:采用随机梯度下降法更新精简网络的参数;
步骤S9:判断训练子集中是否有样本未被取出,若是,返回步骤S6,否则,执行步骤S10;
步骤S10:判断是否达到迭代次数,若是,完成精简网络的训练,结束,否则,返回步骤S3。
3.根据权利要求1或2所述的深度卷积神经网络压缩方法,其特征在于,所述DCNN和精简网络用于人脸识别,所述训练集的样本通过如下方法得到:
对人脸图像进行人脸检测和关键点定位,得到人脸区域和人脸关键点,所述人脸关键点包括左眼坐标和右眼坐标;
通过仿射变换将左眼坐标和右眼坐标对齐到指定坐标位置;
将人脸区域归一化为指定的大小并进行灰度化,得到样本;
为样本设置表示该样本类别的标签。
4.根据权利要求3所述的深度卷积神经网络压缩方法,其特征在于,所述左眼坐标对齐到(30,30)坐标,所述右眼坐标对齐到(30,70)坐标,将人脸区域归一化为100*100的大小。
5.一种深度卷积神经网络压缩装置,其特征在于,所述装置包括:
获取模块,用于获取DCNN、与DCNN对应的精简网络和训练集,所述训练集包括多个类别的样本,所述样本上设置有表示该样本类别的标签;
DCNN训练模块,使用训练集训练DCNN;
训练子集获取模块,从训练集的每个类别中随机选取一个样本,组成训练子集;
第一特征矩阵提取模块,用于将训练子集输入训练好的DCNN,提取第一特征矩阵,并得到训练子集中每个样本在DCNN的特征层或分类层的输出;
标签替换模块,用于将训练子集中每个样本的标签替换为该样本在DCNN的特征层或分类层的输出;
第二特征矩阵提取模块,用于从训练子集中取出一批样本输入精简网络,得到第二特征矩阵;
损失函数计算模块,用于根据第一特征矩阵、第二特征矩阵和替换后的标签计算损失函数;
参数更新模块,用于采用随机梯度下降法更新精简网络的参数;
第一判断模块,用于判断训练子集中是否有样本未被取出,若是,返回第二特征矩阵提取模块,否则,执行第二判断模块;
第二判断模块,用于判断是否达到迭代次数,若是,完成精简网络的训练,结束,否则,返回训练子集获取模块。
7.根据权利要求5或6所述的深度卷积神经网络压缩装置,其特征在于,所述DCNN和精简网络用于人脸识别,所述训练集的样本通过如下单元得到:
人脸检测和关键点定位单元,用于对人脸图像进行人脸检测和关键点定位,得到人脸区域和人脸关键点,所述人脸关键点包括左眼坐标和右眼坐标;
对齐单元,用于通过仿射变换将左眼坐标和右眼坐标对齐到指定坐标位置;
归一化和灰度化单元,用于将人脸区域归一化为指定的大小并进行灰度化,得到样本;
标签设置单元,用于为样本设置表示该样本类别的标签。
8.根据权利要求7所述的深度卷积神经网络压缩装置,其特征在于,所述左眼坐标对齐到(30,30)坐标,所述右眼坐标对齐到(30,70)坐标,将人脸区域归一化为100*100的大小。
9.一种用于深度卷积神经网络压缩的计算机可读存储介质,其特征在于,包括用于存储处理器可执行指令的存储器,所述指令被所述处理器执行时实现包括权利要求1-4任一所述深度卷积神经网络压缩方法的步骤。
10.一种用于深度卷积神经网络压缩的设备,其特征在于,包括至少一个处理器以及存储计算机可执行指令的存储器,所述处理器执行所述指令时实现权利要求1-4中任意一项所述深度卷积神经网络压缩方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911138226.7A CN112825143A (zh) | 2019-11-20 | 2019-11-20 | 深度卷积神经网络压缩方法、装置、存储介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911138226.7A CN112825143A (zh) | 2019-11-20 | 2019-11-20 | 深度卷积神经网络压缩方法、装置、存储介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112825143A true CN112825143A (zh) | 2021-05-21 |
Family
ID=75906648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911138226.7A Pending CN112825143A (zh) | 2019-11-20 | 2019-11-20 | 深度卷积神经网络压缩方法、装置、存储介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112825143A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222043A (zh) * | 2021-05-25 | 2021-08-06 | 北京有竹居网络技术有限公司 | 一种图像分类方法、装置、设备及存储介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170024641A1 (en) * | 2015-07-22 | 2017-01-26 | Qualcomm Incorporated | Transfer learning in neural networks |
CN108647583A (zh) * | 2018-04-19 | 2018-10-12 | 浙江大承机器人科技有限公司 | 一种基于多目标学习的人脸识别算法训练方法 |
CN108875693A (zh) * | 2018-07-03 | 2018-11-23 | 北京旷视科技有限公司 | 一种图像处理方法、装置、电子设备及其存储介质 |
CN108898168A (zh) * | 2018-06-19 | 2018-11-27 | 清华大学 | 用于目标检测的卷积神经网络模型的压缩方法和系统 |
CN109034219A (zh) * | 2018-07-12 | 2018-12-18 | 上海商汤智能科技有限公司 | 图像的多标签类别预测方法及装置、电子设备和存储介质 |
CN109165738A (zh) * | 2018-09-19 | 2019-01-08 | 北京市商汤科技开发有限公司 | 神经网络模型的优化方法及装置、电子设备和存储介质 |
CN109583322A (zh) * | 2018-11-09 | 2019-04-05 | 长沙小钴科技有限公司 | 一种人脸识别深度网络训练方法和系统 |
WO2019113122A1 (en) * | 2017-12-04 | 2019-06-13 | Conversica, Inc. | Systems and methods for improved machine learning for conversations |
CN109919300A (zh) * | 2019-02-25 | 2019-06-21 | 北京市商汤科技开发有限公司 | 神经网络训练方法及装置以及图像处理方法及装置 |
JP2019101485A (ja) * | 2017-11-28 | 2019-06-24 | キヤノン株式会社 | 情報処理方法、情報処理装置、情報処理システム及びプログラム |
CN110070143A (zh) * | 2019-04-29 | 2019-07-30 | 北京达佳互联信息技术有限公司 | 获取训练数据的方法、装置、设备及存储介质 |
CN110070183A (zh) * | 2019-03-11 | 2019-07-30 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN110163296A (zh) * | 2019-05-29 | 2019-08-23 | 北京达佳互联信息技术有限公司 | 图像识别的方法、装置、设备及存储介质 |
CN110163234A (zh) * | 2018-10-10 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置和存储介质 |
WO2019167883A1 (ja) * | 2018-02-28 | 2019-09-06 | 富士フイルム株式会社 | 機械学習装置および方法 |
WO2019204824A1 (en) * | 2018-04-20 | 2019-10-24 | XNOR.ai, Inc. | Improving image classification through label progression |
-
2019
- 2019-11-20 CN CN201911138226.7A patent/CN112825143A/zh active Pending
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170024641A1 (en) * | 2015-07-22 | 2017-01-26 | Qualcomm Incorporated | Transfer learning in neural networks |
JP2019101485A (ja) * | 2017-11-28 | 2019-06-24 | キヤノン株式会社 | 情報処理方法、情報処理装置、情報処理システム及びプログラム |
WO2019113122A1 (en) * | 2017-12-04 | 2019-06-13 | Conversica, Inc. | Systems and methods for improved machine learning for conversations |
WO2019167883A1 (ja) * | 2018-02-28 | 2019-09-06 | 富士フイルム株式会社 | 機械学習装置および方法 |
CN108647583A (zh) * | 2018-04-19 | 2018-10-12 | 浙江大承机器人科技有限公司 | 一种基于多目标学习的人脸识别算法训练方法 |
WO2019204824A1 (en) * | 2018-04-20 | 2019-10-24 | XNOR.ai, Inc. | Improving image classification through label progression |
CN108898168A (zh) * | 2018-06-19 | 2018-11-27 | 清华大学 | 用于目标检测的卷积神经网络模型的压缩方法和系统 |
CN108875693A (zh) * | 2018-07-03 | 2018-11-23 | 北京旷视科技有限公司 | 一种图像处理方法、装置、电子设备及其存储介质 |
CN109034219A (zh) * | 2018-07-12 | 2018-12-18 | 上海商汤智能科技有限公司 | 图像的多标签类别预测方法及装置、电子设备和存储介质 |
CN109165738A (zh) * | 2018-09-19 | 2019-01-08 | 北京市商汤科技开发有限公司 | 神经网络模型的优化方法及装置、电子设备和存储介质 |
CN110163234A (zh) * | 2018-10-10 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置和存储介质 |
CN109583322A (zh) * | 2018-11-09 | 2019-04-05 | 长沙小钴科技有限公司 | 一种人脸识别深度网络训练方法和系统 |
CN109919300A (zh) * | 2019-02-25 | 2019-06-21 | 北京市商汤科技开发有限公司 | 神经网络训练方法及装置以及图像处理方法及装置 |
CN110070183A (zh) * | 2019-03-11 | 2019-07-30 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN110070143A (zh) * | 2019-04-29 | 2019-07-30 | 北京达佳互联信息技术有限公司 | 获取训练数据的方法、装置、设备及存储介质 |
CN110163296A (zh) * | 2019-05-29 | 2019-08-23 | 北京达佳互联信息技术有限公司 | 图像识别的方法、装置、设备及存储介质 |
Non-Patent Citations (8)
Title |
---|
JIA CUI 等: "Knowledge distillation across ensembles of multilingual models for low-resource languages", 《2017 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》, pages 4825 - 4829 * |
RENATO VERDUGO 等: "Preparing Undergraduate Computer Science Students to Face Intercultural and Multidisciplinary Scenarios", 《IEEE TRANSACTIONS ON PROFESSIONAL COMMUNICATION》, vol. 56, no. 1, 31 March 2013 (2013-03-31), pages 67 - 80, XP011495522, DOI: 10.1109/TPC.2012.2237254 * |
TEJASWI, S 等: "DNN acoustic models for dysarthric speech", 《2017 TWENTY-THIRD NATIONAL CONFERENCE ON COMMUNICATIONS (NCC)》, pages 1 - 4 * |
刘晨 等: "基于卷积神经网络迁移学习的SAR图像目标分类", 《现代雷达》, vol. 40, no. 3, pages 38 - 42 * |
刘杰 等: "融合聚类与排序的图像显著区域检测", 《清华大学学报(自然科学版)》, vol. 56, no. 09, 30 September 2016 (2016-09-30), pages 913 - 919 * |
刘正晨: "结合发音特征与深度学习的语音生成方法研究", 《中国博士学位论文全文数据库 信息科技辑》, no. 2018, pages 136 - 28 * |
李辉 等: "基于卷积神经网络的人脸识别算法", 《软件导刊》, vol. 16, no. 03, 31 March 2017 (2017-03-31), pages 26 - 29 * |
纪荣嵘 等: "深度神经网络压缩与加速综述", 《计算机研究与发展》, vol. 55, no. 09, 30 September 2018 (2018-09-30), pages 1871 - 1888 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222043A (zh) * | 2021-05-25 | 2021-08-06 | 北京有竹居网络技术有限公司 | 一种图像分类方法、装置、设备及存储介质 |
CN113222043B (zh) * | 2021-05-25 | 2024-02-02 | 北京有竹居网络技术有限公司 | 一种图像分类方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111858869B (zh) | 一种数据匹配方法、装置、电子设备和存储介质 | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN110232373A (zh) | 人脸聚类方法、装置、设备和存储介质 | |
CN108229588B (zh) | 一种基于深度学习的机器学习识别方法 | |
CN111461164B (zh) | 样本数据集的扩容方法及模型的训练方法 | |
CN102915448B (zh) | 一种基于AdaBoost的三维模型自动分类方法 | |
CN109685805B (zh) | 一种图像分割方法及装置 | |
CN116580257A (zh) | 特征融合模型训练及样本检索方法、装置和计算机设备 | |
CN109165654B (zh) | 一种目标定位模型的训练方法和目标定位方法及装置 | |
CN113642400A (zh) | 基于2s-agcn的图卷积动作识别方法、装置及设备 | |
CN110163095B (zh) | 回环检测方法、回环检测装置及终端设备 | |
CN110135428B (zh) | 图像分割处理方法和装置 | |
CN112825143A (zh) | 深度卷积神经网络压缩方法、装置、存储介质及设备 | |
CN112257689A (zh) | 人脸识别模型的训练和识别方法、存储介质及相关设备 | |
CN112183303A (zh) | 变电设备图像分类方法、装置、计算机设备和介质 | |
CN111783688A (zh) | 一种基于卷积神经网络的遥感图像场景分类方法 | |
CN108830302B (zh) | 一种图像分类方法、训练方法、分类预测方法及相关装置 | |
CN116258923A (zh) | 图像识别模型训练方法、装置、计算机设备和存储介质 | |
CN112825121A (zh) | 深度卷积神经网络初始化和训练方法、装置、介质及设备 | |
CN113378722B (zh) | 基于3d卷积和多级语义信息融合的行为识别方法及系统 | |
CN114782720A (zh) | 文案的配图确定方法、装置、电子设备、介质及程序产品 | |
CN114549857A (zh) | 图像信息识别方法、装置、计算机设备和存储介质 | |
CN113191401A (zh) | 基于视觉显著性共享的用于三维模型识别的方法及装置 | |
Sun et al. | Real-time memory efficient large-pose face alignment via deep evolutionary network | |
CN112348060A (zh) | 分类向量生成方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |