CN111079691A - 一种基于双流网络的剪枝方法 - Google Patents
一种基于双流网络的剪枝方法 Download PDFInfo
- Publication number
- CN111079691A CN111079691A CN201911377861.0A CN201911377861A CN111079691A CN 111079691 A CN111079691 A CN 111079691A CN 201911377861 A CN201911377861 A CN 201911377861A CN 111079691 A CN111079691 A CN 111079691A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network
- pruning
- pruning method
- dual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于双流网络的剪枝方法,包括:预设第一神经网络和第二神经网络,将训练样本分别输入所述第一神经网络和所述第二神经网络,通过两神经网络的输出结果之间进行比对,进而调整所述第一神经网络的权重参数,获取神经网络模型;根据所述权重参数对所述神经网络模型进行剪枝处理,并对剪枝后的模型进行训练获取最终模型;本发明通过双流网络结构丰富知识学习深度,可有效提高模型的识别效率。
Description
技术领域
本发明涉及智能识别领域,尤其涉及一种基于双流网络的剪枝方法。
背景技术
近年来,由于深度学习的浪潮,卷积神经网络被广泛应用于各种图像识别领域。这些工作的进展皆得益于深度卷积网络模型在特征提取上的能力,但传统的深度学习模型通常体积巨大,动辄几百M甚至上G。这使得其应用落地时受到很多硬件设备关于存储大小或者计算资源方面的限制。网络剪枝技术可以在满足一定识别率的前提下,得到体积更小的网络模型,对硬件设备有限的场景有着很好的应用前景。在满足一定剪枝率的同时,如何有效的选择更加重要的结构进行保留,从而提升最终网络结构识别率的方法研究就显得十分重要。
发明内容
鉴于以上现有技术存在的问题,本发明提出一种基于双流网络的剪枝方法,主要解决现有神经网络模型复杂度高,应用受限的问题。
为了实现上述目的及其他目的,本发明采用的技术方案如下。
一种基于双流网络的剪枝方法,包括:
预设第一神经网络和第二神经网络,将训练样本分别输入所述第一神经网络和所述第二神经网络,通过两神经网络的输出结果之间进行比对,进而调整所述第一神经网络的权重参数,获取神经网络模型;
根据所述权重参数对所述神经网络模型进行剪枝处理,并对剪枝后的模型进行训练获取最终模型。
可选地,所述第一神经网络的网络层数小于所述第二神经网络的网络层数。
可选地,所述第一神经网络设置有通道重要性选择模块,所述通道重要性选择模块根据调整后的所述权重参数对各通道的特征进行重新分配组合。
可选地,所述第一神经网络和/或所述第二神经网络采用残差网络。
可选地,设置剪枝比例,并根据所述权重参数的大小按所述剪枝比例进行筛选。
可选地,分别获取所述第一神经网络和所述第二神经网络的输出概率分布,根据二者概率分布的散度调整所述第一神经网络的权重参数。
可选地,采用相对熵或交叉熵获取所述第一神经网络与所述第二神经网络输出概率分布之间的散度。
可选地,设置散度阈值,当所述概率分布的散度未达到所述散度阈值时,采用梯度下降法更新所述第一神经网络的所述权重参数。
可选地,通过所述第一神经网络将所述训练样本的输入特征进行全局池化,获取输入特征表示;
将所述输入特征表示接入全连接层并通过激活函数获取每个输入特征对应的权重值;
通过所述通道重要性选择模块将所述权重值馈入对应的所述输入特征,比较每个所述输入特征,获取每个所述输入特征的重要性,并根据所述重要性将对应的所述输入特征进行重新分配组合。
可选地,剪枝比例采用0.1-0.5。
如上所述,本发明一种基于双流网络的剪枝方法,具有以下有益效果。
通过两个神经网络同步训练,并根据结果调整权重参数,提高模型识别的正确性。
附图说明
图1为本发明一实施例中基于双流网络的剪枝方法的流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
请参阅图1,本发明提供一种基于双流网络的剪枝方法,包括步骤S01-S02。
在步骤S01中,预设第一神经网络和第二神经网络,将训练样本分别输入第一神经网络和第二神经网络,两神经网络的输出结果之间进行比对,进而调整第一神经网络的权重参数,获取神经网络模型:
在一实施例中,训练样本可采用cifar数据集中的训练图片,CIFAR是由AlexKrizhevsky、Vinod Nair和Geoffrey Hinton收集而来,起初的数据集共分10类,分别为飞机、汽车、鸟、猫、鹿、狗、青蛙、马、船、卡车,所以CIFAR数据集常以CIFAR-10命名。CIFAR共包含60000张32*32的彩色图像,其中,包含50000张训练图片,10000张测试图片。也可采集人脸图像创建数据集,通过第一神经网络和第二神经网络进行人脸识别或行人识别。
第一神经网络和第二神经网络均可采用残差网络resnet,将训练样本分别输入第一神经网络和第二神经网络,进行模型训练。
可设置第一神经网络的网络层数小于第二神经网络的网络层数。通过第二神经网络进行深层学习,通过第一神经网络的输出结果向第二神经网络的输出逼近,可学习到深层网络的信息。具体地,第一神经网络可采用resnet20,第二神经网络可采用resnet56。
在一实施例中,resnet20和resnet56的输出分别为一概率分布。可通过两个神经网络的输出之间的散度来构造resnet20的损失函数。通过训练损失函数进而调整resnet的权重参数。
在一实施例中,散度可采用相对熵或交叉熵进行计算。通过散度创建损失函数,当resnet20和resnet56的输出概率分布之间的散度未达到设定的散度阈值时,可采用梯度下降法,对损失函数求偏导,进而逐层更新resnet20网络中的权重参数;当散度达到设定散度阈值时,则模型训练完成。
在一实施例中,resnet20网络中设置有通道重要性选择模块。以人脸识别为例,对于resnet20网络的每一层,将人脸图像的每个通道的特征做一个全局池化,得到每个通道对应的人脸特征值,将所有通道对应的特征值表示为一个C维向量,其中人脸特征值的个数即为向量的维度。将C维向量通过全连接层和激活函数计算出每个人脸特征值对应的权重值。激活函数可采用sigmoid激活函数。通道重要性选择模块以每个人脸特征值对应的权重值作为尺度在反馈入对应的人脸特征。具体地,可将权重值乘以人脸特征值,并将计算得到的值进行比较排序。值越大说明对应的人脸特征的重要程度越高,以此评估每个人脸特征的重要性。
在一实施例中,将resnet20和resnet56连接起来构成双流网络结构,经过反复的输入训练样本进行多次训练,直到resnet20网络的损失函数收敛,获取神经网络模型。在另一实施例中,双流网络训练模块在构造好了双流网络结构之后,固定resnet20和resnet56的原始结构部分参数不变,只训练添加的通道重要性选择模块部分的参数,从而使得通道重要性选择模块部分能够学习到resnet20网络结构中各个通道之间的重要性程度。训练损失函数使用resnet56输出的概率分布和resnet20输出的概率分布之间的KL距离,使得训练收敛后该双流网络的resnet20部分的通道重要性选择模块会趋向于学习到resnet56模型的信息,并对resnet20的各个通道特征根据不同重要性进行重新分配组合上。
在步骤S02中,根据权重参数对神经网络模型进行剪枝处理,并对剪枝后的模型进行训练获取最终模型:
在一实施例中,剪枝处理主要是根据步骤S01中获取的神经网络模型中的人脸输入特征的重要性,对神经网络模型的网络连接关系进行修剪。人脸输入特征的重要性删除某一层网络中的几个不重要的网络节点,获取将前一层网络中的某一节点以下一层网络中的多个节点的连接权重置零。可按一定的比例进行剪枝处理,如可设置剪枝比例为0.1-0.5之间。
对神经网络模型进行剪枝处理后获取精简的模型结构,可进一步对精简的模型结构进行调优训练,获取最终模型,以保证精简的模型结构的识别精度。
在一实施例中,resnet20的网络结构中主要包含3层网络单元结构,表1、表2、表3分别是在cifar图像识别应用场景下进行训练测试,对resnet20的3个网络结构单元中设置0.1~0.9的剪枝率并和传统的使用卷积核的l1 norm的剪枝方式进行比较的实验结果,从表中可以看出,设置相同剪枝率的条件下,采用本专利的方案得到结果识别率比采用l1norm的剪枝方案得到模型识别率普遍要高,尤其是剪枝率设为0.5以下时,识别率100%高于l1 norm的剪枝方案,剪枝率设置过大(大于0.6)的时候,由于保留的信息太少,导致系统噪声太大,偶尔会出现噪声影响大于剪枝敏感度的影响(l1 norm的剪枝方案的识别率大于本专利的方案得到的识别率),但总体上来看,还是本专利的方法得到的识别率更高。
另外,从实验结果可以看出,当剪枝率设置较小时(小于0.4),剪枝之后的识别率比原始结构的resnet20的识别率(90.76)更高。
表1
表2
表3
综上所述,本发明一种基于双流网络的剪枝方法,通过双流结构的神经网络进行模型训练得到网络通道重要性选择权重,并隐式的进行了模型信息融合,与传统的直接使用l1 norm的剪枝方法相比,同等剪枝率的条件下,通常可以得到更高的识别率;另外,在单层剪枝率低于0.5时,通常可以取得比剪枝前的模型更高的识别率。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (10)
1.一种基于双流网络的剪枝方法,其特征在于,包括:
预设第一神经网络和第二神经网络,将训练样本分别输入所述第一神经网络和所述第二神经网络,将两神经网络的输出结果之间进行比对,进而调整所述第一神经网络的权重参数,获取神经网络模型;
根据所述权重参数对所述神经网络模型进行剪枝处理,并对剪枝后的模型进行训练获取最终模型。
2.根据权利要求1所述的基于双流网络的剪枝方法,其特征在于,所述第一神经网络的网络层数小于所述第二神经网络的网络层数。
3.根据权利要求1所述的基于双流网络的剪枝方法,其特征在于,所述第一神经网络设置有通道重要性选择模块,所述通道重要性选择模块根据调整后的所述权重参数对各通道的特征进行重新分配组合。
4.根据权利要求2所述的基于双流网络的剪枝方法,其特征在于,所述第一神经网络和/或所述第二神经网络采用残差网络。
5.根据权利要求1所述的基于双流网络的剪枝方法,其特征在于,设置剪枝比例,并根据所述权重参数的大小按所述剪枝比例进行筛选。
6.根据权利要求1所述的基于双流网络的剪枝方法,其特征在于,分别获取所述第一神经网络和所述第二神经网络的输出概率分布,根据二者概率分布的散度调整所述第一神经网络的权重参数。
7.根据权利要求6所述的基于双流网络的剪枝方法,其特征在于,采用相对熵或交叉熵获取所述第一神经网络与所述第二神经网络输出概率分布之间的散度。
8.根据权利要求6所述的基于双流网络的剪枝方法,其特征在于,设置散度阈值,当所述概率分布的散度未达到所述散度阈值时,采用梯度下降法更新所述第一神经网络的所述权重参数。
9.根据权利要求3所述的基于双流网络的剪枝方法,其特征在于,通过所述第一神经网络将所述训练样本的输入特征进行全局池化,获取输入特征表示;
将所述输入特征表示接入全连接层并通过激活函数获取每个输入特征对应的权重值;
通过所述通道重要性选择模块将所述权重值馈入对应的所述输入特征,比较每个所述输入特征,获取每个所述输入特征的重要性,并根据所述重要性将对应的所述输入特征进行重新分配组合。
10.根据权利要求5所述的基于双流网络的剪枝方法,其特征在于,剪枝比例采用0.1-0.5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911377861.0A CN111079691A (zh) | 2019-12-27 | 2019-12-27 | 一种基于双流网络的剪枝方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911377861.0A CN111079691A (zh) | 2019-12-27 | 2019-12-27 | 一种基于双流网络的剪枝方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111079691A true CN111079691A (zh) | 2020-04-28 |
Family
ID=70318642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911377861.0A Pending CN111079691A (zh) | 2019-12-27 | 2019-12-27 | 一种基于双流网络的剪枝方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111079691A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070213A (zh) * | 2020-08-28 | 2020-12-11 | Oppo广东移动通信有限公司 | 神经网络模型的优化方法、装置、设备及存储介质 |
CN112183747A (zh) * | 2020-09-29 | 2021-01-05 | 华为技术有限公司 | 神经网络训练的方法、神经网络的压缩方法以及相关设备 |
CN114626527A (zh) * | 2022-03-25 | 2022-06-14 | 中国电子产业工程有限公司 | 基于稀疏约束再训练的神经网络剪枝方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548234A (zh) * | 2016-11-17 | 2017-03-29 | 北京图森互联科技有限责任公司 | 一种神经网络剪枝方法及装置 |
CN106709565A (zh) * | 2016-11-16 | 2017-05-24 | 广州视源电子科技股份有限公司 | 一种神经网络的优化方法及装置 |
CN109635927A (zh) * | 2018-12-05 | 2019-04-16 | 东软睿驰汽车技术(沈阳)有限公司 | 一种卷积神经网络训练方法及装置 |
CN109886397A (zh) * | 2019-03-21 | 2019-06-14 | 西安交通大学 | 一种针对卷积层的神经网络结构化剪枝压缩优化方法 |
CN110619385A (zh) * | 2019-08-31 | 2019-12-27 | 电子科技大学 | 基于多级剪枝的结构化网络模型压缩加速方法 |
-
2019
- 2019-12-27 CN CN201911377861.0A patent/CN111079691A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709565A (zh) * | 2016-11-16 | 2017-05-24 | 广州视源电子科技股份有限公司 | 一种神经网络的优化方法及装置 |
CN106548234A (zh) * | 2016-11-17 | 2017-03-29 | 北京图森互联科技有限责任公司 | 一种神经网络剪枝方法及装置 |
CN109635927A (zh) * | 2018-12-05 | 2019-04-16 | 东软睿驰汽车技术(沈阳)有限公司 | 一种卷积神经网络训练方法及装置 |
CN109886397A (zh) * | 2019-03-21 | 2019-06-14 | 西安交通大学 | 一种针对卷积层的神经网络结构化剪枝压缩优化方法 |
CN110619385A (zh) * | 2019-08-31 | 2019-12-27 | 电子科技大学 | 基于多级剪枝的结构化网络模型压缩加速方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070213A (zh) * | 2020-08-28 | 2020-12-11 | Oppo广东移动通信有限公司 | 神经网络模型的优化方法、装置、设备及存储介质 |
CN112183747A (zh) * | 2020-09-29 | 2021-01-05 | 华为技术有限公司 | 神经网络训练的方法、神经网络的压缩方法以及相关设备 |
WO2022068314A1 (zh) * | 2020-09-29 | 2022-04-07 | 华为技术有限公司 | 神经网络训练的方法、神经网络的压缩方法以及相关设备 |
CN114626527A (zh) * | 2022-03-25 | 2022-06-14 | 中国电子产业工程有限公司 | 基于稀疏约束再训练的神经网络剪枝方法及装置 |
CN114626527B (zh) * | 2022-03-25 | 2024-02-09 | 中国电子产业工程有限公司 | 基于稀疏约束再训练的神经网络剪枝方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685115B (zh) | 一种双线性特征融合的细粒度概念模型及学习方法 | |
CN110163258B (zh) | 一种基于语义属性注意力重分配机制的零样本学习方法及系统 | |
CN108399428B (zh) | 一种基于迹比准则的三元组损失函数设计方法 | |
CN110660062B (zh) | 一种基于PointNet的点云实例分割方法及系统 | |
CN110309856A (zh) | 图像分类方法、神经网络的训练方法及装置 | |
CN111079691A (zh) | 一种基于双流网络的剪枝方法 | |
CN110555399B (zh) | 手指静脉识别方法、装置、计算机设备及可读存储介质 | |
US11586909B2 (en) | Information processing method, information processing apparatus, and computer readable storage medium | |
CN109614874B (zh) | 一种基于注意力感知和树形骨架点结构的人体行为识别方法和系统 | |
Lv et al. | Deep learning model of image classification using machine learning | |
CN110264407B (zh) | 图像超分辨模型训练及重建方法、装置、设备及存储介质 | |
CN116721221B (zh) | 基于多模态的三维内容生成方法、装置、设备及存储介质 | |
CN105468596A (zh) | 图片检索方法和装置 | |
CN113095370A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN112418261B (zh) | 一种基于先验原型注意力机制的人体图像多属性分类方法 | |
CN106250918B (zh) | 一种基于改进的推土距离的混合高斯模型匹配方法 | |
CN110991554B (zh) | 一种基于改进pca的深度网络图像分类方法 | |
Liu | Human face expression recognition based on deep learning-deep convolutional neural network | |
CN116363423A (zh) | 面向小样本学习的知识蒸馏方法、装置及存储介质 | |
CN115393690A (zh) | 一种轻量化神经网络的空对地观测多目标识别方法 | |
KR20210064817A (ko) | 상이한 딥러닝 모델 간의 전이 학습방법 | |
CN117036901A (zh) | 一种基于视觉自注意力模型的小样本微调方法 | |
CN116109868A (zh) | 基于轻量化神经网络的图像分类模型构建和小样本图像分类方法 | |
CN108985349B (zh) | 一种考虑图像集复杂性的石材纹理图像cnn识别方法 | |
CN110826726A (zh) | 目标处理方法、目标处理装置、目标处理设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200428 |