CN112734025B - 基于固定基正则化的神经网络参数稀疏化方法 - Google Patents

基于固定基正则化的神经网络参数稀疏化方法 Download PDF

Info

Publication number
CN112734025B
CN112734025B CN201911028209.8A CN201911028209A CN112734025B CN 112734025 B CN112734025 B CN 112734025B CN 201911028209 A CN201911028209 A CN 201911028209A CN 112734025 B CN112734025 B CN 112734025B
Authority
CN
China
Prior art keywords
neural network
parameters
training
rank
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911028209.8A
Other languages
English (en)
Other versions
CN112734025A (zh
Inventor
杨帆
苏仰锋
曾璇
文玮婧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN201911028209.8A priority Critical patent/CN112734025B/zh
Publication of CN112734025A publication Critical patent/CN112734025A/zh
Application granted granted Critical
Publication of CN112734025B publication Critical patent/CN112734025B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于人工智能领域,涉及一种基于固定基正则化的神经网络参数稀疏化方法;该方法通过将卷积神经网络中大量卷积核和权重参数分解为多组低秩的固定基的表达形式,并对固定基选择折叠处理,调节低秩参数,在网络模型预训练后,结合固定基部分参数正则化和部分剪枝算法,后期少数步骤进行稀疏化训练。所述方法可用于图片识别分类的应用,通过固定基表示大量网络参数,便于硬件平台的实现的同时降低了计算的复杂度;与现在已经提出的神经网络稀疏化算法相比,所述方法可以在达到同一精度或者更高精度的同时,实现更高的网络稀疏度,大大的减少了参数存储,减少网络训练的时间并提升卷积神经网络在图像分类领域的应用效率。

Description

基于固定基正则化的神经网络参数稀疏化方法
技术领域
本发明属于人工智能领域,涉及深度学习和机器学习算法领域,具体涉及一种基于固定基正则化的神经网络参数稀疏化方法,尤其涉及一种基于固定基正则化的卷积神经网络参数稀疏化的方法。
背景技术
深度神经网络尤其是卷积神经网络广泛应用于人工智能领域,包括图像分类、目标识别、语音及自然语言处理。随着应用领域的扩大,基于图像识别与分类的卷积神经网络规模逐渐增大,大量的神经网络结构参数的存储和计算使得网络的训练时间和功耗量急速上升。在保证精确度的前提下进行神经网络参数的稀疏化(Sparsify)和网络模型的压缩变得极为重要。
卷积神经网络主要包含卷积层和全连接层两个计算结构。在基于图像识别和分类的应用中,卷积层负责将输入图像数据和权重矩阵进行卷积计算处理,将输入原始数据映射到隐层特征空间;全连接层负责将卷积层输出结果映射到标记分类空间,输出分类结果。卷积神经网络中的参数主要集中在卷积层和全连接层两个计算结构内。
卷积神经网络中的参数主要表示为多维矩阵的计算形式,经过多次训练后,大规模深度神经网络中的权重参数矩阵均会变成稠密的,即矩阵中包含大量非零元素,稠密矩阵的存储和计算需要消耗大量的存储空间和计算资源。因此,通过稀疏化的方法将稠密矩阵转换为稀疏矩阵,即包含大量零元的矩阵,可以大大降低计算复杂度,提高神经网络训练效率并有助于网络模型的存储压缩。
传统剪枝(pruning)算法,通过将绝对值小于一定阈值的矩阵元素直接置为零的方法进行参数稀疏化,再通过重训练(fine-tune)补偿精度损失。在一定程度上可以实现网络结构的稀疏,但是对大规模参数矩阵的剪枝操作也引入了额外的计算消耗。另外重训练在补偿精确度的同时也会降低一定的稀疏度,两者之间的调和(trade-off)也是一个问题。另外还有一些基于定制化硬件平台实现的神经网络稀疏化和模型压缩算法,由于局限于特定的实现平台,在可移植性和可扩展性上存在欠缺,对于当今大规模多样性的卷积神经网络应用具有限制。因此,现已提出的神经网络稀疏化和模型压缩算法在满足应用需求方面仍不能发挥较好的作用。
与本发明有关的参考文献:
[1]Song Han,Huizi Mao,and William J Dallly,“Deep Compression:Compressing deep neural networks with pruning,trained quantization andHuffman coding,”arXiv preprint arXiv:1510.00149,2015.
[2]Jiecao Yu,Andrew Lukefahr,David Palframan,Ganesh Dasika,ReetuparnaDas,and Scott Mahlke,“Scalpel:Customizing dnn pruning to the underlyinghardware parallelism”In ACM SIGARCH Computer Architecture News,volume 45,pages 548-560.ACM,2017.
[3]Wei Wen,Chunpeng Wu,Yandan Wang,Yiran Chen,and Hai Li,“Learningstructured sparsity in deep neural networks,”In Advances in NeuralInformation Processing Systems,pages 2074-2082,2016.
[4]Wei Wen,Cong Xu,Chunpeng Wu,Yandan Wang Yiran Chen,and Hai Li,“Coordinating filters for faster deep neural networks,”In The IEEEInternational Conference on Computer Vision(ICCV),2017.
[5]Bo Peng,Wenming Tan,Zheyang Li,Shun Zhangm,Di Xie,and Shiliang Pu,“Extreme network compression via filter group approximation,”arXiv preprintarXiv:1807.11254,2018.
[6]Liu,Zhuang and Li,Jianguo and Shen,Zhiqiang and Huang,Gao and Yan,Shoumeng and Zhang,Changshui,“Learning efficient convolutional networksthrough network slimming,”The IEEE International Conference on ComputerVision(ICCV),pages 2755—2763,IEEE,2017。
发明内容
本发明的目的是提供一种基于固定基正则化的神经网络参数稀疏化方法,所述方法是一种基于固定基正则化的卷积神经网络参数稀疏化的方法,该方法通过将大量的权重参数分解表示为低秩的固定基形式,固定基的大小及低秩均参数可进行调节,对全局共享卷积核的固定基还可以进行折叠操作,再对固定基进行部分正则化和剪枝处理,进行卷积神经网络的稀疏化训练;所述方法可克服传统神经网络稀疏化算法的障碍,在达到更高的稀疏度和精确度的同时,降低算法计算量和计算复杂度,大大减少权重参数的存储空间,提高卷积神经网络的训练成本和效率;此外,所述固定基的运用是一种便于硬件实现的方法,且本发明不局限于任何定制硬件平台实现,具有更高的应用和实现的灵活性。
为了达到上述目的,本发明的技术内容是:一种基于固定基正则化的神经网络参数稀疏化方法,主要在图像识别和分类应用中进行卷积神经网络的模型优化,其步骤如下(如图1所示):
步骤201:读入原始图片,进行大小、格式等归一化处理,并增加随机噪声、翻转等图片预处理过程,生成输入的图片数据;
步骤202:卷积神经网络卷积层的卷积核和全连接层的权重参数均可进行稀疏化处理,将两类参数统一称为权重参数并以卷积核形式为例,一般用多维矩阵来表示;权重参数的固定基低秩分解表示可以分为逐层权重参数固定基分解和可折叠的固定基分解两种情况,处理过程略有不同,表示为两个分步骤21和22:
分步骤21:逐层进行的权重参数固定基低秩分解,对于第l层权重参数,原始卷积核其中Ml和Nl表示卷积核的长和宽,Cl表示通道数目,Fl表示卷积核数目。将原始四维张量的卷积核改写为相同元素数目的/>形式,选取低秩参数α(α<<MlNl<<ClFl),可将卷积核低秩分解为
Wl=Tl*Al*Sl
其中具体形式如图2所示;每一个选定的低秩参数α代表一组固定基Wl,可选取多个低秩参数αi并将卷积核表示为多组固定基的和的形式:
分步骤22:可折叠的权重参数固定基分解,该情况主要适用于包含多层相同或相似卷积层结构的卷积神经网络模型,通过建立全局共享的权重并进行可折叠的固定基分解,为稀疏化训练模型进行参数准备;
为进行对比,以单层卷积核可折叠固定基分解为例,对于第l层权重参数,将原始四维张量的卷积核改写为相同元素数目的形式,引入折叠参数β,可折叠卷积核维度调整为/>形式;
类似地选取低秩参数可将卷积核低秩分解为
其中具体形式如图3所示;对于多组可折叠低秩固定基情况,取多个低秩参数/>可同样表示为求和的形式:
步骤203:进行无稀疏化处理的常规卷积神经网络预训练,不对任何参数进行剪枝或者正则化处理,使用Adam梯度优化器进行重复训练。
预训练的过程是使卷积神经网络进行前期的学习,在没有引入稀疏化处理之前,通过不断调整稀疏化操作之外的其他超参数,促使经过低秩固定基分解卷积核和权重参数后的卷积神经网络可最大程度适应,并在精度上得到最优性能,从而实现初期的优化网络结构的目标;
由于所述稀疏化的操作在一定程度上消除部分卷积核和权重的参数,削剪去部分神经元之间的关联,对于神经网络初期的学习功能有极大的损害。多次实验的结果表明,选择对卷积神经网络进行初期预训练后再开展稀疏化参数训练相比于直接开始进行稀疏化训练神经网络能够得到更好的精确度和网络结构;此外,神经网络预训练模型可以保存下来,对于只调节稀疏化操作参数的网络结构优化过程,直接使用保存的预训练模型可大大提高稀疏化参数调节和训练效率,对于得到优化的稀疏卷积神经网络结构十分有利。
步骤204:卷积神经网络的稀疏化训练;对于展开成固定基形式的卷积核W或每次训练时进行部分参数l1正则化处理,l1正则化可表示为||W||1,取正则化对象所有元素的绝对值之和;对于用低秩固定基表示的卷积核W或/>在损失函数中加入部分参数l1正则化约束:
其中,E0(W)表示没有稀疏化操作的原始训练损失函数;R1(·)表示参数l1正则化约束。和/>分别表示低秩固定基分解卷积核/>的首尾矩阵;通过对低秩固定基的部分参数进行l1正则化处理,产生整体卷积核和权重参数的稀疏数值矩阵,仅对部分低秩矩阵进行稀疏化约束得到整体卷积核参数稀疏的效果;
类似地,在卷积神经网络训练后期的步骤中,加入卷积核权重参数的剪枝操作;传统剪枝操作是针对所有可训练的参数设置一个较小的阈值,将所有绝对值在阈值内的矩阵中的元素置为零,在神经网络训练的每一次迭代中,进行阈值判断和置零操作;在基于低秩固定基正则化的本发明中,改进了传统剪枝算法,仅在后期1%~2%的训练步骤中加入剪枝操作,并只对低秩固定基分解表示卷积核中的部分参数和/>进行剪枝操作,剪枝操作的阈值可以人工调整;
卷积神经网络的稀疏化训练是在预训练结束后,结合对低秩固定基分解表示的卷积核和权重参数部分l1正则化和部分剪枝操作,在整体神经网络训练后期开展的稀疏化训练;
步骤205:输出稀疏化卷积神经网络训练后得到图片识别分类判断结果。
本发明针对应用卷积神经网络的图片识别和分类应用具有如下优点:
1.相比现已提出的卷积神经网络稀疏化算法,在相同的图片识别分类实例中的应用中,达到相同水平的分类结果精确度,可以达到更高的网络参数稀疏度;
2.稀疏化算法的操作,包括低秩固定基分解和参数的部分l1正则化和部分剪枝操作,相比于原始l1正则化和剪枝对于卷积核和权重参数整体矩阵元素的约束操作,复杂度为O(MlNl*ClFl),分解后的部分稀疏化约束将复杂度降为而且稀疏化操作仅在预训练模型的后期开展,大大降低稀疏化卷积神经网络训练的计算消耗和时间成本;
3.固定基的分解有利于稀疏神经网络的参数硬件实现和存储。对于稀疏化的参数矩阵,使用少数固定图样的基的组合表示卷积核和权重参数,固定基表示稀疏的形式是固定的,因此更有利于本发明在硬件平台上的实现和加速。
附图说明
图1是本发明基于固定基正则化的神经网络参数稀疏化方法的流程图;
图2是低秩固定基分解示意图;
图3是折叠的固定基分解(B=T*A)示意图;
图4是基于MNIST的稀疏LeNet5分类结果对比;
图5是基于Cifar10的稀疏ResNet32分类结果对比;
图6是基于Cifar100的稀疏ResNet32和VGG19分类结果对比。
具体实施方式
本发明是一种基于低秩固定基正则化的卷积神经网络稀疏化的方法。本发明应用的所有实施例均在仅有一个GeForce GTX1080Ti GPU的服务器上运行试验。
下面结合附图,通过几个图像识别分类应用中的实施例进一步描述本发明,但不以任何形式限制本发明的适用范围和应用领域。
实施例1
基于改进LeNet卷积神经网络在MNIST数据集上实现;本实施例进行稀疏化训练的是一个具有两层卷积层和两层全连接层的改进版LeNet网络,MNIST是具有60000张训练图片和10000张测试图片的手写字图片数据集,每张黑白图片为28x28像素规格,每张图片对应一个0~9表示分类的标签,第一个实施例就是基于MNIST数据集手写字图片识别分类训练的稀疏卷积神经网络。
本实施例网络中采用的是Adam后向训练算法,由于最后一层全连接层参数量很少,仅对卷积神经网络中的两层卷积层和第一层全连接层的参数进行稀疏化处理;首先,本实例中没有对MNIST数据集进行预处理,直接读入图片像素数据后,对两层卷积层(Conv1和Conv2)的卷积核和全连接层(FC1)的权重参数进行低秩固定基分解,选取三组低秩参数αi进行以三组低秩固定基展开的矩阵表达,在本实施例中不采取固定基折叠的形式;其次,对参数固定基展开后的卷积神经网络进行预训练,同时调整优化其他超参数。
稀疏化LeNet的训练主要针对于固定基对应的和/>部分展开,结合部分参数l1正则化和后期步骤的剪枝,进行网络的稀疏化训练,整体网络训练以100/步的间隔训练了40000步,仅在最后200步进行剪枝操作;最后计算网络对MNIST数据集图片识别和分类的结果与标准标签数据对比误差,输出分类精确度和网络参数的稀疏度,与已提出的其他稀疏化算法得到的结果进行对比数据如图3所示;图中Pruning表示传统剪枝算法[1],Baseline表示本实例不采取稀疏化操作的结果,Scalpel和SSL表示文章[2]和[3]中的稀疏化算法。本发明在基于MNIST的图像分类实施例中达到与其他算法一致的精确度98.27%,可以实现更高的网络稀疏度,在参数集中的前两层卷积层和第一层全连接层可以分别实现高达82.75%、96.2%和96.94%的稀疏度。在稀疏化操作上也更加简单,减少计算复杂度,提高运算效率。
实施例2
本实施例基于32层标准残差神经网络(ResNet32)在Cifar10数据集上实现;ResNet32是包含31层卷积层和1层全连接层的卷积神经网络结构,Cifar10是具有50000张训练图片和10000张测试图片的彩色图片数据集,每张彩色图片为32x32像素规格,每张图片对应一个0~9表示分类的标签,第一个实施例就是基于Cifar10数据集图片识别分类训练的稀疏残差神经网络。
由于ResNet32只包含最后一层全连接层,在本实施例中仅对除去第一层卷积层和最后一层全连接层余下的30层卷积层进行稀疏化操作处理;首先,对于Cifar10图片数据进行裁剪和翻转的预处理,基本不改变原始数据形貌;基于选取的30层卷积层的卷积核大小一致,在本实施例2中采取逐层卷积核固定基分解和全局共享卷积核折叠固定基分解两种分解方式进行两组实验。对于前者逐层方式采取3组低秩参数αi进行固定基分解,后者将所有形状大小一致的卷积核合并在同一个全局共享卷积核中,在执行卷积操作时再随机从全局共享的卷积核中抽取所需的卷积核以满足每层的卷积操作。对于全局共享卷积核,以β=2进行固定基折叠后,选取6组低秩参数αi进行固定基分解。再类似地进行神经网络的预训练,在Adam梯度后向传播训练算法下,调整其他超参数优化预训练网络。然后,针对固定基对应的和/>部分开展稀疏化训练,结合部分参数l2正则化和后期步骤的剪枝得到稀疏的32层残差神经网络。稀疏的ResNet32网络在Cifar10数据上的图片分类精确度和网络参数稀疏度结果与其他已提出的稀疏化算法对比如图4所示,其中ForceRegularization是文章[4]中提出,This Work代表本发明实施例2中采取的两种固定基分解方式产生的结果,第一个结果中稀疏度是将30层卷积层分为10层一组得到的每组卷积核稀疏度,从结果分析本发明明显可以得到更高的稀疏度。
实施例3
基于ResNet32和VGG16两种卷积神经网络在Cifar100数据集上实现;VGG16是包含5组共13层卷积层的卷积神经网络。Cifar100是和实施例2中Cifar10大小一致的彩色图片数据集,包含50000张训练图片和10000张测试图片,分类标签共有0~99总计100个类别。
在ResNet32网络中分别采取了SGD和Momentum两种梯度优化算法进行对比。类似实施例1和2中的步骤,对Cifar100数据集采用和Cifar10相同的预处理,进行网络无稀疏化预训练。对于ResNet32采取卷积层逐层固定基分解,对于VGG16采取β=2折叠的全局共享卷积核固定基分解,对其中的13层卷积层进行稀疏化处理,两组网络各选取6组低秩参数进行基于固定基的展开。结合部分参数l2正则化和部分参数剪枝,得到与其他提出稀疏化算法在Cifar100数据集上的结果对比如图6所示,其中Filter Group和Slimming分别是文章[5]和[6]中提出的算法。以VGG16结果为例,在获得低至24.71%的分类错误率的同时可以达到78.17%的卷积层网络稀疏度,具有明显的优势。
本发明适用于所有采用标准后向传播的训练算法包括随机梯度下降训练算法(SGD)、自适应次梯度训练算法(Adagrad)、亚当算法(Adam)以及动量梯度下降算法(Momentum)等,以及所有标准后向传播的卷积神经网络模型包含标准卷积神经网络(CNN)、残差神经网络(RNN)、VGG16、VGG19、AlexNet及其各种变形等。
此外,本发明不局限于公布实施例内容所包含的应用和使用范围,相关领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,适当的替换、扩展和修改是可能的。本发明要求的保护范围以权利要求书界定的范围为准。

Claims (5)

1.一种基于固定基正则化的卷积神经网络参数稀疏化的方法,该方法在基于图像识别和分类的应用中,卷积层负责将输入图像数据和权重矩阵进行卷积计算处理,将输入原始数据映射到隐层特征空间;全连接层负责将卷积层输出结果映射到标记分类空间,输出分类结果;该方法针对图像识别和分类应用,通过将卷积运算中的权重矩阵分解表示为低秩的固定基形式,再对固定基进行部分正则化和剪枝处理,进行卷积神经网络的稀疏化训练;该方法在达到更高的稀疏度和精确度的同时,降低算法计算量和计算复杂度,减少权重参数的存储空间,提高卷积神经网络的训练成本和效率,包括如下步骤:
步骤201:读入原始图片,进行大小、格式归一化处理,并增加随机噪声、翻转图片预处理过程,生成输入的图片数据;
步骤202:卷积神经网络卷积层的卷积核和全连接层的权重参数均进行稀疏化处理,将两类参数统一称为权重参数并以卷积核形式的多维矩阵表示,权重参数的固定基低秩分解表示分为逐层权重参数固定基分解和可折叠的固定基分解,处理过程有不同,表示为两个分步骤21和22:
分步骤21:逐层进行的权重参数固定基低秩分解,对于第l层权重参数,原始卷积核其中Ml和Nl表示卷积核的长和宽,Cl表示通道数目,Fl表示卷积核数目,将原始四维张量的卷积核改写为相同元素数目的形式/>选取低秩参数α(α<<MlNl<<ClFl),将卷积核低秩分解为
Wl=Tl*Al*Sl
其中每一个选定的低秩参数α代表一组固定基Wl,选取多个低秩参数αi并将卷积核表示为多组固定基的和的形式:
分步骤22:可折叠的权重参数固定基分解,其适用于包含多层相同或相似卷积层结构的卷积神经网络模型,通过建立全局共享的权重并进行可折叠的固定基分解,为稀疏化训练模型进行参数准备;
在单层卷积核可折叠固定基分解中,对于第l层权重参数,将原始四维张量的卷积核改写为相同元素数目的形式,引入折叠参数β,可折叠卷积核维度调整为形式;
选取低秩参数可将卷积核低秩分解为
其中
所述的多组可折叠低秩固定基中,取多个低秩参数表示为求和的形式:
步骤203:进行无稀疏化处理的常规卷积神经网络预训练,不对任何参数进行剪枝或者正则化处理,使用Adam梯度优化器进行重复训练;预训练的过程是使卷积神经网络进行前期的学习,在没有引入稀疏化处理之前,通过不断调整稀疏化操作之外的其他超参数,促使经过低秩固定基分解卷积核和权重参数后的卷积神经网络可最大程度适应,并在精度上得到最优性能,从而实现初期的优化网络结构的目标;
步骤204:卷积神经网络的稀疏化训练,对于展开成固定基形式的卷积核W或每次训练时进行部分参数l1正则化处理,l1正则化表示为||W||1,取正则化对象所有元素的绝对值之和,对于用低秩固定基表示的卷积核W或/>在损失函数中加入部分参数l1正则化约束:
其中,E0(W)表示没有稀疏化操作的原始训练损失函数,R1(·)表示参数l1正则化约束,和/>分别表示低秩固定基分解卷积核/>的首尾矩阵,通过对低秩固定基的部分参数进行l1正则化处理,产生整体卷积核和权重参数的稀疏数值矩阵,仅对部分低秩矩阵进行稀疏化约束得到整体卷积核参数稀疏的效果;
在卷积神经网络训练后期的步骤中,加入卷积核权重参数的剪枝操作,传统剪枝操作是针对所有可训练的参数设置一个阈值,将所有绝对值在阈值内的矩阵中的元素置为零,在神经网络训练的每一次迭代中,进行阈值判断和置零操作,在基于低秩固定基正则中仅在后期1%~2%的训练步骤中加入剪枝操作,并只对低秩固定基分解表示卷积核中的部分参数和/>进行剪枝操作,剪枝操作的阈值依据需求调整;
卷积神经网络的稀疏化训练是在预训练结束后,结合对低秩固定基分解表示的卷积核和权重参数部分l1正则化和部分剪枝操作,在整体神经网络训练后期开展的稀疏化训练;
步骤205:输出稀疏化卷积神经网络训练后得到图片识别分类判断结果。
2.如权利要求1所述的基于固定基正则化的卷积神经网络参数稀疏化的方法,其特征是,所述的稀疏化方法适用于使用标准后向传播的神经网络模型参数稀疏化。
3.如权利要求1所述的基于固定基正则化的卷积神经网络参数稀疏化的方法,其特征是,步骤203和步骤204中的梯度更新方法适用于其他标准后向传播的训练算法,包括随机梯度下降训练算法SGD、自适应次梯度训练算法Adagrad以及动量梯度下降算法Momentum。
4.如权利要求1所述的基于固定基正则化的卷积神经网络参数稀疏化的方法,其特征是,固定基分解和稀疏化操作的对象包含卷积层卷积核参数,所述方法对神经网络所有参数进行稀疏化处理。
5.如权利要求1所述的基于固定基正则化的卷积神经网络参数稀疏化的方法,其特征是,固定基的低秩参数和折叠参数自由调节,即网络稀疏度原则上可控,且固定稀疏形态的基有利于硬件平台的实现,便于硬件实现的加速和优化。
CN201911028209.8A 2019-10-28 2019-10-28 基于固定基正则化的神经网络参数稀疏化方法 Active CN112734025B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911028209.8A CN112734025B (zh) 2019-10-28 2019-10-28 基于固定基正则化的神经网络参数稀疏化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911028209.8A CN112734025B (zh) 2019-10-28 2019-10-28 基于固定基正则化的神经网络参数稀疏化方法

Publications (2)

Publication Number Publication Date
CN112734025A CN112734025A (zh) 2021-04-30
CN112734025B true CN112734025B (zh) 2023-07-21

Family

ID=75588857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911028209.8A Active CN112734025B (zh) 2019-10-28 2019-10-28 基于固定基正则化的神经网络参数稀疏化方法

Country Status (1)

Country Link
CN (1) CN112734025B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705784A (zh) * 2021-08-20 2021-11-26 江南大学 一种基于矩阵共享的神经网络权重编码方法及硬件系统
CN114037857B (zh) * 2021-10-21 2022-09-23 中国科学院大学 图像分类精度提升方法
CN114863152B (zh) * 2022-03-22 2024-05-14 重庆大学 一种基于改进YOLOv3的散装小包装中药袋检测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764471A (zh) * 2018-05-17 2018-11-06 西安电子科技大学 基于特征冗余分析的神经网络跨层剪枝方法
CN109376859A (zh) * 2018-09-27 2019-02-22 东南大学 一种基于菱形卷积的神经网络剪枝方法
CN109711532A (zh) * 2018-12-06 2019-05-03 东南大学 一种针对硬件实现稀疏化卷积神经网络推断的加速方法
CN110009095A (zh) * 2019-03-04 2019-07-12 东南大学 基于深度特征压缩卷积网络的道路行驶区域高效分割方法
CN110147834A (zh) * 2019-05-10 2019-08-20 上海理工大学 基于稀疏化双线性卷积神经网络的细粒度图像分类方法
CN110197257A (zh) * 2019-05-28 2019-09-03 浙江大学 一种基于增量正则化的神经网络结构化稀疏方法
CN110210618A (zh) * 2019-05-22 2019-09-06 东南大学 动态修剪深度神经网络权重和权重共享的压缩方法
CN110874631A (zh) * 2020-01-20 2020-03-10 浙江大学 一种基于特征图稀疏化的卷积神经网络剪枝方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580376B2 (en) * 2017-06-09 2023-02-14 Korea Advanced Institute Of Science And Technology Electronic apparatus and method for optimizing trained model

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764471A (zh) * 2018-05-17 2018-11-06 西安电子科技大学 基于特征冗余分析的神经网络跨层剪枝方法
CN109376859A (zh) * 2018-09-27 2019-02-22 东南大学 一种基于菱形卷积的神经网络剪枝方法
CN109711532A (zh) * 2018-12-06 2019-05-03 东南大学 一种针对硬件实现稀疏化卷积神经网络推断的加速方法
CN110009095A (zh) * 2019-03-04 2019-07-12 东南大学 基于深度特征压缩卷积网络的道路行驶区域高效分割方法
CN110147834A (zh) * 2019-05-10 2019-08-20 上海理工大学 基于稀疏化双线性卷积神经网络的细粒度图像分类方法
CN110210618A (zh) * 2019-05-22 2019-09-06 东南大学 动态修剪深度神经网络权重和权重共享的压缩方法
CN110197257A (zh) * 2019-05-28 2019-09-03 浙江大学 一种基于增量正则化的神经网络结构化稀疏方法
CN110874631A (zh) * 2020-01-20 2020-03-10 浙江大学 一种基于特征图稀疏化的卷积神经网络剪枝方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种卷积神经网络的稀疏性Dropout正则化方法;周安众等;《小型微型计算机系统》;20180815(第08期);全文 *
一种用于卷积神经网络压缩的混合剪枝方法;靳丽蕾等;《小型微型计算机系统》;20181211(第12期);全文 *

Also Published As

Publication number Publication date
CN112734025A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
Choukroun et al. Low-bit quantization of neural networks for efficient inference
Wu et al. Quantized convolutional neural networks for mobile devices
Tang et al. How to train a compact binary neural network with high accuracy?
CN112734025B (zh) 基于固定基正则化的神经网络参数稀疏化方法
CN111461322B (zh) 一种深度神经网络模型压缩方法
US20190244080A1 (en) Neural Network Processor with On-Chip Convolution Kernel Storage
CN108985457B (zh) 一种受优化算法启发的深度神经网络结构设计方法
Hawkins et al. Towards compact neural networks via end-to-end training: A Bayesian tensor approach with automatic rank determination
CN110782019A (zh) 基于分解和剪枝的卷积神经网络压缩方法、系统、装置
CN110717519A (zh) 训练、特征提取、分类方法、设备及存储介质
WO2020060659A1 (en) System and method for synthesis of compact and accurate neural networks (scann)
CN113344182A (zh) 一种基于深度学习的网络模型压缩方法
Lacey et al. Stochastic layer-wise precision in deep neural networks
CN111476346A (zh) 一种基于牛顿共轭梯度法的深度学习网络架构
Samragh et al. Codex: Bit-flexible encoding for streaming-based fpga acceleration of dnns
Qi et al. Learning low resource consumption cnn through pruning and quantization
Liu et al. Computation-performance optimization of convolutional neural networks with redundant filter removal
Li et al. Filter pruning via probabilistic model-based optimization for accelerating deep convolutional neural networks
Alnemari et al. Efficient deep neural networks for edge computing
Park et al. Squantizer: Simultaneous learning for both sparse and low-precision neural networks
WO2024060839A9 (zh) 对象操作方法、装置、计算机设备以及计算机存储介质
Bui et al. Improving network slimming with nonconvex regularization
Dai et al. Deep Learning Model Compression With Rank Reduction in Tensor Decomposition
Bui et al. Nonconvex regularization for network slimming: compressing cnns even more
CN116384471A (zh) 模型剪枝方法、装置、计算机设备、存储介质和程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant