CN109492754A - 一种基于深度神经网络模型压缩和加速方法 - Google Patents

一种基于深度神经网络模型压缩和加速方法 Download PDF

Info

Publication number
CN109492754A
CN109492754A CN201811312529.1A CN201811312529A CN109492754A CN 109492754 A CN109492754 A CN 109492754A CN 201811312529 A CN201811312529 A CN 201811312529A CN 109492754 A CN109492754 A CN 109492754A
Authority
CN
China
Prior art keywords
filter
neural network
deep neural
network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811312529.1A
Other languages
English (en)
Inventor
吴土孙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Youjie Zhixin Technology Co Ltd
Original Assignee
Shenzhen Youjie Zhixin Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Youjie Zhixin Technology Co Ltd filed Critical Shenzhen Youjie Zhixin Technology Co Ltd
Priority to CN201811312529.1A priority Critical patent/CN109492754A/zh
Publication of CN109492754A publication Critical patent/CN109492754A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度神经网络模型压缩和加速方法,包括如下步骤:步骤1)初始化一个预训练的卷积网络;步骤2)给所有过滤器施加一个全局掩模并使之等于1;步骤3)迭代式地调整稀疏网络并且更新过滤器显著性。本发明在于提供一种通过剪枝后的神经网络,降低神经网络的准确度损失,保证神经网络基本不损失算法精度的前提下可将神经网络模型的计算量和规模压缩数倍的一种基于深度神经网络模型压缩和加速方法。

Description

一种基于深度神经网络模型压缩和加速方法
技术领域
本发明涉及神经网络技术领域,尤其涉及一种基于深度神经网络模型压缩和加速方法。
背景技术
计算机视觉中应用各种深度学习神经网络模型,卷积神经网络(CNN)已经在多种不同应用中取得了显著的成功,这些模型依赖于具有数百甚至数十亿参数的深度网络,CPU对如此庞大的网络无法运行及快速训练,只是依赖高计算能力的GPU才能让网络运行及快速训练。这样出色的表现也伴随着显著的计算成本——如果没有高效的图形处理器(GPU)的支持,将这些CNN部署到实时应用中会非常困难。与云相比,移动系统受计算资源限制。然而众所周知,深度学习模型需要大量资源。为使设备端深度学习成为可能,应用程序开发者常用的技术之一是压缩深度学习模型以降低其资源需求,但准确率会有所损失。尽管该技术非常受欢迎。
在人们生活中的移动端,如何让深度模型在移动设备上运行实时性,也是模型压缩加速的一大重要目标。Krizhevsky在2014年的文章中,提出了两点观察结论:卷积层占据了大约90-95%的计算时间和参数规模,有较大的值;全连接层占据了大约5-10%的计算时间,95%的参数规模,并且值较小。这为后来的研究深度模型的压缩与加速提供了统计依据。一个典型的例子是具有50个卷积层的ResNet-50需要超过95MB的存储器以及38亿次浮点运算。在丢弃了一些冗余的权重后,网络仍照常工作,但节省了超过75%的参数和50%的计算时间。当然,网络模型的压缩和加速的最终实现需要多学科的联合解决方案,除了压缩算法,数据结构、计算机体系结构和硬件设计等也起到了很大作用。
中国专利申请号为201711282087.6,申请日:2017年12月07日,公开日:2018年04月20日,专利名称是:神经网络压缩和加速的方法、存储设备和终端,该发明提供一种神经网络压缩和加速的方法、存储设备和终端,该方法包括步骤:对原始神经网络进行剪枝;对剪枝后的原始神经网络的网络权值进行聚类量化,并对聚类量化后的原始神经网络进行训练,得到目标神经网络;采用稀疏矩阵存储所述目标神经网络;将输入特征图转换成输入矩阵;将所述稀疏矩阵与所述输入矩阵相乘,获得所述输入特征图对应的输出特征图。该实施例降低了神经网络计算资源和存储空间,从而减少了计算成本。
上述专利文献虽然公开了一种神经网络压缩和加速的方法,该专利文献并没有解决通过剪枝后的神经网络,降低神经网络的准确度损失,保证神经网络基本不损失算法精度的前提下可将神经网络模型的计算量和规模压缩数倍的难题。
发明内容
有鉴于此,本发明在于提供一种通过剪枝后的神经网络,降低神经网络的准确度损失,保证神经网络基本不损失算法精度的前提下可将神经网络模型的计算量和规模压缩数倍的一种基于深度神经网络模型压缩和加速方法。
为了实现本发明目的,可以采取以下技术方案:
一种基于深度神经网络模型压缩和加速方法,包括如下步骤:
步骤1)初始化一个预训练的卷积网络;
步骤2)给所有过滤器施加一个全局掩模并使之等于1;
步骤3)迭代式地调整稀疏网络并且更新过滤器显著性。
所述步骤2)包括:
步骤1)判断对应过滤器是否被剪枝;
步骤2)如果对应过滤器没有剪枝,则,以全局的方式剪枝所述卷积网络所有层上不显著性权重的过滤器,等价于将不显著权重的过滤器的掩模设为0。
所述步骤2)决定所述过滤器显著性权重包括通过全局函数来判定;该全局函数是当所述卷积网络作为一种将输入图像映射成某个输出向量的前馈式多层架构;在该卷积网络中,将该卷积层第l层中的图像特征图集合表示为:
该卷积层第l层中的图像特征图集合大小为H_l×W_l,各个特征图为C_l;所述特征图是网络Z_0的输入,或者是输出特征图Z_l,其中l∈[1,2,...,L]。
所述各个特征图表示为:
其中k∈[1,2,...,C_l];所述第l个卷积层的各个输出特征图是通过将卷积算子()应用到一组输入特征图上获得的,这些特征图的过滤器参数化为:
即:
其中f(*)是一个非线性激活函数
所述过滤器的形状包括一种矩阵乘矩阵的乘法,该矩阵乘矩阵的乘法包括:
其中,矩阵
的每一行都与输出张量的空间位置有关,所述输出张量是通过基于输入张量:
的变换而得到的,并且矩阵:是根据过滤器W_l重新调整了形状。
所述步骤3)迭代式地调整稀疏网络并且更新过滤器显著性包括通过全局掩模的方式实现的,该全局掩模的方式通过下列公式来实现:
其中:是一个二元值的掩模;
如果第k个过滤器是显著的,则:为1;否则就为0。⊙表示Khatri-Rao积算子。
以一种二值化XNOR的方式剪枝过滤器在实践中不够灵活且效果很差,这会给神经网络表现水平带来严重损失。注意,因为过滤器之间存在复杂的互连,所以过滤器显著性可以会在剪枝了特定的层后发生很大的变化。因此,动态剪枝也就是一种全局角度实现被掩蔽的过滤器的回滚,在提升剪枝后网络的可判别性方面有很高的需求。
为了更好地描述新提出的剪枝过滤器和加速的目标函数,我们将整个网络的过滤器表示为:
并将全局掩模表示为:
然后给出一个训练样本集:
D={χ={X1,X2,…,XN},y={Y1,Y2,…,YN}}
其中X_i和Y_i分别表示输入和目标输出;求解的是以下优化问题:
其中L(·)是被剪枝网络的损失函数;g(X;W*,m)的输入为X;具有过滤器W*和全局掩模m,并使用它们将输入映射成一个s维的输出;h(·)是用于决定过滤器的显著性值的全局判别函数,这取决于W*的预先知识;函数h(·)的输出是二元的,即如果对应的过滤器是显著的,则输出1,否则输出0;
(4)式是GDP框架的核心函数,是非凸的,该β∈(0,1]是一个决定被剪枝网络的稀疏度的阈值;因为有:
||·||0
算子;然后,通过使用随机梯度下降而贪婪且交替地更新W*和m,可以对其进行求解。
本发明的有益效果是:1)本发明提出一种深度全局和动态过滤器剪枝的深度模型压缩和加速方法,可剪枝冗余的过滤器,从而实现卷积神经网络(CNN)加速;2)本发明还提出了一种基于每个过滤器的预先知识的全局判别函数,让成了首个在所有层上全局地剪枝不显著过滤器的方法;另外,本发明还能在整个剪枝后的稀疏网络上动态地更新过滤器的显著性,然后恢复被错误剪枝的过滤器,之后再通过一个再训练阶段来提升模型准确度;3)本发明通过使用贪婪的交替更新的随机梯度下降而有效地解决了新提出的方法对应的非凸优化问题;通过进行了大量实验,结果表明,相比于之前最佳的过滤器剪枝方法,本发明提出的方法在ILSVRC 2012基准的多种前沿卷积神经网络(CNN)的加速上表现更优。
附图说明
图1为本发明实施例一种基于深度神经网络模型压缩和加速方法流程步骤图;
图2为本发明实施例一种基于深度神经网络模型压缩和加速方法的全局和动态剪枝和加速方法的流程图;
图3为本发明实施例一种基于深度神经网络模型压缩和加速方法的实现全局和动态剪枝和加速方法的过程示意图;
图4为本发明实施例一种基于深度神经网络模型压缩和加速方法的实验结果图;
图5为本发明实施例一种基于深度神经网络模型压缩和加速方法另一实验结果图;
图6为本发明实施例一种基于深度神经网络模型压缩和加速方法的不同过滤器选择方案比较图;
图7为本发明实施例一种基于深度神经网络模型压缩和加速方法的加速VGG-16的结果表示图;
图8为本发明实施例一种基于深度神经网络模型压缩和加速方法的使用GDP方案剪枝VGG-16时采用不同β值的结果比较图;
图9为本发明实施例一种基于深度神经网络模型压缩和加速方法的加速ResNet-50的结果图;
图10本发明实施例一种基于深度神经网络模型压缩和加速方法的在VGG-16的第一层上动态地更新过滤器、掩模和输出特征图。
具体实施方式
下面结合附图及本发明的实施例对发明作进一步详细的说明。
一般全局和动态剪枝和加速方法(DGP)的模型通常存在大量的信息冗余,从模型的参数数量到参数的表示精度都存在缩减的空间。依托世界领先的神经网络模型压缩领域研究成果,可以剪枝掉冗余的过滤器来解决上述两个问题,这能很大程度地加速剪枝后的网络,同时还能降低网络的准确度损失,保证基本不损失算法精度的前提下可将网络模型的计算量和规模压缩数倍。
本发明是在所有网络层上全局地评估各个过滤器的权重,然后根据评估结果作动态地和迭代地剪枝和调整网络,并且重新调用在之前的迭代中被错误剪枝的过滤器的方法。
本发明首先初始化一个预训练的卷积网络,然后给所有过滤器施加一个全局掩模并使之等于1,也就是说该卷积网络中对应过滤器是否被剪枝的作一次判断;然后,通过全局判别函数来决定各个过滤器的显著性权重;
当条件判断不满足,以全局的方式剪枝所有层上不显著权重的过滤器,等价于将不显著权重的过滤器的掩模设为0。最后,通过迭代式地调整这个稀疏网络并且以一种自上而下的方式动态地更新过滤器显著性。
通过这样的操作,之前被掩蔽的过滤器还有重新被调用的可能,这能显著提升被剪枝后网络的准确度。在优化方面,可以被描述成一个非凸优化问题,然后可以使用贪婪的交替更新方法通过随机梯度下降有效求解。
参考图1,图2,该一种基于深度神经网络模型压缩和加速方法,包括如下步骤:
步骤S1)初始化一个预训练的卷积网络;
步骤S2)给所有过滤器施加一个全局掩模并使之等于1;
步骤S3)迭代式地调整稀疏网络并且更新过滤器显著性。
上述所述步骤2)包括:
步骤1)判断对应过滤器是否被剪枝;
步骤2)如果对应过滤器没有剪枝,则,以全局的方式剪枝所述卷积网络所有层上不显著性权重的过滤器,等价于将不显著权重的过滤器的掩模设为0。
所述步骤2)决定所述过滤器显著性权重包括通过全局函数来判定;该全局函数是当所述卷积网络作为一种将输入图像映射成某个输出向量的前馈式多层架构;在该卷积网络中,将该卷积层第l层中的图像特征图集合表示为:
该卷积层第l层中的图像特征图集合大小为H_l×W_l,各个特征图为C_l;所述特征图是网络Z_0的输入,或者是输出特征图Z_l,其中l∈[1,2,...,L]。
所述各个特征图表示为:
其中k∈[1,2,...,C_l];所述第l个卷积层的各个输出特征图是通过将卷积算子()应用到一组输入特征图上获得的,这些特征图的过滤器参数化为:
即:
其中f(*)是一个非线性激活函数,比如修正线性单元(ReLU)。
在Caffe和TensorFlow等很多深度学习框架中,基于张量的卷积算子通过降低输入和重新构造过滤器的形状而被重新形式化为了一种矩阵乘矩阵的乘法,该矩阵乘矩阵的乘法包括:
其中,矩阵
的每一行都与输出张量的空间位置有关,所述输出张量是通过基于输入张量:
的变换而得到的,并且矩阵:是根据过滤器W_l重新调整了形状。
参考图3,该图3说明了实现全局和动态剪枝和加速方法的过程示意图;
本发明是以全局的方式剪枝冗余的过滤器,为此,可以直接将大型网络转换成紧凑的网络,而不重复地评估每个过滤器的显著性和逐层微调剪枝后的网络。为此,引入了一种全局掩模,以在训练过程的每次迭代中临时掩蔽不显著的过滤器;
所述步骤3)迭代式地调整稀疏网络并且更新过滤器显著性包括通过全局掩模的方式实现的,该全局掩模的方式通过下列公式来实现:
其中:是一个二元值的掩模;
如果第k个过滤器是显著的,则:为1;否则就为0。
所述卷积网络中的过滤器表示为:
并将全局掩模表示为:
然后给出一个训练样本集:
D={χ={X1,X2,…,XN},y={Y1,Y2,…,YN}}
其中X_i和Y_i分别表示输入和目标输出;求解的是以下优化问题:
其中L(·)是被剪枝网络的损失函数;g(X;W*,m)的输入为X;具有过滤器W*和全局掩模m,并使用它们将输入映射成一个s维的输出;h(·)是用于决定过滤器的显著性值的全局判别函数,这取决于W*的预先知识;函数h(·)的输出是二元的,即如果对应的过滤器是显著的,则输出1,否则输出0;
(4)式是GDP框架的核心函数,是非凸的,该β∈(0,1]是一个决定被剪枝网络的稀疏度的阈值;因为有:
||·||0
算子;然后,通过使用随机梯度下降而贪婪且交替地更新W*和m,可以对其进行求解。
参看图4,图5,该图4,图5,表示本发明实验结果;
图4表示GDP和GDP-D(没有动态更新的全局剪枝)的FLOPs比较,其中β设为0.7。FLOPs%是指剩余的FLOPs所占的百分比;
图5表示用于加速AlexNet的不同剪枝方法比较。Hy-P表示超参数设置,批大小为32(下面的表格都一样)
参看图6,图7,该图6表示:在加速AlexNet和VGG-16方面不同过滤器选择方案的比较。Scratch表示从头开始训练的网络,Ori表示原始CNN,GDP-D表示没有动态更新的全局剪枝;
该图7表示加速VGG-16的结果。
参看图8,图9,该图8表示:使用GDP方案剪枝VGG-16时采用不同β值的结果比较。(a)使用GDP方案剪枝VGG-16时采用不同β值的训练损失和Top-1测试准确度;(b)使用不同β值的GDP剪枝后的网络在微调后的训练损失和Top-1测试准确度;
图9表示加速ResNet-50的结果图。
图10表示在VGG-16的第一层上动态地更新过滤器、掩模和输出特征图。左:过滤器和掩模;右:输出特征图。在左列中,每个矩形都包含了过滤器和掩模,其中黑色框表示掩模没改变,红色框表示过滤器和掩模更新了。另外,其中仅有黑白两色的小矩形表示对应的过滤器是否显著。在右列中,对应改变的特征图用红色框标出。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。

Claims (7)

1.一种基于深度神经网络模型压缩和加速方法,其特征在于:包括如下步骤:
步骤1)初始化一个预训练的卷积网络;
步骤2)给所有过滤器施加一个全局掩模并使之等于1;
步骤3)迭代式地调整稀疏网络并且更新过滤器显著性。
2.根据权利要求1所述的一种基于深度神经网络模型压缩和加速方法,其特征在于:所述步骤2)包括:
步骤1)判断对应过滤器是否被剪枝;
步骤2)如果对应过滤器没有剪枝,则,以全局的方式剪枝所述卷积网络所有层上不显著性权重的过滤器,等价于将不显著权重的过滤器的掩模设为0。
3.根据权利要求2所述的一种基于深度神经网络模型压缩和加速方法,其特征在于:所述步骤2)决定所述过滤器显著性权重包括通过全局函数来判定;该全局函数是当所述卷积网络作为一种将输入图像映射成某个输出向量的前馈式多层架构;在该卷积网络中,将该卷积层第l层中的图像特征图集合表示为:
该卷积层第l层中的图像特征图集合大小为H_l×W_l,各个特征图为C_l;所述特征图是网络Z_0的输入,或者是输出特征图Z_l,其中l∈[1,2,...,L]。
4.根据权利要求3所述的一种基于深度神经网络模型压缩和加速方法,其特征在于:所述各个特征图表示为:
其中k∈[1,2,...,C_l];所述第l个卷积层的各个输出特征图是通过将卷积算子()应用到一组输入特征图上获得的,这些特征图的过滤器参数化为:
即:
其中f(*)是一个非线性激活函数。
5.根据权利要求1所述的一种基于深度神经网络模型压缩和加速方法,其特征在于:所述过滤器的形状包括一种矩阵乘矩阵的乘法,该矩阵乘矩阵的乘法包括:
其中,矩阵
的每一行都与输出张量的空间位置有关,所述输出张量是通过基于输入张量:
的变换而得到的,并且矩阵:是根据过滤器W_l重新调整了形状。
6.根据权利要求1所述的一种基于深度神经网络模型压缩和加速方法,其特征在于:所述步骤3)迭代式地调整稀疏网络并且更新过滤器显著性包括通过全局掩模的方式实现的,该全局掩模的方式通过下列公式来实现:
其中:是一个二元值的掩模;
如果第k个过滤器是显著的,则:为1;否则就为0。
7.根据权利要求1所述的一种基于深度神经网络模型压缩和加速方法,其特征在于:所述卷积网络中的过滤器表示为:
并将全局掩模表示为:
然后给出一个训练样本集:
其中X_i和Y_i分别表示输入和目标输出;求解的是以下优化问题:
其中L(·)是被剪枝网络的损失函数;g(X;W*,m)的输入为X;具有过滤器W*和全局掩模m,并使用它们将输入映射成一个s维的输出;h(·)是用于决定过滤器的显著性值的全局判别函数,这取决于W*的预先知识;函数h(·)的输出是二元的,即如果对应的过滤器是显著的,则输出1,否则输出0;
(4)式是GDP框架的核心函数,是非凸的,该β∈(0,1]是一个决定被剪枝网络的稀疏度的阈值;因为有:
||·||0
算子;然后,通过使用随机梯度下降而贪婪且交替地更新W*和m,可以对其进行求解。
CN201811312529.1A 2018-11-06 2018-11-06 一种基于深度神经网络模型压缩和加速方法 Pending CN109492754A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811312529.1A CN109492754A (zh) 2018-11-06 2018-11-06 一种基于深度神经网络模型压缩和加速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811312529.1A CN109492754A (zh) 2018-11-06 2018-11-06 一种基于深度神经网络模型压缩和加速方法

Publications (1)

Publication Number Publication Date
CN109492754A true CN109492754A (zh) 2019-03-19

Family

ID=65693887

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811312529.1A Pending CN109492754A (zh) 2018-11-06 2018-11-06 一种基于深度神经网络模型压缩和加速方法

Country Status (1)

Country Link
CN (1) CN109492754A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111144456A (zh) * 2019-12-13 2020-05-12 东南大学 一种基于本征特征迁移的深度模型压缩方法
CN111340225A (zh) * 2020-02-28 2020-06-26 中云智慧(北京)科技有限公司 一种基于深度卷积神经网络模型压缩和加速方法
CN111709493A (zh) * 2020-07-10 2020-09-25 腾讯科技(深圳)有限公司 对象分类方法、训练方法、装置、设备及存储介质
CN111723912A (zh) * 2020-06-18 2020-09-29 南强智视(厦门)科技有限公司 一种神经网络解耦方法
CN112784625A (zh) * 2019-11-04 2021-05-11 广东毓秀科技有限公司 一种行人重识别模型的加速与压缩的方法
CN112883982A (zh) * 2021-01-08 2021-06-01 西北工业大学 一种面向神经网络稀疏特征的数据去零编码及封装方法
CN113392953A (zh) * 2020-03-12 2021-09-14 澜起科技股份有限公司 用于对神经网络中卷积层进行剪枝的方法和装置
WO2021243489A1 (zh) * 2020-05-30 2021-12-09 华为技术有限公司 一种神经网络的数据处理方法及装置
CN110298446B (zh) * 2019-06-28 2022-04-05 济南大学 面向嵌入式系统的深度神经网络压缩和加速方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355248A (zh) * 2016-08-26 2017-01-25 深圳先进技术研究院 一种深度卷积神经网络训练方法及装置
CN108090560A (zh) * 2018-01-05 2018-05-29 中国科学技术大学苏州研究院 基于fpga的lstm递归神经网络硬件加速器的设计方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355248A (zh) * 2016-08-26 2017-01-25 深圳先进技术研究院 一种深度卷积神经网络训练方法及装置
CN108090560A (zh) * 2018-01-05 2018-05-29 中国科学技术大学苏州研究院 基于fpga的lstm递归神经网络硬件加速器的设计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
机器之心: "让CNN跑得更快,腾讯优图提出全局和动态过滤器剪枝", 《HTTPS://WWW.JIQIZHIXIN.COM/ARTICLES/2018-07-11-2》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110298446B (zh) * 2019-06-28 2022-04-05 济南大学 面向嵌入式系统的深度神经网络压缩和加速方法及系统
CN112784625A (zh) * 2019-11-04 2021-05-11 广东毓秀科技有限公司 一种行人重识别模型的加速与压缩的方法
CN111144456A (zh) * 2019-12-13 2020-05-12 东南大学 一种基于本征特征迁移的深度模型压缩方法
CN111340225A (zh) * 2020-02-28 2020-06-26 中云智慧(北京)科技有限公司 一种基于深度卷积神经网络模型压缩和加速方法
CN113392953A (zh) * 2020-03-12 2021-09-14 澜起科技股份有限公司 用于对神经网络中卷积层进行剪枝的方法和装置
WO2021243489A1 (zh) * 2020-05-30 2021-12-09 华为技术有限公司 一种神经网络的数据处理方法及装置
CN111723912A (zh) * 2020-06-18 2020-09-29 南强智视(厦门)科技有限公司 一种神经网络解耦方法
CN111709493A (zh) * 2020-07-10 2020-09-25 腾讯科技(深圳)有限公司 对象分类方法、训练方法、装置、设备及存储介质
CN111709493B (zh) * 2020-07-10 2024-02-23 腾讯科技(深圳)有限公司 对象分类方法、训练方法、装置、设备及存储介质
CN112883982A (zh) * 2021-01-08 2021-06-01 西北工业大学 一种面向神经网络稀疏特征的数据去零编码及封装方法
CN112883982B (zh) * 2021-01-08 2023-04-18 西北工业大学 一种面向神经网络稀疏特征的数据去零编码及封装方法

Similar Documents

Publication Publication Date Title
CN109492754A (zh) 一种基于深度神经网络模型压缩和加速方法
Malach et al. Proving the lottery ticket hypothesis: Pruning is all you need
WO2023092813A1 (zh) 一种基于通道注意力的Swin-Transformer图像去噪方法及系统
CN109658344A (zh) 基于深度学习的图像去噪方法、装置、设备和存储介质
CN110659725B (zh) 神经网络模型的压缩与加速方法、数据处理方法及装置
Huang et al. Interpretable detail-fidelity attention network for single image super-resolution
DE102018126342A1 (de) Transformieren von faltenden neuronalen netzen zum lernen von visuellen sequenzen
DE102018117813A1 (de) Zeitlich stabile Datenrekonstruktion mit einem externen rekurrenten neuronalen Netzwerk
DE102019133028A1 (de) Für neuronale netzwerke geeignetes effizientes matrixformat
CN108334945A (zh) 深度神经网络的加速与压缩方法及装置
CN113689517B (zh) 一种多尺度通道注意力网络的图像纹理合成方法及系统
CN109886391B (zh) 一种基于空间正反对角卷积的神经网络压缩方法
CN110428045A (zh) 基于Tucker算法的深度卷积神经网络压缩方法
CN107704921A (zh) 基于Neon指令的卷积神经网络的算法优化方法及装置
CN111612143A (zh) 深度卷积神经网络的压缩方法及系统
DE102021119722A1 (de) Feingranulare pro-vektor-skalierung für neuronale netzwerkquantisierung
CN107292352A (zh) 基于卷积神经网络的图像分类方法和装置
CN112199636B (zh) 适用于微处理器的快速卷积方法及装置
DE102021107050A1 (de) Gradientenkomprimierung für verteiltes training
CN110298446A (zh) 面向嵌入式系统的深度神经网络压缩和加速方法及系统
DE102022120207A1 (de) Effiziente Transformationen und Transponierungen zur Optimierung der Ratenverzerrung und Rekonstruktion in Videocodieren
CN112288087A (zh) 一种神经网络剪枝方法、装置、电子设备及存储介质
CN113240079A (zh) 一种模型训练方法及装置
DE102021107509A1 (de) Multi-modell-trainingspipeline in verteilten systemen
WO2022112739A1 (en) Activation compression method for deep learning acceleration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190319