CN111105007A - 用于目标检测的深度卷积神经网络的压缩加速方法 - Google Patents

用于目标检测的深度卷积神经网络的压缩加速方法 Download PDF

Info

Publication number
CN111105007A
CN111105007A CN201811267286.4A CN201811267286A CN111105007A CN 111105007 A CN111105007 A CN 111105007A CN 201811267286 A CN201811267286 A CN 201811267286A CN 111105007 A CN111105007 A CN 111105007A
Authority
CN
China
Prior art keywords
neural network
convolutional neural
deep convolutional
network
quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811267286.4A
Other languages
English (en)
Other versions
CN111105007B (zh
Inventor
李志远
余成宇
吴绮
金敏
鲁华祥
陈艾东
郭祉薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Semiconductors of CAS
Original Assignee
Institute of Semiconductors of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Semiconductors of CAS filed Critical Institute of Semiconductors of CAS
Priority to CN201811267286.4A priority Critical patent/CN111105007B/zh
Publication of CN111105007A publication Critical patent/CN111105007A/zh
Application granted granted Critical
Publication of CN111105007B publication Critical patent/CN111105007B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于目标检测的深度卷积神经网络的压缩加速方法,包括:构建并训练一个用于目标检测的深度卷积神经网络;对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试该网络的检测性能损失情况,在设定的损失范围内选择最大的量化步长;利用该量化步长,确定神经网络中权重值与激活值的截断范围,对神经网络加以限制并训练网络;对深度卷积神经网络进行截断与量化,编写前向代码。本发明采用量化技术降低网络存储量,将网络中32位浮点数运算转化为8位整数运算,同时利用网络的稀疏性,将网络中满足稀疏性条件的层转化为稀疏矩阵运算,达到压缩加速深度卷积神经网络的目的。

Description

用于目标检测的深度卷积神经网络的压缩加速方法
技术领域
本发明涉及深度学习和人工智能领域,尤其涉及用于目标检测的深度卷积神经网络的压缩加速方法。
背景技术
由于在信息检索、自动驾驶、机器人导航和增强现实等领域的广泛应用前景,目标检测一直是计算机视觉领域的一个重要研究方向,得到了学术界和工业界的广泛研究和关注。传统的目标检测系统主要采用一些人工设计的特征,如Haar特征和HoG特征等,利用支持向量机等分类器对图像进行滑窗分类来达到检测物体的效果。近年来,随着深度学习的兴起,卷积神经网络对目标检测带来极其有效的解决办法,基于深度卷积神经网络的方法取得的结果均大幅度领先传统的方法。
然而,由于卷积神经网络伴随着大量的存储量和计算量,例如经典的VGG16网络需要约520MB存储量和153亿次乘加运算,即便是现有的一些轻量级网络,仍然需要数十MB存储量和数百万次乘加运算,如此巨大的存储量和运算量限制了卷积神经网络的应用,尤其是移动设备和嵌入式设备中。
发明内容
(一)要解决的技术问题
有鉴于此,本发明的目的在于提供一种用于目标检测的深度卷积神经网络的压缩加速方法,其采用量化技术降低网络的存储量,将网络中32位浮点数运算转化为8位整数运算,同时利用网络稀疏性的特点,将网络中满足稀疏性条件的层转化为稀疏矩阵运算,以此达到压缩加速用于目标检测的深度卷积神经网络的目的。
(二)技术方案
本发明提出了一种用于目标检测的深度卷积神经网络的压缩加速方法,包括下列步骤:
步骤1:构建并训练出一个用于目标检测的深度卷积神经网络;
步骤2:对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试该深度卷积神经网络的检测性能损失情况,在设定的损失范围内,选择最大的量化步长;
步骤3:利用上述最大的量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值与激活值的截断范围,对深度卷积神经网络加以限制,并训练深度卷积神经网络;
步骤4:对该深度卷积神经网络进行截断与量化,并对量化后的深度卷积神经网络前向代码进行编写。
进一步地,步骤1包括:
步骤11:设计深度卷积神经网络的结构,设置卷积层和池化层的参数,除最后一个卷积层外,在每个卷积层与激活函数之间添加批量归一化层;
步骤12:将训练集的数据输入至深度卷积神经网络,采用随机梯度下降法对深度卷积神经网络进行训练,当深度卷积神经网络在测试集上的误差收敛时,终止训练,保存深度卷积神经网络各个层的参数。
进一步地,步骤11包括:激活函数采用ReLU。
进一步地,步骤2包括:
步骤21:对网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化,量化方式采用均匀量化,量化公式如下:
Figure BDA0001843233430000021
其中,x是量化前的浮点数,n是量化的位数,激活函数采取统一的量化步长,权重值的量化各层由前至后单独进行;
步骤22:选定合适的阈值,量化步长由小至大,即n值由大至小,测试网络的检测性能损失情况,在性能损失小于选定的阈值情况下,选择最大的量化步长。
进一步地,步骤3包括:
步骤31:利用步骤2中选定的激活值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中激活值的截断范围;
步骤32:利用步骤2中选定的各层权重值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值的截断范围;
步骤33:利用上述截断范围,对深度卷积神经网络的权重值和激活值范围加以限制,并训练深度卷积神经网络。
进一步地,步骤4包括:
步骤41:对深度卷积神经网络进行截断与量化,并将量化后的权重值进行Huffman编码,以节省存储空间;
步骤42:编写卷积层的前向代码;
步骤43:编写池化层的前向代码。
(三)有益效果
从上述技术方案可以看出,与现有技术相比,本发明具有如下有益效果:
1、量化后的网络存储有效降低8倍,原始网络权重大小为60.5MB,压缩编码后网络权重大小为7.6MB;
2、网络实际运行过程中消耗内存可有效降低四倍,同时网络中的32位浮点数乘法运算全部被转化为8位整数乘法运算,浮点数加法运算全部被转化为整数加法运算;
3、网络具有稀疏性,可有效利用网络稀疏性进一步节省计算量。
附图说明
图1是本发明用于目标检测的深度卷积神经网络的压缩加速方法流程图;
图2是本发明实施例所采取的深度卷积神经网络结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
请参见图1,本发明包括以下四个步骤:
步骤1:构建并训练出一个用于目标检测的深度卷积神经网络;
步骤2:对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试该深度卷积神经网络的检测性能损失情况,在设定的损失范围内,选择最大的量化步长;
步骤3:利用上述最大的量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值与激活值的截断范围,对深度卷积神经网络加以限制,并训练深度卷积神经网络,这里的训练以微调的形式实现,该微调为以较小的学习率训练深度卷积神经网络;
步骤4:对该深度卷积神经网络进行截断与量化,并对量化后的深度卷积神经网络前向代码进行编写。
结合实施例,以下分别对本发明的主要步骤进行详细说明。
步骤1:构建并训练出一个用于目标检测的深度卷积神经网络;
步骤11:设计深度卷积神经网络的结构,设置卷积层和池化层的参数,除最后一个卷积层外,在每个卷积层与激活函数之间添加批量归一化层。
在本发明一些实施例中,设计的深度卷积神经网络一共包括九个卷积层,除最后一层外,每个卷积层的卷积核大小均为3×3,卷积的步长设为1,卷积方式设为SAME,即在特征图周围补一圈0,保证特征图经过卷积层后大小不发生变化;除卷积层外,还包括五个最大池化层,其中池化核的大小为2×2,步长设置为2,经过池化之后特征图的宽高减半;另外,除最后一个卷积层外,所有的卷积层后均接有批量归一化层,以及采用ReLU作为激活函数。最后一层的卷积核大小为1×1,无需连接批量归一化层和激活层,其输出通道数目由需要检测的类别数目决定,假设需要检测的类别数目为n,则输出通道数目为5(n+5),实施例中需要检测的类别数目为10,则最后一层输出的通道数目为125。网络的整体结构请参见图2,表示为:
Input-16C3-MP2-32C3-MP2-64C3-MP2-128C3-MP2-256C3-MP2-512C3-1024C3-1024C3-5(n+5)C1,
其中,nCs代表卷积核大小为s×s,输出通道为n的卷积层,MP2代表池化核大小为2×2,步长为2的最大池化层。
步骤12:将训练集的数据输入至深度卷积神经网络,采用随机梯度下降法对深度卷积神经网络进行训练,当深度卷积神经网络在测试集上的误差收敛时,终止训练,保存深度卷积神经网络各个层的参数。
本发明一些实施例中,从训练集中选择一批图像数据,从(320,352,384,416,448,480,512,544,576,608,640)中随机挑取一个尺寸,将图像缩放至该尺寸大小,采用梯度下降法对深度卷积神经网络进行训练。重复上述过程,不断更新优化深度卷积神经网络的参数。在进行训练时,每迭代2000次,都会用此时的网络模型将测试集的数据进行测试,最后取测试时获得最高结果的模型作为网络的参数进行下一步。
步骤2:对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试该深度卷积神经网络的检测性能损失情况,在设定的损失范围内,选择最大的量化步长。
步骤21:对网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化,量化方式采用均匀量化,量化公式如下:
Figure BDA0001843233430000051
其中,x是量化前的浮点数,n是量化的位数,激活函数采取统一的量化步长,权重值的量化各层由前至后单独进行。
在本发明一些实施例中,采取的量化步长为2的负整数次幂,如2-10,2-9,2-8等,采用这样的量化步长能够保证量化后的网络能够采取整形数据运算。
步骤22:选择合适的阈值,量化步长由小至大,即n值由大至小,测试网络的检测性能损失情况,在性能损失小于选定的阈值情况下,选择最大的量化步长。
本发明一些实施例中,首先对除最后一个卷积层外的输出特征图进行量化,量化采取相同的步长,即采用相同的n值;让n值从16开始,逐次减1,测试网络的检测性能,直至网络性能下降超过选定的阈值;然后对卷积层的权重进行量化,量化过程同输出特征图量化方式一致,权重的量化是分层进行的,由前至后,为每一层选择不同的量化步长。值得注意的是,当对第k层进行量化时,输出特征图和前k-1层的权重均按已选定的步长进行量化。
步骤3:根据网络需要的压缩位数和步骤2中确定的量化步长,确定深度卷积神经网络中权重值和激活值的截断范围,对深度卷积神经网络加以限制,并训练深度卷积神经网络,这里的训练以微调的形式实现,该微调为以较小的学习率训练深度卷积神经网络,优选的,该微调为以不高于0.001大小的学习率训练深度卷积神经网络。
步骤31:利用步骤2中选定的激活值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中激活值的截断范围。
本发明一些实施例对网络激活值进行截断时,当步骤2中确定的最优n值为5即量化步长为1/32时,若网络采用8bit进行量化,则激活值的截断范围为[0,255/32],当网络激活值大于255/32时,强制将值指定为255/32。由于采用的激活函数为ReLU函数,所有的激活值均大于等于0,左端的截断无需考虑。
步骤32:利用步骤2中选定的各层权重值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值的截断范围。
本发明一些实施例对网络权重值进行截断时,当步骤2中确定的最优n值为8即量化步长为1/256时,若网络采用8bit进行量化,则权重值的截断范围为[-128/256,127/256],当网络权重值小于-128/256时,强制将值指定为-128/256,当网络权重值大于127/256时,强制将值指定为127/256。
步骤33:利用上述截断范围,对深度卷积神经网络的权重值和激活值范围加以限制,并训练深度卷积神经网络。
本发明一些实施例中,在网络前向过程中添加对激活值和权重值的截断限制,以较小的学习率重新训练网络,对网络进行微调直至网络收敛。
步骤4:对深度卷积神经网络进行截断与量化,并对量化后的深度卷积神经网络的前向代码进行编写。
步骤41:对深度卷积神经网络进行截断与量化,并将量化后的权重值进行Huffman编码,以节省存储空间。
步骤42:编写卷积层的前向代码。
本发明一些实施例中,针对卷积层来说,由于其存在大量的点乘操作,直接计算卷积速度很慢。在此,我们采用im2col算法,将卷积计算转换为矩阵乘法运算,能有效提高缓存利用率,同时减少循环层数,大幅减少计算时间。另外,由于采用relu函数作为卷积层的激活函数,卷积计算中的特征图是稀疏的,我们对各层特征图进行统计,若当前层特征图稀疏度大于特定阈值,采用稀疏矩阵与非稀疏矩阵的乘法进行计算。
步骤43:编写池化层的前向代码。
本发明一些实施例中,针对池化层,我们采用的是最大池化层,其计算简单,主要计算为在几个临近的值中找到最大值,直接采用循环展开的策略进行加速。
本发明一些实施例采用常用目标检测数据库VOC数据集进行训练与测试,初始深度卷积神经网络取得了mAP=0.6043的检测性能,采用本发明对网络进行压缩与量化后取得了mAP=0.5947,仅仅下降了0.0096。
至此,本发明用于目标检测的深度卷积神经网络的压缩加速方法介绍完毕。依据以上描述,本领域技术人员应当对本发明有了清楚的队识。
需要说明的是,在附图或说明书正文中,未描述的深度卷积神经网络基础单元,均为所属技术领域中普通技术人员所知的形式,并未进行详细说明。此外,上述对各元件和方法的定义并不仅限于实施例中提到的各种具体结构、形状或方式,本领域普通技术人员可对其进行简单地更改或替换。
还需要说明的是,本发明可提供包含特定值的参数的示范,但这些参数无需确切等于相应的值,而是可在可接受的误差容限或设计约束内近似于相应值。此外,除非特别描述或必须依序发生的步骤,上述步骤的顺序并无限制于以上所列,且可根据所需设计而变化或重新安排。并且上述实施例可基于设计及可靠度的考虑,彼此混合搭配使用或与其他实施例混合搭配使用,即不同实施例中的技术特征可以自由组合形成更多的实施例。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种用于目标检测的深度卷积神经网络的压缩加速方法,包括如下步骤:
步骤1:构建并训练出一个用于目标检测的深度卷积神经网络;
步骤2:对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试所述深度卷积神经网络的检测性能损失情况,在设定的损失范围内,选择最大的量化步长;
步骤3:利用所述最大的量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值与激活值的截断范围,对所述深度卷积神经网络加以限制,并训练深度卷积神经网络;
步骤4:对所述深度卷积神经网络进行截断与量化,并对量化后的深度卷积神经网络前向代码进行编写。
2.根据权利要求1所述的用于目标检测的深度卷积神经网络的压缩加速方法,其特征在于,所述步骤1包括:
步骤11:设计所述深度卷积神经网络的结构,设置卷积层和池化层的参数,除最后一个卷积层外,在每个卷积层与激活函数之间添加批量归一化层;
步骤12:将训练集的数据输入至所述深度卷积神经网络,采用随机梯度下降法对深度卷积神经网络进行训练,当深度卷积神经网络在测试集上的误差收敛时,终止训练,保存深度卷积神经网络各个层的参数。
3.根据权利要求1或2所述的用于目标检测的深度卷积神经网络的压缩加速方法,其特征在于,所述步骤11包括:所述激活函数采用ReLU。
4.根据权利要求1所述的用于目标检测的深度卷积神经网络的压缩加速方法,其中其特征在于,所述步骤2包括:
步骤21:对网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化,量化方式采用均匀量化,量化公式如下:
Figure FDA0001843233420000011
其中,x是量化前的浮点数,n是量化的位数,激活函数采取统一的量化步长,权重值的量化各层由前至后单独进行;
步骤22:选定合适的阈值,量化步长由小至大,即n值由大至小,测试网络的检测性能损失情况,在性能损失小于选定的阈值情况下,选择最大的量化步长。
5.根据权利要求1所述的用于目标检测的深度卷积神经网络的压缩加速方法,其特征在于,所述步骤3包括:
步骤31:利用步骤2中选定的激活值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中激活值的截断范围;
步骤32:利用步骤2中选定的各层权重值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值的截断范围;
步骤33:利用上述截断范围,对所述深度卷积神经网络的权重值和激活值范围加以限制,并训练深度卷积神经网络。
6.根据权利要求1所述的用于目标检测的深度卷积神经网络的压缩加速方法,其特征在于,所述步骤4包括:
步骤41:对所述深度卷积神经网络进行截断与量化,并将量化后的权重值进行Huffman编码,以节省存储空间;
步骤42:编写卷积层的前向代码;
步骤43:编写池化层的前向代码。
CN201811267286.4A 2018-10-26 2018-10-26 用于目标检测的深度卷积神经网络的压缩加速方法 Active CN111105007B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811267286.4A CN111105007B (zh) 2018-10-26 2018-10-26 用于目标检测的深度卷积神经网络的压缩加速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811267286.4A CN111105007B (zh) 2018-10-26 2018-10-26 用于目标检测的深度卷积神经网络的压缩加速方法

Publications (2)

Publication Number Publication Date
CN111105007A true CN111105007A (zh) 2020-05-05
CN111105007B CN111105007B (zh) 2024-04-12

Family

ID=70420200

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811267286.4A Active CN111105007B (zh) 2018-10-26 2018-10-26 用于目标检测的深度卷积神经网络的压缩加速方法

Country Status (1)

Country Link
CN (1) CN111105007B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112001495A (zh) * 2020-08-26 2020-11-27 展讯通信(上海)有限公司 神经网络的优化方法、系统、设备及可读存储介质
CN112288084A (zh) * 2020-10-23 2021-01-29 武汉大学 一种基于特征图通道重要性程度的深度学习目标检测网络压缩方法
CN112352249A (zh) * 2020-07-01 2021-02-09 北京大学深圳研究生院 基于压缩感知的神经网络模型压缩方法、设备及存储介质
CN113762452A (zh) * 2020-06-04 2021-12-07 合肥君正科技有限公司 一种量化prelu激活函数的方法
CN113762496A (zh) * 2020-06-04 2021-12-07 合肥君正科技有限公司 一种降低低比特卷积神经网络推理运算复杂度的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919942A (zh) * 2017-01-18 2017-07-04 华南理工大学 用于手写汉字识别的深度卷积神经网络的加速压缩方法
US20180107925A1 (en) * 2016-10-19 2018-04-19 Samsung Electronics Co., Ltd. Method and apparatus for neural network quantization
CN108319988A (zh) * 2017-01-18 2018-07-24 华南理工大学 一种用于手写汉字识别的深度神经网络的加速方法
US20180247180A1 (en) * 2015-08-21 2018-08-30 Institute Of Automation, Chinese Academy Of Sciences Deep convolutional neural network acceleration and compression method based on parameter quantification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180247180A1 (en) * 2015-08-21 2018-08-30 Institute Of Automation, Chinese Academy Of Sciences Deep convolutional neural network acceleration and compression method based on parameter quantification
US20180107925A1 (en) * 2016-10-19 2018-04-19 Samsung Electronics Co., Ltd. Method and apparatus for neural network quantization
CN106919942A (zh) * 2017-01-18 2017-07-04 华南理工大学 用于手写汉字识别的深度卷积神经网络的加速压缩方法
CN108319988A (zh) * 2017-01-18 2018-07-24 华南理工大学 一种用于手写汉字识别的深度神经网络的加速方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NITISH SRIVASTAVA ET AL.: ""Dropout: a simple way to prevent neural networks from overfitting"", 《THE JOURNAL OF MACHINE LEARNING RESEARCH》, vol. 15, no. 1, 1 January 2014 (2014-01-01) *
蔡瑞初等: ""面向"边缘"应用的卷积神经网络量化与压缩方法"", 《计算机应用》, vol. 38, no. 9, pages 2450 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762452A (zh) * 2020-06-04 2021-12-07 合肥君正科技有限公司 一种量化prelu激活函数的方法
CN113762496A (zh) * 2020-06-04 2021-12-07 合肥君正科技有限公司 一种降低低比特卷积神经网络推理运算复杂度的方法
CN113762452B (zh) * 2020-06-04 2024-01-02 合肥君正科技有限公司 一种量化prelu激活函数的方法
CN113762496B (zh) * 2020-06-04 2024-05-03 合肥君正科技有限公司 一种降低低比特卷积神经网络推理运算复杂度的方法
CN112352249A (zh) * 2020-07-01 2021-02-09 北京大学深圳研究生院 基于压缩感知的神经网络模型压缩方法、设备及存储介质
WO2022000373A1 (zh) * 2020-07-01 2022-01-06 北京大学深圳研究生院 基于压缩感知的神经网络模型压缩方法、设备及存储介质
CN112001495A (zh) * 2020-08-26 2020-11-27 展讯通信(上海)有限公司 神经网络的优化方法、系统、设备及可读存储介质
CN112001495B (zh) * 2020-08-26 2022-11-22 展讯通信(上海)有限公司 神经网络的优化方法、系统、设备及可读存储介质
CN112288084A (zh) * 2020-10-23 2021-01-29 武汉大学 一种基于特征图通道重要性程度的深度学习目标检测网络压缩方法

Also Published As

Publication number Publication date
CN111105007B (zh) 2024-04-12

Similar Documents

Publication Publication Date Title
CN111105007A (zh) 用于目标检测的深度卷积神经网络的压缩加速方法
CN107395211B (zh) 一种基于卷积神经网络模型的数据处理方法及装置
CN110991608B (zh) 一种卷积神经网络量化计算方法及系统
CN110780923A (zh) 应用于二值化卷积神经网络的硬件加速器及其数据处理方法
CN109978135B (zh) 基于量化的神经网络压缩方法及系统
CN113269312B (zh) 一种联合量化与剪枝搜索的模型压缩方法及其系统
CN113741858B (zh) 存内乘加计算方法、装置、芯片和计算设备
CN111368988B (zh) 一种利用稀疏性的深度学习训练硬件加速器
CN103929210A (zh) 一种基于遗传算法与神经网络的硬判决译码方法
CN111814973A (zh) 一种适用于神经常微分方程网络计算的存内计算系统
CN113283473B (zh) 一种基于cnn特征映射剪枝的快速水下目标识别方法
CN111814448B (zh) 预训练语言模型量化方法和装置
CN108268950B (zh) 基于矢量量化的迭代式神经网络量化方法及系统
CN110837890A (zh) 一种面向轻量级卷积神经网络的权值数值定点量化方法
CN111382860A (zh) 一种lstm网络的压缩加速方法及fpga加速器
CN112257844A (zh) 一种基于混合精度配置的卷积神经网络加速器及其实现方法
CN114925823A (zh) 一种卷积神经网络压缩方法及边缘侧fpga加速器
Verma et al. A" Network Pruning Network''Approach to Deep Model Compression
US20210125063A1 (en) Apparatus and method for generating binary neural network
CN110569970B (zh) 一种应用于卷积神经网络中硬件加速器的数据传输方法
CN112613604A (zh) 神经网络的量化方法及装置
CN113487012B (zh) 一种面向fpga的深度卷积神经网络加速器及设计方法
CN115564043A (zh) 一种图像分类模型剪枝方法、装置、电子设备及存储介质
CN109212960B (zh) 基于权值敏感度的二值神经网络硬件压缩方法
CN115640833A (zh) 一种面向稀疏卷积神经网络的加速器及加速方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant