CN111105007B - 用于目标检测的深度卷积神经网络的压缩加速方法 - Google Patents
用于目标检测的深度卷积神经网络的压缩加速方法 Download PDFInfo
- Publication number
- CN111105007B CN111105007B CN201811267286.4A CN201811267286A CN111105007B CN 111105007 B CN111105007 B CN 111105007B CN 201811267286 A CN201811267286 A CN 201811267286A CN 111105007 B CN111105007 B CN 111105007B
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- deep convolutional
- network
- quantization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 89
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 230000006835 compression Effects 0.000 title claims abstract description 23
- 238000007906 compression Methods 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000001133 acceleration Effects 0.000 title claims abstract description 12
- 238000013139 quantization Methods 0.000 claims abstract description 64
- 230000004913 activation Effects 0.000 claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000012360 testing method Methods 0.000 claims abstract description 21
- 239000011159 matrix material Substances 0.000 claims abstract description 8
- 238000007667 floating Methods 0.000 claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims abstract description 6
- 238000011176 pooling Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000011478 gradient descent method Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 238000007493 shaping process Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 abstract description 16
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000003213 activating effect Effects 0.000 abstract 1
- 230000008569 process Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种用于目标检测的深度卷积神经网络的压缩加速方法,包括:构建并训练一个用于目标检测的深度卷积神经网络;对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试该网络的检测性能损失情况,在设定的损失范围内选择最大的量化步长;利用该量化步长,确定神经网络中权重值与激活值的截断范围,对神经网络加以限制并训练网络;对深度卷积神经网络进行截断与量化,编写前向代码。本发明采用量化技术降低网络存储量,将网络中32位浮点数运算转化为8位整数运算,同时利用网络的稀疏性,将网络中满足稀疏性条件的层转化为稀疏矩阵运算,达到压缩加速深度卷积神经网络的目的。
Description
技术领域
本发明涉及深度学习和人工智能领域,尤其涉及用于目标检测的深度卷积神经网络的压缩加速方法。
背景技术
由于在信息检索、自动驾驶、机器人导航和增强现实等领域的广泛应用前景,目标检测一直是计算机视觉领域的一个重要研究方向,得到了学术界和工业界的广泛研究和关注。传统的目标检测系统主要采用一些人工设计的特征,如Haar特征和HoG特征等,利用支持向量机等分类器对图像进行滑窗分类来达到检测物体的效果。近年来,随着深度学习的兴起,卷积神经网络对目标检测带来极其有效的解决办法,基于深度卷积神经网络的方法取得的结果均大幅度领先传统的方法。
然而,由于卷积神经网络伴随着大量的存储量和计算量,例如经典的VGG16网络需要约520MB存储量和153亿次乘加运算,即便是现有的一些轻量级网络,仍然需要数十MB存储量和数百万次乘加运算,如此巨大的存储量和运算量限制了卷积神经网络的应用,尤其是移动设备和嵌入式设备中。
发明内容
(一)要解决的技术问题
有鉴于此,本发明的目的在于提供一种用于目标检测的深度卷积神经网络的压缩加速方法,其采用量化技术降低网络的存储量,将网络中32位浮点数运算转化为8位整数运算,同时利用网络稀疏性的特点,将网络中满足稀疏性条件的层转化为稀疏矩阵运算,以此达到压缩加速用于目标检测的深度卷积神经网络的目的。
(二)技术方案
本发明提出了一种用于目标检测的深度卷积神经网络的压缩加速方法,包括下列步骤:
步骤1:构建并训练出一个用于目标检测的深度卷积神经网络;
步骤2:对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试该深度卷积神经网络的检测性能损失情况,在设定的损失范围内,选择最大的量化步长;
步骤3:利用上述最大的量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值与激活值的截断范围,对深度卷积神经网络加以限制,并训练深度卷积神经网络;
步骤4:对该深度卷积神经网络进行截断与量化,并对量化后的深度卷积神经网络前向代码进行编写。
进一步地,步骤1包括:
步骤11:设计深度卷积神经网络的结构,设置卷积层和池化层的参数,除最后一个卷积层外,在每个卷积层与激活函数之间添加批量归一化层;
步骤12:将训练集的数据输入至深度卷积神经网络,采用随机梯度下降法对深度卷积神经网络进行训练,当深度卷积神经网络在测试集上的误差收敛时,终止训练,保存深度卷积神经网络各个层的参数。
进一步地,步骤11包括:激活函数采用ReLU。
进一步地,步骤2包括:
步骤21:对网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化,量化方式采用均匀量化,量化公式如下:
其中,x是量化前的浮点数,n是量化的位数,激活函数采取统一的量化步长,权重值的量化各层由前至后单独进行;
步骤22:选定合适的阈值,量化步长由小至大,即n值由大至小,测试网络的检测性能损失情况,在性能损失小于选定的阈值情况下,选择最大的量化步长。
进一步地,步骤3包括:
步骤31:利用步骤2中选定的激活值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中激活值的截断范围;
步骤32:利用步骤2中选定的各层权重值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值的截断范围;
步骤33:利用上述截断范围,对深度卷积神经网络的权重值和激活值范围加以限制,并训练深度卷积神经网络。
进一步地,步骤4包括:
步骤41:对深度卷积神经网络进行截断与量化,并将量化后的权重值进行Huffman编码,以节省存储空间;
步骤42:编写卷积层的前向代码;
步骤43:编写池化层的前向代码。
(三)有益效果
从上述技术方案可以看出,与现有技术相比,本发明具有如下有益效果:
1、量化后的网络存储有效降低8倍,原始网络权重大小为60.5MB,压缩编码后网络权重大小为7.6MB;
2、网络实际运行过程中消耗内存可有效降低四倍,同时网络中的32位浮点数乘法运算全部被转化为8位整数乘法运算,浮点数加法运算全部被转化为整数加法运算;
3、网络具有稀疏性,可有效利用网络稀疏性进一步节省计算量。
附图说明
图1是本发明用于目标检测的深度卷积神经网络的压缩加速方法流程图;
图2是本发明实施例所采取的深度卷积神经网络结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
请参见图1,本发明包括以下四个步骤:
步骤1:构建并训练出一个用于目标检测的深度卷积神经网络;
步骤2:对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试该深度卷积神经网络的检测性能损失情况,在设定的损失范围内,选择最大的量化步长;
步骤3:利用上述最大的量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值与激活值的截断范围,对深度卷积神经网络加以限制,并训练深度卷积神经网络,这里的训练以微调的形式实现,该微调为以较小的学习率训练深度卷积神经网络;
步骤4:对该深度卷积神经网络进行截断与量化,并对量化后的深度卷积神经网络前向代码进行编写。
结合实施例,以下分别对本发明的主要步骤进行详细说明。
步骤1:构建并训练出一个用于目标检测的深度卷积神经网络;
步骤11:设计深度卷积神经网络的结构,设置卷积层和池化层的参数,除最后一个卷积层外,在每个卷积层与激活函数之间添加批量归一化层。
在本发明一些实施例中,设计的深度卷积神经网络一共包括九个卷积层,除最后一层外,每个卷积层的卷积核大小均为3×3,卷积的步长设为1,卷积方式设为SAME,即在特征图周围补一圈0,保证特征图经过卷积层后大小不发生变化;除卷积层外,还包括五个最大池化层,其中池化核的大小为2×2,步长设置为2,经过池化之后特征图的宽高减半;另外,除最后一个卷积层外,所有的卷积层后均接有批量归一化层,以及采用ReLU作为激活函数。最后一层的卷积核大小为1×1,无需连接批量归一化层和激活层,其输出通道数目由需要检测的类别数目决定,假设需要检测的类别数目为n,则输出通道数目为5(n+5),实施例中需要检测的类别数目为10,则最后一层输出的通道数目为125。网络的整体结构请参见图2,表示为:
Input-16C3-MP2-32C3-MP2-64C3-MP2-128C3-MP2-256C3-MP2-512C3-1024C3-1024C3-5(n+5)C1,
其中,nCs代表卷积核大小为s×s,输出通道为n的卷积层,MP2代表池化核大小为2×2,步长为2的最大池化层。
步骤12:将训练集的数据输入至深度卷积神经网络,采用随机梯度下降法对深度卷积神经网络进行训练,当深度卷积神经网络在测试集上的误差收敛时,终止训练,保存深度卷积神经网络各个层的参数。
本发明一些实施例中,从训练集中选择一批图像数据,从(320,352,384,416,448,480,512,544,576,608,640)中随机挑取一个尺寸,将图像缩放至该尺寸大小,采用梯度下降法对深度卷积神经网络进行训练。重复上述过程,不断更新优化深度卷积神经网络的参数。在进行训练时,每迭代2000次,都会用此时的网络模型将测试集的数据进行测试,最后取测试时获得最高结果的模型作为网络的参数进行下一步。
步骤2:对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试该深度卷积神经网络的检测性能损失情况,在设定的损失范围内,选择最大的量化步长。
步骤21:对网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化,量化方式采用均匀量化,量化公式如下:
其中,x是量化前的浮点数,n是量化的位数,激活函数采取统一的量化步长,权重值的量化各层由前至后单独进行。
在本发明一些实施例中,采取的量化步长为2的负整数次幂,如2-10,2-9,2-8等,采用这样的量化步长能够保证量化后的网络能够采取整形数据运算。
步骤22:选择合适的阈值,量化步长由小至大,即n值由大至小,测试网络的检测性能损失情况,在性能损失小于选定的阈值情况下,选择最大的量化步长。
本发明一些实施例中,首先对除最后一个卷积层外的输出特征图进行量化,量化采取相同的步长,即采用相同的n值;让n值从16开始,逐次减1,测试网络的检测性能,直至网络性能下降超过选定的阈值;然后对卷积层的权重进行量化,量化过程同输出特征图量化方式一致,权重的量化是分层进行的,由前至后,为每一层选择不同的量化步长。值得注意的是,当对第k层进行量化时,输出特征图和前k-1层的权重均按已选定的步长进行量化。
步骤3:根据网络需要的压缩位数和步骤2中确定的量化步长,确定深度卷积神经网络中权重值和激活值的截断范围,对深度卷积神经网络加以限制,并训练深度卷积神经网络,这里的训练以微调的形式实现,该微调为以较小的学习率训练深度卷积神经网络,优选的,该微调为以不高于0.001大小的学习率训练深度卷积神经网络。
步骤31:利用步骤2中选定的激活值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中激活值的截断范围。
本发明一些实施例对网络激活值进行截断时,当步骤2中确定的最优n值为5即量化步长为1/32时,若网络采用8bit进行量化,则激活值的截断范围为[0,255/32],当网络激活值大于255/32时,强制将值指定为255/32。由于采用的激活函数为ReLU函数,所有的激活值均大于等于0,左端的截断无需考虑。
步骤32:利用步骤2中选定的各层权重值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值的截断范围。
本发明一些实施例对网络权重值进行截断时,当步骤2中确定的最优n值为8即量化步长为1/256时,若网络采用8bit进行量化,则权重值的截断范围为[-128/256,127/256],当网络权重值小于-128/256时,强制将值指定为-128/256,当网络权重值大于127/256时,强制将值指定为127/256。
步骤33:利用上述截断范围,对深度卷积神经网络的权重值和激活值范围加以限制,并训练深度卷积神经网络。
本发明一些实施例中,在网络前向过程中添加对激活值和权重值的截断限制,以较小的学习率重新训练网络,对网络进行微调直至网络收敛。
步骤4:对深度卷积神经网络进行截断与量化,并对量化后的深度卷积神经网络的前向代码进行编写。
步骤41:对深度卷积神经网络进行截断与量化,并将量化后的权重值进行Huffman编码,以节省存储空间。
步骤42:编写卷积层的前向代码。
本发明一些实施例中,针对卷积层来说,由于其存在大量的点乘操作,直接计算卷积速度很慢。在此,我们采用im2col算法,将卷积计算转换为矩阵乘法运算,能有效提高缓存利用率,同时减少循环层数,大幅减少计算时间。另外,由于采用relu函数作为卷积层的激活函数,卷积计算中的特征图是稀疏的,我们对各层特征图进行统计,若当前层特征图稀疏度大于特定阈值,采用稀疏矩阵与非稀疏矩阵的乘法进行计算。
步骤43:编写池化层的前向代码。
本发明一些实施例中,针对池化层,我们采用的是最大池化层,其计算简单,主要计算为在几个临近的值中找到最大值,直接采用循环展开的策略进行加速。
本发明一些实施例采用常用目标检测数据库VOC数据集进行训练与测试,初始深度卷积神经网络取得了mAP=0.6043的检测性能,采用本发明对网络进行压缩与量化后取得了mAP=0.5947,仅仅下降了0.0096。
至此,本发明用于目标检测的深度卷积神经网络的压缩加速方法介绍完毕。依据以上描述,本领域技术人员应当对本发明有了清楚的队识。
需要说明的是,在附图或说明书正文中,未描述的深度卷积神经网络基础单元,均为所属技术领域中普通技术人员所知的形式,并未进行详细说明。此外,上述对各元件和方法的定义并不仅限于实施例中提到的各种具体结构、形状或方式,本领域普通技术人员可对其进行简单地更改或替换。
还需要说明的是,本发明可提供包含特定值的参数的示范,但这些参数无需确切等于相应的值,而是可在可接受的误差容限或设计约束内近似于相应值。此外,除非特别描述或必须依序发生的步骤,上述步骤的顺序并无限制于以上所列,且可根据所需设计而变化或重新安排。并且上述实施例可基于设计及可靠度的考虑,彼此混合搭配使用或与其他实施例混合搭配使用,即不同实施例中的技术特征可以自由组合形成更多的实施例。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种用于目标检测的深度卷积神经网络的压缩加速方法,包括如下步骤:
步骤1:构建并训练出一个用于目标检测的深度卷积神经网络,所述步骤1包括:
步骤11:设计所述深度卷积神经网络的结构,设置卷积层和池化层的参数,除最后一个卷积层外,在每个卷积层与激活函数之间添加批量归一化层;
步骤12:将训练集的数据输入至所述深度卷积神经网络,采用随机梯度下降法对深度卷积神经网络进行训练,当深度卷积神经网络在测试集上的误差收敛时,终止训练,保存深度卷积神经网络各个层的参数,包括:从训练集中选择一批图像数据,将图像缩放至预设尺寸大小,采用梯度下降法对所述深度卷积神经网络进行训练;
步骤2:对深度卷积神经网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化测试,量化步长由小至大,测试所述深度卷积神经网络的检测性能损失情况,在设定的损失范围内,选择最大的量化步长,包括:
步骤21:对网络中所有的权重值和除最后一层外的各层经激活函数后的激活值进行量化,量化方式采用均匀量化,量化公式如下:
其中,x是量化前的浮点数,n是量化的位数,激活函数采取统一的量化步长,权重值的量化各层由前至后单独进行,其中,采取的量化步长为2的负整数次幂,使得量化后的网络采取整形数据运算;
步骤22:选定合适的阈值,量化步长由小至大,即n值由大至小,测试网络的检测性能损失情况,在性能损失小于选定的阈值情况下,选择最大的量化步长;
步骤3:利用所述最大的量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值与激活值的截断范围,对所述深度卷积神经网络加以限制,并训练深度卷积神经网络;
步骤4:对所述深度卷积神经网络进行截断与量化,并对量化后的深度卷积神经网络前向代码进行编写,所述步骤4包括:
步骤41:对所述深度卷积神经网络进行截断与量化,并将量化后的权重值进行Huffman编码,以节省存储空间;
步骤42:编写卷积层的前向代码,包括:采用im2col算法,将卷积计算转换为矩阵乘法运算,以及对各层特征图进行统计,若当前层特征图的稀疏度大于特定阈值,采用稀疏矩阵与非稀疏矩阵的乘法进行计算。
2.根据权利要求1所述的用于目标检测的深度卷积神经网络的压缩加速方法,其特征在于,所述步骤11包括:所述激活函数采用ReLU。
3.根据权利要求1所述的用于目标检测的深度卷积神经网络的压缩加速方法,其特征在于,所述步骤3包括:
步骤31:利用步骤2中选定的激活值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中激活值的截断范围;
步骤32:利用步骤2中选定的各层权重值量化步长,根据网络需要的压缩位数,确定深度卷积神经网络中权重值的截断范围;
步骤33:利用上述截断范围,对所述深度卷积神经网络的权重值和激活值范围加以限制,并训练深度卷积神经网络。
4.根据权利要求1所述的用于目标检测的深度卷积神经网络的压缩加速方法,其特征在于,所述步骤4还包括:
步骤43:编写池化层的前向代码。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811267286.4A CN111105007B (zh) | 2018-10-26 | 2018-10-26 | 用于目标检测的深度卷积神经网络的压缩加速方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811267286.4A CN111105007B (zh) | 2018-10-26 | 2018-10-26 | 用于目标检测的深度卷积神经网络的压缩加速方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111105007A CN111105007A (zh) | 2020-05-05 |
CN111105007B true CN111105007B (zh) | 2024-04-12 |
Family
ID=70420200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811267286.4A Active CN111105007B (zh) | 2018-10-26 | 2018-10-26 | 用于目标检测的深度卷积神经网络的压缩加速方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111105007B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113762452B (zh) * | 2020-06-04 | 2024-01-02 | 合肥君正科技有限公司 | 一种量化prelu激活函数的方法 |
CN113762496B (zh) * | 2020-06-04 | 2024-05-03 | 合肥君正科技有限公司 | 一种降低低比特卷积神经网络推理运算复杂度的方法 |
WO2022000373A1 (zh) * | 2020-07-01 | 2022-01-06 | 北京大学深圳研究生院 | 基于压缩感知的神经网络模型压缩方法、设备及存储介质 |
CN112001495B (zh) * | 2020-08-26 | 2022-11-22 | 展讯通信(上海)有限公司 | 神经网络的优化方法、系统、设备及可读存储介质 |
CN112288084B (zh) * | 2020-10-23 | 2022-09-02 | 武汉大学 | 基于特征图通道重要性的深度学习目标检测网络压缩方法 |
CN118468945A (zh) * | 2023-02-08 | 2024-08-09 | 华为技术有限公司 | 编解码网络模型的量化方法和相关装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106919942A (zh) * | 2017-01-18 | 2017-07-04 | 华南理工大学 | 用于手写汉字识别的深度卷积神经网络的加速压缩方法 |
CN108319988A (zh) * | 2017-01-18 | 2018-07-24 | 华南理工大学 | 一种用于手写汉字识别的深度神经网络的加速方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017031630A1 (zh) * | 2015-08-21 | 2017-03-02 | 中国科学院自动化研究所 | 基于参数量化的深度卷积神经网络的加速与压缩方法 |
US11321609B2 (en) * | 2016-10-19 | 2022-05-03 | Samsung Electronics Co., Ltd | Method and apparatus for neural network quantization |
-
2018
- 2018-10-26 CN CN201811267286.4A patent/CN111105007B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106919942A (zh) * | 2017-01-18 | 2017-07-04 | 华南理工大学 | 用于手写汉字识别的深度卷积神经网络的加速压缩方法 |
CN108319988A (zh) * | 2017-01-18 | 2018-07-24 | 华南理工大学 | 一种用于手写汉字识别的深度神经网络的加速方法 |
Non-Patent Citations (2)
Title |
---|
"Dropout: a simple way to prevent neural networks from overfitting";Nitish Srivastava et al.;《The Journal of Machine Learning Research》;20140101;第15卷(第1期);全文 * |
"面向"边缘"应用的卷积神经网络量化与压缩方法";蔡瑞初等;《计算机应用》;第38卷(第9期);第2450- 2453页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111105007A (zh) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111105007B (zh) | 用于目标检测的深度卷积神经网络的压缩加速方法 | |
CN109002889B (zh) | 自适应迭代式卷积神经网络模型压缩方法 | |
CN108229681A (zh) | 一种神经网络模型压缩方法、系统、装置及可读存储介质 | |
CN107395211B (zh) | 一种基于卷积神经网络模型的数据处理方法及装置 | |
CN106658003B (zh) | 一种基于字典学习的图像压缩系统的量化方法 | |
CN111667068A (zh) | 一种基于掩码的深度图卷积神经网络模型剪枝方法与系统 | |
CN114970853B (zh) | 一种跨范围量化的卷积神经网络压缩方法 | |
CN110780923A (zh) | 应用于二值化卷积神经网络的硬件加速器及其数据处理方法 | |
CN112488231B (zh) | 一种具有平衡相似性的余弦度量监督深度哈希算法 | |
CN108268950B (zh) | 基于矢量量化的迭代式神经网络量化方法及系统 | |
CN110837890A (zh) | 一种面向轻量级卷积神经网络的权值数值定点量化方法 | |
CN108197707A (zh) | 基于全局误差重建的卷积神经网络的压缩方法 | |
CN111626404A (zh) | 基于生成对抗神经网络的深度网络模型压缩训练方法 | |
US20230072432A1 (en) | Apparatus and method for accelerating deep neural network learning for deep reinforcement learning | |
CN112861996A (zh) | 深度神经网络模型压缩方法及装置、电子设备、存储介质 | |
CN113177580A (zh) | 基于通道重要性剪枝与二值量化的图像分类系统 | |
CN110569970B (zh) | 一种应用于卷积神经网络中硬件加速器的数据传输方法 | |
KR102541461B1 (ko) | 저전력 고성능 인공 신경망 학습 가속기 및 가속 방법 | |
CN113902097A (zh) | 针对稀疏化cnn神经网络模型的游程编码加速器及方法 | |
CN110633787A (zh) | 基于多比特神经网络非线性量化的深度神经网络压缩方法 | |
CN112613604A (zh) | 神经网络的量化方法及装置 | |
CN112115837A (zh) | 一种基于YoloV3和双阈值模型压缩的目标检测方法 | |
CN114372565B (zh) | 一种用于边缘设备的目标检测网络压缩方法 | |
Li et al. | Towards communication-efficient digital twin via AI-powered transmission and reconstruction | |
CN112906887B (zh) | 稀疏gru神经网络加速的实现方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |