CN105184362A - 基于参数量化的深度卷积神经网络的加速与压缩方法 - Google Patents

基于参数量化的深度卷积神经网络的加速与压缩方法 Download PDF

Info

Publication number
CN105184362A
CN105184362A CN201510518900.XA CN201510518900A CN105184362A CN 105184362 A CN105184362 A CN 105184362A CN 201510518900 A CN201510518900 A CN 201510518900A CN 105184362 A CN105184362 A CN 105184362A
Authority
CN
China
Prior art keywords
sub
neural network
codebooks
convolutional neural
vectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510518900.XA
Other languages
English (en)
Other versions
CN105184362B (zh
Inventor
程健
吴家祥
冷聪
卢汉清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201510518900.XA priority Critical patent/CN105184362B/zh
Publication of CN105184362A publication Critical patent/CN105184362A/zh
Application granted granted Critical
Publication of CN105184362B publication Critical patent/CN105184362B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明提供的基于参数量化的深度卷积神经网络的加速与压缩方法,包括:对深度卷积神经网络的参数进行量化得到多个子码本和多个子码本分别对应的索引值;根据多个子码本和多个子码本分别对应的索引值获取所述深度卷积神经网络的输出的特征图。本发明可以实现深度卷积神经网络的加速与压缩。

Description

基于参数量化的深度卷积神经网络的加速与压缩方法
技术领域
本发明涉及图像处理技术,特别是涉及一种基于参数量化的深度卷积神经网络的加速与压缩方法。
背景技术
近几年来,深度卷积神经网络在计算机视觉、语音处理、机器学习等众多领域取得了巨大的突破,显著地提高了机器算法在图像分类、目标检测和语音识别等多个任务中的性能,并且在互联网、视频监控等行业中得到了广泛应用。
深度卷积神经网络的训练过程,是基于大规模的含有人工标注信息的数据集,对网络参数进行学习与调整。一般而言,大容量、高复杂度的深度卷积网络可以更全面地对数据进行学习,从而取得更好的性能指标。但是,随着网络层数与参数数量的增加,运算和存储代价都会大幅增长,因此目前来说,卷积神经网络的训练与测试大多只能在高性能的计算集群上进行。
另一方面,移动互联网技术在近年取得了长足进步,在实际生活中的应用也越来越广泛。在移动互联网的应用场景下,用户所使用的设备,例如手机或者平板电脑,其运算与存储能力都十分有限。虽然深度卷积神经网络可以在计算集群上进行训练,但是在移动平台应用场景下,网络模型的测试过程仍需要在移动设备上进行,这就提出了两个挑战:如何降低卷积神经网络的测试用时,以及如何压缩网络模型的存储开销。
针对卷积神经网络的加速与压缩问题,已有一些有效的算法被提出。这些算法是将网络中的某一层分解为复杂度较低的若干层的组合,以达到降低运算或者存储代价的目的。然而,这些算法并没有同时考虑卷积神经网络的加速和压缩,并且只在网络的少数几层上进行了测试,对于整个网络模型的加速或压缩效果还有待研究。
发明内容
本发明提供的基于参数量化的深度卷积神经网络的加速与压缩方法,可以实现深度卷积神经网络的加速与压缩。
根据本发明的一方面,提供一种基于参数量化的深度卷积神经网络的加速与压缩方法,包括:对深度卷积神经网络的参数进行量化得到多个子码本和所述多个子码本分别对应的索引值;根据所述多个子码本和所述多个子码本分别对应的索引值获取所述深度卷积神经网络的输出的特征图。
本发明实施例提供的基于参数量化的深度卷积神经网络的加速与压缩方法,通过对深度卷积神经网络的参数进行量化得到多个子码本和多个子码本分别对应的索引值,根据多个子码本和多个子码本分别对应的索引值获取深度卷积神经网络的输出的特征图,从而可以实现深度卷积神经网络的加速与压缩。
附图说明
图1为本发明实施例提供的基于参数量化的深度卷积神经网络的加速与压缩方法流程图;
图2为本发明实施例提供的深度卷积神经网络的图像分类过程示意图;
图3为本发明实施例提供的全连接层的参数量化过程示意图;
图4为本发明实施例提供的全连接层的高效运行过程示意图。
具体实施方式
下面结合附图对本发明实施例提供的基于参数量化的深度卷积神经网络的加速与压缩方法进行详细描述。
图1为本发明实施例提供的基于参数量化的深度卷积神经网络的加速与压缩方法流程图。
参照图1,在步骤S101,对深度卷积神经网络的参数进行量化得到多个子码本和所述多个子码本分别对应的索引值。
在步骤S102,根据所述多个子码本和所述多个子码本分别对应的索引值获取所述深度卷积神经网络的输出的特征图。
这里,深度卷积神经网络包括多个卷积层或多个全连接层,将多个卷积层的参数或多个全连接层的参数进行量化,并根据量化后的多个卷积层或多个全连接层获取各自对应的输出的特征图,具体可参照图2。
进一步地,所述深度卷积神经网络为多个卷积层,所述对深度卷积神经网络的参数进行量化得到多个子码本和所述多个子码本分别对应的索引值包括,重复执行以下处理,直至多个卷积层都被遍历:
将所述卷积层的参数分割成M组,每组包括多个第一参数子向量,其中,M为正整数;
对所述每组的多个第一参数子向量分别进行K均值聚类得到所述每组对应的第一子码本,所述第一子码本包括多个第一码字;
分别计算所述多个第一参数子向量与所述多个第一码字的欧氏距离;
获取所述欧氏距离最小的第一参数子向量和第一码字,并记录所述欧氏距离最小的第一码字的索引值。
这里,卷积层的参数可以是,但不限于,具体为Wk×Hk×Cs×Ct的四阶数组,其中Wk是卷积核的宽度,Hk是卷积核的高度,Cs是输入的第一特征图的通道数,Ct是输出的第一特征图的通道数。将Cs所在维度均匀地分为M组,每组的维度为[Cs/M](若维度不足,则在最后一组中补零),这样就可以将卷积层的参数分为M组,每组包含Wk×Hk×Ct个第一参数子向量。
对每组的Wk×Hk×Ct个第一参数子向量分别进行K均值聚类得到每组对应的第一子码本,其中,K为正整数,K为第一子码本中的第一码字的数量。
进一步地,所述深度卷积神经网络为多个全连接层,所述对深度卷积神经网络的参数进行量化得到多个子码本和所述多个子码本分别对应的索引值包括,重复执行以下处理,直至多个全连接层都被遍历:
将所述全连接层的参数分割成M组,每组包括多个第二参数子向量;
对所述多个第二参数子向量分别进行K均值聚类得到所述每组对应的第二子码本,所述第二子码本包括多个第二码字;
分别计算所述多个第二参数子向量与所述多个第二码字的欧氏距离;
获取所述欧氏距离最小的第二参数子向量和第二码字,并记录所述欧氏距离最小的第二码字的索引值。
这里,全连接层参数可以是,但不限于,具体为Ct×Cs的矩阵,其中Cs是输入层的节点数,Ct是输出层的节点数。将Cs所在维度均匀地分为M组,每段的维度为[Cs/M](若维度不足,则在最后一段中补零),这样就可以将全连接层的参数分为M组,每组包含Ct个第二参数子向量。
在划分完的M组第二参数子向量中,分别进行K均值聚类获取每组对应的第二子码本,其中,K为正整数,K为第二子码本中的第二码字的数量。
进一步地,所述深度卷积神经网络为所述多个卷积层,所述根据所述多个子码本和所述多个子码本分别对应的索引值获取所述深度卷积神经网络的输出的特征图包括,重复执行以下处理,直至所述多个卷积层都被遍历:
输入第一特征图;
将所述第一特征图分割为M组,所述每组包括多个第一特征子向量;
将所述多个第一特征子向量分别与所述每组对应的第一子码本中的多个第一码字进行内积运算得到多个第一运算结果,并将所述多个第一运算结果存储在第一查找表中;
将所述多个第一运算结果进行求和得到输出的第一特征图。
这里,输入第一特征图,第一特征图可以是,但不限于,具体为Ws×Hs×Cs的三阶数组,其中,Ws是输入特征图的宽度,Hs是输入特征图的高度。将Cs所在维度均匀地分为M组,每组的维度为[Cs/M](若维度不足,则在最后一段中补零),这样就可以将卷积层中的第一特征图分为M组,每组包含Ws×Hs个第一特征子向量。
对于卷积层,输出的第一特征图中的某一节点的响应值,是输入第一特征图中对应空间区域内的各个位置上所有节点的响应值构成的向量,与对应的卷积核中各个位置上所有连接权重构成的向量的内积之和,由公式(1)可知:
G ( c t , w t , h t ) = &Sigma; w k , h k < v e c ( W c t , w k , h k ) , v e c ( F w s , h s ) > - - - ( 1 )
其中,G是输出的第一特征图,G(ct,wt,ht)为其中第Ct个第一特征图上空间位置为(wt,ht)的节点,W为卷积核,wk,hk为该卷积核中的第Ct个卷积核,对应输出的第一特征图G中的第Ct个第一特征图中空间位置为(wk,hk)的参数向量,F是输入的第一特征图,hs表示其中的空间位置为(ws,hs)的特征向量。
这些内积可以拆分为多个子向量的内积之和,即将多个第一特征子向量分别与每组对应的第一子码本中的多个第一码字进行内积运算得到多个第一运算结果,将所述多个第一运算结果进行求和得到输出的第一特征图,具体由公式(2)可知:并将多个第一运算结果存储在第一查找表中,第一查找表的大小为Ws×Hs×M×K。
G ( c t , w t , h t ) = &Sigma; w k , h k , m < v e c ( W c t , w k , h k ( m ) ) , v e c ( F w s , h s ( m ) ) > &ap; &Sigma; w k , h k , m < v e c ( C ( m ) ( k c t , w k , h k ( m ) ) ) , v e c ( F w s , h s ( m ) ) > - - - ( 2 )
其中,为第一参数子向量中的第m个子向量,为第一特征子向量中的第m个子向量;C(m)为第m个第一子码本,为第一参数子向量的量化索引值,为对第一参数子向量进行量化时所用的第一码字。
进一步地,所述深度卷积神经网络为所述多个全连接层,所述根据所述多个子码本和所述多个子码本分别对应的索引值获取所述深度卷积神经网络的输出的特征图包括,重复执行以下处理,直至多个全连接层都被遍历:
输入第二特征图;
将所述第二特征图分割为M组,所述每组包括第二特征子向量;
将所述第二特征子向量与所述每组对应的第二子码本中的多个第二码字进行内积运算得到多个第二运算结果,并将所述多个第二运算结果存储在第二查找表中;
将所述多个第二运算结果进行求和得到输出的第二特征图。
这里,输入第二特征图,第二特征图可以是,但不限于,具体为Cs×1的列向量。将Cs所在维度均匀地分为M组,每段的维度为[Cs/M](若维度不足,则在最后一段中补零),这样就可以将全连接层中的第二特征图分为M组,每组包含1个第二特征子向量。
在划分完的M组特征子向量中,分别计算每个特征子向量与对应子码本中所有码字的内积,保存在一个查找表中。对于全连接层,该查找表的大小为M×K。
对于全连接层,第二特征图中的某一节点的响应值是第二特征图中所有节点的响应值构成的向量,与对应的连接权向量的内积,具体由公式(3)可知:
G ( c t ) = < v e c ( W c t ) , v e c ( F ) > - - - ( 3 )
其中,G为输出的第二特征图,G(ct)为第ct个节点,W为连接权矩阵,为该矩阵中的第ct行(对应输出特征图中的第ct个节点),即第二参数子向量,F为第二特征图,即特征向量。
这个内积可以拆分为多个子向量的内积之和,即将所述第二特征子向量与所述每组对应的第二子码本中的多个第二码字进行内积运算得到多个第二运算结果,并将所述多个第二运算结果存储在第二查找表中;将所述多个第二运算结果进行求和得到输出的第二特征图,具体由公式(4)可知:
G ( c t ) = &Sigma; m < v e c ( W c t ( m ) ) , v e c ( F ( m ) ) > &ap; &Sigma; m < v e c ( c m ( k c t m ) ) , v e c ( F ( m ) ) > - - - ( 4 )
其中,为第二参数子向量中的第m个第二参数子向量,F(m)为第二特征子向量F中的第m个第二特征子向量,cm为第m个第二子码本,为第二参数子向量的量化索引值,为对第二参数子向量进行量化时所用的第二码字。
对于卷积层和全连接层,近似后的计算过程都可按照参数子向量的量化索引值,直接从查找表中获得对应的内积值,而不需要重复计算内积,因此可以显著地降低运算开销,提高运行速度。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (5)

1.一种基于参数量化的深度卷积神经网络的加速与压缩方法,其特征在于,所述方法包括:
对深度卷积神经网络的参数进行量化得到多个子码本和所述多个子码本分别对应的索引值;
根据所述多个子码本和所述多个子码本分别对应的索引值获取所述深度卷积神经网络的输出的特征图。
2.根据权利要求1所述的方法,其特征在于,所述深度卷积神经网络为多个卷积层,所述对深度卷积神经网络的参数进行量化得到多个子码本和所述多个子码本分别对应的索引值包括,重复执行以下处理,直至所述多个卷积层都被遍历:
将所述卷积层的参数分割成M组,每组包括多个第一参数子向量,其中,M为正整数;
对所述每组的多个第一参数子向量分别进行K均值聚类得到所述每组对应的第一子码本,所述第一子码本包括多个第一码字;
分别计算所述多个第一参数子向量与所述多个第一码字的欧氏距离;
获取所述欧氏距离最小的第一参数子向量和第一码字,并记录所述欧氏距离最小的第一码字的索引值。
3.根据权利要求2所述的方法,其特征在于,所述深度卷积神经网络为多个全连接层,所述对深度卷积神经网络的参数进行量化得到多个子码本和所述多个子码本分别对应的索引值包括,重复执行以下处理,直至所述多个全连接层都被遍历:
将所述全连接层的参数分割成M组,每组包括多个第二参数子向量;
对所述多个第二参数子向量分别进行K均值聚类得到所述每组对应的第二子码本,所述第二子码本包括多个第二码字;
分别计算所述多个第二参数子向量与所述多个第二码字的欧氏距离;
获取所述欧氏距离最小的第二参数子向量和第二码字,并记录所述欧氏距离最小的第二码字的索引值。
4.根据权利要求3所述的方法,其特征在于,所述深度卷积神经网络为所述多个卷积层,所述根据所述多个子码本和所述多个子码本分别对应的索引值获取所述深度卷积神经网络的输出的特征图包括,重复执行以下处理,直至所述多个卷积层都被遍历:
输入第一特征图;
将所述第一特征图分割为M组,所述每组包括多个第一特征子向量;
将所述多个第一特征子向量分别与所述每组对应的第一子码本中的多个第一码字进行内积运算得到多个第一运算结果,并将所述多个第一运算结果存储在第一查找表中;
将所述多个第一运算结果进行求和得到输出的第一特征图。
5.根据权利要求4所述的方法,其特征在于,所述深度卷积神经网络为所述多个全连接层,所述根据所述多个子码本和所述多个子码本分别对应的索引值获取所述深度卷积神经网络的输出的特征图包括,重复执行以下处理,直至所述多个全连接层都被遍历:
输入第二特征图;
将所述第二特征图分割为M组,所述每组包括第二特征子向量;
将所述第二特征子向量与所述每组对应的第二子码本中的多个第二码字进行内积运算得到多个第二运算结果,并将所述多个第二运算结果存储在第二查找表中;
将所述多个第二运算结果进行求和得到输出的第二特征图。
CN201510518900.XA 2015-08-21 2015-08-21 基于参数量化的深度卷积神经网络的加速与压缩方法 Active CN105184362B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510518900.XA CN105184362B (zh) 2015-08-21 2015-08-21 基于参数量化的深度卷积神经网络的加速与压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510518900.XA CN105184362B (zh) 2015-08-21 2015-08-21 基于参数量化的深度卷积神经网络的加速与压缩方法

Publications (2)

Publication Number Publication Date
CN105184362A true CN105184362A (zh) 2015-12-23
CN105184362B CN105184362B (zh) 2018-02-02

Family

ID=54906425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510518900.XA Active CN105184362B (zh) 2015-08-21 2015-08-21 基于参数量化的深度卷积神经网络的加速与压缩方法

Country Status (1)

Country Link
CN (1) CN105184362B (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127297A (zh) * 2016-06-02 2016-11-16 中国科学院自动化研究所 基于张量分解的深度卷积神经网络的加速与压缩方法
WO2017031630A1 (zh) * 2015-08-21 2017-03-02 中国科学院自动化研究所 基于参数量化的深度卷积神经网络的加速与压缩方法
CN106485316A (zh) * 2016-10-31 2017-03-08 北京百度网讯科技有限公司 神经网络模型压缩方法以及装置
CN106897734A (zh) * 2017-01-12 2017-06-27 南京大学 基于深度卷积神经网络的层内非均匀的k平均聚类定点量化方法
WO2017198168A3 (en) * 2016-05-17 2017-12-21 Huawei Technologies Co., Ltd. Reduction of parameters in fully connected layers of neural networks by low rank factorizations
CN107679617A (zh) * 2016-08-22 2018-02-09 北京深鉴科技有限公司 多次迭代的深度神经网络压缩方法
JP2018055260A (ja) * 2016-09-27 2018-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN107909583A (zh) * 2017-11-08 2018-04-13 维沃移动通信有限公司 一种图像处理方法、装置及终端
WO2018121670A1 (zh) * 2016-12-30 2018-07-05 上海寒武纪信息科技有限公司 压缩/解压缩的装置和系统、芯片、电子装置
CN108268950A (zh) * 2018-01-16 2018-07-10 上海交通大学 基于矢量量化的迭代式神经网络量化方法及系统
CN108415888A (zh) * 2018-02-12 2018-08-17 苏州思必驰信息科技有限公司 用于神经网络语言模型的压缩方法和系统
CN108764458A (zh) * 2018-05-15 2018-11-06 武汉环宇智行科技有限公司 一种非均匀量化的模型压缩方法及系统
CN108846478A (zh) * 2018-06-29 2018-11-20 北京百度网讯科技有限公司 深度神经网络计算加速的方法和装置
WO2019041833A1 (zh) * 2017-08-29 2019-03-07 中国科学院计算技术研究所 一种用于深度神经网络的压缩装置
CN109697508A (zh) * 2017-10-23 2019-04-30 北京深鉴智能科技有限公司 利用非均匀量化和查找表加速神经网络计算的方法和系统
CN109993298A (zh) * 2017-12-29 2019-07-09 百度在线网络技术(北京)有限公司 用于压缩神经网络的方法和装置
WO2019196223A1 (zh) * 2018-04-08 2019-10-17 清华大学 一种应用于卷积神经网络的加速方法和加速器
CN110363279A (zh) * 2018-03-26 2019-10-22 华为技术有限公司 基于卷积神经网络模型的图像处理方法和装置
CN110728361A (zh) * 2019-10-15 2020-01-24 四川虹微技术有限公司 一种基于强化学习的深度神经网络压缩方法
CN110880038A (zh) * 2019-11-29 2020-03-13 中国科学院自动化研究所 基于fpga的加速卷积计算的系统、卷积神经网络
US10600208B2 (en) 2017-12-21 2020-03-24 Industrial Technology Research Institute Object detecting device, object detecting method and non-transitory computer-readable medium
CN110998607A (zh) * 2017-08-08 2020-04-10 三星电子株式会社 用于神经网络的系统和方法
CN111291871A (zh) * 2018-12-10 2020-06-16 中科寒武纪科技股份有限公司 一种计算装置及相关产品
WO2020133364A1 (zh) * 2018-12-29 2020-07-02 华为技术有限公司 一种神经网络压缩方法及装置
CN111582432A (zh) * 2019-02-19 2020-08-25 北京嘉楠捷思信息技术有限公司 一种网络参数处理方法及装置
CN109523016B (zh) * 2018-11-21 2020-09-01 济南大学 面向嵌入式系统的多值量化深度神经网络压缩方法及系统
CN111667046A (zh) * 2019-03-08 2020-09-15 富泰华工业(深圳)有限公司 深度学习加速方法及用户终端
CN112418388A (zh) * 2019-08-23 2021-02-26 中兴通讯股份有限公司 一种实现深度卷积神经网络处理的方法及装置
TWI745697B (zh) * 2019-05-24 2021-11-11 創鑫智慧股份有限公司 用於神經網路參數的運算系統及其壓縮方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020007269A1 (en) * 1998-08-24 2002-01-17 Yang Gao Codebook structure and search for speech coding
CN104036323A (zh) * 2014-06-26 2014-09-10 叶茂 一种基于卷积神经网络的车辆检测方法
CN104077613A (zh) * 2014-07-16 2014-10-01 电子科技大学 一种基于级联多级卷积神经网络的人群密度估计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020007269A1 (en) * 1998-08-24 2002-01-17 Yang Gao Codebook structure and search for speech coding
CN104036323A (zh) * 2014-06-26 2014-09-10 叶茂 一种基于卷积神经网络的车辆检测方法
CN104077613A (zh) * 2014-07-16 2014-10-01 电子科技大学 一种基于级联多级卷积神经网络的人群密度估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘光杰等: "矢量量化压缩图像中的安全隐写方法", 《控制与决策》 *
方亦凯等: "基于快速尺度空间特征检测的手势识别方法", 《中国图像图形学报》 *

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10970617B2 (en) 2015-08-21 2021-04-06 Institute Of Automation Chinese Academy Of Sciences Deep convolutional neural network acceleration and compression method based on parameter quantification
WO2017031630A1 (zh) * 2015-08-21 2017-03-02 中国科学院自动化研究所 基于参数量化的深度卷积神经网络的加速与压缩方法
WO2017198168A3 (en) * 2016-05-17 2017-12-21 Huawei Technologies Co., Ltd. Reduction of parameters in fully connected layers of neural networks by low rank factorizations
US10896366B2 (en) 2016-05-17 2021-01-19 Huawei Technologies Co., Ltd. Reduction of parameters in fully connected layers of neural networks by low rank factorizations
CN106127297B (zh) * 2016-06-02 2019-07-12 中国科学院自动化研究所 基于张量分解的深度卷积神经网络的加速与压缩方法
CN106127297A (zh) * 2016-06-02 2016-11-16 中国科学院自动化研究所 基于张量分解的深度卷积神经网络的加速与压缩方法
CN107679617A (zh) * 2016-08-22 2018-02-09 北京深鉴科技有限公司 多次迭代的深度神经网络压缩方法
CN107679617B (zh) * 2016-08-22 2021-04-09 赛灵思电子科技(北京)有限公司 多次迭代的深度神经网络压缩方法
US11720786B2 (en) 2016-09-27 2023-08-08 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP2018055260A (ja) * 2016-09-27 2018-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN106485316B (zh) * 2016-10-31 2019-04-02 北京百度网讯科技有限公司 神经网络模型压缩方法以及装置
CN106485316A (zh) * 2016-10-31 2017-03-08 北京百度网讯科技有限公司 神经网络模型压缩方法以及装置
CN108271026A (zh) * 2016-12-30 2018-07-10 上海寒武纪信息科技有限公司 压缩/解压缩的装置和系统、芯片、电子装置
WO2018121670A1 (zh) * 2016-12-30 2018-07-05 上海寒武纪信息科技有限公司 压缩/解压缩的装置和系统、芯片、电子装置
US10462476B1 (en) 2016-12-30 2019-10-29 Shanghai Cambricon Information Technology Co., Ltd. Devices for compression/decompression, system, chip, and electronic device
US10834415B2 (en) 2016-12-30 2020-11-10 Cambricon Technologies Corporation Limited Devices for compression/decompression, system, chip, and electronic device
CN108271026B (zh) * 2016-12-30 2020-03-31 上海寒武纪信息科技有限公司 压缩/解压缩的装置和系统、芯片、电子装置、方法
CN106897734A (zh) * 2017-01-12 2017-06-27 南京大学 基于深度卷积神经网络的层内非均匀的k平均聚类定点量化方法
CN110998607B (zh) * 2017-08-08 2024-03-08 三星电子株式会社 用于神经网络的系统和方法
CN110998607A (zh) * 2017-08-08 2020-04-10 三星电子株式会社 用于神经网络的系统和方法
WO2019041833A1 (zh) * 2017-08-29 2019-03-07 中国科学院计算技术研究所 一种用于深度神经网络的压缩装置
CN109697508A (zh) * 2017-10-23 2019-04-30 北京深鉴智能科技有限公司 利用非均匀量化和查找表加速神经网络计算的方法和系统
WO2019080483A1 (zh) * 2017-10-23 2019-05-02 北京深鉴智能科技有限公司 利用非均匀量化和查找表加速神经网络计算的方法和系统
CN107909583A (zh) * 2017-11-08 2018-04-13 维沃移动通信有限公司 一种图像处理方法、装置及终端
US10600208B2 (en) 2017-12-21 2020-03-24 Industrial Technology Research Institute Object detecting device, object detecting method and non-transitory computer-readable medium
CN109993298B (zh) * 2017-12-29 2023-08-08 百度在线网络技术(北京)有限公司 用于压缩神经网络的方法和装置
CN109993298A (zh) * 2017-12-29 2019-07-09 百度在线网络技术(北京)有限公司 用于压缩神经网络的方法和装置
CN108268950B (zh) * 2018-01-16 2020-11-10 上海交通大学 基于矢量量化的迭代式神经网络量化方法及系统
CN108268950A (zh) * 2018-01-16 2018-07-10 上海交通大学 基于矢量量化的迭代式神经网络量化方法及系统
CN108415888A (zh) * 2018-02-12 2018-08-17 苏州思必驰信息科技有限公司 用于神经网络语言模型的压缩方法和系统
CN110363279B (zh) * 2018-03-26 2021-09-21 华为技术有限公司 基于卷积神经网络模型的图像处理方法和装置
CN110363279A (zh) * 2018-03-26 2019-10-22 华为技术有限公司 基于卷积神经网络模型的图像处理方法和装置
WO2019196223A1 (zh) * 2018-04-08 2019-10-17 清华大学 一种应用于卷积神经网络的加速方法和加速器
CN108764458B (zh) * 2018-05-15 2021-03-02 武汉环宇智行科技有限公司 一种减少移动设备存储空间消耗以及计算量的方法及系统
CN108764458A (zh) * 2018-05-15 2018-11-06 武汉环宇智行科技有限公司 一种非均匀量化的模型压缩方法及系统
CN108846478B (zh) * 2018-06-29 2021-01-29 北京百度网讯科技有限公司 深度神经网络计算加速的方法和装置
CN108846478A (zh) * 2018-06-29 2018-11-20 北京百度网讯科技有限公司 深度神经网络计算加速的方法和装置
CN109523016B (zh) * 2018-11-21 2020-09-01 济南大学 面向嵌入式系统的多值量化深度神经网络压缩方法及系统
CN111291871B (zh) * 2018-12-10 2024-08-23 中科寒武纪科技股份有限公司 一种计算装置及相关产品
CN111291871A (zh) * 2018-12-10 2020-06-16 中科寒武纪科技股份有限公司 一种计算装置及相关产品
WO2020133364A1 (zh) * 2018-12-29 2020-07-02 华为技术有限公司 一种神经网络压缩方法及装置
CN111582432B (zh) * 2019-02-19 2023-09-12 嘉楠明芯(北京)科技有限公司 一种网络参数处理方法及装置
CN111582432A (zh) * 2019-02-19 2020-08-25 北京嘉楠捷思信息技术有限公司 一种网络参数处理方法及装置
CN111667046A (zh) * 2019-03-08 2020-09-15 富泰华工业(深圳)有限公司 深度学习加速方法及用户终端
TWI745697B (zh) * 2019-05-24 2021-11-11 創鑫智慧股份有限公司 用於神經網路參數的運算系統及其壓縮方法
CN112418388A (zh) * 2019-08-23 2021-02-26 中兴通讯股份有限公司 一种实现深度卷积神经网络处理的方法及装置
CN110728361A (zh) * 2019-10-15 2020-01-24 四川虹微技术有限公司 一种基于强化学习的深度神经网络压缩方法
CN110728361B (zh) * 2019-10-15 2022-05-13 四川虹微技术有限公司 一种基于强化学习的深度神经网络压缩方法
CN110880038A (zh) * 2019-11-29 2020-03-13 中国科学院自动化研究所 基于fpga的加速卷积计算的系统、卷积神经网络
CN110880038B (zh) * 2019-11-29 2022-07-01 中国科学院自动化研究所 基于fpga的加速卷积计算的系统、卷积神经网络

Also Published As

Publication number Publication date
CN105184362B (zh) 2018-02-02

Similar Documents

Publication Publication Date Title
CN105184362B (zh) 基于参数量化的深度卷积神经网络的加速与压缩方法
WO2017031630A1 (zh) 基于参数量化的深度卷积神经网络的加速与压缩方法
US20200302276A1 (en) Artificial intelligence semiconductor chip having weights of variable compression ratio
EP3591583A1 (en) Neural network method and apparatus
Cheng et al. Quantized CNN: A unified approach to accelerate and compress convolutional networks
US11481613B2 (en) Execution method, execution device, learning method, learning device, and recording medium for deep neural network
KR102562320B1 (ko) 비트 연산 기반의 뉴럴 네트워크 처리 방법 및 장치
WO2022006919A1 (zh) 基于激活定点拟合的卷积神经网络训练后量化方法及系统
WO2020014590A1 (en) Generating a compressed representation of a neural network with proficient inference speed and power consumption
CN110263913A (zh) 一种深度神经网络压缩方法及相关设备
US20200125947A1 (en) Method and apparatus for quantizing parameters of neural network
CN106777318A (zh) 基于协同训练的矩阵分解跨模态哈希检索方法
CN110807529A (zh) 一种机器学习模型的训练方法、装置、设备及存储介质
CN116976428A (zh) 模型训练方法、装置、设备及存储介质
EP3924896A1 (en) Apparatus and a method for neural network compression
CN114332500A (zh) 图像处理模型训练方法、装置、计算机设备和存储介质
CN104392207A (zh) 一种用于数字图像内容识别的特征编码方法
CN114071141A (zh) 一种图像处理方法及其设备
US20230394312A1 (en) Pruning activations and weights of neural networks with programmable thresholds
US20230410465A1 (en) Real time salient object detection in images and videos
CN106503648A (zh) 基于稀疏投影二值编码的人脸识别方法及装置
CN111368976B (zh) 基于神经网络特征识别的数据压缩方法
Seo et al. Hybrid approach for efficient quantization of weights in convolutional neural networks
CN114677545A (zh) 一种基于相似性剪枝和高效模块的轻量化图像分类方法
CN113869337A (zh) 图像识别模型的训练方法及装置、图像识别方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant