CN112883982B - 一种面向神经网络稀疏特征的数据去零编码及封装方法 - Google Patents
一种面向神经网络稀疏特征的数据去零编码及封装方法 Download PDFInfo
- Publication number
- CN112883982B CN112883982B CN202110024406.3A CN202110024406A CN112883982B CN 112883982 B CN112883982 B CN 112883982B CN 202110024406 A CN202110024406 A CN 202110024406A CN 112883982 B CN112883982 B CN 112883982B
- Authority
- CN
- China
- Prior art keywords
- data
- zero
- maskinfo
- mask
- transmission unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Neurology (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种面向神经网络稀疏特征的数据去零编码及封装方法,首先定义数据存储传输单元,再将数据存储传输单元划分为若干个数据去零单元,根据数据去零单元中的非零和零数据,形成数据去零单元的掩码信息,再将掩码信息与非零数据组成结构体,完成第一级编码;再按照数据传输位宽对结构体进行封装;对封装后的数据定义MaskLoc和MaskEff,组成maskinfo,完成第二级编码;再按照数据传输位宽对maskinfo进行第三级编码和封装;本发明可以保留去零时神经网络计算输出特征图与DDR存储结构之间的映射关系,能够提升计算速度,并且减少实际需要的译码资源,降低实际的系统功耗。
Description
技术领域
本发明属于信息处理技术领域,具体涉及一种数据去零编码及封装方法。
背景技术
受到神经网络结构模型的影响,在计算中存在大量的激活操作,目前最常见的激活函数为RELU函数,而通过RELU函数激活后的输出数据中有着伴随着大量的零值的稀疏化特征。传统的卷积神经网路加速器在计算过程中往往会伴随着高达40%的零值分布情况,零值的分布在神经网络计算过程中十分普遍。
神经网络加速器的带宽限制是制约其高效完成计算任务的瓶颈,计算过程往往伴随着大量的数据,这些数据直接进行传输会消耗大量的传输时间。但是由于这些数据中的稀疏化特征,直接传输原始数据时接口传输了大量的无效零值,对于提升计算的性能是十分不利的。
在神经网络加速器中,由于硬件模型操作造成的这种大量的零值,在计算和数据传输过程中会耗费大量的计算资源和传输带宽处理这些零值的问题。这种零值的问题极大制约了神经网络加速器性能的提升,造成资源尤其是传输带宽的极大浪费。
深度卷积神经网络模型具有模型深度高、层次复杂、数据量级大、并行度高、计算密集和存储密集等特征,所以计算结果的数据维度比较高,加上神经网络中可能存在的频繁的输出维度变化操作,本身索引方式就相对比较复杂。数据存储在DDR中的存储只具有一维的线性存储关系,而计算结果在输出特征图上的存储结构则为三维结构,这样不去零时由于计算结果的数据总量是固定的,所以此时仍然存在从DDR一维结构到输出特征图的三维结构上的位置映射。这种情况在去零过程中更加的明显,由于对数据进行去零处理后,有效数据总量不再固定,去零数据进行去零后会失去数据总量固定性的特征,直接进行去零编码会使数据丧失其存储在DDR上的位置到三维输出特征图结构上相应的位置的映射,这样在译码过程中对于数据的译码必须从第一个数据开始进行,造成译码逻辑较为复杂。
嵌入式系统在要求更高的计算并行度时这种问题将会更加严重。当嵌入式平台并行度要求比较高时,采取去零的方式时,如果数据没有保留相应的位置信息,会造成数据译码时由于需要对去零后的数据进行串行译码而严重制约并行度的提升。串行解码需要硬件按照数据存储的顺序将数据依次进行解码,即后面的译码结果会与前面的译码过程有着很重要的依赖关系。在这种关系上,无法进行高并行的额的译码和计算,造成计算并行度的浪费。
发明内容
为了克服现有技术的不足,本发明提供了一种面向神经网络稀疏特征的数据去零编码及封装方法,首先定义数据存储传输单元,再将数据存储传输单元划分为若干个数据去零单元,根据数据去零单元中的非零和零数据,形成数据去零单元的掩码信息,再将掩码信息与非零数据组成结构体,完成第一级编码;再按照数据传输位宽对结构体进行封装;对封装后的数据定义MaskLoc和MaskEff,组成maskinfo,完成第二级编码;再按照数据传输位宽对maskinfo进行第三级编码和封装;本发明可以保留去零时神经网络计算输出特征图与DDR存储结构之间的映射关系,能够提升计算速度,并且减少实际需要的译码资源,降低实际的系统功耗。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:神经网络加速器的输出特征图具有三维结构;将输出特征图三维结构中的任意两个维度定义为数据的二维位置信息,二维位置信息之外第三个维度表示的通道数为C;设定原始二进制数据位宽为N,N=2n,n=1,2,3……;C=p*N,p=1,2,3…;
定义数据存储传输单元:任意一个数据存储传输单元中包含C个原始数据,同一个数据存储传输单元中的C个原始数据的二维位置信息相同,且这C个原始数据分布在第三个维度的C个通道上,每个通道一个原始数据;
步骤2:将数据存储传输单元划分为连续的p个数据去零单元,数据去零单元中的数据个数为N;
步骤3:将数据存储传输单元的第一个数据去零单元中的非零值数据标记为1,零值数据标记为0,由连续N个标记形成一个位宽为N的二进制数据,记为掩码信息Mask1;将掩码信息Mask1和数据去零单元中的非零值数据组成结构体MaskData1,结构体MaskData1中掩码信息Mask1排第一位,数据去零单元中的非零值数据按照在数据去零单元中顺序依次排列在掩码信息Mask1后面;
步骤4:将数据存储传输单元的其余数据去零单元按照步骤3的方法进行处理,得到p个结构体MaskData,将这p个结构体MaskData按照数据去零单元在数据存储传输单元中的顺序依次排列,记为总结构体pMaskData;完成第一级编码;
步骤5:设定神经网络加速器的数据传输位宽为M,M=2m,m=1,2,3……,m>n,m/n=q;将总结构体pMaskData按每M位划分为一组,最后一组不足M位的部分补零,补够M位,完成对总结构体pMaskData的封装;
步骤6:对总结构体pMaskData的第一组,将表示掩码信息Mask的N位数据记为1,将表示非掩码信息Mask的N位数据记为0,形成一个位宽为q的二进制数,记为位置掩码信息MaskLoc1;将q用二进制表示,记为MaskEff1;由MaskLoc1和MaskEff1组成maskinfo_1,maskinfo_1为位宽为2q的二进制数;
步骤7:对总结构体pMaskData中除第一组和最后一组之外的其余组,按照步骤6的方法得到其余组对应的maskinfo,依次定义为maskinfo_2,maskinfo_3,…;对于最后一组,位置掩码信息MaskLoc的生成方法与步骤6相同,统计最后一组中掩码信息Mask和非零值数据的数量,用二进制表示为MaskEff,最后一组的MaskLoc和MaskEff组成最后一组的maskinfo;由maskinfo_1,maskinfo_2,maskinfo_3,…,最后一组的maskinfo顺序排列构成pmaskinfo;完成第二级编码;
步骤8:将pmaskinfo按每M位划分为一组,完成第三级编码;
最后一组不足M位的部分用16bit的FF00补充,补够M位,完成对pmaskinfo的封装;
步骤9:改变二维位置信息,形成新的数据存储传输单元,按照步骤2到步骤8的方法对新的数据存储传输单元进行编码和封装;
步骤10:遍历所有的二维位置信息,完成对所有数据存储传输单元的编码和封装;各个数据存储传输单元相互独立。
本发明的有益效果如下:
(1)本发明有利于完成在较少硬件资源下数据的灵活调度与计算,提升整体硬件系统灵活性;
(2)本发明可以在神经网络硬件加速过程中尽可能提升数据传输效果,最大程度上提升计算性能;
(3)本发明有助于对神经网络计算的数据高效编码方案提供基础,并且可以通过一定方式进行扩展,实现更高效的量化稀疏计算模式。
附图说明
图1为本发明方法整体流程图。
图2为本发明方法表示的输出数据稀疏特征。
图3为本发明方法数据在输出特征图上的三维位置特征。
图4为本发明方法数据存储在DDR上的一维线性特征。
图5为本发明方法为解决去零索引困难问题对数据进行分组去零的示意图。
图6为本发明方法根据像素点位置进行分组后各个部分的划分及其需要进行的操作。
图7为本发明方法三级编码及封装示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明能在神经网络加速器进行前向推导时降低网络计算数据中分布的大量零值造成的计算及带宽资源的浪费,并且使数据在去零后仍然保持数据所具有的三维位置特征信息。
如图1所示,本发明提供一种面向神经网络稀疏特征的数据去零编码及封装方法,包括以下步骤:
步骤1:神经网络加速器的输出特征图具有三维结构;将输出特征图三维结构中的任意两个维度定义为数据的二维位置信息,二维位置信息之外第三个维度表示的通道数为C;设定原始二进制数据位宽为N,N=2n,n=1,2,3……;C=p*N,p=1,2,3…;
定义数据存储传输单元:任意一个数据存储传输单元中包含C个原始数据,同一个数据存储传输单元中的C个原始数据的二维位置信息相同,且这C个原始数据分布在第三个维度的C个通道上,每个通道一个原始数据;
步骤2:将数据存储传输单元划分为连续的p个数据去零单元,数据去零单元中的数据个数为N;
步骤3:将数据存储传输单元的第一个数据去零单元中的非零值数据标记为1,零值数据标记为0,由连续N个标记形成一个位宽为N的二进制数据,记为掩码信息Mask1;将掩码信息Mask1和数据去零单元中的非零值数据组成结构体MaskData1,结构体MaskData1中掩码信息Mask1排第一位,数据去零单元中的非零值数据按照在数据去零单元中顺序依次排列在掩码信息Mask1后面;
步骤4:将数据存储传输单元的其余数据去零单元按照步骤3的方法进行处理,得到p个结构体MaskData,将这p个结构体MaskData按照数据去零单元在数据存储传输单元中的顺序依次排列,记为总结构体pMaskData;完成第一级编码;
步骤5:设定神经网络加速器的数据传输位宽为M,M=2m,m=1,2,3……,m>n,m/n=q;将总结构体pMaskData按每M位划分为一组,最后一组不足M位的部分补零,补够M位,完成对总结构体pMaskData的封装;
步骤6:对总结构体pMaskData的第一组,将表示掩码信息Mask的N位数据记为1,将表示非掩码信息Mask的N位数据记为0,形成一个位宽为q的二进制数,记为位置掩码信息MaskLoc1;将q用二进制表示,记为MaskEff1;由MaskLoc1和MaskEff1组成maskinfo_1,maskinfo_1为位宽为2q的二进制数;
步骤7:对总结构体pMaskData中除第一组和最后一组之外的其余组,按照步骤6的方法得到其余组对应的maskinfo,依次定义为maskinfo_2,maskinfo_3,…;对于最后一组,位置掩码信息MaskLoc的生成方法与步骤6相同,统计最后一组中掩码信息Mask和非零值数据的数量,用二进制表示为MaskEff,最后一组的MaskLoc和MaskEff组成最后一组的maskinfo;由maskinfo_1,maskinfo_2,maskinfo_3,…,最后一组的maskinfo顺序排列构成pmaskinfo;完成第二级编码;
步骤8:将pmaskinfo按每M位划分为一组,完成第三级编码;
最后一组不足M位的部分用16bit的FF00补充,补够M位,完成对pmaskinfo的封装;
步骤9:改变二维位置信息,形成新的数据存储传输单元,按照步骤2到步骤8的方法对新的数据存储传输单元进行编码和封装;
步骤10:遍历所有的二维位置信息,完成对所有数据存储传输单元的编码和封装;各个数据存储传输单元相互独立。
具体实施例:
如图2到图7所示,本实施例去零编码操作依赖于对于原始数据的三级去零编码,以数据位宽为16b,传输接口位宽为128b,神经网络计算输出通道并行度为32为例,此时的输出原始数据32个通道上同一个像素点位置的信息,数据划分的结构应当尽可能保留数据的位置信息,所以为了能够保留去零后数据的三维位置信息,则对于存储传输单元的划分为32个数据一个单元。此时不考虑发生输出通道优化的情况下,假设某一个时刻接收到的原始数据如图7的Data所示,数据共有32个,其中包含着大量的零值信息,此时第一级的去零时先根据数据的位宽以16为单位将此32个数据分为两组,此为两个去零分组单元,两个单元之间的去零操作相互独立,由图7所示,前16个数据根据其位置上是否为有效值会得到16个标志位,此16个标志位按照顺序进行组合则得到第一组原始数据的去零掩码信息Msak1,此时第一级的编码则将第一组数据按照先Mask后去零有效数据的方式重新进行编码。
本实施例在第一个去零分组单元完成去零编码后,由于此时的存储传输单元中没有将该单元内的所有32个数据完全进行处理,所以在对该存储传输单元的第二个去零分组单元(图2中的后16个数据)的去零操作是独立的,但是编码操作要在第一个去零分组编码结果基础上进行,如图7所示,第二个去零分组单元产生了一个用标记有效数据位置的Mask2和若干个去零有效数据,将他们按照先Mask后去零数据的顺序编码后需要严格编码在第一个去零分组单元的编码结构之后。
此时图7中的该存储传输的数据已经完全去零编码完成,所以进行该存储传输模块的封装,在编码完成后的数据之后补充无效的零值使其能够满128b的位宽要求,此时第一级的去零编码已经完成。
本实施例为了进一步保留去零过程中的相关信息则会对去零数据继续进行第二级编码,通过记录MaskData中的Mask的位置可以得到8个Mask标记位(MaskLoc)。此时通过将这些标记位按照顺序进行排列则可以得到8位(128/16)的Mask位置信息,此时再扩展另外的8位(记MaskEff)用来记录当前所传输的MaskData的有效的数据量,此时每个传输的MaskData数据都有一个8bit的MaskLoc与一个同样8bit的askEff与其相互对应。第二级的编码则将按照先askEff后MaskLoc的顺序编码成完整的MaskInfo信息(16bit),然后将同一个数据存储传输单元的所有MaskInfo编码到同一个数据结构中。
在去零数据的第二级编码完成后,需要将整个存储传输单元的所有MaskInfo信息进行第三级的编码,按照数据发送的顺序(先传输的mask_data数据对应的MaskInfo信息置于高位)将MaskInfo按照传输接口带宽的128bit进行编码,当前存储传输单元的所有MaskInfo编码完成后,必须进行MaskInfo信息的封装,保证MaskInfo信息与MaskData信息有着相同的封装分离程度。如图7所示,用16bit的FF00来补充不足128的整数倍的问题。
在对编码完成的数据进行译码使用时,由于前面的编码已经实现了不同位置之间数据的完全分离,此时当并行译码实现在不同位置(即在不同数据存储传输单元)之间时,则可以直接独立的去处理不同的数据存储传输单元即可。当并行译码需要进一步深入到同一个位置的数据时,MaskInfo可以方便让译码过程方便的各个去零分组单元完全分离并分别进行并行译码。根据MaskInfo中MaskLoc的位置判断出Mask的位置信息,则可以直接对应到相应的去零分组单元的位置。
Claims (1)
1.一种面向神经网络稀疏特征的数据去零编码及封装方法,其特征在于,包括以下步骤:
步骤1:神经网络加速器的输出特征图具有三维结构;将输出特征图三维结构中的任意两个维度定义为数据的二维位置信息,二维位置信息之外第三个维度表示的通道数为C;设定原始二进制数据位宽为N,N=2n,n=1,2,3……;C=p*N,p=1,2,3…;
定义数据存储传输单元:任意一个数据存储传输单元中包含C个原始数据,同一个数据存储传输单元中的C个原始数据的二维位置信息相同,且这C个原始数据分布在第三个维度的C个通道上,每个通道一个原始数据;
步骤2:将数据存储传输单元划分为连续的p个数据去零单元,数据去零单元中的数据个数为N;
步骤3:将数据存储传输单元的第一个数据去零单元中的非零值数据标记为1,零值数据标记为0,由连续N个标记形成一个位宽为N的二进制数据,记为掩码信息Mask1;将掩码信息Mask1和数据去零单元中的非零值数据组成结构体MaskData1,结构体MaskData1中掩码信息Mask1排第一位,数据去零单元中的非零值数据按照在数据去零单元中顺序依次排列在掩码信息Mask1后面;
步骤4:将数据存储传输单元的其余数据去零单元按照步骤3的方法进行处理,得到p个结构体MaskData,将这p个结构体MaskData按照数据去零单元在数据存储传输单元中的顺序依次排列,记为总结构体pMaskData;完成第一级编码;
步骤5:设定神经网络加速器的数据传输位宽为M,M=2m,m=1,2,3……,m>n,m/n=q;将总结构体pMaskData按每M位划分为一组,最后一组不足M位的部分补零,补够M位,完成对总结构体pMaskData的封装;
步骤6:对总结构体pMaskData的第一组,将表示掩码信息Mask的N位数据记为1,将表示非掩码信息Mask的N位数据记为0,形成一个位宽为q的二进制数,记为位置掩码信息MaskLoc1;将q用二进制表示,记为MaskEff1;由MaskLoc1和MaskEff1组成maskinfo_1,maskinfo_1为位宽为2q的二进制数;
步骤7:对总结构体pMaskData中除第一组和最后一组之外的其余组,按照步骤6的方法得到其余组对应的maskinfo,依次定义为maskinfo_2,maskinfo_3,…;对于最后一组,位置掩码信息MaskLoc的生成方法与步骤6相同,统计最后一组中掩码信息Mask和非零值数据的数量,用二进制表示为MaskEff,最后一组的MaskLoc和MaskEff组成最后一组的maskinfo;由maskinfo_1,maskinfo_2,maskinfo_3,…,最后一组的maskinfo顺序排列构成pmaskinfo;完成第二级编码;
步骤8:将pmaskinfo按每M位划分为一组,完成第三级编码;
最后一组不足M位的部分用16bit的FF00补充,补够M位,完成对pmaskinfo的封装;
步骤9:改变二维位置信息,形成新的数据存储传输单元,按照步骤2到步骤8的方法对新的数据存储传输单元进行编码和封装;
步骤10:遍历所有的二维位置信息,完成对所有数据存储传输单元的编码和封装;各个数据存储传输单元相互独立。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110024406.3A CN112883982B (zh) | 2021-01-08 | 2021-01-08 | 一种面向神经网络稀疏特征的数据去零编码及封装方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110024406.3A CN112883982B (zh) | 2021-01-08 | 2021-01-08 | 一种面向神经网络稀疏特征的数据去零编码及封装方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112883982A CN112883982A (zh) | 2021-06-01 |
CN112883982B true CN112883982B (zh) | 2023-04-18 |
Family
ID=76047363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110024406.3A Active CN112883982B (zh) | 2021-01-08 | 2021-01-08 | 一种面向神经网络稀疏特征的数据去零编码及封装方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112883982B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114465826B (zh) * | 2022-04-11 | 2022-07-15 | 深圳市天兴诚科技有限公司 | 编码技术的数据加密方法、系统及储存介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239825A (zh) * | 2016-08-22 | 2017-10-10 | 北京深鉴智能科技有限公司 | 考虑负载均衡的深度神经网络压缩方法 |
CN107688850A (zh) * | 2017-08-08 | 2018-02-13 | 北京深鉴科技有限公司 | 一种深度神经网络压缩方法 |
CN109492754A (zh) * | 2018-11-06 | 2019-03-19 | 深圳市友杰智新科技有限公司 | 一种基于深度神经网络模型压缩和加速方法 |
CN109543815A (zh) * | 2018-10-17 | 2019-03-29 | 清华大学 | 神经网络的加速方法及装置 |
CN109859281A (zh) * | 2019-01-25 | 2019-06-07 | 杭州国芯科技股份有限公司 | 一种稀疏神经网络的压缩编码方法 |
CN110322001A (zh) * | 2018-03-29 | 2019-10-11 | 联发科技股份有限公司 | 深度学习加速器及加快深度学习操作的方法 |
CN110334803A (zh) * | 2019-07-18 | 2019-10-15 | 南京风兴科技有限公司 | 基于稀疏化Winograd算法的卷积计算方法和卷积神经网络加速器 |
CN110399972A (zh) * | 2019-07-22 | 2019-11-01 | 上海商汤智能科技有限公司 | 数据处理方法、装置及电子设备 |
CN110969241A (zh) * | 2019-11-20 | 2020-04-07 | 江苏中云智慧数据科技有限公司 | 一种深度卷积神经网络模型的压缩方法 |
CN111340225A (zh) * | 2020-02-28 | 2020-06-26 | 中云智慧(北京)科技有限公司 | 一种基于深度卷积神经网络模型压缩和加速方法 |
CN111768458A (zh) * | 2020-06-28 | 2020-10-13 | 苏州鸿鹄骐骥电子科技有限公司 | 一种基于卷积神经网络的稀疏图像处理方法 |
CN111787323A (zh) * | 2020-05-23 | 2020-10-16 | 清华大学 | 一种基于对抗学习的可变比特率生成式压缩方法 |
CN111884658A (zh) * | 2020-07-09 | 2020-11-03 | 上海兆芯集成电路有限公司 | 数据解压缩方法、数据压缩方法及卷积运算装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10997496B2 (en) * | 2016-08-11 | 2021-05-04 | Nvidia Corporation | Sparse convolutional neural network accelerator |
US11645529B2 (en) * | 2018-05-01 | 2023-05-09 | Hewlett Packard Enterprise Development Lp | Sparsifying neural network models |
US10713544B2 (en) * | 2018-09-14 | 2020-07-14 | International Business Machines Corporation | Identification and/or verification by a consensus network using sparse parametric representations of biometric images |
-
2021
- 2021-01-08 CN CN202110024406.3A patent/CN112883982B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107689224A (zh) * | 2016-08-22 | 2018-02-13 | 北京深鉴科技有限公司 | 合理使用掩码的深度神经网络压缩方法 |
CN107239825A (zh) * | 2016-08-22 | 2017-10-10 | 北京深鉴智能科技有限公司 | 考虑负载均衡的深度神经网络压缩方法 |
CN107688850A (zh) * | 2017-08-08 | 2018-02-13 | 北京深鉴科技有限公司 | 一种深度神经网络压缩方法 |
CN110322001A (zh) * | 2018-03-29 | 2019-10-11 | 联发科技股份有限公司 | 深度学习加速器及加快深度学习操作的方法 |
CN109543815A (zh) * | 2018-10-17 | 2019-03-29 | 清华大学 | 神经网络的加速方法及装置 |
CN109492754A (zh) * | 2018-11-06 | 2019-03-19 | 深圳市友杰智新科技有限公司 | 一种基于深度神经网络模型压缩和加速方法 |
CN109859281A (zh) * | 2019-01-25 | 2019-06-07 | 杭州国芯科技股份有限公司 | 一种稀疏神经网络的压缩编码方法 |
CN110334803A (zh) * | 2019-07-18 | 2019-10-15 | 南京风兴科技有限公司 | 基于稀疏化Winograd算法的卷积计算方法和卷积神经网络加速器 |
CN110399972A (zh) * | 2019-07-22 | 2019-11-01 | 上海商汤智能科技有限公司 | 数据处理方法、装置及电子设备 |
CN110969241A (zh) * | 2019-11-20 | 2020-04-07 | 江苏中云智慧数据科技有限公司 | 一种深度卷积神经网络模型的压缩方法 |
CN111340225A (zh) * | 2020-02-28 | 2020-06-26 | 中云智慧(北京)科技有限公司 | 一种基于深度卷积神经网络模型压缩和加速方法 |
CN111787323A (zh) * | 2020-05-23 | 2020-10-16 | 清华大学 | 一种基于对抗学习的可变比特率生成式压缩方法 |
CN111768458A (zh) * | 2020-06-28 | 2020-10-13 | 苏州鸿鹄骐骥电子科技有限公司 | 一种基于卷积神经网络的稀疏图像处理方法 |
CN111884658A (zh) * | 2020-07-09 | 2020-11-03 | 上海兆芯集成电路有限公司 | 数据解压缩方法、数据压缩方法及卷积运算装置 |
Non-Patent Citations (4)
Title |
---|
Network pruning using sparse learning and genetic algorithm;Zhenyu Wang等;《Neurocomputing》;20200930;第404卷;247-256 * |
Sparse low rank factorization for deep neural network compression;Sridhar Swaminathan等;《Neurocomputing》;20200731;第398卷;185-196 * |
基于权重剪枝的神经网络模型压缩方法的研究及应用;钟鲁豪;《中国优秀硕士学位论文全文数据库 信息科技辑》;20200715;第2020年卷(第7期);I140-97 * |
基于量化卷积神经网络的模型压缩方法研究;郝立扬;《中国优秀硕士学位论文全文数据库 信息科技辑》;20200715;第2020年卷(第7期);I138-1277 * |
Also Published As
Publication number | Publication date |
---|---|
CN112883982A (zh) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021109696A1 (zh) | 数据压缩、解压缩以及基于数据压缩和解压缩的处理方法及装置 | |
US9348860B2 (en) | Method for encoding a mesh model, encoded mesh model and method for decoding a mesh model | |
US11184615B2 (en) | Image coding method and apparatus and image decoding method and apparatus | |
CN102970043B (zh) | 一种基于gzip的压缩硬件系统及其加速方法 | |
CN100517979C (zh) | 一种数据压缩及解压缩方法 | |
CN101902228B (zh) | 快速循环冗余校验编码方法及装置 | |
CN112883982B (zh) | 一种面向神经网络稀疏特征的数据去零编码及封装方法 | |
CN100414841C (zh) | 一种ldpc编码的实现方法 | |
CN101986584A (zh) | 一种3gpp lte中的解速率匹配装置和方法 | |
CN114697654B (zh) | 一种神经网络量化压缩方法及系统 | |
CN116016606A (zh) | 一种基于智慧云的污水处理运维数据高效管理系统 | |
CN114169528A (zh) | 一种延长量子纠缠寿命的方法 | |
CN111327905B (zh) | 基于fpga实现相似图像压缩的预处理方法及系统 | |
CN101764621A (zh) | 星载(8176,7156)ldpc编译码器中实现缩短码与子码兼容的方法 | |
CN115103031B (zh) | 一种多级量化以及自适应调整方法 | |
CN116737716A (zh) | 时序数据压缩方法及装置 | |
CN202931290U (zh) | 一种基于gzip的压缩硬件系统 | |
CN106059592B (zh) | 一种应用于片上网络的低功耗联合的编解码电路及其编解码方法 | |
CN113300829B (zh) | Sm3算法的硬件实现装置 | |
CN111211793B (zh) | 一种基于汉明码并行tpc编码方法 | |
CN111427857B (zh) | 一种基于分区参照技术的fpga配置文件压缩解压方法 | |
CN102571107A (zh) | LTE系统中高速并行Turbo码的解码系统及方法 | |
CN103152567A (zh) | 一种任意阶数指数哥伦布编码器及其方法 | |
CN108566210A (zh) | 兼容IEEE802.11n标准的LDPC编码系统及方法、LDPC编码器 | |
CN102684710A (zh) | 基于SSE的咬尾卷积码Viterbi译码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |