CN112288046A - 一种用于神经网络的基于混合粒度的联合稀疏方法 - Google Patents
一种用于神经网络的基于混合粒度的联合稀疏方法 Download PDFInfo
- Publication number
- CN112288046A CN112288046A CN202011553635.6A CN202011553635A CN112288046A CN 112288046 A CN112288046 A CN 112288046A CN 202011553635 A CN202011553635 A CN 202011553635A CN 112288046 A CN112288046 A CN 112288046A
- Authority
- CN
- China
- Prior art keywords
- granularity
- vector
- sparsity
- pruning
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开了一种用于神经网络的基于混合粒度的联合稀疏方法,该联合稀疏方法包括独立的向量级细粒度稀疏化和块级粗粒度稀疏化,通过对两种稀疏方式独立生成的剪枝蒙版进行按位逻辑与运算,获得最终的剪枝蒙版,进而获得稀疏化后的神经网络的权重矩阵。本发明联合稀疏性始终获得介于块稀疏和平衡稀疏模式之间的推理速度,而无需考虑向量级细粒度稀疏化的向量行大小和块级粗粒度稀疏化的向量块大小。用于神经网络卷积层和全连结层的剪枝,具有稀疏粒度可变,通用硬件推理加速,模型推理精度高的优点。
Description
技术领域
本发明涉及结构化稀疏、轻量化网络结构、卷积神经网络等工程技术领域,特别涉及一种用于神经网络的基于混合粒度的联合稀疏方法。
背景技术
近年来深度学习,尤其是卷积神经网络(CNN),以计算机视觉,语音识别和语言处理领域的高准确性取得了巨大的成功。由于数据量的增长,深度神经网络规模变得越来越大,以具有通用的特征提取能力。另一方面,随着深度神经网络的过参数化,大型模型通常在训练和推理过程中需要大量的计算和存储资源。面对这些挑战,人们越来越关注以最小化计算成本压缩和加速神经网络的技术,例如张量分解,数据量化和网络稀疏化。
在稀疏化中,对于不同的修剪数据对象,其稀疏模式可以分为细粒度和粗粒度的稀疏模式,其目的是消除不重要的元素或连接。细粒度的稀疏模式更有可能保留更高的模型准确性。然而,由于计算复杂性,在实践中很难直接衡量权重元素在神经网络中的重要性。因此,细粒度的权重修剪方法通常基于幅度标准,但这经常会导致权重结构的随机重塑,而通用加速器(如GPU)对此的支持很差。换句话说,剪枝后的权重结构的随机性、不规则性导致细粒度稀疏模式只能节省内存占用空间,而几乎不能加速GPU上的推理。
与细粒度的稀疏模式不同,粗粒度的稀疏模式被认为是有益的替代方案,有助于提高硬件实现效率,粗粒度稀疏模式往往以一块特定区域,而不是单个元素为单位进行剪枝。它可以将神经网络语义(例如内核,过滤器和通道)合并到CNN中,并在修剪后保留紧凑的子结构。最近,已经观察到结构稀疏训练对GPU加速有帮助。但是,相关研究通常涉及正则化约束项,例如需要昂贵的除法和平方根运算L1和L2范数。这样的方法还在每个层中自动生成不同的稀疏度比率,使得最终达到的稀疏度水平不可控。
为了优先保障足够的稀疏度水平,研究人员提出了另一类结构化稀疏模式,即依靠用户指定或计算出的目标稀疏度阈值,以迭代方式对网络进行剪枝。例如,块稀疏模式和平衡稀疏模式。但是,具有可接受的模型精度的块稀疏模式,通常仅能够生成稀疏度相对较低的权重结构。
因此,为了同时获得高的模型精度和快的硬件执行速度,总是希望在结构均匀性和稀疏度之间取得平衡。直观的观察是采用更平衡的工作负载和更细粒度的稀疏模式。因此,本发明提出了一种基于混合粒度的联合稀疏方法,是实现卷积神经网络中高效的GPU推理的关键。
发明内容
本发明的目的在于针对目前结构化稀疏方法的现有技术的不足,提供了一种基于混合粒度的联合稀疏方法,用于神经网络卷积层和全连结层的剪枝,具有稀疏模式粒度可变,通用硬件推理加速,模型推理精度高的优点。
本发明的目的是通过以下技术方案来实现的:一种用于神经网络的基于混合粒度的联合稀疏方法,该方法用于图像识别,首先采集若干图像数据并人为加注标签,生成图像数据集,将图像数据集作为训练集输入卷积神经网络,随机初始化卷积神经网络各层的权重矩阵,用迭代的方式训练并采用联合稀疏过程,对卷积神经网络进行剪枝;
所述联合稀疏过程具体为通过用户事先设定目标稀疏度(target sparsity)、粒度混合比例(mixing ratio),可获得不同剪枝粒度的剪枝蒙版。包括独立的向量级细粒度稀疏化(vector-wise fine-grained sparsity)和块级粗粒度稀疏化(block-wise coarse-grained sparsity),向量级细粒度稀疏化和块级粗粒度稀疏化各自的稀疏度根据用户事先设定目标稀疏度和粒度混合比例通过稀疏度补偿方法估计得到;
所述向量级细粒度稀疏化将行数为#row,列数为#col的权重矩阵,在矩阵边缘填充零列,使得补零后的最小矩阵列数正好被K整除,分为若干个行数为1,列数为K的向量行,并对于每个向量行,将向量行内元素进行基于幅度的剪枝,在剪枝蒙版Ⅰ上将相应元素位置的1置为0,使得剪枝蒙版Ⅰ上0的个数满足向量级细粒度稀疏化的稀疏度要求;
所述块级粗粒度稀疏化将行数为#row,列数为#col的矩阵,在矩阵边缘填充零行和/或零列,使得补零后的最小矩阵正好被R行、S列大小的块整除,分为若干个行数为R,列数为S的向量块,计算每个不包含填充零行或零列的向量块的重要性得分和(psum);参与计算重要性得分和的所有向量块,按照重要性得分和大小进行基于幅度的剪枝,将剪枝蒙版Ⅱ上参与计算重要性得分和的向量块相应元素位置的1置为0,使得剪枝蒙版Ⅱ上0的个数满足块级粗粒度稀疏化的稀疏度要求;
将向量级细粒度稀疏化得到的剪枝蒙版Ⅰ和块级粗粒度稀疏化得到的剪枝蒙版Ⅱ进行按位逻辑与运算,获得最终的剪枝蒙版Ⅲ;将最终的剪枝蒙版Ⅲ与行数为#row,列数为#col的矩阵进行按位逻辑与运算,获得稀疏化后的权重矩阵;
卷积神经网络各层的权重矩阵稀疏化并完成训练后,将待识别的图像输入到卷积神经网络中,进行图像识别。
进一步地,所述向量级细粒度稀疏化是按照向量行内元素的绝对值大小进行基于幅度的剪枝。
进一步地,所述向量块的重要性得分和为向量块内每个元素的平方的和。
进一步地,所述向量级细粒度稀疏化和块级粗粒度稀疏化的剪枝蒙版Ⅰ和剪枝蒙版Ⅱ矩阵中的元素初始均为1。
进一步地,向量级细粒度稀疏化和块级粗粒度稀疏化基于幅度的剪枝是在剪枝蒙版Ⅰ和剪枝蒙版Ⅱ上,将向量行或向量块中小于稀疏度阈值的对应位置的元素置为0。
进一步地,根据用户事先设定目标稀疏度和粒度混合比例,通过稀疏度补偿方法估计得到向量级细粒度稀疏化和块级粗粒度稀疏化各自的稀疏度的过程如下:
本发明的有益效果如下:
1)提出的一种基于混合粒度的联合稀疏方法,该方法不需要正则约束项,可以实现混合的稀疏粒度,从而减少推理开销并保证模型精度。
2)提出了一种稀疏补偿方法来优化和保证所达到的稀疏率。在相同的目标稀疏度下,所实现的稀疏度可通过拟议的超参数进行调整,从而在模型精度和稀疏比之间进行权衡。
3)联合稀疏性始终获得介于块稀疏(block sparsity)和平衡稀疏(balancedsparsity)模式之间的推理速度,而无需考虑向量级细粒度稀疏化的向量行大小和块级粗粒度稀疏化的向量块大小。
附图说明
图1(a)为向量级细粒度稀疏化的剪枝蒙版;
图1(b)为联合稀疏方法的剪枝蒙版;
图1(c)为块级粗粒度稀疏化的剪枝蒙版;
图2是向量级细粒度稀疏化的实施例;
图3是采用了稀疏度补偿方法后可以达到的实际稀疏度。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细说明。
如图1(a)、图1(b)和图1(c)所示,本发明提出的一种用于神经网络的基于混合粒度的联合稀疏方法,该方法用于图像识别,如机读卡试卷的自动批阅,首先采集若干图像数据并人为加注标签,生成图像数据集,并分为训练数据集和测试数据集;将训练数据集输入卷积神经网络,随机初始化卷积神经网络各层的权重矩阵,用迭代的方式训练并采用联合稀疏过程,对卷积神经网络进行剪枝;利用测试数据集交叉验证训练效果,并通过反向传播算法更新各层权重矩阵,直至训练完成,此时神经网络对于输入的机读卡试卷,能通过与正确答案比对,判断正误题目;所述联合稀疏过程具体为通过用户事先设定目标稀疏度和粒度混合比例,获得不同剪枝粒度的剪枝蒙版;包括独立的向量级细粒度稀疏化和块级粗粒度稀疏化,向量级细粒度稀疏化和块级粗粒度稀疏化各自的稀疏度根据用户事先设定目标稀疏度和粒度混合比例通过稀疏度补偿方法估计得到;包括以下实施步骤:
(1)向量级细粒度稀疏化:所述向量级细粒度稀疏化将行数为#row,列数为#col的权重矩阵,在矩阵边缘填充零列,使得补零后的最小矩阵列数正好被K整除,分为若干个行数为1,列数为K的向量行,并对于每个向量行,将向量行内元素按照绝对值大小进行基于幅度的剪枝,在剪枝蒙版Ⅰ上将相应元素位置的1置为0,使得剪枝蒙版Ⅰ上0的个数满足向量级细粒度稀疏化的稀疏度要求;
向量级细粒度稀疏化因为具有细粒度的优点,并且几乎不对稀疏结构施加约束,对联合稀疏方法的模型精度保持至关重要。此外,与在整个网络中进行排序、剪枝的非结构化稀疏性不同,向量级细粒度稀疏化式在网络的特定区域内(例如在行内的向量中)对权重进行排序和剪枝,更为直接、有效。图2展示了权重矩阵行中的向量级细粒度稀疏化的示例。权重矩阵中的每一行都被划分为若干大小相等的行数为1,列数为K的向量行,并且将根据当前迭代轮次的稀疏阈值剪枝绝对值最小的权重。因此,剪枝后的权重可以在向量级(vector-wise)和通道级(channel-wise)实现相同的稀疏度。
除了能够在网络的特定区域中高效实施,并保持模型准确性和简化权重元素排序复杂度之外,向量级细粒度稀疏化的好处还在于具有均衡的工作负载,适用于并行GPU线程之间的共享内存。对于各种GPU平台,参数K可以指定为共享内存中的最大容量。
(2)块级粗粒度稀疏化:所述块级粗粒度稀疏化将行数为#row,列数为#col的矩阵,在矩阵边缘填充零行和/或零列,使得补零后的最小矩阵正好被R行、S列大小的块整除,分为若干个行数为R,列数为S的向量块,计算每个不包含填充零行或零列的向量块的重要性得分和,所述向量块的重要性得分和为向量块内每个元素的平方的和;参与计算重要性得分和的所有向量块,按照重要性得分和大小进行基于幅度的剪枝,将剪枝蒙版Ⅱ上参与计算重要性得分和的向量块相应元素位置的1置为0,使得剪枝蒙版Ⅱ上0的个数满足块级粗粒度稀疏化的稀疏度要求;
与细粒度剪枝相比,粗粒度剪枝通常在塑造更硬件友好型的子结构方面有更好的表现,但代价是模型精度通常有所降低。块级粗粒度稀疏化的目的是为GPU的计算并行性提供合适的矩阵子结构。现有部署在深度学习应用场景中的商用GPU(例如Volta,Turing和Nvidia A100 GPU)普遍采用称为Tensor Core的专用硬件,该硬件在快速矩阵乘法方面具有优势,并支持新的数据类型。这为深层神经网络带来了好处,在深层神经网络中,基本算术计算是卷积层和全连接层中的大量标准矩阵乘法,其乘法计算速度而不是内存限制了性能表现。
一种解决方案是使分区后的块的大小适合GPU tile尺寸和流式多处理器(SM)个数。理想的情况是矩阵尺寸可被块大小整除,而创建的GPU tile数可被SM个数整除。给定一个特定的神经网络模型,SM个数通常可以被整除,因此本发明将重点放在适用于GPU tile的块大小上。通过选择与GPU tile大小相同的粗粒度稀疏度的分块尺寸,可以完全占用GPUtile。 此外,由于加法比乘法占用小得多的时间和面积开销,而且权重梯度在反向传播中是现成可用的,所以本发明应用一阶泰勒近似局部和作为剪枝向量块的标准。
(3)基于混合粒度的联合稀疏方法:实现基于混合粒度的联合稀疏方法的总体思路是由独立生成的细粒度稀疏化剪枝蒙版Ⅰ和粗粒度稀疏化剪枝蒙版Ⅱ,通过按位逻辑与运算,形成最终的剪枝蒙版Ⅲ。将最终的剪枝蒙版Ⅲ与行数为#row,列数为#col的矩阵进行按位逻辑与运算,获得稀疏化后的权重矩阵;
本发明独立生成矩阵中的元素初始均为1的剪枝蒙版Ⅰ和剪枝蒙版Ⅱ,在剪枝蒙版Ⅰ和剪枝蒙版Ⅱ上,将向量行或向量块中小于稀疏度阈值的对应位置的元素置为0,而不是依次对剪枝蒙版应用向量级细粒度稀疏化和块级粗粒度稀疏化,因为某些通道可能比其他通道更重要,在这些更有价值的通道中,大量重要权重将在顺序修剪中被修剪,从而潜在地导致模型准确性下降。
卷积神经网络各层的权重矩阵稀疏化并完成训练后,采集需要批阅的机读卡试卷的图像数据,将待识别的图像数据输入到卷积神经网络中,进行图像识别,输出各机读卡试卷的分数。
为了获得联合稀疏方法的混合稀疏粒度,本发明设置了一个人为设定的超参数,表示为粒度混合比例p,以控制向量级细粒度稀疏化对目标稀疏度贡献的稀疏度比例。例如,如果卷积层的目标稀疏度为0.7(即剪枝后的卷基层权重矩阵中零的比例达到70%),并且粒度混合比例p为0.8,则向量级细粒度稀疏化,和块级粗粒度稀疏化所贡献的稀疏度应为分别为0.56和0.14。通过检查卷积层中实际达到的稀疏度,我们发现稀疏度低于目标稀疏度,因为细粒度稀疏化剪枝蒙版Ⅰ和粗粒度稀疏化剪枝蒙版Ⅱ会在某些权重元素上重叠。这可以解释为,某些权重在两种剪枝标准中都被衡量为有价值。因此,本发明提出了稀疏度补偿方法,并重新近似了向量级细粒度稀疏化和块级粗粒度稀疏化各自的稀疏度:
其中,和分别是用户事先设定目标稀疏度,向量级细粒度稀疏度和块级粗粒度
稀疏度;p为粒度混合比例,为0-1之间的数。这种稀疏度补偿方法可以从另一个角度来看:
对于混合比p大于0.5,重新近似了目标稀疏度的向量级细粒度稀疏化可以视为目标稀疏度
的主要贡献者,而块级的粗粒度稀疏化还会根据另一个权重剪枝标准,进一步产生更多的
零。对于p小于0.5的情况反之亦然。如图3所示,当采用稀疏度补偿方法时,无论其值如何,
都可以完全实现预定的目标稀疏性。此外,当p接近0或1时,出现了更明显的主剪枝方案,其
稀疏度比接近目标稀疏度。或者,当p大约为0.5时,富余的稀疏度可以通过调整初始密集训
练的时间,在可实现的稀疏度与模型精度之间进行权衡。
在生成细粒度稀疏化剪枝蒙版Ⅰ和粗粒度稀疏化剪枝蒙版Ⅱ时,本发明迭代地修剪权重矩阵,并在每次剪枝后,对网络进行几个时期的重新训练。修剪然后再训练被定义为一次迭代。在实践中,迭代修剪通常能修剪更多的权重元素,同时保持模型的准确性。本发明使用一阶导数为正但递减的指数函数来计算当前的稀疏度阈值:
其中和分别是当前时期(epoch)的向量级细粒度稀疏化阈值和块级粗
粒度稀疏化阈值。是最初的剪枝时期,因为早期的密集训练对于保持模型的准确性至关
重要。而r控制阈值按指数增长的快慢。本发明在整个训练过程迭代剪枝和训练过程,以达
到目标稀疏度,然后将生成细粒度稀疏化剪枝蒙版Ⅰ和粗粒度稀疏化剪枝蒙版Ⅱ,通过按位
逻辑与运算,形成最终的剪枝蒙版Ⅲ。特别地,可以通过p=1来实现平衡稀疏模式,而可以通
过p=0来实现块稀疏模式和通道级的结构的稀疏模式。
本专利不局限于上述最佳实施方式。任何人在本专利的启示下都可以得出其他各种形式的基于混合粒度的联合稀疏模式及其实现方法,凡依照本发明申请专利范围所做的均等变化与修饰,皆应属本专利的涵盖范围。
Claims (6)
1.一种用于神经网络的基于混合粒度的联合稀疏方法,其特征在于,该方法用于图像识别,首先采集若干图像数据并人为加注标签,生成图像数据集,将图像数据集作为训练集输入卷积神经网络,随机初始化卷积神经网络各层的权重矩阵,用迭代的方式训练并采用联合稀疏过程,对卷积神经网络进行剪枝;
所述联合稀疏过程具体为通过用户事先设定目标稀疏度和粒度混合比例,获得不同剪枝粒度的剪枝蒙版;包括独立的向量级细粒度稀疏化和块级粗粒度稀疏化,向量级细粒度稀疏化和块级粗粒度稀疏化各自的稀疏度根据用户事先设定目标稀疏度和粒度混合比例通过稀疏度补偿方法估计得到;
所述向量级细粒度稀疏化将行数为#row,列数为#col的权重矩阵,在矩阵边缘填充零列,使得补零后的最小矩阵列数正好被K整除,分为若干个行数为1,列数为K的向量行,并对于每个向量行,将向量行内元素进行基于幅度的剪枝,在剪枝蒙版Ⅰ上将相应元素位置的1置为0,使得剪枝蒙版Ⅰ上0的个数满足向量级细粒度稀疏化的稀疏度要求;
所述块级粗粒度稀疏化将行数为#row,列数为#col的矩阵,在矩阵边缘填充零行和/或零列,使得补零后的最小矩阵正好被R行、S列大小的块整除,分为若干个行数为R,列数为S的向量块,计算每个不包含填充零行或零列的向量块的重要性得分和;参与计算重要性得分和的所有向量块,按照重要性得分和大小进行基于幅度的剪枝,将剪枝蒙版Ⅱ上参与计算重要性得分和的向量块相应元素位置的1置为0,使得剪枝蒙版Ⅱ上0的个数满足块级粗粒度稀疏化的稀疏度要求;
将向量级细粒度稀疏化得到的剪枝蒙版Ⅰ和块级粗粒度稀疏化得到的剪枝蒙版Ⅱ进行按位逻辑与运算,获得最终的剪枝蒙版Ⅲ;将最终的剪枝蒙版Ⅲ与行数为#row,列数为#col的矩阵进行按位逻辑与运算,获得稀疏化后的权重矩阵;
卷积神经网络各层的权重矩阵稀疏化并完成训练后,将待识别的图像输入到卷积神经网络中,进行图像识别。
2.根据权利要求1所述的一种用于神经网络的基于混合粒度的联合稀疏方法,其特征在于,所述向量级细粒度稀疏化是按照向量行内元素的绝对值大小进行基于幅度的剪枝。
3.根据权利要求1所述的一种用于神经网络的基于混合粒度的联合稀疏方法,其特征在于,所述向量块的重要性得分和为向量块内每个元素的平方的和。
4.根据权利要求1所述的一种用于神经网络的基于混合粒度的联合稀疏方法,其特征在于,所述向量级细粒度稀疏化和块级粗粒度稀疏化的剪枝蒙版Ⅰ和剪枝蒙版Ⅱ矩阵中的元素初始均为1。
5.根据权利要求1所述的一种用于神经网络的基于混合粒度的联合稀疏方法,其特征在于,向量级细粒度稀疏化和块级粗粒度稀疏化基于幅度的剪枝是在剪枝蒙版Ⅰ和剪枝蒙版Ⅱ上,将向量行或向量块中小于稀疏度阈值的对应位置的元素置为0。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011553635.6A CN112288046B (zh) | 2020-12-24 | 2020-12-24 | 一种用于神经网络的基于混合粒度的联合稀疏方法 |
JP2021174307A JP7122041B2 (ja) | 2020-12-24 | 2021-10-26 | ニューラルネットワークに用いられる混合粒度に基づく共同スパース方法 |
US17/517,662 US20220207374A1 (en) | 2020-12-24 | 2021-11-02 | Mixed-granularity-based joint sparse method for neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011553635.6A CN112288046B (zh) | 2020-12-24 | 2020-12-24 | 一种用于神经网络的基于混合粒度的联合稀疏方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112288046A true CN112288046A (zh) | 2021-01-29 |
CN112288046B CN112288046B (zh) | 2021-03-26 |
Family
ID=74426136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011553635.6A Active CN112288046B (zh) | 2020-12-24 | 2020-12-24 | 一种用于神经网络的基于混合粒度的联合稀疏方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220207374A1 (zh) |
JP (1) | JP7122041B2 (zh) |
CN (1) | CN112288046B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114627342A (zh) * | 2022-03-03 | 2022-06-14 | 北京百度网讯科技有限公司 | 基于稀疏度的图像识别模型的训练方法、装置和设备 |
CN117095385A (zh) * | 2023-08-02 | 2023-11-21 | 中国长城科技集团股份有限公司 | 基于神经网络芯片性能的检测方法、装置及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117270476B (zh) * | 2023-10-24 | 2024-03-08 | 清远欧派集成家居有限公司 | 基于智慧工厂的生产控制方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147834A (zh) * | 2019-05-10 | 2019-08-20 | 上海理工大学 | 基于稀疏化双线性卷积神经网络的细粒度图像分类方法 |
CN110874631A (zh) * | 2020-01-20 | 2020-03-10 | 浙江大学 | 一种基于特征图稀疏化的卷积神经网络剪枝方法 |
CN111079781A (zh) * | 2019-11-07 | 2020-04-28 | 华南理工大学 | 基于低秩与稀疏分解的轻量化卷积神经网络图像识别方法 |
CN111401554A (zh) * | 2020-03-12 | 2020-07-10 | 交叉信息核心技术研究院(西安)有限公司 | 支持多粒度稀疏与多模式量化的卷积神经网络的加速器 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10528864B2 (en) * | 2016-08-11 | 2020-01-07 | Nvidia Corporation | Sparse convolutional neural network accelerator |
US10832123B2 (en) * | 2016-08-12 | 2020-11-10 | Xilinx Technology Beijing Limited | Compression of deep neural networks with proper use of mask |
US11645529B2 (en) * | 2018-05-01 | 2023-05-09 | Hewlett Packard Enterprise Development Lp | Sparsifying neural network models |
WO2020072274A1 (en) * | 2018-10-01 | 2020-04-09 | Neuralmagic Inc. | Systems and methods for neural network pruning with accuracy preservation |
-
2020
- 2020-12-24 CN CN202011553635.6A patent/CN112288046B/zh active Active
-
2021
- 2021-10-26 JP JP2021174307A patent/JP7122041B2/ja active Active
- 2021-11-02 US US17/517,662 patent/US20220207374A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147834A (zh) * | 2019-05-10 | 2019-08-20 | 上海理工大学 | 基于稀疏化双线性卷积神经网络的细粒度图像分类方法 |
CN111079781A (zh) * | 2019-11-07 | 2020-04-28 | 华南理工大学 | 基于低秩与稀疏分解的轻量化卷积神经网络图像识别方法 |
CN110874631A (zh) * | 2020-01-20 | 2020-03-10 | 浙江大学 | 一种基于特征图稀疏化的卷积神经网络剪枝方法 |
CN111401554A (zh) * | 2020-03-12 | 2020-07-10 | 交叉信息核心技术研究院(西安)有限公司 | 支持多粒度稀疏与多模式量化的卷积神经网络的加速器 |
Non-Patent Citations (1)
Title |
---|
赖叶静等: "深度神经网络模型压缩方法与进展", 《华东师范大学学报(自然科学版)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114627342A (zh) * | 2022-03-03 | 2022-06-14 | 北京百度网讯科技有限公司 | 基于稀疏度的图像识别模型的训练方法、装置和设备 |
CN117095385A (zh) * | 2023-08-02 | 2023-11-21 | 中国长城科技集团股份有限公司 | 基于神经网络芯片性能的检测方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112288046B (zh) | 2021-03-26 |
JP7122041B2 (ja) | 2022-08-19 |
US20220207374A1 (en) | 2022-06-30 |
JP2022101461A (ja) | 2022-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112288046B (zh) | 一种用于神经网络的基于混合粒度的联合稀疏方法 | |
Negoita et al. | Deep learning: Extrapolation tool for ab initio nuclear theory | |
US11449754B1 (en) | Neural network training method for memristor memory for memristor errors | |
CN110288030B (zh) | 基于轻量化网络模型的图像识别方法、装置及设备 | |
Tang et al. | Automatic sparse connectivity learning for neural networks | |
CN107729999A (zh) | 考虑矩阵相关性的深度神经网络压缩方法 | |
CN111126602A (zh) | 一种基于卷积核相似性剪枝的循环神经网络模型压缩方法 | |
CN113344174A (zh) | 基于概率分布的高效神经网络结构搜索方法 | |
CN110084364B (zh) | 一种深度神经网络压缩方法和装置 | |
Ling et al. | Large scale learning of agent rationality in two-player zero-sum games | |
CN109146000A (zh) | 一种基于冰冻权值改进卷积神经网络的方法及装置 | |
CN113269312B (zh) | 一种联合量化与剪枝搜索的模型压缩方法及其系统 | |
CN110991621A (zh) | 一种基于通道数搜索卷积神经网络的方法 | |
CN112508190A (zh) | 结构化稀疏参数的处理方法、装置、设备及存储介质 | |
Ma et al. | A unified approximation framework for compressing and accelerating deep neural networks | |
Li et al. | Efficient bitwidth search for practical mixed precision neural network | |
CN113344182A (zh) | 一种基于深度学习的网络模型压缩方法 | |
CN116363423A (zh) | 面向小样本学习的知识蒸馏方法、装置及存储介质 | |
Qi et al. | Learning low resource consumption cnn through pruning and quantization | |
Huang et al. | Distributed pruning towards tiny neural networks in federated learning | |
Johnson et al. | WeightMom: Learning Sparse Networks using Iterative Momentum-based pruning | |
CN113887721B (zh) | 一种语音识别任务中的训练后量化压缩方法及系统 | |
DE102022120819A1 (de) | Quantisiertes neuronales- netzwerk-training und - inferenzieren | |
Siswanto | Block sparsity and weight initialization in neural network pruning | |
Xu et al. | Towards efficient filter pruning via adaptive automatic structure search |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |