CN113516237B - 修剪卷积神经网络的方法 - Google Patents

修剪卷积神经网络的方法 Download PDF

Info

Publication number
CN113516237B
CN113516237B CN202010274418.7A CN202010274418A CN113516237B CN 113516237 B CN113516237 B CN 113516237B CN 202010274418 A CN202010274418 A CN 202010274418A CN 113516237 B CN113516237 B CN 113516237B
Authority
CN
China
Prior art keywords
pruning
convolutional neural
determining
network
channels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010274418.7A
Other languages
English (en)
Other versions
CN113516237A (zh
Inventor
王祚官
宋易霖
顾群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Black Sesame Intelligent Technology Chongqing Co Ltd
Original Assignee
Black Sesame Intelligent Technology Chongqing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Black Sesame Intelligent Technology Chongqing Co Ltd filed Critical Black Sesame Intelligent Technology Chongqing Co Ltd
Priority to CN202010274418.7A priority Critical patent/CN113516237B/zh
Publication of CN113516237A publication Critical patent/CN113516237A/zh
Application granted granted Critical
Publication of CN113516237B publication Critical patent/CN113516237B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

一种修剪卷积神经网络的方法,包括以下中的至少一个:确定网络输入和网络输出之间的通道数量(N);构造N个查询表,每个查询表与各自的通道相匹配;以及基于N个查询表修剪卷积神经网络中的滤波器,以在网络输入和网络输出之间建立直连。

Description

修剪卷积神经网络的方法
技术领域
本公开涉及卷积神经网络,具体地涉及提高计算效率并减少残留网络的存储器存储。
背景技术
训练卷积网络要求具有非常大的存储空间和计算能力。训练后的模型的尺寸可能很大,这对存储不足的移动客户端可能是个问题。计算能力和存储大小与准确性有关,因此人们在寻求潜在的解决方案以在减少计算和存储使用的情况下保持高的准确度。
在此讨论先前的卷积神经网络(CNN)以提供针对本公开的背景。AlexNet包括五个卷积层和三个全连接(FC)层。AlexNet使用称为修正线性单元(ReLu)的激活函数,其在接收到负值输入返回零,而任何正输入值输入时返回该正输入值,该函数表示为f(x)=max(0,max)。ReLu是由两个线性部分组成的简单函数,可以很好地对非线性和交互建模,并且训练非常迅速。ReLu函数是CNN最常用的激活函数。AlexNet通过在每个全连接层之后使用一个丢弃(dropout)层来解决过度拟合问题。该丢弃层具有应用于神经元的概率(P),并以概率(P)随机关闭对神经元的激活。
VGG由牛津VGG集团设计,其使用多个3x3内核尺寸的滤波器按序替换了AlexNet的大内核尺寸的滤波器。这种多重堆叠的滤波器组合增加了网络的深度,并且相比与一个大滤波器,可以更快地学习更复杂的特征。VGG卷积层的后面是三个全连接层。虽然VGG是准确的,但是其具有非常高的计算和存储要求。该非常高的计算和存储要求是由于每个输出通道都以密集连接的方式连接到相应的输入通道的事实所产生的。
GoogLeNet建立在以下认识之上:大多数的激活或为零(即,不必要的),或为冗余。这种认识允许其中输入和输出不一对一连接的架构。此修剪(pruning)可以使VGG的密集连接变为稀疏连接。不幸的是,稀疏矩阵乘法未被优化为像密集乘法那样且使得系统运行速度变慢。然后,GoogLeNet架构了一个初始模块(Inception Module),该模块将稀疏卷积神经网络近似为密集神经网络,并用全局平均池化(Global Average Pooling)来代替全连接层。
ResNet认识到增加网络深度会提高其准确性,但是随着深度的增加,在早期层更改权重所需的信号会变小。权重的确定是在网络末端通过比较真值(ground-truth)和预测来执行的。在早期层这种可忽略的学习被称为梯度消失(vanishing gradient)。伴随优化带有附加层的大参数空间的另一个问题导致过度的训练错误率。ResNet通过构建残差(residual)模型来训练深度网络。
例如,如果你的第一个网络产生第一网络训练误差,并构造添加到该第一网络上的第二个网络以使第一网络输出不受影响,那么第一网络训练误差将不受影响,但是会看到效果。为了解决第一个网络训练误差问题,在模块的输入和输出之间创建了直接路径以暗示映射。然后系统仅需要学习添加到第一网络输入的特征。由于第二网络仅学习残差,因此将该模块表示为残差模块。ResNet由于主要由3x3滤波器组成,并像GoogLeNet一样实现了全局平均池化,因此具有类似于VGG的架构。
发明内容
根据本申请的一个方面,提供一种修剪卷积神经网络的方法,包括如下中的至少一个:确定网络输入和网络输出之间的通道数量N;构造N个查询表,每个查询表与各自的通道匹配;以及基于N个查询表修剪卷积神经网络中的滤波器,以在网络输入和网络输出之间建立直连。
在一个实施例中,修剪卷积神经网络的方法还包括合并网络输入和网络输出之间的通道;对N个通道数据流进行分类;以及通过分类的N个通道数据流修剪滤波器。
在一个实施例中,N个通道数据流的分类是仅由res使用、添加到res以及旁路中的一个,如果通道数据流被分类为仅由res使用,则在根据N个查询表的计算后将其去除。
在一个实施例中,修剪卷积神经网络的方法还包括:确定在一组相关滤波器内的滤波器元素的多个分组;确定所述滤波器元素的多个分组中的每一个的权重;基于权重确定掩码;以及基于该组相关滤波器中的每一个中的掩码修剪所述滤波器元素的多个分组。
在一个实施例中,修剪卷积神经网络的方法还包括:确定并行处理通道(PPC)的数量;确定所述网络输入和所述网络输出之间的所述通道数量(N);以及将通道数量(N)修剪为并行处理通道(PPC)的数量的整数倍。
在一个实施例中,基于可以并行处理的乘积累加(MAC)阵列的硬件特定数量确定并行处理通道(PPC)的数量。
在一个实施例中,在训练过程中进行对通道数量(N)的修剪。
根据本申请的另一方面,还提供一种修剪卷积神经网络的方法,包括如下中的至少一个:确定网络输入和网络输出之间的通道数量(N);构造N个查询表,每个查询表与各自的通道匹配;合并网络输入和网络输出之间的通道;对N个通道数据流进行分类;以及通过分类的N个通道数据流修剪滤波器。
在一个实施例中,N个通道数据流的分类是仅由res使用、添加到res和旁路中的一个,如果通道数据流被分类为仅由res使用,则在基于N个查询表的计算后将其去除。
在一个实施例中,修剪卷积神经网络的方法还包括基于N个查询表修剪卷积神经网络中的滤波器,以在网络输入和网络输出之间建立直连。
在一个实施例中,修剪卷积神经网络的方法还包括:确定在一组相关滤波器内的滤波器元素的多个分组;确定滤波器元素的多个分组中的每一个的权重;基于权重确定掩码;以及基于该组相关滤波器中的每一个中的掩码修剪滤波器元素的多个分组。
在一个实施例中,修剪卷积神经网络的方法还包括:确定并行处理通道(PPC)的数量;以及将通道数量(N)修剪为并行处理通道(PPC)的数量的整数倍。
根据本申请的再一方面,提供一种修剪卷积神经网络的方法,包括以下中的至少一个:确定在一组相关滤波器内的滤波器元素的多个分组;确定滤波器元素的多个分组中的每一个的权重;基于权重确定掩码;以及基于该组相关滤波器中的每一个中的掩码修剪滤波器元素的多个分组。
在一个实施例中,修剪卷积神经网络的方法还包括:确定网络输入和网络输出之间的通道数量(N);构造N个查询表,每个查询表与各自的通道匹配;基于N个查询表修剪卷积神经网络中的滤波器,以在网络输入和网络输出之间建立直连。
在一个实施例中,修剪卷积神经网络的方法还包括:合并网络输入和网络输出之间的通道;对N个通道数据流进行分类;以及通过分类的N个通道数据流修剪滤波器。
根据本申请的仍然另一方面,提供一种修剪卷积神经网络的方法,包括以下中的至少一个:确定并行处理通道(PPC)的数量;确定网络输入和网络输出之间的通道数量N;以及将通道数量(N)修剪为并行处理通道(PPC)的数量的整数倍。
在一个实施例中,基于可以并行处理的乘积累加(MAC)阵列的硬件特定数量确定并行处理通道(PPC)的数量。
在一个实施例中,在训练过程中进行对通道数量(N)的修剪。
在一个实施例中,修剪卷积神经网络的方法还包括:确定在一组相关滤波器内的滤波器元素的多个分组;确定滤波器元素的多个分组中的每一个的权重;基于权重确定掩码;以及基于该组相关滤波器中的每一个中的掩码修剪滤波器元素的多个分组。
在一个实施例中,修剪卷积神经网络的方法还包括:构造N个查询表,每个查询表与各自的通道匹配;以及基于N个查询表修剪卷积神经网络中的滤波器,以在网络输入和网络输出之间建立直连。
附图说明
在图中:
图1A是根据本公开的一个实施例的第一示例系统图;
图1B是根据本公开的一个实施例的第二示例系统图;
图2是卷积神经网络结构的示例块;
图3是根据本公开的一个实施例的具有查询表的示例卷积神经网络结构;
图4是根据本公开的一个实施例的修剪卷积神经网络的第一方法的描述;
图5是根据本公开的一个实施例的具有修剪的块的示例卷积神经网络结构;
图6是根据本公开的一个实施例的修剪卷积神经网络的第二方法的描述;
图7是根据本公开的一个实施例的具有一组修剪张量的卷积神经网络的描述;
图8是根据本公开的一个实施例的具有块二进制掩码的卷积神经网络的描述;
图9是根据本公开的一个实施例的权重块的描述;
图10是根据本公开的一个实施例的修剪卷积神经网络的第三方法的描述;以及
图11是根据本公开的一个实施例的修剪卷积神经网络的第四方法的描述。
具体实施方式
下面列出的实施例仅是为了说明装置和方法的应用,并不用于限制保护范围。对这种装置和方法等同形式的修改应归入权利要求的保护范围内。
在贯穿以下说明和权利要求中,某些术语被用来指代特定系统部件。如本领域技术人员可以理解的,不同的公司可以用不同的名称来指代部件和/或方法。本文无意区分名称不同但功能相同的部件和/或方法。
在以下的讨论和权利要求中,术语“包括”和“包含”以开放式方式使用,因此可以解释为表示“包括但不限于……”。此外,术语“耦合”旨在表示间接或直接连接。因此,如果第一设备耦合到第二设备,该连接可以是通过直接连接或通过经由其他设备和连接的间接连接。
图1A描绘了示例混合计算系统100,其可用于实现与过程400、600、1000或1100的一个或多个部分或步骤的操作,或由图4、6、10和11提供的部件和过程的操作相关联的神经网。在该示例中,与混合计算系统相关联的处理器包括现场可编程门阵列(FPGA)122,图形处理器单元(GPU)120和中央处理单元(CPU)118。
处理单元118、120和122中的每一个具有提供神经网的能力。CPU是可以执行许多不同功能的通用处理器,它的通用性使其具有执行多个不同任务的能力,然而,它对多个数据流的处理是有限的并且其关于神经网络的功能非常有限。GPU是图形处理器,其具有能够按顺序处理并行任务的许多小的处理核。FPGA是现场可编程设备,它具有重新配置的能力,并且可以以硬接线电路方式执行可编程到CPU或GPU中的任何功能。由于对FPGA的编程是电路形式,因此其速度比CPU快许多倍并且明显比GPU快。
还有系统可以包含其他类型的处理器,诸如包括带有片上GPU元件的CPU的加速处理器(APU)和专用于执行高速数值数据处理的数字信号处理器(DSP)。专用集成电路(ASIC)也可以执行FPGA的硬接线功能;然而,设计和生产ASIC的前置时间大约为一年的几个季度,而非FPGA编程中可获得的快速周转实现。
图形处理器单元120、中央处理单元118和现场可编程门阵列122彼此连接并且连接到存储器接口和控制器112。FPGA通过可编程逻辑电路到存储器互连130连接到存储器接口。使用该额外的设备是由于FPGA以非常大的带宽运行的这样一个事实以及为了将FPGA中用来执行存储器任务的电子线路最小化。存储器接口和控制器112被另外连接到持久存储器盘110、系统存储器114和只读存储器(ROM)116。
可以利用图1A的系统来对FPGA进行编程和训练。GPU可以很好地作用于非结构化数据并且可被用于进行训练,一旦数据已经被训练,就可以找到确定性推理模型,并且CPU可以利用由GPU确定的模型数据对FPGA进行编程。
存储器接口和控制器连接到中央互连124,中央互连另外连接到GPU 120、CPU 118和FPGA 122。中央互连124另外连接到输入和输出接口128以及网络接口126。
图1B描绘了第二示例混合计算系统150,可用于实现与过程400的一个或多个部分或步骤的操作,或由图4提供的部件或过程的操作相关联的神经网。在该示例中,与混合计算系统相关联的处理器包括现场可编程门阵列(FPGA)160和中央处理单元(CPU)170。
FPGA 160电连接到FPGA控制器162,FPGA控制器162与直接存储器访问(DMA)168接口连接。DMA连接到输入缓冲器164和输出缓冲器166,输入缓冲器164和输出缓冲器166两者都耦合到FPGA,以分别对进出FPGA的数据进行缓冲。DMA具有两个先进先出(FIFO)缓冲器,一个用于主机CPU而另一个用于FPGA,DMA允许对适当的缓冲器读写数据。
主开关178是在DMA的CPU侧,主开关178将数据和命令传送(shuttle)到DMA。DMA还连接到同步动态随机存储器(SDRAM)控制器174,这允许数据在FPGA和CPU 170之间传送,SDRAM控制器还连接到外部SDRAM 176和CPU 170。主开关178连接到外围设备接口180。闪存控制器172控制持久存储器并且连接到CPU 170。
计算神经网络(CNN)已应用于若干分类问题,例如语音和图像识别。一般情况下,网络参数量越大,系统学习困难功能的能力就越大。但是,较大的网络以增加计算工作量为代价。如果当前参数量大于所需的最佳数量,则可能发生过度拟合。相反,如果选择的参数量不足,则网络学习能力不足。
训练CNN的一种方法是学习具有大型网络的任务,并通过去除冗余和重复的连接来修剪张量流(tensor flow)连接。在大型网络中,网络修剪是一种可以解决计算神经网络的实时应用中诸如繁重计算和高存储带宽等一些问题的技术。目前网络修剪导致的潜在问题可能包括不规则的网络连接,这需要额外的表示(representation)并且可能导致并行计算效率低下。
结构稀疏化可以带来优势,例如减少嵌入式计算机、并行计算机和如现场可编程门阵列(FPGA)的基于硬件的系统中的计算资源。
在本文中,术语“通道”和“张量流连接”是同义词。
结构化网络修剪和稀疏化加速的方法:
网络修剪可以用更少的存储来提高计算效率,是一种能在资源有限的情况下(例如,在移动设备中会遇到的功能较弱的处理器和有限的存储)部署解决方案的技术。
当前,由于直连(shortcut)结构的存在,修剪最常用的ResNet类(ResNet-Like)的卷积神经网络(CNN)结构的方法仍然不令人满意,而且设计为适用硬件阵列分区的结构修剪方法也是缺失的。在此,通过提出以下三种方法来解决这些问题。
第一种方法是使用基于查询表的分支合并机制来修剪ResNet类的结构,第二种方法是执行压缩存储并减少计算周期的按组(group-wise)修剪,而第三种方法是对修剪的通道数量进行取整以提高硬件利用率。
使用基于查询表的分支合并机制修剪ResNet类的结构:
对简单结构如VGG和Alexnet的修剪已得到很好的研究。但是ResNet类网络由于如图2所示的直连分支218而引入了额外的复杂性。自然的应用典型通道修剪方法可能会导致加法运算中输入的通道不匹配。
通过将两个查询表318,322引入到如图3所示的结构300中,可以找到解决此问题的一种可能的方法。查询表318,322实现两个分支通道之间的映射。查询表318,322处理三种映射情况:i)存在于Ar和As两者中的通道;ii)仅在Ar中存在的通道;iii)仅在As中存在的频道。查询表的引入允许修剪此结构从而允许输入和输出匹配。解决此问题的另一种方法是对Ar和As中相同的通道执行修剪。但是,此方案可能会对结构施加另外的限制,从而具有性能降低的风险。
图4描绘了修剪卷积神经网络的第一示例方法400,包括:确定(410)网络输入与网络输出之间的通道数量(N);构造(412)N个查询表,每个查询表与各自的通道匹配;以及基于N个查询表,修剪(414)卷积神经网络中的滤波器以在网络输入和网络输出之间创建直连。
图5显示了用于合并Ar和As的相应硬件设计。硬件用等效操作替代了两个查询表。具体地,基于查询表,将通道分为三类,即“仅由res使用”,“添加到res”和“旁路(bypass)”。在以下步骤中,将对每个类别进行不同的处理。例如,在计算Ar之后,将丢弃类别为“仅由res使用”的通道。为了节省存储,可以使用新生成的通道填充被丢弃通道的空间。
图6描绘了修剪卷积神经网络的第二示例方法600,包括:确定(610)网络输入与网络输出之间的通道数量(N);构造(612)N个查询表,每个查询表与各自的通道匹配;合并(614)在网络输入和网络输出之间的通道;对N个通道数据流进行分类(616);以及通过分类的N个通道数据流来修剪(618)滤波器。
按组修剪:
上一部分中的方法是按通道修剪,其去除了作为最基本元素的3D滤波器,是一种对硬件友好的方法。一个可能的问题是,在不显著降低性能的情况下,可能无法积极地去除滤波器。另一种可能的解决方案是去除滤波器内的元素。当前,执行此操作的一种常用方法是基于权重幅度随机去除滤波器元素,但其结果在存储和计算方面提供的好处有限。一种可能的解决方案是采用组修剪,其去除滤波器中的元素块,而非随机元素。方法如图7所示。
块的尺寸由存储阵列分区标识。示例的块的尺寸是1×1×8×16。可以通过掩码M来提供稀疏化的编码,其中掩码0表示去除的元素,而掩码1表示剩下的元素。硬件存储器中的掩码布局如图8所示。
图9示出了存储器中的权重块的布局,其中白色块是修剪的块,由掩码中的0指示。组稀疏化不仅减小了滤波器的尺寸,而且由于可能会跳过与已去除块相对应的整个周期而因此显著地节省了计算量。
对修剪通道数量取整:
硬件具有固定数量的乘积累加(MAC)阵列,可以同时处理一定数量的通道,例如N个通道。最后一个周期可能会被部分占用,而其余通道数量小于N,从而降低了硬件使用率。因此,优选地将通道数量修剪为N的整数倍。对通道数量的取整可以在训练过程中进行。
图10描绘了修剪卷积神经网络的第三方法1000,该方法包括:确定(1010)位于一组相关滤波器内的滤波器元素的多个分组;确定(1012)滤波器元素的多个分组中的每一个的权重;基于权重确定(1014)掩码;以及基于该组相关滤波器中的每一个内的掩码,修剪(1016)滤波器元素的多个分组。
图11描绘了修剪卷积神经网络的第四方法1100,包括确定(1110)并行处理通道(PPC)的数量;确定(1112)网络输入和网络输出之间的通道的数量(N);以及,将通道数量(N)修剪(1114)为并行处理通道(PPC)数量的整数倍。
本领域的技术人员将了解,本文中所描述的各种说明性的块、模块、元件、部件、方法和算法可被实现为电子硬件、计算机软件或两者的组合。为了说明硬件和软件的这种可互换性,已经根据它们的功能性对各种说明性的块、模块、元件、部件、方法和算法在上文做了大概描述。将这样的功能性实现为硬件还是软件取决于施加于整个系统的特定应用和设计约束。技术人员可以针对每个特定应用以不同方式实现所描述的功能性。在不脱离本主题技术的范围的情况下,各种部件和块可以不同地布置(例如,以不同的顺序布置,或以不同的方式划分)。
应理解,所公开的过程中的步骤的特定顺序或层次是对示例方法的说明。基于设计偏好,可以理解的是,过程中的步骤的特定顺序或层次可以重新布置。一些步骤可以同时执行。所附方法权利要求以样本顺序呈现各个步骤的元素,并不意在限于所呈现的特定顺序或层次。
提供前面的描述是为了使得任何本领域的技术人员都能够实践本文中所描述的各种方面。前面的描述提供了本主题技术的各种示例,并且本主题技术不限于这些示例。对于本领域技术人员来说,对这些方面的各种修改是明显的,并且本文定义的一般原理可以应用于其他方面。因此,权利要求不旨在限于本文所示的方面,而是旨在使全部范围与权利要求的语言表述相一致,其中除非具体如此陈述,对单数要素的引用并非旨在意为“一个且仅一个”,而是表示“一个或多个”。除非另外特别说明,否则术语“一些”是指一个或多个。男性的代词(例如,他的)包括女性和中性(例如,她的和它的),反之亦然。标题和副标题(如果有的话)仅用于方便而使用,并不限制本发明。谓语词“被配置为”,“可操作为”和“被编程为”并不意味着对主语的任何特定的有形或无形修改,而是旨在可互换地使用。例如,被配置以监视和控制操作或部件的处理器,还可以意为该处理器被编程以监视和控制该操作,或者处理器可被操作以监视和控制该操作。同样地,被配置以执行代码的处理器可以解释为被编程以执行代码或可操作以执行代码的处理器。
诸如“方面”的短语并非表明这样的方面对于本主题技术是必不可少的,或者这样的方面适用于本主题技术的所有配置。涉及一方面的公开可适用于所有配置,或者一个或多个配置。一个方面可以提供一个或多个示例。诸如“方面”的短语可以指代一个或多个方面,反之亦然。诸如“实施例”的短语并非表明这样的实施例对于本主题技术是必不可少的,或者这样的实施例适用于本主题技术的所有配置。涉及一个实施例的公开可以适用于所有实施例,或者一个或多个实施例。实施例可以提供一个或多个示例。诸如“实施例”的短语可以指代一个或多个实施例,反之亦然。诸如“配置”之类的短语并不表明这种配置对于本主题技术是必不可少的,或者这种配置适用于本主题技术的所有配置。涉及一种配置的公开可以适用于所有配置,或者一个或多个配置。一种配置可以提供一个或多个示例。诸如“配置”的短语可以指代一个或多个配置,反之亦然。
本文所使用“示例”一词来表示“用作示例或说明”。本文中描述为“示例”的任何方面或设计并不必定被解释为比其他方面或设计更优选的或更具优势。
本领域普通技术人员已知或以后将会知道的贯穿本发明所描述的各个方面的元件等同的所有结构和功能通过引用被明确地并入本文,并且旨在由权利要求所涵盖。此外,无论在权利要求中是否明确地叙述了这样的公开,本文所公开的内容都不旨在捐献给公众。此外,关于说明书或权利要求中所使用的术语“包括”、“具有”或类似术语的含义,这样的术语旨在被包括在术语“包含”的方式内,类似于当“包括”在权利要求中被用作连接词时,对“包括”的解释那样。
对“一实施例”、“一个实施例”、“一些实施例”、“各种实施例”或类似表述的引用表示特定元件或特征包括于本发明的至少一个实施例中。尽管短语可能出现在各个地方,但短语不一定指的是同一实施例。连同本发明,本领域技术人员将能够设计和结合适合于实现上述功能的各种机制中的任何一种。
应当理解,本公开仅教导了说明性实施例的一个示例,并且本领域技术人员在阅读本公开之后能够容易地设计出本发明的许多变型,本发明的范围由以下权利要求确定。

Claims (13)

1.一种在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,所述卷积神经网络用于图像识别,所述方法包括:
由处理器确定网络输入和网络输出之间的通道数量N;
构造N个查询表,所述存储器中的每个所述查询表与各自的通道匹配;
合并所述网络输入和所述网络输出之间的所述通道;
对N个通道数据流进行分类;
通过分类的N个通道数据流修剪滤波器;以及
基于所述N个查询表修剪所述卷积神经网络中的所述滤波器,以在所述网络输入和所述网络输出之间建立直连,以减小所述滤波器的尺寸,减少所述存储器的存储和提高计算效率;
其中,所述N个通道数据流的分类是仅由ResNet使用、添加到ResNet以及旁路中的一个,并且如果所述通道数据流被分类为仅由ResNet使用,则在根据所述N个查询表的计算后将其去除。
2.根据权利要求1所述的在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,还包括:
确定在一组相关滤波器内的滤波器元素的多个分组;
确定所述滤波器元素的多个分组中的每一个的权重;
基于所述权重确定掩码;以及
基于该组相关滤波器中每一个滤波器内的所述掩码,修剪所述滤波器元素的多个分组。
3.根据权利要求1所述的在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,还包括:
确定并行处理通道PPC的数量;
确定所述网络输入和所述网络输出之间的所述通道数量N;以及
将所述通道数量N修剪为所述并行处理通道PPC的数量的整数倍。
4.根据权利要求3所述的在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,其中,基于可以并行处理的乘积累加阵列的硬件特定数量确定所述并行处理通道PPC的数量。
5.根据权利要求4所述的在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,其中,在训练过程中进行对所述通道数量N的修剪。
6.一种在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,所述卷积神经网络用于图像识别,所述方法包括:
由处理器确定网络输入和网络输出之间的通道数量N;
构造N个查询表,所述存储器中的每个所述查询表与各自的通道匹配;
合并所述网络输入和所述网络输出之间的所述通道;
对N个通道数据流进行分类;以及
通过分类的N个通道数据流修剪滤波器,以减小所述滤波器的尺寸,减少所述存储器的存储和提高计算效率;
其中,所述N个通道数据流的分类是仅由ResNet使用、添加到ResNet以及旁路中的一个,如果所述通道数据流被分类为仅由ResNet使用,则在基于所述N个查询表的计算后将其去除。
7.根据权利要求6所述的在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,还包括:
确定在一组相关滤波器内的滤波器元素的多个分组;
确定所述滤波器元素的多个分组中的每一个的权重;
基于所述权重确定掩码;以及
基于该组相关滤波器中每一个滤波器内的所述掩码修剪所述滤波器元素的多个分组。
8.根据权利要求7所述的在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,还包括:
确定并行处理通道PPC的数量;以及
将所述通道数量N修剪为所述并行处理通道PPC的数量的整数倍。
9.一种在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,所述卷积神经网络用于图像识别,所述方法包括:
确定在一组相关滤波器内的滤波器元素的多个分组;
确定所述滤波器元素的多个分组中的每一个的权重;
基于所述权重确定掩码;
基于该组相关滤波器中每一个滤波器内的所述掩码修剪所述滤波器元素的多个分组,以减小所述滤波器的尺寸,减少所述存储器的存储和提高计算效率;
由处理器确定网络输入和网络输出之间的通道数量N;
构造N个查询表,所述存储器中的每个所述查询表与各自的通道匹配;
对N个通道数据流进行分类;
通过分类的N个通道数据流修剪滤波器;以及
基于所述N个查询表修剪所述卷积神经网络中的滤波器,以在所述网络输入和所述网络输出之间建立直连;
其中,N个通道数据流的分类是仅由ResNet使用、添加到ResNet以及旁路中的一个,并且如果所述通道数据流被分类为仅由ResNet使用,则在根据所述N个查询表的计算后将其去除。
10.一种在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,所述卷积神经网络用于图像识别,所述方法包括:
由处理器确定并行处理通道PPC的数量;
确定网络输入和网络输出之间的通道数量N;
将所述通道数量N修剪为所述并行处理通道PPC的数量的整数倍,以减小所述存储器的尺寸,减少所述存储器的存储和提高计算效率;
构造N个查询表,所述存储器中的每个所述查询表与各自的通道匹配;
对N个通道数据流进行分类;
通过分类的N个通道数据流修剪滤波器;以及
基于所述N个查询表修剪所述卷积神经网络中的所述滤波器,以在所述网络输入和所述网络输出之间建立直连;
其中,N个通道数据流的分类是仅由ResNet使用、添加到ResNet以及旁路中的一个,并且如果所述通道数据流被分类为仅由ResNet使用,则在根据所述N个查询表的计算后将其去除。
11.根据权利要求10所述的在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,其中,基于可并行处理的乘积累加阵列的硬件特定数量确定所述并行处理通道PPC的数量。
12.根据权利要求10所述的在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,其中,在训练过程中进行对所述通道数量N的修剪。
13.根据权利要求12所述的在训练期间修剪存储器中的卷积神经网络的计算机实现的方法,还包括:
确定在一组相关滤波器内的滤波器元素的多个分组;
确定所述滤波器元素的多个分组中的每一个的权重;
基于所述权重确定掩码;以及
基于该组相关滤波器中每一个滤波器内的所述掩码修剪所述滤波器元素的多个分组。
CN202010274418.7A 2020-04-09 2020-04-09 修剪卷积神经网络的方法 Active CN113516237B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010274418.7A CN113516237B (zh) 2020-04-09 2020-04-09 修剪卷积神经网络的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010274418.7A CN113516237B (zh) 2020-04-09 2020-04-09 修剪卷积神经网络的方法

Publications (2)

Publication Number Publication Date
CN113516237A CN113516237A (zh) 2021-10-19
CN113516237B true CN113516237B (zh) 2024-01-09

Family

ID=78060280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010274418.7A Active CN113516237B (zh) 2020-04-09 2020-04-09 修剪卷积神经网络的方法

Country Status (1)

Country Link
CN (1) CN113516237B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875361A (zh) * 2017-02-17 2017-06-20 深圳市唯特视科技有限公司 一种基于深度卷积神经网络去除泊松噪声的方法
CN108764471A (zh) * 2018-05-17 2018-11-06 西安电子科技大学 基于特征冗余分析的神经网络跨层剪枝方法
CN108846445A (zh) * 2018-06-26 2018-11-20 清华大学 一种基于相似性学习的卷积神经网络滤波器剪枝技术
CN110276450A (zh) * 2019-06-25 2019-09-24 交叉信息核心技术研究院(西安)有限公司 基于多粒度的深度神经网络结构化稀疏系统和方法
CN110414608A (zh) * 2019-07-31 2019-11-05 西安第六镜网络科技有限公司 一种针对于ResNet的按通道剪枝算法
CN110598848A (zh) * 2019-08-16 2019-12-20 中国科学院计算技术研究所 一种基于通道剪枝的迁移学习加速方法
CN110633747A (zh) * 2019-09-12 2019-12-31 网易(杭州)网络有限公司 目标检测器的压缩方法、装置、介质以及电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11651223B2 (en) * 2017-10-27 2023-05-16 Baidu Usa Llc Systems and methods for block-sparse recurrent neural networks
CN110321999B (zh) * 2018-03-30 2021-10-01 赛灵思电子科技(北京)有限公司 神经网络计算图优化方法
US20190362235A1 (en) * 2018-05-23 2019-11-28 Xiaofan Xu Hybrid neural network pruning
US11710029B2 (en) * 2018-09-28 2023-07-25 Intel Corporation Methods and apparatus to improve data training of a machine learning model using a field programmable gate array

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106875361A (zh) * 2017-02-17 2017-06-20 深圳市唯特视科技有限公司 一种基于深度卷积神经网络去除泊松噪声的方法
CN108764471A (zh) * 2018-05-17 2018-11-06 西安电子科技大学 基于特征冗余分析的神经网络跨层剪枝方法
CN108846445A (zh) * 2018-06-26 2018-11-20 清华大学 一种基于相似性学习的卷积神经网络滤波器剪枝技术
CN110276450A (zh) * 2019-06-25 2019-09-24 交叉信息核心技术研究院(西安)有限公司 基于多粒度的深度神经网络结构化稀疏系统和方法
CN110414608A (zh) * 2019-07-31 2019-11-05 西安第六镜网络科技有限公司 一种针对于ResNet的按通道剪枝算法
CN110598848A (zh) * 2019-08-16 2019-12-20 中国科学院计算技术研究所 一种基于通道剪枝的迁移学习加速方法
CN110633747A (zh) * 2019-09-12 2019-12-31 网易(杭州)网络有限公司 目标检测器的压缩方法、装置、介质以及电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Channel Pruning for Accelerating Very Deep Neural Networks;Yihui He 等;《arXiv:1707.06168v2》;1-10 *
LookNN neural network with no multiplication;Mohammad Samragh Razlighi ECE Department 等;《Design, Automation & Test in Europe Conference & Exhibition (DATE), 2017》;1-6 *
基于通道剪枝的模型压缩和加速算法研究;韩冰冰;《中国优秀硕士学位论文全文数据库 信息科技辑》;I138-989 *

Also Published As

Publication number Publication date
CN113516237A (zh) 2021-10-19

Similar Documents

Publication Publication Date Title
US20230351186A1 (en) Processing for multiple input data sets
CN111684473B (zh) 提高神经网络阵列的性能
CN109102065B (zh) 一种基于PSoC的卷积神经网络加速器
CN109635944B (zh) 一种稀疏卷积神经网络加速器及实现方法
CN107169560B (zh) 一种自适应可重构的深度卷积神经网络计算方法和装置
US10445638B1 (en) Restructuring a multi-dimensional array
US10846591B2 (en) Configurable and programmable multi-core architecture with a specialized instruction set for embedded application based on neural networks
CN107578099B (zh) 计算装置和方法
US20190087713A1 (en) Compression of sparse deep convolutional network weights
Venkataramanaiah et al. Automatic compiler based FPGA accelerator for CNN training
US11625607B2 (en) Method of structured network pruning and sparsity speed-up
Xia et al. Fully dynamic inference with deep neural networks
CN114341891A (zh) 神经网络剪枝
Abdelsalam et al. An efficient FPGA-based overlay inference architecture for fully connected DNNs
US10733498B1 (en) Parametric mathematical function approximation in integrated circuits
US20200226458A1 (en) Optimizing artificial neural network computations based on automatic determination of a batch size
CN110543936A (zh) 一种cnn全连接层运算的多并行加速方法
US11537860B2 (en) Neural net work processing
CN114898108B (zh) 一种基于fpga的cnn模型轻量化方法、目标检测方法及系统
CN114925320B (zh) 一种数据处理方法及相关装置
CN114626516A (zh) 一种基于对数块浮点量化的神经网络加速系统
CN113516237B (zh) 修剪卷积神经网络的方法
CN112132281A (zh) 一种基于人工智能的模型训练方法、装置、服务器及介质
Abdelsalam et al. POLYBiNN: a scalable and efficient combinatorial inference engine for neural networks on FPGA
US20220253709A1 (en) Compressing a Set of Coefficients for Subsequent Use in a Neural Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant