CN112116066A - 一种神经网络的计算方法、系统、设备以及介质 - Google Patents
一种神经网络的计算方法、系统、设备以及介质 Download PDFInfo
- Publication number
- CN112116066A CN112116066A CN202010876952.5A CN202010876952A CN112116066A CN 112116066 A CN112116066 A CN 112116066A CN 202010876952 A CN202010876952 A CN 202010876952A CN 112116066 A CN112116066 A CN 112116066A
- Authority
- CN
- China
- Prior art keywords
- convolutional layer
- storage
- calculated
- storing
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 31
- 238000010586 diagram Methods 0.000 claims abstract description 58
- 230000004044 response Effects 0.000 claims abstract description 20
- 239000010410 layer Substances 0.000 claims description 98
- 238000000034 method Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 8
- 239000002356 single layer Substances 0.000 claims description 4
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种神经网络的计算方法,包括以下步骤:将存储设备分为多个存储空间以存储特征图;向当前卷积层发送用于存储待计算的特征图的存储空间对应的地址;利用所述当前卷积层获取并计算所述对应的地址中的待计算的特征图;判断向所述当前卷积层发送的存储空间中的待计算的特征图是否需要作为其他卷积层的输入;响应于不需要作为其他卷积层的输入且所述当前卷积层计算完成,释放用于存储当前卷积层对应的待计算的特征图的存储空间。本发明还公开了一种系统、计算机设备以及可读存储介质。本发明提出的方案可以在计算资源受限的边缘计算设备上正常推理的同时,提高其特征图的读写速率以及存储空间的利用率。
Description
技术领域
本发明涉及神经网络领域,具体涉及一种神经网络的计算方法、系统、设备以及存储介质。
背景技术
神经网络的计算是自上而下,也就是下一层的计算输入来自于上一层的计算输出。因此在整个计算过程中,一张特征图需要写入内存和读取内存两个操作。DDR和SRAM是常用的存储器。SRAM具有较高的性能,其读写速度要快于DDR,但是SRAM也有它的缺点,即它的集成度较低,功耗较DDR高,相同容量的DDR内存可以设计为较小的体积,但是SRAM却需要很大的体积。同样面积的硅片可以做出更大容量的DDR,因此SRAM显得更贵。由于受限于硬件成本以及功耗等因素,对于计算量较大的网络,通常将其特征图存放在DDR中。
通常针对神经网络计算,在边缘计算端,通常有以下两种存储方式,第一,对于小网络比如Lenet,计算其feature与SRAM的大小关系,若小于SRAM空间,则将feature(特征图)存放在SRAM上;第二,对于大型网络,其feature显然超过SRMA的空间大小,则将所有的feature存放在DDR上,其存储方式有两种,第一种是无限堆叠方式,即有多个feature则开辟多个DDR内存,第二种是采用DDR内存共享方式。第三,在FPGA上增加编码以及解码模块,对特征图进行编码以达到数据压缩的目的,减少特征图的存储空间大小。
如上所述技术方法,方法一,虽然利用了SRAM的高速存储特性,但只适用于小网络的计算,而通常小网络应用面很窄。方法二,显然不管是使用无线堆叠还是使用内存共享方式,其存储单元都在DDR上,而大量的数据写入和读取识别成为整体推理时间的瓶颈之一。方法三,通过加入压缩模块,可解决部分中型网络的存储问题,但增加压缩和解压缩模块,会降低网络的推理时间。
发明内容
有鉴于此,为了克服上述问题的至少一个方面,本发明实施例提出一种神经网络的计算方法,包括以下步骤:
将存储设备分为多个存储空间并分别存储特征图;
向当前卷积层发送用于存储待计算的特征图的存储空间对应的地址;
利用所述当前卷积层获取并计算所述对应的地址中的待计算的特征图;
判断向所述当前卷积层发送的存储空间中的待计算的特征图是否需要作为其他卷积层的输入;
响应于不需要作为其他卷积层的输入且所述当前卷积层计算完成,释放用于存储当前卷积层对应的待计算的特征图的存储空间。
在一些实施例中,还包括:
检查所述多个存储空间的使用状态;
将所述当前卷积层计算输出的特征图存储到未使用的存储空间并记录对应关系以向利用所述当前卷积层输出的特征图进行计算的下一层卷积层发送对应的存储空间的地址。
在一些实施例中,将存储设备分为多个存储空间并分别存储特征图,进一步包括:
统计神经网络的最大分支数和单层卷积层输出的特征图所需的最大存储空间;
根据所述最大分支数和所述最大存储空间计算理论所需缓存空间大小;
比较所述理论所需缓存空间与所述存储设备的大小;
响应于所述存储设备不小于所述理论所需缓存空间,将所述存储设备分为(所述最大分支数+1)个存储空间。
在一些实施例中,还包括:
计算所述神经网络的每一层卷积层输出的特征图所需的总空间大小;
比较所述总空间大小与所述存储设备的大小;
响应于所述总空间小于所述存储设备,利用线性堆叠的方式存储所述每一层卷积层输出的特征图。
在一些实施例中,还包括:
响应于所述总空间大于所述存储设备,将所述存储设备分为(所述最大分支数+1)个存储空间。
在一些实施例中,还包括:
响应于需要作为其他卷积层的输入且所述当前卷积层计算完成,不释放用于存储当前卷积层对应的待计算的特征图的存储空间。
在一些实施例中,还包括:
响应于所述其他卷积层计算完成,释放所述存储当前卷积层对应的待计算的特征图的存储空间。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种神经网络的计算系统,包括:
划分模块,所述划分模块配置为将存储设备分为多个存储空间并分别存储特征图;
发送模块,所述发送模块配置为向当前卷积层发送用于存储待计算的特征图的存储空间对应的地址;
卷积层模块,所述卷积层模块配置为利用所述当前卷积层获取并计算所述对应的地址中的待计算的特征图;
判断模块,所述判断模块配置为判断向所述当前卷积层发送的存储空间中的待计算的特征图是否需要作为其他卷积层的输入;
释放模块,所述释放模块配置为响应于不需要作为其他卷积层的输入且所述当前卷积层计算完成,释放用于存储当前卷积层对应的待计算的特征图的存储空间。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如上所述的任一种神经网络的计算方法的步骤。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种神经网络的计算方法的步骤。
本发明具有以下有益技术效果之一:本发明提出的方案可以在计算资源受限的边缘计算设备上正常推理的同时,提高其特征图的读写速率以及存储空间的利用率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明的实施例提供的神经网络的计算方法的流程示意图;
图2为本发明的实施例提供的神经网络的计算方法的流程框图;
图3为本发明的实施例提供的神经网络的结构示意图;
图4为本发明的实施例提供的神经网络的计算系统的结构示意图;
图5为本发明的实施例提供的计算机设备的结构示意图;
图6为本发明的实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
根据本发明的一个方面,本发明的实施例提出一种神经网络的计算方法,如图1所示,其可以包括步骤:
S1,将存储设备分为多个存储空间并分别存储特征图;
S2,向当前卷积层发送用于存储待计算的特征图的存储空间对应的地址;
S3,利用所述当前卷积层获取并计算所述对应的地址中的待计算的特征图;
S4,判断向所述当前卷积层发送的存储空间中的待计算的特征图是否需要作为其他卷积层的输入;
S5,响应于不需要作为其他卷积层的输入且所述当前卷积层计算完成,释放用于存储当前卷积层对应的待计算的特征图的存储空间。
本发明提出的方案可以在计算资源受限的边缘计算设备上正常推理的同时,提高其特征图的读写速率以及存储空间的利用率。
在一些实施例中,还包括:
检查所述多个存储空间的使用状态;
将所述当前卷积层计算输出的特征图存储到未使用的存储空间并记录对应关系以向利用所述当前卷积层输出的特征图进行计算的下一层卷积层发送对应的存储空间的地址。
在一些实施例中,将存储设备分为多个存储空间并分别存储特征图,进一步包括:
统计神经网络的最大分支数和单层卷积层输出的特征图所需的最大存储空间;
根据所述最大分支数和所述最大存储空间计算理论所需缓存空间大小;
比较所述理论所需缓存空间与所述存储设备的大小;
响应于所述存储设备不小于所述理论所需缓存空间,将所述存储设备分为(所述最大分支数+1)个存储空间。
具体的,在一些实施例中,还包括:
计算所述神经网络的每一层卷积层输出的特征图所需的总空间大小;
比较所述总空间大小与所述存储设备的大小;
响应于所述总空间小于所述存储设备,利用线性堆叠的方式存储所述每一层卷积层输出的特征图。
在一些实施例中,还包括:
响应于所述总空间大于所述存储设备,将所述存储设备分为(所述最大分支数+1)个存储空间。
在一些实施例中,还包括:
响应于需要作为其他卷积层的输入且所述当前卷积层计算完成,不释放用于存储当前卷积层对应的待计算的特征图的存储空间。
在一些实施例中,还包括:
响应于所述其他卷积层计算完成,释放所述存储当前卷积层对应的待计算的特征图的存储空间。
下面结合图2和图3对本发明提出的神经网络的计算方法进行详细说明。
在一些实施例中,如图2所示,可以确定硬件SRAM总大小Totalsram,并且可以根据神经网络的参数确定所有卷积层的特征图占用空间大小Totalfeature,单层特征图最大空间Maxfeature,所有网络层的最大输入个数Maxinputnum,如卷积层、Batchnorm等层均为单输入单输出,其输入个数为1。而eltwise层需要接收两个分支的输入,因此其输入个数为2,进而确定神经网络的所有feature所需空间大小。假如网络的层数为Numlayer,输入特征图的维度为Ci*HFi*WFi,则该网络的所有feature所需空间大小为Totalfeature=∑Ni*HFi*WFi,Maxfeature=MAX(Ni*HFi*WFi)。
如图2所示,可以统计每层特征图占用空间大小,计算得出Maxfeature,特征图占用SRAM的空间大小为(1+Maxinputnum)*Maxfeature。当Totalfeature≤Totalsram时,显然可将所有的特征图以线性堆叠方式存放在第一类存储器(例如SRAM)上;当(1+Maxinputnum)*Maxfeature≤Totalsram时,需要采用动态擦写方式将特征图存放在第一类存储器(例如SRAM)上;当(1+Maxinputnum)*Maxfeature>Totalsram,将特征图以线性堆叠或者存储空间共享的方式存储在第二类存储器(例如DDR)上。
如图3所示,当采用动态擦写方式将特征图存放在SRAM上时,可以将存储设备(SRAM)平均划分为(1+Maxinputnum)个存储空间,按需动态擦写的方式将特征图放到SRAM上。以Resnet50为例,其eltwise层有2个输入,因此特征图所占用的空间大小为3*Maxfeature。在实际硬件计算中,一般是按通道计算,即计算完一个通道,则将该通道的结果直接写入存储器中,这里指SRAM中。以Resnet50的一个典型的block(计算单元)为例,如下图3所示。对SRAM的空间平均划为3块,并对3块sram进行标号,标为0,1,2,并且可以将输入特征图feature1存放在标号为0的sram上,当第一个卷积Conv0计算时,可以向第一个卷积Conv0发送用于存储待计算的特征图的存储空间对应的地址,即标号为0的sram,当第一个卷积Conv0计算完时,可以检查每个sram的使用状态,输出特征图存放在标号为1的sram上,由于其输出特征图需要作为eltwise层的输入,因此在eltwise层计算结束之前,该空间不能被释放。当开启第二个卷积Conv1计算时,检查SRAM的使用状态,标号为0的空间存储其输入特征图,标号为1的空间存储eltwise的输入特征图,但eltwise层未完成计算,因此标号为0和1的SRAM空间不能释放。因此将Conv1的输出特征图存放在标号为2的SRAM上。同理在开始Conv2计算时,检查SRAM的使用状态,标号为0的空间,需要其作为输入特征图的两个计算Conv0以及Conv1已经完成,因此可释放标号为0的空间,将Conv2的输出特征图存放在标号为0的Sram空间上。同理类推Conv3的计算,可释放标号为2的SRAM空间,并将其输出存储在该内存块上。当进行eltwise层计算时,标号为1和2的空间存储其输入,而标号为0的空间存储的特征图为Conv3的输入,而Conv3已经结束,因此eltwise层的输出可存储在标号为0的Sram空间上。这样的方式,可实现sram空间的复用,动态擦写。
本发明通过对整个网络特征图所需空间、输入个数以及SRAM大小进行分析,并根据特征图所需缓存空间大小,设计特征图在硬件上存储的三种方法,并进一步给出在SRAM上的动态擦写方法。解决计算量较大,其特征图读写成为网络推理速度的瓶颈的问题,并且该方法无需对数据压缩和解压缩操作,因此不会增加额外的计算。
本发明提出的方案,通过设置特征图在硬件上的三种方法(即小网络其特征图线性叠加的SRAM存储模式;动态擦写的SRAM存储模式;以及超大网络的线性叠加或共享内存的DDR存储模式)以及SRAM空间动态擦写的算法思想,在保证大型网络如Resnet50可在计算资源受限的边缘计算设备上可正常推理的同时,通过提高其特征图的读写速率,提高深度神经网络在边缘计算端的推理速度。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种神经网络的计算系统400,如图4所示,包括:
划分模块401,所述划分模块401配置为将存储设备分为多个存储空间并分别存储特征图;
发送模块402,所述发送模块402配置为向当前卷积层发送用于存储待计算的特征图的存储空间对应的地址;
卷积层模块403,所述卷积层模块403配置为利用所述当前卷积层获取并计算所述对应的地址中的待计算的特征图;
判断模块404,所述判断模块404配置为判断向所述当前卷积层发送的存储空间中的待计算的特征图是否需要作为其他卷积层的输入;
释放模块405,所述释放模块405配置为响应于不需要作为其他卷积层的输入且所述当前卷积层计算完成,释放用于存储当前卷积层对应的待计算的特征图的存储空间。
基于同一发明构思,根据本发明的另一个方面,如图5所示,本发明的实施例还提供了一种计算机设备501,包括:
至少一个处理器520;以及
存储器510,存储器510存储有可在处理器上运行的计算机程序511,处理器520执行程序时执行如上的任一种神经网络的计算方法的步骤。
基于同一发明构思,根据本发明的另一个方面,如图6所示,本发明的实施例还提供了一种计算机可读存储介质601,计算机可读存储介质601存储有计算机程序指令610,计算机程序指令610被处理器执行时执行如上的任一种神经网络的计算方法的步骤。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种神经网络的计算方法,其特征在于,包括以下步骤:
将存储设备分为多个存储空间并分别存储特征图;
向当前卷积层发送用于存储待计算的特征图的存储空间对应的地址;
利用所述当前卷积层获取并计算所述对应的地址中的待计算的特征图;
判断向所述当前卷积层发送的存储空间中的待计算的特征图是否需要作为其他卷积层的输入;
响应于不需要作为其他卷积层的输入且所述当前卷积层计算完成,释放用于存储当前卷积层对应的待计算的特征图的存储空间。
2.如权利要求1所述的方法,其特征在于,还包括:
检查所述多个存储空间的使用状态;
将所述当前卷积层计算输出的特征图存储到未使用的存储空间并记录对应关系以向利用所述当前卷积层输出的特征图进行计算的下一层卷积层发送对应的存储空间的地址。
3.如权利要求1所述的方法,其特征在于,将存储设备分为多个存储空间并分别存储特征图,进一步包括:
统计神经网络的最大分支数和单层卷积层输出的特征图所需的最大存储空间;
根据所述最大分支数和所述最大存储空间计算理论所需缓存空间大小;
比较所述理论所需缓存空间与所述存储设备的大小;
响应于所述存储设备不小于所述理论所需缓存空间,将所述存储设备分为(所述最大分支数+1)个存储空间。
4.如权利要求3所述的方法,其特征在于,还包括:
计算所述神经网络的每一层卷积层输出的特征图所需的总空间大小;
比较所述总空间大小与所述存储设备的大小;
响应于所述总空间小于所述存储设备,利用线性堆叠的方式存储所述每一层卷积层输出的特征图。
5.如权利要求4所述的方法,其特征在于,还包括:
响应于所述总空间大于所述存储设备,将所述存储设备分为(所述最大分支数+1)个存储空间。
6.如权利要求1所述的方法,其特征在于,还包括:
响应于需要作为其他卷积层的输入且所述当前卷积层计算完成,不释放用于存储当前卷积层对应的待计算的特征图的存储空间。
7.如权利要求6所述的方法,其特征在于,还包括:
响应于所述其他卷积层计算完成,释放所述存储当前卷积层对应的待计算的特征图的存储空间。
8.一种神经网络的计算系统,其特征在于,包括:
划分模块,所述划分模块配置为将存储设备分为多个存储空间并分别存储特征图;
发送模块,所述发送模块配置为向当前卷积层发送用于存储待计算的特征图的存储空间对应的地址;
卷积层模块,所述卷积层模块配置为利用所述当前卷积层获取并计算所述对应的地址中的待计算的特征图;
判断模块,所述判断模块配置为判断向所述当前卷积层发送的存储空间中的待计算的特征图是否需要作为其他卷积层的输入;
释放模块,所述释放模块配置为响应于不需要作为其他卷积层的输入且所述当前卷积层计算完成,释放用于存储当前卷积层对应的待计算的特征图的存储空间。
9.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-7任意一项所述的方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行如权利要求1-7任意一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010876952.5A CN112116066B (zh) | 2020-08-27 | 2020-08-27 | 一种神经网络的计算方法、系统、设备以及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010876952.5A CN112116066B (zh) | 2020-08-27 | 2020-08-27 | 一种神经网络的计算方法、系统、设备以及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112116066A true CN112116066A (zh) | 2020-12-22 |
CN112116066B CN112116066B (zh) | 2022-12-20 |
Family
ID=73804467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010876952.5A Active CN112116066B (zh) | 2020-08-27 | 2020-08-27 | 一种神经网络的计算方法、系统、设备以及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112116066B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190019050A1 (en) * | 2017-07-14 | 2019-01-17 | Google Inc. | Object detection using neural network systems |
CN110363086A (zh) * | 2019-06-11 | 2019-10-22 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 图数据识别方法、装置、计算机设备和存储介质 |
CN110443357A (zh) * | 2019-08-07 | 2019-11-12 | 上海燧原智能科技有限公司 | 卷积神经网络计算优化方法、装置、计算机设备及介质 |
CN111414992A (zh) * | 2020-02-24 | 2020-07-14 | 北京爱芯科技有限公司 | 使用卷积神经网络对图像进行卷积计算的方法和装置 |
-
2020
- 2020-08-27 CN CN202010876952.5A patent/CN112116066B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190019050A1 (en) * | 2017-07-14 | 2019-01-17 | Google Inc. | Object detection using neural network systems |
CN110363086A (zh) * | 2019-06-11 | 2019-10-22 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 图数据识别方法、装置、计算机设备和存储介质 |
CN110443357A (zh) * | 2019-08-07 | 2019-11-12 | 上海燧原智能科技有限公司 | 卷积神经网络计算优化方法、装置、计算机设备及介质 |
CN111414992A (zh) * | 2020-02-24 | 2020-07-14 | 北京爱芯科技有限公司 | 使用卷积神经网络对图像进行卷积计算的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112116066B (zh) | 2022-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017156968A1 (zh) | 神经网络的计算方法、系统及其装置 | |
CN109753443B (zh) | 一种数据处理方法、装置及电子设备 | |
CN111079917B (zh) | 张量数据分块存取的方法及装置 | |
CN110738316B (zh) | 基于神经网络的操作方法、装置及电子设备 | |
WO2017173754A1 (zh) | 片上重复寻址的方法及装置 | |
CN112668708A (zh) | 一种提高数据利用率的卷积运算装置 | |
US20230004809A1 (en) | Method and Device for Model Compression of Neural Network | |
CN112116066B (zh) | 一种神经网络的计算方法、系统、设备以及介质 | |
CN114005458A (zh) | 基于流水线架构的语音降噪方法、系统及存储介质 | |
WO2021227789A1 (zh) | 存储空间的分配方法、装置、终端及计算机可读存储介质 | |
CN112836815A (zh) | 用于执行卷积神经网络运算的处理装置与处理方法 | |
CN110019347A (zh) | 一种区块链的数据处理方法、装置及终端设备 | |
CN111782153A (zh) | 一种基于读取数据的方法、系统、设备以及介质 | |
CN111783984A (zh) | 一种神经网络运算方法、装置、设备及存储介质 | |
CN113052292B (zh) | 卷积神经网络技术方法、装置及计算机可读存储介质 | |
CN111258955B (zh) | 一种文件读取方法和系统、存储介质、计算机设备 | |
CN110377262B (zh) | 数据存储方法及装置、存储介质和处理器 | |
CN113052291A (zh) | 数据处理方法和装置 | |
CN114519023B (zh) | 一种多端口Ram的实现方法 | |
US20230168809A1 (en) | Intelligence processor device and method for reducing memory bandwidth | |
CN114185488B (zh) | 一种大数据集群的存储优化方法及系统 | |
US11442643B2 (en) | System and method for efficiently converting low-locality data into high-locality data | |
CN116450054B (zh) | Io请求处理方法、装置、主机和计算机可读存储介质 | |
CN113553009B (zh) | 数据读取方法、数据写入方法及数据读写方法 | |
CN110703982B (zh) | 一种结构体排序方法、排序装置及排序器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |