CN110942145A - 基于可重构计算的卷积神经网络池化层、硬件实现方法及系统 - Google Patents
基于可重构计算的卷积神经网络池化层、硬件实现方法及系统 Download PDFInfo
- Publication number
- CN110942145A CN110942145A CN201911014329.2A CN201911014329A CN110942145A CN 110942145 A CN110942145 A CN 110942145A CN 201911014329 A CN201911014329 A CN 201911014329A CN 110942145 A CN110942145 A CN 110942145A
- Authority
- CN
- China
- Prior art keywords
- pooling
- layer
- convolutional neural
- neural network
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011176 pooling Methods 0.000 title claims abstract description 162
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims abstract description 43
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 19
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Advance Control (AREA)
Abstract
本发明涉及基于一种可重构计算的卷积神经网络池化层、硬件实现方法及系统,该系统包括:控制单元、数据暂存单元、最大池化/平均池化计算单元。控制单元用于读取配置信息,通过有限状态机控制卷积神经网络池化层的运算流程,通过调用最大池化/平均池化计算单元以实现最大池化和平均池化算法;数据暂存单元用于存储计算所需的输入层信息及输出层结果;最大池化/平均池化计算单元用于计算输出层中各个通道的信息。本发明提出了一种可重构的卷积神经网络池化层硬件架构,计算资源和存储资源都可以进行裁剪拆分,在保证算法精度的情况下,高并行度的最大池化/平均池化计算单元大大提高了算法的硬件实现速度,该架构可适用于各种人工智能场景。
Description
技术领域
本发明涉及人工智能算法领域,尤其涉及基于可重构计算的卷积神经网络池化层的硬件实现。
背景技术
卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deeplearning)的代表算法之一。对卷积神经网络的研究始于二十世纪80至90年代,时间延迟网络和LeNet-5是最早出现的卷积神经网络;在二十一世纪后,随着深度学习理论的提出和数值计算设备的改进,卷积神经网络得到了快速发展,并被大量应用于计算机视觉、自然语言处理等领域。
卷积神经网络的隐含层包含卷积层、池化层和全连接层3类常见构筑,在一些更为现代的算法中可能有Inception模块、残差块(residual block)等复杂构筑。在常见构筑中,卷积层和池化层为卷积神经网络特有。以LeNet-5为例,3类常见构筑在隐含层中的顺序通常为:输入-卷积层-池化层-卷积层-池化层-全连接层-输出。
在卷积层进行特征提取后,输出的特征图会被传递至池化层进行特征选择和信息过滤。池化层包含预设定的池化函数,其功能是将特征图中单个点的结果替换为其相邻区域的特征图统计量。池化层选取池化区域与卷积核扫描特征图步骤相同,由池化大小、步长和填充控制。平均池化和最大池化是最常见的池化方法,二者以损失特征图尺寸为代价保留图像的背景和纹理信息。池化操作在每个深度切片上进行,例如最大池化中,常用的池化核为2x2大小,在每个深度切片的宽度和高度方向进行下采样,忽略掉75%(3/4)的激活信息,池化操作的过程中,保持深度大小不变。
发明内容
发明目的:本发明的目的在于提高池化层实现的灵活性,达到硬件资源与网络大小相适应。该发明提供了一种基于可重构计算的卷积神经网络池化层的硬件实现方法,该方法可以有效地提高卷积神经网络池化层的配置灵活性,减少硬件资源开销,更好地满足实际应用的需求。
技术方案:基于可重构计算的卷积神经网络池化层,包括:
控制单元,用于读取配置信息,通过有限状态机控制卷积神经网络池化层的运算流程,通过调用最大池化/平均池化计算单元以实现最大池化和平均池化算法;
数据暂存单元,用于存储计算所需的输入层信息及输出层结果;
最大池化/平均池化计算单元,用于计算输出层中各个通道的信息。
基于可重构计算的卷积神经网络池化层,包括:
控制单元,用于控制卷积神经网络池化层整个的运算流程,通过最大池化/平均池化计算单元来实现池化层的两种推理方式;
数据暂存单元,用于存储计算所需的输入层信息和输出层结果;
最大池化计算单元,用于在每个深度切片的宽度和高度方向下进行下采样,通过求所取样本内的最大值来减少卷积神经网络的数据量,其仅在最大池化时被激活;
平均池化计算单元,用于在每个深度切片的宽度和高度方向下进行下采样,通过求所取样本内的平均值来减少卷积神经网络的数据量,其仅在平均池化时被激活。
在进一步的实施例中,所述配置信息包括通道数、每层的大小、池化核的大小、步长以及池化实现方式。
在进一步的实施例中,所述最大池化/平均池化计算单元由最大池化计算单元和平均池化计算单元组成,最大池化计算单元由N路比较器组成,平均池化计算单元由N路累加器,以及四输入加法树组成,N代表并行路数,其取值取决于运算资源。
在进一步的实施例中, N路并行对于最大池化需要N个比较器,对于平均池化需要N个累加器,和N个四输入加法树,其中四输入加法树由3个加法器构成。
在进一步的实施例中,所述数据暂存单元可拆分为4* N个bank,其中输入层数据乒乓存入2 * N个bank中,输出层数据则乒乓存入其余2 * N个bank中。
基于可重构计算的卷积神经网络池化层的硬件实现方法,包括如下步骤:
步骤1、初始化:读取存储在缓存中的卷积神经网络输入层信息input及网络配置信息,并将配置信息传输至控制单元,包含通道数,每层的大小,池化核的大小,步长以及池化实现方式;
步骤2、数据传输:控制器根据当前访问层的通道数将对应的输入层信息传输至数据暂存单元,传输结束后跳转至步骤3;
步骤3、调用最大池化/平均池化计算单元:计算单元读取数据暂存单元中存储的信息,计算输出层的信息并存入数据暂存单元中;
步骤4、判决:判断是否已经计算完输入层所有通道数的信息,未完成则返回步骤2),已完成则结束算法,输出结果。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
有益效果:
第一,本发明实现了一种高性能的基于可重构计算的卷积神经网络池化层,可实现最大池化和平均池化两种运算方式,池化层的通道数,每层的大小,池化核的大小,步长以及池化实现方式可以灵活可配,可适用于各种应用场景。
第二,本发明提出了一种可以复用的最大池化/平均池化计算单元,采用全流水的多路并行设计方式,以缩短算法的运算周期,复用的计算单元提高了硬件利用率,减少了硬件开销。
第三,本发明提出的数据暂存单元可支持裁剪和拆分实现无冲突访存,以保证运算的全流水。
第四,本发明架构的主要计算单元为加法器,比较器,易于硬件实现,在保证性能的情况下,拥有低计算复杂度和低硬件开销。
综上所述,本发明可以有效地提高系统的性能、灵活性、数据处理能力和访存带宽,有着良好的实际应用价值。
附图说明
图1为本发明的实现方法流程示意图。
图2是本发明的计算模型示意图。
图3是本发明的实现系统架构示意图。
图4是本发明的计算单元硬件架构示意图。
图5是本发明的数据暂存单元无冲突访存示意图。
具体实施方式
在本发明中,基于可重构计算的卷积神经网络池化层的硬件实现方法,主要包括如下步骤:
步骤1)初始化:读取存储在缓存中的卷积神经网络输入层信息input及网络配置信息,并将配置信息传输至控制单元,包含通道数,每层的大小,池化核的大小,步长以及池化实现方式;
步骤2)数据传输:控制器根据当前访问层的通道数将对应的输入层信息传输至数据暂存单元,传输结束后跳转至步骤3);
步骤3)调用最大池化/平均池化计算单元:计算单元读取数据暂存单元中存储的信息,计算输出层的信息并存入数据暂存单元中;
步骤4)判决:判断是否已经计算完输入层所有通道数的信息,未完成则返回步骤2),已完成则结束算法,输出结果。
采用所述基于可重构计算的卷积神经网络池化层的硬件实现方法,该系统包括:
控制单元,读取配置信息,通过有限状态机控制卷积神经网络池化层的运算流程,通过调用最大池化/平均池化计算单元以实现最大池化和平均池化算法;
数据暂存单元,存储计算所需的输入层信息及输出层结果;
最大池化/平均池化计算单元,计算出输出层中各个通道的信息。
配置信息包括通道数,每层的大小,池化核的大小,步长以及池化实现方式;该方法可以根据配置信息进行重构,所执行池化层的通道数,每层的大小,池化核的大小,步长以及池化实现方式可以灵活可配。其最大池化/平均池化计算单元包括:
最大池化计算单元以及平均池化计算单元,最大池化计算单元由N路比较器组成,平均池化计算单元由N路累加器以及四输入加法树组成。最大池化/平均池化计算单元中的参数N代表并行路数,其取值取决于运算资源,N路并行对于最大池化需要N个比较器,对于平均池化需要N个累加器和N个四输入加法树,其中四输入加法树由3个加法器构成,该硬件架构中N灵活可配。数据暂存单元可进行裁剪拆分。将数据暂存单元拆分为4* N个bank,其中输入层数据乒乓存入2 * N个bank中,输出层数据则乒乓存入其余2 * N个bank中。
实施例1
如图1所示,本发明所述的基于可重构计算的卷积神经网络池化层的硬件实现方法,其具体实现流程如图1所示。该方法具体步骤如下:
步骤1)初始化:读取存储在缓存中的卷积神经网络输入层信息input及网络配置信息,并将配置信息传输至控制单元,其中包括通道总数Ch,输入层的大小L,池化核的大小F,步长S以及池化实现方式flag_max_avr和当前访问的通道数t;
步骤2)数据传输:控制器根据当前访问通道数t将对应的输入层信息传输至数据暂存单元,传输结束后跳转至步骤3);
步骤3)调用最大池化/平均池化计算单元:计算单元根据配置信息来调用最大池化或者平均池化模块,计算模块读取数据暂存单元中存储的输入层信息,计算池化层的输出结果,其计算过程以 2×2池化核为例,如图2所示,2×2的池化核以2为步长,在当前深度切片的宽度和高度方向进行下采样,忽略掉75%的激活信息,得出2×2大小的输出;
步骤4)判决:判断当前访问通道数t是否等于CNN的总通道数Ch,若t = Ch 判断为 已经计算完输入层所有通道数的信息,算法结束,否则返回步骤2 )。
如图3,本实例根据所述基于可重构计算的卷积神经网络池化层的硬件实现,提供一种基于可重构计算的卷积神经网络池化层的硬件实现方法,由控制单元,最大池化/平均池化计算单元和数据暂存单元组成。
控制单元,读取包括通道总数Ch,输入层的大小L,池化核的大小F,步长S以及池化实现方式flag_max_avr和当前访问的通道数t在内的配置信息,通过有限状态机控制卷积神经网络池化层的运算流程,通过调用最大池化/平均池化计算单元实现算法。
最大池化/平均池化计算单元由最大池化和平均池化两个模块组成,根据池化实现方式flag_max_avr信号来控制:当flag_max_avr = 0时,最大池化模块被激活,每次计算取样本F×F 内的最大值作为输出结果,并且样本选取以S大小在长度和宽度两个方向移动;当flag_max_avr = 1时,平均池化模块被激活,每次计算取样本F×F 内的平均值作为输出结果。最大池化/平均池化计算单元采取了全流水的多路并行设计方式,其具体硬件架构如图4所示,其中 N 为并行路数,由存储资源控制,当bank数为128时,N为32。其中最大池化计算单元由N路比较器组成,平均池化计算单元则由N路累加器和N路四输入加法树组成。因为除法器计算复杂度较高,硬件开销较大,所以算法中除法的实现不采用除法器,而是直接采用移位单元来实现,将每次累加出的结果通过移位操作直接输出给数据暂存单元。其中当F=2时,每批次输入数据的个数为4,可以直接输出给四输入加法器流水输出给移位单元;当F> 2时,每批次输入数据的个数大于4,为了实现结果的流水输出,该单元先将数据输出给累加器,通过累加器分批出数,将分为4批输出的结果传入四输入加法树,再将最终的累加结果传给移位单元。这样对于不同的网络配置,计算单元都可以在数据搬运时达到全流水操作。
数据暂存单元用于存储计算所需的输入层信息以及输出层结果,可根据具体算法实现进行裁剪拆分。在执行算法时将数据暂存单元拆分为4* N个bank,其中输入层数据乒乓存入2 * N个bank中,输出层数据则乒乓存入其余2 * N个bank中,以实现无冲突访存,达到数据搬运的全流水操作,其示意图如图5所示。
综上所述,本实例的基于可重构计算的卷积神经网络池化层的硬件实现,采用了全流水的多路并行设计方式,可实现最大池化和平均池化两种算法,网络通道数,每层的大小,池化核的大小以及步长灵活可配,具有低计算复杂度、低硬件开销,较高的硬件实现速度,同时显示了针对实际应用的巨大潜力。
以上详细描述了本发明的优选实施方式,但是,本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换,这些等同变换均属于本发明的保护范围。
Claims (8)
1.基于可重构计算的卷积神经网络池化层,其特征在于,包括:
控制单元,用于读取配置信息,通过有限状态机控制卷积神经网络池化层的运算流程,通过调用最大池化/平均池化计算单元以实现最大池化和平均池化算法;
数据暂存单元,用于存储计算所需的输入层信息及输出层结果;
最大池化/平均池化计算单元,用于计算输出层中各个通道的信息。
2.根据权利要求1所述的基于可重构计算的卷积神经网络池化层,其特征在于,所述配置信息包括通道数、每层的大小、池化核的大小、步长以及池化实现方式。
3.根据权利要求1所述的基于可重构计算的卷积神经网络池化层,其特征在于,所述最大池化/平均池化计算单元由最大池化计算单元和平均池化计算单元组成,最大池化计算单元由N路比较器组成,平均池化计算单元由N路累加器,以及四输入加法树组成,N代表并行路数,其取值取决于运算资源。
4.根据权利要求3所述的基于可重构计算的卷积神经网络池化层,其特征在于, N路并行对于最大池化需要N个比较器,对于平均池化需要N个累加器,和N个四输入加法树,其中四输入加法树由3个加法器构成。
5.根据权利要求3所述的基于可重构计算的卷积神经网络池化层,其特征在于,所述数据暂存单元可拆分为4* N个bank,其中输入层数据乒乓存入2 * N个bank中,输出层数据则乒乓存入其余2 * N个bank中。
6.基于可重构计算的卷积神经网络池化层的硬件实现方法,其特征在于,包括如下步骤:
步骤1、初始化:读取存储在缓存中的卷积神经网络输入层信息input及网络配置信息,并将配置信息传输至控制单元,包含通道数,每层的大小,池化核的大小,步长以及池化实现方式;
步骤2、数据传输:控制器根据当前访问层的通道数将对应的输入层信息传输至数据暂存单元,传输结束后跳转至步骤3;
步骤3、调用最大池化/平均池化计算单元:计算单元读取数据暂存单元中存储的信息,计算输出层的信息并存入数据暂存单元中;
步骤4、判决:判断是否已经计算完输入层所有通道数的信息,未完成则返回步骤2),已完成则结束算法,输出结果。
7.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求6所述方法的步骤。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求6所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911014329.2A CN110942145A (zh) | 2019-10-23 | 2019-10-23 | 基于可重构计算的卷积神经网络池化层、硬件实现方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911014329.2A CN110942145A (zh) | 2019-10-23 | 2019-10-23 | 基于可重构计算的卷积神经网络池化层、硬件实现方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110942145A true CN110942145A (zh) | 2020-03-31 |
Family
ID=69907205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911014329.2A Pending CN110942145A (zh) | 2019-10-23 | 2019-10-23 | 基于可重构计算的卷积神经网络池化层、硬件实现方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110942145A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860790A (zh) * | 2020-08-04 | 2020-10-30 | 南京大学 | 一种提高深度残差脉冲神经网络精度以优化图像分类的方法及其系统 |
CN112148451A (zh) * | 2020-09-27 | 2020-12-29 | 南京大学 | 一种低时延的协同自适应cnn推断系统及方法 |
CN112949829A (zh) * | 2021-03-05 | 2021-06-11 | 深圳海翼智新科技有限公司 | 特征图的池化方法、数据处理方法和计算设备 |
CN113255897A (zh) * | 2021-06-11 | 2021-08-13 | 西安微电子技术研究所 | 一种卷积神经网络的池化计算单元 |
GB2608591A (en) * | 2021-06-28 | 2023-01-11 | Imagination Tech Ltd | Implementation of pooling and unpooling or reverse pooling in hardware |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4136396A (en) * | 1976-08-19 | 1979-01-23 | Associated Engineering Limited | Data processing |
CN106875012A (zh) * | 2017-02-09 | 2017-06-20 | 武汉魅瞳科技有限公司 | 一种基于fpga的深度卷积神经网络的流水化加速系统 |
US20170195914A1 (en) * | 2015-12-30 | 2017-07-06 | The Chinese University Of Hong Kong | Hardware Acceleration for Batched Sparse Codes |
CN107679620A (zh) * | 2017-04-19 | 2018-02-09 | 北京深鉴科技有限公司 | 人工神经网络处理装置 |
US20180165574A1 (en) * | 2016-12-13 | 2018-06-14 | Google Inc. | Performing average pooling in hardware |
TWI630544B (zh) * | 2017-02-10 | 2018-07-21 | 耐能股份有限公司 | 卷積神經網路的運算裝置及方法 |
CN108647780A (zh) * | 2018-04-12 | 2018-10-12 | 东南大学 | 面向神经网络的可重构池化操作模块结构及其实现方法 |
CN108805266A (zh) * | 2018-05-21 | 2018-11-13 | 南京大学 | 一种可重构cnn高并发卷积加速器 |
CN109284824A (zh) * | 2018-09-04 | 2019-01-29 | 复旦大学 | 一种基于可重构技术的用于加速卷积和池化运算的装置 |
CN109635944A (zh) * | 2018-12-24 | 2019-04-16 | 西安交通大学 | 一种稀疏卷积神经网络加速器及实现方法 |
CN109711543A (zh) * | 2018-12-30 | 2019-05-03 | 南京大学 | 一种可重构的深度置信网络实现系统 |
US20190205738A1 (en) * | 2018-01-04 | 2019-07-04 | Tesla, Inc. | Systems and methods for hardware-based pooling |
CN110197253A (zh) * | 2018-02-27 | 2019-09-03 | 意法半导体国际有限公司 | 用于深度学习加速的算术单元 |
-
2019
- 2019-10-23 CN CN201911014329.2A patent/CN110942145A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4136396A (en) * | 1976-08-19 | 1979-01-23 | Associated Engineering Limited | Data processing |
US20170195914A1 (en) * | 2015-12-30 | 2017-07-06 | The Chinese University Of Hong Kong | Hardware Acceleration for Batched Sparse Codes |
US20180165574A1 (en) * | 2016-12-13 | 2018-06-14 | Google Inc. | Performing average pooling in hardware |
CN106875012A (zh) * | 2017-02-09 | 2017-06-20 | 武汉魅瞳科技有限公司 | 一种基于fpga的深度卷积神经网络的流水化加速系统 |
TWI630544B (zh) * | 2017-02-10 | 2018-07-21 | 耐能股份有限公司 | 卷積神經網路的運算裝置及方法 |
CN107679620A (zh) * | 2017-04-19 | 2018-02-09 | 北京深鉴科技有限公司 | 人工神经网络处理装置 |
US20190205738A1 (en) * | 2018-01-04 | 2019-07-04 | Tesla, Inc. | Systems and methods for hardware-based pooling |
CN110197253A (zh) * | 2018-02-27 | 2019-09-03 | 意法半导体国际有限公司 | 用于深度学习加速的算术单元 |
CN108647780A (zh) * | 2018-04-12 | 2018-10-12 | 东南大学 | 面向神经网络的可重构池化操作模块结构及其实现方法 |
CN108805266A (zh) * | 2018-05-21 | 2018-11-13 | 南京大学 | 一种可重构cnn高并发卷积加速器 |
CN109284824A (zh) * | 2018-09-04 | 2019-01-29 | 复旦大学 | 一种基于可重构技术的用于加速卷积和池化运算的装置 |
CN109635944A (zh) * | 2018-12-24 | 2019-04-16 | 西安交通大学 | 一种稀疏卷积神经网络加速器及实现方法 |
CN109711543A (zh) * | 2018-12-30 | 2019-05-03 | 南京大学 | 一种可重构的深度置信网络实现系统 |
Non-Patent Citations (6)
Title |
---|
FAN FENG 等: "Design and Application Space Exploration of a Domain-Specific Accelerator System", 《ELECTRONICS》 * |
LI DU 等: "A Reconfigurable Streaming Deep Convolutional Neural Network Accelerator for Internet of Things", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS I: REGULAR PAPERS》 * |
QINYU CHEN 等: "An Efficient Streaming Accelerator for Low Bit-Width Convolutional Neural Networks", 《ELECTRONICS》 * |
李炳剑 等: "面向卷积神经网络的FPGA加速器架构设计", 《计算机科学与探索》 * |
王思阳: "基于FPGA的卷积神经网络加速器设计", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
蹇强 等: "一种可配置的CNN协加速器的FPGA实现方法", 《电子学报》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860790A (zh) * | 2020-08-04 | 2020-10-30 | 南京大学 | 一种提高深度残差脉冲神经网络精度以优化图像分类的方法及其系统 |
CN112148451A (zh) * | 2020-09-27 | 2020-12-29 | 南京大学 | 一种低时延的协同自适应cnn推断系统及方法 |
CN112148451B (zh) * | 2020-09-27 | 2023-12-29 | 南京大学 | 一种低时延的协同自适应cnn推断系统及方法 |
CN112949829A (zh) * | 2021-03-05 | 2021-06-11 | 深圳海翼智新科技有限公司 | 特征图的池化方法、数据处理方法和计算设备 |
CN113255897A (zh) * | 2021-06-11 | 2021-08-13 | 西安微电子技术研究所 | 一种卷积神经网络的池化计算单元 |
CN113255897B (zh) * | 2021-06-11 | 2023-07-07 | 西安微电子技术研究所 | 一种卷积神经网络的池化计算单元 |
GB2608591A (en) * | 2021-06-28 | 2023-01-11 | Imagination Tech Ltd | Implementation of pooling and unpooling or reverse pooling in hardware |
GB2608591B (en) * | 2021-06-28 | 2024-01-24 | Imagination Tech Ltd | Implementation of pooling and unpooling or reverse pooling in hardware |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110942145A (zh) | 基于可重构计算的卷积神经网络池化层、硬件实现方法及系统 | |
CN109948774B (zh) | 基于网络层捆绑运算的神经网络加速器及其实现方法 | |
CN111242277B (zh) | 一种基于fpga设计的支持稀疏剪枝的卷积神经网络加速器 | |
CN111898733B (zh) | 一种深度可分离卷积神经网络加速器架构 | |
WO2020073211A1 (zh) | 运算加速器、处理方法及相关设备 | |
CN109871510B (zh) | 二维卷积运算处理方法、系统、设备及计算机存储介质 | |
KR20210036715A (ko) | 뉴럴 프로세싱 장치 및 뉴럴 프로세싱 장치에서 뉴럴 네트워크의 풀링을 처리하는 방법 | |
CN106503791A (zh) | 用于有效神经网络部署的系统和方法 | |
CN110276444B (zh) | 基于卷积神经网络的图像处理方法及装置 | |
CN112163601B (zh) | 图像分类方法、系统、计算机设备及存储介质 | |
CN109993293B (zh) | 一种适用于堆叠式沙漏网络的深度学习加速器 | |
CN105739951B (zh) | 一种基于gpu的l1最小化问题快速求解方法 | |
CN112668708B (zh) | 一种提高数据利用率的卷积运算装置 | |
CN111931927B (zh) | 一种在npu中减少计算资源占用的方法及装置 | |
CN109740619B (zh) | 用于目标识别的神经网络终端运行方法和装置 | |
CN108647780B (zh) | 面向神经网络的可重构池化操作模块结构及其实现方法 | |
CN114519425A (zh) | 一种规模可扩展的卷积神经网络加速系统 | |
CN111105018B (zh) | 一种数据处理方法及装置 | |
US12033379B2 (en) | Image recognition method and apparatus | |
CN110399881A (zh) | 一种端到端的基于双目立体图像的质量增强方法及装置 | |
CN110163116A (zh) | 通过加速OpenPose推理获取人体姿态的方法 | |
CN115482456A (zh) | 一种yolo算法的高能效fpga加速架构 | |
CN113627587A (zh) | 一种多通道式卷积神经网络加速方法及装置 | |
CN112166454A (zh) | 神经网络的特征图装载方法及设备 | |
CN111506522A (zh) | 数据处理设备及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200331 |
|
RJ01 | Rejection of invention patent application after publication |