CN113392963A - 基于fpga的cnn硬件加速系统设计方法 - Google Patents
基于fpga的cnn硬件加速系统设计方法 Download PDFInfo
- Publication number
- CN113392963A CN113392963A CN202110501772.3A CN202110501772A CN113392963A CN 113392963 A CN113392963 A CN 113392963A CN 202110501772 A CN202110501772 A CN 202110501772A CN 113392963 A CN113392963 A CN 113392963A
- Authority
- CN
- China
- Prior art keywords
- data
- fpga
- cnn
- module
- chip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013461 design Methods 0.000 title claims abstract description 30
- 230000001133 acceleration Effects 0.000 title claims abstract description 26
- 238000004364 calculation method Methods 0.000 claims abstract description 29
- 230000008569 process Effects 0.000 claims abstract description 20
- 230000003993 interaction Effects 0.000 claims abstract description 7
- 238000011176 pooling Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 7
- 230000015654 memory Effects 0.000 claims description 6
- 238000009825 accumulation Methods 0.000 claims description 5
- 230000000903 blocking effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims 1
- 238000004519 manufacturing process Methods 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 35
- 238000013507 mapping Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013506 data mapping Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000003960 organic solvent Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002864 sequence alignment Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明公开了基于FPGA的CNN硬件加速系统设计方法,通过在卷积运算过程加入流水线,以提高其通用性,这种流水线设计也减少了卷积运算中数据缓冲区的大小,从而提高了整体计算速度;还设计一种流水线存储结构,图像和权值数据可以从片外存储输入,这样设计可以一定程度上减少CNN加速IP和片外存储的交互时间,最大程度上提升性能;最后,采用浮点数量化为定点数的设计方法,将图像和权值数据量化为16bit定点数,减少计算的复杂性,也能最大程度上的利用DSP资源。
Description
技术领域
本发明涉及一种基于FPGA的CNN硬件加速系统设计方法,属于人工智能技术领域。
背景技术
卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的重要部分之一。卷积神经网络具有一定的表征学习能力,能够通过增加模型的深度来提高其提取图像特征的能力。近年来,卷积神经网络在图像分析、自动驾驶、自然语言处理和语音识别等领域取得了较大的成果,已成为各界研究的热点。最初,卷积神经网络的推理阶段在软件上实现,随着网络的深度增加,推理所需要的时间成倍增加,因为传统的冯诺依曼结构并不能充分的发挥神经网络并行处理的优势,这样也导致深度学习算法无法在一些便携式硬件平台上应用。
随着现有计算平台架构的更新迭代,其多样性飞速发展,特别是分布式异构平台的种类越来越多,为卷积神经网络的并行化打下了良好的基础,除此之外,日趋丰富的编程框架也为CNN的并行化提供了桥梁,最典型的几种架构平台是GPU、FPGA和ASIC,由于卷积神经网络的结构比较特殊,包含了大量的乘加法运算,也涉及了大量的内存数据访问,传统的通用处理器在CNN推理阶段的运算速度不太理想,作为现在主流的运算平台——GPU也具有功耗过大等缺点,这两者不能在计算性能和功耗方面取得很好的平衡。
CNN网络的移植对硬件平台的资源有一定的要求。在现有的通用计算平台中,FPGA是比较理想的硬件平台,它含有丰富的寄存器资源,方便流水线结构的设计;也有大量的运算资源,如DSP48,方便卷积运算单元的设计;还有大量的片上存储资源,方便CNN网络中间数据的缓存;丰富的IO资源和高速接口,方便了和片外存储的交互,一定程度上提高了整体架构的性能;有许多研究表明,在运算速度方面,CPU不及FPGA;在功耗方面,GPU高于FPGA;在开发速度和成本上,ASIC也高于FPGA,本文采用的硬件平台是Xilinx公司的Kintex-7系列架构平台,设计了一种高流水线的软硬件加速系统,能够实时的处理较大尺寸的图像,具有良好的计算性能,也不乏泛用性。
发明内容
本发明的主要目的是提供一种基于FPGA的CNN硬件加速系统设计方法。
随着高性能计算平台的发展,目前很多研究人员都提出了一些基于硬件加速方案。传统的加速方案中有针对卷积算法的设计,但是通用性不是很好;也有基于嵌套循环的设计来增加数据复用性,但是计算性能的提升并不大;还有用大量硬件资源换取计算速度的方法,但是对硬件平台的资源要求太过局限。本发明在调研完近些年相关领域的论文,并在总结了其计算结构方面的问题后,提出了一种高流水线的软硬件加速系统方法,首先,通过在卷积运算过程加入流水线,以提高其通用性,此外,这种流水线设计也减少了卷积运算中数据缓冲区的大小,从而提高了整体计算速度;其次,还设计了一种流水线存储结构,图像和权值数据可以从片外存储输入,这样设计可以一定程度上减少CNN加速IP和片外存储的交互时间,最大程度上提升性能;最后,采用了浮点数量化为定点数的设计方法,将图像和权值数据量化为16bit定点数,大大减少了计算的复杂性,也能最大程度上的利用DSP资源。
本发明的技术方案具体来说,主要包括如下技术内容:
1、在卷积层的硬件设计上,为了减少中间数据缓冲区对整个系统计算性能的影响,采用移位缓存的方法大大的减少了流水线结构下的延迟;设计了通用的卷积计算结构,将图像控制和卷积运算结构分块设计,使之能够根据实际网络模型对卷积模块的运算资源进行修改,提高了泛用性。
2、池化层的输入数据是连续变化的,为了对尺寸大小为2的窗口进行下采样,需要先缓存两行的图像数据,在一定周期的比较后得到结果,为了提高系统的计算性能,将池化操作也设计成了流水线结构。
3、设计了一种流水线存储结构,图像和权值数据可以从片外存储以DMA的方式输入,而中间数据的存储分为两部分,一部分直接存储在片内存储,另一部分直接以总线的方式与片外存储交互,将其中的加法步骤和读写片外存储设计成流水线的结构,可以一定程度上减少CNN加速IP和片外存储的交互时间,最大程度上提升性能。
4、采用多ROM的方式来设计Softmax函数,将输入的特征图数据进行定位拆分,然后在ROM中查表得到各部分的指数值,经过流水线乘除法后输出结果,这样设计可以大大减少ROM资源的使用。
5、采用了浮点数量化为定点数的设计方法,将图像和权值数据量化为16bit定点数,减少了DSP资源的消耗,也提高了计算速度,这样设计能够大大减少计算的复杂性,也能最大程度上的利用DSP资源。
FPGA内部结构以LUT(Lookup Table)为基础,具有丰富的可编程逻辑资源,能够反复进行程序烧写。并且FPGA能够真正的实现控制流的并行和数据流的并行,这一点对卷积神经网络非常友好。在保持较高可重构性的同时,FPGA相比其它结构的硬件加速平台还具有很低的能效比。
设计的硬件加速系统包括如下内容,
基于FPGA的CNN硬件加速系统设计方法,该方法的实施流程如下:
步骤1、卷积运算结构的设计
CNN的卷积层主要用于提取图像的特征信息,主体是滑动窗口内的参数矩阵,即卷积核,通常一个卷积层会包含多个相同尺寸的卷积核,同时对图像矩阵进行特征提取,最后实现特征从点和直线到面和形状的提取。
卷积运算是滑动窗口与输入图像数据的乘累加运算,运算的结果再加上偏置的值,输出的结果即是卷积层的计算结果,其计算公式如下:
目前CNN网络中卷积层使用的大多是尺寸大小为3×3的卷积核,这样可以显著的减小计算的复杂性,能够更好的被移植到硬件平台上,本文设计的CNN加速器是基于3×3大小的卷积核。
卷积运算结构包括图像控制模块和卷积计算模块组成,如图1所示,左边是图像控制模块,主要为了获得三行图像数据,能匹配输入到卷积模块里,其主体由三个FIFO组成,经过一定时钟周期后可输出特征图的三行图像数据;右边是卷积计算模块,包含9个乘法器和8个加法器,这些均由内部的DSP实现。
常见的卷积计算结构采用加法树的结构,图像数据和权值数据同时输入,经过一系列的乘加计算得到最终结果。而整个数据的缓冲区由图像缓冲区、权值缓冲区和卷积结果缓冲区组成,这些缓冲区在数据传输的时序问题上起至关重要的作用,为了减少数据缓冲的时间,将图像数据输入和权值数据输入分开,优先配置权值,然后输入图像;由于图像数据是连续输入的,为了在每个周期都能输出一个正确的卷积结果,在三行乘累加结果后加入三个移位存储器,由于图像是按列输入的,移位存储器存储两行的卷积结果,为下个周期的累加提供数据,这样的卷积流水线结构可以在每个周期都输出一个正确结果,大大减少了卷积结果缓冲区的大小,加快运算速度。
步骤2、池化层结构的设计
池化层的作用是剔除冗余的特征信息,防止网络的过拟合化,使CNN模型具有更高的容错能力。最大池化的操作是通过将特征图分解成多个2×2的像素矩阵,每个像素矩阵取最大值,然后将这些最大值按照特征图的原顺序排列,得到池化的结果,其计算公式如下:
池化层的输入数据是连续变化的,为了对尺寸大小为2的窗口进行下采样,需要先缓存两行的图像数据,在一定周期的比较后得到结果,为了提高系统的计算性能,将池化操作也设计成流水的结构。
池化模块的结构如图2所示,包含了一个数据选择器、两个计数器、两个FIFO模块和两个比较器。其中计数器负责分别计数输入奇数行和偶数行FIFO的数据数量,方便切换FIFO存储,比较器负责数据的比较,主要的设计思路是:通过分别比较特征图数据的奇数行和偶数行,得到两行中的较大值,然后比较这两个较大值得到最终结果。
按照先奇后偶的顺序来缓存奇偶行的数据,当偶数行的FIFO非空时,两个FIFO同时输出数据到比较器。在第i个时钟周期先比较奇偶行数据的xi和yi,取其中的较大值赋给zi;在第i+1个时钟周期再比较xi+1和yi+1,取其中的较大值赋给zi+1,之后再通过比较器比较zi和zi+1的值,取其中较大值赋给最后的结果,这样就完成了下采样的过程。
步骤3、存储结构的流水线设计
CNN加速器的存储由片上存储和片外存储构成,FPGA中的片上存储主要由FIFO和Block RAM组成,片外存储则主要是DDR,前者的容量小但速度快,后者容量大,但是传输速度慢,一般数据量很小的情况下不使用片外存储。
卷积计算的结果和中间结果的数据量都很大,只能依靠片外存储DDR来缓存数据,除了权值buffer、偏置buffer和图像控制模块的FIFO,也有部分中间数据可以缓存在片上FIFO和Block RAM中。
本文设计了一种基于流水线的存储结构,如图3所示,主要是对卷积计算过程的不同通道的特征图进行累加,其中除了第一层卷积层的图像数据来自PS端的DDR,后面的图像数据均来自于PL端的DDR,即不经过DMA的搬运过程。
存储结构的流水线过程如下:
(1)从片外存储输出通道一的图像输入到图像控制器模块,这一部分是Read DDR的过程,同时在卷积运算和激活函数处理后的计算结果直接写入片外存储,即Write DDR过程。
(2)从片外存储输出通道二的数据到图像控制器模块,这是第一次Read DDR的过程,在图像控制器模块停止工作后,开始第二个Read DDR的过程,同时启动卷积运算,由于时序对齐的问题,会将小部分卷积结果写入片上FIFO里面,然后进行通道一和通道二的结果累加,将累加结果写入片外DDR存储。
(3)重复步骤(2),累加完所有通道的结果后,进入池化模块进行处理,将最终结果写入片外DDR。
本文设计的卷积核并用度是16,为了匹配片外DDR的数据带宽,也方便读写DDR。在结束与片外DDR的交互后,最后结果写入片上Block RAM,以便于全连接层的读写调用。
步骤4、Softmax层的设计
Softmax函数实现的传统方法是使用查找表,即根据输入计算的得到的结果提前存入ROM中,然后将输入作为ROM的地址进行寻址,然后输出分类结果的概率值,但是有两个缺点:一是将特征值映射会采用四舍五入的操作,这样会降低分类精度;二是输入值位宽是16bit,这样存入ROM的数据值太多,一定程度的扩大了存储量,本文采取了如图4所示的设计结构。
Softmax函数结构由五个ROM、四个乘法器、一个累加器、一个多路复用器和一个除法器组成。其中五个ROM分别存储4bit数据映射的概率值,乘法器和累加器用来计算全连接层输出的映射值的总和,再依次经过除法器的计算得到最后的结果,整个结构采取六级流水线的设计方法,具体计算过程如下:
(1)从全连接层输出的特征值经过基地拆分和补零后分别输入到五个ROM中,这是第一级流水。
(2)经过查表得到映射值,输入到乘法器进行运算,这是第二级流水。
(3)经过三次乘法运算得到最后结果,这是第三级流水。
(4)乘法器输出的值进入到累加器来求和,得到总特征和,这是第四级流水。
(5)累加器输出的值和寄存器存储的每一类特征值输入到除法器进行计算,然后输出结果,这是第五级流水。
(6)对结果进行截断位处理,通过AXI总线回传到PS端DDR,这是第六级流水。
从Softmax层输出的结果是最后归一化的分类结果,通过总线结构传输到ARM,最后的结果可以在PC端的可视化界面上输出,这样设计的软硬件系统能够实时的处理图像然后输出可视化的结果,具有良好的交互性。
此层的六级流水线如图5所示。
步骤5、卷积神经网络各参数的定点化处理
通常在训练阶段CNN网络采用的是32位浮点精度的参数,一定程度上可以保证网络的收敛和准确度。但是在FPGA上浮点运算消耗的DSP资源远比定点运算的多,加速器的实现也会更加的复杂。卷积神经网络中含有大量冗余的数据,如果采用浮点数处理的方法,会占用大量的硬件存储资源,同时也会增加功耗,因此本文采用定点化计算,以一定准确度下降为代价,不仅减少了数据存储量,也降低了功耗。
经过研究发现16bit定点数既能维持一定的分类精度,也能有效的降低能耗。定点数可以由以下公式来表示:
其中bw表示xfixed的位宽,exp表示定点数的阶码,Bi∈{0,1}。定点数xfixed采用补码表示,最高位为符号位。
浮点数xfloat与定点数xfixed的相互转化如下:
xfixed=(int)(xfloat*2bw) (6)
xfloat=(float)xfixed*2-bw (7)
由于定点数位宽有限,所以将xfloat转换为xfixed,再转换为新浮点数yfloat后,会有精度损失。
附图说明
图1为卷积运算结构示意图。
图2为池化模块结构示意图。
图3为流水线存储结构示意图。
图4为Softmax函数结构图。
图5为Softmax函数的六级流水线示意图。
图6为CNN硬件加速系统整体结构示意图。
具体实施方式
本发明的基于FPGA的CNN硬件加速系统设计的基本结构如图6所示,具体包括以下部分:
卷积模块:卷积运算是一系列的乘加运算,在硬件设计上需要考虑中间数据缓冲区的大小对整个系统计算性能的影响,采用移位缓存的方法可以大大的减少流水线结构下的延迟;为了适应不同尺寸的卷积核,需要设计通用的计算结构,能够根据实际网络模型对卷积模块的运算资源进行修改,将图像控制和卷积运算结构进行分块设计,提高泛用性。
最大最小池化模块:池化层的输入数据是连续变化的,需要对尺寸大小为2的窗口进行下采样,先缓存两行的图像数据,在一定周期的比较后得到结果,为了提高系统的计算性能,将池化操作也设计成流水的结构。
Relu激活函数模块:激活层的主要作用是完成数据的非线性变换,以此来解决线性模型的表达和分类能力不足的问题。
本文使用的激活函数是ReLU函数,其计算公式如下:
其意义在于当特征采样点的特征强度不足时,即认为没有达到采样阈值,输出则为0;当特征图的强度达到标准时,则正常输出。
全连接层模块:在整个CNN网络中起到分类器的作用,将卷积层、池化层和激活层等操作处理得到的分布式特征表示映射到样本标记空间,实际应用中,全连接层的设计通过乘加运算来实现。
图像控制、权值和偏置缓存模块:
1)图像控制模块。
为了产生卷积层的输入数据,需要提前对输入的图像进行处理,生成三行需要的特征图数据。
2)权值和偏置缓存模块。
这些数据通过AXI总线从片外缓存输入到CNN加速ip内部进行处理时,需要先用RAM存储起来,方便之后的调用。
Softmax函数模块:Softmax函数结构由五个ROM、四个乘法器、一个累加器、一个多路复用器和一个除法器组成。其中五个ROM分别存储4bit数据映射的概率值,乘法器和累加器用来计算全连接层输出的映射值的总和,再依次经过除法器的计算得到最后的结果,整个结构采取六级流水线的设计方法
流水线存储结构:在流水线存储结构中,图像和权值数据从片外存储以DMA的方式输入,而中间数据的存储分为两部分,一部分直接存储在片内存储,另一部分直接以总线的方式与片外存储交互,其中的加法步骤和读写片外存储步骤设计成流水线的结构,可以一定程度上减少CNN加速IP和片外存储的交互时间,最大程度上提升性能。
整个CNN加速器计算架构的实施流程如下:
1)初始化DMA中断系统,这个步骤包含五个不同的部分,主要由ARM端按顺序执行完成。第一步对DMA硬件进行初始化;第二步对整个中断系统进行初始化;第三步对硬件中断系统进行使能;第四步注册DMA的接收和发送中断;第五步使能整个系统的中断,至此完成了DMA数据通道的初始化。
2)将定点化后的图像数据、权值数据和偏置数据存入到外部PS端DDR3中,这一步骤主要在ARM端完成,直接以总线的形式搬运到PS端的DDR上。
3)在ARM端启动CNN加速器,同时DMA启动开始搬运数据到片上存储,这时ARM端起到控制的作用,启动信号通过AXI GP总线写到FPGA端的控制寄存器中,图像和权值数据则是通过AXI HP总线写入FPGA端的片上存储里。
4)通过AXI4总线,偏置数据被搬运到偏置buffer中,权值数据被搬运到权值buffer中,单通道的图像数据被搬运到片上存储中。
5)卷积模块从权值buffer中读取权值数据,权值数据配置好后,图像控制模块从片上存储中读取图像数据,转换好的图像数据输入到卷积模块中进行卷积运算,运算结果输入到Relu模块中进行处理,结果存入到片外存储PL端的DDR3。
6)下一个通道图像数据被搬运到片上存储中,再经过(4)和(5)步骤得到处理完,在计算过程中先缓存部分结果在片上存储,同时从PL端DDR3读取上一个通道的结果到片上存储,然后这两部分结果执行加法过程,所得结果回传给外部PL端DDR3,计算完所有通道后,再执行池化步骤和偏置累加步骤,这一整个过程在存储结构模块中完成。
7)从第二层卷积层开始的图像数据都从PL端DDR3搬运到片上存储,而权值数据和偏置数据仍来自于PS端的DDR3,经重复(4)、(5)和(6)三个过程得到的最后结果输入全连接层和Softmax层进行处理,得到的最后结果回传到PS端DDR3,这样就完成了整个CNN加速过程。
将输出的结果和真实值作对比,统计准确率,并在PC端显示。
Claims (3)
1.基于FPGA的CNN硬件加速系统,其特征在于利用FPGA硬件平台进行设计,理由如下:
FPGA内部结构以LUT为基础,设计的硬件加速系统包括如下内容,
卷积模块:在FPGA设计考虑中间数据缓冲区的大小对整个系统计算性能的影响,采用移位缓存的方法减少流水线结构下的延迟;为适应不同尺寸的卷积核设计通用的计算结构,根据实际网络模型对卷积模块的运算资源进行修改,将图像控制和卷积运算结构进行分块设计;
最大最小池化模块:池化层的输入数据是连续变化的,需要对尺寸大小为2的窗口进行下采样,先缓存两行的图像数据,在一定周期的比较后得到结果,同时将池化操作也设计成流水的结构,充分利用FPGA内部的寄存器资源;
Relu激活函数模块:激活层的作用是完成数据的非线性变换,解决线性模型的表达和分类能力不足;
使用的激活函数是ReLU函数,其计算公式如下:
当特征采样点的特征强度不足时,即认为没有达到采样阈值,输出则为0;当特征图的强度达到标准时,则正常输出;
全连接层模块:在整个CNN网络中起到分类器的作用,将卷积层、池化层和激活层操作处理得到的分布式特征表示映射到样本标记空间,实际应用中,全连接层的设计通过乘加运算来实现,这一部分利用FPGA上的DSP资源直接实现;
图像控制、权值和偏置缓存模块:
1)图像控制模块;
为产生卷积层的输入数据,需要提前对输入的图像进行处理,生成三行需要的特征图数据;
2)权值和偏置缓存模块;
数据通过AXI总线从FPGA芯片外部缓存输入到CNN加速IP内部进行处理时,需要先用RAM存储起来,方便之后的调用;
SoftMax函数模块:SoftMax函数结构由五个ROM、四个乘法器、一个累加器、一个多路复用器和一个除法器组成;其中五个ROM分别存储4bit数据映射的概率值,乘法器和累加器用来计算全连接层输出的映射值的总和,再依次经过除法器的计算得到最后的结果,整个结构采取六级流水线的设计方法,其中ROM、乘法器、除法器可以直接由IP核来实现;
流水线存储结构:在流水线存储结构中,图像和权值数据从FPGA芯片外部存储以DMA的方式输入,而中间数据的存储分为两部分,一部分直接存储在芯片内部存储,另一部分直接以总线的方式与芯片外部存储交互,其中的加法步骤和读写外部存储步骤设计成流水线的结构,减少CNN加速IP和外部存储的交互时间,最大程度上提升性能。
2.利用权利要求1所述系统进行的基于FPGA的CNN硬件加速方法,其特征在于:实施流程如下
步骤1)初始化DMA中断系统,这一步骤一共包含五步,由ARM端按顺序执行完成;第一步对DMA硬件进行初始化;第二步对整个中断系统进行初始化;第三步对硬件中断系统进行使能;第四步注册DMA的接收和发送中断;第五步使能整个系统的中断,至此完成了DMA数据通道的初始化;
步骤2)数据的预处理;包括图像数据、权值数据和偏置数据的定点化,这一部分直接在软件上进行处理;
步骤3)将定点化后的图像数据、权值数据和偏置数据存入到外部PS端DDR3中;这一步骤在ARM端完成,利用AXI总线将数据搬运到PS端的外部存储上;
步骤4)在ARM端启动CNN加速器;ARM端起到控制的作用,将启动信号通过AXI GP总线写到FPGA端的控制寄存器中;同时DMA开始搬运PS端的DDR数据,这些数据通过AXI HP总线直接写入到FPGA端的片上存储里;
步骤5)对权值、偏置和图像数据进行对应的配置;通过AXI4总线,偏置数据被搬运到偏置buffer中,权值数据被搬运到权值buffer中,单通道的图像数据被搬运到片上RAM中;
步骤6)卷积模块从权值buffer中读取权值数据,权值数据配置好后,图像控制模块从片上RAM中读取图像数据,转换好的图像数据输入到卷积模块中进行卷积运算,运算结果输入到ReLU模块中进行处理,结果存入到PL端的DDR上;
步骤7)下一个通道图像数据通过DMA搬运到FPGA的片上RAM中,再经过步骤5)和步骤6)得到处理的结果;在这个计算过程中先缓存部分结果在片上存储,同时从PL端DDR3读取上一个通道的结果到片上RAM,然后这两部分结果执行加法过程,所得结果回传给外部PL端DDR3,计算完所有通道后,再执行池化步骤和偏置累加步骤,这一整个过程在存储结构模块中完成;
步骤8)从第二层卷积层开始的图像数据都从PL端DDR3搬运到片上RAM,而权值数据和偏置数据仍来自于PS端的DDR3,经重步骤5)、步骤6)和步骤7)三个过程得到的最后结果输入全连接层和SoftMax层进行处理,得到的最后结果回传到PS端DDR上,这样就完成了整个CNN加速过程;
将输出的结果和真实值作对比,统计准确率,并在PC端显示。
3.根据权利要求2所述的基于FPGA的CNN硬件加速系统设计方法,其特征在于:将输出的结果和真实值作对比,统计准确率,并在PC端显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110501772.3A CN113392963B (zh) | 2021-05-08 | 2021-05-08 | 基于fpga的cnn硬件加速系统设计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110501772.3A CN113392963B (zh) | 2021-05-08 | 2021-05-08 | 基于fpga的cnn硬件加速系统设计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113392963A true CN113392963A (zh) | 2021-09-14 |
CN113392963B CN113392963B (zh) | 2023-12-19 |
Family
ID=77616835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110501772.3A Active CN113392963B (zh) | 2021-05-08 | 2021-05-08 | 基于fpga的cnn硬件加速系统设计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113392963B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114281554A (zh) * | 2022-03-08 | 2022-04-05 | 之江实验室 | 用于3d图像处理的3d-cnn加速方法及装置、电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948784A (zh) * | 2019-01-03 | 2019-06-28 | 重庆邮电大学 | 一种基于快速滤波算法的卷积神经网络加速器电路 |
CN110084739A (zh) * | 2019-03-28 | 2019-08-02 | 东南大学 | 一种基于cnn的画质增强算法的fpga并行加速系统 |
CN110097174A (zh) * | 2019-04-22 | 2019-08-06 | 西安交通大学 | 基于fpga和行输出优先的卷积神经网络实现方法、系统及装置 |
CN111178518A (zh) * | 2019-12-24 | 2020-05-19 | 杭州电子科技大学 | 一种基于fpga的软硬件协同的加速方法 |
CN111459877A (zh) * | 2020-04-02 | 2020-07-28 | 北京工商大学 | 基于FPGA加速的Winograd YOLOv2目标检测模型方法 |
-
2021
- 2021-05-08 CN CN202110501772.3A patent/CN113392963B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948784A (zh) * | 2019-01-03 | 2019-06-28 | 重庆邮电大学 | 一种基于快速滤波算法的卷积神经网络加速器电路 |
CN110084739A (zh) * | 2019-03-28 | 2019-08-02 | 东南大学 | 一种基于cnn的画质增强算法的fpga并行加速系统 |
CN110097174A (zh) * | 2019-04-22 | 2019-08-06 | 西安交通大学 | 基于fpga和行输出优先的卷积神经网络实现方法、系统及装置 |
CN111178518A (zh) * | 2019-12-24 | 2020-05-19 | 杭州电子科技大学 | 一种基于fpga的软硬件协同的加速方法 |
CN111459877A (zh) * | 2020-04-02 | 2020-07-28 | 北京工商大学 | 基于FPGA加速的Winograd YOLOv2目标检测模型方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114281554A (zh) * | 2022-03-08 | 2022-04-05 | 之江实验室 | 用于3d图像处理的3d-cnn加速方法及装置、电子设备 |
CN114281554B (zh) * | 2022-03-08 | 2022-06-17 | 之江实验室 | 用于3d图像处理的3d-cnn加速方法及装置、电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113392963B (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109598338B (zh) | 一种基于fpga的计算优化的卷积神经网络加速器 | |
US10936941B2 (en) | Efficient data access control device for neural network hardware acceleration system | |
CN107169563B (zh) | 应用于二值权重卷积网络的处理系统及方法 | |
CN111459877B (zh) | 基于FPGA加速的Winograd YOLOv2目标检测模型方法 | |
CN111178518A (zh) | 一种基于fpga的软硬件协同的加速方法 | |
CN111414994B (zh) | 一种基于FPGA的Yolov3网络计算加速系统及其加速方法 | |
CN108805266A (zh) | 一种可重构cnn高并发卷积加速器 | |
CN104915322A (zh) | 一种卷积神经网络硬件加速方法及其axi总线ip核 | |
CN110321997B (zh) | 高并行度计算平台、系统及计算实现方法 | |
CN109146067B (zh) | 一种基于FPGA的Policy卷积神经网络加速器 | |
CN110543939B (zh) | 一种基于fpga的卷积神经网络后向训练的硬件加速实现装置 | |
CN111105023B (zh) | 数据流重构方法及可重构数据流处理器 | |
CN110705702A (zh) | 一种动态可扩展的卷积神经网络加速器 | |
CN112950656A (zh) | 一种基于fpga平台的按通道进行预读取数据的分块卷积方法 | |
CN109993293B (zh) | 一种适用于堆叠式沙漏网络的深度学习加速器 | |
CN113792621B (zh) | 一种基于fpga的目标检测加速器设计方法 | |
CN115018062A (zh) | 一种基于fpga的卷积神经网络加速器 | |
Shahshahani et al. | Memory optimization techniques for fpga based cnn implementations | |
CN111860773B (zh) | 处理装置和用于信息处理的方法 | |
CN113392963B (zh) | 基于fpga的cnn硬件加速系统设计方法 | |
CN116822600A (zh) | 一种基于risc-v架构的神经网络搜索芯片 | |
CN117234720A (zh) | 动态可配置的存算融合数据缓存结构、处理器及电子设备 | |
CN113705794B (zh) | 一种基于动态激活位稀疏的神经网络加速器设计方法 | |
CN115204373A (zh) | 一种卷积神经网络的快速卷积及缓存模式的设计方法 | |
CN115170381A (zh) | 一种基于深度学习的视觉slam加速系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |