CN108805267A - 用于卷积神经网络硬件加速的数据处理方法 - Google Patents

用于卷积神经网络硬件加速的数据处理方法 Download PDF

Info

Publication number
CN108805267A
CN108805267A CN201810523617.XA CN201810523617A CN108805267A CN 108805267 A CN108805267 A CN 108805267A CN 201810523617 A CN201810523617 A CN 201810523617A CN 108805267 A CN108805267 A CN 108805267A
Authority
CN
China
Prior art keywords
convolution
input
data
convolutional
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810523617.XA
Other languages
English (en)
Other versions
CN108805267B (zh
Inventor
黄智勇
李渊明
吴海华
虞智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201810523617.XA priority Critical patent/CN108805267B/zh
Publication of CN108805267A publication Critical patent/CN108805267A/zh
Application granted granted Critical
Publication of CN108805267B publication Critical patent/CN108805267B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于卷积神经网络硬件加速的数据处理方法,其通过分析卷积神经网络并行特征,结合硬件的并行处理能力,对卷积神经网络进行硬件加速,加速方案从3个方面对Tiny‑yolo网络进行加速改进:(1)通过多通道并行输入提升Tiny‑yolo网络的处理速度,(2)通过并行计算提升Tiny‑yolo网络卷积计算的速度,(3)通过池化嵌入减少Tiny‑yolo网络的池化过程时间。其大大提高了卷积神经网络的检测速度。

Description

用于卷积神经网络硬件加速的数据处理方法
技术领域
本发明涉及卷积神经网络硬件加速技术领域,特别涉及一种用于卷积神经网络硬件加速的数据处理方法。
背景技术
卷积神经网络(ConvolutionNeuralNetwork,CNN)在计算机视觉领域应用广泛,尤其是在目标检测和图像识别等方面体现出了良好的应用前景。边缘计算是一种全新的计算模式,其概念是在靠近数据中心的边缘地带直接对数据进行处理,而不用传回服务器处理。在目标检测中使用边缘计算能够带来一系列好处:直接在采集端的硬件设备上处理图像,不需要传回上位机,节省数据传输的时间、减少数据传输的开销。通过优化加速卷积神经网络,实现在硬件设备上的高效处理具有重要的实际意义。
现有的FPGA加速方案大致如下:①使用一个嵌入式处理器和消息传递接口来控制运算单元之间的数据传输和计算流程来加速限制波兹曼机算法,之后针对波兹曼机提出了环状FPGA加速,使用易扩展的环状FPGA来并行处理部分神经元计算以达到加速整个算法的目标。②通过优化卷积神经网络算法,压缩结点与权值数据的位宽,设计并实现针对预测过程的FPGA加速器。③使用低秩矩阵分解的方式来加速线性卷积的计算,在此基础上,通过稀疏约束的方法进一步加速线性卷积计算。还可以通过在GPU环境中使用最简单的基-2FFT算法实现线性卷积的加速。
Tiny-yolo是一种基于端到端的目标检测框架,将目标检测问题转换成回归问题,利用整个网络同时完成目标分类和目标定位。从实验效果来看,Tiny-yolo网络不仅检测速度远远快于其它目标检测网络,而且在检测精度方面也表现良好。但是为了让其能更好的工作于嵌入式硬件设备上,还需要结合硬件特点对算法进行进一步的优化。
未经加速的Tiny-yolo卷积神经网络的数据处理过程具有如下缺点:
1:Tiny-yolo卷积神经网络各层的输入输出和网络权重均是浮点数据,在进行卷积计算、数据缓存和数据传输的时候,浮点数据会占用硬件平台大量的存储资源。
2:Tiny-yolo卷积神经网络采用的是单通道输入方式,逐个输入每个通道的数据,大大限制了网络的处理速度。
3:Tiny-yolo卷积神经网络的卷积计算是串行执行,这种计算方式导致卷积计算速度很慢,降低了网络的处理速度。
4:Tiny-yolo卷积神经网络在检测过程中,池化操作需要在卷积操作完成之后进行,两者之间存在较大的数据传输开销。
发明内容
本发明的目的是针对现有技术对应的不足,提供一种用于卷积神经网络硬件加速的数据处理方法,其大大提高了Tiny-yolo卷积神经网络的检测速度。
本发明的目的是采用下述方案实现的:一种用于卷积神经网络硬件加速的数据处理方法,将卷积神经网络的池化操作对应嵌入卷积计算,包括如下步骤:
1)当卷积神经网络的卷积层的输出特征图尺寸为M*M时,预设一个行缓冲器pool_buf,行缓冲器pool_buf的长度为M/2;
2)池化操作在有卷积输出时就开始进行,卷积计算完成的同时也完成池化:在所述卷积层的每个输入通道的卷积计算过程中,当卷积输出第一行的第2个卷积输出值output_2时,将卷积输出第一行的第2个卷积输出值output_2与第1个卷积卷积输出值output_1进行比较,选取其中较大值存入行缓冲器pool_buf的第一个位置,当卷积输出第一行的第4个卷积输出值output_4时,将卷积输出第一行的第4个卷积输出值output_4与第3个卷积卷积输出值output_3进行比较,选取其中较大值存入行缓冲器pool_buf的第二个位置,依次类推,直到卷积输出第一行的第M个卷积输出值output_M时,行缓冲器pool_buf中已经存入了M/2个待比较值;然后等到卷积输出第二行的第2个卷积输出值output_(M+2)时,将卷积输出第二行的第2个卷积输出值output_(M+2)与第1个卷积输出值output_(M+1)进行比较,选取其中较大值与行缓冲器pool_buf中第一个位置缓存的数据进行比较,得到最大值即池化输出值后直接输出(得到的最大值即池化输出值就是2*2单元的池化输出,每个2*2单元的最大值即池化输出值是直接输出),并将行缓冲器pool_buf中第一个位置清空,依此类推,当输出M/2个池化输出值时,行缓冲器pool_buf里面已经全部清空,完成对前两行卷积输出的池化操作,当卷积输出第三行的卷积输出值时,重复卷积输出第一行的操作,将每相邻2个卷积输出值进行比较并选取其中较大值存入行缓冲器pool_buf,直到卷积输出第三行的第M个卷积输出值output_3M时,M/2个待比较值又缓存在行缓冲器pool_buf里,然后等到卷积输出第四行的卷积输出值时,重复卷积输出第二行的操作,将每相邻2个卷积输出值进行比较并选取其中较大值后与行缓冲器pool_buf中对应位置缓存的待比较值进行比较,得到最大值即池化输出值后直接输出,并将行缓冲器pool_buf中对应位置清空,当再次输出M/2个池化输出值时,行缓冲器pool_buf里面已经全部清空,依此类推,直至完成整个卷积输出的特征图的池化操作。池化的步进是2,卷积输出的特征图每行的第1个卷积输出值与第2个卷积输出值进行比较后,就是第3个卷积输出值与第4个卷积输出值进行比较。
优选地,本发明还包括将卷积神经网络的卷积层采取多个通道的数据并行输入的方法,当卷积神经网络为Tiny-yolo卷积神经网络时,步骤包括:
1)将Tiny-yolo卷积神经网络的卷积层conv0采取3个通道的数据并行输入,具体方法为:将Tiny-yolo卷积神经网络的卷积层conv0采取3个输入通道同时输入数据并同时进行卷积计算,将卷积层conv0的3个输入通道输出的卷积输出值进行相加,直接得到最终的卷积输出值;
2)将Tiny-yolo卷积神经网络的卷积层conv1-8采取多个通道的数据并行输入,具体方法为:
21)预设一个缓冲器out_buffer,用于缓存每次操作输出的卷积输出值;
22)将Tiny-yolo卷积神经网络的卷积层conv1-8中每个卷积层采取每次同时输入多个通道的数据同时进行卷积计算,并将多个通道输出的卷积输出值相加就是每次操作输出的卷积输出值,进行第一次多通道的卷积计算后将第一次操作输出的卷积输出值缓存在缓冲器out_buffer中,继续进行下一次多通道的卷积计算,然后将该次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后再缓存在缓冲器out_buffer中,重复上述操作过程直到最后一次多个通道进行卷积计算,将最后一次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后即得到最终输出的卷积输出值;
Tiny-yolo卷积神经网络的卷积层conv1-8中每个卷积层采用的缓冲器out_buffer的大小与该卷积层的输入尺寸一样。
步骤2)中将Tiny-yolo卷积神经网络的卷积层conv1-8采取两个通道的数据并行输入,且在步骤122)中将Tiny-yolo卷积神经网络的卷积层conv1-8中每个卷积层采取每次同时输入两个通道的数据同时进行卷积计算,两个通道输出的卷积输出值相加就是该次操作输出的卷积输出值,将第一次操作输出的卷积输出值缓存在缓冲器out_buffer中,继续进行下一个双通道的卷积计算,然后将该次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后再缓存在缓冲器out_buffer中,重复上述操作过程直到最后两个通道进行卷积计算,将最后一次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后即得到最终输出的卷积输出值。
优选地,本发明还包括将卷积层采取卷积并行计算的方法,当卷积神经网络为Tiny-yolo卷积神经网络时,对Tiny-yolo卷积神经网络的卷积层conv0-7中每个卷积层的卷积计算进行并行处理的步骤,包括:
1)预设3个行缓冲器,用于暂存读取的输入数据,3个行缓冲器依次为line_buf0、line_buf1、line_buf2,并预设两个寄存器组,用于分别缓存进行卷积计算的输入数据和卷积核权重,每个寄存器组由9个寄存器构成;
2)对卷积层conv0-7中每个卷积层的输入图片进行边界填补0,卷积层conv0-7中的每个卷积层在读取输入图片的过程中,采取按行逐个读取输入图片的输入数据,并将读取的输入数据依次暂存到预设的3个行缓冲器中,当3个行缓冲器的前3个位置的数据已经构成了一个3*3输入单元时,将3*3输入单元的数据送入寄存器组后进行卷积计算,输出卷积输出值,输出缓存输入数据的寄存器组与缓存卷积核权重的寄存器组进行乘加运算,通过优化指令将9次乘加运算展开并行处理,实现一个时钟周期完成一次卷积计算,最下面的行缓冲器line_buf2每读取一个输入数据,3*3输入单元就向右移动一位,直到读取到第三行的最后一个输入数据,就完成前三行的卷积计算;接着读入第四行的输入数据,将最上面的行缓冲器line_buf0移动到最下面,并将读取的输入图片第四行的输入数据依次存入最下面的行缓冲器line_buf0中,当3个行缓冲器的前3个位置的数据已经构成了一个3*3输入单元时,继续卷积计算,直到读取到第四行的最后一个输入数据,依次类推,最终可以完成对整张输入图片的卷积。每次检测结束后缓冲器out_buffer要清零,下一次检测图片又会缓存新的数据。
假设当输入是416*416,输出是416*416,卷积核大小为3*3,所以输入要经过填零为418*418。由于如果先对图片进行补0,然后输入到IP核中,会额外增加传输的数据量,增加传输时间,因此本发明优选地,对输入图片进行边界填补0的过程在IP核内部完成,边补0边进行卷积计算,对于输入数据的第一行、第一列、最后一行以及最后一列在卷积计算时,不需要从输入接口读取,而是直接读取常数0;在第一个时钟周期时将行缓冲器line_buf0全部填充0,将行缓冲器line_buf1的前后两端位置均填充0,将行缓冲器linebuffer2的前端位置填充0,假设补0之后的输入图片尺寸为N*N,则在第N个时钟周期时,行缓冲器line_buf0全部填充0,行缓冲器line_buf1填充(N-2)个输入数据和2个0,行缓冲器linebuffer2填充一个0和一个输入数据,第(N+1)个时钟周期时,3个行缓冲器的前3个位置的数据构成了一个3*3输入单元,构成了第一个3*3输入单元后每读取一个输入数据,3*3输入单元就向右移动一位,从读取到第1个可以进行卷积计算的3*3输入单元开始,即前3行的前3个输入数据,之后每读取一个输入数据便得到其对应的输入单元,直接进行卷积计算,每次卷积计算相当于9次乘加运算,并通过PIPELINE等优化指令将9次乘加运算展开同时处理,实现一个时钟周期完成一次卷积计算。每次卷积计算后寄存器要清零;步骤1)中每个行缓冲器长度与补0后的输入图片宽度一样为N,每个位置存储2个字节的数据,将这三个行缓冲器声明为双端口RAM:RAM_2P_BRAM,可以在一个时钟周期内同时读写操作。
各卷积层的全部计算均在IP核中完成;为Tiny-yolo卷积神经网络的卷积层conv0单独设计一个IP核ty0_kernel,为Tiny-yolo卷积神经网络的卷积层conv1-7设计一个共同调用的IP核ty1_kernel,为Tiny-yolo卷积神经网络的卷积层conv8单独设计一个IP核ty2_kernel;3个IP核设计在FPGA内;
图片载入ZedBoard中,ARM CPU将图片以数据流的形式输入到FPGA中,并依次调用IP核ty0_kernel、IP核ty1_kernel、IP核ty2_kernel完成各个卷积层的计算,并为各个卷积层的计算所需的缓冲器分配存储资源;对Tiny-yolo卷积神经网络的卷积层conv8的卷积计算不需要进行卷积加速,每次卷积计算相当于一次乘积。卷积核为1*1,不用填零,其卷积计算就是乘积运算,一一对应,不要考虑上述的卷积计算加速方法,它用不上,在计算上不考虑加速conv8。
IP核ty0_kernel采用3通道并行输入的方式,3个输入接口分别是input_r[416*416],input_g[416*416],input_b[416*416];接口大小为416*416,与输入图片的尺寸相同;每个卷积核的权重数据是weights0[3*3*3],卷积核对应的偏置bias使用float数据类型;由于将池化嵌入卷积过程,输出output0的大小是208*208;
IP核ty1_kernel设计能满足各层输入输出大小的接口;卷积层conv1-7的输入大小分别是208*208*16,104*104*32,52*52*64,26*26*128,13*13*256,13*13*512,13*13*512,其中最大是208*208*16,由于ty1_kernel采用双通道并行输入,输入接口分别是input1_0[208*208*8],input1_1[208*208*8];conv1-7卷积核的大小分别是16*3*3,32*3*3,64*3*3,128*3*3,256*3*3,512*3*3,512*3*3,其中最大是512*3*3,卷积核数据的接口是weights1[512*3*3];输出最大的是104*104,输出接口为output1[104*104];通过定义变量width和channels满足各层的输入尺寸及通道数;
IP核ty2_kernel采用双通道并行输入的方式,conv8的输入大小为13*13*1024,输入接口分别是input2_0[13*13*512],input2_1[13*13*512]。conv8的输出将直接用于检测,输出数据应是原始的float类型数据,输出接口定义为float类型,输出接口为output2[13*13];与其他两个IP核不同之处在于卷积核尺寸从3*3变为1*1,卷积核数据的接口是weights2[1024*1*1]。
输入输出接口声明为STREAM,读写都根据STREAM的方法。
将卷积神经网络进行预处理,包括将卷积神经网络的每一个卷积层的权重、输入数据、输出数据进行量化,使每一个卷积层的权重、输入数据、输出数据均量化为2个字节的shortint类型整数,以及将卷积神经网络最后的卷积层即需要以float类型数据形式体现的输出数据进行反量化,使卷积神经网络最后的卷积层输出的数据反量化为4个字节的float类型数据。
将卷积神经网络的权重、输入数据、输出数据进行量化时采取的是最大量化,即将绝对值最大的数据作为量化基准;将绝对值最大的数据量化到255,计算量化系数,其他数据依次量化,每个数据由4个字节的float类型数据量化为2个字节的shortint类型整数,即是将float类型数据量化到[-255,255]范围内;若该数据远离其他数据,为了量化均匀考虑将其舍弃,采用次绝对值最大的数据作为量化基准。
3个IP核一共用到了193个DSP48,156个BRAM,DSP48用于满足卷积计算并行处理时的计算开销,BRAM则是用于输入输出数据的缓存。
Tiny-yolo卷积神经网络经过硬件加速,各卷积层的全部计算均在IP核中完成。算法实现就是通过IP核来实现各步骤提出的加速算法,并为加速算法所需的缓冲器分配存储资源。
本发明具有的优点是:
(1)对输入输出数据和网络权重进行了量化。神经网络各层的输入输出和网络权重都是浮点类型的数据,整个网络的计算集中在卷积过程,卷积计算是一个乘加过程,如果将数据的传输和计算映射到硬件上,则浮点类型数据会占用大量的存储资源(比如BRAM)、消耗大量的计算资源(比如,DSP48)。基于ZedBoard硬件资源考虑,将float数据类型量化为short数据类型。同时,为了确保检测目标的准确性,在最后的输出层进行数据的反量化。数据量化既节省了资源,又提高了运算速度。
(2)优化了Tiny-yolo网络的数据输入方式。整个网络各卷积层的输入通道数较多,使用单通道输入方式大大限制了网络的速度,通过优化输入方式,将单通道输入的方式改进为多通道输入,可以提升网络的处理速度。
(3)优化了Tiny-yolo网络的卷积计算方法。卷积层是卷积神经网络的核心,但由于卷积层的卷积运算很耗时,几乎占用了网络的全部运算时间。因此通过优化卷积神经网络在硬件中的卷积计算方式,来加快整个网络的卷积计算速度。
(4)优化了Tiny-yolo网络的池化计算方法。卷积计算之后,需要对数据进行池化。池化处理的好处就是减少特征和参数,并且可以保持某种不变性(比如旋转、平移、伸缩等)。神经网络通常的计算方式是完成卷积操作之后,再进行池化操作,这种情况下会造成池化计算的延后。优化后的Tiny-yolo网络采用的是边卷积边池化的方式,大大节省了卷积操作和池化操作之间的数据传输时间。
附图说明
图1为本发明的用于卷积神经网络硬件加速的数据处理方法的系统结构图;
图2为本发明的用于卷积神经网络硬件加速的数据处理方法的总设计流程图;
图3为本发明的Tiny-yolo卷积神经网络的卷积层conv0的卷积过程示意图;
图4为本发明的Tiny-yolo卷积神经网络的卷积层conv1的卷积过程示意图;
图5为本发明的Tiny-yolo卷积神经网络的卷积计算加速原理示意图;
图6为本发明的Tiny-yolo卷积神经网络的池化嵌入原理示意图;
图7为本发明的量化前后Tiny-yolo卷积神经网络的卷积层conv0-8的权重分布示意图;
图8本发明的Tiny-yolo卷积神经网络的整个量化与反量化的过程示意图;
图9为IP核ty0_kernel的资源消耗表示意图;
图10为IP核ty1_kernel的资源消耗表示意图;
图11为IP核ty2_kernel的资源消耗表示意图:
图12为实施例一的原始版本Tiny-yolo网络检测结果示意图:
图13为实施例一的加速优化后的Tiny-yolo网络检测结果示意图:
图14为实施例二的原始Tiny-yolo网络检测结果示意图;
图15为实施例二的加速优化后的Tiny-yolo网络检测结果示意图。
具体实施方式
本发明以Tiny-yolo网络作为实施例进行分析,本发明通过分析Tiny-yolo网络并行特征,结合硬件(ZedBoard)的并行处理能力,从输入方式、卷积计算、池化嵌入3个方面对Tiny-yolo卷积神经网络进行硬件加速。使用HLS工具在FPGA上设计相应的IP核实现加速算法,实现基于FPGA+ARM双架构的ZedBorad测试的Tiny-yolo卷积神经网络加速。
参见图1至图6,一种用于卷积神经网络硬件加速的数据处理方法,包括将池化操作嵌入卷积层。优选地,还包括将卷积层采取多通道并行输入。优选地,还包括将卷积层采取卷积并行计算。优选地,对卷积神经网络的各卷积层进行权重量化以及输入输出量化以及输出与反量化来完成网络预处理。可以在上述各个硬件加速改进方案中按需要选择其中之一的改进(改进的部分按本发明的改进方案执行,其余不作改进部分按现有方法执行)来实现数据处理,也可以自由组合各个硬件加速改进方案(改进的部分按本发明的改进方案执行,其余不作改进部分按现有方法执行)来实现数据处理。上述各个硬件加速改进方案的具体描述如下所述:
基于ZedBoard硬件资源,本实施例的Tiny-yolo卷积神经网络的卷积层conv1-8采用了双通道输入的方式,在其他的硬件平台上,由于资源的不同,可以增加同时输入的通道数,其本质都是多通道并行输入,都属于通过改进输入方式来加速网络。
Tiny-yolo网络具有卷积层conv0至conv8,前六层卷积层conv0-5后分别有池化层,卷积层conv8后还有两个全连接层。本发明的卷积层conv0至conv8的输入通道数依次是3、16、32、64、128、256、512、1024和1024。结合硬件资源,考虑同时输入2个通道的数据,单通道的输出特征图是由各个输入通道对应的卷积输出值相加得到的,若不能同时处理所有的输入通道的数据,则需要一个缓冲器来缓存卷积过程中的卷积输出值,直到最后一个输入通道数据的处理完成,得到该卷积核最终的输出特征图。
conv0的输入数据就是输入图片,图片尺寸为416*416且有RGB三通道,若不能及时处理就要进行缓存,设置的缓冲器大小也必须为416*416,字节数很大,消耗的BRAM较多。考虑到conv0的输入通道数较少,将图片3个通道的数据同时输入,各输入通道对应的卷积输出值同时得到并相加,直接得到最终的输出数据,不需要对conv0设置缓存,虽然额外消耗了一定的计算资源,但是对比节省的大量存储资源,是可以接受的。
conv0采取3通道并行输入的方法,其单个卷积核的卷积过程如图3所示。从图3可知,conv0的3个输入通道的数据同时输入,与单个卷积核的3个维度分别进行卷积,输出的卷积输出值相加,得到最终的卷积输出值。conv0的卷积过程中,因各输入通道同时进行卷积计算,输出的卷积输出值同时相加,直接得到最终的卷积输出值,不需要缓冲器缓存各通道对应的输出数据。单通道输出的是尺寸为416*416的特征图,与输入图片的尺寸一致。通过3通道并行输入的处理,conv0的处理速度提升了3倍。
conv1-8的输入通道数过多,不能直接采用所有通道的数据并行输入的方法。分析硬件计算资源,conv1-8使用将2个通道的数据并行输入的方法,每次同时输入两个通道的数据一起进行卷积。由于不能及时处理各输入通道对应的输出卷积输出值,必须要使用缓冲器来进行缓存,直到所有输入通道的数据处理完成。由于conv1-8的输入尺寸比conv0小很多,所以可以进行缓存。
(1)通过卷积层采取多通道并行输入提升Tiny-yolo网络的处理速度。
从输入方式方面对Tiny-yolo卷积神经网络进行硬件加速的步骤为:
11)将Tiny-yolo卷积神经网络的卷积层conv0采取3个通道的数据并行输入,具体方法为:将Tiny-yolo卷积神经网络的卷积层conv0采取3个输入通道同时输入数据并同时进行卷积计算,将卷积层conv0的3个输入通道输出的卷积输出值进行相加,直接得到最终的卷积输出值;
12)将Tiny-yolo卷积神经网络的卷积层conv1-8采取多个通道的数据并行输入,具体方法为:
121)预设一个缓冲器out_buffer,用于缓存每次操作输出的卷积输出值;
122)将Tiny-yolo卷积神经网络的卷积层conv1-8中每个卷积层采取每次同时输入多个通道的数据同时进行卷积计算,并将多个通道输出的卷积输出值相加就是每次操作输出的卷积输出值,进行第一次多通道的卷积计算后将第一次操作输出的卷积输出值缓存在缓冲器out_buffer中,继续进行下一次多通道的卷积计算,然后将该次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后再缓存在缓冲器out_buffer中,重复上述操作过程直到最后一次多个通道进行卷积计算,将最后一次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后即得到最终输出的卷积输出值;
Tiny-yolo卷积神经网络的卷积层conv1-8中每个卷积层采用的缓冲器out_buffer的大小与该卷积层的输入尺寸一样。
本实施例的步骤12)中将Tiny-yolo卷积神经网络的卷积层conv1-8采取两个通道的数据并行输入,且在步骤122)中将Tiny-yolo卷积神经网络的卷积层conv1-8中每个卷积层采取每次同时输入两个通道的数据同时进行卷积计算,两个通道输出的卷积输出值相加就是该次操作输出的卷积输出值,将第一次操作输出的卷积输出值缓存在缓冲器out_buffer中,继续进行下一个双通道的卷积计算,然后将该次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后再缓存在缓冲器out_buffer中,重复上述操作过程直到最后两个通道进行卷积计算,将最后一次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后即得到最终输出的卷积输出值。
本实施例以conv1为例,其单个卷积核的卷积过程如图4所示。conv1采用的双通道的数据同时输入,即一次操作对应2个通道的数据的卷积计算,2通道对应的输出卷积输出值相加就是该次操作输出的卷积输出值。由于不能及时处理卷积过程中输出的卷积输出值,必须设计一个缓冲器out_buffer缓存每次操作输出的卷积输出值,缓冲器的大小和conv1的输入尺寸一样为208*208。如图4,将输入数据的16个输入通道以每次2通道的方式输入IP核,每次进行的是双通道的卷积计算,将2个通道输出的卷积输出值相加,然后缓存在缓冲器out_buffer中,在进行下一个双通道的卷积计算时,继续使用out_buffer,对缓冲器中相应位置的数据进行相加,重复上述过程直到最后两个通道进行卷积计算,缓冲器中每个位置的数据就是最终输出的卷积输出值。双通道并行输入可以提升conv1-8的2倍的处理速度。
输入数据以串行数据流的方式进入IP核,一个时钟周期只能且必须读取和写入一次,加速设计中数据都是按照数据流的方式输入或输出,这样做的优势就是节省硬件资源,但同时提升了编程复杂度。输入数据以数据流的方式按行逐个进入IP核,在进行卷积计算时,就需要在IP核内部逐个提取数据,然后进行计算。通过对卷积计算并行处理来缩短计算时间,优化Tiny-yolo网络的处理速度。本发明对卷积计算优化加速的目标是尽量在一个时钟周期完成一次卷积计算。
卷积并行计算的思路如下:从读取到第1个可以进行卷积计算的3*3输入单元开始,即前3行的前3个输入数据,之后每读取一个输入数据便得到其对应的输入单元,直接进行卷积计算,每次卷积计算相当于9次乘加运算,并通过PIPELINE等优化指令将9次乘加运算展开同时处理,实现一个时钟周期完成一次卷积计算。
通过卷积层的卷积并行计算提升Tiny-yolo网络卷积计算的速度。
从输入通道的卷积计算方面对Tiny-yolo卷积神经网络进行硬件加速:
2)对Tiny-yolo卷积神经网络的卷积层conv0-7中每个卷积层的卷积计算进行并行处理,具体方法为:
21)预设3个行缓冲器,用于暂存读取的输入数据,3个行缓冲器依次为line_buf0、line_buf1、line_buf2,并预设两个寄存器组,用于分别缓存进行卷积计算的输入数据和卷积核权重,每个寄存器组由9个寄存器构成;
22)对卷积层conv0-7中每个卷积层的输入图片进行边界填补0,且卷积层conv0-7中的每个卷积层在读取输入图片的过程中,采取按行逐个读取输入图片的输入数据,并将读取的输入数据依次暂存到预设的3个行缓冲器中,当3个行缓冲器的前3个位置的数据已经构成了一个3*3输入单元时,将3*3输入单元的数据送入寄存器组后进行卷积计算,输出卷积输出值,输出缓存输入数据的寄存器组与缓存卷积核权重的寄存器组进行乘加运算,通过优化指令将9次乘加运算展开并行处理,实现一个时钟周期完成一次卷积计算,最下面的行缓冲器line_buf2每读取一个输入数据,3*3输入单元就向右移动一位,直到读取到第三行的最后一个输入数据,就完成前三行的卷积计算;接着读入第四行的输入数据,将最上面的行缓冲器line_buf0移动到最下面,并将读取的输入图片第四行的输入数据依次存入最下面的行缓冲器line_buf0中,当3个行缓冲器的前3个位置的数据已经构成了一个3*3输入单元时,继续卷积计算,直到读取到第四行的最后一个输入数据,依次类推,最终可以完成对整张输入图片的卷积。每次检测结束后缓冲器out_buffer要清零,下一次检测图片又会缓存新的数据。
对Tiny-yolo卷积神经网络的卷积层conv8的每个输入通道的卷积计算不需要进行卷积加速,每次卷积计算相当于一次乘积,卷积层conv8的卷积核为1*1,不用填零,其卷积计算就是乘积运算,一一对应,不要考虑上述的卷积计算加速方法,它用不上,在计算上不考虑加速conv8。
本实施例以conv0的单个输入通道为例,其卷积计算的加速原理如图5所示。如果先对图片进行补0,然后输入到IP核中(在Tiny-yolo的Darknet框架下通过指令读取图片进行检测),会额外增加传输的数据量,增加传输时间,因此将补0的过程转移到IP核内部完成,边补边进行卷积计算。输入数据的第一行、第一列、最后一行以及最后一列全是0元素,在卷积计算时,不需要从输入接口读取,而是直接读取常数0。补0之后的输入图片尺寸为418*418,设计的3个行缓冲器依次为line_buf0、line_buf1、line_buf2,其长度与图片宽度一样为418,将这三个行缓冲器声明为双端口RAM:RAM_2P_BRAM,可以在一个时钟周期内同时读写操作。IP核读取的输入数据依次暂存到行缓冲器,在前418个时钟周期内,line_buf0全部填充0,line_buf1填充416个输入数据和2个0,linebuffer2填充一个0和一个输入数据;从第419个时钟周期开始,每一个时钟周期进行一次卷积计算。此时3个行缓冲器前3个位置的数据已经构成了一个3*3输入单元,每个输入通道分别为输入数据和卷积核权重各设计一个寄存器组,每个寄存器组由9个寄存器构成,将3*3输入单元的数据送入寄存器组后就可以进行卷积计算,缓存输入数据的寄存器组与缓存卷积核权重的寄存器组进行乘加运算,通过优化指令将9次乘加运算展开同时处理。
line_buf2每读取一个输入,3*3输入单元就向右移动一位。直到读取到第三行的最后一个数据,就完成前三行的卷积计算。接着读入第四行的输入数据,然后将第四行的数据存入line_buf0,并将line_buf0移动到line_buf2的后面,继续卷积计算,重复前面的过程,最终可以完成对整张图片的卷积。如果不进行加速,理论上conv0的串行执行所需时钟周期是418*418*9,而使用PIPELINE加速后所需时钟周期是417*417,速度提升约9倍。
conv0-7的卷积核尺寸都是3*3,通过卷积计算并行处理的方法可以优化卷积计算速度,速度提升约9倍。conv8的卷积核尺寸为1*1,每次卷积计算相当于一次乘积,不需要进行卷积加速。Tiny-yolo网络运行过程中绝大部分时间都是在进行卷积计算,而且conv8的计算量占比很小,可以认为卷积计算的并行加速方法提升了Tiny-yolo网络9倍的速度。
池化是对卷积输出的特征图进行子采样的操作,目的是进行二次特征提取,在不损失较多信息的基础上压缩特征图。Tiny-yolo卷积神经网络中conv0至conv5层后都有一个池化层,卷积层和池化层进行数据传输需要一定的传输时间和资源开销。使用将池化层嵌入卷积层的方法,对Tiny-yolo网络的处理速度做进一步优化,在卷积计算的过程中进行池化,同时完成卷积和池化,最终输出的是经过池化后的特征图。而且将池化层嵌入卷积层在设计IP核的时候更加方便,只需要设计一个合并的卷积池化核即可。
(3)通过池化嵌入卷积减少Tiny-yolo网络的池化过程时间。
将Tiny-yolo卷积神经网络的卷积层后面的池化层嵌入所述卷积层,包括将Tiny-yolo卷积神经网络的卷积层conv0后的池化层maxpool0嵌入卷积层conv0,卷积层conv1后的池化层maxpool1嵌入卷积层conv1,卷积层conv2后的池化层maxpool2嵌入卷积层conv2,卷积层conv3后的池化层maxpool3嵌入卷积层conv3,卷积层conv4后的池化层maxpool4嵌入卷积层conv4,卷积层conv5后的池化层maxpool5嵌入卷积层conv5,具体方法为:
31)当所述Tiny-yolo卷积神经网络的卷积层的输出特征图尺寸为M*M时,预设一个行缓冲器pool_buf,行缓冲器pool_buf的长度为M/2;
32)池化操作在有卷积输出时就开始进行,卷积计算完成的同时也完成池化:在所述卷积层的每个输入通道的卷积计算过程中,当卷积输出第一行的第2个卷积输出值output_2时,将卷积输出第一行的第2个卷积输出值output_2与第1个卷积卷积输出值output_1进行比较,选取其中较大值存入行缓冲器pool_buf的第一个位置,当卷积输出第一行的第4个卷积输出值output_4时,将卷积输出第一行的第4个卷积输出值output_4与第3个卷积卷积输出值output_3进行比较,选取其中较大值存入行缓冲器pool_buf的第二个位置,依次类推,直到卷积输出第一行的第M个卷积输出值output_M时,行缓冲器pool_buf中已经存入了M/2个待比较值;然后等到卷积输出第二行的第2个卷积输出值output_(M+2)时,将卷积输出第二行的第2个卷积输出值output_(M+2)与第1个卷积输出值output_(M+1)进行比较,选取其中较大值与行缓冲器pool_buf中第一个位置缓存的数据进行比较,得到最大值即池化输出值后直接输出,并将行缓冲器pool_buf中第一个位置清空,依此类推,当输出M/2个池化输出值时,行缓冲器pool_buf里面已经全部清空,完成对前两行卷积输出的池化操作,当卷积输出第三行的卷积输出值时,重复卷积输出第一行的操作,将每相邻2个卷积输出值进行比较并选取其中较大值存入行缓冲器pool_buf,直到卷积输出第三行的第M个卷积输出值output_3M时,M/2个待比较值又缓存在行缓冲器pool_buf里,然后等到卷积输出第四行的卷积输出值时,重复卷积输出第二行的操作,将每相邻2个卷积输出值进行比较并选取其中较大值后与行缓冲器pool_buf中对应位置缓存的待比较值进行比较,得到最大值即池化输出值后直接输出,并将行缓冲器pool_buf中对应位置清空,当再次输出M/2个池化输出值时,行缓冲器pool_buf里面已经全部清空,依此类推,当卷积输出第M行的第M个卷积输出值output_M*M时,将卷积输出第M行的第M个卷积输出值output_M*M与第(M-1)个卷积输出值output_(M*M-1)进行比较,选取其中较大值与行缓冲器pool_buf中第M/2个位置缓存的数据进行比较,得到最大值即池化输出值后直接输出,直至完成整个卷积输出的特征图的池化操作。池化的步进是2,卷积输出的特征图每行的第1个卷积输出值与第2个卷积输出值进行比较后,就是第3个卷积输出值与第4个卷积输出值进行比较。
本实施例以conv0和maxpool0为例,池化嵌入到卷积层的原理如图6所示。conv0的输出特征图尺寸是416*416,使用一个长度为208的行缓冲器pool_buf。首先,卷积输出第二个值output_2时比较第一个输出值output_1与output_2,选取其中较大值存入行缓冲器,依次类推,每相邻2个输出值进行比较并选取其中较大值存入行缓冲器,直到第416个输出值,行缓冲器中已经存入了208个数据;然后等到卷积输出第418个输出值,就选取output_417和output_418中较大值与行缓冲器中缓存的output_1和output_2中较大值进行比较,得到最大值。当卷积得到第832个输出值时,通过上述操作,已经完成对前两行卷积输出的池化操作,得到了208个池化输出数据。重复上述过程,当卷积输出最后一个数据时,卷积输出的特征图的池化操作也相应完成。
参见图7和图8,将Tiny-yolo卷积神经网络进行预处理,将Tiny-yolo卷积神经网络进行预处理,包括将Tiny-yolo卷积神经网络的每一个卷积层的权重、输入数据、输出数据进行量化,使每一个卷积层的权重、输入数据、输出数据均量化为2个字节的shortint类型整数,以及将Tiny-yolo卷积神经网络最后的卷积层即需要以float类型数据形式体现的输出数据进行反量化,使Tiny-yolo卷积神经网络最后的卷积层输出的数据反量化为4个字节的float类型数据。
将Tiny-yolo卷积神经网络的权重、输入数据、输出数据进行量化时采取的是最大量化,即将绝对值最大的数据作为量化基准;将绝对值最大的数据量化到255,计算量化系数,其他数据依次量化,每个数据由4个字节的float类型数据量化为2个字节的shortint类型整数,即是将float类型数据量化到[-255,255]范围内;若该数据远离其他数据,为了量化均匀考虑将其舍弃,采用次绝对值最大的数据作为量化基准。
Tiny-yolo网络的权重是32位的float类型数据,占四个字节。量化权重可以减小每一个权重数据的大小,对网络进一步压缩。本发明采取的是最大量化,即将绝对值最大的数据作为量化基准。
量化的关键在于选择合适的量化基准和量化范围。最大量化即是选取绝对值最大的权重数据作为量化基准,若该数据远离其他权重,为了量化均匀考虑将其舍弃,采用次绝对值最大的数据作为量化基准。
量化范围小会造成精度不够,量化范围大会造成量化误差较大。将绝对值最大的权重数据量化到255,计算量化系数,其他权重依次量化,每个权重数据由4个字节的float类型数据量化为2个字节的shortint类型整数。即是将权重数据量化到[-255,255]范围内。
conv1、conv4和conv5层的绝对最大值均远离其他数据,舍弃绝对值最大的数据,采用次最大绝对值的数据作为量化基准,量化结果更加均匀。
conv0-7量化前后的权重分布图如图7所示,将conv0-8的权重量化到[-255,255]范围内得到的分布曲线与原始权重的分布曲线基本一致,所以该量化方法是可行的。
每一层的输入输出数据也需要进行量化,方法和权重量化一致。因为不同图片各层的输入输出不一样,量化系数不一样,对100张图片产生的各层输入输出数据进行量化分析,测试结果表明是可行的。conv0的输入数据是输入图片,图片输入之前是经过归一化的,输入数据的绝对最大值必然是1,其量化系数也固定为255。
Tiny-yolo网络最终输出的用于检测的数据需要以float类型数据形式体现,来表达出最原始的特征,所以需要进行反量化。输入数据和权重以signedshort类型数据的形式进行计算,可以提高计算效率,之后用得到的输出数据除以两者的量化系数,得到的便是float类型的输出数据。整个量化与反量化过程如图8所示。直接使用原始的float类型输入数据和权重数据进行卷积的输出为3.9121。由图8可以看到,量化为shortint类型数据进行卷积,经过反量化的到的输出为3.912853,与原结果基本相同。
本发明通过量化权重和输入输出来完成网络预处理,采用最大值量化法,将绝对最大值量化为255,即量化范围是[-255,255],但是合理选择较小或较大的量化范围也可能实现本发明,因此较小或较大的量化范围即为替代方案。
本发明基于ARM+FPGA双架构的ZedBoard开发平台,使用HLS工具进行硬件设计。分析各卷积层的具体特点,在FPGA上设计相应的IP核,实现上述提出的加速算法,完成对Tiny-yolo网络的优化加速。Tiny-yolo卷积神经网络经过硬件加速,各卷积层的全部计算均在IP核中完成,算法实现就是通过IP核来实现各步骤提出的加速算法,并为加速算法所需的缓冲器分配存储资源。
分析Tiny-yolo卷积神经网络的结构,各卷积层有明显区别,也有一定的相似之处,考虑在FPGA上设计3个IP核:
(1)conv0为3输入通道,输入通道数较为特别,为conv0单独设计一个IP核ty0_kernel。
(2)conv8的卷积核大小为1*1,而其他层则是3*3,所以为conv8设计一个IP核ty2_kernel。
(3)conv1到conv7都是双通道输入,结构较为相似,给这几层设计一个共同调用的IP核ty1_kernel。
由于将池化嵌入卷积过程,不需要专门设计池化核,卷积层和池化层合二为一,设计成统一的IP核。3个IP核主要从函数接口及端口设置、算法实现、优化结果以及资源消耗这几个方面来设计。
3.1函数接口及端口设置
各IP核的函数接口及端口的具体设置如下表:
表3.1函数接口及端口设置表
ty0_kernel是为conv0设计的IP核,采用3通道并行输入的方式,3个输入接口分别是input_r[416*416],input_g[416*416],input_b[416*416]。接口大小为416*416,与输入图片的尺寸相同。每个卷积核的权重数据是weights0[3*3*3],卷积核对应的偏置bias使用float数据类型。由于将池化嵌入卷积过程,输出output0的大小是208*208。
ty1_kernel为conv1-7共同调用,该IP核必须设计能满足各层输入输出大小的接口。conv1-7的输入大小分别是208*208*16,104*104*32,52*52*64,26*26*128,13*13*256,13*13*512,13*13*512,其中最大是208*208*16,由于ty0_kernel采用双通道并行输入,输入接口分别是input1_0[208*208*8],input1_1[208*208*8];conv1-7卷积核的大小分别是16*3*3,32*3*3,64*3*3,128*3*3,256*3*3,512*3*3,512*3*3,其中最大是512*3*3,卷积核数据的接口是weights1[512*3*3];输出最大的是104*104,输出接口为output1[104*104]。通过定义变量width和channels满足各层的输入尺寸及通道数。
ty2_kernel是为conv8设计的IP核,采用双通道并行输入的方式,conv8的输入大小为13*13*1024,输入接口分别是input2_0[13*13*512],input2_1[13*13*512]。conv8的输出将直接用于检测,输出数据应是原始的float类型数据,输出接口定义为float类型,输出接口为output2[13*13]。与其他两个IP核不同之处在于卷积核尺寸从3*3变为1*1,卷积核数据的接口是weights2[1024*1*1]。
输入输出接口声明为STREAM,读写都根据STREAM的方法。使用STREAM指令能够提升数据的传输速度,减少资源消耗。声明指令如下:
Tiny-yolo网络经过硬件加速,各卷积层的全部计算均在IP核中完成,算法实现就是通过IP核来实现论文提出的加速算法,并为加速算法所需的缓冲器分配存储资源。
ty0_kernel的算法伪代码:
row=0时将输入数据的前两行数据缓冲到行缓冲器中,在第419个时钟周期,row=1且col=1时开始进行卷积计算。使用UNROLL指令将9次乘加运算展开同时进行,conv0是3通道同时输入,总共展开27次乘加运算,相当于卷积计算速度提升27倍。II=1是优化的目标,II就是Initiation Interval指循环一次的时钟周期,II=1就是1个时钟周期完成一次循环。
ty1_kernel的算法伪代码:
conv1-7和conv0一样,依然是当row=1且col=1时开始卷积计算。conv1-7采取的是双通道并行输入的方法,每次同时处理两个通道的输入数据,使用优化指令,实现双通道的18次乘加计算并行处理。从第1、2输入通道开始,每两个通道的卷积输出数据缓存到缓冲器,反复使用缓冲器将对应位置的输出数据不断累加,直到累加最后两个输入通道的卷积输出数据,得到单通道的最终卷积输出数据。需要注意的是从conv6开始,卷积过程之后不需要再进行池化操作。
ty2_kernel的算法伪代码:
conv8依然采取的是双通道并行输入的方法,每次处理2个输入通道的数据。由于conv8中1*1的卷积核,卷积计算相当于乘积运算,直接计算即可。ty2_kernel与ty1_kernel一样,将每两个输入通道的卷积输出数据缓存到缓冲器,依此类推,缓冲器相应位置缓存的数据不断进行累加,直到累加到最后两个输入通道的卷积输出数据,得到单通道的最终卷积输出数据。
对Tiny-yolo网络进行硬件加速设计时,需要设计缓冲器并为这些缓冲器分配存储资源。设计的缓冲器主要如下:
(1)使用卷积计算并行处理的方法,每个通道的输入数据需要3个行缓冲器line_buf。因此ty0_kernel需要9个line_buf,长度为418;ty1_kernel需要6个line_buf,长度要满足所有层的输入宽度需求,各层输入宽度最大为210。
(2)进行卷积计算时,ty0_kernel和ty1_kernel需要寄存器组来存放输入数据和卷积核数据,每个寄存器组包括9个寄存器,ty0_kernel各需要3个寄存器组,ty1_kernel各需要2个寄存器组。
(3)ty1_kernel和ty2_kernel需要缓冲器来缓存每两个输入通道的输出,缓冲器大小和输入尺寸一样,分别为208*208和13*13。
(4)将池化嵌入卷积过程,ty0_kernel和ty1_kernel需要设计一个行缓冲器pool_buf来缓存并行池化过程中的数据,长度为输入宽度的一半,分别为208和104。
各个缓冲器的资源分配如表4.2:
表3.2缓冲器资源分配表
conv1至conv7为了保持输出结果的精度,输出缓冲器out_buf的类型为int,short与short数据相乘的结果继续用short类型保存会降低精度。conv8不用卷积计算与池化,只需要设置一个缓冲器来缓存卷积过程中的输出数据。由于conv8的输出直接用于检测,其输出数据应该为原始的float类型,所以将out_buf声明为float类型。
通过RESOURCE指令将各IP核的line_buf、pool_buf和out_buf缓冲器的资源类型声明为RAM_2P_BRAM。通过ARRAY_PARTITION指令将最小输入处理单元input_buf和最小权重处理单元weights_buf声明为寄存器。
声明指令如下:
通过PIPELINE指令优化Tiny-yolo网络的并行处理,实现一个时钟周期完成一次卷积过程,即PIPELINE的优化目标是II=1,一个时钟周期完成一次循环。设计综合后各IP核的scheduling的信息如下表:
表3.3 PIPELINE优化结果表
从scheduling信息可以看到,PIPELINE优化目标是II=1,经过综合后的结果显示为II=1,本论文中各个IP核的PIPELINE优化目标成功实现了。
硬件加速的过程中,用到的硬件资源主要是存储资源BRAM和计算资源DSP48E。ty0_kernel的资源消耗表如图9所示,ty1_kernel的资源消耗表如图10所示,ty2_kernel的资源消耗表如图11所示。对Tiny-yolo网络进行硬件加速,用到的主要是存储资源BRAM和计算资源DSP48E,3个IP核一共用到了156个BRAM和193个DSP48,ZedBoard上共有280个BRAM和220个DSP48,可以满足硬件资源的需求。
分析Tiny-yolo网络的结构特点,深入挖掘其并行特征,结合硬件并行处理能力,对其进行硬件加速。使用HLS工具进行硬件设计,Tiny-yolo网络得以在ZedBoard测试平台上加速运行,实现了在ZedBoard上较为高效的处理。
通过多通道并行输入、卷积并行计算、池化嵌入等方法对Tiny-yolo网络进行加速改进。在FPGA上设计3个IP核来实现加速算法,其中主要用到的硬件资源是DSP48和BRAM,DSP48用于满足卷积计算并行处理时的计算开销,BRAM则是用于输入输出数据的缓存。从资源消耗表可知3个IP核一共用到了193个DSP48,156个BRAM,满足了ZedBoard硬件资源的要求。Tiny-yolo网络在ZedBoard的ARM上测试100次,平均每次运行时间约为8秒,而Tiny-yolo网络基于3个IP核在FPGA上加速之后,经过100次测试,平均每次的运行时间约为0.6秒,检测速度提高了接近14倍。由于IP核的多次调用增加了数据传输时间的消耗,没有达到理论上的18倍加速。
经过加速改进的Tiny-yolo网络在运行速度、硬件资源、检测精度之间基本达到了平衡,通过硬件设计在ZedBoard测试平台上实现了较为高效的处理。用VOC2007图片测试集来测试检测准确率,优化后的Tiny-yolo网络的mAP为55.0,原始网络的mAP为57.1,检测性能与原始网络相比略有下降,但总的效果基本一致。误差主要发生在网络量化阶段,由于设计合理误差较小,最终的检测效果与原始版本基本相符。
原始版本Tiny-yolo网络检测结果如图12:
置信度:
Bird:93%
加速后的Tiny-yolo网络检查结果如图13:
置信度:
Bird:90%
原始版本Tiny-yolo网络检测结果如图14:
置信度:
Person:50%
Person:66%
Person:37%
Dog:77%
加速后的Tiny-yolo网络检测结果如图15:
置信度:
Person:46%
Person:55%
Person:34%
Dog:57%
从测试图片的检测结果可以看到,各个目标物体的置信度略有下降,目标框稍有偏差,总的来说,加速后Tiny-yolo网络的检测结果与原始结果基本相同。
分析Tiny-yolo网络的处理过程,结合网络的并行特征和硬件的并行处理能力对Tiny-yolo网络进行硬件加速;神经网络各层的输入输出和网络权重都是浮点类型的数据,整个网络的计算集中在卷积过程,卷积计算是一个乘加过程,如果将数据的传输和计算映射到硬件上,则浮点类型数据会占用大量的存储资源(比如BRAM)、消耗大量的计算资源(比如,DSP48),先对网络的权重及输入输出进行预处理,降低网络对存储资源和计算资源的要求,然后从输入方式、卷积计算方式、池化计算方式3个方面对Tiny-yolo网络进行加速改进;分析Tiny-yolo网络各卷积层的结构异同,使用高层次综合工具(High-levelSynthesistool,HLS)在ZedBoard的FPGA上设计3个IP核,分别对应conv0、conv1-7、conv8,各IP核从函数接口及端口设置、算法实现、优化结果及资源消耗等方面来进行设计;Tiny-yolo卷积神经网络基于3个IP核经过FPGA加速后,其处理速度相比之前得到了大幅提升。
本发明具有如下优点:
1.传统的FPGA加速卷积神经网络直接使用浮点数类型的权重和输入数据进行卷积计算,耗费了大量的计算资源;本发明通过量化权重和输入输出降低网络对硬件存储和计算资源的需求。
2:采用多通道并行输入的方式替代传统的单通道输入方式,同时处理多个通道的输入数据,成倍地提升了Tiny-yolo卷积神经网络的处理速度。
3:Tiny-yolo卷积神经网络一次卷积计算相当于9次乘加运算,卷积计算是串行执行的;通过HLS优化指令展开卷积计算,将乘加运算并行处理来加速网络的卷积计算速度,提升网络的处理速度。卷积计算过程具有并行的特点,非常适合在硬件上进行并行加速。
4:卷积计算与池化并行处理,边卷积边池化,而非传统的先卷积再池化,节省了大量的卷积操作和池化操作之间的数据传输时间和资源开销。
本发明通过分析未经加速的Tiny-yolo卷积神经网络的处理过程,结合网络的并行特征与FPGA的并行处理能力,将输入方式改进、卷积计算方式改进和池化改进结合,从这3个方面加速Tiny-yolo网络的处理过程。本方案易于实现,从Tiny-yolo网络在处理运算过程入手,不涉及网络本身结构的改变;本方案便于移植,整个加速的设计都是对于Tiny-yolo网络处理过程的改进,对硬件平台没有特殊要求,在其他硬件平台上也能实现本加速方案。
以上所述仅为本发明的优选实施例,并不用于限制本发明,显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种用于卷积神经网络硬件加速的数据处理方法,其特征在于,将卷积神经网络的池化操作对应嵌入卷积计算,包括如下步骤:
1)当卷积神经网络的卷积层的输出特征图尺寸为M*M时,预设一个行缓冲器pool_buf,行缓冲器pool_buf的长度为M/2;
2)池化操作在有卷积输出时就开始进行,卷积计算完成的同时也完成池化:在所述卷积层的每个输入通道的卷积计算过程中,当卷积输出第一行的第2个卷积输出值output_2时,将卷积输出第一行的第2个卷积输出值output_2与第1个卷积卷积输出值output_1进行比较,选取其中较大值存入行缓冲器pool_buf的第一个位置,当卷积输出第一行的第4个卷积输出值output_4时,将卷积输出第一行的第4个卷积输出值output_4与第3个卷积卷积输出值output_3进行比较,选取其中较大值存入行缓冲器pool_buf的第二个位置,依次类推,直到卷积输出第一行的第M个卷积输出值output_M时,行缓冲器pool_buf中已经存入了M/2个待比较值;然后等到卷积输出第二行的第2个卷积输出值output_(M+2)时,将卷积输出第二行的第2个卷积输出值output_(M+2)与第1个卷积输出值output_(M+1)进行比较,选取其中较大值与行缓冲器pool_buf中第一个位置缓存的数据进行比较,得到最大值即池化输出值后直接输出,并将行缓冲器pool_buf中第一个位置清空,依此类推,当输出M/2个池化输出值时,行缓冲器pool_buf里面已经全部清空,完成对前两行卷积输出的池化操作,当卷积输出第三行的卷积输出值时,重复卷积输出第一行的操作,将每相邻2个卷积输出值进行比较并选取其中较大值存入行缓冲器pool_buf,直到卷积输出第三行的第M个卷积输出值output_3M时,M/2个待比较值又缓存在行缓冲器pool_buf里,然后等到卷积输出第四行的卷积输出值时,重复卷积输出第二行的操作,将每相邻2个卷积输出值进行比较并选取其中较大值后与行缓冲器pool_buf中对应位置缓存的待比较值进行比较,得到最大值即池化输出值后直接输出,并将行缓冲器pool_buf中对应位置清空,当再次输出M/2个池化输出值时,行缓冲器pool_buf里面已经全部清空,依此类推,直至完成整个卷积输出的特征图的池化操作。
2.根据权利要求1所述的方法,其特征在于:还包括将卷积神经网络的卷积层采取多个通道的数据并行输入的方法,当卷积神经网络为Tiny-yolo卷积神经网络时,步骤包括:
1)将Tiny-yolo卷积神经网络的卷积层conv0采取3个通道的数据并行输入,具体方法为:将Tiny-yolo卷积神经网络的卷积层conv0采取3个输入通道同时输入数据并同时进行卷积计算,将卷积层conv0的3个输入通道输出的卷积输出值进行相加,直接得到最终的卷积输出值;
2)将Tiny-yolo卷积神经网络的卷积层conv1-8采取多个通道的数据并行输入,具体方法为:
21)预设一个缓冲器out_buffer,用于缓存每次操作输出的卷积输出值;
22)将Tiny-yolo卷积神经网络的卷积层conv1-8中每个卷积层采取每次同时输入多个通道的数据同时进行卷积计算,并将多个通道输出的卷积输出值相加就是每次操作输出的卷积输出值,进行第一次多通道的卷积计算后将第一次操作输出的卷积输出值缓存在缓冲器out_buffer中,继续进行下一次多通道的卷积计算,然后将该次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后再缓存在缓冲器out_buffer中,重复上述操作过程直到最后一次多个通道进行卷积计算,将最后一次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后即得到最终输出的卷积输出值;
Tiny-yolo卷积神经网络的卷积层conv1-8中每个卷积层采用的缓冲器out_buffer的大小与该卷积层的输入尺寸一样。
3.根据权利要求2所述的方法,其特征在于:步骤2)中将Tiny-yolo卷积神经网络的卷积层conv1-8采取两个通道的数据并行输入,且在步骤122)中将Tiny-yolo卷积神经网络的卷积层conv1-8中每个卷积层采取每次同时输入两个通道的数据同时进行卷积计算,两个通道输出的卷积输出值相加就是该次操作输出的卷积输出值,将第一次操作输出的卷积输出值缓存在缓冲器out_buffer中,继续进行下一个双通道的卷积计算,然后将该次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后再缓存在缓冲器out_buffer中,重复上述操作过程直到最后两个通道进行卷积计算,将最后一次操作输出的卷积输出值与缓存在缓冲器out_buffer中的卷积输出值进行相加后即得到最终输出的卷积输出值。
4.根据权利要求1所述的方法,其特征在于:还包括将卷积层采取卷积并行计算的方法,当卷积神经网络为Tiny-yolo卷积神经网络时,对Tiny-yolo卷积神经网络的卷积层conv0-7中每个卷积层的卷积计算进行并行处理的步骤,包括:
1)预设3个行缓冲器,用于暂存读取的输入数据,3个行缓冲器依次为line_buf0、line_buf1、line_buf2,并预设两个寄存器组,用于分别缓存进行卷积计算的输入数据和卷积核权重,每个寄存器组由9个寄存器构成;
2)卷积层conv0-7中的每个卷积层在读取输入图片的过程中,采取按行逐个读取输入图片的输入数据,并将读取的输入数据依次暂存到预设的3个行缓冲器中,当3个行缓冲器的前3个位置的数据已经构成了一个3*3输入单元时,将3*3输入单元的数据送入寄存器组后进行卷积计算,输出卷积输出值,输出缓存输入数据的寄存器组与缓存卷积核权重的寄存器组进行乘加运算,通过优化指令将9次乘加运算展开并行处理,实现一个时钟周期完成一次卷积计算,最下面的行缓冲器line_buf2每读取一个输入数据,3*3输入单元就向右移动一位,直到读取到第三行的最后一个输入数据,就完成前三行的卷积计算;接着读入第四行的输入数据,将最上面的行缓冲器line_buf0移动到最下面,并将读取的输入图片第四行的输入数据依次存入最下面的行缓冲器line_buf0中,当3个行缓冲器的前3个位置的数据已经构成了一个3*3输入单元时,继续卷积计算,直到读取到第四行的最后一个输入数据,依次类推,最终可以完成对整张输入图片的卷积。
5.根据权利要求4所述的方法,其特征在于:当需要对输入图片进行边界填补0时,对输入图片进行边界填补0的过程在IP核内部完成,边补0边进行卷积计算,对于输入数据的第一行、第一列、最后一行以及最后一列在卷积计算时,不需要从输入接口读取,而是直接读取常数0;在第一个时钟周期时将行缓冲器line_buf0全部填充0,将行缓冲器line_buf1的前后两端位置均填充0,将行缓冲器linebuffer2的前端位置填充0,假设补0之后的输入图片尺寸为N*N,则在第N个时钟周期时,行缓冲器line_buf0全部填充0,行缓冲器line_buf1填充(N-2)个输入数据和2个0,行缓冲器linebuffer2填充一个0和一个输入数据,第(N+1)个时钟周期时,3个行缓冲器的前3个位置的数据构成了一个3*3输入单元,构成了第一个3*3输入单元后每读取一个输入数据,3*3输入单元就向右移动一位,从读取到第1个可以进行卷积计算的3*3输入单元开始,即前3行的前3个输入数据,之后每读取一个输入数据便得到其对应的输入单元,直接进行卷积计算,每次卷积计算相当于9次乘加运算,并通过PIPELINE等优化指令将9次乘加运算展开同时处理,实现一个时钟周期完成一次卷积计算。每次卷积计算后寄存器要清零;步骤1)中每个行缓冲器长度与补0后的输入图片宽度一样为N,每个位置存储2个字节的数据,将这三个行缓冲器声明为双端口RAM:RAM_2P_BRAM,可以在一个时钟周期内同时读写操作。
6.根据权利要求2或4所述的方法,其特征在于:各卷积层的全部计算均在IP核中完成;为Tiny-yolo卷积神经网络的卷积层conv0单独设计一个IP核ty0_kernel,为Tiny-yolo卷积神经网络的卷积层conv1-7设计一个共同调用的IP核ty1_kernel,为Tiny-yolo卷积神经网络的卷积层conv8单独设计一个IP核ty2_kernel;3个IP核设计在FPGA内;
图片载入ZedBoard中,ARM CPU将图片以数据流的形式输入到FPGA中,并依次调用IP核ty0_kernel、IP核ty1_kernel、IP核ty2_kernel完成各个卷积层的计算,并为各个卷积层的计算所需的缓冲器分配存储资源;对Tiny-yolo卷积神经网络的卷积层conv8的卷积计算不需要进行卷积加速,每次卷积计算相当于一次乘积。
7.根据权利要求6所述的方法,其特征在于:IP核ty0_kernel采用3通道并行输入的方式,3个输入接口分别是input_r[416*416],input_g[416*416],input_b[416*416];接口大小为416*416,与输入图片的尺寸相同;每个卷积核的权重数据是weights0[3*3*3],卷积核对应的偏置bias使用float数据类型;由于将池化嵌入卷积过程,输出output0的大小是208*208;
IP核ty1_kernel设计能满足各层输入输出大小的接口;卷积层conv1-7的输入大小分别是208*208*16,104*104*32,52*52*64,26*26*128,13*13*256,13*13*512,13*13*512,其中最大是208*208*16,由于ty1_kernel采用双通道并行输入,输入接口分别是input1_0[208*208*8],input1_1[208*208*8];conv1-7卷积核的大小分别是16*3*3,32*3*3,64*3*3,128*3*3,256*3*3,512*3*3,512*3*3,其中最大是512*3*3,卷积核数据的接口是weights1[512*3*3];输出最大的是104*104,输出接口为output1[104*104];通过定义变量width和channels满足各层的输入尺寸及通道数;
IP核ty2_kernel采用双通道并行输入的方式,conv8的输入大小为13*13*1024,输入接口分别是input2_0[13*13*512],input2_1[13*13*512]。conv8的输出将直接用于检测,输出数据应是原始的float类型数据,输出接口定义为float类型,输出接口为output2[13*13];与其他两个IP核不同之处在于卷积核尺寸从3*3变为1*1,卷积核数据的接口是weights2[1024*1*1]。
8.根据权利要求7所述的方法,其特征在于:输入输出接口声明为STREAM,读写都根据STREAM的方法。
9.根据权利要求1所述的方法,其特征在于:将卷积神经网络进行预处理,包括将卷积神经网络的每一个卷积层的权重、输入数据、输出数据进行量化,使每一个卷积层的权重、输入数据、输出数据均量化为2个字节的shortint类型整数,以及将卷积神经网络最后的卷积层即需要以float类型数据形式体现的输出数据进行反量化,使卷积神经网络最后的卷积层输出的数据反量化为4个字节的float类型数据。
10.根据权利要求9所述的方法,其特征在于:将卷积神经网络的权重、输入数据、输出数据进行量化时采取的是最大量化,即将绝对值最大的数据作为量化基准;将绝对值最大的数据量化到255,计算量化系数,其他数据依次量化,每个数据由4个字节的float类型数据量化为2个字节的shortint类型整数,即是将float类型数据量化到[-255,255]范围内;若该数据远离其他数据,为了量化均匀考虑将其舍弃,采用次绝对值最大的数据作为量化基准。
CN201810523617.XA 2018-05-28 2018-05-28 用于卷积神经网络硬件加速的数据处理方法 Active CN108805267B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810523617.XA CN108805267B (zh) 2018-05-28 2018-05-28 用于卷积神经网络硬件加速的数据处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810523617.XA CN108805267B (zh) 2018-05-28 2018-05-28 用于卷积神经网络硬件加速的数据处理方法

Publications (2)

Publication Number Publication Date
CN108805267A true CN108805267A (zh) 2018-11-13
CN108805267B CN108805267B (zh) 2021-09-10

Family

ID=64090520

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810523617.XA Active CN108805267B (zh) 2018-05-28 2018-05-28 用于卷积神经网络硬件加速的数据处理方法

Country Status (1)

Country Link
CN (1) CN108805267B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109726798A (zh) * 2018-12-27 2019-05-07 北京灵汐科技有限公司 一种数据处理方法及装置
CN109740731A (zh) * 2018-12-15 2019-05-10 华南理工大学 一种自适应卷积层硬件加速器设计方法
CN109754074A (zh) * 2018-12-29 2019-05-14 北京中科寒武纪科技有限公司 一种神经网络量化方法、装置以及相关产品
CN110276444A (zh) * 2019-06-04 2019-09-24 北京清微智能科技有限公司 基于卷积神经网络的图像处理方法及装置
CN110309877A (zh) * 2019-06-28 2019-10-08 北京百度网讯科技有限公司 一种特征图数据的量化方法、装置、电子设备及存储介质
CN110443357A (zh) * 2019-08-07 2019-11-12 上海燧原智能科技有限公司 卷积神经网络计算优化方法、装置、计算机设备及介质
CN110516799A (zh) * 2019-08-16 2019-11-29 浪潮电子信息产业股份有限公司 一种数据处理系统、方法及介质
CN110659734A (zh) * 2019-09-27 2020-01-07 中国科学院半导体研究所 深度可分离卷积结构的低比特量化方法
CN110705687A (zh) * 2019-09-05 2020-01-17 北京三快在线科技有限公司 卷积神经网络硬件计算装置及方法
CN110991609A (zh) * 2019-11-27 2020-04-10 天津大学 提高数据传输效率的行缓存器
CN111045732A (zh) * 2019-12-05 2020-04-21 腾讯科技(深圳)有限公司 数据处理方法、芯片、设备及存储介质
WO2020103653A1 (zh) * 2018-11-19 2020-05-28 深圳云天励飞技术有限公司 一种全连接层的实现方法、装置、电子设备及计算机可读存储介质
CN111488983A (zh) * 2020-03-24 2020-08-04 哈尔滨工业大学 一种基于fpga的轻量级cnn模型计算加速器
CN111931918A (zh) * 2020-09-24 2020-11-13 深圳佑驾创新科技有限公司 神经网络加速器
CN112200187A (zh) * 2020-10-16 2021-01-08 广州云从凯风科技有限公司 一种目标检测方法、装置、机器可读介质及设备
CN112529799A (zh) * 2020-12-07 2021-03-19 中国工程物理研究院流体物理研究所 一种基于fpga卷积神经网络结构的光学像差畸变校正系统
WO2021073638A1 (zh) * 2019-10-18 2021-04-22 华为技术有限公司 运行神经网络模型的方法、装置和计算机设备
CN113361695A (zh) * 2021-06-30 2021-09-07 南方电网数字电网研究院有限公司 卷积神经网络加速器
CN114202071A (zh) * 2022-02-17 2022-03-18 浙江光珀智能科技有限公司 一种基于数据流模式的深度卷积神经网络推理加速方法
CN114330684A (zh) * 2021-12-01 2022-04-12 深圳鲲云信息科技有限公司 池化算法的硬件加速方法、装置、系统与可读存储介质
CN115186821A (zh) * 2022-09-13 2022-10-14 之江实验室 面向芯粒的神经网络推理开销估计方法及装置、电子设备
US11699073B2 (en) 2018-12-29 2023-07-11 Cambricon Technologies Corporation Limited Network off-line model processing method, artificial intelligence processing device and related products

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228240A (zh) * 2016-07-30 2016-12-14 复旦大学 基于fpga的深度卷积神经网络实现方法
CN106875011A (zh) * 2017-01-12 2017-06-20 南京大学 二值权重卷积神经网络加速器的硬件架构及其计算流程
CN107392309A (zh) * 2017-09-11 2017-11-24 东南大学—无锡集成电路技术研究所 一种基于fpga的通用定点数神经网络卷积加速器硬件结构
CN107871163A (zh) * 2016-09-28 2018-04-03 爱思开海力士有限公司 用于卷积神经网络的操作装置及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228240A (zh) * 2016-07-30 2016-12-14 复旦大学 基于fpga的深度卷积神经网络实现方法
CN107871163A (zh) * 2016-09-28 2018-04-03 爱思开海力士有限公司 用于卷积神经网络的操作装置及方法
CN106875011A (zh) * 2017-01-12 2017-06-20 南京大学 二值权重卷积神经网络加速器的硬件架构及其计算流程
CN107392309A (zh) * 2017-09-11 2017-11-24 东南大学—无锡集成电路技术研究所 一种基于fpga的通用定点数神经网络卷积加速器硬件结构

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JING MA等: "Hardware Implementation and Optimization of Tiny-YOLO Network", 《SPRINGER》 *
QINGCHENG XIAO等: "Exploring Heterogeneous Algorithms for Accelerating Deep Convolutional Neural Networks on FPGAs", 《54TH ANNUAL DESIGN AUTOMATION CONFERENCE 2017》 *
张丽丽: "基于HLS的Tiny-yolo卷积神经网络加速研究", 《万方学术论文》 *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020103653A1 (zh) * 2018-11-19 2020-05-28 深圳云天励飞技术有限公司 一种全连接层的实现方法、装置、电子设备及计算机可读存储介质
CN109740731A (zh) * 2018-12-15 2019-05-10 华南理工大学 一种自适应卷积层硬件加速器设计方法
WO2020119318A1 (zh) * 2018-12-15 2020-06-18 华南理工大学 一种自适应卷积层硬件加速器设计方法
CN109726798B (zh) * 2018-12-27 2021-04-13 北京灵汐科技有限公司 一种数据处理方法及装置
CN109726798A (zh) * 2018-12-27 2019-05-07 北京灵汐科技有限公司 一种数据处理方法及装置
CN109754074A (zh) * 2018-12-29 2019-05-14 北京中科寒武纪科技有限公司 一种神经网络量化方法、装置以及相关产品
US11669732B2 (en) 2018-12-29 2023-06-06 Cambricon Technologies Corporation Limited Neural network quantization method, device and related products
US11699073B2 (en) 2018-12-29 2023-07-11 Cambricon Technologies Corporation Limited Network off-line model processing method, artificial intelligence processing device and related products
CN110276444A (zh) * 2019-06-04 2019-09-24 北京清微智能科技有限公司 基于卷积神经网络的图像处理方法及装置
CN110309877A (zh) * 2019-06-28 2019-10-08 北京百度网讯科技有限公司 一种特征图数据的量化方法、装置、电子设备及存储介质
CN110443357A (zh) * 2019-08-07 2019-11-12 上海燧原智能科技有限公司 卷积神经网络计算优化方法、装置、计算机设备及介质
CN110516799A (zh) * 2019-08-16 2019-11-29 浪潮电子信息产业股份有限公司 一种数据处理系统、方法及介质
WO2021031351A1 (zh) * 2019-08-16 2021-02-25 浪潮电子信息产业股份有限公司 一种数据处理系统、方法及介质
CN110705687B (zh) * 2019-09-05 2020-11-03 北京三快在线科技有限公司 卷积神经网络硬件计算装置及方法
CN110705687A (zh) * 2019-09-05 2020-01-17 北京三快在线科技有限公司 卷积神经网络硬件计算装置及方法
CN110659734B (zh) * 2019-09-27 2022-12-23 中国科学院半导体研究所 深度可分离卷积结构的低比特量化方法
CN110659734A (zh) * 2019-09-27 2020-01-07 中国科学院半导体研究所 深度可分离卷积结构的低比特量化方法
WO2021073638A1 (zh) * 2019-10-18 2021-04-22 华为技术有限公司 运行神经网络模型的方法、装置和计算机设备
CN110991609B (zh) * 2019-11-27 2023-12-26 天津大学 用于数据传输的行缓存器
CN110991609A (zh) * 2019-11-27 2020-04-10 天津大学 提高数据传输效率的行缓存器
CN111045732A (zh) * 2019-12-05 2020-04-21 腾讯科技(深圳)有限公司 数据处理方法、芯片、设备及存储介质
CN111045732B (zh) * 2019-12-05 2023-06-09 腾讯科技(深圳)有限公司 数据处理方法、芯片、设备及存储介质
CN111488983A (zh) * 2020-03-24 2020-08-04 哈尔滨工业大学 一种基于fpga的轻量级cnn模型计算加速器
CN111488983B (zh) * 2020-03-24 2023-04-28 哈尔滨工业大学 一种基于fpga的轻量级cnn模型计算加速器
CN111931918B (zh) * 2020-09-24 2021-02-12 深圳佑驾创新科技有限公司 神经网络加速器
CN111931918A (zh) * 2020-09-24 2020-11-13 深圳佑驾创新科技有限公司 神经网络加速器
CN112200187A (zh) * 2020-10-16 2021-01-08 广州云从凯风科技有限公司 一种目标检测方法、装置、机器可读介质及设备
CN112529799A (zh) * 2020-12-07 2021-03-19 中国工程物理研究院流体物理研究所 一种基于fpga卷积神经网络结构的光学像差畸变校正系统
CN113361695A (zh) * 2021-06-30 2021-09-07 南方电网数字电网研究院有限公司 卷积神经网络加速器
CN114330684A (zh) * 2021-12-01 2022-04-12 深圳鲲云信息科技有限公司 池化算法的硬件加速方法、装置、系统与可读存储介质
CN114202071A (zh) * 2022-02-17 2022-03-18 浙江光珀智能科技有限公司 一种基于数据流模式的深度卷积神经网络推理加速方法
CN115186821A (zh) * 2022-09-13 2022-10-14 之江实验室 面向芯粒的神经网络推理开销估计方法及装置、电子设备

Also Published As

Publication number Publication date
CN108805267B (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
CN108805267A (zh) 用于卷积神经网络硬件加速的数据处理方法
CN108805274A (zh) 基于FPGA的Tiny-yolo卷积神经网络硬件加速方法及系统
US10963787B2 (en) Systems and methods for generation of sparse code for convolutional neural networks
US10832133B2 (en) System and method of executing neural networks
Fowers et al. A configurable cloud-scale DNN processor for real-time AI
Gondimalla et al. SparTen: A sparse tensor accelerator for convolutional neural networks
US11216732B2 (en) Systems and methods for generation of sparse code for convolutional neural networks
CN110059811A (zh) 权重缓冲器
Feng et al. Energy-efficient and high-throughput FPGA-based accelerator for Convolutional Neural Networks
CN107608715A (zh) 用于执行人工神经网络正向运算的装置及方法
CN108268283A (zh) 用于利用约简操作来支持数据并行循环的计算引擎架构
CN114647635B (zh) 数据处理系统
Martín et al. Algorithmic strategies for optimizing the parallel reduction primitive in CUDA
US20210256357A1 (en) Embedded stochastic-computing accelerator architecture and method for convolutional neural networks
CN113361695B (zh) 卷积神经网络加速器
CN111563582A (zh) 一种在fpga上实现及优化加速卷积神经网络的方法
Sukhwani et al. Large payload streaming database sort and projection on FPGAs
CN117539546A (zh) 基于非空列存储的稀疏矩阵向量乘加速方法及装置
CN104123119B (zh) 基于gpu的动态视觉测量特征点中心快速定位方法
WO2021054990A1 (en) Systems and methods for generation of sparse code for convolutional neural networks
CN109491796A (zh) 基于累积和并行化的机载雷达运动速度估计方法
Wang et al. A novel parallel algorithm for sparse tensor matrix chain multiplication via tcu-acceleration
Incardona et al. Distributed sparse block grids on GPUs
CN115409195B (zh) 一种基于qasm编程架构的量子程序可视化推演方法及装置
Lee et al. Row-Wise Product-Based Sparse Matrix Multiplication Hardware Accelerator With Optimal Load Balancing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant