CN113361695A - 卷积神经网络加速器 - Google Patents
卷积神经网络加速器 Download PDFInfo
- Publication number
- CN113361695A CN113361695A CN202110741346.7A CN202110741346A CN113361695A CN 113361695 A CN113361695 A CN 113361695A CN 202110741346 A CN202110741346 A CN 202110741346A CN 113361695 A CN113361695 A CN 113361695A
- Authority
- CN
- China
- Prior art keywords
- data
- convolution
- unit
- pooling
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
Abstract
本申请提供一种卷积神经网络加速器,卷积加速模块的并行输出通道数与池化加速模块的并行输入通道数相等,实现卷积神经网络加速器针对卷积层和池化层的层间流水化运算,以及通过设计卷积加速模块的5个单元,实现了卷积神经网络加速器对卷积层的5层流水化运算,提高卷积神经网络加速器对卷积神经网络的运算速度。
Description
技术领域
本申请涉及卷积神经网络加速器技术领域,涉及一种卷积神经网络加速器。
背景技术
随着人工智能技术的飞速发展,出现了以卷积神经网络(Convolutional NeuralNetwork,CNN)为基础的深度学习技术。局部感知和权值共享的结构使得CNN能够更好地进行特征提取,从而降低网络模型的复杂度。
在变电站中,诸多设备需要使用图像处理技术进行信息采集、数据处理等,传统的图像处理方法通常采用人工特征提取,难以进行大规模的快速应用,CNN技术的引入极大的增强了图像处理技术在变电站中的应用。
然而随着CNN网络性能的增强,CNN网络所需要的计算力也越来越高,为了加速对卷积神经网络的运算,有必要提供一种卷积神经网络加速器。
发明内容
基于此,有必要针对上述技术问题,提供一种卷积神经网络加速器。
一种卷积神经网络加速器,包括:卷积加速模块和池化加速模块;所述卷积加速模块的并行输出通道数与所述池化加速模块的并行输入通道数相等;所述卷积加速模块包括卷积行缓存单元、卷积滑窗单元、卷积计算单元、数据累加单元和卷积输出单元;
所述卷积行缓存单元,用于对具有第一行数、第一列数和多输入通道的待卷积输入数据进行读取,得到具有第二行数、所述第一列数和所述多输入通道的待卷积缓存数据,对所述待卷积缓存数据进行行缓存;其中,所述第二行数与卷积核的行数一致;
所述卷积滑窗单元,用于从所述待卷积缓存数据中,提取具有所述第二行数、第二列数和所述多输入通道的待卷积特征数据;所述第二列数与所述卷积核的列数一致;
所述卷积计算单元,用于将所述待卷积特征数据与预设组数的卷积核进行通道对应的卷积计算,得到所述预设组数的卷积计算结果,将所述预设组数的卷积计算结果传输至数据累加单元;其中,每组卷积核所包括的卷积核的数量与所述输入通道的数量一致,所述预设组数与所述卷积加速模块的并行输出通道数一致;
所述数据累加单元,用于对同组的卷积计算结果进行累加,得到对应于所述待卷积特征数据的所述预设组数的卷积输出数据,并将对应于所述待卷积特征数据的所述预设组数的卷积输出数据写入所述卷积输出单元;
所述卷积输出单元,用于在基于对应于所述待卷积特征数据的所述预设组数的卷积输出数据,形成对应于所述待卷积输入数据的所述预设组数的卷积输出数据的情况下,将对应于所述待卷积输入数据的所述预设组数的卷积输出数据输入至所述池化加速模块;
所述池化加速模块,用于对对应于所述待卷积输入数据的所述预设组数的卷积输出数据进行池化处理。
在其中一个实施例中,所述池化加速模块包括池化行缓存单元、池化滑窗单元、池化计算单元和池化输出单元;
所述池化行缓存单元,用于对所述卷积输出单元输出的对应于所述待卷积输入数据的所述预设组数的卷积输出数据进行读取,得到具有第三行数和第三列数的待池化缓存数据,对所述待池化缓存数据进行行缓存;其中,所述第三行数与池化核的行数一致;
所述池化滑窗单元,用于从所述待池化缓存数据汇中提取具有所述第三行数和第四列数的待池化特征数据;其中,所述第四列数与所述池化核的列数一致;
所述池化计算单元,用于利用池化核对所述待池化特征数据进行池化计算,得到池化计算结果;
所述池化输出单元,用于将所述池化计算结果作为池化输出数据进行输出。
在其中一个实施例中,
所述卷积加速模块和所述池化加速模块部署在卷积神经网络加速器的可编程逻辑部分,所述卷积神经网络加速器还包括处理系统部分;所述处理系统部分,用于向所述卷积行缓存单元传输所述待卷积输入数据;
所述处理系统与所述卷积行缓存单元之间的并行数据传输通道数小于所述卷积加速模块的并行输入通道数,且所述并行数据传输通道数与所述并行输入通道数具有整数倍关系。
在其中一个实施例中,卷积神经网络的各网络层的权重、偏置和输入数据被进行舍弃高位保留低位的溢出处理;所述各网络层的输出数据被进行定点数据的最大值替代的溢出处理;所述各网络层的中间处理数据被进行位宽扩大的溢出处理。
在其中一个实施例中,所述各网络层的权重和偏置被进行舍弃高位保留低位的溢出处理之前,还被进行第一预处理;所述第一预处理为:用定点数据的最大值替代大于定点数据范围的权重或偏置。
在其中一个实施例中,所述各网络层的输入数据被进行舍弃高位保留低位的溢出处理之前,还被进行第二预处理;所述第二预处理为:对所述输入数据进行归一化处理并将归一化处理后的输入数据映射至特定数据区间;所述特定数据区间是根据定点数据的整数部分位宽和量化因子确定的。
在其中一个实施例中,所述定点数据的位宽和量化因子是对所述卷积神经网络中的数据进行定点化处理并对定点化处理后的数据进行误差统计确定的。
在其中一个实施例中,所述卷积输出单元为FIFO单元;
所述卷积行缓存单元,用于在所述FIFO单元处于非空状态时,对所述待卷积输入数据进行读取。
在其中一个实施例中,所述卷积行缓存单元每进行一次待卷积输入数据的读取,则对所述FIFO单元进行与所述FIFO单元的深度对应次数的写入。
在其中一个实施例中,
所述数据累加单元,用于在所述FIFO单元处于非满状态时,对所述FIFO单元进行数据写入。
上述卷积神经网络加速器,包括卷积加速模块和池化加速模块;所述卷积加速模块的并行输出通道数与所述池化加速模块的并行输入通道数相等,实现卷积神经网络加速器的层间流水化运算,提高卷积神经网络加速器对卷积神经网络的运算速度。
进一步地,所述卷积加速模块包括卷积行缓存单元、卷积滑窗单元、卷积计算单元、数据累加单元和卷积输出单元;所述卷积行缓存单元,用于对具有第一行数、第一列数和多输入通道的待卷积输入数据进行读取,得到具有第二行数、所述第一列数和所述多输入通道的待卷积缓存数据,对所述待卷积缓存数据进行行缓存;其中,所述第二行数与卷积核的行数一致;所述卷积滑窗单元,用于从所述待卷积缓存数据中,提取具有所述第二行数、第二列数和所述多输入通道的待卷积特征数据;所述第二列数与所述卷积核的列数一致;所述卷积计算单元,用于将所述待卷积特征数据与预设组数的卷积核进行通道对应的卷积计算,得到所述预设组数的卷积计算结果,将所述预设组数的卷积计算结果传输至数据累加单元;其中,每组卷积核所包括的卷积核的数量与所述输入通道的数量一致,所述预设组数与所述卷积加速模块的并行输出通道数一致;所述数据累加单元,用于对同组的卷积计算结果进行累加,得到对应于所述待卷积特征数据的所述预设组数的卷积输出数据,并将对应于所述待卷积特征数据的所述预设组数的卷积输出数据写入所述卷积输出单元;所述卷积输出单元,用于在基于对应于所述待卷积特征数据的所述预设组数的卷积输出数据,形成对应于所述待卷积输入数据的所述预设组数的卷积输出数据的情况下,将对应于所述待卷积输入数据的所述预设组数的卷积输出数据输入至所述池化加速模块;上述方式实现了对卷积神经网络的卷积层的5层流水化运算,提高对卷积层内的运算速度,具体体现在:卷积行缓存单元缓存到与卷积核的行数一致的数据时,即可由卷积滑窗单元进行滑窗处理;并且卷积滑窗单元从卷积行缓存单元缓存的数据提取需要进行卷积运算的特征数据;接着卷积计算单元将提取出的特征数据与不同组的卷积核进行卷积运算,并将卷积计算结果传输至数据累加单元;数据累加单元对同组的卷积计算单元进行累加,得到本次计算的卷积输出数据;卷积输出单元存储本次的卷积输出数据和之前的卷积输出数据,在存储的卷积输出数据对应于待卷积输入数据时,将所存储的卷积输出数据发送至池化加速模块;池化加速模块,用于对对应于所述待卷积输入数据的所述预设组数的卷积输出数据进行池化处理。
附图说明
图1为一个实施例中卷积神经网络加速器的系统结构图;
图2为一个实施例中并行化循环分块示意图;
图3为一个实施例中并行化循环展开示意图;
图4为一个实施例中卷积层输入行缓存结构图;
图5为一个实施例中卷积层FIFO输出缓存结构图;
图6为一个实施例中池化层输入行缓存结构图;
图7为一个实施例中定点化数据划分结构图;
图8为一个实施例中定点化数据溢出处理示意图;
图9为一个实施例中网络层间流水化示意图;
图10为一个实施例中卷积层层内流水化示意图;
图11为一个实施例中池化层层内流水化示意图;
图12为一个实施例中ARM与FPGA并行数据读取示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本申请所描述的实施例可以与其它实施例相结合。
本申请提供的卷积神经网络加速器可以用于变电站图像识别中,该卷积神经网络加速器使用ARM进行系统级的信息交互,使用FPGA进行卷积神经网络的计算加速,以此完成变电站中智能图像处理阵列的设计与部署。
本申请提供的卷积神经网络加速器中,体现出本申请提出一种卷积神经网络中卷积层与池化层的并行化设计方法,从输入通道与输出通道两个层面对卷积层与池化层进行并行化设计,并结合层间流水化设计思想,将卷积层的输出通道与池化层的输入通道并行度设置为相等(也即卷积神经网络加速器的卷积加速模块的并行输出通道数与池化加速模块的并行输入通道数相等),以此实现卷积神经网络的层间流水化设计。并且,也体现出本申请提出一种卷积神经网络中卷积层的5层流水化结构以及池化层的4层流水化结构,并分别设计了卷积层的权重偏置存储结构、输入行缓存结构、FIFO(First Input FirstOutput,先进先出)输出缓存结构,以及池化层的片上行缓存结构。另外,还体现出本申请提出一种卷积神经网络的定点化设计方法,并给出了卷积神经网络定点化后的数据溢出处理策略。
简单来说,本申请的卷积神经网络加速器的设计主要包括以下几个方面:
(1)通过对卷积神经网络计算特性的分析,得到了输入通道与输出通道两个尺度的并行计算特征,引入了输入通道与输出通道的并行化因子,输入通道并行化因子输入分记为a,输出通道并行化因子记为b。使用循环分块、循环展开、循环次序调整以及数组分割的方法设计了卷积层与池化层的FPGA(Field Programmable Gate Array,现场可编程门阵列)硬件计算单元。对于卷积层,设计了卷积层的权重偏置存储结构、输入行缓存结构以及FIFO输出缓存结构;对于池化层设计了池化层的片上行缓存结构。
(2)对卷积神经网络中的权重、偏置进行静态数据分布统计,并使用变电站中的图像样本数据对卷积神经网络前向推理过程中各层的动态数据分布进行统计,从而确定网络模型的整体数据分布区间。利用公式①(在下面介绍中详细说明)对卷积神经网络中的数据进行数据定点化设计,然后使用公式②(在下面介绍中详细说明)对定点化后的数据进行误差统计,进而确定定点数据的位宽和量化因子。对于定点化后可能产生的数据溢出,通过对卷积神经网络中不同作用的数据进行划分,分别使用最大值代替法、高位舍弃法以及高位宽表示法对网络中的数据进行溢出处理。
(3)从卷积神经网络层间与层内两个方面进行流水化设计。对于层间流水化的设计,设计了卷积层与池化层之间的2级流水化计算架构,根据卷积神经网络计算过程中的数据流方向,将卷积层输出通道的并行化因子与池化层输入通道的并行化因子设置为相等,以此实现卷积层与池化层之间的流水化计算;对于层内流水化的设计,通过对卷积层与池化层计算特性的分析,使用任务划分的方法,分别设计了卷积层的5级流水化计算架构以及池化层的4级流水化计算架构。
(4)通过对AXI数据总线协议的分析,设计了一种ARM与FPGA之间的并行数据读写方法,以此完成卷积神经网络计算中ARM与FPGA之间的数据交互。根据卷积神经网络输入通道的并行化因子确定并行数据读取的通道数,根据定点化后的定点数据位宽确定并行数据读取的数据位宽。
以上设计方法,使用Xilinx Vivado开发套件在Xilinx xc7z020clg400-1平台上,以YOLOv3-tiny网络模型为例对加速器性能进行测试,分别设计了卷积层、池化层硬件加速IP,并在Vivado IDE上完成了基于Zynq7020的片上系统(System On Chip,SOC)搭建。
以下详细描述本申请的卷积神经网络加速器:
图1是卷积神经网络加速器的系统设计的整体框图,可以使用Xilinx公司推出异构片上可编程芯片-Zynq进行加速器设计的描述,该芯片由处理系统(Processing System,PS)和可编程逻辑(Programmable Logic,PL)两部分组成,具有低功耗、高性能、可扩展的特点。ARM端进行程序的配置以及相关逻辑控制,FPGA端进行卷积神经网络计算的加速,ARM与FPGA间的数据交互使用AXI数据总线。数据从外部的DDR3内存通过AXI总线传输至FPGA内部进行运算,当卷积层与池化层完成运算后再通过AXI数据总线将数据传输至ARM端的DDR3。
由于卷积神经网络的数据较大,而FPGA的硬件计算资源相对较少,因此需要分批次的将待计算的数据送入FPGA内部进行计算加速。使用循环分块进行计算设计优化,循环分块的设计如图2所示,我们以输出通道为M,输入通道为N的卷积计算为例,对于输出通道来说,可将M个卷积核分割为M/p份,通过M/p次循环完成整个卷积核的并行计算,则此时卷积核的并行度为p,即一次进行p组卷积核的计算;可以理解的是,每组卷积核包括的卷积核数量与输入通道的数量一致,即为N。
循环展开的设计如图3所示,循环展开是一种最直接的并行化加速方法,采用循环展开的方法能够大幅地提高并行运算的速度,当硬件加速平台的资源充足时,可将计算过程没有相互依赖关系的循环进行展开。以图3中3*3的卷积核为例,如果将卷积核与特征图滑窗展开,则可同时进行9次乘法运算,然后在进行1次加法运算,即可完成整个卷积核的计算过程。
卷积层的输入行缓存结构如图4和图6所示,我们以4*4的输入特征图和3*3的卷积核为例进行行缓存内部结构的介绍(★表示缓存器当前位置),图4中的行缓存尺寸为3*4,因此一次缓存的最大尺寸为特征图的3行数据,假设AXI总线每个时钟周期传输一位输入特征图数据,行缓存每个时钟周期就能获取一个数;每个时钟周期下缓存器将当前列的数据向上移动,然后将新的数据读入缓存器的当前位置;下一个时钟周期到来时缓存器将当前位置向右移动一个位置,然后将当前列的数据向上移动,再将新的数据读入缓存器的当前位置,以此类推不断重复这个过程,直到缓存器当前位置移动到最后一列,在下个时钟周期时再从第一列重复之前的过程。
卷积层的设计可以使用FIFO输出缓存结构,如图5所示,我们将FIFO的深度设置为2,每进行一次输入数据的读取则进行两次输出数据的写入,完成卷积计算时需要进行FIFO状态的判断,当FIFO非满状态下进行FIFO的数据写入,将当前的计算结果缓存至FIFO中;同样当进行数据读取时需要判断FIFO是否为空,当FIFO状态非空时进行数据的读取,将卷积计算结果输出至片外存储器。FIFO的结构设计能够提高加速器的计算速率,同时提高数据吞吐率,并在一定程度上缓解了输入输出数据传输不均衡的问题。
可见,所述卷积行缓存单元主要用于在所述FIFO单元处于非空状态时,对所述待卷积输入数据进行读取;以及,所述卷积行缓存单元每进行一次待卷积输入数据的读取,则对所述FIFO单元进行与所述FIFO单元的深度对应次数的写入;以及,数据累加单元主要用于在所述FIFO单元处于非满状态时,对所述FIFO单元进行数据写入。
一个定点数据由符号位、整数位和小数位组成,其总位宽为W,整数部分位宽为I,量化因子为W-I-1,我们使用S_float32)、int(W)、I-float(32)分别表示原始浮点型数据、定点量化后的数据以及定点数反量化的数据,三者之间的关系可用如下公式表示:
int(W)=S_float(32)*2W-I-1
I_float(32)=int(W)/2W-I-1 ①
当总位宽与整数部分位宽固定时,即可使用上式进行数据的量化与反量化,我们将W-I-1称为量化因子,不同的量化因子具有不同的精度,量化因子越大相应的数据精度就越高。为了衡量定点化后数据损失的精度,通常将定点化之后的样本数据进行反量化,并与原始样本数据进行对比,总体的量化精度损失可使用以下公式进行描述:
其中,n=0、1、2、......、N时,表示第0、1、2、......、N个数据;当精度损失在可接受的范围内时,即可完成量化工作,可使用定点化后的数据进行运算。定点化过程中数据整数部分位宽以及量化因子的选择十分重要,前者决定了定点数所能表示的数据范围,后者决定了定点数据的精度。
可见,定点数据的位宽和量化因子是对所述卷积神经网络中的数据进行定点化处理并对定点化处理后的数据进行误差统计确定的。
卷积神经网络中的数据划分及定点化后的数据溢出处理方法如图7和图8所示。对于神经网络来说,数据溢出主要存在于卷积的计算过程以及计算结果的输出,各层的权重、偏置、输入数据只参与计算过程,无需进行数据的更新(此处指本层输入数据)。因此,权重、偏置、输入数据的溢出处理直接使用舍去高位保留低位的方法,也即,卷积神经网络的各网络层的权重、偏置和输入数据被进行舍弃高位保留低位的溢出处理。
进一步地,为了保证舍弃高位保留低位处理方法的数据精度,在对权重、偏置和输入(第一层)数据进行定点化之前,首先根据定点数据的表示范围对其进行预处理,其中权重与偏置一般为浮点型数据,定点化前的预处理主要是将极少数大于定点数范围的数据使用最大值代替,避免传输FPGA内部的数据超出定点数据的范围,从而减少数据精度的损失,与硬件资源的消耗。而输入数据(第一层)通常是三通道的RGB图像,其数据类型为整型,大小在0~255之间,在对其进行定点化前,首先对其进行归一化处理,然后再将数据映射到0~(2I+1-2-W-I-1)之间。
也即,所述各网络层的权重和偏置被进行舍弃高位保留低位的溢出处理之前,还被进行第一预处理;所述第一预处理为:用定点数据的最大值替代大于定点数据范围的权重或偏置;所述各网络层的输入数据被进行舍弃高位保留低位的溢出处理之前,还被进行第二预处理;所述第二预处理为:对所述输入数据进行归一化处理并将归一化处理后的输入数据映射至特定数据区间(0~(2I+1-2-W-I-1));所述特定数据区间是根据定点数据的整数部分位宽和量化因子确定的。
对于卷积计算过程中的数据累加我们使用更大范围的定点数据类型进行计算结果的暂存,确保在累加过程中不会出现数据的溢出,数据范围通常设为-(22I+1-2-2(W-I-1))~(22I+1-2-2(W-I-1)),即对整数部分位宽与小数部分位宽(量化因子)加倍,也即,所述各网络层的中间处理数据(即中间计算结果)被进行位宽扩大的溢出处理。
而对卷积计算的最终输出结果,我们使用与输入数据相同的定点型数据进行表示,数据范围为-(2I+1-2-W-I-1)~(2I+1-2-W-I-1),此时使用定点数据的最大值代替该值,避免造成更大的精度损失,也即所述各网络层的输出数据被进行定点数据的最大值替代的溢出处理。
我们将网络模型的流水化抽象为两个层级,宏观上的流水化可在网络的各层级之间进行设计,网络中相邻的层之间虽然有数据依赖关系,但并非要等一层的计算完全结束之后才能进行下一层的计算;微观上的流水化可在具体的层内展开设计,以卷积层为例,卷积的计算主要由多层for循环组成,可将其抽象为几个子任务,然后对其进行流水化设计。
网络层间流水化的设计如图9所示,层间流水化与层间数据的传递关系密不可分,对于ARM+FPGA架构的神经网络加速器来说,在FPGA内部使用硬件控制器将不同的加速单元连接起来,可通过控制器选择完成计算后的数据流向,对于卷积和池化来说,当完成部分卷积计算后,可对计算完成后的数据直接进行池化运算,然后再将数据传输至片外存储,以此降低数据的传输次数,提高加速器的整体性能。
相对于层间来说,层内的流水化设计具有更大的设计空间,卷积层的流水化设计如图10所示。我们将卷积层的计算分为5个子任务,因此卷积加速模块可以包括以下单元:卷积行缓存单元、卷积滑窗单元、卷积计算单元、数据累加单元以及卷积输出单元,因此整个流水线为5级流水设计。流水线的工作流程如下:首先使用卷积行缓存单元对输入数据进行读取,然后卷积滑窗单元从卷积行缓存单元提取需要进行卷积运算的特征数据,接着卷积计算单元将提取出的特征数据与不同卷积核的进行卷积运算,再将计算结果传输至数据累加单元,进行不同卷积核计算结果的累加,从而得到本次计算的输出结果,最后将输出结果送入卷积输出单元的FIFO单元进行临时存储,同时将上一次计算的结果输出至片外存储单元。
更具体来说,卷积行缓存单元主要是用于对具有第一行数、第一列数和多输入通道的待卷积输入数据进行读取,得到具有第二行数、所述第一列数和所述多输入通道的待卷积缓存数据,对所述待卷积缓存数据进行行缓存;其中,所述第二行数与卷积核的行数一致。卷积滑窗单元主要是用于从所述待卷积缓存数据中,提取具有所述第二行数、第二列数和所述多输入通道的待卷积特征数据;所述第二列数与所述卷积核的列数一致。卷积计算单元主要是用于将所述待卷积特征数据与预设组数的卷积核进行通道对应的卷积计算,得到所述预设组数的卷积计算结果,将所述预设组数的卷积计算结果传输至数据累加单元;其中,每组卷积核所包括的卷积核的数量与所述输入通道的数量一致,所述预设组数与所述卷积加速模块的并行输出通道数一致。数据累加单元主要是用于对同组的卷积计算结果进行累加,得到对应于所述待卷积特征数据的所述预设组数的卷积输出数据,并将对应于所述待卷积特征数据的所述预设组数的卷积输出数据写入所述卷积输出单元。
需要说明的是,数据累加单元当前次的卷积输出数据主要是对应于待卷积特征数据而言的,例如,若卷积核大小为3*3,卷积行缓存单元和卷积滑窗单元对4*4的三通道输入特征图进行处理后,得到3*3的三通道输入特征图块(该3*3的三通道输入特征图块是由待卷积的特征数据形成的),因此,卷积计算单元对3*3的三通道输入特征图块进行卷积计算后,数据累加单元进行累加计算得到的卷积输出数据是对应于3*3的三通道输入特征图块的,也即对应待卷积的特征数据。
若卷积核大小为3*3,那么4*4的三通道输入特征图可以被分为3个3*3的三通道输入特征图块,此时,卷积输出单元基于对应于3个3*3的三通道输入特征图块的卷积输出数据形成对应于4*4的三通道输入特征图的卷积输出数据后,将对应于4*4的三通道输入特征图的卷积输出数据传输至池化加速模块。
池化加速模块主要是用于对对应于所述待卷积输入数据的所述预设组数的卷积输出数据进行池化处理。池化层的流水化设计如图11所示,我们将池化层的计算分为4个子任务,因此,池化加速模块可以包括以下单元:池化行缓存单元、池化滑窗单元、池化计算单元、以及池化输出单元,因此整个流水线为4级流水设计。流水线的工作流程如下:首先使用池化行缓存单元对输入数据进行读取,然后池化滑窗单元从池化行缓存单元提取需要进行最大池化运算的特征数据,接着池化计算单元将提取出最大的特征数据,然后通过池化输出单元进行输出。
更具体来说,池化行缓存单元主要是用于对所述卷积输出单元输出的对应于所述待卷积输入数据的所述预设组数的卷积输出数据进行读取,得到具有第三行数和第三列数的待池化缓存数据,对所述待池化缓存数据进行行缓存;其中,所述第三行数与池化核的行数一致。池化滑窗单元主要是用于从所述待池化缓存数据汇中提取具有所述第三行数和第四列数的待池化特征数据;其中,所述第四列数与所述池化核的列数一致;所述池化计算单元,用于利用池化核对所述待池化特征数据进行池化计算,得到池化计算结果;所述池化输出单元,用于将所述池化计算结果作为池化输出数据进行输出。
在一个实施例中,卷积加速模块和所述池化加速模块部署在卷积神经网络加速器的可编程逻辑部分,所述卷积神经网络加速器还包括处理系统部分;所述处理系统部分,用于向所述卷积行缓存单元传输所述待卷积输入数据。所述处理系统与所述卷积行缓存单元之间的并行数据传输通道数小于所述卷积加速模块的并行输入通道数,且所述并行数据传输通道数与所述并行输入通道数具有整数倍关系。
更具体来说,ARM与FPGA间的并行数据传输如图12所示。图12所示的是一种混合行缓存结构,交替地将输入特征图的每个数据传输至FPGA的片上行缓存中,这种数据缓存结构可以实现特征图间的并行性以及卷积核间的并行性。当进行卷积计算时,a个不同的卷积核共享对应的b个输入特征图行缓存,将b个输入特征图的卷积计算结果叠加即可得到一个卷积核的计算输出。混合行缓存结构相对复杂,但计算效率较高,能够在有限的片上资源实现较大的并行性,此外引入多通道输入特征图的缓存能够有效地降低临时数据存储。我们将AXI数据传输的位宽设置为64,定点数的数据位宽设置为16;根据卷积神经网络并行输入通道数确定ARM与FPGA间的并行数据读取的通道数,且所述并行数据传输通道数与所述并行输入通道数具有整数倍关系,示例性地,卷积神经网络并行输入通道数为32,那么并行数据读取通道数可以设为4,此时,ARM与FPGA间一次能够进行4通道数据的并行读写。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上的实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种卷积神经网络加速器,其特征在于,包括:卷积加速模块和池化加速模块;所述卷积加速模块的并行输出通道数与所述池化加速模块的并行输入通道数相等;所述卷积加速模块包括卷积行缓存单元、卷积滑窗单元、卷积计算单元、数据累加单元和卷积输出单元;
所述卷积行缓存单元,用于对具有第一行数、第一列数和多输入通道的待卷积输入数据进行读取,得到具有第二行数、所述第一列数和所述多输入通道的待卷积缓存数据,对所述待卷积缓存数据进行行缓存;其中,所述第二行数与卷积核的行数一致;
所述卷积滑窗单元,用于从所述待卷积缓存数据中,提取具有所述第二行数、第二列数和所述多输入通道的待卷积特征数据;所述第二列数与所述卷积核的列数一致;
所述卷积计算单元,用于将所述待卷积特征数据与预设组数的卷积核进行通道对应的卷积计算,得到所述预设组数的卷积计算结果,将所述预设组数的卷积计算结果传输至数据累加单元;其中,每组卷积核所包括的卷积核的数量与所述输入通道的数量一致,所述预设组数与所述卷积加速模块的并行输出通道数一致;
所述数据累加单元,用于对同组的卷积计算结果进行累加,得到对应于所述待卷积特征数据的所述预设组数的卷积输出数据,并将对应于所述待卷积特征数据的所述预设组数的卷积输出数据写入所述卷积输出单元;
所述卷积输出单元,用于在基于对应于所述待卷积特征数据的所述预设组数的卷积输出数据,形成对应于所述待卷积输入数据的所述预设组数的卷积输出数据的情况下,将对应于所述待卷积输入数据的所述预设组数的卷积输出数据输入至所述池化加速模块;
所述池化加速模块,用于对对应于所述待卷积输入数据的所述预设组数的卷积输出数据进行池化处理。
2.根据权利要求1所述的卷积神经网络加速器,其特征在于,所述池化加速模块包括池化行缓存单元、池化滑窗单元、池化计算单元和池化输出单元;
所述池化行缓存单元,用于对所述卷积输出单元输出的对应于所述待卷积输入数据的所述预设组数的卷积输出数据进行读取,得到具有第三行数和第三列数的待池化缓存数据,对所述待池化缓存数据进行行缓存;其中,所述第三行数与池化核的行数一致;
所述池化滑窗单元,用于从所述待池化缓存数据汇中提取具有所述第三行数和第四列数的待池化特征数据;其中,所述第四列数与所述池化核的列数一致;
所述池化计算单元,用于利用池化核对所述待池化特征数据进行池化计算,得到池化计算结果;
所述池化输出单元,用于将所述池化计算结果作为池化输出数据进行输出。
3.根据权利要求1所述的卷积神经网络加速器,其特征在于,
所述卷积加速模块和所述池化加速模块部署在卷积神经网络加速器的可编程逻辑部分,所述卷积神经网络加速器还包括处理系统部分;所述处理系统部分,用于向所述卷积行缓存单元传输所述待卷积输入数据;
所述处理系统与所述卷积行缓存单元之间的并行数据传输通道数小于所述卷积加速模块的并行输入通道数,且所述并行数据传输通道数与所述并行输入通道数具有整数倍关系。
4.根据权利要求1所述的卷积神经网络加速器,其特征在于,卷积神经网络的各网络层的权重、偏置和输入数据被进行舍弃高位保留低位的溢出处理;所述各网络层的输出数据被进行定点数据的最大值替代的溢出处理;所述各网络层的中间处理数据被进行位宽扩大的溢出处理。
5.根据权利要求4所述的卷积神经网络加速器,其特征在于,所述各网络层的权重和偏置被进行舍弃高位保留低位的溢出处理之前,还被进行第一预处理;所述第一预处理为:用定点数据的最大值替代大于定点数据范围的权重或偏置。
6.根据权利要求4所述的卷积神经网络加速器,其特征在于,所述各网络层的输入数据被进行舍弃高位保留低位的溢出处理之前,还被进行第二预处理;所述第二预处理为:对所述输入数据进行归一化处理并将归一化处理后的输入数据映射至特定数据区间;所述特定数据区间是根据定点数据的整数部分位宽和量化因子确定的。
7.根据权利要求4所述的卷积神经网络加速器,其特征在于,所述定点数据的位宽和量化因子是对所述卷积神经网络中的数据进行定点化处理并对定点化处理后的数据进行误差统计确定的。
8.根据权利要求1所述的卷积神经网络加速器,其特征在于,所述卷积输出单元为FIFO单元;
所述卷积行缓存单元,用于在所述FIFO单元处于非空状态时,对所述待卷积输入数据进行读取。
9.根据权利要求8所述的卷积神经网络加速器,其特征在于,所述卷积行缓存单元每进行一次待卷积输入数据的读取,则对所述FIFO单元进行与所述FIFO单元的深度对应次数的写入。
10.根据权利要求9所述的卷积神经网络加速器,其特征在于,
所述数据累加单元,用于在所述FIFO单元处于非满状态时,对所述FIFO单元进行数据写入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110741346.7A CN113361695B (zh) | 2021-06-30 | 2021-06-30 | 卷积神经网络加速器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110741346.7A CN113361695B (zh) | 2021-06-30 | 2021-06-30 | 卷积神经网络加速器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113361695A true CN113361695A (zh) | 2021-09-07 |
CN113361695B CN113361695B (zh) | 2023-03-24 |
Family
ID=77537697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110741346.7A Active CN113361695B (zh) | 2021-06-30 | 2021-06-30 | 卷积神经网络加速器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113361695B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743587A (zh) * | 2021-09-09 | 2021-12-03 | 苏州浪潮智能科技有限公司 | 一种卷积神经网络池化计算方法、系统、及存储介质 |
CN114327676A (zh) * | 2021-12-28 | 2022-04-12 | 北京航天自动控制研究所 | 一种面向卷积神经网络的高可靠加速器 |
CN114723034A (zh) * | 2022-06-10 | 2022-07-08 | 之江实验室 | 一种可分离的图像处理神经网络加速器及加速方法 |
CN115600652A (zh) * | 2022-11-29 | 2023-01-13 | 深圳市唯特视科技有限公司(Cn) | 卷积神经网络处理装置、高速目标探测方法以及设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107657316A (zh) * | 2016-08-12 | 2018-02-02 | 北京深鉴科技有限公司 | 通用处理器与神经网络处理器的协同系统设计 |
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
CN108805267A (zh) * | 2018-05-28 | 2018-11-13 | 重庆大学 | 用于卷积神经网络硬件加速的数据处理方法 |
CN110837890A (zh) * | 2019-10-22 | 2020-02-25 | 西安交通大学 | 一种面向轻量级卷积神经网络的权值数值定点量化方法 |
CN111047008A (zh) * | 2019-11-12 | 2020-04-21 | 天津大学 | 一种卷积神经网络加速器及加速方法 |
CN111797982A (zh) * | 2020-07-31 | 2020-10-20 | 北京润科通用技术有限公司 | 基于卷积神经网络的图像处理系统 |
WO2021004366A1 (zh) * | 2019-07-08 | 2021-01-14 | 浙江大学 | 基于结构化剪枝和低比特量化的神经网络加速器及方法 |
CN112288082A (zh) * | 2020-11-23 | 2021-01-29 | 天津大学 | 一种基于hls的可重构通用标准卷积加速器设计方法 |
-
2021
- 2021-06-30 CN CN202110741346.7A patent/CN113361695B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107657316A (zh) * | 2016-08-12 | 2018-02-02 | 北京深鉴科技有限公司 | 通用处理器与神经网络处理器的协同系统设计 |
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
CN108805267A (zh) * | 2018-05-28 | 2018-11-13 | 重庆大学 | 用于卷积神经网络硬件加速的数据处理方法 |
WO2021004366A1 (zh) * | 2019-07-08 | 2021-01-14 | 浙江大学 | 基于结构化剪枝和低比特量化的神经网络加速器及方法 |
CN110837890A (zh) * | 2019-10-22 | 2020-02-25 | 西安交通大学 | 一种面向轻量级卷积神经网络的权值数值定点量化方法 |
CN111047008A (zh) * | 2019-11-12 | 2020-04-21 | 天津大学 | 一种卷积神经网络加速器及加速方法 |
CN111797982A (zh) * | 2020-07-31 | 2020-10-20 | 北京润科通用技术有限公司 | 基于卷积神经网络的图像处理系统 |
CN112288082A (zh) * | 2020-11-23 | 2021-01-29 | 天津大学 | 一种基于hls的可重构通用标准卷积加速器设计方法 |
Non-Patent Citations (2)
Title |
---|
SONG, ZHOURUI ET AL: "Computation Error Analysis of Block Floating Point Arithmetic Oriented Convolution Neural Network Accelerator Design", 《32ND AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》, 7 February 2018 (2018-02-07) * |
雷小康等: "基于FPGA的卷积神经网络定点加速", 《计算机应用》, vol. 40, no. 10, 31 October 2020 (2020-10-31) * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743587A (zh) * | 2021-09-09 | 2021-12-03 | 苏州浪潮智能科技有限公司 | 一种卷积神经网络池化计算方法、系统、及存储介质 |
WO2023035557A1 (zh) * | 2021-09-09 | 2023-03-16 | 苏州浪潮智能科技有限公司 | 一种卷积神经网络池化计算方法、系统、及存储介质 |
CN113743587B (zh) * | 2021-09-09 | 2024-02-13 | 苏州浪潮智能科技有限公司 | 一种卷积神经网络池化计算方法、系统、及存储介质 |
CN114327676A (zh) * | 2021-12-28 | 2022-04-12 | 北京航天自动控制研究所 | 一种面向卷积神经网络的高可靠加速器 |
CN114723034A (zh) * | 2022-06-10 | 2022-07-08 | 之江实验室 | 一种可分离的图像处理神经网络加速器及加速方法 |
CN114723034B (zh) * | 2022-06-10 | 2022-10-04 | 之江实验室 | 一种可分离的图像处理神经网络加速器及加速方法 |
CN115600652A (zh) * | 2022-11-29 | 2023-01-13 | 深圳市唯特视科技有限公司(Cn) | 卷积神经网络处理装置、高速目标探测方法以及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113361695B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113361695B (zh) | 卷积神经网络加速器 | |
CN110378468B (zh) | 一种基于结构化剪枝和低比特量化的神经网络加速器 | |
CN110058883B (zh) | 一种基于opu的cnn加速方法及系统 | |
CN111459877B (zh) | 基于FPGA加速的Winograd YOLOv2目标检测模型方法 | |
CN111414994B (zh) | 一种基于FPGA的Yolov3网络计算加速系统及其加速方法 | |
CN109146067B (zh) | 一种基于FPGA的Policy卷积神经网络加速器 | |
CN110516801A (zh) | 一种高吞吐率的动态可重构卷积神经网络加速器架构 | |
CN111105023B (zh) | 数据流重构方法及可重构数据流处理器 | |
CN113051216B (zh) | 一种基于FPGA加速的MobileNet-SSD目标检测装置及方法 | |
CN109472361B (zh) | 神经网络优化方法 | |
CN113792621B (zh) | 一种基于fpga的目标检测加速器设计方法 | |
CN112950656A (zh) | 一种基于fpga平台的按通道进行预读取数据的分块卷积方法 | |
CN114742225A (zh) | 一种基于异构平台的神经网络推理加速方法 | |
Shahshahani et al. | Memory optimization techniques for fpga based cnn implementations | |
Yan et al. | FPGAN: an FPGA accelerator for graph attention networks with software and hardware co-optimization | |
CN114626516A (zh) | 一种基于对数块浮点量化的神经网络加速系统 | |
CN116720549A (zh) | 一种基于cnn输入全缓存的fpga多核二维卷积加速优化方法 | |
CN115238863A (zh) | 一种卷积神经网络卷积层的硬件加速方法、系统及应用 | |
CN114003201A (zh) | 矩阵变换方法、装置及卷积神经网络加速器 | |
Zong-ling et al. | The design of lightweight and multi parallel CNN accelerator based on FPGA | |
CN117521752A (zh) | 一种基于fpga的神经网络加速方法及系统 | |
CN116822600A (zh) | 一种基于risc-v架构的神经网络搜索芯片 | |
CN115668222A (zh) | 一种神经网络的数据处理方法及装置 | |
US11921667B2 (en) | Reconfigurable computing chip | |
US20230025068A1 (en) | Hybrid machine learning architecture with neural processing unit and compute-in-memory processing elements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230505 Address after: Full Floor 14, Unit 3, Building 2, No. 11, Middle Spectra Road, Huangpu District, Guangzhou, Guangdong 510700 Patentee after: China Southern Power Grid Digital Grid Technology (Guangdong) Co.,Ltd. Address before: Room 86, room 406, No.1, Yichuang street, Zhongxin Guangzhou Knowledge City, Huangpu District, Guangzhou City, Guangdong Province Patentee before: Southern Power Grid Digital Grid Research Institute Co.,Ltd. |