CN109934339B - 一种基于一维脉动阵列的通用卷积神经网络加速器 - Google Patents
一种基于一维脉动阵列的通用卷积神经网络加速器 Download PDFInfo
- Publication number
- CN109934339B CN109934339B CN201910168042.9A CN201910168042A CN109934339B CN 109934339 B CN109934339 B CN 109934339B CN 201910168042 A CN201910168042 A CN 201910168042A CN 109934339 B CN109934339 B CN 109934339B
- Authority
- CN
- China
- Prior art keywords
- convolution
- data
- calculation
- result
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Complex Calculations (AREA)
Abstract
本发明公开一种基于一维脉动阵列的通用卷积神经网络加速器,AXI4总线接口用于实现模式配置指令的载入以及待计算数据的读取与结果数据的批量发送;模式配置器通过模式配置指令配置各个功能模块为对应工作类型;数据调度模块可并发进行待计算数据缓存、计算数据读取、卷积结果缓存以及卷积结果处理与输出任务;卷积计算模块采用一维脉动阵列的模式进行卷积计算;待计算数据缓存区、卷积结果缓存区、输出结果缓冲FIFO,用于缓存对应数据;结果处理模块进行卷积神经网络中常见的结果处理操作。此种加速器能够兼容卷积神经网络中的不同计算类型并进行高并行度计算来有效加速,同时只需要较低的片外访存带宽需求以及少量的片上存储资源。
Description
技术领域
本发明属于电子信息和深度学习技术领域,特别涉及一种基于一维脉动阵列(1-DSystolicArray)的通用卷积神经网络硬件加速器。
背景技术
近年来,深度卷积神经网络近来受到了广泛的关注,从2012年Google Brain团队使用深度神经网络“认猫”到16/17年Deepmind团队的AlphaGO/AlphaZero在围棋场上的所向无敌,以卷积神经网络为代表的“深度学习”,吸引到的不仅仅是大众的目光,还有学术界与产业界极大的兴趣。通过研究人员和工程师们的努力,现在卷积神经网络已经在很多方向上得到了广泛的应用,例如图像识别、目标检测、自然语言处理等。
但高性能的卷积神经网络所需参数量与计算量也非常大,如针对高清图像的检测/识别/语义分割等任务,仅仅模型的权重数据便高达数百兆字节,即便是推断过程也往往需要数十至数千亿的乘累加操作,数据的访存频率、计算量、存储空间需求无不给计算平台带来很大的压力,需要找到方法构建一个高性能的通用卷积神经网络硬件加速器以解决上述问题,本案由此产生。
发明内容
本发明的目的,在于提供一种基于一维脉动阵列的通用卷积神经网络加速器,其可兼容卷积神经网络中的不同计算类型并进行高并行度计算来有效加速,同时只需要较低的片外访存带宽需求以及少量的片上存储资源。
为了达成上述目的,本发明的解决方案是:
一种基于一维脉动阵列的通用卷积神经网络加速器,包括:
AXI4总线接口,是基于AXI总线协议的面向地址映射的高性能总线接口,通过其实现模式配置指令的载入以及待计算数据的读取与结果数据的批量发送,加速器可直接挂载到支持AXI4协议的主设备上工作;
模式配置器,通过模式配置指令配置各个功能模块为对应工作类型,从而适配不同类型的卷积神经网络计算模式;
数据调度模块,可并发进行待计算数据缓存、计算数据读取、卷积结果缓存以及卷积结果处理与输出任务,内置的数据调度逻辑可大幅减少外部指令开销并提高数据调度效率;
卷积计算模块,作为卷积神经网络加速器的主体,其卷积计算单元的并行度为N,单个卷积计算单元内部包含L×M个乘累加单元,采用一维脉动阵列的模式进行卷积计算并针对多种卷积类型做了结构优化,卷积计算单元后跟一个J级加法树进行计算结果的整合,J等于log2N;
待计算数据缓存区、卷积结果缓存区、输出结果缓冲FIFO,用于缓存对应数据,待计算数据缓存区包括N个特征图缓存单元和权重缓存单元,特征图缓存单元采用乒乓操作,保存当前计算需要的特征图行像素值及下一次计算需要的特征图行像素值,卷积结果缓存区及输出结果缓冲FIFO并行度均为M,卷积计算完成后数据由卷积结果缓存区取出,经由结果处理模块处理后通过输出结果缓冲FIFO传出;
结果处理模块,包括标准化、池化、激活函数、量化处理四个子模块,对应四种卷积神经网络中常见的结果处理操作,并行度为M,卷积结果以流水线的方式依次经过这四个模块的处理,其中标准化模块简化成标准化系数乘加操作,激活模块采取Relu激活函数,池化模块与量化模块设计了可配置分支以对应不同的池化类型与量化精度。
上述卷积计算模块采用一维脉动阵列的组合形式进行并行卷积计算,由N个卷积计算单元组成,每个卷积计算单元对应一个特征图缓存单元和一个权重缓存单元;根据卷积核的行数KH,又可以将卷积计算单元分成G组,G等于每批计算时特征图缓存单元分别缓存有G个特征图输入通道的KH行数据中的一行,而同一组权重缓存单元均缓存M个卷积核的该组对应通道的权重,对应输入通道不改变时下一批计算时只需更新每组特征图缓存单元中的S个缓存单元即可,S为卷积步长。
上述卷积计算单元执行计算时,通过L级移位寄存器提供特征图行数据给卷积计算单元阵列而无需额外展开,同时权重缓存单元直接提供M个卷积核的相应位置权重值,即一个卷积计算单元L×M阵列每次计算可完成L个特征图数据与M个权重数据两两之间的定点数乘法并可累加同位置上次计算的结果。
上述卷积计算模块在卷积计算单元输出结果时,会通过J级加法树对N个卷积计算单元对应位置结果进行累加,包括同一卷积核同一通道KH行结果累加×同一卷积核G通道累加,将累加结果行L个结果拼接后存入M个卷积结果缓存区。
在卷积结果缓存区到输出缓冲FIFO之间增加了结果处理模块,可将与卷积层相关联的计算全部在加速器内完成,结果处理模块包括标准化、池化、激活、量化四个子模块,卷积结果以流水线的方式依次经过这四个功能模块的处理,其中标准化模块将偏置加法与标准化过程简化成一次标准化系数乘加操作,激活模块采取Relu激活函数,池化模块与量化模块设计了可配置处理分支以对应不同的池化类型与量化精度。
上述AXI4总线接口与各缓存区会将多组数据合并后进行收发,提高传输效率。
采用上述方案后,本发明注重卷积神经网络硬件加速器的通用性及内部数据复用性,基于一维脉动阵列的计算结构既可能灵活的实现多种计算模式,又可以方便的实现片内特征图数据复用和权重复用以提高计算效率;通过数据调度模块、数据缓存区、卷积计算模块的相互配合,保证了该卷积神经网络硬件加速器的高效运行,降低了通信等待时间;结果处理模块的加入令该加速器能完成卷积神经网络模型的绝大部分工作加速,提高最终系统的运行效率。
本发明在基于YOLO算法的物体检测分类应用中得到验证,在FPGA平台上使用100MHz的工作频率,使用计算阵列大小为3×8,并行度为32的卷积计算单元,输入数据精度为8位定点数的情况下,最大算力可达150GOPS,对1280pixels×720pixels的视频流可进行实时处理检测分类任务,即处理速度达到30FPS,同时精度损失不超过5%。
附图说明
图1是本发明的组成结构示意图;
图2是本发明的缓存-计算执行结构示意图;
图3是本发明卷积计算单元结构示意图;
图4是本发明结果处理模块分支示意图。
具体实施方式
以下将结合附图,对本发明的技术方案及有益效果进行详细说明。
如图1所示为本发明设计的加速器各模块组成结构,其工作方法如下:
片外处理器预先向加速器发送模式配置指令,模式配置器接收指令后对其进行解码,并依此对各功能模块的配置端口置位或对配置寄存器赋值。数据调度模块的可配置部分包括特征图行长ML、卷积核行数KH、卷积核列数KL、卷积核步长S、卷积核个数KC、特征图填充数PAD、单通道计算行数LC、池化类型PT、数据更新模式DR这几个配置寄存器。当片外处理器通过AXI4总线接口从片外存储器(实施例中为DDR3)发来有效数据时,数据调度模块根据特征图行长ML数值将特征图数据按行存放到各个特征图存储单元,数据更新模式DR为全部更新时会将下一批特征图数据依次写入各组所有的特征图缓存单元,部分更新时每组只轮流更新参考卷积核步长S个特征图缓存单元;再依据卷积核行数KH、卷积核列数KL、卷积核步长S、卷积核个数KC的数值信息,将权重值分别按通道存放在各组卷积核存储单元里;标准化系数则在输出处理前存放在M个标准化参数存储区里,数据总量只有2×KC个。在收到片外处理器的计算命令后,加速器开始执行计算任务,此时数据调度模块自发进行待计算数据对齐取出,对单个特征图存储单元而言,在取出其中所存特征图行的起始和结束位置时,会依特征图填充数PAD自动补零填充,每KL次移位计算将完成一批卷积计算,之后通过KL和卷积核步长S生成下一次卷积计算特征图数据地址;单个卷积核存储单元只需在每次计算中依次取出其在该组对应行数据数的KL个权重值即可,需要注意这里的权重值是M个卷积核对应位置权重值拼接在一起的。在收到片外处理器的输出命令后,数据调度模块切换卷积结果缓存区的结果接收块与结果发送块,按不同的池化类型PT发送已计算完成的卷积结果数据,例如池化类型为不池化的话,就按行的从左到右,从上到下,从前通道到后通道的顺序依次发送,如果池化类型为2×2最大池化的话,就按Z字型顺序发送,第1~2行由上到下,由左到右发送,再是3~4行,目的是使结果处理完成后输出结果缓冲FIFO接收的数据是按顺序排列好的;结果处理模块均为多级流水线操作,除标准化处理模块外其他子模块需要分别被池化类型参数PT、激活函数类型参数AT、量化类型参数QT几个参数配置成对应功能类型;当卷积结果缓存结果发送块数据全部读出时,返回给片外处理器结果准备完成信号,之后由处理器通过AXI4接口从结果输出缓存FIFO中读出结果数据。
参照图2,模式配置完成后,即可进行后续的数据缓存-计算操作。加速器的缓存-计算执行结构里采用了乒乓操作和流水线设计来提高效率与降低能耗。加速器工作时,待计算数据载入待计算数据缓存区、待计算数据缓存区读出数据送入卷积计算模块与卷积计算模块计算结果存入卷积结果缓存区、卷积结果缓存区结果经结果处理模块处理后由结果输出缓冲FIFO输出三者间是可以并发的相对独立的过程。待计算数据缓存区分为特征图缓存区、权重缓存区。在本发明的实施例中,特征图缓存区由简单双口块存储器(Simple DualPort BlockRAM)构成,输入位宽64,深度512,输出位宽8,深度4096,32个;卷积核缓存区也由简单双口块存储器构成,输入位宽都是64,深度为256,32个;标准化参数缓存区由单口分布式存储器(Single Port Distribute RAM)构成,数据位宽64,深度16,8个;卷积结果缓存区由简单双口块存储器构成,数据位宽96,深度4096,两组,每组8个;输出结果缓冲FIFO由块存储器构成,输入输出位宽64,深度4096,8个。AXI4总线接口的数据位宽为64位,特征图和权重数据采用8位定点精度。特征图缓存区与卷积核缓存区按深度地址均分存储空间为两部分进行乒乓缓存,以特征图缓存单元为例,当前半部分存储空间数据缓存完成后,将这一部分作为计算模块数据提取区,即从读地址0~2047范围内读出数据,后半部分存储空间作为下一批特征图数据缓存区,即在写地址256~511范围内写入数据。卷积结果缓存区情况有所不同,在存入卷积结果时往往需要取出上一批对应位置计算结果进行累加,故而计算过程的结果写入与输出过程的结果读出无法共存,需要划分成独立的两块存储空间交替进行,一轮计算包括次行遍历,P是该轮同通道输入特征图行数,KN是卷积核通道数,也即输入特征图通道数,P的数量受到单组卷积结果缓存单元大小限制。结果处理模块使用了流水线设计,不需要重复存储数据,只需要少量的寄存器资源以及十余个时钟延迟即可。
在本发明的实施例中,首先通过AXI4总线向特征图缓存区写入数据,输入数据事先按行分块,比如卷积核尺寸KL×KH为3×3时,计算组数G等于即10组,输入特征图数据即为通道0的第0~2行、通道1的第0~2行一直到通道9的第0~2行,数据调度模块会将其按行分别存放在30个特征图缓存单元里,然后总线再向卷积核缓存区写入数据,一共KC个卷积核,例如16个,只需要对应通道的部分,即3×3×10×16个权重值,按通道分为10组,每组为3×3×16个权重值,一组内的3个卷积核缓存单元均保存有这144个权重值。少数情况如特征图输入通道达不到时,计算组数只能取到实际输入通道数。特征图数据和卷积核数据缓存完成后,片外处理器发来计算启动信号,各缓存单元并行将数据送入卷积计算模块进行计算,特征图缓存单元和卷积核缓存单元与卷积计算单元一一对应。
参照图3,卷积计算单元同时接收特征图数据和权重数据,在本发明的实施例中,特征图输入端口位宽为8,权重输入端口位宽为64,即每次传入1个特征图数据和8个权重数据,计算单元包含3×8的乘累加计算阵列,使用DSP48作为乘累加器。若该计算组负责计算特征图的第0通道1、2、3行时,第一个计算单元则对应特征图第0通道第1行。该计算单元工作时,先将移位寄存器填充满,即先将特征图第0通道第1行的第0、1、2个数据依次传入移位寄存器,然后这3个特征图数据分别于来自8个不同卷积核通道0第0行第0个权重值进行乘法运算;下个时钟则是特征图第1、2、3个数据与对应卷积核第1个权重进行乘法并累加上个时钟结果;第三个时钟同理,此时卷积计算单元完成了8个卷积核3个卷积位置上的1×3×1的卷积计算,将此结果导出至加法树,最终相当于一组3个计算单元完成了3×3×1的卷积计算,10组计算单元则完成了3×3×10的卷积计算,即所有计算单元输出经过5级加法树后得到8个卷积核3个卷积位置上3×3×10的卷积计算(中间)结果,除每个卷积核前10个通道计算外,结果存入前还先从卷积结果存储单元取出对应位置此前通道结果进行累加,此后将同一卷积核的3个结果拼接为1个,将8个卷积核的结果分别存入8个卷积结果存储单元;在第四个时钟继续传入特征图数据使移位寄存器变为第3、4、5个数据,又可以令卷积核数据回到该行第0个权重,立即开启下一批卷积计算,在该行特征图全部计算完成后,还可以更换另外8个卷积核就该行再次进行卷积计算,直到KC个卷积核全部计算完毕。考虑到卷积类型的多样性,计算单元的移位寄存器部分还设计了分支与备用结构来提高效率。分支结构对应步长为2的卷积核,将不需要与当前权重进行乘法的特征图数据置于分支处,避免浪费计算资源,分支还可以进一步扩展以对应更大的步长。备用结构则有两种用途,首先对应1×1卷积核时,原策略每三次移位只对应一次计算,计算资源有67%的时间是空置的,此时可以使移位寄存器一寄存的特征图数据保持不变,通过更换权重数据重复进行次卷积计算并分别输出,如3次,即与24个卷积核进行卷积计算,备用的移位寄存器二则继续更新移位数据,计算和更新完成后由移位寄存器二接替提供特征图数据进行下一批的计算;另一种情况则是卷积核行宽KL过大时,一批卷积计算结束后移位寄存器数据对应特征图行位置已经越过了下一批卷积的起始位置,此时可以用移位寄存器一正常计算,移位寄存器二先跟随移位,到达下一批计算起始位置时移位寄存器二停止更新,在本批计算完成后即可直接启用移位寄存器二进行计算。
参照图4,一轮计算完成后,对应组的8个结果缓存区切换到结果输出任务,该组结果缓存区每个卷积结果缓存单元对应一个结果处理模块以及一个输出结果缓冲FIFO。结果处理模块有四个子模块,在本发明的实施例中,会将拼接的卷积结果数据直接送入后续处理子模块内部再行拆分。首先在输出启动前将对应输出通道的标准化参数写入标准化参数缓存区,在输出的卷积结果处理过程中与结果数据对齐取出,每个卷积核的计算结果对应一对参数a和b,在标准化子模块与卷积结果x进行乘加操作,即输出y=ax+b,直接通过a、b的取值区分不同模式。使用了批量标准化方法的卷积神经网络模型在推断的时候计算公式为也可表示为其中γ和β为可训练参数,E[x(b)]是训练中权重批均值的均值,Var[x(b)]是训练中权重批方差的无偏估计,a取且b取即可完成标准化操作,也可以分别a为1且b为卷积核偏置参数实现卷积偏置累加操作,或a为1且b为0,不作处理;后一级的池化模块有较多的分支,如是否池化、池化规格是2×2还是3×3、步长为1还是2或是3、是最大池化还是平均池化,根据具体需求对每种池化方式设计了状态机,根据配置模式选择对应状态机来完成任务;激活函数处理模块采用了relu激活函数,输入为负数则将其置零,为正数则保留,消耗硬件资源少;量化模块则是为了保持前后数据精度及减少输出带宽负载,处理时使用输入数据若向上/向下溢出则取上限/下限,低位直接截断的策略。输出结果缓冲FIFO接收处理好的结果数据并通过AXI4总线向外发送,采用了异步FIFO设计,支持片外处理器与片外存储器以更高的时钟频率接收结果数据。
综合上述,本发明一种基于一维脉动阵列的通用卷积神经网络加速器,可以接收输入特征图以及卷积核参数并高效快速地完成卷积乘累加计算以及后续的结果处理,而且可以通过模式配置指令配置各个功能模块以适配不同的卷积神经网络结构,最后还采用了多种优化策略提高了加速器的计算效率。本发明能直接适配各种卷积神经网络结构,拥有较少的通信带宽开销和较高的计算效率,适用范围广,硬件友好度高。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (5)
1.一种基于一维脉动阵列的通用卷积神经网络加速器,其特征在于包括:
AXI4总线接口,用于连接片外处理器和片外存储器,实现模式配置指令的载入、待计算数据的读取及结果数据的发送;
模式配置器,用于根据模式配置指令将各个功能模块设置为对应工作类型,从而适配不同类型的卷积神经网络计算模式;
数据调度模块,用于并发进行待计算数据缓存、计算数据读取、卷积结果缓存及卷积结果处理与输出任务;
卷积计算模块,包含N个卷积计算单元和一个J级加法树,J等于log2N,N个卷积计算单元的输出端均连接加法树,每个卷积计算单元内部包含L×M个乘累加单元,其中L代表移位寄存器级数,M代表卷积核个数;
结果处理模块,用于完成与卷积层相关联的计算,并将计算结果送入输出结果缓冲FIFO;以及,
待计算数据缓存区、卷积结果缓存区、输出结果缓冲FIFO,用于缓存对应数据;待计算数据缓存区包括N个特征图缓存单元和权重缓存单元,特征图缓存单元采用乒乓操作,保存当前计算需要的特征图行像素值及下一次计算需要的特征图行像素值;卷积结果缓存区及输出结果缓冲FIFO并行度均为M,卷积计算完成后数据由卷积结果缓存区取出,经由结果处理模块处理后通过输出结果缓冲FIFO传出;
所述卷积计算模块采用一维脉动阵列的组合形式进行并行卷积计算,由N个卷积计算单元组成,每个卷积计算单元对应一个特征图缓存单元和一个权重缓存单元;根据卷积核的行数KH,将卷积计算单元分成G组,G等于每批计算时特征图缓存单元分别缓存有G个特征图输入通道的KH行数据中的一行,而同一组权重缓存单元均缓存M个卷积核的该组对应通道的权重,对应输入通道不改变时下一批计算时只需更新每组特征图缓存单元中的S个缓存单元即可,S为卷积步长。
2.如权利要求1所述的加速器,其特征在于:所述卷积计算单元执行计算时,通过L级移位寄存器提供特征图行数据给计算单元阵列,同时权重缓存单元直接提供M个卷积核的相应位置权重值,即一个卷积计算单元L×M阵列每次计算会完成L个特征图数据与M个权重数据两两之间的定点数乘法并能够累加同位置上次计算的结果。
3.如权利要求1所述的加速器,其特征在于:所述卷积计算模块在卷积计算单元输出结果时,通过J级加法树对N个卷积计算单元对应位置结果进行累加,包括同一卷积核同一通道KH行结果累加,以及同一卷积核G通道累加,将累加结果行L个结果拼接后存入M个卷积结果缓存区。
4.如权利要求1所述的加速器,其特征在于:所述结果处理模块包括标准化模块、池化模块、激活函数模块、量化处理模块四个子模块,对应四种卷积神经网络中的结果处理操作,并行度为M,卷积结果以流水线的方式依次经过这四个模块的处理,其中标准化模块简化成标准化系数乘加操作,激活函数模块采取Relu激活函数,池化模块与量化处理模块设计了可配置分支以对应不同的池化类型与量化精度。
5.如权利要求1所述的加速器,其特征在于:所述AXI4总线接口与待计算数据缓存区、卷积结果缓存区、输出结果缓冲FIFO将多组数据合并后进行收发。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910168042.9A CN109934339B (zh) | 2019-03-06 | 2019-03-06 | 一种基于一维脉动阵列的通用卷积神经网络加速器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910168042.9A CN109934339B (zh) | 2019-03-06 | 2019-03-06 | 一种基于一维脉动阵列的通用卷积神经网络加速器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109934339A CN109934339A (zh) | 2019-06-25 |
CN109934339B true CN109934339B (zh) | 2023-05-16 |
Family
ID=66986421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910168042.9A Active CN109934339B (zh) | 2019-03-06 | 2019-03-06 | 一种基于一维脉动阵列的通用卷积神经网络加速器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109934339B (zh) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135556A (zh) * | 2019-04-04 | 2019-08-16 | 平安科技(深圳)有限公司 | 基于脉动阵列的神经网络加速方法、装置、计算机设备及存储介质 |
CN110390385B (zh) * | 2019-06-28 | 2021-09-28 | 东南大学 | 一种基于bnrp的可配置并行通用卷积神经网络加速器 |
CN110333827B (zh) * | 2019-07-11 | 2023-08-08 | 山东浪潮科学研究院有限公司 | 一种数据加载装置和数据加载方法 |
CN110598844A (zh) * | 2019-08-06 | 2019-12-20 | 天津大学 | 一种基于fpga的并行卷积神经网络加速器及加速方法 |
CN110516334B (zh) * | 2019-08-16 | 2021-12-03 | 浪潮电子信息产业股份有限公司 | 基于硬件环境的卷积计算仿真测试方法、装置及相关设备 |
WO2021031154A1 (zh) * | 2019-08-21 | 2021-02-25 | 深圳市大疆创新科技有限公司 | 神经网络的特征图装载方法及设备 |
CN110673786B (zh) * | 2019-09-03 | 2020-11-10 | 浪潮电子信息产业股份有限公司 | 数据缓存的方法和装置 |
CN110765411A (zh) * | 2019-09-05 | 2020-02-07 | 天津芯海创科技有限公司 | 一种卷积神经网络中卷积运算数据复用装置 |
CN110659119B (zh) * | 2019-09-12 | 2022-08-02 | 浪潮电子信息产业股份有限公司 | 一种图片处理方法、装置及系统 |
CN112766453A (zh) * | 2019-10-21 | 2021-05-07 | 华为技术有限公司 | 一种数据处理装置及数据处理方法 |
CN112819022B (zh) * | 2019-11-18 | 2023-11-07 | 同方威视技术股份有限公司 | 基于神经网络的图像识别装置和图像识别方法 |
CN112825151A (zh) * | 2019-11-20 | 2021-05-21 | 上海商汤智能科技有限公司 | 数据处理方法、装置及设备 |
CN111045732B (zh) * | 2019-12-05 | 2023-06-09 | 腾讯科技(深圳)有限公司 | 数据处理方法、芯片、设备及存储介质 |
CN111178518A (zh) * | 2019-12-24 | 2020-05-19 | 杭州电子科技大学 | 一种基于fpga的软硬件协同的加速方法 |
CN111178519B (zh) * | 2019-12-27 | 2022-08-02 | 华中科技大学 | 卷积神经网络加速引擎、卷积神经网络加速系统及方法 |
CN113313228B (zh) * | 2020-02-26 | 2022-10-14 | 杭州知存智能科技有限公司 | 数据缓存电路和方法 |
CN111340224B (zh) * | 2020-02-27 | 2023-11-21 | 浙江芯劢微电子股份有限公司 | 适用于低资源嵌入式芯片的cnn网络的加速设计方法 |
CN111368988B (zh) * | 2020-02-28 | 2022-12-20 | 北京航空航天大学 | 一种利用稀疏性的深度学习训练硬件加速器 |
CN111506344B (zh) * | 2020-03-05 | 2023-07-07 | 北京大学深圳研究生院 | 一种基于脉动阵列架构的深度学习硬件系统 |
CN111325327B (zh) * | 2020-03-06 | 2022-03-08 | 四川九洲电器集团有限责任公司 | 基于嵌入式平台的通用卷积神经网络运算架构与使用方法 |
CN111563580B (zh) * | 2020-04-28 | 2024-03-08 | 京东方科技集团股份有限公司 | 一种卷积神经网络实现装置及方法 |
CN113168429A (zh) * | 2020-05-11 | 2021-07-23 | 深圳市大疆创新科技有限公司 | 卷积计算装置、方法和计算机存储介质 |
CN111626403B (zh) * | 2020-05-14 | 2022-05-10 | 北京航空航天大学 | 一种基于cpu-fpga内存共享的卷积神经网络加速器 |
CN112269992B (zh) * | 2020-06-01 | 2023-10-20 | 中国科学院信息工程研究所 | 基于人工智能处理器的实时恶意样本检测方法及电子装置 |
CN111767246B (zh) * | 2020-06-09 | 2024-03-05 | 上海寒武纪信息科技有限公司 | 数据处理方法、相关设备及计算机可读介质 |
CN111898733B (zh) * | 2020-07-02 | 2022-10-25 | 西安交通大学 | 一种深度可分离卷积神经网络加速器架构 |
CN111860819B (zh) * | 2020-07-27 | 2023-11-07 | 南京大学 | 一种可拼接、可分段的全连接神经网络推理加速器及其加速方法 |
CN114090470B (zh) * | 2020-07-29 | 2023-02-17 | 深圳市中科元物芯科技有限公司 | 数据预加载装置及其预加载方法、存储介质和计算机设备 |
CN111897579B (zh) * | 2020-08-18 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置、计算机设备和存储介质 |
CN112381220B (zh) * | 2020-12-08 | 2024-05-24 | 厦门壹普智慧科技有限公司 | 一种神经网络张量处理器 |
CN112230884B (zh) * | 2020-12-17 | 2021-04-20 | 季华实验室 | 目标检测硬件加速器及加速方法 |
CN112766479B (zh) * | 2021-01-26 | 2022-11-11 | 东南大学 | 一种基于fpga的支持通道分离卷积的神经网络加速器 |
CN112862079B (zh) * | 2021-03-10 | 2023-04-28 | 中山大学 | 一种流水式卷积计算架构设计方法及残差网络加速系统 |
CN115145839B (zh) * | 2021-03-31 | 2024-05-14 | 广东高云半导体科技股份有限公司 | 一种深度卷积加速器及其实现加速深度卷积的方法 |
CN113222129B (zh) * | 2021-04-02 | 2024-02-13 | 西安电子科技大学 | 一种基于多级缓存循环利用的卷积运算处理单元及系统 |
CN113313252B (zh) * | 2021-05-24 | 2022-10-25 | 东南大学 | 一种基于脉动阵列的深度可分离卷积实现方法 |
CN113268270B (zh) * | 2021-06-07 | 2022-10-21 | 中科计算技术西部研究院 | 一种针对成对隐马尔可夫模型的加速方法、系统及装置 |
CN113673690B (zh) * | 2021-07-20 | 2024-05-28 | 天津津航计算技术研究所 | 一种水下噪声分类卷积神经网络加速器 |
CN113762491B (zh) * | 2021-08-10 | 2023-06-30 | 南京工业大学 | 一种基于fpga的卷积神经网络加速器 |
CN113704172B (zh) * | 2021-08-20 | 2023-11-21 | 北京大学 | 基于脉动阵列的转置卷积和卷积加速器芯片设计方法 |
CN113780529B (zh) * | 2021-09-08 | 2023-09-12 | 北京航空航天大学杭州创新研究院 | 一种面向fpga的稀疏卷积神经网络多级存储计算系统 |
CN114237551B (zh) * | 2021-11-26 | 2022-11-11 | 南方科技大学 | 一种基于脉动阵列的多精度加速器及其数据处理方法 |
CN114565501B (zh) * | 2022-02-21 | 2024-03-22 | 格兰菲智能科技有限公司 | 用于卷积运算的数据加载方法及其装置 |
CN114429203B (zh) * | 2022-04-01 | 2022-07-01 | 浙江芯昇电子技术有限公司 | 一种卷积计算方法、卷积计算装置及其应用 |
CN114492781A (zh) * | 2022-04-02 | 2022-05-13 | 苏州浪潮智能科技有限公司 | 一种硬件加速器及数据处理方法、系统、设备、介质 |
CN114723034B (zh) * | 2022-06-10 | 2022-10-04 | 之江实验室 | 一种可分离的图像处理神经网络加速器及加速方法 |
CN116882467B (zh) * | 2023-09-01 | 2023-11-21 | 中国科学院长春光学精密机械与物理研究所 | 面向边缘端的多模式可配置的神经网络加速器电路结构 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392309A (zh) * | 2017-09-11 | 2017-11-24 | 东南大学—无锡集成电路技术研究所 | 一种基于fpga的通用定点数神经网络卷积加速器硬件结构 |
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
CN108182471A (zh) * | 2018-01-24 | 2018-06-19 | 上海岳芯电子科技有限公司 | 一种卷积神经网络推理加速器及方法 |
US20180314671A1 (en) * | 2017-04-27 | 2018-11-01 | Falcon Computing | Systems And Methods For Systolic Array Design From A High-Level Program |
CN108805272A (zh) * | 2018-05-03 | 2018-11-13 | 东南大学 | 一种基于fpga的通用卷积神经网络加速器 |
-
2019
- 2019-03-06 CN CN201910168042.9A patent/CN109934339B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
US20180314671A1 (en) * | 2017-04-27 | 2018-11-01 | Falcon Computing | Systems And Methods For Systolic Array Design From A High-Level Program |
CN107392309A (zh) * | 2017-09-11 | 2017-11-24 | 东南大学—无锡集成电路技术研究所 | 一种基于fpga的通用定点数神经网络卷积加速器硬件结构 |
CN108182471A (zh) * | 2018-01-24 | 2018-06-19 | 上海岳芯电子科技有限公司 | 一种卷积神经网络推理加速器及方法 |
CN108805272A (zh) * | 2018-05-03 | 2018-11-13 | 东南大学 | 一种基于fpga的通用卷积神经网络加速器 |
Also Published As
Publication number | Publication date |
---|---|
CN109934339A (zh) | 2019-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934339B (zh) | 一种基于一维脉动阵列的通用卷积神经网络加速器 | |
CN110390385B (zh) | 一种基于bnrp的可配置并行通用卷积神经网络加速器 | |
CN111178518A (zh) | 一种基于fpga的软硬件协同的加速方法 | |
CN108108809B (zh) | 一种针对卷积神经元网络进行推理加速的硬件架构及其工作方法 | |
CN107301455B (zh) | 用于卷积神经网络的混合立方体存储系统及加速计算方法 | |
CN110751280A (zh) | 一种应用于卷积神经网络的可配置卷积加速器 | |
CN109447241B (zh) | 一种面向物联网领域的动态可重构卷积神经网络加速器架构 | |
CN107392309A (zh) | 一种基于fpga的通用定点数神经网络卷积加速器硬件结构 | |
JPH0425586B2 (zh) | ||
CN111047008B (zh) | 一种卷积神经网络加速器及加速方法 | |
CN112905530B (zh) | 片上架构、池化计算加速器阵列、单元以及控制方法 | |
CN111860773B (zh) | 处理装置和用于信息处理的方法 | |
CN111582465A (zh) | 基于fpga的卷积神经网络加速处理系统、方法以及终端 | |
CN113807998A (zh) | 图像处理方法、目标检测装置、机器视觉设备和存储介质 | |
CN111506344A (zh) | 一种基于脉动阵列架构的深度学习硬件系统 | |
CN114519425A (zh) | 一种规模可扩展的卷积神经网络加速系统 | |
CN114462587A (zh) | 一种用于光电混合计算神经网络的fpga实现方法 | |
CN108647780B (zh) | 面向神经网络的可重构池化操作模块结构及其实现方法 | |
CN109800867B (zh) | 一种基于fpga片外存储器的数据调用方法 | |
US20230128421A1 (en) | Neural network accelerator | |
CN116090530A (zh) | 可配置卷积核大小和并行计算数目的脉动阵列结构及方法 | |
CN101794276B (zh) | 适用于soc的dct_idct协处理器 | |
CN113128688B (zh) | 通用型ai并行推理加速结构以及推理设备 | |
CN113673691A (zh) | 基于存算结合的多通道卷积fpga架构及其工作方法 | |
CN112862079A (zh) | 一种流水式卷积计算架构设计方法及残差网络加速系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |