CN113962378A - 一种基于rs数据流的卷积硬件加速器及其方法 - Google Patents

一种基于rs数据流的卷积硬件加速器及其方法 Download PDF

Info

Publication number
CN113962378A
CN113962378A CN202111111705.7A CN202111111705A CN113962378A CN 113962378 A CN113962378 A CN 113962378A CN 202111111705 A CN202111111705 A CN 202111111705A CN 113962378 A CN113962378 A CN 113962378A
Authority
CN
China
Prior art keywords
data
convolution
module
calculation
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111111705.7A
Other languages
English (en)
Inventor
王宇宣
李帅
梅正宇
潘红兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN202111111705.7A priority Critical patent/CN113962378A/zh
Publication of CN113962378A publication Critical patent/CN113962378A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/067Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means
    • G06N3/0675Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means using electro-optical, acousto-optical or opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/78Architectures of general purpose stored program computers comprising a single central processing unit
    • G06F15/7807System on chip, i.e. computer system on a single chip; System in package, i.e. computer system on one or more chips in a single package
    • G06F15/781On-chip cache; Off-chip memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/78Architectures of general purpose stored program computers comprising a single central processing unit
    • G06F15/7839Architectures of general purpose stored program computers comprising a single central processing unit with memory
    • G06F15/7842Architectures of general purpose stored program computers comprising a single central processing unit with memory on one IC chip (single chip microcontrollers)
    • G06F15/7846On-chip cache and off-chip main memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了一种基于RS数据流的卷积硬件加速器及其方法。该加速器包括片外DDR存储器;片上缓存模块,用于存储从片外DDR存储器读取的原始图像数据、卷积核权重数据和卷积计算中间结果;DDR控制器,用于控制片外DDR存储器与片上缓存模块的数据交互;数据分发模块,用于根据当前计算配置信息和光电计算模块的计算规律将需要的权重与激励数据传送给光电计算模块;光电计算模块,用于完成各层网络的卷积运算;结果收集模块,用于接收光电计算模块的卷积结果,并将结果拼接,得到下一层的输入,或者将拼接结果存储到片外DDR存储器中。本发明基于RS数据流方式进行卷积运算,最大化数据重用,降低了对片外DDR的访问,提高了能效。

Description

一种基于RS数据流的卷积硬件加速器及其方法
技术领域
本发明涉及一种基于行固定(RS)数据流的卷积硬件加速器架构及其方法,属于硬件加速神经网络的技术领域。
背景技术
近些年来,随着计算机科学与互联网技术的发展,世界数据规模呈爆发式增长,人工智能也从早期人工特征工程到能够从大量数据中学习的转变。受脑神经学科的启发,经过许多年的演变而形成的神经网络模型在机器学习领域取得了很大的成效,并在计算机视觉、语音识别和自然语言处理等领域得到广泛应用。
为了处理复杂问题或者提高模型准确率,神经网络模型的规模越来越大,导致需要大量的运算资源。大规模的神经网络算法给底层硬件带来了能效和吞吐量两方面的挑战,据统计,卷积计算占卷积神经网络CNN中90%以上的计算量。虽然可以将卷积神经网络模型部署在具有高并行度的图形处理器GPU上进行训练或推理,从而可以有很大的速度优势,但由于其功耗和成本等因素,在神经网络算法实际应用部署上还有很多限制。
为了更好地在硬件系统上部署神经网络模型,需要优化计算资源消耗以及大量数据访存所带来的吞吐率损失,如何合理设计数据流以及计算模块架构成为了优化的重点。
发明内容
针对上述技术问题,本发明旨在提供一种基于RS数据流的卷积硬件加速器,以最大化卷积计算过程中的数据重用,减少数据搬运过程,提高系统吞吐率以及能效。本发明同时提供一种利用上述硬件加速器的方法。
本发明采用的技术方案为:
一种基于RS数据流的卷积硬件加速器,包括:
片外DDR存储器,用于存储原始图像数据和神经网络推理结果数据;
片上缓存模块,用于存储从片外DDR存储器读取的原始图像数据、卷积核权重数据和卷积计算中间结果;
DDR控制器,用于控制片外DDR存储器与片上缓存模块的数据交互;
数据分发模块,用于根据当前计算配置信息和光电计算模块的计算规律将需要的权重与激励数据传送给光电计算模块;
光电计算模块,用于完成各层网络的卷积运算;
结果收集模块,用于接收光电计算模块的卷积结果,并将结果拼接,得到下一层的输入,或者将拼接结果存储到片外DDR存储器中;
控制器,用于存储配置信息,根据当前运算状态协调DDR控制器、数据分发模块、光电计算模块和结果收集模块的运行。
进一步地,所述数据分发模块包括数据读取模块FIFO缓存器、乒乓寄存器组和地址计算单元,数据读取模块FIFO缓存器与所述片上缓存模块相连,地址计算单元分别和乒乓寄存器组与所述片上缓存模块相连;所述数据读取模块FIFO缓存器用于实现片外DDR存储器和片上缓存模块数据交互时的缓冲和位宽匹配,所述乒乓寄存器组用于存储从片上缓存模块中读取的权重数据和激励数据,将数据组装拼接成计算模块所需的形式并输出,所述地址计算单元用于控制对片上缓存模块进行读数据和写数据的地址。
进一步地,所述光电计算模块包括多个光电计算阵列和累加模块;所述光电计算阵列用于完成权重窗口和对应激励窗口的乘累加操作,所述累加模块用于对光电计算阵列计算结果进行累加计算。
进一步地,所述光电计算阵列包括M个卷积过滤器组,每个卷积过滤器组是由一组计算单元组成的阵列,每个卷积过滤器组包括C个通道组,每个通道组包含N个计算单元;M个卷积过滤器组之间共享相同的特征图数据,输入不同的卷积核;C个通道组对应C个输入通道,每个通道输入特征图和卷积核的对应通道数据;通道组中的每个计算单元共享相同的权重数据。
本发明还提供一种基于RS数据流的卷积硬件加速器的加速方法,包括以下步骤:
1)开始计算之前,控制器向DDR控制器发送读权重和读激励请求,DDR控制器将特征图数据和卷积核数据从片外DDR存储器搬运到数据分发模块中的片上缓存模块;
2)根据当前卷积计算阶段,数据分发模块计算出所需的下一批激励数据和权重数据在片上缓存模块中的存储地址,并将下一批激励数据和权重数据分别读取到数据分发模块中;
3)将数据分发模块中存储的权重和激励数据展开并拼接成光电计算模块接口所需的格式,并根据计算顺序分发给光电计算模块;
4)光电计算模块计算完成后,由结果收集模块接收并存储卷积计算结果;如果接收到的是最后一层卷积结果,控制器向DDR控制器发送写结果请求,将最终结果保存到片外DDR 存储器中。
进一步地,特征图在片上缓存模块中按照列-通道-行的顺序存储,即一个地址存放一个通道的一行激励;先存放完一个分块一行所有通道的数据,再存放下一行的数据;每一层的激励存储在不同的片上缓存模块中,卷积核在片上缓存模块中按照卷积过滤器存储,一个地址存储一个卷积过滤器的C个通道的权重,并且先存储一个卷积过滤器所有通道的权重后,再存储下一个卷积过滤器。
进一步地,步骤2)中,所述数据分发模块包括数据读取模块FIFO缓存器、乒乓寄存器组和地址计算单元,所述乒乓寄存器组分为激励乒乓寄存器组和权重乒乓寄存器组,激励乒乓寄存器组用于存储激励数据,权重乒乓寄存器组用于存储权重数据;其中,权重数据每次需要更新M个卷积核的C个通道,需要读取M个地址的权重数据;假设卷积核尺寸为K,激励数据每次更新需要K*C个地址的激励数据。
进一步地,步骤3)中,所述光电计算模块包括多个光电计算阵列和累加模块,光电计算阵列包括M个卷积过滤器组,每个卷积过滤器组是由一组计算单元组成的阵列,数据分发模块将数据从乒乓寄存器组分发到光电计算阵列中,具体分发顺序为:对于权重数据,数据分发模块先分发一层卷积的M个卷积核的C个通道权重数据,然后分发当前M个卷积核的接下来 C个通道权重数据;当前M个卷积核的全部通道权重数据分发完成后再分发接下来M个卷积核的权重数据;其中所分发的M个卷积核权重数据分别输入到光电计算模块对应的卷积过滤器组;所分发的一个卷积核权重中C个通道的权重数据分别输入到卷积过滤器组中对应的通道组;卷积过滤器组同一通道组中的所有计算单元共享相同的权重数据;对于激励数据,数据分发模块先分发特征图一行的C个通道,然后再分发接下来的C个通道;当输出结果一行的所有通道计算完成后再分发下一行的激励数据;所分发的激励数据复制M份,分别输入到光电计算模块的M个卷积过滤器组;所分发的激励数据的C个通道分别输入到卷积过滤器组中的C个通道组
利用本发明提出的一种基于RS数据流的卷积硬件加速器,可以根据硬件资源和所部署的神经网络模型参数合理地设计卷积计算硬件架构,并不同程度地利用数据的可重用性,可以灵活地将不同神经网络算法映射到硬件上。在保证硬件资源的高利用率的同时提高了系统的吞吐率,可为神经网络模型进行硬件加速。
附图说明
图1是本发明一种基于RS行固定数据流卷积硬件加速器的结构框图;
图2是本发明卷积神经网络加速器的运行流程图;
图3是一维卷积的处理过程;
图4是一个逻辑PE集的二维卷积运算数据流示意图;
图5是本实施例中的CNN网络模型示意图;
图6是本实施例中PE计算阵列结构示意图;
图7是数据分发示意图。
具体实施方式
下面结合附图对本发明方案进行详细说明,
如图1所示的基于RS行固定数据流卷积硬件加速器的结构框图,包括控制器、DDR控制器、片上数据缓存单元(RAM)、片外DDR存储器、数据分发模块、光电计算模块和结果收集模块。片外DDR存储器,用于存储原始图像数据和神经网络推理结果数据。片上数据缓存单元,用于存储从片外DDR存储器读取的原始图像数据、卷积核权重数据和卷积计算中间结果。DDR控制器,用于控制片外DDR存储器与片上数据缓存单元的数据交互。光电计算模块用于完成各层网络的卷积运算,包括多个光电计算阵列(PE计算阵列),每个PE计算阵列包括多个PE计算单元。控制器与DDR控制器、数据分发模块、PE计算阵列模块和结果收集模块连接,用于存储配置信息,根据当前运算状态协调各个模块的运行。数据分发模块与PE计算阵列和片上数据缓存单元连接,用于根据当前计算配置信息和光电计算模块的计算规律将需要的权重与激励数据传送给光电计算模块。结果收集模块与PE计算阵列和片上数据缓存单元连接,用于接收光电计算模块的卷积结果,并将结果拼接,得到下一层的输入,或者将拼接结果存储到片外DDR存储器中。片上数据缓存单元包括权重缓存单元和激励缓存单元,DDR控制器通过总线访问片外DDR存储器,将权重数据和激励数据读取到对应的缓存单元。数据分发模块包括数据读取模块FIFO缓存器、乒乓寄存器组和地址计算单元,数据读取模块FIFO 缓存器用于实现片外DDR存储器和片上数据缓存单元数据交互时的缓冲和位宽匹配;乒乓寄存器组用于存储从片上数据缓存单元中读取的权重数据和激励数据,将数据组装拼接成计算模块所需的形式并输出;地址计算单元用于控制对片上数据缓存单元进行读数据和写数据的地址。数据读取模块FIFO缓存器与片上数据缓存单元写数据线相连,乒乓寄存器组与片上数据缓存单元读数据线相连,地址计算单元与片上数据缓存单元读写地址线相连。
图2所示为上述卷积神经网络加速器的运行流程图。系统启动后,控制器根据配置信息通过状态机状态转换控制整个计算流程,保证各模块协调运行。首先,控制器配置完成后进入准备状态,DDR控制器将所有权重数据和输入图像的一个分块搬运到片上数据缓存单元,控制器控制数据分发模块按照PE计算阵列的计算顺序向PE计算阵列发送激励和权重数据,PE计算阵列按顺序进行卷积操作,同时结果收集模块接收并存储PE计算阵列的计算结果。当前层卷积全部计算完成后判断是否为卷积最后一层,如果不是,结果收集模块整合的卷积结果将作为输入开始下一层卷积计算;如果是,将结果搬运到片外DDR存储器中。
图3所示为一维卷积的处理过程。计算机视觉上的神经网络模型中的卷积运算一般都是三维卷积运算。可以分解为多个二维卷积运算的组合,而二维卷积运算操作的基本单元又是一维卷积运算。图4所示为一个逻辑PE集的二维卷积运算数据流示意图,首先一个一维卷积运算映射到逻辑PE集中的一个PE计算单元,多个PE单元组成一个逻辑PE集。权重数据的一行在逻辑PE集中的水平方向重用,输入激励的一行在逻辑PE集中对角线方向重用,逻辑PE集垂直方向累计得到卷积输出结果的一行。神经网络模型中一个卷积层输入特征图的通道数为 C,卷积核数目为M,那么对一个特征图完成该层卷积运算需要C*M个逻辑PE集。其中,M 个集合之间可以共享相同的特征图,C个集合的乘加结果再通过累加模块加在一起。根据所部署的神经网络模型具体参数和设计寄存器大小对逻辑PE集在M和C两个维度上进行折叠和空间映射,确定物理PE计算阵列的设计大小。
图5为本实施例中的CNN网络模型示意图。一共有四层卷积,第一层输入特征图尺寸为 W1*H1*4通道,卷积核为3*3*4通道,卷积核个数为16;第二层卷积输入特征图尺寸为W2*H2*16通道,卷积核为3*3*16通道,卷积核个数为32;第三层卷积输入特征图尺寸为 W3*H3*32通道,卷积核为3*3*32通道,卷积核个数为32;第四层卷积输入特征图尺寸为 W4*H4*32通道,卷积核为3*3*32通道,卷积核个数为32。根据上述基于RS数据流的卷积映射方式,计算一层卷积最多需要C*N个逻辑PE集,C为输入特征图通道数,N为卷积核个数,结合硬件计算资源和寄存器资源,将逻辑PE集进行折叠和空间映射。图6所示为本实施例中PE计算阵列结构示意图。PE阵列负责主要负责多层网络的卷积运算。在PE阵列设计上,将C*N个逻辑PE集在C维度上折叠为4,在N维度上折叠为4。PE阵列包括4个卷积过滤器组,每个卷积过滤器组包括4个通道。4个卷积过滤器组输入不同的卷积核,共享相同的特征图数据。特征图数据复用4次。4个通道在通道方向进行累加。每个通道中分为8个部分,每个部分分担一行卷积的一部分,8个并行运算,减少运算时间。8个部分共享相同的权重,权重数据复用8次。计算时,先计算输入一层卷积特征图前4通道的3行激励数据与前4组卷积核的前4通道权重。4个卷积过滤器组的累加模块分别将4个通道的卷积结果进行累加和寄存。然后计算特征图的第5到8通道数据和前4组卷积核的5到8通道数据。以此类推,所有通道计算完成后4个卷积过滤器组的累加模块输出1到4输出通道的1行卷积结果。然后更换为第 5到8组卷积核,以此类推计算完所有输出通道1行的卷积结果后,计算下一行卷积。以此类推完成该层所有卷积计算。
图7所示为数据分发模块示意图,包括权重分发模块和激励分发模块。权重分发模块包括权重缓存单元、权重地址计算模块和权重乒乓寄存器组。控制器在配置状态下将所有权重从DDR存储器搬运到权重缓存单元中。权重在缓存单元中按照过滤器存储,先存储第一个过滤器所有通道的权重,再存储第二个过滤器,以此类推。运算过程中,需要将PE计算阵列每次计算所用到的权重转换为PE计算阵列运算所需的权重矩阵形式,并行发送给PE计算阵列,并从RAM中读取下一批需要的权重数据到权重乒乓寄存器组中。以第二层为例,该层输入特征图为W2*H2*16,卷积核为3*3*16通道,卷积核个数为32。权重分发模块先分发第1到4 个卷积核的1到4个通道,然后分发5到8通道权重,以此类推。当所有通道权重分发完,开始分发第5到8个卷积核,以此类推,分发完所有卷积核数据。激励分发模块包括激励缓存单元、激励地址计算模块和激励乒乓寄存器组。激励分发模块主要负责在运算过程中,按照计算模块的计算顺序从激励缓存单元中取出一次激励更新中更新的激励数据,将激励数据展开成 PE计算阵列运算所需的激励矩阵形式。激励分发采用乒乓reg组,以配合PE计算速度。4个卷积过滤器组共享相同的激励数据。一个卷积过滤器组中同一通道组中的8个部分共同负责一行激励数据与卷积权重的计算。先分发一行激励的1到4通道,再分发5到8通道,直到一行的4个输出通道计算完毕。重复上述分发过程,一行所有输出通道计算完毕后,再开始分发下一行激励数据。
本发明基于RS数据流方式进行卷积运算,最大化数据重用,降低了对片外DDR的访问,提高了能效。

Claims (8)

1.一种基于RS数据流的卷积硬件加速器,其特征在于,包括:
片外DDR存储器,用于存储原始图像数据和神经网络推理结果数据;
片上缓存模块,用于存储从片外DDR存储器读取的原始图像数据、卷积核权重数据和卷积计算中间结果;
DDR控制器,用于控制片外DDR存储器与片上缓存模块的数据交互;
数据分发模块,用于根据当前计算配置信息和光电计算模块的计算规律将需要的权重与激励数据传送给光电计算模块;
光电计算模块,用于完成各层网络的卷积运算;
结果收集模块,用于接收光电计算模块的卷积结果,并将结果拼接,得到下一层的输入,或者将拼接结果存储到片外DDR存储器中;
控制器,用于存储配置信息,根据当前运算状态协调DDR控制器、数据分发模块、光电计算模块和结果收集模块的运行。
2.权利要求1所述的一种基于RS数据流的卷积硬件加速器,其特征在于,所述数据分发模块包括数据读取模块FIFO缓存器、乒乓寄存器组和地址计算单元,数据读取模块FIFO缓存器与所述片上缓存模块相连,地址计算单元分别和乒乓寄存器组与所述片上缓存模块相连;所述数据读取模块FIFO缓存器用于实现片外DDR存储器和片上缓存模块数据交互时的缓冲和位宽匹配,所述乒乓寄存器组用于存储从片上缓存模块中读取的权重数据和激励数据,将数据组装拼接成计算模块所需的形式并输出,所述地址计算单元用于控制对片上缓存模块进行读数据和写数据的地址。
3.权利要求1所述的一种基于RS数据流的卷积硬件加速器,其特征在于,所述光电计算模块包括多个光电计算阵列和累加模块;所述光电计算阵列用于完成权重窗口和对应激励窗口的乘累加操作,所述累加模块用于对光电计算阵列计算结果进行累加计算。
4.权利要求3所述的一种基于RS数据流的卷积硬件加速器,其特征在于,所述光电计算阵列包括M个卷积过滤器组,每个卷积过滤器组是由一组计算单元组成的阵列,每个卷积过滤器组包括C个通道组,每个通道组包含N个计算单元;M个卷积过滤器组之间共享相同的特征图数据,输入不同的卷积核;C个通道组对应C个输入通道,每个通道输入特征图和卷积核的对应通道数据;通道组中的每个计算单元共享相同的权重数据。
5.一种基于RS数据流的卷积硬件加速器的加速方法,其特征在于,该方法包括以下步骤:
1)开始计算之前,控制器向DDR控制器发送读权重和读激励请求,DDR控制器将特征图数据和卷积核数据从片外DDR存储器搬运到数据分发模块中的片上缓存模块;
2)根据当前卷积计算阶段,数据分发模块计算出所需的下一批激励数据和权重数据在片上缓存模块中的存储地址,并将下一批激励数据和权重数据分别读取到数据分发模块中;
3)将数据分发模块中存储的权重和激励数据展开并拼接成光电计算模块接口所需的格式,并根据计算顺序分发给光电计算模块;
4)光电计算模块计算完成后,由结果收集模块接收并存储卷积计算结果;如果接收到的是最后一层卷积结果,控制器向DDR控制器发送写结果请求,将最终结果保存到片外DDR存储器中。
6.根据权利要求5所述的一种基于RS数据流的卷积硬件加速器的加速方法,其特征在于,特征图在片上缓存模块中按照列-通道-行的顺序存储,即一个地址存放一个通道的一行激励;先存放完一个分块一行所有通道的数据,再存放下一行的数据;每一层的激励存储在不同的片上缓存模块中,卷积核在片上缓存模块中按照卷积过滤器存储,一个地址存储一个卷积过滤器的C个通道的权重,并且先存储一个卷积过滤器所有通道的权重后,再存储下一个卷积过滤器。
7.根据权利要求5所述的一种基于RS数据流的卷积硬件加速器的加速方法,其特征在于,步骤2)中,所述数据分发模块包括数据读取模块FIFO缓存器、乒乓寄存器组和地址计算单元,所述乒乓寄存器组分为激励乒乓寄存器组和权重乒乓寄存器组,激励乒乓寄存器组用于存储激励数据,权重乒乓寄存器组用于存储权重数据;其中,权重数据每次需要更新M个卷积核的C个通道,需要读取M个地址的权重数据;假设卷积核尺寸为K,激励数据每次更新需要K*C个地址的激励数据。
8.根据权利要求5所述的一种基于RS数据流的卷积硬件加速器的加速方法,其特征在于,步骤3)中,所述光电计算模块包括多个光电计算阵列和累加模块,光电计算阵列包括M个卷积过滤器组,每个卷积过滤器组是由一组计算单元组成的阵列,数据分发模块将数据从乒乓寄存器组分发到光电计算阵列中,具体分发顺序为:对于权重数据,数据分发模块先分发一层卷积的M个卷积核的C个通道权重数据,然后分发当前M个卷积核的接下来C个通道权重数据;当前M个卷积核的全部通道权重数据分发完成后再分发接下来M个卷积核的权重数据;其中所分发的M个卷积核权重数据分别输入到光电计算模块对应的卷积过滤器组;所分发的一个卷积核权重中C个通道的权重数据分别输入到卷积过滤器组中对应的通道组;卷积过滤器组同一通道组中的所有计算单元共享相同的权重数据;
对于激励数据,数据分发模块先分发特征图一行的C个通道,然后再分发接下来的C个通道;当输出结果一行的所有通道计算完成后再分发下一行的激励数据;所分发的激励数据复制M份,分别输入到光电计算模块的M个卷积过滤器组;所分发的激励数据的C个通道分别输入到卷积过滤器组中的C个通道组。
CN202111111705.7A 2021-09-23 2021-09-23 一种基于rs数据流的卷积硬件加速器及其方法 Pending CN113962378A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111111705.7A CN113962378A (zh) 2021-09-23 2021-09-23 一种基于rs数据流的卷积硬件加速器及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111111705.7A CN113962378A (zh) 2021-09-23 2021-09-23 一种基于rs数据流的卷积硬件加速器及其方法

Publications (1)

Publication Number Publication Date
CN113962378A true CN113962378A (zh) 2022-01-21

Family

ID=79462213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111111705.7A Pending CN113962378A (zh) 2021-09-23 2021-09-23 一种基于rs数据流的卷积硬件加速器及其方法

Country Status (1)

Country Link
CN (1) CN113962378A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114625691A (zh) * 2022-05-17 2022-06-14 电子科技大学 一种基于乒乓结构的存内计算装置及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114625691A (zh) * 2022-05-17 2022-06-14 电子科技大学 一种基于乒乓结构的存内计算装置及方法
CN114625691B (zh) * 2022-05-17 2022-08-02 电子科技大学 一种基于乒乓结构的存内计算装置及方法

Similar Documents

Publication Publication Date Title
CN109886400B (zh) 基于卷积核拆分的卷积神经网络硬件加速器系统及其计算方法
CN111459877B (zh) 基于FPGA加速的Winograd YOLOv2目标检测模型方法
CN108765247B (zh) 图像处理方法、装置、存储介质及设备
EP3685319B1 (en) Direct access, hardware acceleration in neural network
EP3557485B1 (en) Method for accelerating operations and accelerator apparatus
CN108416434B (zh) 针对神经网络的卷积层与全连接层进行加速的电路结构
EP3557425B1 (en) Accelerator and system for accelerating operations
EP3855367A1 (en) Operation accelerator, processing method, and related device
CN111414994B (zh) 一种基于FPGA的Yolov3网络计算加速系统及其加速方法
US20190205738A1 (en) Systems and methods for hardware-based pooling
TW202026858A (zh) 在深度神經網路中利用啟動稀疏性
WO2019060670A1 (en) LOW PROFOUND CONVOLUTIVE NETWORK WEIGHT COMPRESSION
CN109993293B (zh) 一种适用于堆叠式沙漏网络的深度学习加速器
CN110580519B (zh) 一种卷积运算装置及其方法
CN110543939A (zh) 一种基于fpga的卷积神经网络后向训练的硬件加速实现架构
CN113792621B (zh) 一种基于fpga的目标检测加速器设计方法
CN114254733A (zh) 使用树形直接存储器存取(dma)总线的神经网络权重分布
CN114461978B (zh) 数据处理方法、装置、电子设备及可读存储介质
CN113962378A (zh) 一种基于rs数据流的卷积硬件加速器及其方法
WO2022179075A1 (zh) 一种数据处理方法、装置、计算机设备及存储介质
CN110221839A (zh) 一种硬件加速器VerilogHDL代码自动生成方法
CN116090518A (zh) 基于脉动运算阵列的特征图处理方法、装置以及存储介质
EP0837389B1 (en) Fuzzy logic neural network modular architecture
JP7251354B2 (ja) 情報処理装置、情報処理プログラム、及び情報処理方法
CN113704172B (zh) 基于脉动阵列的转置卷积和卷积加速器芯片设计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination