CN114239816B - 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 - Google Patents
一种卷积神经网络-图卷积神经网络可重构硬件加速架构 Download PDFInfo
- Publication number
- CN114239816B CN114239816B CN202111499692.5A CN202111499692A CN114239816B CN 114239816 B CN114239816 B CN 114239816B CN 202111499692 A CN202111499692 A CN 202111499692A CN 114239816 B CN114239816 B CN 114239816B
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- control unit
- weight
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Abstract
本发明属于神经网络深度学习领域,具体涉及一种卷积神经网络‑图卷积神经网络可重构硬件加速架构。本发明利用可配置寄存器对卷积神经网络‑图卷积神经网络两种神经网络的运算进行配置重构;针对卷积神经网络数据使用重排图像块为矩阵列方法,将三维卷积转换为二维矩阵运算,使得不同的神经网络运算可以复用处理元件阵列单元,以及数据静态存储控制单元、权重静态存储控制单元,达到资源复用。本发明实现了两种神经网络在同一硬件架构进行加速,大大节约了硬件开销,通过一个架构可以跑多种算法,这将节省资源,大大提高通用性,极大程度上促进整个产业的发展。
Description
技术领域
本发明属于神经网络深度学习领域,具体涉及一种卷积神经网络-图卷积神经网络可重构硬件加速架构。
背景技术
最近几年来,人工智能领域,尤其是机器学习在理论和应用方面均获得了突破性的成就。神经网络深度学习是机器学习最重要发展方向之一,在过去的十年中,随着计算资源的快速发展和大量训练数据的可用性,深度学习和神经网络得到了快速的兴起与发展。许多曾经严重依赖于手工提取特征的机器学习任务(如目标检测、机器翻译和语音识别),如今都已被各种端到端的深度学习神经网络模型(例如卷积神经网络(CNN)、长短期记忆模型(LSTM)和自动编码器)彻底取代了。
相比于中央处理器(CPU)、图形处理器(GPU)和专用集成电路(ASIC),现场可编程逻辑门阵列(FPGA)在深度学习算法加速上具有高速度、低功耗、稳定而又延迟极低,适用于流式的计算密集型任务和通信密集型任务,并具有灵活、开发周期短、成本低、便于携带等优势。因此现场可编程逻辑门阵列是深度学习加速非常不错的选择。
近年来卷积神经网络(CNN)和图卷积神经网络(GCN)是神经网络深度学习领域炙手可热的研究方向。卷积神经网络在图像数据识别领域,对数据具备规则空间结构的欧式结构图像数据识别的处理有很好的效果。但现实生活中还存在有很多不规则的数据结构,近年来兴起的图卷积神经网络对于不具备规则空间结构的非欧结构图像数据,如推荐系统、电子交易、分子结构等抽象出来的图谱等的处理场景应用广泛。
目前学术、工业界针对卷积神经网络的硬件加速器的研究已经成果颇丰,对于图卷积神经网络的硬件加速器的研究也有一定的成果。但是目前的硬件架构都是针对一种神经网络进行加速,不支持重构加速不同神经网络,然而这会极大限制人工智能芯片产业的发展。近两年来人工智能芯片市场陷入低速增长,其根本原因就是神经网络加速硬件架构不支持重构。比如对于欧式结构和非欧结构数据都需要处理、研究的需求场景,一旦深度学习神经网络的计算复杂度急速增高、数据量急速增大,对硬件加速器的开销需求会急速增大,如果对卷积神经网络和图卷积神经网络两种神经网络数据分别采用不同神经网络硬件加速架构进行加速会造成资源的严重浪费。如果能够设计出一款动态可重构的神经网络硬件加速架构,以实现一个架构可以跑多种算法,这将节省资源,大大提高通用性,极大程度上促进整个产业的发展。因此,如何设计一种硬件加速架构,通过配置支持对卷积神经网络-图卷积神经网络两种神经网络数据进行重构加速,成为目前需要解决的一个问题。
发明内容
针对上述存在问题或不足,为解决现有神经网络硬件加速架构不支持两种神经网络重构的问题,本发明提供了一种卷积神经网络-图卷积神经网络可重构硬件加速架构,基于现场可编程逻辑门阵列。
一种卷积神经网络-图卷积神经网络可重构硬件加速架构,其包括权重静态存储控制单元、数据静态存储控制单元、状态控制单元、重排图像块为矩阵列方法单元、处理元件(PE)运算阵列、邻接矩阵运算单元、配置寄存器和激活函数与池化运算单元。
所述状态控制单元,用于完成整个系统架构的状态跳转,以控制神经网络(卷积神经网络或图卷积神经网络)图像/图数据和权重数据的存储调用以及神经网络运算操作的执行顺序。
如果是卷积神经网络模式,状态控制单元的状态跳转顺序为:空闲-输入数据存储-重排图像块为矩阵列方法-神经网络运算-激活池化-中间数据存储。
如果是图卷积神经网络模式,状态控制单元的状态跳转顺序为:空闲-输入数据存储-神经网络运算-邻接矩阵运算-激活池化-中间数据存储。此时状态控制单元还负责将上位机传输的邻接矩阵数据交给邻接矩阵运算单元存储起来。
所述权重静态存储控制单元,用于完成上位机训练完毕的权重数据的存储。上位机通过总线将权重数据存储进该单元内置的权重静态存储器。
神经网络运算前,状态控制单元读取权重静态存储控制单元中神经网络的权重数据,将权重数据与图像或者图数据在处理元件运算阵列中进行乘加运算;神经网络运算后,由于权重数据只是被读取,而不会被计算,因此不需要再执行将权重数据存储进权重静态存储控制单元的操作。
如果是卷积神经网络模式,权重静态存储控制单元存储经过上位机通过重排图像块为矩阵列方法转换完毕的每一层卷积神经网络的权重(卷积核)数据;
如果是图卷积神经网络模式,权重静态存储控制单元存储每一层图卷积神经网络的权重数据。
所述数据静态存储控制单元,用于完成上位机传输的输入数据和神经网络计算完毕的中间数据的存储。上位机通过总线将数据存储进该单元内置数据静态存储器。
如果是卷积神经网络模式,数据静态存储控制单元存储上位机输入的图像数据,以及每一层神经网络计算完毕后的中间图像数据。
如果是图卷积神经网络模式,数据静态存储控制单元存储上位机输入的初始图矩阵,和每一层神经网络计算完毕后的中间图矩阵。
神经网络运算前,状态控制单元读取数据,如果是卷积神经网络模式,数据还需要先进入重排图像块为矩阵列方法单元进行数据转换;再将权重数据与图像数据在处理单元运算阵列中进行乘加运算。如果是图卷积神经网络模式,则将图数据直接输入处理单元运算阵列中与权重数据进行乘加运算。
神经网络运算后,如果是图卷积神经网络模式,数据还需要进入邻接矩阵运算单元与存储在该单元的邻接矩阵数据做加法运算;然后再进入激活函数与池化运算单元进行激活函数与池化运算,最后得到的中间数据存储回到数据静态存储控制单元。
所述重排图像块为矩阵列方法单元,用于在卷积神经网络模式下,每一层神经网络运算前,将数据静态存储控制单元存储的数据转换成能够与权重数据进行乘加的数据。该单元将得到配置寄存器的卷积核尺寸、通道数、步长数据,将属于同一覆盖位置的不同通道的所有数据通过重排图像块为矩阵列方法展成一行。图卷积神经网络模式下该单元使能为低,将不会被使用。
所述处理元件运算阵列,内置至少两个可同时执行乘法运算的处理元件,用于对权重数据与图像数据或图数据进行高并行的乘加运算,从而实现乘加运算的效率提升。
如果是卷积神经网络模式,神经网络运算结束后的数据直接交给激活函数与池化运算单元。
如果是图卷积神经网络模式,神经网络运算结束后的数据送入邻接矩阵运算单元,与邻接矩阵数据进行加法运算(邻接矩阵数据代表图的节点的相邻关系,邻接矩阵数据与输出数据的运算不包括乘法操作,所以只需要加法运算),然后再交给激活函数与池化运算单元处理。
所述邻接矩阵运算单元,用于在图卷积神经网络模式存储邻接矩阵数据,与神经网络运算后的数据进行加法运算;卷积神经网络模式,该单元使能为低,将不会被使用。
所述配置寄存器,用于在系统架构启动前进行相应的神经网络模式配置,包括网络参数寄存器、模式选择寄存器和中断寄存器。通过上位机配置相应的神经网络类型、神经网络层数、各层权重尺寸、步长、填充(padding)、数据尺寸和中断寄存器。系统架构在运行过程中,配置寄存器的数据作为全局数据可以直接被系统中各个单元读取。状态控制单元读取配置寄存器内的神经网络层数、权重尺寸和数据尺寸,从而正确读出权重静态存储控制单元内置权重静态存储器指定地址区间的权重数据,以及数据静态存储控制单元内置数据静态存储器指定地址区间图或图像数据;重排图像块为矩阵列方法单元读取权重尺寸,步长信息,才能将存储的图像数据转换成能够用于与权重数据运算的图像数据。同时,支持系统异常时的中断上报,中断信号会被存储在中断寄存器中。
其他单元对配置寄存器内数据解析以及相应神经网络模式对应选择。读取模式选择寄存器中神经网络类型域段,0为卷积神经网络模式,1为图卷积神经网络模式。读取网络参数寄存器中的网络层数、各层卷积核尺寸、步长、填充、数据尺寸域段。
所述激活函数与池化运算单元,对经过神经网络运算的数据先进行激活运算,再进行池化操作。进行了激活运算和池化运算后,数据存储到数据静态存储控制单元中。
进一步的,所述状态控制单元采用有限状态机(FSM)进行状态跳转。
上述卷积神经网络-图卷积神经网络可重构硬件加速架构,其工作流程如下:
步骤1、上位机通过总线写入数据:
根据上位机写入的神经网络模式为卷积神经网络模式0或图卷积神经网络模式1,对配置寄存器进行相应配置数据的写入,配置寄存器包括模式选择寄存器、网络参数寄存器和中断寄存器。
写入配置数据:神经网络类型、网络层数、各层权重尺寸、步长、填充、数据尺寸和中断类型命令;配置数据的写入需要在每次神经网络运算开始前完成,神经网络运算中途不允许对配置寄存器进行配置数据的写入,否则将产生中断信号。
将神经网络各层权重数据存储到权重静态存储控制单元,输入图像数据或图数据存储到数据静态存储控制单元。
将邻接矩阵数据通过状态控制单元存储到邻接矩阵运算单元。
步骤2、上位机给状态控制单元启动信号,开始工作。
此时状态控制单元读取配置寄存器内的配置数据。读取模式选择寄存器中神经网络类型域段(register field),0为卷积神经网络模式,1为图卷积神经网络模式。
状态控制单元根据读取为0/1选择相应的神经网络模式,从而读取网络参数寄存器中的网络层数、各层卷积核尺寸、步长、填充、数据尺寸域段。
步骤3、状态控制单元根据步骤2获取的神经网络模式和相应的参数,读出存储在权重静态存储控制单元和数据静态存储控制单元内的数据。
卷积神经网络模式下,数据静态存储控制单元内的图像数据经过重排图像块为矩阵列方法单元,启动对数据的重排图像块为矩阵列方法单元转换,再进入处理元件运算阵列;
图卷积神经网络模式下,图数据直接进入处理元件运算阵列。
两种神经网络模式下,权重静态存储控制单元内的权重数据都直接进入处理元件运算阵列。
步骤4、处理元件运算阵列进行数据的乘加并行运算;
卷积神经网络模式下,处理元件运算阵列进行图像数据以及权重数据的乘加并行运算;
图卷积神经网络模式下,处理元件运算阵列进行图数据以及权重数据的乘加并行运算;
步骤5、对于步骤4的运算结果:
图卷积神经网络模式下,运算结束的图数据进入邻接矩阵运算单元进行相加运算,再进入激活函数与池化运算单元进行激活函数和池化运算;
卷积神经网络模式下,运算结束的图像数据直接进入激活函数与池化运算单元进行激活函数和池化运算;
步骤6、激活函数和池化运算结束后,输出图像或图数据,并将其写回数据静态存储控制单元;
步骤7、上位机通过总线再次进行配置寄存器的配置数据写入,改写寄存器内的模式选择寄存器的域段值,实现神经网络模式的更改。
本发明采用的重排图像块为矩阵列方法单元转化卷积运算为矩阵运算的原理如下:每一次滑动,一个卷积核的所有通道的权重数据分别与输入图像被卷积核覆盖区域的对应通道的数据逐一相乘再全部相加,这样就会得到输出图像的一个数据。乘加就可以展开为矩阵的运算。把一个卷积核所有通道的权重数据全部展开为一列,把一个输入图像被卷积核覆盖区域所有通道数据全部展开为一行,就得到一行乘以一列的矩阵运算,可以算出一个数据,这就是输出图像一个位置一个通道的数据。把所有N个卷积核所有通道全部展开为N列,可以算出N个值,这就是输出图像一个位置N个通道的数据。接着按照步长切换覆盖区域,把覆盖区域所有通道都全部展开为一行,假设一共展开M行。最后得到的矩阵与卷积展开的N列的矩阵相乘,得到M×N的输出矩阵。这个输出矩阵的每一列就是同一个通道的全部数据,每一行就是同一个位置不同通道的全部数据。
重排图像块为矩阵列方法展开卷积核相对简单,只需要将同一个卷积核的所有通道的权重值展成一列,假设卷积核组的尺寸为3×3×3×5,那么展开的卷积核矩阵尺寸为27×5。重排图像块为矩阵列方法展开输入数据则可能出现输入数据重复使用的情况,会增加一定程度的数据存储开销。
本发明依据卷积神经网络与图卷积神经网络在硬件加速架构中的相似性,提出了一种重用运算阵列和数据存储的硬件映射方法。卷积神经网络进行的是三维的卷积运算,输入数据为三维数据,与四维的卷积核组进行滑动乘加运算,得到三维的输出数据。而图卷积神经网络进行的是二维的矩阵运算,输入数据为二维特征矩阵,与二维的权重矩阵进行矩阵乘加运算,得到二维的输出特征矩阵。目前主流的卷积运算的硬件实现有两种:一种是模拟卷积核滑动运算的步骤,进行卷积核内的并行运算和卷积核间的并行运算的设计;另一种是将输入数据和卷积核组通过重排图像块为矩阵列(im2col)方法展成二维矩阵,使得三维卷积运算变成二维矩阵乘加运算。因为图卷积神经网络进行的也是二维矩阵乘加运算,所以通过重排图像块为矩阵列方法单元将卷积神经网络的三维卷积运算转化为二维矩阵乘加运算,可以更好地设计运算阵列单元,从而达到卷积神经网络和图卷积神经网络两种神经网络在同一个硬件架构上复用同一个运算单元进行运算加速,节约开销。
综上所述,本发明利用可配置寄存器对卷积神经网络-图卷积神经网络两种神经网络的运算进行配置重构。针对卷积神经网络数据使用重排图像块为矩阵列方法,将三维卷积转换为二维矩阵运算,使得不同的神经网络运算可以复用处理元件阵列单元,以及数据静态存储控制单元、权重静态存储控制单元,达到资源复用。本发明实现了两种神经网络在同一硬件架构进行加速,大大节约了硬件开销,通过一个架构可以跑多种算法,这将节省资源,大大提高通用性,极大程度上促进整个产业的发展。
附图说明
图1是本发明提供的重排图像块为矩阵列方法示意图;
图2是本发明用于计算的图卷积神经网络-卷积神经网络结构复用示意图;
图3是本发明的硬件架构模块框图;
图4是本发明的工作流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图和实施例对本发明作进一步地详细描述。
相比于中央处理器(CPU)、图形处理器(GPU)和专用集成电路(ASIC),现场可编程逻辑门阵列(FPGA)在深度学习算法加速上具有高速度、低功耗、稳定而又延迟极低、适用于流式的计算密集型任务和通信密集型任务、灵活而开发周期短、成本低、便于携带等优势。因此现场可编程逻辑门阵列是是硬件架构前期开发非常不错的选择。
图1为本发明提供的重排图像块为矩阵列方法示意图。这里假设输入图像尺寸为4×4×3,卷积核尺寸为2×2×3×4。第一次卷积,就是输入图像在实线框内的三个通道的a0,0、a0,1、a0,4、a0,5、a1,0、a1,1、a1,4、a1,5、a2,0、a2,1、a2,4、a2,5与第一个卷积核的三个通道的k0,0,0~k0,2,3进行乘加运算。所以展开的时候,将a0,0、a0,1、a0,4、a0,5、a1,0、a1,1、a1,4、a1,5、a2,0、a2,1、a2,4、a2,5展开为一行,k0,0,0~k0,2,3展开为一列,转化为矩阵的一行乘一列的运算。这样就完成了重排图像块为矩阵列方法将卷积运算转化为矩阵运算。以此类推即可,这里可以发现下一次卷积核滑动,实线框和虚线框范围重叠,重叠部分的a0,1、a0,5、a1,1、a1,5、a2,1、a2,5就会在展开时重复使用。重排图像块为矩阵列方法展开输入数据则可能出现输入数据重复使用的情况,会增加一定程度的数据存储开销。
图2是本发明用于计算的图卷积神经网络-卷积神经网络结构复用示意图。卷积神经网络和图卷积神经网络均有输入层、隐藏层和池化激活层,均需要做矩阵乘加运算。卷积神经网络的输入数据为多通道的3维数据,图卷积神经网络的输入数据为2维矩阵。因此卷积神经网络的输入数据需要经过重排图像块为矩阵列方法转换为2维矩阵。输入数据可以与权重数据进行乘加运算。得到的输出数据,图卷积神经网络需要与邻接矩阵数据做加法。然后再进入池化激活得到的数据,作为隐藏层/输出层的结果数据。
图3是本发明的硬件架构模块框图,各单元模块具体介绍如上文发明内容所述。
图4是本发明的工作流程图,阐明了整个实施过程。本实施例以一种先运行卷积神经网络模式,然后重构为图卷积神经网络模式,最后再重构为卷积神经网络模式的应用场景。
1、状态控制单元为空闲状态。上位机首先对配置寄存器进行数据配置,模式选择寄存器写入卷积神经网络模式(0),网络参数寄存器写入网络层数、各层卷积核尺寸、步长、填充、数据尺寸。然后解析配置寄存器内的数据。读取到模式选择寄存器内的数据为0,因此是卷积神经网络模式;读取到网络参数寄存器内的数据,获取网络层数、各层卷积核尺寸、步长、填充、数据尺寸。配置寄存器内的数据是全局数据,整个系统所有单元都能够直接读取到。
2、状态控制单元跳转到输入数据存储状态。然后上位机将训练好、并通过重排图像块为矩阵列方法转换的权重数据存入权重静态存储控制单元内的权重静态存储器;同时上位机将图像数据存入数据静态存储控制单元内的数据静态存储器。
3、因为配置寄存器内模式选择寄存器内的数据为0,因此是卷积神经网络模式,状态控制单元跳转到重排图像块为矩阵列方法状态。根据网络参数寄存器内的卷积核尺寸数据,从数据静态存储控制单元读出即将和卷积核数据做乘加的部分图像数据,进行重排图像块为矩阵列方法转换。转换完成的图像数据会送入处理元件运算阵列。同时从权重静态存储控制单元读出卷积核数据并送入处理元件运算阵列。
4、状态控制单元跳转到神经网络运算状态。处理元件运算阵列内的处理元件将图像数据和权重数据进行乘法运算,再将属于同一列的数据全部加在一起,得到输出图像数据。
5、状态控制单元跳转到激活池化状态。根据网络参数寄存器内的池化尺寸数据,所有输出图像数据先进行线性整流,保留正值数据,置零负值数据;再进行最大值池化。
6、状态控制单元跳转到中间数据存储状态。图像数据写入数据静态存储控制单元。配置寄存器内的神经网络层数计数器加一。
7、循环3~6步,每次结束后神经网络层数计数器加一,直到计数器值加到网络参数寄存器中神经网络层数,停止循环。这表示卷积神经网络已经运算完毕。
8、状态控制单元回到空闲状态。上位机首先对配置寄存器进行数据配置,模式选择寄存器写入图卷积神经网络模式(1),网络参数寄存器写入网络层数、权重尺寸、数据尺寸。然后解析配置寄存器内的数据。读取到模式选择寄存器内的数据为1,因此是图卷积神经网络模式;读取到网络参数寄存器内的数据,获取网络层数、权重尺寸、数据尺寸。配置寄存器内的数据是全局数据,整个系统所有单元都能够直接读取到。
9、状态控制单元跳转到输入数据存储状态。然后上位机将训练好的权重数据存入权重静态存储控制单元内的权重静态存储器;同时上位机将图数据存入数据静态存储控制单元内的数据静态存储器;因为配置寄存器内模式选择寄存器内的数据为1,因此同时上位机将邻接矩阵数据交给状态控制单元,状态控制单元再存入邻接矩阵运算单元;
10、因为配置寄存器内模式选择寄存器内的数据为1,因此是图卷积神经网络模式。状态控制单元跳转到神经网络运算状态。处理元件运算阵列内的处理元件将图数据和权重数据进行乘法运算,再将属于同一列的数据全部加在一起,得到输出图数据。
11、状态控制单元跳转到邻接矩阵运算状态。输出图数据进入邻接矩阵运算单元与之前存储的邻接矩阵数据进行加法运算,得到新的输出图数据。
12、状态控制单元跳转到激活池化状态。根据网络参数寄存器内的池化尺寸数据,所有输出图数据先进行线性整流,保留正值数据,置零负值数据;再进行最大值池化。
13、状态控制单元跳转到中间数据存储状态。图数据写入数据静态存储控制单元。配置寄存器内的神经网络层数计数器加一。
14、循环10~13步,每次结束后神经网络层数计数器加一,直到计数器值加到网络参数寄存器中神经网络层数,停止循环。这表示图卷积神经网络已经运算完毕。
15、状态控制单元回到空闲状态。上位机首先对配置寄存器进行数据配置,模式选择寄存器写入卷积神经网络模式(0),网络参数寄存器写入网络层数、各层卷积核尺寸、步长、填充、数据尺寸。然后解析配置寄存器内的数据。读取到模式选择寄存器内的数据为0,因此是卷积神经网络模式;读取到网络参数寄存器内的数据,获取网络层数、各层卷积核尺寸、步长、填充、数据尺寸。
16、状态控制单元跳转到输入数据存储状态。然后上位机将训练好、并通过重排图像块为矩阵列方法转换的权重数据存入权重静态存储控制单元内的权重静态存储器;同时上位机将图像数据存入数据静态存储控制单元内的数据静态存储器。
17、因为配置寄存器内模式选择寄存器内的数据为0,因此是卷积神经网络模式,状态控制单元跳转到重排图像块为矩阵列方法状态。根据网络参数寄存器内的卷积核尺寸数据,从数据静态存储控制单元读出即将和卷积核数据做乘加的部分图像数据,进行重排图像块为矩阵列方法转换。转换完成的图像数据会送入处理元件运算阵列。同时从权重静态存储控制单元读出卷积核数据并送入处理元件运算阵列。
18、状态控制单元跳转到神经网络运算状态。处理元件运算阵列内的处理元件将图像数据和权重数据进行乘法运算,再将属于同一列的数据全部加在一起,得到输出图像数据。
19、状态控制单元跳转到激活池化状态。根据网络参数寄存器内的池化尺寸数据,所有输出图像数据先进行线性整流,保留正值数据,置零负值数据;再进行最大值池化。
20、状态控制单元跳转到中间数据存储状态。图像数据写入数据静态存储控制单元。配置寄存器内的神经网络层数计数器加一。
21、循环17~20步,每次结束后神经网络层数计数器加一,直到计数器值加到网络参数寄存器中神经网络层数,停止循环。这表示卷积神经网络已经运算完毕。
22、状态控制单元回到空闲状态。
通过以上实施例可见,本发明利用可配置寄存器对卷积神经网络-图卷积神经网络两种神经网络的运算进行配置重构;针对卷积神经网络数据使用重排图像块为矩阵列方法,将三维卷积转换为二维矩阵运算,使得不同的神经网络运算可以复用处理元件阵列单元,以及数据静态存储控制单元、权重静态存储控制单元,达到资源复用。本发明实现了两种神经网络在同一硬件架构进行加速,大大节约了硬件开销。
Claims (3)
1.一种卷积神经网络-图卷积神经网络可重构硬件加速系统,其特征在于:
包括权重静态存储控制单元、数据静态存储控制单元、状态控制单元、重排图像块为矩阵列方法单元、处理元件运算阵列、邻接矩阵运算单元、配置寄存器和激活函数与池化运算单元;
所述状态控制单元,用于完成整个系统架构的状态跳转,以控制神经网络数据和权重数据的存储调用以及神经网络运算操作的执行顺序;
如果是卷积神经网络模式,状态控制单元的状态跳转顺序为:空闲-输入数据存储-重排图像块为矩阵列方法-神经网络运算-激活池化-中间数据存储;
如果是图卷积神经网络模式,状态控制单元的状态跳转顺序为:空闲-输入数据存储-神经网络运算-邻接矩阵运算-激活池化-中间数据存储;此时状态控制单元还负责将上位机传输的邻接矩阵数据交给邻接矩阵运算单元存储起来;
所述权重静态存储控制单元,用于完成上位机训练完毕的权重数据的存储;上位机通过总线将权重数据存储进该单元内置的权重静态存储器;
神经网络运算前,状态控制单元读取权重静态存储控制单元中神经网络的权重数据,将权重数据与图像或者图数据在处理元件运算阵列中进行乘加运算;
如果是卷积神经网络模式,权重静态存储控制单元存储经过上位机通过重排图像块为矩阵列方法转换完毕的每一层卷积神经网络的权重数据;
如果是图卷积神经网络模式,权重静态存储控制单元存储每一层图卷积神经网络的权重数据;
所述数据静态存储控制单元,用于完成上位机传输的输入数据和神经网络计算完毕的中间数据的存储;
如果是卷积神经网络模式,数据静态存储控制单元存储上位机输入的图像数据,以及每一层神经网络计算完毕后的中间图像数据;
如果是图卷积神经网络模式,数据静态存储控制单元存储上位机输入的初始图矩阵,和每一层神经网络计算完毕后的中间图矩阵;
所述重排图像块为矩阵列方法单元,用于在卷积神经网络模式下,每一层神经网络运算前,将数据静态存储控制单元存储的数据转换成能够与权重数据进行乘加的数据;该单元将得到配置寄存器的卷积核尺寸、通道数、步长数据,将属于同一覆盖位置的不同通道的所有数据通过重排图像块为矩阵列方法展成一行;图卷积神经网络模式下该单元使能为低,将不会被使用;
所述处理元件运算阵列,内置至少两个可同时执行乘法运算的处理元件,用于对权重数据与图像数据或图数据进行高并行的乘加运算,从而实现乘加运算的效率提升;
如果是卷积神经网络模式,神经网络运算结束后的数据直接交给激活函数与池化运算单元;
如果是图卷积神经网络模式,神经网络运算结束后的数据送入邻接矩阵运算单元,与邻接矩阵数据进行加法运算,然后再交给激活函数与池化运算单元处理;
所述邻接矩阵运算单元,用于在图卷积神经网络模式存储邻接矩阵数据,与神经网络运算后的数据进行加法运算;卷积神经网络模式,该单元使能为低,将不会被使用;
所述配置寄存器,用于在系统架构启动前进行相应的神经网络模型参数配置,包括网络参数寄存器、模式选择寄存器和中断寄存器;通过上位机配置相应的神经网络类型、神经网络层数、各层权重尺寸、步长、填充、数据尺寸和中断寄存器;系统架构在运行过程中,配置寄存器的数据作为全局数据可以直接被系统中各个单元读取;状态控制单元读取配置寄存器内的神经网络层数、权重尺寸和数据尺寸,从而正确读出权重静态存储控制单元内置权重静态存储器指定地址区间的权重数据,以及数据静态存储控制单元内置数据静态存储器指定地址区间图或图像数据;重排图像块为矩阵列方法单元读取权重尺寸,步长信息,才能将存储的图像数据转换成能够用于与权重数据运算的图像数据;同时,支持系统异常时的中断上报,中断信号会被存储在中断寄存器中;
所述激活函数与池化运算单元,对经过神经网络运算的数据先进行激活运算,再进行池化操作;进行了激活运算和池化运算后,数据存储到数据静态存储控制单元中。
2.如权利要求1所述卷积神经网络-图卷积神经网络可重构硬件加速系统,其特征在于:所述状态控制单元采用有限状态机FSM进行状态跳转。
3.如权利要求1所述卷积神经网络-图卷积神经网络可重构硬件加速系统,其特征在于,工作流程如下:
步骤1、上位机通过总线写入数据:
根据上位机写入的神经网络模式为卷积神经网络模式0或图卷积神经网络模式1,对配置寄存器进行相应配置数据的写入,配置寄存器包括模式选择寄存器、网络参数寄存器和中断寄存器;
写入配置数据:神经网络类型、网络层数、各层权重尺寸、步长、填充、数据尺寸和中断类型命令;配置数据的写入需要在每次神经网络运算开始前完成,神经网络运算中途不允许对配置寄存器进行配置数据的写入,否则将产生中断信号;
并将神经网络各层权重数据存储到权重静态存储控制单元,输入图像数据或图数据存储到数据静态存储控制单元;邻接矩阵数据通过状态控制单元存储到邻接矩阵运算单元;
步骤2、上位机给状态控制单元启动信号,开始工作;
此时状态控制单元读取配置寄存器内的配置数据:读取模式选择寄存器中神经网络类型域段,0为卷积神经网络模式,1为图卷积神经网络模式;
状态控制单元根据读取为0/1选择相应的神经网络模式,从而读取网络参数寄存器中的网络层数、各层卷积核尺寸、步长、填充、数据尺寸域段;
步骤3、状态控制单元根据步骤2获取的神经网络模式和相应的参数,读出存储在权重静态存储控制单元和数据静态存储控制单元内的数据;
卷积神经网络模式下,数据静态存储控制单元内的图像数据经过重排图像块为矩阵列方法单元,启动对数据的重排图像块为矩阵列方法单元转换,再进入处理元件运算阵列;
图卷积神经网络模式下,图数据直接进入处理元件运算阵列;
两种神经网络模式下,权重静态存储控制单元内的权重数据都直接进入处理元件运算阵列;
步骤4、处理元件运算阵列进行数据的乘加并行运算;
卷积神经网络模式下,处理元件运算阵列进行图像数据以及权重数据的乘加并行运算;
图卷积神经网络模式下,处理元件运算阵列进行图数据以及权重数据的乘加并行运算;
步骤5、对于步骤4的运算结果:
图卷积神经网络模式下,运算结束的图数据进入邻接矩阵运算单元进行相加运算,再进入激活函数与池化运算单元进行激活函数和池化运算;
卷积神经网络模式下,运算结束的图像数据直接进入激活函数与池化运算单元进行激活函数和池化运算;
步骤6、激活函数和池化运算结束后,输出图像或图数据,并将其写回数据静态存储控制单元;
步骤7、上位机通过总线再次进行配置寄存器的配置数据写入,改写寄存器内的模式选择寄存器的域段值,实现神经网络模式的更改。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111499692.5A CN114239816B (zh) | 2021-12-09 | 2021-12-09 | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111499692.5A CN114239816B (zh) | 2021-12-09 | 2021-12-09 | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114239816A CN114239816A (zh) | 2022-03-25 |
CN114239816B true CN114239816B (zh) | 2023-04-07 |
Family
ID=80754342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111499692.5A Active CN114239816B (zh) | 2021-12-09 | 2021-12-09 | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114239816B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114510339B (zh) * | 2022-04-20 | 2022-07-29 | 苏州浪潮智能科技有限公司 | 一种计算任务调度方法、装置、电子设备及可读存储介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019137060A1 (zh) * | 2018-01-15 | 2019-07-18 | 合肥工业大学 | 基于多播片上网络的卷积神经网络硬件加速器及其工作方式 |
CN110390384A (zh) * | 2019-06-25 | 2019-10-29 | 东南大学 | 一种可配置的通用卷积神经网络加速器 |
CN111626414A (zh) * | 2020-07-30 | 2020-09-04 | 电子科技大学 | 一种动态多精度神经网络加速单元 |
CN111667051A (zh) * | 2020-05-27 | 2020-09-15 | 上海赛昉科技有限公司 | 适用边缘设备的神经网络加速器及神经网络加速计算方法 |
CN111695685A (zh) * | 2020-05-12 | 2020-09-22 | 中国科学院计算技术研究所 | 一种面向图神经网络应用的片上存储系统及方法 |
CN111724607A (zh) * | 2020-07-01 | 2020-09-29 | 上海眼控科技股份有限公司 | 转向灯使用检测方法、装置、计算机设备和存储介质 |
CN111898730A (zh) * | 2020-06-17 | 2020-11-06 | 西安交通大学 | 一种利用图卷积神经网络结构加速的结构优化设计方法 |
WO2020258529A1 (zh) * | 2019-06-28 | 2020-12-30 | 东南大学 | 一种基于bnrp的可配置并行通用卷积神经网络加速器 |
US10938660B1 (en) * | 2018-12-21 | 2021-03-02 | Juniper Networks, Inc. | Automation of maintenance mode operations for network devices |
CN112559053A (zh) * | 2020-12-21 | 2021-03-26 | 清华大学 | 可重构处理器数据同步处理方法及装置 |
CN113222130A (zh) * | 2021-04-09 | 2021-08-06 | 广东工业大学 | 一种基于fpga的可重构卷积神经网络加速器 |
CN113313243A (zh) * | 2021-06-11 | 2021-08-27 | 海宁奕斯伟集成电路设计有限公司 | 神经网络加速器的确定方法、装置、设备以及存储介质 |
CN113407350A (zh) * | 2021-07-19 | 2021-09-17 | 北京百度网讯科技有限公司 | 指令处理装置、处理器、芯片、计算设备及相应的方法 |
CN113537465A (zh) * | 2021-07-07 | 2021-10-22 | 深圳市易成自动驾驶技术有限公司 | Lstm模型优化方法、加速器、装置及介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11853903B2 (en) * | 2017-09-28 | 2023-12-26 | Siemens Aktiengesellschaft | SGCNN: structural graph convolutional neural network |
US20210248504A1 (en) * | 2020-02-06 | 2021-08-12 | Qualcomm Technologies, Inc. | Gauge equivariant geometric graph convolutional neural network |
US20200401891A1 (en) * | 2020-09-04 | 2020-12-24 | Intel Corporation | Methods and apparatus for hardware-aware machine learning model training |
US20210150371A1 (en) * | 2020-12-21 | 2021-05-20 | Intel Corporation | Automatic multi-objective hardware optimization for processing of deep learning networks |
-
2021
- 2021-12-09 CN CN202111499692.5A patent/CN114239816B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019137060A1 (zh) * | 2018-01-15 | 2019-07-18 | 合肥工业大学 | 基于多播片上网络的卷积神经网络硬件加速器及其工作方式 |
US10938660B1 (en) * | 2018-12-21 | 2021-03-02 | Juniper Networks, Inc. | Automation of maintenance mode operations for network devices |
CN110390384A (zh) * | 2019-06-25 | 2019-10-29 | 东南大学 | 一种可配置的通用卷积神经网络加速器 |
WO2020258529A1 (zh) * | 2019-06-28 | 2020-12-30 | 东南大学 | 一种基于bnrp的可配置并行通用卷积神经网络加速器 |
CN111695685A (zh) * | 2020-05-12 | 2020-09-22 | 中国科学院计算技术研究所 | 一种面向图神经网络应用的片上存储系统及方法 |
CN111667051A (zh) * | 2020-05-27 | 2020-09-15 | 上海赛昉科技有限公司 | 适用边缘设备的神经网络加速器及神经网络加速计算方法 |
CN111898730A (zh) * | 2020-06-17 | 2020-11-06 | 西安交通大学 | 一种利用图卷积神经网络结构加速的结构优化设计方法 |
CN111724607A (zh) * | 2020-07-01 | 2020-09-29 | 上海眼控科技股份有限公司 | 转向灯使用检测方法、装置、计算机设备和存储介质 |
CN111626414A (zh) * | 2020-07-30 | 2020-09-04 | 电子科技大学 | 一种动态多精度神经网络加速单元 |
CN112559053A (zh) * | 2020-12-21 | 2021-03-26 | 清华大学 | 可重构处理器数据同步处理方法及装置 |
CN113222130A (zh) * | 2021-04-09 | 2021-08-06 | 广东工业大学 | 一种基于fpga的可重构卷积神经网络加速器 |
CN113313243A (zh) * | 2021-06-11 | 2021-08-27 | 海宁奕斯伟集成电路设计有限公司 | 神经网络加速器的确定方法、装置、设备以及存储介质 |
CN113537465A (zh) * | 2021-07-07 | 2021-10-22 | 深圳市易成自动驾驶技术有限公司 | Lstm模型优化方法、加速器、装置及介质 |
CN113407350A (zh) * | 2021-07-19 | 2021-09-17 | 北京百度网讯科技有限公司 | 指令处理装置、处理器、芯片、计算设备及相应的方法 |
Non-Patent Citations (5)
Title |
---|
Chen T等."A small-footprint accelerator for large-scale neural networks".《ACM Transactions on Computer Systems》.2015,第33卷(第2期),第1-27页. * |
Gui Chuangyi等."A survey on graph processing accelerators:Challenges and opportunities".《Journal of Computer Science and Technology》.2019,第34卷(第2期),第339-371页. * |
Ielmini D A等 ."In-memory computing with resistive switching devices".《Nature Electronics》.2018,(第6期),第333-343页. * |
严明玉等. "图计算加速构架综述".《计算机研究与发展》 .2021,第58卷(第4期),第862-887页. * |
李涵等."图神经网络加速结构综述".《计算机研究与发展》.2021,第58卷(第6期),第1204-1229页. * |
Also Published As
Publication number | Publication date |
---|---|
CN114239816A (zh) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107169560B (zh) | 一种自适应可重构的深度卷积神经网络计算方法和装置 | |
CN108416436B (zh) | 使用多核心处理模块进行神经网络划分的方法及其系统 | |
EP3404587B1 (en) | Cnn processing method and device | |
CN111897579B (zh) | 图像数据处理方法、装置、计算机设备和存储介质 | |
CN111242289B (zh) | 一种规模可扩展的卷积神经网络加速系统与方法 | |
CN107085562B (zh) | 一种基于高效复用数据流的神经网络处理器及设计方法 | |
Kim et al. | FPGA-based CNN inference accelerator synthesized from multi-threaded C software | |
CN109409510B (zh) | 神经元电路、芯片、系统及其方法、存储介质 | |
Kästner et al. | Hardware/software codesign for convolutional neural networks exploiting dynamic partial reconfiguration on PYNQ | |
CN111831254A (zh) | 图像处理加速方法、图像处理模型存储方法及对应装置 | |
CN109726822B (zh) | 运算方法、装置及相关产品 | |
CN112950656A (zh) | 一种基于fpga平台的按通道进行预读取数据的分块卷积方法 | |
JP5071707B2 (ja) | データ処理装置およびその制御方法 | |
CN114239816B (zh) | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 | |
CN111324294A (zh) | 存取张量数据的方法和装置 | |
CN113592066A (zh) | 硬件加速方法、装置、设备、计算机程序产品及存储介质 | |
CN111340198A (zh) | 基于fpga的数据高度复用的神经网络加速器 | |
CN115374395A (zh) | 一种通过算法控制单元进行调度计算的硬件结构 | |
CN112862079B (zh) | 一种流水式卷积计算架构设计方法及残差网络加速系统 | |
Dai et al. | An energy-efficient bit-split-and-combination systolic accelerator for nas-based multi-precision convolution neural networks | |
Zhu et al. | Optimization of convolutional neural network hardware structure based on FPGA | |
Alhussain et al. | Hardware-efficient template-based deep CNNs accelerator design | |
CN220773595U (zh) | 可重配置处理电路以及处理核心 | |
CN116091299B (zh) | 一种基于gpu的隐式gemm卷积计算方法、装置、设备及介质 | |
CN116881195B (zh) | 面向检测计算的芯片系统和面向检测计算的芯片方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |