CN110689123B - 基于脉动阵列的长短期记忆神经网络前向加速系统及方法 - Google Patents
基于脉动阵列的长短期记忆神经网络前向加速系统及方法 Download PDFInfo
- Publication number
- CN110689123B CN110689123B CN201910926748.7A CN201910926748A CN110689123B CN 110689123 B CN110689123 B CN 110689123B CN 201910926748 A CN201910926748 A CN 201910926748A CN 110689123 B CN110689123 B CN 110689123B
- Authority
- CN
- China
- Prior art keywords
- module
- calculation
- hidden layer
- neural network
- gate vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
Description
技术领域
本发明属于人工智能算法硬件加速领域,尤其涉及了一种基于脉动阵列的长短期记忆神经网络前向加速系统。
背景技术
随着神经网络算法在不同领域取得越来越多的成就,传统的深度神经网络(DNN)也暴露出了一些问题:只能处理当前输入的信息。为了解决这一问题,循环神经网络(RNN)应运而生,而长短期记忆(LSTM)神经网络则是目前最主流的循环神经网络的变体,其引入了记忆单元以解决长期依赖性问题。长短期记忆神经网络已被广泛应用于语音识别、图像处理和机器翻译等领域。
由于引入了所谓的“门”单元,LSTM网络包含了较多的矩阵-向量乘法运算,该系列算法属于计算密集型算法,通常需要采用硬件加速方式实现,目前较常用的加速手段包括CPU、GPU、ASIC等。其中CPU和GPU都属于通用处理器,需要进行取指令、指令译码、指令执行的操作,在面对计算密集型算法时无法达到更高的数据传输和计算效率,且能耗较大;ASIC是根据需求特定的专用处理芯片,具有低功耗、高性能、面积小等优点,不过其也存在设计灵活性不高且通常不可配置等问题,如何提高LSTM的硬件加速性能、配置灵活性和可复用性成为了研究的热点。
发明内容
本发明的目的是克服上述背景技术中的LSTM前向运算硬件实现的不足,提出一种基于脉动阵列的多隐层可复用LSTM前向硬件加速架构,支持网络大小,包括输入层节点数、隐藏层节点数、时间序列长度等可配置,提高了硬件加速效率,并实现了输入层-隐藏层前向运算的可复用,具体通过以下技术方案实现:
所述基于脉动阵列的长短期记忆神经网络前向加速系统,包括:
算法控制模块,控制计算流程,输出控制信号,控制门向量计算模块和细胞状态计算模块的交替运行;
门向量计算模块,接收源数据,根据所述控制信号将所述源数据传入脉动阵列,依次计算遗忘门向量ft,输入门向量it,候选门向量zt以及输出门向量ot,当同一个时间序列t中的ot计算完成后产生一个细胞状态计算模块的启动信号;所述源数据包括输入层输入数据、神经元权重项以及神经元偏置项;
细胞状态计算模块,接收所述启动信号后读入门向量数据,计算神经元状态值Ct和隐藏层输出值Ht;
存储模块,接收和输出存储门向量计算模块与细胞状态计算模块的计算结果。
所述基于脉动阵列的长短期记忆神经网络前向加速系统的进一步设计在于,所述长短期记忆神经网的输入层-隐藏层通过在系统配置阶段实施多条指令配置,将前一隐藏层的输出作为下一隐藏层的输入,实现隐藏层的多次调用,完成任意隐藏层层数的LSTM前向计算。
所述基于脉动阵列的长短期记忆神经网络前向加速系统的进一步设计在于,所述门向量计算模块和细胞状态计算模块采用类脉动阵列,所述类脉动阵列中每个计算单元包含乘法器、加法器以及按位与和比较器。
所述基于脉动阵列的长短期记忆神经网络前向加速系统的进一步设计在于,所述类脉动阵列为32×32的类脉动阵列,最高支持32批次数据的并行处理。
所述基于脉动阵列的长短期记忆神经网络前向加速系统的进一步设计在于,所述存储模块包括数据存储器和系数存储器,数据存储器和系数存储器统一编址;门向量计算模块的源数据存储方式为:输入层的输入数据和隐藏层计算结果Ht存入同一块bank区域,每个bank存放一个批次的输入数据和隐藏层计算结果;神经元权重存入同一块bank区域,其中一个隐藏层神经元的所有权重存放在同一个bank中;偏置项按地址递增的方式存入同一块bank区域。
所述基于脉动阵列的长短期记忆神经网络前向加速系统的进一步设计在于,所述门向量计算模块的计算结果存放方式为:四个门向量的计算结果分别存放在不同的bank区域,其中同一批次的计算结果以地址递增的方式存入各自对应的bank,一个bank存放四个批次的数据。
所述基于脉动阵列的长短期记忆神经网络前向加速系统的进一步设计在于,细胞状态计算模块的计算流程为:将四个门向量计算结果从存储模块中读出并进行重组,以乘累加的形式传入类脉动阵列进行计算,与门向量计算模块共用计算资源。
所述基于脉动阵列的长短期记忆神经网络前向加速系统的进一步设计在于,还包括存储地址生成模块,存储地址生成模块生成存储地址信号和控制信号,所述存储地址信号产生存储地址与物理存储模块地址的映射;所述控制信号控制存储模块进行源数据的读写。
采用所述基于脉动阵列的长短期记忆神经网络前向加速系统长短期记忆神经网络前向硬件加速方法,包括如下步骤:
步骤1)配置网络参数,所述参数包括:输入层节点数、隐藏层节点数、时间序列长度以及批处理批次;
步骤2)存储地址生成处理模块将源数据存入存储模块,所述源数据包括:输入层输入数据、神经元权重项以及神经元偏置项;
步骤3)算法控制模块接收到系统的启动信号后,启动门向量计算模块,将源数据传入脉动阵列,依次计算各门向量ft,it,zt,ot并存入存储模块,生成门向量计算模块的结束信号和细胞状态计算模块的启动信号;
步骤4)细胞状态计算模块接收到对应的启动信号后开始从存储模块中读出门向量数据,计算神经元状态值Ct和隐藏层输出值Ht,存入存储模块,并生成一个细胞状态计算模块的结束信号;
步骤5)算法控制模块接收到对应的结束信号后再次启动门向量计算模块,重复上述步骤3)和步骤4),直到完成所有时序的计算;
步骤6)在完成步骤5)的基础上,若配置阶段配置了多隐层的网络,则重复上述步骤2)直至步骤5),直到完成所有层数的运算;
所述基于脉动阵列的长短期记忆神经网络前向加速方法的进一步设计在于,所述步骤1)中若需要计算多隐层的网络则将包含上述参数的指令进行多次配置。
本发明的优点
本发明提供的基于脉动阵列的多隐层可复用的长短期记忆神经网络前向加速系统及方法,将算法按计算复杂度进行划分,采用脉动阵列,提高了计算效率;并支持网络节点数和时间序列长度可配,配置灵活;实现了输入-隐藏层的可复用,可扩展性较好。
附图说明
图1为本发明基于脉动阵列的长短期记忆神经网络前向加速系统的示意图。
图2是数据存储方式示意图。
图3是加速系统的逻辑串联示意图。
具体实施方式
下面结合附图对本发明方案进行详细说明。
如图1所示,本实施例的基于脉动阵列的多隐层可复用LSTM前向硬件加速架构,主要由算法控制模块、门向量计算模块、细胞状态计算模块和存储地址生成处理模块组成。
存储地址生成处理模块,负责生成神经元操作数、系数和偏置项的地址并映射到存储模块的物理地址,生成存储模块的控制信号,进行源数据的读写。
算法控制模块,负责控制计算流程,在接收到系统启动信号后控制门向量计算模块和细胞状态计算模块的交替运行。
门向量计算模块,负责接收源数据并在控制模块控制下将源数据传入类脉动阵列,依次计算各门向量ft,it,zt,ot并存入存储模块;其中,阵列计算完ft后本模块产生一个结束信号,算法控制模块接收到该信号后拉低计算ft的使能信号并拉高it的使能信号,以此类推,直到完成所有门向量运算,算法控制模块产生一个细胞状态计算模块的启动信号。
细胞状态计算模块,接收到启动信号后开始从存储模块中读出门向量数据,对数据进行重组,使其以乘累加的形式传入阵列,计算神经元状态值Ct和隐藏层输出值Ht,存入存储模块,并生成一个结束信号,算法控制模块接收到该信号后再次启动门向量计算模块,重复上述过程。
存储模块,接收和输出存储门向量计算模块与细胞状态计算模块的计算结果。
如图2,存储资源共有128个数据存储器bank和32个系数存储器factor bank。源数据的存放方式为:输入层的输入数据存入bank0-31低位地址空间,每个bank存放一个批次的输入数据;神经元权重存入bank32-95,其中:bank32-63低位地址空间存放遗忘门权重矩阵Wf,高位地址空间存放候选门权重矩阵Wz,bank64-95低位地址空间存放输入门权重矩阵Wi,高位地址空间存放输出门权重矩阵Wo,所有权重按神经元进行存放,同一个神经元的权重存放在同一个bank中;偏置项存入bank96-103;计算得到的门向量数据:遗忘门计算结果ft存放在bank112-119,输入门计算结果it存放在bank120-127低位地址空间,候选门计算结果zt存放在bank104-111,输出门计算结果ot存放在bank120-127高位地址空间;其中同一批次的计算结果以地址递增的方式存入各自的存储模块,一个存储模块存放四个批次的数据;细胞状态值Ct按t的奇偶性存入常数存储器factor_bank16-31,t为奇数时存入factor_bank24-31,t为偶数时存入factor_bank16-23,同一批次的计算结果以地址递增的方式存入各自的存储模块,一个存储模块存放四个批次的数据;隐藏层输出值Ht存入bank0-31高位地址空间,每个bank存放一个批次的Ht,每个时间序列里输出的Ht不相互覆盖。
本实施例的基于脉动阵列的多隐层可复用的长短期记忆神经网络前向硬件加速架构实现了从输入层到隐藏层的前向运算,即如图3中所示的输入层1到隐藏层1的运算,若需要搭建具有更多隐藏层的网络,如双隐藏层LSTM网络,则需要计算从隐藏层1到隐藏层2的前向运算。要实现这样的运算,只需要在架构的配置阶段将第一次的输出作为第二次的输入并改变相应的网络参数,即可实现本架构的复用,从而计算任意隐藏层层数的LSTM前向推理运算。
本发明所述的基于脉动阵列的多隐层可复用的长短期记忆神经网络前向硬件加速架构实现一次完整的计算包括如下步骤:
步骤1)配置阶段,配置好网络各参数,包括:输入层节点数“input”、隐藏层节点数“hidden”、时间序列长度“time_step”、批处理批次“batch”等,若需要计算多隐层的网络则将包含上述参数的指令进行多次配置;
步骤2)存储地址生成处理模块将源数据存入对应的存储模块,包括:输入层输入数据input、所有神经元权重、所有偏置项,如图2所示;
步骤3)算法控制模块接收到系统的启动信号后,启动门向量计算模块,源数据传入脉动阵列,依次计算各门向量ft,it,zt,ot并存入存储模块,生成结束信号和细胞状态计算模块的启动信号;
步骤4)细胞状态计算模块接收到启动信号后开始从存储模块中读出门向量数据,计算神经元状态值Ct和隐藏层输出值Ht,存入存储模块,并生成一个结束信号;
步骤5)算法控制模块接收到结束信号后再次启动门向量计算模块,重复上述步骤3)和步骤4),直到完成所有时序的计算。
步骤6)在完成步骤5)的基础上,若配置阶段配置了多隐层的网络,则重复上述步骤2)、步骤3)、步骤4)、步骤5),直到完成所有层数的运算。
本发明介绍了基于脉动阵列的多隐层可复用的长短期记忆神经网络前向硬件加速架构,采用脉动阵列,提高了计算效率;支持网络节点数和时间序列长度可配,配置灵活;实现了输入-隐藏层的可复用,架构可扩展性较好。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或变换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (10)
1.一种基于脉动阵列的长短期记忆神经网络前向加速系统,其特征在于包括:
算法控制模块,控制计算流程,输出控制信号,控制门向量计算模块和细胞状态计算模块的交替运行;
门向量计算模块,接收源数据,根据所述控制信号将所述源数据传入脉动阵列,依次计算遗忘门向量ft,输入门向量it,候选门向量zt以及输出门向量ot,当同一个时间序列t中的ot计算完成后产生一个细胞状态计算模块的启动信号;所述源数据包括输入层输入数据、神经元权重项以及神经元偏置项;
细胞状态计算模块,接收所述启动信号后读入门向量数据,计算神经元状态值Ct和隐藏层输出值Ht;
存储模块,接收和输出存储门向量计算模块与细胞状态计算模块的计算结果。
2.根据权利要求1所述的基于脉动阵列的长短期记忆神经网络前向加速系统,其特征在于所述长短期记忆神经网络的输入层-隐藏层通过在系统配置阶段实施多条指令配置,将前一隐藏层的输出作为下一隐藏层的输入,实现隐藏层的多次调用,完成任意隐藏层层数的LSTM前向计算。
3.根据权利要求1所述的基于脉动阵列的长短期记忆神经网络前向加速系统,其特征在于所述门向量计算模块和细胞状态计算模块采用类脉动阵列,所述类脉动阵列中每个计算单元包含乘法器、加法器以及按位与和比较器。
4.根据权利要求3所述的基于脉动阵列的长短期记忆神经网络前向加速系统,其特征在于所述类脉动阵列为32×32的类脉动阵列,最高支持32批次数据的并行处理。
5.根据权利要求1所述的基于脉动阵列的长短期记忆神经网络前向加速系统,其特征在于所述存储模块包括数据存储器和系数存储器,数据存储器和系数存储器统一编址;门向量计算模块的源数据存储方式为:输入层的输入数据和隐藏层计算结果Ht存入同一块bank区域,每个bank存放一个批次的输入数据和隐藏层计算结果;神经元权重存入同一块bank区域,其中一个隐藏层神经元的所有权重存放在同一个bank中;偏置项按地址递增的方式存入同一块bank区域。
6.根据权利要求5所述的基于脉动阵列的长短期记忆神经网络前向加速系统,其特征在于所述门向量计算模块的计算结果存放方式为:四个门向量的计算结果分别存放在不同的bank区域,其中同一批次的计算结果以地址递增的方式存入各自对应的bank,一个bank存放四个批次的数据。
7.根据权利要求1所述的基于脉动阵列的长短期记忆神经网络前向加速系统,其特征在于细胞状态计算模块的计算流程为:将四个门向量计算结果从存储模块中读出并进行重组,以乘累加的形式传入类脉动阵列进行计算,与门向量计算模块共用计算资源。
8.根据权利要求1所述的基于脉动阵列的长短期记忆神经网络前向加速系统,其特征在于还包括存储地址生成模块,存储地址生成模块生成存储地址信号和控制信号,所述存储地址信号产生存储地址与物理存储模块地址的映射;所述控制信号控制存储模块进行源数据的读写。
9.采用权利要求1-8任一项所述的基于脉动阵列的长短期记忆神经网络前向加速系统的基于脉动阵列的长短期记忆神经网络前向加速方法,其特征在于包括如下步骤:
步骤1)配置网络参数,所述参数包括:输入层节点数、隐藏层节点数、时间序列长度以及批处理批次;
步骤2)存储地址生成处理模块将源数据存入存储模块,所述源数据包括:输入层输入数据、神经元权重项以及神经元偏置项;
步骤3)算法控制模块接收到系统的启动信号后,启动门向量计算模块,将源数据传入脉动阵列,依次计算各门向量ft,it,zt,ot并存入存储模块,生成门向量计算模块的结束信号和细胞状态计算模块的启动信号;
步骤4)细胞状态计算模块接收到对应的启动信号后开始从存储模块中读出门向量数据,计算神经元状态值Ct和隐藏层输出值Ht,存入存储模块,并生成一个细胞状态计算模块的结束信号;
步骤5)算法控制模块接收到对应的结束信号后再次启动门向量计算模块,重复上述步骤3)和步骤4),直到完成所有时序的计算;
步骤6)在完成步骤5)的基础上,若配置阶段配置了多隐层的网络,则重复上述步骤2)直至步骤5),直到完成所有层数的运算。
10.根据权利要求9中所述的基于脉动阵列的长短期记忆神经网络前向加速方法,其特征在于所述步骤1)中若需要计算多隐层的网络则将包含上述参数的指令进行多次配置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910926748.7A CN110689123B (zh) | 2019-09-27 | 2019-09-27 | 基于脉动阵列的长短期记忆神经网络前向加速系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910926748.7A CN110689123B (zh) | 2019-09-27 | 2019-09-27 | 基于脉动阵列的长短期记忆神经网络前向加速系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110689123A CN110689123A (zh) | 2020-01-14 |
CN110689123B true CN110689123B (zh) | 2023-04-18 |
Family
ID=69110862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910926748.7A Active CN110689123B (zh) | 2019-09-27 | 2019-09-27 | 基于脉动阵列的长短期记忆神经网络前向加速系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110689123B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222133B (zh) * | 2021-05-24 | 2023-04-18 | 南京航空航天大学 | 一种基于fpga的压缩lstm加速器及加速方法 |
CN116384454B (zh) * | 2023-02-08 | 2023-09-29 | 大连理工大学 | 一种基于fpga的长短期记忆网络硬件加速方法 |
CN116805155B (zh) * | 2023-08-25 | 2024-01-19 | 太初(无锡)电子科技有限公司 | 一种lstm网络处理方法、装置、设备及可读存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3282937A4 (en) * | 2015-04-14 | 2018-11-21 | Nueon Inc. | Method and apparatus for determining markers of health by analysis of blood |
CN109214566B (zh) * | 2018-08-30 | 2021-02-26 | 华北水利水电大学 | 基于长短期记忆网络的风电功率短期预测方法 |
CN110232441B (zh) * | 2019-06-18 | 2023-05-09 | 南京大学 | 一种基于单向脉动阵列的堆栈式自编码系统及方法 |
-
2019
- 2019-09-27 CN CN201910926748.7A patent/CN110689123B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110689123A (zh) | 2020-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110689123B (zh) | 基于脉动阵列的长短期记忆神经网络前向加速系统及方法 | |
CN111221578B (zh) | 计算装置以及计算方法 | |
CN109034373B (zh) | 卷积神经网络的并行处理器及处理方法 | |
CN107341547B (zh) | 一种用于执行卷积神经网络训练的装置和方法 | |
WO2018192500A1 (zh) | 处理装置和处理方法 | |
US11531860B2 (en) | Apparatus and method for executing recurrent neural network and LSTM computations | |
US5600843A (en) | Ring systolic array system for synchronously performing matrix/neuron computation using data transferred through cyclic shift register connected in cascade of trays | |
US5506998A (en) | Parallel data processing system using a plurality of processing elements to process data and a plurality of trays connected to some of the processing elements to store and transfer data | |
EP3451236A1 (en) | Method and device for executing forwarding operation of fully-connected layered neural network | |
US5483620A (en) | Learning machine synapse processor system apparatus | |
CN111260025B (zh) | 用于执行lstm神经网络运算的装置和运算方法 | |
CN110826710B (zh) | 基于横向脉动阵列的rnn前向传播模型的硬件加速实现方法 | |
TWI417797B (zh) | A Parallel Learning Architecture and Its Method for Transferred Neural Network | |
TWI417798B (zh) | High - speed reverse transfer neural network system with elastic structure and learning function | |
CN108205704A (zh) | 一种神经网络芯片 | |
CN108710943B (zh) | 一种多层前馈神经网络并行加速器 | |
CN116710912A (zh) | 一种矩阵乘法器及矩阵乘法器的控制方法 | |
CN110232441B (zh) | 一种基于单向脉动阵列的堆栈式自编码系统及方法 | |
CN109670581B (zh) | 一种计算装置及板卡 | |
CN112446460A (zh) | 用于处理数据的方法、装置以及相关产品 | |
JPH06502265A (ja) | 信号処理におけるマトリクス演算の計算回路装置 | |
CN110490317B (zh) | 神经网络运算装置及运算方法 | |
JPH07271748A (ja) | データを正規化する手段を含むニューラル・プロセッサ | |
CN111178492B (zh) | 计算装置及相关产品、执行人工神经网络模型的计算方法 | |
WO2023065701A1 (zh) | 内积处理部件、任意精度计算设备、方法及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |