CN115357854A - 一种高效的矩阵乘运算加速装置及方法 - Google Patents

一种高效的矩阵乘运算加速装置及方法 Download PDF

Info

Publication number
CN115357854A
CN115357854A CN202211045832.6A CN202211045832A CN115357854A CN 115357854 A CN115357854 A CN 115357854A CN 202211045832 A CN202211045832 A CN 202211045832A CN 115357854 A CN115357854 A CN 115357854A
Authority
CN
China
Prior art keywords
data
matrix multiplication
northbound
north
register
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211045832.6A
Other languages
English (en)
Inventor
高剑刚
吴铁彬
唐勇
刘亮
谭弘兵
王吉军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuxi Jiangnan Computing Technology Institute
Original Assignee
Wuxi Jiangnan Computing Technology Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuxi Jiangnan Computing Technology Institute filed Critical Wuxi Jiangnan Computing Technology Institute
Priority to CN202211045832.6A priority Critical patent/CN115357854A/zh
Publication of CN115357854A publication Critical patent/CN115357854A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/50Adding; Subtracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/52Multiplying; Dividing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/30007Arrangements for executing specific machine instructions to perform operations on data operands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30098Register arrangements
    • G06F9/3012Organisation of register space, e.g. banked or distributed register file
    • G06F9/30138Extension of register space, e.g. register cache

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Complex Calculations (AREA)

Abstract

本发明涉及机器学习技术领域,具体涉及一种高效的矩阵乘运算加速装置及方法,包括矩阵乘法加速单元、北向数据加载器、西向数据整形与加载器、累加缓冲器、累加结果写回控制器和本地局部存储器,矩阵乘法加速单元包括呈二维脉动阵列排列的矩阵乘法加速核心,矩阵乘法加速单元通过北向数据加载器从本地局部存储器获取北向数据,西向数据整形与加载器从本地局部存储器获取西向数据并整形,矩阵乘法加速核心的运算单元进行乘加运算,乘加结果输入至累加缓冲器,全部运算结束后,累加结果写回本地局部存储器。本发明的有益技术性效果包括:北向数据可以预加载,掩盖延迟;2)固定北向数据,增加数据重用性;3)减少数据流动,降低功耗。

Description

一种高效的矩阵乘运算加速装置及方法
技术领域
本发明涉及机器学习技术领域,具体涉及一种高效的矩阵乘运算加速装置及方法。
背景技术
人工神经网络(Artificial Neutral Networks)通过模拟动物神经网络行为,以神经元与网络互连为基础构建数学算法模型,进行分布式信息处理,实现机器学习功能,广泛应用于语音处理、图像识别、计算机视觉、自然语言处理和交叉学科等人工智能领域。人工神经网络包括多层感知机(Multi-Layer Perceptron,MLP)、卷积神经网络(Convolutional Neural Network)和循环神经网络(Recurrent Neural Network,RNN)等多种经典模型,这些模型由多层神经网络组成,每层网络包含大量的卷积与矩阵乘运算,无论是训练还是推理,均需要计算机提供超高的计算能力与硬件加速架构以支持人工智能加速。
采用脉动阵列(Systolic Array)加速矩阵乘或卷积运算是一种可行的方式,脉动阵列为二维运算结构,以数据流驱动方式实现运算加速。脉动阵列各个处理单元(Processing Element,PE)可以在相邻PE间传输数据,通过数据重用,减少对输入/输出数据的存取次数,进而降低访存带宽需求。脉动阵列可以在较小的访存带宽下实现较高的运算吞吐率,解决多数处理器面临的访存瓶颈问题,特别是在神经网络这种高密集型计算和访存的处理中应用优势明显。
现有技术比较经典的是TPU(Tensor Processing Unit)处理器,面向卷积运算加速,应用于人工智能推理。TPU的核心是矩阵计算单元,采用256*256,二维Cell数量,超大脉动阵列,每个Cell支持8*8+16的定点运算。预先对数据格式进行转换,卷积核经过旋转,转换成矩阵对应脉动阵列的行输入数据,激活activation数据经过重组,转换成矩阵向量对应脉动阵列的列输入。权重weight数据,卷积核Kernel,沿列自上而下流动,激活activation数据,图片或语音数据,沿行从左至右流动,在Cell单元中进行乘法,并与上方Cell传输下来的加法结果求和后,乘加结果沿列从上往下流动。其中,权重数据通过权重定序器确定在Cell中的流动方式以及在最下方对应每列Cell有一个累加单元,用于执行最后一行Cell输出的乘加结果累加,并保存中间结果,以实现矩阵乘法或卷积运算。
TPU利用脉动阵列对卷积运算进行加速,存在以下缺点:1、面向推理,运算精度低,运算模式单一;2、权重与激活数据同时流动,可重用性低。TPU主要面向推理,支持推理全流程加速,而推理相比训练对运算精度要求不高,采用8位定点运算实现单个Cell乘加即可满足要求,而训练对数据处理精度要求相对较高,一般需要采用16位定点或者半精度浮点运算进行加速。因此,TPU运算模式单一,灵活性和可适用性性差;运算精度较低,不适用于训练加速。基于二维脉动阵列实现的TPU,卷积运算加速过程中,权重与激活数据分别沿列自上而下、沿行从左至右同时传输,数据可重用性低,特别是在神经网络训练过程中,卷积运算存在权重数据可以大量重用特性,即同一个卷积核可以重复使用多次,对多个激活数据矩阵进行滑动卷积。
因此,有必要继续研究提高矩阵乘运算效率的技术。
发明内容
本发明所要解决的技术问题:目前矩阵乘法运算效率低的技术问题。提出了一种高效的矩阵乘运算加速装置及方法,能够进一步提高矩阵乘法运算的效率,提高机器学习的效率。
解决上述技术问题,本发明采用如下技术方案:一种高效的矩阵乘运算加速装置,包括矩阵乘法加速单元、北向数据加载器、西向数据整形与加载器、累加缓冲器、累加结果写回控制器和本地局部存储器,
矩阵乘法加速单元包括呈二维脉动阵列排列的矩阵乘法加速核心,所述矩阵乘法加速核心包括运算单元和数据调度单元,相邻矩阵乘法加速核心之间由数据调度单元建立数据交换通道,矩阵乘法加速单元通过北向数据加载器从所述本地局部存储器获取北向数据,所述北向数据为卷积核,所述北向数据在矩阵乘法加速单元中由数据调度单元调度从北向南依次流动,所述西向数据整形与加载器从本地局部存储器获取西向数据并整形,所述西向数据为图片矩阵,所述西向数据在矩阵乘法加速单元中由数据调度单元调度从西向东依次流动,所述北向数据及西向数据在流动过程中,所述矩阵乘法加速核心的运算单元进行乘加运算,乘加结果由北向南传输并最终输入至累加缓冲器,所述累加缓冲器进行累加并暂存中间结果,全部运算结束后,所述累加结果写回控制器将所述累加缓冲器内的累加结果写入本地局部存储器进行存储。
作为优选,所述累加缓冲器包括若干个缓存器,每个缓存器对应所述矩阵乘法加速单元的一列。
作为优选,所述矩阵乘法加速核心的数据调度单元包括北向数据影子寄存器、北向数据寄存器、累加数据寄存器、北向更新使能寄存器、西向数据寄存器和运算模式配置信号线,所述北向数据影子寄存器与北向数据加载器或者北侧数据调度单元的北向数据影子寄存器连接,所述北向数据寄存器与北向数据影子寄存器连接,所述北向更新使能寄存器与北向数据寄存器连接,同一行北向更新使能寄存器相互连接,所述西向数据寄存器与同一行所述运算模式配置信号线与运算单元连接,同一行西向数据寄存器相互连接,所述运算单元与西向数据寄存器、北向数据寄存器及累加数据寄存器连接,所述运算单元的计算结果输入南侧矩阵乘法加速核心的累加数据寄存器。
作为优选,所述矩阵乘法加速核心的运算单元包括乘法器和加法器,所述乘法器将北向数据寄存器和西向数据寄存器内的数据相乘获得乘积,所述加法器将所述乘积与累加数据寄存器的数据相加获得和,所述加法器将所述和输入南侧矩阵乘法加速核心的累加数据寄存器。
一种高效的矩阵乘运算加速方法,使用如前述的一种高效的矩阵乘运算加速装置,包括以下步骤:
步骤1)配置运算模式,设置运算单元的运算精度配置;
步骤2)北向数据加载器预加载北向数据,将北向数据加载到相应的矩阵乘法加速核心的北向数据影子寄存器中;
步骤3)西向数据整形与加载器加载携带北向数据更新使能的西向数据,使西向数据流动至对应的矩阵乘法加速核心时,能够将对应矩阵乘法加速核心的北向数据影子寄存器中的北向数据加载至北向数据寄存器;
步骤4)运算单元实现乘法运算,将乘法运算结果与累加数据寄存器求和后,将和传输至南侧累加数据寄存器;
步骤5)西向数据整形与加载器加载再次加载西向数据,同时北向数据加载器再次预加载北向数据至北向数据影子寄存器;
步骤6)不断重复步骤4)至步骤5),直到全部西向数据被加载并流动完成;
步骤7)累加结果写回控制器读取累加缓冲器内的数据,即为矩阵乘法结果,并矩阵乘法结果回写至本地局部存储器存储。
作为优选,在步骤3)中,西向数据整形与加载器对西向数据进行整形,整形方法为将西向数据的每行数据向左移动N-1列,N为行序号。
作为优选,所述运算单元的运算精度配置包括:半精度浮点混合乘加模式、半字定点混合乘加模式和双字节定点混合乘加模式。
作为优选,当矩阵乘法加速单元用于训练时,将运算单元的运算精度配置为半精度浮点混合乘加模式,当矩阵乘法加速单元用于预测时,将运算单元的运算精度配置为双字节定点混合乘加模式。
本发明的有益技术性效果包括:1)北向数据可以预加载,掩盖延迟,北向数据可以在西向数据流动时预先加载,通过影子寄存器传输,掩盖北向数据加载延迟,而不必等到北向数据加载完毕再流动西向数据,在西向数据流驱动运算的同时预加载北向数据,充分发挥加速性能;2)固定北向数据,增加数据重用性,由于北向数据可以预先加载,锁存至对应北向数据影子寄存器中,西向数据携带北向数据更新使能从西向东流动,北向更新使能到达运算单元后将影子寄存器中的数据更新至北向数据寄存器后锁存不动,通过加载多轮西向数据实现卷积运算和矩阵乘法运算加速,充分利用卷积核的可重用性,减少了北向数据的重复读取和无效缓存,降低缓存带宽需求;3)减少数据流动,降低功耗,由于北向数据固定缓存在北向数据影子寄存器中,利用数据可重用性减少流动,包括北向数据的重复读取和无效缓存,减少了本地局部存储器存取操作和寄存器锁存,降低了功耗,矩阵乘法加速单元的阵列规模越大,效果越明显。
本发明的其他特点和优点将会在下面的具体实施方式、附图中详细的揭露。
附图说明
下面结合附图对本发明做进一步的说明:
图1为本发明实施例的矩阵乘运算加速装置结构示意图。
图2为本发明实施例的矩阵乘法加速单元结构示意图。
图3为本发明实施例的矩阵乘法加速核心结构示意图。
图4为本发明实施例进行矩阵乘运算示意图。
图5为本发明实施例进行矩阵乘运算过程示意图。
图6为本发明实施例矩阵乘运算加速方法流程示意图。
其中:1、本地局部存储器,2、西向数据整形与加载器,3、北向数据加载器,4、矩阵乘法加速单元,5、累加结果写回控制器,6、累加缓冲器,41、北向数据影子寄存器,42、北向数据寄存器,43、累加数据寄存器,44、北向更新使能寄存器,45、运算模式配置信号线,46、西向数据寄存器,47、乘法器,48、加法器。
具体实施方式
下面结合本发明实施例的附图对本发明实施例的技术方案进行解释和说明,但下述实施例仅为本发明的优选实施例,并非全部。基于实施方式中的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得其他实施例,都属于本发明的保护范围。
在下文描述中,出现诸如术语“内”、“外”、“上”、“下”、“左”、“右”等指示方位或者位置关系仅是为了方便描述实施例和简化描述,而不是指示或暗示所指的装置或者元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
名称解释:矩阵乘法加速单元(Matrix Multiply Accelerating Unit,简称MMAU)、北向数据加载器、西向数据整形与加载器、累加器缓冲器(Accumulation Buffer,简称ACMB)、累加结果写回控制器和本地局部存储器(Local Data Memory,简称LDM)、运算单元(Computing Unit,简称CU)。
本实施例所称北向和西向,以矩阵的上北下南及左西右东进行明确。
一种高效的矩阵乘运算加速装置,请参阅附图1,包括矩阵乘法加速单元4、北向数据加载器3、西向数据整形与加载器2、累加缓冲器6、累加结果写回控制器5和本地局部存储器1,请参阅附图2,矩阵乘法加速单元4包括呈二维脉动阵列排列的矩阵乘法加速核心,矩阵乘法加速核心包括运算单元和数据调度单元,相邻矩阵乘法加速核心之间由数据调度单元建立数据交换通道,矩阵乘法加速单元4通过北向数据加载器3从本地局部存储器1获取北向数据,北向数据为卷积核,北向数据在矩阵乘法加速单元4中由数据调度单元调度从北向南依次流动,西向数据整形与加载器2从本地局部存储器1获取西向数据并整形,西向数据为图片矩阵,西向数据在矩阵乘法加速单元4中由数据调度单元调度从西向东依次流动,北向数据及西向数据在流动过程中,矩阵乘法加速核心的运算单元进行乘加运算,乘加结果由北向南传输并最终输入至累加缓冲器6,累加缓冲器6进行累加并暂存中间结果,全部运算结束后,累加结果写回控制器5将累加缓冲器6内的累加结果写入本地局部存储器1进行存储。累加缓冲器6包括若干个缓存器,每个缓存器对应矩阵乘法加速单元4的一列。
请参阅附图3,矩阵乘法加速核心的数据调度单元包括北向数据影子寄存器41、北向数据寄存器42、累加数据寄存器43、北向更新使能寄存器44、西向数据寄存器46和运算模式配置信号线45,北向数据影子寄存器41与北向数据加载器3或者北侧数据调度单元的北向数据影子寄存器41连接,北向数据寄存器42与北向数据影子寄存器41连接,北向更新使能寄存器44与北向数据寄存器42连接,同一行北向更新使能寄存器44相互连接,西向数据寄存器46与同一行运算模式配置信号线45与运算单元连接,同一行西向数据寄存器46相互连接,运算单元与西向数据寄存器46、北向数据寄存器42及累加数据寄存器43连接,运算单元的计算结果输入南侧矩阵乘法加速核心的累加数据寄存器43。
矩阵乘法加速核心的运算单元包括乘法器47和加法器48,乘法器47将北向数据寄存器42和西向数据寄存器46内的数据相乘获得乘积,加法器48将乘积与累加数据寄存器43的数据相加获得和,加法器48将和输入南侧矩阵乘法加速核心的累加数据寄存器43。
请参阅附图4和附图5,为一个4*4脉动阵列的实例,西向数据为4*4图片矩阵X,北向数据为4个2*2的卷积核A、B、C、D。
西向数据为:
Figure BDA0003822354550000051
北向数据为:
Figure BDA0003822354550000052
T0~T4为各时钟周期下数据流图,右侧的为脉动阵列运算单元缓存数据,左侧为整形缓冲中缓存的整形后的西向数据:
在T0时钟周期完成北向数据加载,即将各个卷积核按列预先加载到MMAU各CU的北向数据影子寄存器41中,随后固定保持不变;
在T1时钟周期,经过整形后的西向数据x00传输至MMAU的西北角CU,同时与更新的北向数据a00完成乘法运算,得到乘法结果a00*x00并传输给南侧CU;
在T2时钟周期,西向数据x01和x10传输至MMAU的最西侧一列的最北两个CU,其中x01与a01完成乘法运算,x10与a01完成乘法运算并实现与北侧CU传输进来T1时钟周期的计算结果a00*x00进行累加得到累加结果a00*x00+a01*x01;同时,西向数据x00传输到b00北向数据CU,并完成乘法运算,将结果x00*b00传输往南侧CU传输;
依次类推…
直至T4时钟周期,x10/x03/x11/x11西侧数据传输至MMAU最西侧一列CU,在西南角CU内完成乘加运算得到累加结果a11*x11+(a00*x00+a01*x01+a0*x11),其中括号内结果为北侧CU传入的中间累加结果,至此,完成了卷积核A与X左上角2*2分块矩阵的卷积操作第一个元素y00的计算:
Figure BDA0003822354550000061
一种高效的矩阵乘运算加速方法,使用如前述的一种高效的矩阵乘运算加速装置,请参阅附图6,包括以下步骤:
步骤1)配置运算模式,设置运算单元的运算精度配置;
步骤2)北向数据加载器3预加载北向数据,将北向数据加载到相应的矩阵乘法加速核心的北向数据影子寄存器41中;
步骤3)西向数据整形与加载器2加载携带北向数据更新使能的西向数据,使西向数据流动至对应的矩阵乘法加速核心时,能够将对应矩阵乘法加速核心的北向数据影子寄存器41中的北向数据加载至北向数据寄存器42;
步骤4)运算单元实现乘法运算,将乘法运算结果与累加数据寄存器43求和后,将和传输至南侧累加数据寄存器43;
步骤5)西向数据整形与加载器2加载再次加载西向数据,同时北向数据加载器3再次预加载北向数据至北向数据影子寄存器41;
步骤6)不断重复步骤4)至步骤5),直到全部西向数据被加载并流动完成;
步骤7)累加结果写回控制器5读取累加缓冲器6内的数据,即为矩阵乘法结果,并矩阵乘法结果回写至本地局部存储器1存储。
在步骤3)中,西向数据整形与加载器2对西向数据进行整形,整形方法为将西向数据的每行数据向左移动N-1列,N为行序号。
运算单元的运算精度配置包括:半精度浮点混合乘加模式、半字定点混合乘加模式和双字节定点混合乘加模式。半精度浮点混合乘加模式为:16位半精度*16位半精度+32位单精度浮点,结果为32位单精度浮点。半字定点混合乘加模式为:16位半字定点*16位半字定点+32位字定点,结果为32位字定点。双字节定点混合乘加模式为:可同时执行两个:8位字节定点*8位字节定点+16位半字定点,结果为两个16位半字定点。
当矩阵乘法加速单元4用于训练时,将运算单元的运算精度配置为半精度浮点混合乘加模式,当矩阵乘法加速单元4用于预测时,将运算单元的运算精度配置为双字节定点混合乘加模式。
本实施例的有益技术性效果包括:1)北向数据可以预加载,掩盖延迟,北向数据可以在西向数据流动时预先加载,通过影子寄存器传输,掩盖北向数据加载延迟,而不必等到北向数据加载完毕再流动西向数据,在西向数据流驱动运算的同时预加载北向数据,充分发挥加速性能;2)固定北向数据,增加数据重用性,由于北向数据可以预先加载,锁存至对应北向数据影子寄存器41中,西向数据携带北向数据更新使能从西向东流动,北向更新使能到达运算单元后将影子寄存器中的数据更新至北向数据寄存器42后锁存不动,通过加载多轮西向数据实现卷积运算和矩阵乘法运算加速,充分利用卷积核的可重用性,减少了北向数据的重复读取和无效缓存,降低缓存带宽需求;3)减少数据流动,降低功耗,由于北向数据固定缓存在北向数据影子寄存器41中,利用数据可重用性减少流动,包括北向数据的重复读取和无效缓存,减少了本地局部存储器1存取操作和寄存器锁存,降低了功耗,矩阵乘法加速单元4的阵列规模越大,效果越明显。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,熟悉该本领域的技术人员应该明白本发明包括但不限于附图和上面具体实施方式中描述的内容。任何不偏离本发明的功能和结构原理的修改都将包括在权利要求书的范围中。

Claims (8)

1.一种高效的矩阵乘运算加速装置,其特征在于,
包括矩阵乘法加速单元、北向数据加载器、西向数据整形与加载器、累加缓冲器、累加结果写回控制器和本地局部存储器,
矩阵乘法加速单元包括呈二维脉动阵列排列的矩阵乘法加速核心,所述矩阵乘法加速核心包括运算单元和数据调度单元,相邻矩阵乘法加速核心之间由数据调度单元建立数据交换通道,矩阵乘法加速单元通过北向数据加载器从所述本地局部存储器获取北向数据,所述北向数据为卷积核,所述北向数据在矩阵乘法加速单元中由数据调度单元调度从北向南依次流动,所述西向数据整形与加载器从本地局部存储器获取西向数据并整形,所述西向数据为图片矩阵,所述西向数据在矩阵乘法加速单元中由数据调度单元调度从西向东依次流动,所述北向数据及西向数据在流动过程中,所述矩阵乘法加速核心的运算单元进行乘加运算,乘加结果由北向南传输并最终输入至累加缓冲器,所述累加缓冲器进行累加并暂存中间结果,全部运算结束后,所述累加结果写回控制器将所述累加缓冲器内的累加结果写入本地局部存储器进行存储。
2.根据权利要求1所述的一种高效的矩阵乘运算加速装置,其特征在于,
所述累加缓冲器包括若干个缓存器,每个缓存器对应所述矩阵乘法加速单元的一列。
3.根据权利要求1或2所述的一种高效的矩阵乘运算加速装置,其特征在于,
所述矩阵乘法加速核心的数据调度单元包括北向数据影子寄存器、北向数据寄存器、累加数据寄存器、北向更新使能寄存器、西向数据寄存器和运算模式配置信号线,所述北向数据影子寄存器与北向数据加载器或者北侧数据调度单元的北向数据影子寄存器连接,所述北向数据寄存器与北向数据影子寄存器连接,所述北向更新使能寄存器与北向数据寄存器连接,同一行北向更新使能寄存器相互连接,所述西向数据寄存器与同一行所述运算模式配置信号线与运算单元连接,同一行西向数据寄存器相互连接,所述运算单元与西向数据寄存器、北向数据寄存器及累加数据寄存器连接,所述运算单元的计算结果输入南侧矩阵乘法加速核心的累加数据寄存器。
4.根据权利要求3所述的一种高效的矩阵乘运算加速装置,其特征在于,
所述矩阵乘法加速核心的运算单元包括乘法器和加法器,所述乘法器将北向数据寄存器和西向数据寄存器内的数据相乘获得乘积,所述加法器将所述乘积与累加数据寄存器的数据相加获得和,所述加法器将所述和输入南侧矩阵乘法加速核心的累加数据寄存器。
5.一种高效的矩阵乘运算加速方法,使用如权利要求1至4任一项所述的一种高效的矩阵乘运算加速装置,其特征在于,
包括以下步骤:
步骤1)配置运算模式,设置运算单元的运算精度配置;
步骤2)北向数据加载器预加载北向数据,将北向数据加载到相应的矩阵乘法加速核心的北向数据影子寄存器中;
步骤3)西向数据整形与加载器加载携带北向数据更新使能的西向数据,使西向数据流动至对应的矩阵乘法加速核心时,能够将对应矩阵乘法加速核心的北向数据影子寄存器中的北向数据加载至北向数据寄存器;
步骤4)运算单元实现乘法运算,将乘法运算结果与累加数据寄存器求和后,将和传输至南侧累加数据寄存器;
步骤5)西向数据整形与加载器加载再次加载西向数据,同时北向数据加载器再次预加载北向数据至北向数据影子寄存器;
步骤6)不断重复步骤4)至步骤5),直到全部西向数据被加载并流动完成;
步骤7)累加结果写回控制器读取累加缓冲器内的数据,即为矩阵乘法结果,并矩阵乘法结果回写至本地局部存储器存储。
6.根据权利要求5所述的一种高效的矩阵乘运算加速方法,其特征在于,
在步骤3)中,西向数据整形与加载器对西向数据进行整形,整形方法为将西向数据的每行数据向左移动N-1列,N为行序号。
7.根据权利要求5或6所述的一种高效的矩阵乘运算加速方法,其特征在于,
所述运算单元的运算精度配置包括:半精度浮点混合乘加模式、半字定点混合乘加模式和双字节定点混合乘加模式。
8.根据权利要求7所述的一种高效的矩阵乘运算加速方法,其特征在于,
当矩阵乘法加速单元用于训练时,将运算单元的运算精度配置为半精度浮点混合乘加模式,当矩阵乘法加速单元用于预测时,将运算单元的运算精度配置为双字节定点混合乘加模式。
CN202211045832.6A 2022-08-30 2022-08-30 一种高效的矩阵乘运算加速装置及方法 Pending CN115357854A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211045832.6A CN115357854A (zh) 2022-08-30 2022-08-30 一种高效的矩阵乘运算加速装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211045832.6A CN115357854A (zh) 2022-08-30 2022-08-30 一种高效的矩阵乘运算加速装置及方法

Publications (1)

Publication Number Publication Date
CN115357854A true CN115357854A (zh) 2022-11-18

Family

ID=84005127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211045832.6A Pending CN115357854A (zh) 2022-08-30 2022-08-30 一种高效的矩阵乘运算加速装置及方法

Country Status (1)

Country Link
CN (1) CN115357854A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116861149A (zh) * 2023-09-05 2023-10-10 之江实验室 卷积运算的优化方法、装置及处理器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116861149A (zh) * 2023-09-05 2023-10-10 之江实验室 卷积运算的优化方法、装置及处理器
CN116861149B (zh) * 2023-09-05 2024-01-09 之江实验室 卷积运算的优化方法、装置及处理器

Similar Documents

Publication Publication Date Title
CN107832082B (zh) 一种用于执行人工神经网络正向运算的装置和方法
CN106991477B (zh) 一种人工神经网络压缩编码装置和方法
CN106940815B (zh) 一种可编程卷积神经网络协处理器ip核
CN108090560A (zh) 基于fpga的lstm递归神经网络硬件加速器的设计方法
CN111325321B (zh) 基于多神经网络融合的类脑计算系统及指令集的执行方法
CN110543939B (zh) 一种基于fpga的卷积神经网络后向训练的硬件加速实现装置
CN106228238A (zh) 现场可编程门阵列平台上加速深度学习算法的方法和系统
CN112703511B (zh) 运算加速器和数据处理方法
CN112836813B (zh) 一种用于混合精度神经网络计算的可重构脉动阵列系统
US11983616B2 (en) Methods and apparatus for constructing digital circuits for performing matrix operations
EP3709225A1 (en) System and method for efficient utilization of multipliers in neural-network computations
CN115357854A (zh) 一种高效的矩阵乘运算加速装置及方法
CN110377874B (zh) 卷积运算方法及系统
CN113313252B (zh) 一种基于脉动阵列的深度可分离卷积实现方法
CN109948787B (zh) 用于神经网络卷积层的运算装置、芯片及方法
CN113240074B (zh) 一种可重构神经网络处理器
Mayannavar et al. Hardware Accelerators for Neural Processing
CN115081600A (zh) 执行Winograd卷积的变换单元、集成电路装置及板卡
CN115357215A (zh) 一种支持累加及卸载的矩阵乘运算脉动阵列系统
CN115470449A (zh) 一种矩阵乘运算脉动阵列装置及区间配置累加方法
CN115329263A (zh) 一种支持低开销北向数据加载的矩阵乘运算脉动阵列装置
CN115329264A (zh) 一种支持单步调试的矩阵乘运算脉动阵列装置及调试方法
CN113988280B (zh) 一种基于二值化神经网络的阵列计算加速器架构
US12008463B2 (en) Methods and apparatus for accessing external memory in a neural network processing system
US20230023859A1 (en) Methods and Apparatus for Accessing External Memory in a Neural Network Processing System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination