CN110147347A - 用于矩阵处理的芯片、矩阵处理方法、装置及存储介质 - Google Patents

用于矩阵处理的芯片、矩阵处理方法、装置及存储介质 Download PDF

Info

Publication number
CN110147347A
CN110147347A CN201910203485.7A CN201910203485A CN110147347A CN 110147347 A CN110147347 A CN 110147347A CN 201910203485 A CN201910203485 A CN 201910203485A CN 110147347 A CN110147347 A CN 110147347A
Authority
CN
China
Prior art keywords
matrix
multiplicand matrix
multiplicand
group
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910203485.7A
Other languages
English (en)
Other versions
CN110147347B (zh
Inventor
于潇宇
王玉伟
章恒
高剑林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910203485.7A priority Critical patent/CN110147347B/zh
Publication of CN110147347A publication Critical patent/CN110147347A/zh
Application granted granted Critical
Publication of CN110147347B publication Critical patent/CN110147347B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/80Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors
    • G06F15/8053Vector processors
    • G06F15/8061Details on data memory access
    • G06F15/8069Details on data memory access using a cache

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种用于矩阵处理的芯片、矩阵处理方法、装置及存储介质,属于计算机技术领域。所述方法包括:读取乘数矩阵,并将乘数矩阵存储到每个PE群组的每个PE中;读取被乘数矩阵,并将被乘数矩阵的不同行向量分别存储到不同PE群组的每个PE内;在同一PE群组内,将被乘数矩阵的行向量与乘数矩阵的不同列向量相乘,得到PE群组内的相乘结果;根据不同PE群组内的相乘结果,确定被乘数矩阵与乘数矩阵的结果矩阵。本发明通过在PE群组间复用乘数矩阵,在PE群组内复用被乘数矩阵的行向量,从而在处理较大规模的矩阵乘法任务时,能够调用更多的资源,提高了计算效率,缩短了计算时间。

Description

用于矩阵处理的芯片、矩阵处理方法、装置及存储介质
技术领域
本发明涉及计算机技术领域,特别涉及一种用于矩阵处理的芯片、矩阵处理方法、装置及存储介质。
背景技术
在计算机技术领域,矩阵乘法作为数据处理中典型的算法,被广泛应用于深度学习的各种网络中,包括LSTM(Long Short-Term Memory,长短期记忆)、RNN(RecurrentNeural Network,循环神经网络)等。对于规模较大的矩阵相乘任务,由于涉及到大量的乘法和加法运算,需要占用大量的计算时间。因此,如何对深度学习中的矩阵进行处理,以对矩阵计算进行加速,成为本领域技术人员较为关注的问题。
对于被乘数矩阵(记为矩阵A)与乘数矩阵B(记为矩阵B),相关技术主要采用如下方法进行处理:
(1)、读取矩阵A和矩阵B,并获取矩阵B对应的转置矩阵BT,通过DMA(DirectMemory Access,直接内存存取)控制器将矩阵A和转置矩阵BT按行存储到相应的向量存储单元中。
(2)、将矩阵A的一行元素和转置矩阵BT的一行元素加载到处理单元中并一一对应相乘,将相乘结果在指定的并行处理单元中归约求和,并将求和结果作为结果矩阵的一个元素存储到向量存储单元中。
(3)、顺移到转置矩阵BT的下一行,重复步骤(2)、(3),直至完成矩阵A的一行和转置矩阵BT所有行的计算,计算得到结果矩阵C的一行元素。
(4)、顺移到矩阵A的下一行,重复步骤(2)、(3)、(4),直至完成矩阵A所有行的计算,得到结果矩阵C的所有行元素。
然而,由于每次只能加载矩阵一行元素,调用资源较少,因而在实现较大规模的矩阵相乘时,计算效率较低、计算时间较长。
发明内容
为了解决相关技术的问题,本发明实施例提供了一种用于矩阵处理的芯片、矩阵处理方法、装置及存储介质。所述技术方案如下:
一方面,提供了一种用于矩阵处理的芯片,所述芯片包括:数据通道、控制通道、PE(Processing Element,处理元件)接口、PE群组阵列;
所述数据通道用于读取待计算的被乘数矩阵和乘数矩阵;
所述控制通道用于对所述PE群组阵列的计算进行控制;
所述PE接口用于从所述数据通道中读取被乘数矩阵和乘数矩阵;
所述PE群组阵列包括多个PE群组,多个PE群组间复用同一乘数矩阵,每个PE群组内复用被乘数矩阵的不同行向量,所述PE群组阵列用于实现被乘数矩阵与乘数矩阵之间的乘法计算。
另一方面,提供了一种矩阵处理方法,其特征在于,所述矩阵处理方法应用于一方面所述的用于矩阵处理的芯片,所述方法包括:
读取乘数矩阵,并将所述乘数矩阵存储到每个PE群组的每个PE中;
读取被乘数矩阵,并将所述被乘数矩阵的不同行向量分别存储到不同PE群组的每个PE内;
在同一PE群组内,将所述被乘数矩阵的行向量与所述乘数矩阵的不同列向量相乘,得到所述PE群组内的相乘结果;
根据不同PE群组内的相乘结果进行累加,确定所述被乘数矩阵与所述乘数矩阵的结果矩阵。
另一方面,提供一种矩阵处理装置,所述矩阵处理装置设置于一方面所述的用于矩阵处理的芯片中,所述装置包括:
读取模块,用于读取乘数矩阵;
存储模块,用于将所述乘数矩阵存储到每个PE群组的每个PE中;
所述读取模块,用于读取被乘数矩阵;
所述存储模块,用于将所述被乘数矩阵的不同行向量分别存储到不同PE群组的每个PE内;
相乘模块,用于在同一PE群组内,将所述被乘数矩阵的行向量与所述乘数矩阵的不同列向量相乘,得到所述PE群组内的相乘结果;
确定模块,用于根据不同PE群组内的相乘结果,确定所述被乘数矩阵与所述乘数矩阵的结果矩阵。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由所述处理器加载并执行以实现矩阵处理方法。
另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由处理器加载并执行以实现矩阵处理方法。
本发明实施例提供的技术方案带来的有益效果是:
通过在PE群组间复用乘数矩阵,在PE群组内复用被乘数矩阵的行向量,从而在处理较大规模的矩阵乘法任务时,能够调用更多的资源,提高了计算效率,缩短了计算时间。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种用于矩阵处理的芯片的架构图;
图2是本发明实施例提供的一种PE群组的架构图;
图3是本发明实施例提供的一种PE的结构图;
图4是本发明实施例提供的UltraScale系列FPGA MAC Tile底层结构;
图5是本发明实施例提供的一种矩阵处理方法的流程图;
图6是本发明实施例提供的一种被乘数矩阵读取过程的示意图;
图7是本发明实施例提供的一种矩阵A与矩阵B相乘过程的示意图;
图8是本发明实施例提供的矩阵处理装置的结构示意图;
图9示出了本发明一个示例性实施例提供的矩阵处理终端900的结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
采用传统的CPU(Central Processing Unit,中央处理器)处理矩阵相乘任务时,常伴随着计算周期长、延迟大等缺点,限制了处理器的响应速度。相对于传统的CPU,GPU(Graphics Processing Unit,图形处理器)采用多层架构结合多级缓存的设计架构,数千个计算核同时计算,可实现高性能的矩阵运算,然而,由于GPU的计算核与计算核之间的计算顺序以及存储器访问顺序,主要依赖于计算核各自的执行情况,其计算具有不确定性,因此,在计算过程中经常存在带宽竞争,不仅会造成较高的计算延迟,而且计算成本也较高。
为了解决传统的CPU及GPU在计算过程中存在的问题,本发明实施例提供了一种用于矩阵处理的芯片,该芯片可以用于FPGA(Field-ProgrammableGate Array,现场可编程门阵列)和芯片的矩阵处理计算框架。该芯片通过PE群组-PE-MAC的三级调度,同时调用大量的计算核并行计算,并在群组内及群组间实现数据复用,从而能够高效的大规模矩阵进行处理。
本发明实施例提供的用于矩阵处理的芯片架构在设计时,需要考虑以下几方面问题,并提供相应的解决方法:
第一、加载数据复用率问题。为了提升加载数据复用率,本发明实施例将计算任务合理地进行分配,使被乘数矩阵和乘数矩阵均能实现一定的数据复用率,从而减少数据的片外加载次数。
第二、计算中的数据复用率问题。本发明实施例复用计算中的数据,从而降低计算过程对RAM(Random Access Memory,随机存取存储器)的依赖。
第三、矩阵转置问题。为了提高带宽利用率,高效读取乘数矩阵,本发明实施例取代低效的矩阵转置操作,采用高带宽数据分发方式,按行读取乘数矩阵,按列分发至各个PE。
第四、布线压力问题。考虑到芯片架构中部署了大量的MAC(MultiplyAndAccumulator,乘累加器),每个MAC的计算数据都来自DDR(Double Data Rate,双倍速率)存储器,为了保证每个MAC均能提供数据路径,需要在每个MAC与DDR之间进行布线。如果将每个MAC都直接与DDR进行连接,则MAC与DDR需要部署的线路较多,布线压力非常大。本发明实施设计了三级架构:PE群组-PE-MAC,并采用三级调度的方式,每个MAC无需与DDR直接连接,通过与上级的PE连接,每个PE与上级的PE群组连接,从而大大减小了布线数量,降低了布线压力。
第五、计算粒度与MAC利用率问题。在计算过程中,每个PE的计算粒度非常重要,当PE本地未设置控制器,完全依赖全局主控单元调度时,对于不同规模的计算任务,MAC的利用率无法保证。为了提升MAC的利用率,本发明实施例在每个PE本地部署控制器,从而能够基于PE本地的控制器对MAC进行控制,以保证MAC的利用率。
本发明实施例提供了一种用于矩阵处理的芯片,该芯片包括:数据通道、控制通道、PE接口、PE群组阵列。
其中,数据通道用于读取待计算的被乘数矩阵和乘数矩阵;
控制通道用于对PE群组阵列的计算进行控制;
PE接口用于从所述数据通道中读取被乘数矩阵和乘数矩阵;
PE群组阵列包括多个PE群组,多个PE群组间复用同一乘数矩阵,每个PE群组内复用被乘数矩阵的不同行向量,PE群组阵列用于实现被乘数矩阵与乘数矩阵之间的乘法计算。
基于本发明实施例提供的用于矩阵处理的芯片,图1示出了FPGA(KU115)架构。参见图1,该FPGA包括数据通道、控制通道、PE接口及PE群组阵列。
数据通道包括读缓存(Buffer Rd)、写缓存(Buffer Wr)、内存访问接口(MemoryAccess Interface)、DDR存储器及用户AXI总线(User AXI Master)。其中,读缓存可以存储32*512bit的数据,写缓存可以存储128*384bit的数据。DDR存储器包括AXI读总线、AXI写总线及输入输出DDR桥AXI总线(IO DDRBridge AXI)。数据通道可采用多存储器位宽扩展方式,按行读取乘数矩阵,并通过PE接口将所读取的乘数矩阵按列分发至每个PE群组的每个PE中。
控制通道包括控制器(Controller)、寄存器文件(Cfg_Register File)、配置参数接口(Cfg)及用户AXL从线(User AXI–Lite Slave)。
PE群组阵列(PE Group Array)包括32个PE群组(PE Group),32个PE群组分为4行进行部署,每行8个PE群组,且行与行之间具有一定的间隔(即PE Group Channel)。
基于图1所示的框架,矩阵处理过程为:
1、CPU通过PCIE总线将待计算的乘数矩阵和被乘数矩阵写入DDR存储器中。
2、从寄存器文件中读取所写入乘数矩阵和被乘数矩阵的矩阵尺寸。
3、根据矩阵尺寸及PE群组的架构,通过实时计算寻优,获取PE动态配置信息和底层指令,包括各个模块(包括PE群组、群组内PE、PE内的MAC)的使能信号、循环次数、数据尺寸信息(例如,乘数矩阵的行列尺寸、被乘数矩阵的列尺寸)、数据分配方式(例如,乘数矩阵的复用次数),并将所获取的PE动态配置信息和底层指令存入FIFO(First Input FirstOutput,先进先出)存储器中。基于PE动态配置信息中所包括的信息可以看出,该PE动态配置信息用于从PE群组阵列中选择出参与计算的PE群组以及确定是否需要对乘数矩阵和被乘数矩阵进行分块。
4、PE Interface接收底层指令,从DDR存储器中读取乘数矩阵,根据PE动态配置信息中的乘数矩阵的矩阵尺寸确定是否对其进行分块,若乘数矩阵的行尺寸小于第一预设尺寸(例如256),列尺寸小于第二预设尺寸(例如128),则无需对乘数矩阵进行分块,直接读取该乘数矩阵。当读取完乘数矩阵,按行读取被乘数矩阵。在读取被乘数矩阵时,可根据PE动态配置信息中的被乘数矩阵的列数确定是否对其进行分块,若被乘数矩阵的列尺寸小于第一预设尺寸(例如256),则无需对被乘数矩阵进行分块,直至读取该被乘数矩阵的每一行。
5、在同一PE群组内,将被乘数矩阵的行向量与乘数矩阵的不同列向量相乘,得到PE群组内的相乘结果。将不同PE群组内的相乘结果进行合并,得到被乘数矩阵与乘数矩阵的结果矩阵。
6、若乘数矩阵的矩阵尺寸大于预设尺寸(例如,256*128),则对乘数矩阵进行分块,得到多个乘数矩阵子阵,读取乘数矩阵子阵。若被乘数矩阵的列数大于预设数值,则对被乘数矩阵进行分块,得到多个被乘数矩阵子阵,并读取被乘数矩阵子阵。根据乘数矩阵子阵和被乘数矩阵子阵进行计算,并将计算结果进行累加及合并,得到被乘数矩阵与乘数矩阵的结果矩阵。
在本发明实施例中,每个PE中用于存储被乘数矩阵(或被乘数矩阵子阵)的RAM支持pingpong存储,基于pingpong存储方式,可以在计算的过程中加载下一批数据,实际上相当于计算和数据搬移并行。以PE中存储被乘数矩阵子阵为例,当计算完一个被乘数矩阵之后,下一个被乘数矩阵子阵的数据可能已经加载完成,或尚未加载,对于下一被乘数矩阵子阵的加载结果,主要取决于DDR可提供的数据带宽。在计算过程中,当下一个被乘数矩阵子阵中的行向量及乘数矩阵子阵的数据完成加载后再开始下一次计算。
在本发明实施例中PE群组阵列包括多个PE群组,每个PE群组内存储有被乘数矩阵的不同行向量及乘数矩阵,每个PE群组包括第一控制器、多个PE、第一结果缓存器及累加器。
其中,第一控制器(如图2中的Controller)用于对PE群组内的计算进行控制;
同一PE群组的每个PE内存储有被乘数矩阵的相同行向量及乘数矩阵的不同列向量,每个PE用于将被乘数矩阵的一行向量与乘数矩阵中的每列向量相乘;
第一结果缓存器(如图2中的Asse_Rlt_MEM)用于缓存PE群组内多个PE的计算结果;
累加器(如图2中的Single Reduce Adder)用于对第一结果缓存器中多个PE的计算结果进行累加。
基于本发明实施例所提供的用于矩阵处理的芯片,图2示出了芯片中PE群组的架构图。参见图2,PE群组包括第一控制器(Controller)、8个PE、结果缓存器(Asse_Rlt_MEM)、单个累加器(Single Reduce Adder)。
第一控制器根据PE动态配置信息所选择出的参与计算的PE群组及对乘数矩阵和被乘数矩阵的分块情况,确定出对参与计算的PE群组的控制参数,进而基于控制参数对该PE群组内的计算进行控制。其中,第一控制器的控制参数包括是否为首次运行(确定是否使能累加器)、MAC使能数量、乘数矩阵(或乘数矩阵子阵)的有效列数、被乘数矩阵的行向量长度(即累加次数)。基于第一控制器的控制参数中所包括的信息可以看出,该第一控制器的控制参数用于确定出PE群组内参与计算的PE,并对该PE的计算进行控制。
每个PE包括16个MAC,每个PE群组包含128个MAC。
Asse_Rlt_MEM缓存中间计算结果,其输入带宽为48bit,输出带宽为48bit。
PE群组与DDR的数据缓存出口直接连接,输入为DDR存储器中的是数据,输出为Asse_Rlt_MEM缓存的中间计算结果。在控制端,第一控制器对8个PE的使能进行控制,8个PE的使能为流水方式,每个周期使能一个PE;在输出端,中间计算结果按照流水方式逐一输出,采用单个累加器进行累加,可实现子阵结果的累加操作。另外,由于PE群组具备单独的第一控制器,能够复用被乘数矩阵的行向量数据接口传递指令,因而可以减少布线资源的占用。
在本发明实施例中每个PE包括第二控制器、多个数字信号处理MAC、多个乘数矩阵存储单元、第二结果缓存器及被乘数矩阵向量存储单元。
其中,第二控制器(如图3中的Controller)用于对PE内的计算进行控制;
每个MAC用于将被乘数矩阵的一行向量与乘数矩阵子阵的一列向量相乘,多个MAC构成多组MAC,多组MAC共享一个乘数矩阵存储单元;
每个乘数矩阵存储单元(如图3中的Matrix_B_MEM)用于存储乘数矩阵中至少一列向量;
第二结果缓存器(如图3中的Rlt_MEM)用于缓存每个MAC的计算结果;
被乘数矩阵向量存储单元(如图3中的Vector_A_MEM)包括ping地址和pong地址,ping地址和pong地址用于存储被乘数矩阵的至少一行向量。
图3为图2所示的PE群组中PE的架构图,该架构结合了KU115底层结构,将资源和布线集中在一定范围内。参见图3,PE包括1个第二控制器(Controller)、16个MAC、2个乘数矩阵存储单元(Matrix_B_MEM)、1个结果缓存器(Rlt_MEM)及1个被乘数矩阵存储单元(Vector_A_MEM)。
其中,第二控制器的功能体现在参数配置和状态交互两方面。在参数配置方面,第二控制器根据第一控制器所确定的参与计算的PE,配置该PE的控制参数,该控制参数包括MAC使能数量、Matrix_B_MEM中乘数矩阵子阵的有效列数、被乘数矩阵的行向量的长度(即累加次数)等,实际上,该控制参数可用于确定出PE内参与计算的MAC,并对每个MAC的计算进行控制;在状态交互方面,第二控制器能够控制计算开始、结束done信号、Ping-Pong是否有效、当前PE状态等。
16个MAC分为8组,每个组包括2个MAC。8组MAC共用Matrix_A_MEM所存储的被乘矩阵中的向量,以实现单PE内8倍的向量数据的复用。每4组MAC共享一个Matrix_B_MEM及16Bit*8的数据带宽。图4示出了KU115中MAC和RAM的匹配结构,由图4可以看出,2个MAC对应一个36K的RAM,通常当一个PE的16个MAC中消耗的36kbit RAM资源少于8个,即可在局部完成布局布线,而无需在区域外寻求RAM资源。当前,在一个PE中消耗36Kbit的RAM的MAC数量为5个。
Rlt_MEM的输入带宽为48bit,输出带宽为48bit。
Vector_A_MEM的输入带宽为64bit,输出带宽为64bit。Vector_A_MEM为地址Ping-Pong结构,可在计算过程中进行数据加载,使得数据计算过程与数据加载过程同步执行。
通过采用上述设计,可将MAC和RAM的资源占用限定在较小的区域内,并在所限定的区域内完成布线,形成一个逻辑区域,以避免一个PE的内部走线布局到其他PE对应的逻辑区域,从而降低不同PE之间的布线干扰,提高布局布线的通过率,达到较高的运行频率。
本发明实施例的应用场景:
深度学习的计算常面临算力瓶颈和带宽瓶颈的问题,在CNN架构中,由于卷积可以通过多种复用模式实现每个权值上千次的数据复用,其瓶颈在于算力;但对于LSTM等模型,矩阵相乘的数据复用率本就不高,内部缓冲的容量限制进一步降低了数据复用率,其瓶颈在于带宽。尤其对于向量-矩阵乘,使乘数矩阵的每一列只能使用一次。这使得带宽瓶颈对吞吐的制约非常严重,尤其在MAC数量越多的FPGA应用中,这种现象更为严重,例如,在将MAC分组后,需要向每一组分发数据,通常数据还没分发到最后一组MAC,第一组MAC已经完成计算,这样就使得有些PE中的MAC处于等待状态,资源利用率较低,尤其在权值依赖于片外加载时,该种情况更为显著。
基于图1~图3所示的芯片架构,可以看出本发明实施例可有效的组织多达4096个MAC,并通过多级调度结合临近缓存,保证每个MAC的计算效率。同时通过存储器中数据分布的优化调度,在保证DDR Burst模式下高速读写的前提下,避免了矩阵运算中求矩阵转置的过程,降低了MAC的等待时间,该架构可灵活部署在FPGA加速中心,或移植为ASIC(Application Specific IntegratedCircuit,专门应用的集成电路)设计,在XilinxKU115FPGA上400MHz时钟下可获得的峰值性能为3.2Tops,计算精度为16bit的矩阵相乘运算性能。因此,基于本发明实施例提供的芯片强大计算能力,可将其应用于云端、嵌入式端、或基于FPGA/ASIC的矩阵计算业务中,以及其他注重实时性、低延迟、高吞吐的场景。
本发明实施例提供了一种矩阵处理方法,以计算机设备执行本发明实施例为例,参见图5,本发明实施例提供的方法流程包括:
501、读取乘数矩阵,并将乘数矩阵分发至每个PE群组,由PE群组内各个PE共同存储。
对于两个矩阵在相乘时,要求被乘数矩阵的列数与乘数矩阵的行数相等,当满足此前提下,通过将被乘数矩阵的每行向量与乘数矩阵的每一列向量相乘,可以得到结果矩阵,该结果矩阵的行数与被乘数矩阵的行数相同,该结果矩阵的列数与乘数矩阵的列数相同,且结果矩阵一行的每个元素通过被乘数矩阵一行的元素与乘数矩阵每列的元素相乘得到。根据矩阵乘法的相关内容,在实现被乘数矩阵与乘数矩阵的乘法运算时,需要读取被乘数矩阵的行向量及乘数矩阵的列向量。然而,受限于DDR存储器本身的硬件条件,DDR存储器在读取待计算的被乘数矩阵和乘数矩阵时,只能按行读取被乘数矩阵和乘数矩阵中的数据,且按行读取的数据越多,带宽的利用率越高。
为了适应DDR存储器的数据读取需求,同时提高带宽的利用率,对于乘数矩阵,本发明实施例采用多存储器位宽扩展方式,先按行读取乘数矩阵中的数据,再将所读取的数据按列分发至各个PE群组,由PE群组内的每个PE共同存储。在将所读取的数据按列分发至各个PE群组时,可以实时读取实时分发,也可以读取完乘数矩阵后再进行分发,本发明实施例对此不作具体的限定。
参见图6,乘数矩阵为矩阵B,矩阵B的尺寸为256*128,DDR存储器按照行读取矩阵B中的数据,并将所读取的数据按列发送到8个PE上进行存储。其中,PE1上存储1个256*16的子矩阵,PE2上存储1个256*16的子矩阵,…,PE8上存储1个256*16的子矩阵。
采用上述数据读取方式,避免乘数矩阵在读取之后、计算之前进行转置操作,减少了对存储器的读写访问,提升了能效,降低了整体时延;采用上述存储方式,各个PE群组存储相同的乘数矩阵,也即是乘数矩阵在各个群组之间实现复用,对于32个PE群组的芯片,乘数矩阵可以实现32倍的复用率。
以下需要说明几点:
第一点,上述以根据PE动态配置信息确定PE群组阵列中每个PE群组都复用乘数矩阵为例,当然,当根据PE动态配置信息确定PE群组阵列中仅部分PE群组复用乘数矩阵,则将乘数矩阵分发至所复用的PE群组即可。在一次数据分发过程中,多个PE群组的数据通道是共用的。
第二点,对于一个PE群组,考虑到根据第一控制器的控制参数,该PE群组中参与计算的PE可以为全部也可以为部分,因而在将乘数矩阵分发至所复用的PE群组进行存储时,可根据参与计算的PE数量,对每个PE所存储的乘数矩阵的不同列向量进行存储。当根据第一控制器的控制参数确定PE群组中每个PE均参与计算,则由每个PE共同存储乘数矩阵的不同列向量;当根据第一控制器的控制参数确定PE群组中部分PE参与计算,则由部分PE共同存储乘数矩阵的不同列向量。
502、读取被乘数矩阵,并将被乘数矩阵的不同行向量分发至不同PE群组,由PE群组内的每个PE分别进行存储。
在本发明实施例中,每个PE中用于存储被乘数矩阵的被乘数矩阵存储单元采用地址的ping-pong结构。基于该种设计,所读取的被乘数矩阵中的数据将分别存储到ping地址和pong地址中。具体存储过程为:读取被乘数矩阵预设行数的行向量,并将所读取的不同行向量分发至不同PE群组,并存储到每个PE的ping地址中;接着,开启计算使能,继续读取被乘数矩阵的预设行数的行向量,并将所读取的不同行向量分发至不同PE群组,并存储到每个PE的pong地址中,以此类推,直至完成对被乘数矩阵的读取及存储。为了便于管理,在对被乘数矩阵的行向量进行读取时,可以按照行号由小到大的顺序依次进行读取。其中,预设行数与PE群组阵列包括的PE群组数量相同,例如,当PE群组数量为32时,预设行数为32行;当PE群组数量为64时,预设数量为64。
参见上述图1,PE群组阵列包括32个PE群组,可以确定出预设行数为32行。设定被乘数矩阵为矩阵A,对于矩阵A的读取及存储过程为:读取矩阵A中行号为1~32的行向量,将所读取的行向量依次分发至32个PE群组中,并将所分发的一行向量存储到每个PE的ping地址中;接着,开启计算使能,继续读取矩阵A中行号为33~64的行向量,将所读取的行向量依次分发至32个PE群组中,并将所分发的一行向量存储到每个PE的pong地址中;接着,再读取矩阵A中行号为65~96的行向量,将所读取的行向量依次分发至32个PE群组中,并将所分发的一行向量存储到每个PE的ping地址中,依次类推,直至完成对矩阵A的读取及存储。
以下有几点需要说明的:
第一点,由于乘数矩阵的复用可以在整个PE群组阵列内,也可以在PE群组阵列的部分PE群组内,因此,在对所读取的被乘数矩阵的行向量进行分发时,需要根据乘数矩阵的复用情况进行分发。例如,当根据PE动态配置信息确定PE群组阵列中每个PE群组都复用乘数矩阵,则将所读取的被乘数矩阵的不同行向量分发至每个PE群组;当根据PE动态配置信息确定PE群组阵列中部分PE群组复用乘数矩阵,则将所读取的被乘数矩阵的不同行向量分发至部分PE群组中。
第二点,上述以被乘数矩阵的行向量在PE群组中的每个PE内复用为例,当然,被乘数矩阵的行向量也可以在PE群组中部分PE内进行复用,此时仅将被乘数矩阵的向量存储到所复用的PE中即可。例如,当根据第一控制器的控制参数确定被乘数矩阵的行向量在PE群组中的每个PE内复用,则将被乘数矩阵的向量存储到每个PE中;当根据第一控制器的控制参数确定被乘数矩阵的行向量在PE群组中的部分PE内复用,则将被乘数矩阵的向量存储到部分PE中。
第三点,对于一个PE,考虑到该PE中包括多个MAC,多个MAC可以全部参与计算,也可以部分参与计算,因而后续在对乘数矩阵及被乘数矩阵的行向量进行计算时,可根据第二控制器的控制参数,确定出参与计算的MAC,进而采用参与计算的MAC进行计算。
第四点,虽然本发明实施例将读取被乘数矩阵的行向量的过程作为步骤502,将被乘数矩阵的行向量与乘数矩阵的列向量相乘作为步骤503,实际上被乘数矩阵的行向量的读取过程与被乘数矩阵的行向量与乘数矩阵的列向量相乘过程重叠执行,也即是在读取被乘数矩阵的行向量的同时,也进行着计算过程。
503、在同一PE群组内,将被乘数矩阵的行向量与乘数矩阵的不同列向量相乘,得到PE群组内的相乘结果。
在同一PE群组内,被乘数矩阵的行向量是共享的,通过将被乘数矩阵的一行向量上的一个元素与PE上存储的乘数矩阵的一列向量上的元素相乘,可以得到结果矩阵的一行上的一个元素,通过将被乘数矩阵的一行向量上的每个元素与各个PE上存储的乘数矩阵的列向量上的元素相乘,可以得到结果矩阵一行上的各个元素。
由于被乘数矩阵的行向量采用地址ping-pong结构存储,因此,对于同一PE群组中的每个PE,当将被乘数矩阵的行向量存储到每个PE的ping地址中,计算使能开启后,可从每个PE的ping地址中读取被乘数矩阵的一行向量,将所读取的一行向量上的元素与每个PE所存储的乘数矩阵的不同列向量上的元素相乘,得到ping地址相乘结果,当读取完ping地址中的行向量,再从pong地址中读取被乘数矩阵的一行向量,将所读取的一行向量与每个PE所存储的乘数矩阵的不同列向量相乘,重复执行从ping地址及pong地址读取被乘数矩阵的一行向量的过程,直至读取完被乘数矩阵,将所得到的所有相乘结果累加,作为PE群组内的相乘结果。
504、根据不同PE群组内的相乘结果,确定被乘数矩阵与乘数矩阵的结果矩阵。
由于不同群组PE群组间复用乘数矩阵,同一PE群组内复用被乘数矩阵的行向量,按照被乘矩阵的行向量的序号,对不同PE群组内的相乘结果进行合并可以得到被乘数矩阵与乘数矩阵的结果矩阵。例如,对于32个PE群组,第1个PE群组内得到的是被乘数矩阵的第1行向量与乘数矩阵的相乘结果,第2个PE群组内得到的是被乘数矩阵的第2行向量与乘数矩阵的相乘结果,…,第32个PE群组内得到的是被乘数矩阵的第32行向量与乘数矩阵的相乘结果,按照被乘矩阵的行向量的序号顺序,将32个PE群组内的相乘结果进行合并,可以得到被乘数矩阵与乘数矩阵的结果矩阵。
需要说明的是,上述步骤501~步骤504以乘数矩阵及被乘数矩阵未进行分块直接读取为例进行说明的,然而,在实际应用中,当乘数矩阵及被乘数矩阵的尺寸较大时,常常需要分块读取、存储及计算。通常在读取乘数矩阵时,可根据动态配置信息,获取乘数矩阵的尺寸,并将乘数矩阵的行尺寸与第一预设尺寸进行比较,将乘数矩阵的列尺寸与第二预设尺寸进行比较,当乘数矩阵的行尺寸大于第一预设尺寸,列尺寸大于第二预设尺寸时,将乘数矩阵拆分为多个乘数矩阵子阵,分别为第一乘数矩阵子阵、第二乘数矩阵子阵、…最后一个乘数矩阵子阵;在读取被乘数矩阵时,可根据动态配置信息,获取被乘数矩阵的尺寸,并将被乘数矩阵的列尺寸与第一预设尺寸进行比较,当被乘数矩阵的列尺寸大于第一预设尺寸时,将被乘数矩阵拆分为多个被乘数矩阵子阵,分别为第一被乘数矩阵子阵、第二被乘数矩阵子阵、…、最后一个被乘数矩阵子阵。其中,第一预设尺寸和第二预设尺寸可根据PE的存储空间确定。
根据乘数矩阵和被乘数矩阵的分块结果,依次读取乘数矩阵的各个子阵和被乘数矩阵的各个子阵,并根据乘数矩阵的各个子阵和被乘数矩阵的各个子阵进行计算,然后将分块结果进行累加,进而将累加结果按照被乘矩阵的行向量的序号进行合并,得到乘数矩阵和被乘数矩阵的结果矩阵。
对于乘数矩阵及被乘数矩阵的分块情况,为了更清楚地展现矩阵相乘过程,下面将分别进行介绍。
第一种情况、乘数矩阵需要分块,被乘数矩阵无需分块。
在实现被乘数矩阵与乘数矩阵之间的乘法运算时,可采用如下步骤:
第一步,先读取乘数矩阵的第一乘数矩阵子阵,将第一乘数矩阵子阵分发到各个PE群组,由PE群组中每个PE协同存储,每个PE存储第一乘数矩阵子阵中的至少一列向量。接着,读取被乘数矩阵的多个行向量,将所读取的多个行向量一一分发至多个PE群组,由PE群组中的每个PE存储至ping地址,当存储完被乘数矩阵的一个行向量即开启对应PE群组的计算使能,计算每个PE的ping地址所存储的被乘数矩阵一行向量上的各个元素与第一乘数矩阵子阵每一列向量上的各个元素的乘积。同时读取多个行向量,将读取的多个行向量分发至多个PE群组,由多个PE群组的每个PE存储至pong地址,当ping地址的计算完成后,计算每个PE的pong地址所存储的被乘数矩阵一行向量上的各个元素与第一乘数矩阵子阵每一列向量上的各个元素的乘积。依次类推,直至读取完被乘数矩阵,得到每个PE所存储的被乘矩阵的行向量与第一乘数矩阵子阵的相乘结果。
第二步,当具有多组DDR通道时,可并行进行多个乘数矩阵子阵的读取,当具有一个DDR时,在完成乘数矩阵的第一乘数矩阵子阵的计算后,读取乘数矩阵的第二乘数矩阵子阵,将第二乘数矩阵子阵分发到各个PE群组,由PE群组中每个PE协同存储。接着,读取被乘数矩阵的多个行向量,将所读取的多个行向量一一分发至多个PE群组,由PE群组中的每个PE存储至ping地址,计算每个PE的ping地址所存储的被乘数矩阵一行向量上的各个元素与第二乘数矩阵子阵每一列向量上的各个元素的乘积。同时再读取多个行向量,将多读取的多个行向量分发至多个PE群组,由多个PE群组的每个PE存储至pong地址,当ping地址的计算完成后,计算每个PE的pong地址所存储的被乘数矩阵一行向量上的各个元素与第二乘数矩阵子阵每一列向量上的各个元素的乘积。依次类推,直至读取完被乘数矩阵,得到每个PE所存储的被乘矩阵的行向量与第二乘数矩阵子阵的相乘结果。
第三步,依次类推,直至读取完乘数矩阵的各个子阵。按照行号顺序,将PE所存储的被乘矩阵的行向量与每个乘数矩阵子阵的相乘结果进行累加,得到被乘数矩阵与乘数矩阵的结果矩阵。
第二种情况、乘数矩阵无需分块,被乘数矩阵需要分块。
第一步,读取乘数矩阵,将乘数矩阵分发到各个PE群组,由PE群组中每个PE协同存储,每个PE存储乘数矩阵中的至少一列向量。接着,读取第一被乘数矩阵子阵的多个行向量,将所读取的多个行向量一一分发至多个PE群组,由PE群组中的每个PE存储至ping地址,当存储完被乘数矩阵的一个行向量即开启对应PE群组的计算使能,计算每个PE的ping地址所存储的第一被乘数矩阵子阵一行向量上的各个元素与乘数矩阵每一列向量上的各个元素的乘积。同时读取多个行向量,将读取的多个行向量分发至多个PE群组,由多个PE群组的每个PE存储至pong地址,当ping地址的计算完成后,计算每个PE的pong地址所存储的第一被乘数矩阵子阵一行向量上的各个元素与乘数矩阵每一列向量上的各个元素的乘积。依次类推,直至读取完第一被乘数矩阵子阵,得到每个PE所存储的第一被乘矩阵子阵的行向量与乘数矩阵的相乘结果。
第二步,读取第二被乘数矩阵子阵的多个行向量,将所读取的多个行向量一一分发至多个PE群组,由PE群组中的每个PE存储至ping地址,然后计算每个PE的ping地址所存储的第二被乘数矩阵子阵一行向量上的各个元素与乘数矩阵每一列向量上的各个元素的乘积。同时读取多个行向量,将多读取的多个行向量分发至多个PE群组,由多个PE群组的每个PE存储至pong地址,当ping地址的计算完成后,计算每个PE的pong地址所存储的第二被乘数矩阵子阵一行向量上的各个元素与乘数矩阵每一列向量上的各个元素的乘积。依次类推,直至读取完第二被乘数矩阵子阵,得到每个PE所存储的第二被乘矩阵子阵的行向量与乘数矩阵的相乘结果。
第三步,依次类推,直至读取完被乘数矩阵的各个子阵。按照行号顺序,将PE所存储的各个被乘矩阵子阵的行向量与乘数矩阵的相乘结果进行累加,得到被乘数矩阵与乘数矩阵的结果矩阵。
需要说明的是,由于用于存储矩阵相乘的中间结果的存储空间(例如Rlt_MEM)是有限的,在计算过程中,当达到Rlt_MEM的存储上限而未读取完被乘数矩阵或被乘数矩阵子阵的所有行向量时,可采用以下两种处理方式:
第一种方式、将Rlt_MEM中的中间结果存储到DDR中,下一次计算时再将存入到DDR中的中间结果读取出来,将两次计算结果相加,重复执行该过程,直至获取到与最后一次计算结果的累加结果,将其作为被乘数矩阵与乘数矩阵的结果矩阵。
第二种方式、当达到Rlt_MEM的存储上限时,更新乘数矩阵,读取下一个乘数矩阵子阵,将下一个乘数矩阵子阵与已读取的被乘数矩阵或被乘数矩阵子阵的行向量进行计算,直至完成已读取的被乘数矩阵或被乘数矩阵子阵的行向量与各个乘数矩阵子阵的计算。然后读取被乘数矩阵或被乘数矩阵子阵中剩余行向量,执行被乘数矩阵或被乘数矩阵子阵的剩余行向量与乘数矩阵的相乘。按照行号顺序,将所有计算结果组成结果矩阵。
第三种情况、乘数矩阵及被乘数矩阵均需要分块。
第一步,先读取乘数矩阵的第一乘数矩阵子阵,将第一乘数矩阵子阵分发到各个PE群组,由PE群组中每个PE协同存储。接着,读取第一被乘数矩阵子阵的多个行向量,将所读取的多个行向量一一分发至多个PE群组,由PE群组中的每个PE存储至ping地址,当存储完被乘数矩阵的一个行向量即开启对应PE群组的计算使能,计算每个PE的ping地址所存储的第一被乘数矩阵子阵一行向量上的各个元素与第一乘数矩阵子阵每一列向量上的各个元素的乘积。同时读取多个行向量,将读取的多个行向量分发至多个PE群组,由多个PE群组的每个PE存储至pong地址,当ping地址的计算完成后,计算每个PE的pong地址所存储的第一被乘数矩阵子阵一行向量上的各个元素与第一乘数矩阵子阵每一列向量上的各个元素的乘积。依次类推,直至读取完第一被乘数矩阵子阵,得到每个PE所存储的第一被乘矩阵的行向量与第一乘数矩阵子阵的相乘结果。
第二步,读取乘数矩阵的第二乘数矩阵子阵,将第二乘数矩阵子阵分发到各个PE群组,由PE群组中每个PE协同存储。读取第二被乘数矩阵子阵的多个行向量,将所读取的多个行向量一一分发至多个PE群组,由PE群组中的每个PE存储至ping地址,然后计算每个PE的ping地址所存储的第二被乘数矩阵子阵一行向量上的各个元素与第二乘数矩阵子阵每一列向量上的各个元素的乘积。同时读取多个行向量,将多读取的多个行向量分发至多个PE群组,由多个PE群组的每个PE存储至pong地址,当ping地址的计算完成后,计算每个PE的pong地址所存储的第二被乘数矩阵子阵一行向量上的各个元素与第二乘数矩阵子阵每一列向量上的各个元素的乘积。依次类推,直至读取完第二被乘数矩阵子阵,得到每个PE所存储的第二被乘矩阵子阵的行向量与第二乘数矩阵子阵的相乘结果。
第三步,依次类推,直至读取完乘数矩阵及被乘矩阵的各个子阵。按照行号顺序,将PE所存储的每个被乘矩阵子阵的行向量与每个乘数矩阵子阵的相乘结果进行累加,得到被乘数矩阵与乘数矩阵的结果矩阵。
为了更为直观地展示出矩阵A与矩阵B相乘的计算流程,下面以图7为例进行说明。其中,矩阵A为m*n矩阵,矩阵B为n*p矩阵,n>256,m、p>128。
第一步,读取矩阵B中256*128的子阵,将所读取的子阵分发至各个PE群组,由PE群组内的PE协同存储。按行读取矩阵A中1*256的子阵,读取32行向量存储到每个PE群组的每个PE的ping地址中,开启计算使能;接着读取32行向量存储到每个PE群组的每个PE的pong地址中,以此类推,直至完成矩阵A的m*256子阵与矩阵B的子阵的计算。
第二步,将所存储的矩阵B子阵向下移动256行,读取矩阵B的另一子阵,并将矩阵A的子阵向右移动256列,读取矩阵A的另一子阵,并完成对矩阵A的另一子阵与矩阵B的另一子阵的计算。
第四步,当矩阵B移动到底部,右移128列并返回顶部,重复执行第一步和第二步,直至遍历完矩阵B中的所有元素。
上述方案针对当前FPGA的架构而设计,当ASIC或FPGA具有更高的片上存储资源时(如5倍于KU115),可进一步优化而提升数据复用。当片上具备HBM等DRAM时,可完全取代片外存储器,进而可以更为灵活的进行构架设计。另外,基于图1~图3所示的芯片结构,采用本发明实施例提供的方法,被乘数矩阵中的行向量因在PE群组的各个PE中复用,可以达到128倍的复用率;乘数矩阵因在各个PE群组间复用,可以达到32倍的复用率。
本发明实施例提供的方法,通过在PE群组间复用乘数矩阵,在PE群组内复用被乘数矩阵的行向量,从而在处理较大规模的矩阵乘法任务时,能够调用更多的资源,提高了计算效率,缩短了计算时间。
参见图8,本发明实施例提供了一种矩阵处理装置,该矩阵处理装置设置于图8所示的用于矩阵处理的芯片中,该装置包括:
读取模块801,用于读取乘数矩阵;
存储模块802,用于将乘数矩阵存储到每个PE群组的每个PE中;
读取模块801,用于读取被乘数矩阵;
存储模块802,用于将被乘数矩阵的不同行向量分别存储到不同PE群组的每个PE内;
相乘模块803,用于在同一PE群组内,将被乘数矩阵的行向量与乘数矩阵的不同列向量相乘,得到PE群组内的相乘结果;
确定模块804,用于根据不同PE群组内的相乘结果,得到被乘数矩阵与乘数矩阵的结果矩阵。
在本发明的另一个实施例中,读取模块801,用于采用多存储器位宽扩展方式,按行读取乘数矩阵;
存储模块802,用于将所读取的乘数矩阵按列存储到每个PE群组的每个PE中。
在本发明的另一个实施例中,读取模块801,用于读取被乘数矩阵预设行数的行向量;
存储模块802,用于将所读取的不同行向量存储到不同PE群组的每个PE的ping地址中,预设行数与PE群组阵列包括的PE群组数量相同;
读取模块801,用于开启计算使能,并继续读取被乘数矩阵的预设行数的行向量;
存储模块802,用于将所读取的不同行向量存储到不同PE群组的每个PE的pong地址中;重复执行对被乘数矩阵的行向量存储过程,直至完成对被乘数矩阵的存储。
在本发明的另一个实施例中,相乘模块803,用于当计算使能开启后,从每个PE的ping地址中读取被乘数矩阵的一行向量;将所读取的一行向量与每个PE所存储的乘数矩阵的不同列向量相乘;当读取完ping地址中的行向量,从pong地址中读取被乘数矩阵的一行向量;将所读取的一行向量与每个PE所存储的乘数矩阵的不同列向量相乘;重复执行从ping地址及pong地址读取被乘数矩阵的一行向量的过程,直至读取完被乘数矩阵,将所得到的所有相乘结果累加,作为PE群组内的相乘结果。
在本发明的另一个实施例中,该方法还包括:
拆分模块,用于当乘数矩阵的行尺寸大于第一预设尺寸,列尺寸大于第二预设尺寸时,将乘数矩阵拆分为多个乘数矩阵子阵;
读取模块801,用于逐一读取不同的乘数矩阵子阵;
相乘模块803,用于将读取的乘数矩阵子阵与被乘数矩阵的行向量相乘。
在本发明的另一个实施例中,该方法还包括:
拆分模块,用于当被乘数矩阵的列尺寸大于第一预设尺寸时,将被乘数矩阵拆分为多个被乘数矩阵子阵;
读取模块801,用于读取不同被乘数矩阵子阵;
相乘模块803,用于将不同被乘数矩阵子阵的每一行向量与乘数矩阵相乘。
综上所述,本发明实施例提供的装置,通过在PE群组间复用乘数矩阵,在PE群组内复用被乘数矩阵的行向量,从而在处理较大规模的矩阵乘法任务时,能够调用更多的资源,提高了计算效率,缩短了计算时间。
图9示出了本发明一个示例性实施例提供的矩阵处理终端900的结构框图。该终端900可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group AudioLayer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts GroupAudio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端900还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端900包括有:处理器901和存储器902。
处理器901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器901可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器902中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器901所执行以实现本申请中方法实施例提供的矩阵处理方法。
在一些实施例中,终端900还可选包括有:外围设备接口903和至少一个外围设备。处理器901、存储器902和外围设备接口903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口903相连。具体地,外围设备包括:射频电路904、触摸显示屏905、摄像头906、音频电路907、定位组件908和电源909中的至少一种。
外围设备接口903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器901和存储器902。在一些实施例中,处理器901、存储器902和外围设备接口903被集成在同一芯片或电路板上;在一些其他实施例中,处理器901、存储器902和外围设备接口903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路904可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路904还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏905用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏905是触摸显示屏时,显示屏905还具有采集在显示屏905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器901进行处理。此时,显示屏905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏905可以为一个,设置终端900的前面板;在另一些实施例中,显示屏905可以为至少两个,分别设置在终端900的不同表面或呈折叠设计;在再一些实施例中,显示屏905可以是柔性显示屏,设置在终端900的弯曲表面上或折叠面上。甚至,显示屏905还可以设置成非矩形的不规则图形,也即异形屏。显示屏905可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件906用于采集图像或视频。可选地,摄像头组件906包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器901进行处理,或者输入至射频电路904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端900的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器901或射频电路904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路907还可以包括耳机插孔。
定位组件908用于定位终端900的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件908可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源909用于为终端900中的各个组件进行供电。电源909可以是交流电、直流电、一次性电池或可充电电池。当电源909包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端900还包括有一个或多个传感器910。该一个或多个传感器910包括但不限于:加速度传感器911、陀螺仪传感器912、压力传感器913、指纹传感器914、光学传感器915以及接近传感器916。
加速度传感器911可以检测以终端900建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器911可以用于检测重力加速度在三个坐标轴上的分量。处理器901可以根据加速度传感器911采集的重力加速度信号,控制触摸显示屏905以横向视图或纵向视图进行用户界面的显示。加速度传感器911还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器912可以检测终端900的机体方向及转动角度,陀螺仪传感器912可以与加速度传感器911协同采集用户对终端900的3D动作。处理器901根据陀螺仪传感器912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器913可以设置在终端900的侧边框和/或触摸显示屏905的下层。当压力传感器913设置在终端900的侧边框时,可以检测用户对终端900的握持信号,由处理器901根据压力传感器913采集的握持信号进行左右手识别或快捷操作。当压力传感器913设置在触摸显示屏905的下层时,由处理器901根据用户对触摸显示屏905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器914用于采集用户的指纹,由处理器901根据指纹传感器914采集到的指纹识别用户的身份,或者,由指纹传感器914根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器901授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器914可以被设置终端900的正面、背面或侧面。当终端900上设置有物理按键或厂商Logo时,指纹传感器914可以与物理按键或厂商Logo集成在一起。
光学传感器915用于采集环境光强度。在一个实施例中,处理器901可以根据光学传感器915采集的环境光强度,控制触摸显示屏905的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏905的显示亮度;当环境光强度较低时,调低触摸显示屏905的显示亮度。在另一个实施例中,处理器901还可以根据光学传感器915采集的环境光强度,动态调整摄像头组件906的拍摄参数。
接近传感器916,也称距离传感器,通常设置在终端900的前面板。接近传感器916用于采集用户与终端900的正面之间的距离。在一个实施例中,当接近传感器916检测到用户与终端900的正面之间的距离逐渐变小时,由处理器901控制触摸显示屏905从亮屏状态切换为息屏状态;当接近传感器916检测到用户与终端900的正面之间的距离逐渐变大时,由处理器901控制触摸显示屏905从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图9中示出的结构并不构成对终端900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本发明实施例提供的终端,通过在PE群组间复用乘数矩阵,在PE群组内复用被乘数矩阵的行向量,从而在处理较大规模的矩阵乘法任务时,能够调用更多的资源,提高了计算效率,缩短了计算时间。
本发明实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由处理器加载并执行以实现图5所示的矩阵处理方法。
本发明实施例提供的计算机可读存储介质,通过在PE群组间复用乘数矩阵,在PE群组内复用被乘数矩阵的行向量,从而在处理较大规模的矩阵乘法任务时,能够调用更多的资源,提高了计算效率,缩短了计算时间。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (13)

1.一种用于矩阵处理的芯片,其特征在于,所述芯片包括:数据通道、控制通道、处理元件PE接口、PE群组阵列;
所述数据通道用于读取待计算的被乘数矩阵和乘数矩阵;
所述控制通道用于对所述PE群组阵列的计算进行控制;
所述PE接口用于从所述数据通道中读取被乘数矩阵和乘数矩阵;
所述PE群组阵列包括多个PE群组,多个PE群组间复用同一乘数矩阵,每个PE群组内复用被乘数矩阵的不同行向量,所述PE群组阵列用于实现被乘数矩阵与乘数矩阵之间的乘法计算。
2.根据权利要求1所述的芯片,其特征在于,所述数据通道采用多存储器位宽扩展方式,按行读取所述乘数矩阵,并通过所述PE接口将所读取的乘数矩阵按列分发至每个PE群组的每个PE中。
3.根据权利要求1所述的芯片,其特征在于,每个PE群组包括第一控制器、多个PE、第一结果缓存器及累加器;
所述第一控制器用于对PE群组内的计算进行控制;
同一PE群组的每个PE内存储有被乘数矩阵的相同行向量及乘数矩阵的不同列向量,每个PE用于将被乘数矩阵的一行向量与乘数矩阵中的每列向量相乘;
所述第一结果缓存器用于缓存PE群组内多个PE的计算结果;
所述累加器用于对所述第一结果缓存器中多个PE的计算结果进行累加。
4.根据权利要求3所述的芯片,其特征在于,每个PE包括第二控制器、多个乘累加器MAC、多个乘数矩阵存储单元、第二结果缓存器及被乘数矩阵向量存储单元;
所述第二控制器用于对PE内的计算进行控制;
每个MAC用于将被乘数矩阵的一行向量与乘数矩阵的一列向量相乘,多个MAC构成多组MAC,多组MAC共享一个乘数矩阵存储单元;
每个乘数矩阵存储单元用于存储乘数矩阵中至少一列向量;
所述第二结果缓存器用于缓存每个MAC的计算结果;
所述被乘数矩阵向量存储单元包括ping地址和pong地址,所述ping地址和pong地址用于存储被乘数矩阵的至少一行向量。
5.一种矩阵处理方法,其特征在于,所述矩阵处理方法应用于权利要求1至4中任一项所述的用于矩阵处理的芯片,所述方法包括:
读取乘数矩阵,并将所述乘数矩阵存储到每个PE群组的每个PE中;
读取被乘数矩阵,并将所述被乘数矩阵的不同行向量分别存储到不同PE群组的每个PE内;
在同一PE群组内,将所述被乘数矩阵的行向量与所述乘数矩阵的不同列向量相乘,得到所述PE群组内的相乘结果;
根据不同PE群组内的相乘结果,确定所述被乘数矩阵与所述乘数矩阵的结果矩阵。
6.根据权利要求5所述的方法,其特征在于,所述读取乘数矩阵,并将所述乘数矩阵存储到每个PE群组的每个PE中,包括:
采用多存储器位宽扩展方式,按行读取所述乘数矩阵,并将所读取的乘数矩阵按列存储到每个PE群组的每个PE中。
7.根据权利要求5所述的方法,其特征在于,所述读取被乘数矩阵,并将所述被乘数矩阵的不同行向量分别存储到不同PE群组的每个PE内,包括:
读取被乘数矩阵预设行数的行向量,并将所读取的不同行向量存储到不同PE群组的每个PE的ping地址中,所述预设行数与PE群组阵列包括的PE群组数量相同;
开启计算使能,并继续读取被乘数矩阵的预设行数的行向量,并将所读取的不同行向量存储到不同PE群组的每个PE的pong地址中;
重复执行对被乘数矩阵的行向量存储过程,直至完成对被乘数矩阵的存储。
8.根据权利要求7所述的方法,其特征在于,所述在同一PE群组内,将所述被乘数矩阵的行向量与所述乘数矩阵的不同列向量相乘,得到所述PE群组内的相乘结果,包括:
当计算使能开启后,从每个PE的ping地址中读取所述被乘数矩阵的一行向量,将所读取的一行向量与每个PE所存储的所述乘数矩阵的不同列向量相乘;
当读取完ping地址中的行向量,从pong地址中读取所述被乘数矩阵的一行向量,将所读取的一行向量与每个PE所存储的所述乘数矩阵的不同列向量相乘;
重复执行从ping地址及pong地址读取所述被乘数矩阵的一行向量的过程,直至读取完所述被乘数矩阵,将所得到的所有相乘结果累加,作为所述PE群组内的相乘结果。
9.根据权利要求5所述的方法,其特征在于,所述方法还包括:
当所述乘数矩阵的行尺寸大于第一预设尺寸,列尺寸大于第二预设尺寸时,将所述乘数矩阵拆分为多个乘数矩阵子阵,逐一读取不同的乘数矩阵子阵,并将读取的乘数矩阵子阵与所述被乘数矩阵的行向量相乘。
10.根据权利要求5所述的方法,其特征在于,所述方法还包括:
当所述被乘数矩阵的列尺寸大于第一预设尺寸时,将所述被乘数矩阵拆分为多个被乘数矩阵子阵,逐一读取不同被乘数矩阵子阵,并将所读取的被乘数矩阵子阵的行向量与所述乘数矩阵相乘。
11.一种矩阵处理装置,其特征在于,所述矩阵处理装置设置于权利要求1至4中任一项所述的用于矩阵处理的芯片中,所述装置包括:
读取模块,用于读取乘数矩阵;
存储模块,用于将所述乘数矩阵存储到每个PE群组的每个PE中;
所述读取模块,用于读取被乘数矩阵;
所述存储模块,用于将所述被乘数矩阵的不同行向量分别存储到不同PE群组的每个PE内;
相乘模块,用于在同一PE群组内,将所述被乘数矩阵的行向量与所述乘数矩阵的不同列向量相乘,得到所述PE群组内的相乘结果;
确定模块,用于根据不同PE群组内的相乘结果,确定所述被乘数矩阵与所述乘数矩阵的结果矩阵。
12.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由所述处理器加载并执行以实现如权利要求5至10中任一项所述的矩阵处理方法。
13.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由处理器加载并执行以实现如权利要求5至10中任一项所述的矩阵处理方法。
CN201910203485.7A 2019-03-18 2019-03-18 用于矩阵处理的芯片、矩阵处理方法、装置及存储介质 Active CN110147347B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910203485.7A CN110147347B (zh) 2019-03-18 2019-03-18 用于矩阵处理的芯片、矩阵处理方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910203485.7A CN110147347B (zh) 2019-03-18 2019-03-18 用于矩阵处理的芯片、矩阵处理方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN110147347A true CN110147347A (zh) 2019-08-20
CN110147347B CN110147347B (zh) 2023-01-06

Family

ID=67589610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910203485.7A Active CN110147347B (zh) 2019-03-18 2019-03-18 用于矩阵处理的芯片、矩阵处理方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN110147347B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339490A (zh) * 2020-02-18 2020-06-26 三星(中国)半导体有限公司 矩阵乘法计算方法和装置
CN111581595A (zh) * 2020-04-24 2020-08-25 科大讯飞股份有限公司 一种矩阵乘法计算方法及计算电路
CN111723906A (zh) * 2020-05-29 2020-09-29 浪潮电子信息产业股份有限公司 一种循环神经网络的加速计算方法、系统及相关装置
CN112991142A (zh) * 2021-03-31 2021-06-18 腾讯科技(深圳)有限公司 图像数据的矩阵运算方法、装置、设备及存储介质
WO2022120818A1 (zh) * 2020-12-11 2022-06-16 深圳市大疆创新科技有限公司 用于传感器的控制装置、方法、可移动平台和存储介质
CN115408061A (zh) * 2022-11-02 2022-11-29 北京红山微电子技术有限公司 复数矩阵运算的硬件加速方法、装置、芯片及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899182A (zh) * 2015-06-09 2015-09-09 中国人民解放军国防科学技术大学 一种支持可变分块的矩阵乘加速方法
CN106445471A (zh) * 2016-10-13 2017-02-22 北京百度网讯科技有限公司 处理器和用于在处理器上执行矩阵乘运算的方法
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
US20180189234A1 (en) * 2016-12-31 2018-07-05 Intel Corporation Hardware accelerator architecture for processing very-sparse and hyper-sparse matrix data
CN108304923A (zh) * 2017-12-06 2018-07-20 腾讯科技(深圳)有限公司 卷积运算处理方法及相关产品
US20180246669A1 (en) * 2017-02-28 2018-08-30 Texas Instruments Incorporated Matrix transfer accelerator system and method
CN108875958A (zh) * 2017-05-11 2018-11-23 广州异构智能科技有限公司 使用外积单元的原生张量处理器
US20190012295A1 (en) * 2017-07-07 2019-01-10 Intel Corporation Memory-Size- and Bandwidth-Efficient Method for Feeding Systolic Array Matrix Multipliers
CN109213962A (zh) * 2017-07-07 2019-01-15 华为技术有限公司 运算加速器
TW201907319A (zh) * 2017-07-08 2019-02-16 英屬開曼群島商意騰科技股份有限公司 適用於人工神經網路之矩陣及向量相乘的方法
CN109472350A (zh) * 2018-10-30 2019-03-15 南京大学 一种基于块循环稀疏矩阵的神经网络加速系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899182A (zh) * 2015-06-09 2015-09-09 中国人民解放军国防科学技术大学 一种支持可变分块的矩阵乘加速方法
CN106445471A (zh) * 2016-10-13 2017-02-22 北京百度网讯科技有限公司 处理器和用于在处理器上执行矩阵乘运算的方法
US20180189234A1 (en) * 2016-12-31 2018-07-05 Intel Corporation Hardware accelerator architecture for processing very-sparse and hyper-sparse matrix data
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
US20180246669A1 (en) * 2017-02-28 2018-08-30 Texas Instruments Incorporated Matrix transfer accelerator system and method
CN108875958A (zh) * 2017-05-11 2018-11-23 广州异构智能科技有限公司 使用外积单元的原生张量处理器
US20190012295A1 (en) * 2017-07-07 2019-01-10 Intel Corporation Memory-Size- and Bandwidth-Efficient Method for Feeding Systolic Array Matrix Multipliers
CN109213962A (zh) * 2017-07-07 2019-01-15 华为技术有限公司 运算加速器
TW201907319A (zh) * 2017-07-08 2019-02-16 英屬開曼群島商意騰科技股份有限公司 適用於人工神經網路之矩陣及向量相乘的方法
CN108304923A (zh) * 2017-12-06 2018-07-20 腾讯科技(深圳)有限公司 卷积运算处理方法及相关产品
CN109472350A (zh) * 2018-10-30 2019-03-15 南京大学 一种基于块循环稀疏矩阵的神经网络加速系统

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339490A (zh) * 2020-02-18 2020-06-26 三星(中国)半导体有限公司 矩阵乘法计算方法和装置
CN111339490B (zh) * 2020-02-18 2024-04-19 三星(中国)半导体有限公司 矩阵乘法计算方法和装置
CN111581595A (zh) * 2020-04-24 2020-08-25 科大讯飞股份有限公司 一种矩阵乘法计算方法及计算电路
CN111581595B (zh) * 2020-04-24 2024-02-13 科大讯飞股份有限公司 一种矩阵乘法计算方法及计算电路
CN111723906A (zh) * 2020-05-29 2020-09-29 浪潮电子信息产业股份有限公司 一种循环神经网络的加速计算方法、系统及相关装置
WO2022120818A1 (zh) * 2020-12-11 2022-06-16 深圳市大疆创新科技有限公司 用于传感器的控制装置、方法、可移动平台和存储介质
CN112991142A (zh) * 2021-03-31 2021-06-18 腾讯科技(深圳)有限公司 图像数据的矩阵运算方法、装置、设备及存储介质
CN112991142B (zh) * 2021-03-31 2023-06-16 腾讯科技(深圳)有限公司 图像数据的矩阵运算方法、装置、设备及存储介质
CN115408061A (zh) * 2022-11-02 2022-11-29 北京红山微电子技术有限公司 复数矩阵运算的硬件加速方法、装置、芯片及存储介质

Also Published As

Publication number Publication date
CN110147347B (zh) 2023-01-06

Similar Documents

Publication Publication Date Title
CN110147347A (zh) 用于矩阵处理的芯片、矩阵处理方法、装置及存储介质
CN110045960B (zh) 基于芯片的指令集处理方法、装置及存储介质
CN108304265A (zh) 内存管理方法、装置及存储介质
CN107888968A (zh) 直播视频的播放方法、装置及计算机存储介质
CN108762881A (zh) 界面绘制方法、装置、终端及存储介质
KR20220074968A (ko) 블록 프로세싱 방법 및 장치, 및 블록체인에 기초한 데이터 질의 방법 및 장치
CN109977333A (zh) 网页显示方法、装置、计算机设备及存储介质
CN110134521A (zh) 资源分配的方法、装置、资源管理器及存储介质
CN110515688A (zh) 页面显示方法、装置、终端及存储介质
CN110673944B (zh) 执行任务的方法和装置
US20220035745A1 (en) Data processing method and chip, device, and storage medium
CN109194972A (zh) 直播流获取方法、装置、计算机设备及存储介质
CN109017373A (zh) 电动汽车的充电方法、装置及存储介质
CN110276034A (zh) 内容项展示方法、装置、计算机设备及存储介质
CN110288689A (zh) 对电子地图进行渲染的方法和装置
CN110166275A (zh) 信息处理方法、装置及存储介质
CN109413440A (zh) 虚拟物品管理方法、装置及存储介质
CN110321059A (zh) 数据处理方法、装置及计算机可读存储介质
CN110264292A (zh) 确定有效时间段的方法、装置及存储介质
CN113128673B (zh) 数据处理方法、存储介质、神经网络处理器及电子设备
CN110324791A (zh) 进行组网的方法、装置、计算机设备和存储介质
CN108804160A (zh) 接口调用方法及装置
CN109995609A (zh) 带宽确定方法、装置及存储介质
CN109275015A (zh) 显示虚拟物品的方法、装置存储介质
CN108877845A (zh) 歌曲播放方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant