CN115827211A - 近内存计算加速器、双列直插式内存模块以及计算设备 - Google Patents

近内存计算加速器、双列直插式内存模块以及计算设备 Download PDF

Info

Publication number
CN115827211A
CN115827211A CN202111091356.7A CN202111091356A CN115827211A CN 115827211 A CN115827211 A CN 115827211A CN 202111091356 A CN202111091356 A CN 202111091356A CN 115827211 A CN115827211 A CN 115827211A
Authority
CN
China
Prior art keywords
memory
data
calculation
computing
dimm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111091356.7A
Other languages
English (en)
Inventor
田腾
鲁芳敏
赵乐天
王笑天
吴巍
金西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Huawei Technologies Co Ltd
Original Assignee
University of Science and Technology of China USTC
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC, Huawei Technologies Co Ltd filed Critical University of Science and Technology of China USTC
Priority to CN202111091356.7A priority Critical patent/CN115827211A/zh
Priority to PCT/CN2022/119198 priority patent/WO2023041002A1/zh
Publication of CN115827211A publication Critical patent/CN115827211A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本申请提供了一种近内存计算加速器、双列直插式内存模块以及计算设备。本实施例的近内存计算加速器包括多个控制器以及计算模块。所述多个控制器用于并行获取多个内存块中的多个数据,其中,所述多个控制器中的一个控制器用于获取所述多个内存块中的一个内存块的数据。所述计算模块分别连接所述多个控制器,并用于对所述多个数据进行计算,其中,所述近内存计算加速器以及所述多个内存块位于同一块双列直插式内存模块DIMM上。上述近内存计算加速器在数据量较多或者数据的向量维度较多时都能够提升加速效果。

Description

近内存计算加速器、双列直插式内存模块以及计算设备
技术领域
本申请涉及存储领域,尤其涉及一种近内存计算加速器、双列直插式内存模块以及计算设备。
背景技术
存储层通常包括高速缓存(cache)、内存(DRAM memory)和非易失性存储器(NVM)。在传统计算机系统中,数据从非易失性存储器逐级加载到高速缓存中,然后由处理器(central processing unit,CPU)对其进行计算。由于数据需要从非易失性存储器逐级加载到高速缓存(cache)中,因此,CPU计算消耗数据的速度远高于内存读取数据的速度,严重制约着CPU发挥其应有的性能。
为了解决上述问题,现有技术提供了一种近内存计算加速系统,能够在内存附近设置具备计算能力的缓存芯片,由缓存芯片从内存取出数据,并对从内存取出数据进行计算,从而有效缩短数据从存取到计算的延迟。但是,现有的近内存计算加速系统只对向量维度较多的数据具有较好的加速作用,应用场景比较受限。
发明内容
为了解决上述问题,本申请提供了一种近内存计算加速器、双列直插式内存模块以及计算设备,能够在数据量较多或者数据的向量维度较多时都能提升加速效果。
第一方面,提供了一种近内存计算加速器,包括:
多个控制器,用于并行获取多个内存块中的多个数据,其中,所述多个控制器中的一个控制器用于获取所述多个内存块中的一个内存块的数据;
计算模块,分别连接所述多个控制器,用于对所述多个数据进行计算,其中,
所述近内存计算加速器以及所述多个内存块位于同一块双列直插式内存模块DIMM上。
上述方案中,近内存计算加速器中的计算模块通过多个控制器并发地从多个内存块获取多个数据,并对多个数据并行进行计算,因此,能够在数据量较多或者数据的向量维度较多时都能够提升加速效果。
在一些可能的设计中,所述计算包括:加法计算、乘法计算、除法计算、查找计算以及非线性计算中的至少一种。
上述方案中,近内存计算加速器的采用专有的指令集设计,指令集支持加法计算、乘法计算、除法计算、查找计算以及非线性计算等等计算,精简易用,无需复杂的解码设计,有利于减少芯片面积、功耗和成本。
在一些可能的设计中,所述加速器还包括指令解码器,所述指令解码器分别连接所述多个控制器,
所述指令解码器用于对通用处理器CPU发送的指令进行解码,得到解码结果,所述解码结果用于指示待进行计算的所述多个数据的地址以及计算类型;
所述多个控制器用于根据所述多个数据的地址并行从所述多个内存块中获取所述多个数据;
所述计算模块用于根据所述计算类型对所述多个数据执行相应的计算。
在一些可能的设计中,所述计算模块包括缓存单元,所述缓存单元用于缓存对所述多个数据进行计算得到的计算结果。
上述方案中,可以在缓存单元中缓存对所述多个数据进行计算得到的计算结果,在进行累加时,可以从缓存单元中读取计算结果继续进行累加,从而减少读取内存的次数,提高了数据处理的速度。
第二方面,提供了一种双列直插式内存模块DIMM,包括:
多个内存块,用于存储多个数据,其中,所述多个内存块中的一个内存块用于存储所述多个数据中的一个数据;
近内存计算加速器,分别连接所述多个内存块,用于从所述多个内存块中并行获取所述多个数据,对所述多个数据进行计算。
在一些可能的设计中,所述计算包括:加法计算、乘法计算、除法计算、查找计算以及非线性计算中的至少一种。
在一些可能的设计中,所述近内存计算加速器,包括:
多个控制器,用于并行获取多个内存块中的多个数据,其中,所述多个控制器中的一个控制器用于获取所述多个内存块中的一个内存块的数据;
计算模块,分别连接所述多个控制器,用于对所述多个数据进行计算。
在一些可能的设计中,所述近内存计算加速器还包括指令解码器,所述指令解码器分别连接所述多个控制器,
所述指令解码器用于对通用处理器CPU发送的指令进行解码,得到解码结果,所述解码结果用于指示待进行计算的所述多个数据的地址以及计算类型;
所述多个控制器用于根据所述多个数据的地址并行从所述多个内存块中获取所述多个数据;
所述计算模块用于根据所述计算类型对所述多个数据执行相应的计算。
在一些可能的设计中,所述计算模块包括缓存单元,所述缓存单元用于缓存对所述多个数据进行计算得到的计算结果。
第三方面,提供了一种计算设备,包括:
通用处理器CPU,用于发送近内存计算指令;
双列直插式内存模块DIMM,包括多个内存块以及近内存计算加速器,所述近内存计算加速器用于:
接收所述近内存计算指令,所述近内存计算指令用于指示待执行近内存计算的多个数据的地址以及计算类型;
根据所述多个数据的地址从所述多个内存块中并行获取所述多个数据;
根据所述计算类型对所述多个数据执行计算。
在一些可能的设计中,所述计算包括:加法计算、乘法计算、除法计算、查找计算以及非线性计算中的至少一种。
在一些可能的设计中,所述近内存计算加速器包括缓存单元,所述缓存单元用于缓存对所述多个数据进行计算得到的计算结果。
在一些可能的设计中,所述多个内存块被配置为允许所述近内存计算加速器访问时,禁止所述CPU访问。
在一些可能的设计中,所述DIMM还包括与所述多个内存块均不相同的一个或者多个内存块,所述一个或者多个内存块被配置为允许所述CPU访问时,禁止所述近内存计算加速器访问。
在一些可能的设计中,所述DIMM被配置为允许所述近内存计算加速器访问所述多个内存块中的一个内存块时,所述CPU同步访问所述一个或者多个内存块。
在一些可能的设计中,所述近内存计算加速器满足以下条件中的一个或者多个;
所述近内存计算加速器访问所述多个内存块中的一个内存块的能耗低于所述CPU访问所述一个或者多个内存块的能耗。
第四方面,提供了一种近内存计算方法,所述方法包括:
接收近内存计算指令,所述近内存计算指令用于指示待执行近内存计算的多个数据的地址以及计算类型;
根据所述多个数据的地址从多个内存块中并行获取所述多个数据;
根据所述计算类型对所述多个数据执行近内存计算。
在一些可能的设计中,所述近内存计算包括:加法计算、乘法计算、除法计算、查找计算以及非线性计算中的至少一种。
附图说明
为了更清楚地说明本申请实施例或背景技术中的技术方案,下面将对本申请实施例或背景技术中所需要使用的附图进行说明。
图1是本申请涉及的一种近内存计算加速系统的结构示意图;
图2是图1所示的近内存计算加速系统的运作机制的示意图;
图3是本申请提供的一种计算设备的示意图;
图4是本申请提供的一种CPU的结构示意图;
图5是本申请提供的一种DIMM的结构示意图;
图6是本申请提供的一种近内存计算指令的结构示意图;
图7是图1所示的近内存计算加速系统和图3所示的计算设备在各个场景下的加速效果的对比示意图;
图8是图3所示的计算设备分别在向量维度为16以及向量维度为1024时在不同的内存组数量下的加速效果的示意图;
图9是本申请提供的一种近内存计算方法的流程示意图。
具体实施方式
参见图1,图1是本申请本申请涉及的一种近内存计算加速系统的结构示意图。如图1所示,所述近内存计算加速系统包括CPU 110、多个双列直插式内存模块(dual inlinememory modules,DIMM)120以及DDR总线130。其中,CPU 110和DIMM 120之间可以通过DDR总线130进行通信。
CPU 110是计算中心,具有较高的计算能力,可以包括用于缓存数据的高速缓存。DIMM 120包括动态随机存取存储器(dynamic random access memory,DRAM)121以及缓存芯片122。缓存芯片122包括内存控制器和向量计算单元(NMP core)。其中,DRAM 121用于存储数据。缓存芯片122中的本地内存控制器根据有限状态机控制逻辑,将高层次的CPU的指令翻译成低层次的DRAM 121的C/A命令,以将数据从DRAM 121中读取至缓存芯片122中的向量计算单元中执行计算任务,并将该计算任务的计算结果写回DRAM 121中。由此可见,如果利用CPU 110进行计算,CPU 110需要将DIMM 120的DRAM 121中的数据(从NVM中读取的)通过DDR总线130读取到CPU 110的高速缓存中才能进行计算。而缓存芯片122是设置在DIMM120中的,如果利用缓存芯片122进行计算,缓存芯片122可以直接访问DIMM 120的DRAM 121中的数据(从NVM中读取的)并进行计算,有效缩短数据从读取到计算的延迟。
下面将结合图2对图1所示的近内存计算加速系统运作机制进行详细的说明。
假设近内存计算加速系统中DIMM的数量为m个,每个DIMM中缓存芯片122的数量均为一个,计算任务涉及的从NVM中读取的数据包括数据1、数据2、数据3、…、数据n。其中,数据1可以包括(子向量1、子向量2、…、子向量m),数据2可以包括(子向量1、子向量2、…、子向量m),…,数据n可以包括(子向量1、子向量2、…、子向量m)。并且,数据1的子向量1,数据2的子向量1,…,数据n的子向量1均必须存储于DIMM1中;数据1的子向量2,数据2的子向量2,…,数据n的子向量2均必须存储于DIMM2;…;数据1的子向量m,数据2的子向量m,…,数据n的子向量2均必须存储于DIMMm。DIMM1中缓存芯片1对数据1的子向量1,数据2的子向量1,…,数据n的子向量1进行处理,得到计算结果的子向量1;DIMM2中缓存芯片2对数据1的子向量2,数据2的子向量2,…,数据n的子向量2进行处理,得到计算结果的子向量2;…;DIMMm中缓存芯片m对数据1的子向量m,数据2的子向量m,…,数据n的子向量m进行处理,得到计算结果的子向量m。
在上述方案中,单个数据的各个子向量必须要分布存储在各个DIMM中,才能达到加速的效果。但是,当单个数据的向量维度不足以分布到各个DIMM的时候,例如,当单个数据的向量维度为1的时候,则只有DIMM1中的缓存芯片1进行工作,其他DIMM中的缓存芯片(例如,缓存芯片2至m)都处于空闲状态,加速的效果将会受到影响。
参见图3,图3是本申请提供的一种计算设备的示意图。如图3所示,本申请涉及的计算设备包括:CPU 210、一个或者多个DIMM 220。其中,CPU 210和DIMM 220之间可以通过总线230之间进行通信。
CPU 210的体系结构可以分为两类:一类为精简指令集计算机(reducedinstruction set computer,RISC),每条指令仅用于完成一项简单操作。对于经常使用的简单操作,RISC结构的处理器可以以更快的速度执行指令,对不常用的操作,RISC结构的处理器常通过组合指令来完成。另一类为复杂指令系统计算机(complex instruction setcomputer,CISC),每个指令可执行若干简单操作,例如从存储器读取、存储、和计算操作,全部集于单一复杂指令之中。CISC结构的处理器指令系统比较丰富,有专用指令来完成特定的功能。在一具体的实施例中,如图4所示,CPU 210用于处理DIMM 220中存放的指令和数据。在一些实施例中,指令可以包括一个或多个指令格式。指令格式可以指示各种字段(位的数量、位的位置等)来指定待执行的数据处理的操作和操作数,其中该操作将在该操作数上被执行。一些指令格式可以进一步由指令模板(或子格式)定义。CPU 210包括存储器地址寄存器301、存储器数据寄存器302、程序计数器303、指令寄存器304、指令译码器305、操作控制器307、计算单元308、通用寄存器309、累加器310、程序状态寄存器311、时序电路312以及处理器总线313。其中,处理器总线313也可以是数据总线、电源总线、控制总线或者状态信号总线等。
存储器地址寄存器301用于保存CPU 210当前所要访问的DIMM 220中的内存的地址。
存储器数据寄存器302用于保存CPU 210从该地址中读取或写入的数据和读取或写入的指令,以便弥补CPU和存储器之间存在的操作速度上的差异。
程序计数器303用于存放下一条指令的地址,当指令顺序执行时,每取一条指令后程序计数器303自动加上一条指令的字节数。当遇到转移指令时,程序计数器303通过转移指令中的地址码字段来指定下一条指令的地址。
时序电路312通过固定时钟为各部件提供一个时间基准,CPU 210执行一条指令的时间为一个指令周期。
指令寄存器304用于保存当前正在执行的指令。指令包括操作码和地址码两个字段,操作码部分由指令译码器305对操作码部分进行译码,以产生指令所要求操作的控制电位。操作控制器307可以根据指令译码器输出的控制电位信号和时序电路312产生的时序信号,生成各种操作控制信号,控制CPU 210其余部件完成取指令和执行指令的操作。
微指令是CPU 210执行指令的最小单位,一条指令可以是单个微指令,也可以由若干个微指令组成。由多条微指令组合的指令称为复杂指令,可以使用各种不同的机制来实现指令译码器305对复杂指令的解码。具体的解码机制包括但不限于查找表,硬件实现,可编程逻辑阵列(PLA),微码只读存储器(ROM)等方式。在一个实施例中,可以将复杂指令对应的微指令的步骤存储在微码只读存储器306中,指令译码器305在译码的过程中,可以从微码只读存储器306中查询并得到组成复杂指令的微指令的操作码和地址码,依次对微指令的操作码部分进行译码,产生微指令所要求操作的控制电位。
操作控制器307具有多个缓冲器,可以根据指令的种类,将解码后的指令送往各自的保留站中保存下来。并根据计算单元的硬件电路的状态和各指令能否提前执行的具体情况分析后,将能提前执行的指令调度给相应计算单元308执行。在这期间对指令流进行重新排序,以使指令流水线行进并被平滑调度。示例性地,对于整数计算的指令,操作控制器307可以使用整数保留站保存指令,并分配给整数计算单元执行计算;二对于浮点数计算的指令,操作控制器307可以使用浮点数保留站保存指令,并分配给浮点数计算单元执行计算。
通用寄存器组309用于根据指令的地址码,保存地址码对应的数据。计算单元308用于接收操作控制器307的操作控制信号并对保存在通用寄存器组309中的数据执行计算,包括算术计算(包括加减乘数等基本计算及其附加计算)和逻辑计算(包括移位、逻辑测试或两个值比较)。计算中产生的临时变量存放在累加器310中,产生的状态的信息存放在程序状态字寄存311中,例如计算结果进/借位标志(C)、计算结果溢出标志(O)、计算结果为零标志(Z)、计算结果为负标志(N)、计算结果符号标志(S)等。程序状态字寄存器还用来保存中断和计算设备工作状态等信息,以便CPU 210及时了解机器运行状态和程序运行状态。
计算单元308中包含多种不同的电路模块,可以分别用于执行不同的指令。例如,整数计算单元3081以及浮点数计算单元3082,分别用于对整数和浮点数进行算术计算和逻辑计算。
应理解,图4所示的CPU可以包括更多或者更少的部件,或者,图4中的多个部件可以集成为一个部件,此处不作具体限定。
如图5所示,DIMM是由一个或者多个近内存计算加速器221以及多个DRAM 222组成的模块。
DRAM 222是一种半导体存储器,与大部分随机存取存储器(random accessmemory,RAM)一样,属于一种易失性存储器(volatile memory)设备。DIMM中的DRAM 222的数量通常为多个。为了方便对DRAM 222进行管理,可以引用内存块的概念。内存块可以包括第一内存块以及第二内存块,其中,第一内存块被配置为允许所述近内存计算加速器访问时,禁止所述CPU访问;第二内存块被配置为禁止近内存计算加速器访问时,允许CPU访问。并且,第一内存块被近内存计算加速器访问的同时,CPU可以同步访问第二内存块。这样,CPU与近内存计算加速器可以同时访问各自的内存地址空间,互不干扰,解决了现有技术CPU与近内存计算加速器无法同时访问内存,在近内存计算期间严重影响系统其余应用处理效率的问题。其中,内存块可以是将多个DRAM 222组成的内存组(Rank),也可以是将单个DRAM 222进行划分得到的内存库(bank),也可以是DRAM等等。举个例子说明,DIMM的正反两面都具有多个DRAM 222,可以将同一面的多个DRAM组成一个内存组。单个DRAM 222可以分成8个或16个内存库。可以理解,上述例子都仅仅作为具体的示例,在实际应用中,也可以将DIMM的正反两面的DRAM 222分成4个内存组,8个内存组或者更少或更多内存组,也可以将单个DRAM 222可以分成2个内存库,4个内存库或者更少或更多内存库等等,此处不作具体限定。
近内存计算加速器221分别与DIMM内的内存块相连,可并行访问第一内存块,从而增加内部等效数据访问带宽,并且,由于数据集中在近内存计算加速器221上处理,支持跨多个内存块数据访问与处理,数据分配无需限制在同一内存块上。
在一具体的实施例中,近内存计算加速器221包括指令解码器410、计算模块420、多个控制器430以及多个多路选择器440。
指令解码器410用于接收CPU通过DDR总线发送的指令,对CPU发送的指令进行解码,得到解码结果,所述解码结果用于指示待进行计算的所述多个数据的地址以及计算类型。在一更具体的实施例中,指令解码器410包括状态寄存器411以及指令缓存队列412。其中,指令包括普通指令以及近内存计算指令。如果指令是普通指令,指令解码器410将普通指令通过多路选择器440传递给对应的DRAM 222。如果指令是近内存计算指令,指令解码器410阻止该近内存计算指令到达DRAM 222,并将该近内存计算指令保存在指令缓存队列412中。状态寄存器411为内存可寻址的空间,当CPU向该地址发送读取请求,指令解码器410随即向CPU返回状态寄存器411中存储的近内存计算的工作状态。
计算模块420用于根据所述计算类型对所述多个数据执行相应的计算。计算模块420包括计算单元控制器421、输入单元422、计算单元阵列423、输出单元424以及缓存单元425。其中,计算单元控制器421用于控制计算单元阵列423执行近内存计算指令对相应的数据处理操作。输入单元422用于缓存从DRAM 222中读取准备用于执行近内存计算指令的数据。输出单元424用于缓存计算单元阵列423执行近内存计算指令之后得到的计算结果。缓存单元425用于存储执行近内存计算指令的数据处理过程中需要重复利用的数据。缓存单元425的容量可以根据需要进行设置,例如,可以是4千字节。计算单元阵列423总的数据吞吐带宽与DIMM条内所有内存组450并发访问数据总带宽相同,来自一个或多个内存组450的数据集中在计算单元阵列423进行处理。
控制器430接受指令解码器410发送过来的所述多个数据的地址和计算模块420输出的计算结果,生成对DRAM 222读写数据的操作命令。控制器430的数量为多个,例如,两个,三个或者更多。在一具体的实施例中,控制器430的数量可以与内存组450的数量相同,即,每个内存组450均具有独立的控制器430。或者,控制器430的数量可以与内存库的数量相同,即,每个内存库均具有独立的控制器430。或者,控制器430的数量可以与DRAM 222的数量相同,即,每个DRAM 222均具有独立的控制器430。
多路选择器440用于根据指令解码器410的控制信号,选择将控制器430或者CPU的访存命令发送给DRAM 222,以及,从DRAM 222中获取需要发送给控制器430以及CPU的数据。在一具体的实施中,多路选择器440的数量可以与控制器430的数量相同。在其他的实施例中,控制器430的数量也可以多于或者少于多路选择器440的数量,此处不作具体限定。
可以理解,图5所示DIMM仅仅作为一个具体的实例,在实际应用中,DIMM可以包括更多的内存组、更多的近内存计算加速器,并且,近内存计算加速器可以包括更多或者更少的部件,此处不作具体限定。
近内存计算指令是CPU发送给DIMM的,属于DIMM支持的近内存计算指令集中的指令。其中,近内存计算指令集可以包括一条或者多条近内存计算指令。不同的近内存计算指令集可以支持不同的近内存计算指令。近内存计算指令集中指令的内容以及指令的数量等等均可以根据用户的需求进行设置。当近内存计算指令集越复杂,则DIMM支持的近内存计算越复杂,但是,DIMM的电路的设计越复杂,计算的效率越低;相反,当近内存计算指令集越简单,则DIMM支持的近内存计算越简单,但是,DIMM的电路的设计越简单,计算的效率越高。在一具体的实施例中,近内存计算指令集支持的计算包括加法计算、乘法计算、除法计算、查找计算以及非线性计算中的至少一种。
近内存计算指令通常包括操作码、子操作码、非线性操作码、向量维度、输入地址1、输入地址2,输出地址,常数1以及常数2。其中,操作码用于指示可以进行近内存计算的计算类型,例如,操作码可以指示加法计算、乘法计算、除法计算以及查找计算等等计算类型中的一种或者多种。子操作码用于指示每种计算类型包括的子计算类型,例如,当操作码为加法时,子操作码可以包括(从内存读,写回缓存)、(从缓存读,写回缓存)、(从缓存读,写回内存)、(从内存读,写回内存)等等子计算类型中的一种或者多种。当操作码为乘法时,子操作码可以包括向量对应元素积、向量数乘、向量内积等等子计算类型中的一种或者多种。当操作码为除法时,子操作码可以包括向量对应元素相除、向量按元素除以常数、常数按元素除以向量等等子计算类型中的一种或者多种。当操作码为查找时,子操作码可以包括归纳和匹配等等子计算类型中的一种或者多种。非线性操作码可以与操作码结合,用于指示是否需要对该操作码对应的计算进行非线性计算。向量维度用于指示进行近内存计算的数据的向量维度。输入地址1为进行近内存计算的第一数据所在的地址。输入地址2为进行近内存计算的第二数据所在的地址。输出地址为近内存计算的计算结果的存储地址。常数1和常数2为进行近内存计算的常数。
近内存计算指令集按照指令执行的功能分可以包括:加法操作、乘法操作、除法操作、查找操作等等。因此,可以用2位二进制数的操作码来表示。每种操作对应的子操作数量最多为4种,因此,也可以用2位二进制数子操作码的来表示。综合来说,采用4位二进制数可以表示近内存计算指令集支持的所有操作。非线性操作一般是在计算结果的基础上进行的,因此,加法操作对应的指令、乘法操作对应的指令和除法操作对应的指令之外还需要额外的2位二进制数的非线性操作码指示是否需要对计算结果进行非线性变换,以及采用何种非线性变换函数。在内存BL8访问模式下,一次访存可返回64字节的数据,因此,指令中的向量维度最大值设置为64,可以采用6位二进制数或者7位二进制数的向量维度来进行表示。这样一条指令可以多次迭代执行,每次执行按字节索引的地址值增加64,从而可以通过一条指令访问4千字节的物理页空间。对于大于4千字节的数据,需要分多条指令完成访问。在双倍速率SDRAM(double-data-rate fourth generation synchronous dynamic randomaccess memory,DDR4 SDRAM)的规范中,行地址最多有18位二进制数,列地址为10位二进制数,库组(bank group,BG)和库(Bank,BA)索引各2位二进制数,再加上CS0-CS4共4位内存组的片选信号,地址的长度最多为36位二进制数。根据不同的指令,36位二进制数的地址的低32位也可用于传输32位二进制数的数据。综合上述,近内存计算指令的长度最多有121位二进制数:4位二进制数(操作码+子操作码)+2位二进制数(非线性操作码)+7位二进制数(向量维度)+36位二进制数(输入地址1)+36位二进制数(输入地址2)+36位二进制数(输出地址)。DDR接口的双向数据控制引脚(bi-directional data strobe,DQ)总线位宽为64-bit,因此可以通过2个DDR时钟周期传输128位二进制数数据,用128位二进制数数据来存储近内存计算指令。
如图6所示,近内存计算指令可以采用如下格式:4位的操作码字段、2位的非线性操作码字段、7位的向量维度字段、36位的第一输入字段、36位的第二输入字段、36位的输出字段以及6位的保留字段。其中,操作码字段用于存储操作码以及子操作码。非线性操作码字段用于存储非线性操作码。向量维度字段用于存储向量维度。第一输入字段用于存储输入地址1或者常数1。第二输入字段用于存储输入地址2或者常数2。输出字段用于存储输出地址。
可以理解,图6所示的近内存计算指令的各个字段的长度,各个字段的内容,总的字段的数量均可以按照需要进行设置,此处不作具体限定。
下面将以表1所示的近内存计算指令集为例,对近内存计算指令集中的各个近内存计算指令进行详细的介绍:
表1近内存计算指令集
Figure BDA0003267475800000081
Figure BDA0003267475800000091
接下来,将对每一条指令进行详细说明:
指令1表示从内存(DRAM)的输入地址1和内存(DRAM)的输入地址2分别读取两个数据,将两个数据按元素进行相加得到计算结果,计算结果保存在近内存计算加速器的缓存单元的输出缓存地址中。
指令2表示从内存(DRAM)的输入地址1中读取数据1,从近内存计算加速器的缓存单元的输入缓存地址读取数据2,将两个数据按元素进行相加得到计算结果,计算结果保存在近内存计算加速器的缓存单元的输出缓存地址中。
指令3表示从内存(DRAM)的输入地址1中读取数据1,从近内存计算加速器的缓存单元的输入缓存地址读取数据2,将两个数据按元素进行相加得到计算结果,计算结果保存在内存(DRAM)的输出内存地址中。
指令4表示从内存(DRAM)的输入地址1和内存(DRAM)的输入地址2分别读取两个数据,将两个数据进行相加得到计算结果,计算结果保存在内存(DRAM)的输出内存地址中。
指令5表示从内存(DRAM)的输入地址1和内存(DRAM)的输入地址2分别读取两个数据,将两个数据的对应元素进行相乘得到计算结果,计算结果保存在内存(DRAM)的输出内存地址中。
指令6表示从内存(DRAM)的输入地址1中读取数据1,将数据1和常数进行数乘得到计算结果,计算结果保存在内存(DRAM)的输出内存地址中。
指令7表示从内存(DRAM)的输入地址1和内存(DRAM)的输入地址2分别读取两个数据,将两个数据进行内积计算得到计算结果,计算结果保存在内存(DRAM)的输出内存地址中。
指令8表示从内存(DRAM)的输入地址1和内存(DRAM)的输入地址2分别读取两个数据,将两个数据的对应元素进行相除得到计算结果,计算结果保存在内存(DRAM)的输出内存地址中。
指令9表示从内存(DRAM)的输入地址1中读取数据1,将数据1按元素除以除数得到计算结果,计算结果保存在内存(DRAM)的输出内存地址中。
指令10表示从内存(DRAM)的输入地址2中读取数据2,将被除数按元素除以数据2的各个子向量得到计算结果,计算结果保存在内存(DRAM)的输出内存地址中。
指令11表示从内存(DRAM)的输入地址1中读取数据1,数据1中的一个元素代表一条源顶点到目标顶点的边,数据1由连续的边数据组成。将数据1按元素与输入的待归纳数据进行比较,按元素与输入的待归纳数据(即目标顶点索引)进行比较,若目标顶点与边数据匹配,则记录相应的源顶点索引,并保存到近内存计算加速器的缓存单元中。在完成对数据1存储的边数据比较后,所有匹配的源顶点索引从近内存计算加速器的缓存单元中读出,并写回内存(DRAM)的输出内存地址中。
指令12表示从内存(DRAM)的输入地址1中读取数据1,将数据1按元素与输入的待匹配数据进行比较,统计与输入数据相匹配的数据1中的子向量的个数。在完成对数据1中的子向量的个数的比较后,统计数量写回内存(DRAM)的输出内存地址中。
下面将以指令6为例详细介绍指令是如何执行的。以图神经网络领域(GraphConvolutional Network,GCN)算法的顶点更新过程为例:
Figure BDA0003267475800000101
使用指令6从内存(DRAM)中读取顶点的特征向量
Figure BDA0003267475800000102
与指令输入的常系数
Figure BDA0003267475800000103
进行数乘操作得到的顶点更新特征向量
Figure BDA0003267475800000104
并将写回内存(DRAM)的输出内存地址中。
上述近内存计算指令均以简单指令为例进行说明,实际上近内存计算指令还可以是复杂指令,即,近内存计算指令可以是多个简单指令的组合,例如,聚合(gather)指令、嵌入(embedding)指令等等。
下面详细说明如何使用上述表1所示的近内存计算指令集完成聚合(gather)指令的操作。
以GCN算法的聚合过程为例:
Figure BDA0003267475800000105
其中,
Figure BDA0003267475800000106
表示第l层顶点特征向量,
Figure BDA0003267475800000107
表示第l+1层顶点特征向量,v代表源顶点,u代表目标顶点,v→u表示v是目标顶点u的相邻顶点。
假设目标顶点u的相邻顶点v数量较多,首先,使用指令1将保存在内存(DRAM)中的两个相邻的顶点特征向量读取到近内存计算加速器中,并按元素进行相加得到第一计算结果,并将第一计算结果保存在近内存计算加速器的缓存单元的输出缓存地址中。
然后,使用多条指令2,继续从内存中逐条加载新的相邻的顶点特征向量,并与保存在近内存计算加速器的缓存单元中的计算结果按元素进行相加得到第二计算结果,并将第二计算结果保存在近内存计算加速器的缓存单元的输出缓存地址中。如此,可以重复利用近内存计算加速器的缓存单元的中间计算结果,避免每次累加操作都需要读写计算结果。
当加载最后一个相邻顶点特征向量时,使用指令3从内存中加载最后一个相邻的顶点特征向量,并与保存在近内存计算加速器的缓存单元中的计算结果按元素进行相加得到第三计算结果,并将第三计算结果写回内存(DRAM)的输出内存地址中。
假如目标顶点u只有一个相邻顶点,则直接使用指令4,将保存在内存(DRAM)中的相邻的顶点特征向量和目标顶点的特征向量读取到近内存计算加速器中,并按元素做加法操作得到第四计算结果,并将第四结果直接写回内存(DRAM)的输出内存地址中。
在上述计算设备中,无论是数据的向量维度比较多(不论数据量比较少还是数据量比较多)时,或者,数据的量比较大(不论数据的向量维度比较少还是数据的向量维度比较多)时,加速的效果都非常好。
下面将结合图5所示的计算设备为例,并以数据的向量维度比较长为例,对图5所示的计算设备的工作过程进行详细的介绍。
假设计算设备中DIMM的数量为m个,每个DIMM中包括两个内存组,每个内存组包括4个DRAM,数据1的向量维度为8m,数据2的向量维度为8m。其中,
数据1的子向量a1被存储在DIMM1的内存组1的DRAM1中,数据1的子向量a2被存储在DIMM1的内存组1的DRAM2中,数据1的子向量a3被存储在DIMM1的内存组1的DRAM3中,数据1的子向量a4被存储在DIMM1的内存组1的DRAM4中,数据1的子向量a5被存储在DIMM1的内存组2的DRAM1中,数据1的子向量a6被存储在DIMM1的内存组2的DRAM2中,数据1的子向量a7被存储在DIMM1的内存组2的DRAM3中,数据1的子向量a8被存储在DIMM1的内存组2的DRAM4中;
数据1的子向量a9被存储在DIMM2的内存组1的DRAM1中,数据1的子向量a10被存储在DIMM2的内存组1的DRAM2中,数据1的子向量a11被存储在DIMM2的内存组1的DRAM3中,数据1的子向量a12被存储在DIMM2的内存组1的DRAM4中,数据1的子向量a13被存储在DIMM2的内存组2的DRAM1中,数据1的子向量a14被存储在DIMM2的内存组2的DRAM2中,数据1的子向量a15被存储在DIMM2的内存组2的DRAM3中,数据1的子向量a16被存储在DIMM2的内存组2的DRAM4中;
…;
数据1的子向量a8m-7被存储在DIMMm的内存组1的DRAM1中,数据1的子向量a8m-6被存储在DIMMm的内存组1的DRAM2中,数据1的子向量a8m-5被存储在DIMMm的内存组1的DRAM3中,数据1的子向量a8m-4被存储在DIMMm的内存组1的DRAM4中,数据1的子向量a8m-3被存储在DIMMm的内存组2的DRAM1中,数据1的子向量a8m-2被存储在DIMM2的内存组2的DRAM2中,数据1的子向量a8m-1被存储在DIMMm的内存组2的DRAM3中,数据1的子向量a8m被存储在DIMMm的内存组2的DRAM4中。
同理,数据2的子向量b1被存储在DIMM1的内存组1的DRAM1中,数据2的子向量b2被存储在DIMM1的内存组1的DRAM2中,数据2的子向量b3被存储在DIMM1的内存组1的DRAM3中,数据2的子向量b4被存储在DIMM1的内存组1的DRAM4中,数据2的子向量b5被存储在DIMM1的内存组2的DRAM1中,数据2的子向量b6被存储在DIMM1的内存组2的DRAM2中,数据2的子向量b7被存储在DIMM1的内存组2的DRAM3中,数据2的子向量b8被存储在DIMM1的内存组2的DRAM4中;
数据2的子向量b9被存储在DIMM2的内存组1的DRAM1中,数据2的子向量b10被存储在DIMM2的内存组1的DRAM2中,数据2的子向量b11被存储在DIMM2的内存组1的DRAM3中,数据2的子向量b12被存储在DIMM2的内存组1的DRAM4中,数据2的子向量b13被存储在DIMM2的内存组2的DRAM1中,数据2的子向量b14被存储在DIMM2的内存组2的DRAM2中,数据2的子向量b15被存储在DIMM2的内存组2的DRAM3中,数据2的子向量b16被存储在DIMM2的内存组2的DRAM4中;
…;
数据2的子向量b8m-7被存储在DIMMm的内存组1的DRAM1中,数据2的子向量b8m-6被存储在DIMMm的内存组1的DRAM2中,数据2的子向量b8m-5被存储在DIMMm的内存组1的DRAM3中,数据2的子向量b8m-4被存储在DIMMm的内存组1的DRAM4中,数据2的子向量b8m-3被存储在DIMMm的内存组2的DRAM1中,数据2的子向量b8m-2被存储在DIMM2的内存组2的DRAM2中,数据2的子向量b8m-1被存储在DIMMm的内存组2的DRAM3中,数据2的子向量b8m被存储在DIMMm的内存组2的DRAM4中。
DIMM1中的计算模块通过控制器1控制多路选择器1从内存组1中的DRAM1至DRAM4中读取数据1的子向量a1至子向量a4,以及数据2的子向量b1至子向量b4,并保存在输入单元中。DIMM1中的计算模块通过控制器2控制多路选择器2从内存组2中的DRAM1至DRAM4中读取数据1的子向量a5至子向量a8,以及数据2的子向量b5至子向量b8,并保存在输入单元中。计算单元阵列将数据1的子向量a1至子向量a8,数据2的子向量b1至子向量b8分别进行计算处理,得到计算结果,并将计算结果保存在输出单元或者缓存单元中;
DIMM2中的计算模块通过控制器1控制多路选择器1从内存组1中的DRAM1至DRAM4中读取数据1的子向量a9至子向量a12,以及数据2的子向量b9至子向量b12,并保存在输入单元中。DIMM2中的计算模块通过控制器2控制多路选择器2从内存组2中的DRAM1至DRAM4中读取数据1的子向量a13至子向量a16,以及数据2的子向量b13至子向量b16,并保存在输入单元中。计算单元阵列将数据1的子向量a9至子向量a16,数据2的子向量b9至子向量b16分别进行计算处理,得到计算结果,并将计算结果保存在输出单元或者缓存单元中;
…;
DIMMm中的计算模块通过控制器1控制多路选择器1从内存组1中的DRAM1至DRAM4中读取数据1的子向量am-7至子向量am-4,以及数据2的子向量bm-7至子向量bm-4,并保存在输入单元中。DIMMm中的计算模块通过控制器2控制多路选择器2从内存组2中的DRAM1至DRAM4中读取数据1的子向量am-3至子向量am,以及数据2的子向量bm-3至子向量bm,并保存在输入单元中。计算单元阵列将数据1的子向量am-7至子向量am,数据2的子向量bm-7至子向量bm分别进行计算处理,得到计算结果,并将计算结果保存在输出单元或者缓存单元中。
从上述实施例可以看出,在数据的向量维度比较长的情况下,可以将数据的子向量分别设置在不同的内存组中,近内存计算加速器通过多个控制器分别从多个内存组中同步读取数据的子向量并进行计算,从而起到很好的加速效果。
下面将结合图5所示的计算设备为例,并以数据的数据量比较多为例,对图5所示的计算设备的工作过程进行详细的介绍。
假设计算设备中DIMM的数量为m个,每个DIMM中包括两个内存组,每个内存组包括4个DRAM,数据的数量为16m。其中,
数据1被存储在DIMM1的内存组1的DRAM1中,数据2被存储在DIMM1的内存组1的DRAM2中,数据3被存储在DIMM1的内存组1的DRAM3中,数据4被存储在DIMM1的内存组1的DRAM4中,数据5被存储在DIMM1的内存组2的DRAM1中,数据6被存储在DIMM1的内存组2的DRAM2中,数据7被存储在DIMM1的内存组2的DRAM3中,数据8被存储在DIMM1的内存组2的DRAM4中;
数据9被存储在DIMM2的内存组1的DRAM1中,数据10被存储在DIMM2的内存组1的DRAM2中,数据11被存储在DIMM2的内存组1的DRAM3中,数据12被存储在DIMM2的内存组1的DRAM4中,数据13被存储在DIMM2的内存组2的DRAM1中,数据14被存储在DIMM2的内存组2的DRAM2中,数据15被存储在DIMM2的内存组2的DRAM3中,数据16被存储在DIMM2的内存组2的DRAM4中;
…;
数据8m-7被存储在DIMMm的内存组1的DRAM1中,数据8m-6被存储在DIMMm的内存组1的DRAM2中,数据8m-5被存储在DIMMm的内存组1的DRAM3中,数据8m-4被存储在DIMMm的内存组1的DRAM4中,数据8m-3被存储在DIMMm的内存组2的DRAM1中,数据8m-2被存储在DIMM2的内存组2的DRAM2中,数据8m-1被存储在DIMMm的内存组2的DRAM3中,数据8m被存储在DIMMm的内存组2的DRAM4中;
数据8m+1被存储在DIMM1的内存组1的DRAM1中,数据8m+2被存储在DIMM1的内存组1的DRAM2中,数据8m+3被存储在DIMM1的内存组1的DRAM3中,数据8m+4被存储在DIMM1的内存组1的DRAM4中,数据8m+5被存储在DIMM1的内存组2的DRAM1中,数据8m+6被存储在DIMM1的内存组2的DRAM2中,数据8m+7被存储在DIMM1的内存组2的DRAM3中,数据8m+8被存储在DIMM1的内存组2的DRAM4中;
数据8m+9被存储在DIMM2的内存组1的DRAM1中,数据8m+10被存储在DIMM2的内存组1的DRAM2中,数据8m+11被存储在DIMM2的内存组1的DRAM3中,数据8m+12被存储在DIMM2的内存组1的DRAM4中,数据8m+13被存储在DIMM2的内存组2的DRAM1中,数据8m+14被存储在DIMM2的内存组2的DRAM2中,数据8m+15被存储在DIMM2的内存组2的DRAM3中,数据8m+16被存储在DIMM2的内存组2的DRAM4中;
…;
数据16m-7被存储在DIMMm的内存组1的DRAM1中,数据16m-6被存储在DIMMm的内存组1的DRAM2中,数据16m-5被存储在DIMMm的内存组1的DRAM3中,数据16m-4被存储在DIMMm的内存组1的DRAM4中,数据16m-3被存储在DIMMm的内存组2的DRAM1中,数据16m-2被存储在DIMM2的内存组2的DRAM2中,数据16m-1被存储在DIMMm的内存组2的DRAM3中,数据16m被存储在DIMMm的内存组2的DRAM4中。
DIMM1中的计算模块通过控制器1控制多路选择器1从内存组1中的DRAM1至DRAM4中读取数据1至数据4,以及数据8m+1至数据8m+4,并保存在输入单元中。DIMM1中的计算模块通过控制器2控制多路选择器2从内存组2中的DRAM1至DRAM4中读取数据5至数据8,以及数据8m+5至数据8m+8,并保存在输入单元中。计算单元阵列将数据1至数据8,数据8m+1至数据8m+8分别进行计算处理,得到计算结果,并将计算结果保存在输出单元或者缓存单元中;
DIMM2中的计算模块通过控制器1控制多路选择器1从内存组1中的DRAM1至DRAM4中读取数据9至数据12,以及数据8m+9至数据8m+12,并保存在输入单元中。DIMM2中的计算模块通过控制器2控制多路选择器2从内存组2中的DRAM1至DRAM4中读取数据13至数据16,以及数据8m+13至数据8m+16,并保存在输入单元中。计算单元阵列将数据9至数据16,数据8m+9至数据8m+16分别进行计算处理,得到计算结果,并将计算结果保存在输出单元或者缓存单元中;
…;
DIMMm中的计算模块通过控制器1控制多路选择器1从内存组1中的DRAM1至DRAM4中读取数据8m-7至数据8m-4,以及数据16m-7至数据16m-4,并保存在输入单元中。DIMMm中的计算模块通过控制器2控制多路选择器2从内存组2中的DRAM1至DRAM4中读取数据8m-3至数据8m,以及数据16m-3至数据16m,并保存在输入单元中。计算单元阵列将数据8m-7至数据8m,数据16m-7至数据16m分别进行计算处理,得到计算结果,并将计算结果保存在输出单元或者缓存单元中。
从上述实施例可以看出,在数据的数量比较多的情况下,可以将数据分别设置在不同的内存组中,近内存计算加速器通过多个控制器分别从多个内存组中同步读取数据并进行计算,从而起到很好的加速效果。
为了便于说明本申请实施例提供的计算设备的加速效果,下面以图神经网络领域的GCN算法为例进行仿真,并通过仿真结果来观察本申请实施例提供的计算设备的加速效果。
图神经网络领域的GCN算法可以表示为如下几个步骤:
更新顶点:
Figure BDA0003267475800000141
Figure BDA0003267475800000142
分散:
Figure BDA0003267475800000143
申请边:edgel+1=edgel
聚合:
Figure BDA0003267475800000144
更新顶点:
Figure BDA0003267475800000145
其中,聚合(Gather)操作对目标顶点的相邻顶点的特征向量进行累加,更新顶点(ApplyVertex)操作是对顶点的特征向量进行线性变换。若将聚合(Gather)操作和更新顶点(ApplyVertex)操作卸载到近内存计算加速器,可以极大地减少CPU与内存之间搬运的数据量。
因此,基于模拟器搭建了计算设备的仿真测试平台,在仿真测试平台上实现并部署GCN算法中的聚合操作和更新顶点操作,以评估近内存计算加速器对GNN算法的关键函数的加速效果。
在一具体的实施中,可以采用科拉(Cora)数据集以及雷迪特(Reddit)作为测试数据集测试本实施例中的计算设备采用近内存计算加速器对GCN算法中的聚合操作和更新顶点操作进行加速的加速作用的大小。其中,科拉数据集是数据量比较少的数据集,雷迪特数据集是数据量比较多的数据集。此外,通过调整GCN隐藏层的向量维度分别为16、1024来研究向量维度的大小对近内存计算加速器的加速效果的影响。因此,通过不同数据集与向量维度的组合,可以涵盖低数据量低向量维度、低数据量高向量维度、高数据量低向量维度、高数据量高向量维度四种不同的应用场景。以表2为例,科拉数据集以及雷迪特数据集可以是:
表2测试数据集
Figure BDA0003267475800000146
Figure BDA0003267475800000151
参见图7,图7是图1所示的近内存计算加速系统和图3所示的计算设备在各个场景下的加速效果的对比示意图。将表2所示的两个不同的科拉数据集以及雷迪特数据集分别采用16维的向量维度和1024维的向量维度对将图1所示的近内存计算加速系统和图3所示的计算设备的加速效果进行仿真可以得到的如图7所示的对比示意图。明显可见,在采用科拉数据集,向量维度为16时,图1所示的近内存计算加速系统和图3所示的计算设备的加速效果基本相同;在采用科拉数据集,向量维度为1024时,图3所示的计算设备的加速效果优于图1所示的近内存计算加速系统的加速效果;在采用雷迪特数据集,向量维度为16时,图3所示的计算设备的加速效果优于图1所示的近内存计算加速系统的加速效果;在采用雷迪特数据集,向量维度为1024时,图3所示的计算设备的加速效果优于图1所示的近内存计算加速系统的加速效果。所以,在数据量较多或者数据的向量维度较多时,图3所示的计算设备都能够保证比较好的加速效果。
参见图8,图8是图3所示的计算设备分别在向量维度为16以及向量维度为1024时在不同的内存组数量下的加速效果的示意图。明显地,在向量维度为16以及向量维度为1024时,如果其他的参数都不变,只有DIMM中的内存组的数量不相同,则DIMM中的内存组的数量越多,计算设备的加速效果越好。
下面将结合图3至图5所示的计算设备,对该计算设备内如何进行近内存计算进行详细的说明。参见图9,图9是本申请提供的一种近内存计算方法的流程示意图。如图9所示,本申请实施例中的近内存计算方法包括如下步骤:
S101:通用处理器CPU向DIMM中的近内存计算加速器中发送近内存计算指令。相应地,DIMM中的近内存计算加速器接收CPU发送的近内存计算指令。
在一具体的实施例中,通用处理器CPU、DIMM、近内存计算加速器以及指令解码器的结构可以参见图4、图5以及相关描述,此处不在展开描述。
在一具体的实施例中,近内存计算指令的详细内容请参见上文,此处不在展开描述。
S102:近内存计算加速器对近内存计算指令进行解码,得到解码结果。其中,所述解码结果指示多个数据的地址以及计算类型。
在一具体的实施例中,近内存计算加速器可以通过内部的指令解码器对近内存计算指令进行解码,得到解码结果。
在一具体的实施例中,多个数据的地址被设置为允许近内存计算加速器进行访问,禁止CPU进行访问。
在一具体的实施例中,计算类型为加法计算、乘法计算、除法计算、查找计算以及非线性计算中的至少一种。并且,计算类型需为近内存计算指令集支持的类型。近内存计算指令集的相关内容可以参见上文中的相关介绍。
S103:近内存计算加速器根据所述多个数据的地址从所述多个内存块中并行获取所述多个数据。
在一具体的实施例中,内存块可以是CPU以及近内存计算加速器均可以访问的,也可以是,近内存计算加速器允许访问,而,CPU禁止访问的。
S104:近内存计算加速器根据所述计算类型对所述多个数据执行计算。
在一具体的实施例中,近内存计算加速器可以先确定计算类型是加法计算、减法计算、乘法计算以及除法计算中的任意一种。当计算类型是加法计算时,再确定其子计算类型是(从内存读,写回缓存)、(从缓存读,写回缓存)、(从缓存读,写回内存)、(从内存读,写回内存)中的任意一种。当计算类型是乘法计算时,再确定其子计算类型是向量对应元素积、向量数乘、向量内积等等子计算类型中的一种或者多种。当计算类型是为除法时,再确定其子计算类型是向量对应元素相除、向量按元素除以常数、常数按元素除以向量中的任意一种。当计算类型为查找计算时,再确定其子计算类型是归纳和匹配中的任意一种。如果计算类型是加法计算、减法计算、乘法计算以及除法计算中的任意一种时,还需要确定是否需要对计算结果进行非线性计算。
为了简便起见,本实施例中的近内存计算方法并没有进行详细的介绍,具体请参见图3-图8以及相关描述。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、存储盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态存储盘Solid State Disk(SSD))等。

Claims (12)

1.一种近内存计算加速器,其特征在于,包括:
多个控制器,用于并行获取多个内存块中的多个数据,其中,所述多个控制器中的一个控制器用于获取所述多个内存块中的一个内存块的数据;
计算模块,分别连接所述多个控制器,用于对所述多个数据进行计算;
其中,所述近内存计算加速器以及所述多个内存块位于同一块双列直插式内存模块DIMM上。
2.根据权利要求1所述的加速器,其特征在于,所述计算包括:加法计算、乘法计算、除法计算、查找计算以及非线性计算中的至少一种。
3.根据权利要求1或2所述的加速器,其特征在于,所述加速器还包括指令解码器,所述指令解码器分别连接所述多个控制器,
所述指令解码器用于对通用处理器CPU发送的指令进行解码,得到解码结果,所述解码结果用于指示待进行计算的所述多个数据的地址以及计算类型;
所述多个控制器用于根据所述多个数据的地址并行从所述多个内存块中获取所述多个数据;
所述计算模块用于根据所述计算类型对所述多个数据执行相应的计算。
4.根据权利要求1或2或3所述的加速器,其特征在于,所述计算模块包括缓存单元,所述缓存单元用于缓存所述多个数据。
5.一种双列直插式内存模块DIMM,其特征在于,包括多个内存块以及如权利要求1-4任意一项所述的近内存计算加速器,其中:
所述多个内存块,用于存储多个数据,其中,所述多个内存块中的一个内存块用于存储所述多个数据中的一个数据;
所述近内存计算加速器,分别连接所述多个内存块,用于从所述多个内存块中并行获取所述多个数据,对所述多个数据进行计算。
6.一种计算设备,其特征在于,包括:
通用处理器CPU,用于发送近内存计算指令;
双列直插式内存模块DIMM,包括多个内存块以及近内存计算加速器,所述近内存计算加速器用于:
接收所述近内存计算指令,所述近内存计算指令用于指示待执行近内存计算的多个数据的地址以及计算类型;
根据所述多个数据的地址从所述多个内存块中并行获取所述多个数据;
根据所述计算类型对所述多个数据执行计算。
7.根据权利要求6所述的计算设备,其特征在于,
所述多个内存块被配置为允许所述近内存计算加速器访问时,禁止所述CPU访问。
8.根据权利要求7所述的计算设备,其特征在于,所述DIMM还包括与所述多个内存块均不相同的一个或者多个内存块,所述一个或者多个内存块被配置为允许所述CPU访问时,禁止所述近内存计算加速器访问。
9.根据权利要求8所述的计算设备,其特征在于,所述DIMM被配置为允许所述近内存计算加速器访问所述多个内存块中的一个内存块时,所述CPU同步访问所述一个或者多个内存块。
10.根据权利要求9所述的计算设备,其特征在于,所述近内存计算加速器满足以下条件中的一个或者多个;
所述近内存计算加速器访问所述多个内存块中的一个内存块的能耗低于所述CPU访问所述一个或者多个内存块的能耗。
11.一种近内存计算方法,其特征在于,所述方法包括:
接收近内存计算指令,所述近内存计算指令用于指示待执行近内存计算的多个数据的地址以及计算类型;
根据所述多个数据的地址从多个内存块中并行获取所述多个数据;
根据所述计算类型对所述多个数据执行近内存计算。
12.根据权利要求11所述的近内存计算方法,其特征在于,所述近内存计算包括:加法计算、乘法计算、除法计算、查找计算以及非线性计算中的至少一种。
CN202111091356.7A 2021-09-17 2021-09-17 近内存计算加速器、双列直插式内存模块以及计算设备 Pending CN115827211A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111091356.7A CN115827211A (zh) 2021-09-17 2021-09-17 近内存计算加速器、双列直插式内存模块以及计算设备
PCT/CN2022/119198 WO2023041002A1 (zh) 2021-09-17 2022-09-16 近内存计算加速器、双列直插式内存模块以及计算设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111091356.7A CN115827211A (zh) 2021-09-17 2021-09-17 近内存计算加速器、双列直插式内存模块以及计算设备

Publications (1)

Publication Number Publication Date
CN115827211A true CN115827211A (zh) 2023-03-21

Family

ID=85515669

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111091356.7A Pending CN115827211A (zh) 2021-09-17 2021-09-17 近内存计算加速器、双列直插式内存模块以及计算设备

Country Status (2)

Country Link
CN (1) CN115827211A (zh)
WO (1) WO2023041002A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116089356A (zh) * 2023-04-11 2023-05-09 北京红山微电子技术有限公司 近存计算装置、近存计算方法、集成电路及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10649927B2 (en) * 2018-08-20 2020-05-12 Intel Corporation Dual in-line memory module (DIMM) programmable accelerator card
CN111124490A (zh) * 2019-11-05 2020-05-08 复旦大学 使用posit的无精度损失低功耗mfcc提取加速器
CN111860819B (zh) * 2020-07-27 2023-11-07 南京大学 一种可拼接、可分段的全连接神经网络推理加速器及其加速方法
CN113222130A (zh) * 2021-04-09 2021-08-06 广东工业大学 一种基于fpga的可重构卷积神经网络加速器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116089356A (zh) * 2023-04-11 2023-05-09 北京红山微电子技术有限公司 近存计算装置、近存计算方法、集成电路及存储介质

Also Published As

Publication number Publication date
WO2023041002A1 (zh) 2023-03-23

Similar Documents

Publication Publication Date Title
EP3916543B1 (en) Systems and methods for performing instructions to transform matrices into row-interleaved format
US10860326B2 (en) Multi-threaded instruction buffer design
US8422330B2 (en) Memory controller and memory controlling method
EP4141661B1 (en) Systems for performing instructions to quickly convert and use tiles as 1d vectors
CN104756090B (zh) 提供扩展的缓存替换状态信息
EP3623941B1 (en) Systems and methods for performing instructions specifying ternary tile logic operations
EP3757769B1 (en) Systems and methods to skip inconsequential matrix operations
CN103927270B (zh) 一种面向多个粗粒度动态可重构阵列的共享数据缓存装置及控制方法
US11347650B2 (en) Word type/boundary propagation with memory performance applications
EP3716054A2 (en) Interleaved pipeline of floating-point adders
EP3623940A2 (en) Systems and methods for performing horizontal tile operations
EP3929733A1 (en) Matrix transpose and multiply
Wang et al. Rerec: In-reram acceleration with access-aware mapping for personalized recommendation
CN115658146A (zh) 一种ai芯片、张量处理方法及电子设备
WO2023041002A1 (zh) 近内存计算加速器、双列直插式内存模块以及计算设备
US6694407B1 (en) Cache memory with data transfer control and method of operating same
Sudarshan et al. A critical assessment of dram-pim architectures-trends, challenges and solutions
Yun et al. GraNDe: Near-data processing architecture with adaptive matrix mapping for graph convolutional networks
US20230385258A1 (en) Dynamic random access memory-based content-addressable memory (dram-cam) architecture for exact pattern matching
EP3929732A1 (en) Matrix data scatter and gather by row
US20220318015A1 (en) Enforcing data placement requirements via address bit swapping
US20240184523A1 (en) METHODS AND APPARATUS TO PERFORM MIXED RADIX FAST FOURIER TRANSFORM (FFT) CALCULATIONS ON GRAPHICS PROCESSING UNITS (GPUs)
US11635911B2 (en) Processing-in-memory (PIM) system and operating methods of the PIM system
US20220350514A1 (en) Memory mapping of activations for convolutional neural network executions
US20220197642A1 (en) Processor instructions for data compression and decompression

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination