CN111813449A - 运算方法、装置及相关产品 - Google Patents
运算方法、装置及相关产品 Download PDFInfo
- Publication number
- CN111813449A CN111813449A CN201910293777.4A CN201910293777A CN111813449A CN 111813449 A CN111813449 A CN 111813449A CN 201910293777 A CN201910293777 A CN 201910293777A CN 111813449 A CN111813449 A CN 111813449A
- Authority
- CN
- China
- Prior art keywords
- tensor
- instruction
- rearrangement
- executed
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000010801 machine learning Methods 0.000 claims abstract description 78
- 230000005540 biological transmission Effects 0.000 claims abstract description 5
- 238000012544 monitoring process Methods 0.000 claims abstract description 3
- 230000008707 rearrangement Effects 0.000 claims description 204
- 238000012545 processing Methods 0.000 claims description 142
- 230000015654 memory Effects 0.000 claims description 25
- 238000003672 processing method Methods 0.000 claims description 10
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 101100498818 Arabidopsis thaliana DDR4 gene Proteins 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000005481 NMR spectroscopy Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000005406 washing Methods 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30094—Condition code generation, e.g. Carry, Zero flag
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Advance Control (AREA)
Abstract
本公开涉及一种运算方法、装置及相关产品。板卡包括:存储器件、接口装置和控制器件以及机器学习芯片;其中,机器学习芯片与存储器件、控制器件以及接口装置分别连接;存储器件用于存储数据;接口装置用于实现机器学习芯片与外部设备之间的数据传输;控制器件用于对机器学习芯片的状态进行监控。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种张量重排指令处理方法、装置及相关产品。
背景技术
随着科技的不断发展,机器学习,尤其是神经网络算法的使用越来越广泛。其在图像识别、语音识别、自然语言处理等领域中都得到了良好的应用。但由于神经网络算法的复杂度越来越高,所涉及的数据运算种类和数量不断增大。相关技术中,在对张量数据进行重排处理的效率低、速度慢。
发明内容
有鉴于此,本公开提出了一种张量重排指令处理方法、装置及相关产品,以提高对张量进行重排处理的效率和速度。
根据本公开的第一方面,提供了一种张量重排指令处理装置,所述装置包括:
控制模块,用于对接收到的张量重排指令进行解析,获得所述张量重排指令的操作码和操作域,并根据所述操作码和所述操作域确定执行所述张量重排指令所需的待处理张量和目标地址,以及确定进行重排处理所需的重排策略;
处理模块,根据所述重排策略对所述待处理张量进行重排处理,得到重排张量,并将所述重排张量存入所述目标地址中,
其中,所述操作码用于指示所述张量重排指令对张量数据所进行的处理为重排处理,所述操作域包括所述待处理张量地址和所述目标地址。
根据本公开的第二方面,提供了一种机器学习运算装置,所述装置包括:
一个或多个上述第一方面所述的张量重排指令处理装置,用于从其他处理装置中获取待处理张量和控制信息,并执行指定的机器学习运算,将执行结果通过I/O接口传递给其他处理装置;
当所述机器学习运算装置包含多个所述张量重排指令处理装置时,所述多个所述张量重排指令处理装置间可以通过特定的结构进行连接并传输数据;
其中,多个所述张量重排指令处理装置通过快速外部设备互连总线PCIE总线进行互联并传输数据,以支持更大规模的机器学习的运算;多个所述张量重排指令处理装置共享同一控制系统或拥有各自的控制系统;多个所述张量重排指令处理装置共享内存或者拥有各自的内存;多个所述张量重排指令处理装置的互联方式是任意互联拓扑。
根据本公开的第三方面,提供了一种组合处理装置,所述装置包括:
上述第二方面所述的机器学习运算装置、通用互联接口和其他处理装置;
所述机器学习运算装置与所述其他处理装置进行交互,共同完成用户指定的计算操作。
根据本公开的第四方面,提供了一种机器学习芯片,所述机器学习芯片包括上述第二方面所述的机器学习络运算装置或上述第三方面所述的组合处理装置。
根据本公开的第五方面,提供了一种机器学习芯片封装结构,该机器学习芯片封装结构包括上述第四方面所述的机器学习芯片。
根据本公开的第六方面,提供了一种板卡,该板卡包括上述第五方面所述的机器学习芯片封装结构。
根据本公开的第七方面,提供了一种电子设备,所述电子设备包括上述第四方面所述的机器学习芯片或上述第六方面所述的板卡。
根据本公开的第八方面,提供了一种张量重排指令处理方法,所述方法应用于张量重排指令处理装置,所述方法包括:
对接收到的张量重排指令进行解析,获得所述张量重排指令的操作码和操作域,并根据所述操作码和所述操作域确定执行所述张量重排指令所需的待处理张量和目标地址,以及确定进行重排处理所需的重排策略;
根据所述重排策略对所述待处理张量进行重排处理,得到重排张量,并将所述重排张量存入所述目标地址中,
其中,所述操作码用于指示所述张量重排指令对张量数据所进行的处理为重排处理,所述操作域包括所述待处理张量地址和所述目标地址。
在一些实施例中,所述电子设备包括数据处理装置、机器人、电脑、打印机、扫描仪、平板电脑、智能终端、手机、行车记录仪、导航仪、传感器、摄像头、服务器、云端服务器、相机、摄像机、投影仪、手表、耳机、移动存储、可穿戴设备、交通工具、家用电器、和/或医疗设备。
在一些实施例中,所述交通工具包括飞机、轮船和/或车辆;所述家用电器包括电视、空调、微波炉、冰箱、电饭煲、加湿器、洗衣机、电灯、燃气灶、油烟机;所述医疗设备包括核磁共振仪、B超仪和/或心电图仪。
本公开实施例所提供的张量重排指令处理方法、装置及相关产品,该装置包括控制模块和处理模块。控制模块用于对接收到的张量重排指令进行解析,获得张量重排指令的操作码和操作域,并根据操作码和操作域确定执行张量重排指令所需的待处理张量和目标地址,以及确定进行重排处理所需的重排策略。处理模块用于根据重排策略对待处理张量进行重排处理,得到重排张量,并将重排张量存入目标地址中。本公开实施例所提供的张量重排指令处理方法、装置及相关产品,通过一条张量重排指令便可以实现对张量数据的重排处理,与相关技术中通过多条指令实现张量数据的重排处理的过程相比,对张量数据进行重排的处理效率高、处理速度快,且适用范围广。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1a、图1b示出根据本公开一实施例的组合处理装置的框图。
图2示出根据本公开一实施例的板卡的结构示意图。
图3示出根据本公开一实施例的张量重排指令处理装置的框图。
图4示出根据本公开一实施例的张量重排指令处理装置的框图。
图5示出根据本公开一实施例的张量重排指令处理装置的应用场景的示意图。
图6示出根据本公开一实施例的张量重排指令处理方法的流程图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
由于神经网络算法在图像识别、语音识别、自然语言处理等领域中的使用越来越广泛,使得神经网络算法的复杂度越来越高,所涉及的数据运算种类和数量不断增大。其中,张量是一种在神经网络算法中较为常见的数据形式,由数字和/或字符组成。由于张量具有不同的维度,张量的存在满足了神经网络算法中对各类数据的表示需求,例如,可以通过0维张量表示标量、通过1维张量表示向量、通过2维张量表示矩阵、通过3维张量表示时间序列、通过4维张量表示图像、通过5维张量表示视频等等。神经网络算法中对张量的处理过程包括对张量进行重排,相关技术中,需要多个指令才能够实现对张量数据的重排,效率低、速度慢。
本公开提供一种机器学习运算装置,该机器学习运算装置可以进行神经网络算法的相关运算,该机器学习运算装置可以包括一个或多个用于根据接收到的张量重排指令对张量进行重排处理的张量重排指令处理装置,用于从其他处理装置中获取待处理张量和控制信息,执行指定的机器学习运算。该机器学习运算装置可以从其他机器学习运算装置或非机器学习运算装置中获得张量重排指令,并将执行结果通过I/O接口传递给外围设备(也可称其他处理装置)。外围设备譬如摄像头,显示器,鼠标,键盘,网卡,wifi接口,服务器。当包含一个以上张量重排指令处理装置时,张量重排指令处理装置间可以通过特定的结构进行链接并传输数据,譬如,通过PCIE总线进行互联并传输数据,以支持更大规模的神经网络的运算。此时,可以共享同一控制系统,也可以有各自独立的控制系统;可以共享内存,也可以每个加速器有各自的内存。此外,其互联方式可以是任意互联拓扑。
该机器学习运算装置具有较高的兼容性,可通过PCIE接口与各种类型的服务器相连接。
图1a示出根据本公开一实施例的组合处理装置的框图。如图1a所示,该组合处理装置包括上述机器学习运算装置、通用互联接口和其他处理装置。机器学习运算装置与其他处理装置进行交互,共同完成用户指定的操作。
其他处理装置,包括中央处理器CPU、图形处理器GPU、神经网络处理器等通用/专用处理器中的一种或以上的处理器类型。其他处理装置所包括的处理器数量不做限制。其他处理装置作为机器学习运算装置与外部数据和控制的接口,包括数据搬运,完成对本机器学习运算装置的开启、停止等基本控制;其他处理装置也可以和机器学习运算装置协作共同完成运算任务。
通用互联接口,用于在机器学习运算装置与其他处理装置间传输数据和控制指令。该机器学习运算装置从其他处理装置中获取所需的输入数据,写入机器学习运算装置片上的存储装置;可以从其他处理装置中获取控制指令,写入机器学习运算装置片上的控制缓存;也可以读取机器学习运算装置的存储模块中的数据并传输给其他处理装置。
图1b示出根据本公开一实施例的组合处理装置的框图。在一种可能的实现方式中,如图1b所示,该组合处理装置还可以包括存储装置,存储装置分别与机器学习运算装置和其他处理装置连接。存储装置用于保存在机器学习运算装置和其他处理装置的数据,尤其适用于所需要运算的数据在本机器学习运算装置或其他处理装置的内部存储中无法全部保存的数据。
该组合处理装置可以作为手机、机器人、无人机、视频监控设备等设备的SOC片上系统,有效降低控制部分的核心面积,提高处理速度,降低整体功耗。此情况时,该组合处理装置的通用互联接口与设备的某些部件相连接。某些部件譬如摄像头,显示器,鼠标,键盘,网卡,wifi接口。
本公开提供一种机器学习芯片,该芯片包括上述机器学习运算装置或组合处理装置。
本公开提供一种机器学习芯片封装结构,该机器学习芯片封装结构包括上述机器学习芯片。
本公开提供一种板卡,图2示出根据本公开一实施例的板卡的结构示意图。如图2所示,该板卡包括上述机器学习芯片封装结构或者上述机器学习芯片。板卡除了包括机器学习芯片389以外,还可以包括其他的配套部件,该配套部件包括但不限于:存储器件390、接口装置391和控制器件392。
存储器件390与机器学习芯片389(或者机器学习芯片封装结构内的机器学习芯片)通过总线连接,用于存储数据。存储器件390可以包括多组存储单元393。每一组存储单元393与机器学习芯片389通过总线连接。可以理解,每一组存储单元393可以是DDR SDRAM(英文:Double Data Rate SDRAM,双倍速率同步动态随机存储器)。
DDR不需要提高时钟频率就能加倍提高SDRAM的速度。DDR允许在时钟脉冲的上升沿和下降沿读出数据。DDR的速度是标准SDRAM的两倍。
在一个实施例中,存储器件390可以包括4组存储单元393。每一组存储单元393可以包括多个DDR4颗粒(芯片)。在一个实施例中,机器学习芯片389内部可以包括4个72位DDR4控制器,上述72位DDR4控制器中64bit用于传输数据,8bit用于ECC校验。可以理解,当每一组存储单元393中采用DDR4-3200颗粒时,数据传输的理论带宽可达到25600MB/s。
在一个实施例中,每一组存储单元393包括多个并联设置的双倍速率同步动态随机存储器。DDR在一个时钟周期内可以传输两次数据。在机器学习芯片389中设置控制DDR的控制器,用于对每个存储单元393的数据传输与数据存储的控制。
接口装置391与机器学习芯片389(或者机器学习芯片封装结构内的机器学习芯片)电连接。接口装置391用于实现机器学习芯片389与外部设备(例如服务器或计算机)之间的数据传输。例如在一个实施例中,接口装置391可以为标准PCIE接口。比如,待处理的数据由服务器通过标准PCIE接口传递至机器学习芯片289,实现数据转移。优选的,当采用PCIE3.0 X16接口传输时,理论带宽可达到16000MB/s。在另一个实施例中,接口装置391还可以是其他的接口,本公开并不限制上述其他的接口的具体表现形式,接口装置能够实现转接功能即可。另外,机器学习芯片的计算结果仍由接口装置传送回外部设备(例如服务器)。
控制器件392与机器学习芯片389电连接。控制器件392用于对机器学习芯片389的状态进行监控。具体的,机器学习芯片389与控制器件392可以通过SPI接口电连接。控制器件392可以包括单片机(Micro Controller Unit,MCU)。如机器学习芯片389可以包括多个处理芯片、多个处理核或多个处理电路,可以带动多个负载。因此,机器学习芯片389可以处于多负载和轻负载等不同的工作状态。通过控制器件可以实现对机器学习芯片中多个处理芯片、多个处理和/或多个处理电路的工作状态的调控。
本公开提供一种电子设备,该电子设备包括上述机器学习芯片或板卡。
电子设备可以包括数据处理装置、机器人、电脑、打印机、扫描仪、平板电脑、智能终端、手机、行车记录仪、导航仪、传感器、摄像头、服务器、云端服务器、相机、摄像机、投影仪、手表、耳机、移动存储、可穿戴设备、交通工具、家用电器、和/或医疗设备。
交通工具可以包括飞机、轮船和/或车辆。家用电器可以包括电视、空调、微波炉、冰箱、电饭煲、加湿器、洗衣机、电灯、燃气灶、油烟机。医疗设备可以包括核磁共振仪、B超仪和/或心电图仪。
图3示出根据本公开一实施例的张量重排指令处理装置的框图。如图3所示,该装置包括控制模块11和处理模块12。
控制模块11,用于对接收到的张量重排指令进行解析,获得张量重排指令的操作码和操作域,并根据操作码和操作域确定执行张量重排指令所需的待处理张量和目标地址,以及确定进行重排处理所需的重排策略。其中,操作码用于指示张量重排指令对张量数据所进行的处理为重排处理,操作域包括待处理张量地址和目标地址。
处理模块12,用于根据重排策略对待处理张量进行重排处理,得到重排张量,并将重排张量存入目标地址中。
在本实施例中,张量可以包含多种形式的数据组成方式,比较常见的张量为矩阵形式,张量可以是不同阶的,比如标量可以看作是0维张量,矢量可以看作1维张量,而2维以上的张量则为二维或多维的矩阵。张量重排是指对张量进行重新排列得到重排张量的方式,其中,张量重排的方式可以是按照某一个维度为优先进行张量重排,也可以是按照某几个维度为优先进行张量重排,以2维张量为例,对2维张量的重排方式可以包括按行重排、按列重排、按块重排等重排方式中的一个或多个。其中,按行重排可以是指按照行优先的方式输入和/或输出张量中是数据,按列重排可以是指按照列优先的方式输入和/或输出张量中是数据,按块重排可以是指按照块优先的方式输入和/或输出张量中是数据。张量重排的方式可以由重排策略来定义,重排策略中可以指示对张量进行重排的相关参数,包括优先按照行、列或块等方式的输入张量,优先按照行、列或块等方式输出张量,以及若按块或两个以上维度进行输入或输出时所按照的块或两个以上维度的尺寸。
在本实施例中,可以为不同的重排策略设置不同的代码,以区别不同的重排策略。本领域技术人员可以根据实际需要对重排策略及重排策略的代码进行设置,本公开对此不作限制。
在本实施例中,控制模块可以从待处理张量地址中获取待处理张量。待处理张量地址可以是存储待处理张量的首地址等物理地址,也可以是逻辑地址、线性地址。控制模块可以将重排张量存储在目标地址中。目标地址可以是存储重排张量的首地址等物理地址,也可以是逻辑地址、线性地址。本公开对待处理张量地址、目标地址的表示方式不作限制。控制模块可以通过数据输入输出单元获得张量重排指令、待处理张量,该数据输入输出单元可以为一个或多个数据I/O接口或I/O引脚。
在本实施例中,对于一个张量重排指令可以包括操作码和操作域。其中操作码可以是预先配置的指令序列号,用来告知执行指令的装置具体需要执行哪一条指令。而操作域可以包括执行对应的指令所需的所有数据的来源,执行对应的指令所需的所有数据包括待处理张量、对应的重排策略,或者存储待处理张量、对应的重排策略的地址等等。比如,操作域可以包括待处理张量地址和目标地址。
应当理解的是,本领域技术人员可以根据需要对张量重排指令的指令格式以及所包含的操作码和操作域进行设置,本公开对此不作限制。
在本实施例中,该装置可以包括一个或多个控制模块,以及一个或多个处理模块,可以根据实际需要对控制模块和处理模块的数量进行设置,本公开对此不作限制。在装置包括一个控制模块时,该控制模块可以接收张量重排指令,并控制一个或多个处理模块进行重排处理。在装置包括多个控制模块时,多个控制模块可以分别接收张量重排指令,并控制对应的一个或多个处理模块进行重排处理。
本公开实施例所提供的张量重排指令处理装置,该装置包括控制模块和处理模块。控制模块用于对接收到的张量重排指令进行解析,获得张量重排指令的操作码和操作域,并根据操作码和操作域确定执行张量重排指令所需的待处理张量和目标地址,以及确定进行重排处理所需的重排策略。处理模块用于根据重排策略对处理张量进行重排处理,得到重排张量,并将重排张量存入目标地址中。通过一条张量重排指令便可以实现对张量数据的重排处理,与相关技术中通过多条指令实现张量数据的重排处理的过程相比,对张量数据进行重排处理效率高、处理速度快,且适用范围广。
在一种可能的实现方式中,操作域还可以包括待处理张量的输入形状和重排张量的输出形状的至少一种,处理模块12,还用于根据输入形状和输出形状的至少一种、以及重排策略,对待处理张量进行重排处理,得到重排张量。
在一种可能的实现方式中,操作域还可以包括待处理张量的形状和/或重排张量的形状,张量的“形状”可以用待处理张量的维度以及在不同的维度上所存在的数字和/或字符的数量来表示。例如,待处理张量的形状可以表示待处理张量的维度以及在不同的维度上所存在的数字和/或字符的数量。重排张量的形状可以是表示重排张量的维度以及在不同的维度上所存在的数字和/或字符的数量。
举例来说,假定某待处理张量[(1,2),(3,4),(5,6),(7,8)],则该待处理张量的形状为(2,4),也即表示该待处理张量为2行、4列的二维张量。
假定若重排策略为按行优先输入、按列优先输出、且输出形状为(4,2),对该待处理张量进行重排处理可以为:按行优先输入得到[1,3,5,7,2,4,6,8],进而将其按列优先输出得到重排张量[(1,3,5,7),(2,4,6,8)],该重排张量的形状为为(4,2),也即该重排张量为4行、2列的二维张量。
假定若重排策略为按列优先输入、按列优先输出、且输出形状为(2,4),对该待处理张量进行重排处理可以为:按列优先输入得到[1,2,3,4,5,6,7,8],进而按列优先输出得到重排张量[(1,2,3,4),(5,6,7,8)]。该重排张量的形状为为(4,2),也即该重排张量为4行、2列的二维张量。
假定重排策略为按行优先输入、按块优先输出(假定块的尺寸为(2,2),按块输出时优先按块的行输出块)、且输出形状为(2,4),对该待处理张量进行重排处理可以为:按行优先输入得到[1,3,5,7,2,4,6,8],进而按(1,2)的块优先输出得到重排张量[(1,5,2,6),(3,7,4,8)]。该重排张量的形状为为(2,4),也即该重排张量为4行、2列的二维张量。
在一种可能的实现方式中,可以预先设置待处理张量的默认输入形状。在操作域中不包含待处理张量的输入形状时,可以将待处理张量的默认输入形状确定为当前张量重排指令的待处理张量的输入形状。
在一种可能的实现方式中,可以预先设置重排张量的默认输出形状。在操作域中不包含重排张量的输出形状时,可以将重排张量的默认输出形状确定为当前张量重排指令的重排张量的输出形状。
在一种可能的实现方式中,待处理张量的维度与重排张量的维度可以不同。
在该实现方式中,待处理张量的维度与重排张量的维度也可以相同。可以根据实际需要对待处理张量的维度、重排张量的维度进行设置,本公开对此不作限制。
举例来说,输入形状为(2,8)的某待处理张量如下:
[(1,9),(2,10),(3,11),(4,12),(4,13),(6,14),(7,15),(8,16)]
假定输出形状为(2,2,4)、重排策略为按列优先输入、按三个维度依次优先输出,则该待处理张量进行重排处理可以为:按行优先输入得到[1][1,9,2,10,3,11,4,12,4,13,6,14,7,15,8,16],进而按三个维度依次优先输出得到重排张量[[(1,2,3,4),(5,6,7,8)],[(9,10,11,12),(13,14,15,16)]]。
在一种可能的实现方式中,操作域还可以用于指示重排策略。
在一种可能的实现方式中,操作码还可以用于指示重排策略。
在一种可能的实现方式中,还可以设置默认重排策略。在根据操作域和操作码均不能确定当前张量重排指令的重排策略时,可以将默认重排策略确定为当前张量重排指令的重排策略。
图4示出根据本公开一实施例的张量重排指令处理装置的框图。在一种可能的实现方式中,如图4所示,该装置还可以包括存储模块13。存储模块13用于存储待重排张量。
在该实现方式中,存储模块可以包括内存、缓存和寄存器中的一种或多种,缓存可以包括速暂存缓存。可以根据需要将待重排张量在存储模块中的内存、缓存和/或寄存器中,本公开对此不作限制。
在一种可能的实现方式中,该装置还可以包括直接内存访问模块,用于从存储模块中读取或者存储数据。
在一种可能的实现方式中,如图4所示,控制模块11可以包括指令存储子模块111、指令处理子模块112和队列存储子模块113。
指令存储子模块111用于存储张量重排指令。
指令处理子模块112用于对张量重排指令进行解析,得到张量重排指令的操作码和操作域。
队列存储子模块113用于存储指令队列,指令队列包括按照执行顺序依次排列的多个待执行指令,多个待执行指令可以包括张量重排指令。多个待执行指令可以包括还可以包括与张量重排指令相关的其他计算指令。
在该实现方式中,可以根据待执行指令的接收时间、优先级别等对多个待执行指令的执行顺序进行排列获得指令队列,以便于根据指令队列依次执行多个待执行指令。
在一种可能的实现方式中,如图4所示,控制模块11还可以包括依赖关系处理子模块114。
在确定多个待执行指令中的第一待执行指令与第一待执行指令之前的第零待执行指令存在依赖关系时,依赖关系处理子模块114可以将第一待执行指令缓存在指令存储子模块112中,在第零待执行指令执行完毕后,从指令存储子模块112中提取第一待执行指令发送至处理模块12。其中,第一待执行指令和第零待执行指令是多个待执行指令中的指令。
其中,第一待执行指令与第一待执行指令之前的第零待执行指令存在依赖关系包括:存储第一待执行指令所需数据的第一存储地址区间与存储第零待执行指令所需数据的第零存储地址区间具有重叠的区域。反之,第一待执行指令与第零待执行指令之间没有依赖关系可以是第一存储地址区间与第零存储地址区间没有重叠区域。
通过这种方式,可以根据待执行指令之间的依赖关系,使得在先的待执行令执行完毕之后,再执行在后的待执行指令,保证运算结果的准确性。
在一种可能的实现方式中,张量重排指令的指令格式可以为:
Tiling dst src type src_shape dst_shape
其中,Tiling为操作码,dst、src、type、src_shape、dst_shape为操作域。Tiling用于指示该指令为张量重排指令。dst为目标地址。src为待处理张量地址。type为重排策略。src_shape为输入形状。dst_shape为输出形状。
在一种可能的实现方式中,张量重排指令的指令格式可以为:
Tiling.type dst src src_shape dst_shape
其中,Tiling.type为操作码,dst、src、src_shape、dst_shape为操作域。Tiling.type中的Tiling用于指示该指令为张量重排指令,Tiling.type中的type为重排策略。dst为目标地址。src为待处理张量地址。src_shape为输入形状。dst_shape为输出形状。
应当理解的是,本领域技术人员可以根据需要对张量重排指令的操作码、指令格式中操作码以及操作域的位置进行设置,本公开对此不作限制。
在一种可能的实现方式中,该装置可以设置于图形处理器(Graphics ProcessingUnit,简称GPU)、中央处理器(Central Processing Unit,简称CPU)和嵌入式神经网络处理器(Neural-network Processing Unit,简称NPU)的一种或多种之中。
需要说明的是,尽管以上述实施例作为示例介绍了张量重排指令处理装置如上,但本领域技术人员能够理解,本公开应不限于此。事实上,用户完全可根据个人喜好和/或实际应用场景灵活设定各模块,只要符合本公开的技术方案即可。
应用示例
以下结合“利用张量重排指令处理装置对待处理张量进行重排处理”作为一个示例性应用场景,给出根据本公开实施例的应用示例,以便于理解张量重排指令处理装置的流程。本领域技术人员应理解,以下应用示例仅仅是出于便于理解本公开实施例的目的,不应视为对本公开实施例的限制。
图5示出根据本公开一实施例的张量重排指令处理装置的应用场景的示意图。如图5所示,张量重排指令处理装置对张量重排指令进行处理的过程如下。
示例1
控制模块11在接收到张量重排指令1(如:Tiling 200 100type S1 S2)时,对张量重排指令1进行解析,获得张量重排指令1的操作码和操作域。该张量重排指令1的操作码为Tiling。且根据操作域可以确定:重排策略为type、待处理张量地址为100、输入形状为S1、目标地址为200、输出形状为S2。进而控制模块11从待处理张量地址200中获取输入形状为S1的待处理张量a。
处理模块12根据重排策略type以及输入形状、输出形状对待处理张量a进行重排处理,得到重排张量b,并将重排张量b存入目标地址200中。
其中,张量重排指令1除可以为上述Tiling 200 100type S1 S2,还有可以为Tiling.type 200 100 S1 S2,不同指令格式的张量重排指令的处理过程相似,不再赘述。
以上处理过程详见上文相关描述。
这样,张量重排指令处理装置可以快速、高效地对张量重排指令进行处理,完成对张量进行重排的处理过程。
图6示出根据本公开一实施例的张量重排指令处理方法的流程图。如图6所示,该方法应用于上述张量重排指令处理装置,该方法包括步骤S51和步骤S52。
在步骤S51中,对接收到的张量重排指令进行解析,获得张量重排指令的操作码和操作域,并根据操作码和操作域确定执行张量重排指令所需的待处理张量和目标地址,以及确定进行重排处理所需的重排策略。其中,操作码用于指示张量重排指令对张量数据所进行的处理为重排处理,操作域包括待处理张量地址和目标地址。
在步骤S52中,根据重排策略对待处理张量进行重排处理,得到重排张量,并将重排张量存入目标地址中。
在一种可能的实现方式中,操作域还可以包括待处理张量的输入形状和重排张量的输出形状的至少一种。其中,根据重排策略对待处理张量进行重排处理,得到重排张量,可以包括:根据输入形状和输出形状的至少一种、以及重排策略,对待处理张量进行重排处理,得到重排张量。
在一种可能的实现方式中,待处理张量的维度与重排张量的维度可以不同。
在一种可能的实现方式中,操作域还可以用于指示重排策略。
在一种可能的实现方式中,操作码还可以用于指示重排策略。
在一种可能的实现方式中,该方法还可以包括:存储待处理张量。
在一种可能的实现方式中,对接收到的张量重排指令进行解析,获得张量重排指令的操作码和操作域,可以包括:
存储张量重排指令;
对张量重排指令进行解析,得到张量重排指令的操作码和操作域;
存储指令队列,指令队列包括按照执行顺序依次排列的多个待执行指令,多个待执行指令可以包括张量重排指令。
在一种可能的实现方式中,该方法还可以包括:
在确定多个待执行指令中的第一待执行指令与第一待执行指令之前的第零待执行指令存在依赖关系时,缓存第一待执行指令,并在确定第零待执行指令执行完毕后,控制进行第一待执行指令的执行,
其中,第一待执行指令与第一待执行指令之前的第零待执行指令存在依赖关系包括:存储第一待执行指令所需数据的第一存储地址区间与存储第零待执行指令所需数据的第零存储地址区间具有重叠的区域。
需要说明的是,尽管以上述实施例作为示例介绍了张量重排指令处理方法如上,但本领域技术人员能够理解,本公开应不限于此。事实上,用户完全可根据个人喜好和/或实际应用场景灵活设定各步骤,只要符合本公开的技术方案即可。
本公开实施例所提供的张量重排指令处理方法,通过一条张量重排指令便可以实现对张量数据的重排处理,与相关技术中通过多条指令实现张量数据的重排处理的过程相比,对张量数据进行重排的处理效率高、处理速度快,且适用范围广。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于可选实施例,所涉及的动作和模块并不一定是本公开所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本公开所提供的实施例中,应该理解到,所揭露的系统、装置,可通过其它的方式实现。例如,以上所描述的系统、装置实施例仅仅是示意性的,例如设备、装置、模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块可以结合或者可以集成到另一个系统或装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,设备、装置或模块的间接耦合或通信连接,可以是电性或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
集成的模块如果以软件程序模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (17)
1.一种张量重排指令处理装置,其特征在于,所述装置包括:
控制模块,用于对接收到的张量重排指令进行解析,获得所述张量重排指令的操作码和操作域,并根据所述操作码和所述操作域确定执行所述张量重排指令所需的待处理张量和目标地址,以及确定进行重排处理所需的重排策略;
处理模块,根据所述重排策略对所述待处理张量进行重排处理,得到重排张量,并将所述重排张量存入所述目标地址中,
其中,所述操作码用于指示所述张量重排指令对张量数据所进行的处理为重排处理,所述操作域包括所述待处理张量地址和所述目标地址。
2.根据权利要求1所述的装置,其特征在于,所述操作域还包括待处理张量的输入形状和重排张量的输出形状的至少一种,
所述处理模块,还用于根据所述输入形状和所述输出形状的至少一种、以及所述重排策略,对所述待处理张量进行重排处理,得到所述重排张量。
3.根据权利要求1所述的装置,其特征在于,所述待处理张量的维度与所述重排张量的维度不同。
4.根据权利要求1所述的装置,其特征在于,所述操作域还用于指示重排策略。
5.根据权利要求1所述的装置,其特征在于,所述操作码还用于指示所述重排策略。
6.根据权利要求1所述的装置,其特征在于,
所述装置还包括:存储模块,用于存储所述待处理张量,
其中,所述控制模块,包括:
指令存储子模块,用于存储所述张量重排指令;
指令处理子模块,用于对所述张量重排指令进行解析,得到所述张量重排指令的操作码和操作域;
队列存储子模块,用于存储指令队列,所述指令队列包括按照执行顺序依次排列的多个待执行指令,所述多个待执行指令包括所述张量重排指令,
其中,所述控制模块,还包括:
依赖关系处理子模块,用于在确定所述多个待执行指令中的第一待执行指令与所述第一待执行指令之前的第零待执行指令存在依赖关系时,将所述第一待执行指令缓存在所述指令存储子模块中,在所述第零待执行指令执行完毕后,从所述指令存储子模块中提取所述第一待执行指令发送至所述处理模块,
其中,所述第一待执行指令与所述第一待执行指令之前的第零待执行指令存在依赖关系包括:
存储所述第一待执行指令所需数据的第一存储地址区间与存储所述第零待执行指令所需数据的第零存储地址区间具有重叠的区域。
7.一种机器学习运算装置,其特征在于,所述装置包括:
一个或多个如权利要求1-5任一项所述的张量重排指令处理装置,用于从其他处理装置中获取待处理张量和控制信息,并执行指定的机器学习运算,将执行结果通过I/O接口传递给其他处理装置;
当所述机器学习运算装置包含多个所述张量重排指令处理装置时,所述多个所述张量重排指令处理装置间可以通过特定的结构进行连接并传输数据;
其中,多个所述张量重排指令处理装置通过快速外部设备互连总线PCIE总线进行互联并传输数据,以支持更大规模的机器学习的运算;多个所述张量重排指令处理装置共享同一控制系统或拥有各自的控制系统;多个所述张量重排指令处理装置共享内存或者拥有各自的内存;多个所述张量重排指令处理装置的互联方式是任意互联拓扑。
8.一种组合处理装置,其特征在于,所述组合处理装置包括:
如权利要求7所述的机器学习运算装置、通用互联接口和其他处理装置;
所述机器学习运算装置与所述其他处理装置进行交互,共同完成用户指定的计算操作,
其中,所述组合处理装置还包括:存储装置,该存储装置分别与所述机器学习运算装置和所述其他处理装置连接,用于保存所述机器学习运算装置和所述其他处理装置的数据。
9.一种机器学习芯片,其特征在于,所述机器学习芯片包括:
如权利要求7所述的机器学习运算装置或如权利要求8所述的组合处理装置。
10.一种电子设备,其特征在于,所述电子设备包括:
如权利要求9所述的机器学习芯片。
11.一种板卡,其特征在于,所述板卡包括:存储器件、接口装置和控制器件以及如权利要求9所述的机器学习芯片;
其中,所述机器学习芯片与所述存储器件、所述控制器件以及所述接口装置分别连接;
所述存储器件,用于存储数据;
所述接口装置,用于实现所述机器学习芯片与外部设备之间的数据传输;
所述控制器件,用于对所述机器学习芯片的状态进行监控。
12.一种张量重排指令处理方法,其特征在于,所述方法应用于张量重排指令处理装置,所述方法包括:
对接收到的张量重排指令进行解析,获得所述张量重排指令的操作码和操作域,并根据所述操作码和所述操作域确定执行所述张量重排指令所需的待处理张量和目标地址,以及确定进行重排处理所需的重排策略;
根据所述重排策略对所述待处理张量进行重排处理,得到重排张量,并将所述重排张量存入所述目标地址中,
其中,所述操作码用于指示所述张量重排指令对张量数据所进行的处理为重排处理,所述操作域包括所述待处理张量地址和所述目标地址。
13.根据权利要求12所述的方法,其特征在于,所述操作域还包括待处理张量的输入形状和重排张量的输出形状的至少一种,
其中,根据所述重排策略对所述待处理张量进行重排处理,得到重排张量,包括:
根据所述输入形状和所述输出形状的至少一种、以及所述重排策略,对所述待处理张量进行重排处理,得到所述重排张量。
14.根据权利要求13所述的方法,其特征在于,所述待处理张量的维度与所述重排张量的维度不同。
15.根据权利要求12所述的方法,其特征在于,所述操作域用于指示重排策略。
16.根据权利要求12所述的方法,其特征在于,所述操作码还用于指示所述重排策略。
17.根据权利要求12所述的方法,其特征在于,
所述方法还包括:存储所述待处理张量,
其中,对接收到的张量重排指令进行解析,获得所述张量重排指令的操作码和操作域,包括:
存储所述张量重排指令;
对所述张量重排指令进行解析,得到所述张量重排指令的操作码和操作域;
存储指令队列,所述指令队列包括按照执行顺序依次排列的多个待执行指令,所述多个待执行指令包括所述张量重排指令,
其中,所述方法还包括:
在确定所述多个待执行指令中的第一待执行指令与所述第一待执行指令之前的第零待执行指令存在依赖关系时,缓存所述第一待执行指令,并在确定所述第零待执行指令执行完毕后,控制进行所述第一待执行指令的执行,
其中,所述第一待执行指令与所述第一待执行指令之前的第零待执行指令存在依赖关系包括:
存储所述第一待执行指令所需数据的第一存储地址区间与存储所述第零待执行指令所需数据的第零存储地址区间具有重叠的区域。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910293777.4A CN111813449A (zh) | 2019-04-12 | 2019-04-12 | 运算方法、装置及相关产品 |
PCT/CN2019/120893 WO2020108471A1 (zh) | 2018-11-30 | 2019-11-26 | 运算方法、装置及相关产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910293777.4A CN111813449A (zh) | 2019-04-12 | 2019-04-12 | 运算方法、装置及相关产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111813449A true CN111813449A (zh) | 2020-10-23 |
Family
ID=72843884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910293777.4A Pending CN111813449A (zh) | 2018-11-30 | 2019-04-12 | 运算方法、装置及相关产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111813449A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381220A (zh) * | 2020-12-08 | 2021-02-19 | 厦门壹普智慧科技有限公司 | 一种神经网络张量处理器 |
WO2022134873A1 (zh) * | 2020-12-25 | 2022-06-30 | 中科寒武纪科技股份有限公司 | 数据处理装置、数据处理方法及相关产品 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108388446A (zh) * | 2018-02-05 | 2018-08-10 | 上海寒武纪信息科技有限公司 | 运算模块以及方法 |
US20180329868A1 (en) * | 2016-01-20 | 2018-11-15 | Cambricon Technologies Corporation Limited | Vector and Matrix Computing Device |
-
2019
- 2019-04-12 CN CN201910293777.4A patent/CN111813449A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180329868A1 (en) * | 2016-01-20 | 2018-11-15 | Cambricon Technologies Corporation Limited | Vector and Matrix Computing Device |
CN108388446A (zh) * | 2018-02-05 | 2018-08-10 | 上海寒武纪信息科技有限公司 | 运算模块以及方法 |
CN109165041A (zh) * | 2018-02-05 | 2019-01-08 | 上海寒武纪信息科技有限公司 | 神经网络处理装置及其执行向量范数指令的方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381220A (zh) * | 2020-12-08 | 2021-02-19 | 厦门壹普智慧科技有限公司 | 一种神经网络张量处理器 |
CN112381220B (zh) * | 2020-12-08 | 2024-05-24 | 厦门壹普智慧科技有限公司 | 一种神经网络张量处理器 |
WO2022134873A1 (zh) * | 2020-12-25 | 2022-06-30 | 中科寒武纪科技股份有限公司 | 数据处理装置、数据处理方法及相关产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110096309B (zh) | 运算方法、装置、计算机设备和存储介质 | |
CN110096310B (zh) | 运算方法、装置、计算机设备和存储介质 | |
CN110119807B (zh) | 运算方法、装置、计算机设备和存储介质 | |
CN111813449A (zh) | 运算方法、装置及相关产品 | |
CN111047005A (zh) | 运算方法、装置、计算机设备和存储介质 | |
CN111382850A (zh) | 运算方法、装置及相关产品 | |
CN111381873A (zh) | 运算方法、装置及相关产品 | |
CN111382851A (zh) | 运算方法、装置及相关产品 | |
CN111381872A (zh) | 运算方法、装置及相关产品 | |
CN112395003A (zh) | 运算方法、装置及相关产品 | |
CN111353595A (zh) | 运算方法、装置及相关产品 | |
CN111401536A (zh) | 运算方法、装置及相关产品 | |
CN111047030A (zh) | 运算方法、装置、计算机设备和存储介质 | |
CN111325331B (zh) | 运算方法、装置及相关产品 | |
CN111813448A (zh) | 运算方法、装置及相关产品 | |
CN111813376A (zh) | 运算方法、装置及相关产品 | |
CN111813450A (zh) | 运算方法、装置及相关产品 | |
CN111260045B (zh) | 译码器和原子指令解析方法 | |
CN111382390B (zh) | 运算方法、装置及相关产品 | |
CN111400341B (zh) | 标量查找指令处理方法、装置及相关产品 | |
CN111290789B (zh) | 运算方法、装置、计算机设备和存储介质 | |
CN111275197B (zh) | 运算方法、装置、计算机设备和存储介质 | |
CN111124497B (zh) | 运算方法、装置、计算机设备和存储介质 | |
CN111026440B (zh) | 运算方法、装置、计算机设备和存储介质 | |
CN112396186B (zh) | 执行方法、装置及相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |