CN111695682A - 运算方法、装置及相关产品 - Google Patents

运算方法、装置及相关产品 Download PDF

Info

Publication number
CN111695682A
CN111695682A CN201910197813.7A CN201910197813A CN111695682A CN 111695682 A CN111695682 A CN 111695682A CN 201910197813 A CN201910197813 A CN 201910197813A CN 111695682 A CN111695682 A CN 111695682A
Authority
CN
China
Prior art keywords
dimension
data
data format
preset
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910197813.7A
Other languages
English (en)
Other versions
CN111695682B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Cambricon Information Technology Co Ltd
Original Assignee
Shanghai Cambricon Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Cambricon Information Technology Co Ltd filed Critical Shanghai Cambricon Information Technology Co Ltd
Priority to CN201910197813.7A priority Critical patent/CN111695682B/zh
Publication of CN111695682A publication Critical patent/CN111695682A/zh
Application granted granted Critical
Publication of CN111695682B publication Critical patent/CN111695682B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Abstract

本公开涉及一种运算方法、装置及相关产品,所述产品包括控制器单元,所述控制器单元包括:指令缓存单元、指令处理单元和存储队列单元;所述指令缓存单元,用于存储所述人工神经网络运算关联的计算指令;所述指令处理单元,用于对所述计算指令解析得到多个运算指令;所述存储队列单元,用于存储指令队列,该指令队列包括:按该队列的前后顺序待执行的多个运算指令或计算指令。通过以上方法,本公开可以提高相关产品在进行神经网络模型的运算时的运算效率。

Description

运算方法、装置及相关产品
技术领域
本公开涉及信息处理技术领域,尤其涉及一种运算方法、装置及相关产品。
背景技术
在人工智能技术领域,神经网络算法是最近非常流行的一种机器学习算法,在各种领域中都取得了非常好的效果,比如图像识别,语音识别,自然语言处理等。随着神经网络算法的发展,算法的复杂度也越来越高,为了提高识别度,模型的规模也在逐渐增大。
发明内容
有鉴于此,本公开提出了一种数据处理方法及装置。
根据本公开的一方面,提供了一种数据处理方法,所述方法包括:
在输入数据的第一数据格式与第一处理器支持的第二数据格式不同时,根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式,
其中,所述输入数据为张量数据,第一数据格式和第二数据格式的数据摆放顺序不同,预设维度数为第一处理器的运算单元一次读取的数据个数。
在一种可能的实现方式中,根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式,包括:
对于第二数据格式的多个第二维度中的最低维度,根据输入数据的参数信息确定第一数据格式的多个第一维度中与所述最低维度对应的第三维度;其中,最低维度为读写数据时首先被读写的维度方向,所述参数信息包括用于描述第一数据格式的摆放顺序的信息;
根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,并根据预设维度数将补齐后的输入数据在第三维度方向上进行分段;
将分段后的输入数据由第一数据格式转换为第二数据格式。
在一种可能的实现方式中,根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,包括:
若第三维度的维度数小于预设维度数,则对输入数据在第三维度方向补齐到预设维度数。
在一种可能的实现方式中,根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,还包括:
若第三维度的维度数大于预设维度数,则计算第三维度的维度数与预设维度数的余数,若所述余数与所述预设维度数满足第一预设条件,则需要补齐的维度数与所述余数的和为所述个数的整数倍,若所述余数与所述预设维度数不满足所述第一预设条件,则需要补齐的维度数与所述余数的和为所述预设维度数。
在一种可能的实现方式中,所述第二数据格式为NHWC格式,其中,N代表数量、C代表通道数、H代表高度、W代表宽度,NHWC格式中C为最低维度。
在一种可能的实现方式中,将分段后的输入数据由第一数据格式转换为第二数据格式,包括:
在N维度方向上针对每一段分段后的数据执行以下操作:
针对多个第二维度中的HWC维度,按照CWH的顺序从该段输入数据中与第二维度对应的第一维度方向读取输入数据,并按照读取的顺序存储得到第二数据格式的输入数据。
在一种可能的实现方式中,所述方法应用于第一处理器,所述第一处理器为人工智能处理器,
在所述第一处理器中神经网络的输入端和神经网络的第一层算子之间设有第一算子,所述第一算子用于根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式。
在一种可能的实现方式中,在所述神经网络的最后一层算子和输出端之间设有第二算子,所述第二算子用于根据第一处理器的运算单元的个数和/或预设维度数,将神经网络的输出数据由第二数据格式转换为第一数据格式。
根据本公开的另一方面,提供了一种数据处理装置,所述装置包括:
转换模块,用于在输入数据的第一数据格式与第一处理器支持的第二数据格式不同时,根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式,
其中,所述输入数据为张量数据,第一数据格式和第二数据格式的数据摆放顺序不同,预设维度数为第一处理器的运算单元一次读取的数据个数。
在一种可能的实现方式中,所述转换模块包括:
确定单元,用于对于第二数据格式的多个第二维度中的最低维度,根据输入数据的参数信息确定第一数据格式的多个第一维度中与所述最低维度对应的第三维度;其中,最低维度为读写数据时首先被读写的维度方向,所述参数信息包括用于描述第一数据格式的摆放顺序的信息;
补齐分段单元,用于根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,并根据预设维度数将补齐后的输入数据在第三维度方向上进行分段;
转换单元,用于将分段后的输入数据由第一数据格式转换为第二数据格式。
在一种可能的实现方式中,所述补齐分段单元还用于若第三维度的维度数小于预设维度数,则对输入数据在第三维度方向补齐到预设维度数。
在一种可能的实现方式中,所述补齐分段单元还用于若第三维度的维度数大于预设维度数,则计算第三维度的维度数与预设维度数的余数,若所述余数与所述预设维度数满足第一预设条件,则需要补齐的维度数与所述余数的和为所述个数的整数倍,若所述余数与所述预设维度数不满足所述第一预设条件,则需要补齐的维度数与所述余数的和为所述预设维度数。
在一种可能的实现方式中,所述第二数据格式为NHWC格式,其中,N代表数量、C代表通道数、H代表高度、W代表宽度,NHWC格式中C为最低维度。
在一种可能的实现方式中,所述转换单元还用于在N维度方向上针对每一段分段后的数据执行以下操作:
针对多个第二维度中的HWC维度,按照CWH的顺序从该段输入数据中与第二维度对应的第一维度方向读取输入数据,并按照读取的顺序存储得到第二数据格式的输入数据。
在一种可能的实现方式中,所述装置应用于第一处理器,所述第一处理器为人工智能处理器,
在所述第一处理器中神经网络的输入端和神经网络的第一层算子之间设有第一算子,所述第一算子用于根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式。
在一种可能的实现方式中,在所述神经网络的最后一层算子和输出端之间设有第二算子,所述第二算子用于根据第一处理器的运算单元的个数和/或预设维度数,将神经网络的输出数据由第二数据格式转换为第一数据格式。
根据本公开的另一方面,提供了一种数据处理装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述方法。
根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时实现上述方法。
对于输入数据为张量数据且输入数据的摆放顺序与第一处理器支持的张量数据的摆放顺序不同时,通过根据第一处理器的运算单元的个数和/或预设维度数将输入数据由第一数据格式转换为第二数据格式,以保证转换后的第二数据格式的输入数据既能满足数据格式的要求,又可以适应硬件读取数据的要求。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开一实施例的数据处理方法的流程图。
图2示例性的示出一NHWC格式的张量数据。
图3示出根据本公开一实施例的步骤S11的方法的流程图。
图4示出根据本公开一实施例的第一数据格式的输入数据的示例。
图5示出根据本公开一实施例的分段和补齐后的输入数据的示意图。
图6示出根据本公开一实施例的转换为第二数据格式的输入数据。
图7示出根据本公开一实施例的第一处理器的框图。
图8示出根据本公开一实施例的数据处理装置的框图。
图9示出根据本公开一实施例的数据处理装置的框图。
图10示出根据本公开一实施例的一种用于数据处理的装置的框图。
图11示出根据本公开一实施例的第一处理器的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
当前CPU支持的数据类型包括fp32,int32,fp64,int64等多种,CPU上tensor(张量)的摆放顺序也很多样,例如可以为nchw、whnc等。而当前的一些人工智能处理器仅支持特定的数据类型,例如,fp16和fix8等,人工智能处理器上tensor的摆放顺序也是固定的。
这里的人工智能处理器可以是指用于执行人工智能运算的人工智能处理器,人工智能运算可包括机器学习运算,类脑运算等。其中,机器学习运算包括神经网络运算、k-means运算、支持向量机运算等。该人工智能处理器可例如包括NPU(Neural-NetworkProcessing Unit,神经网络处理单元)、DSP(Digital Signal Process,数字信号处理单元)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)芯片中的一种或组合。人工智能处理器可以包括多个运算单元,多个运算单元可以并行执行运算。
由于机器学习运算计算量大,而且对计算速度要求高,深度学习的实际应用场景对处理数据的硬件在性能和功能上要求比较高,一种运算速度快同时功耗低的硬件就显得十分必要,人工智能处理器能够满足以上性能的要求。在运算时,将数据拷贝到人工智能处理器,由人工智能处理器执行运算的过程。但是如上所述,人工智能处理器支持的数据类型和tensor的摆放顺序是固定的、有限的,在将数据拷贝到人工智能处理器的时候,需要对数据类型和摆放顺序进行转换。
另外,人工智能处理器包括多个运算单元,一次读取的数据个数也有要求。因此,在转换输入数据的数据格式的过程中,还需要适应硬件的需求。
为了解决上述技术问题,本公开提供了一种数据处理方法,该方法可以应用于处理器,所述处理器可以为通用处理器,例如,处理器可以为中央处理单元CPU(CentralProcessing Unit)、图形处理单元GPU(Graphics Processing Unit)等。所述处理器还可以为上述用于执行人工智能运算的人工智能处理器。
图1示出根据本公开一实施例的数据处理方法的流程图。如图1所示,该方法可以包括:
步骤S11,在输入数据的第一数据格式与第一处理器支持的第二数据格式不同时,根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式,
其中,所述输入数据为张量数据,第一数据格式和第二数据格式的数据摆放顺序不同,预设维度数为第一处理器的运算单元一次读取的数据个数。第一处理器可以为包括多个运算单元的人工智能处理器。
如上所述,人工智能处理器通常包括多个运算单元,因此,在对输入数据进行处理的过程中一次获取的输入数据的个数是固定的,通常与运算单元的个数相关,而且读、写输入数据的顺序和数据的摆放方式相关。
图2示例性的示出一NHWC(batch,height,width,channels)格式的张量数据。其中,N代表数量,C代表通道数,H代表高度,W代表宽度。以图像数据为例,N可以表示一批处理的图片的数量,C可以表示不同的颜色通道,例如RGB,H和W分别可以表示一张图片中宽和长方向的像素数量。举例来说,如图2所示是按照NHWC顺序摆放的顺序,在读取输入数据进行处理的过程中,读取的顺序是从C维度开始读,然后是H维度、W维度、H维度。以包括4个运算单元的人工智能处理器为例,假设人工智能处理器一次能够处理的数据为16个,也就是一次读取的数据个数最多为16。那么对于图2所示的数据,读取输入数据的过程为(000,020,040,…,300),然后W维度(001,022,…,301)(003,…),然后H维度(004,024,…,304),(005,…,305)……。
根据本公开的数据处理方法,对于输入数据为张量数据且输入数据的摆放顺序与第一处理器支持的张量数据的摆放顺序不同时,通过根据第一处理器的运算单元的个数和/或预设维度数将输入数据由第一数据格式转换为第二数据格式,以保证转换后的第二数据格式的输入数据既能满足数据格式的要求,又可以适应硬件读取数据的要求。
示例性的,本公开的数据处理方法可以根据预设维度数或者运算单元的个数将输入数据在需要转换为最低维度的维度方向上进行分段,然后根据分段后的输入数据进行摆放顺序的转换,这样可以适应硬件读取数据的要求。其中,最低维度为读写数据时首先被读写的维度方向,例如,在NHWC格式中,最低维度为C维度。
图3示出根据本公开一实施例的步骤S11的方法的流程图。如图3所示,在一种可能的实现方式中,步骤S11可以包括:
步骤S111,对于第二数据格式的多个第二维度中的最低维度,根据输入数据的参数信息确定第一数据格式的多个第一维度中与所述最低维度对应的第三维度;
其中,最低维度为读写数据时首先被读写的维度方向,所述参数信息包括用于描述第一数据格式的摆放顺序的信息;
步骤S112,根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,并根据预设维度数将补齐后的输入数据在第三维度方向上进行分段;
步骤S113,将分段后的输入数据由第一数据格式转换为第二数据格式。
在一种可能的实现方式中,第二数据格式可以包括多个第二维度,例如,所述第二数据格式可以为NHWC格式,其中,多个第二维度分别为N、H、W、C,C为最低维度。
输入数据的参数信息可以是描述输入数据的属性的信息,例如,输入数据的属性可以为输入数据的名称、格式等。其中,参数信息中的格式可以用于描述输入数据的第一数据格式的摆放顺序。举例来说,createTensor(tensor1,NCHW),其中,tensor1表示输入数据的名称(或标识),NCHW表示输入数据的数据格式,据此可以得出输入数据的摆放顺序。因此,根据输入数据的参数信息可以确定输入数据的第一数据格式中的多个第一维度中与最低维度对应的维度(为便于区分,称为第三维度)。
举例来说,为了便于区分第一数据格式和第二数据格式,假设输入数据的第一数据格式为N1C1H1W1,第二数据格式为N2H2W2C2,多个第二维度中的最低维度为C2,第一数据格式的多个第一维度中与最低维度对应的第三维度为C1。图4示出根据本公开一实施例的第一数据格式N1C1H1W1的输入数据的示例,图4中的输入数据的竖直方向即为第三维度方向。
本公开的实施例中,在确定输入数据的第三维度后,可以根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐。
在一个示例中,若第三维度的维度数等于预设维度数,则不需要在第三维度方向进行补齐,直接执行步骤S113将输入数据由第一数据格式转换为第二数据格式即可;在另一个示例中,若第三维度的维度数小于预设维度数,则对输入数据在第三维度方向补齐到预设维度数,由于补齐后的输入数据在第三维度方向的维度数刚好等于预设维度数,因此也不需要进行分段,直接执行步骤S113将输入数据由第一数据格式转换为第二数据格式即可。其中,将输入数据由第一数据格式转换为第二数据格式将在下文中介绍。
还有一种情况,第三维度的维度数大于预设维度数。这种情况,需要在第三维度方向进行分段(分段可以在补齐之前,也可以在补齐之后,本公开对此不作限定),分段是指按照预设维度数将输入数据分成多个段,也就是将第三维度除以预设维度数向上取整即为分段之后段数。以图4为例,若预设维度数为9,第三维度C1的维度数为13,那么可以在第三维度C1方向上分为2段。分段之后还可以根据最后一段的维度数与预设维度数或运算单元的个数的关系判断是否进行补齐处理。
例如,在一个示例中:若第三维度的维度数大于预设维度数,则计算第三维度的维度数与预设维度数的余数,若所述余数与所述预设维度数满足第一预设条件,则需要补齐的维度数与所述余数的和为所述个数的整数倍,若所述余数与所述预设维度数不满足所述第一预设条件,则需要补齐的维度数与所述余数的和为所述预设维度数。其中,所述第一预设条件可以是余数<(预设维度/2),或者,第一预设条件也可以是余数<(预设维度/3),本公开对此不作限定。
在另一个示例中,若第三维度的维度数大于预设维度数,则计算第三维度的维度数与预设维度数的余数,若所述余数与所述个数满足第二预设条件,则需要补齐的维度数与所述余数的和为所述个数的整数倍,若所述余数与所述个数不满足所述第二预设条件,则需要补齐的维度数与所述余数的和为所述预设维度数。其中,第二预设条件可以为余数<个数,或者,第二预设条件也可以为余数<个数*2,本公开对此不作限定。
举例来说,假设运算单元的个数为3,预设维度数为9,在图4所示的示例中,在第三维度C1方向上分为2段,第一段为(000,004,…0036),第2段的输入数据的个数(上述余数)为4,小于9/2,因此,可以在第三维度C1方向补齐到3的倍数,也就是将第二段的输入数据在第三维度C1方向补齐到6维,也就是说,在N1=1和N1=2部分分别需要补齐2×H×W个0。图5示出根据本公开一实施例的进行了分段和补齐后的输入数据的示意图。这样能够保证转换后的输入数据可以更好的适应硬件读取数据的要求。
对于步骤S113,为了更清楚的描述具体的过程,将以图5和图6为例进行说明。图6示出根据本公开一实施例的转换为第二数据格式的输入数据。
步骤S113可以包括:
在N维度方向上针对每一段分段后的数据执行以下操作:
针对多个第二维度中的HWC维度,按照CWH的顺序从该段输入数据中与第二维度对应的第一维度方向读取输入数据,并按照读取的顺序存储得到第二数据格式的输入数据。
如图5所示,针对N1=1中的C11段的输入数据,读取(000,004,…,036)按照图6的方式存储,然后顺着W1方向读取第三维度的数据(052,056,…,088)按照图6的方式存储,……,在读完(156,160,…,192)并按照图6的方式存储之后,读取(001,005,…,037)按照图6的方式存储,直到将C11段的输入数据转换完,按照同样的方式对C12段的输入数据进行转换。对于N1=2中的数据采用同样的方式进行转换,就完成了将输入数据由第一数据格式转换为第二数据格式的过程。
需要说明的是,在上述的示例中,虽然先对输入数据进行了补齐和分段,然后再转换输入数据的摆放顺序,但本领域技术人员应该能够理解,本公开不限于此。例如,在其他示例中,还可以在转换的过程中实现分段和补齐。
这样,通过根据运算单元的个数和/或预设维度数对输入数据进行补齐、分段和摆放顺序的转换,将输入数据由第一数据格式转换为第二数据格式。这样,可以保证转换后的第二数据格式的输入数据既能满足数据格式的要求,又可以适应硬件读取数据的要求。
如上所述,采用通用处理器,例如CPU,可以完成上述数据处理的过程,但是这样需要现将数据输入到CPU,由CPU处理完成后再拷贝到人工智能处理器,人工智能处理器运算完成后还需要拷贝到CPU,并且CPU的性能较差时会导致运算性能下降。
在一种可能的实现方式中,所述方法应用于第一处理器,也就是说上述数据处理的过程由人工智能处理器完成。这样就不需要现将输入数据输入CPU由CPU处理,还是直接输入人工智能处理器即可,进一步提高I/O的效率,采用人工智能处理器执行上述方法还可以提高运算的性能、效率,节省运算时间。
在一种可能的实现方式中,在所述第一处理器中神经网络的输入端和神经网络的第一层算子之间设有第一算子,所述第一算子用于根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式。
图7示出根据本公开一实施例的第一处理器的框图。如图7所示,在神经网络的输入端Tensor 1和第一层算子之间可以设置有Layout Operation(第一算子Layout Op1),Layout Op1用于根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式。在一种可能的实现方式中,还可以设置Tensor 2用于存储转换后的第二数据格式的输入数据。这样就不需要现将输入数据输入CPU由CPU处理,而是直接输入人工智能处理器即可,进一步提高I/O的效率,提高运算的性能、效率,节省运算时间。
在一种可能的实现方式中,还可以在所述神经网络的最后一层算子和输出端之间设有第二算子,所述第二算子用于根据第一处理器的运算单元的个数和/或预设维度数,将神经网络的输出数据由第二数据格式转换为第一数据格式。如图7所示,在神经网络的最后一层算子和输出端Tensor 4之间页可以设有Layout Operation(第二算子Layout Op2),Layout Op2用于根据第一处理器的运算单元的个数和/或预设维度数,将神经网络的输出数据由第二数据格式转换为第一数据格式。需要说明的是,也可以根据输出的需要由第二数据格式转换为其他的数据格式,比如说,若要将神经网络的输出数据输出到支持第三数据格式的处理器上,则可以将输出数据由第二数据格式转换为第三数据格式,第三数据格式的摆放顺序可以不同于第一数据格式和第二数据格式。在一种可能的实现方式中,还可以设置Tensor 3用于存储神经网络的输出数据。需要说明的是,将神经网络的输出数据由第二数据格式转换为第一数据格式可以参照上文描述的由第一数据格式转换为第二数据格式的过程,不在赘述。
在一种可能的实现方式中,也可以在神经网络的输入端和神经网络的第一层算子之间,或者,神经网络的最后一层算子和输出端之间分别设置多个Layout Operation实现多种形式的转换。这样可以根据需要转换数据的格式。
在一种可能的实现方式中,本公开的数据处理方法还可以转换输入数据的数据类型,例如在多种数据类型fp32,int32,fp64,int64,fp16和fix8等之间进行转换。进行数据类型转换的过程可以是在进行摆放顺序的转换之前或者之后执行,本公开对此不作限定。同样的,还可以对输出数据的数据类型进行转换。
本公开还提供了一种数据处理装置,该装置可以应用于处理器,所述处理器可以为通用处理器,例如,处理器可以为中央处理单元CPU(Central Processing Unit)、图形处理单元GPU(Graphics Processing Unit)等。所述处理器还可以为上述用于执行人工智能运算的人工智能处理器。
图8示出根据本公开一实施例的数据处理装置的框图。如图8所示,所述装置包括:
转换模块31,用于在输入数据的第一数据格式与第一处理器支持的第二数据格式不同时,根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式,
其中,所述输入数据为张量数据,第一数据格式和第二数据格式的数据摆放顺序不同,预设维度数为第一处理器的运算单元一次读取的数据个数。
对于输入数据为张量数据且输入数据的摆放顺序与第一处理器支持的张量数据的摆放顺序不同时,通过根据第一处理器的运算单元的个数和/或预设维度数将输入数据由第一数据格式转换为第二数据格式,以保证转换后的第二数据格式的输入数据既能满足数据格式的要求,又可以适应硬件读取数据的要求。
图9示出根据本公开一实施例的数据处理装置的框图。如图9所示,在一种可能的实现方式中,所述转换模块31包括:
确定单元311,用于对于第二数据格式的多个第二维度中的最低维度,根据输入数据的参数信息确定第一数据格式的多个第一维度中与所述最低维度对应的第三维度;其中,最低维度为读写数据时首先被读写的维度方向,所述参数信息包括用于描述第一数据格式的摆放顺序的信息;
补齐分段单元312,用于根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,并根据预设维度数将补齐后的输入数据在第三维度方向上进行分段;
转换单元313,用于将分段后的输入数据由第一数据格式转换为第二数据格式。
在一种可能的实现方式中,所述补齐分段单元312还用于若第三维度的维度数小于预设维度数,则对输入数据在第三维度方向补齐到预设维度数。
在一种可能的实现方式中,所述补齐分段单元312还用于若第三维度的维度数大于预设维度数,则计算第三维度的维度数与预设维度数的余数,若所述余数与所述预设维度数满足第一预设条件,则需要补齐的维度数与所述余数的和为所述个数的整数倍,若所述余数与所述预设维度数不满足所述第一预设条件,则需要补齐的维度数与所述余数的和为所述预设维度数。
在一种可能的实现方式中,所述第二数据格式为NHWC格式,其中,N代表数量、C代表通道数、H代表高度、W代表宽度,NHWC格式中C为最低维度。
在一种可能的实现方式中,所述转换单元313还用于在N维度方向上针对每一段分段后的数据执行以下操作:
针对多个第二维度中的HWC维度,按照CWH的顺序从该段输入数据中与第二维度对应的第一维度方向读取输入数据,并按照读取的顺序存储得到第二数据格式的输入数据。
在一种可能的实现方式中,所述装置应用于第一处理器,所述第一处理器为人工智能处理器,
在所述第一处理器中神经网络的输入端和神经网络的第一层算子之间设有第一算子,所述第一算子用于根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式。
在一种可能的实现方式中,在所述神经网络的最后一层算子和输出端之间设有第二算子,所述第二算子用于根据第一处理器的运算单元的个数和/或预设维度数,将神经网络的输出数据由第二数据格式转换为第一数据格式。
图10是根据一示例性实施例示出的一种用于数据处理的装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图10,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由装置800的处理器820执行以完成上述方法。
图11示出根据本公开一实施例的第一处理器的框图。该第一处理器可以应用于上述神经网络的编译装置。
参阅图11,该第一处理器用于执行机器学习计算,该第一处理器包括:控制器单元141和运算单元142,其中,控制器单元141与运算单元142连接,第一处理器可以包括多个运算单元142,该多个运算单元142包括:一个主处理电路和多个从处理电路;
控制器单元141,用于获取输入数据以及计算指令。该输入数据可以是经过第一处理器进行补齐处理后的数据。
在一种可选方案中,一个主处理电路和多个从处理电路可以为树型结构、H型结构或者脉冲阵列机结构,本公开对主处理电路和从处理电路之前的连接方式不作限定。
在一种可选方案中,具体的,获取输入数据以及计算指令方式可以通过数据输入输出单元得到,该数据输入输出单元具体可以为一个或多个数据I/O接口或I/O引脚。
上述计算指令包括但不限于:正向运算指令或反向训练指令,或其他神经网络运算指令等等,例如卷积运算指令,本申请具体实施方式并不限制上述计算指令的具体表现形式。
控制器单元141,还用于解析该计算指令得到多个运算指令,将该多个运算指令以及所述输入数据发送给所述主处理电路;
主处理电路101,用于对所述输入数据执行前序处理以及与所述多个从处理电路之间传输数据以及运算指令;
多个从处理电路102,用于依据从所述主处理电路传输的数据以及运算指令并行执行中间运算得到多个中间结果,并将多个中间结果传输给所述主处理电路;
主处理电路101,用于对所述多个中间结果执行后续处理得到所述计算指令的计算结果。
本申请提供的技术方案将运算单元设置成一主多从结构,对于正向运算的计算指令,其可以将依据正向运算的计算指令将数据进行拆分,这样通过多个从处理电路即能够对计算量较大的部分进行并行运算,从而提高运算速度,节省运算时间,进而降低功耗。
可选的,上述机器学习计算具体可以包括:人工神经网络运算,上述输入数据具体可以包括:输入神经元数据和权值数据。上述计算结果具体可以为:人工神经网络运算的结果即输出神经元数据。
对于神经网络中的运算可以为神经网络中的一层的运算,对于多层神经网络,其实现过程是,在正向运算中,当上一层人工神经网络执行完成之后,下一层的运算指令会将运算单元中计算出的输出神经元作为下一层的输入神经元进行运算(或者是对该输出神经元进行某些操作再作为下一层的输入神经元),同时,将权值也替换为下一层的权值;在反向运算中,当上一层人工神经网络的反向运算执行完成后,下一层运算指令会将运算单元中计算出的输入神经元梯度作为下一层的输出神经元梯度进行运算(或者是对该输入神经元梯度进行某些操作再作为下一层的输出神经元梯度),同时将权值替换为下一层的权值。
上述机器学习计算还可以包括支持向量机运算,k-近邻(k-nn)运算,k-均值(k-means)运算,主成分分析运算等等。为了描述的方便,下面以人工神经网络运算为例来说明机器学习计算的具体方案。
对于人工神经网络运算,如果该人工神经网络运算具有多层运算,多层运算的输入神经元和输出神经元并非是指整个神经网络的输入层中神经元和输出层中神经元,而是对于网络中任意相邻的两层,处于网络正向运算下层中的神经元即为输入神经元,处于网络正向运算上层中的神经元即为输出神经元。以卷积神经网络为例,设一个卷积神经网络有L层,K=1,2,...,L-1,对于第K层和第K+1层来说,我们将第K层称为输入层,其中的神经元为所述输入神经元,第K+1层称为输出层,其中的神经元为所述输出神经元。即除最顶层外,每一层都可以作为输入层,其下一层为对应的输出层。
可选的,上述第一处理器还可以包括:该存储单元140和直接内存访问单元50,存储单元140可以包括:寄存器、缓存中的一个或任意组合,具体的,所述缓存,用于存储所述计算指令;所述寄存器,用于存储所述输入数据和标量;所述缓存为高速暂存缓存。直接内存访问单元50用于从存储单元10读取或存储数据。
可选的,该控制器单元包括:指令存储单元410、指令处理单元411和存储队列单元413;
指令存储单元410,用于存储所述人工神经网络运算关联的计算指令;
所述指令处理单元411,用于对所述计算指令解析得到多个运算指令;
存储队列单元413,用于存储指令队列,该指令队列包括:按该队列的前后顺序待执行的多个运算指令或计算指令。
举例说明,在一个可选的技术方案中,主运算处理电路也可以包括一个控制器单元,该控制器单元可以包括主指令处理单元,具体用于将指令译码成微指令。当然在另一种可选方案中,从运算处理电路也可以包括另一个控制器单元,该另一个控制器单元包括从指令处理单元,具体用于接收并处理微指令。上述微指令可以为指令的下一级指令,该微指令可以通过对指令的拆分或解码后获得,能被进一步解码为各部件、各单元或各处理电路的控制信号。
在一种可选方案中,该计算指令的结构可以如下表所示。
操作码 寄存器或立即数 寄存器/立即数
上表中的省略号表示可以包括多个寄存器或立即数。
在另一种可选方案中,该计算指令可以包括:一个或多个操作域以及一个操作码。该计算指令可以包括神经网络运算指令。以神经网络运算指令为例,如表1所示,其中,寄存器号0、寄存器号1、寄存器号2、寄存器号3、寄存器号4可以为操作域。其中,每个寄存器号0、寄存器号1、寄存器号2、寄存器号3、寄存器号4可以是一个或者多个寄存器的号码。
Figure BDA0001996385470000121
上述寄存器可以为片外存储器,当然在实际应用中,也可以为片内存储器,用于存储数据,该数据具体可以为n维数据,n为大于等于1的整数,例如,n=1时,为1维数据,即向量,如n=2时,为2维数据,即矩阵,如n=3或3以上时,为多维张量。
可选的,该控制器单元还可以包括:
所述依赖关系处理单元412,用于在具有多个运算指令时,确定第一运算指令与所述第一运算指令之前的第零运算指令是否存在关联关系,如所述第一运算指令与所述第零运算指令存在关联关系,则将所述第一运算指令缓存在所述指令存储单元内,在所述第零运算指令执行完毕后,从所述指令存储单元提取所述第一运算指令传输至所述运算单元;
所述确定该第一运算指令与第一运算指令之前的第零运算指令是否存在关联关系包括:
依据所述第一运算指令提取所述第一运算指令中所需数据(例如矩阵)的第一存储地址区间,依据所述第零运算指令提取所述第零运算指令中所需矩阵的第零存储地址区间,如所述第一存储地址区间与所述第零存储地址区间具有重叠的区域,则确定所述第一运算指令与所述第零运算指令具有关联关系,如所述第一存储地址区间与所述第零存储地址区间不具有重叠的区域,则确定所述第一运算指令与所述第零运算指令不具有关联关系。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (18)

1.一种数据处理方法,其特征在于,所述方法包括:
在输入数据的第一数据格式与第一处理器支持的第二数据格式不同时,根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式,
其中,所述输入数据为张量数据,第一数据格式和第二数据格式的数据摆放顺序不同,预设维度数为第一处理器的运算单元一次读取的数据个数。
2.根据权利要求1所述的方法,其特征在于,根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式,包括:
对于第二数据格式的多个第二维度中的最低维度,根据输入数据的参数信息确定第一数据格式的多个第一维度中与所述最低维度对应的第三维度;其中,最低维度为读写数据时首先被读写的维度方向,所述参数信息包括用于描述第一数据格式的摆放顺序的信息;
根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,并根据预设维度数将补齐后的输入数据在第三维度方向上进行分段;
将分段后的输入数据由第一数据格式转换为第二数据格式。
3.根据权利要求2所述的方法,其特征在于,根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,包括:
若第三维度的维度数小于预设维度数,则对输入数据在第三维度方向补齐到预设维度数。
4.根据权利要求3所述的方法,其特征在于,根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,还包括:
若第三维度的维度数大于预设维度数,则计算第三维度的维度数与预设维度数的余数,若所述余数与所述预设维度数满足第一预设条件,则需要补齐的维度数与所述余数的和为所述个数的整数倍,若所述余数与所述预设维度数不满足所述第一预设条件,则需要补齐的维度数与所述余数的和为所述预设维度数。
5.根据权利要求2-4任意一项所述的方法,其特征在于,所述第二数据格式为NHWC格式,其中,N代表数量、C代表通道数、H代表高度、W代表宽度,NHWC格式中C为最低维度。
6.根据权利要求5所述的方法,其特征在于,将分段后的输入数据由第一数据格式转换为第二数据格式,包括:
在N维度方向上针对每一段分段后的数据执行以下操作:
针对多个第二维度中的HWC维度,按照CWH的顺序从该段输入数据中与第二维度对应的第一维度方向读取输入数据,并按照读取的顺序存储得到第二数据格式的输入数据。
7.根据权利要求1-6任意一项所述的方法,其特征在于,所述方法应用于第一处理器,所述第一处理器为人工智能处理器,
在所述第一处理器中神经网络的输入端和神经网络的第一层算子之间设有第一算子,所述第一算子用于根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式。
8.根据权利要求7所述的方法,其特征在于,在所述神经网络的最后一层算子和输出端之间设有第二算子,所述第二算子用于根据第一处理器的运算单元的个数和/或预设维度数,将神经网络的输出数据由第二数据格式转换为第一数据格式。
9.一种数据处理装置,其特征在于,所述装置包括:
转换模块,用于在输入数据的第一数据格式与第一处理器支持的第二数据格式不同时,根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式,
其中,所述输入数据为张量数据,第一数据格式和第二数据格式的数据摆放顺序不同,预设维度数为第一处理器的运算单元一次读取的数据个数。
10.根据权利要求9所述的装置,其特征在于,所述转换模块包括:
确定单元,用于对于第二数据格式的多个第二维度中的最低维度,根据输入数据的参数信息确定第一数据格式的多个第一维度中与所述最低维度对应的第三维度;其中,最低维度为读写数据时首先被读写的维度方向,所述参数信息包括用于描述第一数据格式的摆放顺序的信息;
补齐分段单元,用于根据第三维度的维度数、预设维度数以及所述个数对输入数据在第三维度方向进行补齐,并根据预设维度数将补齐后的输入数据在第三维度方向上进行分段;
转换单元,用于将分段后的输入数据由第一数据格式转换为第二数据格式。
11.根据权利要求10所述的装置,其特征在于,所述补齐分段单元还用于若第三维度的维度数小于预设维度数,则对输入数据在第三维度方向补齐到预设维度数。
12.根据权利要求11所述的装置,其特征在于,所述补齐分段单元还用于若第三维度的维度数大于预设维度数,则计算第三维度的维度数与预设维度数的余数,若所述余数与所述预设维度数满足第一预设条件,则需要补齐的维度数与所述余数的和为所述个数的整数倍,若所述余数与所述预设维度数不满足所述第一预设条件,则需要补齐的维度数与所述余数的和为所述预设维度数。
13.根据权利要求10-12任意一项所述的装置,其特征在于,所述第二数据格式为NHWC格式,其中,N代表数量、C代表通道数、H代表高度、W代表宽度,NHWC格式中C为最低维度。
14.根据权利要求13所述的装置,其特征在于,所述转换单元还用于在N维度方向上针对每一段分段后的数据执行以下操作:
针对多个第二维度中的HWC维度,按照CWH的顺序从该段输入数据中与第二维度对应的第一维度方向读取输入数据,并按照读取的顺序存储得到第二数据格式的输入数据。
15.根据权利要求9-14任意一项所述的装置,其特征在于,所述装置应用于第一处理器,所述第一处理器为人工智能处理器,
在所述第一处理器中神经网络的输入端和神经网络的第一层算子之间设有第一算子,所述第一算子用于根据第一处理器的运算单元的个数和/或预设维度数,将输入数据由第一数据格式转换为第二数据格式。
16.根据权利要求15所述的装置,其特征在于,在所述神经网络的最后一层算子和输出端之间设有第二算子,所述第二算子用于根据第一处理器的运算单元的个数和/或预设维度数,将神经网络的输出数据由第二数据格式转换为第一数据格式。
17.一种数据处理装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行指令实现权利要求1至8中任意一项所述的方法。
18.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至8中任意一项所述的方法。
CN201910197813.7A 2019-03-15 2019-03-15 数据处理方法及装置 Active CN111695682B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910197813.7A CN111695682B (zh) 2019-03-15 2019-03-15 数据处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910197813.7A CN111695682B (zh) 2019-03-15 2019-03-15 数据处理方法及装置

Publications (2)

Publication Number Publication Date
CN111695682A true CN111695682A (zh) 2020-09-22
CN111695682B CN111695682B (zh) 2022-11-01

Family

ID=72475945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910197813.7A Active CN111695682B (zh) 2019-03-15 2019-03-15 数据处理方法及装置

Country Status (1)

Country Link
CN (1) CN111695682B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712168A (zh) * 2020-12-31 2021-04-27 北京清微智能科技有限公司 一种实现神经网络高效计算的方法及系统
CN112990370A (zh) * 2021-04-26 2021-06-18 腾讯科技(深圳)有限公司 图像数据的处理方法和装置、存储介质及电子设备
WO2022141513A1 (zh) * 2020-12-31 2022-07-07 华为技术有限公司 模型处理方法和装置
WO2022151950A1 (zh) * 2021-01-13 2022-07-21 华为技术有限公司 张量处理方法、装置、设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080059398A1 (en) * 2006-09-06 2008-03-06 Kyoya Tsutsui Data transfer system capable of converting file formats
CN103199977A (zh) * 2012-12-27 2013-07-10 中华电信股份有限公司 同步序列数据传输方法与电路装置
CN103488602A (zh) * 2013-09-14 2014-01-01 西安电子科技大学 一种基于总线的多位数据相关器设计方法
CN107844830A (zh) * 2016-12-08 2018-03-27 上海兆芯集成电路有限公司 具有数据大小和权重大小混合计算能力的神经网络单元
US20190042094A1 (en) * 2018-06-30 2019-02-07 Intel Corporation Apparatus and method for coherent, accelerated conversion between data representations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080059398A1 (en) * 2006-09-06 2008-03-06 Kyoya Tsutsui Data transfer system capable of converting file formats
CN103199977A (zh) * 2012-12-27 2013-07-10 中华电信股份有限公司 同步序列数据传输方法与电路装置
CN103488602A (zh) * 2013-09-14 2014-01-01 西安电子科技大学 一种基于总线的多位数据相关器设计方法
CN107844830A (zh) * 2016-12-08 2018-03-27 上海兆芯集成电路有限公司 具有数据大小和权重大小混合计算能力的神经网络单元
US20190042094A1 (en) * 2018-06-30 2019-02-07 Intel Corporation Apparatus and method for coherent, accelerated conversion between data representations

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
葛帅等: "基于GPU的LDPC存储优化并行译码结构设计", 《北京航空航天大学学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712168A (zh) * 2020-12-31 2021-04-27 北京清微智能科技有限公司 一种实现神经网络高效计算的方法及系统
WO2022141513A1 (zh) * 2020-12-31 2022-07-07 华为技术有限公司 模型处理方法和装置
WO2022151950A1 (zh) * 2021-01-13 2022-07-21 华为技术有限公司 张量处理方法、装置、设备及计算机可读存储介质
CN112990370A (zh) * 2021-04-26 2021-06-18 腾讯科技(深圳)有限公司 图像数据的处理方法和装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN111695682B (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
CN111695682B (zh) 数据处理方法及装置
CN107909065B (zh) 用于检测人脸遮挡的方法及装置
CN112184738B (zh) 一种图像分割方法、装置、设备及存储介质
CN112200062B (zh) 一种基于神经网络的目标检测方法、装置、机器可读介质及设备
JP7096888B2 (ja) ネットワークモジュール、割り当て方法及び装置、電子機器並びに記憶媒体
CN110458218B (zh) 图像分类方法及装置、分类网络训练方法及装置
CN111369427A (zh) 图像处理方法、装置、可读介质和电子设备
CN109145970B (zh) 基于图像的问答处理方法和装置、电子设备及存储介质
CN112052792B (zh) 一种跨模型人脸识别方法、装置、设备及介质
CN110070063B (zh) 目标对象的动作识别方法、装置和电子设备
US20220392202A1 (en) Imaging processing method and apparatus, electronic device, and storage medium
CN111783756A (zh) 文本识别方法及装置、电子设备和存储介质
US20200364406A1 (en) Entity relationship processing method, apparatus, device and computer readable storage medium
CN110188865B (zh) 信息处理方法及装置、电子设备和存储介质
CN108701355A (zh) Gpu优化和在线基于单高斯的皮肤似然估计
CN109271587A (zh) 一种页面生成方法和装置
CN110543849A (zh) 检测器的配置方法及装置、电子设备和存储介质
CN111597029A (zh) 数据处理方法及装置、电子设备和存储介质
CN115937033A (zh) 图像生成方法、装置及电子设备
WO2022141969A1 (zh) 图像分割方法及装置、电子设备、存储介质和程序
CN111694768B (zh) 运算方法、装置及相关产品
CN109635926B (zh) 用于神经网络的注意力特征获取方法、装置及存储介质
US20150178597A1 (en) Method of classifying objects in scenes
CN116884004A (zh) 图像处理方法、装置、电子设备和存储介质
CN111626398B (zh) 运算方法、装置及相关产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant