CN112036561A - 数据处理方法、装置、电子设备及存储介质 - Google Patents
数据处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112036561A CN112036561A CN202011064115.9A CN202011064115A CN112036561A CN 112036561 A CN112036561 A CN 112036561A CN 202011064115 A CN202011064115 A CN 202011064115A CN 112036561 A CN112036561 A CN 112036561A
- Authority
- CN
- China
- Prior art keywords
- data
- instruction
- point number
- classification
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title abstract description 15
- 230000015654 memory Effects 0.000 claims abstract description 83
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000010606 normalization Methods 0.000 claims abstract description 56
- 238000012545 processing Methods 0.000 claims abstract description 46
- 230000008569 process Effects 0.000 claims abstract description 36
- 230000004044 response Effects 0.000 claims abstract description 4
- 238000007667 floating Methods 0.000 claims description 47
- 238000004364 calculation method Methods 0.000 claims description 35
- 238000009825 accumulation Methods 0.000 claims description 27
- 230000009467 reduction Effects 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- ROXBGBWUWZTYLZ-UHFFFAOYSA-N [6-[[10-formyl-5,14-dihydroxy-13-methyl-17-(5-oxo-2h-furan-3-yl)-2,3,4,6,7,8,9,11,12,15,16,17-dodecahydro-1h-cyclopenta[a]phenanthren-3-yl]oxy]-4-methoxy-2-methyloxan-3-yl] 4-[2-(4-azido-3-iodophenyl)ethylamino]-4-oxobutanoate Chemical compound O1C(C)C(OC(=O)CCC(=O)NCCC=2C=C(I)C(N=[N+]=[N-])=CC=2)C(OC)CC1OC(CC1(O)CCC2C3(O)CC4)CCC1(C=O)C2CCC3(C)C4C1=CC(=O)OC1 ROXBGBWUWZTYLZ-UHFFFAOYSA-N 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了数据处理方法、装置、电子设备及存储介质,涉及深度学习、智能芯片处理等人工智能领域。具体实现方案为:获取输入芯片的待处理数据;响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令;将所述指数运算指令划分为指数归一化指令及占比指令;分别执行所述指数归一化指令及所述占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,所述数据读写操作结束后,将针对所述待处理数据的分类结果写入所述内存。采用本申请,可以提高芯片中指数运算的处理效率。
Description
技术领域
本申请涉及人工智能处理领域。本申请尤其涉及深度学习、智能芯片处理等领域。
背景技术
人工智能也被称为机器智能,是由机器展示的智能,与人类和动物展示的自然智能形成对比。通俗地说,“人工智能”一词用来描述模仿人类与其他人类思维相关联的“认知”功能的机器,如“学习”和“解决问题”。基于人工智能技术的芯片越来越多,芯片的处理能力及处理效率取决于神经网络的运算能力及处理效率。以利用芯片边缘神经网络处理分类问题为例,需要在边缘神经网络接入归一化指数(softmax)分类器来进行分类处理,但是softmax运算的开销大,影响了芯片中指数运算的处理效率。
发明内容
本申请提供了一种数据处理方法、装置、电子设备及存储介质。
根据本申请的一方面,提供了一种数据处理方法,包括:
获取输入芯片的待处理数据;
响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令;
将所述指数运算指令划分为指数归一化指令及占比指令;
分别执行所述指数归一化指令及所述占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,所述数据读写操作结束后,将针对所述待处理数据的分类结果写入所述内存。
根据本申请的另一方面,提供了一种数据处理装置,包括:
数据获取模块,用于获取输入芯片的待处理数据;
指令获取模块,用于响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令;
指令拆分模块,用于将所述指数运算指令划分为指数归一化指令及占比指令;
读写模块,用于分别执行所述指数归一化指令及所述占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,所述数据读写操作结束后,将针对所述待处理数据的分类结果写入所述内存。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本申请任意一实施例所提供的方法。
根据本申请的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使该计算机执行本申请任意一项实施例所提供的方法。
采用本申请,可以获取输入芯片的待处理数据,响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令。将指数运算指令划分为指数归一化指令及占比指令;分别执行指数归一化指令及占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,在数据读写操作结束后,将针对该待处理数据的分类结果写入该内存。由于将指数运算指令划分为指数归一化指令及占比指令,多个指令操作可分时处理,从而提高了芯片中指数运算的处理效率,且降低了处理时间,而且在分别执行指数归一化指令及占比指令的过程中还可以共享内存以进行与分类相关的数据读写操作,可以减少资源占用,且分时使用该内存,可以进一步提高指数运算的处理效率。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请实施例的数据处理方法的流程示意图;
图2是根据本申请实施例的多种输入数据的数据格式示意图;
图3是根据本申请实施例的指数归一化操作的示意图;
图4是根据本申请实施例的求占比操作的示意图;
图5是根据本申请实施例的数据处理装置的组成结构示意图;
图6是用来实现本申请实施例的数据处理方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。本文中术语“第一”、“第二”表示指代多个类似的技术用语并对其进行区分,并不是限定顺序的意思,或者限定只有两个的意思,例如,第一特征和第二特征,是指代有两类/两个特征,第一特征可以为一个或多个,第二特征也可以为一个或多个。
另外,为了更好的说明本申请,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本申请同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本申请的主旨。
softmax分类器是深度学习中常用的分类器,其常作用于神经网络结构的最后一层,起到分类的作用。softmax分类器的实现原理是利用softmax函数进行指数运算并对每种分类计算归一化的概率,得到分类的概率,softmax分类器的计算公式如公式(1)所示:
softmax分类器可以部署在现场可编程门阵列(FPGA)上实现,考虑到FPGA复杂性和资源开销比较大,会造成资源的浪费,受限于现场可编程门阵列(FPGA)硬件实现的复杂性和资源的开销比较大,还可以将softmax分类器的实现部署在基于ARM(ARM是一种低功耗成本的微处理器)内核的CPU侧。
从公式(1)可以看出利用softmax分类器会涉及到大量的指数运算,部署在CPU侧上实现,本身受限于指数运算开销大,及支持的参数范围受限的问题,CPU侧上的计算压力比较大,导致处理性能一般,也降低了神经网络整体的自适应学习性能,也就是说,部署在CPU侧,按照目前的指数运算,会导致指数运算的开销很大,处理效率也低下。有鉴于此,采用本申请,可以将利用softmax分类器执行的softmax指数运算过程进行了优化和改进,即:将softmax指数运算过程拆分为连续两个操作,比如拆分为归一化操作和占比操作,以提高运算效率。运算效率得到提高后,部署在FPGA侧、CPU侧以及其他芯片,如专用集成电路(ASIC)都是可行的。
根据本申请的实施例,提供了一种数据处理方法,图1是根据本申请实施例的数据处理方法的流程示意图,该方法可以应用于数据处理装置,例如,该装置可以部署于终端或服务器或其它处理设备执行的情况下,可以执行实现数据分类操作的一系列运算,如归一化运算及占比运算等等。其中,终端可以为用户设备(UE,User Equipment)、移动设备、蜂窝电话、无绳电话、个人数字处理(PDA,Personal Digital Assistant)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该方法还可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图1所示,包括:
S101、获取输入芯片的待处理数据。
一示例中,芯片可以包括:CPU、FPGA或AISC等芯片,对输入CPU、FPGA或AISC等芯片中的待处理数据,可以利用实现芯片各个处理逻辑的相应神经网络来实现具体的数据处理。
S102、响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令。
一示例中,对于数据处理为解决分类问题为例,可以利用芯片的边缘神经网络作为该分类网络,将该分类网络的输出端连接softmax分类器以进行分类运算,可以得到该指数运算指令(该指数运算指令为softmax指数运算指令的一种)。
S103、将所述指数运算指令划分为指数归一化指令及占比指令。
一示例中,可以将指数运算指令划分为指数归一化指令及占比指令。其中,指数归一化指令可以包括求取最大值的运算、减最大值运算及指数运算等指令;占比指令可以包括占比运算等指令。
S104、分别执行所述指数归一化指令及所述占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,所述数据读写操作结束后,将针对所述待处理数据的分类结果写入所述内存。
一示例中,在分别执行指数归一化指令及占比指令的过程中,可采用分时复用的方式共享内存,如共享静态随机存取存储器(SRAM),从共享SRAM中读取当前数据,以根据该当前数据进行与分类相关的数据读写操作,从而得到该分类结果。
换言之,在数据处理的计算过程中,执行分时复用的指数归一化指令及占比指令,且二者共享内存(如共享SRAM)。在该计算过程中,可以从共享内存读取当前数据,在计算结束后,还可以将该分类结果直接写回到外部的共享内容(如共享DDR)。由于共享SRAM,不引入额外的SRAM开销,因此,节省了FPGA中的SRAM资源。
采用本申请,可以获取输入芯片的待处理数据,响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令。将指数运算指令划分为指数归一化指令及占比指令;分别执行指数归一化指令及占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,在数据读写操作结束后,将针对该待处理数据的分类结果写入该内存。由于将指数运算指令划分为指数归一化指令及占比指令,多个指令操作可分时处理,从而提高了芯片中指数运算的处理效率,且降低了处理时间,而且在分别执行指数归一化指令及占比指令的过程中还可以共享内存以进行与分类相关的数据读写操作,可以减少资源占用,且分时使用该内存,可以进一步提高指数运算的处理效率。
一示例中,芯片为FPGA,以部署在FPGA进行硬件加速实现为例,将softmax指数运算过程拆分为连续两个操作,比如,在解决分类问题的分类场景中,可以将连接于分类网络输出端的分类器进行分类运算,得到指数运算指令,将指数运算指令拆分为上述分别执行的指数归一化指令及占比指令,并以分时复用的方式共享内存,进行与分类相关的数据读写操作。
采用本示例,相比于部署在CPU侧导致CPU侧承担了大量计算压力而言,将softmax指数运算过程部署在FPGA侧来实现,可以释放CPU侧的计算压力,支持更广泛的参数范围,以及可以根据用户不同应用场景的需求,基于该FPGA打造的嵌入式人工智能平台,如EdgeBoard平台,有助于增加EdgeBoard平台所支持的神经网络种类及提升相应神经网络的处理性能,促进了EdgeBoard平台多应用场景的落地。
一实施方式中,执行所述指数归一化指令的过程中,对归一化指数softmax层输入的数据进行求取最大值的运算、减最大值运算及指数运算。其中,通过求取最大值的运算,可以确定针对输入的所述数据的范围上限。通过减最大值运算,可以缩小分类结果所适用的数据范围,以支持定点数的运算。通过指数运算,可以将针对分类结果的指数运算控制在0到1的数据范围内,以避免指数计算结果溢出的问题。
一实施方式中,执行上述指数归一化指令的过程中,对softmax层输入的数据进行求取最大值的运算、减最大值运算及指数运算,包括:在指定维度方向上进行所述求取最大值的运算,得到最大值;将当前维度方向得到的维度向量缓存入所述内存中;从所述内存中读取所述维度向量,根据所述维度向量和所述最大值进行所述减最大值运算,得到待定值;对所述待定值基于浮点数进行所述指数运算,得到浮点数形式的指数运算结果,将所述浮点数形式的指数运算结果,通过浮点数转定点数的操作进行转换,得到定点数形式的指数运算结果,并写入所述内存。由于在计算过程中可以将浮点数转为定点数的数据表达方式,因此,可以节省数字信号处理(DSP)资源,DSP作为一种用于数字信号处理的微处理器,主要用于对数据进行乘法、加法、减法运算等,采用定点数形式的指数运算结果在后续进行累加运算,不占资源,处理效率也快。
一实施方式中,还包括:执行所述占比指令的过程中,从所述内存中获取所述定点数形式的指数运算结果并进行求和的累加运算,得到定点数形式的累加运算结果;将所述定点数形式的累加运算结果,通过定点数转浮点数的操作进行转换,得到浮点数形式的累加运算结果并进行取倒数的操作,得到浮点数形式的累加和的倒数;将所述浮点数形式的累加和的倒数,作为所述分类结果并写入所述内存。由于在计算过程中可以将浮点数转为定点数的数据表达方式,因此,可以节省FPGA侧的数字信号处理(DSP)资源,DSP作为一种用于数字信号处理的微处理器,主要用于对数据进行乘法、加法、减法运算等,采用定点数形式的指数运算结果在后续进行累加运算,不占资源,而且在计算后,还可以将定点数形式的累加运算结果,通过定点数转浮点数的操作进行转换并求取倒数和后,写入内存,通过浮点数与定点数形式的转换,不引入过多资源的开销。
应用示例:
应用本申请实施例一处理流程包括如下内容:
本应用示例可以基于Xilinx Zynq MPSoC系列FPGA,但不局限于这些FPGA,在其他FPGA亦可采用此方法实现。其中,“Xilinx Zynq MPSoC”指赛灵思(Xilinx)公司推出的行业可扩展处理平台Zynq系列的模块化系统(MPSoC)。
图2是根据本申请实施例的多种输入数据的数据格式示意图,包括一维数据、二维数据及三维数据。softmax的计算是针对一维向量的计算,softmax层的输入数据可以是一维数据、二维数据或者三维数据,softmax的计算是在某一维度(如C维度)上展开,得到的结果与输入的维度相同。一维数据的长度等于类别K,可用于分类网络;二维数据可用于检测网络;三维数据可用于分割网络。后文的描述中将分类的某一维度(softmax计算的维度)定义为C维度。
可以设置softmax层的输入数据格式为FP16(为16位的浮点数),FP16相比于FP32(为32位的浮点数)节省了一半的数据带宽。数据处理按照16组数据并行处理,即在C维度方向上每个时钟周期进来256bit(16xFP16)数据,在整个计算过程中是保持16的并行度进行计算。
Softmax指数运算的实现方式如下:
一、求取最大值:对softmax层输入的数据zk在C维度方向求取最大值,得到最大值zmax,同时本C维度向量缓存在卷积RAM中,做到共享RAM,不增加RAM的开销,下文将该卷积RAM称之为共享SRAM。其中,zk为FP16浮点数。
二、减最大值操作:从共享RAM中取得C维度的原始数据,即zk减去zmax得到z′k=zk-zmax,同时保持下一个C维度的向量输入,形成流水线的数据处理模式。
三、指数计算:采用如下公式(2)对z′k进行指数运算,公式(2)中,为指数运算累加操作求和得到的结果;为当前指数运算得到的结果;zk为softmax层输入的原始数据;zmax为针对输入的数据zk在C维度方向求取最大值所得到的最大值;k为类别。
可以采用浮点数进行指数运算以得到指数计算结果,保证指数的计算精度。由于z′k是经过减去zmax的操作,所以数值是小于等于0的数据,对应的指数结果落在(0,1]之间,因此将“减最大值求指数”的操作称之为指数归一化操作。该指数计算结果经过浮点数转定点数的操作可以转换成定点数的数据表达形式,并输出到外部的DDR内存中。定点数采用Fix-16(16位的定点数)表示,其中整数位数为2bit,小数位数为14bit,整数位数的最高位作为符号位,由于指数计算结果皆为正数,因此符号位保持为0。
图3是根据本申请实施例的指数归一化操作的示意图,如图3所示,在基于外部DDR内存的数据读写控制下,采用FP16的数据表达形式,及基于共享SRAM实现上述一-三的步骤,具体是:进行上述指定C维度方向的C维度求取最大值的操作、减最大值的操作、求指数的操作,经过求指数的操作得到指数计算结果后进行浮点数转定点数的操作,将采用FP16的数据表达形式转换为Fix-16的数据表达方式。
四、求占比的操作:将上述的指数计算结果(Fix-16的数据表达方式)从内存中读取到FPGA进行累加操作求和,累加过程中采用更多位数的定点位数防止累加结果溢出,比如,采用Fix-26(26位的定点数)表示,其中整数位数为12bit,小数位数为14bit。进入FPGA的数据流一方面进行累加操作,另一方面经过定点数转浮点数后以浮点数格式存储在共享SRAM中。得到累加和之后转换成浮点数,并根据如下公式(3)进行求取倒数的操作,以得到累加和的倒数。公式(3)中,inv_sum为累加和的倒数;为累加操作求和得到的结果;zk为softmax层输入的原始数据;zmax为针对输入的数据zk在C维度方向求取最大值所得到的最大值;k为类别。然后将共享SRAM的中数据元素一一与得到的该累加和的倒数相乘,得到最终的结果。
图4是根据本申请实施例的求占比操作的示意图,如图4所示,在基于外部DDR内存的数据读写控制下,采用Fix16的数据表达形式,及基于共享SRAM实现上述四的步骤,具体是:进行上述累加操作求和的过程中,将Fix16的数据表达形式采用Fix-26的数据表达形式,在求取倒数的操作之前,将采用Fix-26的数据表达形式转换为采用FP16的数据表达形式,采用FP16的数据表达形式进行求取倒数的操作及乘法操作。
采用本应用示例,具有如下效果:
1、将指数运算分拆为两个PE的操作(归一化操作及占比操作),且在归一化操作和占比操作中保持全流水的工作状态,不会出现数据流中断的问题,提升了计算性能。
2、FPGA可以由多个算子(如softmax算子)片构成,由于FPGA算子片上的RAM是十分宝贵的资源,通过共享RAM,比如其他算子片上的卷积RAM,可以做到共享RAM,不增加RAM的开销,节省了FPGA算子片上的存储资源。
3、通过指数运算中的归一化,可以控制数据范围,在参数范围不受限的情况下还可以防止数据溢出的问题,可以将指数运算涉及到的参数控制在小于等于0的范围内。其中,就数据溢出而言,比如,FP16最大表示65504,exp的12次方结果为162754,这就超出了FP16表达的参数范围。
4、通过浮点数和定点数的转换,采用定点数的表达方式进行归一化操作和占比操作中的累加过程,可以减少对外部芯片,如DSP和LUT资源的开销,比如如果使用16个FP16数据累加,需要消耗(8+4+2+1)15个DSP,采用定点数计算只需要消耗9个DSP。其中,查找表(lookup table,LUT)本质上也是一个RAM,在一些应用场景中,它可以把数据事先写入RAM后,每当输入一个信号就等于输入一个地址进行查表以找出地址对应的内容等;归一化和占比还可以共用片外DDR内存,不涉及到数据的搬移,减少时间开销,提高处理效率。比如,计算过程中引入的浮点转定点(FP16-2-Fix16)消耗46个LUT,定点转浮点(Fix16-2-FP16)消耗70个LUT。
5、采用浮点数的数据表达形式运算时,可以选取FP16,FP16比FP32能节省一半的数据传输带宽。
在实际应用的检测中,采用本应用示例的性能参数为:在softmax输入数据的维度为288x768x3(HWC)情况下,计算时间为4.47ms;在softmax输入数据的维度为8192x3(WC)情况下,计算时间为0.163ms,可见芯片中进行指数运算的处理效率非常优越。
根据本申请的实施例,提供了一种数据处理装置,图5是根据本申请实施例的数据处理装置的组成结构示意图,如图5所示,包括:数据获取模块51,用于获取输入芯片的待处理数据;指令获取模块52,用于响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令;指令拆分模块53,用于将所述指数运算指令划分为指数归一化指令及占比指令;读写模块54,用于分别执行所述指数归一化指令及所述占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,所述数据读写操作结束后,将针对所述待处理数据的分类结果写入所述内存。
一实施方式中,所述读写模块,用于分别执行所述指数归一化指令及所述占比指令的过程中,以分时复用的方式共享所述内存;从所述内存读取当前数据,根据所述当前数据进行与分类相关的数据读写操作,以得到所述分类结果。
一实施方式中,装置还包括第一运算模块,用于执行所述指数归一化指令的过程中,对softmax层输入的数据进行求取最大值的运算、减最大值运算及指数运算;其中,通过所述求取最大值的运算,确定针对输入的所述数据的范围上限;通过所述减最大值运算,缩小所述分类结果所适用的数据范围,以支持定点数的运算;通过所述指数运算,将针对所述分类结果的指数运算控制在0到1的数据范围内。
一实施方式中,第一运算模块,用于在指定维度方向上进行所述求取最大值的运算,得到最大值;将当前维度方向得到的维度向量缓存入所述内存中;从所述内存中读取所述维度向量,根据所述维度向量和所述最大值进行所述减最大值运算,得到待定值;对所述待定值基于浮点数进行所述指数运算,得到浮点数形式的指数运算结果,将所述浮点数形式的指数运算结果,通过浮点数转定点数的操作进行转换,得到定点数形式的指数运算结果,并写入所述内存。
一实施方式中,还包括第二运算模块,用于执行所述占比指令的过程中,从所述内存中获取所述定点数形式的指数运算结果并进行求和的累加运算,得到定点数形式的累加运算结果;将所述定点数形式的累加运算结果,通过定点数转浮点数的操作进行转换,得到浮点数形式的累加运算结果并进行取倒数的操作,得到浮点数形式的累加和的倒数;将所述浮点数形式的累加和的倒数,作为所述分类结果并写入所述内存。
本申请实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是用来实现本申请实施例的数据处理方法的电子设备的框图。该电子设备可以为前述部署设备或代理设备。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的数据处理方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的数据处理方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的数据处理方法对应的程序指令/模块(例如,附图5所示的数据获取模块、指令获取模块、指令拆分模块、读写模块等模块)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的数据处理方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
数据处理方法的电子设备,还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用专用集成电路(ASIC)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
采用本申请,可以获取输入芯片的待处理数据,响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令。将指数运算指令划分为指数归一化指令及占比指令;分别执行指数归一化指令及占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,在数据读写操作结束后,将针对该待处理数据的分类结果写入该内存。由于将指数运算指令划分为指数归一化指令及占比指令,多个指令操作可分时处理,从而提高了芯片中指数运算的处理效率,且降低了处理时间,而且在分别执行指数归一化指令及占比指令的过程中还可以共享内存以进行与分类相关的数据读写操作,可以减少资源占用,且分时使用该内存,可以进一步提高指数运算的处理效率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种数据处理方法,所述方法包括:
获取输入芯片的待处理数据;
响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令;
将所述指数运算指令划分为指数归一化指令及占比指令;
分别执行所述指数归一化指令及所述占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,所述数据读写操作结束后,将针对所述待处理数据的分类结果写入所述内存。
2.根据权利要求1所述的方法,其中,所述分别执行所述指数归一化指令及所述占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,包括:
分别执行所述指数归一化指令及所述占比指令的过程中,以分时复用的方式共享所述内存;
从所述内存读取当前数据,根据所述当前数据进行与分类相关的数据读写操作,以得到所述分类结果。
3.根据权利要求1或2所述的方法,还包括:
执行所述指数归一化指令的过程中,对归一化指数softmax层输入的数据进行求取最大值的运算、减最大值运算及指数运算;其中,
通过所述求取最大值的运算,确定针对输入的所述数据的范围上限;
通过所述减最大值运算,缩小所述分类结果所适用的数据范围,以支持定点数的运算;
通过所述指数运算,将针对所述分类结果的指数运算控制在0到1的数据范围内。
4.根据权利要求3所述的方法,所述执行所述指数归一化指令的过程中,对归一化指数softmax层输入的数据进行求取最大值的运算、减最大值运算及指数运算,包括:
在指定维度方向上进行所述求取最大值的运算,得到最大值;
将当前维度方向得到的维度向量缓存入所述内存中;
从所述内存中读取所述维度向量,根据所述维度向量和所述最大值进行所述减最大值运算,得到待定值;
对所述待定值基于浮点数进行所述指数运算,得到浮点数形式的指数运算结果,将所述浮点数形式的指数运算结果,通过浮点数转定点数的操作进行转换,得到定点数形式的指数运算结果,并写入所述内存。
5.根据权利要求4所述的方法,还包括:
执行所述占比指令的过程中,从所述内存中获取所述定点数形式的指数运算结果并进行求和的累加运算,得到定点数形式的累加运算结果;
将所述定点数形式的累加运算结果,通过定点数转浮点数的操作进行转换,得到浮点数形式的累加运算结果并进行取倒数的操作,得到浮点数形式的累加和的倒数;
将所述浮点数形式的累加和的倒数,作为所述分类结果并写入所述内存。
6.一种数据处理装置,所述装置包括:
数据获取模块,用于获取输入芯片的待处理数据;
指令获取模块,用于响应于对所述待处理数据的数据分类操作,根据连接于分类网络输出端的分类器进行分类运算,得到指数运算指令;
指令拆分模块,用于将所述指数运算指令划分为指数归一化指令及占比指令;
读写模块,用于分别执行所述指数归一化指令及所述占比指令的过程中,通过共享内存的方式进行与分类相关的数据读写操作,所述数据读写操作结束后,将针对所述待处理数据的分类结果写入所述内存。
7.根据权利要求6所述的装置,其中,所述读写模块,用于:
分别执行所述指数归一化指令及所述占比指令的过程中,以分时复用的方式共享所述内存;
从所述内存读取当前数据,根据所述当前数据进行与分类相关的数据读写操作,以得到所述分类结果。
8.根据权利要求6或7所述的装置,还包括第一运算模块,用于:
执行所述指数归一化指令的过程中,对归一化指数softmax层输入的数据进行求取最大值的运算、减最大值运算及指数运算;其中,
通过所述求取最大值的运算,确定针对输入的所述数据的范围上限;
通过所述减最大值运算,缩小所述分类结果所适用的数据范围,以支持定点数的运算;
通过所述指数运算,将针对所述分类结果的指数运算控制在0到1的数据范围内。
9.根据权利要求8所述的装置,其中,第一运算模块,用于:
在指定维度方向上进行所述求取最大值的运算,得到最大值;
将当前维度方向得到的维度向量缓存入所述内存中;
从所述内存中读取所述维度向量,根据所述维度向量和所述最大值进行所述减最大值运算,得到待定值;
对所述待定值基于浮点数进行所述指数运算,得到浮点数形式的指数运算结果,将所述浮点数形式的指数运算结果,通过浮点数转定点数的操作进行转换,得到定点数形式的指数运算结果,并写入所述内存。
10.根据权利要求9所述的装置,还包括第二运算模块,用于:
执行所述占比指令的过程中,从所述内存中获取所述定点数形式的指数运算结果并进行求和的累加运算,得到定点数形式的累加运算结果;
将所述定点数形式的累加运算结果,通过定点数转浮点数的操作进行转换,得到浮点数形式的累加运算结果并进行取倒数的操作,得到浮点数形式的累加和的倒数;
将所述浮点数形式的累加和的倒数,作为所述分类结果并写入所述内存。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011064115.9A CN112036561B (zh) | 2020-09-30 | 2020-09-30 | 数据处理方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011064115.9A CN112036561B (zh) | 2020-09-30 | 2020-09-30 | 数据处理方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112036561A true CN112036561A (zh) | 2020-12-04 |
CN112036561B CN112036561B (zh) | 2024-01-19 |
Family
ID=73573636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011064115.9A Active CN112036561B (zh) | 2020-09-30 | 2020-09-30 | 数据处理方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112036561B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117827145A (zh) * | 2024-03-04 | 2024-04-05 | 浪潮(北京)电子信息产业有限公司 | 浮点运算装置及其处理方法、信息处理系统、硬件加速器 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108021537A (zh) * | 2018-01-05 | 2018-05-11 | 南京大学 | 一种基于硬件平台的softmax实现方式 |
US20180157464A1 (en) * | 2016-12-06 | 2018-06-07 | Arm Limited | Apparatus and method for performing arithmetic operations to accumulate floating-point numbers |
CN109308520A (zh) * | 2018-09-26 | 2019-02-05 | 阿里巴巴集团控股有限公司 | 实现softmax函数计算的FPGA电路及方法 |
US20190114555A1 (en) * | 2017-10-15 | 2019-04-18 | GSl Technology Inc. | Precise exponent and exact softmax computation |
CN109711538A (zh) * | 2018-12-14 | 2019-05-03 | 北京中科寒武纪科技有限公司 | 运算方法、装置及相关产品 |
CN109726809A (zh) * | 2017-10-30 | 2019-05-07 | 北京深鉴智能科技有限公司 | 深度学习softmax分类器的硬件实现电路及其控制方法 |
WO2019227518A1 (zh) * | 2018-05-08 | 2019-12-05 | 华中科技大学 | 一种基于存储器的卷积神经网络系统 |
CN111178516A (zh) * | 2019-12-11 | 2020-05-19 | 浙江大学 | 一种基于分段查找表的softmax函数计算方法及硬件系统 |
US20200167402A1 (en) * | 2018-11-23 | 2020-05-28 | International Business Machines Corporation | Analog circuit for softmax function |
CN111381871A (zh) * | 2018-12-28 | 2020-07-07 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
-
2020
- 2020-09-30 CN CN202011064115.9A patent/CN112036561B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180157464A1 (en) * | 2016-12-06 | 2018-06-07 | Arm Limited | Apparatus and method for performing arithmetic operations to accumulate floating-point numbers |
CN110036368A (zh) * | 2016-12-06 | 2019-07-19 | Arm有限公司 | 用于执行算术运算以累加浮点数的装置及方法 |
US20190114555A1 (en) * | 2017-10-15 | 2019-04-18 | GSl Technology Inc. | Precise exponent and exact softmax computation |
CN109726809A (zh) * | 2017-10-30 | 2019-05-07 | 北京深鉴智能科技有限公司 | 深度学习softmax分类器的硬件实现电路及其控制方法 |
CN108021537A (zh) * | 2018-01-05 | 2018-05-11 | 南京大学 | 一种基于硬件平台的softmax实现方式 |
WO2019227518A1 (zh) * | 2018-05-08 | 2019-12-05 | 华中科技大学 | 一种基于存储器的卷积神经网络系统 |
CN109308520A (zh) * | 2018-09-26 | 2019-02-05 | 阿里巴巴集团控股有限公司 | 实现softmax函数计算的FPGA电路及方法 |
US20200167402A1 (en) * | 2018-11-23 | 2020-05-28 | International Business Machines Corporation | Analog circuit for softmax function |
CN109711538A (zh) * | 2018-12-14 | 2019-05-03 | 北京中科寒武纪科技有限公司 | 运算方法、装置及相关产品 |
CN111381871A (zh) * | 2018-12-28 | 2020-07-07 | 上海寒武纪信息科技有限公司 | 运算方法、装置及相关产品 |
CN111178516A (zh) * | 2019-12-11 | 2020-05-19 | 浙江大学 | 一种基于分段查找表的softmax函数计算方法及硬件系统 |
Non-Patent Citations (3)
Title |
---|
BO Y: "Efficient hardware architecture of softmax layer in deep neural network", SYSTEM-ON-CHIP CONFERENCE. IEEE * |
张孝慈: "递归神经网络模型的若干关键问题研究", 博士学位论文全文数据库, pages 1 * |
李理;应三丛;: "基于FPGA的卷积神经网络Softmax层实现", 现代计算机(专业版), no. 26 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117827145A (zh) * | 2024-03-04 | 2024-04-05 | 浪潮(北京)电子信息产业有限公司 | 浮点运算装置及其处理方法、信息处理系统、硬件加速器 |
CN117827145B (zh) * | 2024-03-04 | 2024-05-03 | 浪潮(北京)电子信息产业有限公司 | 浮点运算装置及其处理方法、信息处理系统、硬件加速器 |
Also Published As
Publication number | Publication date |
---|---|
CN112036561B (zh) | 2024-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084361B (zh) | 一种运算装置和方法 | |
CN111967568B (zh) | 深度学习模型的适配方法、装置及电子设备 | |
US9912349B1 (en) | Method and apparatus for processing floating point number matrix, an apparatus and computer-readable storage medium | |
US20190164043A1 (en) | Low-power hardware acceleration method and system for convolution neural network computation | |
CN111275190B (zh) | 神经网络模型的压缩方法及装置、图像处理方法及处理器 | |
CN110457068B (zh) | 用于深度学习加速的非常低精度浮点表示 | |
US20210383233A1 (en) | Method, electronic device, and storage medium for distilling model | |
CN111783596B (zh) | 人脸识别模型的训练方法、装置、电子设备及存储介质 | |
EP3971712A1 (en) | Voice processing system and method, electronic device and readable storage medium | |
CN111325332B (zh) | 卷积神经网络的处理方法和装置 | |
EP3992774A1 (en) | Method and device for implementing dot product operation, electronic device, and storage medium | |
CN111027704B (zh) | 量子资源估计方法、装置和电子设备 | |
CN115456167A (zh) | 轻量级模型训练方法、图像处理方法、装置及电子设备 | |
CN112036561B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
US20200242467A1 (en) | Calculation method and calculation device for sparse neural network, electronic device, computer readable storage medium, and computer program product | |
CN112817660A (zh) | 扩展小程序能力的方法、装置、设备以及存储介质 | |
CN115469931B (zh) | 一种循环程序的指令优化方法、装置、系统、设备及介质 | |
CN113657408B (zh) | 确定图像特征的方法、装置、电子设备和存储介质 | |
US20220113943A1 (en) | Method for multiply-add operations for neural network | |
CN115480731A (zh) | 运算方法、装置、芯片、设备和介质 | |
EP3958183A1 (en) | Deep learning model adaptation method and apparatus and electronic device | |
CN115237372A (zh) | 一种乘法电路、机器学习运算电路、芯片及数据处理方法 | |
CN111522837B (zh) | 用于确定深度神经网络的耗时的方法和装置 | |
KR20220054248A (ko) | 산술 및/또는 비트 유닛에 의한 조건문의 실행 | |
CN110782029A (zh) | 神经网络预测方法、装置、电子设备和自动驾驶系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |