CN112580787A - 神经网络加速器的数据处理方法、装置、设备及存储介质 - Google Patents
神经网络加速器的数据处理方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112580787A CN112580787A CN202011566189.2A CN202011566189A CN112580787A CN 112580787 A CN112580787 A CN 112580787A CN 202011566189 A CN202011566189 A CN 202011566189A CN 112580787 A CN112580787 A CN 112580787A
- Authority
- CN
- China
- Prior art keywords
- real
- full
- data
- weight matrix
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 121
- 238000003672 processing method Methods 0.000 title claims abstract description 48
- 239000011159 matrix material Substances 0.000 claims description 87
- 238000012545 processing Methods 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 27
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 9
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 9
- 210000002569 neuron Anatomy 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000013461 design Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 230000005284 excitation Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 210000002364 input neuron Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Advance Control (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
本申请公开了神经网络加速器的数据处理方法、装置、电子设备及存储介质,涉及大数据和深度学习等人工智能技术领域。具体实现方案为:获取待处理数据以及对应的待执行操作;获取与待执行操作对应的实数全连接操作;根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。由此通过神经网络加速器的实数全连接单元,可以实现对待处理数据的任何操作,从而实现了实数全连接单元的复用,在硬件逻辑最少的情况下,实现了多种操作。
Description
技术领域
本申请涉及计算机技术领域,具体涉及大数据、深度学习等人工智能技术领域,尤其涉及神经网络加速器的数据处理方法、装置、电子设备及存储介质。
背景技术
相关技术中,神经网络加速器中会设置卷积单元、全连接单元等,其中,神经网络加速器设置较多单元容易使得神经网络加速器的芯片占用面积越来越大,硬件资源消耗较多,导致无法对神经网络加速器中的数据(如语音数据)进行处理。因此如何更好的实现神经网络加速器的数据处理成为亟待解决的问题。
发明内容
本申请提供了一种神经网络加速器的数据处理方法、装置、电子设备以及存储介质。
根据本申请的第一方面,提供了一种神经网络加速器的数据处理方法,包括:
获取待处理数据以及对应的待执行操作;
获取与所述待执行操作对应的实数全连接操作;
根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实数全连接操作,以得到所述待执行操作针对所述待处理数据的执行结果。
根据本申请的第二方面,提供了一种神经网络加速器的数据处理装置,包括:
第一获取模块,用于获取待处理数据以及对应的待执行操作;
第二获取模块,用于获取与所述待执行操作对应的实数全连接操作;
第一处理模块,用于根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实数全连接操作,以得到所述待执行操作针对所述待处理数据的执行结果。
根据本申请的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请的第一方面所述的神经网络加速器的数据处理方法。
根据本申请的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请第一方面所述的面所述的神经网络加速器的数据处理方法。
根据本申请的第五方面,提供了一种计算机程序产品,所述计算机程序被处理器执行时实现本申请第一方面所述的神经网络加速器的数据处理方法的步骤。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请一个实施例的神经网络加速器的数据处理方法的流程图;
图2是根据本申请一个具体实施例的神经网络加速器的数据处理方法的流程图;
图3-1是根据本申请另一个实施例的神经网络加速器的数据处理方法的流程图;
图3-2是根据本申请一个实施例的卷积操作与全连接操作关联关系的示意图;
图4是根据本申请又一个实施例的神经网络加速器的数据处理方法的流程图;
图5是根据本申请再一个实施例的神经网络加速器的数据处理方法的流程图;
图6是根据本申请一个神经网络加速器的数据处理装置的示意图;
图7是根据本申请另一个神经网络加速器的数据处理装置的示意图;
图8是根据本申请又一个神经网络加速器的数据处理装置的示意图;
图9是根据本申请再一个神经网络加速器的数据处理装置的示意图;
图10是根据本申请另一个神经网络加速器的数据处理装置的示意图;
图11是根据本申请另一个神经网络加速器的数据处理装置的示意图;
图12是根据本申请一个神经网络加速器的数据处理方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
相关技术中,神经网络加速器中会设置卷积单元、全连接单元等,其中,神经网络加速器设置较多单元容易使得神经网络加速器的芯片占用面积越来越大,硬件资源消耗较多,导致无法对神经网络加速器中的数据(如语音数据)进行处理。因此,芯片设计需要尽可能的使用少的硬件资源,或者相同的硬件资源去实现更多的算子操作是目前亟需解决的技术问题。
为了解决上述问题,本申请提出了一种神经网络加速器的数据处理方法、装置、电子设备及存储介质,本申请在获取待处理数据以及对应的待执行操作,之后获取与待执行操作对应的实数全连接操作,然后根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。由此通过神经网络加速器的实数全连接单元,可以实现对待处理数据的任何操作,从而实现了实数全连接单元的复用,在硬件逻辑最少的情况下,实现了多种操作。
下面参考附图描述本申请实施例的神经网络加速器的数据处理方法、装置、电子设备以及存储介质。
图1是根据本申请一个实施例的神经网络加速器的数据处理方法的流程图。需要说明的是,本申请实施例的神经网络加速器的数据处理方法可应用于本申请实施例的神经网络加速器的数据处理装置,该装置具体可以为硬件设备,或者硬件设备中的软件等,并且该装置可应用在电子设备中,其中,电子设备可以包括终端设备或者服务器。例如移动终端包括智能手机、平板电脑、PAD、个人数字助理等。本申请实施例对此不作限定。
S101、获取待处理数据以及对应的待执行操作。
在本申请的实施例中,可通过电子设备获取神经网络加速器中的待处理数据以及对应的待执行操作。
需要说明的是,神经网络可理解为由大量的人工神经元联结进行计算,是一种非线性统计性数据建模工具,其中,神经网络具有以下三个部分:1)结构(Architecture),结构指定了网络中的变量和它们的拓扑关系。例如,神经网络中的变量可以是神经元连接的权重(weights)和神经元的激励值(activities of the neurons);2)激励函数(ActivityRule),大部分神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。一般激励函数依赖于网络中的权重(即该网络的参数);3)学习规则(Learning Rule),学习规则指定了网络中的权重如何随着时间推进而调整。一般被看做是一种长时间尺度的动力学规则。一般情况下,学习规则依赖于神经元的激励值。它也可能依赖于监督者提供的目标值和当前权重的值。例如,用于手写识别的一个神经网络,有一组输入神经元。输入神经元会被输入图像的数据所激发。在激励值被加权并通过一个函数(由网络的设计者确定)后,这些神经元的激励值被传递到其他神经元。这个过程不断重复,直到输出神经元被激发。最后,输出神经元的激励值决定了识别出来的是哪个字母。
基于上述拥有的神经网络之后,不但可以在云端架设服务器提供人工智能服务,且可以应用到智能手机、智能安防甚至智能汽车中实现图像识别、物体跟踪和语音识别等任务。但这些应用由于其应用场景的不同,还有算法特性的限制,因此需要提供低功耗、高效的,专门设计用来运行神经网络算法的芯片,即理解为神经网络加速器。
举例而言,在本申请的一个实施例中,待处理数据可以为语音频域数据,其中,语音频域数据是对语音数据进行频域转换得到的数据,对语音频域转换的待执行的操作可以为复数卷积操作、复数全连接操作、分组实数卷积操作、实数卷积操作等。
S102、获取与待执行操作对应的实数全连接操作。
也就是说,获取到待处理数据以及对应的待执行操作后,可获取待执行操作对应的实数全连接操作。
其中,不同的待执行操作,其对应不同的实数全连接操作。具体的实现过程可参考后续实施例。
S103、根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。
举例而言,获取到与待执行操作对应的实数全连接操作后,可根据神经网络加速器的实数全连接单元,对获取到的语音频域数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。
根据本申请实施例的神经网络加速器的数据处理方法,通过获取待处理数据以及对应的待执行操作,之后获取与待执行操作对应的实数全连接操作,然后根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。由此通过神经网络加速器的实数全连接单元,可以实现对待处理数据的任何操作,从而实现了实数全连接单元的复用,在硬件逻辑最少的情况下,实现了多种操作。
为了本领域人员更容易理解本申请,本申请提出了一个具体实施例的神经网络加速器的数据处理方法,其中,需要说明的是,所述具体实施例的神经网络加速器的数据处理方法是对第一个实施例的进一步细化或者优化。其中,本实施例以获取到的待执行操作为复数卷积操作为例,图2是根据本申请一个具体实施例的神经网络加速器的数据处理方法的流程图,如图2所示,该神经网络加速器的数据处理方法可以包括:
S201、获取待处理数据以及对应的待执行操作。
举例而言,待处理数据可以为语音频域数据,其中,语音频域数据是对语音数据进行频域转换得到的数据,对语音频域转换的待执行的操作为复数卷积操作。
S202、获取与复数卷积操作对应的实数全连接操作。
在本申请的一个实施例中,获取到待执行操作为复数卷积操作时,可通过获取复数卷积操作对应的复数权重矩阵,之后对复数权重矩阵进行拆分,以得到实部权重矩阵以及虚部权重矩阵,然后根据实部权重矩阵生成实部全连接操作,并根据虚部权重矩阵生成虚部全连接操作,将实部全连接操作和虚部全连接操作进行组合,以得到实数全连接操作。
S203、在待处理数据的输入模式不为预设的输入模式的情况,将待处理数据的输入模式转换为预设的输入模式。
S204、根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。
在本申请的一个实施例中,获取到与复数卷积操作对应的实数全连接操作,以及将待处理数据的输入模式转换为预设的输入模式之后,可根据神经网络加速器的实数全连接单元,对待处理数据执行实部全连接操作,得到实部结果,然后根据神经网络加速器的实数全连接单元,对待处理数据执行虚部全连接操作,得到虚部结果,之后根据实部结果和虚部结果生成执行结果。
根据本申请实施例的神经网络加速器的数据处理方法,通过获取待处理数据以及对应的待执行操作,获取与待执行操作对应的实数全连接操作,在待处理数据的输入模式不为预设的输入模式的情况,将待处理数据的输入模式转换为预设的输入模式,根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。由此通过神经网络加速器的实数全连接单元,可以实现对待处理数据的复数卷积操作对应的实数全连接操作,从而实现了实数全连接单元的复用,在硬件逻辑最少的情况下,实现了多种操作。
为了本领域人员更容易理解本申请,本申请提出了一个具体实施例的神经网络加速器的数据处理方法,其中,需要说明的是,所述具体实施例的神经网络加速器的数据处理方法是对第一个实施例的进一步细化或者优化。其中,本实施例以获取到的待执行操作为复数全连接操作为例,图3-1是根据本申请另一个实施例的神经网络加速器的数据处理方法的流程图,如图3-1所示,该神经网络加速器的数据处理方法可以包括:
S301、获取待处理数据以及对应的待执行操作。
举例而言,待处理数据可以为语音频域数据,其中,语音频域数据是对语音数据进行频域转换得到的数据,对语音频域转换的待执行的操作为复数全连接操作。
S302、获取与复数全连接操作对应的实数全连接操作。
在本申请的一个实施例中,获取到待执行的操作为复数全连接操作时,可通过获取复数全连接操作对应的复数权重矩阵,对复数权重矩阵进行拆分,以得到实部权重矩阵以及虚部权重矩阵,然后根据实部权重矩阵生成实部全连接操作,并根据虚部权重矩阵生成虚部全连接操作,将实部全连接操作和虚部全连接操作进行组合,以得到实数全连接操作。
S303、根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。
也就是说,获取到与复数全连接操作对应的实数全连接操作后,可根据神经网络加速器的实数全连接单元,对获取到的待处理数据执行复数全连接操作对应实数全连接操作,以得到待执行操作针对待处理数据的执行结果。
需要说明的是,卷积操作和全连接操作存在联系,即卷积操作与全连接操作之间可相互转换,也就是说,卷积操作可转换为全连接操作。
例如,如图3-2所示,一个特征图的尺寸信息:C×H×W,其对应特征向量C×K×K,多个特征图的尺寸信息:C×H×W对应多个特征向量,对整个特征图进行处理,即可得到特征矩阵(H×W)×(C×K×K),其中,H×W表示卷积核的尺寸,当存在一个滤波器时,其对应特征阵:(H×W)×(C×K×K),当存在多个滤波器时,其对应多个滤波器的卷积矩阵,进而将卷积矩阵Cout x(H x W)乘以特征矩阵(C×K×K)×(H×W),可得到输出矩阵。其中,在CNN的术语中,3x3的矩阵叫做“滤波器(Filter)”,或者“核(Kernel)”,或者“特征检测器(Featuredetector)”。
一种示例性的阐述如下:常规卷积操作可以将输入数据中按卷积核大小进行数据提取,图3-2中以5x5为例,每一个Channel(渠道)可以提取25个像素,三个Channel共3x5x5=75个像素,其中该75个像素与一个卷积的Kernel(核心)进行点积运算,可以生成一个输出的点,与C’个卷积核运算,则生成输出C’个Channel的相同位置的点,即可得到一个操作,与一个输入维度是75,输出维度是C’的向量乘矩阵的操作是等价的。
首先进行im2col操作提取改位置的输入,其中,该位置的输出可理解为卷积中计算某一个点的输出,位置指的是该点,然后和C’个卷积核进行点积,输出C’个值,分别存储在不同Channel的相同位置,以此类推,卷积操作可以推导成为多个全连接操作和im2col操作的结合。
其中,卷积层在神经网络中的作用是提取特征,并且卷积层都是好多层串联在一起的,以提取更高维度的特征,如VGG模型提取。在NPU(网络处理器)的实现中,为了优化效率,输入的格式不再是CHW(C(Channel,渠道),H(Height,高度),W(Width,宽度))模式,而是转置成为HWC(H(Height,高度),W(Width,宽度),(Channel,渠道))模式,其中,输出也可转换成为HWC模式,方便下一层的卷积层调用,此时,对于输入W*C方向上的数据是连续的。H方向上只有卷积核的数据内存是连续的,为了输入数据每一行占用的内存是w*c,到下一行相同的W位置取点,输入数据需要增加一个Stride(步长)。对软件来说,这里的不连续需要进行地址操作,那么流水线被打断,引起了效率的损失。对于IC设计来说,多放一个相应的地址控制单元,就可以保证效率不受损失。和正常的全连接操作的效率一样。
所以,HWC模式的输入,配合NPU自添加的地址计数器,可以实现和向量乘矩阵相同效率的工作,而不需要添加im2col的实现,导致效率低的问题。
需要说明的是,在本申请上述实施例中,在复数卷积操作和复数全连接操作中,复数操作需要用标准的复数单元去实现,这样增加了IC(Integrated Circuit Chip,芯片)的面积和功耗。但是复数的全连接可以有一个变种方式。首先,复数的乘加操作是如下表示:
R.r+=A.r*B.r-A.i*B.i;
R.i+=A.r*B.i+A.i*B.r;
其中,R为实部,i为虚部,A为输入向量,B为权重矩阵.其中,如果维持A不变,对B权重矩阵做预处理,第一行中将权重矩阵所有的虚部都取负数值,第二行权重矩阵的实部和虚部进行互换,则可以直接用实数点积的方法进行复数的点积运算。这样一个M*N的权重矩阵运算,可以看成一个2M*2N的实数矩阵运算,采用这种方法,权重矩阵的存储空间将扩大一倍,鉴于语音操作中,复数卷积操作和复数全连接操作的内存在百KB量级,而NPU设计在MB量级,这个存储空间的扩大是可以接受的,带来的好处是输入直接按实数看待,硬件不增加新的运算逻辑。实现了有效的解决了复数运算的问题,在相同的点积运算架构下,可以同时支持实数运算和复数运算。
举例而言,M*N的权重矩阵运算,可以看成一个2M*2N的实数矩阵运算的实现过程可参考以下实施例,例如,1x1的复数矩阵操作,可以修改为2x2的实数矩阵操作,第一行的weight分别是B.r,-B.i,第二行的weight分别是B.i,B.r,这样和一个2维的输入A.r,A.i进行矩阵运算,能够得到输出的R.r和R.i。
根据本申请实施例的神经网络加速器的数据处理方法,通过神经网络加速器的实数全连接单元,可以实现对待处理数据的复数全连接操作对应的实数全连接操作,从而实现了实数全连接单元的复用,在硬件逻辑最少的情况下,实现了实数全连接操作。
为了本领域人员更容易理解本申请,本申请提出了一个具体实施例的神经网络加速器的数据处理方法,其中,需要说明的是,所述具体实施例的神经网络加速器的数据处理方法是对第一个实施例的进一步细化或者优化。其中,本实施例以获取到的待执行操作为分组实数卷积操作为例,图4是根据本申请又一个实施例的神经网络加速器的数据处理方法的流程图,如图4所示,该神经网络加速器的数据处理方法可以包括:
S401、获取待处理数据以及对应的待执行操作。
举例而言,待处理数据可以为语音频域数据,其中,语音频域数据是对语音数据进行频域转换得到的数据,对语音频域转换的待执行的操作为分组实数卷积操作。
S402、获取与分组实数卷积操作对应的实数全连接操作。
在本申请的一个实施例中,获取到待执行的操作为分组实数卷积操作时,可通过获取分组实数卷积操作的第一权重矩阵,然后将第一权重矩阵进行处理,以得到对应实数卷积操作所对应的第二权重矩阵,根据第二权重矩阵,进而生成实数全连接操作。
S403、根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。
也就是说,获取到与分组实数卷积操作对应的实数全连接操作后,可根据神经网络加速器的实数全连接单元,对获取到的待处理数据执行分组实数卷积对应的实数全连接操作,以得到待执行操作针对待处理数据的执行结果。
需要说明的是,上述实施例中,分组实数卷积是一种减少卷积参数,以及卷积计算开销的方法,其中,分组卷积不太适合NPU(Neural-network Processing Unit,网络处理器)运算,如果增加专用的分组卷积,NPU的硬件设计复杂度又会增加许多。其中,在实际模型中,使用的分组卷积最多的是深度可分卷积(deepthwise separable convolution),可通过普通的矢量乘加运算得到,其中,目前在NPU中也有支持。例如,对于group(组)!=C或者C’的分组卷积,将对weight进行预处理,变成常规卷积。分组卷积可以认为是输入channel C中,每个组有D=C/group个channel(渠道),这些channel和卷积核进行卷积,得到一个输出值。每个卷积核的参数量是KernelH*KernelW*D,如果仍把weight调整到每个卷积核的参数量为KernelH*KernelW*C,非channelD的卷积核参数全部为0,这样得到的结果和单独做分组卷积的结果是一样的,区别是计算量增加了。但对NPU来说,分组卷积就变成了常规卷积家的操作。而卷积本身的参数量非常小,将参数量还原为C channel大小是可行的。这样NPU IP的核心硬件逻辑的复杂性降低,设计更加通用,避免了不同GroupNumber(分类)的分组卷积都需要支持,都需要进行硬件设计的问题。
因此,分组卷积是将weight转化为常规卷积的weight,分组卷积的实质是将卷积的weight进行了压缩。转换为常规卷积的weight时,位于其他组的weight的值都是0,这样做的目的是使用同一套硬件逻辑,因为NPU的矢量单元非常强大,可专门优化处理常规卷积。
根据本申请实施例的神经网络加速器的数据处理方法,通过神经网络加速器的实数全连接单元,可以实现对待处理数据的分组实数卷积操作对应的实数全连接操作,从而实现了实数全连接单元的复用,在硬件逻辑最少的情况下,实现了实数全连接操作。
为了本领域人员更容易理解本申请,本申请提出了一个具体实施例的神经网络加速器的数据处理方法,其中,需要说明的是,所述具体实施例的神经网络加速器的数据处理方法是对第一个实施例的进一步细化或者优化。其中,本实施例以获取到的待执行操作为实数卷积操作为例,图5是根据本申请再一个实施例的神经网络加速器的数据处理方法的流程图,如图5所示,该神经网络加速器的数据处理方法可以包括:
S501、获取待处理数据以及对应的待执行操作。
举例而言,待处理数据可以为语音频域数据,其中,语音频域数据是对语音数据进行频域转换得到的数据,对语音频域转换的待执行的操作为实数卷积操作。
S502、获取与实数卷积操作对应的实数全连接操作。
在本申请的一个实施例中,获取到待执行的操作为实数卷积操作时,可通过获取实数卷积操作所对应的至少一个权重矩阵,之后根据至少一个权重矩阵,生成至少一个实数全连接操作。
S503、根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。
也就是说,获取到与待执行操作对应的实数全连接操作后,可根据神经网络加速器的实数全连接单元,对获取到的待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。
根据本申请实施例的神经网络加速器的数据处理方法,可通过神经网络加速器的实数全连接单元,可以实现对待处理数据的实数卷积操作对应的实数全连接操作,从而实现了实数全连接单元的复用,在硬件逻辑最少的情况下,实现了实数全连接操作。
与上述几种实施例提供的神经网络加速器的数据处理方法相对应,本申请的一种实施例还提供一种神经网络加速器的数据处理装置,由于本申请实施例提供的神经网络加速器的数据处理装置与上述几种实施例提供的神经网络加速器的数据处理方法相对应,因此在神经网络加速器的数据处理方法的实施方式也适用于本实施例提供的神经网络加速器的数据处理装置,在本实施例中不再详细描述。
图6是根据本申请神经网络加速器的数据处理装置的示意图。如图6所示,该神经网络加速器的数据处理装置600包括:第一获取模块610、第二获取模块620和第一处理模块630。其中:
第一获取模块610,用于获取待处理数据以及对应的待执行操作;
第二获取模块620,用于获取与所述待执行操作对应的实数全连接操作;
第一处理模块630,用于根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实数全连接操作,以得到所述待执行操作针对所述待处理数据的执行结果。作为一种示例,所述第一处理模块,具体用于:根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实部全连接操作,得到实部结果:根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述虚部全连接操作,得到虚部结果;根据所述实部结果和虚部结果生成所述执行结果。
在本申请的一个实施例中,如图7所示,所述待执行操作为复数卷积操作,所述第二获取模块720,包括:第一获取单元7201,用于获取所述复数卷积操作对应的复数权重矩阵;第二获取单元7202,用于对所述复数权重矩阵进行拆分,以得到实部权重矩阵以及虚部权重矩阵;第一生成单元7203,用于根据所述实部权重矩阵生成实部全连接操作,并根据虚部权重矩阵生成虚部全连接操作;第三获取单元7204,用于将所述实部全连接操作和所述虚部全连接操作进行组合,以得到所述实数全连接操作。
其中,图7中710-730和图6中的610-630具有相同功能和结构。
在本申请的一个实施例中,如图8所示,在所述第一处理模块之前830,所述装置还包括:转换模块840,用于在所述待处理数据的输入模式不为预设的输入模式的情况,将所述待处理数据的输入模式转换为所述预设的输入模式。
其中,图8中810-830和图7中的710-730具有相同功能和结构。
在本申请的一个实施例中,如图9所示,所述操作为复数全连接操作,所述第二获取模块920,包括:第四获取单元9201,用于获取所述复数全连接操作对应的复数权重矩阵;第五获取单元9202,用于对所述复数权重矩阵进行拆分,以得到实部权重矩阵以及虚部权重矩阵;第二生成单元9203,用于根据所述实部权重矩阵生成实部全连接操作,并根据虚部权重矩阵生成虚部全连接操作;第一组合单元9204,用于将所述实部全连接操作和所述虚部全连接操作进行组合,以得到所述实数全连接操作。
其中,图9中910-930和图6中的610-630具有相同功能和结构。
在本申请的一个实施例中,如图10所示,所述待执行操作为分组实数卷积操作,所述第二获取模块1020,包括:第六获取单元10201,用于获取所述分组实数卷积操作的第一权重矩阵;第七获取单元10202,用于将所述第一权重矩阵进行处理,以得到对应实数卷积操作所对应的第二权重矩阵;第三生成单元10203,用于根据所述第二权重矩阵,生成所述实数全连接操作。
其中,图10中1010-1030和图6中的610-630具有相同功能和结构。
在本申请的一个实施例中,如图11所示,所述待执行操作为实数卷积操作,所述第二获取模块1120,包括:第八获取单元11201,用于获取所述实数卷积操作所对应的至少一个权重矩阵;第四生成单元11202,用于根据所述至少一个权重矩阵,生成所述至少一个实数全连接操作。
其中,图11中1110-1130和图6中的610-630具有相同功能和结构。
根据本申请实施例的神经网络加速器的数据处理装置,通过获取待处理数据以及对应的待执行操作,之后获取与待执行操作对应的实数全连接操作,然后根据神经网络加速器的实数全连接单元,对待处理数据执行实数全连接操作,以得到待执行操作针对待处理数据的执行结果。由此通过神经网络加速器的实数全连接单元,可以实现对待处理数据的任何操作,从而实现了实数全连接单元的复用,在硬件逻辑最少的情况下,实现了多种操作。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图12所示,是根据本申请实施例的神经网络加速器的数据处理方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
图12示出了可以用来实施本公开的实施例的示例电子设备1200的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图12所示,设备1200包括计算单元1201,其可以根据存储在ROM(Read-OnlyMemory,只读存储器)1202中的计算机程序或者从存储单元12012加载到RAM(RandomAccess Memory,随机访问/存取存储器)1203中的计算机程序,来执行各种适当的动作和处理。在RAM 1203中,还可存储设备1200操作所需的各种程序和数据。计算单元1201、ROM1202以及RAM 1203通过总线1204彼此相连。I/O(Input/Output,输入/输出)接口1205也连接至总线1204。
设备1200中的多个部件连接至I/O接口1205,包括:输入单元1206,例如键盘、鼠标等;输出单元1207,例如各种类型的显示器、扬声器等;存储单元1208,例如磁盘、光盘等;以及通信单元1209,例如网卡、调制解调器、无线通信收发机等。通信单元1209允许设备1200通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1201可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1201的一些示例包括但不限于CPU(Central Processing Unit,中央处理单元)、GPU(Graphic Processing Units,图形处理单元)、各种专用的AI(Artificial Intelligence,人工智能)计算芯片、各种运行机器学习模型算法的计算单元、DSP(Digital SignalProcessor,数字信号处理器)、以及任何适当的处理器、控制器、微控制器等。计算单元1201执行上文所描述的各个方法和处理,例如神经网络加速器的数据处理方法。例如,在一些实施例中,神经网络加速器的数据处理可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1208。在一些实施例中,计算机程序的部分或者全部可以经由ROM1202和/或通信单元1209而被载入和/或安装到设备1200上。当计算机程序加载到RAM 1203并由计算单元1201执行时,可以执行上文描述的神经网络加速器的数据处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元1201可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行神经网络加速器的数据处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、FPGA(Field Programmable Gate Array,现场可编程门阵列)、ASIC(Application-Specific Integrated Circuit,专用集成电路)、ASSP(Application Specific StandardProduct,专用标准产品)、SOC(System On Chip,芯片上系统的系统)、CPLD(ComplexProgrammable Logic Device,复杂可编程逻辑设备)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、RAM、ROM、EPROM(Electrically Programmable Read-Only-Memory,可擦除可编程只读存储器)或快闪存储器、光纤、CD-ROM(Compact Disc Read-Only Memory,便捷式紧凑盘只读存储器)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode-Ray Tube,阴极射线管)或者LCD(Liquid Crystal Display,液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:LAN(LocalArea Network,局域网)、WAN(Wide Area Network,广域网)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
其中,需要说明的是,人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (17)
1.一种神经网络加速器的数据处理方法,包括:
获取待处理数据以及对应的待执行操作;
获取与所述待执行操作对应的实数全连接操作;
根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实数全连接操作,以得到所述待执行操作针对所述待处理数据的执行结果。
2.根据权利要求1所述的方法,其中,所述待执行操作为复数卷积操作,所述获取与所述待执行操作对应的实数全连接操作,包括:
获取所述复数卷积操作对应的复数权重矩阵;
对所述复数权重矩阵进行拆分,以得到实部权重矩阵以及虚部权重矩阵;
根据所述实部权重矩阵生成实部全连接操作,并根据虚部权重矩阵生成虚部全连接操作;
将所述实部全连接操作和所述虚部全连接操作进行组合,以得到所述实数全连接操作。
3.根据权利要求2所述的方法,其中,所述根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实数全连接操作,以得到所述待执行操作针对所述待处理数据的执行结果,包括:
根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实部全连接操作,得到实部结果:
根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述虚部全连接操作,得到虚部结果;
根据所述实部结果和虚部结果生成所述执行结果。
4.根据权利要求2所述的方法,其中,在所述根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实数全连接操作,以得到所述待执行操作针对所述待处理数据的执行结果之前,所述方法还包括:
在所述待处理数据的输入模式不为预设的输入模式的情况,将所述待处理数据的输入模式转换为所述预设的输入模式。
5.根据权利要求1所述的方法,其中,所述操作为复数全连接操作,所述获取与所述待执行操作对应的实数全连接操作,包括:
获取所述复数全连接操作对应的复数权重矩阵;
对所述复数权重矩阵进行拆分,以得到实部权重矩阵以及虚部权重矩阵;
根据所述实部权重矩阵生成实部全连接操作,并根据虚部权重矩阵生成虚部全连接操作;
将所述实部全连接操作和所述虚部全连接操作进行组合,以得到所述实数全连接操作。
6.根据权利要求1所述的方法,其中,所述待执行操作为分组实数卷积操作,所述获取与所述待执行操作对应的实数全连接操作,包括:
获取所述分组实数卷积操作的第一权重矩阵;
将所述第一权重矩阵进行处理,以得到对应实数卷积操作所对应的第二权重矩阵;
根据所述第二权重矩阵,生成所述实数全连接操作。
7.根据权利要求1所述的方法,其中,所述待执行操作为实数卷积操作,所述获取与所述待执行操作对应的实数全连接操作,包括:
获取所述实数卷积操作所对应的至少一个权重矩阵;
根据所述至少一个权重矩阵,生成所述至少一个实数全连接操作。
8.一种神经网络加速器的数据处理装置,包括:
第一获取模块,用于获取待处理数据以及对应的待执行操作;
第二获取模块,用于获取与所述待执行操作对应的实数全连接操作;
第一处理模块,用于根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实数全连接操作,以得到所述待执行操作针对所述待处理数据的执行结果。
9.根据权利要求8所述的装置,其中,所述待执行操作为复数卷积操作,所述第二获取模块,包括:
第一获取单元,用于获取所述复数卷积操作对应的复数权重矩阵;
第二获取单元,用于对所述复数权重矩阵进行拆分,以得到实部权重矩阵以及虚部权重矩阵;
第一生成单元,用于根据所述实部权重矩阵生成实部全连接操作,并根据虚部权重矩阵生成虚部全连接操作;
第三获取单元,用于将所述实部全连接操作和所述虚部全连接操作进行组合,以得到所述实数全连接操作。
10.根据权利要求9所述的装置,其中,所述第一处理模块,具体用于:
根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述实部全连接操作,得到实部结果:
根据所述神经网络加速器的实数全连接单元,对所述待处理数据执行所述虚部全连接操作,得到虚部结果;
根据所述实部结果和虚部结果生成所述执行结果。
11.根据权利要求9所述的装置,其中,在所述第一处理模块之前,所述装置还包括:
转换模块,用于在所述待处理数据的输入模式不为预设的输入模式的情况,将所述待处理数据的输入模式转换为所述预设的输入模式。
12.根据权利要求8所述的装置,其中,所述操作为复数全连接操作,所述第二获取模块,包括:
第四获取单元,用于获取所述复数全连接操作对应的复数权重矩阵;
第五获取单元,用于对所述复数权重矩阵进行拆分,以得到实部权重矩阵以及虚部权重矩阵;
第二生成单元,用于根据所述实部权重矩阵生成实部全连接操作,并根据虚部权重矩阵生成虚部全连接操作;
第一组合单元,用于将所述实部全连接操作和所述虚部全连接操作进行组合,以得到所述实数全连接操作。
13.根据权利要求8所述的装置,其中,所述待执行操作为分组实数卷积操作,所述第二获取模块,包括:
第六获取单元,用于获取所述分组实数卷积操作的第一权重矩阵;
第七获取单元,用于将所述第一权重矩阵进行处理,以得到对应实数卷积操作所对应的第二权重矩阵;
第三生成单元,用于根据所述第二权重矩阵,生成所述实数全连接操作。
14.根据权利要求8所述的装置,其中,所述待执行操作为实数卷积操作,所述第二获取模块,包括:
第八获取单元,用于获取所述实数卷积操作所对应的至少一个权重矩阵;
第四生成单元,用于根据所述至少一个权重矩阵,生成所述至少一个实数全连接操作。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的神经网络加速器的数据处理方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的神经网络加速器的数据处理方法。
17.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011566189.2A CN112580787B (zh) | 2020-12-25 | 2020-12-25 | 神经网络加速器的数据处理方法、装置、设备及存储介质 |
US17/526,755 US20220138528A1 (en) | 2020-12-25 | 2021-11-15 | Data processing method for neural network accelerator, device and storage medium |
JP2021186754A JP7352609B2 (ja) | 2020-12-25 | 2021-11-17 | ニューラルネットワーク加速器のデータ処理方法、装置、機器及び記憶媒体 |
KR1020210164464A KR102705262B1 (ko) | 2020-12-25 | 2021-11-25 | 신경망 가속기의 데이터 처리 방법, 장치, 기기 및 저장 매체 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011566189.2A CN112580787B (zh) | 2020-12-25 | 2020-12-25 | 神经网络加速器的数据处理方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112580787A true CN112580787A (zh) | 2021-03-30 |
CN112580787B CN112580787B (zh) | 2023-11-17 |
Family
ID=75140660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011566189.2A Active CN112580787B (zh) | 2020-12-25 | 2020-12-25 | 神经网络加速器的数据处理方法、装置、设备及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220138528A1 (zh) |
JP (1) | JP7352609B2 (zh) |
KR (1) | KR102705262B1 (zh) |
CN (1) | CN112580787B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570033A (zh) * | 2021-06-18 | 2021-10-29 | 北京百度网讯科技有限公司 | 神经网络处理单元、神经网络的处理方法及其装置 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180028966A (ko) * | 2016-09-09 | 2018-03-19 | 에스케이하이닉스 주식회사 | 신경망 하드웨어 가속기 아키텍처 및 그 동작 방법 |
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
CN108446761A (zh) * | 2018-03-23 | 2018-08-24 | 中国科学院计算技术研究所 | 一种神经网络加速器及数据处理方法 |
CN108734270A (zh) * | 2018-03-23 | 2018-11-02 | 中国科学院计算技术研究所 | 一种兼容型神经网络加速器及数据处理方法 |
CN109543830A (zh) * | 2018-09-20 | 2019-03-29 | 中国科学院计算技术研究所 | 一种用于卷积神经网络加速器的拆分累加器 |
US20190114529A1 (en) * | 2017-10-17 | 2019-04-18 | Xilinx, Inc. | Multi-layer neural network processing by a neural network accelerator using host communicated merged weights and a package of per-layer instructions |
US20190340493A1 (en) * | 2018-05-01 | 2019-11-07 | Semiconductor Components Industries, Llc | Neural network accelerator |
CN110717588A (zh) * | 2019-10-15 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 用于卷积运算的装置和方法 |
JP2020012662A (ja) * | 2018-07-13 | 2020-01-23 | 浜松ホトニクス株式会社 | 電気泳動方法、電気泳動システム、及び電気泳動用の収容容器 |
CN110807522A (zh) * | 2019-10-31 | 2020-02-18 | 合肥工业大学 | 一种神经网络加速器的通用计算电路 |
CN111047008A (zh) * | 2019-11-12 | 2020-04-21 | 天津大学 | 一种卷积神经网络加速器及加速方法 |
CN111247533A (zh) * | 2017-10-17 | 2020-06-05 | 赛灵思公司 | 用于神经网络加速的机器学习运行时库 |
CN111325332A (zh) * | 2020-02-18 | 2020-06-23 | 百度在线网络技术(北京)有限公司 | 卷积神经网络的处理方法和装置 |
US20200242189A1 (en) * | 2019-01-29 | 2020-07-30 | Hewlett Packard Enterprise Development Lp | Generation of executable files corresponding to neural network models |
CN111582444A (zh) * | 2020-04-22 | 2020-08-25 | 深圳鲲云信息科技有限公司 | 一种矩阵数据的处理、装置、电子设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05346914A (ja) * | 1992-06-16 | 1993-12-27 | Matsushita Electron Corp | ニューロプロセッサ |
US10049322B2 (en) | 2015-05-21 | 2018-08-14 | Google Llc | Prefetching weights for use in a neural network processor |
US20200364047A1 (en) | 2019-05-16 | 2020-11-19 | Facebook, Inc. | High throughput neural network operations using inter-layer memory layout transformation |
-
2020
- 2020-12-25 CN CN202011566189.2A patent/CN112580787B/zh active Active
-
2021
- 2021-11-15 US US17/526,755 patent/US20220138528A1/en active Pending
- 2021-11-17 JP JP2021186754A patent/JP7352609B2/ja active Active
- 2021-11-25 KR KR1020210164464A patent/KR102705262B1/ko active IP Right Grant
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180028966A (ko) * | 2016-09-09 | 2018-03-19 | 에스케이하이닉스 주식회사 | 신경망 하드웨어 가속기 아키텍처 및 그 동작 방법 |
US20180157969A1 (en) * | 2016-12-05 | 2018-06-07 | Beijing Deephi Technology Co., Ltd. | Apparatus and Method for Achieving Accelerator of Sparse Convolutional Neural Network |
CN111247533A (zh) * | 2017-10-17 | 2020-06-05 | 赛灵思公司 | 用于神经网络加速的机器学习运行时库 |
US20190114529A1 (en) * | 2017-10-17 | 2019-04-18 | Xilinx, Inc. | Multi-layer neural network processing by a neural network accelerator using host communicated merged weights and a package of per-layer instructions |
CN108446761A (zh) * | 2018-03-23 | 2018-08-24 | 中国科学院计算技术研究所 | 一种神经网络加速器及数据处理方法 |
CN108734270A (zh) * | 2018-03-23 | 2018-11-02 | 中国科学院计算技术研究所 | 一种兼容型神经网络加速器及数据处理方法 |
US20190340493A1 (en) * | 2018-05-01 | 2019-11-07 | Semiconductor Components Industries, Llc | Neural network accelerator |
JP2020012662A (ja) * | 2018-07-13 | 2020-01-23 | 浜松ホトニクス株式会社 | 電気泳動方法、電気泳動システム、及び電気泳動用の収容容器 |
CN109543830A (zh) * | 2018-09-20 | 2019-03-29 | 中国科学院计算技术研究所 | 一种用于卷积神经网络加速器的拆分累加器 |
US20200242189A1 (en) * | 2019-01-29 | 2020-07-30 | Hewlett Packard Enterprise Development Lp | Generation of executable files corresponding to neural network models |
CN110717588A (zh) * | 2019-10-15 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 用于卷积运算的装置和方法 |
CN110807522A (zh) * | 2019-10-31 | 2020-02-18 | 合肥工业大学 | 一种神经网络加速器的通用计算电路 |
CN111047008A (zh) * | 2019-11-12 | 2020-04-21 | 天津大学 | 一种卷积神经网络加速器及加速方法 |
CN111325332A (zh) * | 2020-02-18 | 2020-06-23 | 百度在线网络技术(北京)有限公司 | 卷积神经网络的处理方法和装置 |
CN111582444A (zh) * | 2020-04-22 | 2020-08-25 | 深圳鲲云信息科技有限公司 | 一种矩阵数据的处理、装置、电子设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
CHIHEB TRABELSI ET AL: "DEEP COMPLEX NETWORKS", 《ARXIV》, pages 1 - 19 * |
ZHENG QIN ET AL: "Diagonalwise Refactorization: An Efficient Training Method for Depthwise Convolutions", 《ARXIV》, pages 1 - 8 * |
黄家明 等: "基于FPGA的红外目标识别神经网络加速器设计", 《飞控与探测》, vol. 3, no. 5, pages 66 - 75 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570033A (zh) * | 2021-06-18 | 2021-10-29 | 北京百度网讯科技有限公司 | 神经网络处理单元、神经网络的处理方法及其装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7352609B2 (ja) | 2023-09-28 |
KR20210151727A (ko) | 2021-12-14 |
CN112580787B (zh) | 2023-11-17 |
KR102705262B1 (ko) | 2024-09-10 |
US20220138528A1 (en) | 2022-05-05 |
JP2022024081A (ja) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230103013A1 (en) | Method for processing image, method for training face recognition model, apparatus and device | |
CN113963110B (zh) | 纹理图生成方法、装置、电子设备及存储介质 | |
CN114186632A (zh) | 关键点检测模型的训练方法、装置、设备、存储介质 | |
CN112562069A (zh) | 三维模型的构造方法、装置、设备和存储介质 | |
CN112200300A (zh) | 卷积神经网络运算方法及装置 | |
US20220343512A1 (en) | Method and apparatus of processing image, electronic device, and storage medium | |
CN114549728A (zh) | 图像处理模型的训练方法、图像处理方法、装置及介质 | |
CN114841315A (zh) | 混合专家模型实现方法、系统、电子设备及存储介质 | |
CN115880502A (zh) | 检测模型的训练方法、目标检测方法、装置、设备和介质 | |
CN115456167A (zh) | 轻量级模型训练方法、图像处理方法、装置及电子设备 | |
CN113742457B (zh) | 应答处理方法、装置、电子设备及存储介质 | |
CN112580787B (zh) | 神经网络加速器的数据处理方法、装置、设备及存储介质 | |
CN112561061A (zh) | 神经网络稀疏化方法、装置、设备、存储介质及程序产品 | |
CN113657468A (zh) | 预训练模型的生成方法、装置、电子设备和存储介质 | |
CN113792876A (zh) | 骨干网络的生成方法、装置、设备以及存储介质 | |
CN113642654B (zh) | 图像特征的融合方法、装置、电子设备和存储介质 | |
CN112784967A (zh) | 信息处理方法、装置以及电子设备 | |
CN113642319A (zh) | 文本处理方法、装置、电子设备及存储介质 | |
CN113792804A (zh) | 图像识别模型的训练方法、图像识别方法、装置及设备 | |
CN114330576A (zh) | 模型处理方法、装置、图像识别方法及装置 | |
CN110188773B (zh) | 图像处理方法及装置 | |
CN113159297A (zh) | 一种神经网络压缩方法、装置、计算机设备及存储介质 | |
CN112766462A (zh) | 数据处理方法、装置及计算机可读存储介质 | |
CN113591567A (zh) | 目标检测方法、目标检测模型的训练方法及其装置 | |
CN113553407B (zh) | 事件追溯方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |