CN108875923A - 用于神经网络的数据处理方法、装置和系统及存储介质 - Google Patents
用于神经网络的数据处理方法、装置和系统及存储介质 Download PDFInfo
- Publication number
- CN108875923A CN108875923A CN201810128822.6A CN201810128822A CN108875923A CN 108875923 A CN108875923 A CN 108875923A CN 201810128822 A CN201810128822 A CN 201810128822A CN 108875923 A CN108875923 A CN 108875923A
- Authority
- CN
- China
- Prior art keywords
- fixed point
- discrete
- neural network
- layer
- network layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种用于神经网络的数据处理方法、装置和系统以及存储介质。用于神经网络的数据处理方法包括:对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果,其中,至少两个离散定点化操作彼此之间采用不同的定点化参数;以及基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据。上述数据处理方法在计算量不变的情况下可以提升输出数据携带的信息量,并且可以提高神经网络的数据处理效果。
Description
技术领域
本发明涉及计算机领域,更具体地涉及一种用于神经网络的数据处理方法、装置和系统以及存储介质。
背景技术
神经网络在图像识别、语音识别等领域中已经有了广泛且成功的应用。目前大多数神经网络在处理数据的时候采用的是浮点运算,浮点运算的信息量大,所需的计算量也大,难以在专用硬件(例如FPGA)上高效运行。
发明内容
考虑到上述问题而提出了本发明。本发明提供了一种用于神经网络的数据处理方法、装置和系统以及存储介质。
根据本发明一方面,提供了一种用于神经网络的数据处理方法。用于神经网络的数据处理方法包括:对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果,其中,至少两个离散定点化操作彼此之间采用不同的定点化参数;以及基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据。
示例性地,基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据包括:将至少两个离散定点化结果合并在一起,以获得合并结果作为第二网络层的输入数据。
示例性地,将至少两个离散定点化结果合并在一起,以获得合并结果作为第二网络层的输入数据包括:通过信道拼接、加法操作和位操作之一的方式将至少两个离散定点化结果合并在一起,以获得合并结果。
示例性地,至少两个离散定点化结果为长度相同且宽度相同的至少两个张量,通过信道拼接的方式将至少两个离散定点化结果合并在一起,以获得合并结果包括:将至少两个离散定点化结果沿着信道维度进行拼接,以获得合并结果。
示例性地,第二网络层包括至少两组分立网络层,基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据包括:至少两组分立网络层分别接收至少两个离散定点化结果中的一个离散定点化结果作为对应分立网络层的输入数据。
示例性地,方法还包括:将至少两个离散定点化结果分别输入至少两组分立网络层中的对应一组分立网络层,以获得至少两组分立网络层分别输出的至少两个输出结果;将至少两个输出结果合并在一起,以获得合并结果作为神经网络的第三网络层的输入数据。
示例性地,将至少两个输出结果合并在一起,以获得合并结果作为神经网络的第三网络层的输入数据包括:通过信道拼接、加法操作和位操作之一的方式将至少两个输出结果合并在一起,以获得合并结果。
示例性地,至少两个输出结果为长度相同且宽度相同的至少两个张量,通过信道拼接的方式将至少两个输出结果合并在一起,以获得合并结果包括:将至少两个输出结果沿着信道维度进行拼接,以获得合并结果。
示例性地,对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果包括:对于至少两个离散定点化操作中的每一个,将层输出结果中的每个元素映射到该离散定点化操作采用的定点数集合中,确定与层输出结果中的每个元素对应的定点数,以获得对应的离散定点化结果。
示例性地,至少两个离散定点化操作彼此之间采用不同的定点数映射关系,定点化参数包括定点数映射关系。
示例性地,至少两个离散定点化操作彼此之间采用不同的定点数集合,定点化参数还包括定点数集合。
根据本发明另一方面,提供了一种用于神经网络的数据处理装置,包括:离散定点化模块,用于对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果,其中,至少两个离散定点化操作彼此之间采用不同的定点化参数;以及确定模块,用于基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据。
根据本发明另一方面,提供了一种用于神经网络的数据处理系统,包括处理器和存储器,其中,所述存储器中存储有计算机程序指令,所述计算机程序指令被所述处理器运行时用于执行上述用于神经网络的数据处理方法。
根据本发明另一方面,提供了一种存储介质,在所述存储介质上存储了程序指令,所述程序指令在运行时用于执行上述用于神经网络的数据处理方法。
根据本发明实施例的用于神经网络的数据处理方法、装置和系统以及存储介质,对第一网络层输出的层输出结果执行至少两个采用不同参数的离散定点化操作,并将离散定点化操作的结果输入后续网络层,该数据处理方法在计算量不变的情况下可以提升输出数据携带的信息量,并且可以提高神经网络的数据处理效果(例如针对图像的分类效果等)。此外,该数据处理方法所需的计算量较小,便于在专用硬件(例如FPGA)上高效运行。
附图说明
通过结合附图对本发明实施例进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与本发明实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1示出用于实现根据本发明实施例的用于神经网络的数据处理方法和装置的示例电子设备的示意性框图;
图2示出根据本发明一个实施例的用于神经网络的数据处理方法的示意性流程图;
图3示出根据本发明一个实施例的用于神经网络的数据处理流程的示意图;
图4示出根据本发明一个实施例的三维张量的示意图;
图5示出根据本发明一个实施例的对两个三维张量进行信道拼接的示意图;
图6示出根据本发明一个实施例的基于神经网络的图像处理流程的示意图;
图7示出根据本发明一个实施例的用于神经网络的数据处理装置的示意性框图;以及
图8示出根据本发明一个实施例的用于神经网络的数据处理系统的示意性框图。
具体实施方式
为了使得本发明的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本发明的示例实施例。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,应理解,本发明不受这里描述的示例实施例的限制。基于本发明中描述的本发明实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本发明的保护范围之内。
为了解决上述问题,本发明实施例提供了一种用于神经网络的数据处理方法、装置和系统以及存储介质。根据本发明实施例,通过离散定点化操作将第一网络层输出的结果进行离散定点化,使得神经网络处理的数据量减小,所需的计算量也减小。此外,根据本发明实施例,通过多种参数不同的离散定点化操作分别进行离散定点化之后将获得的离散定点化结果作为输出数据。由于对数据进行离散定点化会减小数据携带的信息量,因此与采用单独的离散定点化操作相比,采用多种不同的离散定点化操作可以增加数据携带的信息量,同时与计算量相同的采用单独的离散定点化操作的数据处理方法相比,本发明实施例提供的数据处理方法的数据处理效果(例如针对图像的分类效果)更好。根据本发明实施例的用于神经网络的数据处理方法和装置可以应用于任何需要使用神经网络的领域,例如人脸识别、文字识别、语音识别、行人检测、车辆检测等。
首先,参照图1来描述用于实现根据本发明实施例的用于神经网络的数据处理方法和装置的示例电子设备100。
如图1所示,电子设备100包括一个或多个处理器102、一个或多个存储装置104。可选地,电子设备100还可以包括输入装置106、输出装置108、以及图像采集装置110。上述组件通过总线系统112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
所述处理器102可以采用数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、微处理器中的至少一种硬件形式来实现,所述处理器102可以是中央处理单元(CPU)、图像处理器(GPU)、专用的集成电路(ASIC)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元中的一种或几种的组合,并且可以控制所述电子设备100中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理器实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
所述输出装置108可以向外部(例如用户)输出各种信息(例如图像和/或声音),并且可以包括显示器、扬声器等中的一个或多个。可选地,所述输入装置106和所述输出装置108可以集成在一起,采用同一交互装置(例如触摸屏)实现。
所述图像采集装置110可以采集图像,并且将所采集的图像存储在所述存储装置104中以供其它组件使用。图像采集装置110可以是单独的相机或移动终端中的摄像头。应当理解,图像采集装置110仅是示例,电子设备100可以不包括图像采集装置110。在这种情况下,可以利用其他具有图像采集能力的器件采集图像,并将采集的图像发送给电子设备100。
示例性地,用于实现根据本发明实施例的用于神经网络的数据处理方法和装置的示例电子设备可以在诸如个人计算机或远程服务器等的设备上实现。
下面,将参考图2描述根据本发明实施例的用于神经网络的数据处理方法。图2示出根据本发明一个实施例的用于神经网络的数据处理方法200的示意性流程图。如图2所示,用于神经网络的数据处理方法200包括以下步骤S210和S220。
在步骤S210,对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果,其中,至少两个离散定点化操作彼此之间采用不同的定点化参数。
图3示出根据本发明一个实施例的用于神经网络的数据处理流程的示意图。如图3所示,将输入数据输入卷积层进行卷积处理以得到当前卷积层的层输出结果。卷积层输出的层输出结果分别进行两次离散定点化操作。
第一网络层的输入数据可以是任何数据,例如输入整个神经网络的图像(例如人脸图像)或语音等,或者神经网络的某些中间层输出的输出数据。示例性地,当神经网络用于处理图像时,可以将图像提取为张量的形式,获得图像张量,该图像张量可以代表图像。将图像输入神经网络,可以是将上述图像张量输入神经网络。在一个示例中,第一网络层的输入数据可以是所述图像张量。在另一个示例中,第一网络层的输入数据可以是神经网络的其他网络结构(可以包括若干卷积层和/或池化层)输出的特征图(feature map)。
当神经网络用于处理图像时,该图像可以是静态图像,也可以是视频中的视频帧。图像可以是图像采集装置采集到的原始图像,也可以是对原始图像进行预处理(诸如数字化、归一化、平滑等)之后获得的图像。
神经网络可以是任何网络,例如卷积神经网络。神经网络包括若干网络层,所述网络层可以包括卷积层、池化层、全连接层等。示例性地,第一网络层可以为卷积层或池化层。可以在单独的卷积层之后、单独的池化层之后、连续的多个卷积层之后、或者卷积层和池化层混合的网络结构之后,执行至少两个离散定点化操作。在一个示例中,第一网络层为卷积层,例如,在神经网络的任一卷积层之后,执行至少两个离散定点化操作。在另一个示例中,第一网络层为池化层,例如,在神经网络的任一池化层之后,执行至少两个离散定点化操作。
神经网络的网络结构可以预先设定。神经网络可以随时进行训练,神经网络的参数(或称权值)可以在神经网络的训练过程中进行调整。例如,神经网络的卷积层的数目、池化层的数目、卷积层和池化层的连接顺序、每个卷积层的卷积核的长和宽、每个池化层的步长等数据均可以调整。
示例性地,第一网络层输出的层输出结果可以用三维张量表示,三个维度分别是长、宽和信道。参考图4,示出根据本发明一个实施例的三维张量的示意图。
示例性地,步骤S210可以包括:对于至少两个离散定点化操作中的每一个,将层输出结果中的每个元素映射到该离散定点化操作采用的定点数集合中,确定与层输出结果中的每个元素对应的定点数,以获得对应的离散定点化结果。
离散定点化操作就是将层输出结果中的各元素离散定点化为数种固定的取值之一,而不再是浮点数。例如,卷积层输出的三维张量中的每个元素可以有很多种不同的取值,取值之间的浮动较大,分布很不规则。为了减少对这个三维张量进行存储和计算的成本,可以将该张量中的每个元素限定到一个给定的集合上。例如,可以将三维张量中任意元素的值x修改为{-5,0,5}这个集合中距离x最近的值。例如,假设任意元素的值x的取值范围是[-9,9],当x落入[-9,-3)内时将值x修改为-5,当x落入[-3,3]内时将值x修改为0,当x落入(3,9]内时将值x修改为5。可选地,还可以进一步将值x分别用二进制数表示,例如可以分别用00、01和10表示-5、0和5。需注意,将值x用二进制数表示时,可以用值x的等价二进制数来表示值x(例如用二进制数101表示十进制数5),也可以用任意的二进制数来对应表示值x(例如用二进制数10而非101表示十进制数5)。
上述集合{-5,0,5}即为本文所述的定点数集合,其中的-5、0和5这三个数为定点数。由于将浮点数进行离散定点化,使得神经网络需要处理的数据量大大减少,从而可以有效降低数据存储和计算的成本。
返回参考图3,针对层输出结果分别执行两个离散定点化操作,这两个离散定点化操作采用不同的定点化参数。图3仅是示例,离散定点化操作的数目可以是任意合适的数目,其可以根据需要设定,本发明不对此进行限制。
示例性地,至少两个离散定点化操作彼此之间可以采用不同的定点数映射关系,定点化参数包括定点数映射关系。
在一个示例中,对于至少两个离散定点化操作中的任意两个离散定点化操作来说,这两个离散定点化操作之间可以采用相同的定点数集合和不同的定点数映射关系。例如,离散定点化操作F1和离散定点化操作F2均可以采用集合{-5,0,5}作为各自的定点数集合。对于离散定点化操作F1来说,当任意元素的值x落入[-9,-3)内时将值x修改为-5,当x落入[-3,3]内时将值x修改为0,当x落入(3,9]内时将值x修改为5;而对于离散定点化操作F2来说,当任意元素的值x落入[-8,-2)内时将值x修改为-5,当x落入[-2,3]内时将值x修改为0,当x落入(3,8]内时将值x修改为5。
示例性地,至少两个离散定点化操作彼此之间可以采用不同的定点数集合,定点化参数还可以包括定点数集合。
在一个示例中,对于至少两个离散定点化操作中的任意两个离散定点化操作来说,这两个离散定点化操作之间可以采用不同的定点数集合和不同的定点数映射关系。例如,离散定点化操作F1和离散定点化操作F2可以分别采用集合{-5,0,5}和集合{-6,-2,2,6}作为各自的定点数集合。相应地,离散定点化操作F1和离散定点化操作F2分别采用不同的定点数映射关系将层输出结果中的元素映射到各自的定点数集合中。
在步骤S220,基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据。
示例性而非限制性地,第二网络层可以是第一网络层的后续网络层。示例性地,第二网络层可以包括卷积层、池化层和全连接层中的任意一种或多种。在一个示例中,第二网络层仅包括在第一网络层之后的一个特定网络层。在另一个示例中,第二网络层包括在第一网络层之后的一个特定网络层以及在该特定网络层之后的一个或多个网络层。在又一个示例中,第二网络层包括在第一网络层之后的至少两组分立网络层,至少两组分立网络层分别形成至少两个并行的数据处理分支,每组分立网络层中可以包括任意数目的网络层。在前两个示例中,至少两个离散定点化结果可以经合并之后输入在第一网络层之后的特定网络层。在第三个示例中,至少两个离散定点化结果可以分别输入至少两组分立网络层,分别进行进一步的网络层处理。可选地,至少两组分立网络层的输出结果可以经合并之后再输入在至少两组分立网络层之后的后续网络层中。可选地,至少两组分立网络层的输出结果也可以不再合并,经由至少两组分立网络层分别获得至少两个最终网络输出结果。例如,在多分类任务中,神经网络可以用于同时预测多种分类结果(例如人脸是否被眼镜遮挡、人脸是否被帽子遮挡、人脸是否被头发遮挡等),至少两组分立网络层可以分别对应于不同的分类任务,每组分立网络层输出对应的分类结果。
根据本发明实施例的用于神经网络的数据处理方法,对第一网络层输出的层输出结果执行至少两个采用不同参数的离散定点化操作,并基于离散定点化操作的结果确定后续网络层的输入数据,该数据处理方法在计算量不变的情况下可以提升输出数据携带的信息量,并且可以提高神经网络的数据处理效果(例如针对图像的分类效果等)。此外,该数据处理方法所需的计算量较小,便于在专用硬件(例如FPGA)上高效运行。
示例性地,根据本发明实施例的用于神经网络的数据处理方法可以在具有存储器和处理器的设备、装置或者系统中实现。
根据本发明实施例的用于神经网络的数据处理方法可以部署在个人终端处,诸如智能电话、平板电脑、个人计算机等。
替代地,根据本发明实施例的用于神经网络的数据处理方法还可以分布地部署在服务器端(或云端)和个人终端处。例如,可以在个人终端收集输入数据(例如用移动终端的摄像头采集图像),个人终端将收集的输入数据传送给服务器端(或云端),然后由服务器端(或云端)进行数据处理。
根据本发明实施例,步骤S220可以包括:将至少两个离散定点化结果合并在一起,以获得合并结果作为第二网络层的输入数据。
如上文所述,在第二网络层仅包括在第一网络层之后的一个特定网络层或者包括该特定网络层以及在该特定网络层之后的一个或多个网络层,即第一网络层后面最近的网络层没有分支的情况下,可以将至少两个离散定点化结果合并之后输入上述特定网络层。
示例性地,将至少两个离散定点化结果合并在一起,以获得合并结果作为第二网络层的输入数据可以包括:通过信道拼接、加法操作和位操作之一的方式将至少两个离散定点化结果合并在一起,以获得合并结果。
例如,至少两个离散定点化结果为长度相同且宽度相同的至少两个张量,通过信道拼接的方式将至少两个离散定点化结果合并在一起,以获得合并结果可以包括:将至少两个离散定点化结果沿着信道维度进行拼接,以获得合并结果。此处的合并结果为两个离散定点化结果合并后的结果,可以用第一合并结果表示。
返回参考图3,在两个离散定点化操作之后,执行一次信道拼接。信道拼接是指将两个或多于两个长度相同并且宽度也相同的张量,沿着信道这一维度进行拼接的操作。图5示出根据本发明一个实施例的对两个三维张量进行信道拼接的示意图。在图5中,用两种不同灰度的颜色分别表示两个三维张量。与加法操作、位操作等方式相比,信道拼接的方式实现简单,计算量小且数据处理效果更好。
经过信道拼接之后,可以将获得的合并结果继续输入后续网络层中进行相应的处理。
如上文所述,每个离散定点化结果为一个张量,对至少两个离散定点化结果进行加法操作和位操作也就是对至少两个张量进行加法操作和位操作,操作结果即为所需的合并结果。本领域技术人员可以理解张量的加法操作和位操作的执行方式,本文不做赘述。
根据本发明实施例,第二网络层包括至少两组分立网络层,步骤S220可以包括:至少两组分立网络层分别接收至少两个离散定点化结果中的一个离散定点化结果作为对应分立网络层的输入数据。
如上文所述,在第二网络层包括至少两组分立网络层,即第一网络层后面最近的网络层具有分支的情况下,可以将至少两个离散定点化结果分别输入对应的后续网络层。
每组分立网络层可以包括一个或多个网络层。每组分立网络层中离第一网络层最近的网络层的数目为一个,该组分立网络层中的其他网络层在离第一网络层最近的网络层之后。
根据本发明实施例,数据处理方法200还可以包括:将至少两个离散定点化结果分别输入至少两组分立网络层中的对应一组分立网络层,以获得至少两组分立网络层输出的至少两个输出结果;以及基于至少两个输出结果分别确定神经网络的至少两个最终网络输出结果。
如上文所述,至少两组分立网络层的输出结果也可以不再合并,经由至少两组分立网络层分别获得至少两个最终网络输出结果。当神经网络用于执行诸如多分类等任务时,可以采用这种实现方式。
根据本发明实施例,数据处理方法200还可以包括:将至少两个离散定点化结果分别输入至少两组分立网络层中的对应一组分立网络层,以获得至少两组分立网络层分别输出的至少两个输出结果;将至少两个输出结果合并在一起,以获得合并结果作为神经网络的第三网络层的输入数据。
示例性而非限制性地,第三网络层可以是第二网络层的后续网络层。如上文所述,至少两组分立网络层的输出结果可以经合并之后再输入在至少两组分立网络层之后的后续网络层中。当神经网络用于执行诸如二分类、实例分割、目标检测等任务时,可以采用这种实现方式。
示例性地,将至少两个输出结果合并在一起,以获得合并结果作为神经网络的第三网络层的输入数据包括:通过信道拼接、加法操作和位操作之一的方式将至少两个输出结果合并在一起,以获得合并结果。
例如,至少两个输出结果为长度相同且宽度相同的至少两个张量,通过信道拼接的方式将至少两个输出结果合并在一起,以获得合并结果可以包括:将至少两个输出结果沿着信道维度进行拼接,以获得合并结果。此处的合并结果为两个输出结果合并后的结果,可以用第二合并结果表示。
将至少两个输出结果合并在一起的方式与将至少两个离散定点化结果合并在一起的方式类似,本领域技术人员可以参考上文关于离散定点化结果的合并的描述来理解本实施例,不再赘述。
根据本发明实施例,数据处理方法200还可以包括:依次确定神经网络的全部或部分网络层中的每一个为第一网络层。
在一个示例中,对于神经网络中的全部网络层中的每一个,将该网络层作为第一网络层并执行步骤S210至步骤S220。例如,在每个网络层(卷积层、池化层或全连接层)后面,均执行至少两个离散定点化操作及随后的结果合并操作。不同网络层后面执行的离散定点化操作的数目可以一致,也可以不一致,其可以根据需要设定,本发明不对此进行限制。
当然,也可以选择在神经网络中的部分网络层中的每一个后面执行至少两个离散定点化操作及随后的结果合并操作。本领域技术人员可以理解这种实施例的实现方式,不再赘述。
图6示出根据本发明一个实施例的基于神经网络的图像处理流程的示意图。如图6所示,神经网络的初始输入为图像。在图6所示的实施例中,将神经网络划分为若干单元。每个单元可以包括若干网络层,例如,可以包括卷积层、池化层和全连接层中的一种或多种。每个单元包括多少网络层可以根据需要设定,本文不对此进行限制。示例性地,可以将第一网络层、后续的至少两个离散定点化操作以及后续的结果合并操作所占用的算法模块划分为一个单元。如图6所示,在神经网络的任一单元中,可以设计执行至少两个离散定点化操作。当然,执行至少两个离散定点化操作的单元的数目可以是一个或多个。
可选地,本文所述的每个离散定点化操作以及每个合并操作均可以采用网络层实现,因此必要时,可以将离散定点化操作所占用的算法模块视为定点化层,将合并操作所占用的算法模块视为合并层。
根据本发明另一方面,提供一种用于神经网络的数据处理装置。图7示出了根据本发明一个实施例的用于神经网络的数据处理装置700的示意性框图。
如图7所示,根据本发明实施例的用于神经网络的数据处理装置700包括离散定点化模块710和确定模块720。所述各个模块可分别执行上文中结合图2-6描述的用于神经网络的数据处理方法的各个步骤/功能。以下仅对该用于神经网络的数据处理装置700的各部件的主要功能进行描述,而省略以上已经描述过的细节内容。
离散定点化模块710用于对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果,其中,所述至少两个离散定点化操作彼此之间采用不同的定点化参数。离散定点化模块710可以由图1所示的电子设备中的处理器102运行存储装置107中存储的程序指令来实现。
确定模块720用于基于所述至少两个离散定点化结果确定神经网络的第二网络层的输入数据。确定模块720可以由图1所示的电子设备中的处理器102运行存储装置107中存储的程序指令来实现。
示例性地,确定模块720具体用于:将至少两个离散定点化结果合并在一起,以获得合并结果作为第二网络层的输入数据。
示例性地,确定模块720具体用于:通过信道拼接、加法操作和位操作之一的方式将至少两个离散定点化结果合并在一起,以获得合并结果。
示例性地,至少两个离散定点化结果为长度相同且宽度相同的至少两个张量,确定模块720具体用于:将至少两个离散定点化结果沿着信道维度进行拼接,以获得合并结果。
示例性地,第二网络层包括至少两组分立网络层,确定模块730具体用于:至少两组分立网络层分别接收至少两个离散定点化结果中的一个离散定点化结果作为对应分立网络层的输入数据。
示例性地,数据处理装置700还包括:第二输入模块(未示出),用于将至少两个离散定点化结果分别输入至少两组分立网络层中的对应一组分立网络层,以获得至少两组分立网络层分别输出的至少两个输出结果;合并模块(未示出),用于将至少两个输出结果合并在一起,以获得合并结果作为神经网络的第三网络层的输入数据。
示例性地,合并模块具体用于:通过信道拼接、加法操作和位操作之一的方式将至少两个输出结果合并在一起,以获得合并结果。
示例性地,至少两个输出结果为长度相同且宽度相同的至少两个张量,合并模块具体用于:将至少两个输出结果沿着信道维度进行拼接,以获得合并结果。
示例性地,离散定点化模块720具体用于:对于至少两个离散定点化操作中的每一个,将层输出结果中的每个元素映射到该离散定点化操作采用的定点数集合中,确定与层输出结果中的每个元素对应的定点数,以获得对应的离散定点化结果。
示例性地,至少两个离散定点化操作彼此之间采用不同的定点数映射关系,定点化参数包括定点数映射关系。
示例性地,至少两个离散定点化操作彼此之间采用不同的定点数集合,定点化参数还包括定点数集合。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
图8示出了根据本发明一个实施例的用于神经网络的数据处理系统800的示意性框图。用于神经网络的数据处理系统800包括图像采集装置810、存储装置(即存储器)820、以及处理器830。
所述图像采集装置810用于采集图像作为第一网络层的输入数据或作为生成第一网络层的输入数据的源数据。图像采集装置810是可选的,用于神经网络的数据处理系统800可以不包括图像采集装置810。在这种情况下,可以利用其他图像采集装置采集图像,并将采集的图像发送给用于神经网络的数据处理系统800。
所述存储装置820存储用于实现根据本发明实施例的用于神经网络的数据处理方法中的相应步骤的计算机程序指令。
所述处理器830用于运行所述存储装置820中存储的计算机程序指令,以执行根据本发明实施例的用于神经网络的数据处理方法的相应步骤。
在一个实施例中,所述计算机程序指令被所述处理器830运行时用于执行以下步骤:对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果,其中,至少两个离散定点化操作彼此之间采用不同的定点化参数;以及基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据。
示例性地,所述计算机程序指令被所述处理器830运行时所用于执行的基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据的步骤包括:将至少两个离散定点化结果合并在一起,以获得合并结果作为第二网络层的输入数据。
示例性地,所述计算机程序指令被所述处理器830运行时所用于执行的将至少两个离散定点化结果合并在一起,以获得合并结果作为第二网络层的输入数据的步骤包括:通过信道拼接、加法操作和位操作之一的方式将至少两个离散定点化结果合并在一起,以获得合并结果。
示例性地,至少两个离散定点化结果为长度相同且宽度相同的至少两个张量,所述计算机程序指令被所述处理器830运行时所用于执行的通过信道拼接的方式将至少两个离散定点化结果合并在一起,以获得合并结果的步骤包括:将至少两个离散定点化结果沿着信道维度进行拼接,以获得合并结果。
示例性地,第二网络层包括至少两组分立网络层,所述计算机程序指令被所述处理器830运行时所用于执行的基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据的步骤包括:至少两组分立网络层分别接收至少两个离散定点化结果中的一个离散定点化结果作为对应分立网络层的输入数据。
示例性地,所述计算机程序指令被所述处理器830运行时还用于执行以下步骤:将至少两个离散定点化结果分别输入至少两组分立网络层中的对应一组分立网络层,以获得至少两组分立网络层分别输出的至少两个输出结果;将至少两个输出结果合并在一起,以获得合并结果作为神经网络的第三网络层的输入数据。
示例性地,所述计算机程序指令被所述处理器830运行时所用于执行的将至少两个输出结果合并在一起,以获得合并结果作为神经网络的第三网络层的输入数据的步骤包括:通过信道拼接、加法操作和位操作之一的方式将至少两个输出结果合并在一起,以获得合并结果。
示例性地,至少两个输出结果为长度相同且宽度相同的至少两个张量,所述计算机程序指令被所述处理器830运行时所用于执行的通过信道拼接的方式将至少两个输出结果合并在一起,以获得合并结果的步骤包括:将至少两个输出结果沿着信道维度进行拼接,以获得合并结果。
示例性地,所述计算机程序指令被所述处理器830运行时所用于执行的对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果的步骤包括:对于至少两个离散定点化操作中的每一个,将层输出结果中的每个元素映射到该离散定点化操作采用的定点数集合中,确定与层输出结果中的每个元素对应的定点数,以获得对应的离散定点化结果。
示例性地,至少两个离散定点化操作彼此之间采用不同的定点数映射关系,定点化参数包括定点数映射关系。
示例性地,至少两个离散定点化操作彼此之间采用不同的定点数集合,定点化参数还包括定点数集合。
此外,根据本发明实施例,还提供了一种存储介质,在所述存储介质上存储了程序指令,在所述程序指令被计算机或处理器运行时用于执行本发明实施例的用于神经网络的数据处理方法的相应步骤,并且用于实现根据本发明实施例的用于神经网络的数据处理装置中的相应模块。所述存储介质例如可以包括智能电话的存储卡、平板电脑的存储部件、个人计算机的硬盘、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、或者上述存储介质的任意组合。
在一个实施例中,所述程序指令在被计算机或处理器运行时可以使得计算机或处理器实现根据本发明实施例的用于神经网络的数据处理装置的各个功能模块,并和/或者可以执行根据本发明实施例的用于神经网络的数据处理方法。
在一个实施例中,所述程序指令在运行时用于执行以下步骤:对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果,其中,至少两个离散定点化操作彼此之间采用不同的定点化参数;以及基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据。
示例性地,所述程序指令在运行时所用于执行的基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据的步骤包括:将至少两个离散定点化结果合并在一起,以获得合并结果作为第二网络层的输入数据。
示例性地,所述程序指令在运行时所用于执行的将至少两个离散定点化结果合并在一起,以获得合并结果作为第二网络层的输入数据的步骤包括:通过信道拼接、加法操作和位操作之一的方式将至少两个离散定点化结果合并在一起,以获得合并结果。
示例性地,至少两个离散定点化结果为长度相同且宽度相同的至少两个张量,所述程序指令在运行时所用于执行的通过信道拼接的方式将至少两个离散定点化结果合并在一起,以获得合并结果的步骤包括:将至少两个离散定点化结果沿着信道维度进行拼接,以获得合并结果。
示例性地,第二网络层包括至少两组分立网络层,所述程序指令在运行时所用于执行的基于至少两个离散定点化结果确定神经网络的第二网络层的输入数据的步骤包括:至少两组分立网络层分别接收至少两个离散定点化结果中的一个离散定点化结果作为对应分立网络层的输入数据。
示例性地,所述程序指令在运行时还用于执行以下步骤:将至少两个离散定点化结果分别输入至少两组分立网络层中的对应一组分立网络层,以获得至少两组分立网络层分别输出的至少两个输出结果;将至少两个输出结果合并在一起,以获得合并结果作为神经网络的第三网络层的输入数据。
示例性地,所述程序指令在运行时所用于执行的将至少两个输出结果合并在一起,以获得合并结果作为神经网络的第三网络层的输入数据的步骤包括:通过信道拼接、加法操作和位操作之一的方式将至少两个输出结果合并在一起,以获得合并结果。
示例性地,至少两个输出结果为长度相同且宽度相同的至少两个张量,所述程序指令在运行时所用于执行的通过信道拼接的方式将至少两个输出结果合并在一起,以获得合并结果的步骤包括:将至少两个输出结果沿着信道维度进行拼接,以获得合并结果。
示例性地,所述程序指令在运行时所用于执行的对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果的步骤包括:对于至少两个离散定点化操作中的每一个,将层输出结果中的每个元素映射到该离散定点化操作采用的定点数集合中,确定与层输出结果中的每个元素对应的定点数,以获得对应的离散定点化结果。
示例性地,至少两个离散定点化操作彼此之间采用不同的定点数映射关系,定点化参数包括定点数映射关系。
示例性地,至少两个离散定点化操作彼此之间采用不同的定点数集合,定点化参数还包括定点数集合。
根据本发明实施例的用于神经网络的数据处理系统中的各模块可以通过根据本发明实施例的实施用于神经网络的数据处理的电子设备的处理器运行在存储器中存储的计算机程序指令来实现,或者可以在根据本发明实施例的计算机程序产品的计算机可读存储介质中存储的计算机指令被计算机运行时实现。
尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本发明的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本发明的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本发明的范围之内。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个设备,或一些特征可以忽略,或不执行。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该本发明的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如相应的权利要求书所反映的那样,其发明点在于可以用少于某个公开的单个实施例的所有特征的特征来解决相应的技术问题。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域的技术人员可以理解,除了特征之间相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的用于神经网络的数据处理装置中的一些模块的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
以上所述,仅为本发明的具体实施方式或对具体实施方式的说明,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。本发明的保护范围应以权利要求的保护范围为准。
Claims (14)
1.一种用于神经网络的数据处理方法,包括:
对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果,其中,所述至少两个离散定点化操作彼此之间采用不同的定点化参数;以及
基于所述至少两个离散定点化结果确定所述神经网络的第二网络层的输入数据。
2.如权利要求1所述的方法,其中,所述基于所述至少两个离散定点化结果确定所述神经网络的第二网络层的输入数据包括:
将所述至少两个离散定点化结果合并在一起,以获得合并结果作为所述第二网络层的输入数据。
3.如权利要求2所述的方法,其中,所述将所述至少两个离散定点化结果合并在一起,以获得合并结果作为所述第二网络层的输入数据包括:
通过信道拼接、加法操作和位操作之一的方式将所述至少两个离散定点化结果合并在一起,以获得所述合并结果。
4.如权利要求3所述的方法,其中,所述至少两个离散定点化结果为长度相同且宽度相同的至少两个张量,所述通过信道拼接的方式将所述至少两个离散定点化结果合并在一起,以获得所述合并结果包括:
将所述至少两个离散定点化结果沿着信道维度进行拼接,以获得所述合并结果。
5.如权利要求1所述的方法,其中,所述第二网络层包括至少两组分立网络层,所述基于所述至少两个离散定点化结果确定所述神经网络的第二网络层的输入数据包括:
所述至少两组分立网络层分别接收所述至少两个离散定点化结果中的一个离散定点化结果作为对应分立网络层的输入数据。
6.如权利要求5所述的方法,其中,所述方法还包括:
将所述至少两个离散定点化结果分别输入所述至少两组分立网络层中的对应一组分立网络层,以获得所述至少两组分立网络层分别输出的至少两个输出结果;
将所述至少两个输出结果合并在一起,以获得合并结果作为所述神经网络的第三网络层的输入数据。
7.如权利要求6所述的方法,其中,所述将所述至少两个输出结果合并在一起,以获得合并结果作为所述神经网络的第三网络层的输入数据包括:
通过信道拼接、加法操作和位操作之一的方式将所述至少两个输出结果合并在一起,以获得所述合并结果。
8.如权利要求7所述的方法,其中,所述至少两个输出结果为长度相同且宽度相同的至少两个张量,所述通过信道拼接的方式将所述至少两个输出结果合并在一起,以获得所述合并结果包括:
将所述至少两个输出结果沿着信道维度进行拼接,以获得所述合并结果。
9.如权利要求1所述的方法,其中,所述对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果包括:
对于所述至少两个离散定点化操作中的每一个,将所述层输出结果中的每个元素映射到该离散定点化操作采用的定点数集合中,确定与所述层输出结果中的每个元素对应的定点数,以获得对应的离散定点化结果。
10.如权利要求9所述的方法,其中,所述至少两个离散定点化操作彼此之间采用不同的定点数映射关系,所述定点化参数包括所述定点数映射关系。
11.如权利要求9或10所述的方法,其中,所述至少两个离散定点化操作彼此之间采用不同的定点数集合,所述定点化参数还包括所述定点数集合。
12.一种用于神经网络的数据处理装置,包括:
离散定点化模块,用于对神经网络的第一网络层的层输出结果分别执行至少两个离散定点化操作,以获得至少两个离散定点化结果,其中,所述至少两个离散定点化操作彼此之间采用不同的定点化参数;以及
确定模块,用于基于所述至少两个离散定点化结果确定所述神经网络的第二网络层的输入数据。
13.一种用于神经网络的数据处理系统,包括处理器和存储器,其中,所述存储器中存储有计算机程序指令,所述计算机程序指令被所述处理器运行时用于执行如权利要求1至11任一项所述的用于神经网络的数据处理方法。
14.一种存储介质,在所述存储介质上存储了程序指令,所述程序指令在运行时用于执行如权利要求1至11任一项所述的用于神经网络的数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810128822.6A CN108875923A (zh) | 2018-02-08 | 2018-02-08 | 用于神经网络的数据处理方法、装置和系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810128822.6A CN108875923A (zh) | 2018-02-08 | 2018-02-08 | 用于神经网络的数据处理方法、装置和系统及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108875923A true CN108875923A (zh) | 2018-11-23 |
Family
ID=64325994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810128822.6A Pending CN108875923A (zh) | 2018-02-08 | 2018-02-08 | 用于神经网络的数据处理方法、装置和系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108875923A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111210017A (zh) * | 2019-12-24 | 2020-05-29 | 北京迈格威科技有限公司 | 确定布局顺序及数据处理的方法、装置、设备及存储介质 |
CN111325311A (zh) * | 2018-12-14 | 2020-06-23 | 深圳云天励飞技术有限公司 | 神经网络模型生成方法、装置、电子设备及存储介质 |
CN111563587A (zh) * | 2019-02-14 | 2020-08-21 | 上海寒武纪信息科技有限公司 | 一种神经网络模型的拆分方法及相关产品 |
CN112308199A (zh) * | 2019-07-26 | 2021-02-02 | 杭州海康威视数字技术股份有限公司 | 数据块的处理方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845640A (zh) * | 2017-01-12 | 2017-06-13 | 南京大学 | 基于深度卷积神经网络的层内非均匀的等间隔定点量化方法 |
CN107657263A (zh) * | 2016-08-12 | 2018-02-02 | 北京深鉴科技有限公司 | 一种用于实现ann的深度处理单元 |
CN107665364A (zh) * | 2016-07-28 | 2018-02-06 | 三星电子株式会社 | 神经网络方法和设备 |
-
2018
- 2018-02-08 CN CN201810128822.6A patent/CN108875923A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107665364A (zh) * | 2016-07-28 | 2018-02-06 | 三星电子株式会社 | 神经网络方法和设备 |
CN107657263A (zh) * | 2016-08-12 | 2018-02-02 | 北京深鉴科技有限公司 | 一种用于实现ann的深度处理单元 |
CN106845640A (zh) * | 2017-01-12 | 2017-06-13 | 南京大学 | 基于深度卷积神经网络的层内非均匀的等间隔定点量化方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325311A (zh) * | 2018-12-14 | 2020-06-23 | 深圳云天励飞技术有限公司 | 神经网络模型生成方法、装置、电子设备及存储介质 |
CN111563587A (zh) * | 2019-02-14 | 2020-08-21 | 上海寒武纪信息科技有限公司 | 一种神经网络模型的拆分方法及相关产品 |
CN112308199A (zh) * | 2019-07-26 | 2021-02-02 | 杭州海康威视数字技术股份有限公司 | 数据块的处理方法、装置及存储介质 |
CN112308199B (zh) * | 2019-07-26 | 2024-05-10 | 杭州海康威视数字技术股份有限公司 | 数据块的处理方法、装置及存储介质 |
CN111210017A (zh) * | 2019-12-24 | 2020-05-29 | 北京迈格威科技有限公司 | 确定布局顺序及数据处理的方法、装置、设备及存储介质 |
CN111210017B (zh) * | 2019-12-24 | 2023-09-26 | 北京迈格威科技有限公司 | 确定布局顺序及数据处理的方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11295208B2 (en) | Robust gradient weight compression schemes for deep learning applications | |
CN108875932A (zh) | 图像识别方法、装置和系统及存储介质 | |
CN108875923A (zh) | 用于神经网络的数据处理方法、装置和系统及存储介质 | |
US11651206B2 (en) | Multiscale feature representations for object recognition and detection | |
CN108876792A (zh) | 语义分割方法、装置和系统及存储介质 | |
CN110008808A (zh) | 全景分割方法、装置和系统及存储介质 | |
US10169872B2 (en) | Classification of severity of pathological condition using hybrid image representation | |
CN106529511A (zh) | 图像结构化方法及装置 | |
CN108875537A (zh) | 对象检测方法、装置和系统及存储介质 | |
CN106203376A (zh) | 人脸关键点定位方法及装置 | |
CN108876804A (zh) | 抠像模型训练和图像抠像方法、装置和系统及存储介质 | |
CN108876791A (zh) | 图像处理方法、装置和系统及存储介质 | |
CN108875486A (zh) | 目标对象识别方法、装置、系统和计算机可读介质 | |
CN112116001B (zh) | 图像识别方法、装置及计算机可读存储介质 | |
CN108780519A (zh) | 卷积神经网络中的结构学习 | |
US10185895B1 (en) | Systems and methods for classifying activities captured within images | |
CN106651877A (zh) | 实例分割方法及装置 | |
CN108875540A (zh) | 图像处理方法、装置和系统及存储介质 | |
CN109919211A (zh) | 商品识别方法、装置、系统和计算机可读介质 | |
CN108876793A (zh) | 语义分割方法、装置和系统及存储介质 | |
CN108875521A (zh) | 人脸检测方法、装置、系统和存储介质 | |
CN108875539A (zh) | 表情匹配方法、装置和系统及存储介质 | |
US20200410336A1 (en) | Dataset Dependent Low Rank Decomposition Of Neural Networks | |
CN108875517A (zh) | 视频处理方法、装置和系统及存储介质 | |
CN106650743A (zh) | 图像强反光检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |