CN109284826A - 神经网络处理方法、装置、设备及计算机可读存储介质 - Google Patents

神经网络处理方法、装置、设备及计算机可读存储介质 Download PDF

Info

Publication number
CN109284826A
CN109284826A CN201710592048.XA CN201710592048A CN109284826A CN 109284826 A CN109284826 A CN 109284826A CN 201710592048 A CN201710592048 A CN 201710592048A CN 109284826 A CN109284826 A CN 109284826A
Authority
CN
China
Prior art keywords
neural network
function
connection weight
processing
trained function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710592048.XA
Other languages
English (en)
Inventor
冷聪
李�昊
窦则圣
朱胜火
金榕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201710592048.XA priority Critical patent/CN109284826A/zh
Priority to TW107120130A priority patent/TW201909040A/zh
Priority to PCT/US2018/042725 priority patent/WO2019018548A1/en
Priority to US16/039,056 priority patent/US20190026602A1/en
Publication of CN109284826A publication Critical patent/CN109284826A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Operations Research (AREA)
  • Neurology (AREA)
  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例公开了一种神经网络处理方法、装置、设备及计算机可读存储介质。该方法包括:构建针对神经网络的带有约束条件的训练函数;基于训练函数,进行约束优化求解,得到神经网络的连接权重。本发明实施例的神经网络处理方法、装置、设备及计算机可读存储介质,从优化问题的角度对神经网络的连接权重的求解问题进行建模,可以对神经网络的连接权重的求解问题进行有效求解,能够提高神经网络的训练速度。

Description

神经网络处理方法、装置、设备及计算机可读存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种神经网络处理方法、装置、设备及计算机可读存储介质。
背景技术
人工神经网络(Artificial Neural Networks,ANNs),简称为神经网络(NNs),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。
目前的神经网络训练主要利用启发式算法(heuristic algorithm)进行训练。
但是,利用heuristic algorithm对神经网络进行训练,速度较慢。
发明内容
本发明实施例提供一种神经网络处理方法、装置、设备及计算机可读存储介质,能够提高神经网络的训练速度。
一方面,本发明实施例提供了一种神经网络处理方法,方法包括:
构建针对神经网络的带有约束条件的训练函数;
基于训练函数,进行约束优化求解,得到神经网络的连接权重。
另一方面,本发明实施例提供了一种神经网络处理装置,装置包括:
构建模块,用于构建针对神经网络的带有约束条件的训练函数;
求解模块,用于基于训练函数,进行约束优化求解,得到神经网络的连接权重。
再一方面,本发明实施例提供了一种神经网络处理设备,设备包括:
存储器用于存储可执行程序代码;
处理器用于读取存储器中存储的可执行程序代码以执行本发明实施例提供的神经网络处理方法。
再一方面,本发明实施例提供一种计算机可读存储介质,计算机存储介质上存储有计算机程序指令;计算机程序指令被处理器执行时实现本发明实施例提供的神经网络处理方法。
本发明实施例的神经网络处理方法、装置、设备及计算机可读存储介质,从优化问题的角度对神经网络的连接权重的求解问题进行建模,可以对神经网络的连接权重的求解问题进行有效求解,能够提高神经网络的训练速度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例提供的神经网络处理方法的流程示意图;
图2示出了本发明实施例提供的神经网络处理装置的结构示意图;
图3示出了能够实现根据本发明实施例的神经网络处理方法和装置的计算设备的示例性硬件架构的结构图。
具体实施方式
下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本发明,并不被配置为限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
由于现有的神经网络主要利用heuristic algorithm进行训练,但是利用heuristic algorithm对神经网络进行训练,速度较慢。基于此,本发明实施例提供基于约束优化问题求解思想的神经网络处理方法、装置、设备及计算机可读存储介质,来对神经网络进行训练,以提高神经网络的训练速度。
下面首先对本发明实施例提供的神经网络处理方法进行详细说明。
如图1所示,图1示出了本发明实施例提供的神经网络处理方法的流程示意图。其可以包括:
S101:构建针对神经网络的带有约束条件的训练函数。
S102:基于训练函数,进行约束优化求解,得到神经网络的连接权重。
其中,连接权重是用来衡量神经网络中的上一层神经元和下一层神经元之间连接强弱关系的数值。
示例性的,本发明实施例的神经网络表示为:f(W),其中,W={W1,W2,...,Wd},Wi是神经网络的第i个连接权重。
在本发明的一个实施例中,假设神经网络为三元神经网络,其连接权重初始值分别为-1、0和1。那么针对该三元神经网络构建的带有约束条件的训练函数可以如下表示:
s.t.W∈C={-1,0,+1}d
其中,s.t.W∈C={-1,0,+1}d表示连接权重W的取值被约束在连接权重空间C中,其中,连接权重空间C包含-1、0和+1,也即连接权重W只能取值为-1、0或者+1。
需要说明的是,上述神经网络为离散神经网络,当然本发明实施例不限于针对离散神经网络的处理,即本发明实施例也可以针对非离散神经网络的处理。
可以理解的是,离散神经网络对应的约束条件可以用等式进行表示,非离散神经网络对应的约束条件可以用不等式进行表示。
当基于训练函数,进行约束优化求解,得到神经网络的连接权重时,约束优化求解所采用的求解算法可以为以下算法中的任意一种:
罚函数法、乘子法、投影梯度法、简约梯度法或约束变尺度法。
在本发明的一个实施例中,由于不同的约束最优化问题的求解算法的使用场景不同,即有的求解算法仅适用于求解不等式约束问题,有的求解算法仅适用于求解等式约束问题,有的求解算法即适用于求解不等于约束问题又适用于求解等式约束问题。基于此,本发明实施例在基于训练函数,进行约束优化求解,得到神经网络的连接权重之前,可以根据约束条件确定使用何种求解算法,即确定约束优化求解所采用的求解算法。
在本发明的一个实施例中,基于训练函数,进行约束优化求解,得到神经网络的连接权重,可以包括:基于指示函数和一致性约束,对训练函数进行等价变换;利用交替方向乘子法(Alternating Direction Method of Multipliers,ADMM),对等价变换后的训练函数进行分解;针对分解后得到的每一个子问题,求解神经网络的连接权重。
在本发明的一个实施例中,基于指示函数和一致性约束,对训练函数进行等价变换,可以包括:对训练函数进行解耦合。
在本发明的一个实施例中,针对分解后得到的每一个子问题,求解神经网络的连接权重,可以包括:对分解后得到的子问题进行迭代计算,以获得神经网络的连接权重。
本发明实施例的指示函数表示如下:
指示函数IC(X)是定义在集合X上的函数,表示其中有哪些元素属于子集C。
本发明实施例在此引入新的变量G,设置一致性约束W=G,结合以上的指示函数IC(X),本发明实施例的上述训练函数等价变换为:
minW,Gf(W)+IC(G) (2)
s.t.W=G (3)
其对应的增广拉格朗日乘子表示为:
其中,λ为拉格朗日乘数,ρ为正则项系数。
对于公式(2)和公式(3),指示函数作用在G上,原始的连接权重W此时不具有约束。通过指示函数IC(X)和一致性约束W=G,将连接权重和约束条件解耦合,即对训练函数进行解耦合。
基于ADMM,上述等价变换后的训练函数被分解为如下三个子问题:
Wk+1:=argminWLρ(W,Gk,λk) (5)
Gk+1:=argminGLρ(Wk+1,G,λk) (6)
λk+1:=λk+ρ(Wk+1-Gk+1) (7)
其中,公式(5)、公式(6)和公式(7)中的k为迭代轮数。
在一个实施例的计算中,对公式(5)、公式(6)和公式(7)进行迭代求解。在一次迭代循环中,执行如下过程:
先针对公式(5)对连接权重W进行无约束求解,基于第k轮迭代中的G(即Gk)和λ(即λk),无约束求解第k+1轮中的W(即Wk+1);
随后,针对公式(6)对带约束条件的G进行求解,基于第k轮迭代中的λ(即λk)以及公式(5)求解得到的W(即Wk+1),带约束求解第k+1轮中的G(即Gk+1);
随后,针对公式(7)对λ进行更新,基于第k轮迭代中的λ(即λk)、公式(5)求解得到的W(即Wk+1)以及公式(6)求解得到的G(即Gk+1),求解并更新第k+1轮中的λ(即λk+1)。
最终求解得到的G即为连接权重。
需要说明的是,上述公式求解很容易,因此能够提高神经网络训练速度。
本发明实施例的神经网络处理方法,从优化问题的角度对神经网络的连接权重的求解问题进行建模,可以对神经网络的连接权重的求解问题进行有效求解,能够提高神经网络的训练速度。
目前,处理器在进行神经网络计算时,需要进行大量的乘法运算。针对一次乘法运算,处理器需要调用乘法器,将乘法运算的两个操作数耦合进乘法器中,乘法器输出结果。尤其当调用的乘法器为浮点乘法器时,浮点乘法器需要对两个操作数的阶码进行求和、对两个操作数的尾数进行乘法运算,然后对结果进行规格化和舍入处理才能得到最终结果。神经网络计算速度较慢。
为了提高神经网络的计算速度,本发明实施例还提供一种神经网络计算方法。
在本发明的一个实施例中,本发明实施例提供的神经网络处理方法求解得到的连接权重为2的幂次方。对于该神经网络的计算,本发明实施例提供的神经网络计算方法过程如下:处理器可以先获取到该神经网络计算规则,其中,该神经网络计算规则规定了操作数之间是乘法运算还是加法运算。对于神经网络计算规则中的乘法运算,将乘法运算对应的源操作数输入移位寄存器,依据乘法运算对应的连接权重进行移位操作,移位寄存器输出目标结果操作数,作为乘法运算的结果。
在本发明的一个实施例中,乘法运算对应的连接权重为2的N次方,N为大于零的整数。可以将乘法运算对应的源操作数输入移位寄存器,向左移位N次;还可以将乘法运算对应的源操作数输入左移位寄存器,移位N次。
在本发明的另一个实施例中,乘法运算对应的连接权重为2的负N次方,N为大于零的整数。可以将乘法运算对应的源操作数输入移位寄存器,向右移位N次;还可以将乘法运算对应的源操作数输入右移位寄存器,移位N次。
为了使源操作数能够准确移位,本发明实施例的源操作数的位数不大于移位寄存器可寄存的数值的位数。比如:移位寄存器可寄存的数值的位数为8,即该移位寄存器为8位移位寄存器,源操作数的位数不大于8。
本发明实施例上述的处理器可以是基于X86架构的处理器,也可以是基于高级精简指令集处理器(ARM)架构的处理器,还可以是基于无内部互锁流水级的微处理器(MIPS)架构的处理器,当然还可以是基于专用架构的处理器,比如:基于张量处理单元(TensorProcessing Unit,TPU)架构的处理器。
本发明实施例上述的处理器可以是通用型处理器,也可以是定制型处理器。其中,定制型处理器是指专用于神经网络计算且带有移位寄存器而不带有乘法运算器的处理器,即处理器是不包括乘法运算单元的处理器。
本发明实施例提供一种神经网络计算方法,将神经网络中的乘法运算替换为移位运算,通过移位运算来进行神经网络计算,以提高神经网络计算速度。
假设神经网络的连接权重分别为-4、-2、-1、0、1、2、4。则上述连接权重均可用4位有符号定点整数表示。相较于32位单精度浮点数形式的连接权重占用的存储空间,实现了8倍存储空间的压缩。相较于64位双精度浮点数形式的连接权重占用的存储空间,实现了16倍存储空间的压缩。由于本发明实施例提供的神经网络的连接权重占用存储空间较小,使得整个神经网络的模型也较小。该神经网络可以被下载到移动终端设备中,移动终端设备对神经网络进行计算。移动终端设备无需将数据上传到云端服务器中,在本地即可对数据进行实时处理,减少了数据处理延迟以及云端服务器的计算压力。
与上述的方法实施例相对应,本发明实施例还提供一种神经网络处理装置。如图2所示,图2示出了本发明实施例提供的神经网络处理装置的结构示意图。其可以包括:
构建模块201,用于构建针对神经网络的带有约束条件的训练函数;
求解模块202,用于基于训练函数,进行约束优化求解,得到神经网络的连接权重。
本发明实施例提供的神经网络处理装置可以用于离散神经网络的处理,也可以用于非离散神经网络的处理。因此,本发明实施例的求解模块202在进行约束优化求解时,所采用的求解算法可以为以下算法中的任意一种:
罚函数法、乘子法、投影梯度法、简约梯度法和约束变尺度法。
由于不同的约束最优化问题的求解算法的使用场景不同,即有的求解算法仅适用于求解不等式约束问题,有的求解算法仅适用于求解等式约束问题,有的求解算法即适用于求解不等于约束问题又适用于求解等式约束问题。基于此,本发明实施例提供的神经网络处理装置还可以包括:确定模块(图中未示出),用于依据训练函数的约束条件,确定约束优化求解所采用的求解算法。
在本发明的一个实施例中,求解模块202,包括:
变换单元,用于基于指示函数和一致性约束,对训练函数进行等价变换;
分解单元,用于利用交替方向乘子法ADMM,对等价变换后的训练函数进行分解;
求解单元,用于针对分解后得到的每一个子问题,求解神经网络的连接权重。
在本发明的一个实施例中,变换单元对训练函数进行等价变换,可以包括:对训练函数进行解耦合。
在本发明的一个实施例中,求解单元求解神经网络的连接权重,可以包括:对分解后得到的子问题进行迭代计算,以获得神经网络的连接权重。
本发明实施例的神经网络处理装置的各部分细节与以上图1描述的本发明实施例的神经网络处理方法类似,本发明实施例在此不再赘述。
图3示出了能够实现根据本发明实施例的神经网络处理方法和装置的计算设备的示例性硬件架构的结构图。如图3所示,计算设备300包括输入设备301、输入接口302、中央处理器303、存储器304、输出接口305、以及输出设备306。其中,输入接口302、中央处理器303、存储器304、以及输出接口305通过总线310相互连接,输入设备301和输出设备306分别通过输入接口302和输出接口305与总线310连接,进而与计算设备300的其他组件连接。
具体地,输入设备301接收来自外部的输入信息,并通过输入接口302将输入信息传送到中央处理器303;中央处理器303基于存储器304中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器304中,然后通过输出接口305将输出信息传送到输出设备306;输出设备306将输出信息输出到计算设备300的外部供用户使用。
也就是说,图3所示的计算设备也可以被实现为神经网络处理设备,该神经网络处理设备可以包括:存储有计算机可执行指令的存储器;以及处理器,该处理器在执行计算机可执行指令时可以实现结合图1和图2描述的神经网络处理方法和装置。这里,处理器可以与神经网络通信,从而基于来自神经网络的相关信息执行计算机可执行指令,从而实现结合图1和图2描述的神经网络处理方法和装置。
本发明实施例还提供一种计算机可读存储介质,该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现本发明实施例提供的神经网络处理方法。
需要明确的是,本发明并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本发明的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本发明的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本发明的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本发明中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本发明不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
以上所述,仅为本发明的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。

Claims (14)

1.一种神经网络处理方法,其特征在于,所述方法包括:
构建针对神经网络的带有约束条件的训练函数;
基于所述训练函数,进行约束优化求解,得到所述神经网络的连接权重。
2.根据权利要求1所述的方法,其特征在于,所述约束优化求解所采用的求解算法为以下算法中的任意一种:
罚函数法、乘子法、投影梯度法、简约梯度法或约束变尺度法。
3.根据权利要求1所述的方法,其特征在于,在所述基于所述训练函数,进行约束优化求解,得到所述神经网络的连接权重之前,所述方法还包括:
依据所述训练函数的约束条件,确定约束优化求解所采用的求解算法。
4.根据权利要求1所述的方法,其特征在于,所述基于所述训练函数,进行约束优化求解,得到所述神经网络的连接权重,包括:
基于指示函数和一致性约束,对所述训练函数进行等价变换;
利用交替方向乘子法ADMM,对等价变换后的训练函数进行分解;
针对分解后得到的每一个子问题,求解所述神经网络的连接权重。
5.根据权利要求4所述的方法,其特征在于,所述基于指示函数和一致性约束,对所述训练函数进行等价变换,包括:
对所述训练函数进行解耦合。
6.根据权利要求4所述的方法,其特征在于,所述针对分解后得到的每一个子问题,求解所述神经网络的连接权重,包括:
对分解后得到的子问题进行迭代计算,以获得所述神经网络的连接权重。
7.一种神经网络处理装置,其特征在于,所述装置包括:
构建模块,用于构建针对神经网络的带有约束条件的训练函数;
求解模块,用于基于所述训练函数,进行约束优化求解,得到所述神经网络的连接权重。
8.根据权利要求7所述的装置,其特征在于,所述约束优化求解所采用的求解算法为以下算法中的任意一种:
罚函数法、乘子法、投影梯度法、简约梯度法或约束变尺度法。
9.根据权利要求7所述的装置,其特征在于,所述装置还包括:
确定模块,用于依据所述训练函数的约束条件,确定约束优化求解所采用的求解算法。
10.根据权利要求7所述的装置,其特征在于,所述求解模块,包括:
变换单元,用于基于指示函数和一致性约束,对所述训练函数进行等价变换;
分解单元,用于利用交替方向乘子法ADMM,对等价变换后的训练函数进行分解;
求解单元,用于针对分解后得到的每一个子问题,求解所述神经网络的连接权重。
11.根据权利要求10所述的装置,其特征在于,所述变换单元对所述训练函数进行等价变换,包括:
对所述训练函数进行解耦合。
12.根据权利要求10所述的装置,其特征在于,所述求解单元求解所述神经网络的连接权重,包括:
对分解后得到的子问题进行迭代计算,以获得所述神经网络的连接权重。
13.一种神经网络处理设备,其特征在于,所述设备包括:存储器和处理器;
所述存储器用于存储可执行程序代码;
所述处理器用于读取所述存储器中存储的可执行程序代码以执行权利要求1至6任意一项所述的神经网络处理方法。
14.一种计算机可读存储介质,其特征在于,所述计算机存储介质上存储有计算机程序指令;所述计算机程序指令被处理器执行时实现如权利要求1至6任意一项所述的神经网络处理方法。
CN201710592048.XA 2017-07-19 2017-07-19 神经网络处理方法、装置、设备及计算机可读存储介质 Pending CN109284826A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201710592048.XA CN109284826A (zh) 2017-07-19 2017-07-19 神经网络处理方法、装置、设备及计算机可读存储介质
TW107120130A TW201909040A (zh) 2017-07-19 2018-06-12 神經網路處理方法、裝置、設備及電腦可讀儲存介質
PCT/US2018/042725 WO2019018548A1 (en) 2017-07-19 2018-07-18 NEURAL NETWORK PROCESSING METHOD, APPARATUS, DEVICE, AND COMPUTER-READABLE MEMORY MEDIUM
US16/039,056 US20190026602A1 (en) 2017-07-19 2018-07-18 Neural Network Processing Method, Apparatus, Device and Computer Readable Storage Media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710592048.XA CN109284826A (zh) 2017-07-19 2017-07-19 神经网络处理方法、装置、设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN109284826A true CN109284826A (zh) 2019-01-29

Family

ID=65015352

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710592048.XA Pending CN109284826A (zh) 2017-07-19 2017-07-19 神经网络处理方法、装置、设备及计算机可读存储介质

Country Status (4)

Country Link
US (1) US20190026602A1 (zh)
CN (1) CN109284826A (zh)
TW (1) TW201909040A (zh)
WO (1) WO2019018548A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853457A (zh) * 2019-10-31 2020-02-28 中国科学院自动化研究所南京人工智能芯片创新研究院 可互动的音乐教学指导方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10672136B2 (en) * 2018-08-31 2020-06-02 Snap Inc. Active image depth prediction
CN111476189B (zh) * 2020-04-14 2023-10-13 北京爱笔科技有限公司 一种身份识别方法和相关装置
CN118069962A (zh) * 2024-04-24 2024-05-24 卡奥斯工业智能研究院(青岛)有限公司 一种工艺参数优化方法、装置、设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1949313A4 (en) * 2005-11-15 2010-03-31 Bernadette Garner METHOD FOR TRAINING NEURAL NETWORKS
US20070288410A1 (en) * 2006-06-12 2007-12-13 Benjamin Tomkins System and method of using genetic programming and neural network technologies to enhance spectral data
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US8311973B1 (en) * 2011-09-24 2012-11-13 Zadeh Lotfi A Methods and systems for applications for Z-numbers
CN103164713B (zh) * 2011-12-12 2016-04-06 阿里巴巴集团控股有限公司 图像分类方法和装置
US10572807B2 (en) * 2013-04-26 2020-02-25 Disney Enterprises, Inc. Method and device for three-weight message-passing optimization scheme using splines
US20160113587A1 (en) * 2013-06-03 2016-04-28 The Regents Of The University Of California Artifact removal techniques with signal reconstruction
CN106033555A (zh) * 2015-03-13 2016-10-19 中国科学院声学研究所 基于满足k度稀疏约束的深度学习模型的大数据处理方法
CN106484681B (zh) * 2015-08-25 2019-07-09 阿里巴巴集团控股有限公司 一种生成候选译文的方法、装置及电子设备
CN106203618A (zh) * 2016-07-15 2016-12-07 中国科学院自动化研究所 一种构建带边界条件约束的神经网络的方法
US20180253401A1 (en) * 2017-03-02 2018-09-06 Sony Corporation Apparatus and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853457A (zh) * 2019-10-31 2020-02-28 中国科学院自动化研究所南京人工智能芯片创新研究院 可互动的音乐教学指导方法

Also Published As

Publication number Publication date
WO2019018548A1 (en) 2019-01-24
US20190026602A1 (en) 2019-01-24
TW201909040A (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
CN109284827A (zh) 神经网络计算方法、设备、处理器及计算机可读存储介质
CN109284826A (zh) 神经网络处理方法、装置、设备及计算机可读存储介质
CN110008952B (zh) 一种目标识别方法及设备
CN111695696A (zh) 一种基于联邦学习的模型训练的方法及装置
KR20140122672A (ko) 데이터 기반 함수 모델의 모델 계산 유닛, 제어 장치 및 계산 방법
US11620105B2 (en) Hybrid floating point representation for deep learning acceleration
Hale et al. Cloud-based optimization: A quasi-decentralized approach to multi-agent coordination
CN108509179B (zh) 用于检测人脸的方法、用于生成模型的装置
US11551087B2 (en) Information processor, information processing method, and storage medium
US20200134434A1 (en) Arithmetic processing device, learning program, and learning method
CN111598227A (zh) 数据处理方法、装置、电子设备及计算机可读存储介质
CN115552424A (zh) 用于训练包含量化参数的人工神经网络的方法
CN110377769A (zh) 基于图数据结构的建模平台系统、方法、服务器及介质
Wang et al. Coded alternating least squares for straggler mitigation in distributed recommendations
Di Lorenzo et al. Distributed stochastic nonconvex optimization and learning based on successive convex approximation
CN111027018B (zh) 加速计算设备建模的方法、装置、计算设备及介质
Honka Automatic Mixed Precision Quantization of Neural Networks using Iterative Correlation Coefficient Adaptation
RU148925U1 (ru) Вычислительный элемент бимодульной модулярной арифметики
US20240144029A1 (en) System for secure and efficient federated learning
US20240111525A1 (en) Multiplication hardware block with adaptive fidelity control system
US20240202501A1 (en) System and method for mathematical modeling of hardware quantization process
WO2021140643A1 (ja) ニューラルネットワークシステム、ニューラルネットワークの学習方法及びニューラルネットワークの学習プログラム
CN114037066B (zh) 数据处理方法、装置、电子设备及存储介质
Benala et al. Software effort estimation using functional link neural networks optimized by improved particle swarm optimization
CN111353576A (zh) 一种基于模糊神经网络的信息生成方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190129

RJ01 Rejection of invention patent application after publication