CN107273976A - 一种神经网络的优化方法、装置、计算机及存储介质 - Google Patents

一种神经网络的优化方法、装置、计算机及存储介质 Download PDF

Info

Publication number
CN107273976A
CN107273976A CN201710515464.XA CN201710515464A CN107273976A CN 107273976 A CN107273976 A CN 107273976A CN 201710515464 A CN201710515464 A CN 201710515464A CN 107273976 A CN107273976 A CN 107273976A
Authority
CN
China
Prior art keywords
random
neutral net
sequence
weights
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710515464.XA
Other languages
English (en)
Inventor
李文海
李良
江荣钿
章飞
庄旭强
陈彦明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Ropente Technology Development Co Ltd
Original Assignee
Guangzhou Ropente Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Ropente Technology Development Co Ltd filed Critical Guangzhou Ropente Technology Development Co Ltd
Priority to CN201710515464.XA priority Critical patent/CN107273976A/zh
Publication of CN107273976A publication Critical patent/CN107273976A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例公开了一种神经网络的优化方法、装置、计算机及存储介质。其中方法包括:建立神经网络,获取所述神经网络的各神经元的初始随机权值;根据所述初始随机权值、预设随机增量范围确定预设数量的随机权值序列;根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络。本发明实施例解决了对神经网络进行随机初始化,导致随机性大的神经网络学习能力差,使得训练得到的神经网络预测精度低的问题,实现了对神经网络的优化,提高了神经网络初始化权值的准确度。

Description

一种神经网络的优化方法、装置、计算机及存储介质
技术领域
本发明实施例涉及神经网络技术,尤其涉及一种神经网络的优化方法、装置、计算机及存储介质。
背景技术
随着神经网络的不断发展,神经网络被认为是人工智能的热点技术,被广泛应用于各个技术领域。
神经网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型,能够通根据学习样本对神经网络的各神经元的权值进行不断的优化调整实现模型人脑的学习过程,神经网络的初始化是神经网络的学习能力的一个重要因素。
目前神经网络的权值初始化具有很大的随机性。随机设置的神经网络初始权值导致神经网络存在不能收敛或者收敛到局部最优的问题,影响神经网络的学习能力,使得神经网络的预测结果精度差。
发明内容
本发明实施例提供一种神经网络的优化方法、装置、计算机及存储介质,以实现优化神经网络的初始权值。
第一方面,本发明实施例提供了一种神经网络的优化方法,该方法包括:建立神经网络,获取所述神经网络的各神经元的初始随机权值;
根据所述初始随机权值、预设随机增量范围确定预设数量的随机权值序列;
根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络。
进一步的,根据所述初始随机权值、预设随机增量范围确定预设数量的随机权值序列,包括
根据所述初始随机权值生成所述初始权值序列;
根据所述预设随机增量范围生成预设数量的随机增量序列,所述随机增量序列与所述初始权值序列的维度相同;
将所述初始权值序列与所述随机增量序列中对应数值叠加,生成所述预设数量的随机权值序列。
进一步的,根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络,包括:
根据预设规则生成与所述初始权值序列和所述随机权值序列对应的初始化神经网络;
根据学习样本确定所述各初始化神经网络的优异度;
根据所述优异度确定所述优化神经网络。
进一步的,根据预设规则生成与所述初始权值序列和所述随机权值序列对应的初始化神经网络,包括:
将所述随机权值序列和所述初始权值序列,根据预设规则依次填充至所述神经网络的对应神经元,生成所述初始化神经网络,所述随机权值序列的维度、所述初始权值的维度以及所述神经网络的神经元数量相同。
进一步的,根据学习样本确定所述各初始化神经网络的优异度,包括:
将所述学习样本输入所述初始化神经网络,确定所述初始化神经网络的输出值;
根据所述输出值与所述学习样本的标准输出值确定所述神经网络的训练误差;
根据所述训练误差确定所述神经网络的优异度。
进一步的,根据所述优异度确定所述优化神经网络,包括:
筛选最大优异度对应的初始化神经网络,确定为所述优化神经网络。
进一步的,在根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络之后,还包括:
将所述优化神经网络对应的权值序列更新为初始权值序列;
根据更新后的初始权值序列循环确定新的优化神经网络。
进一步的,在将所述优化神经网络对应的权值序列更新为初始权值序列之前,还包括:
确定所述优化神经网络的训练误差小于等于期望误差;
若是,则停止循环确定新的优化神经网络,将当前优化神经网络确定为最终的优化神经网络。
进一步的,在将所述优化神经网络对应的权值序列更新为初始权值序列之前,还包括:
确定所述神经网络的当前迭代次数是否大于预设迭代次数,其中,在确实所述优化神经网络之后,将前一次的迭代次数加1,生成所述当前迭代次数;
若是,则停止循环确定新的优化神经网络,将当前优化神经网络确定为最终的优化神经网络。
第二方面,本发明实施例还提供了一种神经网络的优化装置,该装置包括:
神经网络建立模块,用于建立神经网络,获取所述神经网络的各神经元的初始随机权值;
随机权值序列确定模块,用于根据所述初始随机权值、预设随机增量范围确定预设数量的随机权值序列;
优化神经网络确定模块,用于根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络。
第三方面,本发明实施例还提供了一种计算机,该计算机包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明任意实施例提供的神经网络的优化方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例提供的神经网络的优化方法。
本发明实施例通过根据神经网络的初始随机权值生成预设数量的随机权值序列,在初始权值序列和随机权值序列中确实优化神经网络,解决了对神经网络进行随机初始化,导致随机性大的神经网络学习能力差,使得训练得到的神经网络预测精度低的问题,实现了对神经网络的优化,提高了神经网络初始化权值的准确度。
附图说明
图1是本发明实施例一提供的一种神经网络的优化方法的流程图;
图2是本发明实施例一提供的神经网络示意图;
图3是本发明实施例二提供的一种神经网络的优化方法的流程图;
图4是本发明实施例三提供的一种神经网络的优化方法的流程图;
图5是本发明实施例四提供的一种神经网络的优化装置的结构示意图;
图6是本发明实施例五提供的计算机的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种神经网络的优化方法的流程图,本实施例可适用于优化神经网络初始权值的情况,该方法可以由本发明实施例提供的神经网络优化装置来执行,该装置可采用软件和/或硬件的方式实现。该方法具体包括:
S110、建立神经网络,获取神经网络的各神经元的初始随机权值。
其中,神经网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型,采用多层多神经元之间的连接模拟人脑的的神经元的连接,通过神经网络内各神经元对样本数据的反馈对权值的调整模拟了人脑的对知识的学习过程,各层神经元之间的连接权值及偏置值包含了神经网络通过样本学习到的知识,能够对新的数据进行相应预测。
示例性的,参见图2,图2是本发明实施例一提供的神经网络示意图。图2中的神经网络包含三层多神经元,各层的神经元件相互连接,其中,W11、W12…W32分别表示各神经元的权值。
本实施例中,各神经元的初始随机权值指的是随机设置的各神经元的初始权值。
需要说明的是,神经网络的各神经元的偏置值一般固定设置,示例性的,各神经元的偏置值可以是-1。
S120、根据初始随机权值、预设随机增量范围确定预设数量的随机权值序列。
其中,预设随机增量范围指的是各神经元权值的可变化范围,预设随机增量范围根据神经网络的功能或者类型确定。
本实施例中,根据初始随机权值和预设随机增量范围可确定神经网络的多组随机权值,将各神经元的随机权值根据预设规则生成随机权值序列,便于对神经网络的权值的进一步优化处理。示例性的,随机权值序列可以是根据各神经网络的权值生成的随机权值向量。可选的,随机权值序列的数量根据神经元数量确定,随机权值序列的数量例如可以是神经网络中神经元数量的十倍。
可选的,步骤S120包括:
根据初始随机权值生成初始权值序列;
根据预设随机增量范围生成预设数量的随机增量序列,随机增量序列与初始权值序列的维度相同;
将初始权值序列与随机增量序列中对应数值叠加,生成预设数量的随机权值序列。
示例性的,参见图2,W11、W12…W32为神经网络中各神经元的初始随机权值,则初始权值序列A可以是:A=[W11,W12,W13,W14,W21,W22,W23,W24,W25,W26,W31,W32]。可知,初始权值序列的维度与神经网络中神经元数量相同,且初始权值序列中的各参数与神经网络中神经元权值一一对应。
预设随机增量范围为(B,C),其中B为随机增量范围的下边界,C为随机增量范围的上边界。本实施例中,根据预设随机增量范围生成与初始权值序列相同维度的随机增量序列,且随机增量序列的数值为初始权值序列中对应权值的增量。示例性的,随机权值序列为Bn,其中n为大于等于1的正整数,Bn=A+[Random(B,C)]。Random()为随机数发生器,示例性的,Random(B,C)可生成B与C之间的任意随机数。
S130、根据初始随机权值对应的初始权值序列和随机权值序列确实优化神经网络。
本实施例中,根据初始权值序列和随机权值序列中的权值生成对应初始化神经网络,在不同权值的初始化神经网络中选择权值最优的神经网络作为优化神经网络,并保证该优化神经网络的收敛性。对神经网络的初始随机权值进行了优化,避免了直接通过初始随机权值对神经网络进行初始化的情况,降低了神经网络初始化的随机性,提高了初始神经网络的学习能力。
本实施例的技术方案,通过根据神经网络的初始随机权值生成预设数量的随机权值序列,在初始权值序列和随机权值序列中确定优化神经网络,解决了对神经网络进行随机初始化,导致随机性大的神经网络学习能力差,使得训练得到的神经网络预测精度低的问题,实现了对神经网络的优化,提高了神经网络初始化权值的准确度。
实施例二
图3是本发明实施例二提供的一种神经网络的优化方法,在上述实施例一的基础上,进一步的提供了根据初始随机权值对应的初始权值序列和随机权值序列确实优化神经网络的方法。相应的,该方法包括:
S210、建立神经网络,获取神经网络的各神经元的初始随机权值。
S220、根据初始随机权值、预设随机增量范围确定预设数量的随机权值序列。
S230、根据预设规则生成与初始权值序列和随机权值序列对应的初始化神经网络。
其中,预设规则指的是权值序列与神经网络中各神经元的权值的对应关系,其中,权值序列包括初始权值序列和随机权值序列。根据上述对应关系将初始权值序列和随机权值序列中的权值填充至神经网络,生成对应的初始化神经网络。其中初始化神经网络指的是未根据训练样本进行训练,不具有预测能力的神经网络。
可选的,步骤S230包括:
将随机权值序列和初始权值序列,根据预设规则依次填充至神经网络的对应神经元,生成初始化神经网络,随机权值序列的维度、初始权值的维度以及神经网络的神经元数量相同。
示例性的,对神经网络中的各神经元设置编号,示例性的,参见图2,对神经网络中每层神经元从左到右编号依次增大,每层中的神经元由上到下编号依次增大,例如,第一层中第一个神经元的编号为W11,对应权值序列中的第一个权值。将权值序列中的数值依次填充至由小到大的神经元的编号对应的神经元,生成初始化神经网络。
S240、根据学习样本确定各初始化神经网络的优异度。
其中,神经网络的优异度用于表征神经网络的权值的合理性,优异度越高,表明神经网络的各神经元的权值设置的越合理,反之,表明神经网络的各神经元的权值设置的合理性较差。
可选的,步骤S240包括:
将学习样本输入初始化神经网络,确定初始化神经网络的输出值;
根据输出值与学习样本的标准输出值确定神经网络的训练误差;
根据训练误差确定神经网络的优异度。
本实施例中,标准输出值指的是学习样本的期望输出,根据学习样本确定。训练误差指的是以学习样本为输入信息,初始化神经网络的实际输出值与标准输出之间的差距,示例性的,训练误差可通过如下公式确定:
其中,Error为神经网络的训练误差,N为学习样本数,M为神经网络中输出层的节点数,dm为神经网络的输出节点的实际输出值,ym为神经网络的输出节点的标准输出值。
神经网络的优异度根据训练误差确定,示例性的,优异度可以是与训练误差成反比。例如,E=1/Error,或者E=1/(1+Error)。
S250、根据优异度确定优化神经网络。
可选的,根据优异度确定优化神经网络,包括:
筛选最大优异度对应的初始化神经网络,确定为优化神经网络。
分别计算多个初始化神经网络的优异度,并筛选最大优异度对应的初始化神经网络,将该初始化神经网络确定为优化神经网络。需要说明的是,优化神经网络可以是初始权值序列对应的神经网络,也可以是任一随机权值序列对应的神经网络。
本实施例中,以优异度为筛选条件,在多个初始化神经网络中选择权值最优的神经网络,并将筛选出的优化神经网络中的权值作为对神经网络的初始权值,避免了神经网络初始化随机设置导致的神经网络存在不收敛或者收敛到局部最优的情况,降低了随机初始化对神经网络学习能力的影响,提高了神经网络初始权值的准确度。
本实施例的技术方案,通过根据初始权值序列和多个随机权值序列确定多个初始化神经网络,并根据学习样本计算各初始化神经网络的优异度,筛选最优神经网络,解决了神经网络初始化随机性大的问题,提高了神经网络初始权值的准确度,提到了神经网络的学习能力,简化了神经网络的学习过程,提高了神经网络的预测能力。
实施例三
图4是本发明实施例三提供的一种神经网络的优化方法,在上述实施例的基础上,进一步的对神经网络的优化方法进行了优化。相应的,该方法包括:
S310、建立神经网络,获取神经网络的各神经元的初始随机权值。
S320、根据初始随机权值、预设随机增量范围确定预设数量的随机权值序列。
S330、根据初始随机权值对应的初始权值序列和随机权值序列确实优化神经网络。
S340、确定优化神经网络的训练误差小于等于期望误差,若否,则执行步骤S350,若否,则执行步骤S360。
S350、将优化神经网络对应的权值序列更新为初始权值序列,并返回执行步骤S320,循环确定新的优化神经网络。
本实施例中,若优化神经网络的训练误差大于期望误差,则表明神经网络的权值不满足初始化条件,需进一步对权值进行迭代优化。其中,迭代优化的过程为根据当前的优化神经网络的权值,确定新的初始随机权值,新的初始随机权值为基础随机生成预设数据的随机权值序列,确定新的初始化神经网络,在上述新的初始化神经网络中筛选优异度最大的优化神经网络。
本实施例中,通过循环迭代的形式,多次筛选优异度最大的初始化神经网络,不断的优化更新神经网络的初始权值,使得神经网络的权值逐渐逼近理想权值,提高神经网络初始权值的准确度。
S360、停止循环确定新的优化神经网络,将当前优化神经网络确定为最终的优化神经网络。
本实施例中,若优化神经网络的训练误差小于或等于期望误差,则表明神经网络的权值满足初始化条件,停止对神经网络的循环优化,将当前优化神经网络确定为最终的优化神经网络,避免了再次循环计算导致的资源浪费。
需要说明的是,本实施例中,通过S310-S360执行一种神经网络的优化方法,仅是一个优选实例,在其他实施例中,也可以是通过S310-S330以及S350执行一种神经网络的优化方法。
本实施例的技术方案,通过对神经网络进行循环迭代,以优化神经网络为基础,生成新的随机权值序列,并进一步筛选新的优化神经网络,逐渐提高神经网络权值的准确度和合理性,降低了神经网络权值的随机性,减少了随机初始化对神经网络的影响,提高了神经网络的学习能力和预测能力。
在上述实施例的基础上,在步骤S350之前,还包括:
确定神经网络的当前迭代次数是否大于预设迭代次数,其中,在确实优化神经网络之后,将前一次的迭代次数加1,生成当前迭代次数;
若是,则停止循环确定新的优化神经网络,将当前优化神经网络确定为最终的优化神经网络。
本实施例中,通过设置迭代次数,避免由于无法生成满足初始化条件的权值序列时,导致进行死循环的问题。其中,在对神经网络进行优化之前,设置迭代次数为0,在生成优化神经网络之后,将前一次的迭代次数加1,生成当前迭代次数。
其中,预设迭代次数根据神经网络的优化需求确定。例如,预设迭代次数可以是100,也可以是1000等。
本实施例中,若神经网络的当前迭代次数大于预设迭代次数,且优化神经网络的训练误差大于期望误差,则将当前的优化神经网络确定为最终的优化神经网络。
实施例四
图5是本发明实施例四提供的一种神经网络的优化装置,该装置具体包括:
神经网络建立模块410,用于建立神经网络,获取神经网络的各神经元的初始随机权值;
随机权值序列确定模块420,用于根据初始随机权值、预设随机增量范围确定预设数量的随机权值序列;
优化神经网络确定模块430,用于根据初始随机权值对应的初始权值序列和随机权值序列确实优化神经网络。
本发明实施例提供的神经网络的优化装置可执行本发明任意实施例所提供的神经网络的优化方法,具备执行神经网络的优化方法相应的功能模块和有益效果。
实施例五
图6为本发明实施例五提供的一种计算机设备的结构示意图。图6示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图6显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的神经网络的优化方法。
所述方法包括:
建立神经网络,获取所述神经网络的各神经元的初始随机权值;
根据所述初始随机权值、预设随机增量范围确定预设数量的随机权值序列;
根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络。
实施例六
本发明实施例六提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请所有发明实施例提供的神经网络的优化方法。所述方法包括:
建立神经网络,获取所述神经网络的各神经元的初始随机权值;
根据所述初始随机权值、预设随机增量范围确定预设数量的随机权值序列;
根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (12)

1.一种神经网络的优化方法,其特征在于,包括:
建立神经网络,获取所述神经网络的各神经元的初始随机权值;
根据所述初始随机权值、预设随机增量范围确定预设数量的随机权值序列;
根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络。
2.根据权利要求1所述的方法,其特征在于,根据所述初始随机权值、预设随机增量范围确定预设数量的随机权值序列,包括
根据所述初始随机权值生成所述初始权值序列;
根据所述预设随机增量范围生成预设数量的随机增量序列,所述随机增量序列与所述初始权值序列的维度相同;
将所述初始权值序列与所述随机增量序列中对应数值叠加,生成所述预设数量的随机权值序列。
3.根据权利要求1所述的方法,其特征在于,根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络,包括:
根据预设规则生成与所述初始权值序列和所述随机权值序列对应的初始化神经网络;
根据学习样本确定所述各初始化神经网络的优异度;
根据所述优异度确定所述优化神经网络。
4.根据权利要求3所述的方法,其特征在于,根据预设规则生成与所述初始权值序列和所述随机权值序列对应的初始化神经网络,包括:
将所述随机权值序列和所述初始权值序列,根据预设规则依次填充至所述神经网络的对应神经元,生成所述初始化神经网络,所述随机权值序列的维度、所述初始权值的维度以及所述神经网络的神经元数量相同。
5.根据权利要求3所述的方法,其特征在于,根据学习样本确定所述各初始化神经网络的优异度,包括:
将所述学习样本输入所述初始化神经网络,确定所述初始化神经网络的输出值;
根据所述输出值与所述学习样本的标准输出值确定所述神经网络的训练误差;
根据所述训练误差确定所述神经网络的优异度。
6.根据权利要求3所述的方法,其特征在于,根据所述优异度确定所述优化神经网络,包括:
筛选最大优异度对应的初始化神经网络,确定为所述优化神经网络。
7.根据权利要求1-6任一所述的方法,其特征在于,在根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络之后,还包括:
将所述优化神经网络对应的权值序列更新为初始权值序列;
根据更新后的初始权值序列循环确定新的优化神经网络。
8.根据权利要求7所述的方法,其特征在于,在将所述优化神经网络对应的权值序列更新为初始权值序列之前,还包括:
确定所述优化神经网络的训练误差小于等于期望误差;
若是,则停止循环确定新的优化神经网络,将当前优化神经网络确定为最终的优化神经网络。
9.根据权利要求7所述的方法,其特征在于,在将所述优化神经网络对应的权值序列更新为初始权值序列之前,还包括:
确定所述神经网络的当前迭代次数是否大于预设迭代次数,其中,在确实所述优化神经网络之后,将前一次的迭代次数加1,生成所述当前迭代次数;
若是,则停止循环确定新的优化神经网络,将当前优化神经网络确定为最终的优化神经网络。
10.一种神经网络的优化装置,其特征在于,包括:
神经网络建立模块,用于建立神经网络,获取所述神经网络的各神经元的初始随机权值;
随机权值序列确定模块,用于根据所述初始随机权值、预设随机增量范围确定预设数量的随机权值序列;
优化神经网络确定模块,用于根据所述初始随机权值对应的初始权值序列和所述随机权值序列确实优化神经网络。
11.一种计算机,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-9任一所述的神经网络的优化方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9任一所述的神经网络的优化方法。
CN201710515464.XA 2017-06-29 2017-06-29 一种神经网络的优化方法、装置、计算机及存储介质 Pending CN107273976A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710515464.XA CN107273976A (zh) 2017-06-29 2017-06-29 一种神经网络的优化方法、装置、计算机及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710515464.XA CN107273976A (zh) 2017-06-29 2017-06-29 一种神经网络的优化方法、装置、计算机及存储介质

Publications (1)

Publication Number Publication Date
CN107273976A true CN107273976A (zh) 2017-10-20

Family

ID=60070535

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710515464.XA Pending CN107273976A (zh) 2017-06-29 2017-06-29 一种神经网络的优化方法、装置、计算机及存储介质

Country Status (1)

Country Link
CN (1) CN107273976A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909142A (zh) * 2017-11-14 2018-04-13 深圳先进技术研究院 一种神经网络的参数优化方法、系统及电子设备
CN109117942A (zh) * 2018-07-23 2019-01-01 上海七牛信息技术有限公司 一种神经网络以及神经网络系统
CN109165738A (zh) * 2018-09-19 2019-01-08 北京市商汤科技开发有限公司 神经网络模型的优化方法及装置、电子设备和存储介质
CN111105029A (zh) * 2018-10-29 2020-05-05 北京地平线机器人技术研发有限公司 神经网络的生成方法、生成装置和电子设备

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909142A (zh) * 2017-11-14 2018-04-13 深圳先进技术研究院 一种神经网络的参数优化方法、系统及电子设备
CN109117942A (zh) * 2018-07-23 2019-01-01 上海七牛信息技术有限公司 一种神经网络以及神经网络系统
CN109165738A (zh) * 2018-09-19 2019-01-08 北京市商汤科技开发有限公司 神经网络模型的优化方法及装置、电子设备和存储介质
CN111105029A (zh) * 2018-10-29 2020-05-05 北京地平线机器人技术研发有限公司 神经网络的生成方法、生成装置和电子设备
CN111105029B (zh) * 2018-10-29 2024-04-16 北京地平线机器人技术研发有限公司 神经网络的生成方法、生成装置和电子设备

Similar Documents

Publication Publication Date Title
CN109947567B (zh) 一种多智能体强化学习调度方法、系统及电子设备
US11853893B2 (en) Execution of a genetic algorithm having variable epoch size with selective execution of a training algorithm
CN107273976A (zh) 一种神经网络的优化方法、装置、计算机及存储介质
Qasem et al. Memetic multiobjective particle swarm optimization-based radial basis function network for classification problems
WO2021175058A1 (zh) 一种神经网络架构搜索方法、装置、设备及介质
CN106203623A (zh) 用于扩展神经网络的方法和设备以及降维的方法
RU2586864C2 (ru) Способ и устройство для локального правила состязательного обучения, которое приводит к разреженной связности
CN105900116A (zh) 分层型神经网络装置、判别器学习方法以及判别方法
CN109690576A (zh) 在多个机器学习任务上训练机器学习模型
US11501153B2 (en) Methods and apparatus for training a neural network
CN105975342A (zh) 基于改进布谷鸟搜索算法的云计算任务调度方法及系统
EP3975056A1 (en) Neural network weight distribution using a tree direct-memory access (dma) bus
CN114511021A (zh) 基于改进乌鸦搜索算法的极限学习机分类算法
CN108595815A (zh) 人工智能体训练系统及无源电路优化设计系统及方法
CN109344969B (zh) 神经网络系统及其训练方法以及计算机可读介质
Qin et al. Harmony search algorithm and related variants: A systematic review
CN110009181A (zh) 配电网改造措施与失负荷量指标关联性挖掘方法及装置
CN109886560A (zh) 配电网改造措施与电压合格率指标关联性挖掘方法及装置
CN113469372A (zh) 强化学习训练方法、装置、电子设备以及存储介质
CN113609802A (zh) 基于强化学习的集成电路中的路由连接
CN115104103A (zh) 设计多智能体系统和模拟器的两层系统和方法
CN104915714A (zh) 一种基于回声状态网络的预测方法及装置
US11954580B2 (en) Spatial tiling of compute arrays with shared control
CN110362378A (zh) 一种任务调度方法及设备
CN116933948A (zh) 基于改进海鸥算法与反向传播神经网络的预测方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Nanxiang three road, Science City high tech Industrial Development Zone, Guangzhou city of Guangdong Province, No. 2 510660

Applicant after: Hitachi building technologies (Guangzhou) Co. Ltd.

Address before: Nanxiang three road, Science City high tech Industrial Development Zone, Guangzhou city of Guangdong Province, No. 2 510660

Applicant before: Guangzhou Ropente Science and Technology Development Co., Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171020