CN106951959A - 基于学习自动机的深度神经网络优化方法 - Google Patents

基于学习自动机的深度神经网络优化方法 Download PDF

Info

Publication number
CN106951959A
CN106951959A CN201710054653.1A CN201710054653A CN106951959A CN 106951959 A CN106951959 A CN 106951959A CN 201710054653 A CN201710054653 A CN 201710054653A CN 106951959 A CN106951959 A CN 106951959A
Authority
CN
China
Prior art keywords
state
network
weak link
neural network
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710054653.1A
Other languages
English (en)
Inventor
李生红
郭浩楠
马颖华
任栩蝶
汤璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201710054653.1A priority Critical patent/CN106951959A/zh
Publication of CN106951959A publication Critical patent/CN106951959A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种基于学习自动机的深度神经网络优化方法,在深度神经网络的训练阶段,从全连接的初始网络结构出发,在通过梯度下降迭代更新参数的过程中不断找到网络中的弱连接并将其去除,从而得到更为稀疏连接、具有更小的泛化误差的网络结构,以便用于对测试样本进行更高精度的图像分类,所述的弱连接,通过LA在训练过程中不断与神经网络交互而进行判定。本发明通过借鉴强化学习的思想,引入学习自动机算法改善传统的反向传播算法,去掉冗余连接以减少网络参数,从而提高在测试样本上的分类精度,使其具有更强的防止过拟合的能力。

Description

基于学习自动机的深度神经网络优化方法
技术领域
本发明涉及的是一种信息处理领域的技术,具体是一种基于学习自动机(Learning Automata,LA)的深度神经网络中去除弱连接的方法。
背景技术
神经网络是一种传统的机器学习算法,可以实现输入到输出的非线性映射,能应用于特征变换、分类、识别等任务中。由于其具有强大的模型表达能力,在模式识别、人工智能等领域得到了广泛应用。神经网络模型通常包含输入层、输出层和隐藏层,每层由特定个数的神经元组成,每个神经元可描述为y=f(W*x+b),其中:x代表输入向量;y代表输出值;权值向量W和偏置b为可训练的参数,其集合可用θ表示;f为非线性的激活函数(通常采用sigmoid函数或ReLU)。因此神经网络模型的每一层可描述为对输入进行加权求和,并通过非线性变换得到输出值。对于特定的训练样本,通常采用损失函数来衡量神经网络输出值与期望值之间的偏差,对模型的训练即求解θ,使得在训练样本上最小化损失函数。训练方法通常采用反向传播算法计算梯度,并采用梯度下降法迭代更新参数θ(权重和偏置值),直至得到最优的θ值。
与传统的神经网络相比,深层神经网络模型包含更多的隐藏层,每一层的输出直接作为下一层的输入。其每个隐藏层都对上一层的输出进行特征变换,得到更加抽象的特征,因此深层神经网络具有强大的特征表达能力。而且通过端对端的训练,深层神经网络可以实现完全自主学习特征,避免了人工设计特征的繁琐和盲目性。长期以来由于梯度弥散等理论问题以及硬件计算能力的限制,包含多个隐藏层的神经网络的训练一直是一个难以解决的问题。从2006年起,随着深度学习技术的兴起,深层神经网络的训练在理论上得到了一定程度的解决。计算机计算能力的提升特别是GPU加速的使用,以及更多的训练样本使得深层神经网络的训练成为可能,并且在计算机视觉、语音识别、自然语言处理等领域都取得了显著效果。
然而,由于深度神经网络中包含大量参数,一旦网络设置过大,很容易陷入过拟合,使得测试集上的效果反而会变差。而网络大小的设置往往依靠经验及大量实验进行尝试,具有一定的盲目性。目前已经有一些防止网络过拟合的方法,如:在损失函数中加入正则项,以惩罚较大的权重值;设置验证集以监测泛化误差,当其不再减小时即停止训练;在每次迭代时随机丢掉一部分神经元等。
发明内容
本发明针对深度神经网络冗余参数过多,容易陷入过拟合的问题,提出一种基于学习自动机的深度神经网络弱连接的去除方法,在传统的梯度下降迭代过程中引入LA寻找连接中的弱连接,去掉冗余连接以减少网络参数,降低网络计算量,提高在测试样本上的分类精度,使其具有更强的防止过拟合的能力。
本发明是通过以下技术方案实现的:
本发明涉及一种基于学习自动机的深度神经网络优化方法,在深度神经网络的训练阶段,从全连接的初始网络结构出发,在通过梯度下降迭代更新参数的过程中不断找到网络中的弱连接并将其去除,从而得到更为稀疏连接、具有更小的泛化误差的网络结构,以便用于对测试样本进行更高精度的图像分类。
所述的弱连接,通过LA在训练过程中不断与神经网络交互而进行判定,具体是指:对神经网络中的每一个连接,分别分配一个LA对当前连接的强弱进行判定,即:采用具有两个行为α1和α2的FSSA模型,其中:行为α1对应判定当前连接为强连接,α2对应判定当前连接为弱连接;每个行为对应N个内部状态,即LA共有2N个状态,记为L2N,N,其中:N代表记忆深度;该学习自动机的输出函数为:当时刻t处于状态q(t)=qi,1≤i≤N,则输出α1,即判定当前连接为强连接;当处于状态q(t)=qi,N+1≤i≤2N,则输出α2,即判定当前连接为弱连接。
所述的与神经网络交互是指:当当前连接权重大于阈值时,对当前LA进行奖励,否则,对LA进行惩罚:在没有任何先验知识的情况的初始时刻下,LA处于状态q1;经过一次迭代过程中,当LA得到奖励,则向判定为强连接的状态移动,即从当前状态qi转移到qi-1,当i=1则保持原状态;当LA得到惩罚,则向判定为弱连接的状态移动,即从当前状态qi转移到qi+1,当i=2N则保持原状态不变。
所述的去除是指标记或者删除弱连接的过程,该过程最为简单的处理方案是:在前向传播时把当前权重置零;并且在反向传播过程中把当前权重的梯度置零。
所述的LA可定义为一个五元组<A,B,Q,T,G>,其中:A为输出行为集合,也是LA需要最终从中找出最优行为的行为集;B为从环境输入的反馈的集合,通常包含奖励和惩罚两种;Q为LA内部状态的集合;T为状态转移方程,即LA根据环境反馈更新内部状态的策略;G为输出方程,描述从内部状态到输出行为的映射。
技术效果
与现有技术相比,本发明提出对神经网络中的连接进行判断,并去除弱连接的方法,并提出采用增强学习中的LA算法来完成弱连接的判断,其优势有以下几点:LA模型简洁直观,且不会耗费很大的额外计算量;LA采用迭代更新的优化过程,便于和梯度下降的迭代更新过程同步进行;由于训练过程中网络参数不断变化,处于非平稳环境中,而LA对非平稳及有噪声的环境具有很强的适应能力。
与现有技术相比,本发明可以实现对深度神经网络的结构进行优化,有效地削减冗余连接,并实现用更少的参数得到更低的分类误差,由于神经网络内连接数量的减少,使得图像分类中的计算量有所降低,提高了分类速度。
附图说明
图1为本发明方法示意图;
图2为本发明基于LA去除弱连接的神经网络训练流程图;
图3为实施例中应用本专利的图像分类系统图。
具体实施方式
如图1所示,本实施例在深度神经网络的训练阶段,从全连接的初始网络结构出发,在通过梯度下降迭代更新参数的过程中不断找到网络中的弱连接并将其去除,从而得到更为稀疏连接、具有更小的泛化误差的网络结构。
如图3所示,为基于上述方法得到的优化后的深度神经网络对测试样本进行图像分类的过程,具体为:首先对原始的输入图像(如灰度图或RGB图像)进行简单的标准化预处理:对各个维度减去均值并除以方差,然后输入经训练的分类模型,进行分类并得到更高精度的结果。
所述的分类模型包含深度神经网络和LA,其中:深度神经网络为全连接的多层前馈神经网络,LA负责对网络结构进行优化调整,即削减弱连接。
如图2所示,为分类模型的训练过程,具体通过以下实施例进行描述。
本实施例中采用MNIST手写数字数据集对基于专利所提出方法的分类模型进行训练,数据集中包含0-9共十类手写体数字,图像大小为28×28的灰度图。整个数据集分为训练集和测试集两部分,我们用训练集中的60000个样本对深度神经网络和LA进行训练,然后测试其在测试集10000个样本上的分类误差。训练过程包含以下步骤:
步骤一:根据分类模型中采用的前馈神经网络层数及神经元数目初始化网络参数θ(包括权重W和偏置值b),对每个连接的权重设置一个LA并初始化其状态为q1
在本实施例中,分别构建了隐藏层数为2、3、4、5的前馈神经网络,每个隐藏层均为1000个神经元,对权重和偏置采用高斯初始化。
步骤二:从训练集中随机抽取一个批次的样本,并采用反向传播方法计算损失函数对网络参数θ的梯度。
为了增加网络的稀疏性,增大弱连接的比例以加快训练速度,可在损失函数中加入L1或L2正则项。此时损失函数中:代表预测误差,λ1、λ2分别为L1和L2正则项的比重。
本实施例中使用ReLU激活函数,并采用了L2正则项,获得最优训练效果的参数设置:λ2=0.00001。
步骤三:根据得到的梯度值,利用梯度下降法对权重和偏置进行更新:θ(t+1)=θ(t)+αM(t),其中:M(t)为动量项,为时刻t的梯度值,α为学习速率。
由于学习速率的设置对最终训练效果有较大影响,本实施例中采用了初始学习速率为1,并随迭代次数逐渐衰减的学习策略。动量项的参数γ设为0.9。
步骤四:根据当前神经网络的权重值分别对每个LA进行一次奖励或惩罚,神经网络与LA的交互方式如图2所示,其规则为:若当前权重值大于某个阈值,则对当前LA进行奖励;若当前权重值小于某个阈值,则对LA进行惩罚。LA得到神经网络的反馈后更新自身的内部状态,更新规则为:
当LA得到奖励,则向判定为强连接的状态移动,即从当前状态qi转移到qi-1,若i=1则保持原状态不变;当LA得到惩罚,则向判定为弱连接的状态移动,即从当前状态qi转移到qi+1,若i=2N则保持原状态不变。
步骤五:每隔一段周期(本实施例中周期为每四次迭代),根据LA的当前状态对网络中每个连接的强弱进行判定,并去除判定为弱连接的连接权重。即在后续迭代过程中在前向传播时权重置零;并且在反向传播过程中把权重的梯度置零。
以上步骤二到五不断进行迭代直到损失函数不再达到更优的值为止。
对于上述方法,权重阈值的设定将影响到LA进行第一次判定时弱连接的比例。去掉过多的弱连接可以使网络更稀疏,但同时也会损失一部分网络中已经学习到的特征,影响训练效果。根据不同层数的网络中对权重的初始化值对权重阈值进行调整,使得第一次判定时弱连接比例保持在10%左右。同时,本实施例采用了L2正则化以加速每次判定时弱连接的比例。
在MNIST手写数字数据集上对所提出的方法的效果进行了测试。在60000个样本上对网络进行训练,并使用另外10000个样本测试其泛化误差。对包含不同层数的深层前馈神经网络进行了实验。实验中采用每个隐藏层都设置为1000个神经元。
结果表明对于包含隐藏层数分别为2、3、4、5的深层神经网络,采用传统的反向传播方法加上L1、L2正则项在训练集上进行训练,它们在测试集上所能达到的分类误差分别为1.44、1.43、1.61、1.79,而采用基于LA的方法在测试集上可达到的分类误差为1.39、1.38、1.49、1.47。达到最优测试误差时所用的连接数(即去掉弱连接后剩余的连接数)分别为全连接时的43%、62%、60%、44%。
实验结果可以看出本发明所提出的方法去掉了冗余连接,最终的模型所需的参数更少,并且在测试集上达到了更低的分类误差。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。

Claims (4)

1.一种基于学习自动机的深度神经网络优化方法,其特征在于,在深度神经网络的训练阶段,从全连接的初始网络结构出发,在通过梯度下降迭代更新参数的过程中不断找到网络中的弱连接并将其去除,从而得到更为稀疏连接、具有更小的泛化误差的网络结构,以便用于对测试样本进行更高精度的图像分类,所述的弱连接,通过LA在训练过程中不断与神经网络交互而进行判定。
2.根据权利要求1所述的方法,其特征是,所述的弱连接,其判定具体为:通过对神经网络中的每一个连接,分别分配一个LA对当前连接的强弱进行判定,即:采用具有两个行为α1和α2的FSSA模型,其中:行为α1对应判定当前连接为强连接,α2对应判定当前连接为弱连接;每个行为对应N个内部状态,即LA共有2N个状态,记为L2N,N,其中:N代表记忆深度;该学习自动机的输出函数为:当时刻t处于状态q(t)=qi,1≤i≤N,则输出α1,即判定当前连接为强连接;当处于状态q(t)=qi,N+1≤i≤2N,则输出α2,即判定当前连接为弱连接。
3.根据权利要求1所述的方法,其特征是,所述的与神经网络交互是指:当当前连接权重大于阈值时,对当前LA进行奖励,否则,对LA进行惩罚:在没有任何先验知识的情况的初始时刻下,LA处于状态q1;经过一次迭代过程中,当LA得到奖励,则向判定为强连接的状态移动,即从当前状态qi转移到qi-1,当i=1则保持原状态;当LA得到惩罚,则向判定为弱连接的状态移动,即从当前状态qi转移到qi+1,当i=2N则保持原状态不变。
4.根据权利要求1所述的方法,其特征是,所述的去除是指:在前向传播时把当前权重置零;并且在反向传播过程中把当前权重的梯度置零。
CN201710054653.1A 2017-01-24 2017-01-24 基于学习自动机的深度神经网络优化方法 Pending CN106951959A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710054653.1A CN106951959A (zh) 2017-01-24 2017-01-24 基于学习自动机的深度神经网络优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710054653.1A CN106951959A (zh) 2017-01-24 2017-01-24 基于学习自动机的深度神经网络优化方法

Publications (1)

Publication Number Publication Date
CN106951959A true CN106951959A (zh) 2017-07-14

Family

ID=59465478

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710054653.1A Pending CN106951959A (zh) 2017-01-24 2017-01-24 基于学习自动机的深度神经网络优化方法

Country Status (1)

Country Link
CN (1) CN106951959A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107909142A (zh) * 2017-11-14 2018-04-13 深圳先进技术研究院 一种神经网络的参数优化方法、系统及电子设备
CN108051999A (zh) * 2017-10-31 2018-05-18 中国科学技术大学 基于深度强化学习的加速器束流轨道控制方法及系统
CN108877942A (zh) * 2018-06-11 2018-11-23 天津科技大学 一种基于人工智能的安全助理系统
CN108900594A (zh) * 2018-06-21 2018-11-27 中国联合网络通信集团有限公司 移动视频的优化方法、装置及系统
CN109033964A (zh) * 2018-06-22 2018-12-18 顺丰科技有限公司 一种判断车辆到离港事件的方法、系统及设备
CN109754078A (zh) * 2017-11-03 2019-05-14 三星电子株式会社 用于优化神经网络的方法
CN111105029A (zh) * 2018-10-29 2020-05-05 北京地平线机器人技术研发有限公司 神经网络的生成方法、生成装置和电子设备
CN111461229A (zh) * 2020-04-01 2020-07-28 北京工业大学 一种基于目标传递和线搜索的深层神经网络优化及图像分类方法
CN112598082A (zh) * 2021-01-07 2021-04-02 华中科技大学 基于非校验集预测图像识别模型泛化误差的方法及系统

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108051999A (zh) * 2017-10-31 2018-05-18 中国科学技术大学 基于深度强化学习的加速器束流轨道控制方法及系统
CN109754078A (zh) * 2017-11-03 2019-05-14 三星电子株式会社 用于优化神经网络的方法
CN109754078B (zh) * 2017-11-03 2024-05-28 三星电子株式会社 用于优化神经网络的方法
CN107909142A (zh) * 2017-11-14 2018-04-13 深圳先进技术研究院 一种神经网络的参数优化方法、系统及电子设备
CN108877942A (zh) * 2018-06-11 2018-11-23 天津科技大学 一种基于人工智能的安全助理系统
CN108900594A (zh) * 2018-06-21 2018-11-27 中国联合网络通信集团有限公司 移动视频的优化方法、装置及系统
CN108900594B (zh) * 2018-06-21 2021-03-19 中国联合网络通信集团有限公司 移动视频的优化方法、装置及系统
CN109033964B (zh) * 2018-06-22 2022-03-15 顺丰科技有限公司 一种判断车辆到离港事件的方法、系统及设备
CN109033964A (zh) * 2018-06-22 2018-12-18 顺丰科技有限公司 一种判断车辆到离港事件的方法、系统及设备
CN111105029A (zh) * 2018-10-29 2020-05-05 北京地平线机器人技术研发有限公司 神经网络的生成方法、生成装置和电子设备
CN111105029B (zh) * 2018-10-29 2024-04-16 北京地平线机器人技术研发有限公司 神经网络的生成方法、生成装置和电子设备
CN111461229B (zh) * 2020-04-01 2023-10-31 北京工业大学 一种基于目标传递和线搜索的深层神经网络优化及图像分类方法
CN111461229A (zh) * 2020-04-01 2020-07-28 北京工业大学 一种基于目标传递和线搜索的深层神经网络优化及图像分类方法
CN112598082A (zh) * 2021-01-07 2021-04-02 华中科技大学 基于非校验集预测图像识别模型泛化误差的方法及系统
CN112598082B (zh) * 2021-01-07 2022-07-12 华中科技大学 基于非校验集预测图像识别模型泛化误差的方法及系统

Similar Documents

Publication Publication Date Title
CN106951959A (zh) 基于学习自动机的深度神经网络优化方法
CN110020682B (zh) 一种基于小样本学习的注意力机制关系对比网络模型方法
CN109829541A (zh) 基于学习自动机的深度神经网络增量式训练方法及系统
CN113449864B (zh) 用于图像数据分类的反馈型脉冲神经网络模型训练方法
CN109255364A (zh) 一种基于深度卷积生成对抗网络的场景识别方法
CN109902745A (zh) 一种基于cnn的低精度训练与8位整型量化推理方法
CN108898213B (zh) 一种面向深度神经网络的自适应激活函数参数调节方法
CN107016406A (zh) 基于生成式对抗网络的病虫害图像生成方法
CN109948029A (zh) 基于神经网络自适应的深度哈希图像搜索方法
CN107609638A (zh) 一种基于线性解码器和插值采样优化卷积神经网络的方法
Bai et al. Prediction of SARS epidemic by BP neural networks with online prediction strategy
CN111858989A (zh) 一种基于注意力机制的脉冲卷积神经网络的图像分类方法
CN108985342A (zh) 一种基于深度增强学习的不平衡分类方法
CN108171318A (zh) 一种基于模拟退火—高斯函数的卷积神经网络集成方法
CN107563430A (zh) 一种基于稀疏自动编码器和灰度关联分析法的卷积神经网络算法优化方法
CN111931813A (zh) 一种基于cnn的宽度学习分类方法
Guo et al. Algorithm research on improving activation function of convolutional neural networks
CN111079837A (zh) 一种用于二维灰度图像检测识别分类的方法
Manzari et al. A robust network for embedded traffic sign recognition
CN115346096A (zh) 一种基于忆阻器所构建的脉冲神经网络模型
KR100850914B1 (ko) 게임 캐릭터 제어방법
CN118114734A (zh) 基于稀疏正则化理论的卷积神经网络优化方法及系统
Chen et al. Domain adaptation from public dataset to robotic perception based on deep neural network
TWI793516B (zh) 神經網路之自適應調節批量大小的訓練方法
WO2019243910A1 (en) Segmenting irregular shapes in images using deep region growing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170714