CN106909968A - 一种基于知识的级联相关构造性神经网络方法 - Google Patents

一种基于知识的级联相关构造性神经网络方法 Download PDF

Info

Publication number
CN106909968A
CN106909968A CN201710131208.0A CN201710131208A CN106909968A CN 106909968 A CN106909968 A CN 106909968A CN 201710131208 A CN201710131208 A CN 201710131208A CN 106909968 A CN106909968 A CN 106909968A
Authority
CN
China
Prior art keywords
network
output
objective
candidate
weights
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710131208.0A
Other languages
English (en)
Inventor
丁世飞
孟令恒
徐晓
赵星宇
张健
张楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN201710131208.0A priority Critical patent/CN106909968A/zh
Publication of CN106909968A publication Critical patent/CN106909968A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明一种基于知识的级联相关构造性神经网络方法,涉及人工神经网络、机器学习和人工智能领域。特别涉及通过相关性将已经学习到的知识级联到神经网络中,并在此基础上构造性地改造神经网络,从而达到快速灵活地构造神经网络的目的。该算法,在一个前向传播神经网络中根据训练数据来调整网络结构和权值。该算法主要包括两个阶段:输入阶段和输出阶段。在输出阶段,所有进入输出节点的权值,通过训练算法进行优化使得目标网络的输出误差不断减小。在输入阶段,一个新的隐层节点或者知识网络会被添加到目标网络中。最终被选择加入到目标网络中的候选网络是能最好地关联目标网络输出错误的候选网络。

Description

一种基于知识的级联相关构造性神经网络方法
技术领域
本发明一种基于知识的级联相关构造性神经网络方法,涉及人工神经网络、机器学习和人工智能领域。特别涉及通过相关性将已经学习到的知识级联到神经网络中,并在此基础上构造性地改造神经网络,从而达到快速灵活地构造神经网络的目的。
背景技术
目前,国内外应用较多的神经网络都必须在训练学习之前决定网络结构。这种预设的网络结构在实际应用中可能不适用于给定学习任务,比如:网络结构太过简单导致神经网络没有足够的学习能力;或者网络结构太过复杂,虽然能够满足学习任务的需要,但是复杂的结构带来了昂贵的训练代价以及过拟合等问题。针对这些问题,工业界常用的解决办法是不断尝试不同的网络结构,从而最终选择一个合适的网络结构。这种方式带来了极大的人力浪费,而且灵活性和可扩展性非常低。
发明内容
为了解决上述问题,本发明一种基于知识的级联相关构造性神经网络方法,提出基于知识,也就是基于已经学习到的神经网络来动态的改变网络结构的构造性神经网络训练方法。本发明提出的算法利用已有知识与学习目标的相关性来决定网络的级联方式,从而实现构造性地改造神经网络的结构,进而使网络能够更好地适应给定学习任务。
本发明是通过以下方案实现的:
本发明一种基于知识的级联相关构造性神经网络方法,在一个前向传播神经网络中根据训练数据来调整网络结构和权值。该算法主要包括两个阶段:输入阶段和输出阶段。在输出阶段,所有进入输出节点的权值,通过训练算法进行优化使得目标网络的输出误差不断减小。目标网络的训练过程从输出阶段开始,并最终以输出阶段结束。在输入阶段,一个新的隐层节点或者知识网络会被添加到目标网络中。一个新的隐层节点或者一个知识网络叫做一个候选网络,所有的候选网络组成了候选网络池。现有目标网络中除输出节点以外的所有节点作为输入进入候选网络,这些输入到候选网络的输入权值,通过训练来最大化候选网络的输出与目标网络输出错误之间的相关性。在此训练过程中,目标网络的其他权值保持不变。最终被选择加入到目标网络中的候选网络是能最好地关联目标网络输出错误的候选网络。目标网络最初只有输入节点和输出节点。在学习过程中,目标网络会根据是否引入了候选网络来决定是否在输出阶段和输入阶段之间来回跳转。
本发明具有以下优点及效果:
(1)可以更好地利用已学习到的知识增量式地训练目标网络。
(2)具有更快的学习速度。
(3)具有更好的适应性和灵活性。
附图说明
图1为本发明一种基于知识的级联相关构造性神经网络方法的训练过程示意图。
图2为使用本发明一种基于知识的级联相关构造性神经网络方法的网络结构变化示意图。
具体实施方式
本发明一种基于知识的级联相关构造性神经网络方法的实现由初始化阶段、输出阶段和输入阶段组成。其中,输出阶段和输入阶段会根据各自的判断标准来决定是否跳转到另一阶段进行学习。
下面结合图1对本发明一种基于知识的级联相关构造性神经网络方法的3个实施阶段进行具体介绍。
初始化阶段:
步骤1,开始训练之前,初始化网络连接权值。
输出阶段:
步骤1,使用反向传播算法或者快速传播算法等优化算法训练输出权值。在此步骤中,需要优化的函数F是在所有训练样本p和输出节点o上的误差平方和函数:
F=∑op(Vo,p-To,p)2
而优化过程中使用的函数F相对于权值的偏导数为:
步骤2,继续执行输出阶段,直到满足以下条件中的任意一条:
1)如果超过最大输出阶段迭代次数且没有找到合适的解,则跳转到输入阶段。默认情况下,最大输出阶段迭代次数MaxOutputEpoch=100。
2)如果误差F减小到某一值,并在随后的几个迭代中误差减小的程度没有达到输出阶段停滞标准,则跳转到输入阶段。而这个输出阶段停滞标准,由两个参数OutputChangeThreshold和OutputPatience决定。其中,OutputChangeThreshold=0.01为误差减小的比例,即连续两次误差计算中的前一次误差F1和后一次误差F2之差,除以前一次误差,所得比例必须大于OutputChangeThreshold:而OutputPatience为不满足上述不等式的最大迭代次数,通常取值OutputPatience=8。
3)如果对于多有样本,输出值Vo,p在目标值To,p的一定范围内,也就是|Vo,p-To,p|≤ScoreThreshold,那么宣布达到训练目标,训练结束。
输入阶段:
步骤1,将候选网络中的N个网络或者节点,单独连接到当前目标网络中,也就是当前目标网络中的所有输入节点和隐层节点都输入到候选网络中,从而形成N个候选目标网络,然后单独初始化这N个候选目标网络中新加入的候选网络的输入权值。
步骤2,使用反向传播算法或者快速传播算法等优化算法训练候选网络的输入权值。在此步骤中,需要优化的函数Gc是候选网络c在所有训练样本p和输出节点oc上的输出与候选目标网络误差Eo,p的相关系数:
Eo,p=(Vo,p-To,p)f′o,p
而优化过程中使用的相关系数Gc相对于候选网络输入权值的偏导数为:
步骤3,继续执行输入阶段,直到满足以下条件中的任意一条:
1)如果超过最大输入阶段迭代次数且没有找到合适的解,则跳转到输出阶段。默认情况下,最大输入阶段迭代次数MaxInputEpoch=100。当达到跳转输出阶段的标准的时候,将最佳候选网络的输出节点连接到目标网络的输出节点,并使用[0-1]随机初始化连接权值,且初始化权值符号为同时,丢弃掉所有其他候选网络。
2)如果有至少一个相关系数Gc达到最低相关性要求MinimalCorrelation=0.2,且相关系数的最大化在连续几次输出阶段迭代中达到输入阶段停滞标准,则跳转到输出阶段。相关系数通过步骤2中的Gc求得。输入阶段停滞标准,由两个参数InputChangeThreshold和InputPatience决定。其中,InputChangeThreshold=0.03为相关系数减小的最低比例,即连续两次相关系数计算中的后一次相关系数Gc,2和前一次相关系数Gc,1之差,除以前一次相关系数,所得比例必须大于InputChangeThreshold:而InputPatience为不满足上述不等式的最大迭代次数,通常取值InputPatience=8。当达到跳转输出阶段的标准的时候,将最佳候选网络的输出节点连接到目标网络的输出节点,并使用[0-1]随机初始化连接权值,且初始化权值符号为同时,丢弃掉所有其他候选网络。
按照上述算法训练神经网络的网络结构变化如图2所示。由图2可以看出,网络由输出阶段开始,然后在输入阶段和输出阶段之间不断跳转,从而使网络增长到适合给定训练数据的网络结构。最终,整个训练过程以输出阶段结束。

Claims (8)

1.本发明一种基于知识的级联相关构造性神经网络方法,在一个前向传播神经网络中根据训练数据来调整网络结构和权值。
2.该算法主要包括两个阶段:输入阶段和输出阶段。
3.在输出阶段,所有进入输出节点的权值,通过训练算法进行优化使得目标网络的输出误差不断减小。
4.目标网络的训练过程从输出阶段开始,并最终以输出阶段结束。
5.在输入阶段,一个新的隐层节点或者知识网络会被添加到目标网络中。
6.一个新的隐层节点或者一个知识网络叫做一个候选网络,所有的候选网络组成了候选网络池;现有目标网络中除输出节点以外的所有节点作为输入进入候选网络,这些输入到候选网络的输入权值,通过训练来最大化候选网络的输出与目标网络输出错误之间的相关性;在此训练过程中,目标网络的其他权值保持不变,最终被选择加入到目标网络中的候选网络是能最好地关联目标网络输出错误的候选网络。
7.目标网络最初只有输入节点和输出节点。
8.在学习过程中,目标网络会根据是否引入了候选网络来决定是否在输出阶段和输入阶段之间来回跳转。
CN201710131208.0A 2017-03-07 2017-03-07 一种基于知识的级联相关构造性神经网络方法 Pending CN106909968A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710131208.0A CN106909968A (zh) 2017-03-07 2017-03-07 一种基于知识的级联相关构造性神经网络方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710131208.0A CN106909968A (zh) 2017-03-07 2017-03-07 一种基于知识的级联相关构造性神经网络方法

Publications (1)

Publication Number Publication Date
CN106909968A true CN106909968A (zh) 2017-06-30

Family

ID=59186206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710131208.0A Pending CN106909968A (zh) 2017-03-07 2017-03-07 一种基于知识的级联相关构造性神经网络方法

Country Status (1)

Country Link
CN (1) CN106909968A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115482227A (zh) * 2022-09-26 2022-12-16 中机生产力促进中心有限公司 机器视觉自适应成像环境调整方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115482227A (zh) * 2022-09-26 2022-12-16 中机生产力促进中心有限公司 机器视觉自适应成像环境调整方法
CN115482227B (zh) * 2022-09-26 2023-09-12 中机生产力促进中心有限公司 机器视觉自适应成像环境调整方法

Similar Documents

Publication Publication Date Title
Xiao et al. Artificial bee colony algorithm based on adaptive neighborhood search and Gaussian perturbation
Cuccu et al. When novelty is not enough
García et al. No strategy can win in the repeated prisoner's dilemma: linking game theory and computer simulations
Adhikari et al. Hybrid no-propagation learning for multilayer neural networks
US20090276385A1 (en) Artificial-Neural-Networks Training Artificial-Neural-Networks
Matsuzaki Developing a 2048 player with backward temporal coherence learning and restart
Soltanian et al. Artificial neural networks generation using grammatical evolution
CN108777584A (zh) 一种极化码译码参数的快速优化方法
Lüders et al. Continual learning through evolvable neural turing machines
CN115730743A (zh) 一种基于深度神经网络的战场作战趋势预测方法
CN106909968A (zh) 一种基于知识的级联相关构造性神经网络方法
Burse et al. Improved back propagation algorithm to avoid local minima in multiplicative neuron model
Bai et al. The performance of the backpropagation algorithm with varying slope of the activation function
Sutton Introduction to reinforcement learning with function approximation
KR100850914B1 (ko) 게임 캐릭터 제어방법
Oftadeh et al. A new meta-heuristic optimization algorithm: Hunting Search
Wu et al. Computational optimization for S-type biological systems: Cockroach genetic algorithm
Kattan et al. Training of feed-forward neural networks for pattern-classification applications using music inspired algorithm
CN112755538B (zh) 一种基于多智能体的实时战略游戏对局方法
Wilson et al. Evolving Differentiable Gene Regulatory Networks
Matousek et al. GAHC: Improved GA with HC mutation
Zhao et al. An improved extreme learning machine with adaptive growth of hidden nodes based on particle swarm optimization
Watanabe et al. Enhancement of CNN-based 2048 Player with Monte-Carlo Tree Search
Ahadzadeh et al. Training neural networks using modified differential evolution algorithm for classification problems
CN113311705A (zh) 针对机器鱼的高阶迭代自学习控制方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170630

WD01 Invention patent application deemed withdrawn after publication