JP2001256212A - ニューラルネットワークの最適化学習方法 - Google Patents

ニューラルネットワークの最適化学習方法

Info

Publication number
JP2001256212A
JP2001256212A JP2000071011A JP2000071011A JP2001256212A JP 2001256212 A JP2001256212 A JP 2001256212A JP 2000071011 A JP2000071011 A JP 2000071011A JP 2000071011 A JP2000071011 A JP 2000071011A JP 2001256212 A JP2001256212 A JP 2001256212A
Authority
JP
Japan
Prior art keywords
neural network
intermediate layer
learning
elements
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000071011A
Other languages
English (en)
Other versions
JP4226754B2 (ja
Inventor
Tatsuya Iizaka
達也 飯坂
Tetsuo Matsui
哲郎 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2000071011A priority Critical patent/JP4226754B2/ja
Publication of JP2001256212A publication Critical patent/JP2001256212A/ja
Application granted granted Critical
Publication of JP4226754B2 publication Critical patent/JP4226754B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】いくつかの有望な学習アルゴリズムを融合し、
単体で適用した場合に生じる弱点を他の学習アルゴリズ
ムで補ったり、適用方法を工夫することで、高速かつ効
率的にニューラルネットワークを最適化するニューラル
ネットワークの最適化学習方法を提供する。 【解決手段】重畳エネルギー関数法によるニューラルネ
ットワークの学習を行い、このニューラルネットワーク
の中間層の分散が所定値以下の場合にこの中間層素子と
バイアス素子とを融合し、また、このニューラルネット
ワークの中間層の中の2個の素子の相関係数の絶対値が
所定値以上の場合にこれら2個の中間層素子を情報伝達
的に同じ働きであるとして融合するコンパクト構造化を
行い、学習とコンパクト構造化とを交互に行って中間層
の素子を削減しつつニューラルネットワークを最適化す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、予測、診断、制御
などの情報処理を行うようにニューラルネットワークを
最適化するためのニューラルネットワークの最適化学習
方法に関する。
【0002】
【従来の技術】ニューラルネットワークは、入出力のデ
ータパターンを与えるだけで入出力の非線形な相関関係
をモデル化・学習することが可能であり、予測、制御、
診断などの情報処理分野において研究・実用化されてい
る。図8は、多層ニューラルネットワークを説明する概
念図である。一般にニューラルネットワークとは、図8
に示すように入力層、中間層、出力層からなる多層ニュ
ーラルネットワーク構造を有しており、さらに、入力
層、中間層、出力層には素子が設けられ、入力層と中間
層との素子間、中間層と出力層との素子間に結合を持
つ。
【0003】ここで、中間層は、図8で示したような1
層のみに限ることなく複数層にわたることもあり、ま
た、素子数も図8で示したような3個に限定するもので
なく任意数の素子とすることができる。このように中間
層はブラックボックスであるため隠れ層とも呼ばれてい
る。なお、説明上、本明細書において入力層における素
子を入力層素子と、中間層における素子を中間層素子
と、また、出力層における素子を出力層素子と称して説
明する。また、一般的に、中間層素子と出力層素子とに
は、一定値(図8では1.0である)を出力するバイア
ス素子が結合されているが、必要時にのみバイアス素子
を図示して説明し、それ以外は図示を省略する。
【0004】結合係数は、ニューラルネットワークの素
子間の結合の重みを表すための係数である。結合係数が
大きければ、結合が重みを有している、つまり、必要な
結合であるとされ、結合係数が小さければ、結合が重み
を有していない、つまり、不要な結合であるとされる。
このようなニューラルネットワークの学習とは、複数の
入力層素子に入力された入力値に対し、所望の出力値が
得られるように入力層と中間層、また、中間層と出力層
との結合係数を変更することをいう。
【0005】ニューラルネットワークの学習では、中間
層素子数が多ければより複雑な問題を学習することが可
能になる。しかし、中間層素子が多すぎる場合には過学
習という問題が発生する。過学習がおきると汎化能力が
低下する。
【0006】例えば、ニューラルネットワークを用いる
パターン分類問題で馬の絵のパターンを入力値として馬
と判断したことに相当する値を出力させる場合におい
て、中間層素子が多すぎて過学習が起きると特定の馬の
絵のパターンからしか馬と判定できなくなり、それ以外
の馬の絵のパターンからは馬と判定できなくなる。この
ように過学習がおきると、学習目標値にノイズがある場
合、つまり、学習した馬の絵が良くない場合や、学習目
標値と相関の低い入力値が入力された場合、つまり、入
力された馬の絵が学習した馬の絵と異なる場合に馬と判
定できないというような汎化能力が低下した状態を招
く。中間層素子は適切な数とするのが望ましい。
【0007】このようなニューラルネットワークの学習
は、多数提案されている。過学習を考慮しない一般的な
学習方法として、従来例1:バックプロパゲーション法
(誤差逆伝搬法)がある。このバックプロパゲーション
法による学習アルゴリズムでは、ニューラルネットワー
クからの実際の出力値(以下、ニューロ出力値とい
う。)から学習させたい出力(以下、学習目標値とい
う。)を引いた値(以下、出力誤差という。)の2乗を
評価関数とし、この評価関数値が小さくなるように結合
係数を増減する。この評価関数は次式のようになる。
【0008】
【数3】
【0009】ここでニューロ出力値は、結合係数の増減
によって変化する値であり、評価関数は結合係数をパラ
メータとする関数である。学習は、目標値とニューロ出
力値とが近い結合係数となるように評価関数の微分によ
り算出される修正量を用いて結合係数の修正を繰り返し
行って学習するものである。
【0010】このバックプロパゲーション法では、ニュ
ーラルネットワークの階層数や素子数を事前に決定する
必要がある。しかしながら、事前に最適な階層数や素子
数に関する情報が得られることはなく、ニューラルネッ
トワークの最適化のためには階層数および素子数を試行
錯誤的に探索する必要がある。ニューラルネットワーク
の内部構造が複雑な場合は、探索に時間と手間がかか
る。また、バックプロパゲーション法により得られた学
習後のニューラルネットワークはブラックボックスとな
り、中間層素子の意味づけが困難なことが多い。
【0011】このように、バックプロパゲーション法
は、最適な学習・最適な構造を求めることが困難であ
り、この問題点を改良するために、多くの観点から各種
の学習アルゴリズムが提案されている。
【0012】例えば、従来法2:中間層の重要度順に学
習する重畳エネルギー関数法(高橋:「重畳エネルギー
関数による多層パーセプトロンの冗長性削減」、電子情
報通信学会論文誌、D−II、Vol.J80-D-II,No.9,p
p.2532-2540(1997))では、中間層素子の重要度順に学
習する学習アルゴリズムが提案されている。この学習ア
ルゴリズムにより学習されるニューラルネットワーク
は、中間層素子がその重要度順に並ぶ傾向があり、ま
た、不要な中間層素子の生成が抑制される。
【0013】図9は、重畳エネルギー関数法により学習
された中間層素子を説明する説明図である。図9で示す
ように、この学習アルゴリズムで学習したニューラルネ
ットワークは、重要度の高い中間層素子につながる結合
係数が大きく(図9の太線の矢印)、また、重要度の低
い中間層素子につながる結合係数は小さく(図9の細線
の矢印)なる傾向がある。また、その結果不要な分散表
現が抑制される。
【0014】不要な分散表現について概略説明する。分
散表現とは、1つでも良い結合が複数の結合に分割され
ること、つまり、その結果多くの結合が必要になること
を表す。図10は不要な分散表現について説明する説明
図であり、簡単化のため、単純なニューラルネットワー
クを仮定している。このニューラルネットワークの出力
層素子への入力値は共に計1.0であるが、図10
(a)では2つの中間層素子に分散して情報が伝達され
るのに対し、図10(b)では1つの中間層素子を経て
情報が伝達されている点が相違する。図10(a)のよ
うな場合を分散表現と呼んでいる。
【0015】重畳エネルギー関数は、このような不要な
分散表現を抑制する。続いて、この重畳エネルギー関数
について説明する。まず、重畳エネルギー関数で用いる
部分ニューロの概念について説明する。図11は、部分
ニューロを説明する説明図である。図11に示すように
H個の中間層素子を持つニューラルネットワークにおい
て、中間層素子1のみを残し、中間層素子2〜Hの中間
層素子を無視した構造を部分ニューロ1とし、中間層素
子1、2だけを残し中間層素子3〜Hまでの中間層を無
視した構造を部分ニューロ2とし、以下同様に中間層素
子1〜iだけを残し中間層素子i+1〜Hまでの中間層
を無視した構造を部分ニューロiとしたH個の部分ニュ
ーロi(i=1、2、3・・・H)を仮定する。これら
部分ニューロの評価関数は、次式のようになる。
【0016】
【数4】
【0017】ニューラルネットワーク全体の評価関数J
は部分ニューロの評価関数を足して次式になる。
【0018】
【数5】
【0019】このニューラルネットワーク全体の評価関
数Jを重畳エネルギー関数と呼んでいる。この重畳エネ
ルギー関数が最小となるとき、分散表現が抑制され、か
つ中間層素子の重要度順に並んだニューラルネットワー
クとなる。図12は、重畳エネルギー関数法による学習
の流れを示すフローチャートである。ニューラルネット
ワークの階層数や素子数を決定する初期化を行い(ステ
ップS100)、重畳エネルギー関数法による学習を行
い(ステップS110)、学習を所定回数行ったか否か
を判定して所定回数行ったならば学習終了と判断する
(ステップS120)。本学習アルゴリズムでは分散表
現の発生が抑えられ、より単純なニューラルネットワー
ク構造となる。
【0020】また、従来法3:コンパクト構造化法(増
田:「隠れユニットの合成による階層型ニューラルネッ
トワークのコンパクト構造化」、計測自動制御学会論文
集、Vol.28,No.4,pp.519-527(1992))では、不要の中間
層素子を他の中間層素子に融合させることで最適化を行
う学習アルゴリズムが提案されている。
【0021】本学習アルゴリズムにより不要の中間層素
子を他の中間層素子に融合する場合、2種類の融合があ
る。図13は、融合を説明する説明図であり、図13
(a)では、入力層に入力される学習パターンの変化に
対応して出力値が変化する場合に相関傾向を有する複数
の中間層素子を説明し、図13(b)では、入力層の入
力値が変化しても出力する値が変化せず一定値を出力す
るバイアス素子的な振る舞いをする中間層素子を説明す
る。
【0022】また、図14は、学習パターンに対する中
間層素子の出力を示す出力図であり、図14(a)は、
入力層に入力される学習パターンの変化に対応して出力
値が変化する場合に相関傾向を有する複数の中間層素子
の出力を、また、図14(b)では、入力層の入力値が
変化しても出力する値が変化しないバイアス素子的な振
る舞いをする中間層素子の出力をそれぞれ説明する。
【0023】図13(a)で示す2つの中間層素子から
は、図14(a)で示すように、同傾向の出力値が出力
され(相関の高い中間層素子出力)、また、図13
(b)のバイアス素子的な中間層素子からは、図14
(b)で示すように、学習パターンが変化するにも拘わ
らず一定値が出力される(バイアス素子的な振る舞いを
する中間層素子出力)。このような相関の高い中間層素
子出力およびバイアス素子的な振る舞いをする中間層素
子出力を検出する必要がある。なお、バイアス素子的な
振る舞いをする中間層素子とは、バイアス素子とは別個
に存在する素子であり、これらは区別される。
【0024】続いて、これら出力の検出方法について説
明する。上述のような中間層素子出力をする中間層素子
を検出するため、前記数式2で定義される相関係数γij
を導入する。この数式2により、2つの中間層素子から
の出力値系列の相関関係を定量的に扱うことができる。
図13(a)で示す2個の中間層素子の出力が、図14
(a)に示すように、2つの中間層素子からの出力値系
列が同傾向の場合には相関係数γijは1に近い値とな
り、また、出力値系列が逆傾向の場合には相関係数γij
は−1に近い値となる。なお、全く相関関係にない場合
は、0に近い値をとるため、相関係数γijにより相関関
係が明確に認識できる。この特徴から相関係数の絶対値
が1に近い程、相関が高い。
【0025】しかしながら、図13(b),図14
(b)で示すようなバイアス素子的な振る舞いをする中
間層素子について、相関係数γijでは判別ができない。
そこで、このようなバイアス素子的な振る舞いをする中
間層素子を判別するために前記数式1で定義される中間
層素子出力値の分散si 2を導入する。
【0026】図13(b)で示す1個の中間層素子の出
力が、図14(b)のような場合、分散si 2は0に近い
値となる。中間層素子の出力は、学習パターンの変化に
も拘わらず、ほぼ一定となっており、上の層の素子に対
してバイアス素子的な振る舞いをしている。以上、融合
する中間層素子の検出について、 相関の高い中間層素子については、中間層素子からの
出力値の相関係数が高い2つの中間層素子を融合の対象
とする。 バイアス素子的な振る舞いをする中間層素子について
は、中間層素子からの出力の分散値が0に近い中間層素
子をバイアス素子との融合の対象とする。
【0027】続いて、相関の高い中間層素子について
の融合手法について説明する。図15は、ニューラルネ
ットワークの融合を説明する説明図である。図15
(a)で示すような中間層素子i,jからの出力値の相
関が高いため図15(b)で示すように中間層素子i,
jを融合する場合について説明する。中間層素子i,j
からの出力値系列{OiP},{OjP}の相関が高い場
合、2変量Oi,Oj の関係は多変量解析で周知のよう
に、次式の線形回帰式で近似的に表現することができ
る。
【0028】
【数6】
【0029】数式6を用いると、上の層に属する任意の
素子(中間層素子や出力層素子など)kへの入力は、次
式のようになる。
【0030】
【数7】
【0031】すなわち、図15(b)で示すように中間
層素子iおよびバイアス素子から素子kへの結合係数を
次式のように修正する。
【0032】
【数8】
【0033】この修正によって、中間層素子jを中間層
素子iに融合することができる。なお、融合を行う際、
中間層素子jと中間層素子iとでどちらを融合するかが
問題となるが、出力値系列の分散の大きいほうを情報伝
達的により活発に機能していると考える。相関の高い中
間層素子出力についての融合はこのようになされる。
【0034】続いて、バイアス素子的な振る舞いをす
る中間層素子とバイアス素子との融合について説明す
る。図15(a)で示すような中間層素子iとバイアス
素子とを図15(c)で示すように融合する場合につい
て説明する。中間層素子iからの出力値系列{OiP}の
分散が小さい場合、Oiの出力はほぼ一定で、Oiの出力
は次式のように平均値で近似できる。
【0035】
【数9】
【0036】数式9を用いると、上の層に属する任意の
素子(中間層素子や出力層素子など)kへの入力は、次
式のようになる。
【0037】
【数10】
【0038】すなわち、図15(c)で示すようにバイ
アス素子から素子kへの結合係数を次式のように修正す
る。
【0039】
【数11】
【0040】この修正によって、バイアス素子的な傾向
を有する中間層素子iをバイアス素子に融合することが
できる。以上、ニューラルネットワークのコンパクト構
造化法ではこのような2通りの融合により中間層素子の
削減を行う。
【0041】図16は、従来のコンパクト構造化の学習
アルゴリズムのフローチャートである。図16で示すよ
うにバックプロパゲーション学習(S202)とコンパ
クト構造化(S203〜S208)を交互に行い、所定
回数実施したならば学習終了と判断する(S209)も
のである。
【0042】また、本発明者も複数の最適化アルゴリズ
ムを複合的に組み合わせて学習能力を高めたニューラル
ネットワークの最適化学習法を発明しており、特願平1
1−66165号として特許出願されるに至っている。
【0043】
【発明が解決しようとする課題】このように従来法2,
3の各種の学習アルゴリズムは、基本的には、不要な結
合・不要な中間層素子の生成を抑制してニューラルネッ
トワークを最適化するもの(従来法2)、もしくは、中
間層素子を融合することで中間層素子を削減してニュー
ラルネットワークを最適化するものである(従来法
3)。しかし、ニューラルネットワークの内部構造が複
雑で解析困難なため、使い勝手が良い万能な学習アルゴ
リズムは提案されていないのが実状である。また、高度
な最適化のためのアルゴリズムは、一般的に計算量が厖
大であり、学習に時間がかかる欠点がある。
【0044】以下に、本発明が解決しようとする課題を
具体的に示す。従来法2(重畳エネルギー関数法)の問
題点は、 不要な中間層素子の抑制が完全でなく、中間層素子が
適数よりもはるかに多い状態で学習を行うと、多くの不
要中間層素子が残る。 不要な中間層素子を自動的に削減することができな
い。 計算量が多く学習時間が長い。 という3点である。
【0045】不要な中間層素子の抑制が完全でないた
め、中間層素子が適数よりもはるかに多い状態で学習を
行うと、多くの不要中間層素子が残る。中間層素子が最
適数より若干多い程度から学習を開始すれば、最適数の
中間層素子数に収束するが、この最適数を求める手段は
ない。最適数よりも多い中間層素子数で学習を開始する
と、最適数よりも多い中間層素子数に収束し、最適数に
収束しずらい。
【0046】不要中間層素子を自動的に削減すること
ができない。通常、中間層素子の削除は、学習終了後に
人が判断して削除する。また、削除対象とする中間層素
子を判断する明確な基準はない。このように、学習中に
自動的に不要中間層素子を削除できなかった。
【0047】計算量が多く学習時間が長い。不要な中
間層素子も含まれるニューラルネットワーク全体の結合
係数の値を計算するため、計算量が多くなり、学習時間
が長くなっている。
【0048】また、従来法3(コンパクト構造化法)の
問題点は、 中間層素子の過融合・過小融合 学習初期段階では、中間層素子の融合処理を行うこと
ができない。という2点である。
【0049】中間層素子の過融合・過小融合 融合を判断するための相関係数および分散のしきい値の
設定方法が確立されておらず、不適切な相関係数および
分散のしきい値とした場合は、中間層素子が過融合また
は過小融合することが多い。また、しきい値の調整だけ
では、過融合または過小融合を防ぐことが困難な場合も
ある。
【0050】学習初期段階では、中間層素子の融合処
理を行うことができない。学習初期段階でコンパクト構
造化を行うと、良好な融合ができない。コンパクト構造
化法は、まず、出力値系列の分散が小さい中間層素子を
不要としてバイアス素子に融合し、その後に、出力値系
列の相関係数の高い中間層素子どうしを融合する。しか
し、学習初期段階では、各中間層素子どうしの役割が分
化しておらず、不要な中間層素子からの出力値系列でも
分散および相関係数が大きい。このため、学習初期段階
にコンパクト構造化を行うと不要な中間層素子とバイア
ス素子とを融合できないのみならず、不要な中間層素子
と必要な中間層素子とを融合してしまうという問題点も
あった。
【0051】また、特願平11−66165号の発明で
は、不要中間層素子の自動削除が可能となるように工夫
されており、従来法2,3と比較して優れているが、学
習終了後に中間層素子を削除する処理である。学習中で
も中間層素子を削除できるようにして学習能力を高める
学習アルゴリズムが必要とされていた。
【0052】このようにニューラルネットワークにおい
て、中間層素子が最適数のニューラルネットワーク構造
を生成する学習アルゴリズムが必要とされている。ま
た、不要な中間層素子を学習中に削除できるようにして
計算時間を少なくし、高速化する学習アルゴリズムが必
要とされている。
【0053】本発明は、以上の問題を改善するものであ
り、いくつかの有望な学習アルゴリズムを融合し、単体
で適用した場合に生じる弱点を他の学習アルゴリズムで
補ったり、適用方法を工夫することで、高速かつ効率的
にニューラルネットワークを最適化するニューラルネッ
トワークの最適化学習方法を提供することを目的とす
る。
【0054】
【課題を解決するための手段】上記課題を解決するた
め、請求項1に記載の発明は、ニューラルネットワーク
の入力層、中間層、および、出力層の素子間の結合係数
を増減してニューラルネットワークを最適化するニュー
ラルネットワークの最適化学習方法において、重畳エネ
ルギー関数法によるニューラルネットワークの学習を行
い、このニューラルネットワークの中間層の中の1個の
素子の出力値系列を用いて求めた分散が所定値以下の場
合にこの素子をバイアス素子に融合し、また、このニュ
ーラルネットワークの中間層の中の2個の素子の出力値
系列を用いて求めた相関係数の絶対値が所定値以上の場
合にこれら2個の素子を情報伝達的に同じ働きであると
して融合するコンパクト構造化を行い、学習とコンパク
ト構造化とを交互に行って中間層の素子を削減しつつニ
ューラルネットワークを最適化することを特徴とする。
【0055】この請求項1の発明では、重畳エネルギー
関数法によるニューラルネットワークの学習と不要な中
間層素子を融合するコンパクト構造化を交互に行うこと
で、学習中に自動的に不要中間層素子を削減する(従来
法2の問題を解決する)。これによって、不要な中間
層素子も含む初期中間層素子が最適数でないような場合
の影響が緩和され、最適な中間層素子数に収束しやすく
なる(従来法2の問題を解決する)。
【0056】同時に学習中に中間層素子が削減され計算
量が減るので学習の高速化が可能である(従来法2の問
題を解決する)。また、重畳エネルギー関数は、中間
層素子の役割を明確にすることができるので、例えば、
重要度の低い中間層素子ならば分散および相関係数の不
適切なしきい値の設定による過融合・過小融合の影響が
緩和される(従来法3の問題を解決する)。また、重
畳エネルギー関数法により学習初期段階から中間層素子
の役割が分化しているため、コンパクト構造化法を学習
初期段階から適用することが可能であり(従来法3の問
題を解決する)、さらなる学習の高速化にもつなが
る。
【0057】また、請求項2に記載の発明は、ニューラ
ルネットワークの入力層、中間層、および、出力層の素
子間の結合係数を増減してニューラルネットワークを最
適化するニューラルネットワークの最適化学習方法にお
いて、バックプロパゲーション法によるニューラルネッ
トワークの学習を行い、このニューラルネットワークの
中間層の中の1個の素子の出力値系列を用いて求めた分
散が所定値以下の場合にこの素子をバイアス素子に融合
するコンパクト構造化を行い、学習とコンパクト構造化
とを交互に行って中間層の素子を削減したニューラルネ
ットワークとし、このニューラルネットワークの中間層
の中の1個の素子の出力値系列を用いて求めた分散が所
定値以下の場合にこの素子をバイアス素子に融合し、ま
た、このニューラルネットワークの中間層の中の2個の
素子の出力値系列を用いて求めた相関係数の絶対値が所
定値以上の場合にこれら2個の素子を情報伝達的に同じ
働きであるとして融合し、中間層の素子を削減してニュ
ーラルネットワークを最適化することを特徴とする。
【0058】この請求項2の発明では、バックプロパゲ
ーション法によるニューラルネットワークの学習と中間
層素子を融合するコンパクト構造化を交互に行う場合に
はバイアス素子的な働きをする中間層素子とバイアス素
子とを融合するのみとし、学習終了後に、中間層素子と
バイアス素子との融合に加えて、相関の高い出力をする
中間層素子同士を融合する(従来法2の問題〜を解
決する)。コンパクト構造化において過度の融合を防ぐ
こととなり、分散および相関係数の不適切なしきい値の
設定による過融合・過小融合の影響が緩和され(従来法
3の問題を解決する)、より良好なニューラルネット
ワークとする。
【0059】また、請求項3に記載の発明は、ニューラ
ルネットワークの入力層、中間層、および、出力層の素
子間の結合係数を増減してニューラルネットワークを最
適化するニューラルネットワークの最適化学習方法にお
いて、重畳エネルギー関数法によるニューラルネットワ
ークの学習を行い、このニューラルネットワークの中間
層の中の1個の素子の出力値系列を用いて求めた分散が
所定値以下の場合にこの素子をバイアス素子に融合する
コンパクト構造化を行い、学習とコンパクト構造化とを
交互に行って中間層の素子を削減したニューラルネット
ワークとし、このニューラルネットワークの中間層の中
の1個の素子の出力値系列を用いて求めた分散が所定値
以下の場合にこの素子をバイアス素子に融合し、また、
このニューラルネットワークの中間層の中の2個の素子
の出力値系列を用いて求めた相関係数の絶対値が所定値
以上の場合にこれら2個の素子を情報伝達的に同じ働き
であるとして融合し、中間層の素子を削減してニューラ
ルネットワークを最適化することを特徴とする。
【0060】この請求項3の発明では、重畳エネルギー
関数法によるニューラルネットワークの学習と中間層素
子を融合するコンパクト構造化とを交互に行う場合には
バイアス素子的な働きをする中間層素子とバイアス素子
とを融合するのみとし、学習終了後に、中間層素子とバ
イアス素子との融合に加えて、相関の高い出力をする中
間層素子同士を融合する(従来法2の問題〜を解決
する)。学習中は、中間層素子をその重要度順に学習す
るとともにコンパクト構造化において過度の融合を防ぐ
こととなって分散および相関係数の不適切なしきい値の
設定による過融合・過小融合の影響が緩和され(従来法
3の問題を解決する)、より良好なニューラルネット
ワークとなる。また、重畳エネルギー関数法により学習
初期段階から中間層素子の役割が分化しているため、コ
ンパクト構造化法を学習初期段階から適用することが可
能であり(従来法3の問題を解決する)、さらなる学
習の高速化にもつながる。
【0061】また、請求項4に記載の発明は、請求項1
〜請求項3の何れか1項に記載のニューラルネットワー
クの最適化学習方法において、コンパクト構造化を行う
場合にコンパクト構造化の前後のニューラルネットワー
クについての学習誤差を求め、学習誤差が予め定められ
た値を越える場合、または、学習誤差が予め定められた
増加率を越える場合は、コンパクト構造化後のニューラ
ルネットワークを破棄してコンパクト構造化前のニュー
ラルネットワークを採用することを特徴とする。
【0062】この請求項4の発明では、中間層素子の過
融合を防止するために、融合前の学習誤差より融合後の
学習誤差が一定値、もしくは、一定増加率を越えて増大
するときには融合を禁止し、過融合を防ぐ。
【0063】また、請求項5に記載の発明は、請求項1
〜請求項4の何れか1項に記載のニューラルネットワー
クの最適化学習方法において、前記分散は、数式1で表
され、かつ、前記相関係数は、数式2で表すことを特徴
とする。
【0064】
【発明の実施の形態】以下、図に沿って本発明の各実施
形態を説明する。本実施形態の学習アルゴリズムAでは
図16で示す従来法3の学習アルゴリズムを改良し、バ
ックプロパゲーション法による学習の代わりに重畳エネ
ルギー関数法による学習とし、この重畳エネルギー関数
法による学習とコンパクト構造化を交互に行うようにし
た。この学習アルゴリズムAについて説明する。この学
習アルゴリズムAは、汎用計算機・制御装置等にプログ
ラムされ、コンピュータにこの学習アルゴリズムAを行
わせることを想定して説明する。なお、後述の他の学習
アルゴリズムも同様である。
【0065】図1は本発明の実施形態の学習アルゴリズ
ムAのフローチャートである。ステップS1は、初期化
処理を行うステップである。学習アルゴリズムAにおけ
る初期化処理とは、中間層の階層数、各層の中間層素子
数、分散のしきい値、相関係数のしきい値、学習回数な
どを入力する。ステップS2は、重畳エネルギー関数法
による学習を行うステップである。重畳エネルギー関数
法により求めたニューラルネットワークの結合係数を新
しい結合係数とし、古い結合係数と書き換えて保存す
る。
【0066】ステップS3は、コンパクト構造化を実行
するか否かを判定するステップである。判定方法として
は、重畳エネルギー関数法による学習回数が所定回数に
達した場合や、学習誤差が減少しなくなったなどの場合
が考えられるが、本学習アルゴリズムAでは、学習回数
が所定回数に達したか否かについて判定するものとす
る。学習回数が所定回数に達しているならばステップS
4へ進み、学習回数が所定回数に達していないならば初
期段階(つまり中間層素子は充分な分化が行われていな
い段階)としてステップS9へジャンプする。
【0067】ステップS4は、中間層素子からの出力値
系列を用いて分散を算出するステップである。具体的に
は、複数ある中間層素子の出力値系列を用いて全ての中
間層素子についての分散を求めるものであり、コンパク
ト構造化法で説明した数式1を用いて算出することとな
る。ステップS5は、ステップS4で算出した複数の分
散について所定値以下か否かを判定するステップであ
る。複数の分散のうち一つでも所定値以下(バイアス素
子へ融合可)と判断するならばステップS8へジャンプ
し、また、全ての分散が所定値を越える(バイアス素子
へ融合不可)と判断するならばステップS6へ進む。
【0068】ステップS6は、中間層素子からの出力値
系列を用いて相関係数を算出するステップである。具体
的には、複数ある中間層素子からある2つの中間層素子
を選択してこれら2つの中間層素子の出力値系列を用い
て相関係数を求めるという処理を全ての中間層素子で想
定できる組み合わせについて行うものであり、コンパク
ト構造化法で説明した数式2を用いて算出することとな
る。例えば、仮に中間層素子1,2,3と3個ある場合
には、中間層素子1,2の相関、中間層素子2,3の相
関、および中間層素子1,3の相関について相関係数を
算出することとなる。
【0069】ステップS7は、ステップS4で算出した
複数の相関係数について所定値以上か否かを判定するス
テップである。相関係数は、先に説明したように、相似
度を示す−1〜+1の指標である。±1に近いと相関が
高く、0に近いと相関がないことを表す。相関係数の絶
対値が所定値以上(2つの中間層素子が融合可)と判断
するならばステップS8へ進み、また、相関係数の絶対
値が所定値未満(2つの中間層素子が融合不可)と判断
するならばステップS9へジャンプする。
【0070】ステップS8は、融合を行うステップであ
る。ステップS5からジャンプしてきたならば中間層素
子とバイアス素子との融合を、また、ステップS7から
来たならば中間層素子同士の融合を行う。なお、複数の
中間層素子の分散を算出して多数の分散が所定値以下の
場合、最も分散が小さい中間層素子とバイアス素子とを
融合させる。1度に融合可能な全ての素子を融合する場
合も考えられるが、1度のコンパクト構造化に対し1回
に融合制限した方が良好な学習結果が得られることが多
い。同様に、相関係数の絶対値が所定値以上の中間層素
子の組み合わせが多数ある場合、相関係数の絶対値が最
も大きい中間層素子の組み合わせを融合させる。この場
合も、1度のコンパクト構造化に対し1回に融合制限し
た方が良好な結果が得られることが多いからである。
【0071】ステップS9は、学習終了か否かを判断す
るステップである。具体的には学習回数が所定回数に達
したか否かを判断している。学習終了しない場合は、ス
テップS2の先頭へジャンプして再度重畳エネルギー関
数法により学習を行い、学習終了の場合はフローを終了
することととなる。
【0072】学習アルゴリムAでは、重畳エネルギー関
数法を用いることで、中間層素子の役割の分化が促進さ
れ、通常のコンパクト構造化法よりも早い段階で中間層
素子を融合させることが可能である。また、学習アルゴ
リムAでは、コンパクト構造化法により中間層素子が削
減されるため、計算量が減少し学習時間を短縮すること
が可能である。さらに、重畳エネルギー関数は不要な中
間層素子の生成を抑制するアルゴリズムであり、中間層
素子の役割が明確な構造になりやすい。そのため不要な
中間層素子と重要な中間層素子の判定は容易であり、コ
ンパクト構造化法のしきい値の値が多少不適切でもその
影響は緩和され、最適な中間層素子数が選択されやすく
なる。
【0073】続いて他の実施形態を説明する。本実施形
態の学習アルゴリズムBでは、中間層素子とバイアス素
子との融合のみを行うコンパクト構造化(以下、単にコ
ンパクト構造化(1)という)、および、中間層素子と
バイアス素子との融合と中間層素子同士の融合という2
種類の融合を行うコンパクト構造化(以下、コンパクト
構造化(2)という)を準備する。そして、バックプロ
パゲーション法による学習とコンパクト構造化(1)を
交互に行うようにし、学習終了後にコンパクト構造化
(2)を行うアルゴリズムとした。
【0074】この学習アルゴリムBでは、学習中は中間
層素子同士の融合を制限し、学習終了後に中間層素子同
士の融合を行う。ニューラルネットワークの各中間層素
子は、学習の進行にともない成長し役割が分化する。学
習初期段階において不要な中間層素子(バイアス素子的
であって分散が小さい)であっても学習の進行にともな
い重要な中間層素子に成長する可能性がある。また学習
初期段階において出力値系列が同じような中間層素子
(相関が高い)同士であっても学習の進行にともない出
力値系列が変化して相関が低くなる可能性もある。そこ
で、学習中は融合を制限し、学習終了後に中間層素子の
役割が充分に明確になった時点で融合する。この学習ア
ルゴリズムBについて説明する。
【0075】図2は本発明の実施形態の学習アルゴリズ
ムBのフローチャートである。ステップS11は、初期
化処理を行うステップである。中間層の階層数、各層の
中間層素子数、分散のしきい値、相関係数のしきい値、
学習回数などを入力する。ステップS12は、バックプ
ロパゲーション法による学習を行うステップである。バ
ックプロパゲーション法により求めたニューラルネット
ワークの結合係数を新しい結合係数とし、書き換えて保
存する。
【0076】ステップS13は、コンパクト構造化を実
行するか否かを判定するステップである。本学習アルゴ
リズムBでも、学習回数が所定回数に達したか否かにつ
いて判定するものとする。学習回数が所定回数に達して
いるならばステップS14へ進み、学習回数が所定回数
に達していないならば初期段階(つまり中間層素子は充
分な分化が行われていない段階)としてステップS17
へジャンプする。
【0077】ステップS14は、中間層素子からの出力
値系列を用いて分散を算出するステップである。具体的
には、複数ある中間層素子の出力値系列を用いて全ての
中間層素子についての分散を求めるものであり、コンパ
クト構造化法で説明した数式1を用いて算出することと
なる。ステップS15は、ステップS14で算出した複
数の分散について所定値以下か否かを判定するステップ
である。複数の分散の一つでも所定値以下(バイアス素
子へ融合可)と判断するならばステップS16へ進み、
また、全ての分散が所定値を越える(バイアス素子へ融
合不可)と判断するならばステップS17へジャンプす
る。
【0078】ステップS16は、融合を行うステップで
ある。中間層素子とバイアス素子との融合を行う。な
お、複数の中間層素子の分散を算出して多数の分散が所
定値以下の場合、最も分散が小さい中間層素子とバイア
ス素子とを融合させる。1度に融合可能な全ての素子を
融合する場合も考えられるが、1度のコンパクト構造化
に対し1回に融合制限した方が良好な学習結果が得られ
ることが多い。
【0079】ステップS17は、学習終了か否かを判断
するステップである。具体的には学習回数が所定回数に
達したか否かを判断している。学習終了しない場合は、
ステップS12の先頭へジャンプして再度バックプロパ
ゲーション法により学習を行う。学習終了の場合はコン
パクト構造化(2)を行うためステップS18へ進む。
【0080】ステップS18は、中間層素子からの出力
値系列を用いて分散を算出するステップである。先の数
式1を用いて算出することとなる。ステップS19は、
ステップS18で算出した複数の分散について所定値以
下か否かを判定するステップである。複数の分散の一つ
でも所定値以下(バイアス素子へ融合可)と判断するな
らばステップS22へジャンプし、また、全ての分散が
所定値を越える(バイアス素子へ融合不可)と判断する
ならばステップS20へ進む。
【0081】ステップS20は、中間層素子からの出力
値系列を用いて2つの中間層素子の相関係数を算出する
ステップである。数式2を用いて算出することとなる。
ステップS21は、ステップS20で算出した複数の相
関係数について所定値以上か否かを判定するステップで
ある。複数のうち1つでも相関係数の絶対値が所定値以
上(2つの中間層素子が融合可)と判断するならばステ
ップS22へ進み、また、相関係数が所定値未満(2つ
の中間層素子の融合不可)と判断するならばフローから
抜けて終了する。
【0082】ステップS22は、融合を行うステップで
ある。ステップS19からジャンプしてきたならば中間
層素子とバイアス素子との融合を、また、ステップS2
1から来たならば中間層素子同士の融合を行い、ステッ
プS18へジャンプする。なお、コンパクト構造化
(2)においても、複数の中間層素子の分散を算出して
多数の分散が所定値以下の場合、最も分散が小さい中間
層素子とバイアス素子とを融合させ、同様に、相関係数
の絶対値が所定値以上の中間層素子の組み合わせが多数
ある場合、最も相関係数の絶対値が大きい中間層素子の
組み合わせを融合させる。いずれも、1度のコンパクト
構造化に対し1回に融合制限した方が良好な結果が得ら
れることが多いからである。
【0083】この学習アルゴリズムBでは、コンパクト
構造化法の最大の欠点である不適切なしきい値の設定に
よる過融合の発生を防止でき、良好な学習を行うことが
できる。また、学習アルゴリムBでは、コンパクト構造
化法により中間層素子が削減されるため、計算量が減少
し学習時間を短縮することが可能である。
【0084】続いて他の実施形態を説明する。本実施形
態の学習アルゴリズムCでは、図2で示す学習アルゴリ
ズムBを改良し、バックプロパゲーション法による学習
の代わりに重畳エネルギー関数法による学習とし、重畳
エネルギー関数法による学習とコンパクト構造化(1)
を交互に行うようにし、学習終了後にコンパクト構造化
(2)を行うアルゴリズムとした。
【0085】この学習アルゴリムCでは、学習中は中間
層素子同士の融合を制限し、学習終了後に中間層素子同
士の融合を行う。ニューラルネットワークの各中間層素
子は、学習の進行にともない成長し役割が分化する。学
習初期段階において不要な中間層素子(バイアス素子的
であって分散が小さい)であっても学習の進行にともな
い重要な中間層素子に成長する可能性があり、また、学
習初期段階において出力値系列が同じような中間層素子
(相関が高い)同士であっても学習の進行にともない出
力値系列が変化して相関が低くなる可能性もある。さら
に、重畳エネルギー関数は不要中間層素子の生成を抑制
するアルゴリズムであり、学習が進むにつれて中間層素
子の役割が明確な構造になりやすい。そのため不要な中
間層素子と重要な中間層素子の判定は学習終了後は容易
である。そこで、学習中は融合を制限し、学習終了後に
中間層素子の役割が充分に明確になった時点で融合す
る。この学習アルゴリズムCについて説明する。
【0086】図3は本発明の実施形態の学習アルゴリズ
ムCのフローチャートである。ステップS31は、初期
化処理を行うステップである。中間層の階層数、各層の
中間層素子数、分散のしきい値、相関係数のしきい値、
学習回数などを入力する。ステップS32は、重畳エネ
ルギー関数法による学習を行うステップである。重畳エ
ネルギー関数法により求めたニューラルネットワークの
結合係数を新しい結合係数とし、書き換えて保存する。
【0087】ステップS33は、コンパクト構造化を実
行するか否かを判定するステップである。本学習アルゴ
リズムCでも、学習回数が所定回数に達したか否かにつ
いて判定するものとする。学習回数が所定回数に達して
いるならばステップS34へ進み、学習回数が所定回数
に達していないならば初期段階(つまり中間層素子は充
分な分化が行われていない段階)としてステップS37
へジャンプする。
【0088】ステップS34は、中間層素子からの出力
値系列を用いて分散を算出するステップである。具体的
には、複数ある中間層素子の出力値系列を用いて全ての
中間層素子についての分散を求めるものであり、コンパ
クト構造化法で説明した数式1を用いて算出することと
なる。ステップS35は、ステップS34で算出した複
数の分散について所定値以下か否かを判定するステップ
である。複数の分散の一つでも所定値以下(バイアス素
子へ融合可)と判断するならばステップS36へ進み、
また、全ての分散が所定値を越える(バイアス素子へ融
合不可)と判断するならばステップS37へジャンプす
る。
【0089】ステップS36は、融合を行うステップで
ある。中間層素子とバイアス素子との融合を行う。な
お、複数の中間層素子の分散を算出して多数の分散が所
定値以下の場合、最も分散が小さい中間層素子とバイア
ス素子とを融合させる。1度に融合可能な全ての素子を
融合する場合も考えられるが、1度のコンパクト構造化
に対し1回に融合制限した方が良好な学習結果が得られ
ることが多い。
【0090】ステップS37は、学習終了か否かを判断
するステップである。具体的には学習回数が所定回数に
達したか否かを判断している。学習終了しない場合は、
ステップS32の先頭へジャンプして再度重畳エネルギ
ー関数法により学習を行い、学習終了の場合はコンパク
ト構造化(2)を行うためステップS38へ進む。
【0091】ステップS38は、中間層素子からの出力
値系列を用いて分散を算出するステップである。先の数
式1を用いて算出することとなる。ステップS39は、
ステップS38で算出した複数の分散について所定値以
下か否かを判定するステップである。複数の分散の一つ
でも所定値以下(バイアス素子へ融合可)と判断するな
らばステップS42へジャンプし、また、全ての分散が
所定値を越える(バイアス素子へ融合不可)と判断する
ならばステップS40へ進む。
【0092】ステップS40は、中間層素子からの出力
値系列を用いて2つの中間層素子の相関係数を算出する
ステップである。数式2を用いて算出することとなる。
ステップS41は、ステップS40で算出した複数の相
関係数について所定値以上か否かを判定するステップで
ある。複数のうち1つでも相関係数の絶対値が所定値以
上(2つの中間層素子が融合可)と判断するならばステ
ップS42へ進み、また、相関係数が所定値未満(2つ
の中間層素子の融合不可)と判断するならばフローから
抜けて終了する。
【0093】ステップS42は、融合を行うステップで
ある。ステップS39からジャンプしてきたならば中間
層素子とバイアス素子との融合を、また、ステップS4
1から来たならば中間層素子同士の融合を行い、ステッ
プS38にジャンプする。なお、コンパクト構造化
(2)においても、複数の中間層素子の分散を算出して
多数の分散が所定値以下の場合、最も分散が小さい中間
層素子とバイアス素子とを融合させ、同様に、相関係数
の絶対値が所定値以上の中間層素子の組み合わせが多数
ある場合、最も相関係数の絶対値が大きい中間層素子の
組み合わせを融合させる。いずれも、1度のコンパクト
構造化に対し1回に融合制限した方が良好な結果が得ら
れることが多いからである。
【0094】この学習アルゴリズムCでは、コンパクト
構造化法の最大の欠点である不適切なしきい値の設定に
よる過融合の発生を防止でき、良好な学習を行うことが
できる。また、学習アルゴリムCでは、コンパクト構造
化法により中間層素子が削減されるため、計算量が減少
し、学習時間を短縮することが可能である。さらに、重
畳エネルギー関数は不要な中間層素子の生成を抑制する
アルゴリズムであり、中間層素子の役割が明確な構造に
なりやすい。そのため不要な中間層素子と重要な中間層
素子の判定は容易であり、コンパクト構造化法のしきい
値の値が多少不適切でもその影響は緩和され、最適な中
間層素子数が選択されやすくなる。さらに、この学習ア
ルゴリズムCでは、学習アルゴリズムAでは完全に防ぐ
ことはできない過融合の発生を著しく低減する。
【0095】これら学習アルゴリズムA〜Cのコンパク
ト構造化法をさらに改良することにより、全体の学習ア
ルゴリズムも改良することができる。このような改良コ
ンパクト構造化法を説明する。図4は、コンパクト構造
化法のフローチャートである。このフローチャートで
は、図1で示したコンパクト構造化法、および、図2,
図3で示したコンパクト構造化法(2)を改良するもの
である。
【0096】ステップS51は、中間層素子からの出力
値系列を用いて分散を算出するステップである。先の数
式1を用いて算出することとなる。ステップS52は、
ステップS51で算出した複数の分散について所定値以
下か否かを判定するステップである。複数の分散のうち
一つでも所定値以下(バイアス素子へ融合可)と判断す
るならばステップS55へジャンプし、また、全ての分
散が所定値を越える(バイアス素子へ融合不可)と判断
するならばステップS53へ進む。
【0097】ステップS53は、中間層素子からの出力
値系列を用いて2つの中間層素子の相関係数を算出する
ステップである。数式2を用いて算出することとなる。
ステップS54は、ステップS53で算出した複数の相
関係数について所定値以上か否かを判定するステップで
ある。複数のうち1つでも相関係数の絶対値が所定値以
上(2つの中間層素子が融合可)と判断するならばステ
ップS55へ進み、また、相関係数が所定値未満(2つ
の中間層素子の融合不可)と判断するならばフローから
抜けて終了する。
【0098】ステップS55は、ニューラルネットワー
クを保存するステップである。具体的には、ニューラル
ネットワークの結合係数を記憶保存する。ステップS5
6は、融合前の誤差を検出するステップである。ステッ
プS55で記憶保存されているニューラルネットワーク
を用いて実際の出力であるニューロ出力値と学習目標値
との差である出力誤差を検出し、記憶保存しておく。
【0099】ステップS57は、融合して新たにニュー
ラルネットワークを生成するステップである。ステップ
S52からジャンプしてきたならば中間層素子とバイア
ス素子との融合を、また、ステップS54から来たなら
ば中間層素子同士の融合を行う。なお、改良コンパクト
構造化法においても、複数の中間層素子の分散を算出し
て多数の分散が所定値以下の場合、最も分散が小さい中
間層素子とバイアス素子とを融合させ、同様に、相関係
数の絶対値が所定値以上の中間層素子の組み合わせが多
数ある場合、最も相関係数の絶対値が大きい中間層素子
の組み合わせを融合させる。いずれも、1度のコンパク
ト構造化に対し1回に融合制限した方が良好な結果が得
られることが多いからである。
【0100】ステップS58は、融合後の誤差を検出す
るステップである。ステップS57で生成した新しいニ
ューラルネットワークを用いて実際の出力であるニュー
ロ出力値と学習目標値との差である出力誤差を検出し、
記憶保存する。ステップS59は、融合前後に求めた出
力誤差を比較して出力誤差が悪化したか否かを判定する
ステップである。出力誤差が増えた、つまり、出力誤差
が悪化した場合、ステップS60へ進み、出力誤差が減
った、つまり、出力誤差が改善された場合フローから抜
けて終了する。
【0101】ステップS60は、ステップS55で保存
した融合前のニューラルネットワークを復元するステッ
プである。具体的には、ニューラルネットワークの結合
係数を元に戻す。その後フローを抜けて終了する。
【0102】このように融合を実施する前に、学習誤差
が予め定められた値を越える場合、または、学習誤差が
予め定められた増加率を越える場合は、融合前のニュー
ラルネットワークに戻し、学習誤差が改善するときのみ
融合を実施することで、コンパクト構造化法の過融合を
防止し、学習アルゴリズムA〜Cを改善する。
【0103】
【実施例】続いて、本発明の第1実施例について説明す
る。本実施例では、重畳エネルギー関数により中間層素
子の役割が明確になるため、学習初期段階よりコンパク
ト構造化法が適用可能となることを示す。図5は、ニュ
ーラルネットワークの構造例を示す説明図である。本実
施例では、図5で示すように、9個の中間層素子をもつ
ニューラルネットワークとしている。このニューラルネ
ットワークに次式のような関数を学習させる。
【0104】
【数12】
【0105】本実施例では、バックプロパゲーション法
と重畳関数エネルギー法とでニューラルネットワークを
学習させることで両者の比較を試みる。これは、図16
で示した従来法3によるバックプロパゲーション法・コ
ンパクト構造化法による学習と、図1で示した本発明の
実施形態の学習アルゴリズムAによる重畳エネルギー関
数法・コンパクト構造化法による学習とを比較するもの
である。図6,図7は、学習中のニューラルネットワー
クの中間層素子の分散変化を示す特性図であり、図6は
バックプロパゲーション法・コンパクト構造化法による
学習を、また、図7では重畳エネルギー関数法・コンパ
クト構造化法による学習をそれぞれ行った場合の分散変
化を示す。
【0106】分散は、中間層素子の重要度を示す評価指
標としてよく使われる。つまり、分散が小さい素子は学
習パターンの入力値系列が変化しても出力値系列が変わ
らない不要な素子であり、分散が大きい素子は学習パタ
ーンの入力値系列が変化するにつれて出力値系列が変化
する重要な素子と見なすことができる。図6,図7を比
較すると重畳エネルギー関数法の方がバックプロパゲー
ション法よりも、学習初期段階で分散が大きい、つま
り、不要な中間層素子と重要な中間層素子が早く、しか
も明確に分化していることが分かる。このように、重畳
エネルギー関数法を適用することで、学習初期段階よ
り、分散の小さい不要な中間層素子をバイアス素子に融
合することが可能である。また、不要な中間層素子と重
要な中間層素子の分散の差は大きく明確であるため、し
きい値の設定が容易であり、最適な融合が容易である。
【0107】続いて、第2実施例について説明する。本
実施例では各学習方法別に学習速度、ニューラルネット
ワークの最適化の度合いを示す。なお、学習する関数は
第1実施例の数式12と同様であり、説明を省略する。
本実施例では比較のため6通りの方法で学習した。これ
ら学習について、以下、検討1〜検討6として説明す
る。検討1〜検討3については表1として示されてい
る。
【0108】
【表1】
【0109】検討1は、通常(従来法1)のバックプロ
パゲーション法によるニューラルネットワークの最適化
である。検討2は、通常(従来法2)の重畳エネルギー
関数法である。最も誤差が小さいものの、学習時間が最
長という欠点がある。検討3は、通常(従来法3)のコ
ンパクト構造化法である。学習時間が最短ではあるが、
学習誤差が大きい。融合があまり起こらず中間層素子の
数が多いにもかかわらず学習誤差が大きいのが問題であ
る。このようにコンパクト構造化法は、しきい値等の設
定が難しく、学習に悪影響を与えるというおそれがあ
る。
【0110】検討4〜検討6については表2として示さ
れている。
【0111】
【表2】
【0112】検討4は、学習アルゴリズムA(請求項
1)の発明である。検討3で示した通常(従来法3)の
コンパクト構造化法よりも学習誤差が小さく、かつ、通
常の重畳エネルギー関数法よりも学習時間が短い。学習
誤差は、検討1(バックプロパゲーション法)の学習誤
差よりも若干良い。検討5は、学習アルゴリズムB(請
求項2)と改良されたコンパクト構造化法(請求項4)
の発明である。本発明はコンパクト構造化の過融合防止
に力点をおいている。よって、コンパクト構造化法の過
融合の欠点を意識することなく安心して使用することが
できる。
【0113】本実施例では、融合が全く起きず検討1
(バックプロパゲーション法)と同じ結果になってしま
った。その原因は以下と考えられる。バックプロパゲー
ションをベースにした学習方法であるため、中間層素子
の分化が進まず、分散の小さい素子がなく学習中に過融
合が防止された(請求項2)。また、学習終了後、相関
の高い中間層素子が多くあったが、学習誤差が規定値以
上増加するため、同様に過融合が防止された(請求項
4)。
【0114】検討6は、学習アルゴリズムC(請求項
3)と改良されたコンパクト構造化法(請求項4)とを
組み合わせた発明である。学習誤差は検討2(重畳エネ
ルギー関数法)とほぼ同程度であり、かつ学習時間は検
討2(重畳エネルギー関数法)よりも短い。中間層素子
の数も少なく、学習時間と学習誤差のバランスもとれた
方法と言える。
【0115】
【発明の効果】本発明によれば、いくつかの有望な学習
アルゴリズムを融合し、単体で適用した場合に生じる弱
点を他の学習アルゴリズムで補ったり、適用方法を工夫
することで、高速かつ効率的にニューラルネットワーク
を最適化するニューラルネットワークの最適化学習方法
を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施形態の学習アルゴリズムAのフロ
ーチャートである。
【図2】本発明の実施形態の学習アルゴリズムBのフロ
ーチャートである。
【図3】本発明の実施形態の学習アルゴリズムCのフロ
ーチャートである。
【図4】コンパクト構造化法のフローチャートである。
【図5】ニューラルネットワークの構造例を示す説明図
である。
【図6】学習中のニューラルネットワークの中間層素子
の分散変化を示す特性図である。
【図7】学習中のニューラルネットワークの中間層素子
の分散変化を示す特性図である。
【図8】多層ニューラルネットワークを説明する概念図
である。
【図9】重畳エネルギー関数法により学習された中間層
素子を説明する説明図である。
【図10】不要な分散表現について説明する説明図であ
る。
【図11】部分ニューロを説明する説明図である。
【図12】重畳エネルギー関数法による学習の流れを示
すフローチャートである。
【図13】融合を説明する説明図である。
【図14】学習パターンに対する中間層素子の出力を示
す出力図である。
【図15】ニューラルネットワークの融合を説明する説
明図である。
【図16】従来のコンパクト構造化の学習アルゴリズム
のフローチャートである。

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】ニューラルネットワークの入力層、中間
    層、および、出力層の素子間の結合係数を増減してニュ
    ーラルネットワークを最適化するニューラルネットワー
    クの最適化学習方法において、 重畳エネルギー関数法によるニューラルネットワークの
    学習を行い、 このニューラルネットワークの中間層の中の1個の素子
    の出力値系列を用いて求めた分散が所定値以下の場合に
    この素子をバイアス素子に融合し、また、このニューラ
    ルネットワークの中間層の中の2個の素子の出力値系列
    を用いて求めた相関係数の絶対値が所定値以上の場合に
    これら2個の素子を情報伝達的に同じ働きであるとして
    融合するコンパクト構造化を行い、 学習とコンパクト構造化とを交互に行って中間層の素子
    を削減しつつニューラルネットワークを最適化すること
    を特徴とするニューラルネットワークの最適化学習方
    法。
  2. 【請求項2】ニューラルネットワークの入力層、中間
    層、および、出力層の素子間の結合係数を増減してニュ
    ーラルネットワークを最適化するニューラルネットワー
    クの最適化学習方法において、 バックプロパゲーション法によるニューラルネットワー
    クの学習を行い、 このニューラルネットワークの中間層の中の1個の素子
    の出力値系列を用いて求めた分散が所定値以下の場合に
    この素子をバイアス素子に融合するコンパクト構造化を
    行い、 学習とコンパクト構造化とを交互に行って中間層の素子
    を削減したニューラルネットワークとし、 このニューラルネットワークの中間層の中の1個の素子
    の出力値系列を用いて求めた分散が所定値以下の場合に
    この素子をバイアス素子に融合し、また、このニューラ
    ルネットワークの中間層の中の2個の素子の出力値系列
    を用いて求めた相関係数の絶対値が所定値以上の場合に
    これら2個の素子を情報伝達的に同じ働きであるとして
    融合し、 中間層の素子を削減してニューラルネットワークを最適
    化することを特徴とするニューラルネットワークの最適
    化学習方法。
  3. 【請求項3】ニューラルネットワークの入力層、中間
    層、および、出力層の素子間の結合係数を増減してニュ
    ーラルネットワークを最適化するニューラルネットワー
    クの最適化学習方法において、 重畳エネルギー関数法によるニューラルネットワークの
    学習を行い、 このニューラルネットワークの中間層の中の1個の素子
    の出力値系列を用いて求めた分散が所定値以下の場合に
    この素子をバイアス素子に融合するコンパクト構造化を
    行い、 学習とコンパクト構造化とを交互に行って中間層の素子
    を削減したニューラルネットワークとし、 このニューラルネットワークの中間層の中の1個の素子
    の出力値系列を用いて求めた分散が所定値以下の場合に
    この素子をバイアス素子に融合し、また、このニューラ
    ルネットワークの中間層の中の2個の素子の出力値系列
    を用いて求めた相関係数の絶対値が所定値以上の場合に
    これら2個の素子を情報伝達的に同じ働きであるとして
    融合し、 中間層の素子を削減してニューラルネットワークを最適
    化することを特徴とするニューラルネットワークの最適
    化学習方法。
  4. 【請求項4】請求項1〜請求項3の何れか1項に記載の
    ニューラルネットワークの最適化学習方法において、 コンパクト構造化を行う場合にコンパクト構造化の前後
    のニューラルネットワークについての学習誤差を求め、
    学習誤差が予め定められた値を越える場合、または、学
    習誤差が予め定められた増加率を越える場合は、コンパ
    クト構造化後のニューラルネットワークを破棄してコン
    パクト構造化前のニューラルネットワークを採用するこ
    とを特徴とするニューラルネットワークの最適化学習方
    法。
  5. 【請求項5】請求項1〜請求項4の何れか1項に記載の
    ニューラルネットワークの最適化学習方法において、 前記分散は、 【数1】 で表され、かつ、前記相関係数は、 【数2】 とすることを特徴とするニューラルネットワークの最適
    化学習方法。
JP2000071011A 2000-03-09 2000-03-09 ニューラルネットワークの最適化学習方法 Expired - Lifetime JP4226754B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000071011A JP4226754B2 (ja) 2000-03-09 2000-03-09 ニューラルネットワークの最適化学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000071011A JP4226754B2 (ja) 2000-03-09 2000-03-09 ニューラルネットワークの最適化学習方法

Publications (2)

Publication Number Publication Date
JP2001256212A true JP2001256212A (ja) 2001-09-21
JP4226754B2 JP4226754B2 (ja) 2009-02-18

Family

ID=18589664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000071011A Expired - Lifetime JP4226754B2 (ja) 2000-03-09 2000-03-09 ニューラルネットワークの最適化学習方法

Country Status (1)

Country Link
JP (1) JP4226754B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222409A (ja) * 2001-01-26 2002-08-09 Fuji Electric Co Ltd ニューラルネットワークの最適化学習方法
JP2017182319A (ja) * 2016-03-29 2017-10-05 株式会社メガチップス 機械学習装置
JP2019511037A (ja) * 2016-02-19 2019-04-18 アリババ グループ ホウルディング リミテッド 機械学習モデルのモデリング方法及びデバイス
US10460236B2 (en) 2015-08-07 2019-10-29 Toyota Jidosha Kabushiki Kaisha Neural network learning device
CN112884123A (zh) * 2021-02-23 2021-06-01 杭州海康威视数字技术股份有限公司 神经网络优化方法、装置、电子设备及可读存储介质
US11803756B2 (en) 2017-09-13 2023-10-31 Samsung Electronics Co., Ltd. Neural network system for reshaping a neural network model, application processor including the same, and method of operating the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222409A (ja) * 2001-01-26 2002-08-09 Fuji Electric Co Ltd ニューラルネットワークの最適化学習方法
US10460236B2 (en) 2015-08-07 2019-10-29 Toyota Jidosha Kabushiki Kaisha Neural network learning device
JP2019511037A (ja) * 2016-02-19 2019-04-18 アリババ グループ ホウルディング リミテッド 機械学習モデルのモデリング方法及びデバイス
JP7102344B2 (ja) 2016-02-19 2022-07-19 アリババ グループ ホウルディング リミテッド 機械学習モデルのモデリング方法及びデバイス
JP2017182319A (ja) * 2016-03-29 2017-10-05 株式会社メガチップス 機械学習装置
US11803756B2 (en) 2017-09-13 2023-10-31 Samsung Electronics Co., Ltd. Neural network system for reshaping a neural network model, application processor including the same, and method of operating the same
CN112884123A (zh) * 2021-02-23 2021-06-01 杭州海康威视数字技术股份有限公司 神经网络优化方法、装置、电子设备及可读存储介质
CN112884123B (zh) * 2021-02-23 2024-03-01 杭州海康威视数字技术股份有限公司 神经网络优化方法、装置、电子设备及可读存储介质

Also Published As

Publication number Publication date
JP4226754B2 (ja) 2009-02-18

Similar Documents

Publication Publication Date Title
El-Jaroudi et al. A new error criterion for posterior probability estimation with neural nets
JP2003508835A (ja) 進化アルゴリズムを用いたニューラルネットワークのアーキテクチャの改良方法
CN110222830B (zh) 一种基于自适应遗传算法优化的深度前馈网络故障诊断方法
KR102460485B1 (ko) 정책 벡터 기반 인공신경망 탐색 장치 및 방법
JP4226754B2 (ja) ニューラルネットワークの最適化学習方法
TWI452529B (zh) Combined with the system equivalent model of the system and its computer program products
JP2020204909A (ja) 機械学習装置
CN109508781A (zh) 神经网络节点的自增减方法、装置及存储介质
Leng et al. A hybrid learning algorithm with a similarity-based pruning strategy for self-adaptive neuro-fuzzy systems
JP2002222409A (ja) ニューラルネットワークの最適化学習方法
JP2003256005A (ja) 制御方法および制御装置
JP2000259598A (ja) ニューラルネットワークの最適化学習方法
WO2022201534A1 (ja) 再学習システム及び再学習方法
JPH05225163A (ja) ニューラルネットシステムおよびニューラルネットの学習方法
JP2021081930A (ja) 学習装置、情報分類装置、及びプログラム
JP2540654B2 (ja) ニュ―ラルネットワ―クの学習装置
Meyer et al. A fuzzy stop criterion for genetic algorithms using performance estimation
JP2002236906A (ja) 積結合型ニューラルネットワークの最適化学習方法
WO2022009433A1 (ja) 情報処理装置,情報処理方法および情報処理プログラム
JP6926045B2 (ja) ニューラルネットワーク、学習装置、学習方法、およびプログラム
JPH0991264A (ja) ニューラルネットワーク構造最適化装置ならびに方法
Aran et al. An incremental neural network construction algorithm for training multilayer perceptrons
Tchendjou et al. Fuzzy logic modeling for objective image quality assessment
JP2004272877A (ja) 物理学をベースにしたニューラルネットワーク
CN114676396B (zh) 深度神经网络模型的保护方法、装置、电子设备和介质

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20031226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050714

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081001

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081127

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4226754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20081215

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A072

Effective date: 20090414

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term