JP2002222409A - ニューラルネットワークの最適化学習方法 - Google Patents

ニューラルネットワークの最適化学習方法

Info

Publication number
JP2002222409A
JP2002222409A JP2001018758A JP2001018758A JP2002222409A JP 2002222409 A JP2002222409 A JP 2002222409A JP 2001018758 A JP2001018758 A JP 2001018758A JP 2001018758 A JP2001018758 A JP 2001018758A JP 2002222409 A JP2002222409 A JP 2002222409A
Authority
JP
Japan
Prior art keywords
learning
neural network
intermediate layer
elements
weight coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001018758A
Other languages
English (en)
Inventor
Tatsuya Iizaka
達也 飯坂
Tetsuo Matsui
哲郎 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2001018758A priority Critical patent/JP2002222409A/ja
Publication of JP2002222409A publication Critical patent/JP2002222409A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】高速かつ効率的にニューラルネットワークを最
適化するニューラルネットワークの最適化学習方法を提
供する。 【解決手段】学習とコンパクト構造化とを交互に行って
ニューラルネットワークを最適化するニューラルネット
ワークの最適化学習方法において、2個の素子を融合す
る場合に、存続する素子と修正する素子のそれぞれの重
み係数および慣性項を組み合わせて生成した新たな重み
係数修正式により以後の学習およびコンパクト構造化を
行うニューラルネットワークの最適化学習方法とする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、予測、診断、制御
などの情報処理を行うようにニューラルネットワークを
最適化するためのニューラルネットワークの最適化学習
方法に関する。
【0002】
【従来の技術】ニューラルネットワークは、入出力のデ
ータパターンを与えるだけで入出力の非線形な相関関係
をモデル化・学習することが可能であり、予測、制御、
診断などの情報処理分野において研究・実用化されてい
る。図8は、多層ニューラルネットワークを説明する概
念図である。一般にニューラルネットワークとは、図8
に示すように入力層、中間層、出力層からなる多層ニュ
ーラルネットワーク構造を有しており、さらに、入力
層、中間層、出力層には素子が設けられ、入力層と中間
層との素子間、中間層と出力層との素子間に結合を持
つ。
【0003】ここで、中間層は、図8で示したような1
層のみに限ることなく複数層にわたることもあり、ま
た、素子数も図8で示したような3個に限定するもので
なく任意数の素子とすることができる。このように中間
層はブラックボックスであるため隠れ層とも呼ばれてい
る。なお、説明上、本明細書において入力層における素
子を入力層素子と、中間層における素子を中間層素子
と、また、出力層における素子を出力層素子と称して説
明する。また、一般的に、中間層素子と出力層素子とに
は、一定値(図8では1.0である)を出力するバイア
ス素子が結合されているが、必要時にのみバイアス素子
を図示して説明し、それ以外は図示を省略する。
【0004】重み係数は、ニューラルネットワークの素
子間の結合の重みを表すための係数である。重み係数が
大きければ、結合が重みを有している、つまり、必要な
結合であるとされ、重み係数が小さければ、結合の重み
が小さい、つまり、不要な結合であるとされる。このよ
うなニューラルネットワークの学習とは、複数の入力層
素子に入力された入力値に対し、所望の出力値が得られ
るように入力層と中間層、また、中間層と出力層との結
合の度合いを示す重み係数を変更することをいう。
【0005】ニューラルネットワークの学習では、中間
層素子数が多ければより複雑な問題を学習することが可
能になる。しかし、中間層素子が多すぎる場合には過学
習という問題が発生する。過学習がおきると汎化能力が
低下する。例えば、ニューラルネットワークを用いるパ
ターン分類問題で馬の絵のパターンを入力値として馬と
判断したことに相当する値を出力させる場合において、
中間層素子が多すぎて過学習がおきると特定の馬の絵の
パターンからしか馬と判定できなくなり、それ以外の馬
の絵のパターンからは馬と判定できなくなる。このよう
に過学習がおきると、学習パターン値にノイズがある場
合、つまり、学習した馬の絵が良くない場合や、学習パ
ターン値と相関の低い入力値が入力された場合、つま
り、入力された馬の絵が学習した馬の絵と異なる場合に
馬と判定できないというような汎化能力が低下した状態
を招く。中間層素子は適切な数とするのが望ましい。
【0006】さて、このようなニューラルネットワーク
の学習方法の改良として多くの観点から多数のアルゴリ
ズムが提案されている。広く用いられるアルゴリズムと
してバックプロパゲーション法(誤差逆伝搬法)がある
が、バックプロパゲーション法は、一般的に学習が遅
く、また、ニューラルネットワークの内部構造が複雑な
場合には最適な学習・構造を求めることが困難である。
そこで、高速で最適な学習・構造を求めるアルゴリズム
が各種提案されている。このうち比較的簡単なアルゴリ
ズムは、慣性項を導入する方法である。慣性項を用いる
一般的な学習方法として、バックプロパゲーション法の
改良手法であるモーメント法がある。
【0007】従来法1:モーメント法 モーメント法は、前回の修正方向を表す慣性項を、重み
係数修正式に含めるものである。モーメント法による学
習アルゴリズムでは、ニューラルネットワークからの実
際の出力値(以下、ニューロ出力値という。)から学習
目標である出力(以下、学習パターン値という。)を引
いた値(以下、出力誤差という。)の2乗を評価関数と
し、この評価関数値が小さくなるように重み係数を増減
する。この評価関数は次式のようになる。
【0008】
【数1】
【0009】ここでニューロ出力値は、重み係数の増減
によって変化する値であり、評価関数は重み係数をパラ
メータとする関数である。学習は、重み係数修正式を用
いて、学習パターン値とニューロ出力値とが近い(つま
り出力誤差が0の)重み係数となるように重み係数の修
正を繰り返し行って学習するものである。この重み係数
修正式は次式のように表される。
【0010】
【数2】
【0011】この式から明らかなように前回の修正量で
あるΔwk−1 に慣性定数αを乗じたものが今回の慣
性項として用いられる。このように重み係数修正式に慣
性項がある場合を、バックプロパゲーション法と区別す
るため特にモーメント法と呼んでいる。このモーメント
法では、慣性項により重み係数の修正が加速され、学習
が高速になるという利点がある。しかし、モーメント法
でもニューラルネットワークの階層数や素子数を事前に
決定する必要があり、事前に最適な階層数や素子数に関
する情報が得られることはなく、ニューラルネットワー
クの最適化のためには階層数および素子数を試行錯誤的
に探索する必要がある。ニューラルネットワークの内部
構造が複雑な場合は、探索に時間と手間がかかり、ま
た、学習後のニューラルネットワークはブラックボック
スとなり、中間層素子の意味づけが困難なことが多く、
この点ではバックプロパゲーション法と同様の課題を抱
えている。
【0012】さて、他の学習アルゴリズムとして、ニュ
ーラルネットワークの予測・診断等の性能を向上させる
ことに主眼をおいたアルゴリズムと、学習の高速化に主
眼をおいたアルゴリズムが提案されている。ニューラル
ネットワークの予測・診断等の性能を向上させる学習方
法の例として、 従来法2:コンパクト構造化法(増田:「隠れユニット
の合成による階層型ニューラルネットワークのコンパク
ト構造化」、計測自動制御学会論文集、Vol.28,No.4,p
p.519-527(1992))、 従来法3:中間層の重要度順に学習する重畳エネルギー
関数法(高橋:「重畳エネルギー関数による多層パーセ
プトロンの冗長性削減」、電子情報通信学会論文誌、D
−II、Vol.J80-D-II,No.9,pp.2532-2540(1997))という
学習アルゴリズムが提案されている。
【0013】まず、従来法2のコンパクト構造化法につ
いて説明する。コンパクト構造化法により不要の中間層
素子を他の中間層素子に融合する場合、2種類の融合が
ある。図9は、融合を説明する説明図であり、図9
(a)では、入力層に入力される学習パターン値の変化
に対応して出力値が変化する場合に相関傾向を有する複
数の中間層素子を説明し、図9(b)では、入力層の入
力値が変化しても出力する値が変化せず一定値を出力す
るバイアス素子的な振る舞いをする中間層素子を説明す
る。また、図10は、学習パターン値に対する中間層素
子の出力を示す出力図であり、図10(a)は、入力層
に入力される学習パターン値の変化に対応して出力値が
変化する場合に相関傾向を有する複数の中間層素子の出
力を、また、図10(b)では、入力層の入力値が変化
しても出力する値が変化しないバイアス素子的な振る舞
いをする中間層素子の出力をそれぞれ説明する。
【0014】図9(a)で示す2つの中間層素子から
は、図10(a)で示すように、同傾向の出力値が出力
され(相関の高い中間層素子出力)、また、図9(b)
のバイアス素子的な中間層素子からは、図10(b)で
示すように、学習パターン値が変化するにも拘わらず一
定値が出力される(バイアス素子的な振る舞いをする中
間層素子出力)。このような相関の高い中間層素子出力
およびバイアス素子的な振る舞いをする中間層素子出力
を検出する必要がある。なお、バイアス素子的な振る舞
いをする中間層素子とは、先に説明したバイアス素子と
は別個に存在する素子であり、これらは区別される。
【0015】続いて、これら出力の検出方法について説
明する。上述のような中間層素子出力をする中間層素子
を検出するため、次式で定義される相関係数γijを導
入する。
【0016】
【数3】
【0017】これにより、2つの中間層素子からの出力
値系列の相関関係を定量的に扱うことができる。図9
(a)で示す2個の中間層素子の出力が、図10(a)
に示すように、2つの中間層素子からの出力値系列が同
傾向の場合には相関係数γijは1に近い値となり、ま
た、出力値系列が逆傾向の場合には相関係数γijは−
1に近い値となる。なお、全く相関関係にない場合は、
0に近い値をとるため、相関係数γijにより相関関係
が明確に認識できる。この特徴から相関係数の絶対値が
1に近い程、相関が高い。
【0018】しかしながら、図9(b),図10(b)
で示すようなバイアス素子的な振る舞いをする中間層素
子について、相関係数γijでは判別ができない。そこ
で、このようなバイアス素子的な振る舞いをする中間層
素子を判別するために次式で定義される中間層素子出力
値の次式のような分散s を導入する。
【0019】
【数4】
【0020】図9(b)で示す1個の中間層素子の出力
が、図10(b)のような場合、分散s は0に近い
値となる。中間層素子の出力は、学習パターンの変化に
も拘わらず、ほぼ一定となっており、上の層の素子に対
してバイアス素子的な振る舞いをしている。以上、融合
する中間層素子の検出について、 相関の高い中間層素子については、中間層素子からの
出力値の相関係数が高い2つの中間層素子を融合の対象
とする。相関が高いという判断については、例えば相関
係数の絶対値が所定値以上(例えば0.9以上とか)い
うような場合が該当する。 バイアス素子的な振る舞いをする中間層素子について
は、中間層素子からの出力の分散値が0に近い中間層素
子をバイアス素子との融合の対象とする。分散値が低い
という判断については、例えば分散値が所定値以下(例
えば0.1以下とか)いうような場合が該当する。
【0021】続いて、相関の高い中間層素子について
の融合手法について説明する。図11は、ニューラルネ
ットワークの融合を説明する説明図である。図11
(a)で示すような中間層素子i,jからの出力値の相
関が高いため図11(b)で示すように中間層素子i,
jを融合する場合について説明する。中間層素子i,j
からの出力値系列{OiP},{OjP}の相関が高い
場合、2変量O,O の関係は多変量解析で周知の
ように、次式の線形回帰式で近似的に表現することがで
きる。
【0022】
【数5】
【0023】数5を用いると、上の層に属する任意の素
子(中間層素子や出力層素子など)kへの入力は、次式
のようになる。
【0024】
【数6】
【0025】すなわち、図11(b)で示すように中間
層素子iおよびバイアス素子から素子kへの重み係数を
次式のように修正する。
【0026】
【数7】
【0027】この修正によって、中間層素子jを中間層
素子iに融合することができる。なお、融合を行う際、
中間層素子jと中間層素子iとでどちらを融合するかが
問題となるが、出力値系列の分散の大きいほうを情報伝
達的により活発に機能していると考える。相関の高い中
間層素子出力についての融合はこのようになされる。続
いて、バイアス素子的な振る舞いをする中間層素子と
バイアス素子との融合について説明する。図11(a)
で示すような中間層素子iとバイアス素子とを図11
(c)で示すように融合する場合について説明する。中
間層素子iからの出力値系列{OiP}の分散が小さい
場合、Oの出力はほぼ一定で、Oの出力は次式のよ
うに平均値で近似できる。
【0028】
【数8】
【0029】数6を用いると、上の層に属する任意の素
子(中間層素子や出力層素子など)kへの入力は、次式
のようになる。
【0030】
【数9】
【0031】すなわち、図11(c)で示すようにバイ
アス素子から素子kへの重み係数を次式のように修正す
る。
【0032】
【数10】
【0033】この修正によって、バイアス素子的な傾向
を有する中間層素子iをバイアス素子に融合することが
できる。以上、ニューラルネットワークのコンパクト構
造化法ではこのような2通りの融合により中間層素子の
削減を行う。図12は、従来のコンパクト構造化の学習
アルゴリズムのフローチャートである。図12で示すよ
うにバックプロパゲーション学習(S202)とコンパ
クト構造化(S203〜S208)を交互に行い、所定
回数もしくは学習誤差が規定値以下になったら学習終了
と判断する(S209)ものである。
【0034】また、ニューラルネットワークの予測・診
断等の性能を向上させる他の従来法3について説明す
る。重畳エネルギー関数法では、中間層素子の重要度順
に学習する学習アルゴリズムである。この学習アルゴリ
ズムにより学習されるニューラルネットワークは、中間
層素子がその重要度順に並ぶ傾向があり、また、不要な
中間層素子の生成が抑制される。図13は、重畳エネル
ギー関数法により学習された中間層素子を説明する説明
図である。図13で示すように、この学習アルゴリズム
で学習したニューラルネットワークは、重要度の高い中
間層素子につながる重み係数が大きく(図13の太線の
矢印)、また、重要度の低い中間層素子につながる重み
係数は小さく(図13の細線の矢印)なる傾向がある。
また、その結果不要な分散表現が抑制される。
【0035】不要な分散表現について概略説明する。分
散表現とは、1つでも良い結合が複数の結合に分割され
ること、つまり、その結果多くの結合が必要になること
を表す。図14は不要な分散表現について説明する説明
図であり、簡単化のため、単純なニューラルネットワー
クを仮定している。このニューラルネットワークの出力
層素子への入力値は共に計1.0であるが、図14
(a)では2つの中間層素子に分散して情報が伝達され
るのに対し、図14(b)では1つの中間層素子を経て
情報が伝達されている点が相違する。図14(a)のよ
うな場合を分散表現と呼んでいる。
【0036】重畳エネルギー関数は、このような不要な
分散表現を抑制する。続いて、この重畳エネルギー関数
について説明する。まず、重畳エネルギー関数で用いる
部分ニューロの概念について説明する。図15は、部分
ニューロを説明する説明図である。図15に示すように
H個の中間層素子を持つニューラルネットワークにおい
て、中間層素子1のみを残し、中間層素子2〜Hの中間
層素子を無視した構造を部分ニューロ1とし、中間層素
子1、2だけを残し中間層素子3〜Hまでの中間層を無
視した構造を部分ニューロ2とし、以下同様に中間層素
子1〜iだけを残し中間層素子i+1〜Hまでの中間層
を無視した構造を部分ニューロiとしたH個の部分ニュ
ーロi(i=1、2、3・・・H)を仮定する。これら
部分ニューロの評価関数は、次式のようになる。
【0037】
【数11】
【0038】ニューラルネットワーク全体の評価関数J
は部分ニューロの評価関数を足して次式になる。
【0039】
【数12】
【0040】このニューラルネットワーク全体の評価関
数Jを重畳エネルギー関数と呼んでいる。この重畳エネ
ルギー関数が最小となるとき、分散表現が抑制され、か
つ中間層素子の重要度順に並んだニューラルネットワー
クとなる。図16は、重畳エネルギー関数法による学習
の流れを示すフローチャートである。ニューラルネット
ワークの階層数や素子数を決定する初期化を行い(ステ
ップS100)、重畳エネルギー関数法による学習を行
い(ステップS110)、学習を所定回数行ったか否か
を判定して所定回数行ったならば学習終了と判断する
(ステップS120)。本学習アルゴリズムでは分散表
現の発生が抑えられ、より単純なニューラルネットワー
ク構造となる。
【0041】また、本発明者も重畳エネルギー関数と忘
却関数とを組み合わせ、複数の最適化アルゴリズムを複
合的に組み合わせて学習能力を高めたニューラルネット
ワークの最適化学習法についての発明をした。この発明
は、特願平11−66165号として特許出願され、特
開2000−259598号として出願公開されるに至
っている。
【0042】さて、いままでは、学習アルゴリズムの改
良のうち特にニューラルネットワークの予測・診断等の
性能を向上させる学習方法の例であったが、学習の高速
化に主眼をおいた学習アルゴリズムも提案されている。
例えば、 従来法4:Jacobs Hybrid 法(Adaptive BP法とも
いう)(R.A.Jacobs,Increased Rates of Convergence
Through Learning Rate Adaption,Neural Networks Vol
1.pp.295-307,1988), 従来法5:Jacobs Hybrid 法の改良手法であるKick O
ut法(落合他:重みの振動を抑制する階層型ニューラル
ネットワークの学習法―Kick Out法―,電気学会論文
誌,Vol.113-C, No.12,(1993), 従来法6:特開平8-77130:発明の名称:神経回路網モ
デルの逐次加速化学習法)などがある。
【0043】従来法4:「Jacobs hybrid法(Adaptive B
P)」 ニューラルネットワークの重み係数の1つずつに学習係
数を用意し、重み係数の修正方向が平滑化微分方向(大
域的な勾配方向)と同じときには重み係数を大きくし、
違うときには小さくすることで、最適な学習係数にする
方法である。ここで、勾配gとは、評価関数Jの重み係
数に関する一次偏微分値である。特に、学習係数に学習
係数増加量κ(カッパ)が加算される場合にはJacobs h
ybrid法といい、次式で表記される。
【0044】
【数13】
【0045】また、Jacobs hybrid法では、次式のよう
な改良手法もある。
【0046】
【数14】
【0047】従来法5:Kick Out法 従来法4のJacobs hybrid法のさらなる改良手法であ
り、学習時に重み係数が振動するときには補正項により
振動を抑制する方法である。振動判定と補正項による修
正は次式の通りである。
【0048】
【数15】
【0049】Jacobs Hybrid 法やKick Out法は、慣性
項を用いることからも明らかなようにモーメント法の一
種である。モーメント法とは、慣性項を用いるような重
み係数修正式を包括的に指すものであり、本明細書で
は、その一例として、モーメント法とは数2で表される
重み係数修正式を有するものとして説明する。Jacobs
Hybrid 法は、学習の高速化を実現するため、モーメン
ト法の数2の重み係数修正式を改良した数13および数
14で表される重み係数修正式を有するものである。Ki
ck Out法は、学習の高速化を実現するため、モーメント
法の数2の重み係数修正式を改良した数15で表される
重み係数修正式を有するものである。
【0050】従来法6:特開平8-77130、(発明の名
称:神経回路網モデルの逐次加速化学習法) 従来法5のKick Out法は基本的に一括学習型のアルゴリ
ズムであり、学習パターン数が多い問題を学習させると
きには学習が遅くなるという問題がある。そのため学習
パターン1つずつを学習する逐次学習を用いるようにKi
ck Out法を改良した手法とした。従来法6による重み係
数修正式を次式に示す。
【0051】
【数16】
【0052】
【発明が解決しようとする課題】従来法5のKick Out法
は特有の問題点を有している。ニューラルネットワーク
の学習方法は一括学習法と逐次学習方法がある。その違
いは評価関数であり、一括学習法の評価関数は、全学習
パターンにおける誤差の和であり、次式のように表され
る。
【0053】
【数17】
【0054】一方、逐次学習法は、各学習パターンの誤
差であり、次式のように表される。
【0055】
【数18】
【0056】この違いにより、全学習パターンを提示し
た後に重みを更新するという一括学習法は、全ての学習
パターン誤差を算出したのち1回しか重みを更新しない
ため、学習パターン数がきわめて多い場合には単位時間
あたりの重み更新回数が少なく学習が遅くなる欠点があ
った。通常のKick Out法はこの一括学習法を前提とした
学習方法であるので、学習パターンがきわめて多い場合
には学習が遅くなる。
【0057】また、Kick Out法の欠点を改良する手法と
して、逐次学習法を用いる従来法6の特開平8-77130が
提案された。しかし、従来法6の発明では、学習時の振
動を補正するための補正項の算出方法が簡略化されてお
り、必ずしも適切な値が算出されない。特に補正係数の
設定方法がなく問題がある。従来法5のKick Out法は補
正係数を次式のように算出する。
【0058】
【数19】
【0059】このため、勾配の変化に対応して補正係数
が変化する。しかしながら、特開平8-77130の発明によ
る補正係数はa であり、その設定方法は設計者の経
験と勘に頼っている。補正係数の設定次第では、却って
学習時間の増大・学習能力の低下を招くことがあった。
このように、Kick Out法は、高速化と学習能力の向上を
共に実現するためにさらなる工夫が必要とされていた。
【0060】また、Jacobs Hybrid法、Kick Out法は、
別の問題点も有している。Jacobs Hybrid法、Kick Out
法は、学習の速度を調節する学習係数を調整するため、
ニューラルネットワークの学習の高速化、学習誤差の低
減にきわめて有効な方法であるが、その学習性能の高さ
故に、ニューラルネットワークの汎化能力を損なう危険
性がある。通常、学習データには、実験・実測データよ
り作成されるため多くのノイズが混入している。よって
学習しすぎるとノイズまでも学習する過学習状態に陥
り、学習データに対しては良好な結果を示すが、実際に
使用すると良好な性能を示さないことがある。汎化能力
を損なう原因の1つとして、ニューラルネットワークの
規模、つまり中間層素子数が不適切であることがある。
多くの中間層素子を用意すれば複雑な問題も学習できる
が汎化能力が低下する。
【0061】そこで、先に説明したコンパクト構造化法
を用いて汎化能力の低下を防止することが考えられる。
このコンパクト構造化法は、先に説明したが、不要な中
間層素子を他の素子に融合させることで、中間層素子を
削減し汎化能力を向上させる方法である。しかしなが
ら、コンパクト構造化法は、慣性項のないバックプロパ
ゲーション学習を前提にしているため、慣性項を用いる
他の学習法(すなわち、モーメント法、モーメント法の
一種であるJacobs Hybrid法、および、モーメント法の
一種であるKick Out法)にコンパクト構造化法を適用す
ると、素子の融合後に適切な重みの修正ができない。具
体的には、融合直後の重み修正により一時的に誤差が増
加するというような問題が発生していた。このように、
モーメント法、Jacobs Hybrid法、および、Kick Out法
にコンパクト構造化法を単純に適用することはできなか
った。
【0062】以上説明した上記課題を解決するため、本
発明の目的は、コンパクト構造化法を、モーメント法、
モーメント法の一種であるJacobs hybrid法、または、
モーメント法の一種であるKick Out法に適用するもので
あり、中間層素子の融合直後に学習に必要な各種変数の
値を修正することで、高速で安定した学習および過学習
がない汎化能力の高い学習をそれぞれ実現することにあ
る。また、学習時間を要するKick Out法のアルゴリズム
を改善し、Kick Out法の学習の高速化を実現することに
ある。総じて、本発明の目的は、高速かつ効率的にニュ
ーラルネットワークを最適化するニューラルネットワー
クの最適化学習方法を提供することにある。
【0063】
【課題を解決するための手段】上記課題を解決するた
め、請求項1に記載の発明は、ニューラルネットワーク
の評価関数の勾配と重み修正量の慣性項とを含む重み係
数修正式を利用して重み係数を修正するモーメント法に
より、ニューラルネットワークの入力層、中間層、およ
び、出力層の素子間の重み係数を増減して新たにニュー
ラルネットワークを生成する学習を行い、このニューラ
ルネットワークの中間層の中の1個の素子の出力値系列
を用いて求めた分散が所定値以下の場合にこの素子をバ
イアス素子に融合し、また、このニューラルネットワー
クの中間層の中の2個の素子の出力値系列を用いて求め
た相関係数の絶対値が所定値以上の場合にこれら2個の
素子を情報伝達的に同じ働きであるとして融合するコン
パクト構造化を行い、これら学習とコンパクト構造化と
を交互に行ってニューラルネットワークを最適化するニ
ューラルネットワークの最適化学習方法において、2個
の素子を融合する場合に、存続する素子と消滅する素子
のそれぞれの重み係数および慣性項を組み合わせて生成
した新たな重み係数修正式により以後の学習およびコン
パクト構造化を行うことを特徴とする。
【0064】また、請求項2に記載の発明は、ニューラ
ルネットワークの評価関数の勾配と重み修正量の慣性項
とを含む重み係数修正式を利用して重み係数を修正する
モーメント法により、ニューラルネットワークの入力
層、中間層、および、出力層の素子間の重み係数を増減
して新たにニューラルネットワークを生成する学習を行
い、このニューラルネットワークの中間層の中の1個の
素子の出力値系列を用いて求めた分散が所定値以下の場
合にこの素子をバイアス素子に融合し、また、このニュ
ーラルネットワークの中間層の中の2個の素子の出力値
系列を用いて求めた相関係数の絶対値が所定値以上の場
合にこれら2個の素子を情報伝達的に同じ働きであると
して融合するコンパクト構造化を行い、これら学習とコ
ンパクト構造化とを交互に行ってニューラルネットワー
クを最適化するニューラルネットワークの最適化学習方
法において、2個の素子を融合する場合に、存続する素
子と消滅する素子のそれぞれの重み係数を組み合わせ、
かつ慣性項を予め定められた値に初期化して生成した新
たな重み係数修正式を用いて以後の学習およびコンパク
ト構造化を行うことを特徴とする。
【0065】また、請求項3に記載の発明は、請求項1
または請求項2に記載のニューラルネットワークの最適
化学習方法において、前記評価関数は、全学習パターン
の中から適数選択した学習パターンのそれぞれについ
て、学習パターンである出力目標値と実出力値との差分
を2乗した誤差を加算した関数とすることを特徴とす
る。
【0066】また、請求項4に記載の発明は、請求項1
または請求項2に記載のニューラルネットワークの最適
化学習方法において、前記評価関数は、重畳エネルギー
関数とすることを特徴とする。
【0067】また、請求項5に記載の発明は、請求項4
に記載のニューラルネットワークの最適化学習方法にお
いて、前記評価関数は、重畳エネルギー関数に忘却関数
を加えた評価関数とすることを特徴とする。
【0068】また、請求項6に記載の発明は、請求項1
〜請求項5の何れか1項に記載のニューラルネットワー
クの最適化学習方法において、前記重み係数修正式は、
Jacobs Hybrid法によることを特徴とする。
【0069】また、請求項7に記載の発明は、請求項1
〜請求項5の何れか1項に記載のニューラルネットワー
クの最適化学習方法において、前記重み係数修正式は、
Kick Out法によることを特徴とする。
【0070】
【発明の実施の形態】以下、図に沿って本発明の各実施
形態を説明する。まず、請求項1の発明に係る第1実施
形態について説明する。本実施形態の学習アルゴリズム
Aでは図12で示す従来法2の学習アルゴリズムを改良
し、バックプロパゲーション法による学習の代わりにモ
ーメント法による学習とし、このモーメント法による学
習とコンパクト構造化を交互に行うようにした。この学
習アルゴリズムAについて説明する。この学習アルゴリ
ズムAは、汎用計算機・制御装置等にプログラムされ、
コンピュータにこの学習アルゴリズムAを行わせること
を想定して説明する。なお、後述の他の学習アルゴリズ
ムも同様である。
【0071】まず、学習アルゴリズムの要点について説
明する。このモーメント法による重み係数修正式は次式
により表される。
【0072】
【数20】
【0073】この重み係数修正式において現在の修正量
Δw は、現在の勾配g と直前に学習された修正量
Δwk−1 から算出されている。例えば、中間層素子
iとjと融合したとき、従来技術では、重み係数w
k、iとwk、j は次式により修正される
【0074】
【数21】
【0075】しかしながら、従来のコンパクト構造化法
では、融合する2つ素子の重み係数wを融合するもの
であるが、慣性項αΔwk−1 の修正については考慮
されておらず、慣性項αΔwk−1、i とαΔw
k−1、j が大きく異なっていたときには、k回目の
修正量が不適切になる。また、この影響は慣性定数αが
大きいほどその後の学習に影響を与える。このため、コ
ンパクト構造化はそのままモーメント法に適用すること
ができなかった。そこで、次回修正(コンパクト構造化
実施後に最初に行われるk+1回目の修正)に使われる
慣性項αΔw 、すなわち今回の修正量Δwを次
式により修正する。
【0076】
【数22】
【0077】本発明では、このように慣性項も融合によ
り修正するため、融合直後に修正量に異常が生じるとい
う事態は回避される。
【0078】続いて、本実施形態の学習アルゴリズムA
について説明する。図1は本発明の実施形態の学習アル
ゴリズムA,B,Cに共通する共通フローチャートであ
る。ステップS1は、初期化処理を行うステップであ
る。学習アルゴリズムAにおける初期化処理とは、中間
層の階層数、各層の中間層素子数、分散のしきい値、相
関係数のしきい値、学習回数などを入力する。ステップ
S2は、重み係数の学習を行うステップである。この学
習アルゴリズムAではモーメント法による学習である。
先の数20,数21,数22の重み係数修正式を用い、
モーメント法により求めたニューラルネットワークの重
み係数を新しい重み係数とし、古い重み係数と書き換え
て保存する。
【0079】ステップS3は、コンパクト構造化を実行
するか否かを判定するステップである。判定方法として
は、モーメント法による学習回数が所定回数に達した場
合や、学習誤差が減少しなくなったなどの場合が考えら
れるが、本学習アルゴリズムAでは、学習回数が所定回
数に達したか否かについて判定するものとする。学習回
数が所定回数に達しているならばステップS4へ進み、
学習回数が所定回数に達していないならば初期段階(つ
まり中間層素子は十分な分化が行われていない段階)と
してステップS9へジャンプする。
【0080】ステップS4は、中間層素子からの出力値
系列を用いて分散を算出するステップである。具体的に
は、複数ある中間層素子の出力値系列を用いて全ての中
間層素子についての分散を求めるものであり、コンパク
ト構造化法で説明した数4を用いて算出することとな
る。ステップS5は、ステップS4で算出した複数の分
散について所定値以下か否かを判定するステップであ
る。複数の分散のうち一つでも所定値以下(バイアス素
子へ融合可)と判断するならばステップS8へジャンプ
し、また、全ての分散が所定値を越える(バイアス素子
へ融合不可)と判断するならばステップS6へ進む。
【0081】ステップS6は、中間層素子からの出力値
系列を用いて相関係数を算出するステップである。具体
的には、複数ある中間層素子からある2つの中間層素子
を選択してこれら2つの中間層素子の出力値系列を用い
て相関係数を求めるという処理を全ての中間層素子で想
定できる組み合わせについて行うものであり、コンパク
ト構造化法で説明した数3を用いて算出することとな
る。例えば、仮に中間層素子1,2,3と3個ある場合
には、中間層素子1,2の相関、中間層素子2,3の相
関、および中間層素子1,3の相関について相関係数を
算出することとなる。
【0082】ステップS7は、ステップS6で算出した
複数の相関係数について所定値以上か否かを判定するス
テップである。相関係数は、先に説明したように、相似
度を示す−1〜+1の指標である。±1に近いと
相関が高く、0に近いと相関がないことを表す。相関係
数の絶対値が所定値以上(2つの中間層素子が融合可)
と判断するならばステップS8へ進み、また、相関係数
の絶対値が所定値未満(2つの中間層素子が融合不可)
と判断するならばステップS9へジャンプする。
【0083】ステップS8は、融合を行うステップであ
る。ステップS5からジャンプしてきたならば中間層
素子とバイアス素子との融合を、また、ステップS7か
ら進んできたならば中間層素子同士の融合を行う。こ
こにモーメント法による中間層素子とバイアス素子と
の融合は次式により表される。
【0084】
【数23】
【0085】また、モーメント法による中間層素子同
士の融合は次式により表される。
【0086】
【数24】
【0087】なお、複数の中間層素子の分散を算出して
多数の分散が所定値以下の場合、最も分散が小さい中間
層素子とバイアス素子とを融合させる。1度に融合可能
な全ての素子を融合する場合も考えられるが、1度のコ
ンパクト構造化に対し1回に融合制限した方が良好な学
習結果が得られることが多い。同様に、相関係数の絶対
値が所定値以上の中間層素子の組み合わせが多数ある場
合、相関係数の絶対値が最も大きい中間層素子の組み合
わせを融合させる。この場合も、1度のコンパクト構造
化に対し1回に融合制限した方が良好な結果が得られる
ことが多いからである。
【0088】ステップS9は、学習終了か否かを判断す
るステップである。具体的には学習回数が所定回数に達
したか否かを判断している。学習終了しない場合は、ス
テップS2の先頭へジャンプして再度モーメント法によ
り学習を行い、学習終了の場合はフローを終了すること
ととなる。
【0089】学習アルゴリムAでは、モーメント法にコ
ンパクト構造化法を導入したことにより、コンパクト構
造化法により中間層素子が削減されるため、従来のモー
メント法よりも計算量が減少して学習時間を短縮するこ
とが可能である。
【0090】続いて、請求項1,6の発明に係る第2実
施形態について説明する。本実施形態の学習アルゴリズ
ムBでは図1で示す学習アルゴリズムAにおいて、モー
メント法による学習の代わりにモーメント法の改良手法
であるJacobs Hybrid法による学習とし、このJacobs Hy
brid法による学習とコンパクト構造化を交互に行うよう
にした。この学習アルゴリズムBについて、図1の学習
アルゴリズムの共通フローチャートに基づいて説明す
る。
【0091】ステップS1で学習アルゴリズムAと同様
の初期化処理を行い、ステップS2で重み係数の学習と
してJacobs Hybrid法による学習を行う。先の数13ま
たは14で表したJacobs Hybrid法により求めたニュー
ラルネットワークの重み係数を新しい重み係数とし、古
い重み係数と書き換えて保存する。ステップS3でコン
パクト構造化を実行するか否かを判定する。Jacobs Hy
brid法による学習回数が所定回数に達しているならばス
テップS4へ進み、達していないならば初期段階(中間
層素子は未分化の段階)としてステップS9へジャンプ
する。ステップS4では、中間層素子からの出力値系列
を用いて分散を算出する。具体的には、コンパクト構造
化法で説明した数4を用いて算出することとなる。
【0092】ステップS5では、ステップS4で算出し
た複数の分散のうち一つでも所定値以下(バイアス素子
へ融合可)と判断するならばステップS8へジャンプ
し、また、全ての分散が所定値を越える(バイアス素子
へ融合不可)と判断するならばステップS6へ進む。ス
テップS6では、複数ある中間層素子からある2つの中
間層素子を選択してこれら2つの中間層素子の出力値系
列を用いて相関係数を求めるという処理を全ての中間層
素子で想定できる組み合わせについて行うものであり、
コンパクト構造化法で説明した数3を用いて算出するこ
ととなる。
【0093】ステップS7では、ステップS6で算出し
た複数の相関係数について所定値以上か否かを判定し、
相関係数の絶対値が所定値以上(2つの中間層素子が融
合可)と判断するならばステップS8へ進み、また、相
関係数の絶対値が所定値未満(2つの中間層素子が融合
不可)と判断するならばステップS9へジャンプする。
ステップS8では、融合を行うステップである。ステッ
プS5からジャンプしてきたならば中間層素子とバイ
アス素子との融合を、また、ステップS7から進んで来
たならば中間層素子同士の融合を行う。ここにJacobs
Hybrid法による中間層素子とバイアス素子との融合
は次式により表される。
【0094】
【数25】
【0095】また、Jacobs Hybrid法による中間層素
子同士の融合は次式により表される。
【0096】
【数26】
【0097】複数の中間層素子の分散を算出して多数の
分散が所定値以下の場合、最も分散が小さい中間層素子
とバイアス素子とを融合させる。同様に、相関係数の絶
対値が所定値以上の中間層素子の組み合わせが多数ある
場合、相関係数の絶対値が最も大きい中間層素子の組み
合わせを融合させる。この理由は学習アルゴリズムAと
同様である。ステップS9では、学習終了か否かを判断
する。具体的には学習回数が所定回数に達したか否かを
判断する。学習終了しない場合は、ステップS2の先頭
へジャンプして再度Jacobs Hybrid法により学習を行
い、学習終了の場合はフローを終了することととなる。
【0098】学習アルゴリムBでは、モーメント法の一
種であるJacobs Hybrid法にコンパクト構造化法を導入
したことにより、コンパクト構造化法により中間層素子
が削減されるため、従来のJacobs Hybrid法よりも計算
量が減少して学習時間を短縮することが可能である。
【0099】続いて、請求項1,7の発明に係る第3実
施形態について説明する。本実施形態の学習アルゴリズ
ムCでは図1で示す学習アルゴリズムAにおいて、モー
メント法による学習の代わりにモーメント法の一種であ
るKick Out法による学習とし、このKick Out法による
学習とコンパクト構造化を交互に行うようにした。この
学習アルゴリズムCについて、図1の学習アルゴリズム
の共通フローチャートに基づいて説明する。
【0100】ステップS1で学習アルゴリズムAと同様
の初期化処理を行い、ステップS2で重み係数修正とし
てKick Out法による学習を行う。先の数15で表したK
ickOut法により求めたニューラルネットワークの重み係
数を新しい重み係数とし、古い重み係数と書き換えて保
存する。ステップS3でコンパクト構造化を実行するか
否かを判定する。Kick Out法による学習回数が所定回
数に達しているならばステップS4へ進み、達していな
いならば初期段階(中間層素子は未分化の段階)として
ステップS9へジャンプする。ステップS4では、中間
層素子からの出力値系列を用いて分散を算出する。具体
的には、コンパクト構造化法で説明した数4を用いて算
出することとなる。
【0101】ステップS5では、ステップS4で算出し
た複数の分散のうち一つでも所定値以下(バイアス素子
へ融合可)と判断するならばステップS8へジャンプ
し、また、全ての分散が所定値を越える(バイアス素子
へ融合不可)と判断するならばステップS6へ進む。ス
テップS6では、複数ある中間層素子からある2つの中
間層素子を選択してこれら2つの中間層素子の出力値系
列を用いて相関係数を求めるという処理を全ての中間層
素子で想定できる組み合わせについて行うものであり、
コンパクト構造化法で説明した数3を用いて算出するこ
ととなる。
【0102】ステップS7では、ステップS6で算出し
た複数の相関係数について所定値以上か否かを判定し、
相関係数の絶対値が所定値以上(2つの中間層素子が融
合可)と判断するならばステップS8へ進み、また、相
関係数の絶対値が所定値未満(2つの中間層素子が融合
不可)と判断するならばステップS9へジャンプする。
ステップS8では、融合を行うステップである。ステッ
プS5からジャンプしてきたならば中間層素子とバイ
アス素子との融合を、また、ステップS7から来たなら
ば中間層素子同士の融合を行う。ここにKick Out法
による中間層素子とバイアス素子との融合は次式によ
り表される。
【0103】
【数27】
【0104】また、Kick Out法による中間層素子同
士の融合は次式により表される。
【0105】
【数28】
【0106】複数の中間層素子の分散を算出して多数の
分散が所定値以下の場合、最も分散が小さい中間層素子
とバイアス素子とを融合させる。同様に、相関係数の絶
対値が所定値以上の中間層素子の組み合わせが多数ある
場合、相関係数の絶対値が最も大きい中間層素子の組み
合わせを融合させる。この理由は学習アルゴリズムAと
同様である。ステップS9では、学習終了か否かを判断
する。具体的には学習回数が所定回数に達したか否かを
判断する。学習終了しない場合は、ステップS2の先頭
へジャンプして再度Kick Out法により学習を行い、学
習終了の場合はフローを終了することとなる。
【0107】学習アルゴリムCでは、モーメント法の一
種であるKick Out法にコンパクト構造化法を導入した
ことにより、コンパクト構造化法により中間層素子が削
減されるため、従来のKick Out法よりも計算量が減少
して学習時間を短縮することが可能である。
【0108】続いて、請求項2,請求項6,請求項7の
発明に係る第4実施形態について説明する。第1〜第3
実施形態の学習アルゴリズムA,B,CではステップS
2において、モーメント法、Jacobs Hybrid法、または
Kick Out法による学習を行い、コンパクト構造化法に
より不要な中間層素子を削除していた。この場合、コン
パクト構造化法による素子の融合前後の修正項をできる
だけ、変えないようにする方法であった。本実施形態で
は、融合後は、最急降下方向から学習しなおす方法であ
る。学習アルゴリズムA,B,CのステップS8におけ
る融合により重み係数の修正式が変化する以外は各ステ
ップは同じである。以下、モーメント法による学習アル
ゴリズムA1、Jacobs Hybrid法による学習アルゴリズ
ムB1、またはKick Out法による学習アルゴリズムC
1の融合時における重み係数修正式について説明する。
【0109】まず、モーメント法による学習アルゴリズ
ムA1について説明する。ここにモーメント法による
中間層素子とバイアス素子との融合は数23から次式に
変更される。
【0110】
【数29】
【0111】また、モーメント法による中間層素子同
士の融合は数24から次式に変更される。
【0112】
【数30】
【0113】このようにアルゴリズムAは数式が複雑で
あるのに対し、アルゴリズムA1数式が簡単であり、計
算が容易になるという利点がある。
【0114】また、Jacobs Hybrid法による学習アルゴ
リズムB1について説明する。学習アルゴリズムB1の
ステップS8における融合が次式のように変化する。こ
こにJacobs Hybrid法による中間層素子とバイアス素
子との融合は数25から次式に変更される。
【0115】
【数31】
【0116】また、Jacobs Hybrid法による中間層素
子同士の融合は数26から次式に変更される。
【0117】
【数32】
【0118】なお、学習係数ηは、初期化せずに数2
5,26の式を用いても良い。
【0119】また、Kick Out法による学習アルゴリズ
ムC1のステップS8における融合が次式のように変化
する。ここにKick Out法による中間層素子とバイア
ス素子との融合は数27から次式に変更される。
【0120】
【数33】
【0121】また、Kick Out法による中間層素子同
士の融合は数28から次式に変更される。
【0122】
【数34】
【0123】なお、学習係数ηは、初期化せずに数2
7,28の式を用いても良い。このように学習アルゴリ
ズムA1,B1,C1において、融合後は、最急降下方
向から学習しなおす。学習アルゴリズムA,B,Cでは
数学的に厳密であるのに対し、学習アルゴリズムA1,
B1,C1は簡単になるという利点がある。
【0124】続いて、請求項3,請求項6,請求項7の
発明に係る第5実施形態について説明する。本実施形態
の要点についてKick Out法に関連させて説明する。通
常のKick Out法による重み係数修正式を次式に示す。
【0125】
【数35】
【0126】勾配gは評価関数Jの一次偏微分であっ
て、評価関数をどのように設計するかにより勾配gの性
質が変わる。評価関数が変わる場合として一括学習法お
よび逐次学習法が知られている。一括学習法は、評価関
数として次式のように全ての学習パターンを提示した後
に重みを更新する学習方式である。
【0127】
【数36】
【0128】このため、勾配gは、通常g,gk−1
に大きな差がないが、学習が振動する谷部分では大きく
変わる。Kick Out法は、この性質を利用し振動の判定を
行っている。これに対し、逐次学習法は、評価関数とし
て次式のように個々の学習用パターン毎に重みを更新す
る学習方式である。
【0129】
【数37】
【0130】しかし、逐次学習では各学習パターンの勾
配方向は大きく異なり,振動判定や補正係数の算出はで
きない。先に説明した従来法6の特開平8-77130の発明
は,Kick Out法を逐次学習に適用するものであるが,補
正係数を簡略化しているため,必ずしも良好な結果が期
待できない。そこで、次式のように、全学習パターンm
個のうちn個分だけまとめた評価関数を新たに設計する
こととした。
【0131】
【数38】
【0132】つまり、単位時間あたりの修正回数は、一
括学習法と比較して約m/n倍、逐次学習法と比較して
約1/nである。このように、 一括学習法よりも単位
時間あたりの修正回数が多いので、学習が高速になる。
また、逐次学習法よりも個別の学習パターンに影響され
ないので、学習時の振動の判定と補正係数の値の精度が
向上する。当然ながら、数38による評価関数でn→m
にすると一括学習法になることから、n=mは採用され
ない、つまり、n=2,3,・・・,m−1の何れかと
なる。
【0133】続いて、本発明による学習アルゴリズムを
説明する。本発明は、図1で示した学習アルゴリズム
A,B,Cを改良した学習アルゴリズムA2,B2,C
2に関するものであり、図1を参照して説明する。ステ
ップS1は、初期化処理を行うステップである。中間層
の階層数、各層の中間層素子数、分散のしきい値、相関
係数のしきい値、学習回数などを入力する点では学習ア
ルゴリズムA,B,Cの初期化処理と同じである。
【0134】そして、改良点としてステップS1では、
学習パターンをランダムに並べ替える。ニューラルネッ
トワークは最後に学習した問題の影響を一番大きく受け
る。時系列データのように学習パターンに規則性がある
場合には、最後のパターンばかりを覚え,最初のパター
ンの覚えが悪くなってしまう。また、その他の問題とし
て、勾配gは全学習パターンの勾配方向の近似である必
要があり,学習パターンの並びに規則性があるときに
は,この前提条件が成り立たなくなってしまう。ステッ
プS1で初期化処理で,学習パターンをランダムに並び
替えることにより、規則性の影響を取り去り、勾配gが
全学習パターンの勾配方向を近似できるようにするもの
である。
【0135】ステップS2は、重み係数の学習として先
に説明した、モーメント法、JacobsHybrid法またはKick
Out法による学習を行うステップである。まず、全学習
パターンm個のうちn個分のパターンを使用して評価関
数を算出する(ステップS2(a)評価関数算出)そし
て、算出した評価関数を重み係数に関して一次偏微分す
ることで勾配を算出し、最終的に数2(モーメント
法)、数13,14(Jacobs Hybrid法)、数15(Ki
ck Out法)に代入して重み係数修正量を算出する(ス
テップS2(b)修正量算出)。ここで、算出した勾配
gは、n個分の学習パターンから算出しているので、全
学習パターンの勾配方向を近似したものである。そし
て、モーメント法、Jacobs Hybrid法またはKick Out法
による重み係数修正式を利用して重み係数を算出し、ニ
ューラルネットワークの重み係数を新しい重み係数と
し、古い重み係数と書き換えて保存する。ステップS2
ではこのように処理される。
【0136】以下のステップでは同様の処理のため、説
明を簡単にする。ステップS3でコンパクト構造化を実
行するか否かを判定し、学習回数が所定回数に達してい
るならばステップS4へ進み、学習回数が所定回数に達
していないならば初期段階としてステップS9へジャン
プする。ステップS4では、中間層素子からの出力値系
列を用いて分散を算出し、ステップS5では、ステップ
S4で算出した複数の分散について所定値以下か否かを
判定する。複数の分散のうち一つでも所定値以下ならば
ステップS8へジャンプし、また、全ての分散が所定値
を越えるならばステップS6へ進む。
【0137】ステップS6では、中間層素子からの出力
値系列を用いて相関係数を算出し、ステップS7では、
ステップS6で算出した複数の相関係数について所定値
以上か否かを判定し、所定値以上と判断するならばステ
ップS8へ進み、また、相関係数の絶対値が所定値未満
と判断するならばステップS9へジャンプする。ステッ
プS8では、融合を行い、ステップS5からジャンプし
てきたならば中間層素子とバイアス素子との融合を、
また、ステップS7から来たならば中間層素子同士の
融合を行う。
【0138】ここに慣性項を初期化しないなら中間層
素子とバイアス素子との融合は、モーメント法による学
習アルゴリズムA2ならば数23で、Jacobs Hybrid法
による学習アルゴリズムB2ならば数25で、また、Ki
ck Out法による学習アルゴリズムC2ならば数27で処
理される。また、中間層素子同士の融合は、学習アル
ゴリズムA2ならば数24で、学習アルゴリズムB2な
らば数26で、また、学習アルゴリズムC2ならば数2
8で処理される。一方、慣性項を初期化するなら中間
層素子とバイアス素子との融合は、学習アルゴリズムA
2ならば数29で、学習アルゴリズムB2ならば数31
で、また、学習アルゴリズムC2ならば数33で処理さ
れる。また、中間層素子同士の融合は、学習アルゴリ
ズムA2ならば数30で、学習アルゴリズムB2ならば
数32で、また、学習アルゴリズムC2ならば数34で
処理される。
【0139】ステップS9は、学習終了か否か、つまり
学習回数が所定回数に達したか否かを判断し、学習終了
しない場合は、ステップS2の先頭へジャンプして再度
モーメント法、Jacobs Hybrid法またはKick Out法によ
り学習を行い、学習終了の場合はフローを終了すること
となる。学習アルゴリムA2,B2,C2では、学習精
度が高いという一括学習の利点と高速であるという逐次
学習の利点を共に満たすことができる。
【0140】続いて、請求項4,請求項6,請求項7の
発明に係る第6実施形態について説明する。本実施形態
では、先に数11,12を用いて説明した重畳エネルギ
ー関数を評価関数とする。そして、算出した評価関数を
重み係数に関して一次偏微分することで勾配を算出し、
最終的に数2(モーメント法)、数13,14(Jacobs
Hybrid法)、数15(Kick Out法)に代入して重み
係数修正量を算出することする。本実施形態では評価関
数は異なるが、学習アルゴリズムは、第1〜第4実施形
態の学習アルゴリズムA,A1,B,B1,C,C1と
同じであり詳しい説明を省略する。
【0141】重畳エネルギー関数は、不要な中間層素子
の生成を抑制するアルゴリズムであり、中間層素子の役
割が明確な構造になりやすい。そのため不要な中間層素
子と重要な中間層素子の判定は容易であり、最適な中間
層素子数が選択されやすくなる。このように本発明で
は,評価関数を数11,12で表される重畳エネルギー
関数とすることで,不要中間層素子の成長を抑制した学
習が可能であり,汎化能力が向上する。これ以外は、先
に説明した学習アルゴリズムA,A1,B,B1,C,
C1を適用することで実現される。本実施形態によれ
ば、学習速度の高速化と学習制度の向上を共に実現す
る。
【0142】続いて、請求項5,請求項6,請求項7の
発明に係る第7実施形態について説明する。本実施形態
では、評価関数として先に説明したような、重畳エネル
ギー関数に忘却関数を加えた関数を採用するものであ
る。忘却関数については、例えば、文献:ニューラルネ
ットワークのユニット間の不要な結合を消滅させる忘却
付き学習(石川真澄:「ニューラルネットの忘却付き構
造学習」、日本ファジィ学会誌Vol.9,No.1,pp2-9(199
7))により忘却付き学習アルゴリズムが提案され、ま
た、重畳エネルギー関数と忘却関数を組み合わせた評価
関数については、先に説明した特開2000−2595
98号にも詳しく紹介されている。
【0143】重畳エネルギー関数と忘却関数とを組み合
わせて、重畳エネルギー関数により分散表現された結合
をなくし、かつ、忘却関数により不要な結合を消滅させ
るという忘却付き学習の長所を併せ持つように評価関数
を設計するものであり、出力誤差が小さく、かつ、ユニ
ット間の不要な結合の生成が抑制されたニューラルネッ
トワークを構築するものである。この評価関数について
概略説明する。評価関数Jは以下のようになる。
【0144】
【数39】
【0145】ここに、数39の第1項は、分散表現を防
ぐ項(以下、重畳エネルギー関数項という)であり、第
2項は不要な結合を消滅させる項(ネットワークの複雑
さを表す重み係数の絶対値の総和に忘却係数εを乗じた
項である。以下忘却関数項という)である。評価関数J
を用いて重畳エネルギーが少なく、かつ、ニューラル
ネットワークが単純である評価関数値となるようにそれ
ぞれの結合係数を増減して学習を行い、学習の結果、結
合係数が所定値以下の場合に不要な結合であると判断し
て不要な結合を消滅させることで、複数のユニットに分
散した結合を防止し、かつ、ニューラルネットワークを
単純化する。
【0146】この数39用いて説明した忘却項付き重畳
エネルギー関数を評価関数とする。そして、算出した評
価関数を重み係数に関して一次偏微分することで勾配を
算出し、最終的に数2(モーメント法)、数13,14
(Jacobs Hybrid法)、数15(Kick Out法)に代入
して重み係数修正量を算出することする。学習アルゴリ
ズムは、第1〜第4実施形態の学習アルゴリズムA,A
1,B,B1,C,C1と同じであり詳しい説明を省略
する。このように忘却項付き重畳エネルギー関数を評価
関数とすることで、より汎化能力を向上させることが可
能となる。
【0147】
【実施例】続いて、本発明の実施例について説明する。
ニューラルネットワークにsin関数の学習を、3つの学
習アルゴリズムにより学習させた場合について説明す
る。比較検討する学習アルゴリズム1,2,3は以下の
3つとする。学習アルゴリズム1,2,3は、何れも図
2で表されるフローとし,学習における重み係数修正式
のみを相違させ、学習アルゴリズム1では数2を修正式
とするモーメント法を、学習アルゴリズム2では数1
3,14を修正式とするJacobs hybrid法を、学習アル
ゴリズム3では数15を修正式とするKick Out法を採用
し、最適化のためのコンパクト構造化処理を付加したも
のである。評価関数は先の数39の忘却関数項付き重畳
エネルギー関数を採用する。学習条件は表1に示す通り
である。
【0148】
【表1】
【0149】本実施例の学習アルゴリズム1,2,3で
は、中間層素子とバイアス素子との融合のみを行うコン
パクト構造化(以下、単にコンパクト構造化1とい
う)、および、中間層素子とバイアス素子との融合と中
間層素子同士の融合という2種類の融合を行い、融合結
果が不良のときは融合を破棄して融合前に復元するコン
パクト構造化(以下、コンパクト構造化2という)を準
備する。そして、上記モーメント法、Jacobs Hybrid
法、または、Kick Out法の何れかによる学習とコンパ
クト構造化1を交互に行うようにし、学習終了後にコン
パクト構造化2を行うアルゴリズムとした。
【0150】この実施例では、ニューラルネットワーク
の学習中は中間層素子同士の融合をある程度制限してい
る。ニューラルネットワークの中間層素子は、学習の進
行に伴って成長し、役割が分化する。学習初期段階にお
いて出力値系列が同じような中間層素子(相関が高い)
同士であっても学習の進行に伴い出力値系列が変化して
相関が低くなる可能性がある。そこで、学習中は融合を
ある程度制限し、学習終了後に中間層素子の役割が十分
明確になった時点で融合を促進するようにした。
【0151】図2に本実施例による学習アルゴリズムの
フローチャートを示す。まず、図2のステップS11〜
S13,S17は、図1のS1〜S3,S9と同様であ
る。図2のステップS13からジャンプしたコンパクト
構造化1(学習中のコンパクト構造化)の処理では、分
散の小さい不要な中間層素子とバイアス素子との融合は
行うが、相関の高い中間層素子同士の融合は禁止してい
る。具体的には、ステップS14で算出した分散が規定
値以下の場合に中間層素子とバイアス素子とを融合する
(ステップS15,S16)。特に、不要な中間層素子
が2つ以上のときにのみバイアス素子と融合し、常に不
要な中間層素子を1つ以上残す処理を加えれば、過融合
を効果的に防ぐことができる。
【0152】学習終了後のコンパクト構造化2の処理で
は、分散の小さい不要な中間層素子とバイアス素子との
融合(ステップS19のYes分岐,S22,S23,S
24)と、相関の高い中間層素子同士の融合(ステップ
S19のNo分岐,S20,S21,S22,S23,S
24)との両方を行う。また、分散が規定値以下、また
は、相関係数が規定値以上の場合にはニューラルネット
ワークの各層の素子間の重みを記憶することによってニ
ューラルネットワークを保存し(ステップS22)、学
習誤差を算出してから中間層素子の融合を行う(ステッ
プS23,S24)。なお、学習誤差の算出は、保存し
たニューラルネットワークを用いて実際の出力であるニ
ューラルネットワーク出力値と学習目標値との誤差を検
出する。その後、学習誤差を再度算出し(ステップS2
5)、その誤差を融合前の誤差と比較して悪化するか否
かを判断する(ステップS26)。学習誤差が悪化する
ときには融合を禁止し、ステップS27により融合前の
ニューラルネットワークを復元する(各層の素子間の重
みを融合前の値に戻す)。
【0153】このように、コンパクト構造化2では、融
合した後の学習誤差が融合前よりも悪化する場合には融
合前のニューラルネットワークを復元し、学習誤差が改
善される場合にのみ融合を実施することにより、コンパ
クト構造化における過融合を防止している。なお、先に
第1〜第7実施形態として説明した学習アルゴリズムの
コンパクト構造化法では本実施例の構造化法に置き換え
てもよい。
【0154】さて、このような学習アルゴリズムにより
sin関数を学習した結果を図3に示す。図3は学習誤差
の変化を説明する説明図である。図3でも明らかなよう
に、学習速度は何れも高速であり、特に従来の学習方法
に近いモーメント法による学習アルゴリズム1よりも、
Jacobs hybrid法による学習アルゴリズム2,Kick Out
法による学習アルゴリズム3が高速である。このよう
に,慣性項を有するモーメント法、Jacobs hybrid法,K
ick Out法にニューラルネットワークの最適化機能を導
入すると、学習中に複数の中間層素子が融合したが,融
合時にほとんど学習誤差を悪化させることなく学習する
ことができた。
【0155】続いて他の実施例について検証する。図4
は予測対象ダム上流域の模式図である。本実施例では、
図4で示すようなダムにおける1時間先のダム流入量予
測問題を学習・予測する例である。学習条件を表2に示
す。
【0156】
【表2】
【0157】表2に示す通り、6洪水事例を学習し、3
洪水事例を予測する。数百ある学習パターンのうち5パ
ターンづつ提示して重みを修正した。また、本実施例で
は、一括学習型と逐次学習を合わせた数38の評価関数
を採用したものであり、逐次学習よりもkick Out法やJ
acobs Hybrid法の補正項や平滑化微分値の値が適切であ
り、一括学習型よりも高速な学習方法である。それ以外
の条件は実施例1とほぼ同じである。表3は、学習され
る入力データの表である。
【0158】
【表3】
【0159】図5に学習中の誤差の推移を示す。何れも
学習が高速ではあるが、従来法に近いモーメント法によ
る学習アルゴリズム1よりもJacobs hybrid法による学
習アルゴリズム2、または、Kick Out法による学習アル
ゴリズム3の方が振動が少なく良好に学習している。ま
た、学習後のニューラルネットワークを使用して予測し
た結果を表4に示す。
【0160】
【表4】
【0161】最適化機能のある学習アルゴリズム1,
2,3は良好な結果を示している(相関係数が1に近
く,他の指標が0に近い)。参考までに素子の融合とい
う最適化機能を付加していない従来のモーメント法、お
よび、従来のKick Out法による予測結果を表5に示す。
【0162】
【表5】
【0163】何れも中間層素子の最適化機能(削除・融
合機能)がないため、汎化能力が乏しく、予測結果は低
い。
【0164】続いて第3実施例について説明する。ダム
流入量予測を例題にして,第5実施形態の効果を検証す
る。学習条件は表2であり,アルゴリズム3で学習して
いる。ただし,まとめて学習する学習パターン数(epoc
k)だけを変えた。図6,図7に学習時の誤差等を示
す。図6,図7はepockによる学習推移の違いを説明す
る特性図である。学習パターンを1パターンずつ重みを
修正するepock1(逐次学習法)では,振動が大きい。
これは,補正項が良好に算出されていないためである。
学習パターンを複数個まとめてから重みを修正するepoc
k5〜10が良好な結果を示した。原理的にはepockを大
きくすれば,一括学習法に近づくためより良好な結果を
示すはずだが,学習に関わる各種パラメータのバランス
が崩れるためにepockが大きすぎる場合には良好な学習
が行えなかった。本実施例の結果より,学習アルゴリズ
ム3(Kick Out法の付加)において,複数の学習パタ
ーンをまとめることにより,補正項の近似精度が向上
し,良好に学習することができた。
【0165】
【発明の効果】本発明により,汎化能力の高いニューラ
ルネットワークを高速で学習することが可能である。従
来の学習係数を調整する学習アルゴリズム(Jacobs Hyb
rid法やKickOut法)は,高速かつ学習誤差を小さくする
ことが可能であるが,その学習能力の高さ故,汎化能力
が乏しくなることがある。また従来の汎化能力を高める
各種学習方法(コンパクト構造化法や重畳エネルギー法
等)は,高度な学習を行うため計算時間がかかる欠点が
ある。本発明は両者の欠点を相互に補い,利点をさらに
高めることができる。特に本発明では,上記2つの学習
アルゴリズムを適切に融合する方法であり,実施例にも
示したように,学習開始後速やかに誤差が減少し,学習
時の振動もきわめて少ない。本発明により高速かつ汎化
能力の高い学習が可能である。
【0166】また、学習時間を要するKick Out法のアル
ゴリズムを改善し、Kick Out法の学習の高速化を実現す
ることができる。また、コンパクト構造化法を、モーメ
ント法、Jacobs hybrid法、または、Kick Out法に適用
する場合に、中間層素子の融合直後に学習に必要な各種
変数の値を修正することで、高速で安定した学習および
過学習がない汎化能力の高い学習をそれぞれ実現するこ
とができる。総じて、高速かつ効率的にニューラルネッ
トワークを最適化するニューラルネットワークの最適化
学習方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施形態の学習アルゴリズムA,B,
Cに共通する共通フローチャートである。
【図2】本発明の実施例の学習アルゴリズムのフローチ
ャートである。
【図3】学習誤差の変化を説明する説明図である。
【図4】予測対象ダム上流域の模式図である。
【図5】学習中の誤差の推移を説明する説明図である。
【図6】epockによる学習推移の違いを説明する特性図
である。
【図7】epockによる学習推移の違いを説明する特性図
である。
【図8】多層ニューラルネットワークを説明する概念図
である。
【図9】融合を説明する説明図である。
【図10】学習パターン値に対する中間層素子の出力を
示す出力図である。
【図11】ニューラルネットワークの融合を説明する説
明図である。
【図12】従来のコンパクト構造化の学習アルゴリズム
のフローチャートである。
【図13】重畳エネルギー関数法により学習された中間
層素子を説明する説明図である。
【図14】不要な分散表現について説明する説明図であ
る。
【図15】部分ニューロを説明する説明図である。
【図16】重畳エネルギー関数法による学習の流れを示
すフローチャートである。

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】ニューラルネットワークの評価関数の勾配
    と重み修正量の慣性項とを含む重み係数修正式を利用し
    て重み係数を修正するモーメント法により、ニューラル
    ネットワークの入力層、中間層、および、出力層の素子
    間の重み係数を増減して新たにニューラルネットワーク
    を生成する学習を行い、 このニューラルネットワークの中間層の中の1個の素子
    の出力値系列を用いて求めた分散が所定値以下の場合に
    この素子をバイアス素子に融合し、また、このニューラ
    ルネットワークの中間層の中の2個の素子の出力値系列
    を用いて求めた相関係数の絶対値が所定値以上の場合に
    これら2個の素子を情報伝達的に同じ働きであるとして
    融合するコンパクト構造化を行い、 これら学習とコンパクト構造化とを交互に行ってニュー
    ラルネットワークを最適化するニューラルネットワーク
    の最適化学習方法において、 2個の素子を融合する場合に、存続する素子と消滅する
    素子のそれぞれの重み係数および慣性項を組み合わせて
    生成した新たな重み係数修正式により以後の学習および
    コンパクト構造化を行うことを特徴とするニューラルネ
    ットワークの最適化学習方法。
  2. 【請求項2】ニューラルネットワークの評価関数の勾配
    と重み修正量の慣性項とを含む重み係数修正式を利用し
    て重み係数を修正するモーメント法により、ニューラル
    ネットワークの入力層、中間層、および、出力層の素子
    間の重み係数を増減して新たにニューラルネットワーク
    を生成する学習を行い、 このニューラルネットワークの中間層の中の1個の素子
    の出力値系列を用いて求めた分散が所定値以下の場合に
    この素子をバイアス素子に融合し、また、このニューラ
    ルネットワークの中間層の中の2個の素子の出力値系列
    を用いて求めた相関係数の絶対値が所定値以上の場合に
    これら2個の素子を情報伝達的に同じ働きであるとして
    融合するコンパクト構造化を行い、 これら学習とコンパクト構造化とを交互に行ってニュー
    ラルネットワークを最適化するニューラルネットワーク
    の最適化学習方法において、 2個の素子を融合する場合に、存続する素子と消滅する
    素子のそれぞれの重み係数を組み合わせ、かつ慣性項を
    予め定められた値に初期化して生成した新たな重み係数
    修正式を用いて以後の学習およびコンパクト構造化を行
    うことを特徴とするニューラルネットワークの最適化学
    習方法。
  3. 【請求項3】請求項1または請求項2に記載のニューラ
    ルネットワークの最適化学習方法において、 前記評価関数は、全学習パターンの中から適数選択した
    学習パターンのそれぞれについて、学習パターンである
    出力目標値と実出力値との差分を2乗した誤差を加算し
    た関数とすることを特徴とするニューラルネットワーク
    の最適化学習方法。
  4. 【請求項4】請求項1または請求項2に記載のニューラ
    ルネットワークの最適化学習方法において、 前記評価関数は、重畳エネルギー関数とすることを特徴
    とするニューラルネットワークの最適化学習方法。
  5. 【請求項5】請求項4に記載のニューラルネットワーク
    の最適化学習方法において、 前記評価関数は、重畳エネルギー関数に忘却関数を加え
    た評価関数とすることを特徴とするニューラルネットワ
    ークの最適化学習方法。
  6. 【請求項6】請求項1〜請求項5の何れか1項に記載の
    ニューラルネットワークの最適化学習方法において、 前記重み係数修正式は、Jacobs Hybrid法によることを
    特徴とするニューラルネットワークの最適化学習方法。
  7. 【請求項7】請求項1〜請求項5の何れか1項に記載の
    ニューラルネットワークの最適化学習方法において、 前記重み係数修正式は、Kick Out法によることを特徴
    とするニューラルネットワークの最適化学習方法。
JP2001018758A 2001-01-26 2001-01-26 ニューラルネットワークの最適化学習方法 Pending JP2002222409A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001018758A JP2002222409A (ja) 2001-01-26 2001-01-26 ニューラルネットワークの最適化学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001018758A JP2002222409A (ja) 2001-01-26 2001-01-26 ニューラルネットワークの最適化学習方法

Publications (1)

Publication Number Publication Date
JP2002222409A true JP2002222409A (ja) 2002-08-09

Family

ID=18884737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001018758A Pending JP2002222409A (ja) 2001-01-26 2001-01-26 ニューラルネットワークの最適化学習方法

Country Status (1)

Country Link
JP (1) JP2002222409A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020445A (ja) * 2008-07-09 2010-01-28 Sony Corp 学習装置、学習方法、およびプログラム
CN109509033A (zh) * 2018-12-14 2019-03-22 重庆邮电大学 一种消费金融场景下的用户购买行为大数据预测方法
CN111630530A (zh) * 2018-01-16 2020-09-04 奥林巴斯株式会社 数据处理系统和数据处理方法
CN112116081A (zh) * 2020-09-29 2020-12-22 杭州海康威视数字技术股份有限公司 一种深度学习网络的优化方法及装置
CN112712893A (zh) * 2021-01-04 2021-04-27 山东众阳健康科技集团有限公司 一种提升计算机临床辅助诊断效果的方法
US11514308B2 (en) 2017-09-08 2022-11-29 Fujitsu Limited Method and apparatus for machine learning
CN116011678A (zh) * 2023-02-13 2023-04-25 天津大学 一种耦合峰值修正的洪水过程自动寻优预报方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259598A (ja) * 1999-03-12 2000-09-22 Fuji Electric Co Ltd ニューラルネットワークの最適化学習方法
JP2001256212A (ja) * 2000-03-09 2001-09-21 Fuji Electric Co Ltd ニューラルネットワークの最適化学習方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259598A (ja) * 1999-03-12 2000-09-22 Fuji Electric Co Ltd ニューラルネットワークの最適化学習方法
JP2001256212A (ja) * 2000-03-09 2001-09-21 Fuji Electric Co Ltd ニューラルネットワークの最適化学習方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020445A (ja) * 2008-07-09 2010-01-28 Sony Corp 学習装置、学習方法、およびプログラム
JP4710932B2 (ja) * 2008-07-09 2011-06-29 ソニー株式会社 学習装置、学習方法、およびプログラム
US11514308B2 (en) 2017-09-08 2022-11-29 Fujitsu Limited Method and apparatus for machine learning
CN111630530A (zh) * 2018-01-16 2020-09-04 奥林巴斯株式会社 数据处理系统和数据处理方法
CN111630530B (zh) * 2018-01-16 2023-08-18 奥林巴斯株式会社 数据处理系统、数据处理方法和计算机可读存储介质
CN109509033A (zh) * 2018-12-14 2019-03-22 重庆邮电大学 一种消费金融场景下的用户购买行为大数据预测方法
CN112116081A (zh) * 2020-09-29 2020-12-22 杭州海康威视数字技术股份有限公司 一种深度学习网络的优化方法及装置
CN112116081B (zh) * 2020-09-29 2023-09-08 杭州海康威视数字技术股份有限公司 一种深度学习网络的优化方法及装置
CN112712893A (zh) * 2021-01-04 2021-04-27 山东众阳健康科技集团有限公司 一种提升计算机临床辅助诊断效果的方法
CN116011678A (zh) * 2023-02-13 2023-04-25 天津大学 一种耦合峰值修正的洪水过程自动寻优预报方法

Similar Documents

Publication Publication Date Title
JP3743247B2 (ja) ニューラルネットワークによる予測装置
JP2007505379A (ja) 人工ニューラルネットワーク
CN110471276B (zh) 用于为物理系统创建模型函数的装置
CN108830376B (zh) 针对时间敏感的环境的多价值网络深度强化学习方法
KR20190018885A (ko) 중첩 신경망을 프루닝하는 방법 및 장치
KR102460485B1 (ko) 정책 벡터 기반 인공신경망 탐색 장치 및 방법
JP2002222409A (ja) ニューラルネットワークの最適化学習方法
Aran et al. An incremental framework based on cross-validation for estimating the architecture of a multilayer perceptron
Leng et al. A hybrid learning algorithm with a similarity-based pruning strategy for self-adaptive neuro-fuzzy systems
JP4226754B2 (ja) ニューラルネットワークの最適化学習方法
US20030144974A1 (en) Self organizing learning petri nets
JP2000507376A (ja) コンピュータを用いてニューラルネットワークから除くべき重みを求める方法
CN113191984B (zh) 基于深度学习的运动模糊图像联合复原与分类方法和系统
JPH04127239A (ja) ファジィ推論パラメータの自動調節方法および学習状態の表示方法
JP2002042107A (ja) ニューラルネットワークの学習方法
JP2002236906A (ja) 積結合型ニューラルネットワークの最適化学習方法
WO2023188286A1 (ja) 学習装置、推定装置、学習方法および記録媒体
WO2022009449A1 (ja) 情報処理装置,情報処理方法および情報処理プログラム
Shou et al. Hybrid differential evolution and sequential quadratic programming algorithm
JP5011529B2 (ja) データ処理装置、データ処理方法及びプログラム
JPH10333705A (ja) 総合制御方式
JP7436830B2 (ja) 学習プログラム、学習方法、および学習装置
US20230126695A1 (en) Ml model drift detection using modified gan
KR102655393B1 (ko) 적대적 강인성을 위한 신경망모델의 학습방법 및 이를 위한 장치
Zanchettin et al. Hybrid technique for artificial neural network architecture and weight optimization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100415