JP2002236906A - 積結合型ニューラルネットワークの最適化学習方法 - Google Patents

積結合型ニューラルネットワークの最適化学習方法

Info

Publication number
JP2002236906A
JP2002236906A JP2001034004A JP2001034004A JP2002236906A JP 2002236906 A JP2002236906 A JP 2002236906A JP 2001034004 A JP2001034004 A JP 2001034004A JP 2001034004 A JP2001034004 A JP 2001034004A JP 2002236906 A JP2002236906 A JP 2002236906A
Authority
JP
Japan
Prior art keywords
learning
neural network
intermediate layer
product
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001034004A
Other languages
English (en)
Inventor
Tatsuya Iizaka
達也 飯坂
Tetsuo Matsui
哲郎 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2001034004A priority Critical patent/JP2002236906A/ja
Publication of JP2002236906A publication Critical patent/JP2002236906A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】高速かつ効率的な積結合型ニューラルネットワ
ークの最適化学習方法を提供する。 【解決手段】積結合型ニューラルネットワークの中間層
の中の1個の素子の出力値系列を用いて求めた分散が所
定値以下の場合にこの素子をバイアス素子に融合するコ
ンパクト構造化を、学習と交互に行って中間層の素子を
削減しつつ最適化する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、予測、診断、制御
などの情報処理を行うように積結合型ニューラルネット
ワークを最適化するための積結合型ニューラルネットワ
ークの最適化学習方法に関する。
【0002】
【従来の技術】ニューラルネットワークは、入出力のデ
ータパターンを与えるだけで入出力の非線形な相関関係
をモデル化・学習することが可能であり、予測、制御、
診断などの情報処理分野において研究・実用化されてい
る。ニューラルネットワークの構造は多くのタイプが提
案されているが、実用化されたものは、3階層型のニュ
ーラルネットワークである。図7は、多層ニューラルネ
ットワークを説明する概念図である。一般にニューラル
ネットワークとは、図7に示すように入力層、中間層、
出力層からなる多層ニューラルネットワーク構造を有し
ており、さらに、入力層、中間層、出力層には素子が設
けられ、入力層と中間層との素子間、中間層と出力層と
の素子間に結合を持つ。
【0003】ここで、中間層は、図7で示したような3
層のみに限ることなく複数層にわたることもあり、ま
た、素子数も図7で示したような3個に限定するもので
なく任意数の素子とすることができる。このように中間
層はブラックボックスであるため隠れ層とも呼ばれてい
る。なお、説明上、本明細書において入力層における素
子を入力層素子と、中間層における素子を中間層素子
と、また、出力層における素子を出力層素子と称して説
明する。また、一般的に、中間層素子と出力層素子とに
は、一定値(図7では1.0である)を出力するバイア
ス素子が結合されているが、必要時にのみバイアス素子
を図示して説明し、それ以外は図示を省略する。
【0004】結合係数は、ニューラルネットワークの素
子間の結合の重みを表すための係数である。結合係数が
大きければ、結合の重みが大きい、つまり、必要な結合
であるとされ、結合係数が小さければ、結合の重みが小
さい、つまり、不要な結合であるとされる。このような
ニューラルネットワークの学習とは、複数の入力層素子
に入力された入力値に対し、所望の出力値が得られるよ
うに入力層と中間層、また、中間層と出力層との結合の
度合いを示す結合係数を変更することをいう。
【0005】このようなニューラルネットワークの応答
関数であるが、ある素子へ入力される値の総和値をS、
ある素子へのi個の入力をI、Iに乗じられる結合
係数をwとすると、総和値Sは次式のような値をと
る。
【0006】
【数1】
【0007】そしてある素子は、入力値Sを変換する関
数機能を有しており、出力値Oとして出力する。出力値
Oは次式のような値をとる。
【0008】
【数2】
【0009】この応答関数はシグモイド関数であり、0
から1までの値を取る。以上、一般的な多層ニューラル
ネットワークについて概略説明をした。
【0010】さて、上述の多層ニューラルネットワーク
ほど多用されていないが、情報処理能力の高さから近年
注目されている新しい構造のニューラルネットワークが
存在する。次にこのニューラルネットワークの構造につ
いて説明する。図8は、積結合型ニューラルネットワー
クを説明する概念図である。このニューラルネットワー
クは、先に説明した多層ニューラルネットワークの構造
に加え、同じ層にある2個の素子の出力の積である積結
合が設けられていることが特徴である。
【0011】このような積結合を有するニューラルネッ
トワーク(以下、本明細書中では積結合型ニューラルネ
ットワークという。)の応答関数であるが、ある素子へ
の入力値は次式のようになる。
【0012】
【数3】
【0013】ここにSは、出力Iおよび結合係数wの積
の和(前式の左側の項)と積結合(前式の右側の項)と
の総和である。ここにi=jのとき、積結合は同じ素子
の出力の積となり、この場合を自分自身との結合と呼
ぶ。数3の上側の式は自分自身との結合がないタイプで
あり、数3の下側の式は自分自身との結合があるタイプ
である。この入力値Sが入力される素子は、入力値Sを
次式により変換し、出力値Oとして出力する。
【0014】
【数4】
【0015】この応答関数はシグモイド関数であり、0
から1までの値を取る。通常は自分自身の結合を持たな
い応答関数が使用されるが、まれに自分自身の結合を持
つ関数が使用されることもある。
【0016】以上、通常の多層型と積結合型という2種
のニューラルネットワークについて説明した。これらの
ようなニューラルネットワークの学習では、中間層素子
数が多ければより複雑な問題を学習することが可能にな
る。しかし、中間層素子が多すぎる場合には過学習とい
う問題が発生する。過学習がおきると汎化能力が低下す
る。例えば、ニューラルネットワークを用いるパターン
分類問題で馬の絵のパターンを入力値として馬と判断し
たことに相当する値を出力させる場合において、中間層
素子が多すぎて過学習がおきると特定の馬の絵のパター
ンからしか馬と判定できなくなり、それ以外の馬の絵の
パターンからは馬と判定できなくなる。このように過学
習がおきると、学習パターン値にノイズがある場合、つ
まり、学習した馬の絵が良くない場合や、学習パターン
値と相関の低い入力値が入力された場合、つまり、入力
された馬の絵が学習した馬の絵と異なる場合に馬と判定
できないというような汎化能力が低下した状態を招く。
中間層素子は適切な数とするのが望ましい。特に積結合
型ニューラルネットワークは学習能力の高さ故に汎化能
力の低下が問題になることがある。
【0017】さて、これらのようなニューラルネットワ
ークの学習方法は、多くの観点から多数のアルゴリズム
が提案されている。広く用いられるアルゴリズムとして
バックプロパゲーション法(誤差逆伝搬法)があるが、
バックプロパゲーション法は、一般的に学習が遅く、ま
た、ニューラルネットワークの内部構造が複雑な場合に
は最適な学習・構造を求めることが困難である。そこ
で、慣性項を導入したバックプロパゲーション法として
学習速度の改善が図られている。なお、慣性項を用いた
場合は、バックプロパゲーション法と区別して特にモー
メント法と呼ぶことがある。
【0018】従来法1:モーメント法(バックプロパゲ
ーション法) モーメント法は、前回の修正方向を表す慣性項を、結合
係数修正式に含めるものである。モーメント法による学
習アルゴリズムでは、ニューラルネットワークからの実
際の出力値(以下、ニューロ出力値という。)から学習
目標である出力(以下、学習パターン値という。)を引
いた値(以下、出力誤差という。)の2乗を評価関数と
し、この評価関数値が小さくなるように結合係数を増減
する。この評価関数は次式のようになる。
【0019】
【数5】
【0020】ここでニューロ出力値は、結合係数の増減
によって変化する値であり、評価関数は結合係数をパラ
メータとする関数である。学習は、結合係数修正式を用
いて、学習パターン値とニューロ出力値とが近い(つま
り出力誤差が0の)結合係数となるように結合係数の修
正を繰り返し行って学習するものである。この結合係数
修正式は次式のように表される。
【0021】
【数6】
【0022】この式から明らかなように前回の修正量で
あるΔwk−1 に慣性定数αを乗じたものが今回の慣
性項として用いられる。先に説明したが、このように結
合係数修正式に慣性項がある場合を、バックプロパゲー
ション法と区別するため特にモーメント法と呼んでい
る。このモーメント法では、慣性項により結合係数の修
正が加速され、学習が高速になるという利点がある。し
かし、モーメント法でもニューラルネットワークの階層
数や素子数を事前に決定する必要があり、事前に最適な
階層数や素子数に関する情報が得られることはなく、ニ
ューラルネットワークの最適化のためには階層数および
素子数を試行錯誤的に探索する必要がある。ニューラル
ネットワークの内部構造が複雑な場合は、探索に時間と
手間がかかり、また、学習後のニューラルネットワーク
はブラックボックスとなり、中間層素子の意味づけが困
難なことが多く、この点ではバックプロパゲーション法
と同様の課題を抱えている。
【0023】さて、他の学習アルゴリズムとして、ニュ
ーラルネットワークの予測・診断等の性能を向上させる
ことに主眼をおいたアルゴリズムと、学習の高速化に主
眼をおいたアルゴリズムが提案されている。ニューラル
ネットワークの予測・診断等の性能を向上させる学習方
法の例として、 従来法2:コンパクト構造化法(増田:「隠れユニット
の合成による階層型ニューラルネットワークのコンパク
ト構造化」、計測自動制御学会論文集、Vol.28,No.4,p
p.519-527(1992))、 従来法3:中間層の重要度順に学習する重畳エネルギー
関数法(高橋:「重畳エネルギー関数による多層パーセ
プトロンの冗長性削減」、電子情報通信学会論文誌、D
−II、Vol.J80-D-II,No.9,pp.2532-2540(1997))という
学習アルゴリズムが提案されている。
【0024】まず、従来法2のコンパクト構造化法につ
いて説明する。コンパクト構造化法により不要の中間層
素子を他の中間層素子に融合する場合、2種類の融合が
ある。図9は、融合を説明する説明図であり、図9
(a)では、入力層に入力される学習パターン値の変化
に対応して出力値が変化する場合に相関傾向を有する複
数の中間層素子を説明し、図9(b)では、入力層の入
力値が変化しても出力する値が変化せず一定値を出力す
るバイアス素子的な振る舞いをする中間層素子を説明す
る。また、図10は、学習パターン値に対する中間層素
子の出力を示す出力図であり、図10(a)は、入力層
に入力される学習パターン値の変化に対応して出力値が
変化する場合に相関傾向を有する複数の中間層素子の出
力を、また、図10(b)では、入力層の入力値が変化
しても出力する値が変化しないバイアス素子的な振る舞
いをする中間層素子の出力をそれぞれ説明する。
【0025】図9(a)で示す2つの中間層素子から
は、図10(a)で示すように、同傾向の出力値が出力
され(相関の高い中間層素子出力)、また、図9(b)
のバイアス素子的な中間層素子からは、図10(b)で
示すように、学習パターン値が変化するにも拘わらず一
定値が出力される(バイアス素子的な振る舞いをする中
間層素子出力)。このような相関の高い中間層素子出力
およびバイアス素子的な振る舞いをする中間層素子出力
を検出する必要がある。なお、バイアス素子的な振る舞
いをする中間層素子とは、先に説明したバイアス素子と
は別個に存在する素子であり、これらは区別される。
【0026】続いて、これら出力の検出方法について説
明する。上述のような中間層素子出力をする中間層素子
を検出するため、次式で定義される相関係数γijを導
入する。
【0027】
【数7】
【0028】これにより、2つの中間層素子からの出力
値系列の相関関係を定量的に扱うことができる。図9
(a)で示す2個の中間層素子の出力が、図10(a)
に示すように、2つの中間層素子からの出力値系列が同
傾向の場合には相関係数γijは1に近い値となり、ま
た、出力値系列が逆傾向の場合には相関係数γijは−
1に近い値となる。なお、全く相関関係にない場合は、
0に近い値をとるため、相関係数γijにより相関関係
が明確に認識できる。この特徴から相関係数の絶対値が
1に近い程、相関が高い。
【0029】しかしながら、図9(b),図10(b)
で示すようなバイアス素子的な振る舞いをする中間層素
子について、相関係数γijでは判別ができない。そこ
で、このようなバイアス素子的な振る舞いをする中間層
素子を判別するために次式で定義される中間層素子出力
値の次式のような分散s を導入する。
【0030】
【数8】
【0031】図9(b)で示す1個の中間層素子の出力
が、図10(b)のような場合、分散s は0に近い
値となる。中間層素子の出力は、学習パターンの変化に
も拘わらず、ほぼ一定となっており、上の層の素子に対
してバイアス素子的な振る舞いをしている。以上、融合
する中間層素子の検出について、 相関の高い中間層素子については、中間層素子からの
出力値の相関係数が高い2つの中間層素子を融合の対象
とする。相関が高いという判断については、例えば相関
係数の絶対値が所定値以上(例えば0.9以上とか)い
うような場合が該当する。 バイアス素子的な振る舞いをする中間層素子について
は、中間層素子からの出力の分散値が0に近い中間層素
子をバイアス素子との融合の対象とする。分散値が低い
という判断については、例えば分散値が所定値以下(例
えば0.1以下とか)いうような場合が該当する。
【0032】続いて、相関の高い中間層素子について
の融合手法について説明する。図11は、ニューラルネ
ットワークの融合を説明する説明図である。図11
(a)で示すような中間層素子i,jからの出力値の相
関が高いため図11(b)で示すように中間層素子i,
jを融合する場合について説明する。中間層素子i,j
からの出力値系列{OiP},{OjP}の相関が高い
場合、2変量O,O の関係は多変量解析で周知の
ように、次式の線形回帰式で近似的に表現することがで
きる。
【0033】
【数9】
【0034】数9を用いると、上の層に属する任意の素
子(中間層素子や出力層素子など)kへの入力は、次式
のようになる。
【0035】
【数10】
【0036】すなわち、図11(b)で示すように中間
層素子iおよびバイアス素子から素子kへの結合係数を
次式のように修正する。
【0037】
【数11】
【0038】この修正によって、中間層素子jを中間層
素子iに融合することができる。なお、融合を行う際、
中間層素子jと中間層素子iとでどちらを融合するかが
問題となるが、出力値系列の分散の大きいほうを情報伝
達的により活発に機能していると考える。相関の高い中
間層素子出力についての融合はこのようになされる。続
いて、バイアス素子的な振る舞いをする中間層素子と
バイアス素子との融合について説明する。図11(a)
で示すような中間層素子iとバイアス素子とを図11
(c)で示すように融合する場合について説明する。中
間層素子iからの出力値系列{OiP}の分散が小さい
場合、Oの出力はほぼ一定で、Oの出力は次式のよ
うに平均値で近似できる。
【0039】
【数12】
【0040】数12を用いると、上の層に属する任意の
素子(中間層素子や出力層素子など)kへの入力は、次
式のようになる。
【0041】
【数13】
【0042】すなわち、図11(c)で示すようにバイ
アス素子から素子kへの結合係数を次式のように修正す
る。
【0043】
【数14】
【0044】この修正によって、バイアス素子的な傾向
を有する中間層素子iをバイアス素子に融合することが
できる。以上、ニューラルネットワークのコンパクト構
造化法ではこのような2通りの融合により中間層素子の
削減を行う。図12は、従来のコンパクト構造化の学習
アルゴリズムのフローチャートである。図12で示すよ
うに初期化終了後(S201)、バックプロパゲーショ
ン学習(S202)とコンパクト構造化(S203〜S
208)を交互に行い、所定回数もしくは学習誤差が規
定値以下になったら学習終了と判断する(S209)も
のである。
【0045】また、ニューラルネットワークの予測・診
断等の性能を向上させる他の従来法3について説明す
る。重畳エネルギー関数法では、中間層素子の重要度順
に学習する学習アルゴリズムである。この学習アルゴリ
ズムにより学習されるニューラルネットワークは、中間
層素子がその重要度順に並ぶ傾向があり、また、不要な
中間層素子の生成が抑制される。図13は、重畳エネル
ギー関数法により学習された中間層素子を説明する説明
図である。図13で示すように、この学習アルゴリズム
で学習したニューラルネットワークは、重要度の高い中
間層素子につながる結合係数が大きく(図13の太線の
矢印)、また、重要度の低い中間層素子につながる結合
係数は小さく(図13の細線の矢印)なる傾向がある。
また、その結果不要な分散表現が抑制される。
【0046】不要な分散表現について概略説明する。分
散表現とは、1つでも良い結合が複数の結合に分割され
ること、つまり、その結果多くの結合が必要になること
を表す。図14は不要な分散表現について説明する説明
図であり、簡単化のため、単純なニューラルネットワー
クを仮定している。このニューラルネットワークの出力
層素子への入力値は共に計1.0であるが、図14
(a)では2つの中間層素子に分散して情報が伝達され
るのに対し、図14(b)では1つの中間層素子を経て
情報が伝達されている点が相違する。図14(a)のよ
うな場合を分散表現と呼んでいる。
【0047】重畳エネルギー関数は、このような不要な
分散表現を抑制する。続いて、この重畳エネルギー関数
について説明する。まず、重畳エネルギー関数で用いる
部分ニューロの概念について説明する。図15は、部分
ニューロを説明する説明図である。図15に示すように
H個の中間層素子を持つニューラルネットワークにおい
て、中間層素子1のみを残し、中間層素子2〜Hの中間
層素子を無視した構造を部分ニューロ1とし、中間層素
子1、2だけを残し中間層素子3〜Hまでの中間層を無
視した構造を部分ニューロ2とし、以下同様に中間層素
子1〜iだけを残し中間層素子i+1〜Hまでの中間層
を無視した構造を部分ニューロiとしたH個の部分ニュ
ーロi(i=1、2、3・・・H)を仮定する。これら
部分ニューロの評価関数は、次式のようになる。
【0048】
【数15】
【0049】ニューラルネットワーク全体の評価関数J
は部分ニューロの評価関数を足して次式になる。
【0050】
【数16】
【0051】このニューラルネットワーク全体の評価関
数Jを重畳エネルギー関数と呼んでいる。この重畳エネ
ルギー関数が最小となるとき、分散表現が抑制され、か
つ中間層素子の重要度順に並んだニューラルネットワー
クとなる。図16は、重畳エネルギー関数法による学習
の流れを示すフローチャートである。ニューラルネット
ワークの階層数や素子数を決定する初期化を行い(ステ
ップS100)、重畳エネルギー関数法による学習を行
い(ステップS110)、学習を所定回数行ったか否か
を判定して所定回数行ったならば学習終了と判断する
(ステップS120)。本学習アルゴリズムでは分散表
現の発生が抑えられ、より単純なニューラルネットワー
ク構造となる。
【0052】さて、今までは、学習アルゴリズムの改良
のうち特にニューラルネットワークの予測・診断等の性
能を向上させる学習方法の例であったが、学習の高速化
に主眼をおいた学習アルゴリズムも提案されている。例
えば、従来法4:Jacobs Hybrid 法(Adaptive BP
法,delta-bar-delta learning ruleともいう)(R.
A.Jacobs,Increased Rates of Convergence Through Le
arning Rate Adaption,Neural Networks Vol1.pp.295-3
07,1988),従来法5:Jacobs Hybrid 法の改良手法で
あるKick Out法(落合他:重みの振動を抑制する階層型
ニューラルネットワークの学習法―Kick Out法―,電気
学会論文誌,Vol.113-C, No.12,(1993),などがある。
【0053】従来法4:「Jacobs hybrid法(Adaptive B
P)」 ニューラルネットワークの結合係数の1つずつに学習係
数を用意し、結合係数の修正方向が平滑化微分方向(大
域的な勾配方向)と同じときには結合係数を大きくし、
違うときには小さくすることで、最適な学習係数にする
方法である。ここで、勾配gとは、評価関数Jの結合係
数に関する一次偏微分値である。特に、学習係数に学習
係数増加量κ(カッパ)が加算される場合にはJacobs h
ybrid法といい、次式で表記される。
【0054】
【数17】
【0055】従来法5:Kick Out法 従来法4のJacobs hybrid法のさらなる改良手法であ
り、学習時に結合係数が振動するときには補正項により
振動を抑制する方法である。振動判定と補正項による修
正は次式の通りである。
【0056】
【数18】
【0057】Jacobs Hybrid 法やKick Out法は、慣性
項を用いることからも明らかなようにモーメント法の一
種である。モーメント法とは、慣性項を用いるような結
合係数修正式を包括的に指すものであり、本明細書で
は、その一例として、モーメント法とは数6で表される
結合係数修正式を有するものとして説明する。Jacobs
Hybrid 法は、学習の高速化を実現するため、モーメン
ト法の数6の結合係数修正式を改良した数17で表され
る結合係数修正式を有するものである。Kick Out法は、
学習の高速化を実現するため、モーメント法の数6の結
合係数修正式を改良した数18で表される結合係数修正
式を有するものである。
【0058】
【発明が解決しようとする課題】先に説明した積結合型
ニューラルネットワークは、通常の多層ニューラルネッ
トワークよりも情報処理能力が高いという利点を有して
いるが、以下に掲げるような欠点を併せ持つものであっ
た。
【0059】(1)学習が長時間である点。 積結合型ニューラルネットワークは、結合数が多く、従
来よりも学習に長時間を要するという問題点がある。特
にニューラルネットワークの規模が大きくなると、学習
時間は指数関数的に増大する。さらに、積結合型ニュー
ラルネットワークに特有の構造的な問題もある。バック
プロパゲーション法による中間層と出力層の結合係数修
正式において、1次結合(積結合でないもの)の修正量
(中間層−出力層)は次式のようになる。
【0060】
【数19】
【0061】また、バックプロパゲーション法による中
間層と出力層の結合係数修正式におおいて、2次結合
(積結合であるもの)の修正量(中間層−出力層)は次
式のようになる。
【0062】
【数20】
【0063】ここにO,Oは0.0〜1.0まで
の値である。これら数19,数20からも明らかなよう
に、 積結合の修正量(2次の部分)は、通常の修正量
(1次の部分)よりも小さくなる。例えば、O,O
ともに0.5とすれば、通常の修正量(1次の部分)
は−0.5αεであるのに対し、積結合の修正量(2次
の部分)は−0.25αεと半分になる。このため、積
結合のみが修正に長時間を要することがあり、この点か
らも全体の学習時間を長くするという問題があった。
【0064】(2)汎化能力の低下 ニューラルネットワークに限らず、モデルの自由度(変
数)が多いと複雑な問題が扱えるようになるが、ニュー
ラルネットワークでは、学習データのノイズまでも学習
して、先に説明した汎化能力が低下するという問題点が
あった。特に積結合型のニューラルネットワークは、結
合数が多く、その学習能力の高さ故、通常のニューラル
ネットワークよりもさらに汎化能力が低下するおそれが
ある。
【0065】以上説明した(1),(2)の問題を解決
するためには、以下に説明するアルゴリズムの採用が有
効である。 (A)高速な学習アルゴリズム (B)結合の次数によらず、修正量を適切に調整するア
ルゴリズム (C)不要な素子や結合を削除するアルゴリズム
【0066】先に説明した従来法4(Jacobs Hybrid
法)および従来法5(Kick Out法)は、上述した問題
点(A),(B)を解決する場合には極めて有望である
が、積結合型ニューラルネットワークは結合数が多く、
高速な学習を実現してもその学習性能の高さ故に汎化能
力を損なう危険性がある。
【0067】また、先に説明した従来法2(コンパクト
構造化法)は、上述した問題点(A),(C)を解決す
る場合には極めて有望であるが、通常のニューラルネッ
トワークに対応するものであって、積結合型ニューラル
ネットワークに対応するコンパクト構造化は現状開発さ
れていない。
【0068】また、本発明者は通常の多層ニューラルネ
ットワークに対し、Jacobs Hybrid法またはKick Out
法に、コンパクト構造化法を融合した新しい学習方法に
ついて発明し、特願2001−18758号として特許
出願するに至っている。しかしながら、積結合型ニュー
ラルネットワークに対応できないものであり、現状で
は、積結合型ニューラルネットワークに対して(A),
(B),(C)の全てを解決するような学習アルゴリズ
ムは存在していない。
【0069】そこで、Jacobs Hybrid法とコンパクト構
造化法との融合、またはKick Out法とコンパクト構造
化法との融合を実現する学習アルゴリズムであって、積
結合型ニューラルネットワークに対応するように改良
し、(A),(B),(C)の全てを解決する高性能の
新たな学習アルゴリズムを提供しようとするものであ
る。
【0070】以上説明したように、本発明の目的は、結
合の次数によらず、修正量を適切に調整する学習アルゴ
リズムと不要な素子や結合を削除する学習アルゴリズム
を組み合わせ、積結合型ニューラルネットワークの高速
な学習を実現する学習アルゴリズムを提供することにあ
る。
【0071】
【課題を解決するための手段】上記課題を解決するた
め、請求項1に記載の発明は、自分自身との結合がない
積結合型ニューラルネットワークの入力層、中間層、お
よび、出力層の素子間の結合係数を修正することで積結
合型ニューラルネットワークを最適化する学習を行い、
この積結合型ニューラルネットワークの中間層の中の1
個の素子の出力値系列を用いて求めた分散が所定値以下
の場合にこの素子をバイアス素子に融合するコンパクト
構造化を行い、学習とコンパクト構造化とを交互に行っ
て中間層の素子を削減しつつ最適化することを特徴とす
る。
【0072】また、請求項2に記載の発明は、請求項1
に記載の積結合型ニューラルネットワークの最適化学習
方法において、学習係数を調節しつつ結合係数を修正す
る結合係数修正式を用いて積結合型ニューラルネットワ
ークを最適化する学習を行い、分散が所定値以下の素子
をバイアス素子に融合する場合に結合係数修正式の学習
係数を新たに設定し、更新された結合係数修正式により
以後の学習およびコンパクト構造化を行うことを特徴と
する。
【0073】また、請求項3に記載の発明は、自分自身
との結合がある積結合型ニューラルネットワークの入力
層、中間層、および、出力層の素子間の結合係数を修正
することで積結合型ニューラルネットワークを最適化す
る学習を行い、この積結合型ニューラルネットワークの
中間層の中の1個の素子の出力値系列を用いて求めた分
散が所定値以下の場合にこの素子をバイアス素子に融合
し、また、この積結合型ニューラルネットワークの中間
層の中の2個の素子の出力値系列を用いて求めた相関係
数の絶対値が所定値以上の場合にこれら2個の素子を情
報伝達的に同じ働きであるとして融合するコンパクト構
造化を行い、学習とコンパクト構造化とを交互に行って
中間層の素子を削減しつつ積結合型ニューラルネットワ
ークを最適化することを特徴とする。
【0074】また、請求項4に記載の発明は、請求項3
に記載の積結合型ニューラルネットワークの最適化学習
方法において、学習係数を調節しつつ結合係数を修正す
る結合係数修正式を用いて積結合型ニューラルネットワ
ークを最適化する学習を行い、分散が所定値以下の素子
をバイアス素子に融合する場合または相関係数の絶対値
が所定値以上の2個の素子を融合する場合に結合係数修
正式の学習係数を新たに設定し、更新された結合係数修
正式により以後の学習およびコンパクト構造化を行うこ
とを特徴とする。
【0075】
【発明の実施の形態】以下、本発明について説明する。
まず、本発明の請求項1,2に係る発明は、次式に示す
ように自分自身との結合がないタイプの積結合型ニュー
ラルネットワークを対象とする。
【0076】
【数21】
【0077】この場合、中間層素子同士の融合は構造的
に不可能であり、中間層素子とバイアス素子との融合の
みを行うようにする。
【0078】以下、図に沿って本発明の各実施形態を説
明する。まず、請求項1の発明に係る第1実施形態につ
いて説明する。本実施形態の学習アルゴリズムAでは図
12で示す従来法2のバックプロパゲーション法による
学習とコンパクト構造化を交互に行う学習アルゴリズム
と同じであるが、コンパクト構造化の手法が異なってい
る。以下、この学習アルゴリズムAについて説明する。
この学習アルゴリズムAは、汎用計算機・制御装置等に
プログラムされ、コンピュータにこの学習アルゴリズム
Aを行わせることを想定して説明する。なお、後述の他
の学習アルゴリズムも同様である。
【0079】続いて、本実施形態の学習アルゴリズムA
について説明する。この学習アルゴズムAは、バックプ
ロパゲーション法・モーメント法のように学習係数を自
動調節することなく固定している学習方法に適用できる
ものである。ただし、学習係数が固定でなくても、結合
係数全てに同じ学習係数を用いるアルゴリズムには適用
できる。学習アルゴリズムではモーメント法であるとし
て説明する。図1は本発明の実施形態の学習アルゴリズ
ムA,Bに共通する共通フローチャート、図2は積結合
型ニューラルネットワークの融合を説明する説明図であ
る。ステップS1は、初期化処理を行うステップであ
る。学習アルゴリズムAにおける初期化処理とは、中間
層の階層数、各層の中間層素子数、分散のしきい値、学
習回数などを入力する。ステップS2は、結合係数の学
習を行うステップである。この学習アルゴリズムAでは
モーメント法による学習である。先の数6の結合係数修
正式を用い、積結合型ニューラルネットワークの結合係
数を新しい結合係数とし、古い結合係数と書き換えて保
存する。
【0080】ステップS3は、コンパクト構造化を実行
するか否かを判定するステップである。判定方法として
は、モーメント法による学習回数が所定回数に達した場
合や、学習誤差が減少しなくなったなどの場合が考えら
れるが、本学習アルゴリズムAでは、学習回数が所定回
数に達したか否かについて判定するものとする。学習回
数が所定回数に達しているならばステップS4へ進み、
学習回数が所定回数に達していないならば初期段階(つ
まり中間層素子は十分な分化が行われていない段階)と
してステップS7へジャンプする。
【0081】ステップS4は、中間層素子からの出力値
系列を用いて分散を算出するステップである。具体的に
は、複数ある中間層素子の出力値系列を用いて全ての中
間層素子についての分散を求めるものであり、コンパク
ト構造化法で説明した数8を用いて算出することとな
る。ステップS5は、ステップS4で算出した複数の分
散について所定値以下か否かを判定するステップであ
る。複数の分散のうち一つでも所定値以下(バイアス素
子へ融合可)と判断するならばステップS6へ進み、ま
た、全ての分散が所定値を越える(バイアス素子へ融合
不可)と判断するならばステップS7の先頭へジャンプ
する。
【0082】ステップS6は、中間層素子とバイアス素
子との融合を行うステップである。ここに図2(a)で
示すような積結合型ニューラルネットワークの中間層素
子とバイアス素子とが融合されて図2(b)に示すよう
になる。この場合、融合後の結合係数は次式により表さ
れる。
【0083】
【数22】
【0084】なお、複数の中間層素子の分散を算出して
多数の分散が所定値以下の場合、最も分散が小さい中間
層素子とバイアス素子とを融合させる。1度に融合可能
な全ての素子を融合する場合も考えられるが、1度のコ
ンパクト構造化に対し1回に融合制限した方が良好な学
習結果が得られることが多い。
【0085】ステップS7は、学習終了か否かを判断す
るステップである。具体的には学習回数が所定回数に達
したか否かを判断している。学習終了しない場合は、ス
テップS2の先頭へジャンプして再度学習を行い、学習
終了の場合はフローを終了することととなる。
【0086】学習アルゴリムAでは、積結合型ニューラ
ルネットワークをコンパクト構造化法により素子を融合
しつつバックプロパゲーション法またはモーメント法で
学習するようにしため、不要な中間層素子が削減され、
積結合型ニューラルネットワークの計算量が減少して学
習時間を短縮することが可能である。
【0087】続いて、請求項2の発明に係る第2実施形
態について説明する。本実施形態の学習アルゴリズムB
では図1で示す学習アルゴリズムAにおいて、バックプ
ロパゲーション法による学習の代わりにJacobs Hybrid
法やkick Out法のように、結合係数1つずつに対し、
学習係数を自動調整する学習アルゴリズムにより学習を
行い、このJacobs Hybrid法またはkick Out法による学
習とコンパクト構造化を交互に行うようにした。なお、
本発明は学習係数を自動調整するすべての学習アルゴリ
ズムに適用できるものであるが、本実施形態では説明の
具体化のため、学習アルゴリズムとしてJacobs Hybrid
法またはkick Out法を使用するものである。この学習
アルゴリズムBについて、図1の学習アルゴリズムの共
通フローチャートに基づいて説明する。
【0088】ステップS1で学習アルゴリズムAと同様
の初期化処理を行い、ステップS2で結合係数の学習と
してJacobs Hybrid法またはkick Out法による学習
(以下、本実施形態中では単に学習という)を行う。先
の数17で表したJacobs Hybrid法または数18で表し
たkick Out法により求めた積結合型ニューラルネット
ワークの結合係数を新しい結合係数とし、古い結合係数
と書き換えて保存する。この際、学習係数を結合係数1
つずつに対して調整する。ステップS3でコンパクト構
造化を実行するか否かを判定する。学習回数が所定回数
に達しているならばステップS4へ進み、達していない
ならば初期段階(中間層素子は未分化の段階)としてス
テップS7へジャンプする。ステップS4では、中間層
素子からの出力値系列を用いて分散を算出する。具体的
には、コンパクト構造化法で説明した数8を用いて算出
することとなる。
【0089】ステップS5では、ステップS4で算出し
た複数の分散のうち一つでも所定値以下(バイアス素子
へ融合可)と判断するならばステップS6へ進み、ま
た、全ての分散が所定値を越える(バイアス素子へ融合
不可)と判断するならばステップS7へジャンプする。
ステップS6では、中間層素子とバイアス素子との融合
を行うステップである。ここに学習係数を自動調節する
場合の積結合型ニューラルネットワークの中間層素子と
バイアス素子との融合は次式により表される。
【0090】
【数23】
【0091】この場合数17,数18で表された他の変
数g,δ,yは初期化されて0になる。学習係数ηに関
する融合式でも、分子、分母の各項に絶対値をつけるの
は、分子が0になるのを防ぐ、学習係数が負になる
のを防ぐ、学習係数が小さくなりすぎるのを防ぐため
である。
【0092】複数の中間層素子の分散を算出して多数の
分散が所定値以下の場合、最も分散が小さい中間層素子
とバイアス素子とを融合させる。この理由は、学習アル
ゴリズムAと同様である。ステップS7では、学習終了
か否かを判断する。具体的には学習回数が所定回数に達
したか否かを判断する。学習終了しない場合は、ステッ
プS2の先頭へジャンプして再度学習を行い、学習終了
の場合はフローを終了することととなる。
【0093】学習アルゴリムBでは、学習係数を自動調
整するJacobs Hybrid法またはkickOut法にコンパクト
構造化法を導入したため、不要な中間層素子が削減され
るため、従来のJacobs Hybrid法やkick Out法の学習
よりも計算量が減少して学習時間を短縮することが可能
である。
【0094】以上本発明の請求項1,2に係る第1,第
2実施形態について説明した。これにより、自分自身と
結合がない積結合型ニューラルネットワークの中間層素
子とバイアス素子とを融合しつつ、結合係数修正を行う
ようにしたため、学習時間の短縮化を実現することがで
きる。
【0095】続いて、本発明請求項3,4に係る発明に
ついて説明する。先に説明した第1,第2実施形態の学
習アルゴリズムでは、自分自身と結合がない積結合型ニ
ューラルネットワークの中間層素子とバイアス素子とを
融合するが中間層素子どうしは融合できないというもの
であった。そこで積結合型ニューラルネットワークとし
て自分自身との結合がある積結合型ニューラルネットワ
ークを採用する。この自分自身との結合がある積結合型
ニューラルネットワークは次式で表される、
【0096】
【数24】
【0097】この自分自身との結合がある積結合型ニュ
ーラルネットワークを採用すると中間層素子とバイアス
素子との融合および中間層素子どうしの融合をともに行
うことができ、より一層の学習時間の短縮が図れるもの
である。
【0098】以下、請求項3の発明に係る第3実施形態
について説明する。図3は本発明の実施形態の学習アル
ゴリズムA’,B’に共通する共通フローチャート、図
4は積結合型ニューラルネットワークの中間層素子−バ
イアス素子の融合を説明する説明図、図5は積結合型ニ
ューラルネットワークの中間層素子同士の融合を説明す
る説明図である。図3の学習アルゴリズムの共通フロー
チャートに基づいて、まず学習アルゴリズムA’につい
て、説明する。
【0099】ステップS11では初期化処理を行い、中
間層の階層数、各層の中間層素子数、分散のしきい値、
相関係数のしきい値、学習回数などを入力する。ステッ
プS12では結合係数修正としてバックプロパゲーショ
ン法・モーメント法など学習係数を固定する学習を行
う。ただし、学習係数が可変でも、結合係数全てが同じ
係数であれば適用できる。先の数6で表したモーメント
法により求めたニューラルネットワークの結合係数を新
しい結合係数とし、古い結合係数と書き換えて保存す
る。ステップS13でコンパクト構造化を実行するか否
かを判定する。学習回数が所定回数に達しているならば
ステップS14へ進み、達していないならば初期段階
(中間層素子は未分化の段階)としてステップS19へ
ジャンプする。ステップS14では、中間層素子からの
出力値系列を用いて分散を算出する。具体的には、先に
説明した数8を用いて算出することとなる。
【0100】ステップS15では、ステップS14で算
出した複数の分散のうち一つでも所定値以下(バイアス
素子へ融合可)と判断するならばステップS18へジャ
ンプし、また、全ての分散が所定値を越える(バイアス
素子へ融合不可)と判断するならばステップS16へ進
む。ステップS16では、複数ある中間層素子からある
2つの中間層素子を選択してこれら2つの中間層素子の
出力値系列を用いて相関係数を求めるという処理を全て
の中間層素子で想定できる組み合わせについて行うもの
であり、コンパクト構造化法の説明で参照した数7を用
いて算出することとなる。例えば、仮に中間層素子1,
2,3と3個ある場合には、中間層素子1,2の相関、
中間層素子2,3の相関、および中間層素子1,3の相
関について相関係数を算出することとなる。
【0101】ステップS17では、ステップS16で算
出した複数の相関係数について所定値以上か否かを判定
し、相関係数の絶対値が所定値以上(2つの中間層素子
が融合可)と判断するならばステップS18へ進み、ま
た、相関係数の絶対値が所定値未満(2つの中間層素子
が融合不可)と判断するならばステップS19へジャン
プする。ステップS18では、融合を行うステップであ
る。ステップS15からジャンプしてきたならば中間
層素子とバイアス素子との融合を、また、ステップS1
7から来たならば中間層素子同士の融合を行う。ここ
にのi番目の中間層素子とバイアス素子との融合は次
式により表される。この場合、融合により中間層−バイ
アス素子の結合関係は、図4(a)から図4(b)へ示
すように変化する。
【0102】
【数25】
【0103】また、のi番目とj番目という中間層素
子同士の融合は次式により表される。この場合、融合に
より中間層どうしの結合関係は図5(a)から図5
(b)へ示すように変化する。
【0104】
【数26】
【0105】複数の中間層素子の分散を算出して多数の
分散が所定値以下の場合、最も分散が小さい中間層素子
とバイアス素子とを融合させる。1度のコンパクト構造
化に対し1回に融合制限した方が良好な結果が得られる
ことが多いからである。同様に、相関係数の絶対値が所
定値以上の中間層素子の組み合わせが多数ある場合、相
関係数の絶対値が最も大きい中間層素子の組み合わせを
融合させる。この場合も、1度のコンパクト構造化に対
し1回に融合制限した方が良好な結果が得られることが
多いからである。
【0106】ステップS19では、学習終了か否かを判
断する。具体的には学習回数が所定回数に達したか否か
を判断する。学習終了しない場合は、ステップS12の
先頭へジャンプして再度学習を行い、学習終了の場合は
フローを終了することとなる。
【0107】学習アルゴリムA’では、自分自身との結
合がある積結合型ニューラルネットワークをコンパクト
構造化法により中間層素子が削減しつつ学習するため、
従来のバックプロパゲーション法・モーメント法よりも
計算量が減少して学習時間を短縮することが可能であ
る。
【0108】続いて、請求項4の発明に係る第4実施形
態について説明する。本実施形態の学習アルゴリズム
B’では図3で示す学習アルゴリズムA’のバックプロ
パゲーション法・モーメント法による学習の代わりに結
合係数1つずつに対し学習係数を自動的に調節するJaco
bs Hybrid法やKick Out法のような学習(以下、本実
施形態の説明中では単に学習という)とし、この学習と
コンパクト構造化を交互に行うようにした。この学習ア
ルゴリズムB’について、図3の学習アルゴリズムの共
通フローチャートに基づいて説明する。
【0109】ステップS11で学習アルゴリズムA’と
同様の初期化処理を行い、ステップS12で結合係数修
正する学習を行う。先の数17で表したJacobs Hybrid
法または数18で表したKick Out法により求めたニュ
ーラルネットワークの結合係数を新しい結合係数とし、
古い結合係数と書き換えて保存する。この際、学習係数
を結合係数1つずつに対して調整する。ステップS13
でコンパクト構造化を実行するか否かを判定する。学習
回数が所定回数に達しているならばステップS14へ進
み、達していないならば初期段階(中間層素子は未分化
の段階)としてステップS19へジャンプする。ステッ
プS14では、中間層素子からの出力値系列を用いて分
散を算出する。具体的には、先に説明した数8を用いて
算出することとなる。
【0110】ステップS15では、ステップS14で算
出した複数の分散のうち一つでも所定値以下(バイアス
素子へ融合可)と判断するならばステップS18へジャ
ンプし、また、全ての分散が所定値を越える(バイアス
素子へ融合不可)と判断するならばステップS16へ進
む。ステップS16では、複数ある中間層素子からある
2つの中間層素子を選択してこれら2つの中間層素子の
出力値系列を用いて相関係数を求めるという処理を全て
の中間層素子で想定できる組み合わせについて行うもの
であり、コンパクト構造化法で説明した数7を用いて算
出することとなる。
【0111】ステップS17では、ステップS16で算
出した複数の相関係数について所定値以上か否かを判定
し、相関係数の絶対値が所定値以上(2つの中間層素子
が融合可)と判断するならばステップS18へ進み、ま
た、相関係数の絶対値が所定値未満(2つの中間層素子
が融合不可)と判断するならばステップS19へジャン
プする。ステップS18では、融合を行うステップであ
る。ステップS15からジャンプしてきたならば中間
層素子とバイアス素子との融合を、また、ステップS1
7から来たならば中間層素子同士の融合を行う。ここ
に中間層素子とバイアス素子との融合は次式により表
される(図4(a),(b)参照)。
【0112】
【数27】
【0113】この場合数17,数18で表された他の変
数g,δ,yは初期化されて0になる。また、のi番
目とj番目という中間層素子同士の融合は次式により表
される(図5(a),(b)参照)。
【0114】
【数28】
【0115】この場合数17,数18で表された他の変
数g,δ,yは初期化されて0になる。複数の中間層素
子の分散を算出して多数の分散が所定値以下の場合、最
も分散が小さい中間層素子とバイアス素子とを融合させ
る。同様に、相関係数の絶対値が所定値以上の中間層素
子の組み合わせが多数ある場合、相関係数の絶対値が最
も大きい中間層素子の組み合わせを融合させる。この理
由は学習アルゴリズムA’と同様である。同様に、相関
係数の絶対値が所定値以上の中間層素子の組み合わせが
多数ある場合、相関係数の絶対値が最も大きい中間層素
子の組み合わせを融合させる。この場合も、1度のコン
パクト構造化に対し1回に融合制限した方が良好な結果
が得られることが多いからである。ステップS19で
は、学習終了か否かを判断する。具体的には学習回数が
所定回数に達したか否かを判断する。学習終了しない場
合は、ステップS12の先頭へジャンプして再度学習を
行い、学習終了の場合はフローを終了することとなる。
【0116】学習アルゴリムB’では、自分自身との結
合を有する積結合型ニューラルネットワークをコンパク
ト構造化法による不要な素子を削除しつつ、Jacobs Hy
brid法またはKick Out法により学習するため、従来のJ
acobs Hybrid法またはKickOut法よりも計算量が減少し
て学習時間を短縮することが可能である。
【0117】
【実施例】続いて、本発明の実施例について説明する。
Y=X・Xを積結合型ニューラルネットワークに学
習させる場合を想定し、3つの学習アルゴリズムにより
学習させてこれら学習アルゴリズムの性能を比較する。
学習条件を次表に示す。
【0118】
【表1】
【0119】また、表2に学習時間の比較を示す。
【0120】
【表2】
【0121】表1で示すように、比較検討する学習アル
ゴリズム1はバックプロパゲーション法の一例であるモ
ーメント法,学習アルゴリズム2は本発明の請求項1に
係るコンパクト構造化法,学習アルゴリズム3は本発明
の請求項2に係るコンパクト構造化法+Jacobs hybrid
法である。図6は、誤差の変化を示す特性図である。図
6で示すように、学習アルゴリズム1と学習アルゴリズ
ム2とを比較すると、誤差の変化はほとんど同じである
が、学習中に中間層素子を削減されているため、表2か
らも見て取れるように学習時間は大幅に短縮することと
なる。また、学習アルゴリズム3は、誤差が最も減少
し、中間層素子が削除されたため、学習時間も表2から
も見て取れるように通常の学習アルゴリズム1よりは短
縮されている。また、学習アルゴリズムは、学習終了条
件が「規定誤差以下」ならば、図6から最速であるのは
明らかである。
【0122】従来の様々な中間層素子の削除法では、中
間層素子が削除されると一時的に誤差が増大する。しか
し、図6で示すように誤差が増加することは全くなかっ
た。これは本発明による融合方法、および結合係数1つ
ずつに設定された学習係数の融合方法が適切であったこ
とを示している。
【0123】
【発明の効果】積結合型ニューラルネットワークは結合
係数が多く、通常のニューラルネットワークよりも学習
時間がかかる。また、結合係数が多いために複雑な問題
を解くことも可能である学習データを過度に学習しすぎ
て汎化能力が低下する問題もある。これを解決する技術
として学習を高速化するために学習係数を結合係数1つ
ずつに対して自動調整するアルゴリズムや中間層素子を
削減・融合するアルゴリズムがある。しかし、それぞれ
の学習アルゴリズム単体を用いるだけでは、所望の性能
を発揮できないことがあった。例えば、結合係数1つず
つに学習係数を自動調節するアルゴリズムは、学習性能
の高さ故、汎化能力が損なわれる危険性が高い。両者の
アルゴリズムを併用することで高精度な学習が期待でき
るが、両者のアルゴリズムを積結合型ニューラルネット
ワークに適用することは従来できなかった。
【0124】本発明によれば,自分自身との結合を有す
るタイプおよび有しないタイプという両方の積結合型ニ
ューラルネットワークに対してコンパクト構造化法を適
用した新しい学習方法を提供するものであり、積結合型
ニューラルネットワークに対し、コンパクト構造化法と
高速学習法とを交互に行うこととし、不要な中間層素子
を削除しながら学習を進めるため、学習に要する時間を
大幅に削減するとともに汎化能力の低下を防止すること
ができる。
【図面の簡単な説明】
【図1】本発明の第1,第2実施形態の学習アルゴリズ
ムA,Bに共通する共通フローチャートである。
【図2】積結合型ニューラルネットワークの融合を説明
する説明図である。
【図3】本発明の第3,第4実施形態の学習アルゴリズ
ムA’,B’に共通する共通フローチャートである。
【図4】積結合型ニューラルネットワークの中間層素子
−バイアス素子の融合を説明する説明図である。
【図5】積結合型ニューラルネットワークの中間層素子
同士の融合を説明する説明図である。
【図6】学習誤差の変化を示す特性図である。
【図7】多層ニューラルネットワークを説明する概念図
である。
【図8】積結合型ニューラルネットワークを説明する概
念図である。
【図9】融合を説明する説明図である。
【図10】学習パターン値に対する中間層素子の出力を
示す出力図である。
【図11】ニューラルネットワークの融合を説明する説
明図である。
【図12】従来のコンパクト構造化の学習アルゴリズム
のフローチャートである。
【図13】重畳エネルギー関数法により学習された中間
層素子を説明する説明図である。
【図14】不要な分散表現について説明する説明図であ
る。
【図15】部分ニューロを説明する説明図である。
【図16】重畳エネルギー関数法による学習の流れを示
すフローチャートである。

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】自分自身との結合がない積結合型ニューラ
    ルネットワークの入力層、中間層、および、出力層の素
    子間の結合係数を修正することで積結合型ニューラルネ
    ットワークを最適化する学習を行い、 この積結合型ニューラルネットワークの中間層の中の1
    個の素子の出力値系列を用いて求めた分散が所定値以下
    の場合にこの素子をバイアス素子に融合するコンパクト
    構造化を行い、 学習とコンパクト構造化とを交互に行って中間層の素子
    を削減しつつ最適化することを特徴とする積結合型ニュ
    ーラルネットワークの最適化学習方法。
  2. 【請求項2】請求項1に記載の積結合型ニューラルネッ
    トワークの最適化学習方法において、 学習係数を調節しつつ結合係数を修正する結合係数修正
    式を用いて積結合型ニューラルネットワークを最適化す
    る学習を行い、 分散が所定値以下の素子をバイアス素子に融合する場合
    に結合係数修正式の学習係数を新たに設定し、更新され
    た結合係数修正式により以後の学習およびコンパクト構
    造化を行うことを特徴とする積結合型ニューラルネット
    ワークの最適化学習方法。
  3. 【請求項3】自分自身との結合がある積結合型ニューラ
    ルネットワークの入力層、中間層、および、出力層の素
    子間の結合係数を修正することで積結合型ニューラルネ
    ットワークを最適化する学習を行い、 この積結合型ニューラルネットワークの中間層の中の1
    個の素子の出力値系列を用いて求めた分散が所定値以下
    の場合にこの素子をバイアス素子に融合し、また、この
    積結合型ニューラルネットワークの中間層の中の2個の
    素子の出力値系列を用いて求めた相関係数の絶対値が所
    定値以上の場合にこれら2個の素子を情報伝達的に同じ
    働きであるとして融合するコンパクト構造化を行い、 学習とコンパクト構造化とを交互に行って中間層の素子
    を削減しつつ積結合型ニューラルネットワークを最適化
    することを特徴とする積結合型ニューラルネットワーク
    の最適化学習方法。
  4. 【請求項4】請求項3に記載の積結合型ニューラルネッ
    トワークの最適化学習方法において、 学習係数を調節しつつ結合係数を修正する結合係数修正
    式を用いて積結合型ニューラルネットワークを最適化す
    る学習を行い、 分散が所定値以下の素子をバイアス素子に融合する場合
    または相関係数の絶対値が所定値以上の2個の素子を融
    合する場合に結合係数修正式の学習係数を新たに設定
    し、更新された結合係数修正式により以後の学習および
    コンパクト構造化を行うことを特徴とする積結合型ニュ
    ーラルネットワークの最適化学習方法。
JP2001034004A 2001-02-09 2001-02-09 積結合型ニューラルネットワークの最適化学習方法 Pending JP2002236906A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001034004A JP2002236906A (ja) 2001-02-09 2001-02-09 積結合型ニューラルネットワークの最適化学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001034004A JP2002236906A (ja) 2001-02-09 2001-02-09 積結合型ニューラルネットワークの最適化学習方法

Publications (1)

Publication Number Publication Date
JP2002236906A true JP2002236906A (ja) 2002-08-23

Family

ID=18897679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001034004A Pending JP2002236906A (ja) 2001-02-09 2001-02-09 積結合型ニューラルネットワークの最適化学習方法

Country Status (1)

Country Link
JP (1) JP2002236906A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019070950A (ja) * 2017-10-10 2019-05-09 株式会社デンソーアイティーラボラトリ 情報推定装置及び情報推定方法
CN110574045A (zh) * 2017-04-27 2019-12-13 超威半导体公司 用于优化后的深度网络处理的图形匹配

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110574045A (zh) * 2017-04-27 2019-12-13 超威半导体公司 用于优化后的深度网络处理的图形匹配
JP2020518068A (ja) * 2017-04-27 2020-06-18 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated 最適化されたディープネットワーク処理のためのグラフマッチング
JP7125425B2 (ja) 2017-04-27 2022-08-24 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッド 最適化されたディープネットワーク処理のためのグラフマッチング
CN110574045B (zh) * 2017-04-27 2024-02-09 超威半导体公司 用于优化后的深度网络处理的图形匹配
JP2019070950A (ja) * 2017-10-10 2019-05-09 株式会社デンソーアイティーラボラトリ 情報推定装置及び情報推定方法

Similar Documents

Publication Publication Date Title
JP2007505379A (ja) 人工ニューラルネットワーク
JPH06324698A (ja) スピーチ認識用の雑音減少方法
US20050119982A1 (en) Information processing apparatus and method
JPH0438587A (ja) 入力領域適応型ニューラルネットワーク文字認識装置
JP2002236906A (ja) 積結合型ニューラルネットワークの最適化学習方法
JPWO2019142241A1 (ja) データ処理システムおよびデータ処理方法
JP4226754B2 (ja) ニューラルネットワークの最適化学習方法
JP2002222409A (ja) ニューラルネットワークの最適化学習方法
JP2825939B2 (ja) ニューラルネットワーク学習装置
US7373333B2 (en) Information processing apparatus and method, program storage medium and program
JP2000259598A (ja) ニューラルネットワークの最適化学習方法
JP2606317B2 (ja) 学習処理装置
JP2021081930A (ja) 学習装置、情報分類装置、及びプログラム
WO2022009449A1 (ja) 情報処理装置,情報処理方法および情報処理プログラム
US20230401836A1 (en) Method and Device for Training a Neural Network
JP2699447B2 (ja) 信号処理装置
JP2022032876A (ja) 学習装置、情報分類装置、及びプログラム
Peng et al. Advanced adaptive nonmonotone conjugate gradient training algorithm for recurrent neural networks
JPH0981535A (ja) ニューラルネットワークの学習方法
US11886977B2 (en) Computing apparatus, computing method, storage medium, and table generating apparatus
JPH05204885A (ja) ニューラルネットワークの学習高速化装置及び方法
JPH05151373A (ja) ニユーラルネツトワークを用いたフアジイ逆診断方法
JP3000642B2 (ja) パターン認識方式および標準パターン学習方式
JPH04186402A (ja) フアジイ推論における学習方式
JPH05143757A (ja) ニユーラルネツトワークの学習方法及び学習装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091201