JPH11120158A - 階層型ニューラルネットワークの学習方法 - Google Patents

階層型ニューラルネットワークの学習方法

Info

Publication number
JPH11120158A
JPH11120158A JP9282008A JP28200897A JPH11120158A JP H11120158 A JPH11120158 A JP H11120158A JP 9282008 A JP9282008 A JP 9282008A JP 28200897 A JP28200897 A JP 28200897A JP H11120158 A JPH11120158 A JP H11120158A
Authority
JP
Japan
Prior art keywords
input
output
unit
layer
intermediate layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9282008A
Other languages
English (en)
Inventor
Masamichi Ichikawa
雅理 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advantest Corp
Original Assignee
Advantest Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advantest Corp filed Critical Advantest Corp
Priority to JP9282008A priority Critical patent/JPH11120158A/ja
Publication of JPH11120158A publication Critical patent/JPH11120158A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 入力画像が大きくても、規模を小さくし、か
つ冗長な画像に影響されないものとする。 【解決手段】 入力層をM個の部分入力層16m に分割
し、各部分入力層16mに対し、1個の中間層ユニット
17m を設け、中間層ユニット17m は対応部分入力層
16m とのみ結合させる。全ての学習セットの学習終了
ごとに、中間層ユニットの出力の符号を反転した時とし
ない時の教師に対するトータル誤差EとE′が常に等し
い、中間層ユニットとこれと結合する部分入力層を削除
する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明はパターン認識など
の入力した信号の分類に用いる階層型ニューラルネット
ワークの学習方法に関するものである。
【0002】
【従来の技術】階層型ニューラルネットワークを用い
て、二値画像中のパターンを認識・分類する方法が数多
く提案されている。階層型ニューラルネットワークによ
ってパターン認識をおこなう場合、図4に示すような画
像11を入力信号とする構造が最も一般的に用いられて
いる。この場合、階層型ニューラルネットワークは入力
された画像を多次元のベクトルとして処理している。多
次元のベクトルは画像中のパターンの形状を反映してい
る。図4に示す入力層12、中間層13、出力層14か
らなる階層型ニューラルネットワークを用いて入力画像
11中のパターンを認識する場合、入力層12のユニッ
ト数はこのネットワークに入力する画像の画素数(入力
画像のサイズ)Iによって決定する。同様に、出力層1
4のユニット数は出力層出力の個数や分類のカテゴリ数
Nによって決定する。中間層13のユニット数Mは認識
したいパターンの種類や複雑さによって適切に選択する
必要がある。
【0003】このような階層型ニューラルネットワーク
をパターンの認識や分類に利用する場合、その認識の性
能は中間層13の層数、ユニット数などのネットワーク
の構造に強く依存している。例えば、中間層13のユニ
ット数が多すぎる場合は、入力信号空間(入力信号全体
が作る多次元ベクトル空間)を必要以上に細かく分割す
るためネットワークの汎化能力が低下する。また、大き
い構造は学習に要する時間や計算コストの増大を招く。
従って、階層型ニューラルネットワークをパターンの認
識や分類に利用する場合、ネットワークの構造はできる
だけ小さいほうがよい。
【0004】このため、出力関数としてシグナム関数
(符号関数)を用いるユニットにより構成された階層型
ニューラルネットワークに対するMRII(MADALI
NERule II)という学習方法を改良し、中間層ユ
ニットの出力信号の変化などから入力信号空間の分割状
態を考慮して、ネットワークの動作に貢献しない中間層
ユニット(非貢献中間層ユニット)の削除を適宜おこな
いながら学習を進める方法を先に本発明者は提案した
(特開平5−101209、特開平7−64943)。
【0005】図5にこの階層型ニューラルネットワーク
の中間層13と出力層14の各ユニットに用いたニュー
ロンモデルを示す。このニューロンモデルは、±1の二
値信号X(x1 ,x2 ,…,xn )が入力されると、入
力信号に結合荷重W(w1 ,w2 ,…,wn )を乗じて
総和yを求め、二値信号q=SGN(y)を出力する。
出力関数に用いたシグナム関数SGN(y)は、実数値
を持つyの符号を見て+1(y≧0のとき)または−1
(y<0のとき)を出力する関数である。x0=1はし
きい値の入力、w0 はその結合荷重である。以下では特
に断らないかぎり、中間層と出力層の各ユニットに入力
される入力信号Xとそれに対する結合荷重Wに、しきい
値入力x0 とその結合荷重w0 を含むものとする。
【0006】各ユニットの出力関数としてシグナム関数
を用いる階層型ニューラルネットワークの学習法とし
て、つまり、例えば入力画像を入力すると、そのパター
ンに応じた出力端子に出力が得られ、画像の認識を可能
とするための各結合荷重の決定を行う方法として、MR
II法がある。ここでは、学習途中で非貢献中間層ユニッ
トを削除するように改良したMRII法を、図14、図1
5を参照して説明する。
【0007】中間層のユニットを適当な個数、例えば学
習のために用意した信号の個数だけ用意しておき、中間
層と出力層の全ての結合荷重に小数をランダムに与えて
初期化する(S1)。次にトータルエラーを0、学習セ
ット提示回数を1に初期化する。この学習方法では中間
層ユニットの動作をチェックするため、テーブル1,テ
ーブル2,テーブル3と称する中間層のユニットと同数
の信号を格納できるメモリを用意し、これらのメモリの
内容を0に初期化する(S3)。テーブル3はその各中
間層ユニットに対し1ビットを割り当て、これを“1”
にしてフラグを立てることができるようにされる。用意
した学習セット(学習に用いる入力信号Xと教師信号D
との組)の内の1組をニューラルネットワークに提示
し、つまり入力信号Xをニューラルネットワークに入力
する(S4)。その入力信号に対し中間層13の各ユニ
ットの出力qを計算し(S6)、中間層13の各ユニッ
トの出力をそれぞれテーブル2内の対応するユニットの
加算値に加算して格納し(S7)、さらに出力層の出力
を計算して出力層出力Qを得る(S8)。
【0008】その出力層出力Qと教師信号Dとの誤差E
を求め(S9)、その誤差Eをトータルエラーに加算し
てそれを新たなトータルエラーとする(S10)。次に
試行回数jを1に初期化し(S11)、中間層ユニット
の内部状態値yが試行回数j番目に0に近い中間層ユニ
ットkを選択し、つまり内部状態値yの絶対値が試行回
数j番目に小さい中間層ユニットを選択する(S1
2)。
【0009】その選択した中間層ユニットkの二値出力
q(k)の符号を反転し、新しく中間層の出力信号を作
る(S13)。以下これを試行パターンq′と記す。そ
の試行パターンq′を出力層に入力し、演算して出力層
出力Q′を求め(S14)、その出力層出力Q′と教師
信号Dとの誤差E′を求める(S15)。この誤差信号
E′とステップS9で得た誤差信号Eとを比較し(S1
6)、E>E′の場合は選択した中間層ユニットkにつ
いてテーブル1(k)に“−1”を格納し(S17)、
選択した中間層ユニットkの結合荷重を、実際にそのユ
ニットの出力の符号が反転するようにLMSアルゴリズ
ムによって更新してステップS22に移る(S18)。
つまり現在の結合荷重をWk 、更新後のそれをWk+1
学習係数をα、教師信号をd(符号反転後の二値出力)
とすると、 Wk+1 =Wk +αεX/|X|2 , ε=d−y を演算する。E<E′の場合は選択した中間層ユニット
kについてテーブル1(k)が“−1”かを確認し(S
19)、“−1”でない場合はテーブル1(k)に
“1”を格納し(S20)、“−1”である場合はステ
ップS21に移る。E=E′の場合はテーブル1の変更
を行わず、ステップS21に移る。ステップS21では
試行パターン中の反転した符号を元に戻し、結合荷重の
更新は行わない。
【0010】次に試行回数jを+1して新たな試行回数
とし(S22)、その試行回数jと中間層のユニット数
Mとを比較し(S23)、その試行回数が中間層のユニ
ット数以下であればステップS12に戻る。このように
して中間層ユニットの全てについてその内部状態値yが
0に近いものの順に、結合荷重を更新するかしないまま
とされる。その後その入力信号Xを再び入力して出力層
出力Qを再度求め(S24)、その出力層出力Qと教師
信号Dとを比較し(S25)、不一致の場合は、教師信
号と異なる信号を出力した出力層のユニットの結合荷重
をLMSアルゴリズムで更新し(S26)、一致してい
る場合は出力層ユニットの結合荷重をそのままとする。
【0011】次に学習セット提示回数を+1して新たな
学習セット提示回数とし(S27)、その学習セット提
示回数と予め与えられた学習セットの数を比較し(S2
8)、予め与えられた学習セットの数以下であればステ
ップS4に戻り、新たに他の学習セットについて同様の
ことを行い、以下同様にして、全ての学習セットについ
てステップS4〜S28を実行する。
【0012】ステップS28において学習セット提示回
数が学習セット数より大きくなり、全ての学習セットに
ついて学習を終了すると、つまり1サイクルの学習が終
了すると、テーブル1の各値が全て“−1”か確認し
(S29)、全て“−1”の場合は直ちにステップS3
7に移る。テーブル1の全てが“−1”ではない場合、
ユニット数のカウンタmを初期化し(S30)、各中間
層ユニットの動作の確認と削除の処理を行う。テーブル
1(m)の値が“−1”の場合は直ちにステップS34
に移る。テーブル1(m)の値が“1”の場合は、その
中間層ユニットに対してテーブル2(m)に格納されて
いる信号の絶対値が学習セット数と一致するかチェック
して(S32)、一致する場合はその中間層ユニットつ
いてテーブル3(m)にフラグを立て(S33)、一致
しない場合はステップS34に移る。ステップS31で
テーブル1(m)の値が“0”の場合はその中間層ユニ
ットについてテーブル3(m)にフラグを立てる(S3
3)。次いでユニット数のカウンタmを+1して(S3
4)、ステップS35でmと中間層ユニット数Mとを比
較し、中間層ユニット数M以下であればステップS31
からS34までを繰り返して全ての中間層ユニットの動
作を確認する。その後、テーブル3を参照して非貢献中
間層ユニット、つまりテーブル3(m)中で“1”であ
るmと対応するユニットの削除を行い(S36)、ステ
ップS37に移る。つまり、テーブル3(m)のフラグ
が立っている場合は、1サイクルで常にE=E′つま
り、符号を反転しても、誤差に変化がないということ
は、その中間層ユニットは、ネットワークの行うパター
ン認識に貢献していないか貢献の程度が、非常に低いあ
るいは1サイクルで常にE<E′であり、テーブル2に
格納されている信号の絶対値が学習セット数と等しい、
つまり、全ての学習セットの入力信号に対して同一符号
の信号を常に出力した中間層ユニットも、入力信号の分
離(パターン認識)に貢献していない。ステップS37
ではトータルエラーが0か否かをチェックし、0でなけ
ればステップS3に戻り、再び全ての学習セットについ
てトータルエラーが0になるまでステップS3〜S36
を繰り返し実行(学習)する。ステップS37でトータ
ルエラーが0になったら学習を終了する。
【0013】以上の学習方法で、中間層ユニットの動作
の確認(ステップS7,S17,S19,S20,S2
9〜S35)と非貢献中間層ユニットの削除(ステップ
S36)を行わなければ、基本的なMRII法になる。
【0014】
【発明が解決しようとする課題】画像を入力信号とする
階層型ニューラルネットワークを用いたパターン認識の
場合、図3のように画像全体の信号が中間層の各ユニッ
トに入力される構造が、簡単であることから最もよく用
いられる。しかし、このようなネットワークの構造を取
る場合、上述の学習方法で非貢献中間層ユニットの削除
をおこないながら学習しても、入力画像が大きくなり入
力層ユニット数が増えるにともない、入力層ユニットと
中間層ユニットとの結合数が急激に増大しネットワーク
の構造が大きくなる問題がある。
【0015】また、画像の持つ冗長性がノイズとして振
るまい、認識能力を損なうという問題もあった。
【0016】
【課題を解決するための手段】この発明によれば、出力
関数としてシグナム関数を用いるユニットによって構成
され、入力層を複数の部分入力層に分割し、初期状態と
して部分入力層と同数の中間層ユニットを持ち、各中間
層ユニットが一つの部分入力層内のユニットだけと結合
することを特徴とする階層型ニューラルネットワークの
学習であって、請求項1ではすべての学習セットについ
ての実行(学習)を終了する(1サイクルの学習)毎
に、すべての学習セットの入力信号に対して常にE=
E′であった中間層ユニットと、その中間層ユニットが
結合する部分入力層の入力層ユニットを、ニューラルネ
ットワークの動作に貢献しないユニットと判断する。
【0017】請求項2ではすべての学習セットについて
の実行(学習)を終了する(1サイクルの学習)毎に、
すべての学習セットの入力信号に対して常に同一符号の
信号を出力した中間層ユニットと、その中間層ユニット
が結合する部分入力層の入力層ユニットを、ニューラル
ネットワークの動作に貢献しないユニットと判断する。
【0018】請求項1又は2で、ニューラルネットワー
クの動作に貢献しないユニットと判断された、中間層ユ
ニットと、その中間層ユニットが結合する部分入力層の
入力層ユニットを削除する。この発明によれば、入力層
が複数の部分入力層に分割され、中間層のユニットがそ
れぞれ一つの部分入力層のユニットだけと結合した構造
を有する階層型ニューラルネットワークを用いているの
で、非貢献中間層ユニットの削除を適宜繰り返しながら
学習をおこなう時に、その非貢献中間層ユニットと結合
する部分入力層のユニットの削除を同時におこなうこと
ができるので、適切な構造でかつ入力信号の冗長性を低
減した階層型ニューラルネットワークを得ることができ
る。 作用 出力関数としてシグナム関数を用いるユニットからなる
階層型ニューラルネットワークをパターン認識に用いる
場合、中間層ユニットは入力信号空間を分割する働きを
担う。1個の中間層ユニットは入力信号空間に1枚の超
平面を張り入力信号空間を二分する。ユニットの結合荷
重は超平面の法線ベクトルであり、しきい値を変えると
超平面は平行に移動する。結合荷重としきい値を適切に
すると、1個の中間層ユニットが張る超平面は入力信号
を2種類に分離することができる。すなわち、入力信号
ベクトルが法線ベクトル側の空間にあるとき+1を出力
し、反対側の空間にあるとき−1を出力する。
【0019】この発明では図2に示すように階層型ニュ
ーラルネットワークの入力層12を複数の部分入力層1
1 〜16M に分割し、部分入力層16の個数Mと同数
の中間層ユニット17の各々には一つの部分入力層16
だけから信号を入力する(図2参照)。従って、1個の
中間層ユニット17m (m=1,2,…,M)には入力
画像の一部分(以下、部分画像と称する)、つまり部分
入力層16m が入力され、中間層ユニット17m はその
部分画像の入力信号が作る信号空間を超平面で二分し
て、入力信号ベクトルの存在位置に対応した出力信号を
出力する。学習を繰り返すと、中間層ユニットは入力さ
れた部分画像中のパターンの形状に対応して出力信号を
出力するようになる。すなわち、中間層ユニットはパタ
ーンの形状によって入力された任意の部分画像を2種類
に分類する。
【0020】中間層ユニットの出力信号を1列に並べて
中間層出力パターンとすると、中間層出力パターンは部
分画像の形状特徴のベクトルであり、それによって入力
画像を特徴付けると考えられる。出力層ユニットは入力
画像を特徴付ける中間層出力パターンのベクトルを、さ
らに分離して認識結果を出力する。このとき、入力画像
の分割が適当で、それぞれの信号空間が中間層ユニット
の張る超平面で適切に分割されていると、優れた認識能
力を持つことができる。反対に、必要以上に細かく入力
層が分割されて(すなわち、細かい部分画像に分割され
て)多数の中間層ユニットがある場合や、中間層ユニッ
トが張る超平面による分割が適切でない場合は認識能力
は低くなる。
【0021】これを解決するため、従来技術で述べた場
合と同様にして、中間層ユニットの出力信号の符号を反
転したとき、その影響が出力層出力の誤差に現われるか
否かによって、中間層ユニットの貢献の程度を決めてい
る。つまり誤差が減少する場合、選択した中間層ユニッ
トの符号が反転するように結合荷重を更新することは、
入力信号空間の分割が適切になるように超平面を修正す
ることであり、結合荷重更新後の中間層ユニットはネッ
トワークの行うパターン認識に貢献すると考えることが
できる。誤差が増加する場合、選択した中間層ユニット
は現状でネットワークの行うパターン認識に貢献してい
る可能性があると考えることができる。これらに反し
て、1サイクルの学習で1度も誤差の増減の無い中間層
ユニットは、ネットワークの行うパターン認識に貢献し
ていないか貢献の程度が非常に低いと考えることができ
る。また、1サイクルの学習で、全ての入力パターンに
対して同一符号の信号を出力する中間層ユニットは、出
力層ユニットのバイアス入力として動作しており、入力
信号空間の分割結果がネットワークの行うパターン認識
に貢献していないと考えることができる。
【0022】中間層ユニットがネットワークの行うパタ
ーン認識に貢献していないということから、その中間層
ユニットが結合する部分入力層の信号が、パターンの認
識結果に影響を与えていないと考えられる。これは部分
入力層に入力される部分画像が、画像中のパターンの認
識において無効な情報であって、冗長な部分であるとい
える。
【0023】以上から、学習サイクル毎の中間層出力パ
ターンの変化を調べることで、非貢献中間層ユニットと
冗長な部分入力層を判定できる。学習サイクルごとに非
貢献中間層ユニットと、その中間層ユニットが結合する
部分入力層ユニットを削除することで、適切な構造のネ
ットワークを得ることができる。同時に、画像の冗長性
がパターン認識に与える影響を低減できる。
【0024】
【発明の実施の形態】図1、図2にこの発明の実施例を
示し、図14、図15と対応するステップには同一記号
を付けてあり、図13の場合と同様に3つのテーブル
1,2,3を用いる。この発明では入力層分割情報を用
いて、入力信号を受け取りバッファとして働く入力層を
複数の部分入力層に分割することができるようにされ
る。中間層のユニット数は分割された部分入力層と同数
にされ、各々の中間層ユニットはただ一つの部分入力層
のユニットと結合するようにされる。
【0025】はじめに図14、図15と異なる部分につ
いて説明する。ステップS2では入力層の分割に用いる
情報が設定される。すなわち、入力層ユニットを連続し
た配置で切り出すとした場合、その配置の先頭のユニッ
ト番号IS(m)と最後尾のユニット番号IE(m)と
切り出すユニット数IN(m)が設定される。mは部分
入力層16mの番号で、M個に分割する場合はm=1,
2,…,Mである。入力層分割情報は予め設定してRO
Mなどに格納しておいてもよいし、学習開始時に外部
(例えばキーボード)から入力して設定してもよい。
【0026】ステップS5では、ステップS2で設定し
た入力層分割情報にしたがって入力層をM個に分割す
る。すなわち、入力された画像Xを分割し部分入力層信
号Xpaを作成する。部分入力層信号の作成は図6に示す
ように、入力層分割情報で指定されたユニットに相当す
る位置の入力画像のデータを、入力画像メモリから読み
出して部分入力層信号Xpaに格納して行う。つまり、m
=1と初期設定し、更にIS(1),IE(1),IN
(1)を入取しi=IS(1),IS(1)+1,…,
IE(1)と対応するIN(1)個のX(i)を分割し
てXpa(1)を得、次にm=2とし、またIS(2),
IE(2),IN(2)を入取し、i=IS(2),I
S(2)+1,…,IE(2)と対応するIN(2)個
のX(i)を分割してXpa(2)を得、以下同様にして
mがMより大となるとその分割を終了する。
【0027】ステップS36のネットワークの動作に貢
献しないユニットを削除する処理では、中間層ユニット
17mと同時に部分入力層のユニット16mも削除され
る。削除は図13に示すようにして行う。部分入力層の
数Mだけ、0から計数するカウンタcを0に初期化し
(101)、テーブル3からその1つの中間層ユニット
のフラグを読みだし、これが“1”か否かをチェックし
(102)、“1”でなければ、カウンタを+1し(1
03)、カウンタの計数値番目の中間層ユニットとその
ユニットが結合する部分入力層との各結合荷重W
mi(i,c)を、中間層ユニットmとそのユニットが結
合する部分入力層との各結合荷重Wmi(i,m)で置換
し(104)、つまり、中間層ユニットの結合荷重メモ
リのWmi(i,n)が記憶される部分にWmi(i,m)
を記憶し、次にカウンタの計数値番目の中間層ユニット
と各出力層ユニットnとの各結合荷重Wou(c,n)
を、中間層ユニットmと各出力層ユニットnとの各結合
荷重Wou(m,n)で置換する(105)。このように
テーブル3のフラグが立っていない中間層ユニットつま
りネットワークの動作に貢献する中間層ユニットの結合
荷重だけ、中間層ユニット結合荷重メモリ、出力層ユニ
ット結合荷重メモリにそれぞれ詰めて行くことによっ
て、非貢献中間層ユニットの削除を行う。ネットワーク
の動作に貢献しない部分入力層のユニットの削除は、非
貢献中間層ユニットの削除と同様の手法で、入力層分割
情報を詰めて行くことで行う。すなわち、カウンタの計
数値番目の入力層分割情報IS(c),IE(c),I
N(c)をm番目の入力層分割情報IS(m),IE
(m),IN(m)で置換する(106)。これによっ
て、入力層分割情報からネットワークの動作に貢献しな
い部分入力層の情報が削除されるので、次のサイクルの
学習ではステップS5において削除された部分入力層の
信号は作成されない。mを+1し、nがMより大になる
まで(107,108)、各中間層ユニットについて上
記の処理を行った後、カウンタの値で中間層ユニットの
個数(すなわち部分入力層の個数)Mを更新する(10
9)。
【0028】次にこのような部分入力層ユニットを用い
る場合において、図13に示した従来の処理と異なる部
分について図1、図2の学習アルゴリズムを用いてより
詳細に説明する。図1、図2の学習において、ステップ
S6の中間層出力qの計算は図7に示すように、各部分
入力層信号と各1つの中間層ユニットについてその結合
荷重とを掛け算したものの総和を求めてその内部状態値
を得、その内部状態値をシグナム関数に代入して二値化
した中間層出力を得る。つまりm=1に初期設定し、I
N(1)個の入力信号Xpa(i,1)と、IN(1)個
の中間層ユニットの結合荷重Wmi(i,1)の積X
pa(i,1)×Wmi(i,1)をi=0からIN(1)
まで総和ymi(1)により中間層ユニットの内部状態値
を求め、そのymi(1)をシグナム関数に代入して中間
層出力q(1)を得、nを+1し、つまりm=2とし
て、Xpa(i,2)×Wmi(i,2)をi=0からIN
(2)までの総和y mi(2)を求め、そのシグナム関数
値q(2)を得、以下mがMより大となるまで同様のこ
とを行う。このようにして部分入力信号Xpa(1)〜X
pa(IN(m))に対し、対応中間層ユニットから1つ
の出力q(n)を得る。
【0029】ステップS8およびS14,S24の出力
層出力Q(またはQ′)の計算は図8に示すように、各
中間層出力q(m)と各1つの出力層ユニットについて
その結合荷重Wou(m,n)とを掛け算したものの総
和、つまりm=0からm=Mまでの和を求めてその内部
状態値you(n)を得、その内部状態値をシグナム関数
に代入して二値化した出力層出力を得る。ステップS1
4とS24では、中間層出力の代りに試行パターンq′
を用いて同様にして出力層出力を得る。
【0030】ステップS9およびS15の出力層出力Q
(またはQ′)と教師信号Dとの誤差E(またはE′)
は図9に示すように計算する。つまり|D(n)−Q
(n)|/2をn=1からn=Nまで加算して誤差Eと
する。ステップS12およびS13の試行パターンの生
成は、中間層の各ユニットを内部状態値の絶対値の小さ
い順に並べ、試行回数j番目に小さい内部状態値を持つ
中間層ユニットを求め、図10に示すようにユニット番
号kがk=mの場合のユニットの出力信号q(m)のみ
の符号を反転し、q(m)×(−1)=q(m)とし、
これとその他の中間層ユニットの出力とを試行パターン
とする。
【0031】ステップS18における中間層ユニットの
結合荷重の更新は図11に示すように行われる。つま
り、選択した中間層ユニットのステップS12で符号を
反転した出力と、そのユニットの内部状態値との差を求
め、その差εと学習係数αと各入力信号との積を入力信
号数で割った値を、その入力信号に対する現結合荷重に
加算して更新した結合荷重とする。つまり部分入力層信
号Xpa(i,k),(i=1,2,…,IN(k))と
その中間層ユニットの結合荷重Wmi(i,k)との差の
絶対値をi=0からIN(k)まで加算し、即ち次式を
演算してそのユニットの内部状態を求め、 ΣIN(k) i=0 {Xpa(i,k)×Wmi(i,k)} この演算結果を、選択して符号反転した中間層ユニット
の出力q′(k)から計算して差εを求め、このεと学
習係数αと、各試行パターンXpa(i,k)との積を入
力信号数(IN(k)+1)で割算し、その割算結果
を、出力層ユニットnと各中間層ユニットとの現結合荷
重Wmi(i,k)と加算して、中間層ユニットnの結合
荷重を更新する。即ち新結合荷重W(i),(i=0,
1,…,I)は次式で表わせる。
【0032】W(i)=Wmi(i,k)+α×ε×Xpa
(i,k)/(IN(k)+1) ステップS25およびS26における出力層ユニットの
結合荷重の更新は図12に示すように行われる。先ずn
=1とし(201)、再計算した各出力層ユニットの出
力Q(n)と、これと対応する教師信号D(n)とを比
較し(202)、不一致となった出力層ユニットnにつ
いて教師信号D(n)とその出力層ユニットの内部状態
値you(n)との差εを計算し、その差εと、学習係数
αと、各中間層ユニットの試行パターンq′(m)との
積を、入力される信号の数(M+1)で割った値α×ε
×q′(m)/(M+1)を、出力層ユニットnと各中
間層ユニットとの現結合荷重Wou(m,n)に加算し
(203)、その加算結果W ou(m)を出力層ユニット
nの更新した結合荷重Wou(m,n)とする(20
4)。このことを各出力層ユニットについて行う。
【0033】以下に部分入力層の分割数および一つの部
分入力層の大きさについて検討する。以下の説明では簡
単のため、入力層全体の大きさをI、分割数をPとす
る。これから、一つの部分入力層の大きさは(I/P)
個になる。さて、このニューラルネットワークで入力さ
れたパターンをN個のカテゴリに分類することを考え
る。1個の中間層ユニットは入力されたパターンを2個
のカテゴリに分類できるので、N個のカテゴリに分類す
るには、 2P1≧N,従って P1≧ logN/ log2 を満たすP1個以上の中間層ユニットが必要である。こ
の発明では、部分入力層の個数と中間層ユニット数は等
しいので、部分入力層の最小分割数はこれによって制限
される。また、部分入力層の大きさが小さすぎると、分
類対象のパターンの特徴を識別できなくなる。パターン
の特徴を表現できないほどに部分入力層が小さいと、正
しく分類できなくなると考えられる。
【0034】部分入力層の1個のユニットは0または1
の2種類の情報を表現できる。s個のユニットがあれ
ば、つまり部分入力層の大きさがsであれば、2のs乗
個の情報を表現できる。したがって、N個のカテゴリの
パターンを表現するには 2s ≧N 従って s≧ logN/ log2 を満たす部分入力層ユニットが必要である。このときの
分割数をP2とすると、P2=I/sであるから、 I/P2≧ logN/ log2 従って P2≦I logN/
log2 以上から、部分入力層の分割の条件は次のようになる。
【0035】logN/ log2≦P≦I logN/ log2 階層型ニューラルネットワークはパターン認識に適用す
る場合に限らず、電子計算機上で学習を行い、学習後の
結合荷重をROMにコピーして、そのROMを他の装置
に利用することもできる。
【0036】
【発明の効果】以上述べたようにこの発明によれば、入
力層を複数の部分入力層に分割しその部分入力層の数だ
け中間層ユニットを設けているため、入力画像が大きく
ても、入力層と中間層との結合数が急激に増大すること
なく、つまりネットワークの構造が大きくならない、し
かも非貢献中間層ユニットの削除の際に、対応する部分
入力層を削除することにより入力画像の冗長な部分が除
去され、冗長性がパターン認識に与える影響を低減する
ことができる。
【0037】例えば対象画像中のパターン情報は局在し
ていることがあり、その場合、入力層全体において、情
報が少ない、つまり変化が少ないと予想される部分では
部分入力層のサイズを大きくすると、速い段階で削除さ
れ、コンパクトなネットワークになり、学習の負荷が小
さくなり、高速化することが利得できる。
【図面の簡単な説明】
【図1】ネットワークの動作に貢献しない部分入力層と
中間層ユニットを削除する請求項3の発明の学習方法の
実施例の一部を示す流れ図。
【図2】図1の残りの部分を示す図。
【図3】入力層を分割したこの発明の階層型ニューラル
ネットワークを示すブロック図。
【図4】従来の階層型ニューラルネットワークを示すブ
ロック図。
【図5】ニューロンモデルの例を示すブロック図。
【図6】部分入力層信号の作成処理を示す流れ図。
【図7】中間層出力の計算を示す流れ図。
【図8】出力層出力の計算を示す流れ図。
【図9】誤差の計算を示す流れ図。
【図10】試行パターンの生成処理を示す流れ図。
【図11】中間層ユニットの結合荷重の更新処理を示す
流れ図。
【図12】出力層ユニットの結合荷重の更新処理を示す
流れ図。
【図13】ネットワークの動作に貢献しない部分入力層
と中間層ユニットの削除処理を示す流れ図。
【図14】従来のネットワークの動作に貢献しない中間
層ユニットを削除する学習方法の一部を示す流れ図。
【図15】図14の残りの部分を示す図。

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 出力関数としてシグナム関数を用いるユ
    ニットによって構成された階層型ニューラルネットワー
    クであって、入力層が複数の部分入力層に分割されてお
    り、初期状態として部分入力層と同数の中間層ユニット
    を持ち、各中間層ユニットが一つの部分入力層内のユニ
    ットだけと結合することを特徴とする階層型ニューラル
    ネットワークの学習方法であって、 a.その中間層および出力層の全ユニットの結合荷重に
    適当な小数を与え、 b.用意した学習セット(入力信号と教師信号の組)の
    入力信号を上記ニューラルネットワークに入力し、 c.その時の出力層出力と上記教師信号との誤差Eを求
    め、 d.中間層ユニットの中からその内部状態値がゼロに近
    い順に選択してその選択した中間層ユニットの二値出力
    の符号を反転して新しく中間層の出力信号(試行パター
    ンと記す)を作り、 e.その試行パターンを出力層に入力して出力層出力を
    求め、この出力層出力と上記教師信号との誤差E′を求
    め、 f.その誤差E′と上記誤差Eとを比較し、E>E′の
    時は、選択した中間層ユニットの結合荷重を実際にその
    二値出力の信号が反転するように更新し、 g.E≦E′の時は、上記反転した二値出力の信号を元
    に戻し、 h.すべての中間層ユニットについて上記d〜gを繰り
    返し、 i.その後、上記入力信号を再び入力して出力層出力を
    求め、その出力層出力と上記教師信号との誤差を求め、 j.その誤差がゼロでない時は、出力層ユニットの結合
    荷重を更新し、 k.他の各学習セットについて、上記b〜jを実行し、 l.その後、各学習セット毎に得られた上記iの誤差合
    計(トータルエラー)がゼロか否かを判断し、 m.ゼロでない場合は上記b〜lを繰り返し、ゼロの場
    合は終了とする、 階層型ニューラルネットワークの学習方法において、 上記kにおいてすべての学習セットについての実行を終
    了した時に、すべての学習セットの入力信号に対して常
    にE=E′であった中間層ユニットと、その中間層ユニ
    ットが結合する部分入力層の入力層ユニットを、ニュー
    ラルネットワークの動作に貢献しないユニットと判断す
    ることを特徴とする階層型ニューラルネットワークの学
    習方法。
  2. 【請求項2】 上記kにおいてすべての学習セットにつ
    いての実行を終了した時に、すべての学習セットの入力
    信号に対して常に同一符号の信号を出力した中間層ユニ
    ットと、その中間層ユニットが結合する部分入力層の入
    力層ユニットを、ニューラルネットワークの動作に貢献
    しないユニットと判断することを特徴とする階層型ニュ
    ーラルネットワークの学習方法。
  3. 【請求項3】 上記ニューラルネットワークの動作に貢
    献しないユニットと判断された中間層ユニットと、その
    中間層ユニットが結合する部分入力層の入力層ユニット
    を削除することを特徴とする請求項1又は2に記載の階
    層型ニューラルネットワークの学習方法。
JP9282008A 1997-10-15 1997-10-15 階層型ニューラルネットワークの学習方法 Withdrawn JPH11120158A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9282008A JPH11120158A (ja) 1997-10-15 1997-10-15 階層型ニューラルネットワークの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9282008A JPH11120158A (ja) 1997-10-15 1997-10-15 階層型ニューラルネットワークの学習方法

Publications (1)

Publication Number Publication Date
JPH11120158A true JPH11120158A (ja) 1999-04-30

Family

ID=17646948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9282008A Withdrawn JPH11120158A (ja) 1997-10-15 1997-10-15 階層型ニューラルネットワークの学習方法

Country Status (1)

Country Link
JP (1) JPH11120158A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054200A (ja) * 2010-11-11 2011-03-17 Fuji Electric Systems Co Ltd ニューラルネットワークの学習方法
WO2013021823A1 (ja) * 2011-08-05 2013-02-14 株式会社メガチップス 画像認識装置
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
WO2021112166A1 (ja) * 2019-12-03 2021-06-10 Necソリューションイノベータ株式会社 構造最適化装置、構造最適化方法、及びコンピュータ読み取り可能な記録媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054200A (ja) * 2010-11-11 2011-03-17 Fuji Electric Systems Co Ltd ニューラルネットワークの学習方法
WO2013021823A1 (ja) * 2011-08-05 2013-02-14 株式会社メガチップス 画像認識装置
JP2013037488A (ja) * 2011-08-05 2013-02-21 Mega Chips Corp 画像認識装置
US9361534B2 (en) 2011-08-05 2016-06-07 Megachips Corporation Image recognition apparatus using neural network processing
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
WO2021112166A1 (ja) * 2019-12-03 2021-06-10 Necソリューションイノベータ株式会社 構造最適化装置、構造最適化方法、及びコンピュータ読み取り可能な記録媒体

Similar Documents

Publication Publication Date Title
Wieting et al. No training required: Exploring random encoders for sentence classification
US5214746A (en) Method and apparatus for training a neural network using evolutionary programming
Yan et al. Classifying imbalanced data sets by a novel re-sample and cost-sensitive stacked generalization method
CN110619081A (zh) 一种基于交互图神经网络的新闻推送方法
CN110298446B (zh) 面向嵌入式系统的深度神经网络压缩和加速方法及系统
CN108921342B (zh) 一种物流客户流失预测方法、介质和系统
MacLeod et al. A neural algorithm for document clustering
WO2016189675A1 (ja) ニューラルネットワークの学習装置及び学習方法
Otsuka et al. A deep choice model
CN115588122A (zh) 一种基于多模态特征融合的新闻分类方法
EP0709800B1 (en) Method for designing classification trees
JPH11120158A (ja) 階層型ニューラルネットワークの学習方法
JPH08249302A (ja) 回帰形ニューラル回路網における耐障害決定性有限状態オートマトンを実現する方法および該回路網における耐障害決定性有限状態オートマトン
JPH06111038A (ja) ニューラル・ネットワーク及びその操作方法
JP6725194B2 (ja) 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム
Muezzinoglu et al. An energy function-based design method for discrete Hopfield associative memory with attractive fixed points
Ma The stability of the generalized Hopfield networks in randomly asynchronous mode
Andersen et al. A constructive algorithm for the training of a multilayer perceptron based on the genetic algorithm
JP3114276B2 (ja) 階層型ニューラルネットワークの学習方法
JP2000172662A (ja) ニューラルネットワークの学習方法
JP4106021B2 (ja) 人工ニューラル・ネットワークにおけるプロトタイプの数を仮想的に増加させる方法および回路
JP3337504B2 (ja) ニューラルネットワーク
JP3197377B2 (ja) ニューロコンピュータ
Meyer-Bäse et al. Transformation radial basis neural network for relevant feature selection
JPH0764943A (ja) 階層型ニューラルネットワークの学習方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050104