JPH0430280A - ニューラルネットワークの学習方法 - Google Patents

ニューラルネットワークの学習方法

Info

Publication number
JPH0430280A
JPH0430280A JP13667890A JP13667890A JPH0430280A JP H0430280 A JPH0430280 A JP H0430280A JP 13667890 A JP13667890 A JP 13667890A JP 13667890 A JP13667890 A JP 13667890A JP H0430280 A JPH0430280 A JP H0430280A
Authority
JP
Japan
Prior art keywords
learning
value
output
output node
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP13667890A
Other languages
English (en)
Inventor
Yasushi Ishizuka
康司 石塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP13667890A priority Critical patent/JPH0430280A/ja
Publication of JPH0430280A publication Critical patent/JPH0430280A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 【産業上の利用分野】
この発明は、誤差を用いた学習によるニューラルネット
ワークの学習方法に関する。
【従来の技術】 音声信号や画像信号等の特徴パターンの識別に用いられ
るニューラルネットワークとして、多層パーセプトロン
型ニューラルネットワークがある。 第E図は3層パーセブトロン型ニューラルネットワーク
の概念図である。この3層パーセブトロン型ニューラル
ネットワークは入力層1.中間層2および出力層3の3
層から構成されている。 上記入力層Iには複数のノード5.・・、5を有し、中
間層2には複数のノード6、・、6を有し、出力層3に
は複数のノード7、・・、7を有する。そして、入力層
1の各ノード5、・・、5と中間層2の全ノード6、・
・・、6とはシナプス結合によって接続され、同様に中
間層2の各ノード6、・・、6と出力層3の全ノード7
、・・・、7とはシナプス結合によって接続されてネッ
トワークを形成している。上記構成の3層パーセプトロ
ン型ニューラルネットワークにおいて、あるパターン情
報を表す入力データが入力層lの各ノード5.・・・、
5に入力されると、このネットワークの構造に応じた出
力データを出力層3の各ノード7、・・・、7から出力
するのである。 上記中間層2および出力層3を構成する各ノードは、他
のノードからの入力データを受は取ると、受は取ったデ
ータを所定の規則に従って変換して結合された上層の各
ノードに出力する。各ノード間を接続するシナプス結合
には結合の強さを表す重みが付加されている。この重み
は、ノード間の結合の強さを表すものであり、この重み
の値を変えると同じ入力データに対して異なる出力デー
タを出力するようになるのである。 上述のような多層パーセブトロン型ニューラルネットワ
ークの学習とは、あるカテゴリに属する学習パターンを
表す学習データを入力層に入力した際に、出力層から出
力されるデータがこの学習パターンが属するカテゴリを
表すような出力データになるように、各ノード間の結合
の重みの値を設定することである。したがって、学習済
みのニューラルネットワークの入力層に音声信号や画像
信号の特徴パターンを表すデータが入力されると、その
特徴パターンが嘱するカテゴリを識別して識別結果を表
すデータを出力するのである。 上記多層パーセプトロン型ニューラルネットワークの代
表的な学習方法として誤差逆伝播学習間による学習方法
がある。この誤差逆伝播学習間による学習は次のように
して実施される。第1図において、入力層lの各ノード
5.・、5に学習データを入力する。さらに、出力層3
の各ノード7・・27に上記学習データに係る学習パタ
ーンか属するカテゴリを表す教師データを入力する。そ
うすると、中間層2および出力層3の各ノードは、学習
データに基づく実際の出力値とその学習データに対する
望ましい出力データ(すなわち、教師データ)の要素値
との誤差を極小化するように、シナプス結合の重みを変
化させるのである。このような学習過程を種々の学習パ
ターンにおける学習データと教師データとのセットに対
して繰り返し実行するのである。 第2図は多層バーセプトロン型ニューラルネットワーク
の誤差逆伝播学習間による学習時におけるノードの出力
値およびシナプス結合の重みを示す。第2図において、
中間層におけるノードに付加された結合の重みWは、学
習データに基づく下段のノードからの入力値Xと出力デ
ータ0および教師データTに基づく学習出力値δとによ
って変化する。その際における学習過程毎のノナプス結
合の重み豐の変化量は次のようなものである。 △−、N  1(n、■)=  η 、6  Q・XQ
  l  +lj                1
  1a ・△w”−N−1(n) −(1)J ここで、 △−1N−1(n+1)・ lコ △−−N−’(n): lコ (n+1)回目の学習におけるN段 i番目のノードと(N−1)段j番目 のノードとの間における結合 の重みの変化量 n回目の学習におけるN段i番 目のノードと(N−1)段j番目の ノードとの間における結合の 重みの変化量 値 η:学習定数(例えばη=0.25) α:安定化定数(例えばα=0.9) また、上i2N2層番目のノードの学習出力値δ9は(
N−1)段に番目のノードからの学習信号δ1 を用い
て、(2)式によって再帰的に算出される。 6 ”、−f’i’ (uj)Σ6 :+1.W、Hl
、N ・(2)ここで、rl・i番目のノードにおける
出力関数(シグモイド関数) fi’・fiの微分値 uN: N段i番目のノードの内部状態(2)式におけ
るδの初期値、すなわち、出力層から出力される学習出
力値δgは(3)式によって与えられる。 δ’j、=C0(2−T(7)f(’(uj) =(3
)ここで、Og:出力層における4番目のノード(以下
、出力ノードと言う)の出力値 T12・出力層におけるQ番目の出力ノードに対する教
師データの要素値 すなわち、(n+1)回目の学習における重みの変化量
△w(n+1)は、(n+1)回目の学習における下段
のノードからの当該ノードへの入力値Xと当該ノードか
ら上記下段のノードへの学習出力値δとの積の値の学習
定数η倍の値を、n回目の学習における重みの変化量△
w(n)のα倍の値に加算したものである。したがって
、n回目の学習における出力層の各出力ノードから出力
される出力データOQと対応する教師データの要素値T
(との誤差Cog −TQ)の値に基づく学習出力値δ
2の値が小さくなると、(n+1)回目の学習時におけ
る重みの値Wの変化量△智が小さくなり、学習は収束に
向かうのである。 上述のような誤差逆伝播学旨則による学習の終了は、例
えば次のようにして行う。すなわち、出力層における各
出力ノードからの出力値O12と対応する出力ノードに
入力される教師データTの要素値Tgとの誤差の二乗和
E、を算出する。 そして、総ての学習データに関する誤差の二乗和E、の
値の合計値が所定の閾値より小さくなれば、この誤差逆
伝播学習則による学習は収束したと判断して学習を終了
させるのである。 つまり、上記誤差逆伝播学習則による学習においては、
出力層の各出力ノードからの出力値Oaと教師データの
要素値T(との誤差(0ρ−T(2)の全学習データに
係る合計値が所定の閾値より小さくなるまでは、求めら
れた上記誤差の値に基づく学習出力値δa力咄力層の各
出力ノードから(N+1)層の全ソードへ、さらに出力
層の各出力ノード(N+1)層の各ノードからN層の全
ノードへと順次伝搬されて、総ての結合に付加された総
ての結合の重みの値が変更されるのである。
【発明が解決しようとする課題】
上述のように、上記誤差逆伝播学習則による多層(3層
)バーセブトロン型ニューラルネットワークの学習にお
いては、総ての学習パターンに関する誤差の二乗和Eの
値の合計値が所定の閾値以下になって学習が収束するま
では、出力層の各出力ノードからの出力値と教師データ
の要素値との誤差に基づく学習出力値によって、出力層
および中間層における総ての結合の重みに対する学習が
実行されるので、次のような問題がある。 すなわち、第1図に示す3層パーセブトロン型ニューラ
ルネットワークに対して誤差逆伝播学習則によってパタ
ーン識別の学習を実施する場合において、ある学習パタ
ーンを表す学習データを入力層1に入力した際における
出力層3の各出力ノードからの出力値は、出力信号伝達
経路中における結合の重みの値に応じて種々の値を取る
。その場合において、入力された学習データに係る学習
パターンの識別は、最大値を出力している出力層3の出
力ノードが割り付けられているカテゴリとその最大値と
に基づいて行われる。したがって、小さい値の出力値は
入力された学習データに係るパターンの識別には本来影
響を及ぼさないのである。ところが、上述のように、誤
差逆伝播学習則による学習においては、学習が収束する
までは。 出力値か小さく当該パターンの識別には影響を及ぼさな
いようなノードに係る結合の重みに対しても学習が行わ
れるのである。 一般に、3層バーセプトロン型ニューラルネットワーク
によるパターン識別においては、出力層3の各出力ツー
ドア、・・、7からの出力値に基づいて、入力された学
習データに係る学習パターンがどのカテゴリに属するか
さえ分かれば良いのである。したがって、識別誤りを考
慮して出力層3の各出力ツードア、7.・・・に関する
出力値の誤差の値を累積するとしても、出力値の大きい
順に上位数出力ノードル数十出力ノードからの出力値の
み注目すればよいのである。 このことを具体的に説明すると次のようになる。 識別パターンがA”〜“F′の6パターンであり、パタ
ーンCを表す学習データが入力された場合の結果につい
て第1表に例示する。この場合における出力層3の出力
ノード数は“6′であり、夫々の出力ツードア、・・、
7は第1表に示すように“A”〜“F”のパターンのい
ずれかに割り付けられている。 以下、余白 第1表 また、入力された学習データに係るパターンCに割り付
けられた出力ノードへの教師データの要素値は“!”で
あり、他の出力ノードへの教師データの要素値は“0′
である。 上記3層バーセブトロン型ニューラルネットワークにお
けるパターン識別においては、総ての出力ノードにおけ
る出力値が教師データの要素値と同じ値もしくは近い値
を取る必要はなく、入力された学習データに係るパター
ンの識別に必要な出力ノードにおける出力値が、他の出
力ノードの出値に比較して、対応する教師データの要素
値に近い値を取れば良いのである。 第1表においては、出力ノード“B”の出力値と出力ノ
ード“C“の出力値は非常に近い値を示してL)る。し
たがって、パターンCを正しく識別するためには出力ノ
ードC′の出力値か更に大きくなり(すなわち、教師デ
ータの値“1.00”に近付き)出力ノードB”の出力
値か更に小さくなる(すなわち、教師データの値“0.
00”に近付く)必要かある。 つまり、この場合更に学習か必要なのは出力ノード“B
”に係る結合の重みと出力ノードC′に係る結合の重み
である。一方、出力ノード“A゛、出力ノードD”、出
力ノード“Eoおよび出力ノード“F”の出力値につL
lては既に十分少さな値となっている。したがって、上
記出力ノード“B”および出力ノード“C”に係る結合
の重みに対する学習が続行される際に、上記出力ノード
“A′、出力ノード“D”出力ノード“E”および出力
ノード“F”に係る結合の重みか更に学習されて異なっ
た出力値に変化したとしても、出力ノードA”、出力ノ
ード“D”、出力ノード“E”および出力ノード°F”
からの出力値は十分少さな値を保つことができるのでパ
ターンCの識別結果には影響がないと言える。すなわち
、パターンCに係る学習時における出力ノード“A。 出力ノード“D”、出力ノード“E”および出力ノード
“F“に係る結合の重みの学習は不必要な学習であると
言える。 上述のように、出力ノード“B”および出力ノード“C
”に係る結合の重みの学習の際における出力ノード“A
”2出力ノード“D”、出力ノード“E”および出力ノ
ード“F”に係る結合の重みに対する学習は、パターン
Cの識別には影響を及ぼさないのである。ところが、そ
の出力ノードに係るパターン(すなわち、パターンAま
たはパターンDまたはパターンEまたはパターンF)を
識別する場合には影響が出て来るのである。特に、学習
パターン数が多い場合には、−回の学習によって出力ノ
ード“A”、出力ノード“D″、出力ノード“E”およ
び出力ノード“F“に係る結合の重みの変化量は僅かで
あるが、パターンCの識別に係る学習が終了した時点に
おいては、かなりの変化量になるのである。 したがって、例えば次にパターンAの識別に係る学習を
実施する場合には、出力ノード“A”に係る結合の重み
の値は既に無視できない値と成っている場合がある。 より具体的に説明すれば次のようになる。例えば62種
の英数字を表す特徴パターンの識別の学習に際して、カ
テゴリAに割り付けられた出力ノード“A”からの出力
値に注目すると、62種の学習データを入力層Iに入力
した場合に、カテゴリの識別に影響のない出力値を出力
させる(すなわち、不必要な学習をさせる)学習データ
が50種あったとする。今、仮にこの50種に係る出力
ノード“A”からの出力値と教師データの要素値との誤
差の平均値を“−0,0ビとする。そうすると、上記出
力ノード“A”に係る結合の重みに対して不必要な学習
をさせるような50種の学習データに基づく誤差の累計
は、単純に平均値を合計しても−0,5となる。したが
って、上記50種の学習データによる不必要な学習によ
って、出力ノード“A”に係る結合の重みの値は総て減
少方向に変化するのである。 このような不必要な学習における出力ノード“A”に係
る結合の重みの変化量は、1回1回は僅かであるが総て
の学習について合計すると大きな変化量となる。さらに
、識別対象となるカテゴリ数が多くなるとその傾向は更
に顕著となる。こうして、不必要な学習によって、出力
ノードA”に係る結合の重みの値は総て減少方向に大き
く変化してしまうのである。そうすると、カテゴリの識
別に影響を及ぼすような出力値を出力させる12種の学
習データのうちある学習データに係る必要な学習に際し
て、出力ノード“A”に係る結合の重みの値を正方向に
変化させる場合には学習の進行の妨げになるのである。 換言すれば、不必要な学習を実施することによって、総
ての学習が終了するまでに長時間を要するという問題が
ある。また、学習によってせっかく正しい値に設定され
た結合の重みの値が不必要な学習によって望ましくない
値に変更されてしまい、その結果としてニューラルネッ
トワークの識別能力が低くなってしまうという問題もあ
る。 そこで、この発明の目的は、ニューラルネットワークに
対するトータルの学習時間を短くすると共に、ニューラ
ルネットワークの識別能力を高めることができるニュー
ラルネットワークの学習方法を提供することにある。
【課題を解決するための手段】
上J己目的を達成するため、第1の発明は、誤差を用い
た学習によるニューラルネットワークの学習方法であっ
て、上記ニューラルネットワークの入力層に学習データ
を入力した際の各出力ノードからの出力値と、上記学習
データに係る学習パターンが属するカテゴリを表す教師
データにおける上記出力ノードに対応する要素値との比
較値を算出し、上記比較値が所定の閾値上り小さい値を
呈する出力ノードが在る場合には、この出力ノードに係
るンナブス結合の重みの値を更新しないことを特徴とし
ている。 また、第2の発明は、誤差を用いた学習にょるニューラ
ルネットワークの学習方法であって、上記ニューラルネ
ットワークの入力層に学習データを入力した際の上記学
習データに係る学習パターンか属するカテゴリに割り付
けられた出力ノードからの出力値と、その他の出力ノー
ドからの出力値との比の値を算出し、上記比の値が所定
の範囲内の値を呈する出力ノードが在る場合には、この
出力ノードに係るノナプス結合の重みの値を更新しない
ことを特徴としている。 さらに、上記第2の発明のニューラルネットワークの学
習方法は、上記比の値か上記所定の範囲内の値を呈しな
い出力ノードの場合には、上記ニューラルネットワーク
の学習の際に用いる当該出力ノードに係る誤差の値を当
該出力ノードにおける上記比の値にすることを特徴とし
ている。 また、第3の発明は、誤差を用いた学習によるニューラ
ルネットワークの学習方法であって、上記ニューラルネ
ットワークの入力層に学習データを入力した際の上記学
習データに係る学習パターンが属するカテゴリに割り付
けられた出力ノードからの出力値と、その他の出力ノー
ドからの出力値との比の値を算出し、上記ニューラルネ
ットワークの学習の際に用いる各出力ノードに係る誤差
の値を、対応する出力ノードにおける上記比の値に応じ
て所定の手順によって変更することを特徴としている。 さらに、上記第3の発明のニューラルネットワークの学
習方法は、上記比の値が所定の範囲内の値を呈する出力
ノードが在る場合には、この出力ノードに係るシナプス
結合の重みの値を更新しないことを特徴としている。
【実施例】
以下、この発明を図示の実施例により詳細に説明する。 第1図は本実施例に係る3層バーセブトロン型ニューラ
ルネットワークの概念図である。このニューラルネット
ワークの構造と動作については既に詳細に説明したので
、ここでは説明を省略する。 但し、本実施例におけるニューラルネットワークは、数
字“0“〜“9”から成る文字画像のパターンを識別す
るニューラルネットワークであり、入力層Iの各ノード
5.−95には文字画像または既知の手法で抽出された
画像特徴のパターンの要素値が入力される。したがって
、入力層lのノード数よ入力される文字画像または画像
特徴のパターンの次元数に応じて設定すればよい。出力
層3のノード7、.7は10個設けられて、夫々“0”
〜“9”の数字に割り付けられる。中間層2のノード数
は静的あるいは動的に任意に設定する。 本実施例におけるニューラルネットワークの中間層2お
よび出力層3の各ノード6、・、7.・・によって実施
される入力データの変換の際に用いられる規則は、ング
モイド関数である。このニューラルネットワークに対し
て実施される学習は誤差逆伝播学習則による学習であり
、その際に用いられる教師データは、学習データに係る
学習パターンが属するカテゴリに割り付けられた出力ノ
ードには“ビを与え、その他の出力ノードには“0”を
与えるようなデータである。 以下、第1図に示す3層パーセプトロン型ニューラルネ
ットワークに係るこの発明の学習方法について、詳細に
述べる。 この発明は、上記(3)式における(0(! −T(り
の値を制御することによって、入力された学習データに
係る学習パターンの識別には影響を及ぼさないような出
力ノードに係る結合の重みに対する学習を停止あるいは
抑制する。そうして、ニューラルネットワークの学習を
効率良〈実施し、かつ、学習済みのニューラルネットワ
ークによる識別能力の向上を図るものである。 実施例1 本実施例においては、ニューラルネットワークに学習デ
ータを入力した際における出力層3からの出力データと
教師データとの誤差の値に応して、学習パターンの識別
に影響を及ぼさないような出力ノードに係る結合の重み
の学習を停止するのである。 第1図に示すニューラルネットワークの入力層1の各ノ
ード5.・・、5に、属しているカテゴリ(“0”〜“
9゛)が既知の文字画像の特徴パターン(学習パターン
)を表す学習データか入力される。そうすると、中間層
2および出力!13の各ノードは(4)式に従って算出
される値Xを出力する。 xW=fi(uN) ・+(4) 二こで、xW: N段i番目のノードの出力値(出力層
のノードの場合には出力値OI2 に対応) その結果、出力層3の各出力ツードア、・・、7からは
出力値Oρ(1≦Q≦LL  出力ノード数)が出力さ
れる。 一方、出力層3の各出力ツードア、・・・、7には、学
習パターンが属しているカテゴリに割り付けられた出力
ノードに“ビを与えると共に他の出力ノードに“0”を
与える教師データTを入力して、誤差逆伝播学習則によ
る学習が実施される。 本実施例においては、その際に、上記出力データOとそ
れに対応する教師データTとの誤差E。 を(5)式によって算出する。 Etl=Oρ−T(7・・・(5) そして、IEsglの値が閾値nより小さければ、その
出力値OQを出力しているC番目の出力ノード(以下、
出力ツードアI2と表す)に係る誤差E212の値を“
0”に再設定する。すなわち、出力ツードアgは入力さ
れた学習データに係る学習パターンの識別には影響を及
ぼさないとするのである。一方、Etllの値が閾値n
以上であれば、その出力値Oaを出力している出力ツー
ドアQに係る誤差の値としてE、(2の値をそのまま用
いるのである。 こうして、得られた各出力ツードア、・・77における
誤差の値に基づいて、上述のようにして、誤差逆伝播学
習則による学習を実施する。その際に、誤差Etaの値
が“O”に再設定された出力ツードアgからは学習出力
値δ3が出力されないので、その出力ツードアgに係る
結合の重みに対する学習は停止されるのである。 こうすることによって、既に小さい出力値を呈しており
、学習データに係る学習パターンの識別には影響を及ぼ
さないと判定された出力ノードに係る不必要な学習を防
止することができるのである。 第3図は本実施例におけるニューラルネットワークの学
習におけるX番目の学習データに対する一回の学習手順
に係るフローチャートである。以下、第3図に従って、
本実施例における学習手順を説明する。 ステップS1で、X番目の学習パターンに係る学習デー
タか入力層1の各ノード5.・、5に入力される。 ステップS2て、入力層1に入力された学習データに基
づいて、中間層2の各ノード6、・・、6および出力層
3の各出力ツードア、 、7における出力値が(4)式
によって算出される。 ステップS3で、出力ノード番号eの初期値が“ビに設
定される。 ステップS4で、C番目の出力ツードアQに係る出力値
0(2と教師データの要素値TQとの誤差E、ρの値が
(5)式によって算出される。 ステップS5で、上記ステップS4において算出された
誤差E、1の絶対値が、所定の閾値nより小さいか否か
が判別される。その結果、閾値nよりも小さければステ
ップS6に進む。一方、閾値n以上であればステップS
6をスキップする。 ステップS6で、上記ステップS4で算出された誤差E
tQの値か“0“に再設定される。 ステップS7で、総ての出力ツードア、・、7に係る誤
差E、夕か算出されたか否かが判別される。 その結果算出されていればステップS9に進み、そうで
なければステップS8に進む。 ステップS8で、出力ノード番号Qの内容かインクリメ
ントされてステップS4に戻り、次の出力ノードに係る
誤差E、6(7)算出か実行される。 ステップS9で、上述のようにして得られた誤差E、Q
の値を用し1て誤差逆伝播学習則による学習か実行され
る。そうすると、誤差Ett2に基づいて各出力ノード
毎に得られる学習出力値δ8を用いて、(3)式、(2
)式および(1)式によってノナブス結合の重みWの変
化量△Wが算出される。そして、この算出された変化量
△Wの値に従って結合の重みWの値が更新され、に番目
の学習データに関する一回の学習を終了する。 このように、本実施例においては、出力層3の任意のノ
ード7gに係る出力値04と教師データTの要素値Ta
との誤差Ex(2の絶対値か、予め定められた閾値nよ
り小さい場合には、その出力ノードアQは当該学習パタ
ーンの識別には影響を及ぼさないとするのである。そし
て、当該学習パターンの識別に影響を及ぼさないような
出力ツードアgに係る学習を停止するために、上記出力
ツードアeに係る誤差E、ρの値を“0”に再設定する
のである。 こうして、当該学習パターンの識別に影響を及ぼすよう
な出力ツードアに係る誤差の値“E!″と当該学習パタ
ーンの識別には影響を及ぼさないような出力ツードアに
係る誤差の値“0”とに基づいて、3層パーセブトロン
型ニューラルネットワークの誤差逆伝播学習間による学
習が実施されるのである。したがって、当該学習パター
ンの識別には影響を及ぼさないような結合の重みに対す
る不必要な学習が停止されて、学習時間を短縮できる。 また、当該学習パターン(例えば、数字“8“)に係る
学習によって最適に設定された当該学習パターンに割り
付けられた出力ツードア゛に係る結合の重みの値が、こ
の出力ツードア″からの出力値が識別に影響を与えない
ような(すなわち、当該学習パターン“8°と明らかに
異なるパターンを何する)他の学習パターン(例えば、
数字“l”)に係る学習の際に更新されないので、当該
学習パターンが属するカテゴリに割り付けられた出力ツ
ードア°に係る結合の重みに対する望ましくない学習が
未然に防止される。さらに、学習パターン数がカテゴリ
間にばらつきがある場合に、学習パターン数の多いカテ
ゴリに係る学習の際に、他のカテゴリに割り付けられた
出力ノードに係る結合の重みに対する不必要な学習が抑
制される。したがって、学習パターン数の偏りによるカ
テゴリ間の学習の偏りが未然に防止できる。つまり、本
実施例による学習法によって学習されたニューラルネッ
トワークは高いパターン識別能力を有するのである。 また、上述のように、学習パターンの識別7こ影響を及
ぼすような出力ノードに係る結合の重みについてのみ学
習を実施するので、学習を適当な方向に向かわせること
ができる。したがって、局所最適解に陥りにくく、もし
局所最適解に陥ったとしても容易に脱出できるのである
。 上記実施例における閾値nの値は経験的に定めた一定値
(例えば、n=0.20)てらよいか、学習の進行状況
等によって動的に変化させるようにしてもよい。 上記実施例においては、学習を停止する出力ノードを検
出する際には誤差E、(の値に基づいて検出するように
している。しかしながら、この発明においてはこれに限
定されるものではなく、例えば出力値OQと教師データ
の要素値Tgとの差の二乗の値等の出力値OQと教師デ
ータの要素値T(との比較値であればよい。 実施例2 本実施例においては、ニューラルネットワークに学習デ
ータを入力した際Zこ、入力された学習データに係る学
習パターンが属するカテゴリに割り付けられた出力ノー
ドからの出力値とその他の出力ノードからの出力値との
比の値に応じて、学習パターンの識別に影響を及ぼさな
いような出力ノードに係る結合の重みの学習を停止する
のである。 第1図に示すニューラルネットワークの入力層(の各ノ
ーF’5.−.5にカテゴリ既知の学習データが入力さ
れる。そうすると、中間層2の各ノード6、−.6およ
び出力層3の各ノード7、・ 7は(4)式によって出
力値を算出する。その結果、出力層3の各ノード7、・
、7からは出力値Oが出力される。 本実施例においては、その際に、出力層3における上記
学習パターンが属するカテゴリに割り付けられた出力ノ
ードからの出力値Orとその他のカテゴリに割り付けら
れた出力ノードからの出力値Jとの比Hσの値を(6)
式によって算出する。 H12=Oz210r−(6) 上述のようにニューラルネットワークの学習に際しては
、学習パターンが属するカテゴリ(例えば、“8”)に
割り付けられた出力ノード(すなわち、出力ツードア°
)からの出力値が“ビとなり、その他の出力ツードア、
7.・からの出力値が“0“となるように学習が行われ
ている。したがって、算出された総ての比Jの中1ごビ
より大きい値を示すような出力ノードがない場合には、
正しいカテゴリに割り付けられた出力ノードからの出力
値か最大であり、正しく学習が実施されていることにな
る。また、上記比H(2の値は、当該学習パターンが属
するカテゴリに割り付けられた出力ノード(すなわち、
当該学習パターンの識別に当然影響を及ぼす出力ノード
)からの出力値に対する他の出力ノードからの出力値の
相対値である。したがって、比HI2の値は各出力ツー
ドア、・・・、7に係る結合の重みの学習の必要さの度
合いを表していることになるのである。 そこで、本実施例においては、比H,2の値が閾値mよ
り小さい値を出力するような出力ノードがあれば、その
出力ノードは当該学習パターンの識別には影響を及ぼさ
ないとするのである。そして、比Hρの値が閾値mより
小さな値を呈している出力ツードアQに係る誤差Etg
 (=0(2−T(2)の値を“0“に再設定する。一
方、比H(2の値が閾値m以上の値を出力するような出
力ノードがあれば、その出力ツードアeに係る誤差の値
としてE2gの値をそのまま使用するのである。 こうすることによって、既に当該学習ツクターンが属す
るカテゴリに割り付けられた出力ノードからの出力値に
対して十分少さい出力値を呈しており、学習データ(こ
係る学習パターンの識別には影響を及ぼさないと制定さ
れた出力ノードに係る不必要な学習を防止することがで
きるのである。 第4図は本実施例におけるニューラルネットワークの学
習におけるX番目の学習データに対する一回の学習手順
(こ係るフローチャートである。以下、第4図に従って
、本実施例における学習手順を説明する。 ステップSllで、X番目の学習パターンに係る学習デ
ータが入力層lの各ノード5.・・、−5に入力される
。 ステップS12で、入力層1に入力された学習データに
基づいて、中間層2の各ノード6、・・、6および出力
層3の各出力ツードア、・・・、7における出力値か(
4)式によって算出される。 ステップS13で、出力ノード番号Qの初期値が“ビに
設定される。 ステップS14で、Q番目の出力ツードアQに係る出力
値Oaと教師データの要素値T(との誤差E、ρの値が
(5)式によって算出される。 ステップS15で、X番目の学習パターンが属するカテ
ゴリに割り付けられた出力ノードからの出力値OrとQ
番目の出力ツードアgからの出力値01との比HI2の
値が(6)式によって算出される。 ステップS16で、上記ステップS15において算出さ
れた比H1の値が、所定の閾値mより小さいか否かが判
別される。その結果、閾値mよりも小さければステップ
S17に進む。一方、閾釦線上であればステップS17
をスキップする。 ステップSi7で、上記ステップS14で算出された誤
差Ev(lの値力び0”に再設定される。 ステップS18で、総ての出力ツードア、・・、7に係
る比Hgが算出されたか否かが判別される。その結果算
出されていればステップS20に進み、そうでなければ
ステップS19に進む。 ステップS19で、出力ノード番号Qの内容がイシクリ
メントされてステップS14に戻り、次の出力ノードに
係る誤差E4に関する処理が実行される。 ステップS20で、上述のようにして得られた誤差E、
(Hの値を用いて誤差逆伝播学習則による学習か実行さ
れ、(3)式、(2)式および(1)式によってノナブ
ス結合の重みWの変化量△Wか算出される。 そして、この算出された変化量へWの値に従って結合の
重みWの値が更新され、X番目の学習データに関する一
回の学習を終了する。 このように、本実施例においては、当該学習パターンが
属するカテゴリに割り付けられた出力ノードからの出力
値Orとその他の出力ツードアQからの出力値OQとの
比H(2の値を(6)式によって算出する。そして、こ
の比HQの値が予め定められた閾値mより小さい場合に
は、その出力ツードアgは当該学習パターンの識別には
影響を及ぼさないとするのである。そして、当該学習パ
ターンの識別に影響を及ぼさないような出力ツードア(
に係る学習を停止するために、上記出力ツードアt2に
係る誤差Evgの値を“0”に再設定するのである。 したかって、当該学習パターンの識別には影響を及ぼさ
ないような結合の重みに対する不必要な学習を停止して
、学習時間を短縮できる。また、本実施例による学習法
によって学習されたニューラルネットワークは高いパタ
ーン識別能力を有するのである。 上記実施例における閾値mの値は経験的に定めた一定値
(例えば、a+=0.80)でもよいが、学習の進行状
況等によって動的に変化させてもよい。 上記実施例においては、当該学習パターンが属するカテ
ゴリに割り付けられた出力ノードに係る学習は制御しな
いようにしている。しかしながら、この発明はこれに限
定されるものではなく、当該学習パターンが属するカテ
ゴリに割り付けられた出力ノードには上記実施例Iを適
用して、出力値と教師データの要素値との差の値が閾値
以下になったら学習を停止するようにしてもよい。 罠散五3 上記実施例2において算出される比H1の値は、当該学
習パターンか属するカテゴリに割り付けられた出力ノー
ド以外の出力ノードに係る結合の重みに対する学習が進
んで、その出力ノードからの出力値か教師データの要素
値T(の値に近付くと小さな値を呈するようになる。す
なわち、比HQの値は出力ツードアQに係る結合重みに
対する学習の収束度を表しているのである。このことは
、取りも直さず上記出力)−ドアQからの出力値0ρと
教師データの要素値Tgとの誤差Etaの内容と同じ内
容を表していると言うことができる。 そこで、本実施例においては、実施例2における誤差E
!12の値として上記比H(の値を用いるのである。そ
して、上記比HI2の値が閾値mより小さい場合にはそ
の出力ツードアσは当該学習パターンの識別には影響を
及ぼさないとして、出力ツードアgに係る誤差の値を“
0“にする。一方、比H(の値が閾値m以上の場合には
その出力ツードアgに係る誤差の値を上記比H(の値と
するのである。 このように、出力ツードアQに係る誤差の値を上記比H
,2の値とした方が、上記E、12の値を用いるよりも
学習か早く収束することが経験的?こ知られている。し
たがって、本実施例によれば、上記実施例2の場合より
も学習時間をさらに短縮できるのである。 実施例4 本実施例においては、実施例2における比Jの値に応じ
て、出力値Ogと教師データTの要素値T(との誤差E
、ρの値を直接変更することによって、学習パターンの
識別に影響を及ぼさないような出力ノードに係る結合の
重みの学習を抑制するのである。 第1図に示すニューラルネットワークの入力層1の各ノ
ード5..5にカテゴリ既知の学習データが入力される
。そして、出力層3の各出力ツードア、・・、7から出
力される出力値に基づいて上記(6)式によっ・て比H
5の値が算出される。この場合、上述のように、上記比
HQの値は出力ツードアeに係る結合の重みに対する学
習の必要さの度合いを表していると言える。 そこで、本実施例においては、比HQの値が小さく、出
力ツードアσに係る結合の重みに対する学習が不必要な
学習である場合には、(7)式によって誤差E、gの値
を比H(Bの値に応じて小さくするのである。 E、2 =H(’XE4− (7) (7)式は次のことを意味する。すなわち、誤差E2I
2の値か大きく比HQの値が“ビ以上である場合には、
出力ツードアI!からの出力値01に基づくパターン識
別結果は誤りであるため、結合の重みの大幅な変更を要
する。そこで、誤差E212の値をさらに大きくして結
合の重みWの変化量△Wを大きくするのである。また、
誤差E1gの値が大きく比H(2の値が°ビより小さい
場合には、まだ出力ツードアQに係る結合の重みの変更
を要する。そこで、誤差Eggの値を比HQの値に応じ
て変化させて結合の重みWの変化量へ豐を誤差E、g’
の値に応じた値にするのである。また、誤差E、0.の
値力叶分小さく比Hρの値が“ビより小さい場合には、
出力ツードアgからの出力値はもはや当該学習パターン
の識別には影響を及ぼさないと言える。したがって、出
力ツードアρに係る結合の重みの変更は殆ど必要がない
。そこで、誤差Etgの値を十分小さくして結合の重み
Wの変化量△Wを小さくするのである。 このように、誤差Ez、2の値を比H6の値に応じて減
少することによって、既に小さい出力値を呈しており、
学習データが表す学習パターンの識別には影響を及ぼさ
ないと判定された出力ノードに係る不必要な学習を極力
押さえることができるのである。 第5図は本実施例におけるニューラルネットワークの学
習におけるX番目の学習データに対する一回の学習手順
に係るフローチャートである。第5図のフローチャート
は第4図のフローチャートとほぼ同じである。但し、本
実施例における誤差Etlの変更は、ステップS26に
おいて、(7)式に従って比Hgの値に応じて変更する
点で第4図のフローチャートと異なるのである。 このように、本実施例においては、当該学習パターンが
属するカテゴリに割り付けられた出力ノードからの出力
値O2とその他の出力ツードアgに係る出力値Oeとの
比Hpの値を(6)式によって算出する。そして、出力
ツードアgに係る結合の重みに対する学習の必要さの度
合いを表す上記比H,2の値に応じて、出力ツードアQ
に係る誤差E、σの値を(7)式に従って変更するので
ある。 したがって、当該学習パターンの識別には影響を及ぼさ
ないような結合の重みに対する不必要な学習を極力押さ
えることができる。すなわち、学習済みのニューラルネ
ットワークは高いパターン識別能力を有するのである。 上記実施例における関数Eta’は、単調非減少関数で
あることが望ましい。しかしながら、比Hρの値が“じ
より小さい場合にはより小さい値を取る一方、比H1の
値が“ビより大きい場合にはより大きい値をとる関数で
あれば、部分的に減少部分を含んでいる関数であっても
構わない。 上記実施例において、上記実施例2を併用して、比H(
2の値が所定の閾値以下になった場合には、(7)式に
は関係無く誤差Et12’の値を“0”に設定するよう
にしてもよい。 上記各実施例においては、数字識別用の3層パーセプト
ロン型ニューラルネットワークを用いているが、4層以
上の多層パーセプトロン型ニューラルネットワークであ
っても構わない。また、数字以外のパターン識別用のニ
ューラルネットワークであっても構わない。 この発明に係るニューラルネットワークは多層パーセブ
トロン型ニューラルネットワークに限定されるものでは
ない。要は、用いられる学習則が誤差を用いた学習であ
ればいかなる構造のニューラルネットワークであっても
差し支えないのである。 この発明における誤差Et(2およびEt(2’、比H
gの算出アルゴリズムは、上記各実施例に限定されるも
のではない。 【発明の効果] 以上より明らかなように、第1の発明のニューラルネッ
トワークの学習方法は、出力値と教師データの要素値と
の差の値が閾値上り小さい値を呈するような出力ノード
が在る場合には、この出力ノードに係るンナプス結合の
重みの値を更新しないので、当該学習パターンの識別に
影響を及ぼさないような出力ノードに係る不必要な学習
を停止することができる。したかって、トータルの学習
時間を短くできると共に、ニューラルネットワークの識
別能力を高めることができる。 また、第2の発明のニューラルネットワークの学習方法
は、学習パターンが属するカテゴリに割り付けられた出
力ノードからの出力値とその他の出力ノードからの出力
値との比の値が、所定の範囲内の値を呈するような出力
ノードが在る場合には、二の出力ノードに係るンナブス
結合の重みの値を更新しないので、当該学習パターンの
識別に影響を及ぼさないような出力ノードに係る不必要
な学習を停止することができる。したがって、トータル
の学習時間を短くできると共に、ニューラルネットワー
クの識別能力を高めることができる。 また、第3の発明のニューラルネットワークの学習方法
は、上記ニューラルネットワークの学習の際に用(する
誤差の値を、学習パターンが属するカテゴリに割り付け
られた出力ノードからの出力値とその他の出力ノードか
らの出力値との比の値に応じて、所定の手順によって変
更するので、当該学習パターンの識別に影響を及ぼさな
いような出力ノードに係る不必要な学習を抑制すること
ができる。したがって、ニューラルネットワークの識別
能力を高めることができる。 さらに、上記第3の発明のニューラルネットワークの学
習方法は、上記比の値が所定の範囲内の値を呈するよう
な出力ノードが在る場合には、この出力ノードに係るン
ナプス結合の重みの値を更新しないので、トータルの学
習時間を短くできると共に、さらにニューラルネットワ
ークの識別能力を高めることができる。
【図面の簡単な説明】
第1図はこの発明に係るニューラルネットワークにおけ
る一実施例の概念図、第2図は多層パーセプトロン型ニ
ューラルネットワークにおける出力値およびンナプス結
合の重みの説明図、第3図乃至第5図は各実施例におけ
る一つの字とデータによる一回の学習手順を示すフロー
チャートである。 1・入力層、        2・中間層、3・・出力
層、        5.6・・ノード、7・・出力ノ
ード。

Claims (5)

    【特許請求の範囲】
  1. (1)誤差を用いた学習によるニューラルネットワーク
    の学習方法であって、 上記ニューラルネットワークの入力層に学習データを入
    力した際の各出力ノードからの出力値と、上記学習デー
    タに係る学習パターンが属するカテゴリを表す教師デ一
    夕における上記出力ノードに対応する要素値との比較値
    を算出し、 上記比較値が所定の閾値より小さい値を呈する出力ノー
    ドが在る場合には、この出力ノードに係るシナプス結合
    の重みの値を更新しないことを特徴とするニューラルネ
    ットワークの学習方法。
  2. (2)誤差を用いた学習によるニューラルネットワーク
    の学習方法であって、 上記ニューラルネットワークの入力層に学習データを入
    力した際の上記学習データに係る学習パターンが属する
    カテゴリに割り付けられた出力ノードからの出力値と、
    その他の出力ノードからの出力値との比の値を算出し、 上記比の値が所定の範囲内の値を呈する出力ノードが在
    る場合には、この出力ノードに係るシナプス結合の重み
    の値を更新しないことを特徴とするニューラルネットワ
    ークの学習方法。
  3. (3)請求項2に記載のニューラルネットワークの学習
    方法において、 上記比の値が上記所定の範囲内の値を呈しない出力ノー
    ドの場合には、上記ニューラルネットワークの学習の際
    に用いる当該出力ノードに係る誤差の値を当該出力ノー
    ドにおける上記比の値にすることを特徴とするニューラ
    ルネットワークの学習方法。
  4. (4)誤差を用いた学習によるニューラルネットワーク
    の学習方法であって、 上記ニューラルネットワークの入力層に学習データを入
    力した際の上記学習データに係る学習パターンが属する
    カテゴリに割り付けられた出力ノードからの出力値と、
    その他の出力ノードからの出力値との比の値を算出し、 上記ニューラルネットワークの学習の際に用いる各出力
    ノードに係る誤差の値を、対応する出力ノードにおける
    上記比の値に応じて所定の手順によって変更することを
    特徴とするニューラルネットワークの学習方法。
  5. (5)請求項4に記載のニューラルネットワークの学習
    方法において、  上記比の値が所定の範囲内の値を呈する出力ノードが
    在る場合には、この出力ノードに係るシナプス結合の重
    みの値を更新しないことを特徴とするニューラルネット
    ワークの学習方法。
JP13667890A 1990-05-25 1990-05-25 ニューラルネットワークの学習方法 Pending JPH0430280A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13667890A JPH0430280A (ja) 1990-05-25 1990-05-25 ニューラルネットワークの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13667890A JPH0430280A (ja) 1990-05-25 1990-05-25 ニューラルネットワークの学習方法

Publications (1)

Publication Number Publication Date
JPH0430280A true JPH0430280A (ja) 1992-02-03

Family

ID=15180919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13667890A Pending JPH0430280A (ja) 1990-05-25 1990-05-25 ニューラルネットワークの学習方法

Country Status (1)

Country Link
JP (1) JPH0430280A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994010648A1 (en) * 1992-10-29 1994-05-11 Tadashi Shibata Semiconductor neural circuit device
JPH06187315A (ja) * 1992-10-23 1994-07-08 Nippondenso Co Ltd ニューラルネット型追加学習装置
US5909676A (en) * 1996-02-29 1999-06-01 Kabushiki Kaisha Toshiba System for controlling an object and medium using neural networks
US10410117B2 (en) 2008-09-21 2019-09-10 Brainchip, Inc. Method and a system for creating dynamic neural function libraries

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187315A (ja) * 1992-10-23 1994-07-08 Nippondenso Co Ltd ニューラルネット型追加学習装置
WO1994010648A1 (en) * 1992-10-29 1994-05-11 Tadashi Shibata Semiconductor neural circuit device
US5706403A (en) * 1992-10-29 1998-01-06 Shibata; Tadashi Semiconductor neural circuit device
US5909676A (en) * 1996-02-29 1999-06-01 Kabushiki Kaisha Toshiba System for controlling an object and medium using neural networks
US10410117B2 (en) 2008-09-21 2019-09-10 Brainchip, Inc. Method and a system for creating dynamic neural function libraries
US11238342B2 (en) 2008-09-21 2022-02-01 Brainchip, Inc. Method and a system for creating dynamic neural function libraries

Similar Documents

Publication Publication Date Title
JP3178884B2 (ja) ニューラルネットワーク装置
JPH08227408A (ja) ニューラルネットワーク
JPH0430280A (ja) ニューラルネットワークの学習方法
JPH0451384A (ja) ニューラルネットワークの構築方法
JPH05101028A (ja) 複数特徴量の統合判定方法
JPH06161985A (ja) 自ら学習可能な多層神経回路網及び学習方法
Sureerattanan et al. The optimal multi-layer structure of backpropagation networks.
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
JPH02100757A (ja) 並列ニューラルネットワーク学習方式
JPH05204885A (ja) ニューラルネットワークの学習高速化装置及び方法
JPH03240827A (ja) ニューラル・ネットワークの学習方法
JPH01241667A (ja) 学習機構を有するダイナミック・ニユーラル・ネットワーク
JPH04215171A (ja) 情報処理装置
JPH03273444A (ja) ニューラルネットワークの学習方法
JP3304476B2 (ja) 神経回路網の構成方法,学習方法及び汎化能力評価方法
JPH0318967A (ja) ニューラルネットにおける学習方法
KR100241359B1 (ko) 학습률 가변 및 오차신호 크기 제한 방법
JPH04118741A (ja) ニューラルネットワーク装置
JPH06301661A (ja) 並列結合型リカレントニューラルネットワークの学習方式
JP3073031B2 (ja) ニューラルネットワーク学習装置
JPH03218559A (ja) ニューラルネットワークの確率的学習方式
JPH05159086A (ja) ニューラルネットワークの学習方式
Hussain et al. Optimizing network parameters for Arabic speakers recognition
JPH11259445A (ja) 学習装置
JPH04230570A (ja) ニュ−ラルネットワ−クの学習方式