JPH0561850A - 階層型ニユーラルネツトワークおよびその学習方法 - Google Patents

階層型ニユーラルネツトワークおよびその学習方法

Info

Publication number
JPH0561850A
JPH0561850A JP3248389A JP24838991A JPH0561850A JP H0561850 A JPH0561850 A JP H0561850A JP 3248389 A JP3248389 A JP 3248389A JP 24838991 A JP24838991 A JP 24838991A JP H0561850 A JPH0561850 A JP H0561850A
Authority
JP
Japan
Prior art keywords
correction
test
connection weight
learning
connection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3248389A
Other languages
English (en)
Other versions
JP3273568B2 (ja
Inventor
Norio Akamatsu
則男 赤松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JustSystems Corp
Original Assignee
JustSystems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JustSystems Corp filed Critical JustSystems Corp
Priority to JP24838991A priority Critical patent/JP3273568B2/ja
Publication of JPH0561850A publication Critical patent/JPH0561850A/ja
Application granted granted Critical
Publication of JP3273568B2 publication Critical patent/JP3273568B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 簡単な計算処理により、学習を迅速に行うこ
とが可能な階層型ニューラルネットワークおよびその学
習方法を提供する。 【構成】 第1修正手段で複数のニューロン素子のうち
1つの結合重みを所定のテスト修正幅Sだけ正および負
の少なくとも一方向にテスト修正し、第1の算出手段と
第2の算出手段において、同一の学習パターンの入力に
対するテスト修正前後の2乗誤差をそれぞれ算出する。
そして、方向決定手段でテスト修正前よりも2乗誤差が
小さくなるテスト修正幅Sの正または負の方向を決定
し、第3算出手段で結合重みの修正値を算出する。第2
修正手段で所定数の結合重みを算出した修正値に結合重
みを修正する。このように、各結合重みの単独のテスト
修正によって生じるニューロン素子網の出力誤差の変動
を調べて結合重みの修正方向と修正値を決定するので、
少ない計算量で済む。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、階層型ニューラルネ
ットワークおよびその学習方法に関する。
【0002】
【従来の技術】人間の脳神経系の仕組みを工学的に実現
し、情報処理を行おうとするニューラルネットワークが
注目されている。このニューラルネットワークは、複数
のニューロン素子から構成されており、所定の学習を行
うことにより、文字や図形等のパターン認識、音声の分
析や合成処理、連続的アナログデータの処理、多量デー
タの並列処理が効率的に行われる。ニューラルネットワ
ークは、データの伝搬を行う複数のニューロン素子から
成るニューロン素子網とその学習を制御する学習制御部
から構成されている。このニューロン素子網は、データ
が入力される入力層と、入力されたデータに対してデー
タが出力される出力層、およびこの両層間に配置された
1または複数の中間層から構成されている。そして、ニ
ューロン素子網の各層間におけるニューロン素子は、他
のニューロン素子に対して所定の強さ(結合重み)で結
合されており、この結合重みの値の違いにより出力信号
が変化するようになっている。
【0003】このような階層構造に構成された従来のニ
ューラルネットワークでは、各ニューロン素子相互間の
結合重みを学習制御部により変化させることによって
「学習」という処理が行われる。学習は、入力層と出力
層の入出力数に対応して与えられる、アナログまたは2
値のデータ(パターン)によって行われる。いま、入力
データとしてg1 〜g6 が与えられ、この内、g1 〜g
3 が入力層から学習パターンとして入力され、この学習
パターンの入力に対して出力層からある出力信号が出力
される。この出力信号に対する正解がg4 〜g6 であ
り、一般に教師信号と呼ばれている。そして、出力信号
と教師信号との誤差が小さくなるように、または一致す
るように各ニューロン素子の結合重みを修正する処理
を、複数の学習パターンに対して実行することによって
学習が行われる。
【0004】このような、教師信号に出力信号が一致す
るように、ニューロン素子網における各ニューロン素子
間の結合重みを修正する具体的方法として、従来から誤
差逆伝播法(以下、BP法という。)が用いられてい
る。BP法は、出力層での出力値と教師信号との2乗誤
差を最小にするために、このニューラルネットワークを
構成する全ての層間における各ニューロン素子相互間の
結合重みを修正するものである。すなわち、出力層にお
ける誤差は、各中間層のニューロン素子で生じる個々の
誤差が積算されたものであると判断し、単に出力層から
の誤差だけでなく、その原因となっている各中間層のニ
ューロン素子の誤差も最小となるように結合重みを修正
する。そのために出力層、各中間層のニューロン素子毎
の全ての誤差を計算処理する。この計算処理は、出力層
のニューロン素子の個々の誤差値を初期条件として与え
て、n番目の中間層の各ニューロン素子の誤差値、(n
−1)番目の中間層の誤差、……、といったように、逆
の方向に計算処理を行う。このようにして求めた各ニュ
ーロン素子の持つ誤差値と、その時点での結合重みを用
いて、結合重みの修正値を算出する。以上の、学習処理
を教師信号との誤差が一定値以下となるまで、または所
定回数だけ、全ての学習パターンについて繰り返すこと
により、学習が終了する。
【0005】
【発明が解決しようとする課題】しかし、従来から行わ
れているBP法による階層型ニューラルネットワークの
学習は、修正値を算出するための誤差の計算処理が複雑
であった。このため、BP法は、学習が終了するまでに
時間がかかるという問題があった。一方、学習時間を短
縮するためには、学習の計算処理をソフトウェアで行わ
ずに、計算の処理部をハードウェア化することにより解
決することが可能である。しかし、前述のように、BP
法によるニューラルネットワークの学習は、計算処理が
複雑であるため、ハードウェア化が困難であった。
【0006】そこで本発明の目的は、簡単な計算処理に
より、学習を迅速に行うことが可能な階層型ニューラル
ネットワークおよびその学習方法を提供することにあ
る。
【0007】
【課題を解決するための手段】請求項1記載の発明で
は、図1の実線で原理的に示されるように、所定の結合
重みで階層型に結合された複数のニューロン素子からな
るニューロン素子網と、このニューロン素子網に入力さ
れた学習パターンに対する出力信号と教師信号との2乗
誤差を算出する第1算出手段と、前記複数のニューロン
素子のうち1つの結合重みを所定のテスト修正幅Sだけ
正および負の少なくとも一方向にテスト修正する第1修
正手段と、この第1修正手段によるテスト修正後の前記
ニューロン素子網における前記第1算出手段と同一の学
習パターンに対する出力信号と教師信号との2乗誤差を
算出する第2算出手段と、この第2算出手段で算出した
2乗誤差が、前記第1算出手段で算出した2乗誤差より
も小さくなるテスト修正幅Sの正または負の方向を決定
する方向決定手段と、この方向決定手段による修正方向
および前記テスト修正幅Sに応じて前記結合重みの修正
値を算出する第3算出手段と、この第3算出手段で所定
数の結合重みの修正値を算出し、その修正値に各結合重
みを修正する第2修正手段を階層型ニューラルネットワ
ークに具備させて、前記目的を達成する。
【0008】請求項2記載の発明では、請求項1記載の
階層型ニューラルネットワークの第3算出手段におい
て、方向決定手段で決定した方向が正のとき、W n ij
S×k×〔E(W n ij)−E(W n ij+S)〕により、
方向決定手段で決定した方向が負のとき、W n ij−S×
k×〔E(W n ij)−E(W n ij−S)〕により、それ
ぞれ修正値を算出する。請求項3記載の発明では、図1
の点線で原理的に示されるように、請求項2記載の階層
型ニューラルネットワークにおいて、テスト修正幅Sと
係数kの少なくとも一方、を変更する変更手段を具備さ
せる。請求項4記載の発明では、請求項2記載の階層型
ニューラルネットワークにおいて、テスト修正幅Sを
0.1、係数kを100とする。
【0009】請求項5記載の発明では、所定の結合重み
で階層型に結合された複数のニューロン素子からなるニ
ューロン素子網に学習パターンを入力してその出力信号
と教師信号との2乗誤差を算出する第1工程と、複数の
ニューロン素子のうち他の結合重みを第1工程と同一の
状態とし、1つの結合重みを所定のテスト修正幅Sだけ
正および負の少なくとも一方向にテスト修正し、テスト
修正後の前記ニューロン素子網に第1工程と同一の学習
パターンを入力して算出した2乗誤差が第1工程で算出
した2乗誤差よりも小さくなるテスト修正幅Sの正また
は負の方向を決定し、決定した修正方向と前記テスト修
正幅Sに応じて結合重みの修正値を算出する工程を、所
定数の結合重みに対して行う第2工程と、第2工程で所
定数の結合重みの修正値を算出した後に算出した修正値
に各結合重みを修正する第3工程により、階層型ニュー
ラルネットワークの学習を行う。
【0010】
【作用】本発明では、第1修正手段で複数のニューロン
素子のうち1つの結合重みを所定のテスト修正幅Sだけ
正および負の少なくとも一方向にテスト修正し、第1の
算出手段と第2の算出手段において、同一の学習パター
ンの入力に対するテスト修正前後の2乗誤差をそれぞれ
算出する。そして、方向決定手段でテスト修正前よりも
2乗誤差が小さくなるテスト修正幅Sの正または負の方
向を決定し、第3算出手段で結合重みの修正値を算出す
る。そして、第2修正手段で所定数の結合重みを算出し
た修正値に結合重みを修正する。このように、各結合重
みの単独のテスト修正によって生じるニューロン素子網
の出力誤差の変動を調べることにより、結合重みの修正
方向と修正値を決定するので、少ない計算量で済む。
【0011】
【実施例】以下、本発明の階層型ニューラルネットワー
クの一実施例を図2ないし図9を参照して詳細に説明す
る。図2は階層型ニューラルネットワークのニューロン
素子網の構成を表したものである。この実施例では、簡
単のために3層構造のニューラルネットワークについて
説明するものとする。ニューロン素子網は、入力層がニ
ューロン素子1、2、3から成る3層、中間層がニュー
ロン素子4、5、6から成る3層、出力層がニューロン
素子7、8、9から成る3層でそれぞれ構成されてい
る。そして、中間層のニューロン素子4に対する、入力
層のニューロン素子1、2、3の結合重みをそれぞれW
1 11、W1 21、W 1 31 とする。同様に、各層のニュー
ロン素子に対する結合重みを図2に示し、その一般式を
n ijとする。各ニューロン素子は、専用のハードウェ
アで構成されるが、ノイマン型のコンピュータのソフト
ウェアにより構成してもよい。
【0012】図3は、このようなニューロン素子網の学
習を制御する学習制御部の構成を表したものである。こ
の学習制御部は、ニューロン素子網に対する学習パター
ンの入力指示、入力に対する出力信号と教師信号との2
乗誤差の算出、修正値の算出等の各種制御を行うCPU
(中央処理装置)11を備えている。このCPU11
は、データバス等のバスライン12によって次の各部と
接続されている。すなわち、ニューラルネットワークに
おける各種制御や結合重みの修正値の算出をCPU11
で行うための各種プログラムを格納したROM(リード
・オンリ・メモリ)13が接続されている。このROM
13には、結合重みの修正量dWn ijを算出するための
式(1)および式(2)が格納されている。 dW n ij= S×k×〔E(W n ij)−E(W n ij+S)〕……(1) dW n ij=−S×k×〔E(W n ij)−E(W n ij−S)〕……(2) この式(1)、(2)において、Sは結合重みW n ij
学習の途中でテスト修正するテスト修正幅、kは係数、
E(W n ij)はある学習パターンの入力に対する出力信
号と教師信号との2乗誤差、E(W n ij±S)は結合重
みW n ijをテスト修正幅Sだけ増加(+S)または減少
(−S)させて学習パターンを入力した場合の出力信号
と教師信号との2乗誤差を、それぞれ示す。
【0013】またバスライン12には、学習パターンや
テスト修正幅Sや係数kその他各種データを格納するR
AM(ランダム・アクセス・メモリ)14、ニューロン
素子網の各結合重みの値が格納されている重みテーブル
15とその修正値W n ij′が格納される修正値テーブル
16とを有する結合重みメモリ17が接続されている。
更に、RAM14に格納されているテスト修正幅Sや係
数kの修正等を指示する入力装置とてのキーボード1
8、ニューロン素子網の各ニューロン素子に対して結合
重みの修正値W n ij′等を供給する結合重みI/O(入
出力ポート)19、出力層からの各出力値が供給される
出力信号I/O20、学習パターン等の各種データが入
出力されるデータI/O21等の各種I/Oが接続され
ている。また、図示しない表示装置、図形や文字を読み
取るスキャナ、音声入出力装置等が必要に応じて接続さ
れている。
【0014】このように構成されたニューラルネットワ
ークにおける学習動作について次に説明する。学習動作の概要 全ての結合重みW n ijが所定値に決められた初期状態に
おいて、入力層に所定の学習パターンを入力し、その出
力信号と教師信号との2乗誤差を算出する。そして、1
つの結合重みW n ijについて、所定のテスト修正幅Sだ
け増加および減少させ、テスト修正前に入力した学習パ
ターンと同一の学習パターンを入力する。そして、結合
重みのテスト修正前後で、ニューラルネットワークの出
力と教師信号の2乗誤差を比較し、修正の方向を決定す
る。結合重みを増加させたときに2乗誤差が減少すれ
ば、修正幅dWn ijを式(1)により算出する。一方、
結合重みを減少させたとき2乗誤差が減少すれば、修正
幅dW n ijを式(2)により算出する。いずれの方向に
修正した場合も2乗誤差が減少する場合には、より2乗
誤差の小さくなる方向の式(1)または式(2)により
修正幅dW n ijを算出する。また、結合重みを増加およ
び減少させて、いずれの場合も2乗誤差が減少しないと
きには、修正幅dW n ijを0とし、修正を行わない。他
の結合重みの修正幅も同様にして算出するが、すでに修
正幅を算出した結合重みW n ijは元の値に戻した状態、
すなわち、テスト修正幅Sのテスト修正を行う結合重み
以外は初期状態に戻した状態で処理を行う。全ての結合
重みW n ijについてそれぞれの修正幅dW n ijを求めた
後、一斉に結合重みを修正して1回の学習を終了する。
【0015】動作の詳細 図4ないし図6は動作の詳細を表した流れ図である。ま
ず、CPU11はデータI/O21から供給される学習
パターンとその教師信号をRAM14に格納し、以下の
学習動作を行う。いま、各種条件として、学習パターン
の数がaであり、各ニューロン素子の結合重みW n ij
規定するn、i、jの値がそれぞれ1からb、c、dで
あるものとする。そして、CPU11は、各ニューロン
素子の結合重みW n ijを初期化する(ステップ(S)
1)。すなわち、各結合重みW n ijを乱数値により決定
して結合重みI/O19からそれぞれのニューロン素子
に供給すると共に、決定した各結合重みW n ijの値を重
みテーブル15に格納する。各ニューロン素子4〜9で
は、結合重みI/O19を介して供給された結合重みW
n ijに初期設定する。次に、CPU11は、RAM14
に格納した学習パターンの識別子xを1に設定する(ス
テップ2)と共に、各ニューロン素子4〜9の結合重み
n ijに対する修正幅dW n ijを個別に決定するため
に、n=1、i=1、j=1を設定する(ステップ
3)。そして、RAM14から最初の学習パターンPx
を読み出してデータI/O21から入力層の各ニューロ
ン素子1、2、3に入力する(ステップ4)。この入力
によって出力層の各ニューロン素子7、8、9から出力
信号Ox が出力される。この出力信号Ox を出力信号I
/O20から受け取り、これと、教師信号Tx との2乗
誤差E(W n ij)を算出し、その値をRAM14の所定
エリアに格納する(ステップ5)。
【0016】そして、最初の結合重みW n ij(ここでは
1 11が該当する。)を、重みテーブル15から読み出
し、これにテスト修正幅Sを加えて結合重みをW n ij
Sにテスト修正する(図5、ステップ6)。すなわちC
PU11は、結合重みW n ij+Sを結合重みI/O19
を介して対応するニューロン素子に供給し、供給を受け
たニューロン素子は結合重みをW n ij+Sに設定するこ
とによりテスト修正が行われる。CPU11は、テスト
修正を行ったニューロン素子網の入力層に、ステップ4
と同一の学習パターンPx を入力し、その出力信号
x ′を出力信号I/O20から受け取る。そして、こ
の出力信号Ox ′と教師信号差Tx との2乗誤差E(W
n ij+S)を算出し(ステップ7)、RAM14の所定
エリアに格納する。次に、修正された結合重みW n ij
Sを、更にW n ij−Sにテスト修正し(ステップ8)、
同様に、ステップ4と同一学習パターンPx を入力して
出力信号Ox ″と教師信号差Tx との2乗誤差E(W n
ij−S)を算出して(ステップ9)RAM14の所定エ
リアに格納する。
【0017】CPU11は、RAM14の各所定領域に
格納した各2乗誤差E(W n ij)、E(W n ij+S)、
E(W n ij−S)を読み出し、これらを比較して最小値
を求める(ステップ10)。プラス方向にテスト修正し
た場合の2乗誤差E(W n ij+S)が最小の場合、RO
M13に格納された式(1)により修正幅dW n ijを算
出する。一方、マイナス方向にテスト修正した場合の2
乗誤差E(W n ij−S)が最小の場合は式(2)により
修正幅dW n ijを算出する(ステップ12)。テスト修
正前の2乗誤差E(W n ij)が最小の場合は、修正幅d
n ij=0とする(ステップ13)。
【0018】CPU11は、このようにして算出した修
正幅dW n ijを元の結合重みW n ijに加えた値を修正値
n ij′とし、これを修正値テーブル16の対応するエ
リアに格納する(ステップ14)。以上の処理が終了し
た後、CPU11は、結合重みをテスト修正前の元の結
合重みW n ijに戻す(ステップ15)。すなわち、元の
結合重みW n ijを重みテーブル15から読み出し、結合
重みI/O19を介して対応するニューロン素子に供給
する。供給を受けたニューロン素子は結合重みを元のW
n ijに設定する。
【0019】以上のステップ6からステップ15までの
処理を、全ての結合重みW n ijに対して行う(図6、ス
テップ16からステップ21)。全ての結合重みについ
て終了した後(ステップ21;Y)、修正値テーブル1
6に格納されている修正値Wn ij′を結合重みI/O1
9を介して対応するニューロン素子に供給することによ
り、全ての結合重みを更新する(ステップ22)。そし
て、修正値テーブル16から各結合重みの修正値を読み
出して重みテーブル15のそれぞれ対応するエリアに格
納し、重みテーブル15を更新する(ステップ23)。
これにより、1回の学習パターンを終了する。
【0020】以上の動作をステップ2に戻って、全ての
学習パターンP1 〜Pa について行う(ステップ24、
25)。更に、ステップ1に戻り、全学習パターンに対
して2乗誤差E(W n ij)が所定値以下となるまで、ま
たは繰り返し回数が所定の制限回数となるまで繰り返し
て(ステップ26)、処理を終了する。
【0021】次に、ニューラルネットワークの学習を以
上の動作により行った結果について説明する。学習の実
施を行ったニューラルネットワークとしては、2つのニ
ューロン素子から成る2層の入力層、2つのニューロン
素子から成る2層の中間層、および、1つのニューロン
素子から成る1層の出力層でニューロン素子網が構成さ
れ、排他的論理和についての学習を実施するものとす
る。学習は、結合重みW n ijの初期値を0から0.3ま
での乱数を用いて10通り用意し、それぞれの初期値に
対して比較実験を行う。なお、学習終了の条件として
は、全ての学習パターンに対する2乗誤差も全て0.0
1以下になった場合、または、学習回数が3000回を
越えた場合に設定する。学習は次の3つの場合について
行い、その結果を図7に示す。すなわち、式(1)、
(2)の係数kを変化させた場合図7(A)、テスト修
正幅Sを変化させた場合図7(B)、係数×テスト修正
幅Sが一定となる範囲で変化させた場合図7(C)であ
る。この図において、平均学習回数とは、学習が収束し
た場合の学習回数を平均した回数である。この図に示す
ように、テスト修正幅Sと係数kを適当な値に設定する
ことにより高い収束率を得ることができる。このテスト
修正幅Sと係数は、キーボード18の操作により変更さ
れる。また、この図に示すように、テスト修正幅Sが
0.1で係数kが100の場合が最適値であることが判
る。
【0022】図8は、従来のBP法を用いた場合の学習
時間と本実施例による学習時間との比較結果を表したも
のである。図8(A)は音声認識の部分ネットワークの
場合、(B)は英数字文字認識を行った場合について比
較したものである。この図8に示されるように、本実施
例によれば、学習回数については、従来のBP法よりも
増加する。しかし、1回の学習で行われる計算が非常に
単純であるため、BP法に比べて、いずれの場合も短時
間で学習が終了している。
【0023】図9は、学習制御部による他の学習動作の
流れを表したものである。この図は、図5に対応してお
り、ステップ6からステップ15までの処理に対応して
ステップ31からステップ41の処理を表したものであ
る。すなわち、図4のステップ1からステップ5までの
処理の後に、ステップ31に移行し、ステップ41の処
理の後に図6のステップ16に移行する。図4、図6の
処理は、上述の通りなので、説明を省略することとす
る。
【0024】まず、最初の結合重みW n ij(W 1 11が該
当)をW n ij+Sにテスト修正する(ステップ31)。
そして、ステップ4(図4)と同一の学習パターンPx
を入力してその出力信号Ox ′と教師信号Tx との2乗
誤差E(W n ij+S)を算出し(ステップ32)、ステ
ップ5(図4)で算出しRAM14に格納した2乗誤差
E(W n ij)との大小を比較する(ステップ33)。2
乗誤差E(W n ij+S)の方が小さい場合(ステップ3
3;Y)、式(1)により結合重みW n ijの修正幅dW
n ijを算出する(ステップ34)。
【0025】一方、2乗誤差E(W n ij+S)が小さく
ない場合(ステップ33;N)、結合重みをW n ij−S
にテスト修正する(ステップ35)。そして、同一の学
習パターンPx の入力に対する出力信号Ox ″と教師信
号差Tx との2乗誤差E(Wn ij−S)を求め(ステッ
プ36)、2乗誤差E(W n ij)との大小を比較する
(ステップ37)。2乗誤差E(W n ij−S)の方が小
さい場合(ステップ37;Y)、式(2)により結合重
みW n ijの修正幅dW n ijを算出する(ステップ3
8)。2乗誤差E(W n ij−S)の方が小さくない場合
に(ステップ37;N)、W n ijを0とする(ステップ
39)。CPU11は、このうよにして算出した修正幅
dW n ijを元の結合重みW n ijに加え、この修正値W n
ij′を修正値テーブル16の対応するエリアに格納する
(ステップ40)。更に、結合重みを元の値W n ijに戻
し(ステップ41)、図6に示すステップ16の処理に
移行する。
【0026】このように、プラス方向のテスト修正によ
る2乗誤差E(Wn ij+S)がテスト修正前の2乗誤差
E(W n ij)よりも小さければ、マイナス方向のテスト
修正を省略することにより、テスト修正幅Sだけ正およ
び負の両方向にテスト修正を行う場合にくらべて計算回
数が減少し、学習速度が早くなる。この場合、マイナス
方向のテスト修正を先に行ってもよい。また、テスト修
正の方向を、前回行ったテスト修正と同一方向のテスト
修正を先に行うようにしてもよい。これにより、2乗誤
差の計算回数が減少し、より学習速度が早くなる。この
場合、前回のテスト修正の方向はRAM14の所定のエ
リアに格納する。ここで、前回のテスト修正とは、結合
重みの直前に行った他の結合重みのテスト修正と、1回
前の学習パターンに対する同一の結合重みのテスト修正
の両者が含まれる。
【0027】以上説明したように、本発明の実施例によ
れば、結合重みW n ijをテスト修正幅Sだけ正または負
の方向にテスト修正する前後の2乗誤差の算出と、その
算出結果に基づいて修正幅dW n ijを算出するだけであ
り、BP法のような複雑な計算を行う必要がないので、
少ない計算式および計算量で学習を終了することが可能
となる。なお、各結合重みW n ijのそれぞれについて、
テスト修正幅Sのテスト修正を行う毎に学習パターンを
入力して出力信号Ox を得る。このため、テストパター
ンの入力回数はBP法よりも多くなるが、ニューロン素
子網はハードウェアで構成されているため、入力から出
力までの時間はごく僅かであり、CPU11での計算時
間からすれば、問題にならない。
【0028】また、本実施例によれば、結合重みにおけ
るテスト修正後の2乗誤差を算出する場合に、テスト修
正を行う結合重み以外の結合重みを初期状態に戻した状
態で算出しているので、テスト修正を行う結合重みの変
化による影響のみを判断することができる。従って、初
期状態における2乗誤差に与える、各結合重みW n ij
影響を反映させることができる。
【0029】以上説明した、実施例では、ニューロン素
子網に対して、ROMに格納されたプログラムに従って
CPUにおける制御により学習を行うように構成した
が、本発明では、専用のハードウェアで第1算出手段、
第1修正手段、第2算出手段、方向決定手段、第3算出
手段および第2修正手段を構成するようにしてもよい。
本発明では、単純な計算処理により学習が行われるの
で、専用のハードウェア化を容易に行うことができる。
このように、専用のハードウェアにより学習する構成と
することにより、学習時間は従来のBP法による学習時
間に比べて10分の1以下となる。
【0030】
【発明の効果】本発明では、BP法とは異なり、各結合
重みの単独のテスト修正によって生じるニューロン素子
網の出力誤差の変動を調べることにより、結合重みの修
正方向と値を決定するので、少ない計算量で済む。ま
た、学習方式がシンプルなので、ハードウェア化が容易
であり、ハードウェア化されたニューラルネットワーク
では、データの入力から出力されるまで殆ど時間がかか
らないので、学習を早く終了させることが可能となる。
【図面の簡単な説明】
【図1】本発明の構成図である。
【図2】本発明の1実施例のニューロン素子網の構成を
示す説明図である。
【図3】ニューロン素子網の学習を制御する学習制御部
の構成図である。
【図4】学習制御部による学習動作の流れを示すフロー
チャートの一部である。
【図5】図4に示す学習動作の続きを示すフローチャー
トの一部である。
【図6】図4、図5に示す学習動作の続きを示すフロー
チャートの一部である。
【図7】階層型ニューラルネットワークによる学習結果
を示す図で、(A)は係数kを変化させた場合、(B)
はテスト修正幅Sを変化させた場合、(C)は係数×テ
スト修正幅Sが一定となる範囲で変化させた場合の学習
結果を示す図である。
【図8】従来のPB法による学習時間と本実施例による
学習時間との比較結果を示す説明図である。
【図9】学習制御部による他の学習動作の流れを示すフ
ローチャートの一部である。
【符号の説明】 1〜9 ニューロン素子 11 CPU 13 ROM 14 RAM 15 重みテーブル 16 修正値テーブル 19 結合重みI/O 20 出力信号I/O 21 データI/O

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 所定の結合重みで階層型に結合された複
    数のニューロン素子からなるニューロン素子網と、 このニューロン素子網に入力された学習パターンに対す
    る出力信号と教師信号との2乗誤差を算出する第1算出
    手段と、 前記複数のニューロン素子のうち1つの結合重みを所定
    のテスト修正幅Sだけ正および負の少なくとも一方向に
    テスト修正する第1修正手段と、 この第1修正手段によるテスト修正後の前記ニューロン
    素子網における前記第1算出手段と同一の学習パターン
    に対する出力信号と教師信号との2乗誤差を算出する第
    2算出手段と、 この第2算出手段で算出した2乗誤差が、前記第1算出
    手段で算出した2乗誤差よりも小さくなるテスト修正幅
    Sの正または負の方向を決定する方向決定手段と、 この方向決定手段による修正方向および前記テスト修正
    幅Sに応じて前記結合重みの修正値を算出する第3算出
    手段と、 この第3算出手段で所定数の結合重みの修正値を算出
    し、その修正値に各結合重みを修正する第2修正手段と
    を具備することを特徴とする階層型ニューラルネットワ
    ーク。
  2. 【請求項2】 前記第3算出手段は、 kを係数、E(W n ij)をテスト修正前の2乗誤差、E
    (W n ij±S)をテスト修正後の2乗誤差とした場合
    に、 方向決定手段で決定した方向が正のとき、 W n ij+S×k×〔E(W n ij)−E(W n ij+S)〕 により、 方向決定手段で決定した方向が負のとき、 W n ij−S×k×〔E(W n ij)−E(W n ij−S)〕 により、それぞれの修正値を算出することを特徴とする
    請求項1記載の階層型ニューラルネットワーク。
  3. 【請求項3】 テスト修正幅Sと係数kの少なくとも一
    方、を変更する変更手段を具備する請求項2記載の階層
    型ニューラルネットワーク。
  4. 【請求項4】 テスト修正幅Sが0.1、係数kが10
    0であることを特徴とする請求項2記載の階層型ニュー
    ラルネットワーク。
  5. 【請求項5】 所定の結合重みで階層型に結合された複
    数のニューロン素子からなるニューロン素子網に学習パ
    ターンを入力してその出力信号と教師信号との2乗誤差
    を算出する第1工程と、 複数のニューロン素子のうち他の結合重みを第1工程と
    同一の状態とし、1つの結合重みを所定のテスト修正幅
    Sだけ正および負の少なくとも一方向にテスト修正し、
    テスト修正後の前記ニューロン素子網に第1工程と同一
    の学習パターンを入力して算出した2乗誤差が第1工程
    で算出した2乗誤差よりも小さくなるテスト修正幅Sの
    正または負の方向を決定し、決定した修正方向と前記テ
    スト修正幅Sに応じて結合重みの修正値を算出する工程
    を、所定数の結合重みに対して行う第2工程と、 第2工程で所定数の結合重みの修正値を算出した後に算
    出した修正値に各結合重みを修正する第3工程を備えた
    ことを特徴とする階層型ニューラルネットワークの学習
    方法。
JP24838991A 1991-09-03 1991-09-03 階層型ニューラルネットワークおよびその学習方法 Expired - Fee Related JP3273568B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24838991A JP3273568B2 (ja) 1991-09-03 1991-09-03 階層型ニューラルネットワークおよびその学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24838991A JP3273568B2 (ja) 1991-09-03 1991-09-03 階層型ニューラルネットワークおよびその学習方法

Publications (2)

Publication Number Publication Date
JPH0561850A true JPH0561850A (ja) 1993-03-12
JP3273568B2 JP3273568B2 (ja) 2002-04-08

Family

ID=17177381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24838991A Expired - Fee Related JP3273568B2 (ja) 1991-09-03 1991-09-03 階層型ニューラルネットワークおよびその学習方法

Country Status (1)

Country Link
JP (1) JP3273568B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744517A (ja) * 1993-07-30 1995-02-14 Tech Res & Dev Inst Of Japan Def Agency 雑音背景下の信号判別方法
CN110188868A (zh) * 2018-02-22 2019-08-30 国际商业机器公司 人工神经网络的硬件实现的训练

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744517A (ja) * 1993-07-30 1995-02-14 Tech Res & Dev Inst Of Japan Def Agency 雑音背景下の信号判別方法
CN110188868A (zh) * 2018-02-22 2019-08-30 国际商业机器公司 人工神经网络的硬件实现的训练

Also Published As

Publication number Publication date
JP3273568B2 (ja) 2002-04-08

Similar Documents

Publication Publication Date Title
US5107454A (en) Pattern associative memory system
EP0591415A1 (en) Sparse comparison neural network
US5313559A (en) Method of and system for controlling learning in neural network
Anderson et al. Reinforcement learning with modular neural networks for control
JPH0561850A (ja) 階層型ニユーラルネツトワークおよびその学習方法
JPH07121498A (ja) ニューラルネットワーク構築方法
JPH07210534A (ja) ニューラルネットワーク
JPH076146A (ja) 並列データ処理システム
JPH05101028A (ja) 複数特徴量の統合判定方法
JPH04237388A (ja) ニューロプロセッサ
JP3262340B2 (ja) 情報処理装置
JP2699447B2 (ja) 信号処理装置
JP2979562B2 (ja) 学習処理装置
JPH05128285A (ja) ニユーロプロセツサ
JPH05128082A (ja) 階層ネツトワーク構成データ処理装置とその学習処理方法
JP3029451B2 (ja) ファジィ制御装置
JPH06243273A (ja) ニューラルネットワークの学習方式
JPH06131482A (ja) アナログニューラルネットワーク回路
JPH117435A (ja) ニューラルネットワーク
JP2766858B2 (ja) ニューラルネットワーク並列シミュレーション方法及びそれに用いる装置
JPH05242062A (ja) ニューラルネット中間層ユニット数の決定方法
JPH02277180A (ja) パターン学習装置
JPH11259445A (ja) 学習装置
JPH1173405A (ja) 神経回路網型逐次学習方法、神経回路網型逐次学習装置および神経回路網型逐次学習プログラムを記録した記録媒体
JP3137996B2 (ja) メンバシップ関数を用いたニューラルネットワーク及びその学習方式

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080201

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110201

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees