JPH03246747A - ネットワーク構成データ処理装置の学習処理方式 - Google Patents
ネットワーク構成データ処理装置の学習処理方式Info
- Publication number
- JPH03246747A JPH03246747A JP2045250A JP4525090A JPH03246747A JP H03246747 A JPH03246747 A JP H03246747A JP 2045250 A JP2045250 A JP 2045250A JP 4525090 A JP4525090 A JP 4525090A JP H03246747 A JPH03246747 A JP H03246747A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- value
- internal state
- inactive
- neuron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000002569 neuron Anatomy 0.000 claims abstract description 70
- 230000006870 function Effects 0.000 claims description 17
- 238000003672 processing method Methods 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 7
- 230000003213 activating effect Effects 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 58
- 230000008569 process Effects 0.000 description 43
- 230000004913 activation Effects 0.000 description 16
- 238000007726 management method Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- OVSKIKFHRZPJSS-UHFFFAOYSA-N 2,4-D Chemical compound OC(=O)COC1=CC=C(Cl)C=C1Cl OVSKIKFHRZPJSS-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002779 inactivation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Landscapes
- Devices For Executing Special Programs (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔概要〕
ネットワーク構成データ処理装置のネットワーク構造部
に割り付けられる内部状態値を学習するための学習処理
方式に関し、 内部状態値の学習をより確実に遂行できるようにするこ
とを目的とし、 データ処理ユニントをなすニューロンの内部結合により
構成されるネットワーク構造部に従ってデータ変換処理
を実行するネットワーク構成データ処理装置と、学習信
号の提示に対して出力されるネットワーク構成データ処
理装置からの出力信号が所望のものとなる内部状態値を
学習する学習処理装置とを備える学習処理システムにお
いて、内部状態値の学習途中において非活性なニューロ
ンとして動作するニューロンを特定する非活性ニューロ
ン特定手段と、この非活性ニューロン特定手段により特
定されたニューロンに関しての内部結合に割り付けられ
る内部状態値のすべて若しくは一部に対して乱数値を設
定する内部状態値変更手段とを備えるよう構成する。
に割り付けられる内部状態値を学習するための学習処理
方式に関し、 内部状態値の学習をより確実に遂行できるようにするこ
とを目的とし、 データ処理ユニントをなすニューロンの内部結合により
構成されるネットワーク構造部に従ってデータ変換処理
を実行するネットワーク構成データ処理装置と、学習信
号の提示に対して出力されるネットワーク構成データ処
理装置からの出力信号が所望のものとなる内部状態値を
学習する学習処理装置とを備える学習処理システムにお
いて、内部状態値の学習途中において非活性なニューロ
ンとして動作するニューロンを特定する非活性ニューロ
ン特定手段と、この非活性ニューロン特定手段により特
定されたニューロンに関しての内部結合に割り付けられ
る内部状態値のすべて若しくは一部に対して乱数値を設
定する内部状態値変更手段とを備えるよう構成する。
(産業上の利用分野〕
本発明は、ネットワーク構成データ処理装置のネットワ
ーク構造部に割り付けられる内部状態値を学習するため
のネットワーク構成データ処理装置の学習処理方式に関
し、特に、内部状態値の学習をより確実に遂行すること
を可能とならしめる’jA ノ)ワーク構成データ処理
装置の学習処理方式%式% 従来の逐次処理コンピュータ(ノイマン型コンピュータ
)では、使用方法や環境の変化に応じてデータ処理機能
を調節することができないので、パターン認識や適応フ
ィルタ等の分野を中心に、階層ネットワーク構造による
並列分散処理方式に代表されるような適応性を有する不
、トワーク構成データ処理装置が提案されてきている。
ーク構造部に割り付けられる内部状態値を学習するため
のネットワーク構成データ処理装置の学習処理方式に関
し、特に、内部状態値の学習をより確実に遂行すること
を可能とならしめる’jA ノ)ワーク構成データ処理
装置の学習処理方式%式% 従来の逐次処理コンピュータ(ノイマン型コンピュータ
)では、使用方法や環境の変化に応じてデータ処理機能
を調節することができないので、パターン認識や適応フ
ィルタ等の分野を中心に、階層ネットワーク構造による
並列分散処理方式に代表されるような適応性を有する不
、トワーク構成データ処理装置が提案されてきている。
このような適応性を有するネットワーク構成データ処理
装置では、データ処理機能を規定するところの内部状態
値を学習処理により求めてい(必要があるが、ネットワ
ーク構成データ処理装置の実用性を高めていくためには
、内部状態値の学習処理が確実に遂行されるようにする
ための手段を用意していく必要があるのである。
装置では、データ処理機能を規定するところの内部状態
値を学習処理により求めてい(必要があるが、ネットワ
ーク構成データ処理装置の実用性を高めていくためには
、内部状態値の学習処理が確実に遂行されるようにする
ための手段を用意していく必要があるのである。
階層ネットワーク構成をとる階層ネットワーク構成デー
タ処理装置に従って従来技術を説明する。
タ処理装置に従って従来技術を説明する。
階層ネットワーク構成をとるデータ処理装置では、基本
ユニットにニューロンの一態様をなす)と呼ぶ一種のノ
ードと、内部状態値に相当する重み値を持つ内部結合と
から階層ネットワーク構造部を構成している。第8図に
、基本ユニット1の基本構成を示す。この基本ユニット
lは、多大カー出力系となっており、複数の入力に対し
夫々の内部結合の重み値を乗算する乗算処理部2と、そ
れらの全乗算結果を加算する累算処理部3と、この累算
値に非線型の閾値処理を施して一つの最終出力を出力す
る闇値処理部4とを備える。
ユニットにニューロンの一態様をなす)と呼ぶ一種のノ
ードと、内部状態値に相当する重み値を持つ内部結合と
から階層ネットワーク構造部を構成している。第8図に
、基本ユニット1の基本構成を示す。この基本ユニット
lは、多大カー出力系となっており、複数の入力に対し
夫々の内部結合の重み値を乗算する乗算処理部2と、そ
れらの全乗算結果を加算する累算処理部3と、この累算
値に非線型の閾値処理を施して一つの最終出力を出力す
る闇値処理部4とを備える。
h層を前段層としi層を後段層とすると、i層のi番目
の基本ユニットlの累算処理部3では下記の(1)式の
演算を実行し、闇値処理部4では例えば下記の(2)式
の演算を実行する。
の基本ユニットlの累算処理部3では下記の(1)式の
演算を実行し、闇値処理部4では例えば下記の(2)式
の演算を実行する。
Xpi−ΣFpbW=h (1)弐
V e= =17 (1+ exp(x pt+θi)
) (2)式h :h層のユニット番号 p :入力信号のパターン番号 θ、=i層の1番ユニットの闇値 Wik: h−i層間の内部結合の重み値)’pb’P
番目パターンの入力信号に対するh層のh番ユニットか
らの出力 そして、階層ネットワーク構成データ処理装置では、こ
のような構成の多数の基本ユニット1が、入力信号値を
そのまま分配して出力する入カニニットl゛を入力層と
して、第9図に示すように階層的に接続されることで階
層ネットワーク構造部を構成して、入力パターンを対応
する出力パターンに変換するという並列的なデータ処理
機能を発揮することになる。
V e= =17 (1+ exp(x pt+θi)
) (2)式h :h層のユニット番号 p :入力信号のパターン番号 θ、=i層の1番ユニットの闇値 Wik: h−i層間の内部結合の重み値)’pb’P
番目パターンの入力信号に対するh層のh番ユニットか
らの出力 そして、階層ネットワーク構成データ処理装置では、こ
のような構成の多数の基本ユニット1が、入力信号値を
そのまま分配して出力する入カニニットl゛を入力層と
して、第9図に示すように階層的に接続されることで階
層ネットワーク構造部を構成して、入力パターンを対応
する出力パターンに変換するという並列的なデータ処理
機能を発揮することになる。
ネットワーク構成のデータ処理装置では、データ変換機
能を規定するところのネットワーク構造部の重み値を学
習処理により求めていく必要がある。階層ネットワーク
構成データ処理装置の重み値の学習処理方式として、特
に、バック・プロパゲーション法と呼ばれる学習処理方
式がその実用性の高さから注目されている。
能を規定するところのネットワーク構造部の重み値を学
習処理により求めていく必要がある。階層ネットワーク
構成データ処理装置の重み値の学習処理方式として、特
に、バック・プロパゲーション法と呼ばれる学習処理方
式がその実用性の高さから注目されている。
このバンク・プロパゲーション法では、第9図に示すh
層−1層−j層という3層構造の階層ネットワーク構造
部で説明するならば、学習用の入力パターンが提示され
たときに出力される出力層からの出力パターンy□と、
その出力パターンy、Jのとるべき信号である教師パタ
ーンdpjとが定まると、先ず最初に、出力パターンY
piと教師パターンdpjとの差分値(apJ−ys=
)を算出し、次に、 αpJ−ypJN yw、)<dw= ypJ)
を算出し、続いて、 ΔW、、(t)−εΣαl’j )’ pi±ζΔW、
t、(t−1)に従って、i層=j層間の重み値の更新
量ΔW j 1(1)を算出する。ここで、tは学習回
数を表しており、前回の更新サイクル時に決定された重
み値の更新量に係るものを加電するのは学習の高速化を
図るためである。
層−1層−j層という3層構造の階層ネットワーク構造
部で説明するならば、学習用の入力パターンが提示され
たときに出力される出力層からの出力パターンy□と、
その出力パターンy、Jのとるべき信号である教師パタ
ーンdpjとが定まると、先ず最初に、出力パターンY
piと教師パターンdpjとの差分値(apJ−ys=
)を算出し、次に、 αpJ−ypJN yw、)<dw= ypJ)
を算出し、続いて、 ΔW、、(t)−εΣαl’j )’ pi±ζΔW、
t、(t−1)に従って、i層=j層間の重み値の更新
量ΔW j 1(1)を算出する。ここで、tは学習回
数を表しており、前回の更新サイクル時に決定された重
み値の更新量に係るものを加電するのは学習の高速化を
図るためである。
続いて、算出したα、1を用いて、先ず最初に、βpi
=y pi (1y at)Σα、、WJt(t−1
)を算出し、次に、 ΔWtb(t)−εΣβpi 3’ oh+ζΔW、、
(t−t)に従って、h層−1層間の重み値の更新量Δ
W。
=y pi (1y at)Σα、、WJt(t−1
)を算出し、次に、 ΔWtb(t)−εΣβpi 3’ oh+ζΔW、、
(t−t)に従って、h層−1層間の重み値の更新量Δ
W。
(1)を算出する。
続いて、この算出した更新量に従って次の更新サイクル
のための重み値 Wjl(t) =WJ、(t−1)+ΔWJ、(t)W
ib(t) =W、hO−1)+ΔWth(t)を決定
していく方法を繰り返していくことで、学習用の入力パ
ターンを提示したときに出力される出力層からの出力パ
ターンypjと、その出力パターンy、Jのとるべき信
号である教師パターンdpjとが一致することになる重
み値W J 11 W i )1及び閾値θ、、θ、を
学習するよう処理することになる。
のための重み値 Wjl(t) =WJ、(t−1)+ΔWJ、(t)W
ib(t) =W、hO−1)+ΔWth(t)を決定
していく方法を繰り返していくことで、学習用の入力パ
ターンを提示したときに出力される出力層からの出力パ
ターンypjと、その出力パターンy、Jのとるべき信
号である教師パターンdpjとが一致することになる重
み値W J 11 W i )1及び閾値θ、、θ、を
学習するよう処理することになる。
なお、本出願人は、先に出願の「特願昭62−3334
84号(昭和62年12月28日出願、“ネットワーク
構成データ処理装置”)」で開示したように、入力側の
h層に常に“l”を出力するとともにその出力に対して
閾値θを重み値として割り付けるユニットを設けること
で、閾値θを重み値Wの中に組み込んで閾値θを重み値
として扱うようにすることを提案した。これから、閾値
θの学習もまた重み値Wの学習と同様の学習処理により
学習されることになる。
84号(昭和62年12月28日出願、“ネットワーク
構成データ処理装置”)」で開示したように、入力側の
h層に常に“l”を出力するとともにその出力に対して
閾値θを重み値として割り付けるユニットを設けること
で、閾値θを重み値Wの中に組み込んで閾値θを重み値
として扱うようにすることを提案した。これから、閾値
θの学習もまた重み値Wの学習と同様の学習処理により
学習されることになる。
しかるに、バンク・プロパゲーション法により階層ネッ
トワーク構造部の内部結合の重み値の学習処理を実行し
ていくと、重み値の学習回数tをいくら増加させても、
階層ネットワーク構造部の出力層から出力される出力パ
ターンが、その出力パターンのとるべき信号である教師
パターンに収束しないことが起こることがある。このこ
とは、階層ネットワーク構成データ処理装置に限られる
ことなく、他のネットワーク構成データ処理装置でも起
こることである。
トワーク構造部の内部結合の重み値の学習処理を実行し
ていくと、重み値の学習回数tをいくら増加させても、
階層ネットワーク構造部の出力層から出力される出力パ
ターンが、その出力パターンのとるべき信号である教師
パターンに収束しないことが起こることがある。このこ
とは、階層ネットワーク構成データ処理装置に限られる
ことなく、他のネットワーク構成データ処理装置でも起
こることである。
このようなことが起こると、従来技術では、例えば、学
習開始前に設定することになる各内部結合の重み値の初
期値を、学習が成功しなかったときのものとは変えて学
習を再度実行するとか、あるいは、階層ネットワーク構
造部の中間層(人力層と出力層との間に位置する層)の
層数を増加させて学習を再度実行するとか、あるいは、
1又は複数の層の基本ユニット1の数を増加させて学習
を再度実行するという方法により、重み値の学習を成功
させるよう処理していた。
習開始前に設定することになる各内部結合の重み値の初
期値を、学習が成功しなかったときのものとは変えて学
習を再度実行するとか、あるいは、階層ネットワーク構
造部の中間層(人力層と出力層との間に位置する層)の
層数を増加させて学習を再度実行するとか、あるいは、
1又は複数の層の基本ユニット1の数を増加させて学習
を再度実行するという方法により、重み値の学習を成功
させるよう処理していた。
しかしながら、このような方法では、最初から重み値の
学習を実行し直さなくてはならないことから、重み値の
学習値が得られるまで長い時間を要することになるとい
う問題点があった。そして、階層ネットワーク構造部の
層数や基本ユニット数を増加させるという方法では、用
意しである階層ネットワーク構造部の構造そのものを変
更しなければならないという問題点があったのである。
学習を実行し直さなくてはならないことから、重み値の
学習値が得られるまで長い時間を要することになるとい
う問題点があった。そして、階層ネットワーク構造部の
層数や基本ユニット数を増加させるという方法では、用
意しである階層ネットワーク構造部の構造そのものを変
更しなければならないという問題点があったのである。
本発明はかかる事情に鑑みてなされたものであって、ネ
ットワーク構成データ処理装置における重み値の学習処
理において、ネットワーク構造部の出力層から出力され
る出力パターンが所望の教師パターンに収束しないこと
が起こるときに、学習を最初から再実行しなくともその
収束を可能とならしめる新たなネットワーク構成データ
処理装置の学習処理方式の提供を目的とするものである
。
ットワーク構成データ処理装置における重み値の学習処
理において、ネットワーク構造部の出力層から出力され
る出力パターンが所望の教師パターンに収束しないこと
が起こるときに、学習を最初から再実行しなくともその
収束を可能とならしめる新たなネットワーク構成データ
処理装置の学習処理方式の提供を目的とするものである
。
[課題を解決するための手段]
第1図は本発明の原理構成図である。
図中、10はネットワーク構成データ処理装置であって
、ネットワーク構成に従って適応的なデータ処理を実行
するもの、11はネットワーク構成データ処理装置10
の備えるネットワーク構造部であって、1つ又は複数の
入力と該入力に対して乗算されるべき内部状態値とを受
け取って積和値を得るとともに、この積和値を所定の関
数によって変換して出力値を得るニューロンの内部結合
により構成されて、入力パターンに対応する出力パター
ンを算出して出力するもの、12はネットワーク構成デ
ータ処理装置10の備える内部状態値格納手段であって
、ネットワーク構造部11がデータ変換処理の実行時に
必要とする内部状態値を管理するもの、20は学習処理
装置であって、内部状態値格納手段12に格納される内
部状態値を学習処理により求めるもの、21は学習処理
装置20の備える非収束検出手段であって、内部状態値
の学習値が求められない状態にあることを検出するもの
である。
、ネットワーク構成に従って適応的なデータ処理を実行
するもの、11はネットワーク構成データ処理装置10
の備えるネットワーク構造部であって、1つ又は複数の
入力と該入力に対して乗算されるべき内部状態値とを受
け取って積和値を得るとともに、この積和値を所定の関
数によって変換して出力値を得るニューロンの内部結合
により構成されて、入力パターンに対応する出力パター
ンを算出して出力するもの、12はネットワーク構成デ
ータ処理装置10の備える内部状態値格納手段であって
、ネットワーク構造部11がデータ変換処理の実行時に
必要とする内部状態値を管理するもの、20は学習処理
装置であって、内部状態値格納手段12に格納される内
部状態値を学習処理により求めるもの、21は学習処理
装置20の備える非収束検出手段であって、内部状態値
の学習値が求められない状態にあることを検出するもの
である。
30はニューロン活性化装置であって、ネットワーク構
造情報管理手段31と、内部状態値読取手段32と、非
活性ニューロン特定手段33と、乱数発生手段34と、
内部状態値変更手段35とを備えるものである。このネ
ットワーク構造情報管理手段31は、ネットワーク構造
部11のネットワーク構造情報を管理し、内部状態値読
取手段32は、内部状態値格納手段12に格納される内
部状態値を読み取るよう処理し、非活性ニューロン特定
手段33は、内部状態値の学習途中において、ネットワ
ーク構造部11中の非活性なニューロンとして動作する
ニューロンを特定するよう処理し、乱数発生手段34は
、内部状態値として存在する可能性のある数値を乱数的
に発生するよう処理し、内部状態値変更手段35は、非
活性ニューロン特定手段33により特定された非活性な
ニューロンに関しての内部結合に割り付けられる内部状
態値のすべて若しくは一部に対して、乱数発生手段34
により発生される乱数値を割り付けて内部状態値格納手
段12に格納するよう処理する。
造情報管理手段31と、内部状態値読取手段32と、非
活性ニューロン特定手段33と、乱数発生手段34と、
内部状態値変更手段35とを備えるものである。このネ
ットワーク構造情報管理手段31は、ネットワーク構造
部11のネットワーク構造情報を管理し、内部状態値読
取手段32は、内部状態値格納手段12に格納される内
部状態値を読み取るよう処理し、非活性ニューロン特定
手段33は、内部状態値の学習途中において、ネットワ
ーク構造部11中の非活性なニューロンとして動作する
ニューロンを特定するよう処理し、乱数発生手段34は
、内部状態値として存在する可能性のある数値を乱数的
に発生するよう処理し、内部状態値変更手段35は、非
活性ニューロン特定手段33により特定された非活性な
ニューロンに関しての内部結合に割り付けられる内部状
態値のすべて若しくは一部に対して、乱数発生手段34
により発生される乱数値を割り付けて内部状態値格納手
段12に格納するよう処理する。
本発明では、学習処理装置20が学習対象の入力パター
ン群をネットワーク構造部11に提示するとともに、こ
の提示に従って出力されるネットワーク構造部11から
の出力パターン群と、この出力パターン群のとるべきパ
ターンを示す教師バターン群との間の誤差値を算出し、
この誤差値に基づいて内部状態値格納手段12の内部状
態値を順次更新していくことで、所望のデータ変換処理
を実現するネットワーク構造部11の内部状態値の学習
処理を実行する。
ン群をネットワーク構造部11に提示するとともに、こ
の提示に従って出力されるネットワーク構造部11から
の出力パターン群と、この出力パターン群のとるべきパ
ターンを示す教師バターン群との間の誤差値を算出し、
この誤差値に基づいて内部状態値格納手段12の内部状
態値を順次更新していくことで、所望のデータ変換処理
を実現するネットワーク構造部11の内部状態値の学習
処理を実行する。
非収束検出手段21は、この学習処理にあって、内部状
態値の更新を所定の回数実行してもネットワーク構造部
11からの出力パターン群と教師パターン群との間の誤
差値が十分小さくならない状態にあることを検出すると
、ニューロン活性化袋230を起動する。
態値の更新を所定の回数実行してもネットワーク構造部
11からの出力パターン群と教師パターン群との間の誤
差値が十分小さくならない状態にあることを検出すると
、ニューロン活性化袋230を起動する。
このようにして起動されると、非活性ニューロン特定手
段33は、ネットワーク構造部11を構成するニューロ
ンの内で非活性なニューロンとして動作しているニュー
ロンを特定する。この特定処理は、例えば、ネットワー
ク構造情報管理手段31の管理情報を参照しつつ順次1
つのニューロンを選択するとともに、内部状態値読取手
段32を介して内部状態値格納手段12からその選択し
たニューロンの入力側と出力側の内部結合に割り付けら
れている全内部状態値(学習途中のものである)を読み
出し、この読み出した入力側の内部結合の全内部状態値
がゼロ値に近い値をとるものであるときには、そのニュ
ーロンを入力に応答しない非活性なものとして検出し、
また、この読み出した出力側の内部結合の全内部状態値
がゼロ値に近い値をとるものであるときには、そのニュ
ーロンが出力を出さない非活性なものとして検出すると
いうことで行う。
段33は、ネットワーク構造部11を構成するニューロ
ンの内で非活性なニューロンとして動作しているニュー
ロンを特定する。この特定処理は、例えば、ネットワー
ク構造情報管理手段31の管理情報を参照しつつ順次1
つのニューロンを選択するとともに、内部状態値読取手
段32を介して内部状態値格納手段12からその選択し
たニューロンの入力側と出力側の内部結合に割り付けら
れている全内部状態値(学習途中のものである)を読み
出し、この読み出した入力側の内部結合の全内部状態値
がゼロ値に近い値をとるものであるときには、そのニュ
ーロンを入力に応答しない非活性なものとして検出し、
また、この読み出した出力側の内部結合の全内部状態値
がゼロ値に近い値をとるものであるときには、そのニュ
ーロンが出力を出さない非活性なものとして検出すると
いうことで行う。
また、別の非活性ニューロンの特定処理方法としては、
例えば、ネットワーク構造情報管理手段31の管理情報
を参照することでネットワーク構造部11のニューロン
の内の入出力先が同じ形態をとるニューロン群を特定す
るとともに、内部状態値読取手段32を介して内部状態
値格納手段12からその特定したニューロン群の各ニュ
ーロンの入出力の内部結合に割り付けられる全内部状態
値を読み出し、この入出力先が同じ形態をとるニューロ
ン群の内で概略同一の内部状態値の値をとるニューロン
群があるときには、これらのニューロン群は本来1つの
ニューロンにより代用できるものであって1つ以外のニ
ューロンは非活性なものであるとして検出するというこ
とで行う。
例えば、ネットワーク構造情報管理手段31の管理情報
を参照することでネットワーク構造部11のニューロン
の内の入出力先が同じ形態をとるニューロン群を特定す
るとともに、内部状態値読取手段32を介して内部状態
値格納手段12からその特定したニューロン群の各ニュ
ーロンの入出力の内部結合に割り付けられる全内部状態
値を読み出し、この入出力先が同じ形態をとるニューロ
ン群の内で概略同一の内部状態値の値をとるニューロン
群があるときには、これらのニューロン群は本来1つの
ニューロンにより代用できるものであって1つ以外のニ
ューロンは非活性なものであるとして検出するというこ
とで行う。
また、別の非活性ニューロンの特定処理方法としては、
例えば、ネットワーク構造情報管理手段31の管理情報
を参照することで順次1つのニューロンを選択するとと
もに、学習対象の入力パターン群の提示に対して出力さ
れるその選択したニューロンのネットワーク構造部11
のネットワーク出力データを読み出し、この読み出した
ネットワーク出力データの出力値の変化が小さいもので
あるときには、そのニューロンが有効な動作を行ってい
ない非活性なものであるとして検出することで行う。
例えば、ネットワーク構造情報管理手段31の管理情報
を参照することで順次1つのニューロンを選択するとと
もに、学習対象の入力パターン群の提示に対して出力さ
れるその選択したニューロンのネットワーク構造部11
のネットワーク出力データを読み出し、この読み出した
ネットワーク出力データの出力値の変化が小さいもので
あるときには、そのニューロンが有効な動作を行ってい
ない非活性なものであるとして検出することで行う。
このようにして、非活性ニューロン特定手段33がネッ
トワーク構造部ll中の非活性なニューロンとして動作
しているニューロンを特定すると、内部状態値変更手段
35は、非活性なものとして特定されたニューロンに割
り付けられる内部状態値のすべて若しくは一部に対して
、乱数発生手段34により発生される乱数値を割り付け
るとともに、この割り付けた乱数値に従って内部状態値
格納手段12の内部状態値を変更するよう処理する。
トワーク構造部ll中の非活性なニューロンとして動作
しているニューロンを特定すると、内部状態値変更手段
35は、非活性なものとして特定されたニューロンに割
り付けられる内部状態値のすべて若しくは一部に対して
、乱数発生手段34により発生される乱数値を割り付け
るとともに、この割り付けた乱数値に従って内部状態値
格納手段12の内部状態値を変更するよう処理する。
この処理により、階層ネットワーク構造部11中の非活
性なニューロンが活性化されることになる。
性なニューロンが活性化されることになる。
そして、この処理が終了すると、ニューロン活性化装置
30は、学習処理装置20に対して内部状態値の求まら
なかったネットワーク構成データ処理装置10に対して
の学習処理の続行を指示し、この指示に従って、学習処
理装置20は、活性化されたニューロンの作用により所
望のデータ変換処理を実現するネットワーク構造部11
の内部状態値の学習を実現できることになる。
30は、学習処理装置20に対して内部状態値の求まら
なかったネットワーク構成データ処理装置10に対して
の学習処理の続行を指示し、この指示に従って、学習処
理装置20は、活性化されたニューロンの作用により所
望のデータ変換処理を実現するネットワーク構造部11
の内部状態値の学習を実現できることになる。
このように、本発明によれば、ネットワーク構成データ
処理装置における重み値の学習処理において、ネットワ
ーク構造部の出力層から出力される出力パターンが所望
の教師パターンに収束しないことが起きても、学習を最
初から再実行したり、ネットワーク構造部の構造を変更
しなくてもその収束を可能とすることができるようにな
る。
処理装置における重み値の学習処理において、ネットワ
ーク構造部の出力層から出力される出力パターンが所望
の教師パターンに収束しないことが起きても、学習を最
初から再実行したり、ネットワーク構造部の構造を変更
しなくてもその収束を可能とすることができるようにな
る。
[実施例]
以下、階層ネットワーク構成データ処理装置に適用した
実施例に従って本発明の詳細な説明する。
実施例に従って本発明の詳細な説明する。
第2図に、本発明の一実施例を図示する。図中、第1図
、第8図及び第9図で説明したものと同じものについて
は同一の記号で示しである。10aは階層ネットワーク
構成に従って適応的なデータ処理を実行する階層ネット
ワーク構成データ処理装置、llaは第9図で説明した
ような構造をもつ階層ネットワーク構造部、12aは第
1図の内部状態値格納手段12に相当する重み値格納手
段、20aはハック・プロパゲーション法に従って階層
ネットワーク構造部11aの重み値の学習を実行する学
習処理装置、30aは第1図のニューロン活性化装置3
0に対応するユニット活性化装置である。
、第8図及び第9図で説明したものと同じものについて
は同一の記号で示しである。10aは階層ネットワーク
構成に従って適応的なデータ処理を実行する階層ネット
ワーク構成データ処理装置、llaは第9図で説明した
ような構造をもつ階層ネットワーク構造部、12aは第
1図の内部状態値格納手段12に相当する重み値格納手
段、20aはハック・プロパゲーション法に従って階層
ネットワーク構造部11aの重み値の学習を実行する学
習処理装置、30aは第1図のニューロン活性化装置3
0に対応するユニット活性化装置である。
学習処理装置20aは、第1図で説明した非収束検出手
段21と、学習信号格納手段22と、学習信号提示手段
23と、重み値学習手段24とを備える。この学習信号
格納手段22は、重み値の学習のために用いられる学習
信号を格納し、学習信号提示手段23は、学習信号格納
手段22から学習信号を読み出して、その内の学習提示
信号を階層ネットワーク構造部11aに提示するととも
に、対をなすもう一方の学習教師信号を非収束検出手段
21及び重み値学習手段24に提示するよう処理し、非
収束検出手段21は、階層ネットワク構造部11aから
出力される出力信号と学習信号提示手段23からの学習
教師信号とを受けて、階層ネットワーク構造部11aの
データ処理機能の誤差が許容範囲に入ったか否かを判定
してその判定結果を学習信号提示手段23に通知するよ
う処理し、重み値学習手段24は、学習信号提示手段2
3からの学習教師信号と階層ネットワーク構造部11a
のネットワーク出力データとを受けて、バンク・プロパ
ゲーション法に従って重み値の更新量を算出し、該更新
量に従って重み値を更新していくことで重み値を収束さ
せるべく学習するよう処理し、更に、非収束検出手段2
1は、例えば、重み値の更新回数(学習信号の提示回数
)が所定の回数になっても、階層ネットワーク構造部1
1aのデータ処理機能の誤差が許容範囲に入らないこと
を検出する等の方法により、階層ネットワーク構造部1
1aに割り付けられる重み値の学習値が求められない状
態にあることを検出すると、ユニット活性化装置30a
を起動するよう処理する。
段21と、学習信号格納手段22と、学習信号提示手段
23と、重み値学習手段24とを備える。この学習信号
格納手段22は、重み値の学習のために用いられる学習
信号を格納し、学習信号提示手段23は、学習信号格納
手段22から学習信号を読み出して、その内の学習提示
信号を階層ネットワーク構造部11aに提示するととも
に、対をなすもう一方の学習教師信号を非収束検出手段
21及び重み値学習手段24に提示するよう処理し、非
収束検出手段21は、階層ネットワク構造部11aから
出力される出力信号と学習信号提示手段23からの学習
教師信号とを受けて、階層ネットワーク構造部11aの
データ処理機能の誤差が許容範囲に入ったか否かを判定
してその判定結果を学習信号提示手段23に通知するよ
う処理し、重み値学習手段24は、学習信号提示手段2
3からの学習教師信号と階層ネットワーク構造部11a
のネットワーク出力データとを受けて、バンク・プロパ
ゲーション法に従って重み値の更新量を算出し、該更新
量に従って重み値を更新していくことで重み値を収束さ
せるべく学習するよう処理し、更に、非収束検出手段2
1は、例えば、重み値の更新回数(学習信号の提示回数
)が所定の回数になっても、階層ネットワーク構造部1
1aのデータ処理機能の誤差が許容範囲に入らないこと
を検出する等の方法により、階層ネットワーク構造部1
1aに割り付けられる重み値の学習値が求められない状
態にあることを検出すると、ユニット活性化装置30a
を起動するよう処理する。
本発明に特徴的なユニット活性化装置30aは、階層ネ
ットワーク構造部11aの階層ネットワーク構造情報を
管理する階層ネットワーク構造情報管理手段31aと、
プログラム手段で構成されて、非収束検出手段21から
の起動要求に応して階層ネットワーク構造部11a中の
非活性な基本ユニント1を特定すべく処理する非活性ユ
ニント特定手段33aと、乱数発生手段34と、非活性
ユニット特定手段33aの処理結果を受けて、重み値格
納手段12aに格納される学習途中の重み値の変更処理
を実行する重み値変更手段35aと、非活性ユニント特
定手段33aが必要とする判断値を管理する判断データ
格納手段36とを備えるよう構成される。
ットワーク構造部11aの階層ネットワーク構造情報を
管理する階層ネットワーク構造情報管理手段31aと、
プログラム手段で構成されて、非収束検出手段21から
の起動要求に応して階層ネットワーク構造部11a中の
非活性な基本ユニント1を特定すべく処理する非活性ユ
ニント特定手段33aと、乱数発生手段34と、非活性
ユニット特定手段33aの処理結果を受けて、重み値格
納手段12aに格納される学習途中の重み値の変更処理
を実行する重み値変更手段35aと、非活性ユニント特
定手段33aが必要とする判断値を管理する判断データ
格納手段36とを備えるよう構成される。
そして、この非活性ユニット特定手段33aは、階層ネ
ットワーク構造部11a中の非活性な基本ユニント1を
特定すべく処理する第1の非活性ユニット特定手段33
1、第2の非活性ユニット特定手段332、第3の非活
性ユニット特定手段333及び第4の非活性ユニット特
定手段334を備えるよう構成される。これらの非活性
ユニット特定手段は、例えば、オペレータからの指示に
従って動作するものが選択されることになる。
ットワーク構造部11a中の非活性な基本ユニント1を
特定すべく処理する第1の非活性ユニット特定手段33
1、第2の非活性ユニット特定手段332、第3の非活
性ユニット特定手段333及び第4の非活性ユニット特
定手段334を備えるよう構成される。これらの非活性
ユニット特定手段は、例えば、オペレータからの指示に
従って動作するものが選択されることになる。
第3図に、第1の非活性ユニット特定手段331の実行
するフローチャート、第4図に、第2の非活性ユニント
特定手段332の実行するフローチャート、第5図に、
第3の非活性ユニット特定手段333の実行するフロー
チャート、第6図に、第4の非活性ユニット特定手段3
34の実行するフローチャート、第7圀に、重み値変更
手段35aの実行するフローチャートを図示する。
するフローチャート、第4図に、第2の非活性ユニント
特定手段332の実行するフローチャート、第5図に、
第3の非活性ユニット特定手段333の実行するフロー
チャート、第6図に、第4の非活性ユニット特定手段3
34の実行するフローチャート、第7圀に、重み値変更
手段35aの実行するフローチャートを図示する。
次に、この第3図ないし第7図に示すフローチャートに
従って、ユニット活性化装置30aが実行する処理につ
いて詳細に説明する。
従って、ユニット活性化装置30aが実行する処理につ
いて詳細に説明する。
第1の非活性ユニット特定手段331は、非収束検出手
段21からの起動要求を受け取ると、第3図のフローチ
ャートに示すように、ステップ30で活性か非活性かの
決定をしていない基本ユニットlを1つ選択し、次に、
ステップ31で、その基本ユニット1から出力されるす
べての内部結合に割り付けられる学習途中の重み値の学
習値α。
段21からの起動要求を受け取ると、第3図のフローチ
ャートに示すように、ステップ30で活性か非活性かの
決定をしていない基本ユニットlを1つ選択し、次に、
ステップ31で、その基本ユニット1から出力されるす
べての内部結合に割り付けられる学習途中の重み値の学
習値α。
(l≦i≦n)を重み値格納手段12aから読み取る。
続いて、ステップ32で、その基本ユニット1に割り付
けられている判断値Tと距離関数f(α、)(基本ユニ
ソ)1毎や階層構造の段数を単位にして設定することが
可能である)とを判断データ格納手段36から読み出す
。続いて、ステップ33で、ステップ31で読み取った
重み値(n次元空間をなす)をこの読み出した距離関数
f(α8)に代入することで、読み取った重み値の原点
からの距#Kを算出する。ここで、距離関数f(α8)
は様々に定義することが可能であって、例えば、 f(α、)−(Σα、2) I/! f (αt)=MAX l al 但し、■≦i≦n
や f(α、)=Σ α8 の関数式に従って算出されることになる。
けられている判断値Tと距離関数f(α、)(基本ユニ
ソ)1毎や階層構造の段数を単位にして設定することが
可能である)とを判断データ格納手段36から読み出す
。続いて、ステップ33で、ステップ31で読み取った
重み値(n次元空間をなす)をこの読み出した距離関数
f(α8)に代入することで、読み取った重み値の原点
からの距#Kを算出する。ここで、距離関数f(α8)
は様々に定義することが可能であって、例えば、 f(α、)−(Σα、2) I/! f (αt)=MAX l al 但し、■≦i≦n
や f(α、)=Σ α8 の関数式に従って算出されることになる。
このようにして、選択された基本ユニット1の出力側の
内部結合に割り付けられる重み値のn次元重み空間にお
ける原点からの距離Kが求まると、続くステップ34で
、この距離Kがステップ32で読み出した判断値Tより
も小さいか否かを判断する。そして、判断値Tよりも小
さいと判断するときには、ステップ35に進んで選択し
た基本ユニット1が非活性なものであると決定するとと
もに、判断値Tよりも大きいと判断するときには、ステ
ップ36に進んで選択した基本ユニットlが活性なもの
と決定し、次のステップ37で、その決定結果を重み値
変更手段35aに通知する。そして、ステップ38で、
すべての基本ユニット1に対して活性か非活性かの決定
をしていないことを検出するときには、ステップ30に
戻るよう処理することで、階層ネットワーク構造部11
aのすべての基本ユニッ)lに対して活性か非活性かの
決定を実行する。
内部結合に割り付けられる重み値のn次元重み空間にお
ける原点からの距離Kが求まると、続くステップ34で
、この距離Kがステップ32で読み出した判断値Tより
も小さいか否かを判断する。そして、判断値Tよりも小
さいと判断するときには、ステップ35に進んで選択し
た基本ユニット1が非活性なものであると決定するとと
もに、判断値Tよりも大きいと判断するときには、ステ
ップ36に進んで選択した基本ユニットlが活性なもの
と決定し、次のステップ37で、その決定結果を重み値
変更手段35aに通知する。そして、ステップ38で、
すべての基本ユニット1に対して活性か非活性かの決定
をしていないことを検出するときには、ステップ30に
戻るよう処理することで、階層ネットワーク構造部11
aのすべての基本ユニッ)lに対して活性か非活性かの
決定を実行する。
このように、第1の非活性ユニット特定手段331は、
基本ユニット1の出力側の内部結合の全内部状態値の学
習値がゼロ値に近い値を持つときには、その基本ユニッ
トlは出力を出さない非活性なものであると決定してい
くよう処理するものである。
基本ユニット1の出力側の内部結合の全内部状態値の学
習値がゼロ値に近い値を持つときには、その基本ユニッ
トlは出力を出さない非活性なものであると決定してい
くよう処理するものである。
これに対して、第2の非活性ユニット特定手段332は
、非収束検出手段21からの起動要求を受け取ると、第
4図のフローチャートを実行することで、基本ユニット
1の入力側の内部結合の全内部状態値の学習値がゼロ値
に近い値を持つときには、その基本ユニットlは入力を
受け付けない非活性なものであると決定していくよう処
理するものである。第4図のフローチャートと第3図の
フローチャートとの違いは、第3図のフローチャートの
ステップ31では、選択された基本ユニット1から“出
力”されるすべての内部結合に割り付けられる学習途中
の重み値の学習値α、を読み取るのに対して、第4図の
フローチャートのステップ41では、選択された基本ユ
ニット1に“入力°゛されるすべての内部結合に割り付
けられる学習途中の重み値の学習値α、を読み取る点に
あるだけである。なお、基本ユニット1の゛閾値の学習
値は、この読み取る重み値の学習値に含めることを要し
ない。
、非収束検出手段21からの起動要求を受け取ると、第
4図のフローチャートを実行することで、基本ユニット
1の入力側の内部結合の全内部状態値の学習値がゼロ値
に近い値を持つときには、その基本ユニットlは入力を
受け付けない非活性なものであると決定していくよう処
理するものである。第4図のフローチャートと第3図の
フローチャートとの違いは、第3図のフローチャートの
ステップ31では、選択された基本ユニット1から“出
力”されるすべての内部結合に割り付けられる学習途中
の重み値の学習値α、を読み取るのに対して、第4図の
フローチャートのステップ41では、選択された基本ユ
ニット1に“入力°゛されるすべての内部結合に割り付
けられる学習途中の重み値の学習値α、を読み取る点に
あるだけである。なお、基本ユニット1の゛閾値の学習
値は、この読み取る重み値の学習値に含めることを要し
ない。
第3の非活性ユニット特定手段333は、非収束検出手
段21からの起動要求を受け取ると、第5図のフローチ
ャートに示すように、ステップ50で第2段目の中間層
の基本ユニットlのグループといったように、同じ重み
空間を持つ基本ユニットlのグループ(同一の基本ユニ
ット1群との間に内部結合するグループ)の中の1つの
グループを選択する0次に、ステップ51で、そのグル
ープに割り付けられている判断値Tと距離関数f(α1
.α゛、)(グループ毎に設定することが可能である)
とを判断データ格納手段36から読み出す。続いて、ス
テップ52で、選択したグル−ブの基本ユニットlの中
から1つの基本ユニット1を基準ユニットとして選択し
、続くステップ53で、その選択した基準ユニットを活
性化されたものと決定する。
段21からの起動要求を受け取ると、第5図のフローチ
ャートに示すように、ステップ50で第2段目の中間層
の基本ユニットlのグループといったように、同じ重み
空間を持つ基本ユニットlのグループ(同一の基本ユニ
ット1群との間に内部結合するグループ)の中の1つの
グループを選択する0次に、ステップ51で、そのグル
ープに割り付けられている判断値Tと距離関数f(α1
.α゛、)(グループ毎に設定することが可能である)
とを判断データ格納手段36から読み出す。続いて、ス
テップ52で、選択したグル−ブの基本ユニットlの中
から1つの基本ユニット1を基準ユニットとして選択し
、続くステップ53で、その選択した基準ユニットを活
性化されたものと決定する。
次に、ステップ54で、未決定未選択の基本ユニット1
の中から基本ユニット1を1つ選択し、続くステップ5
5で、重み値格納手段12aから読み取られる学習途中
の基準ユニットの重み値α、(n次元空間をなす)とこ
の選択された基本ユニット1の重み値α′、(n次元空
間をなす)とを読み出した距離間数r(α1.α”、)
に代入することで、基準ユニットとステップ54で選択
された基本ユニット1との間の距離Kを算出する。ここ
で、闇値については重み値に含めることが好ましいが、
寄与度が小さいことがら含めないようにするものであっ
てもよい。また、距離関数f(α。
の中から基本ユニット1を1つ選択し、続くステップ5
5で、重み値格納手段12aから読み取られる学習途中
の基準ユニットの重み値α、(n次元空間をなす)とこ
の選択された基本ユニット1の重み値α′、(n次元空
間をなす)とを読み出した距離間数r(α1.α”、)
に代入することで、基準ユニットとステップ54で選択
された基本ユニット1との間の距離Kを算出する。ここ
で、闇値については重み値に含めることが好ましいが、
寄与度が小さいことがら含めないようにするものであっ
てもよい。また、距離関数f(α。
α“、)は様々に定義することが可能であって、例えば
、 f (cri+α’t) =[Σ(llri −α’
i)”] ”’や f(α8.α 、)=MAX1α、−α′。
、 f (cri+α’t) =[Σ(llri −α’
i)”] ”’や f(α8.α 、)=MAX1α、−α′。
但し、1≦l≦n
や
f(αllα°l)=Σ]α1−α′。
の関数式に従って算出されることになる。
基準ユニットとステップ54で選択された基本ユニット
1との間の距離Kが求まると、続くステップ56で、こ
の距離Kがステップ51で読み出した判断値Tよりも小
さいが否かを判断する。そして、判断値Tよりも小さい
と判断するときには、ステップ57に進んで、選択した
基本ユニット1が基準ユニットと同一の機能(基準ユニ
ットの重み値を増加すれば省略できる機能である)を果
たすものに過ぎないことから非活性化なものであると決
定し、一方、判断値Tよりも大きいと判断するときには
、何も決定せずに未決定のままにしておく。そして、続
くステップ58で、未決定の基本ユニン)1のすべてを
選択したか否かを判断して、選択されていないものがあ
るときにはステップ54に戻るよう処理する。
1との間の距離Kが求まると、続くステップ56で、こ
の距離Kがステップ51で読み出した判断値Tよりも小
さいが否かを判断する。そして、判断値Tよりも小さい
と判断するときには、ステップ57に進んで、選択した
基本ユニット1が基準ユニットと同一の機能(基準ユニ
ットの重み値を増加すれば省略できる機能である)を果
たすものに過ぎないことから非活性化なものであると決
定し、一方、判断値Tよりも大きいと判断するときには
、何も決定せずに未決定のままにしておく。そして、続
くステップ58で、未決定の基本ユニン)1のすべてを
選択したか否かを判断して、選択されていないものがあ
るときにはステップ54に戻るよう処理する。
ステップ58の判断ですべて選択したと判断するときに
は、続くステップ59で、ステップ5゜で選択したグル
ープの基本ユニット1の内に未決定の基本ユニット1が
残されているか否かを判断して、残されているときには
、ステップ52に戻って、その残されているものの中か
ら基準ユニットを選択して、その残されているものの中
でその選択された基準ユニットと同一の機能を果たす余
剰の基本ユニット1があるか否かを調べていくよう処理
する。そして、ステップ59の判断で未決定の基本ユニ
ット1が残されていないことを判断するときには、ステ
ップ60に進んで、同じ重み空間を持つ基本ユニット1
のグループのすべてを処理したのかを判断して、処理し
ていないことを検出するときには、ステップ50に戻る
よう処理することで、階層ネットワーク構造部11aの
すべての基本ユニット1に対して活性か非活性かの決定
を実行して、ステップ61でその決定結果を重み値変更
手段35aに通知する。
は、続くステップ59で、ステップ5゜で選択したグル
ープの基本ユニット1の内に未決定の基本ユニット1が
残されているか否かを判断して、残されているときには
、ステップ52に戻って、その残されているものの中か
ら基準ユニットを選択して、その残されているものの中
でその選択された基準ユニットと同一の機能を果たす余
剰の基本ユニット1があるか否かを調べていくよう処理
する。そして、ステップ59の判断で未決定の基本ユニ
ット1が残されていないことを判断するときには、ステ
ップ60に進んで、同じ重み空間を持つ基本ユニット1
のグループのすべてを処理したのかを判断して、処理し
ていないことを検出するときには、ステップ50に戻る
よう処理することで、階層ネットワーク構造部11aの
すべての基本ユニット1に対して活性か非活性かの決定
を実行して、ステップ61でその決定結果を重み値変更
手段35aに通知する。
このように、第3の非活性ユニット特定手段333は、
階層ネットワーク構造部11aの基本ユニットlに対し
て同一の機能を果たすもの同士をグルーピングして、そ
のグルーピングした基本ユニット1の内の1つのみを活
性化されたものと決定するとともに、残りの基本ユニッ
ト1を非活性なものであると決定していくよう処理する
ものである。
階層ネットワーク構造部11aの基本ユニットlに対し
て同一の機能を果たすもの同士をグルーピングして、そ
のグルーピングした基本ユニット1の内の1つのみを活
性化されたものと決定するとともに、残りの基本ユニッ
ト1を非活性なものであると決定していくよう処理する
ものである。
第4の非活性ユニット特定手段334は、非収束検出手
段21からの起動要求を受け取ると、第6図のフローチ
ャートに示すように、ステップ70で活性か非活性かの
決定をしていない基本ユニット1を1つ選択し、次に、
ステップ71で、その基本ユニット1に割り付けられて
いる判断値T(基本ユニット1毎や階層構造の段数を単
位にして設定することが可能である)を判断データ格納
手段36から読み出す。続いて、ステップ72で、学習
信号提示手段23に対して階層ネットワーク構造部11
aへの学習提示信号の提示を指示するとともに、この指
示に応答して出力される選択をした基本ユニット1から
の出力値の最大値と最小値とを求めるよう処理する。そ
して、続くステップ73で、この求めた最大値と最小値
の差分値がステップ71で読み取った判断値Tより小さ
いか否かを判断して、判断値γより小さいと判断すると
きには、ステップ74に進んで選択した基本ユニット1
が非活性なものであると決定するとともに、判断値γよ
りも大きいと判断するときには、ステップ75に進んで
選択した基本ユニ、ト1が活性なものと決定し、次のス
テップ76で、その決定結果を重み値変更手段35aに
通知する。そして、ステップ77で、すべての基本ユニ
ット1に対して活性か非活性かの決定をしていないこと
を検出するときには、ステップ70に戻るよう処理する
ことで、階層ネットワーク構造部11aのすべての基本
ユニット1に対して活性か非活性かの決定を実行する。
段21からの起動要求を受け取ると、第6図のフローチ
ャートに示すように、ステップ70で活性か非活性かの
決定をしていない基本ユニット1を1つ選択し、次に、
ステップ71で、その基本ユニット1に割り付けられて
いる判断値T(基本ユニット1毎や階層構造の段数を単
位にして設定することが可能である)を判断データ格納
手段36から読み出す。続いて、ステップ72で、学習
信号提示手段23に対して階層ネットワーク構造部11
aへの学習提示信号の提示を指示するとともに、この指
示に応答して出力される選択をした基本ユニット1から
の出力値の最大値と最小値とを求めるよう処理する。そ
して、続くステップ73で、この求めた最大値と最小値
の差分値がステップ71で読み取った判断値Tより小さ
いか否かを判断して、判断値γより小さいと判断すると
きには、ステップ74に進んで選択した基本ユニット1
が非活性なものであると決定するとともに、判断値γよ
りも大きいと判断するときには、ステップ75に進んで
選択した基本ユニ、ト1が活性なものと決定し、次のス
テップ76で、その決定結果を重み値変更手段35aに
通知する。そして、ステップ77で、すべての基本ユニ
ット1に対して活性か非活性かの決定をしていないこと
を検出するときには、ステップ70に戻るよう処理する
ことで、階層ネットワーク構造部11aのすべての基本
ユニット1に対して活性か非活性かの決定を実行する。
このように、第4の非活性ユニット特定手段334は、
階層ネットワーク構造部11aに入力される入力パター
ンに対して殆ど出力値を変化させない基本ユニット1は
データ処理に寄与していない非活性なものであると決定
していくよう処理するものである。
階層ネットワーク構造部11aに入力される入力パター
ンに対して殆ど出力値を変化させない基本ユニット1は
データ処理に寄与していない非活性なものであると決定
していくよう処理するものである。
次に、第7図のフローチャートに従って、非活性として
検出された基本ユニット1の通知を受け取る重み値変更
手段35aの実行する処理について説明する。
検出された基本ユニット1の通知を受け取る重み値変更
手段35aの実行する処理について説明する。
重み値変更手段35aは、非活性ユニット特定手段33
aから非活性な基本ユニットlの識別子を受け取ると、
第7図のフローチャートに示すように、ステップ80で
、通知された非活性な基本ユニット1の中から1つの基
本ユニットlを選択する処理を実行する0次に、ステッ
プ81で、重み値格納手段12aからその選択された基
本ユニット1の入出力の内部結合に割り付けられる重み
値(闇値も含む)を読み取る。そして、続くステップ8
2で、オペレータからの指定されるモードに従って、読
み取った重み値(闇値)の中から初期化対象とする重み
値(闇値)を決定する。すなわち、オペレータから重み
値のみを初期化対象にするという指示があれば、読み取
った重み値のみを初期化対象と決定し、また、オペレー
タから闇値のみを初期化対象にするという指示があれば
、読み取った闇値値のみを初期化対象と決定し、また、
オペレータから特定の割合の重み値を初期化対象にする
という指示があれば、読み取った重み値の内のその割合
の重み値を初期化対象と決定し、また、オペレータから
特定の割合の闇値を初期化対象にするという指示があれ
ば、読み取った閾値の内のその割合の闇値を初期化対象
と決定するように処理するのである。
aから非活性な基本ユニットlの識別子を受け取ると、
第7図のフローチャートに示すように、ステップ80で
、通知された非活性な基本ユニット1の中から1つの基
本ユニットlを選択する処理を実行する0次に、ステッ
プ81で、重み値格納手段12aからその選択された基
本ユニット1の入出力の内部結合に割り付けられる重み
値(闇値も含む)を読み取る。そして、続くステップ8
2で、オペレータからの指定されるモードに従って、読
み取った重み値(闇値)の中から初期化対象とする重み
値(闇値)を決定する。すなわち、オペレータから重み
値のみを初期化対象にするという指示があれば、読み取
った重み値のみを初期化対象と決定し、また、オペレー
タから闇値のみを初期化対象にするという指示があれば
、読み取った闇値値のみを初期化対象と決定し、また、
オペレータから特定の割合の重み値を初期化対象にする
という指示があれば、読み取った重み値の内のその割合
の重み値を初期化対象と決定し、また、オペレータから
特定の割合の闇値を初期化対象にするという指示があれ
ば、読み取った閾値の内のその割合の闇値を初期化対象
と決定するように処理するのである。
続いて、重み値変更手段35aは、ステップ83で、初
期化対象とする重み値(闇値)と初期化対象としない重
み値(闇値)とを振り分けて、初期化対象とする重み値
(閾値)については、続くステップ84で、乱数発生手
段34により発生される乱数値を新たな重み値(閾値)
として設定して、重み値格納手段12aの対応する重み
値(閾値)を書き換える処理を実行する。そして、続く
ステップ85で、ステップ81で読み取った重み41!
(閾値)のすべてを処理したかを判断して、処理して
いないと判断するときにはステップ81に戻るよう処理
する。一方、初期化対象としない重み値(閾値)につい
ては、ステップ84の処理を実行することなくステップ
85に進むよう処理する。そして、ステップ85で、ス
テップ81で読み取った重み値(閾値)のすべてを処理
したと判断するときには、続くステップ86で、非活性
ユニット特定手段33aから通知された非活性な基本ユ
ニッ)1のすべてを処理したのかを判断して、処理して
いないと判断するときにはステップ80に戻るよう処理
する。
期化対象とする重み値(闇値)と初期化対象としない重
み値(闇値)とを振り分けて、初期化対象とする重み値
(閾値)については、続くステップ84で、乱数発生手
段34により発生される乱数値を新たな重み値(閾値)
として設定して、重み値格納手段12aの対応する重み
値(閾値)を書き換える処理を実行する。そして、続く
ステップ85で、ステップ81で読み取った重み41!
(閾値)のすべてを処理したかを判断して、処理して
いないと判断するときにはステップ81に戻るよう処理
する。一方、初期化対象としない重み値(閾値)につい
ては、ステップ84の処理を実行することなくステップ
85に進むよう処理する。そして、ステップ85で、ス
テップ81で読み取った重み値(閾値)のすべてを処理
したと判断するときには、続くステップ86で、非活性
ユニット特定手段33aから通知された非活性な基本ユ
ニッ)1のすべてを処理したのかを判断して、処理して
いないと判断するときにはステップ80に戻るよう処理
する。
このようにして、非活性と判断された基本ユニット1の
内部結合に割り付けられる重み値(閾値)を変更すると
、重み値変更’FFj35 aは、学習信号提示手段2
3に対して学習信号の再提示を指示することで、収束し
なかった学習処理の再実行を指示するのである。このよ
うにして、再起動されるときにあって、非活性なものと
して判断された基本ユニット1は、別な重み値(闇値)
をもつ基本ユニットlとして活性化されることになるこ
とから、収束しなかった重み値(闇値)が収束するこ値
)が求められることになるのである。
内部結合に割り付けられる重み値(閾値)を変更すると
、重み値変更’FFj35 aは、学習信号提示手段2
3に対して学習信号の再提示を指示することで、収束し
なかった学習処理の再実行を指示するのである。このよ
うにして、再起動されるときにあって、非活性なものと
して判断された基本ユニット1は、別な重み値(闇値)
をもつ基本ユニットlとして活性化されることになるこ
とから、収束しなかった重み値(闇値)が収束するこ値
)が求められることになるのである。
図示実施例について説明したが、本発明はこれに限定さ
れるものでない。例えば、本出願人は、先に出願の[特
願昭63−227825号(昭和63年9月12日出願
、“ネットワーク構成データ処理装置の。
れるものでない。例えば、本出願人は、先に出願の[特
願昭63−227825号(昭和63年9月12日出願
、“ネットワーク構成データ処理装置の。
学習処理方式′)」で、バック・プロパゲーション法の
改良を図ってより短時間で重み値の学習処理を実現でき
るようにする発明を開示したが、本発明はこのような改
良されたハック・プロパゲーション法やバック・プロパ
ゲーション法以外の別の重み値の学習方式も利用するこ
とができる。また、本発明は階層ネットワーク構成デー
タ処理装置に限られることなく、他の77トワーク構成
データ処理装置に対してもそのまま通用できるのである
。
改良を図ってより短時間で重み値の学習処理を実現でき
るようにする発明を開示したが、本発明はこのような改
良されたハック・プロパゲーション法やバック・プロパ
ゲーション法以外の別の重み値の学習方式も利用するこ
とができる。また、本発明は階層ネットワーク構成デー
タ処理装置に限られることなく、他の77トワーク構成
データ処理装置に対してもそのまま通用できるのである
。
そして、本発明の適用を受けるニューロンは、実施例で
説明したような闇値変換処理を行う基本ユニ、トに限ら
れるものではなく、他の関数変換処理を行うものであっ
てもよいのである。
説明したような闇値変換処理を行う基本ユニ、トに限ら
れるものではなく、他の関数変換処理を行うものであっ
てもよいのである。
〔発明の効果]
以上説明したように、本発明によれば、ネットワーク構
成データ処理装置における重み値の学習処理において、
ネットワーク構造部の出力層から出力される出力パター
ンが所望の教師パターンに収束しないことが起きても、
学習を最初から再実行したり、ネットワーク構造部の構
造を変更しなくてもその収束を可能とすることができる
ようになるのである。
成データ処理装置における重み値の学習処理において、
ネットワーク構造部の出力層から出力される出力パター
ンが所望の教師パターンに収束しないことが起きても、
学習を最初から再実行したり、ネットワーク構造部の構
造を変更しなくてもその収束を可能とすることができる
ようになるのである。
第1図は本発明の原理構成図、
第2図は本発明の一実施例、
第3図は第1の非活性ユニット特定手段の実行するフロ
ーチャート、 第4図は第2の非活性ユニット特定手段の実行するフロ
ーチャート、 第5図は第3の非活性ユニット特定手段の実行するフロ
ーチャート、 第6図は第4の非活性ユニット特定手段の実行するフロ
ーチャート、 第7図は重み値変更手段の実行するフローチャート、 第8図は基本ユニットの基本構成図、 第9図は階層ネットワーク構造部の基本構成図である。 図中、■は基本ユニット、10はネ・7トワーク構成デ
ータ処理装置、10aは階層ネットワーク構成データ処
理装置、11はネットワーク構造部、11aは階層ネッ
トワーク構造部、12は内部状態値格納手段、12aは
重み値格納手段、20及び20aは学習処理装置、21
は非収束検出手段、30はニューロン活性化装置、30
aはユニ、ト活性化装置、33は非活性ニューロン特定
手段、33aは非活性ユニット特定手段、35は内部状
態値変更手段、35a重み値変更手段である。
ーチャート、 第4図は第2の非活性ユニット特定手段の実行するフロ
ーチャート、 第5図は第3の非活性ユニット特定手段の実行するフロ
ーチャート、 第6図は第4の非活性ユニット特定手段の実行するフロ
ーチャート、 第7図は重み値変更手段の実行するフローチャート、 第8図は基本ユニットの基本構成図、 第9図は階層ネットワーク構造部の基本構成図である。 図中、■は基本ユニット、10はネ・7トワーク構成デ
ータ処理装置、10aは階層ネットワーク構成データ処
理装置、11はネットワーク構造部、11aは階層ネッ
トワーク構造部、12は内部状態値格納手段、12aは
重み値格納手段、20及び20aは学習処理装置、21
は非収束検出手段、30はニューロン活性化装置、30
aはユニ、ト活性化装置、33は非活性ニューロン特定
手段、33aは非活性ユニット特定手段、35は内部状
態値変更手段、35a重み値変更手段である。
Claims (4)
- (1)1つ又は複数の入力と該入力に対して乗算される
べき内部状態値とを受け取って積和値を得るとともに、
該積和値を所定の関数によって変換して出力値を得るニ
ューロンの内部結合により構成されるネットワーク構造
部(11)に従って、入力パターンに対応する出力パタ
ーンを算出して出力するネットワーク構成データ処理装
置(10)と、学習対象の入力パターン群を上記ネット
ワーク構成データ処理装置(10)に提示するとともに
、該提示に従って出力される上記ネットワーク構成デー
タ処理装置(10)からの出力パターン群と、該出力パ
ターン群のとるべきパターンを示す教師パターン群との
間の誤差値を算出し、該誤差値に基づいて内部状態値を
順次更新していくことで該誤差値が許容範囲となる内部
状態値を学習する学習処理装置(20)とを備えるネッ
トワーク構成データ処理システムにおいて、 内部状態値の学習途中において、非活性なニューロンと
して動作するニューロンを特定する非活性ニューロン特
定手段(33)と、 該非活性ニューロン特定手段(33)により特定された
ニューロンに関しての内部結合に割り付けられる内部状
態値のすべて若しくは一部に対して、乱数発生手段(3
4)により発生される乱数値を設定する内部状態値変更
手段(35)とを備えることで、学習途中の非活性なニ
ューロンを活性化して内部状態値の学習の実現を図るよ
う構成されてなることを、 特徴とするネットワーク構成データ処理装置の学習処理
方式。 - (2)請求項(1)記載のネットワーク構成データ処理
装置の学習処理方式において、 非活性ニューロン特定手段(33)は、入力若しくは出
力の内部結合に割り付けられる全内部状態値がゼロ値に
近いものをもつニューロンを非活性なニューロンとして
特定することを、 特徴とするネットワーク構成データ処理装置の学習処理
方式。 - (3)請求項(1)記載のネットワーク構成データ処理
装置の学習処理方式において、 非活性ニューロン特定手段(33)は、入出力先が同じ
形態をとるニューロン群の内、入出力の内部結合に割り
付けられる内部状態値が概略同一値をとるニューロン群
の1つ以外のニューロンを非活性なニューロンとして特
定することを、 特徴とするネットワーク構成データ処理装置の学習処理
方式。 - (4)請求項(1)記載のネットワーク構成データ処理
装置の学習処理方式において、 非活性ニューロン特定手段(33)は、学習用の入力パ
ターン群の提示に応答して出力する出力値の変化が小さ
いニューロンを非活性なニューロンとして特定すること
を、 特徴とするネットワーク構成データ処理装置の学習処理
方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2045250A JPH03246747A (ja) | 1990-02-26 | 1990-02-26 | ネットワーク構成データ処理装置の学習処理方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2045250A JPH03246747A (ja) | 1990-02-26 | 1990-02-26 | ネットワーク構成データ処理装置の学習処理方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03246747A true JPH03246747A (ja) | 1991-11-05 |
Family
ID=12714025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2045250A Pending JPH03246747A (ja) | 1990-02-26 | 1990-02-26 | ネットワーク構成データ処理装置の学習処理方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH03246747A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017129896A (ja) * | 2016-01-18 | 2017-07-27 | 富士通株式会社 | 機械学習装置、機械学習方法及び機械学習プログラム |
-
1990
- 1990-02-26 JP JP2045250A patent/JPH03246747A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017129896A (ja) * | 2016-01-18 | 2017-07-27 | 富士通株式会社 | 機械学習装置、機械学習方法及び機械学習プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3685319B1 (en) | Direct access, hardware acceleration in neural network | |
Denoeux et al. | Initializing back propagation networks with prototypes | |
US5606646A (en) | Recurrent neural network-based fuzzy logic system | |
Austin | Distributed associative memories for high-speed symbolic reasoning | |
KR20190092043A (ko) | 추론 과정 설명이 가능한 시각 질의 응답 장치 및 방법 | |
JPH07121495A (ja) | 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法 | |
US20230394781A1 (en) | Global context vision transformer | |
US20220292349A1 (en) | Device and computer-implemented method for the processing of digital sensor data and training method therefor | |
Anderson et al. | Reinforcement learning with modular neural networks for control | |
Unal et al. | A fuzzy finite state machine implementation based on a neural fuzzy system | |
JPH03246747A (ja) | ネットワーク構成データ処理装置の学習処理方式 | |
Owechko et al. | Comparison of neural network and genetic algorithms for a resource allocation problem | |
Rossi et al. | Geometrical initialization, parametrization and control of multilayer perceptrons: application to function approximation | |
CN113821471A (zh) | 神经网络的处理方法和电子装置 | |
JP2877413B2 (ja) | 余剰ニューロン決定処理方式 | |
Chen et al. | A learning artificial visual system for motion direction detection | |
US11586895B1 (en) | Recursive neural network using random access memory | |
Madani et al. | Hybrid neural-based decision level fusion architecture: application to road traffic collision avoidance | |
Moh et al. | A general purpose model for image operations based on multilayer perceptrons | |
CN113239077B (zh) | 一种基于神经网络的搜索方法、系统和计算机可读存储介质 | |
EP4181019A1 (en) | Convolutional neural network processing system and method | |
US12124882B2 (en) | Method and apparatus for lightweight and parallelization of accelerator task scheduling | |
Murakami et al. | A fast structural optimization technique for IDS modeling | |
JPH05128285A (ja) | ニユーロプロセツサ | |
KR20230101577A (ko) | 대규모 입력 뉴런 처리가 가능한 크로스바 기반의 뉴로모픽 컴퓨팅 장치 및 이를 이용한 방법 |