JPH03288258A - データ処理装置の学習方法 - Google Patents

データ処理装置の学習方法

Info

Publication number
JPH03288258A
JPH03288258A JP2088162A JP8816290A JPH03288258A JP H03288258 A JPH03288258 A JP H03288258A JP 2088162 A JP2088162 A JP 2088162A JP 8816290 A JP8816290 A JP 8816290A JP H03288258 A JPH03288258 A JP H03288258A
Authority
JP
Japan
Prior art keywords
layer
output
neuron
input
intermediate layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2088162A
Other languages
English (en)
Inventor
Sunao Takatori
直 高取
Makoto Yamamoto
誠 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TAKAYAMA KK
Original Assignee
TAKAYAMA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TAKAYAMA KK filed Critical TAKAYAMA KK
Priority to JP2088162A priority Critical patent/JPH03288258A/ja
Priority to DE69124813T priority patent/DE69124813T2/de
Priority to EP91105033A priority patent/EP0450521B1/en
Priority to KR1019910005357A priority patent/KR910018921A/ko
Publication of JPH03288258A publication Critical patent/JPH03288258A/ja
Priority to US08/058,049 priority patent/US5430829A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ニューラルネットワークの概念を基礎とする
データ処理装置に関する。
〔従来の技術〕
この種のデータ処理装置におけるニューラルネットワー
クは、第3図に示す神経細胞モデル(以下、ニューロン
という)1を、並列に設けて層状に構成される。各層の
ニューロンは隣接する他の層の全てのニューロンにシナ
プス結合して、データの入出力を行う。すなわちニュー
ロン1において、外部から入力されるデータIt、Iz
、■3・・・Inにはそれぞれ重みW+ SWz 、W
s・・・Wnが掛けられ、これらの総和と閾値θとの比
較結果に応じたデータ0が出力される。
この比較方法としては種々のものが可能であるが、例え
ば正規化関数1 [f)を採用すると、出力データ0は
、 O=1 〔ΣWn−Jn−〇〕・・・・・(1)と表さ
れる。すなわち、ΣWn・Inが閾値0以上の時そのニ
ューロンは発火して出力データ0は「1」となり、また
ΣWn・Inが閾値θより小さい時出力データ0はrQ
、となる。
従来のニューラルネットワークは、このようなニューロ
ンを並列に設けてニューラルレイヤを形成するとともに
、このニューラルレイヤを直列に接続して構成される。
ニューラルレイヤは例えば、ローゼンブラット(Ros
enblatt)が提案したパーセプトロンのように3
層すなわち入力層、中間層および出力層から成り、各層
のニューロンは隣接する他の層の全てのニューロンにシ
ナプス結合する。
〔発明が解決しようとする課題〕
このようなデータ処理装置において各ニューロンのシナ
プス重みを最適化する操作は「学習」と呼ばれ、その実
現の保証と効率化は重要な課題である。例えば、近年注
目を集めているバックプロパゲーション法では、ローカ
ルミニマムからの脱出と、収束時間が問題点として残さ
れている。特に多数の中間層を含むニューラルネットワ
ークにおいてその傾向が大である。
本発明はこのような従来の問題点を解消すべく創案され
たもので、中間層に対し効率的学習を施し得る学習方法
を提供することを目的とする。
〔課題を解決するための手段〕
本発明に係る学習方法は、入力層の発火パターンと出力
層の発火パターンとを複数の入出力について人為的に決
定し、各入出力について、中間層が入力層、出力層両者
の発火パターンに対する最小近似となる傾向を持つよう
に、中間層および出力層のシナプスの重みを決定し、1
個の中間層の学習が所定段階まで終了したときに、新た
に中間層を追加し、これに対しても同様の学習を施し、
逐次中間層を増加させるものである。ここに入出力層の
ニューロン数はその1回のデータ容量により決定され、
処理し得るデータ個数はニューラルネットワーク全体の
ニューロン数により決定される。したがって多くのデー
タの処理のためには中間層の増大は必須である。なお最
小近似の求め方としては最小二乗近似等が考えられる。
〔実施例] 以下図示実施例により本発明を説明する。
第1図は、本発明の一実施例に係る学習方法を適用した
データ処理装置を有する文字認識システムを示す。この
文字認識システムは、ビデオカメラ10、前処理装置2
0、データ処、理装置3o、後処理装置40およびデイ
スプレィ50を備える。
ビデオカメラ10は文字を入力するために設けられ、前
処理装置20に接続される。前処理装置20は例えば従
来公知の画像処理装置であり、入力された文字の特徴デ
ータ(例えば端点数、分岐点数等)を抽出し、この特徴
データをデータ処理装置30に出力する。データ処理装
置30は、後述するようにニューラルネットワークを構
成し、前処理装置20から入力された文字の特徴データ
に基づいてその文字を認識し、この認識結果に応じたデ
ータを後処理装置40に出力する。認識信号は例えばキ
ャラクタコードであり、後処理装置40はこの出力デー
タを例えばワープロデータとして格納し、同時にデイス
プレィ5oに出力する。
デイスプレィ50は例えばCRTから構成され、データ
処理装置30により認識された文字を画面上に表示する
データ処理装置30を構成するニューラルネットワーク
はコンピュータのハードウェアの一部として構成される
。このデータ処理装置30は第1図において模式的に表
されており、この図から理解されるように入力層31、
中間層32および出力層33を有し、中間層32は入力
層31および出力層33の間に配設される。各層31.
32.33は本実施例において、それぞれ同数のニュー
ロンNを有し、入力層31のニューロンNは中間層32
の全てのニューロンNに接続され、また中間層32のニ
ューロンNは出力層33の全てのニューロンNに接続さ
れる。
各ニューロンNは第3図を参照して上述したように、(
1)式の正規化関数に基づき、rl」または「0」のデ
ータを出力する。ニューロンNは例えばオペアンプから
構成され、また各ニューロンNへ入力されるデータに乗
じられる重みWnは、例えば、オペアンプの入力端子に
接続された可変抵抗により得られる。また閾値関数はス
イッチング素子等によって実現される。すなわち各ニュ
ーロンの出力データに応じて可変抵抗の大きさを変化さ
せることにより、重みWnが変化せしめられ、出力デー
タが補正されて学習制御が行われる。
第2図は入力層31、中間層32および出力層33を模
式的に表したもので、各層31.32.33は相互に同
数のニューロンを有している。ここでは説明の簡単のた
め、各層31.32.33のニューロン数は36個とし
、また各層においてニューロンは横方向に6個、縦方向
に6個配列されている。ここで、図の左下隅のニューロ
ンの位置を原点とし、左からi番目、下からj番目に位
置するニューロンをN工、とする。
入力層31の各ニューロンは、ビデオカメラ10を介し
て得られる文字の特徴データによって発火する。例えば
N8、NI□、Nz0、N2tの発火の組合せによって
端点数が表され、N1ff、NI4、N23、N24の
発火の組合せによって分岐点数が表されるとする。すな
わち、入力層31のニューロンの発火パターンは入力さ
れる文字に応じて人為的に決定される。
一方出力層33では、例えば、左下隅と右上隅のニュー
ロンを結ぶ対角線上のニューロンN i iにより文字
が表される。すなわちこの対角線上のニューロンは、そ
の文字のキャラクタコードを表し、出力層33のニュー
ロンの発火パターンは人為的に決定される。本実施例に
おいて、対角線上のニューロンN i iの発火パター
ンの種類は64通りあり、したがって本実施例では64
種類の文字を認識することができ、例えばアルファベッ
トの認識が可能である。
さて文字認識の学習が行われる前においては、データ処
理装置30に文字データが入力されても、出力Iw33
のニューロンは発火しない。このニューロンは、学習に
よって発火が可能となり、入力された文字データに応じ
た所定の発火パターンを呈するようになると、学習は終
了する。なお学習用の入出カバターンはニューラルネッ
トワークで処理すべきデータの代表データであり、実際
に処理すべきデータは広範囲に渡る。そして学習は、こ
の代表入出力データに対する連想が適正に行われるまで
実行される。しかして学習が終了すると、入力層31お
よび出力層33は入力された文字データに応じて上述し
たように人為的に定められる発火パターンを呈すること
となる。そして、入力層31、中間層32および出力層
33の各層における発火パターンはこれらの層31.3
2.33にわたってスムーズに変化していくと推定され
る。
そこで本発明では、学習の過程において、これらの層に
おける発火パターンがスムーズに変化するように、中間
層32および出力層33の重みを変化させている。
次に、本発明の第1実施例に係る学習方法を説明する。
ここで図の左下隅のニューロンの位置を原点とし、入力
層31において左からi番目、下からj番目に位置する
ニューロンN i jの出力データをa8、とする。同
様に、中間層32におけるニューロンN1.の出力デー
タをb ijとし、出力層33におけるニューロンN 
i jの出力データをC4jとする。
各層31.32.33の各ニューロンの出力データの差
の二乗の和fは、 f=Σ ((a i=−b t、)”+ (b =J−
c t=)”)と表される。すなわちこの二乗和fは、
発火パターン間の関係における二乗距離である。ただし
Σは、iおよびjについて1から6までの和をとること
を示す。
aijおよびCijは入力文字が決まれば一定に定まり
、b ijだけが未知である。したがって二乗和fが最
小値になる時のb ijは公知の手法、例えば最小二乗
法により容易に得られる。文字認識の学習において、中
間層32および出力層33の各ニューロンの重みは、こ
のようにして得られたb ijすなわち発火パターンが
得られるように、所定値だけ増加せしめられる。
これを第3図を用いて具体的に説明すると、中間層のニ
ューロン1の出力データo(b、j)が発火時の値(例
えば「1」)であれば、そのニューロンlに結合してい
る入力層のニューロンのうち、発火しているニューロン
から入力されるデータ(例えば「I2」と’Iz」)に
対するシナプス重み(この場合「W2」と「W、」)が
、例えば5%だけ増加せしめられる。出力層のニューロ
ンのシナプス重みについても同様に処理され、上述した
ように最小二乗法によって発火すべきであるとされた中
間層のニューロンに対するシナプス重みが、例えば5%
だけ増加せしめられる。
しかして、入力層31、中間層32および出力層33の
各層間において発火パターンが最もスムーズに変化する
ように、中間層32および出力層33の重みが増加せし
められる。ここで、入力層31および出力層33の各ニ
ューロンが全ての入力文字に関してできるだけ同じ頻度
で発火するように定めておけば、中間層32の各ニュー
ロンも均等に発火することが可能となる。これによって
、ローカルミニマムへの落ち込みを防止することが可能
となり、また中間層31の各ニューロンは、それぞれ略
均等に発火することとなる。すなわち発火しないニュー
ロンの発生を回避することが可能となり、中間層32の
ニューロンを効率的に作用させることができる。
なお1回の学習におけるシナプス重みの増加は学習回数
に対して第4図のように変化し、複数回の学習により徐
々に全体系の学習が行われるとともに、学習終期には微
小変化による微調整が行われる。また初期の重みの急増
により学習速度が高められる。
上記実施例において、中間層32は入力層31と出力層
33に接続され、暦数は3であった。しかし、本発明は
3層のニューラルネットワークに限定されるものではな
く、4層以上のニューラルレイヤを有するニューラルネ
ットワークにも適用可能である。この場合、まず中間層
を一つ選択しておき、この中間層のニューロンの発火パ
ターンと入力層31および出力層33の発火パターンと
の二乗和が最小となるように、中間層および出力層のニ
ューロンのシナプス重みを増加させる。そして、全ての
入力文字に対する学習が所定段階まで終了した時点で、
第2の中間層の発火パターンが、この中間層に隣接する
他の2層(第1の中間層と入力層または出力層)の発火
パターンに基づいて二乗和が最小になるように、第2の
中間層と出力層のニューロンのシナプス重みを増加させ
、学習を行う。しかして4層の場合の重み分布が得られ
る。5層以上の場合も同様である。
入力層31、中間層32および出力層33の各層間にお
いて発火パターンがスムーズに変化するような、中間層
32および出力層33の重み分布の決定方法は、上述し
た第1実施例のものに限定されず、その他種々の方法が
考えられる。
例えば第2実施例として、各層のニューロ7(7)出力
データの差の絶対値を考慮してもよい。すなわち、入力
層31のニューロンの出力データと中間層32のニュー
ロンの出力データとの差の絶対値1aij  biJl
と、中間層32のニューロンの出力データと出力層33
のニューロンの出力データとの差の絶対値1b==  
C1jlとを全てのニューロンについて合計した値f、
すなわちハミング距離 f=Σ(l a、j  biJl +l biJC=、
1)を考慮する。なお本実施例では、Σはiおよびjに
ついて1から6までの和をとることを示す。
aijおよびC=jは入力文字が決まれば一部に定まり
、b ijだけが未知である。したがってハミング距離
fが最小値になる時のb ijは公知の手法により容易
に得られる。文字認識の学習において、中間層32およ
び出力層33の各ニューロンの重みは、このようにして
得られたb□jすなわち発火パターンが得られるように
、所定値だけ増加せしめられる。
これを第3図を用いて具体的に説明すると、中間層のニ
ューロンlの出力データo(b、、)が発火時の値(例
えば「1」)であれば、そのニューロン1に結合してい
る入力層のニューロンのうち、発火しているニューロン
から入力されるデータ(例えば「I2」と’I+」)に
対するシナプス重み(この場合「Wt」と’W3J)が
、例えば5%だけ増加せしめられる。出力層のニューロ
ンのシナプス重みについても同様に処理され、上述した
ようにハミング距離を用いて発火すべきであるとされた
中間層のニューロンに対するシナプス重みが、例えば5
%だけ増加せしめられる。
この第2実施例によっても、第1実施例と同様な効果が
得られる。
また第2実施例も、第1実施例と同様に、3層のニュー
ラルネットワークに限定されるものではなく、4層以上
のニューラルレイヤを有するニューラルネットワークに
も適用可能である。この場合、まず第1の中間層を選択
し、入力層31の各ニューロンの出力データと第1の中
間層の各ニューロンの出力データとの差の絶対値と、第
1の中間層の各ニューロンの出力データと出力層33の
各ニューロンの出力データとの差の絶対値との和が最小
となるように、つまりハミング距離が最小になるように
、第1の中間層および出力層のシナプス重みを増加させ
る。そして全ての入力文字について学習が所定段階まで
終了すると、新たに第2の中間層を追加し、この第2の
中間層についても同様にして、ハミング距離が最小にな
るように、第2の中間層およびこの中間層の出力側に結
合された層(出力層または第1の中間層)におけるシナ
プス重みを増加させる。しかして4層の場合の重み分布
が得られる。5層以上の場合も同様である。
次に、本発明の第3実施例を説明する。
各層31.32.33におけるニューロンN i jは
、共に同じ座標位置にあり、相互に対応している。各層
31.32.33の発火パターンがスムーズに変化する
ためには、中間層32のニューロンは、入力層31およ
び出力層33の対応するニューロンが共に発火している
場合に、発火する傾向にあると考えられる。そこで本実
施例では、中間層32の各ニューロンが、入力層31お
よび出力層33の対応するニューロンが共に発火してい
る場合に、発火しやすくなるように、中間層32および
出力層33の所定のニューロンのシナプス重みを所定の
割合だけ増加させている。
これを第2図および第3図を用いて具体的に説明する。
なおこの説明において、出力層33のニューロンNIJ
はキャラクタコードの一部を構成していると仮定する。
ある文字を認識する時に入力層31のニューロンN8、
と出力層33のニューロンN i jが共に発火すべき
である場合、中間層32のニューロンN i jが発火
し易くなるように、中間層32と出力層33のシナプス
重みの分布を定める。例えば、第3図に示すニューロン
1が上記中間層32のニューロンNLJであるとすると
、このニューロン1に結合している入力層のニューロン
のうち、発火しているニューロンから入力されるデータ
(例えば「I2」とN5J)に対するシナプス重み(こ
の場合「W2」と「W、」)が、例えば5%だけ増加せ
しめられる。出力層のニューロンのシナプス重みについ
ても同様に処理され、上述したように発火すべきである
とされた中間層のニューロンに対するシナプス重みが、
例えば5%だけ増加せしめられる。
この第3実施例によっても、第1および第2実施例と同
様な効果が得られる。
また第3実施例も、第1および第2実施例と同様に、3
層のニューラルネットワークに限定されるものではなく
、4層以上のニューラルレイヤを有するニューラルネッ
トワークにも適用可能である。この場合、まず第1の中
間層を選択し、この中間層の各ニューロンが、入力層お
よび出力層の対応するニューロンが共に発火している場
合に、発火する傾向を持つように、中間層および出力層
のシナプス重みを増加させる。そして全ての入力文字に
ついて学習が所定段階まで終了すると、新たに第2の中
間層を追加し、この第2の中間層についても同様にして
、第2の中間層およびこの中間層の出力側に結合された
層(出力層または第1の中間層)におけるシナプス重み
を増加させる。
しかして4層の場合の重み分布が得られる。5層以上の
場合も同様である。
次に、本発明の第4実施例を説明する。
各層31.32.33の発火パターンがスムーズに変化
するためには、中間層32のニューロンは、入力層31
および出力層33の対応するニューロンの少なくとも一
方が発火している場合に、発火する傾向にあると考えら
れる。そこで本実施例では、中間層32の各ニューロン
が、入力層31および出力層33の対応するニューロン
の少なくとも一方が発火している場合に、発火しやすく
なるように、中間層32および出力層33の所定のニュ
ーロンのシナプス重みを所定の割合だけ増加させている
これを第2図および第3図を用いて具体的に説明する。
なお第3実施例の場合と同様に、出力層33のニューロ
ンN i jはキャラクタコードの一部を構成している
と仮定する。
ある文字を認識する時に入力層31のニューロンN i
 jと出力層33のニューロンN i jの少なくとも
一方が発火すべきである場合、中間層32のニューロン
N i jが発火し易くなるように、中間層32と出力
層33のシナプス重みの分布を定める。
例えば、第3図に示すニューロン1が上記中間層32の
ニューロンN1Jであるとすると、このニューロン1に
結合している入力層のニューロンのうち、発火している
ニューロンから入力されるデータ(例えば「I!」とN
5J)に対するシナプス重み(この場合「W2」と’W
x」)が、例えば5%だけ増加せしめられる。出力層の
ニューロンのシナプス重みについても同様に処理され、
上述したように発火すべきであるとされた中間層のニュ
ーロンに対するシナプス重みが、例えば5%だけ増加せ
しめられる。
この第4実施例によっても、上記各実施例と同様な効果
が得られる。
また第4実施例も、上記各実施例と同様に、3層のニュ
ーラルネットワークに限定されるものではなく、4層以
上のニューラルレイヤを有するニューラルネットワーク
にも適用可能である。この場合、まず第1の中間層を選
択し、この中間層の各ニューロンが、入力層および出力
層の対応するニューロンの少なくとも一方が発火してい
る場合に、発火する傾向を持つように、中間層および出
力層のシナプス重みを増加させる。そして全ての入力文
字について学習が所定段階まで終了すると、新たに第2
の中間層を追加し、この第2の中間層についても同様に
して、第2の中間層およびこの中間層の出力側に結合さ
れた層(出力層または第1の中間層)におけるシナプス
重みを増加させる。
しかして4層の場合の重み分布が得られる。5層以上の
場合も同様である。
なお上記各実施例において、ニューロンに対する入出力
データは、デジタルの場合2僅に限定されず、多値であ
ってもよく、またアナログデータであってもよい。
さらに出力層は、対角線上のニューロンによってキャラ
クタコードを表すように構成される必要はなく、全ての
ニューロンによって認識文字を定義するように構成して
もよい。
また各層31.32.33におけるニューロン数は、上
記実施例のように36個に限定されず、認識する文字の
種類の数に応じた数だけ設けられる。
さらに、本発明は文字認識だけでなく、図形認識あるい
は音声認識に適用することもできる。
〔発明の効果] 以上のように本発明によれば、ニューラルネットワーク
の中間層に対し効率的な学習を施すことができるという
効果が得られる。
【図面の簡単な説明】
第1図は本発明の一実施例を適用した文字認識システム
を示す概略構成図、 第2図は入力層、中間層および出力層におけるニューロ
ンを示す概念図、 第3図はニューロンの一例を示す概念図、第4図は学習
回数と重みの変化との関係を示すグラフである。 1、N・・・ニューロン 31・・・入力層 32・・・中間層 33・・・出力層

Claims (8)

    【特許請求の範囲】
  1. (1)入力されたデータに所定の処理を施した結果に基
    づいて発火し所定のデータを出力する複数のニューロン
    をそれぞれ有する入力層および出力層と、上記入力層お
    よび出力層の間に配設され、上記複数のニューロンを有
    するとともに、各ニューロンが上記入力層および出力層
    の各ニューロンに結合する中間層とを備えたデータ処理
    装置の学習方法において、入力層の発火パターンと出力
    層の発火パターンとを複数の入出力について人為的に決
    定し、各入出力について、中間層が入力層、出力層両者
    の発火パターンに対する最小近似となる傾向を持つよう
    に、中間層および出力層のシナプスの重みを増加させ、
    全ての入出力に対して同様の処理を施すことを特徴とす
    るデータ処理装置の学習方法。
  2. (2)請求項1記載の学習方法により学習されたデータ
    処理装置について、新たな中間層を追加し、この中間層
    の各ニューロンを隣接する層の各ニューロンに接続し、
    新たな中間層の発火パターンがこれに隣接する層の発火
    パターンに対する最小近似となる傾向をもつようにシナ
    プスの重みを増加させ、全ての入出力に対して同様の学
    習を施し、学習が所定段階まで終了した時点でさらに新
    たな中間層の追加と同様の学習を繰り返し、中間層を増
    加させていくことを特徴とするデータ処理装置の学習方
    法。
  3. (3)入力されたデータに所定の処理を施した結果に基
    づいて発火し所定のデータを出力する複数のニューロン
    をそれぞれ有する入力層および出力層と、上記入力層お
    よび出力層の間に配設され、上記複数のニューロンを有
    するとともに、各ニューロンが上記入力層および出力層
    の各ニューロンに結合する中間層とを備えたデータ処理
    装置の学習方法において、入力層の発火パターンと出力
    層の発火パターンとを複数の入出力について人為的に決
    定し、各入出力について、入力層のニューロンの出力値
    と中間層のニューロンの出力値との差の絶対値と、中間
    層のニューロンの出力値と出力層のニューロンの出力値
    との差の絶対値との和が最小となる傾向を持つように、
    中間層および出力層のシナプスの重みを増加させ、全て
    の入出力に対して同様の処理を施すことを特徴とするデ
    ータ処理装置の学習方法。
  4. (4)請求項3記載の学習方法により学習されたデータ
    処理装置について、新たな中間層を追加し、この新たな
    中間層の各ニューロンを隣接する層の各ニューロンに接
    続し、隣接する入力側の層のニューロンの出力値と上記
    新たな中間層のニューロンの出力値との差の絶対値と、
    上記新たな中間層のニューロンの出力値と隣接する出力
    側の層のニューロンの出力値との差の絶対値との和が最
    小となる傾向を持つように、新たな中間層および隣接す
    る出力側の層のシナプスの重みを増加させ、全ての入出
    力に対して同様の学習を施し、学習が所定段階まで終了
    した時点でさらに新たな中間層の追加と同様の学習を繰
    り返し、中間層を増加させていくことを特徴とするデー
    タ処理装置の学習方法。
  5. (5)入力されたデータに所定の処理を施した結果に基
    づいて発火し所定のデータを出力する複数のニューロン
    をそれぞれ有する入力層および出力層と、上記入力層お
    よび出力層の間に配設され、上記複数のニューロンを有
    するとともに、各ニューロンが上記入力層および出力層
    の各ニューロンに結合する中間層とを備えたデータ処理
    装置の学習方法において、入力層の発火パターンと出力
    層の発火パターンとを複数の入出力について人為的に決
    定し、各入出力について、中間層の各ニューロンが、入
    力層および出力層の対応するニューロンが共に発火して
    いる場合に、発火する傾向を持つように、中間層および
    出力層のシナプスの重みを増加させ、全ての入出力に対
    して同様の処理を施すことを特徴とするデータ処理装置
    の学習方法。
  6. (6)請求項5記載の学習方法により学習されたデータ
    処理装置について、新たな中間層を追加し、この新たな
    中間層の各ニューロンを隣接する層の各ニューロンに接
    続し、該中間層の各ニューロンが、この中間層の前段お
    よび後段の各層の対応するニューロンが共に発火してい
    る場合に、発火する傾向を持つように、新たな中間層お
    よび上記後段の層のシナプスの重みを増加させ、全ての
    入出力に対して同様の学習を施し、学習が所定段階まで
    終了した時点でさらに新たな中間層の追加と同様の学習
    を繰り返し、中間層を増加させていくことを特徴とする
    データ処理装置の学習方法。
  7. (7)入力されたデータに所定の処理を施した結果に基
    づいて発火し所定のデータを出力する複数のニューロン
    をそれぞれ有する入力層および出力層と、上記入力層お
    よび出力層の間に配設され、上記複数のニューロンを有
    するとともに、各ニューロンが上記入力層および出力層
    の各ニューロンに結合する中間層とを備えたデータ処理
    装置の学習方法において、入力層の発火パターンと出力
    層の発火パターンとを複数の入出力について人為的に決
    定し、各入出力について、中間層の各ニューロンが、入
    力層および出力層の対応するニューロンの少なくとも一
    方が発火している場合に、発火する傾向を持つように、
    中間層および出力層のシナプスの重みを増加させ、全て
    の入出力に対して同様の処理を施すことを特徴とするデ
    ータ処理装置の学習方法。
  8. (8)請求項7記載の学習方法により学習されたデータ
    処理装置について、新たな中間層を追加し、この新たな
    中間層の各ニューロンを隣接する層の各ニューロンに接
    続し、該中間層の各ニューロンが、この中間層の前段お
    よび後段の各層の対応するニューロンの少なくとも一方
    が発火している場合に、発火する傾向を持つように、新
    たな中間層および上記後段の層のシナプスの重みを増加
    させ、全ての入出力に対して同様の学習を施し、学習が
    所定段階まで終了した時点でさらに新たな中間層の追加
    と同様の学習を繰り返し、中間層を増加させていくこと
    を特徴とするデータ処理装置の学習方法。
JP2088162A 1990-04-04 1990-04-04 データ処理装置の学習方法 Pending JPH03288258A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2088162A JPH03288258A (ja) 1990-04-04 1990-04-04 データ処理装置の学習方法
DE69124813T DE69124813T2 (de) 1990-04-04 1991-03-28 Lernverfahren für Datenverarbeitungsanlage
EP91105033A EP0450521B1 (en) 1990-04-04 1991-03-28 A learning method for a data processing system
KR1019910005357A KR910018921A (ko) 1990-04-04 1991-04-03 데이터처리장치의 학습방법
US08/058,049 US5430829A (en) 1990-04-04 1993-05-07 Learning method for a data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2088162A JPH03288258A (ja) 1990-04-04 1990-04-04 データ処理装置の学習方法

Publications (1)

Publication Number Publication Date
JPH03288258A true JPH03288258A (ja) 1991-12-18

Family

ID=13935232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2088162A Pending JPH03288258A (ja) 1990-04-04 1990-04-04 データ処理装置の学習方法

Country Status (5)

Country Link
US (1) US5430829A (ja)
EP (1) EP0450521B1 (ja)
JP (1) JPH03288258A (ja)
KR (1) KR910018921A (ja)
DE (1) DE69124813T2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MY138544A (en) 2003-06-26 2009-06-30 Neuramatix Sdn Bhd Neural networks with learning and expression capability
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
WO2019096754A1 (en) * 2017-11-20 2019-05-23 Koninklijke Philips N.V. Training first and second neural network models

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法

Also Published As

Publication number Publication date
DE69124813D1 (de) 1997-04-10
EP0450521A3 (en) 1993-05-19
US5430829A (en) 1995-07-04
EP0450521A2 (en) 1991-10-09
DE69124813T2 (de) 1997-06-12
EP0450521B1 (en) 1997-03-05
KR910018921A (ko) 1991-11-30

Similar Documents

Publication Publication Date Title
JPH03288285A (ja) データ処理装置の学習方法
Rolls et al. Invariant object recognition in the visual system with error correction and temporal difference learning
US6965885B2 (en) Self-organizing feature map with improved performance by non-monotonic variation of the learning rate
Zilouchian Fundamentals of neural networks
JPH03288258A (ja) データ処理装置の学習方法
Ritter et al. A new auto-associative memory based on lattice algebra
Woods Back and counter propagation aberrations
JPH05101028A (ja) 複数特徴量の統合判定方法
Ritter et al. A morphological auto-associative memory based on dendritic computing
JPH045750A (ja) データ処理装置の学習方法
Babri et al. Deep feedforward networks: application to pattern recognition
JPH045751A (ja) データ処理装置の学習方法
JPH0492955A (ja) ニューラルネットワークの学習方式
Pan A neural network approach for Chinese character recognition
Tu et al. Regression estimation by radial basis function networks with self-constructing clustering
JPH05314090A (ja) ニューラルネットを用いたパターン認識方法およびその装置
JPH11265197A (ja) 可変入力神経網を利用した音声認識方法
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
JPH0438556A (ja) データ処理装置
Kozdon et al. Wide learning: Using an ensemble of biologically-plausible spiking neural networks for unsupervised parallel classification of spatio-temporal patterns
Puma-Villanueva et al. Evolving arbitrarily connected feedforward neural networks via genetic algorithms
Qu et al. A Novel Homeostasis Method to Improve the Learning Efficiency of Spiking Neural Networks
Jafari et al. The Impact of Spatial Resolution on Reconstruction of Simple Pattern Through Multi Layer Perceptron Artificial Neural Network
Lerner et al. Tailored" neural networks to improve image classification
JPH0424864A (ja) データ処理装置