JPH045751A - データ処理装置の学習方法 - Google Patents

データ処理装置の学習方法

Info

Publication number
JPH045751A
JPH045751A JP2106361A JP10636190A JPH045751A JP H045751 A JPH045751 A JP H045751A JP 2106361 A JP2106361 A JP 2106361A JP 10636190 A JP10636190 A JP 10636190A JP H045751 A JPH045751 A JP H045751A
Authority
JP
Japan
Prior art keywords
layer
output
neuron
neurons
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2106361A
Other languages
English (en)
Inventor
Sunao Takatori
直 高取
Makoto Yamamoto
誠 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TAKAYAMA KK
Original Assignee
TAKAYAMA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TAKAYAMA KK filed Critical TAKAYAMA KK
Priority to JP2106361A priority Critical patent/JPH045751A/ja
Priority to DE69120854T priority patent/DE69120854T2/de
Priority to EP91106128A priority patent/EP0453939B1/en
Priority to US07/689,338 priority patent/US5239619A/en
Priority to KR1019910006603A priority patent/KR910018925A/ko
Publication of JPH045751A publication Critical patent/JPH045751A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ニューラルネットワークの概念を基礎とする
データ処理装置に関する。
〔従来の技術] この種のデータ処理装置におけるニューラルネットワー
クは、第3図に示す神経細胞モデル(以下、ニューロン
という)1を、並列に設けて層状に構成される。各層の
ニューロンは隣接する他の層の全てのニューロンにシナ
プス結合して、データの入出力を行う。すなわちニュー
ロン1において、外部から入力されるデータI、、L、
■。
・・・Inにはそれぞれ重みWISW2、W。
、・・・Wnが掛けられ、これらの総和と閾値θとの比
較結果に応じたデータOが出力される。
この比較方法としては種々のものが可能であるが、例え
ば正規化関数1〔f]を採用すると、出力データ0は、 0=1 〔ΣWn−In−θ)   ・・−−−(1)
と表される。すなわち、ΣWn−Inが閾値8以上の時
そのニューロンは発火して出力データOは「1」となり
、またΣWn−Inが閾値θより小さい時出力データ0
は「0」となる。
従来のニューラルネットワークは、このようなニューロ
ンを並列に設けてニューラルレイヤを形成するとともに
、このニューラルレイヤを直列に接続して構成される。
ニューラルレイヤは例えば、ローゼンブラット(Ros
enblatt)が提案したバーセプトロンのように3
層すなわち入力層、中間層および出力層から成り、各層
のニューロンは隣接する他の層の全てのニューロンにシ
ナプス結合する。
〔発明が解決しようとする課題〕
このようなデータ処理装置において各ニューロンのシナ
プス重みを最適化する操作は「学習」と呼ばれ、その実
現の保証と効率化は重要な課題である。例えば、近年注
目を集めているハックプロパゲーション法では、ローカ
ルミニマムからの脱出と、収束時間が問題点として残さ
れている。特に多数の中間層を含むニューラルネットワ
ークにおいてその傾向が大である。
本発明はこのような従来の問題点を解消すべく創案され
たもので、中間層に対し効率的学習を施し得る学習方法
を提供することを目的とする。
〔課題を解決するための手段〕
本発明に係る学習方法は、入力層の発火パターンと出力
層の発火パターンとを複数の入出力について人為的に決
定し、各入出力について、中間層の各ニューロンが、入
力層の対応領域のニューロンの出力値と出力層の対応す
るニューロンの出力値に所定の係数を乗した値との和が
一定値以上である場合に、発火する傾向を持つように、
中間層および出力層のシナプスの重みを決定するもので
ある。そして、中間層が多数設けられる場合には、1個
の中間層の学習が所定段階まで終了したときに、新たに
中間層を追加し、これに対しても同様の学習を施し、逐
次中間層を増加させるものである。ここに入出力層のニ
ューロン数はその1回のデータ容量により決定され、処
理し得るデータ個数はニューラルネットワーク全体のニ
ューロン数により決定される。したがって多くのデータ
の処理のためには中間層の増大は必須である。
[実施例] 以下図示実施例により本発明を説明する。
第1図は、本発明の一実施例に係るデータ処理装置を有
する文字認識システムを示す。この文字認識システムは
、ビデオカメラ10、前処理装置20、データ処理装置
30、後処理装置40およびデイスプレィ50を備える
。ビデオカメラ10は文字を入力するために設けられ、
前処理装置20に接続される。前処理装置20は例えば
従来公知の画像処理装置であり、入力された文字の特徴
データ(例えば端点数、分岐点数等)を抽出し、この特
徴データをデータ処理装置30に出力する。
データ処理装置30は、後述するようにニューラルネッ
トワークを構成し、前処理装置20から入力された文字
の特徴データに基づいてその文字を認識し、この認識結
果に応じたデータを後処理装置40に出力する。認識信
号は例えばキャラクタコードであり、後処理袋240は
この出力データを例えばワープロデータとして格納し、
同時にデイスプレィ50に出力する。デイスプレィ50
は例えばCRTから構成され、データ処理装置30によ
り認識された文字を画面上に表示する。
データ処理装置30を構成するニューラルネットワーク
はコンピュータのハードウェアの一部として構成される
。このデータ処理装置30は第1図において模式的に表
されており、この図から理解されるように入力層31、
中間層32および出力層33を有し、中間層32は入力
層31および出力層33の間に配設される。各層31.
32.33は本実施例において、それぞれ多数のニュー
ロンNを有し、入力層31のニューロンNは中間層32
の全てのニューロンNに接続され、また中間層32のニ
ューロンNは出力層33の全てのニューロンNに接続さ
れる。
各ニューロンNは第3図を参照して上述したように、(
1)式の正規化関数に基づき、「1」または「0」のデ
ータを出力する。ニューロンNは例えばオペアンプから
構成され、また各ニューロンNへ入力されるデータに乗
じられる重みWnは、例えば、オペアンプの入力端子に
接続された可変抵抗により得られる。また閾値関数はス
イッチング素子等によって実現される。すなわち各ニュ
ーロンの出力データに応じて可変抵抗の大きさを変化さ
せることにより、重みWnが変化せしめられ、出力デー
タが補正されて学習が行われる。
第2図(a)、(b)、(c)は入力層31、中間層3
2および出力層33を模式的に表したものである。ニュ
ーロンの数は、入力層31、中間層32、出力層33の
順に少なくなっている。ここでは説明の簡単のため、入
力層31のニューロン数を64個、中間層32のニュー
ロン数を49個、出力層33のニューロン数を36個と
する。
また各層のニューロンは、入力層31においては横方向
および縦方向にそれぞれ8個配列され、中間層32にお
いては横方向および縦方向にそれぞれ7個配列され、出
力層33においては横方向および縦方向に6個配列され
ている。ここで、図の左下隅のニューロンの位置を原点
とし、左からi番目、下からj番目に位置するニューロ
ンをN i jとする。
入力層31の各ニューロンは、ビデオカメラIOを介し
て得られる文字の特徴データによって発火する。例えば
N11、Nl2、N21、N2□の発火の組合せによっ
て端点数が表され、N13、N I 4、N23、N2
4の発火の組合せによって分岐点数が表されるとする。
すなわち、入力層31のニューロンの発火パターンは入
力される文字に応じて人為的に決定される。
一方出力層33では、例えば、左下隅と右上隅のニュー
ロンを結ぶ対角線上のニューロンN i i(破線りに
より囲まれたニューロン)により文字が表される。すな
わちこの対角線上のニューロンは、その文字のキャラク
タコードを表し、出力層33のニューロンの発火パター
ンは人為的に決定される。本実施例において、対角線上
のニューロンN i iの発火パターンの種類は64通
りあり、したがって本実施例では64種類の文字を認識
することができ、例えばアルファベットの認識が可能で
ある。
さて文字認識の学習が行われる前においては、データ処
理装置30に文字データが入力されても、出力層33の
ニューロンは発火しない。この二ニーロンは、学習によ
って発火が可能となり、入力された文字データに応じた
所定の発火パターンを呈するようになると、学習は終了
する。なお学習用の入出カバターンはニューラルネット
ワークで処理すべきデータの代表データであり、実際に
処理すべきデータは広範囲に渡る。そして学習は、この
代表入出力データに対する連想が適正に行われるまで実
行される。しかして学習が終了すると、入力層31およ
び出力層33は入力された文字データに応じて上述した
ように人為的に定められる発火パターンを呈することと
なる。そして、入力層31、中間層32および出力層3
3の各層における発火パターンはこれらの層31.32
.33にわたってスムーズに変化していくと推定される
そこで本実施例では、学習の過程において、これらの層
における発火パターンがスムーズに変化するように、中
間層32および出力層33の重みを変化させている。
まず、中間層32のニューロンN i jが発火すべき
か否かを、入力層31および出力層33の対応する複数
のニューロンの発火を考慮して決定する。
すなわち、入力層31の対応領域のニューロンの出力値
と、出力層33の対応するニューロンの出力値に所定の
係数を乗じた値との和が、一定値以上である場合に、中
間層32のニューロンN、Jは発火する傾向を有すると
判断され、このような発火が得られるように、中間層3
2および出力層33の所定のニューロンの重みが増加せ
しめられる。
このように出力層33の対応ニューロンの出力値に係数
を乗じるのは、出力層33のニューロンと入力層31の
ニューロンとがそれぞれ中間層32のニューロンに対し
て同等の影響を持つようにするためである。例えば、入
力層31の対応ニューロンが4個であり、出力層33の
対応ニューロンが1個である場合には、出力N33の対
応ニューロンの出力値には、係数4が乗じられ、これに
より入力層31と出力層33の各ニューロンは、中間層
32のニューロンの発火分布に対して同じ影響力を持つ
ようになる。
このような中間層のニューロンが発火すべきか否かの判
定方法について、第2図(a)〜(c)を参照して具体
的に説明する。なお第2図(a)は入力層31の発火パ
ターン、第2図(b)は中間層32の発火パターン、第
2図(C)は出力層33の発火パターンをそれぞれ示し
、図中、黒丸は発火しているニューロン、白丸は発火し
ていないニューロンを示す。この例では、入力された文
字の特徴データによって入力層31は図のような発火パ
ターンを呈し、またこの文字を認識するためには、出力
層33は図のような発火パターンを呈しなければならな
い。つまり図示された入力層31の発火パターンは入力
文字によって一意に定まり、出力層33の発火パターン
は学習が終了した時のものである。一方中間層32の発
火パターンの傾向は、後述するように入力層31および
出力層33の発火パターンに従って決定される。
各層のニューロンの対応関係について説明する。
中間層32の各ニューロンには、入力層31の4個のニ
ューロンから成る領域と出力層33の1個のニューロン
とが対応する。すなわち、中間層32のニューロンN 
i jには、入力層31のニューロンN i j 、N
 (i 、I 1 J% N i。4.、、N(i。1
..1゜。(中間層のニューロンNZ6の場合、符号E
2で囲まれた領域)が対応し、また出力層33のニュー
ロンN□J(中間層のニューロンN2.の場合、ニュー
ロンN26)が対応する。なお本実施例において、第2
図(b)において中間層32の上縁部のニューロンN、
7、および右縁部のニューロンN1、には、出力層33
の上縁部のニューロンN i &、および右縁部のニュ
ーロンN6Jがそれぞれ対応すると定める。
中間層32のニューロンは、本実施例において、入力層
31の対応領域のニューロンの出力値と出力層33の対
応するニューロンの出力値に係数4を乗じた値との和が
例えば「3」以上である場合に、発火する傾向にあると
判断される。なお、本実施例においては、ニューロンが
発火している場合の出力値はrl、であり、また発火し
ていない場合の出力値は「O」である。さて第2図(b
)の例において、中間層32のニューロンNthに関し
、入力層31の対応領域E2の4個のニューロンの出力
値の合計はr3Jであり、出力層33の対応ニューロン
N26の出力値は「0」である。したがって、これらの
和は「3」であり、中間層32のニューロンN26は発
火する傾向にあると判断される。一方、中間層32のニ
ューロンI’Liに関し、入力層31の対応領域Gのニ
ューロンの出力値の合計は「2」であり、出力層33の
対応ニューロンN 33の出力値はI’l」である。し
たがってこの場合、入力層31の対応ニューロンの出力
値と出力層33の対応ニューロンの出力値乙こ係数4を
乗した値との和は「6」であり、中間層32のニューロ
ンN。は発火する傾向にあると判断される。しかして中
間層32のニューロンは、第2図(b)に示すような発
火パターンを呈する傾向にあると判断される。
本実施例における文字認識の学習では、中間層32およ
び出力層33の各ニューロンの重みが、このようにして
得られた発火パターンが得られるように、所定値だけ増
加せしめられる。
この重みの増加を第3図を用いて具体的に説明すると、
中間層のニューロン1の出力データ0が発火時の値(例
えば「1」)であれば、そのニューロンlに結合してい
る入力層のニューロンのうち、発火しているニューロン
から入力されるデータ(例えば「■2」と’13’J)
に対するシナプス重み(この場合「W2」と’W3」)
が、例えば5%だけ増加せしめられる。出力層のニュー
ロンのシナプス重みについても同様に処理され、上述し
たように発火すべきであるとされた中間層のニューロン
に対するシナプス重みが、例えば5%だけ増加せしめら
れる。
しかして、入力層31、中間層32および出力層33の
各層間において発火パターンが最もスムーズに変化する
ように、中間層32および出力層33の重みが増加せし
められる。ここで、入力層31および出力層33の各ニ
ューロンが全ての入力文字に関してできるだけ同じ頻度
で発火するように定めておけば、中間層32の各ニュー
ロンも均等に発火することが可能となる。これによって
、ローカルミニマムへの落ち込みを防止することが可能
となり、また中間層3Iの各ニューロンは、それぞれ略
均等に発火することとなる。すなわち発火しないニュー
ロンの発生を回避することが可能となり、中間層32の
ニューロンを効率的に作用させることができる。
なお1回の学習におけるシナプス重みの増加は学習回数
に対して第4図のように変化し、複数回の学習により徐
々に全体系の学習が行われるとともに、学習終期には微
小変化による微調整が行われる。また初期の重みの急増
により学習速度が高められる。
上記実施例において、中間層32は入力層31と出力層
33に接続され、層数は3であった。しかし、本発明は
3層のニューラルネットワークに限定されるものではな
く、4層以上のニューラルレイヤを有するニューラルネ
ットワークにも適用可能である。この場合、まず第1の
中間層を選択し、この中間層の各ニューロンが、入力層
の対応領域のニューロンの出力値と出力層の対応二ニー
ロンの出力値に所定の係数を乗じた値との和が、一定値
以上である場合に、発火する傾向を持つように、第1の
中間層および出力層のシナプス重みを増加させる。そし
て全ての入力文字について学習が所定段階まで終了する
と、新たに第2の中間層を追加し、この第2の中間層に
ついても同様にしで、対応する複数のニューロンの出力
値の大きさを考慮して、第2の中間層およびこの中間層
の出力側に結合された層(出力層または第1の中間層)
におけるシナプス重みを増加させる。しかして4層の場
合の重み分布が得られる。5層以上の場合も同様である
第2図(a)、(b)、(C)において、中間層32の
1個のニューロンに対応するニューロンは、入力層31
については4個、出力層33については1個であった。
しかし、対応するニューロンの個数はこれに限定される
ものではなく、必要に応じて任意の数を選択することが
でき、例えば、中間層32の1個のニューロンに、入力
層31の9個のニューロンが対応し、また出力層33の
3個のニューロンが対応するようにしてもよい。この場
合、出力層33の対応ニューロンの出力値に乗じる係数
は「3」となる。
ここで、中間層32のニューロンN26、N 3 h 
%N17、N35、N66、N、6について着目すると
、入力層31については、領域E2〜E、がそれぞれ対
応する。入力層31において、各領域のニューロンは、
左右に隣接する領域にも重複して含まれ、また同様に、
上下に隣接する領域にも重複して含まれる。したがって
、入力層31のニューロンは、周縁部のものを除いて、
4つの領域に属することとなり、すなわち中間層32の
4個のニューロンに対応している。
一方、中間層32と出力層33の関係を見ると、中間層
32の上縁部および右縁部のニューロンN1フ\N7.
以外のニューロンN i jは、出力層33において同
じ座標位置のニューロンに対応するが、中間層32の上
縁部および右縁部のニューロンN□7、N ? iは、
前述したように、出力層33において上縁部および右縁
部のニューロンNi6、N 6 iに対応する。すなわ
ち中間層32の各ニューロンは出力層33の1個のニュ
ーロンに対応している。
このように、中間層32の各ニューロンは、入力層31
の複数のニューロンに対応するとともに、出力層33の
1個のニューロンに対応する。また入力層31の各ニュ
ーロンは、上述したように中間層32の複数のニューロ
ンにそれぞれ対応する。
すなわち、入力層31において隣接するニューロンは、
互いに中間層32の同じニューロンにも対応している。
したがってこの入力層31の隣接するニューロンは、中
間層32の同じニューロンの発火の傾向の判断に関与す
ることとなる。
なおニューロンに対する入出力データは、デジタルの場
合2値に限定されず、多値であってもよく、またアナロ
グデータであってもよい。
さらに出力層は、対角線上のニューロンによってキャラ
クタコードを表すように構成される必要はなく、全ての
ニューロンによって認識文字を定義するように構成して
もよい。
また各層31.32.33におけるニューロン数は、認
識する文字の種類の数に応じた数だけ設げられる。
さらに、本発明は文字認識だけでなく、図形認識あるい
は音声認識に通用することもできる。
〔発明の効果〕
以上のように本発明によれば、ニューラルネットワーク
の中間層に対し効率的な学習を施すことができるという
効果が得られる。
【図面の簡単な説明】
第1図は本発明の一実施例を適用した文字認識システム
を示す概略構成図、 第2図は入力層、中間層および出力層におけるニューロ
ンを示す概念図、 第3回はニューロンの一例を示す概念図、第4図は学習
回数と重みの変化との関係を示すグラフである。 1、N・・・ニューロン 31・・・入力層 32・・・中間層 33・・・出力層 学習回数 第  4 図

Claims (2)

    【特許請求の範囲】
  1. (1)入力されたデータに所定の処理を施した結果に基
    づいて発火し所定のデータを出力する複数のニューロン
    を有する入力層と、この入力層よりも少数のニューロン
    を有する出力層と、上記入力層および出力層の間に配設
    され、上記入力層および出力層の中間の数のニューロン
    を有し、各ニューロンが上記入力層および出力層の各ニ
    ューロンに結合する中間層とを備えたデータ処理装置の
    学習方法において、入力層の発火パターンと出力層の発
    火パターンとを複数の入出力について人為的に決定し、
    各入出力について、中間層の各ニューロンが、入力層の
    対応領域のニューロンの出力値と出力層の対応するニュ
    ーロンの出力値に所定の係数を乗じた値との和が一定値
    以上である場合に、発火する傾向を持つように、中間層
    および出力層のシナプスの重みを増加させ、全ての入出
    力に対して同様の処理を施すことを特徴とするデータ処
    理装置の学習方法。
  2. (2)請求項1記載の学習方法により学習されたデータ
    処理装置について、新たな中間層を追加し、この新たな
    中間層の各ニューロンを隣接する層の各ニューロンに接
    続し、新たな中間層の各ニューロンが、入力側の層の対
    応領域のニューロンの出力値と出力側の層の対応するニ
    ューロンの出力値に所定の係数を乗じた値との和が一定
    値以上である場合に、発火する傾向を持つように、新た
    な中間層および隣接する出力側の層のシナプスの重みを
    増加させ、全ての入出力に対して同様の学習を施し、学
    習が所定段階まで終了した時点でさらに新たな中間層の
    追加と同様の学習を繰り返し、中間層を増加させていく
    ことを特徴とするデータ処理装置の学習方法。
JP2106361A 1990-04-24 1990-04-24 データ処理装置の学習方法 Pending JPH045751A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2106361A JPH045751A (ja) 1990-04-24 1990-04-24 データ処理装置の学習方法
DE69120854T DE69120854T2 (de) 1990-04-24 1991-04-17 Lernverfahren fÜr Datenverarbeitungssystem
EP91106128A EP0453939B1 (en) 1990-04-24 1991-04-17 Learning method for data processing system
US07/689,338 US5239619A (en) 1990-04-24 1991-04-23 Learning method for a data processing system having a multi-layer neural network
KR1019910006603A KR910018925A (ko) 1990-04-24 1991-04-24 데이터 처리장치의 학습방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2106361A JPH045751A (ja) 1990-04-24 1990-04-24 データ処理装置の学習方法

Publications (1)

Publication Number Publication Date
JPH045751A true JPH045751A (ja) 1992-01-09

Family

ID=14431603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2106361A Pending JPH045751A (ja) 1990-04-24 1990-04-24 データ処理装置の学習方法

Country Status (1)

Country Link
JP (1) JPH045751A (ja)

Similar Documents

Publication Publication Date Title
EP0327817B1 (en) Associative pattern conversion system and adaptation method thereof
JPH03288285A (ja) データ処理装置の学習方法
US5265224A (en) Recognition unit and recognizing and judging apparatus employing same
US5355437A (en) Neural network architecture for pattern recognition
Yoon et al. Efficient genetic algorithms for training layered feedforward neural networks
CN107862380A (zh) 人工神经网络运算电路
JPH06161981A (ja) ニューラルネットワーク回路
Woods Back and counter propagation aberrations
JPH05101028A (ja) 複数特徴量の統合判定方法
JPH045751A (ja) データ処理装置の学習方法
CN109697511B (zh) 数据推理方法、装置及计算机设备
Luttrell Self-organising multilayer topographic mappings
JPH03288258A (ja) データ処理装置の学習方法
JPH04229362A (ja) 学習機械
EP0453939A2 (en) Learning method for data processing system
JPH045750A (ja) データ処理装置の学習方法
JP3171897B2 (ja) 知識情報処理装置
JPH0438556A (ja) データ処理装置
JPH05314090A (ja) ニューラルネットを用いたパターン認識方法およびその装置
JPH0424864A (ja) データ処理装置
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
JP3310009B2 (ja) ニューラルネットワークシステム
JPH0492955A (ja) ニューラルネットワークの学習方式
EP0450890A2 (en) Neural network processing method and apparatus
JPH0855098A (ja) ニューラルネットワーク・クラシファイアおよびニューラルネットワークの構成法