JP2004252943A - Pattern teaching system, pattern identification device using the same, computer program, and digital logic circuit design method for pattern identification device - Google Patents

Pattern teaching system, pattern identification device using the same, computer program, and digital logic circuit design method for pattern identification device Download PDF

Info

Publication number
JP2004252943A
JP2004252943A JP2003272813A JP2003272813A JP2004252943A JP 2004252943 A JP2004252943 A JP 2004252943A JP 2003272813 A JP2003272813 A JP 2003272813A JP 2003272813 A JP2003272813 A JP 2003272813A JP 2004252943 A JP2004252943 A JP 2004252943A
Authority
JP
Japan
Prior art keywords
type unit
input
output
pattern
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003272813A
Other languages
Japanese (ja)
Other versions
JP3526859B1 (en
Inventor
Kazuhiro Matsue
和博 松江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003272813A priority Critical patent/JP3526859B1/en
Application granted granted Critical
Publication of JP3526859B1 publication Critical patent/JP3526859B1/en
Publication of JP2004252943A publication Critical patent/JP2004252943A/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a pattern teaching system that can optimize a neural network while reducing the number of nodes between a middle layer and an output layer, and can thus provide high-precision pattern teaching even with reduced computational complexity. <P>SOLUTION: The pattern teaching system 1 has the middle layer 40 having a plurality of first-class units 10 adapted to vary their own signal outputs in dependence of results of comparison between sums of signal inputs and a first threshold, and the output layer 50 having a plurality of second-class units 11 adapted to vary output signals Oi. Learning processing is as follows. Two or more types of patterns to be identified are input in repeated sequence into an input layer 30, and upon every input of each pattern to be identified, output side connection adjusting means 21 recombine nodes between the second-class units 11 and the first-class units 10 for outputting the middle signals mi and adjust weights of connection between the input layer 30 and the first-class units 10, to thus improve matching states of the output signals Oi from the second-class units 11 forming the output layer 50 and teaching signals Ti. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【技術分野】
【0001】
本発明は、パターン教示システムと、それを用いたパターン識別装置、コンピュータプログラム及びパターン識別装置のデジタル論理回路設計方法に関する。
【背景技術】
【0002】
【特許文献1】
特開平1−243169号公報
【特許文献2】
特許第2606317号公報
【0003】
画像や音声のパターン識別は、例えば予め実体の知れている標準パターンを用意しておき、被識別パターンがその標準パターンと一致しているかどうかを、パターンを構成する素信号(例えば、画像識別の場合は画素、音声の場合は量子化された音声波形のレベル)同士の一致確率に応じて判定する方法が知られている。しかし、この方法は、あいまいな要素を含んだ柔軟なパターンマッチングや、あるいはノイズに強いパターンマッチングを実現するために不可欠である、統計的手法の導入が面倒であり、性能的にも限界がある。近年、こうした問題を解決するために、ニューラルネットワークを用いたパターン識別手法が種々提案されている。
【0004】
ニューラルネットワークは、生体の脳をモデルとした情報処理システムであり、その基本構成要素であるニューロンを、多入力1出力の非線形素子(以下、ニューロン型素子ともいう)とみなしてこれをネットワーク状に多数結合したものである。具体的には、ニューラルネットワークに識別すべきパターンを繰り返し与えて教示パターンと比較しながら、ニューロン型素子間の結合の強さ(結合により媒介される入力信号の重み(ウェイトあるいは荷重ともいう))を調整することにより、特定パターンの識別が可能となるように学習を行なう。
【0005】
従来、パターン識別に広く用いられているのは、階層型ニューラルネットワークと称されるものであり、入力層と出力層との間に1段又は2段以上の中間層を介在させた構造を有する。入力層にある被識別パターンを与えると、出力層には、中間層の結合状態に応じた特有の出力パターンが現われる。そして、学習の繰り返しにより、その出力パターンと、予め用意された所望の教示パターンとの誤差が最小化されるように、中間層の結合の重みを調整する。具体的には、入力層と中間層及び中間層と出力層は、いずれも重み付きの結合によって結び付けられ、出力層側から入力層側に向けて、結合の重みを、最急降下法を用いて順次的に最適化する、バックプロパゲーション法が用いられている(特許文献1,2)。
【考案の開示】
【発明が解決しようとする課題】
【0006】
しかし、バックプロパゲーション法によるニューラルネットワークの最適化には、以下のような欠点がある。
(1)入力層と中間層との間、及び入力層と出力層との間で、いずれも全てのユニット間でしらみつぶし的に結合が設定され、その結合の重み調整だけでネットワークを最適化するので、計算量が膨大化しやすい。装置規模が大きくなった場合は、現実的な規模のコンピュータあるいはコンピュータネットワークでは、処理が破綻することもある。
(2)最急降下法を用いるため、局所的最適解にはまり込んだときは、誤差の真の最適化が不能となる場合がある。
(3)バックプロパゲーション法においては、一般的には、入力層と出力層に対して適当な数の中間層を用意することになるが、最終的に適正と考えられる中間層の数は予測不能なので、設定数が多すぎれば無駄な結合がたくさん残り、すくなければ分離できないパターンができるなどの不具合につながる。
【0007】
本発明の課題は、少なくとも演算が必要な中間層の数や、中間層と出力層との間の結合数を少なく留めつつもニューラルネットワークの最適化処理が可能であり、ひいては少ない演算量でも精度の高いパターン教示が可能となるパターン教示システムと、それを用いたパターン識別装置、コンピュータプログラム及びパターン識別装置のデジタル論理回路設計方法とを提供することにある。
【課題を解決するための手段及び発明の効果】
【0008】
上記の課題を解決するために本発明のパターン教示システムは、
複数の信号が各々並列入力結合可能とされ、かつ、該信号の入力和に対する第一の閾値を有してなり、該入力和と第一の閾値との比較結果に基づいて自身の信号出力を変化させる複数の第一種ユニットを有する中間層と、
中間層の前段に位置し、被識別パターンをなす複数の入力信号を、中間層の最前段に位置する第一種ユニットの列に入力するパターン入力部を有した入力層と、
中間層の最終段に位置する第一種ユニットの出力を中間信号として、該中間信号が並列入力結合可能とされ、かつ、該中間信号の入力和に対する、第一の閾値よりも低い第二の閾値を有してなり、該入力和と第二の閾値との比較結果に基づいて出力信号を変化させる複数の第二種ユニットを有する出力層と、
複数の第二種ユニットの出力信号の集合を出力パターンとして、該出力パターンを構成する出力信号に一義的に対応した教示信号よりなる教示パターンを設定する教示信号設定手段と、
複数の中間信号を、複数の第二種ユニットに対し、任意の組合せにて入力結合設定する出力側結合設定手段と、
出力パターンをなす各出力信号と、対応する教示信号との一致状態を照合し、その照合結果に基づいて、出力パターンと教示パターンとの一致状態が改善されるように、各第二種ユニットに対する第一種ユニットの結合の組合せを変更する出力側結合調整手段とを有し、
入力層に2種以上の被識別パターンを順次繰り返して入力し、各被識別パターンの入力毎に、出力層をなす第二種ユニットの出力信号と教示信号との一致状態が改善されるように、出力側結合調整手段により、第二種ユニットと中間信号を出力する第一種ユニットとの結合の組合せ変更する学習処理を反復して行なうようにしたことを特徴とする。
【0009】
また、本発明の信号処理装置は、上記本発明のパターン教示システムの入力層に2種以上の被識別パターンを順次繰り返して入力し、各被識別パターンの入力毎に、出力層をなす第二種ユニットの出力信号と教示信号との一致状態が改善されるように、出力側結合調整手段により、第二種ユニットと中間信号を出力する第一種ユニットとの結合の組合せ変更する学習処理を反復して行なうことにより得られることを特徴とする。
【0010】
被識別パターンが入力される第一種ユニットは、周知のニューロン型素子に比較的近い複数入力/1出力型の素子概念であり、被識別パターンを形成する複数の入力信号を分配入力したときのパターンの選択性を高めるために、入力和に対する出力閾値(第一の閾値)は比較的高い値に設定される。他方、第二種ユニットは、上記第一種ユニットとの結合の組合せ変更(あるいは組換え)により学習処理を進める本願発明特有の素子概念であり、複数入力/1出力型の素子という点では第一種ユニットと同じであるが、その入力和に対する出力閾値(第二の閾値)が、第一種ユニットの閾値(第一の閾値)よりも低く設定される。なお、入力和と出力閾値との高低関係は、アクティブレベル側を正方向として、正側にシフトしている方を「高い」側として定義する。
【0011】
すなわち、複数のカテゴリの被識別パターンを教示する場合は、第一種ユニットへの信号の入力パターン、ひいては第一種ユニットを経由した信号の伝播パターンはカテゴリによって変化する。第二種ユニットの出力は、そのいずれのカテゴリの被識別パターンに由来する伝播パターンが到来しても、有効な識別結果を示す出力を発生させなければならない。具体例を挙げれば、ある第二種ユニットに入力として集められている(異なる第一種ユニットからの)2つの結合のうち第一のものが、カテゴリAの被識別パターンが与えられているときに高レベルとなり、第二のものがカテゴリBの被識別パターンが与えられているときに高レベルになったとすると、第二種ユニットは、2つの結(入力)の少なくとも一方が高レベルのときに、出力が高レベルとなるように動作することが要求される。こうした動作を実現するために、第二種ユニットの入力和に対する出力閾値(第二の閾値)は、前記第一の閾値よりも低く設定される。
【0012】
そして、本発明においては、出力パターンをなす各出力信号と対応する教示信号との照合結果に応じて、各第二種ユニットに対する第一種ユニットの結合の組合せを変更することにより、出力信号と教示信号との一致状態を高めるようにした。これにより、中間層と出力層との間の結合数を少なく留めつつニューラルネットワークの最適化処理が可能となる。さらに、結合の組合せ変更を繰り返し行なう形で、出力信号と教示信号との一致状態を最適化するので、最適化演算の自由度が大きく、最急降下法による結合重み調整を採用する従来のバックプロパゲーション法のように、局所的最適解にはまり込む確率も大幅に減ずることができる。
【0013】
なお、第二種ユニットに対する第一種ユニットの結合の組合せ変更(組替え)が可能となるには、具体的な操作として、次の2つの処理ができることが必須である。
(1)特定の第一種ユニットと特定の第二種ユニットとの間に新たな結合を形成する。
(2)特定の第一種ユニットと特定の第二種ユニットとの間にすでに形成されている結合を解除する。
【0014】
また、必要に応じて、
(3)特定の第一種ユニットを削除する。
(4)必要に応じて第一種ユニットを新たに追加する。
の2つの操作を追加することもできる。なお、特定の第一種ユニットとある第二種ユニットとの間にすでに形成されている結合を、別の第二種ユニットとの結合に切り替えたり、ある第一種ユニットと特定の第二種ユニットとの間に既に形成されている結合を、別の第一種ユニットとの結合に切り替える操作を想定することもできるが、これらは、いずれも(1)と(2)とを組み合わせて行なうことで実現可能である。
【0015】
なお、本発明は、コンピュータを上記本発明のパターン教示システムの各手段として機能させるコンピュータプログラムも提供する。本発明のパターン教示システムはハードウェアロジックとして構成することも可能であるが、上記本発明のコンピュータプログラムを用いて、ソフトウェア的にエミュレーションすることにより、パターン教示のために、多数の第一種ユニットと第二種ユニットとの結合最適化を行なう処理を、より簡便に行なうことができる。この場合、本発明のパターン識別装置は、上記本発明のコンピュータプログラムの実行により、コンピュータ上にて実現される本発明のパターン教示システムを用いて前記学習処理を反復して行なうことにより、コンピュータ上でのソフトウェア的エミュレーションの形で実現することができる。
【0016】
次に、出力側結合調整手段は、具体的には、第二種ユニットの出力信号と教示信号との一致状態が予め定められたレベルに到達すれば、複数の第一種ユニットと複数の第二種ユニットとの間に未結合の組合せが残されていても、これを残す形で学習処理の反復を打ち切るものとすることができる。つまり、中間層と出力層との間の第一種ユニットと第二種ユニットとの間の結合を、全ての組合せが網羅されるように設定するのではなく、出力信号と教示信号との一致状態が最適化された時点で、中間層をなす第一種ユニットと出力層をなす第二種ユニットとの間に新たな組合せの結合を作ることなく、学習処理を終了させる。これにより、ユニット間の結合数を必要十分な数に留めつつ、十分な精度のパターン教示が可能となり、ひいては学習の結果物として得られるパターン識別装置の設計効率を大幅に高めることができる。また、識別すべきパターンの種類が増えた場合にも、ユニット間の結合数が過度に増えることがないので、同じ規模の装置でもより識別能力の高いシステムを実現できる。
【0017】
また、出力側結合調整手段は、複数の中間信号に重み付与することなく、複数の第一種ユニットとの結合の組合せのみを変更するものとして構成することができる。この構成によると、中間層と出力層との結合に重みが関与しないため、最急降下法により結合重み調整する従来のバックプロパゲーション法と比較して、ニューラルネットワーク最適化の演算負担を劇的に減ずることができる。
【0018】
第一種ユニット及び第二種ユニットは、いずれもアクティブ出力と非アクティブ出力とのいずれかを二値出力するものであり、また、被識別パターンと教示パターンとは、アクティブ状態と非アクティブ状態とのいずれかに設定される二値信号の集合よりなる。各ユニットの出力を二値化(すなわちデジタル化)することにより、ネットワーク最適化の演算処理を一層簡略化することができる。この場合、第二種ユニットへの入力は(結合される第一種ユニットの出力がデジタル化されることで)、必然的に二値となる。前述のように、この入力に重みを付与しない場合は、その単純合計値が第二の閾値以上となっているか否かにより、第二種ユニットの出力が簡便に決定される。
【0019】
次に、本発明のパターン教示システムには、第一種ユニットの出力状態と、該第一種ユニットの結合先となる第二種ユニットへの教示信号の内容とに基づいて、第二種ユニットの出力信号と、これに対応する教示信号との一致状態を反映した学習判定情報を、複数の第一種ユニット毎に作成する学習判定情報作成手段を設けることができる。この場合、前記の出力側結合調整手段は、学習判定情報の内容に基づいて、対応する第二種ユニットの出力信号と教示信号との一致状態が改善されるように、第二種ユニットと第一種ユニットとの結合の組合せ設定を調整するものとすることができる。
【0020】
第二種ユニットの出力信号と教示信号とを照合する方法は、教示パターンと出力パターンとの直接比較を行なうので、照合結果を単に把握するだけであれば有効であるが、照合結果の要因特定まで行なうことは困難である。つまり、出力信号と教示信号との不一致が判明しても、その不一致に関与しているのが、どの第一種ユニットからの出力であるかを特定することが原理的に不可能である。その結果、出力信号と教示信号とを一致方向に改善するための具体的対応として、対応する第二種ユニットへの第一種ユニットの結合の組合せを試行錯誤的に変化させる非能率な方法を採用せざるを得なくなる。そこで、上記のように、第二種ユニットの出力信号と教示信号との一致状態を反映した学習判定情報を、複数の第一種ユニット毎に作成すれば、第一種ユニットの出力段階で、出力信号と教示信号との一致/不一致への関与が特定でき、関与の深い第一種ユニットをいわば狙い撃ちする形で第二種ユニットへの結合状態を調整することができる。その結果、出力信号と教示信号との一致状態の改善をより効率的かつ確実に行なうことができる。特に、第二種ユニットを、それら入力の少なくとも一つのものがアクティブのとき出力がアクティブとなるものとして構成しておくと、第一種ユニットの出力が、そのまま第二種ユニットの出力にも反映されるので、学習判定情報の内容の信頼性を高めることができる。
【0021】
特に、第一種ユニット及び第二種ユニットの出力が二値化されており、被識別パターンと教示パターンとが二値信号の集合よりなる場合、学習判定情報作成手段は、第一種ユニットと教示信号との各出力のアクティブ/非アクティブの組合せに基づいて、学習判定情報を作成することができる。つまり、第一種ユニットと教示信号との各出力よりなる高々2ビットの学習判定情報により、出力信号と教示信号との一致状態を正確に把握することができ、情報作成処理もビットの組合せを識別するだけでよいから極めて容易である。
【0022】
次に、本発明のパターン教示システムには、パターン入力部からの複数の入力信号を、中間層の最前段側に位置する複数の第一種ユニットに任意の組合せにて分配結合設定する入力側結合設定手段と、出力パターンと教示パターンとの一致状態が改善されるように、各第一種ユニットに対する入力信号の結合の組合せを変更する入力側結合調整手段を設けることができる。第一種ユニットに対する入力信号の結合の重み及び/又は組合せを変更可能とすることで、より自由度の高いニューラルネットワークの最適化が可能となる。また、入力側結合調整手段は、第二種ユニットの出力信号と教示信号との一致状態が予め定められたレベルに到達すれば、複数の入力信号と複数の第一種ユニットとの間に未結合の組合せが残されていても、これを残す形で学習処理の反復を打ち切るものとして構成できる。これにより、入力信号と第一種ユニットとの結合数を必要十分な数に留めつつ、十分な精度のパターン教示が可能となり、ひいては学習の結果物として得られるパターン識別装置の設計効率を大幅に高めることができる。また、識別すべきパターンの種類が増えた場合にも、ユニット間の結合数が過度に増えることがないので、同じ規模の装置でもより識別能力の高いシステムを実現できる。
【0023】
また、本発明のパターン教示システムにおいて第一種ユニットは、入力信号が重み付与された形で並列入力結合可能とされたものとして構成できる。この場合、第一の閾値は、該入力信号の重み入力和に対して設定される。そして、該システムの構成においては、第一種ユニットに結合される入力信号の重み値を設定する重み設定手段と、学習判定情報の内容に基づいて、対応する第二種ユニットの出力信号と教示信号との一致状態が改善されるように、第二種ユニットに結合されている第一種ユニットへの入力信号の重み値を調整する重み調整手段とを設けるようにする。入力信号の重み付き和を考慮することで、パターン識別の学習効果を一層高めることができ、ひいては、多種の被識別パターンをより正確に分離・識別することができる。
【0024】
上記構成では、入力信号の重み付き和を用いる点に関しては、従来のニューラルネットワークと同様の構成であるといえるが、本発明においては、出力パターンと教示パターンとの一致度を高める具体的手法として、前記した通り、中間層をなす第一種ユニットと、出力層の第二種ユニットとの結合の組合せを最適化する手法を用いる。この結合最適化の過程で、必要のない第一種ユニットと第二種ユニットとの結合は順次消滅・淘汰されてゆく。そして、学習判定情報を参照することにより、出力信号と教示信号との一致に対し肯定的に結合関与している第一種ユニットを見出し、該第一種ユニットへの入力の重みのみを機械的に増加させてゆけば、種々の出力パターンと教示パターンとの一致精度を自然に高めることができる。従って、従来型のバックプロパゲーション法における最急降下法のような、複雑な数学的アルゴリズムを伴う重み付き和最適化手法は全く不要となる。
【0025】
また、バックプロパゲーション法で用いる最急降下法では、入力側の重み分布を乱数により偏りなく設定する必要があり、例えば重み分布設定が適切でないと、出力パターンと教示パターンとの一致精度が損なわれる場合があり、局所的最適開に陥りやすい問題もある。しかし、本発明のパターン教示システムにおいては、上記のように入力信号の重みの最適化が、ユニット間の結合最適化にいわば従属する形で進んでゆくので、ユニット間の最適結合形態が決まっていれば、最適の重み分布が、重み初期値の設定に影響されにくい利点がある。最も簡単な手法としては、被識別パターンをなす複数の入力信号のうち、第一種ユニットに最初に結合するものの重み値を同一の初期値に設定する方法を例示できる。そして、このような簡単な重み初期値設定を行なっても、出力パターンと教示パターンとの一致精度を問題なく高めることができる。
【0026】
入力信号に重み付与した形で並列入力する上記のパターン教示システムの構成(以下、重み付きパターン教示システムという)では、学習処理が終了した段階で各第一種ユニットの入力に、その過程で最適された重み値が随伴したものとなる。これを用いると、学習の結果として得られるパターン識別装置の構成を、以下のようにしてデジタル論理回路に簡単に変換することができる。すなわち、本発明のパターン識別装置のデジタル論理回路設計方法は、パターン教示システムの入力層に2種以上の被識別パターンを順次繰り返して入力し、各被識別パターンの入力毎に、出力層をなす第二種ユニットの出力信号と教示信号との一致状態が改善されるように、出力側結合調整手段により、第二種ユニットと中間信号を出力する第一種ユニットとの結合の組合せ変更し、さらに、学習判定情報の内容に基づいて、対応する第二種ユニットの出力信号と教示信号との一致状態が改善されるように、第二種ユニットに結合されている第一種ユニットへの入力信号の重み値を調整する学習処理を反復して行なう工程と、
入力信号を重み値に応じて取捨選択しつつ第一種ユニットを、残した入力信号に対応した二値入力端子を有する論理積ゲート回路にて置換し、さらに、該第一種ユニットからの中間出力が結合される第二種ユニットを、該中間出力に対応した二値入力端子を有する論理和ゲート回路にて置換する工程と、を含むことを特徴とする。
【0027】
上記重み付きパターン教示システムの構成を用いると、最終的に、入力側につながる第一種ユニットへの入力の重みと、出力側につながる第一種ユニットと第二種ユニットとの結合が最適化されたパターン識別装置が得られる。この装置自体は、第一種ユニットが重み入力を伴う非線形素子であるため、論理ICの組合せからなる一般のデジタル論理回路とは概念的に相違する。しかし、ニューラルネットワーク的手法により、パターン識別機能を実現するためのシステムは、最小限のユニット結合にて簡便に設計できる利点がある。本願発明のパターン教示システムを用いて結合を最適化したパターン識別装置では、重みの小さい結合はパターン識別処理への寄与が小さいことを考慮すれば、第一種ユニットは、入力信号を重み値に応じて取捨選択すれば、残した入力信号に対応した入力を二値入力化して扱うことにより、論理積ゲート回路により簡単に置換できる。また、第一種ユニットからの中間出力が結合される第二種ユニットは、該中間出力に対応した入力を二値入力化して扱うことにより、論理和ゲート回路にて簡単に置換できる。
【0028】
特に後者の場合、第二種ユニットが、それら入力の少なくとも一つのものがアクティブのとき出力がアクティブとなるものとして構成されていれば(つまり、中間出力を二値として重みを付与せず、第一種ユニットとの結合組換えのみを行なう場合に相当)、該第二種ユニットは、論理和ゲート回路と機能的には全く同一であるから、具体的な置換処理を行なわず、そのままデジタル論理回路の論理和ゲート回路として流用できるので、一層設計が容易となる。このように、本願発明によると、パターン識別のための結合の最適化自体は、ニューラルネットワーク型のモデルを用いて効率的に行なうことができ、最後に論理ICへの置換を行なうという、Q−M(クワイン−マクラフスキ)法などの周知の論理最小化手法とは全く異なるアプローチにより、パターン識別装置の複雑な論理も非常に簡単かつ効率的に設計することができるようになる。
【発明を実施するための最良の形態】
【0029】
以下、本発明の実施の形態を、図面を用いて説明する。
図1は、本発明のパターン教示システムの構成の一例を、等価回路的に描いたものである。対象となる被識別パターンは、画像パターンや音声パターンを例示できるが、特に限定されない。本実施形態では画像パターンの識別を例にとる。該パターン教示システム1は、階層型ニューラルネットワーク構造を有するものであり、大別して入力層30、中間層40及び出力層50よりなる。
【0030】
中間層40は、複数の第一種ユニット10を有する。これら第一種ユニット10は、複数の信号が各々並列入力結合可能とされ、該信号の入力和に対する第一の閾値を有し、該入力和と第一の閾値との比較結果に基づいて自身の信号出力を変化させる。また、入力層30は、中間層40の前段に位置し、被識別パターンをなす複数の入力信号Ii(i=1,2,‥n)を、中間層40の最前段に位置する第一種ユニット10の列(本実施形態では、第一種ユニット10が一列のみなので、該列が必然的に中間層40の最前段に位置するものとなる)に入力するパターン入力部12を有する。
【0031】
さらに、出力層50は、複数の第二種ユニット11を有する。これら第二種ユニット11は、中間層40の最終段に位置する第一種ユニット10(本実施形態では、第一種ユニット10が一列のみなので、該列が必然的に中間層40の最終段側(兼最前段)に位置するものとなる)の出力を中間信号mi(i=1,2,‥x)として、それぞれ該中間信号miが並列入力結合可能とされ、かつ、該中間信号miの入力和に対する、第一の閾値よりも低い第二の閾値を有する。そして、該入力和と第二の閾値との比較結果に基づいて出力信号を変化させる。
【0032】
次に、パターン教示システム1は教示信号設定手段24を有する。該教示信号設定手段24は、上記複数の第二種ユニット11の出力信号Oi(i=1,2,‥n)の集合を出力パターンとして、該出力パターンを構成する出力信号に一義的に対応した教示信号TOi(i=1,2,‥n)よりなる教示パターンを設定するものである。
【0033】
また、パターン教示システム1は、出力側結合設定手段14と、出力側結合調整手段21とを有する。出力側結合設定手段14は、複数の中間信号Oiを、複数の第二種ユニット11に対し、任意の組合せにて入力結合設定するものである。また、出力側結合調整手段21は、出力パターンをなす各出力信号Oiと、対応する教示信号Tiとの一致状態を照合し、その照合結果に基づいて、出力パターンと教示パターンとの一致状態(後述する「正解率」)が改善されるように、出力側結合設定手段14に対し、各第二種ユニット11に対する第一種ユニット10の結合の組合せ変更を指令する制御部として機能する。
【0034】
入力層30には、2種以上の被識別パターンが順次繰り返して入力される。その入力に対する学習処理は、以下のようにして各被識別パターンの入力毎に反復して行なわれる。すなわち、ある被識別パターンが入力されると、出力側結合調整手段21は、出力層50をなす第二種ユニット11の出力信号Oiと教示信号Tiとの一致状態が改善されるよう、第二種ユニット11と中間信号miを出力する第一種ユニット10との結合の組合せを変更する(つまり、結合を組替える)。
【0035】
具体的には、出力側結合調整手段21は、第二種ユニット11の出力信号Oiが非アクティブであり、対応する教示信号Tiがアクティブである場合、当該第二種ユニット11に対し第一種ユニット10との新規な結合を形成する。つまり、教示信号Tiの内容からアクティブとなるべき出力信号Oiが非アクティブとなっているということは、現在結合されている第一種ユニット10からの中間出力miの中にアクティブとなっているものが全く含まれていないことを意味する。従って、別のアクティブとなっている第一種ユニット10との結合を新たに形成することで、現在、非アクティブとなっている出力信号Oiがアクティブとなる確率を上昇させることができる。以下、第一種ユニット10及び第二種ユニット11の出力がアクティブとなることを「発火する」ともいう。
【0036】
なお、出力側結合調整手段21は、第二種ユニット11に対し第一種ユニット10との新規な結合を形成するに際し、図19に示すように、出力がアクティブとなっている既存の第一種ユニット10がある場合は該既存の第一種ユニット10との結合を形成すれば、その第二種ユニット11を直ちに発火状態に移行させることができる。他方、出力がアクティブとなっている既存の第一種ユニット10がない場合は、新たな第一種ユニット10を作成して当該作成した第一種ユニット10との結合を形成することができる。新しい第一種ユニット10を追加使用する形で、その第一種ユニット10との結合を作り、さらにその新しい第一種ユニット10と入力信号12のアクティブなものと結合を作れば、結合先の第二種ユニット11の発火確率を当然に高めることができる。なお、既存の第一種ユニット10は学習初期では閾値が低く発火しやすくなっているため、新しい第一種ユニット10が作られることは最低限に抑えられ、システムの肥大化が効果的に阻止される。また使用された第一種ユニット10の数を監視することにより、教示パターンに対し第一種ユニット10の数が不足した場合に対応できる。
【0037】
例えば、文字パターンの識別を例にとると、図22(a)に示すように、互いに異なる文字のパターンを次々に入力し、各文字のパターンを分離識別するための学習処理を行なう。教示パターンは、被識別パターンに対する正しい認識結果を与えるべき標準のパターンであり、例えば文字パターンであれば、被識別パターンが「何の文字として認識されるべきか」を正しく示す標準文字パターンが教示パターンとして選ばれる。具体的には、図22(a)及び(b)に示すように、寸法や線の太さが違ったり、ぼやけていたり、さらには(c)に示すように一部が欠けていたりするなど、同じ種別の文字パターンであっても、被識別パターンの画像情報は一定の範囲でばらつく。しかし、これらの被識別パターンみな同じ文字として識別される必要があるから、教示パターンは(d)に示すような共通の標準文字パターンが使用される。換言すれば、同一文字を表すいろいろな被識別パターンを、同じ教示パターンを用いて学習させることで、被識別パターンに多少の状態の相違が生じていても、同じ文字パターンとして正しく識別することができるようになる。なお、図22に示すように、特定の種別のパターンの識別精度を高めるには、該特定の種別のパターンを、異なる種別のパターンを挟みながら繰り返し与える形で学習反復することが効果的である。
【0038】
入力層40をなす第一種ユニット10は、周知のニューロン型素子に近い複数入力/1出力型の素子として機能し、その入力和に対する出力閾値(第一の閾値)が比較的高い値に設定される。他方、出力層50をなす第二種ユニット11は、出力閾値(第二の閾値)が前記第一の閾値よりも低く設定され、具体的には、結合される複数の中間出力の論理和を演算して出力する機能を有する。本実施形態において、第一種ユニット10及び第二種ユニット11は、いずれもアクティブ出力と非アクティブ出力とのいずれかを二値出力するものであり、また、被識別パターンと教示パターンとは、アクティブ状態と非アクティブ状態とのいずれかに設定される二値信号の集合にて形成される。
【0039】
例えば図22に示すような複数の文字パターン(被識別パターン)を教示したい場合は、第一種ユニット10への信号の入力パターン、ひいては第一種ユニット10を経由した信号の伝播パターンは文字の種別(カテゴリ)によって変化する。第二種ユニット11の出力は、そのいずれの種別(カテゴリ)の文字(被識別パターン)に由来した信号伝播パターンが到来しても、それぞれ違う文字として正しく識別された結果がその出力に反映される必要がある。ある第二種ユニット11に結合している例えば2つの中間信号のうち第一のものが、文字「A」のパターンが与えられているときにアクティブレベルとなり、第二のものが文字「B」のパターンが与えられているときにアクティブレベルになったとすると、「A」「B」量文字を正しく分離識別できるためには、その第二種ユニット11は、両結合のどちらがアクティブレベルになった場合も、出力がアクティブとなるように動作しなければならない。これが、第二種ユニット11を、論理和演算機能を有するものとして構成する理由である。
【0040】
本実施形態において、第二種ユニット11に対する第一種ユニット10の結合の組合せ変更(組替え)を行なうための、具体的な操作は以下の4種類である。
(1)特定の第一種ユニット10と特定の第二種ユニット11との間に新たな結合を形成する。
(2)特定の第一種ユニット10と特定の第二種ユニット11との間にすでに形成されている結合を解除する。
(3)特定の第一種ユニット10を削除する。(すべての結合を解除し不使用とする)
(4)第一種ユニット10を新たに作成する。(現在不使用のユニットに結合を作る)
【0041】
出力側結合調整手段21は、第二種ユニット11の出力信号Oiと教示信号Tiとの一致状態が予め定められたレベルに到達したとき、具体的には、反復学習したときの出力信号Oiと教示信号Tiとの一致確率(本実施形態では、「正解率」と称する)が一定以上に高くなったとき、個々の出力信号Oiと教示信号Tiとの一致状態が最適化されたと判断し、第一種ユニット10と第二種ユニット11との間に、出力側結合設定手段14において仮に未結合の組合せが残っていても、新たな組合せの結合を作ることなく学習処理の反復を打ち切る。なお、本実施形態において出力側結合調整手段21は、複数の中間信号miに重み付与することなく、中間信号miと各第一種ユニット11との結合の組合せのみを変更するものとして構成されている。
【0042】
次に、パターン教示システム1には学習判定情報作成手段22が設けられている。学習判定情報作成手段22は、第一種ユニット10の出力状態、つまり中間信号miの内容と、該第一種ユニット10の結合先となる第二種ユニット11への教示信号Tiの内容とに基づいて、第二種ユニット11の出力信号Oiと、これに対応する教示信号Tiとの一致状態を反映した学習判定情報を、複数の第一種ユニット10毎に作成するものである。出力側結合調整手段21は、該学習判定情報の内容に基づいて、対応する第二種ユニット11の出力信号Oiと教示信号Tiとの、反復学習時の正解率(一致状態)が改善されるように、第二種ユニット11と第一種ユニット10との結合の組合せ設定を調整する。
【0043】
本実施形態では、第二種ユニット11が論理和演算型のものであるから、第一種ユニット10からの二値の中間出力miが、そのまま第二種ユニット11の出力にも反映される。学習判定情報作成手段22は、第一種ユニット10の中間出力miと教示信号Tiとのアクティブ/非アクティブの組合せに基づく2ビットの枠内にて、学習判定情報を作成する。
【0044】
具体的には、学習判定情報作成手段22は学習判定情報を、次の3状態が識別可能なものとして作成する。
・判定一致状態:第一種ユニット10の出力がアクティブであり、かつ、該第一種ユニット10が結合する第二種ユニット11の少なくとも1つのものの出力に対応する教示信号Tiがアクティブとなっている状態(本明細書では「1」を対応させる)。第一種ユニット10が発火していていれば、これにつながる第二種ユニット11は(論理和演算型なので)必ず発火する。従って、そのつながっているどれかの発火した第二種ユニット11に対し、教示信号Tiがアクティブの形で与えられていれば(以下、このような状態を「出力/教示アクティブ一致状態」といい、該状態にある第二種ユニット11を「正解ユニット」という)、つまるところ、該正解ユニットにつながる第一種ユニット10は、発火している状態が、正しい識別状態を反映した結合設定状態であるといえる。他方、教示信号Tiが非アクティブの形で与えられている第二種ユニット11(以下、このような状態を「出力/教示アクティブ不一致状態」といい、該状態にある第二種ユニット11を「不正解ユニット」という)は、発火して判定一致状態の第一種ユニット10がこれに結合している場合、正しい識別状態を反映した結合設定状態であるといえないので、後述のように、その第一種ユニット10と第二種ユニット11との結合を切断する等の処置が必要となる。
【0045】
判定不一致状態:第一種ユニット10の出力がアクティブであり、かつ、該第一種ユニット10に結合する第二種ユニット11のすべてのものの出力に対応する教示信号Tiが非アクティブとなっている状態(本明細書では「−1」を対応させる)。判定一致状態の逆であり、つながっている第二種ユニット11の全てについて、教示信号Tiが非アクティブの形で与えられていると、その第一種ユニット10の発火状態は、誤った識別状態を反映した状態であるといえる。
中立状態:第一種ユニット10の出力が非アクティブであることを示す(本明細書では「0」を対応させる)。第二種ユニット11が論理和型なので、非アクティブの第一種ユニット10は、第二種ユニット11に結合されていてもいなくても、その出力には何ら影響を及ぼさない。
【0046】
本実施形態では、上記のような学習判定情報の内容を参照して、出力側結合調整手段21は、次のような具体的な結合処理を行なう。すなわち、図18に示すように、第二種ユニット11の出力がアクティブであり、対応する教示信号Tiが非アクティブであり、かつ、学習判定情報が判定一致状態(F=1)を示す第一種ユニット10が第二種ユニット11に接続されている場合は、それら第一種ユニット10と第二種ユニット11との結合を解除(カット)する。他方、図19に示すように、第二種ユニット11の出力が非アクティブであり、対応する教示信号Tiがアクティブとなっている状態では、その第二種ユニット11に結合する第一種ユニット10にはアクティブなものが存在しない状態なので、該第二種ユニット11と現在結合を有さない、学習判定情報が判定一致状態(F=1)を示す第一種ユニット10があれば該第二種ユニット11との結合を新規に作る。さらに上記第一種ユニット10が存在しない場合は、入力信号Iiに正しく反応する第一種ユニット10が不足している状態なので、現在全く結合を有さない新たな第一種ユニット10との結合を作り、後述のようにさらにその第一種ユニット10とパターン入力部12の入力信号Iiの現在アクティブなものとの結合を作る。(すなわち第一種ユニット10を新たに作成する)
【0047】
図1に戻り、パターン教示システム1には、パターン入力部12からの複数の入力信号Iiを、中間層40の最前段側に位置する複数の第一種ユニット10(前述の通り、本実施形態では、第一種ユニット10が一列のみなので、該列が必然的に中間層40の最前段側に位置するものとなる)に任意の組合せにて分配結合設定する入力側結合設定手段13と、出力パターンと教示パターンとの一致状態が改善されるように、各第一種ユニット10に対する入力信号Iiの結合の組合せを変更する入力側結合調整手段23とが設けられている。本実施形態においては、入力側結合調整手段23も、第二種ユニット11の出力信号Oiと教示信号Tiとの正解率(一致状態)が予め定められたレベルに到達すれば、複数の入力信号Iiと複数の第一種ユニット10との間に未結合の組合せが残されていても、これを残す形で(入力側結合設定に係る)学習処理の反復を打ち切る。
【0048】
また、入力側結合調整手段23は、初期状態の第一種ユニット作成時(つまり、その第一種ユニットの学習処理の開始時)にて、被識別パターンの入力信号Iiのうちアクティブ状態となっているもの(つまり、肯定入力)のみを選択する形で各第一種ユニット10に分配入力する。本発明者の見出した経験側によると、学習処理の反復過程において、被識別パターンを入力したときに得られる出力パターンを教示パターンと一致状態に導く上で主に寄与するのは、被識別パターンの入力信号Iiの必ずしも全てではなく、肯定入力となっているものの寄与が極めて大きいことが判明している。図16に示すように、入力信号Iiの肯定と否定((図面では、上線のバーを付与して否定を表しているが、明細書ではIi(−)と表す)の全てについて第一種ユニット10との結合を設定して学習処理を行なうことも可能であるが、図17に示すように、学習処理の開始時に、その(アクティブとなっている)肯定入力のみを選び出して第一種ユニット10との間に結合形成することにより、非アクティブ状態(否定入力)となっているものが除外される分だけ結合数が減じられ、学習処理に必要な演算を大幅に簡略化することができる。
【0049】
この場合、否定入力を以下のように活用すれば、入力信号Iiと第一種ユニット10との結合設定数を過度に増大させることなく、出力パターンと教示パターンとの一致度(正解率)をさらに向上させることができる。すなわち、出力側結合調整手段21により第二種ユニット11と第一種ユニット10との結合の組合せ設定を調整する処理を主学習処理としたとき、該主学習処理を単に反復して行なうことにより、第二種ユニット11の出力信号Oiと教示信号Tiとの一致状態が、予め定められた条件を充足するように改善された場合は、否定入力との結合導入は行なわず、肯定入力との結合の範囲内だけで、学習処理が十分なされたと判断し、処理を打ち切る。
【0050】
しかし、主学習処理の反復の後、出力信号Oiと教示信号Tiとの一致状態が、上記条件を充足する程度には改善されなかった場合には、図16に示すように、第一種ユニット作成時の入力信号Iiのうちアクティブ状態となっているものを肯定アクティブ入力として、該肯定アクティブ入力に、非アクティブ状態となっている入力信号Iiを否定反転してアクティブとした否定アクティブ入力を加えた形にて各第一種ユニット10に分配入力する。出力側結合調整手段21は、上記否定アクティブ入力(との結合)が加わった後、さらに、第二種ユニット11と第一種ユニット10との結合の組合せ設定を調整する補助学習処理を行なう。すなわち、出力信号Oiと教示信号Tiとの一致状態に応じて、否定アクティブ入力と第一種ユニット10との結合を行なうかどうかを決定するので、不必要な否定アクティブ入力の結合形成が回避され、学習処理の簡略化を図ることができる。
【0051】
なお、否定アクティブ入力との結合を導入する際には、全ての第一種ユニット10に対し一度に設定するようにしてもよいが、教示信号Tiに対し出力信号Oiが不一致(あるいは正解率が所定値以下となっているもの)となっている第二種ユニット11を探し出し、その第二種ユニット11に結合されている第一種ユニット10にのみ否定アクティブ入力を結合するようにしてもよい。後者の場合、否定アクティブ入力との結合数が一挙に増えることによる学習処理演算の過度の増大を回避することができる。
【0052】
否定アクティブ入力を設定するためには、入力信号Iiに一対一に設けられたパターン入力部12を、例えば否定アクティブ入力の結合を採用するか否かを指令する結合採用フラグ信号Qiを、入力側結合設定手段13から受けることにより、Iiを否定入力変換するものとして構成しておけばよい。等価回路的には、図2のようなものを想定することができる。すなわち、入力信号Iiを、スリーステートバッファ16を介して入力される結合信号値σiとし、各第一種ユニット10に分岐入力する。スリーステートバッファ16をバイパスし設けられたインバータ18の出力をスリーステートバッファ16のインヒビット入力Pとすれば、入力信号Iiが非アクティブのときインヒビット入力Pがアクティブとなり、ローインピーダンス状態となったスリーステートバッファ16の出力に、Iiのアクティブ入力がそのまま表れる。他方、Iiが非アクティブであればインヒビット入力Pは反転によりアクティブとなり、スリーステートバッファ16の出力はハイインピーダンス状態となって第一種ユニット10との入力結合が切断される。他方、非アクティブの入力信号Ii自体はインバータ18によりアクティブとなり、論理積ゲート17に入力される。そして、これと否定アクティブ入力設定指令信号Qiとの論理積がアクティブとなっているとき、論理積ゲート17の出力がアクティブとなり、結合信号値σiには入力信号Iiに基づく否定アクティブ入力が表れることとなる。
【0053】
図1に戻り、第一種ユニット10は、入力信号Iiが重み付与された形で並列入力結合可能とされたものである。該第一種ユニット10の出力閾値である第一の閾値は、該入力信号Iiの重み入力和に対して設定される。また、各第一種ユニット10に結合される入力信号Iiの重み値を設定する重み設定手段(入力側結合設定手段13内に組み込まれている)と、前記した(第一種ユニット10毎の)学習判定情報の内容に基づいて、対応する第二種ユニット11の出力信号Oiと教示信号Tiとの一致状態が改善されるように、該第二種ユニット11に結合されている第一種ユニット10への入力信号Iiの重み値を調整する重み調整手段26(入力側結合調整手段23内に組み込まれている)とが設けられている。
【0054】
本実施形態のパターン教示システム1においては、出力パターンと教示パターンとの一致度を高める具体的手法として、中間層をなす第一種ユニットと、出力層の第二種ユニットとの結合の組合せを最適化する手法を用いる。この結合最適化の過程で、必要のない第一種ユニット10と第二種ユニット11との結合は順次消滅・淘汰されてゆく。また、各第一種ユニット10に対する学習判定情報を参照すれば、出力信号Oiと教示信号Tiとの一致に対し肯定的に寄与している第一種ユニット10を見出すことができる。重み調整手段26は、見出された該第一種ユニット10への入力Iiの重みのみを増減させるように調整を行なう(この場合、重みの値がゼロ又はこれに近い値に設定される入力信号Iiは、結合が形成されていないことと実質的に同じである)。本実施形態では、被識別パターンをなす複数の入力信号Iiのうち、各第一種ユニット10にユニット作成時最初に結合するものの重み値を同一の初期値に設定する。
【0055】
重み調整手段26は、学習判定情報が前述の判定一致状態となっている第一種ユニット10に対しては入力信号Iiのうち、現在アクティブなものとの重みを増加させ、判定不一致状態となっている第一種ユニット10に対しては入力信号Iiのうち、現在アクティブなものとの重みを減少させる処理を行なう。つまり、図18に示すように、判定一致状態となっている第一種ユニット10は、教示信号Tiがアクティブの形で与えられている第二種ユニット11に発火状態にて結合することが正しい設定状態であるから、結合設定されている入力信号Iiのうち現在アクティブなものとの重みを増加させることにより、該第一種ユニット10の発火状態が支援され、出力パターンと教示パターンとの一致度を高めることができる。
【0056】
他方、重み調整手段26は、学習判定情報が中立状態となっている第一種ユニット10に対しては入力信号Iiの重み増減処理を行なわないものとして構成できる。学習判定情報が中立状態となっている第一種ユニット10は非発火であるから、いかなる第二種ユニット11に対しても、結合形成を行なう/行なわないにかかわらず、該第二種ユニット11の出力状態には影響を及ぼさない。このような中立状態の第一種ユニット10は、以降の学習処理の繰り返しにおいて、当該第一種ユニット10に対する学習判定情報が判定一致状態又は判定不一致状態のいずれに移行するかが予測できない限り、入力信号Iiの重み増減処理を無理に行なうと、出力パターンと教示パターンとの一致度向上に返って悪影響を及ぼす可能性がある。従って、中立状態の第一種ユニット10に対する入力信号Iiとの結合状態、すなわち重みの値は、特に変更せず保留することが望ましいといえる。
【0057】
例えば、カテゴリの異なる2つのパターン(図では「A」と「B」の2つの文字パターンの場合を例にとっている)を識別しようとした場合、図23に示すように、各第一種ユニット10への入力の重みは、第一のパターン(例えば「A」)を識別するのにアクティブとならなければならない入力の組((a):入力1,4,7の重みW1,W4,W7が大きくなっている)と、第二のパターン(例えば「A」)を識別するのにアクティブとならなければならない入力の組((b):入力2,5の重みW2,W5が大きくなっている)とが互いに相違するものとなる。学習処理を繰り返すと(例えば図22(b))、カテゴリ毎に相違する固有の入力の組が独立して重み加算され、両パターンが識別可能となるような入力の重み設定状態が自然に形成される。2つのパターンの類似度が小さければ、重みが一定以上に大きくなる入力のうち、パターン間で互いに共通するものの数が減り、パターンの識別精度は必然的高くなる。他方、類似度が極めて大きい場合は、重みの大きくなる共通入力の数が増大し、パターンの識別精度は低くなる。
【0058】
また、図21に示すように、同じカテゴリのパターンであっても、被識別パターンの内容に一定の幅をもたせた曖昧な識別を可能としたい場合は、同一カテゴリなら必ずアクティブとなる入力と、被識別パターンの内容によってアクティブになったりならなかったりする入力とが統計的に分布した形で生ずる。これらの入力の荷重和に対する第一種ユニット10の出力の閾値(第一の閾値)の調整により、曖昧な識別の許容範囲を規定することができる。
【0059】
以上、図1の等価回路によるパターン教示システム1の構成と動作の概要とを説明したが、該等価回路と同じ機能を持ったパターン教示システム1は、図3に示すように、コンピュータでのエミュレーションによって実現することもできる。このコンピュータは、CPU2とそのワークエリアとなるRAM3(CPU2の動作システム等を格納したROM4を設けてもよい)、エミュレーションプログラムを格納した記憶装置5、及び入出力インターフェース6をバス7により結合したもので、被処理パターンを構成する入力信号Ii、教示パターンをなす教示信号Tiが入出力インターフェース6より入力され、図1の等価回路に従う上記パターン教示システム1の学習処理がエミュレーションプログラムの実行によりCPU2上にて行なわれ、パターン識別結果である出力パターンの出力信号Oiが入出力インターフェース6より出力される。なお、該エミュレーション処理は、図4に示すように、ネットワーク接続された複数台のコンピュータ群101,102によって協働的に行なってもよい。図4のシステムでは、中間層40をなす複数の第一種ユニット(入力層30を含む)を分担して機能実現する、相互に通信可能な入力層/中間層用コンピュータ群101と、出力層50をなす複数の第二種ユニットを分担して機能実現する、出力層用コンピュータ群102とがネットワークNWにより互いに接続され、全体として1個のパターン教示システム1を実現するためのコンピュータネットワークシステムが構築されている。
【0060】
図9に示すように、入力信号値Iiは数nが固定とされた一次元変数であり、否定入力の結合採用フラグ信号値Qiと、設定される結合信号値σiと対応付けられた形で、入力設定メモリに記憶される。本明細書において、入力信号値Iiは、肯定論理においてアクティブを「1」、非アクティブを「0」にて表す。結合信号値σiは、否定入力の結合採用フラグ信号値Qiが非アクティブ(「0」)ならば肯定結合入力が採用され、入力信号値Iiが「1」となっているものが、そのまま結合信号値σiの「1」の値として設定される。他方、否定入力の結合採用フラグ信号値Qiがアクティブ(「1」)ならば否定結合入力が採用され、入力信号値Iiが「0」となっているものが否定反転されて、結合信号値σiの「1」の値として設定される。結合信号値σiが「1」となる入力信号値Iiは、それぞれ、図1において、全ての第一種ユニット10(MU1〜MUx:ただし、後述の結合可能テーブル(図11)に登録されていないものを除く)に分配結合される。第一種ユニット作成時において入力信号値Iiは、入力設定メモリσiが「1」となっていれば第一種ユニット10に結合が形成され、σiが「0」となっていれば第一種ユニット10と結合が形成されない。
【0061】
以下、RAM3(図3)内に形成される、各種テーブル及びメモリの内容について説明する。出力パターンをなす第二種ユニット11の出力信号Oiは、総数nが固定であり、図10に示すように、与えられる教示パターンをなす教示信号Tiと対応付けられた形でメモリ51に記憶される。
【0062】
図1において、第一種ユニット10は、前述の通り、学習処理中の要請に応じて随時増設ないし削除されるので、その総数x(=中間信号miの総数でもある)は変動する。図11に示すように、学習処理の途上で、第一種ユニット10/第二種ユニット11間にて結合形成が不適切と判断された結合を登録削除したり、第一種ユニット10の増設により、新たに結合設定可能となった組合せを新規登録したりすることができるように、第一種ユニット10の列(MUj)と第二種ユニット11の列(OUi)との全ての組合せについて、結合可能フラグBij(Bij=1なら結合可能、Bij=0なら結合不能)が、第一種ユニット結合可能テーブル52の形で設定される。第一種ユニット10の番号MUjはデフォルト設定値MUを有し、第二種ユニット11毎に、対応する結合可能フラグBixの列は全て初期値が「1」(すなわち、結合可能)に設定される。また、新しい第一種ユニット10’MUx)が増える毎に1づつ増加設定され、これに対応して各第二種ユニット11の列OUiに対応した結合可能フラグBixの列が、初期値「1」を有した形で追加登録される。なお、複数の入力パターンよりなる教示パターンセットの学習を終えたネットワークに対し、新たな教示パターンセットを追加学習させるときも、全て初期値を「1」にリセットする
【0063】
さらに、図11の第一種ユニット出力メモリ53には、各第一種ユニット10(MU1,‥,MUx)が出力する中間出力miの値と、各第一種ユニット10の出力に対する正解率(該第一種ユニット10が結合される第二種ユニット11の出力信号Oiと教示信号Tiとの一致度を示す確率的変数である)Riと、第一種ユニット10の発火計算における閾値Hiと、学習収束済を示すフラグGiが、第一種ユニット10の番号と対応付けた形で記憶される。
【0064】
他方、結合設定の登録削除は、第一種ユニット10(MUj)と第二種ユニット11(OUi)の組合せ毎に、Bijの値を「0」に設定することで、個別に行なうことができる。また、第一種ユニット10(MUj)が削除されると、その第一種ユニット10(MUj)と全ての第二種ユニット11との結合が一括して削除される(すなわち、フラグB1j,B2j,‥,Bnjが一括して「0」に設定される)。第一種ユニット結合可能テーブル52を参照することで、これに登録されていない結合(つまり、Bijが「0」になっている結合)は、学習判定情報の作成など、該結合に関与する学習処理のステップをスキップすることができ、学習処理全体の効率化を図ることができる。
【0065】
図12に示すように、入力側結合設定入力信号Iiと第一種ユニット10(MUj)との実際の結合設定状態は、すべての入力信号Iiと第一種ユニット10(MUj)との組合せ毎に、結合設定フラグCijとして、第一種ユニット入力側結合設定テーブル53の形で設定記憶される。Cij=「1」は結合が設定されていることを、Cij=「0」は結合が設定されていないことをそれぞれ示す。また、図13に示すように、入力信号Iiと第一種ユニット10(MUj)との個々の結合毎に設定される重み値Wijは、重み設定メモリ54に記憶される。さらに、図1の第一種ユニット10(MUj)と、第二種ユニット11(出力信号(Oi))との結合設定状態は、すべての第一種ユニット10(MUj)と第二種ユニット11(出力信号Oi)との組合せ毎に、結合設定フラグKijとして、第一種ユニット出力側結合設定テーブル55の形で設定記憶される。Kij=「1」は結合が設定されていることを、Kij=「0」は結合が設定されていないことをそれぞれ示す。
【0066】
また、図15の学習判定メモリ56には学習判定情報の内容が記憶される。学習判定情報は、前述の通り、個々の第一種ユニット10の中間信号miの内容と、該第一種ユニット10の結合される第二種ユニット11(の出力信号Oi)に対応する各教示信号Tiの内容とに基づいて、第一種ユニット10毎に作成・記憶される。この場合、1つの第一種ユニット10が複数の第二種ユニット11に結合されることもありえるので、学習判定情報は、中間信号mi(第一種ユニット10)毎に、結合されている全ての第二種ユニット11への教示信号Tiについて、要素判定情報fijとして作成される。その内容は、前述の通り、判定一致状態に対応する「1」、判定不一致状態に対応する「−1」、中立状態に対応する「0」である。結合形成の有無は、第一種ユニット出力側結合設定テーブル55の内容を参照すれば直ちに把握でき、結合設定されていない組合せについては、要素判定情報fijの作成をスキップする。そして、中間信号mi(第一種ユニット10)毎に、要素判定情報fi1,fi1,‥,fin(結合設定されていない組合せを除く)を用いて、該中間信号miすなわち第一種ユニット10を代表した学習判定情報Fiを作成する。本実施形態では、中間信号mi(第一種ユニット10)毎の要素判定情報fi1,fi1,‥,finの少なくとも一つが「1」(判定一致状態)になっていれば、学習判定情報Fiを「1」(判定一致状態)とし、fi1,fi1,‥,finが「1」を含まず、かつ少なくとも一つが「−1」(判定不一致状態)になっていれば、学習判定情報Fiを「−1」(判定不一致状態)とする。また、要素判定情報fi1,fi1,‥,finの全てが「0」(中立状態)になっていれば、学習判定情報Fiを「0」(中立状態)とする。
【0067】
以下、パターン教示システム1の学習処理の更なる詳細を、図4〜図8のフローチャートにより、エミュレーションプログラムの処理の流れに沿って説明する(図1の等価回路に対する補足説明も含むので、符号は該図1のものを援用する)。図4は、主プログラムの流れを示すものである。まず、S1においては、種々のパラメータの初期化処理を行なう。具体的には、第一種ユニット10の個々の閾値Hを初期化(本実施形態では0.5)、正解率Ri(初期値:全て0)、被処理パターンをなす入力信号Iiの各第一種ユニット10との結合の重みWij(初期値:すべて0)などが初期化される。初期状態では、全ての結合が非設定の状態とされ、第一種ユニット作成時において入力信号Iiはアクティブとなっているもののみ結合可能とされる。
【0068】
第一種ユニット10の個々の閾値Hの初期値を0.5前後とする理由は、以下の通りである。説明をわかりやすくするために、1つの教示パターンを与え、その時の肯定入力のアクティブな入力信号Iiのみと結合を作る第一種ユニット10を作成し、かつ、一つの第二種ユニット11と結合を作った状態とし、この第一種ユニット10の結合について考える(他には、第一種ユニット10が作成されていないものと仮定する)。この時点での結合には、真に必要な入力と余分な入力とが混在している。この第一種ユニット10の結合の最適化のみであれば、第二種ユニット11に入力する第一種ユニット10が一つであるから、単に複数の教示パターンを与え教師信号と入力信号Iiの相関を取れば真に必要な入力のみが分離できることになる。ここで第一種ユニット10の発火を考慮すると、入力がアクティブとなる数の割合は50%であるから、閾値を0.5とすることにより、初期では第一種ユニット10が常時発火となる可能性が高くなる。学習が進むと、真に必要な入力のみでしか発火しなくなり、発火は減少する。
【0069】
順次教示パターンを与え、一つの第二種ユニット11に結合された既存の第一種ユニット10が発火し、教師信号がアクティブな場合は、それら第一種ユニット10に結合する入力信号Iiの中に真に必要な入力が含まれていて、かつ発火した可能性が高いので、入力信号Iiがアクティブであった結合の重さを増やす処理を行なう。他方、第一種ユニット10が発火し、教師信号がアクティブでない場合は、必要でない入力信号Iiにより発火した可能性が高いので入力信号Iiがアクティブであった結合の重さを減らす処理を行なう。
【0070】
次に、第一種ユニット10の追加作成を考える。順次教示パターンを与え、既存の第一種ユニット10が発火せず教師信号がアクティブな場合は、その第一種ユニット10がある程度学習が進んで閾値が高くなっており、入力信号Iiとの結合の中に教師信号が欲する真に必要な入力信号Iiがほとんど含まれていない場合が想定される。従って、新しく第一種ユニット10を作成し、真に必要な入力が含まれているアクティブな入力信号Iiとの結合を作る。
【0071】
第一種ユニット10が一つの場合は教師信号を補正係数として使用すれば十分であるが、複数の場合は、教師信号が欲する真に必要な入力が含まれていない第一種ユニット10にも正の学習判定信号が返るのは学習の妨げとなる。そこで閾値を徐々に上昇させ、発火した第一種ユニット10のみが学習されるようにし、真に必要な入力信号Iiとの結合が含まれている第一種ユニット10にだけ、正の学習判定信号が返るようにすることができる。なお、一つの第一種ユニット10の発火により正の学習判定信号が返り、他の間違って発火した第一種ユニット10にも正の学習判定信号が返ることは、直ちには排除できないが、発火して教師信号が1であった第二種ユニット11に結合する第一種ユニット10の発火したもののうち、加重和Yの最大のもののみに正の学習判定信号を返すことにより効果的に防止できる。
【0072】
初期の閾値を0.5としておけば、初期の結合により余分な入力信号が含まれていても、第一種ユニット10が発火しやすくなり、学習が進んで必要な入力信号との結合が高くなるに従い、正の学習判定信号が返る率が上がる。また、それに伴い閾値を上昇させればさらに正解率も上がり必要な入力との結合数が増加する。これにより学習の進んだ段階では、第一種ユニット10の反応は必要な入力信号のあったときのみに固定され、他のパターンの影響を受けなくできる。また、かなり近い入力信号パターンが与えられた場合も発火しなくなるので、別の第一種ユニット10の作成を促進できる(つまり、類似のパターンの識別能力が、別ユニット作成により高められるのである)。なお、閾値の上限値は1であり、このとき第一種ユニット10は論理積ゲートの動作に近いものとなる。
【0073】
なお、既存第一種ユニット10が発火せず、教師信号がアクティブな場合でも、既存の第一種ユニット10に真に必要な入力信号Iiとの結合が含まれている場合を排除できない可能性がある。この場合、同じ第一種ユニット10が複数作られてしまうことになる。この不具合を解消するには、第一種ユニット10の初期閾値を0.5より少し低く設定し(例えば0.40〜0.49程度)、第一種ユニット10の発火を促進することが有効である。
【0074】
図4に戻り、S2では、複数の第一種ユニット10の最初のものを選択し(第一種ユニット番号NPmax=1)、S3では、教示反復カウンタCTを初期化する(CT=1)。S4では、学習処理に使用する被識別パターンと教示パターンの番号NTを初期化する(NT=1)。そして、S5において、番号NTの被識別パターン(入力信号Ii)と教示パターン(教示信号Ti)とをリードする。
【0075】
次はS6に進んで発火処理に移る。図6にその詳細を示す。この処理は、各第一種ユニット10について行なうことになる。まず、S201では、第一種ユニット10の番号NP’を1に設定する。S202では、番号NP’の第一種ユニット10に結合しているアクティブとなっている結合入力値σi(否定入力を採用していない場合はIiの値と一致し、採用している場合はIi(−)と一致する)を全て集める。
【0076】
S204以下は、結合入力値σiの荷重和算出処理となる。まず、S204で、結合入力値σiの番号iを1とし、荷重和Σ1と、荷重合計値Σ2をゼロとする初期化を行なう。S206では、Wi,NP’を用いて荷重和加算値Wi,NP’・σiを計算して荷重和Σ1に加算する処理を行ない、また、S207では荷重値Wi,NP’を荷重合計値Σ2に加算する処理を行なう。この処理を全てのi(=1,2,‥,n)について繰り返し、得られた最終的な荷重和Σ1を、荷重合計値Σ2で除することにより、正規化された荷重和Yを求める。このとき荷重値Wi,NP’はプラスのものだけを採用し、マイナスのものはゼロとして計算することが望ましい。また結合設定フラグCij=「1」のものだけについて荷重和加算値を加算することにより学習を安定させることもできる。
【0077】
そして、S212では、正規化された荷重和Yを第一の閾値HNP’と比較し、Y≧HであればS213に進んで、番号NP’の第一種ユニットの出力を発火とし、Y<HであればS214に進んで、番号NP’の第一種ユニットの出力を非発火とする。以上の処理を、番号NP’をインクリメントしながら、全ての第一種ユニットについて繰り返し(S215,S216→S202)、重み演算・設定処理を終わる。上記処理の進行に伴い、テーブル54及びメモリ153の内容を随時更新する。また、メモリ153の内容とテーブル55の内容を照合することにより、MU1〜MUxのうち、出力信号Oiの第二種ユニット11と結合している第一種ユニット10の、少なくとも一つが発火していれば、当該第二種ユニット11の出力信号Oiがアクティブ(「1」)とされる(すなわち、発火する)。
【0078】
図4に戻り、次にS7に進んで、学習判定情報の更新処理に移る。これも、各第一種ユニットについて求める処理となる。まず、S301では、第一種ユニット10の番号NP’を1に設定する。S302では、番号NP’の第一種ユニット10が発火しているかどうかを判定する。発火していればS303に進み、既に図15にて説明したごとく、該第一種ユニット10が結合している第二種ユニット11の全てについて、教示信号Tがアクティブ(「1」)になっているものがあるかどうかを調べ、その結果から要素判定情報fを定め、要素判定情報fが一つでも1になっていれば、S304に進んで、該第一種ユニット10に対する学習判定情報FNP’を「1」(判定一致状態)に定める。また、要素判定情報fが「1」を含まず、かつ少なくとも一つが「−1」になっていれば、S305に進んで、該第一種ユニット10に対する学習判定情報FNP’を「−1」(判定不一致状態)に定める。さらに、要素判定情報fが全て「0」になっていれば(つまり、その第一種ユニット10が発火していなければ)、該第一種ユニット10に対する学習判定情報FNP’を「0」(中立状態)に定める。以上の処理を、番号NP’をインクリメントしながら、全ての第一種ユニットについて繰り返し(S307,S308→S302)、学習判定情報の更新処理を終わる。
【0079】
図4に戻り、次にS8に進んで、現在着目している第一種ユニット10(番号NP)の正解率RNP’を演算する。該処理の詳細は図8に示す通りである。すなわち、番号NPの第一種ユニット10の前回の正解率RNP’’及び閾値HNP’’を読み出す。S402では、その番号NPの第一種ユニット10の学習判定情報FNP’をリードする。そして、前回の正解率RNP’’を、学習判定情報FNP’を用いて、S403に記載の式により更新し、新しい正解率RNP’とする。正解率RNP’は、学習が進むにつれ学習判定情報FNP’「1」(判定一致状態)が返ることにより上昇する。これによりその第一種ユニット10の学習の進み具合がわかり、ひいてはすべての第一種ユニット10の正解率Rをつかむことにより学習の進み具合を把握することもできる。つぎに第一種ユニット10の閾値HNP’を、着目している第一種ユニットの前回の閾値HNP’’と学習判定情報FNP’の値とを用いて、S404に記載の式により更新し、新しい閾値HNP’とする。閾値HNP’も学習が進むにつれ学習判定情報FNP’「1」(判定一致状態)が返ることにより上昇する、これによりある程度学習が進んで正解率が上がってきた段階での第一種ユニット10の反応を安定化させることができる。さらに結合入力値σiと第一種ユニット10の番号NP’とに対応する重みWi,NP’を、Wi,NP’+FNP’・(2σi−1)により更新する(S405の式と等価)。FNP’の値は「1,0,−1」なので、重みWi,NP’は、FNP’=1.σi=1であれば必然的に「+1」となり、FNP=−1.σi=1であれば「−1」となる。なお、上記重み計算式は、F P’が1のときにのみWi,NP’+(2σi−1)とするように、簡略化することもできる。また、結合設定フラグCij=「1」のものだけについて重みWi,NP’を更新することにより学習を安定させることもできる。
【0080】
図4に戻り、次に、S9のユニット生成・結合処理へ移る。図5は、その詳細を示す。S101では、第二種ユニット11の番号NSを初期化する(NS=1)。S102では、番号NSの第二種ユニット11が発火しているかどうかを、その第二種ユニット11の出力信号ONSにより判定する。発火していない場合はS103に進み、教示信号TNSがアクティブかどうかを判定する。パターン一致するためには、出力信号ONSと教示信号TNSが一致していなければならない。教示信号TNSが非アクティブ((=「0」)ならS104に進む。その第二種ユニット11との結合が非形成で、学習判定情報FNP「1」の第一種ユニット10との結合を以後作らないよう、結合可能テーブル52(図11)に結合非(Bij=0)と登録する。これは、教示信号TNSが非アクティブ((=「0」)のとき、学習判定情報FNP「1」の第一種ユニット10は教示信号TNSとの関係がないためである。
【0081】
また、S103で教示信号TNSがアクティブな場合はS105に進み、該第二種ユニット11に非結合の第一種ユニット10のうち、学習判定情報FNP「1」のものが結合可能テーブルで結合可であればS106に進んで、その第一種ユニット10との結合を形成する。また、S105で発火している第一種ユニットがない場合はS108に進み、新しい第一種ユニット10(第一種ユニット番号NPmax)を作成して、番号NSの第二種ユニット11に結合する。また、新しい第一種ユニット10を結合可能テーブル52(図11)に登録する。また、S110では、学習を収束させるべき第一種ユニット10の番号の最大値NPmaxを更新する。そして、S107に進んで、の結合した第一種ユニット10に対し、結合信号値σiが「1」となっている入力信号Iiを結合設定フラグCij=「1」および荷重値Wi,NP’=1として結合設定する。このとき初期荷重値Wi,NP’は1より大きな値とすることもできる。
【0082】
一方、S102において番号NSの第二種ユニット11が発火している場合はS111に進み、教示信号TNSが非アクティブならばS112に進んで、学習判定情報Fが「1」、すなわち、判定一致状態になっている第一種ユニット10との結合が存在しているかどうかを調べる。結合が存在すると、番号NSの第二種ユニット11は必然的に「発火」となるが、教示信号TNSが示す内容(非アクティブ)と整合しないので該結合をカットし、さらにS114では、結合可能テーブル52(図11)において、その結合していた第一種ユニット10と番号NSの第二種ユニット11との結合フラグを「0」とし、結合不能の組合せとして登録する。また、S111において教示信号TNSがアクティブならば正しい結合状態が実現しているので、特に結合の追加や切断の処理は行なわない。以上の処理を、番号NSをインクリメントしながら、全ての第二種ユニット11について繰り返し(S115,S116→S102)、ユニット生成・結合処理を終わる。上記処理の進行に伴い、テーブル52,53,54の内容を随時更新する。
【0083】
図4における以上のS6〜S9の流れにより、番号NPの第一種ユニット10に関する学習処理が一サイクル終了となる。例えば図22に示すような方式にて被処理パターンと教示パターンとを変更しながら、この学習処理を複数回繰り返す。図4では、教示反復カウンタCTが一定数CTmaxに到達するまで、番号NTのインクリメントにより被処理パターンと教示パターンとを次々と変更して、S6〜S9の学習処理を繰り返すようにしている(S10,S11,S12→S5)。これにより、番号NPの第一種ユニット10の正解率Rは次第に向上してゆく。これは、学習処理を繰り返す毎に、S9における第一種ユニット10と第二種ユニット11との結合設定状態と、S8での第一種ユニット10への入力の重み設定状態とが、正解率Rが向上する方向に最適化されてゆくためである。図5の処理内容からも明らかなように、結合設定状態の最適化は、出力信号Oiと教示信号Tiとの直接比較による第二種ユニット11レベルでのフィードバックと、学習判定情報FNP’を参照した第一種ユニット10レベルでのフィードバックとの二面から、効果的に進められてゆく。また、図8の処理内容からも明らかなように、第一種ユニット10への入力の重み調整は、該第一種ユニット10に集められている入力結合信号σiへの一律的な重み加算処理が主体であり、最急降下法のごとき重み最適化のための複雑な数学的アルゴリズムは一切介在していない。
【0084】
次に、S13においては、番号NPの第一種ユニット10の正解率RNPをリードし、RNPの値が予め定められた閾正解率RSを超えたところで、所期の学習効果が得られたと判断して、S16(S15の重み正規化については後述)へ進み、番号NPの第一種ユニット10の学習による最適化が収束したと判定して、各第一種ユニット10に一対一に対応して設けられた収束済みフラグG(図11)の、番号NPに対応する記憶値GNPを「収束済み」(本実施形態では「1」)に設定する。
【0085】
一方、一定数CTmaxの学習処理を繰り返しても、S14においてRNPの値が閾正解率RSに満たない第一種ユニット10については、S22に進んで、そのユニットが既に否定入力を結合済みであるかどうかを確認する。Noの場合はS23に進み、その第一種ユニット10の結合設定フラグCij=「1」の入力結合の重みを全て初期化し(本実施形態では初期値=1)、図16に示すごとく、既存の肯定アクティブ入力Iiによる結合信号値σiに加え、否定アクティブ入力Ii(−1)を、新たな結合信号値σiとして付け加える。すなわち、入力信号Iiのうち結合設定フラグCij=「0」になっているものを、否定反転してアクティブとし、これを結合信号値σiとして追加する。(否定入力結合の重みは本実施形態では初期値=1又は0)以下、S3に戻って、学習処理を位置からやり直す。このような否定入力の結合を行なっても、S14にてRNPの値が閾正解率RSに満たない場合は、その第一種ユニット10は学習効果への寄与がほとんど期待できないと判断し、S22からS26に進んで、その第一種ユニットの結合をすべて削除する。
【0086】
上記のごとく、第一種ユニット10の作成時に否定側入力信号を介在させないようにし、必要に応じて否定側入力信号を採用することにより、次のような利点が得られる。すなわち、本発明の方式による学習処理においては、真に必要な否定側入力信号は一般的に少ないと考えられ(つまり、多くの学習処理では肯定側入力信号だけでこと足りてしまうことが、経験的にわかっている)、敢えて初めから否定側入力信号を採用して学習を行うと、数多い否定側入力信号の影響を大きく受けて学習スピードが低下する可能性がある。そこで、学習初期に限って肯定側入力信号だけを採用すれば、学習の進行に伴い、第一種ユニット10は発火しやすい側に傾いてゆくため、否定側入力信号を初期状態では不採用としても基本的には学習には悪影響が生じず、また、多数の否定側入力信号を採用したときの弊害も排除できる。また、第一種ユニット10の作成時に否定側入力信号を肯定側のマイナス結合とすることは、第一種ユニット10が発火しにくくなる側に傾くため、学習に悪影響が生ずる。
【0087】
S23からS25の処理の代わりに、入力信号Iiに対する荷重値Wi,NP’ のうち、マイナス側に絶対値が大きくなっているものを、否定アクティブ入力Ii(−1)として、否定反転してアクティブとし新たな結合信号値σiとして付け加えることもできる。また、結合を作る前処理として、あらかじめ入力信号と、第二種ユニットの出力に対する教師信号との相関情報を作成し、第一種ユニットの作成時において、入力信号との結合を作る際に、単に肯定入力となっているものを機械的に採用するのでなく、教師信号とアクティブに相関している入力のみを選択して採用することにより、学習をより安定させることも可能である。
【0088】
第一種ユニット10の学習判定情報FNPは、学習処理の初期段階では教示信号と出力信号との一致が確率的には同程度のため、「判定一致状態」以外の状態(つまり、判定不一致状態あるいは中立状態)になっていることもある。しかし、学習処理を繰り返すことにより、学習判定情報FNPもやがては「1」(判定一致状態)に変化し、正解率Rも高まってゆく。
【0089】
さて、図4の処理では、学習処理の繰り返しの途上で、第一種ユニット10が増設されることを考慮して、収束済みフラグGが「0」となっている第一種ユニット10、つまり、非収束の第一種ユニット10を探し出し、学習処理を繰り返す。そして、S20において、非収束の第一種ユニット10がテーブルからなくなれば、全ての第一種ユニット10において、学習による最適化が収束したと判定し、全体の処理を終了する。
【0090】
本実施形態の学習方式と、従来のバックプロパゲーション(以下、「BP」と略記する)方式との効果の差異をまとめると、以下のようになる。BP方式における重み更新の学習式は、本実施形態の記号を使うと、Wn=Wn+ k(Tn−Yn)*Iiと表すことができる(ただし、中間ユニットではTnが複数のユニットからのフィードバックとなる)。また、(Tn−Yn)の部分が本方式の学習判定情報FNPに相当するが、その内容は以下のように相違する。
【0091】
【表1】

Figure 2004252943
【0092】
なお、図8のS405において、重みWNP’を(2Ii−1)を用いて更新しているのは、Iiが0のとき(2Ii−1)は−1となるので、統計的に余分な入力の結合を消滅させることができるためである。他方、図8の処理は、図27に示すように変更することもできる。閾値更新処理を図8のS404の演算式を用いた方式から、図27のS404’の演算式を用いた方式に改めることにより、閾値をよりスムーズに増加させることができる。さらに、図27のS405、S4051及びS4052においては、判定不一致(つまりF=−1)の時の、結合値Wの更新回数を少なくできる。入力パターンが複雑に数多く入り混じっているような場合、判定不一致F=−1となる確率が判定一致F=1に比べて相当多くなってしまい、学習が収束しなくなってしまうこともありえる。この場合、判定一致F=1のときのみW=W+(I−1)として、非アクティブな入力を消していく方法もありえるが、ノイズに弱くなってしまう問題がある。そこで、上記S405、S4051及びS4052の処理は、判定一致(つまり、F=1)の場合にのみ、W=W+(2I−1)が更新されるのと実質的に等価な処理結果が得られるように工夫されている。
【0093】
BP方式では、Tnが大きく出力Ynが小さいと、Wn=Wn+k(Tn−0)*Iiとなり、本実施形態の第一種ユニット作成に際しての、アクティブな入力信号との結合形成時の働きと、一見類似したものとなる。しかし、BP方式において根本的に相違する点は、ユニット間の結合が存在しないとIiが定義不能な点であり、これを乱数で初期化するために、真に必要な入力信号との結合を増やすことは偶然にしか起こり得ないことになる。その結果、余分な入力信号との結合も増やさざるを得なくなり、また、必要な入力信号との結合が薄い場合は、結合を増やすことが物理的に不能となる場合もある。また、重みWnを一律に設定すると、真に必要な入力信号との結合を増やすことはできるが、ほかのすべてのユニットとの結合も増えてしまうためユニットの分化が起らなくなる。BP方式では、このように学習の進行が初期の乱数に大きく左右されるため、ユニットがうまく分化しなくなって、局所解に陥りやすくなる欠点がある。しかしながら、本実施形態の方式では、第二種ユニットが不発火時には、必要に応じて第一種ユニットを追加作成することで、肯定側アクティブな入力信号との結合を作るようにしたので、上記のような不具合は生じない。
【0094】
以上のごとく、図4の処理により、個々の第一種ユニット10の学習による最適化が収束すれば、パターン教示システム1は、以降は、ある入力パターンが与えられたとき、その入力パターンが教示したパターンと一致しているか否かを、得られる出力パターンが教示パターンと一致しているかどうかにより、簡単に識別できるようになる。すなわち、該システム1をパターン識別装置として使用できる。
【0095】
なお、上記のパターン教示システム1の構成を用いると、最終的には図23に示すように、入力側につながる第一種ユニット10への入力の重みと、出力側につながる第一種ユニット10と第二種ユニット11との結合が最適化されたパターン識別装置が得られることとなる。この状態では、第二種ユニット11は論理和型の素子になっているが、第一種ユニット10は重み入力を伴う非線形素子のままである。しかし、第一種ユニット10を、入力信号を重み値に応じて取捨選択し、残した入力信号を二値入力化して扱うことにより、論理積ゲート回路に置換することができる。具体的には、図20に示すように、入力信号Ii(否定入力考慮する場合は結合信号値σi)のうち、重み値Wiが予め定められた閾値Wsよりも大きいもの(図20では、重みW1,W4,W6,W8)のみを二値入力として残す形で、第一種ユニット10を論理積ゲート回路にて置換することができる。重み値Wiが予め定められた閾値Wsよりも大きいか否かにより、当該重みWiを有した入力の取捨選択処理(以下、重み正規化処理という)、ひいてはそれによる第一種ユニット10の論理積ゲート回路への転換処理を極めて簡単に行なうことができる。
【0096】
なお、図1の等価回路にて示すパターン教示システム1では、中間層40を構成する第一種ユニット10の列は一段のみであったが、図25に示すように、第一種ユニット10の列を入力側結合設定手段13を介して複数段に接続することも可能である。しかし、この場合、第一種ユニット10の列間では、従来のニューラルネットワークと同様の重み最適化処理が必要となる。図1の等価回路では、第一種ユニット10の列が一段であるために、複雑なパターン識別処理には限界があるが、入力側の重み設定と、中間層40及び出力層50間の結合設定とをいわば分離して処理できるため、学習処理の効率が極めてよい利点がある。そこで、図26に示すように、被識別パターンが入力されるシステム1’の出力信号Oiを、そのまま、次の同様の構成のシステム1’の入力に用いることで、複数のシステム1’を結合し、全体として、より識別の自由度の高いパターン教示システムを得ることも可能である。
【図面の簡単な説明】
【0097】
【図1】本発明のパターン教示システムを、等価回路の一例にて示す概念図。
【図2】パターン入力部の等価回路の一例を示す概念図。
【図3】図1のパターン教示システムを、コンピュータエミュレーションにて実現する例を示す図。
【図4】図3のパターン教示システムの、エミュレーションプログラムの処理の流れの一例を示すフローチャート。
【図5】図4のユニット生成・結合処理の詳細を示すフローチャート。
【図6】図4の発火処理の詳細を示すフローチャート。
【図7】図4の学習判定更新処理の詳細を示すフローチャート。
【図8】図4の重み設定・正解率演算処理の詳細を示すフローチャート。
【図9】入力設定メモリの概念図。
【図10】教示信号と出力信号との記憶メモリの内容を示す概念図。
【図11】第一種ユニット結合可能テーブルと、第一種ユニット出力メモリの内容を示す概念図。
【図12】第一種ユニット入力側結合設定メモリの内容を示す概念図。
【図13】重み設定メモリの内容を示す概念図。
【図14】第一種ユニット出力側結合設定メモリの内容を示す概念図。
【図15】学習判定結果メモリの内容を示す概念図。
【図16】第一種ユニットへの入力信号の結合形態の第一例を示す模式図。
【図17】第一種ユニットへの入力信号の結合形態の第二例を示す模式図。
【図18】第一種ユニットと第二種ユニットとの結合組換えの第一例及び第二例を示す説明図。
【図19】第一種ユニットと第二種ユニットとの結合組換えの第三例を示す説明図。
【図20】第一種ユニットを論理積ゲート回路に変換する方法を示す説明図。
【図21】被識別パターンと教示パターンとの関係を例示する説明図。
【図22】被識別パターンと教示パターンとを繰り返し教示させるシーケンスの例をいくつか示す説明図。
【図23】本発明のパターン教示システムによる学習処理と、入力の重み設定との関係を概念的に説明する図。
【図24】ネットワーク接続された複数のコンピュータにより、エミュレーション型パターン教示システムを実現する例を示すブロック図。
【図25】図1の本発明のパターン教示システムの変形例を示す等価回路図。
【図26】図1の本発明のパターン教示システムの別の変形例を示す等価回路図。
【図27】図4の重み設定・正解率演算処理の別例を示すフローチャート。
【符号の説明】
【0098】
10 第一種ユニット
11 第二種ユニット
12 パターン入力部
13 入力側結合設定手段
14 出力側結合設定手段
21 出力側結合調整手段
22 学習判定情報作成手段
23 入力側結合調整手段
24 教示信号設定手段
30 入力層
40 中間層
50 出力層
Ii 入力信号
mi 中間信号
Oi 出力信号
Ti 教示信号【Technical field】
[0001]
The present invention relates to a pattern teaching system, a pattern identification device using the same, a computer program, and a digital logic circuit design method for the pattern identification device.
[Background Art]
[0002]
[Patent Document 1]
JP-A-1-243169
[Patent Document 2]
Japanese Patent No. 2606317
[0003]
For pattern identification of images and sounds, for example, a standard pattern whose entity is known is prepared in advance, and it is determined whether or not the pattern to be identified matches the standard pattern by the elementary signals constituting the pattern (for example, image identification). A method is known in which the determination is made according to the coincidence probability between pixels (in the case of speech, and in the case of speech, the level of a quantized speech waveform). However, this method is troublesome to introduce a statistical method, which is indispensable for realizing flexible pattern matching including ambiguous elements or pattern matching resistant to noise, and has a limit in performance. . In recent years, in order to solve such a problem, various pattern identification methods using a neural network have been proposed.
[0004]
A neural network is an information processing system modeled on the brain of a living body. A neural network, which is a basic component of the neural network, is regarded as a multi-input, one-output nonlinear element (hereinafter, also referred to as a neuron-type element) and is formed into a network. Many are combined. Specifically, the strength of the connection between the neuron-type elements (weight of the input signal mediated by the connection (also referred to as weight or weight)) is repeatedly given to the neural network a pattern to be identified and compared with the teaching pattern. Is adjusted so that a specific pattern can be identified.
[0005]
2. Description of the Related Art Hitherto, what is widely used for pattern identification is called a hierarchical neural network, which has a structure in which one or two or more intermediate layers are interposed between an input layer and an output layer. . Given a pattern to be identified in the input layer, a specific output pattern appears on the output layer according to the coupling state of the intermediate layer. Then, by repeating the learning, the weight of the connection of the intermediate layer is adjusted so that the error between the output pattern and the desired teaching pattern prepared in advance is minimized. Specifically, the input layer and the intermediate layer and the intermediate layer and the output layer are all connected by a weighted connection.From the output layer side to the input layer side, the weight of the connection is calculated using the steepest descent method. A back propagation method that optimizes sequentially is used (Patent Documents 1 and 2).
[Disclosure of Invention]
[Problems to be solved by the invention]
[0006]
However, optimization of the neural network by the back propagation method has the following disadvantages.
(1) Exhaustive connections are set between all units between the input layer and the intermediate layer and between the input layer and the output layer, and the network is optimized only by adjusting the weight of the connection Therefore, the amount of calculation tends to be enormous. When the size of the apparatus is increased, the processing may fail on a computer or computer network of a realistic scale.
(2) Since the steepest descent method is used, when it is stuck in the local optimal solution, true optimization of the error may not be possible.
(3) In the back propagation method, generally, an appropriate number of hidden layers are prepared for the input layer and the output layer. Since it is impossible, if the number of settings is too large, a lot of useless connections remain, and if it is too small, a pattern that cannot be separated may be caused.
[0007]
An object of the present invention is to enable optimization processing of a neural network while keeping the number of hidden layers at least requiring computation and the number of connections between the hidden layer and the output layer to be small, and thus the accuracy is small even with a small amount of computation. The present invention provides a pattern teaching system capable of teaching a pattern with a high level, a pattern identification device, a computer program, and a digital logic circuit design method for the pattern identification device using the same.
Means for Solving the Problems and Effects of the Invention
[0008]
In order to solve the above problems, a pattern teaching system according to the present invention includes:
Each of the plurality of signals can be coupled in parallel, and has a first threshold value for the input sum of the signals, and outputs its own signal output based on a comparison result between the input sum and the first threshold value. An intermediate layer having a plurality of first type units to be changed,
An input layer having a pattern input unit that is located at the previous stage of the intermediate layer and that inputs a plurality of input signals forming a pattern to be identified to a column of the first type unit located at the front stage of the intermediate layer,
The output of the first type unit located at the final stage of the intermediate layer is used as an intermediate signal, the intermediate signal can be coupled in parallel, and the second sum lower than the first threshold with respect to the input sum of the intermediate signal. An output layer having a threshold, and having a plurality of second type units for changing an output signal based on a comparison result between the input sum and a second threshold,
Teaching signal setting means for setting a teaching pattern consisting of a teaching signal uniquely corresponding to an output signal constituting the output pattern, with a set of output signals of the plurality of second type units as an output pattern;
An output-side coupling setting unit configured to input-couple a plurality of intermediate signals to a plurality of second-class units in an arbitrary combination;
Each output signal forming the output pattern is compared with the matching state of the corresponding teaching signal, and based on the matching result, the matching state between the output pattern and the teaching pattern is improved so as to improve the matching state of each second type unit. Output side coupling adjusting means for changing the combination of the coupling of the first type unit,
Two or more types of identified patterns are sequentially and repeatedly input to the input layer, and for each input of each identified pattern, the matching state between the output signal of the second type unit forming the output layer and the teaching signal is improved. The output-side coupling adjusting means repeatedly performs a learning process for changing the combination of the coupling between the second-type unit and the first-type unit outputting the intermediate signal.
[0009]
Further, the signal processing device of the present invention is configured to sequentially and repeatedly input two or more types of identified patterns to the input layer of the pattern teaching system of the present invention, and to form an output layer for each input of each identified pattern. A learning process for changing the combination of the combination of the second-type unit and the first-type unit that outputs the intermediate signal is performed by the output-side coupling adjustment unit so that the matching state between the output signal of the type unit and the teaching signal is improved. It is characterized by being obtained by performing repeatedly.
[0010]
The first-type unit to which the pattern to be identified is input is a concept of a multiple-input / 1-output element which is relatively close to a well-known neuron-type element, and is used when a plurality of input signals forming the identified pattern are distributed and input. In order to enhance the selectivity of the pattern, the output threshold (first threshold) for the input sum is set to a relatively high value. On the other hand, the second type unit is an element concept unique to the present invention in which the learning process is performed by changing (or recombining) the combination of the first type unit and the combination with the first type unit. It is the same as the first-type unit, but the output threshold (second threshold) for the input sum is set lower than the threshold (first threshold) of the first-type unit. The level relationship between the input sum and the output threshold is defined such that the active level side is the positive direction, and the direction shifted to the positive side is the “high” side.
[0011]
That is, when teaching patterns to be identified in a plurality of categories, the input pattern of signals to the first-type unit and, consequently, the propagation pattern of signals passing through the first-type unit vary depending on the category. Regarding the output of the second type unit, an output indicating a valid identification result must be generated regardless of the arrival of a propagation pattern derived from the identified pattern of any category. As a specific example, when the first one of two combinations (from different first-type units) collected in a certain second-type unit is given an identified pattern of category A If the second unit has a high level when the identified pattern of category B is given, the second type unit has a high level when at least one of the two connections (inputs) is high. Is required to operate so that the output is at a high level. In order to realize such an operation, an output threshold (second threshold) for the input sum of the second type unit is set lower than the first threshold.
[0012]
Then, in the present invention, the output signal and the output signal are changed by changing the combination of the coupling of the first type unit to each second type unit in accordance with the comparison result between each output signal forming the output pattern and the corresponding teaching signal. The matching state with the teaching signal is improved. As a result, it is possible to optimize the neural network while keeping the number of connections between the intermediate layer and the output layer small. Furthermore, since the matching state between the output signal and the teaching signal is optimized by repeatedly changing the combination of the connections, the degree of freedom of the optimization operation is large, and the conventional backproperty adopting the connection weight adjustment by the steepest descent method. As with the gating method, the probability of getting stuck in the local optimal solution can be greatly reduced.
[0013]
In order to be able to change the combination of the combination of the first-type unit with the second-type unit (rearrangement), it is essential that the following two processes can be performed as a specific operation.
(1) A new bond is formed between a specific first type unit and a specific second type unit.
(2) The bond already formed between the specific first type unit and the specific second type unit is released.
[0014]
Also, if necessary,
(3) Delete a specific first-class unit.
(4) First-class units are newly added as necessary.
The following two operations can also be added. It should be noted that a connection already formed between a specific first-type unit and a certain second-type unit is switched to a connection with another second-type unit, or that a certain first-type unit and a specific second-type unit are combined. It is also possible to envisage an operation of switching a bond already formed between units to a bond with another first-class unit, but these operations are all performed by combining (1) and (2). This is feasible.
[0015]
The present invention also provides a computer program that causes a computer to function as each unit of the pattern teaching system of the present invention. The pattern teaching system of the present invention can be configured as hardware logic. However, by emulating the software using the computer program of the present invention, a large number of first-class units can be used for pattern teaching. The process of optimizing the connection between the unit and the second type unit can be performed more easily. In this case, the pattern identification device of the present invention executes the learning process repeatedly using the pattern teaching system of the present invention realized on the computer by executing the computer program of the present invention, thereby executing It can be realized in the form of software-based emulation.
[0016]
Next, the output-side coupling adjusting means specifically, when the matching state between the output signal of the second-type unit and the teaching signal reaches a predetermined level, the plurality of first-type units and the plurality of second-type units. Even if an unconnected combination is left between the two types of units, the repetition of the learning process can be terminated in such a manner as to be left. In other words, the coupling between the first type unit and the second type unit between the intermediate layer and the output layer is not set so that all combinations are covered, but the output signal matches the teaching signal. When the state is optimized, the learning process is terminated without forming a new combination between the first type unit forming the intermediate layer and the second type unit forming the output layer. This makes it possible to teach the pattern with sufficient accuracy while keeping the number of connections between the units to a necessary and sufficient number, and it is possible to greatly increase the design efficiency of the pattern identification device obtained as a result of learning. Further, even when the number of types of patterns to be identified increases, the number of couplings between units does not excessively increase, so that a system with higher identification capability can be realized even with devices of the same scale.
[0017]
Further, the output-side coupling adjusting means can be configured to change only the combination of coupling with the plurality of first-type units without weighting the plurality of intermediate signals. According to this configuration, since the weight is not involved in the connection between the hidden layer and the output layer, the computational burden of neural network optimization is dramatically reduced compared to the conventional back propagation method in which the connection weight is adjusted by the steepest descent method. Can be reduced.
[0018]
Each of the first-type unit and the second-type unit outputs one of an active output and an inactive output in binary, and the identification target pattern and the teaching pattern include an active state and an inactive state. And a set of binary signals set to any of By binarizing (ie, digitizing) the output of each unit, it is possible to further simplify the arithmetic processing for network optimization. In this case, the input to the second type unit (by digitizing the output of the combined first type unit) is necessarily binary. As described above, when no weight is assigned to this input, the output of the second type unit is easily determined based on whether or not the simple total value is equal to or greater than the second threshold value.
[0019]
Next, the pattern teaching system of the present invention includes a second type unit based on the output state of the first type unit and the content of the teaching signal to the second type unit to which the first type unit is coupled. May be provided for each of the plurality of first-class units to create learning determination information reflecting the coincidence between the output signal of the first type and the corresponding teaching signal. In this case, the output-side coupling adjusting means may adjust the second-type unit and the second-type unit based on the content of the learning determination information so that the matching state between the corresponding output signal of the second-type unit and the teaching signal is improved. It is possible to adjust the combination setting of the combination with a kind of unit.
[0020]
The method of comparing the output signal of the second-class unit with the teaching signal is a direct comparison between the teaching pattern and the output pattern, so it is effective to simply grasp the matching result. It is difficult to do until. In other words, even if a mismatch between the output signal and the teaching signal is found, it is in principle impossible to specify which first-class unit is involved in the mismatch. As a result, as a specific measure for improving the output signal and the teaching signal in the matching direction, an inefficient method of changing the combination of the coupling of the first-type unit to the corresponding second-type unit by trial and error is adopted. I have to adopt it. Therefore, as described above, if the learning determination information reflecting the matching state between the output signal of the second type unit and the teaching signal is created for each of the plurality of first type units, at the output stage of the first type unit, Participation in the match / mismatch between the output signal and the teaching signal can be specified, and the state of connection to the second-type unit can be adjusted in such a manner that the first-type unit closely involved is shot. As a result, the state of coincidence between the output signal and the teaching signal can be improved more efficiently and reliably. In particular, if the second type unit is configured so that the output becomes active when at least one of the inputs is active, the output of the first type unit is directly reflected on the output of the second type unit. Therefore, the reliability of the content of the learning determination information can be improved.
[0021]
In particular, when the outputs of the first-type unit and the second-type unit are binarized, and the identified pattern and the teaching pattern are formed of a set of binary signals, the learning determination information creating unit includes Learning determination information can be created based on the active / inactive combination of each output with the teaching signal. In other words, the matching state between the output signal and the teaching signal can be accurately grasped by the learning determination information of at most 2 bits including the outputs of the first type unit and the teaching signal. It is very easy because it only needs to be identified.
[0022]
Next, the pattern teaching system of the present invention includes an input side for distributing and setting a plurality of input signals from the pattern input unit to a plurality of first type units located at the forefront side of the intermediate layer in an arbitrary combination. It is possible to provide a coupling setting unit and an input-side coupling adjusting unit that changes a combination of coupling of input signals to each first-type unit so that a matching state between the output pattern and the teaching pattern is improved. By making it possible to change the weight and / or combination of the connection of the input signal to the first type unit, it is possible to optimize the neural network with a higher degree of freedom. Further, the input-side coupling adjusting means, if the coincidence state between the output signal of the second-type unit and the teaching signal reaches a predetermined level, does not allow the plurality of input signals and the plurality of first-type units to remain. Even if a combination of the connections is left, the repetition of the learning process can be terminated in such a manner as to be left. This makes it possible to teach the pattern with sufficient accuracy while keeping the number of couplings between the input signal and the first-type unit to be a necessary and sufficient number, thereby greatly improving the design efficiency of the pattern identification device obtained as a result of learning. Can be enhanced. Further, even when the number of types of patterns to be identified increases, the number of couplings between units does not excessively increase, so that a system with higher identification capability can be realized even with devices of the same scale.
[0023]
Further, in the pattern teaching system of the present invention, the first type unit may be configured such that input signals can be parallel-input-coupled in a weighted form. In this case, the first threshold is set for the weighted input sum of the input signal. In the configuration of the system, the weight setting means for setting the weight value of the input signal coupled to the first type unit, and the output signal of the corresponding second type unit based on the content of the learning determination information and the teaching Weight adjustment means for adjusting the weight value of an input signal to the first type unit coupled to the second type unit is provided so that the state of coincidence with the signal is improved. By considering the weighted sum of the input signals, the learning effect of pattern identification can be further enhanced, and thus, various types of identified patterns can be separated and identified more accurately.
[0024]
In the above configuration, it can be said that the configuration using the weighted sum of the input signals is similar to that of the conventional neural network. However, in the present invention, as a specific method for increasing the degree of coincidence between the output pattern and the teaching pattern, As described above, a method of optimizing the combination of the combination of the first type unit forming the intermediate layer and the second type unit of the output layer is used. In the course of the connection optimization, unnecessary connections between the first-class unit and the second-class unit are sequentially eliminated and eliminated. Then, by referring to the learning determination information, a first-type unit positively associated with the match between the output signal and the teaching signal is found, and only the weight of the input to the first-type unit is mechanically determined. As the number of patterns increases, the matching accuracy between various output patterns and the teaching pattern can be naturally increased. Therefore, a weighted sum optimization method involving a complicated mathematical algorithm, such as the steepest descent method in the conventional back propagation method, is completely unnecessary.
[0025]
Also, in the steepest descent method used in the back propagation method, it is necessary to set the weight distribution on the input side without bias using random numbers. For example, if the weight distribution setting is not appropriate, the matching accuracy between the output pattern and the teaching pattern is impaired. In some cases, there is a problem that local optimal opening is likely to occur. However, in the pattern teaching system of the present invention, as described above, the optimization of the weight of the input signal proceeds in a manner dependent on the coupling optimization between the units, so that the optimal coupling form between the units is determined. Then, there is an advantage that the optimal weight distribution is hardly influenced by the setting of the initial weight value. As the simplest method, there can be exemplified a method of setting the weight value of the first input unit of the plurality of input signals forming the pattern to be identified to the same initial value. Even if such a simple initial weight setting is performed, the matching accuracy between the output pattern and the teaching pattern can be improved without any problem.
[0026]
In the configuration of the above-described pattern teaching system in which input signals are weighted in parallel and input in parallel (hereinafter, referred to as a weighted pattern teaching system), the input of each first-type unit is optimized when the learning process is completed. The associated weight value accompanies. Using this, the configuration of the pattern identification device obtained as a result of learning can be easily converted to a digital logic circuit as follows. That is, in the digital logic circuit designing method of the pattern identification device of the present invention, two or more types of identified patterns are sequentially and repeatedly input to the input layer of the pattern teaching system, and an output layer is formed for each input of the identified pattern. By changing the combination of the combination of the second-type unit and the first-type unit that outputs the intermediate signal, by the output-side coupling adjustment unit, so that the matching state between the output signal of the second-type unit and the teaching signal is improved, Further, based on the content of the learning determination information, the input to the first type unit coupled to the second type unit is improved so that the matching state between the output signal of the corresponding second type unit and the teaching signal is improved. Repeatedly performing a learning process of adjusting a signal weight value;
The first type unit is replaced by an AND gate circuit having a binary input terminal corresponding to the remaining input signal while selecting and sorting the input signal according to the weight value. Replacing the second type unit to which the output is coupled with an OR gate circuit having a binary input terminal corresponding to the intermediate output.
[0027]
By using the configuration of the weighted pattern teaching system, finally, the weight of the input to the first type unit connected to the input side and the coupling between the first type unit and the second type unit connected to the output side are optimized. The obtained pattern identification device is obtained. This device itself is conceptually different from a general digital logic circuit composed of a combination of logic ICs because the first-type unit is a nonlinear element with a weight input. However, a system for realizing a pattern identification function by a neural network method has an advantage that it can be simply designed with a minimum number of unit connections. In the pattern identification device that optimizes the connection using the pattern teaching system of the present invention, the first-type unit converts the input signal into a weight value, considering that a connection having a small weight has a small contribution to the pattern identification processing. If the selection is made accordingly, the input corresponding to the remaining input signal is converted into a binary input and handled, so that it can be easily replaced by the AND gate circuit. The second-type unit to which the intermediate output from the first-type unit is coupled can be easily replaced by an OR gate circuit by converting the input corresponding to the intermediate output into a binary input.
[0028]
In particular, in the latter case, if the second type unit is configured such that the output is active when at least one of the inputs is active (ie, the intermediate output is not weighted as binary, This corresponds to the case where only the combination and recombination with the type 1 unit are performed). Since the type 2 unit is completely the same in function as the OR gate circuit, it does not perform a specific replacement process, and Since the circuit can be used as an OR gate circuit, the design becomes easier. As described above, according to the present invention, the optimization itself of the connection for pattern identification can be efficiently performed by using the neural network type model, and finally, the replacement with the logic IC is performed. An approach that is quite different from known logic minimization techniques such as the M (Quine-Mclawski) method allows the complex logic of the pattern identification device to be designed very simply and efficiently.
BEST MODE FOR CARRYING OUT THE INVENTION
[0029]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows an example of the configuration of the pattern teaching system of the present invention in an equivalent circuit. The target identification pattern can be an image pattern or a sound pattern, but is not particularly limited. In the present embodiment, identification of an image pattern is taken as an example. The pattern teaching system 1 has a hierarchical neural network structure and is roughly divided into an input layer 30, an intermediate layer 40, and an output layer 50.
[0030]
The intermediate layer 40 has a plurality of first type units 10. Each of the first type units 10 has a first threshold value for an input sum of the plurality of signals, each of which is capable of parallel input coupling, and has a first threshold based on a comparison result between the input sum and the first threshold value. Change the signal output. Further, the input layer 30 is located at the preceding stage of the intermediate layer 40, and outputs a plurality of input signals Ii (i = 1, 2,... N) forming the identified pattern to the first stage located at the forefront of the intermediate layer 40. It has a pattern input unit 12 for inputting to a row of the units 10 (in the present embodiment, the first type unit 10 is only one row, and thus the row is necessarily located at the forefront of the intermediate layer 40).
[0031]
Further, the output layer 50 has a plurality of second type units 11. These second type units 11 are the first type units 10 located at the last stage of the intermediate layer 40 (in the present embodiment, since the first type units 10 are only one row, the rows are necessarily the last stage of the intermediate layer 40). The intermediate signal mi (i = 1, 2, ‥ x) is set as an output of the intermediate signal mi (i = 1, 2, を x), and the output of the intermediate signal mi can be connected in parallel. Has a second threshold lower than the first threshold for the input sum of. Then, the output signal is changed based on the comparison result between the input sum and the second threshold.
[0032]
Next, the pattern teaching system 1 has teaching signal setting means 24. The teaching signal setting means 24 uses a set of output signals Oi (i = 1, 2, ‥ n) of the plurality of second type units 11 as output patterns and uniquely corresponds to output signals constituting the output patterns. The teaching pattern is formed by the teaching signal TOi (i = 1, 2, .DELTA.n).
[0033]
In addition, the pattern teaching system 1 includes an output-side connection setting unit 14 and an output-side connection adjustment unit 21. The output-side coupling setting unit 14 sets the input coupling of the plurality of intermediate signals Oi to the plurality of second-type units 11 in an arbitrary combination. The output-side coupling adjusting unit 21 checks the matching state between each output signal Oi forming the output pattern and the corresponding teaching signal Ti, and matches the matching state between the output pattern and the teaching pattern (based on the matching result). It functions as a control unit that instructs the output-side connection setting unit 14 to change the combination of the connection of the first-type units 10 to the second-type units 11 so that the later-described “correct rate” is improved.
[0034]
Two or more types of patterns to be identified are sequentially and repeatedly input to the input layer 30. The learning process for the input is repeatedly performed for each input of the identified pattern as follows. That is, when a certain pattern to be identified is input, the output-side coupling adjusting unit 21 sets the output signal Oi of the second-type unit 11 forming the output layer 50 so that the matching state between the teaching signal Ti and the output signal Oi is improved. The combination of the connection between the seed unit 11 and the first unit 10 that outputs the intermediate signal mi is changed (that is, the connection is changed).
[0035]
Specifically, when the output signal Oi of the second-type unit 11 is inactive and the corresponding teaching signal Ti is active, the output-side coupling adjusting unit 21 transmits the first-type unit 11 to the second-type unit 11. A new connection with the unit 10 is formed. That is, the fact that the output signal Oi to be activated from the content of the teaching signal Ti is inactive means that the intermediate output mi from the currently combined first type unit 10 is active. Is not included at all. Accordingly, by newly forming a connection with another active first type unit 10, the probability that the output signal Oi which is currently inactive becomes active can be increased. Hereinafter, activation of the outputs of the first type unit 10 and the second type unit 11 is also referred to as “ignition”.
[0036]
When forming a new connection between the second-type unit 11 and the first-type unit 10, the output-side-coupling adjusting means 21, as shown in FIG. If the seed unit 10 is present, a connection with the existing first type unit 10 is formed, so that the second type unit 11 can be immediately shifted to the firing state. On the other hand, when there is no existing first type unit 10 whose output is active, a new first type unit 10 can be created and a connection with the created first type unit 10 can be formed. If a new type 1 unit 10 is additionally used to form a connection with the type 1 unit 10 and a connection between the new type 1 unit 10 and the active input signal 12 is made, The firing probability of the second type unit 11 can be naturally increased. Since the existing first-class unit 10 has a low threshold value at the beginning of learning and is easily ignited, the creation of a new first-class unit 10 is minimized, and the system enlargement is effectively prevented. Is done. In addition, by monitoring the number of used first type units 10, it is possible to cope with a case where the number of first type units 10 is insufficient for the teaching pattern.
[0037]
For example, taking character pattern identification as an example, as shown in FIG. 22A, different character patterns are sequentially input, and a learning process for separating and identifying each character pattern is performed. The teaching pattern is a standard pattern that should give a correct recognition result for the pattern to be identified. For example, if the pattern is a character pattern, the standard character pattern that correctly indicates "what character should be recognized" is taught. Selected as a pattern. Specifically, as shown in FIGS. 22 (a) and (b), the dimensions and thickness of the lines are different, blurred, or partially missing as shown in (c). However, even for character patterns of the same type, the image information of the pattern to be identified varies within a certain range. However, since these identified patterns need to be identified as the same character, the teaching pattern uses a common standard character pattern as shown in (d). In other words, by learning various patterns to be identified representing the same character using the same teaching pattern, it is possible to correctly identify them as the same character pattern even if the state of the patterns to be identified slightly differs. become able to. As shown in FIG. 22, in order to increase the identification accuracy of a specific type of pattern, it is effective to repeat learning by giving the specific type of pattern repeatedly while sandwiching different types of patterns. .
[0038]
The first-type unit 10 constituting the input layer 40 functions as a multiple-input / 1-output element close to a well-known neuron-type element, and sets an output threshold (first threshold) for the sum of its inputs to a relatively high value. Is done. On the other hand, in the second type unit 11 forming the output layer 50, the output threshold (second threshold) is set lower than the first threshold, and specifically, the logical sum of a plurality of intermediate outputs to be combined is calculated. It has the function of calculating and outputting. In the present embodiment, each of the first type unit 10 and the second type unit 11 outputs one of an active output and an inactive output in binary, and the identified pattern and the teaching pattern are: It is formed by a set of binary signals set to either the active state or the inactive state.
[0039]
For example, when it is desired to teach a plurality of character patterns (identified patterns) as shown in FIG. 22, the input pattern of the signal to the first type unit 10 and the propagation pattern of the signal via the first type unit 10 are the characters. It changes depending on the type (category). Regarding the output of the second type unit 11, even if a signal propagation pattern derived from any type (category) of a character (identified pattern) arrives, a result correctly identified as a different character is reflected in the output. Need to be For example, the first one of two intermediate signals coupled to a certain second type unit 11 becomes an active level when the pattern of the character “A” is given, and the second one is the character “B”. In the case where the active level is given when the pattern is given, in order to correctly separate and identify the “A” and “B” quantity characters, the second type unit 11 has the active level of either of the two combinations. In such a case, the operation must be performed so that the output becomes active. This is the reason why the second type unit 11 is configured to have a logical sum operation function.
[0040]
In the present embodiment, there are the following four types of specific operations for changing the combination (rearrangement) of the combination of the first type unit 10 with the second type unit 11.
(1) A new bond is formed between the specific first type unit 10 and the specific second type unit 11.
(2) The connection already formed between the specific first type unit 10 and the specific second type unit 11 is released.
(3) The specific first-class unit 10 is deleted. (Release all connections and make them unused)
(4) A first-class unit 10 is newly created. (Make a bond to a currently unused unit)
[0041]
The output-side coupling adjusting means 21 outputs the output signal Oi when the matching state between the output signal Oi of the second-type unit 11 and the teaching signal Ti reaches a predetermined level, specifically, the output signal Oi when iterative learning is performed. When the matching probability with the teaching signal Ti (referred to as “correct answer rate” in the present embodiment) becomes higher than a certain value, it is determined that the matching state between each output signal Oi and the teaching signal Ti has been optimized, Even if an unconnected combination remains in the output side connection setting means 14 between the first type unit 10 and the second type unit 11, the repetition of the learning process is terminated without creating a new combination of combinations. In the present embodiment, the output-side coupling adjusting unit 21 is configured to change only the combination of the coupling between the intermediate signal mi and each first-type unit 11 without weighting the plurality of intermediate signals mi. I have.
[0042]
Next, the pattern teaching system 1 is provided with learning determination information creating means 22. The learning determination information creating unit 22 determines the output state of the first type unit 10, that is, the content of the intermediate signal mi and the content of the teaching signal Ti to the second type unit 11 to which the first type unit 10 is coupled. Based on this, learning determination information reflecting the matching state between the output signal Oi of the second type unit 11 and the corresponding teaching signal Ti is created for each of the plurality of first type units 10. The output-side coupling adjusting means 21 improves the correct answer rate (coincidence state) between the corresponding output signal Oi of the second type unit 11 and the teaching signal Ti at the time of iterative learning based on the content of the learning determination information. Thus, the combination setting of the second type unit 11 and the first type unit 10 is adjusted.
[0043]
In the present embodiment, since the second type unit 11 is a logical sum operation type, the binary intermediate output mi from the first type unit 10 is directly reflected on the output of the second type unit 11. The learning determination information creating means 22 creates learning determination information within a 2-bit frame based on an active / inactive combination of the intermediate output mi of the first type unit 10 and the teaching signal Ti.
[0044]
More specifically, the learning determination information creating means 22 creates the learning determination information as one in which the following three states can be identified.
The judgment coincidence state: the output of the first type unit 10 is active, and the teaching signal Ti corresponding to the output of at least one of the second type units 11 to which the first type unit 10 is coupled becomes active. (In this specification, “1” corresponds). If the first-class unit 10 is firing, the second-class unit 11 connected to it always fires (because it is an OR operation type). Therefore, if the teaching signal Ti is provided in an active form to any of the connected second-class units 11 that fired (hereinafter, such a state is referred to as an “output / teaching active matching state”). In other words, the second type unit 11 in this state is referred to as a “correct answer unit”. In other words, the first type unit 10 connected to the correct answer unit is in a firing state in which the correct setting state reflects the correct identification state. It can be said that. On the other hand, the second type unit 11 to which the teaching signal Ti is given in an inactive form (hereinafter, such a state is referred to as “output / teach active mismatch state”, and the second type unit 11 in this state is referred to as “output / teach active mismatch state”). When the first-type unit 10 in the determination matching state is fired and connected to this, it cannot be said that the unit is in the connection setting state reflecting the correct identification state. It is necessary to take measures such as breaking the connection between the first type unit 10 and the second type unit 11.
[0045]
Determination mismatch state: the output of the first type unit 10 is active, and the teaching signal Ti corresponding to the output of all of the second type units 11 coupled to the first type unit 10 is inactive. State (corresponds to "-1" in this specification). If the teaching signal Ti is given in an inactive form for all of the connected second-type units 11, the firing state of the first-type unit 10 will be an incorrect identification state. It can be said that this is a state reflecting.
Neutral state: indicates that the output of the first type unit 10 is inactive ("0" corresponds in this specification). Since the second type unit 11 is a logical sum type, the inactive first type unit 10 has no effect on its output whether or not it is coupled to the second type unit 11.
[0046]
In the present embodiment, the output-side coupling adjusting unit 21 performs the following specific coupling processing with reference to the contents of the learning determination information as described above. That is, as shown in FIG. 18, the output of the second type unit 11 is active, the corresponding teaching signal Ti is inactive, and the learning determination information indicates the determination coincidence state (F = 1). When the seed unit 10 is connected to the second unit 11, the connection between the first unit 10 and the second unit 11 is released (cut). On the other hand, as shown in FIG. 19, when the output of the second type unit 11 is inactive and the corresponding teaching signal Ti is active, the first type unit 10 coupled to the second type unit 11 is not active. Since there is no active unit in the second type unit 11, if there is a first type unit 10 that does not currently have a connection with the second type unit 11 and whose learning determination information indicates a determination matching state (F = 1), A new connection with the seed unit 11 is made. Further, when the first type unit 10 does not exist, the first type unit 10 that correctly responds to the input signal Ii is in a state of being in short supply. And a combination of the first type unit 10 and the currently active input signal Ii of the pattern input unit 12 as described later. (That is, a new first-class unit 10 is created.)
[0047]
Returning to FIG. 1, the pattern teaching system 1 transmits a plurality of input signals Ii from the pattern input unit 12 to a plurality of first-type units 10 located at the forefront side of the intermediate layer 40 (as described above, this embodiment In this case, since the first-type unit 10 has only one row, the row is necessarily located at the forefront side of the intermediate layer 40). An input-side coupling adjusting unit 23 that changes the combination of coupling of the input signals Ii to each first-type unit 10 is provided so that the matching state between the output pattern and the teaching pattern is improved. In the present embodiment, the input-side coupling adjusting means 23 also outputs a plurality of input signals if the correct answer rate (coincidence state) between the output signal Oi of the second type unit 11 and the teaching signal Ti reaches a predetermined level. Even if an unconnected combination is left between Ii and the plurality of first-type units 10, the repetition of the learning process (related to the input-side connection setting) is terminated in such a manner as to remain.
[0048]
Further, the input-side coupling adjusting unit 23 becomes active in the input signal Ii of the pattern to be identified when the first type unit is created in the initial state (that is, when the learning process of the first type unit is started). The input is distributed to each of the first-class units 10 in such a manner that only the input unit (that is, the positive input) is selected. According to the experience side found by the present inventor, in the iterative process of the learning process, the main factor contributing to leading the output pattern obtained when the identified pattern is input to the matching state with the teaching pattern is the identified pattern. It has been found that not all of the input signals Ii described above have an extremely large contribution. As shown in FIG. 16, the first type unit is used for all of the positive and negative of the input signal Ii ((in the drawing, an overlined bar indicates negative, but in the specification, it is expressed as Ii (-)). It is also possible to perform the learning process by setting a connection with the first type unit, as shown in FIG. 17, at the start of the learning process, selecting only the (active) positive input. By forming the connection with the number 10, the number of connections is reduced by the amount that the inactive state (negative input) is excluded, and the calculation required for the learning process can be greatly simplified. .
[0049]
In this case, if the negative input is utilized as follows, the degree of coincidence (correct answer rate) between the output pattern and the teaching pattern can be increased without excessively increasing the number of couplings between the input signal Ii and the first type unit 10. It can be further improved. That is, when the process of adjusting the combination setting of the second type unit 11 and the first type unit 10 by the output side coupling adjusting means 21 is defined as the main learning process, the main learning process is simply repeated. When the matching state between the output signal Oi of the second type unit 11 and the teaching signal Ti is improved so as to satisfy a predetermined condition, the coupling with the negative input is not performed, and the positive input is not performed. It is determined that the learning process is sufficient only within the range of the connection, and the process is terminated.
[0050]
However, if the matching state between the output signal Oi and the teaching signal Ti is not improved to satisfy the above condition after the repetition of the main learning process, as shown in FIG. Of the input signals Ii at the time of creation, those in the active state are regarded as positive active inputs, and a negative active input in which the input signal Ii in the inactive state is inverted and activated in the negative state is added to the positive active input. The input is distributed to each of the first-class units 10 in the form shown. The output-side coupling adjusting means 21 further performs an auxiliary learning process for adjusting the combination setting of the second-type unit 11 and the first-type unit 10 after the negative active input (connection) is added. That is, whether or not to couple the negative active input to the first type unit 10 is determined according to the state of coincidence between the output signal Oi and the teaching signal Ti, so that unnecessary coupling of the negative active input is avoided. Thus, the learning process can be simplified.
[0051]
When the coupling with the negative active input is introduced, it may be set at once for all the first type units 10, but the output signal Oi does not match the teaching signal Ti (or the correct answer rate is lower). The second type unit 11 having a value equal to or less than the predetermined value may be searched for, and the negative active input may be connected only to the first type unit 10 connected to the second type unit 11. . In the latter case, it is possible to avoid an excessive increase in the learning processing operation due to a sudden increase in the number of couplings with the negative active input.
[0052]
In order to set the negative active input, the pattern input unit 12 provided one-to-one with the input signal Ii may be connected to the input adoption flag signal Qi for instructing whether to adopt the coupling of the negative active input, for example. What is necessary is just to comprise so that Ii may be converted into a negative input by receiving from the coupling setting means 13. As an equivalent circuit, the one shown in FIG. 2 can be assumed. That is, the input signal Ii is set as the combined signal value σi input via the three-state buffer 16 and is branched and input to each first-type unit 10. If the output of the inverter 18 provided bypassing the three-state buffer 16 is used as the inhibit input P of the three-state buffer 16, the inhibit input P becomes active when the input signal Ii is inactive, and the three-state becomes the low impedance state. The active input of Ii appears on the output of the buffer 16 as it is. On the other hand, if Ii is inactive, the inhibit input P becomes active by inversion, the output of the three-state buffer 16 becomes a high impedance state, and the input coupling with the first type unit 10 is cut off. On the other hand, the inactive input signal Ii itself becomes active by the inverter 18 and is input to the AND gate 17. When the logical product of this and the negative active input setting command signal Qi is active, the output of the logical product gate 17 becomes active, and a negative active input based on the input signal Ii appears in the combined signal value σi. It becomes.
[0053]
Returning to FIG. 1, the first type unit 10 is configured such that the input signal Ii can be parallel-input-coupled in a weighted form. A first threshold, which is an output threshold of the first type unit 10, is set for the weighted input sum of the input signal Ii. Also, a weight setting means (incorporated in the input-side coupling setting means 13) for setting a weight value of the input signal Ii coupled to each first-type unit 10 and the above-mentioned (for each first-type unit 10) 1) The first type unit coupled to the second type unit 11 based on the content of the learning determination information so that the matching state between the output signal Oi of the corresponding second type unit 11 and the teaching signal Ti is improved. Weight adjusting means 26 (incorporated in the input side coupling adjusting means 23) for adjusting the weight value of the input signal Ii to the unit 10 is provided.
[0054]
In the pattern teaching system 1 of the present embodiment, as a specific method of increasing the degree of coincidence between the output pattern and the teaching pattern, a combination of a combination of a first type unit forming an intermediate layer and a second type unit of the output layer is used. Use an optimization technique. In the process of the connection optimization, the unnecessary connection between the first-type unit 10 and the second-type unit 11 is sequentially eliminated and eliminated. Also, by referring to the learning determination information for each first-type unit 10, it is possible to find the first-type units 10 that positively contribute to the coincidence between the output signal Oi and the teaching signal Ti. The weight adjustment means 26 performs adjustment so as to increase or decrease only the weight of the found input Ii to the first type unit 10 (in this case, the input in which the weight value is set to zero or a value close thereto). Signal Ii is substantially the same as no coupling has been formed). In the present embodiment, among the plurality of input signals Ii forming the pattern to be identified, the weight value of the one that is first combined with each first-type unit 10 at the time of unit creation is set to the same initial value.
[0055]
The weight adjustment means 26 increases the weight of the input signal Ii with the currently active one of the input signals Ii for the first-class unit 10 in which the learning determination information is in the above-described determination coincidence state, and the determination mismatch state is established. The first type unit 10 performs processing to reduce the weight of the input signal Ii with the currently active one. That is, as shown in FIG. 18, it is correct that the first type unit 10 in the determination matching state is coupled in the firing state to the second type unit 11 to which the teaching signal Ti is given in the active form. Since the input state is in the set state, by increasing the weight of the currently set active input signal Ii, the firing state of the first type unit 10 is supported, and the output pattern matches the teaching pattern. The degree can be increased.
[0056]
On the other hand, the weight adjusting unit 26 can be configured such that the weight increase / decrease processing of the input signal Ii is not performed on the first type unit 10 in which the learning determination information is in the neutral state. Since the first type unit 10 in which the learning determination information is in the neutral state is not fired, the second type unit 11 is not connected to any second type unit 11 irrespective of whether or not a bond is formed. It does not affect the output state of. In such a neutral state, the first type unit 10 repeats the learning process thereafter, as long as it is not possible to predict whether the learning determination information for the first type unit 10 shifts to the determination agreement state or the determination mismatch state. If the weight increase / decrease processing of the input signal Ii is forcibly performed, there is a possibility that the degree of coincidence between the output pattern and the teaching pattern will be improved and adversely affected. Therefore, it can be said that it is desirable to suspend the state of connection with the input signal Ii to the first type unit 10 in the neutral state, that is, the value of the weight without particularly changing.
[0057]
For example, when an attempt is made to identify two patterns having different categories (in the figure, two character patterns “A” and “B” are taken as an example), as shown in FIG. The set of inputs that must be active to identify the first pattern (eg, “A”) ((a): weights W1, W4, W7 of inputs 1, 4, 7 are And the set of inputs that must be active to identify the second pattern (eg, “A”) ((b): weights W2, W5 of inputs 2,5 are large) ) Are different from each other. When the learning process is repeated (for example, FIG. 22B), a unique input set different for each category is independently weighted and added, and an input weight setting state that allows both patterns to be distinguished is naturally formed. Is done. If the similarity between the two patterns is small, the number of common inputs between the patterns among the inputs whose weights are greater than a certain value is reduced, and the pattern identification accuracy is inevitably increased. On the other hand, when the degree of similarity is extremely large, the number of common inputs having a large weight increases, and the pattern identification accuracy decreases.
[0058]
Also, as shown in FIG. 21, even if the patterns are in the same category, if it is desired to enable ambiguous identification with a certain width in the content of the pattern to be identified, an input that is always active in the same category, Inputs that may or may not become active depending on the content of the identified pattern occur in a statistically distributed form. By adjusting the threshold value (first threshold value) of the output of the first type unit 10 with respect to the load sum of these inputs, an allowable range of ambiguous identification can be defined.
[0059]
The configuration and operation of the pattern teaching system 1 based on the equivalent circuit in FIG. 1 have been described above. The pattern teaching system 1 having the same functions as the equivalent circuit has a computer emulation as shown in FIG. It can also be realized by: This computer is obtained by connecting a CPU 2 and a RAM 3 serving as a work area thereof (a ROM 4 storing an operation system of the CPU 2 may be provided), a storage device 5 storing an emulation program, and an input / output interface 6 via a bus 7. Then, the input signal Ii forming the pattern to be processed and the teaching signal Ti forming the teaching pattern are input from the input / output interface 6, and the learning process of the pattern teaching system 1 according to the equivalent circuit of FIG. The output signal Oi of the output pattern, which is the pattern identification result, is output from the input / output interface 6. Note that the emulation process may be performed cooperatively by a plurality of computer groups 101 and 102 connected to a network, as shown in FIG. In the system shown in FIG. 4, the input / intermediate layer computer group 101 capable of mutually communicating and realizing functions by sharing a plurality of first type units (including the input layer 30) forming the intermediate layer 40, and the output layer A computer network system for realizing one pattern teaching system 1 as a whole is connected to an output layer computer group 102, which realizes functions by sharing a plurality of second type units constituting 50, by a network NW. Have been built.
[0060]
As shown in FIG. 9, the input signal value Ii is a one-dimensional variable having a fixed number n, and is associated with a negative input combination adoption flag signal value Qi and a set combination signal value σi. Are stored in the input setting memory. In the present specification, the input signal value Ii is represented by “1” for active and “0” for inactive in the positive logic. If the coupled adoption flag signal value Qi of the negative input is inactive ("0"), the positive coupled input is employed as the coupled signal value σi, and the coupled signal value σi having the input signal value Ii of "1" is used as it is. The value σi is set as “1”. On the other hand, if the coupling adoption flag signal value Qi of the negative input is active (“1”), the negative coupling input is adopted, and the one having the input signal value Ii of “0” is negatively inverted, and the coupling signal value σi Is set as the value of “1”. Each of the input signal values Ii for which the combined signal value σi is “1” is not registered in all of the first-type units 10 (MU1 to MUx: FIG. 11) in FIG. ). When the first type unit is created, a connection is formed in the first type unit 10 if the input setting memory σi is “1”, and the input signal value Ii is the first type if σi is “0”. No bond is formed with the unit 10.
[0061]
Hereinafter, the contents of various tables and memories formed in the RAM 3 (FIG. 3) will be described. The output signal Oi of the second type unit 11 forming the output pattern has a fixed total number n, and is stored in the memory 51 in a form associated with the teaching signal Ti forming the given teaching pattern as shown in FIG. You.
[0062]
In FIG. 1, the first type unit 10 is added or deleted as needed in response to a request during the learning process, so that the total number x (= also the total number of the intermediate signals mi) varies. As shown in FIG. 11, in the course of the learning process, a connection determined to be inappropriately formed between the first-type unit 10 and the second-type unit 11 is registered or deleted, or the first-type unit 10 is added. Thus, all combinations of the column (MUj) of the first-type unit 10 and the column (OUi) of the second-type unit 11 can be newly registered so that a combination that can be newly set can be newly registered. , Combineable flag Bij(Bij= 1 can be combined, Bij= 0 is impossible) is set in the form of the first-type unit combination possible table 52. The number MUj of the first type unit 10 is the default set value MUDAnd a corresponding connectable flag B for each second type unit 11ixAre initially set to "1" (that is, combineable). In addition, each time a new first type unit 10 'MUx) is increased, the value is set to be increased by one.ixAre additionally registered in a form having an initial value “1”. It should be noted that the initial value is also reset to "1" when a new teaching pattern set is additionally learned for a network which has completed learning of a teaching pattern set including a plurality of input patterns.
[0063]
Further, in the first-type unit output memory 53 of FIG. 11, the value of the intermediate output mi output by each first-type unit 10 (MU1,..., MUx) and the correct answer rate for the output of each first-type unit 10 ( Ri, which is a stochastic variable indicating the degree of coincidence between the output signal Oi of the second type unit 11 to which the first type unit 10 is coupled and the teaching signal Ti), the threshold Hi in the firing calculation of the first type unit 10, and , The flag Gi indicating that the learning has converged is stored in a form associated with the number of the first type unit 10.
[0064]
On the other hand, the registration deletion of the combination setting is performed for each combination of the first type unit 10 (MUj) and the second type unit 11 (OUi).ijCan be individually set by setting the value of “0” to “0”. When the first type unit 10 (MUj) is deleted, the connection between the first type unit 10 (MUj) and all the second type units 11 is collectively deleted (ie, the flag B1j, B2j, ‥, BnjAre collectively set to "0"). By referring to the first-type unit linkable table 52, a link not registered in this table (that is, BijIn the case of the combination where “0” is set to “0”), it is possible to skip the steps of the learning process related to the combination, such as creation of learning determination information, and to improve the efficiency of the entire learning process.
[0065]
As shown in FIG. 12, the actual coupling setting state between the input side coupling setting input signal Ii and the first type unit 10 (MUj) is determined for each combination of all the input signals Ii and the first type unit 10 (MUj). And the connection setting flag CijIs set and stored in the form of a first type unit input side connection setting table 53. Cij= “1” indicates that a bond is set, Cij= “0” indicates that no connection is set. Also, as shown in FIG. 13, the weight value Wij set for each connection between the input signal Ii and the first-type unit 10 (MUj) is stored in the weight setting memory 54. Further, the connection setting state of the first type unit 10 (MUj) and the second type unit 11 (output signal (Oi)) in FIG. (Output signal Oi), the combination setting flag KijIs set and stored in the form of a first type unit output side connection setting table 55. Kij= “1” indicates that a bond has been set, Kij= “0” indicates that no connection is set.
[0066]
The content of the learning determination information is stored in the learning determination memory 56 of FIG. As described above, the learning determination information includes the contents of the intermediate signal mi of each of the first type units 10 and the teachings corresponding to (the output signals Oi of) the second type units 11 to which the first type units 10 are coupled. Based on the content of the signal Ti, it is created and stored for each first-class unit 10. In this case, since one first-type unit 10 may be combined with a plurality of second-type units 11, the learning determination information includes all the combined signals for each intermediate signal mi (first-type unit 10). Element determination information f for the teaching signal Ti to the second type unit 11ijCreated as As described above, the contents are “1” corresponding to the judgment coincidence state, “−1” corresponding to the judgment non-coincidence state, and “0” corresponding to the neutral state. The presence / absence of connection formation can be immediately grasped by referring to the contents of the first type unit output side connection setting table 55. For combinations for which no connection has been set, the element determination information fijSkip creating. Then, for each intermediate signal mi (first-type unit 10), element determination information fi1, Fi1, ‥, fin(Excluding the combinations that are not set to be combined), the learning determination information Fi representing the intermediate signal mi, that is, the first type unit 10 is created. In the present embodiment, element determination information f for each intermediate signal mi (first-type unit 10)i1, Fi1, ‥, finIf at least one of them is “1” (judgment matching state), the learning judgment information Fi is set to “1” (judgment matching state), and fi1, Fi1, ‥, finDoes not include “1”, and at least one of them is “−1” (judgment mismatch state), the learning judgment information Fi is set to “−1” (judgment mismatch state). Also, element determination information fi1, Fi1, ‥, finAre all "0" (neutral state), the learning determination information Fi is set to "0" (neutral state).
[0067]
Hereinafter, further details of the learning process of the pattern teaching system 1 will be described along the flow of the process of the emulation program with reference to the flowcharts of FIGS. 4 to 8 (a supplementary description of the equivalent circuit of FIG. FIG. 1 is cited). FIG. 4 shows the flow of the main program. First, in S1, initialization processing of various parameters is performed. Specifically, the individual thresholds H of the first type unit 10 are initialized (0.5 in the present embodiment), the correct answer rate Ri (initial value: all 0), and each of the input signals Ii forming the pattern to be processed Weight W of connection with kind unit 10ij(Initial value: all 0) are initialized. In the initial state, all connections are not set, and only the input signal Ii that is active at the time of creating the first type unit can be connected.
[0068]
The reason why the initial value of each threshold value H of the first type unit 10 is set to about 0.5 is as follows. In order to make the explanation easy to understand, a first type unit 10 is provided which gives one teaching pattern, makes a connection only with the active input signal Ii of the positive input at that time, and connects it with one second type unit 11 And the combination of the first-type units 10 is considered (otherwise, it is assumed that the first-type units 10 have not been created). The connections at this point are a mix of truly needed inputs and extra inputs. If only the combination of the first-type units 10 is optimized, only one first-type unit 10 is input to the second-type unit 11, so that a plurality of teaching patterns are simply given to provide the teacher signal and the input signal Ii. By taking the correlation, only the truly necessary inputs can be separated. Here, considering the firing of the first type unit 10, since the ratio of the number of active inputs is 50%, the threshold may be set to 0.5, so that the first type unit 10 may always fire at the beginning. Will be higher. As the learning progresses, the firing will be stopped only by the truly necessary input, and the firing will be reduced.
[0069]
The teaching patterns are sequentially provided, and the existing first-type units 10 coupled to one second-type unit 11 are fired. If the teacher signal is active, the input signals Ii coupled to those first-type units 10 Contains a truly necessary input and is highly likely to have fired, so that processing is performed to increase the weight of the coupling in which the input signal Ii was active. On the other hand, when the first type unit 10 is fired and the teacher signal is not active, it is highly likely that the fire has been caused by the unnecessary input signal Ii, so that the process of reducing the weight of the coupling in which the input signal Ii was active is performed.
[0070]
Next, additional creation of the first type unit 10 will be considered. When a teaching signal is sequentially given and the existing first-class unit 10 does not fire and the teacher signal is active, the first-class unit 10 has learned to some extent and has a higher threshold value, and is coupled with the input signal Ii. It is assumed that the input signal Ii required by the teacher signal is hardly included in the input signal Ii. Thus, a new first-class unit 10 is created, making a connection with the active input signal Ii containing the truly required input.
[0071]
In the case of one unit of the first kind, it is sufficient to use the teacher signal as the correction coefficient. However, in the case of a plurality of units, the unit of the first kind which does not include the truly necessary input required by the teacher signal is sufficient. Returning a positive learning determination signal hinders learning. Therefore, the threshold value is gradually increased so that only the fired first-type unit 10 is learned, and only the first-type unit 10 including the connection with the truly necessary input signal Ii is included in the positive learning determination. A signal can be returned. Note that a positive learning determination signal is returned by the firing of one first type unit 10 and a positive learning determination signal is returned to another erroneously fired first type unit 10 as well. Effectively by returning a positive learning determination signal only to the largest one of the weighted sum Y among the firings of the first type unit 10 coupled to the second type unit 11 whose teacher signal was 1. it can.
[0072]
If the initial threshold is set to 0.5, even if an extra input signal is included due to the initial coupling, the first-type unit 10 is easily fired, and as the learning progresses and the coupling with the required input signal increases, , The rate at which a positive learning determination signal is returned increases. Further, if the threshold value is increased accordingly, the correct answer rate is further increased, and the number of connections with the required input is increased. As a result, at the advanced stage of the learning, the reaction of the first type unit 10 is fixed only when there is a necessary input signal, and can be unaffected by other patterns. In addition, since firing does not occur even when an input signal pattern that is quite close is given, the creation of another first type unit 10 can be promoted (that is, the ability to identify similar patterns can be enhanced by creating another unit). . Note that the upper limit of the threshold value is 1, and at this time, the first type unit 10 is close to the operation of the AND gate.
[0073]
In addition, even when the existing first-type unit 10 does not fire and the teacher signal is active, it may not be possible to exclude the case where the existing first-type unit 10 includes a connection with the truly necessary input signal Ii. There is. In this case, a plurality of the same first type units 10 are produced. In order to solve this problem, it is effective to set the initial threshold value of the first type unit 10 to slightly lower than 0.5 (for example, about 0.40 to 0.49) and to promote the ignition of the first type unit 10. .
[0074]
Returning to FIG. 4, in S2, the first one of the plurality of first type units 10 is selected (first type unit number NPmax = 1), and in S3, the teaching repetition counter CT is initialized (CT = 1). In S4, the number NT of the identified pattern and the teaching pattern used for the learning process is initialized (NT = 1). Then, in S5, the identification pattern (input signal Ii) and the teaching pattern (teaching signal Ti) of the number NT are read.
[0075]
Next, the process proceeds to S6 and proceeds to the ignition process. FIG. 6 shows the details. This process is performed for each first-class unit 10. First, in S201, the number NP 'of the first type unit 10 is set to 1. In S202, the active coupled input value σi coupled to the first type unit 10 of the number NP ′ (matches the value of Ii when the negative input is not adopted, and Ii when the negative input is adopted) (Matching (-)).
[0076]
The process after S204 is a load sum calculation process of the combined input value σi. First, in S204, initialization is performed in which the number i of the combined input value σi is set to 1, the load sum Σ1, and the total load value Σ2 are set to zero. In S206, Wi, NP 'Using the sum of weights Wi, NP 'A process of calculating σi and adding it to the load sum Σ1 is performed, and in S207, the load value W is calculated.i, NP 'Is added to the total load value Σ2. This processing is repeated for all i (= 1, 2, ‥, n), and the obtained final load sum Σ1 is divided by the total load value Σ2 to obtain a normalized load sum Y. At this time, the load value Wi, NP 'It is desirable to use only positive ones and calculate negative ones as zero. Also, the connection setting flag CijThe learning can be stabilized by adding the weighted sum addition value for only those of "1".
[0077]
Then, in S212, the normalized load sum Y is set to the first threshold HNP 'If Y ≧ H, the process proceeds to S213, and the output of the first type unit of the number NP ′ is set to fire. If Y <H, the process proceeds to S214, and the output of the first type unit of the number NP ′ Is not fired. The above processing is repeated for all the first type units while incrementing the number NP '(S215, S216 → S202), and the weight calculation / setting processing ends. As the above processing proceeds, the contents of the table 54 and the memory 153 are updated as needed. Further, by comparing the contents of the memory 153 with the contents of the table 55, at least one of the first type units 10 coupled to the second type unit 11 of the output signal Oi among the MU1 to MUx is ignited. Then, the output signal Oi of the second type unit 11 becomes active (“1”) (that is, fires).
[0078]
Returning to FIG. 4, the process then proceeds to S7, where the process proceeds to a process of updating the learning determination information. This is also a process to obtain for each first-class unit. First, in S301, the number NP 'of the first type unit 10 is set to 1. In S302, it is determined whether or not the first type unit 10 of the number NP 'is firing. If the ignition has occurred, the process proceeds to S303, and as described with reference to FIG. 15, the teaching signal T becomes active ("1") for all of the second type units 11 to which the first type unit 10 is coupled. A check is made to see if there is any such element, and element determination information f is determined from the result. If at least one of the element determination information f is 1, the process proceeds to S304, where the learning determination information for the first type unit 10 is determined. FNP 'Is set to "1" (judgment matching state). If the element determination information f does not include “1” and at least one of the elements is “−1”, the process proceeds to S305, where the learning determination information F for the first type unit 10 is determined.NP 'Is set to “−1” (judgment mismatch state). Further, if the element determination information f is all “0” (that is, if the first type unit 10 is not firing), the learning determination information F for the first type unit 10 is obtained.NP 'Is set to “0” (neutral state). The above process is repeated for all the first type units while incrementing the number NP '(S307, S308 → S302), and the process of updating the learning determination information ends.
[0079]
Returning to FIG. 4, the process then proceeds to S8, where the correct answer rate R of the first-class unit 10 (number NP) currently focused on is R.NP 'Is calculated. Details of the processing are as shown in FIG. That is, the previous correct answer rate R of the first type unit 10 of the number NPNP ''And the threshold HNP ''Is read. In S402, the learning determination information F of the first type unit 10 of the number NPNP 'Lead. And the previous correct answer rate RNP '′ With learning determination information FNP 'Is updated by the equation described in S403, and the new correct answer rate RNP 'And Correct answer rate RNP 'Represents learning determination information F as learning progresses.NP 'The value increases when “1” (judgment matching state) is returned. As a result, the progress of the learning of the first-class units 10 can be understood, and the progress of the learning can be grasped by grasping the correct answer rates R of all the first-class units 10. Next, the threshold value H of the first type unit 10NP 'Is the previous threshold value H of the first-class unit of interest.NP ''And learning determination information FNP 'Is updated by the equation described in S404 using the value ofNP 'And Threshold HNP 'As the learning progresses, the learning determination information FNP 'The value increases when "1" (judgment matching state) is returned. This makes it possible to stabilize the reaction of the first-class unit 10 at a stage where learning has progressed to some extent and the correct answer rate has increased. Further, the weight W corresponding to the combined input value σi and the number NP ′ of the first type unit 10i, NP 'And Wi, NP '+ FNP 'Update by (2σi-1) (equivalent to the expression of S405). FNP 'Is "1, 0, -1", the weight Wi, NP 'Is FNP '= 1. If σi = 1, it necessarily becomes “+1”, and FNP= -1. If σi = 1, it becomes “−1”. Note that the weight calculation formula is FN P 'W is only when is 1i, NP '+ (2σi−1) can be simplified. Also, the connection setting flag Cij= Weight W for only "1"i, NP 'The learning can be stabilized by updating.
[0080]
Returning to FIG. 4, the process proceeds to the unit generation / combination processing of S9. FIG. 5 shows the details. In S101, the number NS of the second type unit 11 is initialized (NS = 1). In S102, it is determined whether the second type unit 11 of the number NS is ignited by the output signal O of the second type unit 11.NSDetermined by If not, the process proceeds to S103, where the teaching signal TNSIs active or not. To match the pattern, the output signal ONSAnd teaching signal TNSMust match. Teaching signal TNSIs inactive ((= "0")), the process proceeds to S104, the connection with the second type unit 11 is not formed, and the learning determination information FNPIn order not to make the connection with the first type unit 10 of “1” thereafter, the connection is not registered (Bij = 0) in the connection possible table 52 (FIG. 11). This is because the teaching signal TNSIs inactive (= “0”), the learning determination information FNPThe first type unit 10 of “1” is the teaching signal TNSThis is because there is no relationship.
[0081]
Also, in S103, the teaching signal TNSIs active, the process proceeds to S105, and the learning determination information F of the first type units 10 that are not coupled to the second type unit 11NPIf "1" is connectable in the connectable table, the process proceeds to S106 to form a connection with the first type unit 10. If there is no first-class unit in S105, the process proceeds to S108, where a new first-class unit 10 (first-class unit number NPmax) is created and connected to the second-class unit 11 with the number NS. . Further, the new first type unit 10 is registered in the linkable table 52 (FIG. 11). In S110, the maximum value NPmax of the number of the first type unit 10 for which the learning should be converged is updated. Then, the process proceeds to S107, where the input signal Ii having the combined signal value σi of “1” is supplied to the combined first type unit 10 by the combination setting flag C.ij= "1" and load value Wi, NP '= 1 and set the connection. At this time, the initial load value Wi, NP 'May be greater than one.
[0082]
On the other hand, if the second type unit 11 of the number NS is firing in S102, the process proceeds to S111 and the teaching signal TNSIf is not active, the process proceeds to S112, where it is determined whether the learning determination information F is "1", that is, whether there is a connection with the first-class unit 10 in the determination matching state. When the connection exists, the second type unit 11 of the number NS necessarily becomes “ignition”, but the teaching signal TNSIs inconsistent with the content (inactive) shown in FIG. 11, the connection is cut, and in S114, the connected first type unit 10 and the second type unit 11 of the number NS are displayed in the connectable table 52 (FIG. 11). Is set to "0" and registered as a combination that cannot be combined. In S111, the teaching signal TNSIs active, the correct connection state has been realized, so no special addition or disconnection processing is performed. The above processing is repeated for all the second type units 11 while incrementing the number NS (S115, S116 → S102), and the unit generation / combination processing ends. As the above process proceeds, the contents of the tables 52, 53 and 54 are updated as needed.
[0083]
According to the flow of S6 to S9 in FIG. 4, the learning process for the first type unit 10 of the number NP is completed in one cycle. For example, the learning process is repeated a plurality of times while changing the pattern to be processed and the teaching pattern by a method as shown in FIG. In FIG. 4, until the teaching repetition counter CT reaches a certain number CTmax, the pattern to be processed and the teaching pattern are successively changed by incrementing the number NT, and the learning process of S6 to S9 is repeated (S10). , S11, S12 → S5). As a result, the accuracy rate R of the first type unit 10 of the number NP gradually increases. This means that each time the learning process is repeated, the combination setting state of the first-type unit 10 and the second-type unit 11 in S9 and the weight setting state of the input to the first-type unit 10 in S8 change the correct answer rate. This is because R is optimized in the direction of improvement. As is clear from the processing contents of FIG. 5, the optimization of the connection setting state includes feedback at the level of the second type unit 11 by direct comparison between the output signal Oi and the teaching signal Ti, and the learning determination information FNP 'And the feedback at the level of the first type unit 10 with reference to the above. 8, the weight adjustment of the input to the first type unit 10 is performed by a uniform weight addition process to the input combined signal σi collected in the first type unit 10. , And there is no complicated mathematical algorithm for weight optimization such as the steepest descent method.
[0084]
Next, in S13, the correct answer rate R of the first type unit 10 of the number NPNPLead RNPWhen the value exceeds a predetermined threshold correct answer rate RS, it is determined that the intended learning effect has been obtained, and the process proceeds to S16 (weight normalization in S15 will be described later), and the first type unit of the number NP It is determined that the optimization by the learning of learning has converged, and the storage value G corresponding to the number NP of the convergence completed flag G (FIG. 11) provided in one-to-one correspondence with each first type unit 10.NPIs set to “converged” (“1” in the present embodiment).
[0085]
On the other hand, even if the learning process for a certain numberNPFor the first type unit 10 whose value is less than the threshold correct answer rate RS, the process proceeds to S22, and it is confirmed whether or not the unit has already combined the negative input. In the case of No, the process proceeds to S23, in which the connection setting flag C of the first type unit 10 is set.ij= "1" is initialized (initial value = 1 in the present embodiment), and as shown in Fig. 16, in addition to the coupling signal value σi of the existing positive active input Ii, the negative active input Ii (- 1) is added as a new combined signal value σi. That is, the connection setting flag C of the input signal Iiij= "0" is negatively inverted and made active, and added as a combined signal value σi. (The weight of the negative input connection is the initial value = 1 or 0 in the present embodiment.) Thereafter, the process returns to S3 and the learning process is restarted from the position. Even if such a negative input is combined, R14NPIs less than the threshold correct answer rate RS, the first-class unit 10 judges that the contribution to the learning effect can hardly be expected, proceeds from S22 to S26, and deletes all the connections of the first-class unit. I do.
[0086]
As described above, the following advantages can be obtained by preventing the negative side input signal from intervening when the first type unit 10 is created and employing the negative side input signal as necessary. That is, in the learning process according to the method of the present invention, it is generally considered that the necessity of the negative side input signal that is truly required is small (that is, in many learning processes, only the positive side input signal is sufficient). However, if the learning is performed by adopting the negative input signal from the beginning, there is a possibility that the learning speed is reduced due to the large number of negative input signals. Therefore, if only the positive side input signal is adopted only in the initial stage of learning, the first type unit 10 is inclined to the side where ignition is more likely to occur as the learning progresses, so that the negative side input signal is not adopted in the initial state. Basically, there is no adverse effect on learning, and it is also possible to eliminate the adverse effects when a large number of negative input signals are employed. In addition, making the negative side input signal into the negative side of the positive side when creating the first type unit 10 is inclined to the side where the first type unit 10 is less likely to be fired, which has an adverse effect on learning.
[0087]
Instead of the processing from S23 to S25, the weight value W for the input signal Iii, NP ' Of these, the one whose absolute value is larger on the negative side can be negatively inverted and activated as the negative active input Ii (−1) and added as a new combined signal value σi. In addition, as a pre-process of creating a connection, an input signal and correlation information between the teacher signal and the output of the second type unit are created in advance, and when creating the first type unit, when creating a connection with the input signal, Learning can be further stabilized by selecting and adopting only the input that is actively correlated with the teacher signal, instead of simply mechanically adopting the positive input.
[0088]
Learning determination information F of the first type unit 10NPIn the initial stage of the learning process, since the matching between the teaching signal and the output signal is stochastically the same, the state may be in a state other than the "judgment matching state" (that is, a judgment mismatch state or a neutral state). is there. However, by repeating the learning process, the learning determination information FNPEventually, it changes to “1” (judgment matching state), and the correct answer rate R increases.
[0089]
By the way, in the process of FIG. 4, in consideration of the fact that the first type unit 10 is added in the middle of the repetition of the learning process, the first type unit 10 in which the convergence completed flag G is “0”, that is, , A non-convergent first type unit 10 is searched for, and the learning process is repeated. Then, in S20, when the non-converged first-type units 10 disappear from the table, it is determined that the optimization by learning has converged in all the first-type units 10, and the entire process ends.
[0090]
The differences between the effects of the learning method of the present embodiment and the conventional back propagation (hereinafter abbreviated as “BP”) method are summarized as follows. The weight update learning formula in the BP method can be expressed as Wn = Wn + k (Tn-Yn) * Ii using the symbol of the present embodiment (however, in the intermediate unit, Tn is feedback from a plurality of units). Becomes). Further, (Tn-Yn) is the learning determination information F of this method.NP, But the contents are different as follows.
[0091]
[Table 1]
Figure 2004252943
[0092]
In addition, in S405 of FIG.NP 'Is updated using (2Ii-1) because (2Ii-1) becomes -1 when Ii is 0, so that it is possible to statistically eliminate extra input coupling. . On the other hand, the processing in FIG. 8 can be changed as shown in FIG. The threshold can be more smoothly increased by changing the threshold updating process from the method using the operation formula in S404 in FIG. 8 to the method using the operation expression in S404 'in FIG. Furthermore, in S405, S4051, and S4052 of FIG. 27, the number of updates of the combined value W can be reduced when the determinations do not match (that is, F = −1). When a large number of input patterns are mixed and mixed, the probability of the decision mismatch F = −1 becomes considerably larger than the decision match F = 1, and learning may not converge. In this case, there may be a method of eliminating inactive inputs by setting W = W + (I-1) only when the determination match F = 1, but there is a problem that the input becomes insensitive to noise. Therefore, in the processing of S405, S4051, and S4052, a processing result substantially equivalent to the update of W = W + (2I-1) is obtained only in the case of the determination coincidence (that is, F = 1). It is devised as follows.
[0093]
In the BP method, when Tn is large and the output Yn is small, Wn = Wn + k (Tn-0) * Ii. Seemingly similar. However, the fundamental difference in the BP method is that Ii cannot be defined unless there is a coupling between units. In order to initialize this with a random number, the coupling with the input signal that is truly necessary is performed. Increasing can only happen by chance. As a result, the coupling with an extra input signal has to be increased, and when the coupling with a necessary input signal is thin, it may be physically impossible to increase the coupling. Further, if the weight Wn is set uniformly, the coupling with the truly necessary input signal can be increased, but the coupling with all other units also increases, so that unit differentiation does not occur. In the BP method, the progress of the learning is greatly affected by the initial random numbers, and therefore, there is a disadvantage that the units are not well differentiated and the unit is likely to fall into a local solution. However, in the method of the present embodiment, when the second-type unit is not fired, the first-type unit is additionally created as necessary to make a connection with the positive-side active input signal. Such a problem does not occur.
[0094]
As described above, if the optimization by learning of the individual first-class units 10 converges according to the processing of FIG. 4, the pattern teaching system 1 will thereafter transmit a certain input pattern when the input pattern is taught. Whether or not the output pattern matches the teaching pattern can be easily identified based on whether or not the obtained output pattern matches the teaching pattern. That is, the system 1 can be used as a pattern identification device.
[0095]
When the configuration of the pattern teaching system 1 described above is used, the weight of the input to the first type unit 10 connected to the input side and the first type unit 10 connected to the output side are finally obtained as shown in FIG. A pattern identification device in which the coupling between the pattern identification unit and the second type unit 11 is optimized can be obtained. In this state, the second type unit 11 is a logical sum type element, but the first type unit 10 remains a nonlinear element with a weight input. However, the first-type unit 10 can be replaced with an AND gate circuit by selecting input signals according to weight values and converting the remaining input signals into binary inputs. More specifically, as shown in FIG. 20, among the input signals Ii (the combined signal value σi when the negative input is considered), those having a weight value Wi larger than a predetermined threshold value Ws (in FIG. W1, W4, W6, W8) can be replaced with a logical product gate circuit in such a form that only the binary inputs are left as binary inputs. Depending on whether or not the weight value Wi is greater than a predetermined threshold value Ws, an input selection process (hereinafter referred to as a weight normalization process) having the weight Wi, and a logical product of the first type unit 10 by the selection process. Conversion to a gate circuit can be performed very easily.
[0096]
In the pattern teaching system 1 shown by the equivalent circuit in FIG. 1, only one row of the first type units 10 constituting the intermediate layer 40 is provided. However, as shown in FIG. It is also possible to connect the columns in a plurality of stages via the input side connection setting means 13. However, in this case, weight optimization processing similar to that of the conventional neural network is required between the columns of the first type unit 10. In the equivalent circuit of FIG. 1, there is a limit to the complicated pattern identification processing because the columns of the first type unit 10 are one stage, but the weight setting on the input side and the coupling between the intermediate layer 40 and the output layer 50 Since the setting and the processing can be performed separately, there is an advantage that the efficiency of the learning processing is extremely high. Therefore, as shown in FIG. 26, a plurality of systems 1 ′ are connected by directly using the output signal Oi of the system 1 ′ to which the pattern to be identified is input as the input of the next system 1 ′ having the same configuration. However, it is also possible to obtain a pattern teaching system having a higher degree of freedom in identification as a whole.
[Brief description of the drawings]
[0097]
FIG. 1 is a conceptual diagram showing an example of an equivalent circuit of a pattern teaching system according to the present invention.
FIG. 2 is a conceptual diagram showing an example of an equivalent circuit of a pattern input unit.
FIG. 3 is a diagram showing an example of realizing the pattern teaching system of FIG. 1 by computer emulation.
FIG. 4 is a flowchart showing an example of the processing flow of an emulation program of the pattern teaching system of FIG. 3;
FIG. 5 is a flowchart showing details of unit generation / combination processing in FIG. 4;
FIG. 6 is a flowchart showing details of a firing process of FIG. 4;
FIG. 7 is a flowchart illustrating details of a learning determination update process in FIG. 4;
FIG. 8 is a flowchart showing details of a weight setting / correct answer rate calculation process of FIG. 4;
FIG. 9 is a conceptual diagram of an input setting memory.
FIG. 10 is a conceptual diagram showing the contents of a storage memory for teaching signals and output signals.
FIG. 11 is a conceptual diagram showing the contents of a first-type unit linkable table and a first-type unit output memory.
FIG. 12 is a conceptual diagram showing the contents of a first type unit input side connection setting memory.
FIG. 13 is a conceptual diagram showing the contents of a weight setting memory.
FIG. 14 is a conceptual diagram showing the contents of a first type unit output side connection setting memory.
FIG. 15 is a conceptual diagram showing the contents of a learning determination result memory.
FIG. 16 is a schematic diagram showing a first example of a form of coupling an input signal to a first type unit.
FIG. 17 is a schematic diagram showing a second example of a mode of coupling an input signal to a first type unit.
FIG. 18 is an explanatory view showing a first example and a second example of the combined recombination between the first type unit and the second type unit.
FIG. 19 is an explanatory diagram showing a third example of the combined recombination between the first type unit and the second type unit.
FIG. 20 is an explanatory diagram showing a method of converting a first-type unit into an AND gate circuit.
FIG. 21 is an explanatory diagram illustrating the relationship between a pattern to be identified and a teaching pattern;
FIG. 22 is an explanatory view showing some examples of a sequence for repeatedly teaching the identified pattern and the teaching pattern.
FIG. 23 is a view conceptually illustrating the relationship between learning processing by the pattern teaching system of the present invention and input weight setting.
FIG. 24 is a block diagram showing an example in which an emulation type pattern teaching system is realized by a plurality of computers connected to a network.
FIG. 25 is an equivalent circuit diagram showing a modification of the pattern teaching system of the present invention shown in FIG. 1;
FIG. 26 is an equivalent circuit diagram showing another modification of the pattern teaching system of the present invention shown in FIG. 1;
27 is a flowchart showing another example of the weight setting / correct answer rate calculation processing of FIG. 4;
[Explanation of symbols]
[0098]
10 Unit 1
11 Type 2 unit
12 Pattern input section
13 Input side connection setting means
14 Output side coupling setting means
21 Output side coupling adjustment means
22 Learning determination information creation means
23 Input-side coupling adjustment means
24 Teaching signal setting means
30 Input layer
40 middle class
50 output layer
Ii input signal
mi Intermediate signal
Oi output signal
Ti teaching signal

Claims (22)

複数の信号が各々並列入力結合可能とされ、かつ、該信号の入力和に対する第一の閾値を有してなり、該入力和と前記第一の閾値との比較結果に基づいて自身の信号出力を変化させる複数の第一種ユニットを有する中間層と、
前記中間層の前段に位置し、被識別パターンをなす複数の入力信号を、前記中間層の最前段に位置する第一種ユニットの列に入力するパターン入力部を有した入力層と、
前記中間層の最終段に位置する第一種ユニットの出力を中間信号として、該中間信号が並列入力結合可能とされ、かつ、該中間信号の入力和に対する、前記第一の閾値よりも低い第二の閾値を有してなり、該入力和と前記第二の閾値との比較結果に基づいて出力信号を変化させる複数の第二種ユニットを有する出力層と、
複数の前記第二種ユニットの出力信号の集合を出力パターンとして、該出力パターンを構成する前記出力信号に一義的に対応した教示信号よりなる教示パターンを設定する教示信号設定手段と、
複数の前記中間信号を、複数の前記第二種ユニットに対し、任意の組合せにて入力結合設定する出力側結合設定手段と、
前記出力パターンをなす各出力信号と、対応する教示信号との一致状態を照合し、その照合結果に基づいて、前記出力パターンと前記教示パターンとの一致状態が改善されるように、各前記第二種ユニットに対する前記第一種ユニットの結合の組合せを変更する出力側結合調整手段とを有し、
前記入力層に2種以上の被識別パターンを順次繰り返して入力し、各被識別パターンの入力毎に、前記出力層をなす前記第二種ユニットの出力信号と前記教示信号との一致状態が改善されるように、前記出力側結合調整手段により、前記第二種ユニットと前記中間信号を出力する第一種ユニットとの結合の組合せ変更する学習処理を反復して行なうようにしたことを特徴とするパターン教示システム。
Each of the plurality of signals can be coupled in parallel, and has a first threshold value for the input sum of the signals, and outputs its own signal based on a comparison result between the input sum and the first threshold value. An intermediate layer having a plurality of first-type units that change
An input layer having a pattern input unit for inputting a plurality of input signals forming a pattern to be identified to a row of a first type unit located at the forefront of the intermediate layer, which is located at a preceding stage of the intermediate layer.
The output of the first type unit located at the final stage of the intermediate layer is used as an intermediate signal, and the intermediate signal can be connected in parallel, and the input signal of the intermediate signal is lower than the first threshold. An output layer having a plurality of second type units that has two thresholds and changes an output signal based on a comparison result between the input sum and the second threshold,
A set of output signals of the plurality of second type units as an output pattern, a teaching signal setting means for setting a teaching pattern consisting of a teaching signal uniquely corresponding to the output signal constituting the output pattern;
A plurality of the intermediate signals, a plurality of the second type units, output-side coupling setting means for input coupling setting in any combination,
Each output signal forming the output pattern is compared with the matching state of the corresponding teaching signal, and based on the matching result, the matching state between the output pattern and the teaching pattern is improved so that each of the output signals is improved. Output-side coupling adjusting means for changing the combination of the coupling of the first-type unit to the two-type unit,
Two or more types of discrimination patterns are sequentially and repeatedly input to the input layer, and for each input of each discrimination pattern, the coincidence between the output signal of the second type unit forming the output layer and the teaching signal is improved. As described above, the output-side coupling adjusting means repeatedly performs a learning process of changing a combination of coupling between the second-type unit and the first-type unit that outputs the intermediate signal. Pattern teaching system.
前記出力側結合調整手段は、前記第二種ユニットの出力信号と前記教示信号との一致状態が予め定められたレベルに到達すれば、複数の前記第一種ユニットと複数の前記第二種ユニットとの間に未結合の組合せが残されていても、これを残す形で前記学習処理の反復を打ち切る請求項1記載のパターン教示システム。The output-side coupling adjusting unit is configured such that when the state of coincidence between the output signal of the second-type unit and the teaching signal reaches a predetermined level, a plurality of the first-type units and a plurality of the second-type units are provided. 2. The pattern teaching system according to claim 1, wherein even if an unconnected combination is left, the repetition of the learning process is terminated in a form that leaves the unconnected combination. 前記出力側結合調整手段は、複数の前記中間信号に重み付与することなく、複数の前記第二種ユニットとの結合の組合せのみを変更する請求項1又は2に記載のパターン教示システム。3. The pattern teaching system according to claim 1, wherein the output-side coupling adjusting unit changes only a combination of coupling with the plurality of second-type units without weighting the plurality of intermediate signals. 4. 前記第一種ユニット及び前記第二種ユニットは、いずれもアクティブ出力と非アクティブ出力とのいずれかを二値出力するものであり、
また、前記被識別パターンと前記教示パターンとは、アクティブ状態と非アクティブ状態とのいずれかに設定される二値信号の集合よりなる請求項1ないし3のいずれか1項に記載のパターン教示システム。
The first-type unit and the second-type unit are those that output any one of an active output and an inactive output in binary,
The pattern teaching system according to any one of claims 1 to 3, wherein the identified pattern and the teaching pattern comprise a set of binary signals set to one of an active state and an inactive state. .
前記出力側結合調整手段は、前記第二種ユニットの出力が非アクティブであり、対応する教示信号がアクティブである場合、当該第二種ユニットに対し前記第一種ユニットとの新規な結合を形成する請求項4記載のパターン教示システム。The output-side coupling adjusting unit forms a new coupling between the second-type unit and the first-type unit when the output of the second-type unit is inactive and the corresponding teaching signal is active. The pattern teaching system according to claim 4, wherein 前記出力側結合調整手段は、前記第二種ユニットに対し前記第一種ユニットとの新規な結合を形成するに際し、出力がアクティブとなっている既存の第一種ユニットがある場合は該既存の第一種ユニットとの結合を形成し、ない場合は、新たな第一種ユニットを作成して当該作成した第一種ユニットとの結合を形成するものである請求項5記載のパターン教示システム。The output-side coupling adjusting means, when forming a new coupling with the first-type unit for the second-type unit, if there is an existing first-type unit whose output is active, 6. The pattern teaching system according to claim 5, wherein a connection with the first type unit is formed, and if there is no connection, a new first type unit is formed and a connection with the generated first type unit is formed. 前記第一種ユニットの出力状態と、該第一種ユニットの結合先となる第二種ユニットへの教示信号の内容とに基づいて、前記第二種ユニットの出力信号と、これに対応する教示信号との一致状態を反映した学習判定情報を、複数の第一種ユニット毎に作成する学習判定情報作成手段を有し、
前記出力側結合調整手段は、前記学習判定情報の内容に基づいて、対応する第二種ユニットの出力信号と教示信号との一致状態が改善されるように、前記第二種ユニットと前記第一種ユニットとの結合の組合せ設定を調整する請求項1ないし6のいずれか1項に記載のパターン教示システム。
An output signal of the second type unit and a corresponding teaching based on an output state of the first type unit and a content of a teaching signal to the second type unit to which the first type unit is coupled; The learning determination information reflecting the state of coincidence with the signal, has learning determination information creating means for creating for each of a plurality of first type units,
The output-side coupling adjustment unit is configured to control the second-type unit and the first-type unit based on the content of the learning determination information so that a matching state between the output signal of the corresponding second-type unit and the teaching signal is improved. The pattern teaching system according to any one of claims 1 to 6, wherein a combination setting of the combination with the seed unit is adjusted.
請求項4の要件を有し、
前記学習判定情報作成手段は、前記第一種ユニットと前記教示信号との各出力のアクティブ/非アクティブの組合せに基づいて、前記学習判定情報を作成する請求項7記載のパターン教示システム。
Having the requirements of claim 4,
8. The pattern teaching system according to claim 7, wherein the learning determination information creating unit creates the learning determination information based on an active / inactive combination of each output of the first type unit and the teaching signal.
前記学習判定情報作成手段は前記学習判定情報を、
前記第一種ユニットの出力がアクティブであり、かつ、該第一種ユニットが結合する前記第二種ユニットの少なくとも1つのものの出力に対応する教示信号がアクティブとなっている判定一致状態と、
前記第一種ユニットの出力がアクティブであり、かつ、該第一種ユニットが結合する前記第二種ユニットのすべてのものの出力に対応する教示信号が非アクティブとなっている判定不一致状態と、
前記第一種ユニットの出力が非アクティブであることを示す中立状態と、
が互いに識別可能な情報として作成する請求項8記載のパターン教示システム。
The learning determination information creating means includes the learning determination information,
A determination matching state in which the output of the first type unit is active, and a teaching signal corresponding to the output of at least one of the second type units coupled to the first type unit is active;
An output of the first type unit is active, and a determination mismatch state in which a teaching signal corresponding to an output of all of the second type units coupled to the first type unit is inactive,
A neutral state indicating that the output of the first type unit is inactive;
9. The pattern teaching system according to claim 8, wherein the information is created as mutually identifiable information.
前記出力側結合調整手段は、前記第二種ユニットの出力がアクティブであり、対応する教示信号が非アクティブであり、かつ、前記学習判定情報が判定一致状態を示す第一種ユニットが該第二種ユニットに接続されている場合は、それら第一種ユニットと第二種ユニットとの結合を解除する請求項8又は9に記載のパターン教示システム。The output-side coupling adjusting means is configured such that the output of the second-type unit is active, the corresponding teaching signal is inactive, and the first-type unit whose learning determination information indicates a determination coincidence state is the second type unit. The pattern teaching system according to claim 8, wherein the connection between the first type unit and the second type unit is released when connected to the type unit. 前記パターン入力部からの複数の前記入力信号を、前記中間層の最前段側に位置する複数の第一種ユニットに任意の組合せにて分配結合設定する入力側結合設定手段と、
前記出力パターンと前記教示パターンとの一致状態が改善されるように、各前記第一種ユニットに対する前記入力信号の結合の重み及び/又は組合せを変更する入力側結合調整手段と、を有する請求項1ないし10のいずれか1項に記載のパターン教示システム。
A plurality of the input signals from the pattern input unit, input-side coupling setting means for setting distribution coupling in any combination to a plurality of first-class units located at the forefront side of the intermediate layer,
An input-side coupling adjusting unit that changes a weight and / or a combination of coupling of the input signal to each of the first-type units so that a matching state between the output pattern and the teaching pattern is improved. 11. The pattern teaching system according to any one of 1 to 10.
前記入力側結合調整手段は、前記第二種ユニットの出力信号と前記教示信号との一致状態が予め定められたレベルに到達すれば、複数の前記入力信号と複数の前記第一種ユニットとの間に未結合の組合せが残されていても、これを残す形で前記学習処理の反復を打ち切る請求項11記載のパターン教示システム。The input-side coupling adjustment unit is configured to determine whether the output signal of the second-type unit and the teaching signal reach a predetermined level when the matching state between the output signal and the teaching signal reaches a predetermined level. 12. The pattern teaching system according to claim 11, wherein even if an unconnected combination is left, the repetition of the learning process is terminated in such a manner as to remain. 請求項4の要件を有し、
前記入力側結合調整手段は、前記新たな第一種ユニットの作成時において前記被識別パターンの前記入力信号のうちアクティブ状態となっているもののみを選択する形で各前記第一種ユニットに分配入力するものであり、さらに前記出力側結合調整手段により前記第二種ユニットと前記第一種ユニットとの結合の組合せ設定を調整する主学習処理を反復して行なったとき、前記第二種ユニットの出力信号と前記教示信号との一致状態が、前記主学習処理の後予め定められた条件を充足するようには改善されなかった場合には、前記入力信号のうちアクティブ状態となっているものを肯定アクティブ入力として、該肯定アクティブ入力に、非アクティブ状態となっている入力信号を否定反転してアクティブとした否定アクティブ入力を加えた形にて各前記第一種ユニットに分配入力するものであり、
前記出力側結合調整手段は、前記否定アクティブ入力が加わった後、さらに、前記第二種ユニットと前記第一種ユニットとの結合の組合せ設定を調整する補助学習処理を行なう請求項11又は12に記載のパターン教示システム。
Having the requirements of claim 4,
The input-side coupling adjusting unit distributes the input signals of the identified pattern to each of the first-type units by selecting only those that are in an active state among the input signals of the pattern to be identified when the new first-type unit is created. When the main learning process for adjusting the combination setting of the combination of the second-type unit and the first-type unit by the output-side coupling adjustment unit is further repeated, the second-type unit If the matching state between the output signal and the teaching signal is not improved so as to satisfy a predetermined condition after the main learning process, the input signal which is in the active state As a positive active input, and a negative active input in which the inactive input signal is negatively inverted and activated is added to the positive active input. Are those Te distributes input to each of said first type unit,
13. The output-side coupling adjusting means according to claim 11 or 12, further comprising, after the negative active input is applied, an auxiliary learning process for adjusting a combination setting of the coupling between the second type unit and the first type unit. The described pattern teaching system.
前記第一種ユニットは、前記入力信号が重み付与された形で並列入力結合可能とされ、前記第一の閾値は、該入力信号の重み入力和に対して設定されるものであり、さらに、
前記第一種ユニットに結合される前記入力信号の重み値を設定する重み設定手段と、
前記学習判定情報の内容に基づいて、対応する第二種ユニットの出力信号と教示信号との一致状態が改善されるように、前記第二種ユニットに結合されている前記第一種ユニットへの前記入力信号の重み値を調整する重み調整手段と、
を有した請求項1ないし13のいずれか1項に記載のパターン教示システム。
The first type unit is configured such that the input signal can be parallel-input coupled in a weighted form, and the first threshold is set for a weighted input sum of the input signal,
Weight setting means for setting a weight value of the input signal coupled to the first type unit,
Based on the content of the learning determination information, the matching between the output signal of the corresponding second type unit and the teaching signal is improved, so that the first type unit coupled to the second type unit is Weight adjustment means for adjusting the weight value of the input signal,
The pattern teaching system according to any one of claims 1 to 13, further comprising:
前記被識別パターンをなす複数の入力信号のうち、前記第一種ユニットの作成時において前記被識別パターンの前記入力信号のうちアクティブ状態となっているものの重み値を同一の初期値に設定する請求項14記載のパターン教示システム。A weight value of an input signal of the identified pattern that is in an active state during the creation of the first type unit is set to the same initial value among a plurality of input signals forming the identified pattern. Item 15. The pattern teaching system according to Item 14. 請求項5に記載の要件を備え、
前記重み調整手段は、前記学習判定情報が前記判定一致状態となっている前記第一種ユニットに対しては前記入力信号のうちアクティブとなっているものとの重みを増加させ、前記判定不一致状態となっている前記第一種ユニットに対しては前記入力信号のうちアクティブとなっているものとの重みを減少させる処理を行なう請求項14又は15に記載のパターン教示システム。
Comprising the requirements of claim 5,
The weight adjusting means increases the weight of the first type unit in which the learning determination information is in the determination coincidence state with an active one of the input signals, and increases the weight in the determination inconsistency state. 16. The pattern teaching system according to claim 14, wherein a process of reducing the weight of the input signal that is active among the input signals is performed on the first type unit.
前記重み調整手段は、前記学習判定情報が前記中立状態となっている前記第一種ユニットに対しては前記入力信号の重み増減処理を行なわない請求項16記載のパターン教示システム。17. The pattern teaching system according to claim 16, wherein the weight adjustment unit does not perform the weight increase / decrease processing of the input signal on the first type unit in which the learning determination information is in the neutral state. コンピュータを、請求項1ないし17のいずれかに記載のパターン教示システムの各手段として機能させることを特徴とするコンピュータプログラム。A computer program for causing a computer to function as each unit of the pattern teaching system according to any one of claims 1 to 17. 請求項1ないし17のいずれかに記載のパターン教示システムの前記入力層に2種以上の前記被識別パターンを順次繰り返して入力し、各被識別パターンの入力毎に、前記出力層をなす前記第二種ユニットの出力信号と前記教示信号との一致状態が改善されるように、前記出力側結合調整手段により、前記第二種ユニットと前記中間信号を出力する第一種ユニットとの結合の組合せ変更する学習処理を反復して行なうことにより得られることを特徴とするパターン識別装置。18. The pattern teaching system according to claim 1, wherein two or more types of the identified patterns are sequentially and repeatedly input to the input layer, and the input layer forms the output layer for each input of the identified pattern. Combination of the combination of the second-type unit and the first-type unit outputting the intermediate signal by the output-side coupling adjusting means so that the coincidence between the output signal of the two-type unit and the teaching signal is improved. A pattern identification device characterized by being obtained by repeatedly performing a learning process to be changed. 請求項18記載のコンピュータプログラムの実行により、コンピュータ上にて実現される請求項1ないし17のいずれかに記載のパターン教示システムを用いて前記学習処理を反復して行なうことにより、コンピュータ上でのソフトウェア的エミュレーションの形で実現される請求項19記載のパターン識別装置。By executing the learning process repeatedly using the pattern teaching system according to any one of claims 1 to 17, which is realized on a computer by executing the computer program according to claim 18, 20. The pattern identification device according to claim 19, which is realized in the form of software emulation. 請求項14ないし17のいずれかに記載のパターン教示システムの前記入力層に2種以上の前記被識別パターンを順次繰り返して入力し、各被識別パターンの入力毎に、前記出力層をなす前記第二種ユニットの出力信号と前記教示信号との一致状態が改善されるように、前記出力側結合調整手段により、前記第二種ユニットと前記中間信号を出力する第一種ユニットとの結合の組合せ変更し、さらに、前記学習判定情報の内容に基づいて、対応する第二種ユニットの出力信号と教示信号との一致状態が改善されるように、前記第二種ユニットに結合されている前記第一種ユニットへの前記入力信号の重み値を調整する学習処理を反復して行なう工程と、
前記入力信号を前記重み値に応じて取捨選択しつつ前記第一種ユニットを、残した入力信号に対応した二値入力端子を有する論理積ゲート回路にて置換し、さらに、該第一種ユニットからの中間出力が結合される前記第二種ユニットを、該中間出力に対応した二値入力端子を有する論理和ゲート回路にて置換する工程と、
を含むことを特徴とするパターン識別装置のデジタル論理回路設計方法。
18. The pattern teaching system according to claim 14, wherein two or more kinds of the identified patterns are sequentially and repeatedly input to the input layer, and the input layer forms the output layer for each input of the identified pattern. Combination of the combination of the second-type unit and the first-type unit outputting the intermediate signal by the output-side coupling adjusting means so that the coincidence between the output signal of the two-type unit and the teaching signal is improved. Change, and further, based on the content of the learning determination information, the second type unit coupled to the second type unit such that the matching state between the output signal and the teaching signal of the corresponding second type unit is improved. Repeatedly performing a learning process of adjusting the weight value of the input signal to the kind of unit;
The first type unit is replaced with an AND gate circuit having a binary input terminal corresponding to the remaining input signal while selecting the input signal according to the weight value, and further, the first type unit Replacing the second type unit to which the intermediate output is coupled with an OR gate circuit having a binary input terminal corresponding to the intermediate output;
A digital logic circuit designing method for a pattern identification device, comprising:
前記入力信号のうち、前記重み値が予め定められた閾値よりも大きいもののみを二値入力として残す形で、前記第一種ユニットを論理積ゲート回路にて置換する請求項21記載のパターン識別装置のデジタル論理回路設計方法。22. The pattern identification according to claim 21, wherein, of the input signals, the first-type unit is replaced by an AND gate circuit in such a manner that only a signal whose weight value is larger than a predetermined threshold is left as a binary input. Digital logic circuit design method for equipment.
JP2003272813A 2002-12-26 2003-07-10 Pattern teaching system, pattern identification device using the same, computer program, and digital logic circuit design method for pattern identification device Expired - Fee Related JP3526859B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003272813A JP3526859B1 (en) 2002-12-26 2003-07-10 Pattern teaching system, pattern identification device using the same, computer program, and digital logic circuit design method for pattern identification device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002378619 2002-12-26
JP2002-378619 2002-12-26
JP2003272813A JP3526859B1 (en) 2002-12-26 2003-07-10 Pattern teaching system, pattern identification device using the same, computer program, and digital logic circuit design method for pattern identification device

Publications (2)

Publication Number Publication Date
JP3526859B1 JP3526859B1 (en) 2004-05-17
JP2004252943A true JP2004252943A (en) 2004-09-09

Family

ID=32473744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003272813A Expired - Fee Related JP3526859B1 (en) 2002-12-26 2003-07-10 Pattern teaching system, pattern identification device using the same, computer program, and digital logic circuit design method for pattern identification device

Country Status (1)

Country Link
JP (1) JP3526859B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361577B2 (en) 2013-09-09 2016-06-07 Kabushiki Kaisha Toshiba Processing device and computation device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361577B2 (en) 2013-09-09 2016-06-07 Kabushiki Kaisha Toshiba Processing device and computation device

Also Published As

Publication number Publication date
JP3526859B1 (en) 2004-05-17

Similar Documents

Publication Publication Date Title
CN108465244B (en) AI method for parameter configuration, device, equipment and storage medium for racing class AI model
US6601053B1 (en) Optimized artificial neural networks
JP5656202B2 (en) Feature extraction device, feature extraction method, and program thereof
JPH04288662A (en) Learning method for neural network system
CN111310409B (en) Multi-stage FPGA wiring method for optimizing time division multiplexing technology
Yih et al. A neural network design for circuit partitioning
US7991617B2 (en) Optimum design management apparatus from response surface calculation and method thereof
CN112242963B (en) Rapid high-concurrency neural pulse data packet distribution and transmission method and system
Spieth et al. A memetic inference method for gene regulatory networks based on S-Systems
CN111412795B (en) Test point setting scheme generation method and device
JP2004252943A (en) Pattern teaching system, pattern identification device using the same, computer program, and digital logic circuit design method for pattern identification device
Garg et al. Modeling of multiple valued gene regulatory networks
US7370019B2 (en) Method and device for evolving a network using a genetic representation
Parvin et al. A scalable method for improving the performance of classifiers in multiclass applications by pairwise classifiers and GA
CN108334935B (en) Deep learning neural network method and device for simplifying input and robot system
Gutiérrez et al. Designing multilayer perceptrons using a guided saw-tooth evolutionary programming algorithm
Santos et al. Evolutionary generation and training of recurrent artificial neural networks
JP6926045B2 (en) Neural networks, learning devices, learning methods, and programs
CN111291792A (en) Traffic data type integrated classification method and device based on double evolution
WO2004097733A2 (en) Neural networks
CN112733433A (en) Equipment testability strategy optimization method and device
Tan et al. Monotonicity of fixation probability of evolutionary dynamics on complex networks
JP2001044286A (en) Bus structure, data base, and method of designing interface
Koza et al. Evolving sorting networks using genetic programming and rapidly reconfigurable field-programmable gate arrays
Wu et al. Counter-propagation neural networks for molecular sequence classification: supervised LVQ and dynamic node allocation

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040217

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees