JPH04280385A - Neural network - Google Patents

Neural network

Info

Publication number
JPH04280385A
JPH04280385A JP3043600A JP4360091A JPH04280385A JP H04280385 A JPH04280385 A JP H04280385A JP 3043600 A JP3043600 A JP 3043600A JP 4360091 A JP4360091 A JP 4360091A JP H04280385 A JPH04280385 A JP H04280385A
Authority
JP
Japan
Prior art keywords
pattern
neural network
light
test pattern
patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3043600A
Other languages
Japanese (ja)
Other versions
JP3096819B2 (en
Inventor
Yasuhiro Takemura
竹村安弘
Toshiji Takei
武居利治
Hideki Yamazaki
山崎英樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Cement Co Ltd
Seiko Instruments Inc
Original Assignee
Sumitomo Cement Co Ltd
Seiko Instruments Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Cement Co Ltd, Seiko Instruments Inc filed Critical Sumitomo Cement Co Ltd
Priority to JP03043600A priority Critical patent/JP3096819B2/en
Priority to EP92301191A priority patent/EP0499469A3/en
Publication of JPH04280385A publication Critical patent/JPH04280385A/en
Application granted granted Critical
Publication of JP3096819B2 publication Critical patent/JP3096819B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To recognize a pattern to be checked even when correlative output values have variance by normalizing values corresponding to the optical intensity of correlative outputs according to values corresponding to the number of picture elements constituting the pattern to be checked or the same pattern and more than one reference patterns. CONSTITUTION:One pattern to be checked and plural reference pattern groups drawn at an image display device 16 are simultaneously read out by light flux 12 from a laser 11. The light flux 12 is made incident on a beam splitter 15 and split into light fluxes 17 and 18. The light flux 18 forms a congruent Fourier transformation pattern on a screen 31 by a Fourier transforming lens 21. This pattern is read in by a two-dimensional photoelectric conversion element 32 and drawn on a liquid crystal light value 35 by a liquid crystal driving circuit 33. These patterns are read out by light flux 37, and the optical intensity of correlative outputs through a Fourier transforming lens 41 onto a screen 42 is detected by a conversion element 43 and stored in a computer 51. On the other hand, the light flux 17 forms an image on a screen 53 by a lens 54, and the image is read in the computer 51 by a conversion element 52.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、物体、文字、音声等の
認識及び情報の検索、推論、連想等に用いられるパタ−
ン認識を行なうニュ−ラルネットワ−クに関する。
[Industrial Field of Application] The present invention relates to a pattern used for recognition of objects, characters, sounds, etc., and information retrieval, inference, association, etc.
This paper relates to a neural network that performs key recognition.

【0002】0002

【従来の技術】近年、認識、連想、推論等の、ノイマン
型コンピュ−タにおいて、不得意とされる情報処理を効
果的に行なう技術として、ニュ−ラルネットワ−ク技術
が注目されている。特に、ニュ−ラルネットワ−クの学
習手法である、誤差逆伝搬(以下BPと称する)法を用
いてネットワ−ク内のユニット、即ち、ニュ−ロンをモ
デルとした通常多入力で1出力の信号処理素子、の間の
結合荷重を決定することにより、各入力パタ−ン間の特
徴を捉えたフレキシブルな認識を行なうことができる。
2. Description of the Related Art In recent years, neural network technology has been attracting attention as a technology for effectively performing information processing, such as recognition, association, and inference, which are considered to be weak points of von Neumann computers. In particular, we use the error backpropagation (hereinafter referred to as BP) method, which is a learning method for neural networks, to generate a signal with usually multiple inputs and one output modeled on a unit in the network, that is, a neuron. By determining the coupling weight between the processing elements, flexible recognition that captures the characteristics between each input pattern can be performed.

【0003】光学的に認識分類したい被検パタ−ンと各
参照パタ−ンの相関演算を行なって得られた、各参照パ
タ−ン毎の相関出力光強度に応じた値を入力とする。図
2は、前記のような従来の代表的ニュ−ラルネットワ−
クの構成を示す構成図である。即ち、ニュ−ラルネット
ワ−ク、特に、誤差逆伝搬(以下、BPと称する)法に
よる学習を行なうニュ−ラルネットワ−クでは、通常、
ユニットの集合を3層以上の層構造とし、そのうち、パ
タ−ン信号入力を行なう層を入力層と、認識出力信号を
出力する層を出力層、残りを中間層或いは隠れ層と称す
る。ここでは、中間層の層数を1、入力層に含まれるユ
ニット数を5、中間層に含まれるユニット数を3、出力
層に含まれるユニット数を5としているが、これは、構
成を説明するための、1つの例示であり、中間層数及び
各層におけるユニット数は要求に応じて種々の値を取る
ことができる。
[0003] A value corresponding to the correlation output light intensity for each reference pattern obtained by performing a correlation calculation between the test pattern to be optically recognized and classified and each reference pattern is input. Figure 2 shows a typical conventional neural network as described above.
FIG. That is, in a neural network, especially a neural network that performs learning using the error backpropagation (hereinafter referred to as BP) method, normally,
A set of units has a layered structure of three or more layers, of which the layer for inputting pattern signals is called an input layer, the layer for outputting recognition output signals is called an output layer, and the remaining layers are called intermediate layers or hidden layers. Here, the number of layers in the middle layer is 1, the number of units included in the input layer is 5, the number of units included in the middle layer is 3, and the number of units included in the output layer is 5. This is just one example of how to do this, and the number of intermediate layers and the number of units in each layer can take various values depending on requirements.

【0004】各入力値、即ち、光学的相関系から得られ
た相関出力光強度に応じた値は、そのまま入力層より出
力として、各々出力され、中間層、そして、出力層へと
入力し、出力層より出力される。中間層の各ユニットへ
の入力値と出力層の各ユニットへの入力値は、各々の前
段の層からの出力値に、その結線に対応した結合荷重値
を掛け合わせ、その得られた値の総和にバイアス値を加
算したものをxとすると、その入力値を、F(x)と表
わす。 F(x)=1/[1+exp(−x)]と表わし、単調
な増加傾向を有する非線形関数である。
Each input value, that is, a value corresponding to the correlation output light intensity obtained from the optical correlation system, is outputted as an output from the input layer as it is, inputted to the intermediate layer, and then to the output layer, Output from the output layer. The input value to each unit of the intermediate layer and the input value to each unit of the output layer are calculated by multiplying the output value from each previous layer by the connection weight value corresponding to the connection, and calculating the value obtained by multiplying the output value from each previous layer by the connection weight value corresponding to the connection. If the total sum plus the bias value is x, then the input value is expressed as F(x). It is expressed as F(x)=1/[1+exp(-x)] and is a nonlinear function with a monotonous increasing tendency.

【0005】また、入力層と中間層との間、そして、出
力層と中間層との間における結合荷重値及びバイアス値
は、各々独立した値である。前記のようなニュ−ラルネ
ットワ−クの構成において、ある入力パタ−ン即ち入力
層ユニットの出力ベクトル(I1,I2,I3,I4,
I5)を与えたときの出力層からの所望の出力と、実際
の出力との各ユニットの誤差の二乗和が小さくなるよう
に、各ユニット間の結合荷重値を修正することにより、
ある入力パタ−ンに対して所望の出力パタ−ンを出力す
るニュ−ラルネットワ−クを得ることができる。BP法
は、このとき、荷重の修正係数を計算することができ、
その修正係数を用いて効率良く学習を収束させて行くた
めに、いくつかの方法が提案されている。
[0005] Furthermore, the coupling weight values and bias values between the input layer and the intermediate layer and between the output layer and the intermediate layer are independent values. In the configuration of a neural network as described above, a certain input pattern, that is, an output vector of an input layer unit (I1, I2, I3, I4,
By modifying the connection weight value between each unit so that the sum of squares of the error of each unit between the desired output from the output layer and the actual output when given I5) is small,
It is possible to obtain a neural network that outputs a desired output pattern in response to a certain input pattern. At this time, the BP method can calculate the load modification coefficient,
Several methods have been proposed to efficiently converge learning using the correction coefficients.

【0006】また、相関出力光強度を得るための光学的
相関系には、従来、ジョイントトランスフォ−ム法、マ
ッチドフィルタ−法、又は、レンズアレイを用いたジョ
イントトランスフォ−ム法等があるが、いずれの場合も
認識分類したい被検パタ−ンと各参照パタ−ンを光学的
に表示するために、画像表示装置として、空間光変調器
や写真フィルムを用いている。
[0006] Conventionally, optical correlation systems for obtaining correlated output light intensity include a joint transform method, a matched filter method, a joint transform method using a lens array, etc. However, in either case, a spatial light modulator or photographic film is used as an image display device to optically display the test pattern to be recognized and classified and each reference pattern.

【0007】然し乍ら、前記のような光学的に得られた
相関出力強度に応じた値を入力とするニュ−ラルネット
ワ−クでは、ニュ−ラルネットワ−クの前処理となる光
学的相関系の画像表示装置にある時刻T1に被検パタ−
ンを表示したときに得られる各参照パタ−ンに対する相
関出力光強度と、画像表示装置にT1と異なる時刻T2
に同じ被検パタ−ンを表示したときに得られる各参照パ
タ−ンに対する相関出力光強度とでは、多少異なる値が
得られていた。これは、画像表示装置として用いられて
いる空間光変調器での透過、又は反射光の揺らぎ、又は
、スペックルノイズによる揺らぎが非常に大きかった。
However, in a neural network that inputs a value corresponding to the optically obtained correlation output intensity as described above, the image display of the optical correlation system, which is the preprocessing of the neural network, is difficult. The test pattern is displayed at time T1 in the device.
The correlation output light intensity for each reference pattern obtained when displaying the pattern and the time T2 different from T1 on the image display device.
The correlation output light intensities for each reference pattern obtained when the same test pattern was displayed on the display had slightly different values. This is due to very large fluctuations in transmitted or reflected light from a spatial light modulator used as an image display device, or fluctuations due to speckle noise.

【0008】また、画像表示装置に、被検パタ−ンの欠
損パタ−ンを表示した場合、得られる各参照パタ−ンに
対する相関出力光強度は、欠損していない被検パタ−ン
を表示した場合に得られる各参照パタ−ンに対する相関
出力光強度よりも、小さい値となる。このため、ニュ−
ラルネットワ−クに入力される入力パタ−ンは、被検パ
タ−ンを表示した場合と欠損被検パタ−ンを表示した場
合とでは、全く異なったものとなってしまい、被検パタ
−ンを表示した場合についてのみ学習を行なったニュ−
ラルネットワ−クでは、欠損被検パタ−ンについては誤
認識を生じていた。欠損被検パタ−ンについても認識が
できるように、学習させるとしても、欠損被検パタ−ン
と無欠損な被検パタ−ンの両方についての学習を行なわ
なければならず、学習時間に多くの時間を費やしていた
[0008] Furthermore, when a defective pattern of a test pattern is displayed on an image display device, the correlation output light intensity for each reference pattern obtained is This value is smaller than the correlation output light intensity for each reference pattern obtained when For this reason, new
The input pattern input to the physical network will be completely different when the test pattern is displayed and when the missing test pattern is displayed. The news that was trained only when displaying
In the ral network, erroneous recognition occurred regarding missing test patterns. Even if training is performed so that it can recognize missing test patterns, it is necessary to learn both the missing test patterns and the non-defective test patterns, which requires a lot of learning time. I was spending a lot of time.

【0009】また、構成の決まっているニュ−ラルネッ
トワ−クにおいて、無欠損な被検パタ−ンを認識分類で
きるカテゴリ−数が、決まっているものとする。そこに
、欠損被検パタ−ンについても認識ができるように学習
させ、欠損被検パタ−ンをあるカテゴリ−に属させよう
とすると、カテゴリ−数は、無欠損な被検パタ−ンを認
識できるカテゴリ−数に比べて、減少してしまい、ニュ
−ラルネットワ−クの認識における性能を落としてしま
っていた。
It is also assumed that in a neural network with a fixed configuration, the number of categories that can recognize and classify defect-free test patterns is fixed. If you train it to recognize missing test patterns and try to attribute the missing test patterns to a certain category, the number of categories will be The number of categories decreased compared to the number of categories that could be recognized, and the recognition performance of the neural network deteriorated.

【発明が解決しようとする課題】[Problem to be solved by the invention]

【0010】本発明は、上記の問題点を解決するために
為されたもので、光学的相関系の画像表示装置における
透過光、又は、反射光の揺らぎやスペックルノイズが原
因で、得られる相関出力光強度にバラツキがあったとし
ても、認識をすることが可能であり、被検パタ−ンを認
識分類できるカテゴリ−の数の減少を少なくして、欠損
被検パタ−ンの認識分類に対する性能が高く、学習時間
が少なくてすむニュ−ラルネットワ−クを提供すること
を目的とする。
The present invention has been made to solve the above-mentioned problems. Even if there are variations in the correlation output light intensity, it is possible to perform recognition, and it is possible to recognize and classify missing test patterns by minimizing the decrease in the number of categories that can recognize and classify test patterns. The purpose of the present invention is to provide a neural network that has high performance and requires less learning time.

【0011】[0011]

【課題を解決するための手段】本発明は、上記の技術的
な課題の解決のために、成されたもので、基本的構成が
階層型であるニュ−ラルネットワ−クにおいて、その層
数を3層以上とし、入力層へは、光学的に認識分類した
い被検パタ−ンと複数の各参照パタ−ンの相関演算を行
なって得られた各参照パタ−ン毎の相関出力光強度に応
じた値を被検パタ−ン又は被検パタ−ンと1つ以上の参
照パタ−ンとを構成する画素数に対応する値で規格化し
た値を入力し、入力層から出力層までの各結合荷重値を
教師付き学習により決定されたニュ−ラルネットワ−ク
を提供する。
[Means for Solving the Problems] The present invention has been made to solve the above-mentioned technical problems, and it is an object of the present invention to increase the number of layers in a neural network whose basic structure is hierarchical. The input layer has three or more layers, and the input layer receives the correlated output light intensity of each reference pattern obtained by performing correlation calculations between the test pattern to be optically recognized and classified and each of the plurality of reference patterns. Input the corresponding value normalized by the value corresponding to the number of pixels constituting the test pattern or the test pattern and one or more reference patterns, and calculate the number of pixels from the input layer to the output layer. A neural network is provided in which each connection weight value is determined by supervised learning.

【0011】その被検パタ−ンを構成する画素数に対応
する値は、被検パタ−ンを表示した画像表示装置からの
透過光又は反射光強度に応じた値であるものが好適であ
る。更に、被検パタ−ンと1つ以上の参照パタ−ンとを
構成する画素数に対応する値は、被検パタ−ンと各参照
パタ−ンのうちの1つ或いは1つ以上の参照パタ−ンと
の、透過光又は反射光強度に応じた値の和であるニュ−
ラルネットワ−クが好適である。また、各参照パタ−ン
毎の相関出力光強度は、被検パタ−ンと各参照パタ−ン
との自己相関出力或いは相互相関出力のピ−ク値をとる
ニュ−ラルネットワ−クが好適である。各参照パタ−ン
毎の相関出力光強度は、被検パタ−ンと各参照パタ−ン
との自己相関出力或いは相互相関出力の広がりに応じた
受光範囲の全光量或いは、平均光量をとるニュ−ラルネ
ットワ−クが好適である。更に、各参照パタ−ン毎の相
関出力光強度は、被検パタ−ンと各参照パタ−ンとの自
己相関出力或いは相互相関出力のピ−ク値と相関出力の
広がりに応じた受光範囲の全光量或いは平均光量をとる
ことによるニュ−ラルネットワ−クが好適である。
[0011] The value corresponding to the number of pixels constituting the test pattern is preferably a value that corresponds to the intensity of transmitted light or reflected light from the image display device that displayed the test pattern. . Furthermore, the value corresponding to the number of pixels constituting the test pattern and one or more reference patterns is the value corresponding to the number of pixels constituting the test pattern and one or more of the reference patterns. A new value that is the sum of values according to the transmitted light or reflected light intensity with respect to the pattern.
ral network is preferred. Furthermore, it is preferable that the correlation output light intensity for each reference pattern is determined by a neural network that takes the peak value of the autocorrelation output or cross-correlation output between the test pattern and each reference pattern. be. The correlation output light intensity for each reference pattern is determined by the total light intensity of the light receiving range or the average light intensity depending on the spread of the autocorrelation output or cross-correlation output between the test pattern and each reference pattern. -ral network is preferred. Furthermore, the correlation output light intensity for each reference pattern is calculated based on the peak value of the autocorrelation output or cross-correlation output between the test pattern and each reference pattern, and the light receiving range according to the spread of the correlation output. A neural network based on taking the total amount of light or the average amount of light is suitable.

【0012】各参照パタ−ン毎の相関出力光強度は、2
次元光電変換素子の線形範囲若しくは、該相関出力光強
度の一部が、該2次元光電変換素子の最大受光量を超え
る範囲で得られたものが好適である。更に、光学的に認
識分類したい被検パタ−ンと複数の各参照パタ−ンの相
関演算は、フ−リエ変換ホログラムに基づいたフィルタ
−を用いて行なうことにより得られたニュ−ラルネット
ワ−クが好適である。光学的に認識分類したいる被検パ
タ−ンと複数の各参照パタ−ンの相関演算は、被検パタ
−ンと各参照パタ−ンとの合同フ−リエ変換を個別に行
なうことにより得られた強度パタ−ンを、再び、光学的
に個別にフ−リエ変換して行なうか、或いは、被検パタ
−ンと各参照パタ−ンとの合同フ−リエ変換を一括して
行なうことにより得られた強度パタ−ンを、再び、光学
的に一括してフ−リエ変換して行なったニュ−ラルネッ
トワ−クが好適である。更に、光学的に認識分類したい
被検パタ−ンと複数の各参照パタ−ンとの相関演算は、
光透過率分布或いは光反射率分布で表わされた被検パタ
−ンと各参照パタ−ンを重ね、インコヒ−レント光で照
射し、反射し或いは透過してきた光量をとることにより
、得られたニュ−ラルネットが好適である。
The correlated output light intensity for each reference pattern is 2
It is preferable that the linear range of the dimensional photoelectric conversion element or a part of the correlated output light intensity exceeds the maximum amount of light received by the two-dimensional photoelectric conversion element. Furthermore, the correlation calculation between the test pattern to be optically recognized and classified and each of the plurality of reference patterns is performed using a neural network obtained by using a filter based on a Fourier transform hologram. is suitable. Correlation calculations between the optically recognized and classified test pattern and each of the multiple reference patterns can be obtained by individually performing joint Fourier transform between the test pattern and each reference pattern. Either optically perform Fourier transform on the intensity patterns that have been detected individually again, or perform joint Fourier transform on the test pattern and each reference pattern all at once. It is preferable to use a neural network in which the intensity pattern obtained is optically subjected to Fourier transformation all at once. Furthermore, the correlation calculation between the test pattern to be optically recognized and classified and each of the multiple reference patterns is as follows:
The test pattern represented by the light transmittance distribution or the light reflectance distribution is overlapped with each reference pattern, irradiated with incoherent light, and the amount of light reflected or transmitted is measured. Neural nets such as these are preferred.

【0013】[0013]

【作用】本発明のニュ−ラルネットワ−クの構成による
と、光学的相関系の画像表示装置からの透過光又は反射
光に揺らぎが生じることが原因で得られる相関出力光強
度に応じた値にバラツキがあっても、相関出力光強度に
応じた値を被検パタ−ン又は被検パタ−ンと1つ以上の
参照パタ−ンとを構成する画素数に対応する値で、規格
化することにより、被検パタ−ンと欠損被検パタ−ンの
ニュ−ラルネットワ−クの入力パタ−ンは、ほぼ同じも
のとなり、被検パタ−ンを認識分類できるカテゴリ−数
の減少もなくなり、欠損被検パタ−ンの認識分類に対す
る性能も高まる。そして、欠損被検パタ−ンについて別
に学習をする必要もなく、学習時間も少なくて済み、欠
損被検パタ−ンの認識も比較的に容易に且つ効率的に行
なうことができる。
[Operation] According to the configuration of the neural network of the present invention, a value corresponding to the correlation output light intensity obtained due to fluctuations in transmitted light or reflected light from an image display device of an optical correlation system is obtained. Even if there is variation, the value according to the correlation output light intensity is normalized by the value corresponding to the number of pixels forming the test pattern or the test pattern and one or more reference patterns. As a result, the input patterns of the neural network for the test pattern and the missing test pattern are almost the same, and there is no decrease in the number of categories that can recognize and classify the test pattern. The performance for recognition classification of missing test patterns is also improved. Further, there is no need to separately learn the missing test pattern, the learning time is short, and the missing test pattern can be recognized relatively easily and efficiently.

【0014】次に、本発明のニュ−ラルネットワ−クを
具体的に実施例により説明するが、本発明はそれらによ
って限定されるものではない。
Next, the neural network of the present invention will be specifically explained using examples, but the present invention is not limited thereto.

【0015】[0015]

【実施例1】図1は、本発明のニュ−ラルネットワ−ク
の1例を具体的構成を示す模式的構成図である。ここで
、ユニットで構成されているニュ−ラルネットワ−クの
部分は、既知の通りであるので省略し、ここでは、先ず
、ニュ−ラルネットワ−クの前処理に当る光学的相関系
の部分に着目し、その光学的相関系の光束について詳細
な説明を行なう。従って、図1には、ニュ−ラルネット
ワ−クの前処理に当る光学的相関系の模式的構成図を示
す。
Embodiment 1 FIG. 1 is a schematic configuration diagram showing a specific configuration of an example of a neural network according to the present invention. Here, the part of the neural network made up of units is omitted as it is well known, and here we will first focus on the part of the optical correlation system that performs preprocessing of the neural network. A detailed explanation will be given of the luminous flux of the optical correlation system. Therefore, FIG. 1 shows a schematic block diagram of an optical correlation system for preprocessing a neural network.

【0016】図1の光学的相関系の模式的構成図におい
て、光学的相関系は、画像出力手段1、光学的フ−リエ
変換手段2、画像出力手段3、光学的フ−リエ変換手段
4、光検出手段5とから本質的に構成されている合同フ
−リエ変換光学系である。
In the schematic diagram of the optical correlation system shown in FIG. 1, the optical correlation system includes image output means 1, optical Fourier transform means 2, image output means 3, and optical Fourier transform means 4. , and a photodetector means 5.

【0017】次に前記構成について簡単に説明する。画
像表示装置16に描かれた認識分類したい被検パタ−ン
1つと複数の参照パタ−ン群をレ−ザ11から出射され
たコヒ−レント光束12で同時に読み出し、画像表示装
置16を通過した光束12は、次にビ−ムスプリッタ−
15に入射し、光束17、そして光束18に分けられる
。光束18は、フ−リエ変換レンズ21によりスクリ−
ン31上に合同フ−リエ変換パタ−ンを作る。
Next, the above configuration will be briefly explained. One test pattern to be recognized and classified drawn on the image display device 16 and a plurality of reference pattern groups are simultaneously read out with the coherent light beam 12 emitted from the laser 11 and passed through the image display device 16. The light beam 12 then passes through a beam splitter.
15 and is divided into a beam of light 17 and a beam of light 18. The light beam 18 is screened by the Fourier transform lens 21.
A congruent Fourier transform pattern is created on the curve 31.

【0018】この合同フ−リエ変換パタ−ンを2次元光
電変換素子32で読み込み、画像処理及び液晶駆動回路
33により、電気アドレス型の液晶ライトバルブ35上
に描き、光束37で読み出し、フ−リエ変換レンズ41
により、再びフ−リエ変換し、スクリ−ン42上の相関
出力光強度を2次元光電変換素子43により検出し、コ
ンピュ−タ51内にメモリ−する。一方、光束17は、
レンズ54によりスクリ−ン53上に被検パタ−ンと複
数の参照パタ−ン群の像を結像する。
This congruent Fourier transform pattern is read by a two-dimensional photoelectric conversion element 32, drawn on an electrically addressed liquid crystal light valve 35 by an image processing and liquid crystal drive circuit 33, read out by a light beam 37, Rie conversion lens 41
Then, Fourier transform is performed again, and the correlated output light intensity on the screen 42 is detected by the two-dimensional photoelectric conversion element 43 and stored in the computer 51. On the other hand, the luminous flux 17 is
Images of the test pattern and a plurality of reference pattern groups are formed on the screen 53 by the lens 54.

【0019】スクリ−ン53上に結像された被検パタ−
ンと複数の各参照パタ−ン群の各々の光強度は、2次元
光電変換素子52により、2次元光電変換素子43とほ
ぼ同じタイミングで、読み込み、コンピュ−タ51内に
メモリ−する。ここで、コンピュ−タ51内にメモリ−
された被検パタ−ンと各参照パタ−ンの各々の相関出力
光強度と、光束17による被検パタ−ンと複数の各参照
パタ−ン群の各々の光強度は、コンピュ−タ51内にメ
モリ−されるが、メモリ−されるのは、これらに限らず
、得られた光強度に対応した値、例えば、CCDのよう
に、受光した光強度を8ビットの256階調で表わした
ものや、フォトデイテクタ−などのように、光強度を線
形的に受光したものもメモリ−する。
The test pattern imaged on the screen 53
The light intensity of each of the reference pattern groups is read by the two-dimensional photoelectric conversion element 52 at substantially the same timing as the two-dimensional photoelectric conversion element 43, and is stored in the computer 51. Here, the memory in the computer 51 is
The correlated output light intensities of the tested pattern and each reference pattern, and the light intensities of the tested pattern and each of a plurality of reference pattern groups by the light beam 17 are calculated by the computer 51. However, what is stored in the memory is not limited to these values, but values corresponding to the obtained light intensity, such as CCD, which expresses the received light intensity in 256 8-bit gradations. It also stores items that receive light intensity linearly, such as photodetectors.

【0020】次に、被検パタ−ンと各参照パタ−ンとの
相関出力を得るためのそれらの相関出力光強度の決定方
法について説明する。例えば、参照画像群として、5つ
の文字パタ−ンA、E、N、T、Vを選定し、認識分類
したい文字パタ−ンをHとして、図3に示すように、5
つの文字パタ−ンを同心円上に、認識分類したいパタ−
ンを同心円の中心に、画像表示装置16上に描いたとす
る。この場合、2次元光電変換素子43の出力、即ち、
文字パタ−ンHと各参照パタ−ンとの相関出力は、画像
表示装置16上に描かれた対応する各参照パタ−ン位置
に現れ、図4に示すように、相関出力光強度として検出
される。ここでは、相関出力光強度のピ−ク値の大きい
ものほど、大きい丸印で示す。また、ここでは、参照パ
タ−ンをA、E、N、T、Vの5パタ−ンとしたが、そ
れは、説明を簡単にするためであり、参照パタ−ンとそ
の数は、A、E、N、T、Vのみ、又は5パタ−ンのみ
と限定されたものでは、ない。
Next, a method of determining the correlation output light intensity between the test pattern and each reference pattern to obtain the correlation output will be explained. For example, if five character patterns A, E, N, T, and V are selected as the reference image group, and the character pattern to be recognized and classified is H, as shown in FIG.
The pattern you want to recognize and classify by placing two character patterns on concentric circles.
Suppose that the image is drawn on the image display device 16 at the center of concentric circles. In this case, the output of the two-dimensional photoelectric conversion element 43, that is,
The correlation output between the character pattern H and each reference pattern appears at each corresponding reference pattern position drawn on the image display device 16, and is detected as the correlation output light intensity as shown in FIG. be done. Here, the larger the peak value of the correlation output light intensity, the larger the circle mark. In addition, here, the reference patterns are 5 patterns A, E, N, T, and V, but this is to simplify the explanation, and the reference patterns and their numbers are A, E, N, T, and V. It is not limited to only E, N, T, and V, or only to five patterns.

【0021】以上のようにして得られた相関出力光強度
のピ−ク値は、コンピュ−タ51内にメモリ−される。 尚、図4で、光軸上に現れる自己相関は、ここでは、関
係がないので省略してある。
The peak value of the correlation output light intensity obtained as described above is stored in the computer 51. Note that the autocorrelation appearing on the optical axis in FIG. 4 is omitted here because it is irrelevant.

【0022】さて、一般的に相関出力は、2つのパタ−
ンをA(x、y)、B(x、y)とした時、以下に示さ
れる式で表わされる。 I(x’,y’)=∬A(x,y)B*(X’−X,Y
’−Y)dxdy・・・・・・・・・・(1)   ここで、*は、複素共役量を表わす。(1)式から
分かるように、相関出力は、1次元方向にパタ−ンの大
きさの2倍の広がりを有し、従って、相関出力の取り方
は、前記のピ−ク値以外に、相関出力の広がりに応じた
受光範囲の全光量、或いは、その平均光量をとっても、
パタ−ンの相関度を表わした情報として同様な扱いをす
ることができる。
Now, generally speaking, the correlation output consists of two patterns.
When the numbers are A(x, y) and B(x, y), it is expressed by the formula shown below. I(x', y')=∬A(x,y)B*(X'-X,Y
'-Y) dxdy (1) Here, * represents a complex conjugate amount. As can be seen from equation (1), the correlation output has a spread that is twice the size of the pattern in the one-dimensional direction.Therefore, in addition to the above-mentioned peak value, the correlation output is Even if we take the total amount of light in the light receiving range according to the spread of the correlation output, or the average amount of light,
It can be treated similarly as information representing the degree of correlation between patterns.

【0023】図5に相関光量分布がどのようになるかを
模式的に表わすが、2つのパタ−ンの重なり具合を紙面
の上下方向にずらせて、表現してある。このとき、パタ
−ンEとHの相関光量は、図5(a)に示すように、完
全に重なったとき、ピ−ク値となり、図5(b)のよう
に、パタ−ンの大きさだけずれるとパタ−ンHの1つの
縦棒とパタ−ンEの縦棒が重なるので、ピ−ク値より小
さい相関光量が得られる。図5(c)は、このようにし
てできたパタ−ンEとパタ−ンHの相関光量分布を示し
たもので、中央の大きい丸が、ピ−ク量、上下の小さい
丸が横棒の反応、横の小さい丸が縦棒の反応を各々示し
ている。従って、これらの全光量或いは平均光量中には
、ピ−ク光量には見られない各パタ−ンの特徴がよりよ
く、反映された情報を得ることになる。
FIG. 5 schematically shows how the correlation light amount distribution looks, and the extent to which the two patterns overlap is shifted in the vertical direction of the paper. At this time, the correlated light amounts of patterns E and H reach a peak value when they completely overlap, as shown in Figure 5(a), and the magnitude of the patterns increases as shown in Figure 5(b). When shifted by that amount, one vertical bar of pattern H and one vertical bar of pattern E overlap, so that a correlation light amount smaller than the peak value is obtained. Figure 5(c) shows the correlation light amount distribution of pattern E and pattern H created in this way, where the large circle in the center is the peak amount, and the small circles at the top and bottom are the horizontal bars. The small horizontal circles indicate the reactions in the vertical bars. Therefore, information is obtained in which the characteristics of each pattern, which are not seen in the peak light amount, are better reflected in the total light amount or average light amount.

【0024】従って、相関出力光強度を2次元光電変換
素子を用いて、検出する場合、相関出力光強度のピ−ク
値を、最大光量を超える範囲で受光し、相関出力光強度
の弱い部分を強調することにより、ピ−ク光量には見ら
れない各パタ−ンの特徴を強調し、よりよく反映した情
報を得ることができる。
Therefore, when detecting the correlated output light intensity using a two-dimensional photoelectric conversion element, the peak value of the correlated output light intensity is received in a range exceeding the maximum light amount, and the weak portion of the correlated output light intensity is detected. By emphasizing the characteristics of each pattern that are not seen in the peak light amount, it is possible to obtain information that is better reflected.

【0025】次に、コンピュ−タ51内にメモリ−され
た被検パタ−ンと各参照パタ−ンとの各々の相関出力光
強度は、光束17による被検パタ−ンと複数の各参照パ
タ−ン群の各々の光強度で、コンピュ−タ51により規
格化され、ニュ−ラルネットワ−クの入力層の各ユニッ
トに入力されるわけであるが、ここでは、前記の規格化
方法について説明する。
Next, the correlation output light intensity between the test pattern and each reference pattern stored in the computer 51 is determined by the correlation output light intensity between the test pattern and each reference pattern by the light beam 17. The light intensity of each pattern group is normalized by the computer 51 and input to each unit of the input layer of the neural network.Here, the normalization method described above will be explained. do.

【0026】規格化方法には、規格化方法aとして、被
検パタ−ンと各参照パタ−ンの各々の相関出力光強度を
光束17による被検パタ−ンの光強度で規格化する方法
があり、規格化方法bとして、被検パタ−ンと各参照パ
タ−ンの各々の相関出力光強度を、被検パタ−ンと各参
照パタ−ンのうちの1つ或いは1つ以上の参照パタ−ン
との、透過光又は反射光の強度に応じた値の和で、各々
規格化する方法がある。この2種類の規格化方法のうち
、先ず、前者の規格化方法aは、欠損パタ−ンをニュ−
ラルネットワ−クを用いて認識させる場合、また、被検
パタ−ンを透過する光又は反射する光が、揺らいでいる
際に、非常に有効な手段である。
Standardization method a includes a method in which the correlation output light intensity of the test pattern and each reference pattern is normalized by the light intensity of the test pattern using the light beam 17. As normalization method b, the correlation output light intensity of each of the test pattern and each reference pattern is determined by the correlation output light intensity of one or more of the test pattern and each reference pattern. There is a method of standardizing each by the sum of values corresponding to the intensity of transmitted light or reflected light with respect to a reference pattern. Of these two normalization methods, the former normalization method a
This is a very effective means when recognition is performed using a physical network, and when the light passing through or reflecting the test pattern is fluctuating.

【0027】仮に、欠損又は無欠損な被検パタ−ンHの
参照パタ−ンA、E、N、T、Vに対する相関出力光強
度を各々I(ha),I(he),I(hn),I(h
t),I(hv)とし、そして、2次元光電変換素子5
2により得られる。欠損又は無欠損な被検パタ−ンHの
透過光又は反射光の量を、I( h)とする。前出願の
ニュ−ラルネットワ−クでは、前記の得られた各々の相
関出力光強度I(ha),I(he),I(hn),I
(ht),I(hv)をそのまま入力し、教師付き学習
を行なって、パタ−ン認識を行なっていた。
Suppose that the correlated output light intensities of the defective or nondefective test pattern H with respect to the reference patterns A, E, N, T, and V are I(ha), I(he), and I(hn ), I(h
t), I(hv), and the two-dimensional photoelectric conversion element 5
2. The amount of transmitted light or reflected light of the defective or defect-free test pattern H is defined as I(h). In the neural network of the previous application, each of the above-obtained correlated output light intensities I(ha), I(he), I(hn), I
(ht) and I(hv) were input as they were, supervised learning was performed, and pattern recognition was performed.

【0028】然し乍ら、通常、被検パタ−ンが欠損して
いたときに得られる相関出力光強度は、被検パタ−ンが
欠損していないときに得られる相関出力光強度と比べて
、欠損した分に応じて低いものとなる。従って、前記の
低い相関出力光強度もニュ−ラルネットワ−クに入力し
ていたのでは、同じパタ−ンを認識させるのに、被検パ
タ−ンが欠損した場合も考慮した多数の相関出力光強度
を入力し、学習しなければならなく、多くの学習時間を
要していた。また、構成の決まったニュ−ラルネットワ
−クにおいて、無欠損な被検パタ−ンを認識分類できる
カテゴリ−数は、決まっているものとする。そして、そ
こに、欠損被検パタ−ンについても認識ができるように
学習させ、欠損被検パタ−ンをあるカテゴリ−に属させ
ることとする。すると、カテゴリ−数は、無欠損な被検
パタ−ンを認識できるカテゴリ−数に比べて、減少して
しまい、ニュ−ラルネットワ−クのパタ−ン認識におけ
る性能を落としていた。
However, normally, the correlation output light intensity obtained when the test pattern is missing is higher than the correlation output light intensity obtained when the test pattern is not missing. The value will be lower depending on the amount. Therefore, if the above-mentioned low correlation output light intensity was also input to the neural network, in order to recognize the same pattern, a large number of correlation output lights must be used to take into account the case where the test pattern is missing. The intensity had to be input and learned, which required a lot of learning time. It is also assumed that in a neural network with a fixed configuration, the number of categories that can recognize and classify defect-free test patterns is fixed. Then, it is made to learn so that it can also recognize missing test patterns, and the missing test patterns are assigned to a certain category. As a result, the number of categories decreases compared to the number of categories that can recognize defect-free test patterns, and the performance of the neural network in pattern recognition deteriorates.

【0029】然し乍ら、本発明のニュ−ラルネットワ−
クでは、以下の式で表わされる規格化した値(規格化方
法aでは、被検パタ−ンの透過光又は反射光の量は規格
化する)を、入力層の各ユニットに入力し、教師付き学
習を行なったり、パタ−ン認識を行なう。 I1(ha)=I(ha)/I( h)・・・・・・・
・・・・・・・・・・・(2)I1(he)=I(he
)/I( h)・・・・・・・・・・・・・・・・・・
(3)I1(hh)=I(hh)/I( h)・・・・
・・・・・・・・・・・・・・(4)I1(ht)=I
(ht)/I( h)・・・・・・・・・・・・・・・
・・・(5)I1(hv)=I(hv)/I( h)・
・・・・・・・・・・・・・・・・・(6)
However, the neural network of the present invention
In this step, the standardized value expressed by the following formula (in normalization method a, the amount of transmitted light or reflected light of the test pattern is normalized) is input to each unit of the input layer, and the Performs guided learning and pattern recognition. I1(ha)=I(ha)/I(h)・・・・・・
・・・・・・・・・・・・(2) I1(he)=I(he
)/I( h)・・・・・・・・・・・・・・・・・・
(3) I1(hh)=I(hh)/I(h)...
・・・・・・・・・・・・・・・(4) I1(ht)=I
(ht)/I(h)・・・・・・・・・・・・・・・
...(5) I1(hv)=I(hv)/I(h)・
・・・・・・・・・・・・・・・・・・(6)

【0030
】次に、何故  前記の(2)(3)(4)(5)(6
)式で示される規格化された値をニュ−ラルネットワ−
クに入力することにより、前記のように、欠損パタ−ン
をニュ−ラルネットワ−クを用いて認識させる場合に、
被検パタ−ンを透過又は反射する光が揺らいで、得られ
る相関出力光強度にバラツキが生じる際に非常に有効な
手段であるのかを、次に説明する。
0030
] Next, why are the above (2), (3), (4), (5), and (6)
) The normalized value shown by the formula is applied to the neural network.
By inputting the missing pattern into the neural network, as mentioned above, when the missing pattern is recognized using a neural network,
Next, it will be explained why this is a very effective means when the light transmitted or reflected by the test pattern fluctuates and the obtained correlation output light intensity varies.

【0031】例えば、無欠損の被検パタ−ンHと参照パ
タ−ンAから得られる相関出力光強度は、In(ha)
とし、そして、無欠損被検パタ−ンHの透過光又は反射
光の量は、In( h)とする。ここで、仮に、被検パ
タ−ンHの一部が欠損していたとしよう。そして、この
時得ることのできる欠損被検パタ−ンHの参照パタ−ン
Aに対する相関出力光強度が、In(ha)よりも、△
In(ha)だけ小さいものとする。つまり、被検パタ
−ンHが欠損した分だけ、相関出力光強度が、In(h
a)よりも、△In(ha)だけ落ちたものとする。
For example, the correlated output light intensity obtained from the defect-free test pattern H and the reference pattern A is In(ha)
The amount of transmitted light or reflected light of the defect-free test pattern H is In(h). Now, suppose that part of the test pattern H is missing. Then, the correlation output light intensity of the defective test pattern H that can be obtained at this time with respect to the reference pattern A is less than In(ha).
It is assumed that In(ha) is smaller. In other words, the correlation output light intensity changes by In(h
Assume that it is lower than a) by ΔIn(ha).

【0032】また、このとき得ることができる欠損被検
パタ−ンHの透過光又は反射光の量は、In(h)より
も、△In(h)だけ小さいものとする。即ち、被検パ
タ−ンHが欠損した分だけ被検パタ−ンHの透過光又は
反射光量が、In( h)よりも△In( h)だけ落
ちたものとする。以上より、被検パタ−ンHが欠損した
時に得られる相関出力光強度は、 In(ha)−△In(ha)・・・・・・・・・・・
・・・・(7)また、被検パタ−ンHが欠損した時に得
られる欠損被検パタ−ンHの透過光又は反射光量は、 In(h)−△In(h)・・・・・・・・・・・・・
・・・・(8)である。
It is also assumed that the amount of transmitted light or reflected light of the defective test pattern H that can be obtained at this time is smaller than In(h) by ΔIn(h). That is, it is assumed that the amount of transmitted light or reflected light of the test pattern H is reduced by ΔIn(h) from In(h) by the amount of the defect in the test pattern H. From the above, the correlation output light intensity obtained when the test pattern H is defective is In(ha)-△In(ha)...
...(7) Also, the amount of transmitted light or reflected light of the defective test pattern H obtained when the test pattern H is defective is In(h) - △In(h)...・・・・・・・・・
...(8).

【0033】(7)(8)式を用いて、(2)式に従っ
て規格化を行なうと、  [In(ha)−△In(ha)]/[In(h)−
△In(h)]={In(ha)−△In(ha)}*
{1/In(h)}/[1−{△In(h)/In(h
)}]・・・・(9)  ここで、In(h)>△In(h)・・・・・・・・・
・・・・・・・・・(10)は、常に成立するので、(
9)式は、 {In(ha)−△In(ha)}*{1/In(h)
}*[1+{△In(h)/In(h)}]・・・・(
11) となる。(11)式について考えてみると、{In(h
a)−△In(ha)}*{1/In(h)}・・・・
・・・・(12)は、被検パタ−ンHが欠損した時に得
られる相関出力光強度を無欠損被検パタ−ンHの透過光
又は反射光量で規格化したことを表わしている。
[In(ha)-△In(ha)]/[In(h)-
△In(h)]={In(ha)−△In(ha)}*
{1/In(h)}/[1-{△In(h)/In(h
)}]・・・・(9) Here, In(h)>△In(h)・・・・・・・・・
・・・・・・・・・(10) always holds true, so (
9) The formula is {In(ha)-△In(ha)}*{1/In(h)
}*[1+{△In(h)/In(h)}]...(
11) It becomes. Considering equation (11), we find that {In(h
a)-△In(ha)}*{1/In(h)}...
(12) represents that the correlation output light intensity obtained when the test pattern H is defective is normalized by the amount of transmitted light or reflected light of the non-defective test pattern H.

【0034】従って、(11)式は、被検パタ−ンHが
無欠損又は欠損した時に得られた相関出力光強度を、得
られた相関出力光強度に対応した無欠損、又は欠損した
被検パタ−ンHの透過光又は反射光量で規格化したもの
は、被検パタ−ンHが欠損した時に得られる相関出力光
強度を無欠損被検パタ−ンHの透過光又は反射光量で規
格化した値と比べて、 {In(ha)−△In(ha)}*{△In(h)}
/[In(h)2}・・・・(13) だけ大きいものとなることを意味している。ここで、被
検パタ−ンHが欠損した時としない時に得られる相関出
力光強度を常に無欠損被検パタ−ンHの透過光又は反射
光量で規格化した場合、それらの比率というものは、常
に、規格化しない時の相関出力光強度の比率となってし
まう。
Therefore, the equation (11) calculates the correlation output light intensity obtained when the test pattern H has no defects or defects. When normalized by the amount of transmitted light or reflected light of the test pattern H, the correlation output light intensity obtained when the test pattern H is defective is calculated by the amount of transmitted light or reflected light of the non-defective test pattern H. Compared to the normalized value, {In(ha)-△In(ha)}*{△In(h)}
/[In(h)2}...(13) This means that it will be larger. Here, if the correlated output light intensity obtained when the test pattern H is defective or not is always normalized by the amount of transmitted light or reflected light of the non-defective test pattern H, the ratio is , it is always the ratio of the correlated output light intensity when not normalized.

【0035】従って、規格化した結果、(13)式の分
、大きくなっただけ、被検パタ−ンHが、欠損した時と
しない時の相関出力光強度の比が、小さくなったという
ことになる。従って、被検パタ−ンHが、欠損した時と
しない時の相関出力光強度の差は、規格化することによ
り殆どなくなり、ニュ−ラルネットワ−クに入力される
。従って、本来、欠損被検パタ−ンの認識のために減少
していた認識分類できるカテゴリ−数は、殆ど減少する
ことがなくなる。また、欠損被検パタ−ンを認識するこ
とができるニュ−ラルネットワ−クを形成するための学
習時間は、被検パタ−ンについて、別の学習をする必要
がなくなったために、少なくてすみ、欠損被検パタ−ン
の認識も容易に且つ効率的に行なうことができる。
Therefore, as a result of normalization, the ratio of the correlated output light intensity when the test pattern H is defective and when it is not becomes smaller by the amount of the equation (13). become. Therefore, the difference in the correlation output light intensity when the test pattern H is missing and when it is not is almost eliminated by normalization, and is input to the neural network. Therefore, the number of categories that can be recognized and classified, which originally decreased due to the recognition of missing test patterns, will hardly decrease. In addition, the learning time required to form a neural network that can recognize missing test patterns can be reduced because there is no need to separately learn the test patterns. Recognition of defective test patterns can also be performed easily and efficiently.

【0036】以上のことは、他の被検パタ−ン又は参照
パタ−ンについても、同様であるので、明白であるので
、ここでは省略する。次に、規格化方法bについて、説
明する。規格化方法bは、欠損パタ−ンをニュ−ラルネ
ットワ−クを用いて認識させる場合において、非常に有
効な手段であり、且つ、被検パタ−ン、参照パタ−ンの
透過光量又は反射光量の揺らぎを考慮したものである。
The above description is the same for other test patterns or reference patterns, and is obvious, so a description thereof will be omitted here. Next, standardization method b will be explained. Standardization method b is a very effective means when recognizing a defective pattern using a neural network, and it is also a very effective means for recognizing defective patterns using a neural network. This takes into account the fluctuation of

【0037】規格化方法bの手順は、規格化方法aのよ
うに、被検パタ−ンをH、参照パタ−ンをA、E、N、
T、Vとした時、欠損又は無欠損なひけんパタ−ンHの
参照パタ−ンA、E、N、T、Vに対する相関出力光強
度は、各々I(ha),I(he),I(hn),I(
ht),I(hv)とし、そして、2次元光電変換素子
52により得られる。欠損又は無欠損な被検パタ−ンH
の透過光又は反射光の量は、I( h)である。また、
規格化方法bでは、2次元光電変換素子52により被検
パタ−ンだけではなく、参照パタ−ンA、E、N、T、
Vの透過又は反射光量である各々Ir(a),Ir(e
),Ir(n),Ir(t),Ir(v)も検出し、コ
ンピュ−タ51にメモリ−する。
The procedure for standardization method b is similar to standardization method a, in which the test pattern is set to H and the reference patterns are set to A, E, N,
When T and V, the correlated output light intensities of the defective or non-defective pattern H with respect to the reference patterns A, E, N, T, and V are I(ha), I(he), and I(hn), I(
ht), I(hv), and is obtained by the two-dimensional photoelectric conversion element 52. Defective or non-defective test pattern H
The amount of transmitted or reflected light is I(h). Also,
In standardization method b, the two-dimensional photoelectric conversion element 52 not only detects the test pattern but also the reference patterns A, E, N, T,
Ir(a) and Ir(e), which are the amount of transmitted or reflected light of V, respectively
), Ir(n), Ir(t), and Ir(v) are also detected and stored in the computer 51.

【0038】以上の、光学的相関系で得られた各値を用
いて、規格化方法bでは、以下の式で表わされる規格化
を行ない、その規格化した値を、教師付き学習を行なっ
たり、パタ−ン認識を行なう際に、ニュ−ラルネットワ
−ク入力層の各ユニットに各々入力する。     I2(ha)=I(ha)/{I( h)+I
r(a)}・・・・・・・・・・・・・・・・・(14
)    I2(he)=I(he)/{I( h)+
Ir(e)}・・・・・・・・・・・・・・・・・(1
5)    I2(hh)=I(hN)/{I( h)
+Ir(N)}・・・・・・・・・・・・・・・・・(
16)    I2(ht)=I(ht)/{I( h
)+Ir(t)}・・・・・・・・・・・・・・・・・
(17)    I2(hv)=I(hv)/{I( 
h)+Ir(v)}・・・・・・・・・・・・・・・・
・(18)
[0038] Using each value obtained by the optical correlation system as described above, standardization method b performs normalization expressed by the following formula, and performs supervised learning on the normalized value. , are input to each unit of the neural network input layer when performing pattern recognition. I2(ha)=I(ha)/{I(h)+I
r(a)}・・・・・・・・・・・・・・・・・・(14
) I2(he)=I(he)/{I(h)+
Ir(e)}・・・・・・・・・・・・・・・・・・(1
5) I2(hh)=I(hN)/{I(h)
+Ir(N)}・・・・・・・・・・・・・・・・・・(
16) I2(ht)=I(ht)/{I(h
)+Ir(t)}・・・・・・・・・・・・・・・・・・
(17) I2(hv)=I(hv)/{I(
h)+Ir(v)}・・・・・・・・・・・・・・・
・(18)

【0039】それでは、何故前記の(14)(15)(
16)(17)(18)式で示される規格化された値を
ニュ−ラルネットワ−クに入力することで、欠損パタ−
ンをニュ−ラルネットワ−クを用いて認識又は参照パタ
−ンの透過又は反射する光が揺らいでいる際に、非常に
有効な手段であるのか、次に説明する。また、ここでは
、説明を簡単にするために、被検パタ−ンと1つの透過
又は反射光量の和としているが、参照パタ−ンは1つ以
上としても同様な扱いが可能である。
Then, why does the above (14), (15) (
16) By inputting the standardized values shown by equations (17) and (18) into the neural network, the missing pattern can be calculated.
Next, it will be explained why this method is very effective when a pattern is recognized using a neural network or when the transmitted or reflected light of a reference pattern is fluctuating. Further, here, in order to simplify the explanation, the sum of the test pattern and one transmitted or reflected light quantity is used, but the same treatment is possible even if there is one or more reference patterns.

【0040】規格化方法aの時の説明と同様に、無欠損
な被検パタ−ンHと参照パタ−ンAの間で、得られる相
関出力光強度をIn(ha)とし、そして、無欠損被検
パタ−ンHの透過又は反射光量は、In( h)とする
。また、被検パタ−ンHが欠損したり、参照パタ−ンA
の透過又は反射光量が揺らいでいる時に、得ることがで
きる欠損被検パタ−ンHの参照パタ−ンAに対する相関
出力光強度は、In(ha)よりも△In(ha)だけ
小さいものとし、また、この時得ることができる欠損被
検パタ−ンHの透過又は反射光量は、In(h)よりも
△In(h)だけ小さいものとする。
Similar to the explanation for standardization method a, let In(ha) be the correlation output light intensity obtained between the defect-free test pattern H and the reference pattern A, and The amount of transmitted or reflected light of the defective test pattern H is assumed to be In(h). In addition, the test pattern H may be missing or the reference pattern A may be missing.
When the amount of transmitted or reflected light fluctuates, the correlation output light intensity of the defective test pattern H that can be obtained with respect to the reference pattern A is assumed to be smaller than In(ha) by ΔIn(ha). , Further, the amount of transmitted or reflected light of the defective test pattern H that can be obtained at this time is smaller than In(h) by ΔIn(h).

【0041】また、規格化方法bでは、参照パタ−ンの
透過又は反射光量の揺らぎも考慮するので、参照パタ−
ンAの透過又は反射光量の平均値をIy(a)、そして
、参照パタ−ンAの透過又は反射光量が△Iy(a)だ
け小さいものとする。但し、ここでは、参照パタ−ンA
の透過又は反射光量の揺らぎに対する基準値を平均値I
y(a)としているが、これは、説明を簡単にするため
であり、基準値は、これに限定されるもんではない。以
上に示した値を用いて、(14)式に従って規格化を行
なうと、
[0041] Furthermore, in standardization method b, fluctuations in the amount of transmitted or reflected light of the reference pattern are also taken into consideration.
Assume that the average value of the amount of transmitted or reflected light of pattern A is Iy(a), and the amount of transmitted or reflected light of reference pattern A is smaller by ΔIy(a). However, here, reference pattern A
The reference value for fluctuations in the amount of transmitted or reflected light is the average value I
Although y(a) is used here, this is for the purpose of simplifying the explanation, and the reference value is not limited to this. Using the values shown above and normalizing according to equation (14), we get

【0042】 [In(ha)−△In(ha)]/[{In(h)−
△In(h)}+{Iy(a)−△Iy(a)}] =
[In(ha)−△In(ha)]*[1/{In(h
)+Iy(a)}]/[1−{△In(h)+△Iy(
a)}/{In(h)+Iy(a)}].......
...........(19)   ここで、△In(h)+△Iy(a)<In(h)
+Iy(a)であるので、(19)式は、 [In(ha)−△In(ha)]*[1/{In(h
)+Iy(a)}]*[1+{△In(h)+△Iy(
a)}/{In(h)+Iy(a)}].......
...........(20) となる。(20)式から分かるように、参照パタ−ンの
透過又は反射光量が揺らいで、△Iy(a)が正であっ
たとしても、[In(ha)−△In(ha)]の項は
、減少し、また、△Iy(a)が負であったとしても、
[In(ha)−△In(ha)]の項は、増加するこ
とにより、揺らぎを吸収できる。
[In(ha)−ΔIn(ha)]/[{In(h)−
△In(h)}+{Iy(a)−△Iy(a)}] =
[In(ha)−△In(ha)]*[1/{In(h
)+Iy(a)}]/[1-{△In(h)+△Iy(
a)}/{In(h)+Iy(a)}]. .. .. .. .. .. ..
.. .. .. .. .. .. .. .. .. .. .. (19) Here, △In(h)+△Iy(a)<In(h)
+Iy(a), so equation (19) is [In(ha)−△In(ha)]*[1/{In(h
)+Iy(a)}]*[1+{△In(h)+△Iy(
a)}/{In(h)+Iy(a)}]. .. .. .. .. .. ..
.. .. .. .. .. .. .. .. .. .. .. (20) becomes. As can be seen from equation (20), even if the amount of transmitted or reflected light from the reference pattern fluctuates and △Iy(a) is positive, the term [In(ha) - △In(ha)] , decreases, and even if △Iy(a) is negative,
By increasing the term [In(ha)−ΔIn(ha)], fluctuations can be absorbed.

【0043】欠損被検パタ−ンの効果は、規格化方法a
で示してあるので、省略する。また、以上のことは、他
の被検パタ−ン又は参照パタ−ンについても同様であり
、1つ以上の参照パタ−ンと被検パタ−ンとの透過又は
反射光の和で規格化しても同様であることは、明白であ
るので、ここでは、省略する。上記のおいては、相関出
力光強度の取り方、相関出力光強度の規格化に仕方につ
いて述べたが、何れの方法をとり、何れの方法と組合わ
せて、ニュ−ラルネットワ−クの入力値を決めたとして
も、従来のニュ−ラルネットワ−クと比べれば、学習時
間の効率の良さ、パタ−ン認識での性能の高さ、特に、
欠損パタ−ンや光量の揺らぎに対する認識能力の高さの
点で、歴然とした差があることは、上記の説明より明ら
かである。
The effect of the missing test pattern is determined by standardization method a.
Since it is shown in , it will be omitted. Furthermore, the above also applies to other test patterns or reference patterns, which are normalized by the sum of transmitted or reflected light from one or more reference patterns and the test pattern. It is obvious that the same is true for both cases, so we will omit it here. In the above, we have described how to obtain the correlated output light intensity and how to standardize the correlated output light intensity. Even if we decide to
It is clear from the above explanation that there is a clear difference in the ability to recognize defective patterns and fluctuations in light intensity.

【0044】[0044]

【実施例2】この実施例は、相関演算を行なう部分がフ
−リエ変換ホログラムに基ずいたフィルタ−を用いたニ
ュ−ラルネットワ−クを示す。これは、マッチドフィル
タ−を用いた相関系によるニュ−ラルネットワ−クを説
明する。図6は、既知のマッチドフィルタ−を再生する
光学系を示す。マッチドフィルタ−61は、予め複数の
参照パタ−ンを光学的にフ−リエ変換したパタ−ンを、
各参照パタ−ン毎に平面波の照射方向を変えながら多重
記録したものを用いる。
Embodiment 2 This embodiment shows a neural network in which the portion that performs the correlation calculation uses a filter based on a Fourier transform hologram. This explains a neural network based on a correlation system using matched filters. FIG. 6 shows an optical system for reproducing a known matched filter. The matched filter 61 uses a pattern obtained by optically Fourier transforming a plurality of reference patterns in advance.
Multiple recording is used while changing the direction of plane wave irradiation for each reference pattern.

【0045】図6に示すように、レ−ザ11より出射さ
れた光束12は、ビ−ムエキスパンダ−13により適当
な光束径に広げられ、画像表示装置16に描かれた認識
分類したいパタ−ンを照射する。次に、パタ−ンの複素
振幅分布を有する光束は、ビ−ムスプリッタ−15に入
射し、透過光と反射光に分けられ、透過光は、フ−リエ
変換レンズ21によりフ−リエ変換され、マッチドフィ
ルタ−61上に描かれた多重干渉縞パタ−ンを照射する
。このとき、認識分類したいパタ−ンと同じ空間周波数
スペクトラムを有する参照パタ−ンからその参照パタ−
ンを作成した時に用いた平面波の方向に回折光が、出射
される。
As shown in FIG. 6, the beam 12 emitted from the laser 11 is expanded to a suitable beam diameter by a beam expander 13, and the pattern to be recognized and classified drawn on the image display device 16 is displayed. - irradiate with light. Next, the light flux having the complex amplitude distribution of the pattern enters the beam splitter 15 and is divided into transmitted light and reflected light, and the transmitted light is Fourier transformed by the Fourier transform lens 21. , irradiates the multiple interference fringe pattern drawn on the matched filter 61. At this time, the reference pattern is selected from a reference pattern having the same spatial frequency spectrum as the pattern to be recognized and classified.
The diffracted light is emitted in the direction of the plane wave used when creating the beam.

【0046】この回折光を集光レンズ22によりスクリ
−ン31上に集光すれば、一方の回折光は、参照パタ−
ンと認識分類したいパタ−ンとの相互相関パタ−ンとな
り、他方の回折光は、コンボリュ−ションとなる。そこ
で、各参照パタ−ンによる相互相関出力が表れる位置は
、予め判っているので、その位置の相関出力強度のピ−
ク値或いは全光量は、測定することができ、コンピュ−
タ51内にメモリ−される。また、ビ−ムスプリッタ−
15による反射光は、レンズ54により、スクリ−ン4
2上に被検パタ−ンの複素振幅分布に応じた像を結像す
る。
When this diffracted light is focused onto the screen 31 by the condensing lens 22, one of the diffracted lights is focused on the reference pattern.
This becomes a cross-correlation pattern between the pattern and the pattern to be recognized and classified, and the other diffracted light becomes a convolution. Therefore, since the position where the cross-correlation output from each reference pattern appears is known in advance, the peak of the correlation output intensity at that position can be calculated.
The brightness value or total light intensity can be measured and
The data is stored in the memory in the data processor 51. Also, beam splitter
The reflected light from the screen 4 is reflected by the lens 54.
2, an image corresponding to the complex amplitude distribution of the pattern to be tested is formed.

【0047】スクリ−ン42上に結像された被検パタ−
ンの光強度は、2次元光電変換素子52により、2次元
光電変換素子43とほぼ同じタイミングで読み込み、コ
ンピュ−タ51内にメモリ−する。コンピュ−タ51内
にメモリ−された各値は、実施例1と同様に、コンピュ
−タ51により規格化され、得られた規格化値は、各々
ニュ−ラルネットワ−クの入力層に入力する。
The test pattern imaged on the screen 42
The light intensity of the light is read by the two-dimensional photoelectric conversion element 52 at substantially the same timing as that of the two-dimensional photoelectric conversion element 43, and is stored in the computer 51. Each value stored in the computer 51 is normalized by the computer 51 as in the first embodiment, and the obtained normalized values are respectively input to the input layer of the neural network. .

【0048】尚、実施例2による方法では、各参照パタ
−ンの透過又は反射光の光強度を測定することは、出来
ないので、実施例1で示した規格化方法bを行なうこと
は出来ない。前記のマッチドフィルタ−には、各参照パ
タ−ン同志のフ−リエ変換成分が重畳されていないので
、相関出力のコントラスト比が、参照パタ−ンを増加さ
せることにより低下する程度が少なくなる。従って、得
られる相関出力のダイナミックレンジが低下することが
少ないので、相関出力光強度、又は、その規格化された
値の分離度が大きくなり、ニュ−ラルネットワ−クで認
識を行なう際の認識率が高まる。また、同様に、本出願
人が出願した特許願の明細書に示される合同フ−リエ変
換装置によっても、同様な効果をもたらす。
Note that with the method of Example 2, it is not possible to measure the light intensity of the transmitted or reflected light of each reference pattern, so normalization method b shown in Example 1 cannot be performed. do not have. Since the Fourier transform components of the respective reference patterns are not superimposed on the matched filter, the degree to which the contrast ratio of the correlation output decreases due to an increase in the number of reference patterns is reduced. Therefore, since the dynamic range of the obtained correlation output is less likely to decrease, the degree of separation of the correlation output light intensity or its standardized value increases, which improves the recognition rate when performing recognition with a neural network. increases. Similarly, the joint Fourier transform device shown in the specification of the patent application filed by the present applicant provides similar effects.

【0049】本発明のニュ−ラルネットワ−クは、合同
フ−リエ変換の各参照パタ−ンと認識分類したいパタ−
ンとの合同フ−リエ変換をレンズアレイで個別に同時に
並列的行なうことによっても得られる。また、本発明の
ニュ−ラルネットワ−クを用いると、各参照パタ−ンや
各被検パタ−ンの透過又は反射光の光強度の検出が、実
施例1で示した方法と同様な方法で、画像表示装置を透
過後の複素振幅分布を有する光束をビ−ムスプリッタ−
等を用いて分割することにより、簡単に行なうことがで
きる。また、この光学系で得られるニュ−ラルネットワ
−クの基づく相関出力光強度は、各参照パタ−ン、各被
検パタ−ンの光強度を用いて、実施例1、実施例2で示
す規格化方法a及びbにより、規格化され、ニュ−ラル
ネットワ−クに入力される。
The neural network of the present invention recognizes each reference pattern of the joint Fourier transform and the pattern to be classified.
It can also be obtained by performing joint Fourier transforms with lens arrays individually and simultaneously in parallel. Furthermore, by using the neural network of the present invention, the light intensity of the transmitted or reflected light of each reference pattern and each test pattern can be detected by the same method as shown in Example 1. , a beam splitter transmits a light beam having a complex amplitude distribution after passing through an image display device.
This can be easily done by dividing using, etc. In addition, the correlation output light intensity based on the neural network obtained with this optical system is based on the standard shown in Examples 1 and 2 using the light intensity of each reference pattern and each test pattern. The data are standardized using methods a and b and input to the neural network.

【0050】本発明のニュ−ラルネットワ−クを用いる
と、各参照パタ−ン同志のフ−リエ変換成分が重なり、
参照パタ−ンと認識分類したいパタ−ンとの相互相関強
度のコントラスト比を低下させるという問題がなくなる
。また、実施例1、2共に、コヒ−レント光を用いた例
を示しているが、入力パタ−ンの並進ずれには、強いも
のである。
When the neural network of the present invention is used, the Fourier transform components of each reference pattern overlap,
This eliminates the problem of lowering the contrast ratio of the cross-correlation strength between the reference pattern and the pattern to be recognized and classified. Furthermore, although both Examples 1 and 2 use coherent light, they are resistant to translational deviations of input patterns.

【0051】[0051]

【実施例3】図7は、既知のインコヒ−レント光を用い
た相関光学系を示し、これに、本発明のニュ−ラルネッ
トワ−クを適応した場合について説明する。この光学系
では、画像表示装置16と参照パタ−ンマスク62を接
近させて並べ、画像表示装置16上に描かれたパタ−ン
と参照パタ−ンとの積の出力を集光レンズアレイ71を
用いてスクリ−ン31上に集光し、2次元光電変換素子
43で集光された各参照パタ−ンからの出力を検出し、
コンピュ−タ51にメモリ−するものである。また、本
実施例では、被検パタ−ンの反射光を検出するために、
画像表示装置16と参照パタ−ンマスク62との間にビ
−ムスプリッタ−15を設置し、画像表示装置16から
の透過光をビ−ムスプリッタ−15で反射し、レンズ5
4によりスクリ−ン53上に結像した像の光強度を2次
元光電変換素子52で、検出し、コンピュ−タ51にメ
モリ−する。
Embodiment 3 FIG. 7 shows a known correlation optical system using incoherent light, and a case where the neural network of the present invention is applied to this will be explained. In this optical system, the image display device 16 and the reference pattern mask 62 are arranged close to each other, and the output of the product of the pattern drawn on the image display device 16 and the reference pattern is sent to the condenser lens array 71. The two-dimensional photoelectric conversion element 43 detects the output from each reference pattern focused by the two-dimensional photoelectric conversion element 43.
This is stored in memory in the computer 51. In addition, in this embodiment, in order to detect the reflected light of the test pattern,
A beam splitter 15 is installed between the image display device 16 and the reference pattern mask 62, and the transmitted light from the image display device 16 is reflected by the beam splitter 15.
4, the light intensity of the image formed on the screen 53 is detected by the two-dimensional photoelectric conversion element 52, and is stored in the computer 51.

【0052】本実施例では、画像表示装置16上には、
参照パタ−ンマスク62に対応した画素に識別分類した
いパタ−ンを、アレイ状に並べて表示することになる。 このとき、各参照パタ−ンと識別分類したいパタ−ンと
の相互相関ピ−クが検出される。得られた相関出力光強
度は、実施例1、2と同様に、規格化方法aに基づいて
、被検パタ−ンの光強度により規格化され、ニュ−ラル
ネットワ−クの入力層に入力する。
In this embodiment, on the image display device 16,
Patterns to be identified and classified into pixels corresponding to the reference pattern mask 62 are displayed in an array. At this time, a cross-correlation peak between each reference pattern and the pattern to be identified and classified is detected. The obtained correlation output light intensity is normalized by the light intensity of the test pattern based on normalization method a, as in Examples 1 and 2, and is input to the input layer of the neural network. .

【0053】以上のような、光学的相関系では、入力パ
タ−ンの並進ずれに対する許容度は、全くなくなってし
まうが、非常に簡単な構成で、しかも、集積化し易いと
いう特徴を有する。
Although the optical correlation system as described above has no tolerance for translational deviation of the input pattern, it has a very simple structure and is easy to integrate.

【0054】[0054]

【発明の効果】以上説明したように、本発明のニュ−ラ
ルネットワ−クにより、前記のような効果が得られた。 それらをまとめると、次のような顕著な技術的効果とな
る。即ち、第1に、光学的相関系の画像表示装置からの
透過光又は反射光に揺らぎが生じ、得られる相関出力光
強度に応じた値にバラツキがあっても、被検パタ−ンを
認識することが可能であり、欠損被検パタ−ンの認識も
可能である、装置化し易いニュ−ラルネットワ−クを提
供することができた。
[Effects of the Invention] As explained above, the above-mentioned effects were obtained by the neural network of the present invention. Putting these together, we get the following remarkable technical effects. That is, first, even if the transmitted light or reflected light from the image display device of the optical correlation system fluctuates, and the value corresponding to the obtained correlation output light intensity varies, the test pattern can be recognized. It has been possible to provide a neural network that is easy to implement and that is also capable of recognizing missing test patterns.

【0055】第2に、欠損被検パタ−ンに対しても学習
を行なう際も、被検パタ−ンを認識分類できるカテゴリ
−数を減らすことなく、学習時間が少なくて済むニュ−
ラルネットワ−クを提供することができた。
Second, even when learning is performed on missing test patterns, a new method can be used that requires less learning time without reducing the number of categories that can recognize and classify the test patterns.
We were able to provide a virtual network.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の光学的ニュ−ラルネットワ−クの前処
理に当る光学的相関系の模式的構成図である。
FIG. 1 is a schematic diagram of an optical correlation system used for preprocessing of an optical neural network according to the present invention.

【図2】従来の代表的なニュ−ラルネットワ−クの構成
を示す構成図である。
FIG. 2 is a configuration diagram showing the configuration of a typical conventional neural network.

【図3】本発明において、光学的相関系の画像表示装置
で認識分類したい被検パタ−ンと各参照パタ−ンを表示
した様子を示す模式図である。
FIG. 3 is a schematic diagram showing how a test pattern to be recognized and classified and each reference pattern are displayed on an optical correlation system image display device in the present invention.

【図4】図3の被検パタ−ンと各参照パタ−ンを、光学
的相関系で、合同フ−リエ変換処理を行なった場合の相
関出力の状態を示す説明図である。
4 is an explanatory diagram showing the state of correlation output when joint Fourier transform processing is performed on the test pattern and each reference pattern in FIG. 3 using an optical correlation system; FIG.

【図5】本発明における、相関出力光強度の分布を示す
説明図である。
FIG. 5 is an explanatory diagram showing a distribution of correlated output light intensity in the present invention.

【図6】本発明で、マッチドフィルタ−を用いた光学的
相関系を示す模式的構成図である。
FIG. 6 is a schematic configuration diagram showing an optical correlation system using a matched filter in the present invention.

【図7】被検パタ−ンと各参照パタ−ン、フ−リエ変換
レンズをアレイ状とした、インコヒ−レント光を用いた
光学的相関系を示す模式的構成図である。
FIG. 7 is a schematic configuration diagram showing an optical correlation system using incoherent light, in which a test pattern, each reference pattern, and a Fourier transform lens are arranged in an array.

【符号の説明】[Explanation of symbols]

1、3                  画像出力
手段2、4                光学的フ
−リエ変換手段11                
  レ−ザ12、17、18      光束
1, 3 Image output means 2, 4 Optical Fourier transform means 11
Laser 12, 17, 18 luminous flux

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】基本的構成が階層型であるニュ−ラルネッ
トワ−クにおいて、その層数を3層以上とし、その入力
層へは、光学的に認識分類したい被検パタ−ンと複数の
各参照パタ−ンの相関演算を行なって得られた各参照パ
タ−ン毎の相関出力光強度に応じた値を被検パタ−ン又
は被検パタ−ンと1つ以上の参照パタ−ンとを構成する
画素数に対応する値で規格化した値を入力し、該入力層
から出力層までの各結合荷重値を教師付き学習により決
定されたことを特徴とするニュ−ラルネットワ−ク。
Claim 1: In a neural network whose basic configuration is hierarchical, the number of layers is three or more, and the input layer receives a test pattern to be optically recognized and classified, and a plurality of individual patterns. A value corresponding to the correlation output light intensity for each reference pattern obtained by performing correlation calculation of the reference pattern is calculated between the test pattern or the test pattern and one or more reference patterns. 1. A neural network characterized in that a value normalized by a value corresponding to the number of pixels constituting the neural network is input, and each connection weight value from the input layer to the output layer is determined by supervised learning.
【請求項2】前記の被検パタ−ンを構成する画素数に対
応する値は、被検パタ−ンを表示した画像表示装置から
の透過光又は反射光強度に応じた値であることを特徴と
する請求項1に記載のニュ−ラルネットワ−ク。
2. The value corresponding to the number of pixels constituting the test pattern is a value corresponding to the intensity of transmitted light or reflected light from the image display device that displayed the test pattern. The neural network according to claim 1, characterized in that:
【請求項3】前記の、被検パタ−ンと1つ以上の参照パ
タ−ンとを構成する画素数に対応する値は、被検パタ−
ンと各参照パタ−ンのうちの1つ或いは1つ以上の参照
パタ−ンとの、透過光又は反射光強度に応じた値の和で
あることを特徴とする請求項1に記載のニュ−ラルネッ
トワ−ク。
3. The value corresponding to the number of pixels constituting the test pattern and one or more reference patterns is the same as that of the test pattern.
2. The method according to claim 1, wherein the value is the sum of values corresponding to transmitted light or reflected light intensity of the pattern and one or more of the reference patterns. -ral network.
【請求項4】前記の、各参照パタ−ン毎の相関出力光強
度は、被検パタ−ンと各参照パタ−ンとの自己相関出力
或いは相互相関出力のピ−ク値をとることを特徴とする
請求項1に記載のニュ−ラルネットワ−ク。
4. The correlation output light intensity for each reference pattern is determined by taking the peak value of the autocorrelation output or cross-correlation output between the test pattern and each reference pattern. The neural network according to claim 1, characterized in that:
【請求項5】前記の、各参照パタ−ン毎の相関出力光強
度は、被検パタ−ンと各参照パタ−ンとの自己相関出力
或いは相互相関出力の広がりに応じた受光範囲の全光量
或いは、平均光量をとることを特徴とする請求項1に記
載のニュ−ラルネットワ−ク。
5. The above-mentioned correlation output light intensity for each reference pattern corresponds to the entire light receiving range according to the spread of the autocorrelation output or cross-correlation output between the test pattern and each reference pattern. 2. The neural network according to claim 1, wherein the neural network calculates the amount of light or the average amount of light.
【請求項6】前記の、各参照パタ−ン毎の相関出力光強
度は、被検パタ−ンと各参照パタ−ンとの自己相関出力
或いは相互相関出力のピ−ク値と相関出力の広がりに応
じた受光範囲の全光量或いは平均光量をとることを特徴
とする請求項1に記載のニュ−ラルネットワ−ク。
6. The correlation output light intensity for each reference pattern is determined by the peak value of the autocorrelation output or cross-correlation output between the test pattern and each reference pattern and the correlation output. 2. The neural network according to claim 1, wherein the total light amount or the average light amount of the light receiving range is determined depending on the spread.
【請求項7】前記の、各参照パタ−ン毎の相関出力光強
度は、2次元光電変換素子の線形範囲若しくは、該相関
出力光強度の一部が、該2次元光電変換素子の最大受光
量を超える範囲で得られたものであることを特徴とする
請求項1に記載のニュ−ラルネットワ−ク。
7. The above correlation output light intensity for each reference pattern is within the linear range of the two-dimensional photoelectric conversion element, or a portion of the correlation output light intensity is within the maximum light receiving area of the two-dimensional photoelectric conversion element. 2. The neural network according to claim 1, wherein the neural network is obtained in a range exceeding the amount.
【請求項8】前記の、光学的に認識分類したい被検パタ
−ンと複数の各参照パタ−ンの相関演算は、フ−リエ変
換ホログラムに基づいたフィルタ−を用いて行なうこと
を特徴とする請求項1に記載のニュ−ラルネットワ−ク
8. The correlation calculation between the test pattern to be optically recognized and classified and each of the plurality of reference patterns is performed using a filter based on a Fourier transform hologram. The neural network according to claim 1.
【請求項9】前記の、光学的に認識分類したいる被検パ
タ−ンと複数の各参照パタ−ンの相関演算は、被検パタ
−ンと各参照パタ−ンのの合同フ−リエ変換を個別に行
なうことにより得られた強度パタ−ンを、再び、光学的
に個別にフ−リエ変換して行なうか、或いは、被検パタ
−ンと各参照パタ−ンとの合同フ−リエ変換を一括して
行なうことにより得られた強度パタ−ンを、再び、光学
的に一括してフ−リエ変換して行なうことを特徴とする
請求項1に記載のニュ−ラルネットワ−ク。
9. The correlation calculation between the optically recognized and classified test pattern and each of the plurality of reference patterns is performed using a joint Fourier calculation of the test pattern and each reference pattern. The intensity patterns obtained by performing individual transformations may be optically Fourier transformed again, or a joint Fourier transformation of the test pattern and each reference pattern may be performed. 2. The neural network according to claim 1, wherein the intensity pattern obtained by collectively performing Fourier transform is optically subjected to Fourier transform again.
【請求項10】前記の、光学的に認識分類したい被検パ
タ−ンと複数の各参照パタ−ンとの相関演算は、光透過
率分布或いは光反射率分布で表わされた被検パタ−ンと
各参照パタ−ンを重ね、インコヒ−レント光で照射し、
反射し或いは透過してきた光量をとることにより、行な
うことを特徴とする請求項1に記載のニュ−ラルネット
ワ−ク。
10. The correlation calculation between the test pattern to be optically recognized and classified and each of the plurality of reference patterns is performed using the test pattern expressed by the light transmittance distribution or the light reflectance distribution. The pattern and each reference pattern are overlapped and irradiated with incoherent light.
2. The neural network according to claim 1, wherein the neural network is operated by measuring the amount of reflected or transmitted light.
JP03043600A 1991-02-13 1991-03-08 Neural network Expired - Fee Related JP3096819B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP03043600A JP3096819B2 (en) 1991-03-08 1991-03-08 Neural network
EP92301191A EP0499469A3 (en) 1991-02-13 1992-02-13 Artificial neural network pattern recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03043600A JP3096819B2 (en) 1991-03-08 1991-03-08 Neural network

Publications (2)

Publication Number Publication Date
JPH04280385A true JPH04280385A (en) 1992-10-06
JP3096819B2 JP3096819B2 (en) 2000-10-10

Family

ID=12668312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03043600A Expired - Fee Related JP3096819B2 (en) 1991-02-13 1991-03-08 Neural network

Country Status (1)

Country Link
JP (1) JP3096819B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2372623A1 (en) 2010-03-31 2011-10-05 Hitachi Solutions, Ltd. Map-linked fertilization design system
WO2023276061A1 (en) * 2021-06-30 2023-01-05 株式会社フジクラ Optical computation device and optical computation method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0541520U (en) * 1991-11-15 1993-06-08 守圀 斉藤 Cooling tool

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2372623A1 (en) 2010-03-31 2011-10-05 Hitachi Solutions, Ltd. Map-linked fertilization design system
US8863012B2 (en) 2010-03-31 2014-10-14 Hitachi Solutions, Ltd. Map-linked fertilization design system
WO2023276061A1 (en) * 2021-06-30 2023-01-05 株式会社フジクラ Optical computation device and optical computation method

Also Published As

Publication number Publication date
JP3096819B2 (en) 2000-10-10

Similar Documents

Publication Publication Date Title
US5724447A (en) Optical transform system for three-dimensional object recognition
JP3776500B2 (en) Multiplexing optical system, feature vector conversion device using the same, feature vector detection / transmission device, and recognition / classification device using them
US5151822A (en) Transform digital/optical processing system including wedge/ring accumulator
US5754693A (en) Method of optical recognition and classification of patterns
CN110823812B (en) Machine learning-based scattering medium imaging method and system
JP2023123387A (en) Defect detection method and system
JPH03224068A (en) Method and apparatus for checking image pattern
JPH04280385A (en) Neural network
JP7297705B2 (en) Processing device, processing method, learning device and program
EP0499469A2 (en) Artificial neural network pattern recognition system
JP3094070B2 (en) Optical pattern recognition and classification device
JP3014155B2 (en) Optical pattern recognition and classification method
JP3096717B2 (en) Neural network
JP3020680B2 (en) Pattern recognition classification method
JP7481956B2 (en) Inference device, method, program and learning device
JP3099203B2 (en) Optical pattern recognition and classification device
JPH04355732A (en) Detecting method for optical correlation output
JPH05128084A (en) Method for identifying pattern
JPH04278631A (en) Optical pattern recognizing/classifying method
JPH05101186A (en) Optical pattern identifying method
JP2937536B2 (en) Optical recognition classification method
JP2898666B2 (en) Optical pattern identification device
JPH09185713A (en) Feature vector extraction device and information processor using the device
JP2022038390A (en) Inference device, method, program, and learning device
JP2889275B2 (en) Optical associative identification device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees