JPH05165971A - Method and device for pattern recognition using neural network - Google Patents

Method and device for pattern recognition using neural network

Info

Publication number
JPH05165971A
JPH05165971A JP3334721A JP33472191A JPH05165971A JP H05165971 A JPH05165971 A JP H05165971A JP 3334721 A JP3334721 A JP 3334721A JP 33472191 A JP33472191 A JP 33472191A JP H05165971 A JPH05165971 A JP H05165971A
Authority
JP
Japan
Prior art keywords
neural network
pattern
output
internal state
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3334721A
Other languages
Japanese (ja)
Inventor
Shigeo Abe
重夫 阿部
Hiroshi Takenaga
寛 武長
Tadaaki Kitamura
忠明 北村
Toshihiko Nakano
利彦 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP3334721A priority Critical patent/JPH05165971A/en
Publication of JPH05165971A publication Critical patent/JPH05165971A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To detect misrecognition and make a decision at a high speed by deciding a pattern according to the internal state of the neural network. CONSTITUTION:A pattern decision means 102 makes the decision according to the mutual relation among the output 101 of the neural network, the pattern of the internal state of the neural network, and the pattern of the internal state of the neural network which is learnt already. Thus, the misrecognition can be detected not only by deciding the pattern with the output 101 of the neural network for input data, but also by comparing even the output of an intermediate layer with the pattern of the output of the intermediate layer which is learnt already, and correct candidates can also be indicated unless the results of the both are equal to each other. Further, the pattern is decided with the internal state of the neural network to eliminate the subsequent calculation of the neural network, and the calculation is speeded up. Consequently, the misrecognition can be detected and the decision making is performed at a high speed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、データ処理装置及び方
法に関し、特にパターン認識に好適なニューラルネット
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing device and method, and more particularly to a neural network suitable for pattern recognition.

【0002】[0002]

【従来の技術】ニューラルネットを用いてパターン認識
する方法についてエム.アイ.ティープレス(1986
年)パラレルディストリビューティッドプロセシング第
318頁から第362頁(Parallel Distributed Proce
ssing,Vol.1.MIT Press,Cambridge MA,1986pp.318−
362)において論じられている。
2. Description of the Related Art A method for recognizing a pattern using a neural network is described in Em. Eye. Tea Press (1986
Year) Parallel Distributed Processing, pages 318 to 362 (Parallel Distributed Proce
ssing, Vol.1.MIT Press, Cambridge MA, 1986 pp.318-
362).

【0003】ここでパターン認識を行なうニューラルネ
ットを説明する。ニューラルネットは、ニューロンをカ
スケードに多層に結合したもので図2は3層ニューラル
ネットの例を示している。図において1000,100
1は入力ニューロン,1003,1004は中間層ニューロ
ン、1006,1007は出力ニューロン,1002,
1003はバイアスニューロンである。入力およびバイ
アスニューロンは入力をそのまま出力するが、中間層お
よび出力ニューロンは、図3に示すようなシグモイド関
数とよばれる飽和特性の有る入出力関係を持ち入力を
x,出力をzとすると
A neural network for pattern recognition will be described here. The neural network is formed by connecting neurons in cascade in multiple layers, and FIG. 2 shows an example of a three-layer neural network. 1000,100 in the figure
1 is an input neuron, 1003 and 1004 are middle layer neurons, 1006 and 1007 are output neurons, 1002
1003 is a bias neuron. The input and bias neurons output the input as they are, but the intermediate layer and the output neuron have an input-output relationship with a saturation characteristic called a sigmoid function as shown in FIG. 3, where x is the input and z is the output.

【0004】[0004]

【数1】 [Equation 1]

【0005】となる。ここでTは、シグモイド関数の傾
きを決める定数である。
[0005] Here, T is a constant that determines the slope of the sigmoid function.

【0006】入力側から各層の番号を打つとし、i番目
の層j番目のニューロンの入力、および出力を各々xj
(i),zj(i)とすると、入力ニューロンの入出力
関係は、上述したことにより、
When the number of each layer is given from the input side, the input and output of the i-th layer and the j-th neuron are respectively x j
(I) and z j (i), the input / output relationship of the input neuron is as follows.

【0007】[0007]

【数2】 [Equation 2]

【0008】となる。ここでn(i)はi番目の層への
入力数で有り、zn(i)+1(1)はバイアス項となる。
[0008] Here, n (i) is the number of inputs to the i-th layer, and z n (i) +1 (1) is a bias term.

【0009】第2、および第3層のi番目のニューロン
の出力は、
The outputs of the i-th neurons in the second and third layers are

【0010】[0010]

【数3】 [Equation 3]

【0011】となる。ここでzn(i)+1(i)はバイアス項
である。
[0011] Here, z n (i) +1 (i) is a bias term.

【0012】各層間のニューロンはシナプスを介して完
全に結合されており、各シナプスは重みを持ち、ニュー
ロンの出力にその重みを乗じたものを次段のニューロン
への入力とする。従って第2,3層目のj番目のニュー
ロンへの入力は次式で与えられる。
Neurons between layers are completely connected via synapses, each synapse has a weight, and the output of the neuron is multiplied by the weight to be the input to the next-stage neuron. Therefore, the input to the j-th neuron in the second and third layers is given by the following equation.

【0013】[0013]

【数4】 [Equation 4]

【0014】但しHowever,

【0015】[0015]

【数5】 [Equation 5]

【0016】は重みベクトルwjk(i−1)は、(i−
1)番目の層のk番目のニューロンとi番目の層のj番
目のニューロンの間のシナプスの重みであり、
Is a weight vector w jk (i-1) is (i-
1) Synaptic weight between the k-th neuron in the i-th layer and the j-th neuron in the i-th layer,

【0017】[0017]

【数6】 [Equation 6]

【0018】は(i−1)層ニューロンの出力ベクトル
で、tは行列の転置を示している。
Is the output vector of the (i-1) layer neuron, and t is the transpose of the matrix.

【0019】上記のニューラルネットで入力データをn
(3)個のクラスに分離する場合は、i番目の出力ニュ
ーロンをクラスiに対応させ、ある入力に対してi番目
の出力が1で他が0のときクラスiであるというように
判定する。このようにパターンが分離できるには、重み
jk(i)(i,2,3)を適切に決める必要があるが、
そのために入出力データを教師データとして学習により
重みを決める。今m個の教師データの値を
Input data is n by the above neural network.
(3) When separating into i classes, the i-th output neuron is made to correspond to the class i, and it is determined that the i-th output is 1 for one input and the other i is 0 for the class i. .. In order to separate the patterns in this way, the weight w jk (i) (i, 2,3) needs to be appropriately determined.
Therefore, the weight is determined by learning using the input / output data as teacher data. Now the values of m teacher data

【0020】[0020]

【数7】 [Equation 7]

【0021】とすると、Then,

【0022】[0022]

【数8】 [Equation 8]

【0023】となるように重みwjk(i)を決める。但
しzjl(3)は教師データ入力xil(1)に対応する出力ニ
ューロンの出力である。重みを決める方法としては、上
記文献に示されている逆伝播法が広く用いられている。
この方法では、1組の教師データの入力xil(1),i=
1,…,n(1)に対して出力zjl(3)がsjl,j=1,
…,n(3)に近づくように出力側から順次入力側に重み
を修正し、それが終わったら次の教師データについて上
記の手順を繰り返し
The weight w jk (i) is determined so that However, z jl (3) is the output of the output neuron corresponding to the teacher data input x il (1). As a method for determining the weight, the back propagation method shown in the above document is widely used.
In this method, a set of teacher data inputs x il (1), i =
The output z jl (3) with respect to 1, ..., N (1) is s jl , j = 1,
..., the weights are sequentially corrected from the output side to the input side so as to approach n (3), and when that is completed, the above procedure is repeated for the next teacher data.

【0024】[0024]

【数9】 [Equation 9]

【0025】が成立するまで修正を繰り返す。ただしε
は、収束したことを判定するための小さな正の数であ
る。
The correction is repeated until the condition is satisfied. Where ε
Is a small positive number for determining that it has converged.

【0026】このようにしてニューラルネットの重みを
決定した後で、未学習データに対するネットワークの出
力を調べることによりパターン認識が可能になる。この
方式では、入出力パターンに基づいた学習によりパター
ン識別ネットが構成できるため、識別アルゴリズムを作
る必要がないという大きな利点がある。
After deciding the weight of the neural network in this way, pattern recognition becomes possible by examining the output of the network for unlearned data. In this method, a pattern identification net can be constructed by learning based on an input / output pattern, which is a great advantage that no identification algorithm is required.

【0027】またパターン認識に限っていえば情報処理
学会全国大会第41回全国大会論文集(平成2年後期)
第2巻113−114頁に示されるごとくネットワーク
がどのようにして作られているかについても明らかにな
っている。
In addition, as far as pattern recognition is concerned, the 41st National Convention Proceedings of the Information Processing Society of Japan (second half of 1990)
It is also clear how the network is created, as shown in Volume 2, pages 113-114.

【0028】[0028]

【発明が解決しようとする課題】しかしながらニューラ
ルネット自体が学習によって決まるためニューラルネッ
トが正しく判定しているか否か分からずまたネットワー
クが多層になっているため処理時間がかかるという欠点
があった。
However, since the neural network itself is determined by learning, it is not possible to know whether or not the neural network is making a correct decision, and the network is multi-layered, which requires a processing time.

【0029】本発明の目的は、上記問題点を解決し、誤
認識を検出しかつ高速に判定を行なうニューラルネット
を用いたデータ処理装置及び方法を提供することにあ
る。
An object of the present invention is to solve the above problems and provide a data processing device and method using a neural network that detects erroneous recognition and makes a high-speed judgment.

【0030】[0030]

【課題を解決するための手段】本発明は、(イ)誤認識
を検出する(ロ)パターン判別を高速に行なう、等に特
徴を有するものであり、これらの独立した手段,方法の
みならず、種々な組合わせにもそれぞれ特徴がある。
The present invention is characterized in that (a) erroneous recognition is detected, (b) pattern discrimination is performed at high speed, and the like, and not only these independent means and methods, The various combinations also have their own characteristics.

【0031】以下一例を説明する。An example will be described below.

【0032】(イ)誤認識を検出する パターン認識をニューラルネットで行なう場合は、教師
データに対するニューラルネットの出力は1あるいは0
であり、シグモイド関数の飽和特性が重要な意味を持
つ。ニューラルネットの出力1,0に対応する出力ニュ
ーロンへの入力は+∞,−∞に対応するため、1,0を
各々1,−ε,εとして、学習の打ち切りを数9で行な
うとすると、数9は、 sil=1−εのとき
(B) Detecting erroneous recognition When pattern recognition is performed by a neural network, the output of the neural network for the teacher data is 1 or 0.
And the saturation characteristic of the sigmoid function has an important meaning. Since the inputs to the output neurons corresponding to the outputs 1 and 0 of the neural network correspond to + ∞ and −∞, assuming that 1 and 0 are 1, −ε and ε, respectively, and the learning is terminated by the equation 9, Equation 9 is when s il = 1-ε

【0033】[0033]

【数10】 [Equation 10]

【0034】sil=εのときWhen s il = ε

【0035】[0035]

【数11】 [Equation 11]

【0036】となる。これを出力ニューロンへの入力で
考えると、図4に示すごとく、 sil=1−εのとき
It becomes Considering this as an input to the output neuron, as shown in FIG. 4, when s il = 1-ε

【0037】[0037]

【数12】 [Equation 12]

【0038】sil=εのときWhen s il = ε

【0039】[0039]

【数13】 [Equation 13]

【0040】ただし α=−Tlog(1/(1−2ε)−1)=Tlog(1/2ε−1) 即ち出力側での有限な区間が入力側では半無限区間に対
応することになる。これにより数8の最小化が、中間層
と出力層の間の重みの決定に関しては不等式を解くこと
で求まる。
However, α = -Tlog (1 / (1-2ε) -1) = Tlog (1 / 2ε-1) That is, the finite section on the output side corresponds to the semi-infinite section on the input side. Thus, the minimization of Eq. 8 can be obtained by solving an inequality regarding the determination of the weight between the hidden layer and the output layer.

【0041】これよりニューラルネットの重みは、超平
面を記述する方程式の係数と解釈できる。数4でx
j(i)=0とすると
From this, the weight of the neural network can be interpreted as the coefficient of the equation describing the hyperplane. X in number 4
If j (i) = 0

【0042】[0042]

【数14】 [Equation 14]

【0043】は、n(i−1)次元空間の超平面を表
し、バイアス項の重みwj,n(i-1)+1(i−1)の値を変
えることは、超平面を平行移動することに対応する。数
1より数12を満足するxj(i)に対応するzj(i)の
値は1/2となる。ここでn(i−1)次元の点
Represents the hyperplane of the n (i-1) -dimensional space, and changing the value of the weight w j, n (i-1) +1 (i-1) of the bias term makes the hyperplane parallel. Corresponding to moving. The value of z j (i) corresponding to x j (i) satisfying Expression 12 from Expression 1 is 1/2. Where n (i-1) -dimensional points

【0044】[0044]

【数15】 [Equation 15]

【0045】[0045]

【数16】 [Equation 16]

【0046】のとき超平面の正の側にあり、When is on the positive side of the hyperplane,

【0047】[0047]

【数17】 [Equation 17]

【0048】のとき超平面の負の側にあるということに
する。またあるクラスは、そのクラスに属する全ての教
師データがk個の超平面の同じ側にあり、他のクラスの
データは存在しないとき、そのクラスはk個の超平面で
単一分離可能とよぶ。またあるクラスの教師データが単
一分離可能な集合に分割されるときそのクラスは分離可
能であると呼ぶ。これらの分離可能な超平面を以下分離
超平面と呼ぶ。このとき以下のことを示すことができ
る。
At the time of, it is assumed to be on the negative side of the hyperplane. A class is called separable by k hyperplanes when all the teacher data belonging to that class are on the same side of k hyperplanes and no other class data exists. .. A class is called separable when teacher data of a class is divided into a single separable set. These separable hyperplanes are hereinafter referred to as separable hyperplanes. At this time, the following can be shown.

【0049】n(1)次元データをn(3)個のクラスに分
離することを考える。n(1)次元空間にn(2)個の超平
面が存在し、n(3)個のクラス全てがn(2)個の超平面
の部分集合で単一分離可能なとき、入力n(1)個,中間
層ニューロンn(2)個,出力n(3)個の3層のニューラ
ルネットでパターン分離が可能である。ここであるクラ
スがいくつかの部分集合に分割されその各々が単一超平
面で分離可能なとき4層のニューラルネットで分離でき
る。
Consider separating n (1) -dimensional data into n (3) classes. If n (1) -dimensional space has n (2) hyperplanes and all n (3) classes are separable by a subset of n (2) hyperplanes, the input n ( Pattern separation is possible with a three-layer neural network of 1), intermediate layer neurons n (2), and output n (3). A class can be divided into several subsets, each of which can be separated by a single hyperplane, and can be separated by a four-layer neural network.

【0050】以上より教師データに従ってニューラルネ
ットの重みを学習し、中間層の重みが分離超平面となる
ように設定しておけば学習していないデータを入力して
判定した結果が正しいときの中間層の出力パターンと実
際の中間層の出力パターンを比較し一致すれば判定が正
しいことが分かる。また一致しないとき実際の中間層パ
ターンに対応する出力を調べることにより正しいと思え
る候補を見つけることができる。
From the above, if the weights of the neural network are learned according to the teacher data and the weights of the intermediate layer are set so as to be the separating hyperplanes, the intermediate values when the results obtained by inputting the unlearned data are correct are judged. If the output pattern of the layer and the actual output pattern of the intermediate layer are compared and they match, the judgment is correct. Further, when they do not match, it is possible to find a candidate that seems to be correct by examining the output corresponding to the actual intermediate layer pattern.

【0051】(ロ)パターン判別を高速に行なう 分離平面が正しく学習されたときは中間層ニューロンの
出力と学習により覚えた中間層ニューロンのパターンを
比較することによりパターン分離ができる。
(B) Performing pattern discrimination at high speed When the separation plane is correctly learned, pattern separation can be performed by comparing the output of the intermediate layer neuron with the pattern of the intermediate layer neuron learned by learning.

【0052】[0052]

【作用】[Action]

(イ)誤認識の検出をする 入力データに対するニューラルネットの出力でパターン
判別するだけでなく中間層の出力も学習済みの中間層の
出力のパターンと比較することにより誤認識を検出で
き、かつ両者の結果が一致しないときは正しい候補も示
すことができる。 (ロ)パターン判別を高速に行なう パターン判別をニューラルネットの内部状態で判定する
ことにより以後のニューラルネットの計算が不要となり
計算を高速化できる。
(B) Detection of erroneous recognition Not only the pattern is discriminated by the output of the neural network for the input data, but the erroneous recognition can be detected by comparing the output of the intermediate layer with the learned pattern of the output of the intermediate layer. If the results do not match, correct candidates can also be shown. (B) Performing pattern determination at high speed By performing pattern determination based on the internal state of the neural network, the subsequent calculation of the neural network becomes unnecessary and the calculation can be speeded up.

【0053】[0053]

【実施例】図1に本発明の具体的実施例を示す。図にお
いて101は学習済みのニューラルネット、102はパ
ターン判定手段、103は判定結果を表示するディスプ
レイ、104はメモリに格納された学習済みネットのパ
ターンである。まず104について説明する。教師デー
タを用いてニューラルネットを学習した後で中間層の出
力を見て各パターンに対応する分離超平面を設定するこ
とができる。表1は0から9までの数字を3層ニューラ
ルネットで中間層のニューロンの数を4として学習した
ときの分離超平面に対応する学習済みパターンである。
EXAMPLE FIG. 1 shows a specific example of the present invention. In the figure, 101 is a learned neural net, 102 is a pattern determining means, 103 is a display for displaying the determination result, and 104 is a learned net pattern stored in the memory. First, 104 will be described. After learning the neural network using the teacher data, it is possible to set the separation hyperplane corresponding to each pattern by observing the output of the intermediate layer. Table 1 shows learned patterns corresponding to the separated hyperplanes when the numbers 0 to 9 are learned in the three-layer neural network with the number of neurons in the intermediate layer being four.

【0054】[0054]

【表1】 [Table 1]

【0055】このパターンは学習済みニューラルネット
の中間層出力が0.5 より大きければ1とし小さければ
0として各数字の教師データ毎に中間層ニューロンの出
力を分類したものである。ここでxは0と1どちらも含
んでいることを示すとする。ある数字の中間層出力が一
部の教師データで分離されていないときは0,1の境界
点を0.5 の代わりニューロン毎に変えてもよい。また
出力が0.5 のとき数1より入力は0であるから入力で
判定してもよい。このようにして104にパターン分離
したいクラス毎の学習パターンが記憶されているとす
る。なお4層以上のニューラルネットについては分離超
平面を学習している中間層をとればよい。次にパターン
判定手段102は101からの出力と内部状態及び10
4からの学習済みパターンに基づいてニューラルネット
への入力がどのクラスに属するかを判定する。まず出力
データよりその値の最大のものを求める。通常の判定で
は最大のものでクラスを判定する。数字認識のときこれ
が9番目のニューロン即ち数字の9であるとする。なお
この判定は出力ニューロンの入力の和をみても同じであ
る。次に出力の最大値で判定されたクラスに対応する1
04の学習済みパターンを取り出す。9の数字に対応す
るのは0000である。次に学習済みパターンに対応す
る中間層ニューロンへの入力和(あるいは出力)のパタ
ーンを出力に変換したとき0110とすると学習済みの
パターンと一致しないため出力の判定結果が誤っている
可能性がある。このパターンが一致するときは出力によ
る判定が正しいとする。また一致しないときは中間層パ
ターンに対応する出力を求めそれを正しい判定の候補と
して検出する。0110のときは表1より4の可能性が
あることが分かる。次にこの結果を103により表示す
る。
This pattern is obtained by classifying the output of the intermediate layer neuron for each number of teaching data by setting 1 if the output of the intermediate layer of the learned neural network is larger than 0.5 and 0 if it is smaller. Here, it is assumed that x includes both 0 and 1. When the output of the middle layer of a certain number is not separated by some teacher data, the boundary point of 0 and 1 may be changed for each neuron instead of 0.5. Further, when the output is 0.5, the input is 0 according to the equation 1, so the input may be used for the determination. In this way, it is assumed that the learning pattern for each class for which pattern separation is desired is stored in 104. For a neural network having four or more layers, the intermediate layer learning the separating hyperplane may be taken. Next, the pattern determination means 102 outputs the output from 101 and the internal state and 10
Based on the learned pattern from 4, the class to which the input to the neural network belongs is determined. First, the maximum value is calculated from the output data. In normal judgment, the class is judged by the largest one. In the case of numeral recognition, it is assumed that this is the ninth neuron, that is, numeral 9. This judgment is the same when the sum of the inputs of the output neurons is seen. Next, 1 corresponding to the class determined by the maximum value of the output
The learned pattern of 04 is taken out. The number corresponding to the number 9 is 0000. Next, when the pattern of the input sum (or output) to the intermediate layer neuron corresponding to the learned pattern is converted to the output, if it is 0110, it does not match the learned pattern, so the output determination result may be incorrect. .. If the patterns match, the output judgment is correct. If they do not match, the output corresponding to the intermediate layer pattern is obtained and detected as a candidate for correct determination. In the case of 0110, it can be seen from Table 1 that there are 4 possibilities. Next, this result is displayed by 103.

【0056】ニューラルネットにより正しい分離超平面
が完全に学習されているときは分離超平面を学習してい
る中間層ニューロンの出力(あるいは入力の和)と学習
済みパターンとによりパターン分離ができる。図5にそ
の実施例を示す。図において105は104の学習済み
パターンとニューラルネットの内部状態のパターンより
パターン認識するパターン判定手段である。図5では3
層の例を示しているが4層以上のときも分離平面を学習
している中間層を取れば同じように構成できる。105
はネットの入力データに対応する内部状態、即ちこの例
では中間層ニューロンへの入力の和のパターンと一致す
る104のパターンを探し、一致したパターンに対応す
るクラスを判定結果とすればよい。上記の数字認識の例
では、入力データに対応する中間層のパターンが000
0とすると、表1より数字9と判定される。これより1
03で判定結果を9と表示する。105の判定はパター
ンの状態のマッチングをとるのではなく0,1により分
岐する2分岐法によればさらに高速に判定できる。
When the correct separation hyperplane is completely learned by the neural network, pattern separation can be performed by the output (or the sum of inputs) of the intermediate layer neurons learning the separation hyperplane and the learned pattern. An example thereof is shown in FIG. In the figure, reference numeral 105 denotes a pattern determination means for recognizing a pattern from the learned pattern 104 and the internal state pattern of the neural network. 5 in FIG.
Although an example of layers is shown, the same configuration can be obtained even when there are four or more layers by taking an intermediate layer learning the separation plane. 105
Search for an internal state corresponding to the input data of the net, that is, a pattern of 104 that matches the pattern of the sum of the inputs to the intermediate layer neurons in this example, and use the class corresponding to the matched pattern as the determination result. In the above example of numeral recognition, the pattern of the intermediate layer corresponding to the input data is 000.
When set to 0, it is determined from Table 1 that the number is 9. Than this one
In 03, the judgment result is displayed as 9. The determination of 105 can be performed at a higher speed according to a two-branching method in which the state of the pattern is not matched but the two-branching method is used.

【0057】車番認識システムに本発明を適用した場合
の例を図6に示す。図において車のナンバプレートは、
工業用テレビで画像認識装置に取り込まれる。画像認識
装置では、ナンバプレートの切り出しを行ない、その中
から文字を1つずつ切り出し、文字の特徴量を抽出す
る。抽出された特徴量は、ニューラルネットワークに入
力され、その識別結果が出力される。先に示した図1又
は図5の手法により誤認識の検出と正解の候補の検出、
あるいは認識の高速化を図ることができる。
FIG. 6 shows an example in which the present invention is applied to a vehicle number recognition system. In the figure, the number plate of the car is
Captured on an image recognition device on an industrial television. The image recognition device cuts out a number plate, cuts out characters one by one, and extracts the characteristic amount of the character. The extracted feature amount is input to the neural network, and the identification result is output. Detection of false recognition and detection of correct answer candidates by the method of FIG. 1 or 5 shown above,
Alternatively, recognition can be speeded up.

【0058】[0058]

【発明の効果】本発明によれば、以下の効果がある。The present invention has the following effects.

【0059】(イ)誤認識を検出する ニューラルネットの出力と内部状態の両方でパターンを
行なうことにより誤認識が検出でき、また正解の候補を
示すことができる。
(B) Detecting erroneous recognition By recognizing patterns in both the output of the neural network and the internal state, erroneous recognition can be detected and correct answer candidates can be indicated.

【0060】(ロ)パターン判別を高速に行なう ニューラルネットの内部状態だけで判定することにより
計算量を大幅に削減でき判定を高速化できる。
(B) Performing pattern judgment at high speed By judging only by the internal state of the neural network, the amount of calculation can be greatly reduced and the judgment can be speeded up.

【図面の簡単な説明】[Brief description of drawings]

【図1】具体的実施例を説明する図。FIG. 1 is a diagram illustrating a specific example.

【図2】ニューラルネットの構成図。FIG. 2 is a configuration diagram of a neural network.

【図3】シグモイド関数を示した図。FIG. 3 is a diagram showing a sigmoid function.

【図4】収束判定条件を示した図。FIG. 4 is a diagram showing convergence determination conditions.

【図5】他の実施例を説明した図。FIG. 5 is a diagram illustrating another embodiment.

【図6】車番認識に適用した図。FIG. 6 is a diagram applied to vehicle number recognition.

【符号の説明】[Explanation of symbols]

101…学習済みのニューラルネット、102…パター
ン判定手段、103…ディスプレイ。
101 ... Learned neural network, 102 ... Pattern determination means, 103 ... Display.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中野 利彦 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Toshihiko Nakano 5-2-1, Omika-cho, Hitachi-shi, Ibaraki Hitachi Ltd. Omika factory

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】入力データに対する望ましい出力データを
教師データとし、いくつかの教師データの入出力関係を
いくつかのニューロンを多層に接続したニューラルネッ
トに記憶させたものでパターン認識を行なう方法であっ
て、ニューラルネットの出力,ニューラルネットの内部
状態のパターン、及び学習済みのニューラルネットの内
部状態のパターンの相互関係に従いパターン判定を行な
うことを特徴とするパターン認識の方法。
1. A method of performing pattern recognition by using desired output data for input data as teacher data, and storing input / output relationships of some teacher data in a neural network in which several neurons are connected in multiple layers. Then, a pattern recognition method is characterized in that the pattern determination is performed according to the mutual relationship between the output of the neural network, the pattern of the internal state of the neural network, and the pattern of the internal state of the learned neural network.
【請求項2】請求項1記載のパターン認識の方法におい
て、ニューラルネットの出力に対応する学習済みニュー
ラルネットの内部状態のパターンと現在の内部状態のパ
ターンが異なるときニューラルネットによる判定の信頼
性が低い旨を表示することを特徴とするパターン認識方
法。
2. The pattern recognition method according to claim 1, wherein when the pattern of the internal state of the learned neural network corresponding to the output of the neural network and the pattern of the current internal state are different, the reliability of the determination by the neural network is improved. A pattern recognition method characterized by displaying low.
【請求項3】請求項1記載のパターン認識の方法におい
て、内部状態からの判定と出力の判定とが異なるとき内
部状態から推定される判定の候補を表示することを特徴
とするパターン認識方法。
3. The pattern recognition method according to claim 1, wherein when the determination from the internal state and the determination of the output are different, candidates for the determination estimated from the internal state are displayed.
【請求項4】入力データに対する望ましい出力データを
教師データとし、いくつかの教師データの入出力関係を
いくつかのニューロンを多層に接続したニューラルネッ
トに記憶させたものでパターン認識を行なう方法であっ
て、ニューラルネットの内部状態により最終結果を決定
することを特徴とするパターン認識の方法。
4. A method for performing pattern recognition by using desired output data for input data as teacher data, and storing input / output relationships of some teacher data in a neural network in which several neurons are connected in multiple layers. Then, the final result is determined according to the internal state of the neural network.
【請求項5】入力データに対する望ましい出力データを
教師データとし、いくつかの教師データの入出力関係を
いくつかのニューロンを多層に接続したニューラルネッ
トに記憶させパターン認識を行なう装置であって、ニュ
ーラルネットの出力,ニューラルネットの内部状態のパ
ターン、及び学習済みのニューラルネットの内部状態の
パターンの相互関係に従いパターンを判定する手段を有
することを特徴とするパターン認識装置。
5. A device for performing pattern recognition, wherein desired output data for input data is used as teacher data, and input / output relationships of some teacher data are stored in a neural network in which several neurons are connected in a multi-layer. A pattern recognition device comprising means for determining a pattern in accordance with a mutual relationship between a net output, a pattern of an internal state of a neural network, and a pattern of an internal state of a learned neural network.
【請求項6】入力データに対する望ましい出力データを
教師データとし、いくつかの教師データの入出力関係を
いくつかのニューロンを多層に接続したニューラルネッ
トに記憶させたものでパターン認識を行なう装置であっ
て、ニューラルネットの内部状態によりパターンを判定
する手段を有することを特徴とするパターン認識装置。
6. A device for performing pattern recognition by using desired output data for input data as teacher data, and storing input / output relationships of some teacher data in a neural network in which several neurons are connected in multiple layers. And a pattern recognition device having means for determining a pattern based on the internal state of the neural network.
JP3334721A 1991-12-18 1991-12-18 Method and device for pattern recognition using neural network Pending JPH05165971A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3334721A JPH05165971A (en) 1991-12-18 1991-12-18 Method and device for pattern recognition using neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3334721A JPH05165971A (en) 1991-12-18 1991-12-18 Method and device for pattern recognition using neural network

Publications (1)

Publication Number Publication Date
JPH05165971A true JPH05165971A (en) 1993-07-02

Family

ID=18280477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3334721A Pending JPH05165971A (en) 1991-12-18 1991-12-18 Method and device for pattern recognition using neural network

Country Status (1)

Country Link
JP (1) JPH05165971A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020196549A1 (en) * 2019-03-26 2020-10-01 日本電信電話株式会社 Error determination device, error determination method, and program
JP2020537787A (en) * 2017-10-19 2020-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Use of neural networks

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020537787A (en) * 2017-10-19 2020-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Use of neural networks
WO2020196549A1 (en) * 2019-03-26 2020-10-01 日本電信電話株式会社 Error determination device, error determination method, and program
JP2020160642A (en) * 2019-03-26 2020-10-01 日本電信電話株式会社 Error determination device, error determination method and program

Similar Documents

Publication Publication Date Title
CN108960073B (en) Cross-modal image mode identification method for biomedical literature
US5245672A (en) Object/anti-object neural network segmentation
JP2940933B2 (en) Pattern recognition method
US7697765B2 (en) Learning method and device for pattern recognition
KR100442835B1 (en) Face recognition method using artificial neural network, and the apparatus using thereof
Ruta et al. Robust class similarity measure for traffic sign recognition
CN108921107A (en) Pedestrian's recognition methods again based on sequence loss and Siamese network
Delakis et al. Text detection with convolutional neural networks
CN111126482A (en) Remote sensing image automatic classification method based on multi-classifier cascade model
Doukim et al. Combining neural networks for skin detection
AU2021101613A4 (en) Multi-modal feature fusion–based fingerprint liveness detection method
CN113011513B (en) Image big data classification method based on general domain self-adaption
Murino Structured neural networks for pattern recognition
Cho et al. A comparison of rule-based, k-nearest neighbor, and neural net classifiers for automated industrial inspection
CN111898400A (en) Fingerprint activity detection method based on multi-modal feature fusion
JPH05165971A (en) Method and device for pattern recognition using neural network
CN114387612A (en) Human body weight recognition method and device based on bimodal feature fusion network
KR100621883B1 (en) An adaptive realtime face detecting method based on training
Phookronghin et al. 2 Level simplified fuzzy ARTMAP for grape leaf disease system using color imagery and gray level co-occurrence matrix
Abhila et al. A deep learning method for identifying disguised faces using AlexNet and multiclass SVM
Sruthy A review of Fake Currency Recognition Methods
JPH05282457A (en) Subject recognizing method
Bazanov et al. Hybrid and parallel face classifier based on artificial neural networks and principal component analysis
JPH03294983A (en) Character recognizing device
JPH09231079A (en) Fuzzy inference system and fuzzy rule organization system