JPH041870A - Method and device for recognizing pattern - Google Patents

Method and device for recognizing pattern

Info

Publication number
JPH041870A
JPH041870A JP2101837A JP10183790A JPH041870A JP H041870 A JPH041870 A JP H041870A JP 2101837 A JP2101837 A JP 2101837A JP 10183790 A JP10183790 A JP 10183790A JP H041870 A JPH041870 A JP H041870A
Authority
JP
Japan
Prior art keywords
output
value
recognition
confidence
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2101837A
Other languages
Japanese (ja)
Other versions
JP2778194B2 (en
Inventor
Keiji Yamada
山田 敬嗣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2101837A priority Critical patent/JP2778194B2/en
Publication of JPH041870A publication Critical patent/JPH041870A/en
Application granted granted Critical
Publication of JP2778194B2 publication Critical patent/JP2778194B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To improve reliability for the result of recognition by comparing assurance with a threshold value to define an output result as the result of recognition when the assurance is larger than the threshold value and to reject the result of recognition vice versa. CONSTITUTION:An output signal corresponding to each category is obtained from a pattern to be inputted or the pattern feature value with use of a multi- layer type neural circuit network. Then the maximum category is defined as the result of recognition. Furthermore the assurance R is calculated from an entire vector of the output value. When the assurance R is larger than the threshold value, the category having the maximum output value is selected as the result of recognition. Meanwhile a rejection signal is outputted when the R is smaller than the threshold value. Thus the uncertain result of recognition can be rejected and the reliability of the result of recognition is improved.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、多層構造の神経回路モデルを用いたパターン
認識装置において、神経回路網の出力信号から計算した
確信度に従って、認識結果のみならずリジェクト信号を
出力するパターン認識方法および装置に関するものであ
る。
[Detailed Description of the Invention] [Industrial Application Field] The present invention provides a pattern recognition device using a multi-layered neural network model, in which not only the recognition result but also the recognition result is calculated according to the certainty factor calculated from the output signal of the neural network. The present invention relates to a pattern recognition method and device that outputs a reject signal.

〔従来の技術〕[Conventional technology]

従来、多層神経回路網を用いたパターン認識では、パタ
ーンや特徴量を入力し、文献(“A Neu−ral 
Network Digit Recognition
” by D、J、Burr :JEERIntern
ational Conference on Sys
tem、 Manand Cybernetics :
 1986. pp、1621−1625)に示される
ように、各要素がカテゴリへの類似度を表現するような
ベクトル量として出力信号を得る。多くの場合、出力信
号の要素は、0から1の数値または−1から1の数値と
して表現されている。ベクトル量の要素の中で最大の値
を取る要素が表すカテゴリを認識結果とするものである
Conventionally, in pattern recognition using multilayer neural networks, patterns and feature quantities are input, and the literature (“A Neu-ral
Network Digit Recognition
” by D, J, Burr: JEERIntern
ational Conference on Sys.
tem, Manand Cybernetics:
1986. The output signal is obtained as a vector quantity in which each element expresses the degree of similarity to a category, as shown in (pp, pp. 1621-1625). Often, the elements of the output signal are expressed as numbers between 0 and 1 or between -1 and 1. The recognition result is the category represented by the element that takes the maximum value among the elements of the vector quantity.

パターンvlWA装置では、認識対象でないパターンが
入力されたり、2つのカテゴリのうちのどちらともわか
らないようなパターンが入力されることがある。このよ
うな場合には、無理に認識結果を求めるよりは、認識不
能としてリジェクトする方が認識結果の信鯨性を高める
ことができる。
In the pattern vlWA device, a pattern that is not a recognition target may be input, or a pattern that cannot be recognized as one of two categories may be input. In such a case, it is better to reject the recognition result as unrecognizable than to forcefully obtain the recognition result, thereby increasing the credibility of the recognition result.

そのため従来のパターン認識装置では、パターンの整合
度を入力パターンと各カテゴリ毎の標準パターンとの類
似度で評価し、最も類似度が高いカテゴリを認識結果と
するなどの方法がある。このような方法では、第1位候
補の類似度が成る一定値以上に達しないとリジェクトし
たり、1位候補と2位候補との類似度の差が成る一定値
以上ないとリジェクトするなどの方法が取られている。
Therefore, in conventional pattern recognition devices, there is a method in which the degree of matching of patterns is evaluated by the degree of similarity between an input pattern and a standard pattern for each category, and the category with the highest degree of similarity is determined as a recognition result. In such a method, a candidate is rejected if the similarity of the first candidate does not reach a certain value or more, or it is rejected if the difference in similarity between the first candidate and the second candidate does not exceed a certain value, etc. A method is being taken.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

神経回路網を用いたパターン認識方法においては、出力
信号は上限下限を持つ値を要素として持つベクトル値で
あるが、この値は従来のパターン認識方法に見られる類
似度とは異なり、上記の従来のリジェクト方法を用いた
場合には、認識誤りとリジェクトの双方を減らすように
しきい値を設定することは困難であり、本来正しく認識
されているパターンの多くがリジェクトされてしまう。
In pattern recognition methods using neural networks, the output signal is a vector value whose elements are values with upper and lower limits, but this value is different from the similarity seen in conventional pattern recognition methods; When using the above rejection method, it is difficult to set a threshold to reduce both recognition errors and rejections, and many patterns that are originally correctly recognized end up being rejected.

上記のような従来のパターン認識方法におけるリジェク
ト方法では、1位候補の値のみを用いているか、または
2位候補までの値を用いている。
In the rejection method in the conventional pattern recognition method as described above, only the value of the first candidate or the values up to the second candidate are used.

これでは、非常に似た複数のパターンを分類する場合に
はリジェクトが多く発生してしまう。またこのような方
法では、2つ以上の候補の類似度などの値を統一的に評
価してリジェクトを行うことはできない。
This results in many rejections when classifying multiple very similar patterns. Further, with such a method, it is not possible to uniformly evaluate the values such as similarity of two or more candidates and reject them.

本発明の目的は、神経回路網の出力信号であるベクトル
値から認識結果の確信度を求め、その値としきい値とを
比較判定して認識結果を出力するか、あるいはリジェク
ト信号を出力することができるパターン認識方法および
装置を提供することにある。
An object of the present invention is to obtain the confidence level of a recognition result from a vector value that is an output signal of a neural network, compare that value with a threshold value, and output a recognition result or output a reject signal. The object of the present invention is to provide a pattern recognition method and device that can perform the following steps.

〔課題を解決するための手段〕[Means to solve the problem]

第1の発明は、多層構造の神経回路網を用いたパターン
認識方法において、 入力パターンまたは入力パターンから抽出された特徴量
を入力して、多層構造の神経回路網によってカテゴリを
表す出力ベクトルに変換し、その出力ベクトルから、1
つの要素だけが値域の上限値の近くになり、その他の要
素は値域の下限値の近くであるときに確信度が最大とな
るように確信度を計算し、その確信度をしきい値と比較
して、しきい値よりも大きい場合には出力結果を認識結
果とし、確信度がしきい値よりも小さい場合にはリジェ
クトすることを特徴とする特 第2の発明は、多層構造の神経回路網を用いたパターン
認識装置において、 入力データからカテゴリを表す出力ベクトル信号へと変
換する神経回路網を実現する手段と、出力ベクトル信号
のうちで最大値を持つカテゴリを検出する手段と、 出力ベクトル信号が、1つの要素だけが値域の上限値の
近くになり、その他の要素は値域の下限値の近くである
ときに確信度が最大となるように確信度を計算する手段
と、 確信度がしきい値より大きい場合には最大値検出部の出
力をもって認識結果とし、確信度がしきい値以下の場合
にはリジェクトとして判定する手段とを備え、 認識結果またはリジェクト信号を出力することを特徴と
する。
The first invention is a pattern recognition method using a multilayer neural network, in which an input pattern or a feature extracted from the input pattern is input and converted into an output vector representing a category by the multilayer neural network. And from that output vector, 1
Calculate the confidence such that the confidence is maximum when only one element is near the upper bound of the range and the other elements are near the lower bound of the range, and compare that confidence with a threshold The second invention is characterized in that the output result is recognized as a recognition result when the confidence level is larger than the threshold value, and is rejected when the confidence level is smaller than the threshold value. In a pattern recognition device using a network, means for realizing a neural network that converts input data into an output vector signal representing a category, a means for detecting a category having a maximum value among the output vector signals, and an output vector. means for calculating the confidence such that the confidence is maximized when only one element of the signal is near the upper limit of the range and the other elements are near the lower limit of the range; It is characterized by comprising means for determining that the output of the maximum value detection unit is the recognition result when it is larger than the threshold value, and as a rejection when the confidence level is less than the threshold value, and outputting the recognition result or a rejection signal. shall be.

第3の発明は、多層構造の神経回路網を用いたパターン
認識装置において、 入力データからカテゴリを表す出力ベクトル信号へと変
換する神経回路網を実現する手段と、出力信号を降順に
ソートする手段と、 ソートされた結果の最大値のカテゴリを記憶する手段と
、 ソートされた出力ベクトル信号のうちの上位の一定個数
の要素において、第1位の要素だけが値域の上限値の近
くになり、その他の要素は値域の下限値の近くであると
きに確信度が最大となるように確信度を計算する手段と
、 確信度がしきい値より大きい場合には最大値カテゴリ記
憶部の内容をもって認識結果とし、確信度がしきい値以
下の場合にはリジェクトとして判定する手段とを備え、 認識結果またはリジェクト信号を出力することを特徴と
する。
A third invention is a pattern recognition device using a multilayered neural network, which includes means for realizing a neural network that converts input data into an output vector signal representing a category, and a means for sorting the output signals in descending order. and means for storing the category of the maximum value of the sorted results; and among the fixed number of high-order elements of the sorted output vector signal, only the first-ranked element is near the upper limit of the range; Other elements include means for calculating confidence so that the confidence is maximized when it is near the lower limit of the value range, and recognition based on the contents of the maximum value category storage unit when the confidence is greater than a threshold value. The method is characterized in that it includes a means for determining that the recognition result is rejected when the confidence level is less than a threshold value, and outputs a recognition result or a rejection signal.

〔作用〕[Effect]

第1の発明であるパターン認識方法では、多層型の神経
回路網を用いて、入力されるパターンまたはパターンの
特徴量から各カテゴリに対応する出力信号を求め、その
最大値をもつカテゴリを認識結果として定める。さらに
、出力値のベクトル全体から以下の式を用いて確信度を
計算する。ここで、認識対象のカテゴリ数をNとして、
神経回路網からの出力ベクトルをPi  (1≦i≦N
、  0≦Pi≦1)、α、βを係数とすると、確信度
Rは、 ・ ・ ・(1) として求める。この値は、1つの値だけが上限値lに近
く、他の全ての値が下限値0に近いときに最大値を取り
、最大値を持つ要素Piが1から離れたり、第2位以下
の要素が最大値に接近した場合に、Rは小さくなる。そ
の値Rがしきい値よりも大きい場合には、最大の出力値
を持つカテゴリを認識結果として選択し、Rがしきい値
よりも小さい場合にはリジェクト信号を出力することに
より、不確かな認識結果をリジェクトすることができる
The pattern recognition method, which is the first invention, uses a multilayer neural network to obtain an output signal corresponding to each category from the input pattern or feature amount of the pattern, and selects the category with the maximum value as the recognition result. Established as Furthermore, the confidence level is calculated from the entire vector of output values using the following formula. Here, the number of categories to be recognized is N,
The output vector from the neural network is Pi (1≦i≦N
, 0≦Pi≦1), α, and β are coefficients, the confidence level R is obtained as follows. This value takes the maximum value when only one value is close to the upper limit l and all other values are close to the lower limit 0, and if the element Pi with the maximum value is away from 1 or R becomes smaller when the element approaches its maximum value. If the value R is larger than the threshold value, the category with the maximum output value is selected as the recognition result, and if R is smaller than the threshold value, a reject signal is output, so that uncertain recognition can be avoided. Results can be rejected.

第2の発明であるパターン認識装置では、神経回路網の
出力ベクトルの全ての要素値から式(1)に従った演算
を実行する手段と、得られた確信度の値をしきい値と比
較して認識結果を出力するかリジェクトを行うかを判定
する手段とを備えることにより、不確かな認識結果をリ
ジェクトする。
The pattern recognition device, which is the second invention, includes means for performing an operation according to formula (1) from all element values of the output vector of the neural network, and comparing the obtained confidence value with a threshold value. and means for determining whether to output the recognition result or reject the recognition result, thereby rejecting an uncertain recognition result.

第3の発明であるパターン認識装置では、神経回路網の
出力ベクトル値を降順に並べて、その上位の一定個数の
値から式(1)に従って確信度を計算する手段と、得ら
れた確信度の値をしきい値と比較して認識結果を出力す
るかリジェクトを行うかを判定する手段を備えることに
より、認識結果に影響を与え得る出力値の上位のカテゴ
リの値から計算した確信度に従って不確かな認識結果を
リジェクトする。
The pattern recognition device, which is the third invention, includes means for arranging the output vector values of the neural network in descending order and calculating the confidence level from a certain number of higher-order values according to equation (1), and By providing a means for determining whether to output or reject the recognition result by comparing the value with a threshold value, uncertainty is calculated from the higher category values of the output value that may affect the recognition result. Reject recognition results.

〔実施例〕〔Example〕

以下、本発明の実施例である文字認識方法と装置を図面
を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A character recognition method and apparatus according to an embodiment of the present invention will be described below with reference to the drawings.

第1図は、本発明のパターン認識方法を説明する流れ図
を示す。認識対象となるパターンが入力され(ステップ
S 101)、次にそのパターンより特徴抽出がなされ
(ステップS 102)、ベクトル値に変換される。抽
出される特徴はどのようなものでもよく、文字認識の場
合ではガウスフィルタによる濃淡特徴や方向曲率を抽出
した特徴などがある。
FIG. 1 shows a flowchart illustrating the pattern recognition method of the present invention. A pattern to be recognized is input (step S101), and then features are extracted from the pattern (step S102) and converted into vector values. The extracted features may be of any type, and in the case of character recognition, they may include shading features using a Gaussian filter, features extracted from directional curvature, and the like.

また、特徴抽出をしない場合には、入力パターン自体を
特徴ベクトル値として扱うことも可能である。−例とし
て、第2図を参照してガウスフィルタによる文字パター
ンの特徴抽出方法を説明する。
Furthermore, when feature extraction is not performed, it is also possible to treat the input pattern itself as a feature vector value. - As an example, a method of character pattern feature extraction using a Gaussian filter will be explained with reference to FIG.

フィルタリング部203において、白黒の二値画像とし
て入力された文字パターン201に、5×5マトリクス
で与えられたガウスフィルタ202を畳み込む。入カニ
値画像を32画素×42西素の二値画像B (i、j)
、5X5フイルタをF(k、l)、結果の多値画像をG
(i、j)とすると、G(i、j) ・(2) なる式に従って計算が実行する。その結果のG(i、j
)は、リサンプリング部204で9×11の99個のデ
ータに間引かれ、濃淡特徴になる。第2図の濃淡時@2
06は、このデータを表示したもので、1つ1つの要素
の値を丸の大きさで示している。
In the filtering unit 203, a Gaussian filter 202 given in a 5×5 matrix is convolved with the character pattern 201 input as a black and white binary image. The input value image is converted into a binary image B (i, j) of 32 pixels x 42 pixels.
, 5×5 filter as F(k,l), and the resulting multivalued image as G
(i, j), calculation is performed according to the formula G(i, j) (2). The resulting G(i, j
) is thinned out to 99 pieces of data (9×11) by the resampling unit 204, and becomes a grayscale feature. Fig. 2 shading @2
06 is a display of this data, and the value of each element is indicated by the size of the circle.

次に特徴ベクトル値は、多層神経回路網を用いて出力値
に変換する(ステップS 103)。計算方法を第3図
を用いて説明する。第3図では、第0層から第2層まで
の3層構造の神経回路網の計算方法を説明するが、本発
明では、3層構造に限るものではなく、2層のものや4
層以上のものにも容易に拡張が可能である。
Next, the feature vector value is converted into an output value using a multilayer neural network (step S103). The calculation method will be explained using FIG. In FIG. 3, a calculation method for a neural network with a three-layer structure from the 0th layer to the 2nd layer will be explained.
It can be easily extended to more than just layers.

第3図では、第1図のステップ3102によって抽出さ
れた特徴ベクトル値を多層神経回路網に入力し、第0層
のベクトル値とする(ステップ5301)。次に、以下
の式(3)に従って第0層ベクトル値から第1層のマト
リクス積を計算する(ステップS 302)。第0層の
ベクトル値をo=’(1≦1≦N o )とし、第1層
重みマトリクス値をW==’(1≦i≦N0.1≦j≦
N、) 、計算結果のベクトル値をo=’(1≦j≦N
、)とすると、0.1  = Σ  (o4’Xw 点
Jl)  十 01厘           (3)と
なる。ただし、ここでθ、1はバイアス値である。次に
o、’(1≦j≦N、)の各々に対して以下の式(4)
に従ってS関数を計算する(ステップ5303)。
In FIG. 3, the feature vector value extracted in step 3102 of FIG. 1 is input to the multilayer neural network and is set as the vector value of the 0th layer (step 5301). Next, the first layer matrix product is calculated from the zero layer vector values according to the following equation (3) (step S302). The vector value of the 0th layer is o=' (1≦1≦N o ), and the first layer weight matrix value is W==' (1≦i≦N0.1≦j≦
N, ), the vector value of the calculation result is o='(1≦j≦N
, ), then 0.1 = Σ (o4'Xw point Jl) 10 01 rin (3). However, here, θ, 1 is a bias value. Next, use the following equation (4) for each of o and '(1≦j≦N,)
The S function is calculated according to (step 5303).

o’J’ = 1/2 (1+tanh (oj’) 
)     (4)次に、第2層重みマトリクスをw、
、”(1≦j≦N、、t≦に≦NZ)とし、バイアス値
をθ−として、 okz=Σ (Oj、’ X Wjk”)+θ−(5)
なる計算を行う(ステップS 304)。さらに、o 
、 2(1≦に≦N z )は各々の式(6)に従って
S関数が計算される(ステップS 305)。
o'J' = 1/2 (1+tanh (oj')
) (4) Next, the second layer weight matrix is w,
," (1≦j≦N,, t≦≦NZ), and the bias value is θ-, okz=Σ (Oj,' X Wjk") + θ-(5)
A calculation is performed (step S304). Furthermore, o
, 2 (1≦and≦N z ), the S function is calculated according to each equation (6) (step S305).

o’−= 1/ 2 (1+tanh (oil”) 
]     (6)最後に、第2層のデータは出力信号
として出力される(ステップS 306)。
o'-= 1/2 (1+tanh (oil")
(6) Finally, the second layer data is output as an output signal (step S306).

ここで用いられる第1層および第2層の重みマトリクス
は、文献(“An Introduction to 
Cospu−ting with Neural Ne
ts″by R,P、Lippmann:IEEE。
The weight matrices of the first and second layers used here are described in the literature (“An Introduction to
Cospu-ting with Neural Ne
ts″by R,P,Lippmann: IEEE.

ASSP: April 1987. pp、4−22
)に示されるような方法で予め学習により決定しである
ものとする。
ASSP: April 1987. pp, 4-22
) is determined in advance through learning.

次に、出力データo’h”(1≦に≦N、)の中から、
最大値を求める。その番号を最大値カテゴリとする(ス
テップS 104)。
Next, from the output data o'h'' (1≦to≦N,),
Find the maximum value. The number is set as the maximum value category (step S104).

また、式(1)に従って出力データから確信度Rが計算
される(ステップS 105)。ここで、出力データは
N次元のベクトルで、ベクトルの要素Pi(1≦i≦N
)は、それぞれOから1までの値をとるとする。このパ
ターン認識方法を、数字認識のために用いる場合には、
10個の文字を認識対象とするためNの値は10と設定
し、英数字を認識対象とする場合には、大文字26文字
、小文字26文字。
Furthermore, the certainty factor R is calculated from the output data according to equation (1) (step S105). Here, the output data is an N-dimensional vector, and the vector element Pi (1≦i≦N
) take values from O to 1, respectively. When using this pattern recognition method for number recognition,
Since 10 characters are to be recognized, the value of N is set to 10, and when alphanumeric characters are to be recognized, 26 uppercase letters and 26 lowercase letters.

数字10文字を認識するため、Nの値を62に設定する
。また、式(1)の係数α、βをそれぞれlとした。
In order to recognize 10 numeric characters, the value of N is set to 62. Further, the coefficients α and β in equation (1) were each set to l.

これは、本質的な問題ではなく他の値を取ることも可能
である。また、式(1)では、出力データの各要素がO
から1までの値を仮定したが、−1から1の場合や、さ
らに−船釣に出力データの各要素がaからbまでの値を
とる場合にも容易に拡張でき以下の式(7)で表現でき
る。
This is not an essential problem, and other values are also possible. Also, in equation (1), each element of the output data is O
Although we assumed a value from -1 to 1, it can be easily extended to the case where each element of the output data takes a value from a to b in -boat fishing, as shown in equation (7) below. It can be expressed as

R=−a Σ (P 1−a)  (b−P i)−β
 (Σ ((P 1−a)/ (b−a)  )・ ・
 ・(7) 次に、計算された確信度Rとしきい値Tとを比較して(
ステップS 106)、Rがしきい値以上ならばステッ
プ5107へ進み、ステップ5104で求められた最大
値のカテゴリ番号を出力し、Rがしきい値未満ならばス
テップ5108へすすみ、リジェクト信号である0を出
力する。しきい値Tの値は便宜上0.1とするが、これ
は本質的なものではなくどのような値でもよい。以上の
ステップで1パターンの認識処理を終了する。
R=-a Σ (P 1-a) (b-P i)-β
(Σ ((P 1-a)/ (ba-a) )・・
・(7) Next, compare the calculated confidence R and the threshold T and calculate (
Step S106): If R is greater than or equal to the threshold, proceed to step 5107, and output the maximum category number obtained in step 5104; if R is less than the threshold, proceed to step 5108, which is a reject signal. Outputs 0. Although the value of the threshold T is assumed to be 0.1 for convenience, this is not essential and may be any value. The above steps complete the recognition process for one pattern.

次に第4図、第5図、第6図を参照して、第2の発明の
パターン認識装置の一実施例について説明する。
Next, an embodiment of the pattern recognition device of the second invention will be described with reference to FIGS. 4, 5, and 6.

第4図は、文字認識装置の全体のブロック図を示す。こ
の文字認識装置は、特徴抽出部402と、認識部403
と、コード生成部404とから構成されている。
FIG. 4 shows an overall block diagram of the character recognition device. This character recognition device includes a feature extraction section 402 and a recognition section 403.
and a code generation unit 404.

認識対象となる文字パターンは、端子401より入力さ
れ、特徴抽出部402において特徴ベクトルに変換され
る。この特徴抽出部は、本発明において本質的な問題で
はなく、従来の文字認識装置において用いられる方向特
徴、輪郭の曲率方向特徴などを用いてもよい。特徴抽出
部402で抽出されベクトルに変換された特徴データは
、認識部403に送られ、認識処理が行われ出力信号に
変換される。この出力信号は、1からNのうちの認識結
果のカテゴリ番号、またはリジェクトを表す番号Oとす
る。Nは、認識対象のカテゴリ数である。この出力信号
はコード生成部404に送られて、認識結果がJISコ
ードなどの文字コードに変換され端子405より出力さ
れる。
A character pattern to be recognized is input from a terminal 401 and converted into a feature vector by a feature extraction unit 402. This feature extraction unit is not an essential problem in the present invention, and the direction feature, contour curvature direction feature, etc. used in conventional character recognition devices may be used. The feature data extracted by the feature extraction unit 402 and converted into a vector is sent to the recognition unit 403, where it undergoes recognition processing and is converted into an output signal. This output signal is the category number of the recognition result from 1 to N, or the number O representing reject. N is the number of categories to be recognized. This output signal is sent to a code generation section 404, and the recognition result is converted into a character code such as a JIS code and outputted from a terminal 405.

認識部403の一例を第5図を用いて説明する。An example of the recognition unit 403 will be explained using FIG. 5.

この認識部は、多層神経回路網計算部501と、出力デ
ータ記憶部502と、最大カテゴリ検出部503と、確
信度計算部504と、認識結果・リジェクト判定部50
5とから構成されている。
This recognition unit includes a multilayer neural network calculation unit 501, an output data storage unit 502, a maximum category detection unit 503, a certainty calculation unit 504, and a recognition result/rejection determination unit 50.
It consists of 5.

特徴抽出部402で求められた特徴データは、多層神経
回路網計算部501に転送され、認識処理が行われて出
力ベクトルに変換される。ここでの出力ベクトルは、そ
の要素のそれぞれが認識対象のカテゴリのスコアを表し
ており、出力ベクトルの次元数Nは、認識対象とするカ
テゴリ数に等しい。
The feature data obtained by the feature extraction unit 402 is transferred to the multilayer neural network calculation unit 501, where it is subjected to recognition processing and converted into an output vector. Each element of the output vector here represents the score of the category to be recognized, and the number of dimensions N of the output vector is equal to the number of categories to be recognized.

多層神経回路網計算部501の一例を第6図を用いて説
明する。この例では、3層型のモデルを用いているが、
これは本質的な問題ではなく、2層のもの、4層以上の
モデルを用いた場合、またはそれ以外の結合形式の神経
回路モデルを用いた場合でも容易に拡張が可能である。
An example of the multilayer neural network calculation unit 501 will be explained using FIG. 6. In this example, a three-layer model is used, but
This is not an essential problem, and it can be easily extended even when using a two-layer model, a model with four or more layers, or a neural circuit model with other combination types.

この多層神経回路網計算部は、マトリクス積演算部60
1 と、S関数部602と、中間層記憶部603と、マ
トリクス積演算部604と、S−関数部605と、第1
層重みマトリクス記憶部606と、第2層重みマトリク
ス記憶部607とから構成されている。
This multilayer neural network calculation unit includes a matrix product calculation unit 60
1, the S function section 602, the intermediate layer storage section 603, the matrix product operation section 604, the S-function section 605, and the first
It is composed of a layer weight matrix storage section 606 and a second layer weight matrix storage section 607.

特徴抽出部402から入力されるベクトル値をoi’(
1≦i≦N、)とし、第1層重みマトリクス記憶部60
6に保持されるマトリクス値をWij(1≦i≦N6,
1≦j≦N1)、中間層記憶部603に保持されるベク
トル値を ’=’(1≦j≦N、)とすると、マトリク
ス積演算部601では、式(3)に従って計算を行う。
The vector value input from the feature extraction unit 402 is expressed as oi'(
1≦i≦N,), and the first layer weight matrix storage unit 60
Wij(1≦i≦N6,
1≦j≦N1), and the vector value held in the intermediate layer storage unit 603 is '=' (1≦j≦N,), then the matrix product calculation unit 601 performs calculation according to equation (3).

ただし、ここでθJ1 はバイアス値であり、第1層重
みマトリクス記憶部606に記憶される。結果のoJ+
(1≦j≦N、)は各々、S関数部602において式(
4)に従ってo″を求め、中間層記憶部603に記憶す
る。
However, here, θJ1 is a bias value and is stored in the first layer weight matrix storage unit 606. Result oJ+
(1≦j≦N,) are each expressed by the formula (
4), and store it in the intermediate storage unit 603.

第2層重みマトリクス記憶部607に記憶される重みマ
トリクスをwJm”(1≦j≦N、1≦に≦N2)とし
、この記憶部607に記憶されるバイアス値をθ−とす
るとマトリクス積演算部604では、式(5)を実現す
る計算を行う。結果の。−(l≦に≦N、)は各々、S
関数部605において式(6)に従った計算によりo′
1を求め、出力信号として出力され、出力データ記憶部
502に記憶される。
If the weight matrix stored in the second layer weight matrix storage section 607 is wJm'' (1≦j≦N, 1≦≦N2), and the bias value stored in this storage section 607 is θ-, matrix product operation is performed. The unit 604 performs calculations to realize equation (5).
In the function section 605, o' is calculated according to equation (6).
1 is calculated, outputted as an output signal, and stored in the output data storage section 502.

ここで用いられる重みマトリクスは予め学習により決定
されているものとする。また、S関数として式(4)1
式(6)を用いた場合には、関数の出力値は0から1の
間の小数値となる。
It is assumed that the weight matrix used here has been determined in advance through learning. Also, as the S function, equation (4) 1
When formula (6) is used, the output value of the function is a decimal value between 0 and 1.

出力データ記憶部502から読み出されたベクトパター
ンは最大カテゴリ検出部503に送られて最大値をもつ
要素が求められ、その要素の表すカテゴリ番号を認識結
果・リジェクト判定部505に送る。
The vector pattern read from the output data storage unit 502 is sent to the maximum category detection unit 503 to find the element with the maximum value, and the category number represented by that element is sent to the recognition result/rejection determination unit 505.

また、出力データ記憶部502から読み出されたベクト
ルデータは確信度計算部504にも送られる。
The vector data read from the output data storage unit 502 is also sent to the certainty calculation unit 504.

確信度計算部504では、式(1)に従った演算により
確信度Rを求める。
The reliability calculation unit 504 calculates the reliability R by calculation according to equation (1).

確信度計算部504で得られた値Rは認識結果リジェク
ト判定部505に送られ、しきい値Tと比較され、しき
い値Tよりも大きい場合には認識結果のカテゴリ番号が
コード生成部404へ転送され、確信度Rがしきい値T
よりも小さい場合には、リジェクト信号がコード生成部
404へ転送される。
The value R obtained by the certainty calculation unit 504 is sent to the recognition result rejection determination unit 505 and compared with a threshold T. If it is larger than the threshold T, the category number of the recognition result is changed to the code generation unit 404. and the confidence R is the threshold value T
If it is smaller than , a reject signal is transferred to code generation section 404 .

ここでは、カテゴリ番号として1からN(Nはカテゴリ
数)までの数値、リジェクト信号として数値0とする。
Here, the category number is a numerical value from 1 to N (N is the number of categories), and the reject signal is a numerical value 0.

次に、第3の発明の一実施例である文字認識装置を説明
する。
Next, a character recognition device which is an embodiment of the third invention will be described.

文字認識装置全体の構成は第3図に従い、認識部の構成
が第2の発明と異なる。本実施例における認識部700
を第7図に示す。この認識部700は、多層神経回路網
計算部701と、出力データ記憶部702と、データソ
ート部703と、最大カテゴリ検出部704と、確信度
計算部705と、認識結果・リジェクト判定部706と
から構成されている。
The overall structure of the character recognition device is according to FIG. 3, and the structure of the recognition section is different from that of the second invention. Recognition unit 700 in this embodiment
is shown in Figure 7. The recognition unit 700 includes a multilayer neural network calculation unit 701, an output data storage unit 702, a data sorting unit 703, a maximum category detection unit 704, a certainty calculation unit 705, and a recognition result/rejection determination unit 706. It consists of

入力パターンは、特徴抽出部402で、特徴ベクトルに
変換されて多層神経回路網計算部701に入力され認識
される。多層神経回路網計算部701での構成は、前述
の第6図での多層神経回路網計算部501の構成と同じ
である。そこからのN次元の出力データは、出力データ
記憶部702に保存される。ここで、Nは認識対象のカ
テゴリ数を表す。
The input pattern is converted into a feature vector by the feature extraction unit 402 and input to the multilayer neural network calculation unit 701 for recognition. The configuration of the multilayer neural network calculation section 701 is the same as the configuration of the multilayer neural network calculation section 501 shown in FIG. 6 described above. The N-dimensional output data therefrom is stored in the output data storage unit 702. Here, N represents the number of categories to be recognized.

出力データ記憶部702から読み出されたデータは、デ
ータソート部703において大きい値から順に並べ直さ
れる。最大値を持つカテゴリ番号は最大カテゴリレジス
タ704に記憶される。
The data read from the output data storage section 702 is rearranged in the data sorting section 703 in descending order of value. The category number with the maximum value is stored in maximum category register 704.

データソート部703から出力された大きい値のものか
ら順にM個の値は、確信度計算部705に入力され、 ・ ・ ・(8) に従った計算が実行される。ここで、MはNに比べて小
さな数とし、実施例では、手書き数字認識ではMを5と
し、英数字を認識対象とする場合にはMを10とした。
The M values output from the data sorting unit 703 are input to the certainty calculation unit 705 in descending order of value, and the calculation according to (8) is executed. Here, M is a smaller number than N; in the embodiment, M is set to 5 for handwritten numeric recognition, and M is set to 10 when alphanumeric characters are to be recognized.

このMの値は、本質的なものでなく他の値でもよい、ま
た、Piはデータソート部703の出力値で、iが小さ
いほどPiは大きな値をとる。α、βはそれぞれ1とし
た。
The value of M is not essential and may be any other value. Pi is the output value of the data sorting section 703, and the smaller i is, the larger Pi takes. α and β were each set to 1.

確信度計算部705で計算された確信度の値は、認識結
果・リジェクト判定部706に送られて、予め設定され
たしきい値Tよりも大きい場合には、認識結果として最
大カテゴリレジスタ内のカテゴリ番号を、さもない場合
にはりジエクト信号をコード生成部404に転送し、こ
こで認識結果の文字コードが生成され出力される。ここ
で、しきい値Tを0.1としたが、これ以外の数値でも
実現は可能である。
The confidence value calculated by the confidence calculation unit 705 is sent to the recognition result/rejection determination unit 706, and if it is larger than a preset threshold T, the confidence value calculated in the maximum category register is determined as the recognition result. The category number or, if not, the input signal is transferred to the code generation section 404, where the character code of the recognition result is generated and output. Here, the threshold value T is set to 0.1, but other values can also be used.

〔発明の効果〕〔Effect of the invention〕

以上の説明から明らかなように、本発明のパターン認識
方法および装置では、神経回路網での認識部から出力さ
れた各カテゴリのスコアが、その値の取り得る範囲を(
a、b)とした場合に、1つの要素だけがaの値を取り
、他の要素全てがbの値を取った場合に明確にaの値を
取ったカテゴリが認識結果として正しいものと出力され
る。全カテゴリのうちでの最大値が、範囲の上限aから
離れている場合や、最大値を取るカテゴリに、近い値を
とるカテゴリが複数個存在する場合に、確信度は減少し
、誤認識を起こしている確率の高い認識結果として、こ
の認識結果をリジェクトする。
As is clear from the above description, in the pattern recognition method and apparatus of the present invention, the score of each category output from the recognition unit in the neural network has a range of possible values (
a, b), if only one element takes the value a and all other elements take the value b, then the category that clearly takes the value a is output as the correct recognition result. be done. When the maximum value among all categories is far from the upper limit a of the range, or when there are multiple categories whose values are close to the category that takes the maximum value, the confidence level decreases and false recognition can be avoided. This recognition result is rejected as a recognition result with a high probability of occurrence.

リジェクトされた場合には、他の認識方法を起動したり
、人手によって認識結果を修正するなどして認識結果の
信軌度を高めることができる。
If the recognition result is rejected, the reliability of the recognition result can be increased by starting another recognition method or manually correcting the recognition result.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本願第1の発明のパターン認識方法の説明図
、 第2図は、特徴抽出部として、ガウスフィルタを用いた
場合の例を示す図、 第3図は、3層構造の神経回路網の計算方法の説明図、 第4図は、文字認識装置のブロック図、第5図は、認識
部の一例を示すブロック図、第6図は、多層神経回路網
計算部の一例を示すブロック図、 第7図は、認識部の他の例を示すブロック図である。 402 ・・・・・特徴抽出部 403 ・・・・・認識部 404  ・・・・・コード生成部 501、701・・・多層神経回路網計算部502、7
02・・・出力データ記憶部503 ・・・・・最大カ
テゴリ検出部504、705・・・確信度計算部 505、706・・・認識結果・リジェクト判定部70
3  ・・・・・データソート部 704  ・・・・・最大カテゴリレジスタ代理人 弁
理士  岩 佐  義 幸 禅2図 馬1図 糸3図 vi)6図 第5図 糸7図
FIG. 1 is an explanatory diagram of the pattern recognition method of the first invention of the present application, FIG. 2 is a diagram showing an example when a Gaussian filter is used as the feature extraction section, and FIG. 3 is a diagram showing a three-layer neural structure. 4 is a block diagram of a character recognition device; FIG. 5 is a block diagram showing an example of a recognition unit; and FIG. 6 is an example of a multilayer neural network calculation unit. Block Diagram FIG. 7 is a block diagram showing another example of the recognition unit. 402 ... Feature extraction section 403 ... Recognition section 404 ... Code generation section 501, 701 ... Multilayer neural network calculation section 502, 7
02...Output data storage unit 503...Maximum category detection unit 504, 705...Confidence calculation unit 505, 706...Recognition result/rejection determination unit 70
3 ... Data sorting section 704 ... Maximum category register agent Patent attorney Yoshi Iwasa Kozen 2 Figures Horse 1 Figure Thread 3 Figure vi) Figure 6 Figure 5 Thread 7

Claims (3)

【特許請求の範囲】[Claims] (1)多層構造の神経回路網を用いたパターン認識方法
において、 入力パターンまたは入力パターンから抽出された特徴量
を入力して、多層構造の神経回路網によってカテゴリを
表す出力ベクトルに変換し、その出力ベクトルから、1
つの要素だけが値域の上限値の近くになり、その他の要
素は値域の下限値の近くであるときに確信度が最大とな
るように確信度を計算し、その確信度をしきい値と比較
して、しきい値よりも大きい場合には出力結果を認識結
果とし、確信度がしきい値よりも小さい場合にはリジェ
クトすることを特徴とするパターン認識方法。
(1) In a pattern recognition method using a multilayered neural network, input patterns or features extracted from the input patterns are input, are converted into output vectors representing categories by the multilayered neural network, and are converted into output vectors representing categories. From the output vector, 1
Calculate the confidence such that the confidence is maximum when only one element is near the upper bound of the range and the other elements are near the lower bound of the range, and compare that confidence with a threshold A pattern recognition method characterized in that the output result is recognized as a recognition result when the confidence level is larger than a threshold value, and is rejected when the confidence level is smaller than the threshold value.
(2)多層構造の神経回路網を用いたパターン認識装置
において、 入力データからカテゴリを表す出力ベクトル信号へと変
換する神経回路網を実現する手段と、出力ベクトル信号
のうちで最大値を持つカテゴリを検出する手段と、 出力ベクトル信号が、1つの要素だけが値域の上限値の
近くになり、その他の要素は値域の下限値の近くである
ときに確信度が最大となるように確信度を計算する手段
と、 確信度がしきい値より大きい場合には最大値検出部の出
力をもって認識結果とし、確信度がしきい値以下の場合
にはリジェクトとして判定する手段とを備え、 認識結果またはリジェクト信号を出力することを特徴と
するパターン認識装置。
(2) In a pattern recognition device using a multilayered neural network, means for realizing a neural network that converts input data into an output vector signal representing a category, and a method for determining a category having the maximum value among the output vector signals. means for detecting the output vector signal; and a means for determining that the output of the maximum value detection unit is the recognition result when the confidence level is greater than the threshold value, and as a rejection when the confidence level is less than the threshold value, and the recognition result or A pattern recognition device characterized by outputting a reject signal.
(3)多層構造の神経回路網を用いたパターン認識装置
において、 入力データからカテゴリを表す出力ベクトル信号へと変
換する神経回路網を実現する手段と、出力信号を降順に
ソートする手段と、 ソートされた結果の最大値のカテゴリを記憶する手段と
、 ソートされた出力ベクトル信号のうちの上位の一定個数
の要素において、第1位の要素だけが値域の上限値の近
くになり、その他の要素は値域の下限値の近くであると
きに確信度が最大となるように確信度を計算する手段と
、 確信度がしきい値より大きい場合には最大値カテゴリ記
憶部の内容をもって認識結果とし、確信度がしきい値以
下の場合にはリジェクトとして判定する手段とを備え、 認識結果またはリジェクト信号を出力することを特徴と
するパターン認識装置。
(3) In a pattern recognition device using a multilayered neural network, means for realizing a neural network that converts input data into an output vector signal representing a category, a means for sorting the output signals in descending order, and sorting. means for storing the category of the maximum value of the sorted result, and among a fixed number of high-order elements of the sorted output vector signal, only the first-ranked element is near the upper limit of the range, and the other elements means for calculating the confidence so that the confidence is maximized when the confidence is near the lower limit of the value range, and when the confidence is greater than the threshold value, the content of the maximum value category storage unit is used as the recognition result; What is claimed is: 1. A pattern recognition device comprising means for determining a pattern as a reject when the degree of certainty is less than a threshold, and outputting a recognition result or a rejection signal.
JP2101837A 1990-04-19 1990-04-19 Pattern recognition method and apparatus Expired - Lifetime JP2778194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2101837A JP2778194B2 (en) 1990-04-19 1990-04-19 Pattern recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2101837A JP2778194B2 (en) 1990-04-19 1990-04-19 Pattern recognition method and apparatus

Publications (2)

Publication Number Publication Date
JPH041870A true JPH041870A (en) 1992-01-07
JP2778194B2 JP2778194B2 (en) 1998-07-23

Family

ID=14311187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2101837A Expired - Lifetime JP2778194B2 (en) 1990-04-19 1990-04-19 Pattern recognition method and apparatus

Country Status (1)

Country Link
JP (1) JP2778194B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19639884A1 (en) * 1995-09-27 1997-04-03 Hitachi Ltd System for identifying pattern
JP2012146199A (en) * 2011-01-13 2012-08-02 Nippon Steel Corp Sight line position detection device, sight line position detection method, and computer program
JP2017224184A (en) * 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS =1989 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19639884A1 (en) * 1995-09-27 1997-04-03 Hitachi Ltd System for identifying pattern
US5911002A (en) * 1995-09-27 1999-06-08 Hitachi, Ltd. Pattern recognition system
DE19639884C2 (en) * 1995-09-27 2000-09-21 Hitachi Ltd Pattern recognition system
JP2012146199A (en) * 2011-01-13 2012-08-02 Nippon Steel Corp Sight line position detection device, sight line position detection method, and computer program
JP2017224184A (en) * 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device

Also Published As

Publication number Publication date
JP2778194B2 (en) 1998-07-23

Similar Documents

Publication Publication Date Title
EP0355748A2 (en) A pattern recognition apparatus and method for doing the same
CN111046774A (en) Chinese signature handwriting identification method based on convolutional neural network
Sharma et al. Fuzzy based pooling in convolutional neural network for image classification
CN111401322A (en) Station entering and exiting identification method and device, terminal and storage medium
CN111444986A (en) Building drawing component classification method and device, electronic equipment and storage medium
CN114331946A (en) Image data processing method, device and medium
CN114913487A (en) Target recognition detection method based on multi-modal learning and related components
JP3083562B2 (en) Character recognition mechanism
CN111353514A (en) Model training method, image recognition method, device and terminal equipment
JP5004743B2 (en) Data processing device
JPH041870A (en) Method and device for recognizing pattern
US6694059B1 (en) Robustness enhancement and evaluation of image information extraction
Karras et al. A Hybrid Ensemble Deep Learning Approach for Emotion Classification
Jobaneh Fingerprint recognition using markov chain and kernel smoothing technique with generalized regression Neural network and adaptive resonance theory with mapping
US5333210A (en) Method and system for pattern analysis using a coarse-coded neural network
JP3222699B2 (en) Pattern recognition device
JP2950023B2 (en) Pattern recognition dictionary generation device and pattern recognition device
US5950180A (en) Process for the classification of objects
JP2880383B2 (en) Pattern recognition apparatus and method
CN116645727B (en) Behavior capturing and identifying method based on Openphase model algorithm
JPH02310782A (en) Fuzzy neuron
JP2682203B2 (en) Character recognition method
CN111695380B (en) Target detection method and device
JPH05303642A (en) Pattern recognition device
JPH06231256A (en) Fuzzy neuron for recognizing pattern

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090508

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100508

Year of fee payment: 12

EXPY Cancellation because of completion of term