JP2985893B2 - Pattern recognition device - Google Patents

Pattern recognition device

Info

Publication number
JP2985893B2
JP2985893B2 JP2229117A JP22911790A JP2985893B2 JP 2985893 B2 JP2985893 B2 JP 2985893B2 JP 2229117 A JP2229117 A JP 2229117A JP 22911790 A JP22911790 A JP 22911790A JP 2985893 B2 JP2985893 B2 JP 2985893B2
Authority
JP
Japan
Prior art keywords
pattern
standard
pixel
density gradient
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2229117A
Other languages
Japanese (ja)
Other versions
JPH04111085A (en
Inventor
泰生 藤田
真司 尾野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2229117A priority Critical patent/JP2985893B2/en
Publication of JPH04111085A publication Critical patent/JPH04111085A/en
Application granted granted Critical
Publication of JP2985893B2 publication Critical patent/JP2985893B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 発明の目的; (産業上の利用分野) 本発明は、紙葉類の模様や文字パターン等の認識に際
して、入力画像の濃淡情報に基づいて入力パターンの特
徴量を抽出し、この抽出された入力パターンの特徴量に
よってパターン認識するパターン認識装置に関する。
DETAILED DESCRIPTION OF THE INVENTION Object of the Invention; (Industrial Application Field) The present invention extracts a feature amount of an input pattern based on density information of an input image when recognizing a paper sheet pattern, a character pattern, or the like. The present invention also relates to a pattern recognition device that recognizes a pattern based on the extracted input pattern feature amount.

(従来の技術) 従来、紙葉類のパターンを認識するものとしては、紙
葉類の搬送路上にパターンを読取るセンサを設け、その
センサにより読取ったパターンと予め記憶されている基
準パターンとを比較し、紙葉類の真偽,種類を判別可能
とするものがある。
(Prior Art) Conventionally, as a device for recognizing a sheet pattern, a sensor for reading the pattern is provided on a sheet conveyance path, and a pattern read by the sensor is compared with a reference pattern stored in advance. In some cases, the authenticity and type of paper sheets can be determined.

又、紙葉類の中からパターンを抽出するために、セン
サから読取ったデータを一旦2値化してパターンと背景
部分を分離しておき、2値化されたパターンと予め記憶
されている基準パターンとを比較するようにしたものが
ある。
Further, in order to extract a pattern from a sheet, data read from the sensor is once binarized to separate the pattern from the background portion, and the binarized pattern and a reference pattern stored in advance are used. There is something to compare with.

(発明が解決しようとする課題) しかし、従来のパターン認識方法では、センサ系の変
動(光源の光量変化,センサの感度変化,アンプのゲイ
ン変動)が直接読取データに変動を与え、更にその変動
が基準パターンとの比較の際に直接影響を及ぼすため誤
認識する場合があり、その対処として各種の補正方式や
補正装置を組み込む必要があった。また、認識する媒体
(帳票)そのものが全体に色あせした場合や媒体上のパ
ターンがかすれている場合にも同じ問題が生じ、対処し
て補正する必要があった。このようにセンサ系の変動や
認識媒体の変動に対しても信号補正が必要なく、安定で
かつ認識精度が良くなる特徴量を用いた濃淡模様のパタ
ーン認識装置の出現が強く望まれていた。
(Problems to be Solved by the Invention) However, in the conventional pattern recognition method, fluctuations in the sensor system (a change in the light amount of the light source, a change in the sensitivity of the sensor, and a fluctuation in the gain of the amplifier) directly change the read data, and the fluctuations However, there is a case where recognition is erroneously performed because it directly affects the comparison with the reference pattern, and it is necessary to incorporate various correction methods and correction devices as a countermeasure. Further, the same problem occurs when the medium to be recognized (form) itself is faded as a whole or when the pattern on the medium is faint. Thus, there has been a strong demand for the emergence of a light and shade pattern recognition apparatus that uses a feature amount that does not require signal correction even for fluctuations in the sensor system and fluctuations in the recognition medium, and that is stable and improves recognition accuracy.

さらに、読取データを一旦2値化してパターンを分離
抽出して基準パターンと比較する場合も、センサ系に変
動が生じていたり、認識する媒体が色あせていたり、
又、認識媒体上に印字されているパターンがかすれてい
るときなどには、正しく2値化が行なえないためパター
ンを正確に分離抽出できず、例えばパターンの部分をパ
ターンでない背景部分と判断して分離してしまうことが
あり、これによりパターンを誤認識し問題となってい
た。
Further, when the read data is once binarized and the pattern is separated and extracted and compared with the reference pattern, a fluctuation occurs in the sensor system, the medium to be recognized is faded,
Further, when the pattern printed on the recognition medium is blurred, the pattern cannot be accurately separated and extracted because the binarization cannot be performed correctly. For example, the pattern portion is determined as a background portion that is not a pattern. In some cases, the patterns are separated, which causes a problem of misrecognition of the pattern.

本発明は上述のような問題に鑑みてなされたものであ
り、本発明の目的は、紙葉類の模様や文字パターンの認
識に際して、一旦入力画像から濃淡情報を求め、その濃
淡情報に求づいて入力パターンの特徴量を抽出し、抽出
された入力パターンの特徴量を用いてパターン認識を行
ない、認識率の低下をもたらすことなく、しかも高速で
パターン認識を可能とするパターン認識装置を提供する
ことにある。
The present invention has been made in view of the above-described problems, and an object of the present invention is to obtain shading information from an input image once when recognizing a paper sheet pattern or a character pattern, and to obtain the shading information. Provided is a pattern recognition device that extracts a feature amount of an input pattern by using the extracted feature amount of the input pattern and performs pattern recognition using the extracted feature amount of the input pattern, thereby enabling high-speed pattern recognition without lowering the recognition rate. It is in.

発明の構成; (課題を解決するための手段) 本発明はパターン認識装置に関するもので、本発明の
上記目的は、被認識パターンを画像入力する画像入力手
段と、この画像入力手段から入力された画像データの各
画素に対して重み付け画素から成る複数のマスクを用い
て演算することにより前記画像データの各画素から濃度
勾配方向成分及び濃度勾配強度成分で成る画素成分を抽
出する画素成分抽出手段と、前記画素成分抽出手段で抽
出された濃度勾配方向毎の濃度勾配強度の総和を特徴量
として抽出する特徴量抽出手段と、認識すべきパターン
の基準となる標準パターンの特徴量を予め記憶した記憶
手段と、前記特徴量抽出手段で抽出された被認識パター
ンの特徴量及び前記記憶手段に記憶されている標準パタ
ーンの特徴量を比較照合し、その比較結果に基づいて前
記被認識パターンがどの標準パターンであるかを判別す
る比較照合手段とを設けることによって達成される。
The present invention relates to a pattern recognition device, and an object of the present invention is to provide an image inputting means for inputting an image of a pattern to be recognized, and an image inputting means for inputting from the image inputting means. Pixel component extraction means for calculating a pixel component consisting of a density gradient direction component and a density gradient intensity component from each pixel of the image data by performing an arithmetic operation on each pixel of the image data using a plurality of masks composed of weighted pixels; A feature amount extracting unit that extracts, as a feature amount, a sum of density gradient intensities for each density gradient direction extracted by the pixel component extracting unit; and a storage unit that stores in advance a feature amount of a standard pattern to be a reference of a pattern to be recognized. Means, comparing and matching the feature amount of the pattern to be recognized extracted by the feature amount extracting means and the feature amount of the standard pattern stored in the storage means, On the basis of the comparison result is achieved by providing a comparison match means for determining whether the recognition pattern is any standard pattern.

(作用) 本発明は小切手,手形等にチェックライタで記入され
た数字や紙幣の模様等を確実に認識するための装置を提
供している。
(Operation) The present invention provides an apparatus for reliably recognizing a number, a bill pattern, or the like written on a check, a bill, or the like with a check writer.

請求項1の発明では、画像入力手段と、画素成分抽出
手段と、特徴量抽出手段と、記憶手段と、比較照合手段
とを具備しており、画素成分抽出手段によって画像入力
手段で入力された画像データから濃淡に関する濃度勾配
の方向と強度を抽出し、これらを基にして特徴量抽出手
段で特徴量を抽出し、この特徴量の比較照合によって被
認識パターンを認識するようにしている。
According to the first aspect of the present invention, the image processing apparatus includes an image input unit, a pixel component extraction unit, a feature amount extraction unit, a storage unit, and a comparison and collation unit. The direction and intensity of the density gradient relating to shading are extracted from the image data, and the feature amount is extracted by the feature amount extracting means based on the direction, and the pattern to be recognized is recognized by comparing and comparing the feature amounts.

請求項2の発明では、請求項1の特徴量抽出手段をエ
リア区分手段と特徴量抽出手段とに分けており、m×n
のメッシュ毎の濃度勾配情報を特徴量として比較照合す
るようにしている。
According to a second aspect of the present invention, the feature quantity extracting means of the first aspect is divided into an area dividing means and a feature quantity extracting means, and m × n
The density gradient information for each mesh is compared and compared as a feature amount.

(実施例) 以下に本発明の実施例を説明する。(Example) An example of the present invention will be described below.

本実施例は小切手,手形等に記入されている金額を認
識するためのものであり、最終的に認識すべき文字の種
類は数字の「0〜9」及び円記号「¥」,「*」等の終
桁符号の12種類である。第2図(A)は手形の一例を示
しており、中央部にチェックライタで金額を記入するた
めの金額記入欄1が設けられている。また、第2図
(B)は小切手の一例を示しており、中央部にチェック
ライタで金額を記入するための金額記入欄4が設けられ
ている。本発明は、これら手形又は小切手等の金額記入
欄(1,4)にチェックライタで記入される数字,円記号
及び「*」等の終桁符号を認識するものである。
This embodiment is for recognizing the amount of money written on a check, a bill or the like, and the types of characters to be finally recognized are numbers "0 to 9" and yen symbols "@" and "*". There are 12 types of end digit codes such as. FIG. 2 (A) shows an example of a bill, and an amount entry column 1 for entering an amount with a check writer is provided in the center. FIG. 2B shows an example of a check, and an amount entry column 4 for entering an amount with a check writer is provided in the center. The present invention recognizes numbers, yen symbols, and last digit codes such as "*" to be entered by a check writer in the amount entry fields (1, 4) of these bills or checks.

先ず本発明の一実施例を第1図に示して説明すると、
イメージセンサ等の画像入力手段10は被認識パターンを
画像入力し、画像入力情報を前処理手段11で前処理(ス
ムージング)して画素成分抽出手段20に入力し、入力さ
れた画像データの各画素毎の濃度勾配方向成分及び濃度
勾配強度成分から成る画素成分を抽出する。画素成分の
抽出が終了すると特徴量抽出手段による処理に移る。特
徴量抽出手段30は画像入力手段10で入力された画像をm
×nのメッシュに区分し、区分されたエリア毎に画素成
分抽出手段20で抽出された濃度勾配方向成分毎の濃度勾
配強度成分の総和を抽出して被認識パターンの特徴量と
する。記憶手段50は大分類辞書51及び中分類辞書52で成
っており、比較照合手段40は特徴量抽出手段30で抽出さ
れた特徴量及び記憶手段50に記憶されている標準パター
ンの特徴量を比較照合し、その比較結果に基づいて認識
結果を出力するようになっている。
First, one embodiment of the present invention will be described with reference to FIG.
An image input means 10 such as an image sensor inputs an image of a pattern to be recognized, pre-processes (smooths) image input information by a pre-processing means 11 and inputs the same to a pixel component extracting means 20. A pixel component composed of a density gradient direction component and a density gradient intensity component is extracted for each component. When the extraction of the pixel components is completed, the processing shifts to the processing by the feature amount extracting means. The feature amount extraction means 30 converts the image input by the image input means 10 into m
Xn meshes, and the sum of the density gradient intensity components for each of the density gradient direction components extracted by the pixel component extraction means 20 is extracted for each of the divided areas and used as the feature amount of the pattern to be recognized. The storage means 50 comprises a large classification dictionary 51 and a medium classification dictionary 52, and the comparison / matching means 40 compares the characteristic amounts extracted by the characteristic amount extraction means 30 with the characteristic amounts of the standard patterns stored in the storage means 50. Collation is performed, and a recognition result is output based on the comparison result.

次に、本発明の認識に用いる認識用辞書について説明
する。
Next, a recognition dictionary used for recognition according to the present invention will be described.

第3図は認識用辞書の作成動作を示す概略フローであ
り、第3図において、初めに標準パターン毎の標準特徴
量の押出までの概略を説明すると、標準パターンについ
ての画像入力が行なわれ(ステップS1)、前処理として
スムージングが行われ(ステップS2)、その後に標準パ
ターン毎の標準特徴量の抽出が行なわれる(ステップS
3)。ここで、標準パターン及びその画像入力,スムー
ジング処理,標準特徴量の抽出の工程を詳しく説明す
る。
FIG. 3 is a schematic flow chart showing an operation of creating a recognition dictionary. First, in FIG. 3, an outline up to the extrusion of a standard feature for each standard pattern will be described. Step S1), smoothing is performed as preprocessing (step S2), and thereafter, a standard feature amount for each standard pattern is extracted (step S1).
3). Here, the steps of inputting the standard pattern and its image, smoothing processing, and extracting the standard feature amount will be described in detail.

標準パターンの種類は第6図(A)に示すようなもの
であり、12種の文字にして文字の形態を考慮して予め22
0個のパターンが作成されている。かかる220個のパター
ンの各々が標準パターンであり、通常使用されている文
字形態の大部分が含まれている。この標準パターンのう
ちの幾つかを詳しく示したものが第6図(B)〜(D)
である。画像入力はこの予め作成された所定の大きさの
標準パターンを、例えば24×24画素の矩形範囲で各画素
毎に濃度階調を8ビットの256階調で読取っている。こ
の入力された画像データの例が第4図(A)であり、こ
の画像データは前処理としてスムージング処理がなされ
るが、このスムージング処理を次に説明する。
The type of the standard pattern is as shown in FIG. 6 (A).
0 patterns have been created. Each of these 220 patterns is a standard pattern and contains most of the commonly used character forms. FIGS. 6 (B) to 6 (D) show some of the standard patterns in detail.
It is. For image input, the standard pattern of a predetermined size created in advance is read in 256 gray levels of 8 bits for each pixel in a rectangular range of 24 × 24 pixels, for example. FIG. 4A shows an example of the input image data, and the image data is subjected to a smoothing process as a pre-process. The smoothing process will be described below.

第7図はスムージング処理の動作例を示すフローチャ
ートであり、第8図〜第10図はその説明図である。スム
ージング処理は第10図に示す3×3画素のスムージング
マスクを、入力画像データについて走査することにより
入力画像データの平滑化を行っている。すなわち、先ず
第8図に示すように入力画像データの各画素毎の濃度値
に基づいて、その濃度値の画素数のヒストグラムを作成
し(ステップS20)、そのピークとなる濃度値を背景濃
度値(BP)として算出する(ステップS21)。これは、
通常文字パターンは文字部分よりも背景部分が多く、背
景部分の濃度値は一定となるため、ピークとなる濃度値
(BP)が背景の濃度値となるからである。そして、第9
図に示すように背景濃度値を24×24画素の周囲に1画素
配置し、26×26画素の画像データとする(ステップS2
2)。これは、3×3画素のスムージングマスクが24×2
4画素内の入力画素データの全てについて作用し得るよ
うにするためである。次に、26×26画素の画像データに
第10図に示すスムージングマスクを走査し(ステップS2
3)、入力画像データの平滑化を行ない、その結果を以
後の画像データとして使用する。この段階の画像データ
の例が第4図(B)である。このようにスムージング処
理を行なっておくことにより、チェックライタでの文字
の刻印による模様を文字の濃度値で埋めることになり、
文字刻印模様を消去することが出来る。よって、安定な
文字特徴が得られる利点がある。
FIG. 7 is a flowchart showing an operation example of the smoothing process, and FIGS. 8 to 10 are explanatory diagrams thereof. In the smoothing processing, the input image data is smoothed by scanning the input image data with a 3 × 3 pixel smoothing mask shown in FIG. That is, first, as shown in FIG. 8, based on the density value of each pixel of the input image data, a histogram of the number of pixels of the density value is created (step S20), and the density value which becomes the peak is converted to the background density value. (BP) (step S21). this is,
This is because the normal character pattern has more background portions than character portions and the density value of the background portion is constant, so that the peak density value (BP) becomes the background density value. And the ninth
As shown in the figure, one pixel is arranged around a 24 × 24 pixel as a background density value to obtain image data of 26 × 26 pixels (step S2).
2). This is because a 3x3 pixel smoothing mask is 24x2
This is so that all the input pixel data in the four pixels can be operated. Next, the smoothing mask shown in FIG. 10 is scanned over the image data of 26 × 26 pixels (step S2).
3) The input image data is smoothed, and the result is used as subsequent image data. FIG. 4B shows an example of the image data at this stage. By performing the smoothing process in this way, the pattern formed by engraving the character with the check writer is filled with the density value of the character.
Character engraved patterns can be erased. Therefore, there is an advantage that a stable character feature can be obtained.

次に、上述のようにしてスムージング処理された画像
データに対して画素成分の抽出を行なって標準特徴量の
抽出を行なう(ステップS3)。この画素成分の抽出動作
を第11図〜第14図を参照して説明する。
Next, a pixel component is extracted from the image data that has been subjected to the smoothing process as described above to extract a standard feature amount (step S3). The operation of extracting the pixel components will be described with reference to FIGS. 11 to 14.

第11図は標準パターンの画素成分の抽出動作を示すフ
ローチャートであり、先ずスムージング処理された画像
データにロビンソン・オペレータを使用して各画素毎に
濃度勾配強度及び濃度勾配方向を求める(ステップS30
〜S32)。ロビンソン・オペレータを示すのが第12図で
あり、3×3画素の各画素に重みが付けられている8種
類のマスクM0〜M7で成っており、各マスクM0〜M7はその
マスクが有する方向の勾配強度を抽出するためのもので
ある。例えばマスクM0により画像データを走査すれば、
各画素毎に↑方向の勾配強度(EP0)が求められる。こ
のように、8方向のマスクM0〜M7を用いて画像データを
走査することによって、各画素毎に各方向毎の濃度勾配
強度(EP0〜EP7)を求めることができる(ステップS3
0)。なお、濃度勾配強度EP0〜EP7はそれぞれマスクM0
〜M7に対応している。このようにして各画素毎に求めた
濃度勾配強度(EP0〜EP7)の中から最大値(EPi)を求
める(ステップS31)。そして、最大値(EPi)をその画
素の濃度勾配強度とし、その最大値EPiに対応する方向
を濃度勾配方向とする(ステップS32)。第4図(C)
に、このようにして求めた画像データを示す。
FIG. 11 is a flowchart showing the extraction operation of the pixel components of the standard pattern. First, the density gradient intensity and the density gradient direction are obtained for each pixel using the Robinson operator on the image data subjected to the smoothing processing (step S30).
~ S32). A twelfth diagram indicate the Robinson operator, which consists in the eight the weight to each pixel of the 3 × 3 pixels are labeled mask M 0 ~M 7, each mask M 0 ~M 7 thereof This is for extracting the gradient strength in the direction of the mask. For example, if scanning the image data by the mask M 0,
The gradient strength in the ↑ direction (EP 0 ) is obtained for each pixel. Thus, it is possible to obtain by scanning the image data, density gradient strength for each direction for each pixel (EP 0 ~EP 7) using eight directions of the mask M 0 ~M 7 (step S3
0). The concentration gradient strength EP 0 ~EP 7 respectively mask M 0
It corresponds to the ~M 7. The maximum value (EP i ) is obtained from the density gradient intensities (EP 0 to EP 7 ) thus obtained for each pixel (step S31). Then, the maximum value (EP i ) is set as the density gradient intensity of the pixel, and the direction corresponding to the maximum value EP i is set as the density gradient direction (step S32). Fig. 4 (C)
The image data thus obtained is shown in FIG.

次に、このようにして求めた各画素毎の濃度勾配強度
に関して2値化処理を行なう(ステップS33,S40〜4
3)。第13図(A)を参照して、2値化処理のためのし
きい値を決定する方法を説明する。先ず全ての画素の中
から濃度勾配強度の最大値(EPmax)を求め(ステップS
33)、この最大値(EPmax)が所定の範囲にあるとこと
をチェックし(ステップS40)、それ以外の値があると
画像入力ミスとしてエラー処理をする(ステップS4
1)。これにより、画像処理の初期の段階で画像入力ミ
スを発見できる。そして、最大値(EPmax)が所定範囲
内であれば、この1/8のEPmax/8をしきい値(EPTH;以下
「有効レベルしきい値」という)とする(ステップS4
2)。そして、各画素の濃度勾配強度(EPi)が有効レベ
ルしき値(EPTH)より大きければその画素の濃度勾配強
度を“1"とし、有効レベルしきい値(EPTH)より小さけ
ればその画素の濃度勾配強度を“0"とする(ステップS4
3)。これにより、各画素の濃度勾配強度は“0"又は
“1"の2値化が行なわれる。これにより、認識すべきパ
ターンの部分と背景部分とを分離することができる。こ
の2値化された画像データの例が第4図(D)であり、
更にこれに濃度勾配方向も合せて表示した例が第4図
(E)である。
Next, a binarization process is performed on the density gradient intensity obtained for each pixel thus obtained (steps S33, S40 to S40).
3). With reference to FIG. 13 (A), a method for determining a threshold value for binarization processing will be described. First, the maximum value of the density gradient intensity (EP max ) is obtained from all the pixels (step S
33), it is checked that this maximum value (EP max ) is within a predetermined range (step S40), and if there is any other value, an error is determined as an image input error (step S4).
1). Thereby, an image input error can be found at an early stage of the image processing. If the maximum value (EP max ) is within the predetermined range, this 1/8 EP max / 8 is set as a threshold (EP TH ; hereinafter, referred to as “effective level threshold”) (step S4).
2). Then, the concentration gradient intensity "1" of the pixel is greater than the concentration gradient strength of each pixel (EP i) is effective level threshold value (EP TH), the pixel is smaller than the effective level threshold (EP TH) Is set to "0" (step S4
3). Thus, the density gradient intensity of each pixel is binarized to “0” or “1”. This makes it possible to separate the pattern portion to be recognized from the background portion. FIG. 4D shows an example of the binarized image data.
FIG. 4E shows an example in which the direction of the concentration gradient is also displayed.

なお、ここでは2値化して濃度勾配強度を0又は1に
決定し簡略化しているが、2値化せずに各画素毎の濃度
勾配強度自体をそのまま利用することもできるし、又、
第13図(B)及び(C)に示しているように濃度勾配強
度を量子化して利用することもできる。第13図(B)の
場合は最大値(EPmax)を8段階に区分し、濃度勾配強
度を0〜7の8段階に量子化している。第13図(C)の
場合は濃度勾配強度のヒストグラムの累積加算をし、そ
の最大値を8等分にして濃度勾配強度を0〜7の8段階
に量子化している。このように多段階に量子化した値を
利用して各画素毎の濃度勾配強度を決定すれば、より精
度が向上する。
Here, the density gradient intensity is determined to be 0 or 1 by binarization to simplify, but the density gradient intensity itself for each pixel can be used as it is without binarization.
As shown in FIGS. 13B and 13C, the intensity of the concentration gradient can be quantized and used. In the case of FIG. 13 (B), the maximum value (EP max ) is divided into eight levels, and the density gradient intensity is quantized into eight levels from 0 to 7. In the case of FIG. 13 (C), the cumulative addition of the histogram of the density gradient intensity is performed, and the maximum value thereof is divided into eight equal parts to quantize the density gradient intensity into eight stages of 0 to 7. If the density gradient intensity for each pixel is determined using the values quantized in multiple stages in this way, the accuracy is further improved.

次に、第14図の(A)に示すようにこの2値化された
画像データを被認識対象の解析エリアについて(m×
n)等分し、m×nのメッシュエリアに区分する(ステ
ップS44)。ここでは、4×4の16のエリア(SPx[i]
[j][k]i=0〜5,J=0〜3)に区分した場合を
示している。但し、iは水平方向の区分番号,jは垂直方
向の区分番号,xは標準パターンの番号である。そして、
第14図(B)のように各エリア毎に濃度勾配方向毎の濃
度勾配強度の総和(SPx[i][j][k];i=0〜3,j
=0〜3,k=0〜7)を求める(ステップS45)。但し、
kは濃度勾配方向である。このようにして求められた値
SPx[i][j][k]が標準パターンの標準特徴量で
あり、i×j×k(=128)次元のベクトル量である。
以上の工程によって標準パターンの標準特徴量が求めら
れる。そして、1つの標準特徴量について所定回数、例
えば同一の10個の標準パターンにより各々特徴量を求
め、その平均値をその標準パターンの正規の標準特徴量
として記憶する(ステップS3)。
Next, as shown in FIG. 14 (A), this binarized image data is applied to the analysis area to be recognized (mx ×
n) Divide equally and divide into mxn mesh areas (step S44). Here, 16 areas of 4 × 4 (SP x [i]
[J] [k] i = 0 to 5, J = 0 to 3). Here, i is a horizontal section number, j is a vertical section number, and x is a standard pattern number. And
As shown in FIG. 14 (B), the sum of the density gradient intensities in each density gradient direction for each area (SP x [i] [j] [k]; i = 0 to 3, j
= 0 to 3, k = 0 to 7) (step S45). However,
k is the direction of the concentration gradient. The value obtained in this way
SP x [i] [j] [k] is a standard feature amount of the standard pattern, and is an i × j × k (= 128) -dimensional vector amount.
Through the above steps, the standard feature amount of the standard pattern is obtained. Then, for each standard feature, the feature is determined a predetermined number of times, for example, by using the same 10 standard patterns, and the average value is stored as a normal standard feature of the standard pattern (step S3).

第3図において、220個の全ての標準パターンについ
て同様にして標準特徴量(SPx[i][j][k])を
求める(ステップS4)。
In FIG. 3, the standard feature amount (SP x [i] [j] [k]) is similarly obtained for all 220 standard patterns (step S4).

次に、各標準パターンの標準特徴量SPx[i][j]
[k]に基づいて大分類辞書を作成する(ステップS
5)。大分類辞書の内容は第15図に示すようになってお
り、この大分類辞書は各標準パターンの標準特徴量が一
定の類似関係にあるものを1つの小集団(以下、クラス
ターとする)として、複数のクラスターから構成されて
いる。具体的には標準特徴量に基づいて一般に知られて
いるクラスター分析法、例えばウォード法でクラスター
を作成する。すなわち、標準パターンの標準特徴量間の
類似度を示すシティーブロック距離(Dist)を全ての標
準パターンの組合せについて、次の(1)式により求め
る。
Next, the standard feature amount SP x [i] [j] of each standard pattern
Create a large classification dictionary based on [k] (step S
Five). The contents of the large classification dictionary are as shown in Fig. 15, and the large classification dictionary uses the standard features of each standard pattern that have a certain similarity relationship as one small group (hereinafter referred to as cluster). , Is composed of multiple clusters. Specifically, a cluster is created based on the standard feature amount by a generally known cluster analysis method, for example, the Ward method. That is, the city block distance (D ist ) indicating the similarity between the standard feature amounts of the standard patterns is obtained by the following equation (1) for all the combinations of the standard patterns.

そして、全ての組合せについてシティブロック距離を
算出した結果、距離が最も小さいもの同士を1つのクラ
スターとし、そのクラスターに属する標準パターンの標
準特徴量の平均値をそのクラスターの特徴量とする。次
に、再度クラスター及びその他の標準パターンとの全て
の組合せについて特徴量のシティブロック距離を算出
し、距離の最も小さいものを1つのクラスターとする。
以下、同じ動作をシティブロック距離が所定値以下、例
えば100以下になるまで、又はクラスターの数が所定
数、例えば50個になるまで繰返す。このように、ウォー
ド法により標準パターンの標準特徴量の類似度によりク
ラスター分けされたものが大分類辞書である。
Then, as a result of calculating the city block distances for all the combinations, those having the smallest distances are regarded as one cluster, and the average value of the standard feature amounts of the standard patterns belonging to the cluster is regarded as the feature amount of the cluster. Next, the city block distance of the feature amount is calculated again for all combinations of the cluster and the other standard patterns, and the one with the smallest distance is defined as one cluster.
Hereinafter, the same operation is repeated until the city block distance becomes a predetermined value or less, for example, 100 or less, or until the number of clusters becomes a predetermined number, for example, 50. In this way, the large classification dictionary is obtained by performing the clustering based on the similarity of the standard feature amount of the standard pattern by the Ward method.

更に各クラスター毎に特徴量が定められる。これをク
ラスター特徴量という。クラスター特徴量(CSPn[i]
[j][k];但し、nはクラスター番号)は、各クラ
スターに属する標準パターンの標準特徴量の平均であ
る。後述するように、実際の認識の際にはこのクラスタ
ー特徴量に基づいて大分類が行わなわれるのであり、こ
のクラスター特徴量とクラスターとの対応関係が大分類
辞書である。なお、この段階の大分類辞書の例が第15図
に示すものである。これに対し、中分類辞書は各標準パ
ターンとその標準特徴量との対応関係を示すものであ
る。第15図の1つについて説明しておくと、例えばクラ
スター[14]ではこのクラスターに属する標準パターン
はb3の「3」,b5の「5」であり、又、このクラスター
のクラスター特徴量CSP14[i][j][k]はb3の標
準特徴量SPb3[i][j][k]とb5の標準特徴量SPb5
[i][j][k]の平均値となっている。
Further, a feature amount is determined for each cluster. This is called a cluster feature. Cluster features (CSP n [i]
[J] [k]; where n is a cluster number) is the average of the standard feature amounts of the standard patterns belonging to each cluster. As will be described later, during actual recognition, a large classification is performed based on the cluster feature, and the correspondence between the cluster feature and the cluster is a large classification dictionary. An example of the large classification dictionary at this stage is shown in FIG. On the other hand, the intermediate classification dictionary indicates the correspondence between each standard pattern and its standard feature amount. If you leave describes one Figure 15, for example in a cluster [14] Standard patterns belonging to this cluster "3" b3, a "5" b5, also in this cluster Cluster feature quantity CSP 14 [I] [j] [k] is the standard feature SP b3 of b3 [i] [j] [k] and the standard feature SP b5 of b5
It is the average value of [i] [j] [k].

次に、第15図の大分類基本辞書に変動パターンの追加
登録をする動作について、第3図のステップS10以下で
説明する。変動パターンは、認識用辞書が実際に使用さ
れる認識装置の被認識媒体(文字パターン)の読取精度
に応じて決められている。具体的には、認識装置で被認
識媒体の読取精度が回転量で±4度、ずれ量では±1画
素(0.25mm)であったとすると、その変動パターンは例
えば回転の場合のものとして−4度,−3度,−2度,
−1度,+1度,+2度,+3度,+4度、ずれの場合
で−1画素,+1画素の10種類の変動パターンが標準パ
ターン(220個)に対し各々作成する。その一例を、文
字“0"について第16図に示す。すなわち、第16図(A)
の標準パターンに対して、変動パターンは同図(B)の
如く示される。又、この実施例では回転とずれとを別々
にして変動パターンを作成しているが、回転“−4度”
でずれ“−1画素”のように回転とずれを組合せた変動
パターンを加えておくこともできる。
Next, the operation of additionally registering a fluctuation pattern in the large classification basic dictionary in FIG. 15 will be described in step S10 and subsequent steps in FIG. The variation pattern is determined according to the reading accuracy of the recognition target medium (character pattern) of the recognition device in which the recognition dictionary is actually used. Specifically, assuming that the reading accuracy of the medium to be recognized by the recognition device is ± 4 degrees in the amount of rotation and ± 1 pixel (0.25 mm) in the amount of displacement, the variation pattern is, for example, −4 in the case of rotation. Degrees, -3 degrees, -2 degrees,
Ten kinds of variation patterns of -1 pixel, +1 degree, +2 degrees, +3 degrees, +4 degrees, and in the case of a shift, -1 pixel and +1 pixel are created for each of the standard patterns (220). An example is shown in FIG. 16 for the character "0". That is, FIG. 16 (A)
The variation pattern is shown as in FIG. Further, in this embodiment, the fluctuation pattern is created by separately performing the rotation and the shift.
It is also possible to add a variation pattern combining rotation and displacement, such as the displacement “−1 pixel”.

操作部により、画像入力される変動パターンに対応す
る標準パターンのパターン信号を入力し、その変動パタ
ーンを画像入力する(ステップS10)。入力された画像
データには標準パターンを入力したときと同様にスムー
ジング処理を行ない(ステップS11)、その後に変動パ
ターン特徴量(VPx[i][j][k])を求め(ステ
ップS12)、この特徴量に基づいて大分類辞書により大
分類の分類を行なう。大分類は、大分類辞書の各クラス
ターのクラスター標準特徴量(CSPn[i][j]
[k])と変動パターン特徴量(VPx[i][j]
[k])との類似度(Distn)を下記(2)式により算
出し(ステップS13)、最も類似度の高い(Distnが最小
となる)クラスターに属すると判断する(ステップS1
4)。
A pattern signal of a standard pattern corresponding to the variation pattern input as an image is input by the operation unit, and the variation pattern is input as an image (step S10). Smoothing processing is performed on the input image data in the same manner as when a standard pattern is input (step S11), and thereafter, a variation pattern feature amount (VP x [i] [j] [k]) is obtained (step S12). The large classification dictionary is used to classify the large classification based on the feature amount. The large classification is a cluster standard feature (CSP n [i] [j]) of each cluster in the large classification dictionary.
[K]) and the variation pattern features (VP x [i] [j]
[K]) similarity between the (D Istn) was calculated by the following equation (2) (step S13), and the highest degree of similarity (Dist n is minimum) is determined as belonging to the cluster (step S1
Four).

そして、判断されたクラスター内にその変動パターン
に対応する標準パターンが既に登録されているかどうか
をチェックし(ステップS15)、登録されていなけれ
ば、そのパターンをそのクラスター内に追加登録する
(ステップS15,S17)。登録は標準パターンに対応する
パターン番号のみで、既に登録されてあれば次の変動パ
ターンについて上記動作を行なう。上述のような変動パ
ターンの追加登録動作は、標準パターン(220個)に対
応する変動パターンの全てについて行ない、全て終れば
終了となる。なお、変動パターンの追加登録の際には標
準パターンのパターン番号をクラスター内に追加登録す
るのみで、大分類に使用するクラスター特徴量について
は更新しない。これは、既存の220個とは別の新規の基
準パターン追加時に、再度全標準パターン内での大分類
の必要性がなくなる上、クラスター特徴量の鈍化を防
ぎ、クラスター内のウラスター特徴量の類似性の差の拡
大を行なうためである。
Then, it is checked whether or not the standard pattern corresponding to the fluctuation pattern has already been registered in the determined cluster (step S15). If not, the pattern is additionally registered in the cluster (step S15). , S17). The registration is performed only with the pattern number corresponding to the standard pattern. If the pattern is already registered, the above operation is performed for the next variation pattern. The above-described operation for additionally registering a variation pattern is performed for all variation patterns corresponding to the standard patterns (220 patterns), and the process ends when all of the variation patterns are completed. In addition, when the variation pattern is additionally registered, only the pattern number of the standard pattern is additionally registered in the cluster, and the cluster feature amount used for the large classification is not updated. This eliminates the need for large classification in all standard patterns again when a new reference pattern different from the existing 220 is added, prevents the cluster features from slowing down, and resembles the cluster's wollast features. This is to increase the gender difference.

次に、上記変動パターンの追加登録の際には、後述す
る詳細分類で使用するパターン毎の各エリア毎の重みを
算出しているが(ステップS18,S18AS19)、これについ
て説明する。これは画像入力の際に変動が生じた場合で
あっても、どのエリアが変動による影響が少ないかを予
め調べておくためである。この算出動作を第17図に従っ
て説明する。
Next, at the time of additionally registering the variation pattern, the weight for each area for each pattern used in the detailed classification to be described later is calculated (steps S18, S18AS19). This will be described. This is because even if a change occurs during image input, it is necessary to check in advance which areas are less affected by the change. This calculation operation will be described with reference to FIG.

大分類辞書の作成時に処理された標準パターン番号x
の入力文字のn個の変動パターン特徴量(VPx,p[i]
[j][k])(P:文字変動パターン番号1〜n)に対
し、4×4のメッシュエリア(i,j)毎の平均特徴量▲
▼[i][j][k]及びそのエリア毎の特徴σx 2
[i][j]を次の(3)及び(4)式により算出し、
エリア毎の特徴量分散σx 2[i][j]の逆数を重みWT
x[i][j]として記憶しておく。全変動パターンに
ついて特徴量の算出が終了すると、算出された変動パタ
ーン特徴量VPx[i][j][k]のメッシュエリア
(i,j)毎の平均特徴量▲▼及び特徴量分散σx 2
下記(3)及び(4)に従って算出する(ステップS5
0)。そして、特徴量分散σx 2の逆数を重みWTx[i]
[j]とし(ステップS51)、重み辞書登録する(ステ
ップS52)。この重みWTx[i][j]の大きいエリア
が、画像入力の際に変動が生じてもその影響の少ない安
定したエリアである。
Standard pattern number x processed when creating the large classification dictionary
N variation pattern features (VP x, p [i]
[J] [k]) (P: Character variation pattern numbers 1 to n) Average feature amount for each 4 × 4 mesh area (i, j)
▼ [i] [j] [k] and its feature σ x 2 for each area
[I] [j] is calculated by the following equations (3) and (4),
The inverse of the feature variance σ x 2 [i] [j] for each area is weighted by WT
It is stored as x [i] [j]. When the calculation of the feature amounts for all the variation patterns is completed, the average feature amount ▼▼ and the feature amount variance σ of the calculated variation pattern feature amounts VP x [i] [j] [k] for each mesh area (i, j). the x 2 is calculated according to the following (3) and (4) (step S5
0). Then, the reciprocal of the feature amount variance σ x 2 is determined by the weight WT x [i].
[J] (step S51), and is registered in the weight dictionary (step S52). The area where the weight WT x [i] [j] is large is a stable area that has little influence even if a change occurs at the time of image input.

第18図が変動パターンを追加登録したこの段階の大分
類辞書の例であり、第15図の大分類辞書と比較すると、
例えばクラスターNo.14では“e3,e5,b8,o8"の4個の標
準パターン番号が追加登録されているのが分る。なお、
第18図に示す大分類辞書が実際のパターン認識の際に使
用されるものである。ここで、大分類辞書とは類似する
文字集団であるクラスターと、そのクラスターがもつク
ラスター特徴量との対応関係を示すものであり、大分類
辞書に基づく大分類とは被認識文字の特徴量とクラスタ
ー特徴量とを比較し、被認識文字がどのクラスターに属
する文字であるかを判別する処理である。
FIG. 18 is an example of a large classification dictionary at this stage in which a variation pattern is additionally registered.
For example, in cluster No. 14, four standard pattern numbers “e3, e5, b8, o8” are additionally registered. In addition,
The large classification dictionary shown in FIG. 18 is used for actual pattern recognition. Here, the large classification dictionary indicates the correspondence between clusters, which are similar character groups, and the cluster features of the clusters. The large classification based on the large classification dictionary refers to the feature amount of the character to be recognized. This is a process of comparing with a cluster feature amount to determine to which cluster the character to be recognized belongs.

次に、上記認識用辞書を用いた場合の文字パターン認
識動作について第1図のブロック図に基づいて説明す
る。
Next, the character pattern recognition operation using the above recognition dictionary will be described with reference to the block diagram of FIG.

先ず画像入力手段10の画像センサで、例えば第2図
(B)に示す小切手の金額記入欄4の画像を入力する。
この金額記入欄4は予め定められた位置であり、この欄
内の濃淡濃度を256階調で画像センサにより取得する。
第5図(A)が金額記入欄4の原画を示している。この
ように取得された画像データを前処理手段11でスムージ
ングして平滑化を行なう。この結果第5図(B)のよう
になり、スムージング処理された画像データに基づき文
字切出手段17は文字の切出しを行なう。文字の切出しは
上述したロビンソン・オペレータにより画像データを走
査し、水平方向については左方向成分(第4図(F))
及び右方向成分(第4図(G))を持つ画素のヒストグ
ラムにより切出し座標を抽出する。その結果、第5図
(E)の左方向ヒストグラム及び同図(F)の右方向ヒ
ストグラムが得られる。つまり、右方向ヒストグラムの
低い所で極端に変化している個所が文字の右端であり、
左方向ヒストグラムで低い所で極端に変化する個所が文
字の左端である。そして、垂直方向についても同じよう
に、上方向成分(第4図(H)),下方向成分(第4図
(I))を持つ画像のヒストグラムにより垂直方向につ
いても切出す。この実施例では水平方向に一列であるの
で、金額記入欄4の全体について行なうのみで良い。水
平方向に切出されたものの各々について垂直方向に切出
すようにすれば、水平方向に一列でないときでも可能で
ある。そして、このようにして切出された領域の中心点
を求め、この点を中心として24×24画素の領域を文字の
切出領域とする。これは、上述した標準パターンの特徴
量が24×24画素として得られているため、これに合せる
ためである。
First, for example, an image of the check amount entry column 4 shown in FIG. 2B is input by the image sensor of the image input means 10.
The amount entry column 4 is a predetermined position, and the image sensor obtains the shade density in this column in 256 gradations.
FIG. 5 (A) shows an original image of the money amount entry column 4. FIG. The image data thus obtained is smoothed by the preprocessing means 11 to perform smoothing. As a result, as shown in FIG. 5B, the character extracting means 17 extracts characters based on the image data subjected to the smoothing processing. To cut out characters, the image data is scanned by the above-mentioned Robinson operator, and a left component in the horizontal direction (FIG. 4 (F))
Then, cut-out coordinates are extracted from a histogram of pixels having a rightward component (FIG. 4 (G)). As a result, a leftward histogram of FIG. 5 (E) and a rightward histogram of FIG. 5 (F) are obtained. In other words, the place where the extreme change occurs in the lower part of the right histogram is the right end of the character,
In the leftward histogram, a location that changes extremely at a low position is the left end of the character. Similarly, the vertical direction is cut out in the vertical direction by using a histogram of an image having an upward component (FIG. 4 (H)) and a downward component (FIG. 4 (I)). In this embodiment, since it is one line in the horizontal direction, it is only necessary to perform the operation for the entire money amount entry column 4. If each of the horizontal cutouts is cut out in the vertical direction, it is possible even when they are not aligned in the horizontal direction. Then, the central point of the region cut out in this way is obtained, and a region of 24 × 24 pixels centering on this point is set as a character cut-out region. This is because the feature amount of the above-described standard pattern is obtained as 24 × 24 pixels, so that it is matched.

第5図(C)は濃度勾配の画像であり、同図(D)は
濃度勾配を2値化したものを示している。また、第5図
(E)は、左方向ヒストグラムであり、各文字の左端を
規定する左端線100が求められ、同図(F)は右方向の
ヒストグラムであり、各文字の右端を規定する右端線20
0が求められ、これら左端線100及び右端線200によって
同図(B)の如く文字の切出しが行なわれる。
FIG. 5 (C) is an image of the density gradient, and FIG. 5 (D) shows an image obtained by binarizing the density gradient. FIG. 5 (E) is a leftward histogram, and a left end line 100 which defines the left end of each character is obtained. FIG. 5 (F) is a rightward histogram, which defines the right end of each character. Right end line 20
0 is obtained, and characters are cut out by the left end line 100 and the right end line 200 as shown in FIG.

次に、上述のようにして区分された各エリアについ
て、特徴量抽出手段32で特徴量(以下、入力パターン特
徴量という)を抽出する。入力パターン特徴量(IP
m[i][j][k];但し、mは切出し番号,iは水平
方向の区分番号,jは垂直方向の区分番号,kは濃度勾配方
向番号)は標準パターンの特徴量を抽出した方法と同様
であり、切出された文字の画像データにロビンソン・オ
ペレータのマスクを利用して画像毎に濃度勾配強度及び
濃度勾配方向を求めて2値化し、更に文字の切出領域を
4×4の16エリア(IPm[i][j])に区分し、各エ
リア毎に各濃度勾配方向毎の画素数の総和を求める。こ
うして求められる128次元ベクトル量が入力パターン特
徴量である。そして、切出された文字の全てについて入
力パターン特徴量の抽出が終了すると、この入力パター
ン特徴量に基づき大分類辞書51を利用して、大分類部41
での大分類,中分類部42での中分類,詳細分類部での詳
細分類の3段階によってパターン認識を進めていく。
Next, a feature value (hereinafter, referred to as an input pattern feature value) is extracted by the feature value extracting means 32 for each area divided as described above. Input pattern features (IP
m [i] [j] [k]; where m is a cutout number, i is a horizontal section number, j is a vertical section number, and k is a density gradient direction number). In the same manner as described above, the density gradient intensity and the density gradient direction are obtained and binarized for each image using the Robinson operator's mask on the image data of the extracted character, and the character extraction area is further reduced to 4 ×. 4 are divided into 16 areas (IP m [i] [j]), and the total number of pixels in each density gradient direction is calculated for each area. The 128-dimensional vector amount thus obtained is the input pattern feature amount. Then, when the extraction of the input pattern features for all of the extracted characters is completed, the large classification unit 41 uses the large classification dictionary 51 based on the input pattern features.
The pattern recognition proceeds in three stages, namely, large classification in the above, middle classification in the middle classification section 42, and detailed classification in the detailed classification section.

すなわち、最初にクラスターを判別するために大分類
を行なうが、大分類は第18図の大分類辞書のクラスター
毎の各クラスター標準特徴量CSPn[i][j][k]と
の類似度(Distn)を下記(5)式により算出し、最も
類似するもの(Distが最小となるもの)を求め、そのク
ラスターに属する文字と判断する。
That is, first, a large classification is performed in order to identify a cluster. The large classification is similarity between each cluster standard feature quantity CSP n [i] [j] [k] for each cluster in the large classification dictionary in FIG. (D istn ) is calculated by the following equation (5), the most similar one (the one with the smallest D ist ) is obtained, and it is determined that the character belongs to the cluster.

なお、上述したように大分類辞書のクラスター内の標
準パターンは、画像入力の際に回転ずれによる変動が生
じた場合の特徴量によりクラスター内に追加登録がなさ
れているので、大分類で失敗することはない。大分類に
よって切出文字の属するクラスターが判断されると、次
に中分類部42で中分類を行なう。中分類は、入力パター
ン特徴量IPm[i][j][k]とクラスターに属する
全ての標準パターンの標準特徴量SPx[i][j]
[k]との類似度(Distx)を上記(5)式により算出
し、所定値以上類似するものであって最も類似する方か
ら(Distxの小さい方から)2つを候補として抽出す
る。
Note that, as described above, the standard pattern in the cluster of the large classification dictionary fails in the large classification because the additional registration is made in the cluster by the feature amount when the fluctuation occurs due to the rotation shift at the time of image input. Never. When the cluster to which the cut-out character belongs is determined by the large classification, the intermediate classification is performed by the intermediate classification unit 42 next. Middle classification, the input pattern feature quantity IP m [i] [j] [k] and the standard feature value SP x of all standard patterns belonging to the cluster [i] [j]
The similarity (D istx ) with [k] is calculated by the above equation (5), and two candidates which are similar to each other by a predetermined value or more and which are the most similar (from the smaller D istx ) are extracted as candidates. .

この際、類似するものがないとき(Distxが所定以下
のものがないとき)には標準パターンにない文字と判断
し、数字「0〜9」又は円記号「¥」,「*」等の終桁
符号の文字でないとする。又、類似するものが1つのと
きには、その標準パターンと判断する。通常は2つの候
補が抽出され、この場合には2つの標準パターンが同じ
文字が否かを判断する。例えば同じ文字種の標準パター
ン“a0"の「0」と“f0"の「0」が抽出されたような場
合は最も類似する方の標準パターンとし、文字を「0」
と判断する。これは最終的に文字が「0〜9」,
「¥」,「*」のどれであるかが分れば良いからであ
り、標準パターンは“a0"でも“f0"でもどちらでも良い
からである。又、異なる文字の標準パターンが2つ抽出
されたときには、詳細分類部での詳細分類に移行する。
At this time, when there is no similar thing (when Distx does not have a value equal to or less than a predetermined value), it is determined that the character is not in the standard pattern, and a numeral “0 to 9” or a yen sign “¥”, “*” Assume that the character is not the last digit sign. If there is only one similar pattern, it is determined to be the standard pattern. Normally, two candidates are extracted. In this case, it is determined whether or not the two standard patterns have the same character. For example, when "0" of the standard pattern "a0" and "0" of "f0" of the same character type are extracted, the most similar standard pattern is set, and the character is set to "0".
Is determined. This means that the characters are finally "0-9",
This is because it is only necessary to know which of “¥” and “*”, and the standard pattern may be either “a0” or “f0”. When two standard patterns of different characters are extracted, the process proceeds to the detailed classification in the detailed classification unit.

詳細分類は、抽出された2つの候補の標準パターンを
比較し、両パターンの各区分毎の特徴量のうち安定した
非類似なエリアを抽出し、そのエリアについてのみパタ
ーン照合を行なうものである。具体的に第19図のフロー
チャートに従って、第20図の説明図を用いて説明する。
The detailed classification compares the extracted standard patterns of the two candidates, extracts a stable dissimilar area from the feature amounts of each pattern of each pattern, and performs pattern matching only on the area. A specific description will be given using the explanatory diagram of FIG. 20 according to the flowchart of FIG.

第20図の(A)及び(B)に示すように、中分類で標
準パターンx1及びx2の2つの候補として抽出されたとす
る。そして、抽出された標準パターン間の相違度D
iff[i][j]を各エリア(4×4)毎に下記(6)
式により求める。
As shown in the FIG. 20 (A) and (B), and in middle classification extracted as two candidate reference pattern x 1 and x 2. Then, the difference D between the extracted standard patterns
iff [i] [j] is calculated for each area (4 × 4) by the following (6)
It is determined by the formula.

この(6)式の意味は、あるエリアにおける2つの候
補文字標準パターン間の特徴量の相違度に、そのエリア
での特徴量の安定度(重み)を掛け合せた式になってお
り、パターンの変動が生じている場合においても2つの
候補文字間の非類似性が高く、かつ安定したエリアを抽
出するための尺度が表現されている。そして、(6)式
におけるWTx[i][j]は辞書作成処理における変動
パターンの追加登録時に求められている。(6)式によ
り各エリア毎の相違度を求めた具体例が第20図(C)で
あり、このようにして求めた各エリア毎の相違度の中か
ら相違度の大きい3つのエリアを抽出する。第20図
(C)の例では、Diff[1][1],Diff[0][1],
Diff[3][0]が抽出され、同図(D)の斜線エリア
が得られる。この3つのエリアは標準パターン同士が非
常に相違している部分であると共に、画像入力の際生じ
る変動による影響の小さい部分であるので、このエリア
についてのみ入力パターンがどちらの標準パターンに類
似しているかを見れば、より正確に判別できる。まず、
抽出された3つのエリアについてのみ、入力パターンの
特徴量と2候補の標準パターンの特徴量の類似度ADistx
[i][j]を次の(7)式により求める。
The expression (6) means the expression obtained by multiplying the degree of difference between the feature amounts of two candidate character standard patterns in a certain area by the stability (weight) of the feature amount in that area. A measure for extracting a stable area with high dissimilarity between two candidate characters even when a change occurs is expressed. Then, has been required to WT x [i] [j] when additional registration of the variation patterns in the dictionary creation process in (6). FIG. 20 (C) shows a specific example in which the degree of difference for each area is obtained by equation (6), and three areas having a large degree of difference are extracted from the degree of difference for each area thus obtained. I do. In the example of FIG. 20 (C), Diff [1] [1], Diff [0] [1],
Diff [3] [0] is extracted, and the hatched area in FIG. These three areas are areas where the standard patterns are very different from each other, and are areas where the influence caused by the fluctuation occurring during image input is small. Therefore, the input pattern is similar to either standard pattern only for this area. If you look at it, you can more accurately determine. First,
Only for the three extracted areas, the similarity AD istx between the feature quantity of the input pattern and the feature quantity of the two candidate standard patterns
[I] [j] is obtained by the following equation (7).

そして、3つのエリアの相違度の総和をエリア類似度
ADistx[i][j]とする。第20図の例では各エリア類
似度は次の(8)式,(9)式で表わせる。
The sum of the differences between the three areas is calculated as the area similarity.
AD istx [i] [j]. In the example of FIG. 20, each area similarity can be expressed by the following equations (8) and (9).

こうして求められた2候補の標準パターン(x1及び
x2)とのエリア類似度ADistx1,ADistx2の類似度を比較
し、より類似する方(ADistの小さい方)を入力パター
ンの文字と判断する。この入力パターンの文字認識動作
は上述の切出された文字の全てについて行ない、その後
認識動作を終了する。
The two standard patterns thus obtained (x 1 and
x 2 ) and the similarity of the area similarities AD istx1 and AD istx2 are compared, and the more similar one (the smaller AD ist ) is determined as the character of the input pattern. This character recognition operation for the input pattern is performed for all of the extracted characters, and then the recognition operation ends.

この段階で小切手等の金額記入欄に記入されている金
額情報が認識できる。
At this stage, the amount information entered in the amount entry column of the check or the like can be recognized.

なお、上記実施例では大分類時点作成時にクラスター
分析のウォード法を用いているが、これに限定されるも
のではなく、パターン間の一定の類似関係によって分類
できるものであれば何でも良い。又、上記実施例ではク
ラスター特徴量としてクラスター内のパターンの特徴量
の平均を用いているが、平均を用いず、クラスター内の
パターンの1つの特徴量を代表してクラスター特徴量と
しても良く、要するにクラスター内のパターンを代表し
て表現できる特徴量であれば良い。さらに、上記実施例
では変動パターン予め作成し、それを画像入力すること
により変動パターン特徴量を抽出するようにしている
が、この方法に限定されるものではなく、例えば、標準
パターンを画像入力した際の画像データに回転,ずれ等
の画像処理を行なって変動パターンの画像データを作成
して、変動パターン特徴量を抽出するようにしても良
い。
In the above embodiment, the Ward method of the cluster analysis is used at the time of creating the large classification time. However, the present invention is not limited to this, and any method can be used as long as it can be classified by a certain similarity between patterns. Further, in the above embodiment, the average of the feature amounts of the patterns in the cluster is used as the cluster feature amount. However, the average may not be used, and one feature amount of the pattern in the cluster may be used as the cluster feature amount. In short, any feature amount that can represent a pattern in a cluster can be used. Furthermore, in the above-described embodiment, the variation pattern is created in advance and the variation pattern feature is extracted by inputting the image. However, the present invention is not limited to this method. Image data of the variation pattern may be created by performing image processing such as rotation and displacement on the image data at that time, and the variation pattern feature amount may be extracted.

又、上記実施例は小切手等の帳票から文字を切出して
文字パターンを認識するものを示したが、第1図におい
てステップS12を省略して、辞書に紙幣等のパターンの
特徴量を記憶するようにすれば、紙幣等の紙葉類のパタ
ーン認識にもそのまま利用できる。さらに、上記実施例
の特徴量抽出手段は、入力画像をm×nのエリアに区分
して、エリア毎に濃度勾配方向成分毎の濃度勾配強度の
総和を求めているが、m×nのエリアに区分することな
く、濃度勾配方向成分毎の濃度勾配強度の総和を特徴量
とするようにしても良い。
In the above embodiment, the character pattern is recognized by extracting characters from a form such as a check. However, in FIG. 1, step S12 is omitted, and the feature amount of a pattern such as a bill is stored in a dictionary. Then, it can be used as it is for pattern recognition of paper sheets such as banknotes. Further, the feature quantity extracting means of the above embodiment divides the input image into m × n areas and obtains the sum of the density gradient intensities for each density gradient direction component for each area. , The sum of the density gradient intensities for each of the density gradient direction components may be used as the feature amount.

以上のように本発明によれば、入力画像データから一
旦濃度に関する濃度勾配方向及び強度を求め、この濃度
勾配情報を基に特徴量を抽出して認識しており、又この
濃度勾配情報はセンサ系の変動(光源の光量の変化,セ
ンサの感度変化,増幅器のゲイン変動)の影響をほとん
ど受けず、認識媒体が色あせたり、パターンがかすれて
いるときでもほとんど影響を受けないため、このような
場合でも確実にパターンの認識が可能となる。更に、入
力画像をm×nをエリアに区分して、エリア毎の濃度勾
配情報によってパターンの特徴量を求めるようにしてい
るので、パターンを構成する局部毎に比較照合が可能と
なり、より高精度なパターン認識が可能となる。
As described above, according to the present invention, the density gradient direction and the intensity relating to the density are once obtained from the input image data, and the characteristic amount is extracted and recognized based on the density gradient information. It is hardly affected by fluctuations of the system (changes in the light intensity of the light source, changes in the sensitivity of the sensor, fluctuations in the gain of the amplifier), and is almost unaffected even when the recognition medium is faded or the pattern is blurred. Even in this case, the pattern can be reliably recognized. Further, since the input image is divided into m × n areas and the feature amount of the pattern is obtained based on the density gradient information for each area, it is possible to perform comparison and collation for each local part of the pattern, thereby achieving higher accuracy. Pattern recognition becomes possible.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の一実施例を示すブロック構成図、第2
図(A)は手形の一例を示す図、第2図(B)は小切手
の一例を示す図、第3図は本発明の認識用辞書の作成方
法を示すフローチャート、第4図(A)〜(I)及び第
5図はそれぞれ具体的な画像例を示す図、第6図(A)
〜(D)は標準パターンの例を示す図、第7図はスムー
ジング処理例を示すフローチャート、第8図〜第10図は
スムージングを説明するための図、第11図は標準特徴量
の抽出動作を示すフローチャート、第12図〜第14図はそ
の抽出動作を説明するための図、第15図は大分類辞書の
例を示す図、第16図は標準パターンを説明するための
図、第17図は中分類辞書の例を示す図、第18図は中分類
辞書の例を示す図、第19図は詳細分類の動作例を示すフ
ローチャート、第20図は詳細分類を説明するための図で
ある。 1,4……金額記入欄、2,5……情報欄、3,6……金額情報
欄、10……画像入力手段、11……前処理手段、20……画
素成分抽出手段、30……特徴量抽出手段、31……エリア
区分手段、40……比較照合手段、50……記憶手段。
FIG. 1 is a block diagram showing an embodiment of the present invention.
FIG. 2A is a diagram showing an example of a bill, FIG. 2B is a diagram showing an example of a check, FIG. 3 is a flowchart showing a method for creating a recognition dictionary according to the present invention, and FIGS. (I) and FIG. 5 each show a specific image example, and FIG. 6 (A)
To (D) show examples of standard patterns, FIG. 7 is a flowchart showing an example of smoothing processing, FIGS. 8 to 10 are diagrams for explaining smoothing, and FIG. 12 to 14 are diagrams for explaining the extraction operation, FIG. 15 is a diagram showing an example of a large classification dictionary, FIG. 16 is a diagram for explaining a standard pattern, FIG. FIG. 18 is a diagram showing an example of the middle classification dictionary, FIG. 18 is a diagram showing an example of the middle classification dictionary, FIG. 19 is a flowchart showing an operation example of the detailed classification, and FIG. 20 is a diagram for explaining the detailed classification. is there. 1,4 ... Amount entry column, 2,5 ... Information column, 3,6 ... Amount information column, 10 ... Image input unit, 11 ... Preprocessing unit, 20 ... Pixel component extraction unit, 30 ... ... Feature extraction means, 31 area division means, 40 comparison and comparison means, 50 storage means.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06K 9/00 - 9/82 G06T 7/00 G07D 7/00 ──────────────────────────────────────────────────続 き Continued on the front page (58) Fields investigated (Int. Cl. 6 , DB name) G06K 9/00-9/82 G06T 7/00 G07D 7/00

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】被認識パターンを画像入力する画像入力手
段と、この画像入力手段から入力された画像データの各
画素に対して重み付け画素から成る複数のマスクを用い
て演算することにより前記画像データの各画素から濃度
勾配方向成分及び濃度勾配強度成分で成る画素成分を抽
出する画素成分抽出手段と、前記画素成分抽出手段で抽
出された濃度勾配方向毎の濃度勾配強度の総和を特徴量
として抽出する特徴量抽出手段と、認識すべぎパターン
の基準となる標準パターンの特徴量を予め記憶した記憶
手段と、前記特徴量抽出手段で抽出された被認識パター
ンの特徴量及び前記記憶手段に記憶されている標準パタ
ーンの特徴量を比較照合し、その比較結果に基づいて前
記被認識パターンがどの標準パターンであるかを判別す
る比較照合手段とを具備したことを特徴とするパターン
認識装置。
An image input means for inputting an image of a pattern to be recognized, and a plurality of masks each comprising a weighted pixel for each pixel of the image data input from the image input means, thereby calculating the image data. A pixel component extracting means for extracting a pixel component composed of a density gradient direction component and a density gradient intensity component from each pixel, and a total sum of density gradient intensities for each density gradient direction extracted by the pixel component extraction means is extracted as a feature amount. Characteristic amount extracting means, storage means in which the characteristic amount of a standard pattern serving as a reference for a recognition slip pattern is stored in advance, characteristic amount of the pattern to be recognized extracted by the characteristic amount extracting means and stored in the storage means. A comparison / matching unit that compares and matches the feature amounts of the standard patterns, and determines which standard pattern is the recognized pattern based on the comparison result. Pattern recognition apparatus characterized by comprising.
【請求項2】前記特徴量抽出手段は、入力された画像を
m×nの複数のエリアに区分し、この区分されたエリア
毎に前記画素成分抽出手段で抽出された濃度勾配方向成
分毎の濃度勾配強度成分の総和を抽出し、これを前記比
認識パターンの特徴量とする請求項1に記載のパターン
認識装置。
2. The method according to claim 1, wherein the characteristic amount extracting means divides the input image into a plurality of m × n areas, and for each of the divided areas, each of the density gradient direction components extracted by the pixel component extracting means. 2. The pattern recognition apparatus according to claim 1, wherein a sum of density gradient intensity components is extracted and used as a feature amount of the ratio recognition pattern.
【請求項3】前記認識パターンが紙葉類の模様である請
求項1又は2に記眼のパターン認識装置。
3. The eye pattern recognition apparatus according to claim 1, wherein the recognition pattern is a paper sheet pattern.
【請求項4】前記認識パターンが文字パターンである請
求項1又は2に記載のパターン認識装置。
4. The pattern recognition device according to claim 1, wherein the recognition pattern is a character pattern.
JP2229117A 1990-08-30 1990-08-30 Pattern recognition device Expired - Lifetime JP2985893B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2229117A JP2985893B2 (en) 1990-08-30 1990-08-30 Pattern recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2229117A JP2985893B2 (en) 1990-08-30 1990-08-30 Pattern recognition device

Publications (2)

Publication Number Publication Date
JPH04111085A JPH04111085A (en) 1992-04-13
JP2985893B2 true JP2985893B2 (en) 1999-12-06

Family

ID=16887016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2229117A Expired - Lifetime JP2985893B2 (en) 1990-08-30 1990-08-30 Pattern recognition device

Country Status (1)

Country Link
JP (1) JP2985893B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355582B2 (en) 2009-08-10 2013-01-15 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9977957B2 (en) 2013-02-28 2018-05-22 Glory Ltd. Method and system for identifying characters on a valuable medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4727614B2 (en) * 2007-03-30 2011-07-20 シャープ株式会社 Image processing apparatus, control program, computer-readable recording medium, electronic apparatus, and control method for image processing apparatus
JP4727615B2 (en) * 2007-03-30 2011-07-20 シャープ株式会社 Image processing apparatus, control program, computer-readable recording medium, electronic apparatus, and control method for image processing apparatus
JP4964849B2 (en) * 2008-08-29 2012-07-04 シャープ株式会社 Image processing apparatus, image processing program, computer-readable recording medium, electronic apparatus, and image processing method
US8942420B2 (en) * 2012-10-18 2015-01-27 Qualcomm Incorporated Detecting embossed characters on form factor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355582B2 (en) 2009-08-10 2013-01-15 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9977957B2 (en) 2013-02-28 2018-05-22 Glory Ltd. Method and system for identifying characters on a valuable medium

Also Published As

Publication number Publication date
JPH04111085A (en) 1992-04-13

Similar Documents

Publication Publication Date Title
US5799115A (en) Image filing apparatus and method
EP0063454B1 (en) Method for recognizing machine encoded characters
EP1497787B1 (en) System and method for identifying and extracting character strings from captured image data
KR100658119B1 (en) Apparatus and Method for Recognizing Character
JP6080259B2 (en) Character cutting device and character cutting method
US6327386B1 (en) Key character extraction and lexicon reduction for cursive text recognition
US20080310721A1 (en) Method And Apparatus For Recognizing Characters In A Document Image
CN111401099A (en) Text recognition method, device and storage medium
JP2985893B2 (en) Pattern recognition device
US5105470A (en) Method and system for recognizing characters
Ramdan et al. A novel method to detect segmentation points of arabic words using peaks and neural network
US6694059B1 (en) Robustness enhancement and evaluation of image information extraction
KR102094234B1 (en) Serial number recognition Apparatus and method for paper money
JP2965165B2 (en) Pattern recognition method and recognition dictionary creation method
JPH1063789A (en) Learning method for discriminant function
Mostafa An adaptive algorithm for the automatic segmentation of printed Arabic text
JPH11328309A (en) Method and device for optical character read
JP3476595B2 (en) Image area division method and image binarization method
JP2812256B2 (en) Character recognition apparatus and method
JP2785747B2 (en) Character reader
JP3237906B2 (en) Inspection equipment for printed matter
JP2906758B2 (en) Character reader
Assabie et al. Multifont size-resilient recognition system for Ethiopic script
JPH0877293A (en) Character recognition device and generating method for dictionary for character recognition
JP3127413B2 (en) Character recognition device

Legal Events

Date Code Title Description
S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081001

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081001

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091001

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091001

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101001

Year of fee payment: 11

EXPY Cancellation because of completion of term