JPH04199386A - Segmenting method for character - Google Patents

Segmenting method for character

Info

Publication number
JPH04199386A
JPH04199386A JP2332327A JP33232790A JPH04199386A JP H04199386 A JPH04199386 A JP H04199386A JP 2332327 A JP2332327 A JP 2332327A JP 33232790 A JP33232790 A JP 33232790A JP H04199386 A JPH04199386 A JP H04199386A
Authority
JP
Japan
Prior art keywords
character
density gradient
pattern
picture
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2332327A
Other languages
Japanese (ja)
Inventor
Yasuo Fujita
藤田 泰生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2332327A priority Critical patent/JPH04199386A/en
Publication of JPH04199386A publication Critical patent/JPH04199386A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Abstract

PURPOSE:To surely segment a character even in the case that the character is blurred by segmenting the character on the basis of a density gradient. CONSTITUTION:A picture input means 10 picture-inputs a pattern to be recognized, and picture input information is pre-processed by a pre-processing means 11, and is inputted to a character segmenting means 12, and after the character is segmented, it is inputted to a picture element component extracting means 20, and a picture element component consisting of the density gradient direction component and the density gradient intensity component of every picture element of inputted picture data is extracted. Besides, a feature quantity extracting means 30 divides a picture inputted by the picture input means 10 into (mXn)- pieces of meshes by an area dividing means 31, and extracts the total sum of the density gradient intensity components of every density gradient direction component extracted by the picture element component extracting means 20 for every divided area in a vector quantity extracting means 32, and makes it the feature quantity of the pattern to be recognized. By segmenting the character by extracting density gradient information in a horizontal and a vertical directions in this way, the character can be correctly segmented even if the character is blurred.

Description

【発明の詳細な説明】 発明の目的。[Detailed description of the invention] Purpose of the invention.

(産業上の利用分野) 本発明は、文字パターンの認識に際して行なわれる文字
の切出方法に関する。
(Industrial Application Field) The present invention relates to a method for cutting out characters used in character pattern recognition.

(従来の技術) 従来、文字の切出方法としては特開平2−42598号
公報に記載の方法がある。この方法を、第23図を用い
て具体的に説明すると、読取られた画像データの各画素
を画像の濃度ヒストグラムなどに基づいて求めた2値化
レベルで2値化し、2値化像の各画素を文字切出方向に
対し垂直方向に加算した値を求め、その加算値に基づい
て水平方向に投影ヒス]・ダラムを作成する。そして、
その投影ヒストグラム上に所定の闇値を設定し、その閾
値よりも大きい部分か文字の存在している領域であり、
闇値よりも小さい部分が文字の存在していない領域であ
ると判断し、これにより文字を切出している。
(Prior Art) Conventionally, as a method for cutting out characters, there is a method described in Japanese Patent Application Laid-Open No. 2-42598. To explain this method in detail using FIG. 23, each pixel of the read image data is binarized at a binarization level determined based on the density histogram of the image, and each pixel of the binarized image is A value is obtained by adding pixels in a direction perpendicular to the character cutting direction, and based on the added value, a projection His]-Durham is created in a horizontal direction. and,
A predetermined darkness value is set on the projection histogram, and the area that is larger than that threshold or where characters exist,
It is determined that the area smaller than the darkness value is an area where no characters exist, and the characters are extracted accordingly.

従って、複数の文字から成る文字群から1文字ずつ切出
すことができる。
Therefore, each character can be extracted from a character group consisting of a plurality of characters.

(発明か解決しようとする課題) しかしながら、このような従来の方法では例えは第24
図に示されているように、印学文字にかすれか生してい
る場合には正しく文字の切出しができないという問題か
生じていた。特に、このような問題はチエツクライタの
印字用インクの残量か少なくなった時に生じている。具
体的には、第24図の文字r4. 、 r2. 、 r
O,、rO,に示すように文字の縦方向にかすねか生し
た場合には、水平方向に2値画像の投影ヒストグラムを
作成し、たた単に闇値によって2値化してもかすれの部
分は閾値以下となってしまうため、文字領域てないと判
断してしまう。従って、文字を切出すと1つの文字を複
数の文字領域に切出してしまい、文字の切出しに失敗し
たり、部分的に切出してしまうという問題が生じていた
(Invention or problem to be solved) However, in such conventional methods, the 24th
As shown in the figure, if the printed characters were faded, there was a problem in that the characters could not be cut out correctly. Particularly, such problems occur when the amount of printing ink remaining in the check writer becomes low. Specifically, the character r4. in FIG. , r2. , r
If there is a blur in the vertical direction of the character as shown in O,, rO,, creating a projection histogram of a binary image in the horizontal direction and simply binarizing it using the darkness value will not solve the blurred part. is less than the threshold, so it is determined that there is no character area. Therefore, when a character is cut out, one character ends up being cut out into a plurality of character areas, resulting in a problem that the cutout of the character fails or is partially cut out.

それに対して、濃度勾配で見た場合には文字で2Jい部
分には濃度勾配は存在ぜす、かすれの部分には濃度勾配
が存在するため、濃度勾配によって見れは両者を確実に
区別できる。
On the other hand, when looking at the density gradient, there is no density gradient in the part with the letter 2J, but there is a density gradient in the blurred part, so the two can be reliably distinguished by the density gradient.

本発明は上述のような問題に鑑みてなされたものであり
、本発明の目的は、濃度勾配に基づいて文字を切出すた
め文字にかすれが生じているような場合であっても確実
に文字を切出し得る文字の切出し方法を提供することに
ある。
The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to cut out characters based on the density gradient, thereby reliably cutting out characters even when the characters are blurred. The object of the present invention is to provide a character cutting method that can cut out characters.

発明の構成: (課題を解決するための手段) 本発明は、文字パターン認識における文字の切出方法に
関するもので、本発明の上記目的は、文字情報を入力す
る画像入力手段と、画像入力された画像データの各画素
毎の濃度勾配方向及び素度勾配強度を求める濃度勾配情
報抽出手段と、前記濃度勾配情報抽出手段で得られた情
報を、文字の切出方向に沿った勾配方向について文字の
切出方向に対して垂直に加算して、文字の切出方向の濃
度勾配方向分布を抽出する第1の濃度勾配方向分布抽出
手段と、文字の切出方向と逆方向に沿った勾配方向につ
いて文字の切出方向に対して垂直に加算して、文字の炉
出方向と逆方向の濃度勾配方向分布を抽出する第2の濃
度勾配方向分布抽出手段と、前記第1の濃度勾配方向分
布抽出手段により抽出された分布状態に基づいて文字の
一方の端を検出する第1の文字端検出手段と、前g8第
2の濃度勾配方向分布抽出手段により抽出された分布状
態に基づいて文字の他方の端を検出する第2の文字端検
出手段とを設け、前記第1の文字端検出手段で検出され
た文字端と、前記第2の文字端検出手段で検出された他
方の文字端との間を文字領域とすることによって達成さ
れる。
Structure of the Invention: (Means for Solving the Problems) The present invention relates to a method for cutting out characters in character pattern recognition. a density gradient information extracting means for calculating the density gradient direction and elementary gradient strength for each pixel of the image data; a first density gradient direction distribution extraction means for extracting a density gradient direction distribution in the character cutting direction by adding perpendicularly to the character cutting direction; and a gradient direction along the opposite direction to the character cutting direction. a second concentration gradient direction distribution extracting means for extracting a concentration gradient direction distribution in a direction opposite to the oven exit direction of the characters by adding perpendicularly to the cutting direction of the characters; and the first concentration gradient direction distribution. A first character edge detection means detects one end of the character based on the distribution state extracted by the extraction means, and a first character end detection means detects one end of the character based on the distribution state extracted by the second concentration gradient direction distribution extraction means. a second character edge detection means for detecting the other edge; the character edge detected by the first character edge detection means and the other character edge detected by the second character edge detection means; This is achieved by making the space between the characters a character area.

(作用) 本発明は小切手1手形等にチエツクライタで記入された
数字等を確実に認識するための文字の切出方法を提供し
ている。小切手1手形等(以下、iJs切手等というン
の金額記入欄の画像を久カしその入力された画像データ
により金額情報を構成する各文字を1文字毎に切出し、
切出された文字を各々認識して、最終的には小切手等の
金額を読取るものである。
(Function) The present invention provides a method for cutting out characters for reliably recognizing numbers written on a check or the like with a check writer. The image of the amount entry field of a check, etc. (hereinafter referred to as iJs stamp, etc.) is taken for a long time, and each character constituting the amount information is cut out character by character using the input image data.
It recognizes each cut out character and ultimately reads the amount of money on a check, etc.

本発明ては、文字の各画素毎の濃度勾配方向及び濃度勾
配強度を濃度勾配情報抽出手段で求め、文字の切出方向
に沿った勾配方向について文−卜の切出方向に対して垂
直に加算して文字の切出方向の濃度勾配方向分布を抽出
すると共に、文字の切出方向と逆方向に沿った勾配方向
について文字の切出方向に対して垂直に加算して文字の
切出方向と逆方向の濃度勾配方向分布を抽出し、抽出さ
れた分布状態に基づいて文字の両端を検出して切出して
いる。本発明によれば水平方向及び垂直方向の濃度勾配
情報を抽出しているので、文字にがすれかあっても正確
な切出を実現できる。
In the present invention, the density gradient direction and density gradient strength for each pixel of a character are obtained by a density gradient information extraction means, and the gradient direction along the character cutting direction is perpendicular to the text-card cutting direction. The density gradient direction distribution in the character cutting direction is extracted by addition, and the gradient direction along the direction opposite to the character cutting direction is added perpendicularly to the character cutting direction to extract the character cutting direction. The density gradient direction distribution in the opposite direction is extracted, and both ends of the character are detected and cut out based on the extracted distribution state. According to the present invention, since density gradient information in the horizontal and vertical directions is extracted, accurate cutting can be achieved even if the characters are faded or scratched.

(実施例) 以下に本発明の詳細な説明する。(Example) The present invention will be explained in detail below.

本実施例は小切手1手形等に記入されている金額を認識
するためのものであり、最終的に認識すべき文字の種類
は数字の「0〜9」及び日記号[¥J、’*j等の終桁
符号の12種類である。第2図(A)は手形の一例を示
しており、中央部にチエツクライタで金額を記入するた
めの金額記入欄1が設けられている。また、第2図(B
)は小切手の一例を示しており、中央部にチエツクライ
タで金額を記入するための金額記入欄4が設けられてい
る。本発明は、これら手形又は小切手等の金額記入欄(
1,4)にチエツクライタて記入される数字1日記号及
び「*」等の終桁符号を認識するための文字切出方法に
関するものである。
This embodiment is for recognizing the amount written on a check, etc., and the types of characters to be finally recognized are the numbers "0 to 9" and the day symbol [¥J, '*j There are 12 types of final digit codes such as . FIG. 2(A) shows an example of a bill, in which an amount entry field 1 is provided in the center for entering the amount with a check writer. Also, Figure 2 (B
) shows an example of a check, in which an amount entry field 4 is provided in the center for entering the amount with a check writer. The present invention provides an amount entry column (
The present invention relates to a character extraction method for recognizing the 1st day symbol and the last digit symbol such as "*" written in 1 and 4) with a check writer.

先ず、文字認識装置の一例を第1図に示して説明すると
、イメージセンサ等の画像入力手段10は小切手等の被
認識パターンを画像入力し、画像入力情報を前処理手段
11て前処理(スムージング)して後、本発明の文字切
出方法12に入力して文字の切出しを行なってから画素
成分抽出手段20に入力し、入力された画像データの各
画素毎の濃度勾配方向成分及び濃度勾配強度成分から成
る画素成分を抽出する。画素成分の抽出か終了すると特
徴量抽出手段30による処理に移る。特徴量抽出手段3
0は、先ずエリア区分手段31において画像入力手段1
0て入力された画像をmxnのメツシュに区分し、ヘク
トル量抽出手段35において区分されたエリア毎に画素
成分抽出手段20で抽出された濃度勾配方向成分毎の濃
度勾配強度成分の総和を抽出して被認識パターンの特微
量とする。記憶手段50は大分類辞書51及び中分類辞
書52で成っており、比較照合手段40は特徴量抽出手
段30で抽出された特微量及び記憶手段50に記憶され
ている標準パターンの特微量を比較照合し、その比較結
果に基づいて認識結果を出力するようになっている。
First, an example of a character recognition device will be described with reference to FIG. ), the input image data is inputted to the character extraction method 12 of the present invention to perform character extraction, and then inputted to the pixel component extraction means 20, and the density gradient direction component and density gradient of each pixel of the inputted image data are inputted to the pixel component extraction means 20. Extract pixel components consisting of intensity components. When the extraction of pixel components is completed, processing by the feature extracting means 30 is started. Feature extraction means 3
0 is first input to the image input means 1 in the area division means 31.
The input image is divided into mxn meshes, and the hector quantity extraction means 35 extracts the sum of the concentration gradient strength components for each concentration gradient direction component extracted by the pixel component extraction means 20 for each divided area. is used as the feature amount of the pattern to be recognized. The storage means 50 consists of a major classification dictionary 51 and a medium classification dictionary 52, and the comparison and matching means 40 compares the feature amount extracted by the feature amount extraction means 30 and the feature amount of the standard pattern stored in the storage means 50. The system performs a comparison and outputs a recognition result based on the comparison result.

次に、文字認識に用いる認識用辞書について説明する。Next, a recognition dictionary used for character recognition will be explained.

第3図は認識用辞書の作成動作を示す概略フローであり
、第3図において、初めに標準パターン毎の標準時微量
の抽出まての概略を説明すると、先ず標準パターンにつ
いての画像入力か行なわれ(ステップS1)、前処理と
してスムージングか行なわれ(ステップS2)、その後
に標準パターン毎の標準時微量の抽出か行なわれる(ス
テップS3)。ここて、標準パターン及びその画像入力
Fig. 3 is a schematic flowchart showing the operation of creating a recognition dictionary.In Fig. 3, first, an outline of the extraction of the standard time trace amount for each standard pattern will be explained.First, an image input for the standard pattern is performed. (Step S1), smoothing is performed as preprocessing (Step S2), and then a standard time minute amount is extracted for each standard pattern (Step S3). Here, input the standard pattern and its image.

スムージング処理、標準時微量の抽出の工程を詳しく説
明する。
The smoothing process and standard time trace extraction process will be explained in detail.

標準パターンの種類は第6図(A) に示すようなもの
であり、12種の文字に対して文字の形態を考慮して予
め220個のパターンが作成されている。
The types of standard patterns are as shown in FIG. 6(A), and 220 patterns have been created in advance for 12 types of characters, taking into consideration the form of the characters.

かかる220個のパターンの各々か標準パターンであり
、通常使用されている文字形態の大部分が含まれている
。この標準パターンのうちの幾つかを詳しく示したもの
が第6図(B)〜(D)である。画像入力はこのように
予め作成された所定の大きさの標準パターンを、例えば
24X24画素の矩形範囲で各画素毎に濃度階調を8ビ
ツトの256階調で読取っている。この入力された画像
データの例が第4図(A)てあり、この画像データは前
処理としてスムージング処理がなされるが、このスムー
ジング処理を次に説明する。
Each of these 220 patterns is a standard pattern and includes most of the commonly used character forms. Some of these standard patterns are shown in detail in FIGS. 6(B) to 6(D). Image input is performed by reading a standard pattern of a predetermined size created in advance in this manner, for example, in a rectangular range of 24 x 24 pixels, with the density gradation of each pixel being read in 256 8-bit gradations. An example of this input image data is shown in FIG. 4(A), and this image data is subjected to smoothing processing as pre-processing, and this smoothing processing will be explained next.

第7図はスムージング処理の動作例を示すフローチャー
トであり、第8図〜第10図はその説明図である。スム
ージング処理は第1O図に示す3×3画素のスムージン
グマスクを、入力画像データについて走査することによ
り入力画像データの平滑化を行なっている。すなわち、
先ず第8図に示すように入力画像データの各画素毎の濃
度値に基づいて、その濃度値の画素数のヒストグラムを
作成しくステップ520)、そのピークとなる濃度値を
背景濃度値(BP)として算出する(ステップ521)
。これは、通常文字パターンは文字部分よりも背景部分
が多く、背景部分の濃度値は一定となるため、ピークと
なる濃度値(BP)が背景の濃度値となるからである。
FIG. 7 is a flowchart showing an example of the operation of the smoothing process, and FIGS. 8 to 10 are explanatory diagrams thereof. In the smoothing process, the input image data is smoothed by scanning the input image data with a 3×3 pixel smoothing mask shown in FIG. 1O. That is,
First, as shown in FIG. 8, based on the density value of each pixel of the input image data, a histogram of the number of pixels of the density value is created (step 520), and the density value that becomes the peak is used as the background density value (BP). (Step 521)
. This is because a normal character pattern has more background parts than character parts, and the density value of the background part is constant, so the peak density value (BP) becomes the density value of the background.

そして、第9図に示すように背景濃度値を24X24画
素の周囲に1画素配置し、26X 2B画素の画像デー
タとする(ステップ522)。
Then, as shown in FIG. 9, one pixel of the background density value is arranged around the 24×24 pixels to obtain image data of 26×2B pixels (step 522).

これは、3×3画素のスムージングマスクが24X24
画素内の入力画素データの全てについて作用し得るよう
にするためである。次に、26X 26画素の画像デー
タに対して第10図に示すスムージングマスクを走査し
くステップ523)、入力画像データの平滑化を行ない
、その結果を以後の画像データとして使用する。この段
階の画像データの例か第4図(B)である。このように
スムージング処理を行なっておくことにより、チエツク
ライタでの文字の刻印による模様を文字の濃度値で埋め
ることになり、文字刻印模様を消去することが出来る。
This means that the 3x3 pixel smoothing mask is 24x24
This is to enable the operation to be performed on all input pixel data within a pixel. Next, the 26×26 pixel image data is scanned with the smoothing mask shown in FIG. 10 (step 523), the input image data is smoothed, and the result is used as subsequent image data. An example of image data at this stage is shown in FIG. 4(B). By performing the smoothing process in this way, the pattern of characters engraved by the check writer is filled with the density value of the characters, and the character engraved pattern can be erased.

よって、安定な文字特徴か得られる利点かある。Therefore, there are advantages to be gained from stable character features.

次に、上述のようにしてスムージング処理された画像デ
ータに対して標準時微量の抽出を行なう(第3図のステ
ップS3)。この標準時微量の抽出動作を第12図〜第
15図を参照して説明する。
Next, a standard time trace amount is extracted from the image data smoothed as described above (step S3 in FIG. 3). The extraction operation of this standard time trace amount will be explained with reference to FIGS. 12 to 15.

第12図はal!準パターンの標準時微量の抽出動作を
示すフローチャートであり、先ずスムージング処理され
た画像データにロヒンソン・オペレータを使用して各画
素毎に濃度勾配強度及び濃度勾配方向を求める(ステッ
プ530〜532)、ロビンソン・オペレータを示すの
か第13図であり、3×3画素の各画素に重みか付けら
れている8種類のマスクM0〜M7て成っており、各マ
スクM o ” M 7はそのマスクか有する方向の勾
配強度を抽出するためのものである。例えはマスクM。
Figure 12 is al! This is a flowchart showing the extraction operation of a standard time minute amount of a quasi-pattern, in which first, the Rohinson operator is used on the smoothed image data to obtain the density gradient strength and density gradient direction for each pixel (steps 530 to 532).・The operator is shown in Fig. 13, which consists of 8 types of masks M0 to M7 in which each pixel of 3 x 3 pixels is weighted, and each mask M o '' M 7 has a direction that the mask has. For example, mask M.

により画像データを走査すれは、各画素毎に↑方向の勾
配強度(EPo)か求められる。このように、87i向
のマスクMo〜M7を用いて画像データを走査すること
によって、各画素毎に各方向毎の濃度勾配強度(EPo
〜EP7)を求めることかできる(ステ・ツブ530)
。なお、濃度勾配強度EP、−EP7はそれぞれマスク
MO〜M7に対応している。このようにして各画素毎に
求めた濃度勾配強度(EPo−EP7)の中から最大値
(EP、)を求める(ステップ531)。そして、最大
値(EP+)をその画素の濃度勾配強度とし、その最大
値EP、に対応する方向を濃度勾配方向とする(ステッ
プ532)。第4図(C)  に、このようにして求め
た画像データを示す。
When the image data is scanned, the gradient strength (EPo) in the ↑ direction is determined for each pixel. In this way, by scanning the image data using the masks Mo to M7 in the 87i direction, the concentration gradient strength (EPo
~EP7) can be found (Ste Tsubu 530)
. Note that the concentration gradient intensities EP and -EP7 correspond to the masks MO to M7, respectively. The maximum value (EP, ) is determined from among the concentration gradient intensities (EPo-EP7) determined for each pixel in this manner (step 531). Then, the maximum value (EP+) is set as the density gradient strength of that pixel, and the direction corresponding to the maximum value EP is set as the density gradient direction (step 532). FIG. 4(C) shows the image data obtained in this manner.

次に、このようにして求めた各画素毎の濃度勾配強度に
関して2値化処理を行なう(ステップS33,540〜
543)。第14図(A)参照して、2値化処理のため
の閾値を決定する方法を説明する。先ず全ての画素の中
から濃度勾配強度の最大値(EPffi、、)を求め(
ステップ533)、この最大値(EP□8)が所定の範
囲にあるとことをチエツクしくステップ540)、それ
以外の値があると画像入力ミスとしてエラー処理をする
(ステップ541)、これにより、画像処理の初期の段
階で画像入力ミスを発見できる。そして、最大値(EP
−8)が所定範囲内であれば、この1/8のEPmax
/8を閾値(EPTH;以下「有効レベル閾値」という
)とする(ステップ542)。そして、各画素の濃度勾
配強度(Ej+)が有効レベル閾値(EPTH)より太
きけれはその画素の濃度勾配強度を1゛°とし、有効レ
ベル閾値(El”TH)より小さければその画素の濃度
勾配強度を“0”とする(ステップ543)。これによ
り、各画素の濃度勾配強度は゛0パ又は“1”の2値化
が行なわれる。この2値化された画像データの例が第4
図CD)であり、更にこれに濃度勾配方向も合せて表示
した例が第4図(E)である。
Next, binarization processing is performed on the density gradient strength of each pixel obtained in this way (steps S33, 540 to
543). A method for determining a threshold value for binarization processing will be described with reference to FIG. 14(A). First, find the maximum value of concentration gradient strength (EPffi, ) among all pixels (
Step 533), check if this maximum value (EP□8) is within a predetermined range (Step 540), and if there is any other value, perform error processing as an image input error (Step 541). Image input errors can be detected at the early stage of image processing. And the maximum value (EP
-8) is within the predetermined range, this 1/8 EPmax
/8 is set as a threshold value (EPTH; hereinafter referred to as "effective level threshold value") (step 542). If the density gradient strength (Ej+) of each pixel is thicker than the effective level threshold (EPTH), the density gradient strength of that pixel is set to 1゛°, and if it is smaller than the effective level threshold (El”TH), the density gradient of that pixel is The intensity is set to "0" (step 543).As a result, the density gradient intensity of each pixel is binarized to 0 or "1".An example of this binarized image data is shown in the fourth example.
FIG. 4(E) is an example in which the concentration gradient direction is also displayed.

なお、ここでは2値化して濃度勾配強度を0又は1に決
定し簡略化しているか、2値化せずに各画素毎の濃度勾
配強度自体をそのまま利用することもてきるし、又、第
14図(B)及び(0に示しているように濃度勾配強度
を量子化して利用することもてきる。第14図(B)の
場合は最大値(EP、、a、)を8段階に区分し、濃度
勾配強度をO〜7の8段階の量子化している。第14図
(C)の場合は濃度勾配強度のヒストグラムの累積加算
をし、その最大値を8等分にして濃度勾配強度を0〜7
の8段階に量子化している。このように多段階に量子化
した値を利用して各画素毎の濃度勾配強度を決定すれば
、より精度が向上する。
Note that here, it is possible to simplify by binarizing and determining the density gradient strength as 0 or 1, or to use the density gradient strength itself for each pixel as it is without binarizing it. As shown in Figure 14 (B) and (0), the concentration gradient strength can also be quantized and used. In the case of Figure 14 (B), the maximum value (EP,, a,) is divided into 8 steps. The concentration gradient strength is quantized in 8 steps from 0 to 7. In the case of Fig. 14 (C), the histogram of the concentration gradient strength is cumulatively added, and the maximum value is divided into 8 equal parts to calculate the concentration gradient. Intensity 0-7
It is quantized in 8 stages. If the density gradient strength for each pixel is determined using values quantized in multiple stages in this manner, accuracy will be further improved.

次に、第15図の(A)  に示すようにこの2値化さ
れた画像データを(ixj)等分し、複数のエリアに区
分する(ステップ544)。ここては、4×4の16の
エリア(SP、 [i] [j] [k] i−0〜3
. j−0〜3)に区分した場合を示している。但し、
1は水平方向の区分番号、Jは垂直方向の区分番号、X
は標準パターンの番号である。そして、第15図(B)
のように各エリア毎に濃度勾配方向毎の濃度勾配強度の
総和(sp、 [i] [jl [k] ; i・0〜
3. j−0〜3゜k−0〜7)を求める(ステップ5
45)。但し、kは濃度勾配方向である。このようにし
て求められた値SP、 [i] [jl [k]か標準
パターンの標準時微量であり、i X j X k (
−128)次元のベクトル量である。
Next, as shown in FIG. 15(A), this binarized image data is equally divided (ixj) into a plurality of areas (step 544). Here, 16 areas of 4 x 4 (SP, [i] [j] [k] i-0 to 3
.. The case of classification into j-0 to j-3) is shown. however,
1 is the horizontal section number, J is the vertical section number, X
is the standard pattern number. And Figure 15 (B)
The sum of concentration gradient strengths for each concentration gradient direction for each area (sp, [i] [jl [k]; i・0~
3. j-0~3゜k-0~7) (step 5
45). However, k is the concentration gradient direction. The value SP obtained in this way, [i] [jl [k] is a standard time trace amount of the standard pattern, i X j X k (
−128) dimension vector quantity.

以上の工程によって標準パターンの標準時微量か求めら
れる。そして、1つの標準時微量について所定回数、例
えば同一の10個の標準パターンにより各々特徴量を求
め、その平均値をその標準パターンの正規の標準時微量
として記憶する(ステップS3)。
Through the above steps, the standard time trace amount of the standard pattern can be determined. Then, the feature amount is obtained for each standard time trace amount a predetermined number of times, for example, using the same 10 standard patterns, and the average value is stored as the regular standard time trace amount of that standard pattern (step S3).

第3図において、220個の全ての標準パターンについ
て同様にして標準時微量(SP、 [i] [jl [
k] )を求める(ステップ54)。
In FIG. 3, the standard time trace amount (SP, [i] [jl [
k] ) is determined (step 54).

次に、各標準パターンの標準時微量SFX[i] [j
l[k]に基づいて大分類辞書を作成する(ステップS
5)。大分類辞書の内容は第16図に示すようになって
おり、この大分類辞書は各標準パターンの標準時微量か
一定の類似関係にあるものを1つの小集団(以下、クラ
スターとする)として、複数のクラスターから構成され
ている。具体的には標準時微量に基づいて一般に知られ
ているクラスター分析法、例えはウォート法でクラスタ
ーを作成する。すなわち、標準パターンの標準時微量間
の類似度を示すシティ−ブロック距!If (Dift
)を全ての標準パターンの組合せについて、次の(1)
式により求める。
Next, the standard time trace amount SFX [i] [j
Create a major classification dictionary based on l[k] (step S
5). The contents of the major classification dictionary are as shown in Figure 16, and this major classification dictionary treats each standard pattern as a small group (hereinafter referred to as a cluster) of standard time trace amounts or those that have a certain similarity relationship. Consists of multiple clusters. Specifically, clusters are created using a generally known cluster analysis method, such as the Wart method, based on standard time trace amounts. In other words, the city-block distance indicates the degree of similarity between standard time traces of standard patterns! If (Dift
) for all standard pattern combinations, the following (1)
Obtained by the formula.

Dift(X、×2) ・・・・・・・・・(1) (但し、xi、x2 は標準パターン番号)そして、全
ての組合せについてシティブロック距離を算出した結果
、距離が最も小さいもの同士を1つのクラスターとし、
そのクラスターに属する標準パターンの標準時微量の平
均値をそのクラスターの特徴量とする。次に、再度クラ
スター及びその他の標準パターンとの全ての組合せにつ
いて特徴量のシティ−ブロック距離を算出し、距離の最
も小さいものを1つのクラスターとする。以下、同し動
作をシティブロック距離が所定値(例えば100 )以
下になるまで、又はクラスターの数が所定数(例えば5
0個)になるまで繰返す。このように、ウォード法によ
り標準パターンの標準時微量の類似度によりクラスター
分けされたものか大分類辞書である。
Dift (X, ×2) ・・・・・・・・・(1) (However, xi, x2 are standard pattern numbers) Then, as a result of calculating the city block distance for all combinations, the ones with the smallest distance are is one cluster,
The average value of the standard time trace amount of the standard pattern belonging to the cluster is taken as the feature quantity of the cluster. Next, the city-block distances of the features are calculated again for all combinations with clusters and other standard patterns, and the one with the smallest distance is defined as one cluster. From then on, the same operation is repeated until the city block distance becomes less than a predetermined value (for example, 100) or the number of clusters becomes a predetermined number (for example, 5).
Repeat until 0 pieces are left. In this way, it is a large classification dictionary that is divided into clusters based on the minimal similarity of standard patterns using Ward's method.

更に各クラスター毎に特徴量か定められる。これをクラ
スター特微量という。クラスター特(数量(cspn[
i][jl [k] ;但し、nはクラスタ一番号)は
、各クラスターに属する標準パターンの標準時微量の平
均である。後述するように、実際の認識の際にはこのク
ラスター特微量に基づいて大分類が行なわれるのであり
、このクラスター特微量とクラスターとの対応関係が大
分類辞書である。なお、この段階の大分類辞書の例が第
16図に示すものである。これに対し、中分類辞書は各
標準パターンとその標準時微量との対応関係を示すもの
である。第16図の1つについて説明しておくと、例え
ばクラスター[14]ではこのクラスターに属する標準
パターンはb3のr3. 、b5の「5」てあり、又、
このクラスターのクラスター特微量C3PI4[母[j
l [k]はb3の標準時微量SPy ti][jl 
[k]とb5の標準時微量5Rbs [i] [jl 
[k]の平均値となっている。
Furthermore, features are determined for each cluster. This is called a cluster feature. Cluster special (quantity (cspn [
i] [jl [k]; where n is the cluster number) is the average of the standard time trace amounts of the standard patterns belonging to each cluster. As will be described later, during actual recognition, major classification is performed based on this cluster feature amount, and the correspondence relationship between this cluster feature amount and clusters is a major classification dictionary. An example of the major classification dictionary at this stage is shown in FIG. On the other hand, the intermediate classification dictionary shows the correspondence between each standard pattern and its standard time trace amount. To explain one example in FIG. 16, for example, in cluster [14], the standard pattern belonging to this cluster is r3 of b3. , there is "5" in b5, and
The cluster feature amount C3PI4[mother[j
l [k] is the standard time trace amount of b3 SPy ti] [jl
Standard time trace amount of [k] and b5 5Rbs [i] [jl
It is the average value of [k].

次に、第16図の大分類基本・辞書に変動パターンの追
加登録をする動作について、第3図のステップ510以
下で説明する。変動パターンは、認識用辞書か実際に使
用される認識装置の被認識媒体(文字パターン)の読取
精度に応じて決められている。具体的には、認識装置で
被認識媒体の読取精度が回転量で+4度、ずれ量では±
1画素(0,25+nm)であったとすると2その変動
パターンは例えは回転の場合のものとして一4度、−3
度、−2度、−1度 +1度、+2度、+3度、+4度
、ずれの場合で一1画素、+1画素の10種類の変動パ
ターンが標準パターン(220個)に対して各々作成す
る〜。その−例を、文字゛0°°について第17図に示
す。すなわち、第17図(^)の標準パターンに対して
、変動パターンは同図(8)の如く示される。又、この
実施例では回転とずれとを別々にして変動パターンを作
成しているが、回転°゛−4度゛でずれ゛−1画素°。
Next, the operation of additionally registering a variation pattern in the major classification basic/dictionary shown in FIG. 16 will be explained from step 510 onward in FIG. The variation pattern is determined depending on the reading accuracy of the recognition medium (character pattern) of the recognition dictionary or the recognition device actually used. Specifically, the reading accuracy of the medium to be recognized by the recognition device is +4 degrees in rotation amount and ±± in deviation amount.
If it is 1 pixel (0,25+nm), 2 its fluctuation pattern is 14 degrees, -3 for example in the case of rotation.
10 types of variation patterns of 11 pixels and +1 pixel are created for the standard pattern (220 pieces) for degrees, -2 degrees, -1 degrees, +1 degrees, +2 degrees, +3 degrees, +4 degrees, and deviations. ~. An example thereof is shown in FIG. 17 for the character "0°". That is, with respect to the standard pattern shown in FIG. 17(^), the variation pattern is shown as shown in FIG. 17(8). Further, in this embodiment, the rotation and shift are made separately to create a variation pattern, but the shift is -1 pixel degree for -4 degrees of rotation.

のように回転とずれを組合せた変動パターンを加えてお
くこともできる。
It is also possible to add a variation pattern that combines rotation and displacement, such as:

操作部により、画像入力される変動パターンに対応する
標準パターンのパターン信号を入力し、その変動パター
ンを画像入力する(ステップ510)。入力された画像
データには標準パターンを入力したとぎと同様にスムー
ジング処理を行ない(ステップ511)、その後に変動
パターン特徴量(vp、 [i] [jl[k])を求
め(ステップ512)、この特徴量に基づいて大分類辞
書により大分類の分類を行なう。大分類は、大分類辞書
の各クラスターのクラスター標準特徴量(C5P、 [
i] [jl [k])  と変動パターン特徴量(V
P、 [i] [jl [k] )との類似度(D+5
tn)を下記(2)式により算出しくステップ513)
、最も類似度の高い(D+stnが最小となる)クラス
ターに属すると判断する(ステップ514)。
A pattern signal of a standard pattern corresponding to the fluctuation pattern input as an image is input using the operation unit, and the fluctuation pattern is input as an image (step 510). The input image data is subjected to smoothing processing in the same way as when the standard pattern was input (step 511), and then the variable pattern feature amount (vp, [i] [jl[k]) is calculated (step 512), Based on this feature amount, a major classification is performed using a major classification dictionary. The major classification is based on the cluster standard feature value (C5P, [
i] [jl [k]) and the variation pattern feature (V
P, [i] [jl [k] ) similarity (D+5
tn) using the following formula (2).Step 513)
, is determined to belong to the cluster with the highest degree of similarity (D+stn is the minimum) (step 514).

1stn −弘孔。、=j、 (vp、 [i] [jl [k]
 −C5P、、 [i] l] [k]) :・・・・
・・・・・(2) たたし、nはクラスタ一番号である。
1stn - Hiroko. ,=j, (vp, [i] [jl [k]
-C5P,, [i] l] [k]) :...
...(2) Where, n is the cluster number.

そして、判断さねたクラスター内にその変動パターンに
対応する標準パターンか既に登録されているかどうかを
チエツクしくステップ515)、登録されていなけれは
、そのパターンをそのクラスター内に追加登録する(ス
テップs15.517)。登録はm 準パターンに対応
するパターン番号のみて、既に登録されてあれば次の変
動パターンについて上記動作を行なう。上述のような変
動パターンの追加登録動作は、標準パターン(220個
)に対応する変動パターンの全てについて行ない、全て
終れば終了となる。なお、変動パターンの追加登録の際
には標準パターンのパターン番号をクラスター内に追加
登録するのみて、大分類に使用するクラスター特徴量に
ついては更新しない。これは、既存の220個とは別の
新規の標準パターン追加時に、再度全標準パターン内で
の大分類の必要性かなくなる上、クラスター特徴量の鈍
化を防き、クラスター内のクラスター特徴量の類似性の
差の拡大を行なうためである。
Then, it is checked whether a standard pattern corresponding to the variation pattern has already been registered in the failed cluster (step 515), and if it has not been registered, the pattern is additionally registered in the cluster (step s15). .517). For registration, only the pattern number corresponding to the m quasi-pattern is registered, and if it has already been registered, the above operation is performed for the next variation pattern. The above-described additional registration operation of variation patterns is performed for all of the variation patterns corresponding to the standard patterns (220 pieces), and ends when all of them are completed. Note that when additionally registering a variable pattern, only the pattern number of the standard pattern is additionally registered in the cluster, and the cluster feature used for major classification is not updated. This eliminates the need for major classification within all standard patterns again when adding a new standard pattern other than the existing 220, and also prevents the cluster features from slowing down. This is to expand the difference in similarity.

次に、上記変動パターンの追加登録の際には、後述する
詳細分類で使用するパターン毎の各エリア毎の重みを算
出しているが(ステップS18.518AS19)、こ
ねについて説明する。これは画像入力の際に変動が生じ
た場合であっても、どのエリアか変動による影響が少な
いかを予め調べておくためである。この算出動作を第1
8図に従って説明する。
Next, when additionally registering the fluctuation pattern, the weight for each area of each pattern used in the detailed classification described later is calculated (step S18, 518AS19), and kneading will be explained. This is to check in advance which area is least affected by the change even if a change occurs during image input. This calculation operation is
This will be explained according to Figure 8.

大分類辞書の作成時に処理された標準パターン番号Xの
入力文字のn個の変動パターン特徴量(VP−、p [
i] [jl [k]) (P  文字変動パターン番
号1〜n)に対し、4×4のメツシュエリア(ij)毎
の平均特徴量μX [1] [J] [k]及びそのエ
リア毎の特徴量分散OX2 E ;コ[」]を次の(3
)及び(4)式により算出し、エリア毎の特徴量分散O
x’ [i] [jlの逆数を重みWTヶ[i] [j
l として記憶しておく。全変動パターンについて特徴
量の算出か終了すると、算出された変動パターン特11
5!量νPx f+J [J] fklのメツシュエリ
ア(i、j)毎の平均特徴11及び特徴量分散0.2を
下記(3)及び(4)に従って算出する(ステップ55
0)。そして、特徴量分散08′の逆数を重みWT、 
[i] [jl としくステップ551)、jli ミ
g? 書登録する(ステップ552)。この重みwT、
[rJ[jlの大きいエリアか、画像入力の際に変動が
生してもその影響の少ない安定したエリアである。
n variable pattern features (VP-, p [
i] [jl [k]) For (P character variation pattern numbers 1 to n), the average feature amount μX for each 4×4 mesh area (ij) [1] [J] [k] and the feature for each area Quantity dispersion OX2 E;
) and (4), and the feature value variance for each area O
x' [i] [The reciprocal of jl is the weight WT [i] [j
Remember it as l. When the feature values have been calculated for all variation patterns, the calculated variation pattern characteristics 11
5! The average feature 11 and feature variance 0.2 for each mesh area (i, j) of the amount νPx f+J [J] fkl are calculated according to (3) and (4) below (step 55
0). Then, the reciprocal of the feature variance 08' is the weight WT,
[i] [jl step 551), jli mig? registration (step 552). This weight wT,
This is an area where [rJ[jl is large, or a stable area that is less affected by fluctuations that occur during image input.

σ X’[+][Jコ n   P”l  X++0 ・・・・・・(4) 第19図か変動パターンを追加登録したこの段階の大分
類辞書の例であり、第16図の大分類辞書と比較すると
、例えはクラスターNo、]4ては”e3.e5.b8
.o8°゛の4個の標準パターン番号が追加登録されて
いるのか分る。なお、第19図に示す大分類辞書が実際
のパターン認識の際に使用されるものである。ここで、
大分類辞書とは類似する文字集団であるクラスターと、
そのクラスターかもつクラスター特徴量との対応関係を
示すものであり、大分類辞書に基づく大分類とは被認識
文字の特徴量とクラスター特復量とを比較し、被認識文
字がどのクラスターに属する文字であるかを判別する処
理である。
σ X'[+][Jkon P”l Comparing with the dictionary, for example, cluster No.]4 is “e3. e5. b8
.. It can be seen that the four standard pattern numbers o8°゛ have been additionally registered. Note that the major classification dictionary shown in FIG. 19 is used in actual pattern recognition. here,
The major classification dictionary consists of clusters, which are groups of similar characters,
It shows the correspondence relationship between the cluster features and the cluster features, and major classification based on the major classification dictionary is to compare the features of the character to be recognized with the cluster characteristics and determine which cluster the character to be recognized belongs to. This is a process to determine whether it is a character.

次に、上記認識用辞書を用いた場合の文字パターン認識
動作について第1図のブロック図に基づいて説明する。
Next, a character pattern recognition operation using the above-mentioned recognition dictionary will be explained based on the block diagram of FIG.

先ず画像入力手段10の画像センサで、例えば第2図(
B)に示す小切手の金額記入欄4の画像を入力する。こ
の金額記入欄4は予め定められた位置であり、この欄内
の#淡濃度を256階調で画像センサにより取得する。
First, the image sensor of the image input means 10, for example, as shown in FIG.
Input the image of the amount entry column 4 of the check shown in B). This amount entry column 4 is a predetermined position, and the #light density in this column is acquired by an image sensor in 256 gradations.

第5図(A)が金額記入欄4の原画を示し、ている。こ
のように取得された画像データを前処理手段11でスム
ージングして平滑化を行なう。この結果第5図(11)
のようになり、スムージング処理された画像データに基
つき文字切出手段]2は文字の切出しを行なう。
FIG. 5(A) shows the original drawing of the amount entry field 4. The image data thus obtained is smoothed by the preprocessing means 11. As a result, Figure 5 (11)
Based on the smoothed image data, the character cutting means 2 cuts out the characters.

°第月図は本発明の文字の切出しを水平方向及び垂直方
向について示すものであり、先才前処理が行なわれた画
像データに、第13図に示すマスクのうち左上方向(M
l)、左方向(M2)、左下方向(M3)の3つのマス
クを各々走査して各々の濃度勾配強度を求める。そして
、各画素について求められた3つの強度のうち最大のも
のか所定値(EDIo)以上の画素を検出し、その画素
を垂直方向に計数して水平方向にヒストグラムを作成す
る(ステップ5101)。’4.5 図(E)かこの左
方向ヒストグラムである。そして、左方向ピストグラム
を左方向側より順次走査し、所定値(HT□)以下がら
所定値以上となる立ち上りの点を全て検出しこれを文字
の左端候補位置と抽出する(ステップ5102)。
The °th figure shows the extraction of characters according to the present invention in the horizontal and vertical directions, and the upper left direction (M
1), the left direction (M2), and the lower left direction (M3) are scanned to obtain the concentration gradient strength of each. Then, a pixel having the maximum intensity or a predetermined value (EDIo) or more among the three intensities obtained for each pixel is detected, and the pixels are counted in the vertical direction to create a histogram in the horizontal direction (step 5101). '4.5 Figure (E) is a leftward histogram. Then, the leftward pistogram is sequentially scanned from the left side, and all rising points that are below a predetermined value (HT□) but above a predetermined value are detected and extracted as the left end candidate position of the character (step 5102).

次に、左方向の場合と同様に右下方向(M5)、右方向
(M6)、右上方向(M7)の3つのマスクを利用して
、右方向ピストグラムを作成する(ステップ5103)
。74.5 図(F)がこの右方向ヒストグラムである
。そして、左端を抽出するときと同様に、右方向側より
順次走査して文字の右端候補位置を抽出する(ステップ
5104)。
Next, as in the case of the left direction, a right direction pistogram is created using three masks for the lower right direction (M5), right direction (M6), and upper right direction (M7) (step 5103).
. 74.5 Figure (F) is this rightward histogram. Then, in the same way as when extracting the left end, the right end candidate position of the character is extracted by sequentially scanning from the right side (step 5104).

そして、このように抽出された文字の左端候補と右端候
補との間を各々の文字領域候補と判断する(ステップ5
105)。このときの文字領域候補の様子を第5図(G
) 、 ()I) 、 (1)に示す。そして、求めら
れた文字領域候補が適切かどうかを文字領域の幅(W)
及び文字領域の相互間隔のピッチ(P)を求めて判断し
、(ステップ5106) 、不適切な場合じは修正して
最適位置の文字領域を切出す(ステップ5107)。修
正について具体的に第5図(G) 、 ()I) 。
Then, the area between the left end candidate and the right end candidate of the character extracted in this way is determined as each character region candidate (step 5
105). Figure 5 (G
), ()I), (1). Then, the width (W) of the character area is used to determine whether the obtained character area candidate is appropriate.
Then, the pitch (P) of the mutual spacing between the character areas is determined (step 5106), and if it is inappropriate, it is corrected and the character area at the optimal position is cut out (step 5107). Regarding the modification, see Figure 5 (G) and ()I).

(r)を用いて説明すると、先ず求められた各々の幅(
W) とピッチ(P)が予め定められた許容範囲内かど
うかをチエツクする。第5図(G)の場合は幅、ピッチ
は全て許容範囲内であるので正しく切出されているのて
このまま切出される。
To explain using (r), first, each of the determined widths (
Check whether W) and pitch (P) are within predetermined tolerance ranges. In the case of FIG. 5(G), the width and pitch are all within the permissible range, so it is cut out correctly and is cut out as is with the lever.

菓5図(H)の場合は、領域候補C及びdか幅が短が過
きるので領域候補の修正を行なう。幅か短か過きの場合
、その区間の前後のピッチかビツヂの最小許容範囲以下
となっているかを見て、なっていればそのMの領域と結
合させて1つの区間とする。この動作を幅か許容範囲に
なるまで繰り返す。第5図()I)ては領域Cとdとか
結合されて1つのものと判断する。また、第5図(T)
では領域c、c’のように重複して候補として上げられ
たときは、その領域以外の領域の幅(W)の平均値を求
め、その平均値と近い方の領域を正しい領域と判断する
。第5図(D)のときは領域Cか正しい領域と判断され
る。このようにして求められた水平方向の各領域に基づ
いて、水平方向に文字を切出す(ステップ5110)。
In the case of Figure 5 (H), the widths of area candidates C and d are too short, so the area candidates are corrected. If the width is too short or too wide, it is checked whether the pitches before and after that section are below the minimum allowable range of bits, and if so, they are combined with the M region to form one section. Repeat this action until the width is within the acceptable range. In FIG. 5() I), it is determined that areas C and d are combined into one. Also, Figure 5 (T)
Now, when there are duplicate candidates such as areas c and c', calculate the average value of the width (W) of the other areas, and determine the area that is closer to the average value as the correct area. . In the case of FIG. 5(D), it is determined that area C is the correct area. Characters are cut out in the horizontal direction based on each horizontal region obtained in this way (step 5110).

水平方向の切出しの場合と同様に上方向成分の分布を作
成しくステップ5ill) 、1文字領域の上端位置を
抽出しくステップ5112) 、更に下方向成分分布を
作成しくステップ5113) 、1文字領域の下端位置
を抽出する(ステップS1.14)。第4図(11)か
上方向成分の分布を示すものであり、第4図fI)か下
方向成分の分布を示すものである。この実施例では水平
方向に一列であるので、金額記入欄4の全体について行
なうのみて良い。水平方向に切出されたものの各々につ
いて垂直方向に切出すようにすれは、水平方向に一列で
ないとぎでも可能である。こうして油田された文字の上
端と下端との間を文字領域と判断しくステップ5115
) 、文字の高さを求める(ステップS I 1.6 
)。そして、h1≦文字の高さ≦h2であるか否かを判
断しくステップ5120) 、範囲内であれば垂直方向
に文字を切出しくステップ51.22)、切出された各
領域の中心点を求める(ステップS1.23) 、その
後、各中心点を中心に24X24画素の領域を文字領域
とする(ステップ5124)。なお、上記ステップ51
20で文字の高さがり、、h2の範囲に入っていない場
合は、文字の切出し失敗と判断する(ステップ512]
) 。
As in the case of horizontal cutting, create the distribution of the upward component (Step 5ill), extract the upper end position of the one-character area (Step 5112), and create the downward component distribution (Step 5113), of the one-character area. The lower end position is extracted (step S1.14). FIG. 4 (11) shows the distribution of the upward component, and FIG. 4 fI) shows the distribution of the downward component. In this embodiment, since there is one row in the horizontal direction, it is only necessary to perform this on the entire amount entry column 4. It is possible to cut each horizontally cut piece vertically even if the saws are not aligned horizontally. In step 5115, the space between the upper and lower ends of the characters thus formed is determined to be a character area.
), find the height of the character (step S I 1.6
). Then, it is determined whether h1≦character height≦h2 (step 5120), and if it is within the range, the character is cut out in the vertical direction (step 51.22), and the center point of each cut out area is (Step S1.23), and then set a 24×24 pixel area around each center point as a character area (Step 5124). Note that the above step 51
If the height of the character is not within the range of 20, h2, it is determined that the character has failed to be cut out (step 512).
).

次に、上述のようにして切出された各文字について、特
徴量抽出手段30て特徴量(以下、人カバターン特徴玉
という)を抽出する。人カバターン特徴IU (IP、
、 [il [jl [k] ;但し、mは切圧し番号
、lは水平方向の区分番号、jは垂直方向の区分番号、
には濃度勾配方向番号)は標準パターンの特Ii量を抽
出した方法と同様であり、切出された文字の画像データ
にロヒンソン・オペレータのマスクを利用して画素毎に
濃度勾配強度及び濃度勾配方向を求めて2値化し、更に
文字の切出領域を4×4の16エリア(IP、、[il
 [jl)  に区分し、各エリア毎に各濃度勾配方向
毎の画素数の総和を求める。こうして求められる128
次元ベクトル量か人カバターン特微量である。そして、
切出された文字の全てについて犬カバターン特微量の抽
出が終了すると、この人カバターン特fl15fvに基
つき大分類辞書51を利用して、大分類部41での大分
類、中分頚部42での中分類、詳細分類部での詳細分類
の3段階によってパターン認識を進めていく。
Next, the feature amount extracting means 30 extracts a feature amount (hereinafter referred to as a human cover turn feature ball) for each character cut out as described above. Human cover turn characteristics IU (IP,
, [il [jl [k]; However, m is the cutting number, l is the horizontal division number, j is the vertical division number,
The density gradient direction number) is the same as the method used to extract the special Ii quantity of the standard pattern, and the Rohinson operator's mask is used on the image data of the cut out character to extract the density gradient strength and density gradient for each pixel. The direction is determined and binarized, and the character cutout area is divided into 16 4x4 areas (IP, [il
[jl)] and calculate the total number of pixels in each density gradient direction for each area. 128 thus obtained
It is a dimensional vector quantity or a human cover pattern feature quantity. and,
When the extraction of the dog covert turn feature amount is completed for all of the extracted characters, the large classification dictionary 51 is used based on this person covert turn feature fl15fv, and the large classification part 41 and the intermediate neck part 42 Pattern recognition proceeds through three stages: medium classification and detailed classification in the detailed classification section.

すなわち、最初にクラスターを判別するために大分類を
行なうが、大分類は第19図の大分類辞書のクラスター
毎の各クラスター標準特徴量C5P、 [il [jl
 [k] との類似度(Di、、n)を下記(5)式に
より算出し、最も類似するもの(Dl、か最小となるも
の)を求め、そのクラスターに属する文字と判断する。
That is, first, major classification is performed to distinguish clusters, and the major classification is performed using each cluster standard feature amount C5P, [il [jl
The degree of similarity (Di,, n) with [k] is calculated using the following equation (5), the most similar character (Dl, or the minimum value) is determined, and the character is determined to belong to that cluster.

1stn なお、上述したように大分類辞書のクラスター内の標準
パターンは、画像入力の際に回転ずれによる変動が生じ
た場合の特徴量によりクラスター内に追加登録がなされ
ているので、大分類で失敗することはない。大分類によ
って切出文字の属するクラスターが判断されると、次に
中分類部42で中分類を行なう。中分類は、人カバター
ン特微量IPゆ[il [jl [k]とクラスターに
属する全ての標準パターンの標準時微量SP、 [il
 [jl [k]との類似度(DI□X)を上記(5)
式により算出し、所定値以上類似するものであって最も
類似する方から(D:stxの小さい方から)2つを候
補として油田する。
1stn As mentioned above, the standard patterns in the clusters of the major classification dictionary are additionally registered in the clusters based on the feature values when variations due to rotational shift occur during image input, so they may fail in the major classification. There's nothing to do. Once the cluster to which the extracted character belongs is determined by the major classification, the medium classification section 42 then performs medium classification. The middle classification is the human cover turn feature IP [il [jl [k]] and the standard time trace amount SP of all standard patterns belonging to the cluster, [il
The similarity (DI□X) with [jl [k] is calculated from (5) above.
It is calculated using a formula, and two oil fields that are similar by a predetermined value or more and are most similar (starting from the one with the smallest D: stx) are selected as candidates.

この際、類似するものかないとき(Dl、いが所定以下
のものかないとき)には標準パターンにない文字と判断
し、数字rO〜9」又は日記号「¥」、r*、等の終桁
符号の文字てないとする。又、類似するものか1つのと
きには、その標準パターンと判断する。通常は2つの候
補か抽出さね、この場合には2つの標準パターンか同し
文字か否かを判断する。例えば同じ文字種の標準パター
ン゛’ao”の「0」と−〇°“の「0」か抽出された
ような場合には最も類似する方の標準パターンとし、文
字を「0」と判断する。これは最終的に文字が「0〜9
」、「¥J、’*Jのとねであるかが分れば良いからで
あり、標準パターンはaO“てもfO″′でもどちらで
も良いからである。又、異なる文字標準パターンか2つ
抽出されたときには、詳細分類部44ての詳細分類に移
行する。
At this time, if there is no similar character (Dl, but below the specified value), it is determined that the character is not in the standard pattern, and the last digit of the number rO~9'' or the day symbol ``¥'', r*, etc. Suppose there is no sign character. Also, if there is only one similar pattern, it is determined to be the standard pattern. Normally, two candidates are extracted, but in this case, it is determined whether two standard patterns are the same character or not. For example, if the standard pattern "0" of the same character type "'ao" and "0" of -0°" are extracted, the most similar standard pattern is used and the character is determined to be "0". This means that the characters are finally "0-9"
", "\J, '*J, and the standard pattern can be either aO" or fO"'.Also, different character standard patterns or 2 When one is extracted, the process moves to detailed classification by the detailed classification section 44.

詳細分類は、抽出された2つの候補の標準バターンヲ比
較し、両パターンの各区分毎の特徴量のうち安定した非
類似なエリアを抽出し・、そのエリアについてのみパタ
ーン照1合を行なうものである。具体的に第20図のフ
ローチャートに従って、第21図の説明図を用いて説明
する。
Detailed classification compares the standard patterns of the two extracted candidates, extracts stable dissimilar areas from the feature values of each category of both patterns, and performs pattern matching only on those areas. be. This will be specifically explained in accordance with the flowchart in FIG. 20 and using the explanatory diagram in FIG. 21.

第21図の(A)及び(B) に示すように、中分類で
標準パターン×1及び×2の2つの候補として抽出され
たとする。そして、抽出された標準パターン間の相違度
D3rr[il[j]を各エリア(4X4)毎に下記(
6)式により求める。
As shown in FIGS. 21A and 21B, it is assumed that standard patterns x1 and x2 are extracted as two candidates in the intermediate classification. Then, the degree of difference D3rr[il[j] between the extracted standard patterns is calculated as below (
6) Calculate by formula.

1rf −Σ″(SP、+ [il [j] [kl −SP、
2 [il [j] [kl ) ’x (WT、旨i
]Ijl +WTx2[’]i]) −・−・−(6)
この(6)式の意味は、あるエリアにおける2つの候補
文字標準パターン間の特徴量の相違度に、そのエリアで
の特徴量の安定度(重み)を掛は合せた式になっており
、パターンの変動が生じてしAる場合汀おいても2つの
候補文字間の非類似性か高く、かつ安定したエリアを抽
出するための尺度か表現されている。そし・て、(6)
式におけるWT、t[司[」1は辞書作成処理における
変動パターンの追加登録時に求められている。 (6)
式により各エリア毎のオ目違度を求めた具体例か第21
図fc)てあり、このようにして求めた各エリア毎の相
違度の中から相違度の大きい3つのエリアを抽出する。
1rf −Σ″(SP, + [il [j] [kl −SP,
2 [il [j] [kl) 'x (WT, effect i
]Ijl +WTx2[']i]) −・−・−(6)
The meaning of equation (6) is that the degree of difference in feature amounts between two candidate character standard patterns in a certain area is multiplied by the stability (weight) of the feature amounts in that area. Even when pattern fluctuations occur, the dissimilarity between two candidate characters is expressed as a measure for extracting a high and stable area. Then, (6)
WT, t[Tsukasa[''1] in the equation is obtained at the time of additional registration of the variation pattern in the dictionary creation process. (6)
The 21st example is a specific example of calculating the degree of difference in each area using the formula.
Figure fc), and from among the degrees of difference for each area obtained in this way, three areas with large degrees of difference are extracted.

第21図(C)の例では、D+rr[1] [1] 。In the example of FIG. 21(C), D+rr[1][1].

D、fr[++] [1]、D+rr[3] [0コか
抽出され、同図(D)の斜線エリアか4”4られる。こ
の3つのエリアはオ粟準パターン同士が非常に相違して
いる部分であると共に、画像入力の際生じる変動による
影響の小さい部分であるので、このエリアについてのみ
人カバターンがどちらの標準パターンに類似しているか
を見れは、より正確に判別できる。ます、抽出された3
つのエリアについてのみ、人カバターンの特徴量と2候
補の標準パターンの特徴量の類似度AD1stx[!]
 [j]を次の(7)式により求める。
D, fr[++] [1], D+rr[3] [0 is extracted and the diagonal area in the same figure (D) is 4"4. These three areas have very different millet semi-patterns. This is the part that is most affected by fluctuations that occur during image input, so it is possible to more accurately determine which standard pattern the human cover turn is similar to in this area. extracted 3
Similarity AD1stx[! ]
[j] is determined by the following equation (7).

AD+5tx−、I:JIPm[I) [j]  [k
l−5P、[il  [」]  [k] l・・・・・
・(7) そして、3つのエリアの相違度の総和をエリア類似度u
+5txri] 1.j]とする。第21図の例では各
エリア類似度は次の(8)式、(9)式で表わせる。
AD+5tx-, I:JIPm[I) [j] [k
l-5P, [il [''] [k] l...
・(7) Then, the sum of the dissimilarities of the three areas is defined as the area similarity u
+5txri] 1. j]. In the example of FIG. 21, each area similarity can be expressed by the following equations (8) and (9).

AD、sい、 −Jstxt El]  [1コ+ Distxl [
(l  [l:l÷ Distxl [3]  [+]
・・・・・・(8) ADistx2 −  D+ttx2[1,] [i]+  D+gtx
、[0] cl]+ D+1tx2[”] rO]・・
・・・・(9) こうして求められた2候補の標準パターン(X+及びX
2)  とのエリア類似度A Distxl−ADls
tx2の類似度を比較し、より類似する方(AD+st
の小さい方)を大カバターンの文字と判断する。この人
カバターンの文字認識動作は上述の切出された文字の全
てについて行ない、その後認識動作を終了する。
AD, s, -Jstxt El] [1 + Distxl [
(l [l:l÷Distxl [3] [+]
・・・・・・(8) ADistx2 − D+ttx2[1,] [i]+D+gtx
, [0] cl] + D+1tx2[”] rO]...
...(9) Two candidate standard patterns (X+ and
2) Area similarity A Distxl-ADls
Compare the similarity of tx2 and choose the one that is more similar (AD+st
(the smaller one) is determined to be a large Kabataan character. This human-kabataan character recognition operation is performed for all of the above-mentioned cut out characters, and then the recognition operation is ended.

この段階で小切手等の金額記入欄に記入されている金額
情報か認識できる。
At this stage, it is possible to recognize the amount information entered in the amount entry column of a check or the like.

なお、上記実施例では大分類時点作成時にクラスター分
析のウォート法を用いているか、これに限定されるもの
てはなく、パターン間の一定の類似関係によって分類て
ぎるものてあれは何ても良い。又、上記実施例ではクラ
スター特徴量としてクラスター内のパターンの特IS5
!量の平均を用いているか、平均を用いす、クラスター
内のパターンの1つの特徴量を代表してクラスター特微
量としても良く、要するにクラスター内のパターンを代
表して表現てきる特徴量であれは良い。さらに、上記実
施例では特徴量として濃度勾配強度及び濃度勾配方向を
採用しているか、これに限定されるものではなく、パタ
ーンの特徴を表わせることができるものであれば良い。
In addition, in the above embodiment, the Wart method of cluster analysis is used when creating the major classification time points, but the method is not limited to this, and any method that classifies based on a certain similarity relationship between patterns is fine. . In addition, in the above embodiment, the characteristic IS5 of the pattern within the cluster is used as the cluster feature quantity.
! Either the average of the quantities is used, or the average is used, or one feature of the pattern within the cluster may be used as a representative cluster feature; in short, any feature that represents the pattern within the cluster may be used. good. Further, in the above embodiment, the density gradient strength and the density gradient direction are used as feature quantities, but the present invention is not limited to these, and any feature quantity that can express the feature of the pattern may be used.

さらに又、上記実施例ては変動パターンを予め作成し、
それを画像入力することにより変動パターン特微量を抽
出するようにしているか、この方法に限定されるもので
はなく、例えは、標準パターンを画像入力した際の画像
データに回転、すれ等の画像処理を行なって変動パター
ンの画像データを作成して、変動パターン特微量を抽出
するようにしても良い。
Furthermore, in the above embodiment, the fluctuation pattern is created in advance,
By inputting the image as an image, the variable pattern characteristic amount is extracted, or the method is not limited to this method. Alternatively, image data of the fluctuation pattern may be created by performing the following steps, and the fluctuation pattern feature amount may be extracted.

なお、第22図は郵便ラベルの検出例を示しており、こ
の場合も同し方法で濃度勾配強度を検出し、左方向、右
方向、上方向、下方向の分布の変化の最も大きい部分を
検出することにより、ラベルのエリアを確実に切比すこ
とが可能である。
In addition, Fig. 22 shows an example of detecting a postal label. In this case, the concentration gradient strength is also detected using the same method, and the parts where the distribution has the largest change in the left, right, upward, and downward directions are detected. By detecting it, it is possible to reliably compare the area of the label.

発明の効果; 以上のように本発明によれば、文字パターンの認識にお
ける文字切出しについて、文字の各@素毎の濃度勾配方
向及び濃度勾配強度を濃度勾配情報抽出手段で求め、2
値化して後に、文字の切出方向に沿った勾配方向につい
て文字の切出方向に対して垂直に加算して文字の切土方
向の濃度勾配方向分布を抽出すると共に、文字の切出方
向と逆方向に沿った勾配方向について文字の切出方向に
対して垂直に加算して文字の切出方向と逆方向の濃度勾
配方向分布を抽出し、抽出された分布状態に基づいて文
字の両端を検出している。このように水平方向及び垂直
方向の濃度勾配情報を抽出しているので、文字にかすれ
かあっても正確な切出を実現できる。
Effects of the Invention: As described above, according to the present invention, for character extraction in character pattern recognition, the concentration gradient direction and concentration gradient strength for each @element of a character are determined by the concentration gradient information extraction means, and 2.
After converting into values, the gradient direction along the character cutting direction is added perpendicularly to the character cutting direction to extract the concentration gradient direction distribution in the character cutting direction. The gradient direction along the opposite direction is added perpendicularly to the character cutting direction to extract the concentration gradient direction distribution in the opposite direction to the character cutting direction, and both ends of the character are calculated based on the extracted distribution state. Detected. Since density gradient information in the horizontal and vertical directions is extracted in this way, accurate extraction can be achieved even if the characters are faint.

また、認識用辞書として変動パターンを考慮した変転バ
タン時微量によってクラスターを構成しており、大分類
から中分類に従って複数候補を挙げた後に、文字特徴の
変動か校了された詳細分類をしている。このため、高速
で確実な認識を実現できる。また、変動パターンを考慮
した辞書作成であるか、辞書としては大分類辞書の文字
コートの増加及び詳細分類での重みパターンの増加のみ
におさえられ、辞書容量の大きな増大は防ぐことが土来
る。
In addition, as a recognition dictionary, clusters are formed based on the slight amount of changes that take into account fluctuation patterns, and after listing multiple candidates according to major to medium classification, detailed classification is performed based on the fluctuation of character features. There is. Therefore, high-speed and reliable recognition can be achieved. In addition, it is possible to prevent a large increase in dictionary capacity by creating a dictionary that takes into account fluctuation patterns, or by only increasing the character coats in the major classification dictionary and increasing the weight patterns in the detailed classification.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は文字認識装置の一例を示すブロック構成図、第
2図(八)は手形の一例を示す図、第2図(B)は小切
手の一例を示す図、第3図は認識用辞書の作成方法を示
すフローチャート、第4図(A)〜(I)及び第5図は
そわそわ具体的な画像例を示す図、第6図(A)〜(D
) は標準パターンの例を示す図、第7図はスムージン
グ処理例を示すフローチャート、第8図〜第10図はス
ムージングを説明するための図、第11図は本発明の文
字の切出方法を示すフローチャート、第12図は標!P
特微量の抽出動作を示すフローチャート、第13図〜第
15図はその抽出動作を説明するための図、第16図は
大分類辞書の例を示す図、第17図は標準パターンを説
明するための図、第18図は中分類辞書の例を示す図、
第19図は中分類辞書の例を示す図、第20図は詳細分
類の動作例を示すフローチャート、第21図は詳細分類
を説明するための図、第22図は郵便ラベルの検出例を
示す図、第23図及び第24図は従来技術を説明するた
めの図である。 1.4・・・金額記人権、2,5・・・情報欄、3.6
・・・金額情報欄、10・・・画像入力手段、11・・
・前処理手段、12・・・文字切出手段、2o・・・画
素成分抽出手段、3o・・・特徴量抽出手段、40・・
・比較照合手段、4】・・・大分類部、42・・・中分
類部、44・・・詳細分類部、5o・・・記憶手段。 出願人代理人  安 形 雄 三 図Iの浄書(内容に変更なし) ■ q記(A) β面の浄書(内容に変更なし) 第d高 (8) 図面の浄書C内容に変更なし) 積 孕 ω (C) 図面の浄書(内容に変更なし) 第4区([)) $4図(E) 第4 図(F) M3         M4         M5第
13図 (A)                   (B)
第15図 第18図 =       8s ?;     赴  I ECL      x  σ 0−〜   ψト の〉優 x −t、、     x e  E C) mQ−へ
  リψトの0%4+       ■0−〜 ?0Φ
ト■φ>嗜      Φ      Φ2;た 72
f−曾9名も 怪 1客 円       00−〜吟
すいψトのの〉脣0〜吟すψの001寸1ψトΦのa)
gsneψ0のψト!!■n寸〜寸寸〜ψへ1つ吟〜つ
C吟〜    7蒼          1り)−〜の
!0トの費  0       トのε ε E6  
E ε j J     #            
   w ←−〜つ?1N口憂  0       ψ
トーーーe −+ −+ −−−=        −
←;ツ2工2鷺巴二り℃宮    〜 )−の  膏〕
−〜1寸0トCD費約000〜〜Φ )ト1n ψ0+
N蛸?Inkの彎吟0Q〜ψNΦつの身−啼1寸)II
a@e・11115クー−o o o o o a a
 CLり+ffσり〜IOψすYCOψΦ吟ff1c+
〜〜〜n−吟ぎ 〜−哨、水べ琴ま4在龜本球本ま菰水
球球汝よ木疎  本よよH」君■■哩■」し劃F K 
7 !11 2 H7+31転           
 −3贋回ト   −4蔑回十云−1画素 召    1 9;   φの −− ”: ’;    S S  2  ±i;’  娶l
ば右 鼻台 0−″ ″g胃β%B%二    ℃ ユニツ 茗℃巴シ客モ2二 以22 ;9 =N Q 
:8 巴Fニー Cg ミ’j:、 : I: CC(
p  ℃2T 390 ;Nυir+Wku)ffl君
名暫11客y52+3o+20=’:’:”’%’%’
%g’X”!”g℃? 299 o C(D :OCo
 (+’l ト(+ a3 r to 10 q h 
M’l U) ? (I +O?−1区 ト寸   0 0                        
   !!〜〜 0〜つ   1     9   ?
α α   −+ ぬ トφのQ −N吟?リドa)瞥  t   鵞   を
田TI +  e −ε ε ε Oε εメXへの0
10−Nnゞ0ゝ巴ヱ  ?    宏    でシー
Φ■O−〜吟?0トの費吟00  〜〜 〉−〇  チ
αへ−ojニーニーj:e−−xxσ   Q−祷−−
コ;9雪9;ρ2♂’ilL %ツ二2立tt℃γtで
召2 ? (I IQ  てニア fi @ O−; 
7 Z Z l: ; S % 2 !20 N tg
 % : q % ”、 T、 : S % %〜■w
?h(+のΦ100ψ04fi+1’1〜〜〜ψ吟−吟
〜 〜−〇ζ L Dig [/] EI J・Dj//LO][/]
・賄′[3損3$21図 箭22 図 切主位![−−−−−−−−一一 佑23副 茶24図 」・□−成3イi4月牛Lj 特訂庁Jく官 峨′ 1事件の表示 平成2年#j訂1頭第3327q7号 、:発I3月の名ゼ・ 文雪二C)切・こ?17r’;、;+、3 月11斗と
 グ)関イ系    4”1ニド:2.’ r:a 入
打東式会 7土    ”7c−−1j   −工 業
 (沫 J(2?−14代理−・、 7877  弁理士  安 形 雄 三5補正命令の日
付 7補正の内容
Figure 1 is a block configuration diagram showing an example of a character recognition device, Figure 2 (8) is a diagram showing an example of a bill, Figure 2 (B) is a diagram showing an example of a check, and Figure 3 is a recognition dictionary. 4(A)-(I) and FIG. 5 are diagrams showing specific examples of fidgeting images, and FIG. 6(A)-(D
) is a diagram showing an example of a standard pattern, FIG. 7 is a flowchart showing an example of smoothing processing, FIGS. 8 to 10 are diagrams for explaining smoothing, and FIG. 11 is a diagram showing the character cutting method of the present invention. The flowchart shown in Figure 12 is a sign! P
Flowchart showing the extraction operation of the feature quantity, Figures 13 to 15 are diagrams for explaining the extraction operation, Figure 16 is a diagram showing an example of a major classification dictionary, and Figure 17 is for explaining the standard pattern. Figure 18 is a diagram showing an example of a middle classification dictionary,
Fig. 19 is a diagram showing an example of a medium classification dictionary, Fig. 20 is a flow chart showing an operation example of detailed classification, Fig. 21 is a diagram for explaining detailed classification, and Fig. 22 is a diagram showing an example of detecting a postal label. 23 and 24 are diagrams for explaining the prior art. 1.4...Amount entry human rights, 2,5...Information column, 3.6
... Amount information column, 10... Image input means, 11...
- Preprocessing means, 12... Character extraction means, 2o... Pixel component extraction means, 3o... Feature amount extraction means, 40...
- Comparison/verification means, 4]... Major classification section, 42... Intermediate classification section, 44... Detailed classification section, 5o... Storage means. Applicant's agent Yu Yasukata Engraving of Figure 3 I (no change in content) ■ Q (A) Engraving of side β (no change in content) No. d (8) Engraving of drawing C (no change in content) Pregnancy ω (C) Engraving of the drawing (no change in content) Section 4 ([)) Figure 4 (E) Figure 4 (F) M3 M4 M5 Figure 13 (A) (B)
Figure 15 Figure 18 = 8s? ; Go I ECL x σ 0-~ ψt's > superior x -t,, x e E C) mQ- to ψt's 0%4+ ■0-~? 0Φ
t■φ> Φ Φ2; 72
f-9 people also strange 1 customer yen 00-~ginsui ψtono〉脣0~ginsu ψ001 sun1ψtoΦa)
ψto of gsneψ0! ! ■n size ~ size ~ ψ to one gin~tsu C gin~ 7ao 1ri) - ~ of! 0 cost 0 t ε ε E6
E ε j J #
w ←−~tsu? 1N mouth complaint 0 ψ
Toe-e −+ −+ −−−= −
←; Tsu 2 work 2 Sagi tomoe 2 ° C shrine ~ ) - no plaster]
−~1 sun0t CD cost approx. 000~~Φ)t1n ψ0+
N octopus? Ink's Kaigin0Q ~ ψNΦ Tsunomi - 1 sun) II
a@e・11115ku-o o o o o a a
CLri+ffσri~IOψsuYCOψΦginff1c+
〜〜〜n-Gingi〜-Shu, Mizube Kotoma 4 is in the main ball Honma Sumuizu Kotoma you are the main character
7! 11 2 H7+31 roll
-3 fake times -4 derogatory times -1 pixel count 1 9; φ's -- ”: '; S S 2 ±i;'
If the right nose base 0-''''g stomach β%B%2 ℃ Units 茗℃Tomoe Shigumo 22 22; 9 = N Q
:8 Tomoe F knee Cg Mi'j:, : I: CC(
p ℃2T 390;Nυir+Wku)fflKiminaSaku11Customer y52+3o+20=':':”'%'%'
%g'X"!"g℃? 299 o C (D: OCo
(+'l to(+ a3 r to 10 q h
M'lU)? (I +O?-1 ward dimension 0 0
! ! ~~ 0~tsu 1 9?
α α −+ Nutoφ’s Q −Ngin? Rido a) glance t goose wo field TI + e −ε ε ε Oε ε 0 to
10-Nnゞ0ゝTomoe? Hiroshi DeshiΦ■O-~Gin? 0t's expenses 00 〜〜 〉−〇 To Chiα-oj Niinij:e−−xxσ Q−Prayer−−
ko;9 snow 9;ρ2♂'ilL %tsu22 standingtt℃γt call 2? (I IQ tenia fi @ O-;
7 Z Z l: ; S % 2! 20 Ntg
%: q%”, T,: S%%~■w
? h(+Φ100ψ04fi+1'1〜〜〜ψ吟−吟〜〜−〇ζ L Dig [/] EI J・Dj//LO] [/]
- Bribery [3 losses, 3 dollars, 21 figures, 22 figures, master position! [-----------11 Yu 23 Vice Tea 24 Diagrams''・□- Sei 3 Ii April Cow Lj Special Correction Office J Kukan A' 1 Display of incident 1990 #j edition 1 head No. 3327 q7 No.: I March's famous ze・Funyukiji C) Kiri・Ko? 17r';, ;+, March 11th and Gu) Sekii system 4"1 Nido: 2.' r:a Iruuchi Higashi Shikikai 7th Sat "7c--1j -Industrial (沫 J(2?-) 14 Attorney--, 7877 Patent Attorney Yasugata Yu Date of the 35th Amendment Order Contents of the 7th Amendment

Claims (1)

【特許請求の範囲】[Claims] 1、文字情報を入力する画像入力手段と、画像入力され
た画像データの各画素毎の濃度勾配方向及び濃度勾配強
度を求める濃度勾配情報抽出手段と、前記濃度勾配情報
抽出手段で得られた情報を、文字の切出方向に沿った勾
配方向について文字の切出方向に対して垂直に加算して
、文字の切出方向の濃度勾配方向分布を抽出する第1の
濃度勾配方向分布抽出手段と、文字の切出方向と逆方向
に沿った勾配方向について文字の切出方向に対して垂直
に加算して、文字の切出方向と逆方向の濃度勾配方向分
布を抽出する第2の濃度勾配方向分布抽出手段と、前記
第1の濃度勾配方向分布抽出手段により抽出された分布
状態に基づいて文字の一方の端を検出する第1の文字端
検出手段と、前記第2の濃度勾配方向分布抽出手段によ
り抽出された分布状態に基づいて文字の他方の端を検出
する第2の文字端検出手段とを具備し、前記第1の文字
端検出手段で検出された文字端と、前記第2の文字端検
出手段で検出された他方の文字端との間を文字領域とす
ることを特徴とする文字の切出方法。
1. An image input means for inputting character information, a density gradient information extraction means for determining the density gradient direction and density gradient strength for each pixel of the input image data, and information obtained by the density gradient information extraction means. a first density gradient direction distribution extraction means for extracting a density gradient direction distribution in the character cutting direction by adding the gradient direction along the character cutting direction perpendicularly to the character cutting direction; , a second density gradient that adds the gradient direction along the direction opposite to the character cutting direction perpendicularly to the character cutting direction to extract the density gradient direction distribution in the direction opposite to the character cutting direction. directional distribution extraction means; first character edge detection means for detecting one end of a character based on the distribution state extracted by the first density gradient direction distribution extraction means; and the second density gradient direction distribution. and second character edge detection means for detecting the other edge of the character based on the distribution state extracted by the extraction means, the character edge detected by the first character edge detection means and the second character edge detection means. A character cutting method characterized in that a character region is defined between the character end detected by the character end detecting means and the other character end detected by the character end detecting means.
JP2332327A 1990-11-29 1990-11-29 Segmenting method for character Pending JPH04199386A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2332327A JPH04199386A (en) 1990-11-29 1990-11-29 Segmenting method for character

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2332327A JPH04199386A (en) 1990-11-29 1990-11-29 Segmenting method for character

Publications (1)

Publication Number Publication Date
JPH04199386A true JPH04199386A (en) 1992-07-20

Family

ID=18253723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2332327A Pending JPH04199386A (en) 1990-11-29 1990-11-29 Segmenting method for character

Country Status (1)

Country Link
JP (1) JPH04199386A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020105366A1 (en) * 2018-11-22 2020-05-28 キヤノン株式会社 Information processing device, information processing method, program, storage medium, and image forming system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020105366A1 (en) * 2018-11-22 2020-05-28 キヤノン株式会社 Information processing device, information processing method, program, storage medium, and image forming system
JP2020086850A (en) * 2018-11-22 2020-06-04 キヤノン株式会社 Information processor, information processing method and program, and image forming system
US11496635B2 (en) 2018-11-22 2022-11-08 Canon Kabushiki Kaisha Information processing system for obtaining read data of handwritten characters, training a model based on the characters, and producing a font for printing using the model

Similar Documents

Publication Publication Date Title
US5799115A (en) Image filing apparatus and method
CN104112128B (en) Digital image processing system and method applied to bill image character recognition
JP3842006B2 (en) Form classification device, form classification method, and computer-readable recording medium storing a program for causing a computer to execute these methods
CA2049758C (en) Optical character recognition system and method
US5901239A (en) Skin pattern and fingerprint classification system
US3737855A (en) Character video enhancement system
EP0063454A2 (en) Method for recognizing machine encoded characters
US7106904B2 (en) Form identification method
CN106326887B (en) A kind of method of calibration and device of optical character identification result
CN108197644A (en) A kind of image-recognizing method and device
CN109740606A (en) A kind of image-recognizing method and device
EP1028391A1 (en) Method and system for checking digital signature
US5105470A (en) Method and system for recognizing characters
JPH04199386A (en) Segmenting method for character
JP2985893B2 (en) Pattern recognition device
CA2134523A1 (en) Method for reading micr data magnetically and officially
Ullmann Picture analysis in character recognition
CN115050015B (en) Accurate segmentation method for character area of financial bill account
Arai et al. Form processing based on background region analysis
US5790701A (en) Character recognition apparatus using edge images
JP2965165B2 (en) Pattern recognition method and recognition dictionary creation method
Balm An introduction to optical character reader considerations
JP3998439B2 (en) Image processing apparatus, image processing method, and program causing computer to execute these methods
Kanai Automated performance evaluation of document image analysis systems: Issues and practice
JPH08101880A (en) Character recognition device