JP2795860B2 - Character recognition device - Google Patents

Character recognition device

Info

Publication number
JP2795860B2
JP2795860B2 JP63322317A JP32231788A JP2795860B2 JP 2795860 B2 JP2795860 B2 JP 2795860B2 JP 63322317 A JP63322317 A JP 63322317A JP 32231788 A JP32231788 A JP 32231788A JP 2795860 B2 JP2795860 B2 JP 2795860B2
Authority
JP
Japan
Prior art keywords
pattern
sampling
handwritten
feature
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63322317A
Other languages
Japanese (ja)
Other versions
JPH02166583A (en
Inventor
健司 三縞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP63322317A priority Critical patent/JP2795860B2/en
Publication of JPH02166583A publication Critical patent/JPH02166583A/en
Application granted granted Critical
Publication of JP2795860B2 publication Critical patent/JP2795860B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) この発明は、例えば光学文字読取装置等において、手
書きブロック化数字の認識を行なう文字認識装置に関す
る。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial application field) The present invention relates to a character recognition device for recognizing handwritten blocked numbers in, for example, an optical character reader.

(従来の技術) 従来、手書きブロック化数字を認識する方法として、
入力された文字パタンを正規化し、この正規化された文
字パタンに対し所定の処理を行なうことにより標本化パ
タンを作成する前処理を行い、この前処理によって得ら
れた標本化パタンと予め用意されている辞書パタンとの
類似度や距離の大小により入力文字を認識する方法、あ
るいは、入力文字パタン中で手書きブロク化数字を構成
する各セグメントに対応する領域を走査し、各セグメン
トに対応する領域に画素が存在するか否かを判断するこ
とにより入力文字を認識する方法等が知られている。
(Prior art) Conventionally, as a method of recognizing handwritten blocked numbers,
The input character pattern is normalized, and pre-processing for creating a sampling pattern is performed by performing a predetermined process on the normalized character pattern. The sample pattern obtained by this pre-processing is prepared in advance. A method of recognizing input characters based on the similarity and the distance of the dictionary pattern being used, or scanning the area corresponding to each segment constituting the handwritten block figure in the input character pattern and the area corresponding to each segment There is known a method of recognizing an input character by determining whether or not a pixel exists.

しかしながら、上記類似度や距離の大小により入力文
字を認識するものは、類似度や距離を算出するための積
和計算に膨大な時間がかかり、認識速度に劣るという欠
点があった。また、セグメントに対応する領域を走査し
て、その領域に画素が存在するか否かを判断することに
より入力文字を認識するものは、線分の切れや掠れがあ
ると入力文字の認識率が低下するという欠点があった。
However, the method of recognizing an input character based on the similarity and the distance is disadvantageous in that it takes an enormous amount of time to calculate the sum of products for calculating the similarity and the distance, and is inferior in recognition speed. In the case where an input character is recognized by scanning an area corresponding to a segment and determining whether or not a pixel exists in the area, the recognition rate of the input character is reduced if a line segment is cut or blurred. There was a drawback of lowering.

(発明が解決しようとする課題) この発明の文字認識装置は、前処理によって得られた
標本化パタンと予め用意された辞書パタンとの類似度や
距離の大小により入力文字を認識するものは、類似度や
距離を算出するための積和計算に膨大な時間がかかり認
識速度を劣るという欠点、および、セグメントに対応す
る領域を走査して、その領域に画素が存在するか否かを
判断することにより入力文字を認識するものは、線分の
切りや掠れがあると入力文字の認識率が低下するという
欠点を解消するためになされたもので、高速に文字認識
を行なうことができるとともに、入力文字パタンの線分
に切れや掠れがあっても高い認識率を得ることのできる
文字認識装置を提供することを目的する。
(Problem to be Solved by the Invention) The character recognition device of the present invention recognizes an input character based on the similarity between a sampling pattern obtained by preprocessing and a dictionary pattern prepared in advance and the magnitude of a distance. The disadvantage is that the product-sum calculation for calculating the similarity and the distance takes an enormous amount of time and the recognition speed is inferior, and the region corresponding to the segment is scanned to determine whether or not a pixel exists in the region. The recognition of input characters by doing so is to solve the disadvantage that the recognition rate of input characters is reduced if there is a cut or blurring of line segments, and it is possible to perform character recognition at high speed, It is an object of the present invention to provide a character recognition device capable of obtaining a high recognition rate even if a line segment of an input character pattern is cut or blurred.

[発明の構成] (課題を解決するための手段) この発明の文字認識装置は、手書きブロック化数字を
認識する文字認識装置において、入力文字パタンを正規
化する正規化手段、この正規化手段が出力する正規化パ
タンをぼけ変換することにより標本化する標本化手段、
この標本化手段が出力する標本化パタン中の手書きブロ
ック化数字を構成する各セグメントに対応する部分の画
素の濃度特徴を抽出して特徴値を得る特徴抽出手段、こ
の特徴抽出手段により得られた前記特徴値を2値化する
2値化手段、および、この2値化手段で2値化された前
記特徴値に基づき、手書きブロック化数字を構成する各
セグメントの有無を判断して前記入力文字パタンを認識
する認識手段から構成される。
[Structure of the Invention] (Means for Solving the Problems) A character recognition device according to the present invention is a character recognition device for recognizing a handwritten blocked digit, comprising: a normalization unit for normalizing an input character pattern; Sampling means for sampling by normalizing the output normalized pattern by blurring,
A feature extraction unit that extracts a density feature of a pixel corresponding to each segment constituting a handwritten blocked number in a sampling pattern output by the sampling unit to obtain a feature value, obtained by the feature extraction unit; Binarizing means for binarizing the feature value, and determining whether or not each segment constituting a handwritten blocked digit is present, based on the feature value binarized by the binarizing means, It consists of recognition means for recognizing patterns.

(作用) この発明は、手書きブロック化数字として与えられた
入力文字パタンを正規化し、この正規化によって得られ
た正規化パタンをぼけ変換することにより標本化パタン
を得、この標本化パタン中の手書きブロック化数字を構
成する各セグメントに相当する部分の画素濃度を特徴値
として抽出し、この特徴値により手書きブロック化数字
を構成する各セグメントの有無を判断して入力文字パタ
ンを認識するようにしたものである。これにより、積和
計算の量が飛躍的に減少して高速認識処理が可能となる
とともに、線分の切れや掠れによる影響を受けにくいも
のとなっている。
(Operation) The present invention normalizes an input character pattern given as a handwritten blocked digit, blurs the normalized pattern obtained by this normalization, obtains a sampled pattern, and obtains a sampled pattern. The pixel density of a portion corresponding to each segment constituting the handwritten blocked number is extracted as a feature value, and the presence / absence of each segment constituting the handwritten blocked number is determined based on the feature value so as to recognize the input character pattern. It was done. As a result, the amount of sum-of-products calculation is drastically reduced, enabling high-speed recognition processing, and is less susceptible to cuts or blurring of line segments.

(実施例) 以下、この発明の一実施例につき図面を参照して説明
する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

第2図は、この発明の文字認識装置が認識の対象とす
る手書きブロック化数字の記入枠である。すなわち、太
線の枠内に点線で示した部分をなぞることにより数字
(線分)を記入するようになっており、1個の数字は、
12個のセグメント11〜22のうち任意のセグメントを組合
せて表現されるようになっている。
FIG. 2 shows an entry frame for handwritten blocked numbers to be recognized by the character recognition apparatus of the present invention. That is, a number (line segment) is entered by tracing a portion shown by a dotted line within a thick line frame, and one number is
Any of the twelve segments 11 to 22 is represented in combination.

第3図は、上記記入枠に記入する数字「1」〜「0」
の標準字形を示すものであり、入力された数字を認識す
るにあたっては、上記標準字形に倣って記入されている
ことを前提として処理されるようになっている。
Fig. 3 shows the numbers "1" to "0" to be entered in the above entry boxes.
When recognizing an input number, it is processed on the assumption that the input is made in accordance with the standard character shape.

第1図は、この発明の文字認識装置の構成を概略的に
示すものである。図において、1は正規化部である。こ
の正規化部1に入力される文字パタンは、例えば、カメ
ラ等の撮像装置により撮像された画像情報を、CCD(電
荷結合デバイス)等の光電変換素子により光電変換して
画像信号を生成し、この画像信号を画素濃度に応じて黒
画素および白画素に2値化したデータとして与えられる
ものである。このような文字パタンを入力した正規化部
1は、上記文字パタンの縦幅あるいは横幅を拡大あるい
は縮小することにより大きさおよび文字位置を正規化す
る。この正規化に際しては、数字「1」の横幅が過剰に
拡大されないように、入力された文字パタンの横幅が一
定の閾値以下のときは、横幅の正規化は行われず、文字
位置の正規化のみが行われるようになっている。第4図
(a)は、入力された数字「3」を11画素×11画素に正
規化した場合の一例を示す。
FIG. 1 schematically shows the configuration of the character recognition device of the present invention. In the figure, 1 is a normalization unit. The character pattern input to the normalization unit 1 generates an image signal by photoelectrically converting image information captured by an imaging device such as a camera by a photoelectric conversion element such as a CCD (Charge Coupled Device). This image signal is given as binary data of black pixels and white pixels according to the pixel density. The normalization unit 1 having input such a character pattern normalizes the size and the character position by enlarging or reducing the vertical width or the horizontal width of the character pattern. In this normalization, when the width of the input character pattern is equal to or smaller than a certain threshold value, the width is not normalized, and only the character position is normalized so that the width of the number “1” is not excessively enlarged. Is performed. FIG. 4 (a) shows an example in which the input numeral "3" is normalized to 11 pixels × 11 pixels.

第1図の標本化部2は、上記正規化部1により正規化
された正規化パタンを入力し、標本化スマクに従ってぼ
け変換を施し標本化パタンを得るものである。
The sampling unit 2 shown in FIG. 1 receives the normalized pattern normalized by the normalizing unit 1 and performs a blur transform according to a sampling smack to obtain a sampled pattern.

この標本化部2におけるぼけ変換は、例えば第4図
(b)に示すような、3画素×3画素の各画素成分に重
み(図示例では「1」、「2」、「4」)を付けた標本
化マスクを用いて行われる。すなわち、上記標本化マス
クを、正規化部1で作成された正規化パタン上を2画素
ずつ縦および横方向にシフトしながら移動させ、この標
本化マスクの各画素成分の重みの総和を算出して当該位
置における画素濃度値とする。このようにして得られた
標本化パタンの一例を第4図(c)に示す。すなわち、
2画素ずつシフトすることにより、5画素×5画素のマ
トリックスの各画素成分を画素濃度値で表示した標本化
パタンが得られている。なお、蒸気画素濃度値は、標本
化マスクで囲まれた正規化パタン中の画素が全て「0」
であるときに最小値の「0」となり、正規化パタン中の
画素が全て「1」であるときに最大値「16」となり、そ
の他の場合は、「0」〜「16」の間に分布する。
In the blur conversion in the sampling unit 2, for example, as shown in FIG. 4 (b), weights (“1”, “2”, “4” in the illustrated example) are assigned to each pixel of 3 × 3 pixels. This is performed using the attached sampling mask. That is, the sampling mask is moved while being shifted vertically and horizontally by two pixels on the normalization pattern created by the normalization unit 1, and the sum of the weights of the respective pixel components of the sampling mask is calculated. To obtain the pixel density value at the position. FIG. 4 (c) shows an example of the sampling pattern thus obtained. That is,
By shifting by two pixels, a sampling pattern in which each pixel component of a matrix of 5 pixels × 5 pixels is represented by a pixel density value is obtained. Note that all the pixels in the normalized pattern surrounded by the sampling mask are “0” for the vapor pixel density value.
, The minimum value is “0”, and when all the pixels in the normalized pattern are “1”, the maximum value is “16”. In other cases, the distribution is between “0” and “16”. I do.

第1図の特徴抽出部3は、上記標本化部2からの標本
化パタンを入力し、この標本化パタンに基づいて手書き
ブロック化数字の各セグメント11〜22に対応する画素濃
度を算出するものである。すなわち、5画素×5画素の
マトリックスの各画素成分を、第5図(a)に示すよう
に、a〜yとした場合に、各セグメントの中央位置の重
みを「1」とし、その両端の重みを「1/2」として各セ
グメント毎の画素濃度を算出し、これを当該セグメント
の特徴値とする。例えば、セグメント11の特徴値は、
「a/2+b+c/2」の式により算出する。他のセグメント
も、第5図(b)に示すように、同様の算式で特徴値が
算出される。また、セグメントが存在しない領域、つま
り第5図(a)のg、i、q、sの位置は空白部分であ
り、通常は画素濃度がゼロになる部分である。したがっ
て、画素が出現する確率も少ない部分である。そこで、
この部分は他の部分より大きな特徴を有すると考えら
れ、重みも「2」として特徴抽出を行なうようになって
いる。以上のようにして得られた16個の特徴値により、
以下の数字認識が行われることになる。
The feature extraction unit 3 shown in FIG. 1 receives the sampling pattern from the sampling unit 2 and calculates the pixel density corresponding to each of the segments 11 to 22 of the handwritten block numbers based on the sampling pattern. It is. That is, assuming that each pixel component of a matrix of 5 pixels × 5 pixels is a to y as shown in FIG. 5 (a), the weight of the center position of each segment is “1”, The pixel density for each segment is calculated with the weight set to “1/2”, and this is set as the characteristic value of the segment. For example, the feature value of segment 11 is
It is calculated by the formula of “a / 2 + b + c / 2”. The characteristic values of the other segments are calculated by the same formula as shown in FIG. 5 (b). The region where no segment exists, that is, the positions of g, i, q, and s in FIG. 5 (a) is a blank portion, and is usually a portion where the pixel density becomes zero. Therefore, it is a portion where the probability that a pixel appears is small. Therefore,
This part is considered to have a larger feature than the other parts, and the feature extraction is performed with the weight being “2”. With the 16 feature values obtained as described above,
The following number recognition will be performed.

第1図の2値化部4は、特徴抽出部3で特徴抽出され
た特徴値を、所定のスライスレベルによりスライスする
ことによって2値化し、2値化された特徴値を得るもの
である。本実施例では、上記スライスレベルを「12」に
設定している。
The binarizing unit 4 in FIG. 1 binarizes the feature value extracted by the feature extracting unit 3 by slicing it at a predetermined slice level to obtain a binarized feature value. In this embodiment, the slice level is set to “12”.

認識部5は、上記2値化部4によって得られた2値化
された特徴値と、標準字形である数字「1」〜「0」の
2値化された特徴値として予め用意された基準特徴値と
を比較することにより、入力された文字パタンの認識を
行なうものである。第6図は、予め用意される標準特徴
値の種類と認識結果として出力される数字との対応を示
すものである。
The recognizing unit 5 includes a binarized characteristic value obtained by the binarizing unit 4 and a reference prepared in advance as binarized characteristic values of the standard characters “1” to “0”. The input character pattern is recognized by comparing with the characteristic value. FIG. 6 shows the correspondence between the types of standard feature values prepared in advance and the numbers output as recognition results.

次に、上記のような構成において動作について説明す
る。
Next, the operation in the above configuration will be described.

まず、第2図に示す記入枠に手書きにより記入したブ
ロック化数字を、図示しない撮像装置により撮像して光
電変換することにより画像信号を得る。そして、この画
像信号を、黒画素を「1」、白画素を「0」に対応させ
て2値化し、認識の対象となる文字パタンとして正規化
部1に入力する。
First, an image signal is obtained by taking an image of a block number written in the entry frame shown in FIG. 2 by handwriting with an imaging device (not shown) and performing photoelectric conversion. Then, the image signal is binarized by associating black pixels with “1” and white pixels with “0”, and input to the normalization unit 1 as a character pattern to be recognized.

正規化部1では、上記文字パタンを受取って大きさお
よび位置の正規化を行なう。第4図(a)に、数字
「3」を11画素×11画素に正規化した場合の文字パタン
の一例を示す。図中、「1」で示した部分が黒画素部
で、「0」で示した部分が白画素部である。
The normalizing unit 1 receives the character pattern and normalizes the size and position. FIG. 4A shows an example of a character pattern when the number “3” is normalized to 11 × 11 pixels. In the figure, the portion indicated by "1" is a black pixel portion, and the portion indicated by "0" is a white pixel portion.

このようにして作成された正規化パタンは、標本化部
2へ送られる。標本化部2では、上記標本化パタンにぼ
け変換を施し、標本化パタンを得る。すなわち、第4図
(b)に示す標本化マスクを、同図(a)に示す正規化
パタン上に投射し、その標本化マスクで定義された重み
に従って当該領域の画素濃度を算出する。例えば、正規
化パタンの左上隅30に標本化マスクを投射した場合の画
素濃度は、「1×1+1×2+1×1+1×2+1×4
+1×2+0×1+0×2+0×1=12」として求めら
れる。次いで、標本化マスクを2画素分右方向へシフト
し、同様にして画素濃度「12」を求める。以下同様にし
て順次右方向へ画素濃度を求めていき、右上隅の画素濃
度「15」を求めたら、下へ2画素分シフトする。そし
て、上記と同様の計算により2列目の画素濃度を求め
る。このようにして最下列の右隅の画素濃度「15」を求
めたらぼけ変換処理を終了する。
The normalized pattern created in this way is sent to the sampling section 2. The sampling unit 2 performs blur conversion on the sampling pattern to obtain a sampling pattern. That is, the sampling mask shown in FIG. 4B is projected onto the normalization pattern shown in FIG. 4A, and the pixel density of the area is calculated according to the weight defined by the sampling mask. For example, the pixel density when a sampling mask is projected on the upper left corner 30 of the normalized pattern is “1 × 1 + 1 × 2 + 1 × 1 + 1 × 2 + 1 × 4”.
+ 1 × 2 + 0 × 1 + 0 × 2 + 0 × 1 = 12 ”. Next, the sampling mask is shifted rightward by two pixels, and the pixel density “12” is obtained in the same manner. In the same manner, the pixel density is sequentially obtained in the right direction, and when the pixel density "15" at the upper right corner is obtained, the pixel density is shifted downward by two pixels. Then, the pixel density of the second column is obtained by the same calculation as above. When the pixel density “15” at the right corner of the bottom row is obtained in this way, the blur conversion processing ends.

以上の処理により求められた標本化パタンは、第4図
(c)に示すようなマトリックスとして得られ、入力さ
れた文字パタンを5画素×5画素のマトリックスで表わ
した場合の各画素成分位置における画素濃度を反映して
いる。つまり、上記5画素×5画素のマトリックスを手
書きブロック化数字を構成する各セグメントに対応させ
て見た場合に数字「3」を構成するセグメント11、12、
15、16、17、20、21、22に相当する近辺の画素濃度値が
大きくなっていることがわかる。
The sampling pattern obtained by the above process is obtained as a matrix as shown in FIG. 4 (c), and the pixel pattern at each pixel component position when the input character pattern is represented by a matrix of 5 pixels × 5 pixels. It reflects the pixel density. In other words, when the matrix of 5 pixels × 5 pixels is viewed in association with each segment forming the handwritten blocked number, the segments 11, 12, and
It can be seen that the pixel density values in the vicinity corresponding to 15, 16, 17, 20, 21, and 22 are large.

このようにして作成された標本化パタンは、特徴抽出
部3へ送られる。特徴抽出部3では、上記標本化パタン
の特徴を抽出する。すなわち、各セグメント毎に上述し
た算式を用いて特徴値を算出する。第5図(b)に、上
記算式に従って算出した各セグメント11〜22の特徴値を
示す。この際、手書きブロック化数字のセグメントが存
在しない領域、つまり第5図(a)のg、i、q、sの
領域に対応する特徴値も第5図(b)に示す算式に従っ
て算出される。
The sampling pattern created in this way is sent to the feature extraction unit 3. The feature extraction unit 3 extracts features of the sampling pattern. That is, the feature value is calculated for each segment using the above-described formula. FIG. 5B shows the characteristic values of each of the segments 11 to 22 calculated according to the above formula. At this time, the feature value corresponding to the area where the segment of the handwritten blocked number does not exist, that is, the area of g, i, q, s in FIG. 5A is also calculated according to the formula shown in FIG. 5B. .

次いで、上記特徴値は2値化部4に送られる。2値化
部4は、上記特徴値をスライスレベル「12」でスライス
することにより2値化して2値化された特徴値を得る。
Next, the feature value is sent to the binarization unit 4. The binarizing unit 4 binarizes the feature value by slicing it at a slice level “12” to obtain a binarized feature value.

この2値化部4で得られた2値化された特徴値は認識
部5に送られる。認識部5では、あらかにめ用意されて
いる標準字形としての数字「1」〜「0」の基準特徴値
と順次比較する処理を行なう。そして、一致する基準特
徴値があると、その基準特徴値に該当する数字(答)を
認識結果として出力する。一方、一致する基準特徴値が
ないと、認識不能としてリジェクトする。
The binarized feature value obtained by the binarization unit 4 is sent to the recognition unit 5. The recognizing unit 5 performs a process of sequentially comparing the reference characteristic values of the numbers “1” to “0” as the standard character shapes prepared in advance. Then, when there is a matching reference feature value, a numeral (answer) corresponding to the reference feature value is output as a recognition result. On the other hand, if there is no matching reference feature value, it is rejected as unrecognizable.

以上説明したように、手書きブロック化数字として与
えられた入力文字パタンを正規化し、これをぼけ変換す
ることにより標本化パタンを得、この標本化パタン中の
手書きブロック化数字を構成する各セグメントに相当す
る部分の画素濃度を特徴を抽出し、この特徴値により手
書きブロック化数字を構成する各セグメントの有機を判
断して入力文字パタンを認識するようにしたので、類似
度により文字認識を行なうものに比較し積和計算の量が
飛躍的に減少して高速認識処理が可能となるとともに、
セグメントに対応する領域を走査して当該セグメントの
有無により文字認識を行なうもののように線分の切れや
掠れによる影響を受けにくいので、認識率を向上させる
ことができるものとなっている。
As described above, the input character pattern given as a handwritten blocked number is normalized, and a blurring transformation is performed on the input character pattern to obtain a sampling pattern. The feature is extracted from the pixel density of the corresponding part, and the input character pattern is recognized by judging the organic character of each segment constituting the handwritten blocked number based on the feature value. The amount of sum-of-products calculation is dramatically reduced as compared to
As in the case where a region corresponding to a segment is scanned and character recognition is performed based on the presence or absence of the segment, it is hardly affected by cuts or blurring of line segments, so that the recognition rate can be improved.

なお、前記実施例では、特徴抽出部3で得られた特徴
値を2値化するに際し、スラスレベルを「12」とした
が、これに限らず、他の値であっても良い。
In the above-described embodiment, when the feature value obtained by the feature extraction unit 3 is binarized, the thrust level is set to “12”. However, the present invention is not limited to this, and another value may be used.

[発明の効果] 以上説明したように、この発明によれば、高速に文字
認識を行なうことができるとともに、入力文字パタンの
線分に切れや掠れがあっても高い認識率を得ることので
きる文字認識装置を提供することができる。
[Effects of the Invention] As described above, according to the present invention, character recognition can be performed at high speed, and a high recognition rate can be obtained even if a line segment of an input character pattern is cut or blurred. A character recognition device can be provided.

【図面の簡単な説明】[Brief description of the drawings]

図は本発明の一実施例を示すもので、第1図は全体の構
成を概略的に示すブロック図、第2図は手書きブロック
化数字の記入枠を示す図、第3図は手書きブロック化数
字の標準字形を示す図、第4図は標本化の動作を説明す
るための図であり、同図(a)は入力される正規化パタ
ーンの一例を示す図、同図(b)は標本化マスクの一例
を示す図、同図(c)は出力される標本化パタンの一例
を示す図、第5図は特徴抽出の動作を説明するための図
であり、同図(a)は標本化パタンの各画素成分の位置
を示す図、同図(b)は各セグメントに対する特徴値算
出式、算出された特徴値および2値化された特徴値を示
す図、第6図は予め用意される基準特徴値と認識結果の
関係を示す図である。 1……正規化部(正規化手段)、2……標本化部(標本
化手段)、3……特徴抽出部(特徴抽出手段)、4……
2値化部(2値化手段)、5……認識部(認識手段)、
11〜22……セグメント。
FIG. 1 shows an embodiment of the present invention. FIG. 1 is a block diagram schematically showing the entire structure, FIG. 2 is a diagram showing an entry frame for handwritten blocked numbers, and FIG. FIG. 4 is a diagram showing a standard character shape of numbers, FIG. 4 is a diagram for explaining the sampling operation, FIG. 4A shows an example of an input normalization pattern, and FIG. FIG. 5C is a diagram showing an example of a sampling mask, FIG. 5C is a diagram showing an example of an output sampling pattern, FIG. 5 is a diagram for explaining an operation of feature extraction, and FIG. FIG. 6B is a diagram showing the position of each pixel component of the conversion pattern, FIG. 6B is a diagram showing a feature value calculation formula for each segment, a calculated feature value and a binarized feature value, and FIG. FIG. 6 is a diagram showing a relationship between reference feature values and recognition results. 1 ... Normalizing section (Normalizing means), 2 ... Sampling section (Sampling means), 3 ... Feature extracting section (Feature extracting means), 4 ...
Binarization unit (binarization means), 5 ... recognition unit (recognition means),
11-22 …… Segments.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】手書きブロック化数字を認識する文字認識
装置において、 入力文字パタンを正規化する正規化手段と、 この正規化手段が出力する正規化パタンをぼけ変換する
ことにより標本化する標本化手段と、 この標本化手段が出力する標本化パタン中の手書きブロ
ック化数字を構成する各セグメントに対応する部分の画
素の濃度特徴を抽出して特徴値を得る特徴抽出手段と、 この特徴抽出手段により得られた前記特徴値を2値化す
る2値化手段と、 この2値化手段で2値化された前記特徴値に基づき、手
書きブロック化数字を構成する各セグメントの有無を判
断して前記入力文字パタンを認識する認識手段と を具備することを特徴とする文字認識装置。
1. A character recognition apparatus for recognizing a handwritten blocked digit, comprising: a normalizing means for normalizing an input character pattern; and a sampling means for performing sampling by subjecting the normalized pattern output by the normalizing means to blur conversion. Means for extracting a density feature of a pixel corresponding to each segment constituting a handwritten blocked number in a sampling pattern output by the sampling means to obtain a feature value; and a feature extracting means. Binarizing means for binarizing the feature value obtained by the above, and judging the presence or absence of each segment constituting a handwritten blocked digit based on the feature value binarized by the binarizing means. A character recognition device for recognizing the input character pattern.
JP63322317A 1988-12-21 1988-12-21 Character recognition device Expired - Lifetime JP2795860B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63322317A JP2795860B2 (en) 1988-12-21 1988-12-21 Character recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63322317A JP2795860B2 (en) 1988-12-21 1988-12-21 Character recognition device

Publications (2)

Publication Number Publication Date
JPH02166583A JPH02166583A (en) 1990-06-27
JP2795860B2 true JP2795860B2 (en) 1998-09-10

Family

ID=18142282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63322317A Expired - Lifetime JP2795860B2 (en) 1988-12-21 1988-12-21 Character recognition device

Country Status (1)

Country Link
JP (1) JP2795860B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5264330B2 (en) * 2008-07-07 2013-08-14 三菱電機株式会社 Route video management system and video management method
JP4762321B2 (en) 2009-02-24 2011-08-31 株式会社東芝 Image recognition apparatus and image recognition method

Also Published As

Publication number Publication date
JPH02166583A (en) 1990-06-27

Similar Documents

Publication Publication Date Title
Gatos et al. Automatic table detection in document images
Tensmeyer et al. Historical document image binarization: A review
Shi et al. Text extraction from gray scale historical document images using adaptive local connectivity map
EP0063454B1 (en) Method for recognizing machine encoded characters
EP0622750A2 (en) Pattern recognition
Demilew et al. Ancient Geez script recognition using deep learning
CN112507782A (en) Text image recognition method and device
Yadav et al. Text extraction in document images: highlight on using corner points
Kamada et al. High-speed, high-accuracy binarization method for recognizing text in images of low spatial resolutions
JP2795860B2 (en) Character recognition device
Kaur et al. Page segmentation in OCR system-a review
JP2871590B2 (en) Image extraction method
JP3164835B2 (en) Pre-processing method and post-processing method in human image recognition
JP3150762B2 (en) Gradient vector extraction method and character recognition feature extraction method
JP4194309B2 (en) Document direction estimation method and document direction estimation program
JP3936039B2 (en) Screened area extraction device
EP0476852B1 (en) Image processing method and apparatus
JP2800192B2 (en) High-speed character / graphic separation device
JPS622382A (en) Feature extracting devie for pattern
JP3104355B2 (en) Feature extraction device
JP3127413B2 (en) Character recognition device
CN117710985A (en) Optical character recognition method and device and intelligent terminal
Kaur et al. Page Segmentation using XY Cut Algorithm in OCR Systems-A Review
JP3199033B2 (en) Optical character reading method and optical character reading device
JP2918363B2 (en) Character classification method and character recognition device