JP2002032713A - Character recognition processing method - Google Patents

Character recognition processing method

Info

Publication number
JP2002032713A
JP2002032713A JP2000215562A JP2000215562A JP2002032713A JP 2002032713 A JP2002032713 A JP 2002032713A JP 2000215562 A JP2000215562 A JP 2000215562A JP 2000215562 A JP2000215562 A JP 2000215562A JP 2002032713 A JP2002032713 A JP 2002032713A
Authority
JP
Japan
Prior art keywords
character
character recognition
image data
line
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000215562A
Other languages
Japanese (ja)
Inventor
Yoshiko Hozumi
芳子 穂積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2000215562A priority Critical patent/JP2002032713A/en
Publication of JP2002032713A publication Critical patent/JP2002032713A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a character recognizing method which can recognize characters of a character image with high precision even if the image has luminance spots or is distorted. SOLUTION: In this character recognizing method which recognizes characters of character image data, the character image data are divided into blocks, a binarization threshold for separating a character part and a background part is found by the blocks, and then the luminance is distributed over the whole character image data from the binarized threshold to perform the character recognition.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタルカメラや
ビデオカメラ、スキャナ等で入力した画像に含まれる文
字を認識する文字認識方法に関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to a character recognition method for recognizing characters contained in an image input by a digital camera, a video camera, a scanner or the like.

【0002】[0002]

【従来の技術】従来より、文字認識方法については、多
くの方法が提案されている。例えば、入力データと辞書
のイメージデータとのパターンマッチングを行って、入
力データの文字を認識したり、或いは文字の背景特徴や
ストローク特徴を用いて、入力データの文字認識を行う
方法がある。しかし、いずれの文字認識方法も文書をス
キャナー等で入力した比較的高品質、高解像度の画像を
文字認識の対象としている。これまでは、文書をスキャ
ナーで入力する方法が主流であったが、デジタルスチル
カメラやビデオカメラの普及に伴い、これらのカメラを
画像入力装置として使用する場合が急速に増え、そのア
プリケーションとして、これらの画像入力装置で入力し
た画像に対して文字認識を行うことが生じてきた。
2. Description of the Related Art Conventionally, many character recognition methods have been proposed. For example, there is a method of performing pattern matching between input data and image data of a dictionary to recognize characters of the input data, or performing character recognition of the input data using background characteristics and stroke characteristics of the characters. However, in any of the character recognition methods, a relatively high-quality and high-resolution image obtained by inputting a document with a scanner or the like is targeted for character recognition. Until now, the main method was to input documents with a scanner, but with the spread of digital still cameras and video cameras, the use of these cameras as image input devices has increased rapidly, Character recognition is performed on an image input by an image input device.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来よ
り行われている文字認識方法は、高品質、高解像度の文
字画像を対象としているため、この方法をそのままデジ
タルカメラやビデオカメラ等で入力した低解像度で輝度
斑や歪のある文字画像に適用すると、文字認識率が著し
く低下していた。その原因としては、低解像度のために
認識に必要な文字サイズが得られないことによる、また
カメラ固有の画像の輝度斑やノイズ、撮影位置による歪
等が挙げられる。また、従来の文字認識方法では、文書
をスキャナーで入力する場合にもサイズの小さい文字は
認識できないことが多かった。
However, since the conventional character recognition method is intended for high-quality, high-resolution character images, this method is directly used by a digital camera, a video camera, or the like. When applied to a character image having luminance unevenness or distortion at a resolution, the character recognition rate has been significantly reduced. The causes include the inability to obtain a character size required for recognition due to low resolution, luminance unevenness and noise of an image unique to a camera, distortion due to a shooting position, and the like. Further, in the conventional character recognition method, even when a document is input by a scanner, small characters cannot be recognized in many cases.

【0004】そこで、本発明は、上記のような問題点を
解消するためになされたもので、輝度斑や歪のある文字
画像でも高い精度で文字認識できる文字認識方法を提供
することを目的とする。
The present invention has been made in order to solve the above-mentioned problems, and an object of the present invention is to provide a character recognition method capable of character recognition with high accuracy even for a character image having luminance unevenness or distortion. I do.

【0005】[0005]

【課題を解決するための手段】本発明の文字認識方法の
第1の発明は、文字画像データを文字認識する文字認識
方法において、前記文字画像データを複数の分割ブロッ
クに分割した後、この分割ブロック毎に文字部分と背景
部分とを分ける2値化しきい値を求めた後、この2値化
しきい値から前記文字画像データ全体の輝度分布が均一
になるように輝度補正を行って文字認識を行うことを特
徴とする。第2の発明は、請求項1記載の文字認識方法
において、前記2値化しきい値を求めた後、平滑化処理
を行うことを特徴とする。第3の発明は、文字画像デー
タを文字認識する文字認識方法において、前記文字画像
データを複数の分割ブロックに分割した後、この分割ブ
ロック毎に文字部分と背景部分とを分ける2値化しきい
値を求め、この2値化しきい値の平滑化処理を行って輝
度補正マップを作成し、次に、この輝度補正マップの輝
度補正処理を行って前記文字画像データ全体の輝度分布
を均一にし、更に、各文字の輪郭線の抽出を行ない、こ
の輪郭線が互いにオーバーラップするように拡大した
後、一行毎に文字を塗りつぶして塗りつぶし領域を作成
し、次に、この塗りつぶし領域から1行ずつ取り出し
て、これを元画像に重ねる行抽出を行って文字認識前処
理を終了した後、この行抽出された文字と予め登録され
た辞書データとを照合して文字認識を行うことを特徴と
する。
According to a first aspect of the present invention, there is provided a character recognition method for character recognition of character image data, comprising the step of dividing the character image data into a plurality of divided blocks, After obtaining a binarization threshold value for separating the character portion and the background portion for each block, character recognition is performed by performing luminance correction based on the binarization threshold value so that the luminance distribution of the entire character image data becomes uniform. It is characterized by performing. According to a second aspect, in the character recognition method according to the first aspect, a smoothing process is performed after obtaining the binarization threshold. According to a third aspect of the present invention, in the character recognition method for character recognizing character image data, after dividing the character image data into a plurality of divided blocks, a binary threshold value for dividing a character portion and a background portion for each of the divided blocks Is obtained, a brightness correction map is created by performing a smoothing process of the binarization threshold value, and then a brightness correction process of the brightness correction map is performed to uniform the brightness distribution of the entire character image data. After extracting the outline of each character and enlarging the outline so that they overlap each other, the character is filled line by line to create a filled area, and then the line is taken out from the filled area one line at a time. After performing the character extraction pre-processing by performing line extraction on which this is superimposed on the original image, it is assumed that character recognition is performed by comparing the extracted characters with dictionary data registered in advance. And butterflies.

【0006】[0006]

【発明の実施の形態】以下、本発明の実施形態の文字認
識方法について、図1乃至図12を用いて詳細に説明す
る。図1は、本発明の文字認識方法に用いられる文字認
識装置を示すブロック図である。図2は、図1に示した
認識処理装置による文字認識処理手順を示すフローチャ
ートである。図3は、ブロック毎に分割された文字画像
を示す図である。図4は、ブロック毎に分割された文字
画像の2値化しきい値を示す図である。図5は、文字画
像にノイズがある場合に、周辺の2値化しきい値との平
均をとって求めた文字画像の2値化しきい値を示す図で
ある。図6は、2値化しきい値分布を元の画像の大きさ
に拡大して得られた輝度補正マップを示す図である。図
7は、輝度補正した文字画像データを示す図である。図
8は、図7に示す文字画像データを2値化した図であ
る。図9は、抽出した2値化した文字領域を示す図であ
る。図10は、抽出した2値化文字領域の外形矩形座標
を横方向に拡大した図である。図11は、行抽出を行っ
た文字領域を示し、(a)は1行目、(b)は17行目
を示す図である。図12は、2倍に拡大した後に2値化
した画像を示す図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a character recognition method according to an embodiment of the present invention will be described in detail with reference to FIGS. FIG. 1 is a block diagram showing a character recognition device used in the character recognition method of the present invention. FIG. 2 is a flowchart illustrating a character recognition processing procedure performed by the recognition processing device illustrated in FIG. FIG. 3 is a diagram showing a character image divided for each block. FIG. 4 is a diagram illustrating a binarization threshold value of a character image divided for each block. FIG. 5 is a diagram illustrating a binarization threshold value of a character image obtained by averaging the binarization threshold value of a character image when the noise is present in the character image. FIG. 6 is a diagram illustrating a luminance correction map obtained by enlarging the binarized threshold distribution to the size of the original image. FIG. 7 is a diagram illustrating character image data subjected to luminance correction. FIG. 8 is a diagram in which the character image data shown in FIG. 7 is binarized. FIG. 9 is a diagram showing the extracted binarized character area. FIG. 10 is a diagram in which the outer shape rectangular coordinates of the extracted binarized character area are enlarged in the horizontal direction. FIGS. 11A and 11B show a character area from which a line has been extracted, wherein FIG. 11A shows the first line and FIG. 11B shows the seventeenth line. FIG. 12 is a diagram illustrating an image binarized after being enlarged twice.

【0007】図1に示すように、文字認識装置は、スキ
ャナー、デジタルスチルカメラ、ビデオカメラにキャプ
チャーを組み合わせた装置等よりなる画像入力装置1
と、この画像入力装置1に接続され、画像認識を行う認
識処理装置2と、認識処理装置2に接続され、ユーザか
らの指示などを入力するマウス、キーボード等の入力装
置3と、認識処理装置2に接続され、辞書データおよび
プログラムを記憶する記憶装置4と、認識処理装置2で
処理された画像の表示を行う画像表示装置5と、認識処
理装置2から画像等を出力する出力装置6とからなる。
なお、上記した文字認識装置は、例えば、パーソナルコ
ンピュータとその周辺機器により構成することができ
る。
As shown in FIG. 1, the character recognition device is an image input device 1 including a scanner, a digital still camera, a video camera combined with a capture device, and the like.
A recognition processing device 2 connected to the image input device 1 for performing image recognition; an input device 3 such as a mouse and a keyboard connected to the recognition processing device 2 for inputting an instruction from a user; 2, a storage device 4 for storing dictionary data and programs, an image display device 5 for displaying images processed by the recognition processing device 2, and an output device 6 for outputting images and the like from the recognition processing device 2. Consists of
The above-described character recognition device can be composed of, for example, a personal computer and its peripheral devices.

【0008】次に、本発明の実施形態の文字認識方法に
ついて、図2乃至図12を用いて説明する。本発明の実
施形態の文字認識方法は、ステップ301〜ステップ3
05における文字認識前処理を行った後、文字認識を行
うことを特徴とする。まず始めに、図2に示すように、
ステップ201にて、標準文字の画像データから輝度等
高線を抽出して輪郭線データを作成し、この輪郭線デー
タをステップ202にて記憶装置4に登録して辞書デー
タとする。なお、文字フォントデータとして既に作成さ
れているアウトラインフォントデータを辞書データとし
て使用しても良い。
Next, a character recognition method according to an embodiment of the present invention will be described with reference to FIGS. The character recognition method according to the embodiment of the present invention includes steps 301 to 3
The character recognition is performed after performing the character recognition preprocessing in step 05. First, as shown in FIG.
In step 201, contour lines are created by extracting luminance contour lines from the image data of the standard characters, and the contour data is registered in the storage device 4 in step 202 to become dictionary data. Note that outline font data already created as character font data may be used as dictionary data.

【0009】上記した辞書データを用いて、図1に示し
た認識処理装置2が文字認識する方法について、図2に
示すステップ301〜ステップ307のフローチャート
に従って説明する。ステップ301にて、デジタルスチ
ルカメラ、スキャナー等の画像入力装置1によって入力
された文字画像データを記憶装置4に保存する。次に、
ステップ302にて、文字画像データの輝度補正マップ
作成を以下のようにして行う。まず、図3に示すよう
に、入力した文字画像データを適当なブロックに分割す
る。この際、ブロックは、文字部分と背景部分とが含ま
れるようにして、例えば、40ピクセル×40ピクセル
にする。次に、図4に示すように、文字画像データは、
文字部分と背景部分にピークがあるという特徴を生かし
て、文字部分と背景部分とを分ける2値化しきい値を各
ブロック毎に求めて、文字画像の並び順に並べた2値化
しきい値分布を作成する。
A method of recognizing characters by the recognition processing device 2 shown in FIG. 1 using the above-described dictionary data will be described with reference to a flowchart of steps 301 to 307 shown in FIG. In step 301, character image data input by the image input device 1 such as a digital still camera or a scanner is stored in the storage device 4. next,
In step 302, a brightness correction map for character image data is created as follows. First, as shown in FIG. 3, the input character image data is divided into appropriate blocks. At this time, the block is set to, for example, 40 pixels × 40 pixels so as to include a character portion and a background portion. Next, as shown in FIG.
Taking advantage of the feature that the character portion and the background portion have peaks, a binarization threshold value for separating the character portion and the background portion is obtained for each block, and a binarization threshold distribution arranged in the order of the character images is obtained. create.

【0010】この2値化しきい値は、一般的な判別分析
法によって求められ、輝度値ヒストグラムから分散が最
大になるように文字部分と背景部分とを分割する値から
求められる。こうして得られる2値化しきい値は、文字
画像の周辺部では、ブロック内の輝度が低いので、低く
なり、この中心部では、ブロック内の輝度が高いので、
高くなる。
The binarization threshold is obtained by a general discriminant analysis method, and is obtained from a value obtained by dividing a character portion and a background portion from a luminance value histogram so that the variance is maximized. The binarization threshold obtained in this manner is low in the peripheral portion of the character image because the luminance in the block is low, and is low in the central portion because the luminance in the block is high.
Get higher.

【0011】文字画像による局所的なノイズが現れる場
合には、図5に示すように、周辺の2値化しきい値との
平均をとって平滑化処理するようにしても良い。図6に
示すように、2値化しきい値分布を元の画像の大きさに
戻して、輝度補正マップを作成する。
When local noise due to a character image appears, as shown in FIG. 5, a smoothing process may be performed by averaging the binarized threshold value in the vicinity. As shown in FIG. 6, a luminance correction map is created by returning the binarized threshold distribution to the original image size.

【0012】次に、ステップ303にて、上記の輝度補
正マップから文字画像データを以下のようにして得る。
輝度補正マップの輝度補正処理は、以下の(1)式を用
いて行うことができる。元画像の輝度値をY、輝度の最
大値をYmax、輝度補正マップにおける2値化しきい値
をTとすると、補正後の輝度値Y1は、 Y1=(Y+(Ymax−T))/2…(1) の関係式によって求めることができる。
Next, in step 303, character image data is obtained from the brightness correction map as follows.
The brightness correction processing of the brightness correction map can be performed using the following equation (1). Assuming that the luminance value of the original image is Y, the maximum value of the luminance is Y max , and the binarization threshold in the luminance correction map is T, the corrected luminance value Y 1 is Y 1 = (Y + (Y max −T) ) / 2 (1).

【0013】(1)式から、補正後の輝度値は、輝度補
正マップにおける2値化しきい値Tが大きいところで
は、小さくなり、2値化しきい値Tが小さいところで
は、大きくなるので、文字画像データ全体としての輝度
分布は、均一になる。このようにして、(1)式の演算
を行って、輝度補正マップによる輝度補正処理が可能と
なる。この結果、図7に示すように、輝度補正された文
字画像データを得ることができる。従来の方法を用い
て、これを2値化すると図8に示すようになる。
From equation (1), the corrected luminance value becomes smaller when the binarization threshold T is large in the luminance correction map, and becomes large when the binarization threshold T is small. The luminance distribution of the entire image data becomes uniform. In this way, the calculation of the expression (1) is performed, and the luminance correction processing using the luminance correction map can be performed. As a result, as shown in FIG. 7, character image data whose luminance has been corrected can be obtained. When this is binarized using a conventional method, the result is as shown in FIG.

【0014】次に、ステップ304にて、図9に示すよ
うに、図8に示す2値化した文字画像データから各文字
の輪郭線を抽出して文字領域抽出を行う。図9は、図8
に示す2値化した文字画像データの一部を示している。
次に、図10に示すように、抽出した文字領域の外形矩
形の座標を左右にオフセットして横方向に拡大する。こ
の際、拡大幅は、隣り合った文字がオーバーラップする
ように決める。
Next, in step 304, as shown in FIG. 9, the outline of each character is extracted from the binarized character image data shown in FIG. 8 to extract a character region. FIG. 9 shows FIG.
2 shows a part of the binarized character image data.
Next, as shown in FIG. 10, the coordinates of the extracted outer shape rectangle of the character area are offset to the left and right and enlarged in the horizontal direction. At this time, the enlargement width is determined so that adjacent characters overlap.

【0015】次に、ステップ305にて、図11に示す
ように、この抽出した文字領域から一行毎に文字を塗り
つぶして各行が塗りつぶされた塗りつぶし領域7を作成
し、この塗りつぶし領域7から1行ずつ取り出してマス
クを作成し、これを元画像に重ねて行抽出を行う。こう
して、文字認識前処理を完了する。
Next, in step 305, as shown in FIG. 11, characters are painted line by line from the extracted character region to create a painted region 7 in which each line is painted, and one line is drawn from the painted region 7. Then, a mask is created by taking out each of the masks, and the mask is superimposed on the original image to perform row extraction. Thus, the character recognition pre-processing is completed.

【0016】以上のように、文字認識前処理は、元画像
の大きさのままで行っても良いが、元画像を縮小して行
っても良い。縮小した元画像を使用した場合には、使用
メモリ量や処理量を減らすことができるので、携帯型端
末に搭載することが可能となる。この後、ステップ30
6にて、前記した文字認識前処理により行抽出された文
字領域から文字抽出を行う。
As described above, the character recognition pre-processing may be performed with the size of the original image, or may be performed with the original image reduced. When the reduced original image is used, the amount of memory used and the amount of processing can be reduced, so that the image can be mounted on a portable terminal. After this, step 30
At 6, the character is extracted from the character area where the line is extracted by the above-described character recognition preprocessing.

【0017】次に、ステップ307にて、認識処理装置
2は、ステップ306で抽出された文字を前記したステ
ップ202にて記憶装置4に登録された辞書データと順
次照合して文字認識を行った後、その結果を画像表示装
置5又は、出力装置6に出力する。前記したように、ス
テップ303にて得られた文字画像データをそのまま2
値化して文字認識を行っても良いが、デジタルカメラ等
で撮影した画像の場合には解像度が不足することが多い
ので、この画像を何倍かに拡大した後に2値化すれば高
品質な2値化画像が得られる。この場合、画像の解像
度、文字の大きさなどの状況により必要に応じて画像の
拡大を行うと良い。こうして、2倍に拡大された後に2
値化された画像を図12に示す。
Next, in step 307, the recognition processing device 2 performs character recognition by sequentially collating the characters extracted in step 306 with the dictionary data registered in the storage device 4 in step 202 described above. Thereafter, the result is output to the image display device 5 or the output device 6. As described above, the character image data obtained in step 303 is
Character recognition may be performed by converting the image into a value. However, in the case of an image photographed by a digital camera or the like, the resolution is often insufficient. A binary image is obtained. In this case, it is preferable to enlarge the image as necessary depending on the situation such as the resolution of the image and the size of characters. Thus, after being doubled, 2
FIG. 12 shows the binarized image.

【0018】この文字認識前処理を通常行われている一
行単位の拡大処理を行った場合には、拡大幅だけの反復
処理が必要であるが、これに対して、輪郭線により座標
値に変換して、拡大処理を行った場合には、座標値のオ
フセットだけでよく、拡大幅に関係なく処理時間を一定
にすることができる。
When the character recognition pre-processing is performed in a line-by-line enlargement process which is usually performed, it is necessary to repeat the enlargement width only. When the enlargement processing is performed, only the offset of the coordinate value is required, and the processing time can be constant regardless of the enlargement width.

【0019】また、単独文字での文字認識照合の結果に
加えて、単語や熟語の情報を用いると、文字認識照合結
果を補正して認識率を向上させることができる。そのた
めに文字認識照合結果を1つだけ出力するのではなく、
複数の文字認識照合結果を出力し、これを辞書データと
照合させて正解を得る等の文字認識方法をとることがで
きる。本発明によって文字認識前処理を行った文字画像
について文字認識方式の1つである拡張セル方式で文字
認識を行った結果を図13に示す。図13は、拡張セル
方式で文字認識を行った結果を示し、(a)は入力画像
を示す図、(b)は文字認識結果を示す図である。
When information on words and idioms is used in addition to the result of character recognition and collation with a single character, the result of character recognition and collation can be corrected to improve the recognition rate. Therefore, instead of outputting only one character recognition collation result,
A character recognition method such as outputting a plurality of character recognition collation results and collating the result with dictionary data to obtain a correct answer can be adopted. FIG. 13 shows the result of character recognition performed on the character image subjected to the character recognition preprocessing according to the present invention by the extended cell method, which is one of the character recognition methods. FIGS. 13A and 13B show the result of character recognition performed by the extended cell method. FIG. 13A is a diagram showing an input image, and FIG. 13B is a diagram showing a character recognition result.

【0020】本発明の実施形態によれば、デジタルスチ
ルカメラ等から入力された画像データ等の文字画像デー
タを文字部分と背景部分とを含む複数のブロックに分割
した後、文字部分と背景部分とを分ける2値化しきい値
を各ブロック毎に求め、この2値化しきい値の平滑化処
理を行って、輝度補正マップを作成し、次に、この輝度
補正マップの輝度補正処理を行なって、文字画像データ
全体としての輝度分布を均一にし、引き続いて、各文字
の輪郭線の抽出を行ない、更に、この輪郭線が互いにオ
ーバーラップするように拡大した後、一行後に文字を塗
りつぶして、各行が塗りつぶされた塗りつぶし領域7を
作成し、次に、この塗りつぶし領域7から1行ずつ取り
出して、これを元画像に重ねる行抽出を行って文字認識
前処理を終了した後、この抽出された行から文字抽出を
行い、この抽出された文字と予め登録された辞書データ
とを照合して文字認識を行うので、輝度斑や歪のある文
字画像でも高い精度で文字認識を行うことができる。
According to the embodiment of the present invention, character image data such as image data input from a digital still camera or the like is divided into a plurality of blocks including a character portion and a background portion, and then divided into a plurality of blocks including a character portion and a background portion. Is obtained for each block, a smoothing process of the binary threshold value is performed, a brightness correction map is created, and then a brightness correction process of the brightness correction map is performed. The luminance distribution of the entire character image data is made uniform, the outline of each character is subsequently extracted, and the outline is enlarged so that these outlines overlap with each other. A filled area 7 is created, and then one line is taken out from the filled area 7 and a line is extracted by superimposing the line on the original image, and the character recognition preprocessing is completed. Characters are extracted from the extracted lines, and character recognition is performed by comparing the extracted characters with pre-registered dictionary data, so that character recognition can be performed with high accuracy even for character images having luminance unevenness or distortion. It can be carried out.

【0021】また、傾きや歪みのある入力画像について
も高精度に行を抽出することが可能であるので、文字認
識の精度を上げることができる。更に、輪郭線を用いる
ことによって抽出にかかる処理量を減らすことが可能で
あるので、携帯型端末など計算能力の少ない機器への搭
載が可能である。
Further, since it is possible to extract a line with high accuracy even from an input image having an inclination or distortion, the accuracy of character recognition can be improved. Furthermore, since the amount of processing required for extraction can be reduced by using a contour line, it can be mounted on a device having a low calculation capability such as a portable terminal.

【0022】[0022]

【発明の効果】本発明によれば、文字画像データを文字
認識する文字認識方法において、前記文字画像データを
複数の分割ブロックに分割した後、この分割ブロック毎
に文字部分と背景部分とを分ける2値化しきい値を求め
た後、この2値化しきい値から前記文字画像データ全体
の輝度分布が均一になるように輝度補正を行って文字認
識を行うので、輝度斑や歪のある文字画像でも高い精度
で文字認識を行うことができる。また、文字画像データ
を文字認識する文字認識方法において、前記文字画像デ
ータを複数の分割ブロックに分割した後、この分割ブロ
ック毎に文字部分と背景部分とを分ける2値化しきい値
を求め、この2値化しきい値の平滑化処理を行って輝度
補正マップを作成し、次に、この輝度補正マップの輝度
補正処理を行って前記文字画像データ全体の輝度分布を
均一にし、更に、各文字の輪郭線の抽出を行ない、この
輪郭線が互いにオーバーラップするように拡大した後、
一行毎に文字を塗りつぶして塗りつぶし領域を作成し、
次に、この塗りつぶし領域から1行ずつ取り出して、こ
れを元画像に重ねる行抽出を行って文字認識前処理を終
了した後、この行抽出された文字と予め登録された辞書
データとを照合して文字認識を行うので、傾きや歪みの
ある入力画像についても高精度に行を抽出することが可
能となり、文字認識の精度を上げることができる。更
に、輪郭線を用いることによって抽出にかかる処理量を
減らすことが可能であるので、携帯型端末など計算能力
の少ない機器への搭載が可能である。
According to the present invention, in the character recognition method for character recognition of character image data, after dividing the character image data into a plurality of divided blocks, a character portion and a background portion are separated for each of the divided blocks. After obtaining the binarization threshold, character recognition is performed by performing luminance correction based on the binarization threshold so that the luminance distribution of the entire character image data becomes uniform. However, character recognition can be performed with high accuracy. In the character recognition method for character recognition of character image data, after dividing the character image data into a plurality of divided blocks, a binarization threshold for dividing a character portion and a background portion for each of the divided blocks is obtained. A brightness correction map is created by performing a smoothing process of the binarization threshold, and then a brightness correction process of the brightness correction map is performed to make the brightness distribution of the entire character image data uniform. After extracting the outlines and expanding them so that they overlap each other,
Fill the text line by line to create a filled area,
Next, one line is taken out from the filled area one line at a time, and a line is extracted by superimposing the line on the original image, and the character recognition preprocessing is completed. Then, the extracted character is collated with dictionary data registered in advance. Therefore, it is possible to extract a line with high accuracy even for an input image having an inclination or distortion, thereby improving the accuracy of character recognition. Furthermore, since the amount of processing required for extraction can be reduced by using a contour line, it can be mounted on a device having a low calculation capability such as a portable terminal.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の文字認識方法に用いられる文字認識装
置を示すブロック図である。
FIG. 1 is a block diagram showing a character recognition device used in the character recognition method of the present invention.

【図2】図1に示した認識処理装置による文字認識処理
手順を示すフローチャートである。
FIG. 2 is a flowchart illustrating a character recognition processing procedure performed by the recognition processing device illustrated in FIG. 1;

【図3】ブロック毎に分割された文字画像を示す図であ
る。
FIG. 3 is a diagram showing a character image divided for each block.

【図4】ブロック毎に分割された文字画像の2値化しき
い値を示す図である。
FIG. 4 is a diagram showing a binarization threshold value of a character image divided for each block.

【図5】文字画像にノイズがある場合に、周辺の2値化
しきい値との平均をとって求めた文字画像の2値化しき
い値を示す図である。
FIG. 5 is a diagram illustrating a binarization threshold value of a character image obtained by averaging the binarization threshold value in the vicinity when a noise is present in the character image;

【図6】2値化しきい値分布を元の画像の大きさに拡大
して得られた輝度補正マップを示す図である。
FIG. 6 is a diagram showing a luminance correction map obtained by enlarging a binarized threshold distribution to the size of an original image.

【図7】輝度補正した文字画像データを示す図である。FIG. 7 is a diagram showing character image data subjected to luminance correction.

【図8】図7に示す文字画像データを2値化した図であ
る。
8 is a diagram in which the character image data shown in FIG. 7 is binarized.

【図9】2値化した文字画像データの文字領域抽出を行
った図である。
FIG. 9 is a diagram in which a character area is extracted from binarized character image data.

【図10】文字領域抽出した外形矩形の座標を横方向に
拡大した図である。
FIG. 10 is a diagram in which the coordinates of the external rectangle extracted from the character area are enlarged in the horizontal direction.

【図11】行抽出を行った様子を示し、(a)は1行
目、(b)は17行目を示す図である。
11A and 11B show a state in which row extraction is performed, wherein FIG. 11A is a view showing a first row, and FIG. 11B is a view showing a 17th row.

【図12】2倍に拡大した後に2値化した様子を示す図
である。
FIG. 12 is a diagram illustrating a state where the image is binarized after being enlarged twice.

【図13】拡張セル方式で文字認識を行った結果を示
し、(a)は入力画像を示す図、(b)は認識結果を示
す図である。
13A and 13B show the results of character recognition performed by the extended cell method, FIG. 13A shows an input image, and FIG. 13B shows recognition results.

【符号の説明】[Explanation of symbols]

1…画像入力装置、2…認識処理装置、3…入力装置、
4…記憶装置、5…画像表示装置、6…出力装置、7…
塗りつぶし領域
DESCRIPTION OF SYMBOLS 1 ... Image input device, 2 ... Recognition processing device, 3 ... Input device,
4 storage device 5 image display device 6 output device 7
Fill area

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】文字画像データを文字認識する文字認識方
法において、 前記文字画像データを複数の分割ブロックに分割した
後、この分割ブロック毎に文字部分と背景部分とを分け
る2値化しきい値を求めた後、この2値化しきい値から
前記文字画像データ全体の輝度分布が均一になるように
輝度補正を行って文字認識を行うことを特徴とする文字
認識方法。
1. A character recognition method for character recognition of character image data, comprising: dividing the character image data into a plurality of divided blocks; and setting a binary threshold for dividing a character portion and a background portion for each of the divided blocks. A character recognition method comprising: performing a luminance correction based on the binarization threshold so that the luminance distribution of the entire character image data becomes uniform;
【請求項2】前記2値化しきい値を求めた後、平滑化処
理を行うことを特徴とする請求項1記載の文字認識方
法。
2. The character recognition method according to claim 1, wherein a smoothing process is performed after obtaining the binarization threshold.
【請求項3】文字画像データを文字認識する文字認識方
法において、 前記文字画像データを複数の分割ブロックに分割した
後、この分割ブロック毎に文字部分と背景部分とを分け
る2値化しきい値を求め、この2値化しきい値の平滑化
処理を行って輝度補正マップを作成し、次に、この輝度
補正マップの輝度補正処理を行って前記文字画像データ
全体の輝度分布を均一にし、更に、各文字の輪郭線の抽
出を行ない、この輪郭線が互いにオーバーラップするよ
うに拡大した後、一行毎に文字を塗りつぶして塗りつぶ
し領域を作成し、次に、この塗りつぶし領域から1行ず
つ取り出して、これを元画像に重ねる行抽出を行って文
字認識前処理を終了した後、この行抽出された文字と予
め登録された辞書データとを照合して文字認識を行うこ
とを特徴とする文字認識方法。
3. A character recognition method for character recognizing character image data, comprising: dividing the character image data into a plurality of divided blocks; and setting a binarization threshold for dividing a character portion and a background portion for each of the divided blocks. Then, a brightness correction map is created by performing a smoothing process of the binarization threshold value, and then a brightness correction process of the brightness correction map is performed to make the brightness distribution of the entire character image data uniform. After extracting the outline of each character and enlarging the outline so that they overlap each other, the character is filled line by line to create a filled area, and then the lines are taken out of the filled area one line at a time. After performing line extraction to overlap this with the original image and ending the character recognition preprocessing, character recognition is performed by collating the extracted character with dictionary data registered in advance. Character recognition method to be used.
JP2000215562A 2000-07-17 2000-07-17 Character recognition processing method Pending JP2002032713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000215562A JP2002032713A (en) 2000-07-17 2000-07-17 Character recognition processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000215562A JP2002032713A (en) 2000-07-17 2000-07-17 Character recognition processing method

Publications (1)

Publication Number Publication Date
JP2002032713A true JP2002032713A (en) 2002-01-31

Family

ID=18710967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000215562A Pending JP2002032713A (en) 2000-07-17 2000-07-17 Character recognition processing method

Country Status (1)

Country Link
JP (1) JP2002032713A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346707A (en) * 2004-05-20 2005-12-15 Microsoft Corp Low-resolution ocr for document acquired by camera
JP2007334876A (en) * 2006-06-19 2007-12-27 Reallusion Inc System and method for processing document image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346707A (en) * 2004-05-20 2005-12-15 Microsoft Corp Low-resolution ocr for document acquired by camera
JP4698289B2 (en) * 2004-05-20 2011-06-08 マイクロソフト コーポレーション Low resolution OCR for documents acquired with a camera
JP2007334876A (en) * 2006-06-19 2007-12-27 Reallusion Inc System and method for processing document image

Similar Documents

Publication Publication Date Title
US9805281B2 (en) Model-based dewarping method and apparatus
JP2940936B2 (en) Tablespace identification method
US5434953A (en) Use of fast textured reduction for discrimination of document image components
JP2940496B2 (en) Pattern matching encoding apparatus and method
JP4757001B2 (en) Image processing apparatus and image processing method
JP2001358925A (en) Unit and method for image processing and recording medium
CN111291741B (en) Receipt identification method and device, computer equipment and storage medium
US7130085B2 (en) Half-tone dot elimination method and system thereof
JP5618719B2 (en) Image processing apparatus, method and program thereof
JP2002032713A (en) Character recognition processing method
JP4259949B2 (en) Image creating apparatus, image creating program, and recording medium
JP2003046746A (en) Method and apparatus for processing image
JP2000076378A (en) Character recognizing method
JP6055952B1 (en) Image inspection apparatus, image inspection method, and program
JPH11203404A (en) Method and device for reading character in view image and recording medium recording the method
JP4259950B2 (en) Image recognition apparatus, image recognition program, and recording medium
CN110321788B (en) Training data processing method, device, equipment and computer readable storage medium
JP2977230B2 (en) Character extraction method
JP2004242075A (en) Image processing apparatus and method therefor
JP2008299673A (en) Image processor, image processing program and computer readable recording medium recording image processing program and image processing method
JP2003317107A (en) Method and device for ruled-line detection
CN115457570A (en) Document handwritten content distinguishing method and device, computer equipment and storage medium
JP3031565B2 (en) Table space judgment method
JP2022045168A (en) Image processing device, control method, and control program
JP4310943B2 (en) Character recognition device, character recognition program, and character recognition method