JP2010182166A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2010182166A
JP2010182166A JP2009026103A JP2009026103A JP2010182166A JP 2010182166 A JP2010182166 A JP 2010182166A JP 2009026103 A JP2009026103 A JP 2009026103A JP 2009026103 A JP2009026103 A JP 2009026103A JP 2010182166 A JP2010182166 A JP 2010182166A
Authority
JP
Japan
Prior art keywords
image
character
image processing
unit
feature data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009026103A
Other languages
Japanese (ja)
Other versions
JP4869364B2 (en
Inventor
Soichiro Ono
聡一郎 小野
Kazunori Sekido
一紀 関戸
Hiroyuki Mizutani
博之 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Priority to JP2009026103A priority Critical patent/JP4869364B2/en
Publication of JP2010182166A publication Critical patent/JP2010182166A/en
Application granted granted Critical
Publication of JP4869364B2 publication Critical patent/JP4869364B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve accuracy of recognizing characters from a character image. <P>SOLUTION: The image processor is provided with: a memory for storing a document image; a pre-processing part for generating a character image by performing predetermined image processing on the document image read from the memory; a pattern generation part for generating a plurality of different character patterns by performing predetermined image processing on the character image; a feature extraction part for extracting feature data from each of a plurality of character patterns; and a similarity calculation part for calculating the similarity between the plurality of feature data and the feature data of characters stored in the recognition dictionary, and for selecting the characters whose similarity is high from the recognition dictionary. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

画像処理装置として、例えば画像に含まれる文字を認識する文字認識装置がある。文字認識装置において、複数の特徴量を用いて文字認識を行う技術の一つとして相互部分空間法という認識技術が提唱されている。この認識技術は1枚の文字画像の多様な特徴に着目して認識を行うものである(例えば非特許文献1参照)。   As an image processing apparatus, for example, there is a character recognition apparatus that recognizes characters included in an image. In a character recognition device, a recognition technique called a mutual subspace method has been proposed as one technique for character recognition using a plurality of feature quantities. This recognition technique recognizes by paying attention to various features of one character image (see Non-Patent Document 1, for example).

一方、文字画像には、1枚ごとに位置ずれや角度などによる変動要因が存在する。これに対応してパターン認識を行うための一つの手法として部分空間法という技術が公開されているが、その対応能力は必ずしも完全とはいえない(例えば非特許文献2参照)。   On the other hand, a character image has a variation factor due to a positional deviation, an angle, and the like for each character image. In response to this, a technique called a subspace method has been disclosed as one method for performing pattern recognition, but the corresponding capability is not necessarily perfect (see, for example, Non-Patent Document 2).

前田賢一、渡辺貞一「局所的構造を導入したパターン・マッチング法」、電子通信学会論文誌Vol.J68-D, No.3, 1985.Kenichi Maeda, Sadaichi Watanabe “Pattern Matching Method Introducing Local Structure”, IEICE Transactions Vol.J68-D, No.3, 1985. 石井健一郎ほか「わかりやすいパターン認識」(1998)、オーム社Kenichiro Ishii et al. “Easy-to-understand pattern recognition” (1998), Ohm

部分空間法では、例えば学習パターンの中に上述した変動要因が多く含まれていなければ、実用上は必ずしも大きな対応能力を発揮しないこともあり得る。また入力画像の変動が余りにも大きい場合、部分空間法といえども対応できず、認識精度が低下する。   In the subspace method, for example, if the learning pattern does not include many of the above-described variation factors, the subspace method may not necessarily exhibit a large capacity for practical use. In addition, when the fluctuation of the input image is too large, even the subspace method cannot be handled, and the recognition accuracy is lowered.

本発明はこのような課題を解決するためになされたもので、文字画像から文字を認識する精度を向上することのできる画像処理装置および画像処理方法を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus and an image processing method capable of improving the accuracy of recognizing characters from a character image.

上記の課題を解決するために、本発明の画像処理装置は、文書画像が記憶されたメモリと、文字とその特徴データが対応して格納された認識辞書と、前記メモリから読み出した文書画像に対して所定の前処理を施して文字画像を生成する前処理部と、前記前処理部より生成された文字画像に対して所定の画像加工処理を行うことで複数の異なる文字パターンを生成するパターン生成部と、前記パターン生成部により生成された複数の文字パターンからそれぞれの特徴データを抽出する特徴抽出部と、前記複数の特徴データと前記認識辞書に格納されている文字の特徴データとの類似度を計算し、類似度の高い文字を前記認識辞書から選出する類似度計算部とを具備することを特徴とする。   In order to solve the above-described problems, an image processing apparatus according to the present invention includes a memory in which a document image is stored, a recognition dictionary in which characters and feature data are stored correspondingly, and a document image read from the memory. A preprocessing unit that generates a character image by performing predetermined preprocessing on the pattern, and a pattern that generates a plurality of different character patterns by performing predetermined image processing on the character image generated by the preprocessing unit A generation unit, a feature extraction unit that extracts feature data from a plurality of character patterns generated by the pattern generation unit, and similarity between the plurality of feature data and character feature data stored in the recognition dictionary A similarity calculation unit that calculates a degree and selects a character having a high degree of similarity from the recognition dictionary.

本発明の画像処理方法は、文書画像が記憶されたメモリ、文字とその特徴データが対応して格納された認識辞書、前処理部、パターン生成部、特徴抽出部、類似度計算部を有する画像処理装置による画像処理方法において、前記メモリから文書画像を前記前処理部が読み出し、読み出した前記文書画像に対して所定の前処理を施して文字画像を生成するステップと、前記文字画像に対して前記パターン生成部が所定の画像加工処理を行うことで複数の異なる文字パターンを生成するパターン生成部と、前記複数の文字パターンからそれぞれの特徴データを前記特徴抽出部が抽出するステップと、前記複数の特徴データと、前記認識辞書の文字の特徴データとの類似度を前記類似度計算部が計算し、類似度の高い文字を前記認識辞書から選出するステップとを有することを特徴とする。   An image processing method according to the present invention includes a memory in which a document image is stored, a recognition dictionary in which characters and their feature data are stored correspondingly, a preprocessing unit, a pattern generation unit, a feature extraction unit, and a similarity calculation unit. In the image processing method by the processing device, the preprocessing unit reads a document image from the memory, performs predetermined preprocessing on the read document image, and generates a character image; A pattern generation unit that generates a plurality of different character patterns by performing a predetermined image processing process by the pattern generation unit; a step of the feature extraction unit extracting each feature data from the plurality of character patterns; The similarity calculation unit calculates the similarity between the feature data of the character and the feature data of the character in the recognition dictionary, and selects a character with a high similarity from the recognition dictionary Characterized by a step.

本発明によれば、文字画像から文字を認識する精度を向上することができる。   ADVANTAGE OF THE INVENTION According to this invention, the precision which recognizes a character from a character image can be improved.

本発明の一実施形態の画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus of one Embodiment of this invention. 画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an image processing apparatus. 4近傍ガウシアンフィルタを説明するための図である。It is a figure for demonstrating 4 neighborhood Gaussian filter. 8近傍ガウシアンフィルタを説明するための図である。It is a figure for demonstrating an 8-neighbor Gaussian filter.

以下、図面を参照して、本発明の一つの実施の形態の画像処理装置を詳細に説明する。図1は画像処理装置の構成を示す図である。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of an image processing apparatus.

図1に示すように、この実施形態の画像処理装置は、入力部1、コンピュータ2(以下「PC2」と称す)、出力部3などを有している。   As shown in FIG. 1, the image processing apparatus according to this embodiment includes an input unit 1, a computer 2 (hereinafter referred to as “PC2”), an output unit 3, and the like.

入力部1は、カメラ・スキャナなどの外部入力装置であり、紙の文書(書類)からCCDセンサなどにより光学的に読み取った文書画像をPC2に入力する。表示部3は、例えばモニタなどの表示装置、プリンタなどの印刷装置であり、PC2から出力された認識結果のデータを出力(表示または印刷)する。   The input unit 1 is an external input device such as a camera / scanner, and inputs a document image optically read from a paper document (document) by a CCD sensor or the like to the PC 2. The display unit 3 is, for example, a display device such as a monitor or a printing device such as a printer, and outputs (displays or prints) recognition result data output from the PC 2.

PC2は、メモリ10、前処理部11、パターン生成部12、特徴抽出部13、認識辞書14、類似度計算部15などを有している。これら各部はコンピュータのソフトウェアのモジュールとして実現される。なお、これら各部はハードウェアで構成しても良い。   The PC 2 includes a memory 10, a preprocessing unit 11, a pattern generation unit 12, a feature extraction unit 13, a recognition dictionary 14, a similarity calculation unit 15, and the like. These units are implemented as computer software modules. Note that these units may be configured by hardware.

メモリ10は、オペレーティングシステム(OS)などのコンピュータ制御プログラムが読み込まれる領域として利用される他、上記各部の処理用の記憶領域として利用される。メモリ10には例えば比較処理のための画像データや処理結果のデータなどが記憶される。   The memory 10 is used not only as an area for reading a computer control program such as an operating system (OS) but also as a storage area for processing of the above-described units. The memory 10 stores, for example, image data for comparison processing and processing result data.

前処理部11は、文字認識に使用する画像(文字画像)の部分的な切り出し、二値化、ノイズ除去、輪郭強調などの所定の前処理を行う。前処理部11は、所定の前処理として、文字画像の部分的な切り出し、二値化、ノイズ除去、輪郭強調などのうちの少なくとも一つを行うものとする。これら個々の画像処理技術については、既知の技術のため詳細な説明は省略する。   The preprocessing unit 11 performs predetermined preprocessing such as partial segmentation, binarization, noise removal, and contour enhancement of an image (character image) used for character recognition. The pre-processing unit 11 performs at least one of character image partial segmentation, binarization, noise removal, contour enhancement, and the like as predetermined pre-processing. Since these individual image processing techniques are known techniques, a detailed description thereof will be omitted.

パターン生成部12は、前処理部11で前処理済みの画像を拡張・収縮・回転・移動・ぼかし・手ぶれ・透視変換するなどの所定の画像加工処理を行って、元の文字画像を変動(変形または変質)させた新たな画像を生成する。パターン生成部12は、所定の画像加工処理として、拡張・収縮・回転・移動・ぼかし・手ぶれ・透視変換のうちの少なくとも一つを行うものとする。   The pattern generation unit 12 performs predetermined image processing such as expansion, contraction, rotation, movement, blurring, camera shake, and perspective transformation on the image that has been preprocessed by the preprocessing unit 11 to change the original character image ( A new image that has been deformed or altered) is generated. The pattern generation unit 12 performs at least one of expansion, contraction, rotation, movement, blurring, camera shake, and perspective transformation as the predetermined image processing.

特徴抽出部13は、パターン生成部12により生成された個々の画像の特徴量(以下特徴データと称す)を抽出する。認識辞書14には、予め複数(多く)の文字とその特徴データが対応して格納されている。   The feature extraction unit 13 extracts feature amounts (hereinafter referred to as feature data) of individual images generated by the pattern generation unit 12. The recognition dictionary 14 stores a plurality of (many) characters and their feature data in advance.

類似度計算部15は、特徴抽出部13により抽出された複数の特徴データと認識辞書14に格納されている文字の特徴データとの類似度を演算により求める。演算とは、メモリ10に記憶されている計算式(関数)にデータを入れる計算することをいう。   The similarity calculator 15 obtains the similarity between the plurality of feature data extracted by the feature extractor 13 and the character feature data stored in the recognition dictionary 14 by calculation. The calculation means calculation for putting data in a calculation formula (function) stored in the memory 10.

以下、図2のフローチャートおよび図3,図4を参照してこの画像処理装置の動作を説明する。   The operation of this image processing apparatus will be described below with reference to the flowchart of FIG. 2 and FIGS.

認識対象の文書をカメラ・スキャナなどの入力部1にセットして、デジタルカメラであれば撮影操作、またスキャナであればスキャン操作を行うと、入力部1により文書の画像が読み取られてPC2へデジタル画像(これを「文書画像21」と称す)として出力される。   When a document to be recognized is set in the input unit 1 such as a camera / scanner and a digital camera performs a shooting operation or a scanner performs a scanning operation, an image of the document is read by the input unit 1 to the PC 2. It is output as a digital image (referred to as “document image 21”).

入力部1から出力された文書画像21がPC2に入力されると、その文書画像21は、前処理部11により一旦、メモリ10に記憶される(図2のステップS101)。   When the document image 21 output from the input unit 1 is input to the PC 2, the document image 21 is temporarily stored in the memory 10 by the preprocessing unit 11 (step S101 in FIG. 2).

文書画像21をメモリ10に記憶した後、前処理部11は、メモリ10から文書画像21を読み出し、読み出した文書画像21に対して所定の前処理を施して文字画像22を生成し(ステップS102)、メモリ10に記憶する。所定の前処理とは、画像の部分切り出し、二値化、ノイズ除去、輪郭強調などの画像処理のうち,予め決められた処理である。   After storing the document image 21 in the memory 10, the preprocessing unit 11 reads the document image 21 from the memory 10, and performs predetermined preprocessing on the read document image 21 to generate a character image 22 (step S102). ) And stored in the memory 10. The predetermined preprocessing is a predetermined process among image processes such as partial segmentation of an image, binarization, noise removal, and contour enhancement.

パターン生成部12は、メモリ10から文字画像22を読み出し、読み出した文字画像22(前処理済みの画像)に対して所定の画像加工処理を行うことで複数個の異なる文字パターン(図1の文字パターン23〜26)を生成し(ステップS103)、メモリ10に記憶する。所定の画像加工処理とは、画像の拡張・収縮・回転・移動・ぼかし・手ぶれ・透視変換などの処理のうち予め決められた処理である。   The pattern generation unit 12 reads the character image 22 from the memory 10 and performs a predetermined image processing process on the read character image 22 (preprocessed image) to thereby obtain a plurality of different character patterns (characters in FIG. 1). Patterns 23 to 26) are generated (step S103) and stored in the memory 10. The predetermined image processing is a predetermined process among processes such as image expansion, contraction, rotation, movement, blurring, camera shake, and perspective transformation.

特徴抽出部13は、メモリ10から複数の文字パターン23〜26を読み出し、読み出した文字パターン23〜26からそれぞれの特徴データを抽出し(ステップS104)、メモリ10に記憶する。   The feature extraction unit 13 reads a plurality of character patterns 23 to 26 from the memory 10, extracts feature data from the read character patterns 23 to 26 (step S <b> 104), and stores them in the memory 10.

類似度計算部15は、メモリ10から複数の特徴データを読み出し、読み出した複数の特徴データと認識辞書14から読み出した文字27の特徴データとを用いて類似度を計算し(ステップS105)、類似度の高い文字を認識辞書14から選出(ステップS106)、つまりパターン認識処理を行い、認識結果の文字(テキストデータおよび認識元の文字画像22)を表示部3へ出力し、表示部3の画面に表示する。   The similarity calculation unit 15 reads a plurality of feature data from the memory 10 and calculates a similarity using the read feature data and the feature data of the character 27 read from the recognition dictionary 14 (step S105). Characters having a high degree are selected from the recognition dictionary 14 (step S106), that is, pattern recognition processing is performed, and the recognition result characters (text data and recognition source character image 22) are output to the display unit 3, and the screen of the display unit 3 is displayed. To display.

ここで、パターン生成部12が行う文字パターンの生成処理(画像処理)について説明する。   Here, the character pattern generation processing (image processing) performed by the pattern generation unit 12 will be described.

パターン生成部12は、前処理部11で前処理済みの画像を拡張・収縮・回転・移動・ぼかし・手ぶれ・透視変換するなどの所定の画像加工処理を行って、元の文字画像22を切り出し範囲内で変動(変形または変質)させて新たな画像を生成する。   The pattern generation unit 12 performs predetermined image processing such as expansion, contraction, rotation, movement, blurring, camera shake, and perspective transformation on the image that has been preprocessed by the preprocessing unit 11, and cuts out the original character image 22 A new image is generated with variation (deformation or alteration) within the range.

画像拡張処理の一例として、例えば各画素について、その画素または上下左右4画素のうち1つ以上が黒ならばその画素も黒とするといった処理を行う。   As an example of the image expansion processing, for example, for each pixel, if one or more of the pixels or four pixels in the upper, lower, left, and right directions is black, the processing is performed such that the pixels are also black.

画像収縮処理の一例として、例えば各画素について、その画素または上下左右4画素のうち1つ以上が白ならばその画素も白とする(収縮)といった処理を行う。   As an example of the image contraction process, for example, for each pixel, if one or more of the pixels or four pixels above, below, left, and right are white, the pixel is also white (contracted).

画像の回転および移動については、前処理済みの画像において座標xの画素値をf(x)で表したとき、

Figure 2010182166
で表されるRu[f],Ss[f]をそれぞれ、回転行列Uおよび移動量sをパラメータとする回転済み、または移動済み画像とすることができる。この処理によって、座標U-1x,(x−s)にあった黒点がxにそれぞれ回転・平行移動する。 Regarding rotation and movement of the image, when the pixel value of the coordinate x is represented by f (x) in the preprocessed image,
Figure 2010182166
Ru [f] and Ss [f] represented by the above can be rotated or moved images using the rotation matrix U and the moving amount s as parameters, respectively. By this processing, the black point at the coordinates U −1 x, (x−s) is rotated and translated to x.

画像の回転については、例えば10度刻みに90度までといったようにして回転する。また画像の移動については、例えば前処理済画像の辺や対角線の長さを基準に、例えば1/4などといった比率を用いて移動する。   As for the rotation of the image, for example, it is rotated in increments of 10 degrees up to 90 degrees. As for the movement of the image, for example, the image is moved using a ratio such as ¼ with reference to the length of the side and the diagonal line of the preprocessed image.

画像のぼかし、手ぶれ処理については、これらを実現する点拡がり関数(PSF)を準備し、前処理済みの画像に畳み込み、それを再度二値化する。   For image blurring and camera shake processing, a point spread function (PSF) for realizing these is prepared, convolved with the preprocessed image, and binarized again.

ぼかしに対応するPSFは、図3に示すように、中心画素とその周囲8方向に隣接する画素とを配置した9画素モデルにおいて、中心の画素を「2」としたときに、その上下左右の画素を「1」とし、斜め方向の画素を「0」とする4近傍ガウシアンフィルタがある。   As shown in FIG. 3, the PSF corresponding to the blur is a 9 pixel model in which the center pixel and pixels adjacent to the surrounding 8 directions are arranged. There is a 4-neighbor Gaussian filter in which the pixel is “1” and the diagonal pixel is “0”.

また、この他、図4に示すように、中心画素とその周囲8方向に隣接する画素とを配置した9画素モデルにおいて、中心の画素を「4」としたときに、その上下左右の画素を「2」とし、斜め方向の画素を「1」とする8近傍ガウシアンフィルタなどを用いる。   In addition, as shown in FIG. 4, in the 9-pixel model in which the center pixel and pixels adjacent to the surrounding 8 directions are arranged, when the center pixel is “4”, the upper, lower, left and right pixels are An 8-neighbor Gaussian filter or the like having “2” and a diagonal pixel “1” is used.

手ぶれに対応するPSFとしては、原点Oの近傍に一点Pを選び、

Figure 2010182166
として作ることができる。PSFとして1(y)を原画像f(x)に畳み込む処理は、
Figure 2010182166
と表せる。上記h(x)が畳み込み処理後の画像である。 As a PSF corresponding to camera shake, a point P is selected in the vicinity of the origin O,
Figure 2010182166
Can be made as The process of convolving 1 (y) into the original image f (x) as PSF is as follows:
Figure 2010182166
It can be expressed. The h (x) is an image after the convolution process.

透視変換は、射影変換の名で広く知られており、一般的な射影幾何学の文献、例えば川又雄二郎「射影空間の幾何学(講座数学の考え方11)」(2001)、朝倉書店等に開示されている射影変換の技術を利用するものとする。   Perspective transformation is widely known as the name of projective transformation, and is disclosed in general projective geometry literature such as Yujiro Kawamata “Geometry of Projective Space (Lecture on Course Mathematics 11)” (2001), Asakura Shoten, etc. It is assumed that the projective transformation technology is used.

特徴抽出部13が前処理済みの画像から特徴量を抽出する処理については以下に示す。   The process of extracting the feature amount from the preprocessed image by the feature extraction unit 13 will be described below.

例えば、画像に前述の方法でぼかし処理を施した上で、ぼかし処理した画像を、画素値を成分とするベクトルとみなしてそのまま特徴量とする方法がある。   For example, there is a method in which a blurring process is performed on an image by the above-described method, and the blurred image is regarded as a vector having a pixel value as a component and used as a feature amount as it is.

また、類似度計算部15がパターン認識処理を行う方法および認識辞書14の作成方法としては、CLAFIC法に基づいて認識辞書14を作成した上で、複数の生成パターンの特徴量と、認識辞書14に登録済の文字種との類似度を、相互部分空間法などを用いて計算する方法がある。   In addition, as a method for the similarity calculation unit 15 to perform pattern recognition processing and a method for creating the recognition dictionary 14, after creating the recognition dictionary 14 based on the CLAFIC method, the feature amounts of a plurality of generated patterns and the recognition dictionary 14 There is a method of calculating the similarity with a registered character type using a mutual subspace method or the like.

また、相互部分空間法を用いた類似度の計算方法としては、例えば特徴抽出部13から入力された複数の特徴ベクトルx,…,Xから行列

Figure 2010182166
を計算し、その固有ベクトルをu,uとした上で、0≦p≦m,0≦q≦nとなる整数p、qを選んだ上で、行列U=(u,…u),V=(v…v)を用いて定義される
Figure 2010182166
の最大固有値ρ(1)を求め、このρ(1)を類似度とする方法がある。ただし、左肩のtは転置を表す。このときρ(1)は、累乗法などの既存の方法を用いて計算することができる。ただし、v1 ,vn は辞書データであり、これは各文字種毎に予め準備した学習パターンy1,…,ynを用いて行列
Figure 2010182166
を計算し、その固有ベクトルをv1 ,vn とすることで計算できる。 Further, as a method for calculating the similarity using the mutual subspace method, for example, a matrix from a plurality of feature vectors x 1 ,..., X m inputted from the feature extraction unit 13 is used.
Figure 2010182166
And the eigenvectors are set to u 1 and u m, and integers p and q satisfying 0 ≦ p ≦ m and 0 ≦ q ≦ n are selected, and then the matrix U p = (u 1 ,... U p ), V q = (v 1 ... v q )
Figure 2010182166
There is a method of obtaining the maximum eigenvalue ρ (1) of, and using this ρ (1) as the similarity. However, t on the left shoulder represents transposition. At this time, ρ (1) can be calculated using an existing method such as a power method. However, v 1 and v n are dictionary data, which is a matrix using learning patterns y 1 ,..., Y n prepared in advance for each character type.
Figure 2010182166
And the eigenvectors are set as v 1 and v n .

別の類似度計算方法として、特徴ベクトルを正規化したベクトル

Figure 2010182166
から、個別類似度
Figure 2010182166
を計算し、類似度統合関数σを用いて
Figure 2010182166
と定まるρ(2)を類似度とすることができる。このとき、辞書の作成方法は上と同様でよい。 Another method for calculating similarity is a normalized vector of feature vectors
Figure 2010182166
From individual similarity
Figure 2010182166
And using the similarity integration function σ
Figure 2010182166
Ρ (2) determined as follows can be used as the similarity. At this time, the dictionary creation method may be the same as above.

また類似度統合関数σの定め方としては、個別類似度のうち最大のものを選ぶ方法、個別類似度が大きい順にいくつかを選びこれを平均する方法、個別類似度全体の平均を取る方法などがある。また、選択した個別類似度に直接平均操作を施す代わりに、一度、単調増加関数を用いて個別類似度の差を強調してもよい。   The method of determining the similarity integration function σ includes a method of selecting the largest individual similarity, a method of selecting several in the order of the individual similarity, and averaging them, a method of averaging the entire individual similarity, etc. There is. Further, instead of directly performing the averaging operation on the selected individual similarity, the difference in individual similarity may be emphasized once using a monotonically increasing function.

そのためには、単調増加関数τを用いて、

Figure 2010182166
などとする方法がある。ただし、rは1≦r≦mとなる整数であり、ρt(s)は、ρ1,…,ρmのうち大きいものからs番目の値である。さらに、τの例としては、
Figure 2010182166
などが挙げられる。ただし、ρ0 ,βは定数として適当なものを別途選ぶ。 To do so, using the monotonically increasing function τ,
Figure 2010182166
There is a method to say. However, r is an integer comprised between 1 ≦ r ≦ m, ρ t (s) is, ρ 1, ..., a s th value from the largest of the [rho m. Furthermore, as an example of τ,
Figure 2010182166
Etc. However, ρ 0 and β are appropriately selected as constants.

類似度が顕著に高い文字種が存在しない場合、類似度計算部15において、結果不明と判定し、これをリジェクトしてもよい。   If there is no character type with a remarkably high similarity, the similarity calculation unit 15 may determine that the result is unknown and reject it.

このようにこの実施形態の画像処理装置によれば、認識対象の文字画像の文字(黒画素)について積極的に部分的な変動(黒画素を所定のルールでずらしたり太くしたりする等)を起こさせた複数の異なる文字パターンを生成し、これら文字パターンの特徴データの全体と認識辞書14の特徴データとの類似度を計算する。つまり、元の文字画像からいくつかの変形文字パターンを作成した上で、それらが全体として持つ性質に着目して認識を行うので、文字認識精度を向上することができる。   As described above, according to the image processing apparatus of this embodiment, partial variations (such as shifting or thickening black pixels according to a predetermined rule) are actively performed on characters (black pixels) of a character image to be recognized. A plurality of different character patterns generated are generated, and the similarity between the whole feature data of these character patterns and the feature data of the recognition dictionary 14 is calculated. That is, since several deformed character patterns are created from the original character image, and recognition is performed by paying attention to the properties of these as a whole, character recognition accuracy can be improved.

なお、本願発明は、上記実施形態のみに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形してもよい。例えば各構成要素を、コンピュータのハードディスク装置などのストレージにインストールしたプログラムで実現しても良い。
また上記プログラムを、コンピュータ読取可能なCD−ROMなどの記憶媒体に記憶しておき、プログラムを記憶媒体からコンピュータに読み取らせることで実現してもよい。さらに、ネットワークを介して接続した異なるコンピュータに構成要素を分散して記憶し、各構成要素を機能させたコンピュータ間で通信することで実現しても良い。
Note that the present invention is not limited to the above-described embodiment, and the constituent elements may be modified without departing from the scope of the invention in the implementation stage. For example, each component may be realized by a program installed in a storage such as a hard disk device of a computer.
The program may be stored in a storage medium such as a computer-readable CD-ROM and the program may be read from the storage medium by a computer. Further, the configuration may be realized by distributing and storing the components in different computers connected via a network and communicating between the computers that have the components function.

1…入力部、2…コンピュータ(PC)、3…表示部、11…パターン生成部、10…メモリ、11…前処理部、12…パターン生成部、13…特徴抽出部、14…認識辞書、15…類似度計算部。   DESCRIPTION OF SYMBOLS 1 ... Input part, 2 ... Computer (PC), 3 ... Display part, 11 ... Pattern generation part, 10 ... Memory, 11 ... Pre-processing part, 12 ... Pattern generation part, 13 ... Feature extraction part, 14 ... Recognition dictionary, 15: Similarity calculation unit.

Claims (4)

文書画像が記憶されたメモリと、
文字とその特徴データが対応して格納された認識辞書と、
前記メモリから読み出した文書画像に対して所定の前処理を施して文字画像を生成する前処理部と、
前記前処理部より生成された文字画像に対して所定の画像加工処理を行うことで複数の異なる文字パターンを生成するパターン生成部と、
前記パターン生成部により生成された複数の文字パターンからそれぞれの特徴データを抽出する特徴抽出部と、
前記複数の特徴データと前記認識辞書に格納されている文字の特徴データとの類似度を計算し、類似度の高い文字を前記認識辞書から選出する類似度計算部と
を具備することを特徴とする画像処理装置。
A memory storing document images;
A recognition dictionary in which characters and their feature data are stored correspondingly;
A preprocessing unit that generates a character image by performing predetermined preprocessing on the document image read from the memory;
A pattern generation unit that generates a plurality of different character patterns by performing predetermined image processing on the character image generated by the preprocessing unit;
A feature extraction unit that extracts each feature data from a plurality of character patterns generated by the pattern generation unit;
A similarity calculation unit that calculates a similarity between the plurality of feature data and character feature data stored in the recognition dictionary, and selects a character having a high similarity from the recognition dictionary; An image processing apparatus.
請求項1記載の画像処理装置において、
前記前処理部は、
所定の前処理として、前記文字画像の部分的な切り出し、二値化、ノイズ除去、輪郭強調などのうちの少なくとも一つを行うことを特徴とする。
The image processing apparatus according to claim 1.
The pre-processing unit is
As the predetermined preprocessing, at least one of partial cutout, binarization, noise removal, contour enhancement, and the like of the character image is performed.
請求項1記載の画像処理装置において、
前記パターン生成部は、
所定の画像加工処理として、拡張・収縮・回転・移動・ぼかし・手ぶれ・透視変換のうちの少なくとも一つを行うことを特徴とする。
The image processing apparatus according to claim 1.
The pattern generation unit
As the predetermined image processing, at least one of expansion, contraction, rotation, movement, blurring, camera shake, and perspective transformation is performed.
文書画像が記憶されたメモリ、文字とその特徴データが対応して格納された認識辞書、前処理部、パターン生成部、特徴抽出部、類似度計算部を有する画像処理装置による画像処理方法において、
前記メモリから文書画像を前記前処理部が読み出し、読み出した前記文書画像に対して所定の前処理を施して文字画像を生成するステップと、
前記文字画像に対して前記パターン生成部が所定の画像加工処理を行うことで複数の異なる文字パターンを生成するパターン生成部と、
前記複数の文字パターンからそれぞれの特徴データを前記特徴抽出部が抽出するステップと、
前記複数の特徴データと、前記認識辞書の文字の特徴データとの類似度を前記類似度計算部が計算し、類似度の高い文字を前記認識辞書から選出するステップと
を有することを特徴とする画像処理方法。
In an image processing method by an image processing apparatus having a memory in which a document image is stored, a recognition dictionary in which characters and their feature data are stored correspondingly, a preprocessing unit, a pattern generation unit, a feature extraction unit, and a similarity calculation unit,
A step of reading a document image from the memory and performing a predetermined preprocessing on the read document image to generate a character image;
A pattern generation unit that generates a plurality of different character patterns by performing predetermined image processing on the character image;
The feature extraction unit extracting each feature data from the plurality of character patterns;
The similarity calculating unit calculates a similarity between the plurality of feature data and character feature data of the recognition dictionary, and includes selecting a character having a high similarity from the recognition dictionary. Image processing method.
JP2009026103A 2009-02-06 2009-02-06 Image processing apparatus and image processing method Expired - Fee Related JP4869364B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009026103A JP4869364B2 (en) 2009-02-06 2009-02-06 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009026103A JP4869364B2 (en) 2009-02-06 2009-02-06 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2010182166A true JP2010182166A (en) 2010-08-19
JP4869364B2 JP4869364B2 (en) 2012-02-08

Family

ID=42763718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009026103A Expired - Fee Related JP4869364B2 (en) 2009-02-06 2009-02-06 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4869364B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220026A (en) * 1994-01-31 1995-08-18 Omron Corp Method and device for picture processing
JPH09196638A (en) * 1996-01-23 1997-07-31 Omron Corp Method and apparatus for producing model image
JPH11175662A (en) * 1997-12-12 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for recognizing pattern and recording medium recording program for allowing computer to execute the pattern recognizing method
JP2001084333A (en) * 1999-09-13 2001-03-30 Vasara Research Inc Character reader

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220026A (en) * 1994-01-31 1995-08-18 Omron Corp Method and device for picture processing
JPH09196638A (en) * 1996-01-23 1997-07-31 Omron Corp Method and apparatus for producing model image
JPH11175662A (en) * 1997-12-12 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for recognizing pattern and recording medium recording program for allowing computer to execute the pattern recognizing method
JP2001084333A (en) * 1999-09-13 2001-03-30 Vasara Research Inc Character reader

Also Published As

Publication number Publication date
JP4869364B2 (en) 2012-02-08

Similar Documents

Publication Publication Date Title
US20190304066A1 (en) Synthesis method of chinese printed character images and device thereof
RU2631765C1 (en) Method and system of correcting perspective distortions in images occupying double-page spread
JP6435740B2 (en) Data processing system, data processing method, and data processing program
US20140247470A1 (en) Camera-based document imaging
CN109117846B (en) Image processing method and device, electronic equipment and computer readable medium
JP4738469B2 (en) Image processing apparatus, image processing program, and image processing method
RU2621601C1 (en) Document image curvature eliminating
CN110163786B (en) Method, device and equipment for removing watermark
CN105225218B (en) Distortion correction method and equipment for file and picture
CN114255337A (en) Method and device for correcting document image, electronic equipment and storage medium
JP5656768B2 (en) Image feature extraction device and program thereof
JP6542230B2 (en) Method and system for correcting projected distortion
CN110827301B (en) Method and apparatus for processing image
CN114863431A (en) Text detection method, device and equipment
JP4869365B2 (en) Image processing apparatus and image processing method
CN113033559A (en) Text detection method and device based on target detection and storage medium
CN113793264B (en) Archive image processing method and system based on convolution model and electronic equipment
JP4869364B2 (en) Image processing apparatus and image processing method
JP7238510B2 (en) Information processing device, information processing method and program
CN113591846A (en) Image distortion coefficient extraction method, distortion correction method and system, and electronic device
JP5563390B2 (en) Image processing apparatus, control method therefor, and program
JP2006023976A (en) Parameter setting method, image pattern extraction method, parameter setting device, image pattern extraction device, and program for these methods
JP5636966B2 (en) Error detection apparatus and error detection program
JP2009193145A (en) Handwritten data generation device, method, and program
CN113705430B (en) Form detection method, device, equipment and storage medium based on detection model

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110711

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees