JP2013190911A - Character recognition device, recognition dictionary generation device and normalization method - Google Patents

Character recognition device, recognition dictionary generation device and normalization method Download PDF

Info

Publication number
JP2013190911A
JP2013190911A JP2012055638A JP2012055638A JP2013190911A JP 2013190911 A JP2013190911 A JP 2013190911A JP 2012055638 A JP2012055638 A JP 2012055638A JP 2012055638 A JP2012055638 A JP 2012055638A JP 2013190911 A JP2013190911 A JP 2013190911A
Authority
JP
Japan
Prior art keywords
image
procedure
character
contour
grid point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012055638A
Other languages
Japanese (ja)
Other versions
JP5769029B2 (en
Inventor
Toshinori Miyoshi
利昇 三好
Takeshi Nagasaki
健 永崎
Hiroshi Shinjo
広 新庄
Yasutaka Tsutsumi
庸昂 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Information and Telecommunication Engineering Ltd
Original Assignee
Hitachi Computer Peripherals Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Computer Peripherals Co Ltd filed Critical Hitachi Computer Peripherals Co Ltd
Priority to JP2012055638A priority Critical patent/JP5769029B2/en
Priority to CN201310027353.6A priority patent/CN103310210B/en
Publication of JP2013190911A publication Critical patent/JP2013190911A/en
Application granted granted Critical
Publication of JP5769029B2 publication Critical patent/JP5769029B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To normalize a plurality of input images with different size so that variation in the shape among the same characters becomes small in order to raise accuracy of character identification.SOLUTION: Preprocessing for reducing disturbance factors from input images is executed, contours of the images to which the preprocessing is executed are extracted, the images to which the preprocessing is executed are synthesized with the images of the extracted contours, mapping from the synthesized image to normalized images with predetermined size are generated so that an image of the center of gravity of the synthesized image approaches the center of a range of the predetermined size, and an image within a range to which pixels of the synthesized image spread approaches the range of the predetermined size, the images to which the preprocessing is executed are normalized according to the generated mapping, the normalized images are converted into vector values on a vector space, the vector values are determined that they are any characters based on a recognition dictionary stored in a storage device, and a result of determination is output.

Description

本発明は、文字認識用の認識辞書生成装置及び文字認識装置に関し、特に文字画像の正規化手法に関する。   The present invention relates to a recognition dictionary generation device and a character recognition device for character recognition, and more particularly to a character image normalization technique.

文字認識装置は、認識辞書を用いて、入力画像中に書かれている文字カテゴリを判定し、判定結果を出力する。ここで、文字カテゴリとは、例えば、数字認識の場合には、0〜9までの10種類の数字である。認識辞書は、認識辞書生成装置によって作成される。   The character recognition device determines a character category written in the input image using the recognition dictionary and outputs a determination result. Here, the character category is, for example, 10 numbers from 0 to 9 in the case of number recognition. The recognition dictionary is created by a recognition dictionary generation device.

文字認識装置が入力画像を受け取ってから判定結果を出力するまでの処理フローは、前処理、正規化、特徴抽出、識別の4つの処理手順を含む。   The processing flow from when the character recognition device receives an input image to when it outputs a determination result includes four processing procedures: preprocessing, normalization, feature extraction, and identification.

図2は、従来の文字認識装置が実行する処理を示すフロー図である。   FIG. 2 is a flowchart showing processing executed by a conventional character recognition device.

文字画像入力部201では、ユーザ又は演算装置によって実行されるプログラムによって、画像が入力される。   In the character image input unit 201, an image is input by a program executed by a user or an arithmetic device.

前処理部202では、例えば、入力画像のノイズ除去、ぼかし処理によるスムージング等を行い、文字認識の妨げとなる外乱要因を可能な限り取り除く手順が実行される。   In the preprocessing unit 202, for example, a procedure for removing as much disturbance factors as possible to prevent character recognition is performed by performing noise removal of the input image, smoothing by blurring processing, and the like.

次に、正規化部203では、様々なサイズの前処理後の画像を入力として受け取り、それらの画像のサイズを揃える手順が実行される。これによって後の処理を統一することができる。   Next, the normalization unit 203 receives preprocessed images of various sizes as input, and executes a procedure for aligning the sizes of these images. As a result, subsequent processing can be unified.

次に、特徴抽出部209では、正規化後の画像を入力として受け取り、ベクトル空間上のベクトル値に変換する手順が実行される。前記ベクトル空間を特徴空間、前記ベクトル値を特徴ベクトルとよぶ。特徴抽出手法としては、画素特徴、輪郭特徴、勾配特徴、ガボール特徴などを抽出する手法が広く知られている(非特許文献1)。必要があれば、主成分分析又は線型判別分析などの次元削減手法を用いて、特徴空間の次元数を圧縮し、特徴空間の次元数を削減する(非特許文献2)。   Next, the feature extraction unit 209 executes a procedure for receiving the normalized image as an input and converting it into a vector value on a vector space. The vector space is called a feature space, and the vector value is called a feature vector. As a feature extraction method, a method of extracting a pixel feature, a contour feature, a gradient feature, a Gabor feature, etc. is widely known (Non-Patent Document 1). If necessary, the number of dimensions of the feature space is reduced by using a dimension reduction technique such as principal component analysis or linear discriminant analysis (Non-Patent Document 2).

ここまでの処理によって、入力画像は特徴空間上のベクトル値(特徴ベクトル)として表現されることになる。   By the processing so far, the input image is expressed as a vector value (feature vector) on the feature space.

次に、識別部210では、認識辞書214を用いて、特徴ベクトルが所属する文字カテゴリを判定する処理が実行される。認識辞書214は、特徴空間上の各点が、どの文字カテゴリに所属するかを判断するための情報を保持している。認識辞書214を用いた判定の詳細については、非特許文献1又は非特許文献2に記載されている。   Next, the identification unit 210 uses the recognition dictionary 214 to execute processing for determining the character category to which the feature vector belongs. The recognition dictionary 214 holds information for determining which character category each point on the feature space belongs to. Details of determination using the recognition dictionary 214 are described in Non-Patent Document 1 or Non-Patent Document 2.

出力部211では、判定結果をディスプレイなどの表示装置又はファイル等に出力する。   The output unit 211 outputs the determination result to a display device such as a display or a file.

高精度な文字認識を行うためには、上記の前処理部202、正規化部203、特徴抽出部209、及び識別部210の各々の処理が重要な役割をもっている。そのため、各々の処理で、文字認識に適した処理を行うことが重要である。   In order to perform highly accurate character recognition, the processes of the preprocessing unit 202, normalization unit 203, feature extraction unit 209, and identification unit 210 have an important role. Therefore, it is important to perform processing suitable for character recognition in each processing.

認識対象となる入力画像中の文字は、筆記具、筆記者、フォント、スキャン時の環境、紙質、又は紙の保存状態などによって、同じ文字種であっても、サイズ、形、又は劣化度にばらつきがある。正規化には、入力画像のサイズを揃えることの他に、このような入力画像中の同一文字種間の形のばらつきを抑えるという目的がある。これによって、文字認識装置の識別率を上げることができる。   Characters in the input image to be recognized vary in size, shape, or degree of degradation, even if they are the same character type, depending on the writing instrument, writer, font, scanning environment, paper quality, or paper storage status. is there. In addition to making the sizes of input images uniform, normalization has the purpose of suppressing variations in shape between the same character types in such input images. Thereby, the identification rate of the character recognition device can be increased.

既存の文字画像の正規化手法には、線型正規化法、非線型正規化法、モーメント正規化法、バイモーメント正規化法、CBA法、MCBA法、LDPF法などがある。これらの手法のうち、モーメント正規化法及びバイモーメント正規化法は、高い識別率を有するという文字認識のベンチマーク結果が、論文等によって公表されている(非特許文献3)。   Existing normalization methods for character images include linear normalization method, non-linear normalization method, moment normalization method, bi-moment normalization method, CBA method, MCBA method, and LDPF method. Among these methods, the moment recognition method and the bi-moment normalization method have published a benchmark result of character recognition that has a high recognition rate (non-patent document 3).

図5は、モーメント正規化法及びバイモーメント正規化法によって生成された画像の例の説明図である。具体的には、図5には、正規化処理の入力画像501、入力画像501にモーメント正規化法を適用することによって生成された正規化画像502、及び入力画像501にバイモーメント正規化法を適用することによって生成された正規化画像503を示す。   FIG. 5 is an explanatory diagram of an example of an image generated by the moment normalization method and the bi-moment normalization method. Specifically, in FIG. 5, the bi-moment normalization method is applied to the input image 501 of normalization processing, the normalized image 502 generated by applying the moment normalization method to the input image 501, and the input image 501. A normalized image 503 generated by applying is shown.

上記のように、モーメント法及びバイモーメント法などの正規化法は、高い識別能力があることが知られている。しかし、これらの手法は、原画像の画素値を直接用いてモーメントを計算するため、文字ストロークの太さに影響されやすい。したがって、文字の太さによってモーメントの値が大きく異なり、そのため、正規化画像中の文字の位置が文字の太さによって違ってくる。   As described above, normalization methods such as the moment method and the bi-moment method are known to have high discrimination ability. However, since these methods calculate moments by directly using the pixel values of the original image, they are easily affected by the thickness of the character stroke. Therefore, the value of the moment varies greatly depending on the thickness of the character, and therefore the position of the character in the normalized image varies depending on the thickness of the character.

図6は、同一の文字の異なるフォントの例の説明図であり、具体的には、異なるフォントの文字「T」の画像601を示す。図6に示すように、文字を判断する上で、文字の太さは本質的でない。そのため、文字の太さの違いによって生じる同一文字カテゴリ間の正規化画像の文字のばらつき(文字の位置やサイズ等)は、識別に不利である。   FIG. 6 is an explanatory diagram of an example of different fonts of the same character, and specifically shows an image 601 of the character “T” of a different font. As shown in FIG. 6, the thickness of the character is not essential in determining the character. For this reason, variation in characters (character position, size, etc.) in the normalized image between the same character categories caused by differences in character thickness is disadvantageous for identification.

輪郭特徴量モーメント正規化法(特許文献1、非特許文献4、非特許文献5)は、文字の輪郭を抽出し、文字の輪郭のモーメントに基づいて正規化を行う方法である。この方法は、文字の長さ及び太さに起因する文字間のばらつきを低減するために有効であり、活字文字認識において高い識別率を有する。   The contour feature amount moment normalization method (Patent Document 1, Non-Patent Document 4, Non-Patent Document 5) is a method of extracting the outline of a character and performing normalization based on the moment of the outline of the character. This method is effective for reducing variations between characters due to the length and thickness of characters, and has a high identification rate in type character recognition.

図10は、モーメント正規化法及び輪郭特徴量モーメント正規化法によって正規化された画像の説明図である。   FIG. 10 is an explanatory diagram of an image normalized by the moment normalization method and the contour feature amount moment normalization method.

図10に例示された原画像1001は、それぞれ横棒の太さが異なる複数の「T」の文字画像である。さらに、その原画像1001をモーメント正規化法によって正規化した画像1002を示す。正規化画像1002では、横棒が太くなるにしたがって、画像の中心がTの上の部分にずれ、文字の位置が全体的に下に下がっていることが分かる。また、正規化画像1002では、原画像1001で同じ太さであったTの縦棒の太さにもばらつきが生じている。このようなばらつきは、特徴抽出後の特徴空間上でのベクトル点のばらつきとなって現れ、識別率を低下させる原因となる。これに対し、原画像1001を輪郭特徴量モーメント正規化法によって正規化した画像1003では、これらのばらつきが低減されている。   The original image 1001 illustrated in FIG. 10 is a plurality of “T” character images having different horizontal bar thicknesses. Furthermore, an image 1002 obtained by normalizing the original image 1001 by the moment normalization method is shown. In the normalized image 1002, it can be seen that as the horizontal bar becomes thicker, the center of the image is shifted to a portion above T, and the position of the character is lowered downward as a whole. Further, in the normalized image 1002, the thickness of the vertical bar of T, which has the same thickness in the original image 1001, also varies. Such variation appears as variation of vector points on the feature space after feature extraction, and causes a reduction in the identification rate. In contrast, in an image 1003 obtained by normalizing the original image 1001 by the contour feature amount moment normalization method, these variations are reduced.

特開2010−108113号公報JP 2010-108113 A

Mohammed Cheriet, Nawwaf Kharma, Cheng lin Liu, and Ching Suen, "Character Recognition Systems: A Guide for Students and Practitioners", Wiley-Interscience, 2007.Mohammed Cheriet, Nawwaf Kharma, Cheng lin Liu, and Ching Suen, "Character Recognition Systems: A Guide for Students and Practitioners", Wiley-Interscience, 2007. 石井健一郎, 上田修功, 前田英作, 村瀬洋, “パターン認識”、 オーム社出版局、1998年8月Kenichiro Ishii, Noriyoshi Ueda, Eisaku Maeda, Hiroshi Murase, “Pattern Recognition”, Ohm Publishing Company, August 1998 Cheng-Lin Liu, Kazuki Nakashima, Hiroshi Sako, and Hiromichi Fujisawa, "Handwritten digit recognition: investigation of normalization and feature extraction techniques", Pattern Recognition, Vol.37, No.2, pp. 265_279, 2004.Cheng-Lin Liu, Kazuki Nakashima, Hiroshi Sako, and Hiromichi Fujisawa, "Handwritten digit recognition: investigation of normalization and feature extraction techniques", Pattern Recognition, Vol.37, No.2, pp. 265_279, 2004. Toshinori Miyoshi, Takeshi Nagasaki, and Hiroshi Shinjo, "Character Normalization Methods using Moments of Gradient Features and Normalization Cooperated Feature Extraction", Proceedings of the 2009 Chinese Conference on Pattern Recognition and the First CJK Joint Workshop on Pattern Recognition, pp.934-938, 2009.Toshinori Miyoshi, Takeshi Nagasaki, and Hiroshi Shinjo, "Character Normalization Methods using Moments of Gradient Features and Normalization Cooperated Feature Extraction", Proceedings of the 2009 Chinese Conference on Pattern Recognition and the First CJK Joint Workshop on Pattern Recognition, pp.934-938 , 2009. 三好利昇、永崎健、新庄広、“勾配特徴量のモーメントを用いた文字正規化法”、電子情報通信学会技術研究報告、PRMU、パターン認識・メディア理解108(432)、pp.187-192, 2009.Toshinobu Miyoshi, Takeshi Nagasaki, Hiroshi Shinjo, “Text Normalization Method Using Gradient Feature Moments”, IEICE Technical Report, PRMU, Pattern Recognition / Media Understanding 108 (432), pp.187-192 , 2009.

輪郭特徴量モーメント正規化法は、文字の輪郭を抽出し、抽出した文字輪郭部のモーメント値に基づいて正規化を行う方法である。この方法は、文字の太さや長さのばらつきを抑えることに効果があり、特に、活字文字の認識において有効である。しかし、手書き文字及び一部の活字文字においては、文字の輪郭が失われている場合がある。   The contour feature amount moment normalization method is a method of extracting a character contour and performing normalization based on the extracted moment value of the character contour portion. This method is effective in suppressing variations in character thickness and length, and is particularly effective in recognition of type characters. However, in some handwritten characters and some printed characters, the outline of the characters may be lost.

図13は、輪郭の一部が失われた文字画像の例を示す説明図である。図13に示す文字画像1301及び1302は、いずれも文字「構」の手書き文字画像である。一方、文字画像1303及び2304は、それぞれ、文字画像1301及び1302から抽出された輪郭の画像である。文字画像1302においては、文字のつぶれのために、輪郭の一部が消失している。そのような場合には輪郭特徴量モーメントは不安定となる。   FIG. 13 is an explanatory diagram illustrating an example of a character image in which a part of the outline is lost. Character images 1301 and 1302 shown in FIG. 13 are both handwritten character images of the character “composition”. On the other hand, character images 1303 and 2304 are contour images extracted from the character images 1301 and 1302, respectively. In the character image 1302, a part of the outline has disappeared due to the collapse of the character. In such a case, the contour feature amount moment becomes unstable.

本発明の代表的な一例を示せば次の通りである。すなわち、プロセッサ及び記憶装置を含む演算装置と、前記演算装置に接続される入力装置と、前記演算装置に接続される出力装置と、を有する文字認識装置であって、前記演算装置は、前記入力装置を介して入力された入力画像又は前記記憶装置に格納された入力画像から、文字認識の妨げとなる外乱要因を低減するための前処理を実行する第1手順と、前記前処理が実行された画像を正規化する第2手順と、前記正規化された画像をベクトル空間上のベクトル値に変換する第3手順と、前記記憶装置に格納された認識辞書に基づいて前記ベクトル値をいずれかの文字であると判定する第4手順と、前記出力装置を介して前記判定の結果を出力する第5手順と、を実行し、前記第2手順は、前記前処理が実行された画像の輪郭を抽出する第6手順と、前記前処理が実行された画像と前記抽出された輪郭の画像とを合成する第7手順と、前記合成された画像から所定のサイズの正規化された画像への写像を、前記合成された画像の重心の像が前記所定のサイズの範囲の中心に近づき、かつ、前記合成された画像の画素が広がる範囲の像が前記所定のサイズの範囲に近づくように生成する第8手順と、前記生成された写像に従って、前記前処理が実行された画像を正規化する第9手順と、を含むことを特徴とする。   A typical example of the present invention is as follows. That is, a character recognition device having an arithmetic device including a processor and a storage device, an input device connected to the arithmetic device, and an output device connected to the arithmetic device, wherein the arithmetic device includes the input device A first procedure for executing preprocessing for reducing disturbance factors that hinder character recognition from an input image input via a device or an input image stored in the storage device, and the preprocessing is executed. A second procedure for normalizing the image, a third procedure for converting the normalized image into a vector value on a vector space, and the vector value based on a recognition dictionary stored in the storage device. And a fifth procedure for outputting the result of the determination via the output device, wherein the second procedure is a contour of the image on which the preprocessing has been executed. Extract the first A procedure, a seventh procedure for synthesizing the preprocessed image and the extracted contour image, and a mapping from the synthesized image to a normalized image of a predetermined size. An eighth procedure for generating an image so that an image of the center of gravity of the generated image approaches the center of the range of the predetermined size, and an image of the range in which the pixels of the synthesized image spread approaches the range of the predetermined size; And a ninth procedure for normalizing the image on which the preprocessing has been performed according to the generated mapping.

本発明の一実施形態によれば、文字輪郭画像と原画像との合成画像に基づいて正規化を行うことによって、文字輪郭が失われている場合の正規化の不安定性を低減し、活字及び手書き文字における認識率を向上させることができる。   According to one embodiment of the present invention, normalization is performed based on a composite image of a character contour image and an original image, thereby reducing normalization instability when the character contour is lost, The recognition rate in handwritten characters can be improved.

本発明の実施形態の文字認識装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the character recognition apparatus of embodiment of this invention. 従来の文字認識装置が実行する処理を示すフロー図である。It is a flowchart which shows the process which the conventional character recognition apparatus performs. 本発明の実施形態の演算装置によって実行される文字認識処理の概要を示すフロー図である。It is a flowchart which shows the outline | summary of the character recognition process performed by the arithmetic unit of embodiment of this invention. 本発明の実施形態の演算装置によって実行される識別処理の説明図である。It is explanatory drawing of the identification process performed by the arithmetic unit of embodiment of this invention. モーメント正規化法及びバイモーメント正規化法によって生成された画像の例の説明図である。It is explanatory drawing of the example of the image produced | generated by the moment normalization method and the bi-moment normalization method. 同一の文字の異なるフォントの例の説明図である。It is explanatory drawing of the example of a different font of the same character. モーメント正規化法によって定められる文字画像の重心及び境界の説明図である。It is explanatory drawing of the gravity center and boundary of a character image defined by the moment normalization method. 本発明の実施形態の演算装置によって使用される文字輪郭の抽出方法の第1の例の説明図である。It is explanatory drawing of the 1st example of the extraction method of the character outline used by the calculating device of embodiment of this invention. 本発明の実施形態において文字画像の輪郭を抽出するために参照される画素の説明図である。It is explanatory drawing of the pixel referred in order to extract the outline of a character image in embodiment of this invention. モーメント正規化法及び輪郭特徴量モーメント正規化法によって正規化された画像の説明図である。It is explanatory drawing of the image normalized by the moment normalization method and the outline feature-value moment normalization method. 本発明の実施形態において文字画像の輪郭を抽出するために使用されるフィルターの説明図である。It is explanatory drawing of the filter used in order to extract the outline of a character image in embodiment of this invention. 本発明の実施形態の演算装置によって抽出される輪郭画像の例の説明図である。It is explanatory drawing of the example of the outline image extracted by the arithmetic unit of embodiment of this invention. 輪郭の一部が失われた文字の例を示す説明図である。It is explanatory drawing which shows the example of the character from which a part of outline was lost.

図1は、本発明の実施形態の文字認識装置のハードウェア構成の一例を示すブロック図である。   FIG. 1 is a block diagram showing an example of a hardware configuration of a character recognition device according to an embodiment of the present invention.

本発明の文字認識装置100は、入力装置101、演算装置102、認識辞書103、表示装置104、及びパターンデータベース(DB)105を備える。   The character recognition device 100 of the present invention includes an input device 101, an arithmetic device 102, a recognition dictionary 103, a display device 104, and a pattern database (DB) 105.

入力装置101は、コマンド等を入力するためのキーボードやマウス、及び画像入力のためのスキャナ等の装置である。   The input device 101 is a device such as a keyboard and mouse for inputting commands and a scanner for inputting images.

演算装置102は、入力された画像を読み取り、入力画像中の文字を判定する。演算装置102は、CPU(Central Processing Unit)、メモリ、及び記憶装置等を備える。   The arithmetic device 102 reads the input image and determines characters in the input image. The arithmetic device 102 includes a CPU (Central Processing Unit), a memory, a storage device, and the like.

認識辞書103は、認識辞書を保存する辞書データベースである。   The recognition dictionary 103 is a dictionary database that stores a recognition dictionary.

表示装置104は、演算装置102による処理内容を出力する装置であり、例えば、ディスプレイ等の装置である。処理内容を表示する必要がない場合には表示装置104はなくてもよく、必要に応じて表示装置以外の出力装置によって置き換えられてもよい。   The display device 104 is a device that outputs the processing content of the arithmetic device 102, and is a device such as a display, for example. When it is not necessary to display the processing contents, the display device 104 may be omitted, and may be replaced by an output device other than the display device as necessary.

パターンDB105は、入力装置101によって入力されたパターンを格納する。   The pattern DB 105 stores the pattern input by the input device 101.

認識辞書103及びパターンDB105は、演算装置102内の記憶装置に格納されてもよい。   The recognition dictionary 103 and the pattern DB 105 may be stored in a storage device in the arithmetic device 102.

本発明の実施形態の演算装置102は、文字認識手段を備える。具体的には、例えば、演算装置102内のCPUがメモリ又は記憶装置に格納されたプログラムを実行することによって文字認識手段を実現する。   The arithmetic device 102 according to the embodiment of the present invention includes character recognition means. Specifically, for example, the CPU in the arithmetic device 102 executes a program stored in a memory or a storage device, thereby realizing character recognition means.

次に、本発明の実施形態における処理フローの説明に移る。   Next, the processing flow in the embodiment of the present invention will be described.

図3は、本発明の実施形態の演算装置102によって実行される文字認識処理の概要を示すフロー図である。   FIG. 3 is a flowchart showing an outline of character recognition processing executed by the arithmetic device 102 according to the embodiment of this invention.

図3に示す文字画像入力部201、前処理部202、正規化部301、特徴抽出部209、識別部210、出力部211及び認識辞書学習部213は、演算装置102によって(すなわち、CPUがメモリ等に格納されたプログラムを実行することによって)実現される機能であり、言い換えると、それぞれが演算装置102によって実行される処理手順に相当する。正規化部301に含まれる文字輪郭抽出部302、合成画像生成部303、モーメント値算出部304、正規化写像生成部207及び正規化画像生成部208についても同様である。   The character image input unit 201, the preprocessing unit 202, the normalization unit 301, the feature extraction unit 209, the identification unit 210, the output unit 211, and the recognition dictionary learning unit 213 illustrated in FIG. (In other words, each program corresponds to a processing procedure executed by the arithmetic device 102). The same applies to the character outline extraction unit 302, the composite image generation unit 303, the moment value calculation unit 304, the normalized map generation unit 207, and the normalized image generation unit 208 included in the normalization unit 301.

文字認識装置100は、入力された画像を読み取り、入力画像中の文字を判定し、判定結果を出力する。既に説明したように、図2は、従来の輪郭特徴量モーメント正規化法による文字認識処理のフロー図である。本実施形態の文字認識装置100が実行する文字認識処理のうち、正規化部301における文字輪郭抽出部302及び合成画像生成部303の処理が、従来の文字認識処理と異なる。   The character recognition device 100 reads an input image, determines a character in the input image, and outputs a determination result. As described above, FIG. 2 is a flowchart of character recognition processing by the conventional contour feature amount moment normalization method. Among the character recognition processes executed by the character recognition apparatus 100 of the present embodiment, the processes of the character outline extraction unit 302 and the composite image generation unit 303 in the normalization unit 301 are different from the conventional character recognition processing.

文字画像入力部201では、ユーザ、または、演算装置102によって実行されるプログラムによって、認識対象となる画像が入力される。例えば、入力装置101に含まれるスキャナが文書を読み取り、それによって得られた文字画像のデータを演算装置102がメモリ又は記憶装置に格納してもよい。なお、記憶装置等に予め文字画像のデータが格納されている場合には、それを認識対象として使用することもできる。   In the character image input unit 201, an image to be recognized is input by a user or a program executed by the arithmetic device 102. For example, a scanner included in the input device 101 may read a document, and character data obtained by the scanner may be stored in a memory or a storage device. When character image data is stored in advance in a storage device or the like, it can be used as a recognition target.

前処理部202は、入力画像にノイズ除去、ぼかし処理等を施すことによって、ノイズ又はかすれ等の、画像中の文字を判定する上で障害となる外乱要因を低減する。例えば、ノイズ除去処理によって、ある閾値以下の大きさの孤立点が除去される。前処理が施された入力画像は、一旦記憶装置に格納されてもよい。   The preprocessing unit 202 performs noise removal, blurring processing, and the like on the input image, thereby reducing disturbance factors that hinder the determination of characters in the image, such as noise or blur. For example, an isolated point having a size equal to or smaller than a certain threshold is removed by noise removal processing. The input image that has undergone preprocessing may be temporarily stored in a storage device.

正規化部301は、前処理が施された入力画像の各々を予め指定しておいた固定サイズの画像に変換する。変換後の画像を正規化画像とよぶ。正規化の主な目的の一つは、様々なサイズの入力画像を固定サイズの画像に変換することで、後の処理を統一することである。また、正規化のもう一つの主な目的は、様々な形の入力画像を、同一文字間で文字の形のばらつきが小さくなるように固定サイズの画像に変換することである。これによって、同一文字種の文字画像間でのばらつきを低減することができ、識別精度の向上に役立つ。詳細は、後述する。正規化部301で生成された正規化画像は、一旦記憶装置に格納されてもよい。   The normalization unit 301 converts each pre-processed input image into a fixed-size image designated in advance. The converted image is called a normalized image. One of the main purposes of normalization is to unify subsequent processing by converting input images of various sizes into fixed-size images. Another main purpose of normalization is to convert various types of input images into fixed-size images so that variations in character shapes between the same characters are reduced. As a result, variations between character images of the same character type can be reduced, which helps to improve the identification accuracy. Details will be described later. The normalized image generated by the normalizing unit 301 may be temporarily stored in the storage device.

特徴抽出部209は、正規化部301で生成される正規化画像を入力として受け取り、入力された正規化画像をベクトル空間上のベクトル値に変換する。変換先のベクトル空間を特徴空間、変換されたベクトル値を特徴ベクトルとよぶ。次元圧縮によって、特徴空間の次元を削減する場合もある。その場合、特徴空間から識別への寄与が小さい成分をなるべく取り除き、特徴ベクトルをより低次元の特徴空間上の特徴ベクトルとして表現する。   The feature extraction unit 209 receives the normalized image generated by the normalization unit 301 as an input, and converts the input normalized image into a vector value on a vector space. The destination vector space is called a feature space, and the converted vector value is called a feature vector. Dimensional compression may reduce the dimension of the feature space. In that case, components having a small contribution to the identification are removed from the feature space as much as possible, and the feature vector is expressed as a feature vector on a lower-dimensional feature space.

識別部210は、認識辞書214を用いて、特徴ベクトルが所属する文字カテゴリを判定する。認識辞書214は、特徴空間を各文字カテゴリが占める領域に分割するための情報を保持している。これによって、特徴ベクトルが所属する領域に対応する文字カテゴリが判定結果として返される。   The identification unit 210 uses the recognition dictionary 214 to determine the character category to which the feature vector belongs. The recognition dictionary 214 holds information for dividing the feature space into regions occupied by each character category. As a result, the character category corresponding to the region to which the feature vector belongs is returned as the determination result.

図4は、本発明の実施形態の演算装置102によって実行される識別処理の説明図である。   FIG. 4 is an explanatory diagram of identification processing executed by the arithmetic device 102 according to the embodiment of this invention.

図4には、一例として、特徴空間401においてカテゴリA、カテゴリB及びカテゴリCのそれぞれが占める領域402A、402B及び402Cを示す。各カテゴリが一つの文字に対応する。この例では、未知入力(すなわち入力された正規化画像の特徴ベクトル)403が、いずれのカテゴリの領域にも含まれていない。この場合、識別部210は、未知入力403に最も近い領域402Aに対応するカテゴリAを、未知入力が所属するカテゴリと判断してもよい。あるいは、識別部210は、未知入力403がどのカテゴリにも所属しないと判断し、棄却の判定をしてもよい。識別部210は、判定の結果(例えば「カテゴリA」又は「棄却」)を出力する。   FIG. 4 shows, as an example, regions 402A, 402B, and 402C occupied by category A, category B, and category C in the feature space 401, respectively. Each category corresponds to one character. In this example, the unknown input (that is, the feature vector of the input normalized image) 403 is not included in any category area. In this case, the identification unit 210 may determine that the category A corresponding to the region 402A closest to the unknown input 403 is a category to which the unknown input belongs. Alternatively, the identification unit 210 may determine that the unknown input 403 does not belong to any category and determine rejection. The identification unit 210 outputs a determination result (for example, “category A” or “rejection”).

再び図3を参照する。出力部211は、識別部210による判定結果をディスプレイなどの表示装置104又は記憶装置等に出力する。   Refer to FIG. 3 again. The output unit 211 outputs the determination result by the identification unit 210 to the display device 104 such as a display or a storage device.

次に、本発明の正規化部301の処理の説明に移る前に、輪郭特徴量モーメント正規化法による正規化部203の処理について説明する。   Next, before proceeding to the description of the processing of the normalization unit 301 of the present invention, the processing of the normalization unit 203 by the contour feature amount moment normalization method will be described.

前処理部202を経て、文字輪郭抽出部204に入力される原画像f(x,y)のサイズを幅W0、高さH0とする。ここで、0≦x<W0、0≦y<H0、各格子点を表すx及びyは整数値とし、左からk1番目、下からk2番目の格子点の画素値はf(k1−1,k2−1)と表示される。この原画像を幅L、高さLの画像サイズに正規化する例を説明する。   The size of the original image f (x, y) input to the character outline extraction unit 204 via the preprocessing unit 202 is assumed to be a width W0 and a height H0. Here, 0 ≦ x <W0, 0 ≦ y <H0, x and y representing each grid point are integer values, and the pixel values of the k1st grid point from the left and the k2th grid point from the bottom are f (k1-1, k2-1) is displayed. An example in which this original image is normalized to an image size having a width L and a height L will be described.

輪郭特徴量モーメント正規化法が適用される場合、まず、文字輪郭抽出部204が原画像f(x,y)の文字の輪郭画像fc(x,y)を抽出する。以下に輪郭の抽出方法の例を二つ挙げる。   When the contour feature amount moment normalization method is applied, first, the character contour extraction unit 204 extracts the character contour image fc (x, y) of the original image f (x, y). Two examples of contour extraction methods are given below.

文字輪郭の抽出方法の第1の例を挙げる。まず、文字画像f(x,y)から、輪郭の横方向成分fx(x,y)及び縦方向成分fy(x,y)を抽出する。   A first example of a character outline extraction method will be described. First, a horizontal component fx (x, y) and a vertical component fy (x, y) of the contour are extracted from the character image f (x, y).

図8は、本発明の実施形態の演算装置によって使用される文字輪郭の抽出方法の第1の例の説明図である。   FIG. 8 is an explanatory diagram of a first example of a character outline extraction method used by the arithmetic device according to the embodiment of the present invention.

図8には、例として、入力画像801、輪郭画像802、横方向の輪郭画像803、及び縦方向の輪郭画像804を示している。ここで、入力画像801は、文字「B」の画像であり、輪郭画像802、横方向の輪郭画像803及び縦方向の輪郭画像804は、いずれも入力画像801から抽出された輪郭画像の例である。入力画像801がf(x,y)、横方向の輪郭画像803がfx(x,y)、縦方向の輪郭画像804がfy(x,y)に対応する。   FIG. 8 shows an input image 801, a contour image 802, a horizontal contour image 803, and a vertical contour image 804 as an example. Here, the input image 801 is an image of the letter “B”, and the contour image 802, the horizontal contour image 803, and the vertical contour image 804 are all examples of contour images extracted from the input image 801. is there. The input image 801 corresponds to f (x, y), the horizontal contour image 803 corresponds to fx (x, y), and the vertical contour image 804 corresponds to fy (x, y).

最初に、文字輪郭抽出部204は、fx(x,y)=0、fy(x,y)=0と設定する。次に、文字輪郭抽出部204は、入力画像f(x,y)の格子点を順番に選択し、各々の格子点に対して、輪郭方向の特徴を抽出する。斜め方向は、縦横の両方にカウントする。いま、注目している格子点の画素が黒画素、すなわち、p=f(x,y)=1であるとき、文字輪郭抽出部204は、図9に示す画素pの近傍にある画素の情報から、数式(1)〜(3)によって特徴を抽出する。   First, the character outline extraction unit 204 sets fx (x, y) = 0 and fy (x, y) = 0. Next, the character outline extraction unit 204 sequentially selects the grid points of the input image f (x, y), and extracts the feature in the outline direction for each grid point. The diagonal direction is counted both vertically and horizontally. If the pixel at the grid point of interest is a black pixel, that is, p = f (x, y) = 1, the character outline extraction unit 204 stores information on pixels in the vicinity of the pixel p shown in FIG. From (1) to (3), features are extracted.

Figure 2013190911
Figure 2013190911

Figure 2013190911
Figure 2013190911

Figure 2013190911
Figure 2013190911

図9は、本発明の実施形態において文字画像の輪郭を抽出するために参照される画素の説明図である。   FIG. 9 is an explanatory diagram of pixels referred to in order to extract the outline of the character image in the embodiment of the present invention.

具体的には、図9には、ある格子点の画素pと、それに隣接する周囲の格子点の画素d1からd7との位置関係901を示す。例えば、画素pの格子点の座標が(x,y)である場合、画素d1、d2、d3、d4、d5、d6及びd7の格子点の座標は、それぞれ(x+1,y+1)、(x,y+1)、(x−1,y+1)、(x−1,y)、(x−1,y−1)、(x,y−1)及び(x+1,y−1)である。   Specifically, FIG. 9 shows a positional relationship 901 between a pixel p at a certain grid point and pixels d1 to d7 at neighboring grid points adjacent thereto. For example, when the coordinates of the lattice points of the pixel p are (x, y), the coordinates of the lattice points of the pixels d1, d2, d3, d4, d5, d6, and d7 are (x + 1, y + 1), (x, y, respectively). y + 1), (x-1, y + 1), (x-1, y), (x-1, y-1), (x, y-1) and (x + 1, y-1).

これによって、輪郭の横方向成分fx(x,y)及び縦方向成分fy(x,y)が生成される。輪郭画像fc(x,y)は、fc(x,y)=fx(x,y)+fy(x,y)(ここで=は代入)を計算することによって求められる。   As a result, a horizontal component fx (x, y) and a vertical component fy (x, y) of the contour are generated. The contour image fc (x, y) is obtained by calculating fc (x, y) = fx (x, y) + fy (x, y) (= is substituted here).

文字輪郭の抽出方法の第2の例を挙げる。まず、文字輪郭抽出部204は、fx(x,y)=0、fy(x,y)=0と設定する。次に、文字輪郭抽出部204は、入力画像f(x,y)の格子点を順番に選択し、各々の格子点に対して、特徴を抽出する。斜め方向は、縦横の両方にカウントする。文字輪郭抽出部204は、格子点(x,y)に対し、数式(4)によって特徴を抽出する。   A second example of the character outline extraction method will be described. First, the character outline extraction unit 204 sets fx (x, y) = 0 and fy (x, y) = 0. Next, the character outline extraction unit 204 sequentially selects grid points of the input image f (x, y), and extracts features for each grid point. The diagonal direction is counted both vertically and horizontally. The character outline extraction unit 204 extracts features from the lattice point (x, y) according to Equation (4).

Figure 2013190911
Figure 2013190911

図11は、本発明の実施形態において文字画像の輪郭を抽出するために使用されるフィルターの説明図である。図11のフィルター1101が数式(4)のfy(x,y)の計算式に対応し、フィルター1102がfx(x,y)の計算式に対応する。   FIG. 11 is an explanatory diagram of a filter used for extracting a contour of a character image in the embodiment of the present invention. The filter 1101 in FIG. 11 corresponds to the calculation formula of fy (x, y) in Expression (4), and the filter 1102 corresponds to the calculation expression of fx (x, y).

輪郭画像fc(x,y)は、fc(x,y)=fx(x,y)+fy(x,y)(ここで=は代入)を計算することによって求められる。   The contour image fc (x, y) is obtained by calculating fc (x, y) = fx (x, y) + fy (x, y) (= is substituted here).

図12は、本発明の実施形態の演算装置102によって抽出される輪郭画像の例の説明図である。例えば、文字種「綾」「鮎」「或」「粟」及び「袷」の手書き文字の原画像1201から、輪郭画像1202が抽出される。   FIG. 12 is an explanatory diagram illustrating an example of a contour image extracted by the arithmetic device 102 according to the embodiment of this invention. For example, the contour image 1202 is extracted from the original image 1201 of handwritten characters of the character types “Aya”, “鮎”, “or”, “粟”, and “袷”.

次に、モーメント値算出部206が、輪郭画像fc(x,y)のモーメント値を算出する。ここでは、数式(5)及び数式(7)を用いて、数式(6)に示す重心(xc,yc)及び数式(8)に示すδx、δyの値を計算する。このδx及びδyは、原画像の画素が広がる範囲を示すパラメータであり、後述する原画像の境界を定めるために使用される。   Next, the moment value calculation unit 206 calculates the moment value of the contour image fc (x, y). Here, using the equations (5) and (7), the center of gravity (xc, yc) shown in the equation (6) and the values of δx and δy shown in the equation (8) are calculated. These δx and δy are parameters indicating the range in which the pixels of the original image spread, and are used to determine the boundary of the original image, which will be described later.

Figure 2013190911
Figure 2013190911

Figure 2013190911
Figure 2013190911

Figure 2013190911
Figure 2013190911

Figure 2013190911
Figure 2013190911

次に、正規化写像生成部207は、原画像を正規化平面[0,L]×[0,L]に写すための写像を生成する。輪郭特徴量モーメント正規化法では、モーメント値算出部206が計算した重心(xc,yc)を中心として横方向にδx、縦方向にδyの幅をもった領域を、拡大又は縮小してL×Lのサイズとすることによって、正規化画像を生成する。すなわち、原画像中の[xc−δx/2,xc+δx/2]×[yc−δy/2,yc+δy/2]の部分を正規化平面[0,L]×[0,L]に写像する。そのための写像は、数式(9)によって表される。   Next, the normalized map generation unit 207 generates a map for mapping the original image to the normalized plane [0, L] × [0, L]. In the contour feature amount moment normalization method, an area having a width of δx in the horizontal direction and δy in the vertical direction around the center of gravity (xc, yc) calculated by the moment value calculation unit 206 is enlarged or reduced to L × By setting the size to L, a normalized image is generated. That is, a portion of [xc−δx / 2, xc + δx / 2] × [yc−δy / 2, yc + δy / 2] in the original image is mapped to the normalized plane [0, L] × [0, L]. The mapping for that is expressed by Equation (9).

Figure 2013190911
Figure 2013190911

次に、正規化画像生成部208は、正規化画像f’(x’,y’)を数式(10)の関係式によって生成する。この例の場合には、すでに述べたように、原画像中の[xc−δx/2,xc+δx/2]×[yc−δy/2,yc+δy/2]の部分をL×Lのサイズに拡大縮小することによって正規化画像が得られる。   Next, the normalized image generation unit 208 generates a normalized image f ′ (x ′, y ′) by the relational expression of Expression (10). In the case of this example, as described above, the portion of [xc−δx / 2, xc + δx / 2] × [yc−δy / 2, yc + δy / 2] in the original image is enlarged to the size of L × L. By normalizing, a normalized image is obtained.

Figure 2013190911
Figure 2013190911

以上のように、輪郭特徴量モーメント正規化法は、原画像f(x,y)から輪郭画像fc(x,y)を抽出し、輪郭画像fc(x,y)のモーメントを用いて、文字画像の重心及び境界を定める。   As described above, the contour feature amount moment normalization method extracts the contour image fc (x, y) from the original image f (x, y), and uses the moment of the contour image fc (x, y) to Define the center of gravity and boundaries of the image.

従来のように、モーメント正規化法、すなわち、原画像そのもののモーメント値に基づく正規化法が適用された場合には、原画像の画素の重心の像が正規化画像の範囲の中心に近づき、かつ、原画像の画素が広がる範囲の像が正規化画像の範囲に近づくように、原画像から正規化画像への写像が生成される。   When a moment normalization method, i.e., a normalization method based on the moment value of the original image itself is applied as in the past, the image of the center of gravity of the pixel of the original image approaches the center of the range of the normalized image, In addition, a mapping from the original image to the normalized image is generated so that the image in the range where the pixels of the original image spread approaches the range of the normalized image.

図7は、モーメント正規化法によって定められる文字画像の重心及び境界の説明図である。   FIG. 7 is an explanatory diagram of the center of gravity and boundary of the character image defined by the moment normalization method.

具体的には、図7には、前処理後の画像(すなわち上記の説明における原画像)701と、それらについて定められた重心及び境界の表示を含む文字画像702を示す。例えば、文字種「0」に対応する原画像701Aから、重心703A及び境界704Aが決定される。ここで、境界704Aは、原画像701Aにおける、文字種「0」に相当する文字が表示された領域とそれ以外の領域との境界であり、言い換えると、文字種「0」に相当する文字の画素が広がる範囲に相当する。モーメント正規化法が適用される場合、文字の画素が広がる範囲を示すパラメータとして、数式(8)によって算出された二次モーメント値δx、δyが使用され、境界704Aは、重心703Aを中心として横方向にδx、縦方向にδyの幅をもった領域によって定義される。   Specifically, FIG. 7 shows a pre-processed image (that is, the original image in the above description) 701, and a character image 702 including a center of gravity and a boundary defined for them. For example, the center of gravity 703A and the boundary 704A are determined from the original image 701A corresponding to the character type “0”. Here, the boundary 704A is a boundary between the area in which the character corresponding to the character type “0” is displayed and the other region in the original image 701A. In other words, the pixel of the character corresponding to the character type “0” Corresponds to a wide range. When the moment normalization method is applied, the secondary moment values δx and δy calculated by the equation (8) are used as parameters indicating the range in which the pixel of the character spreads, and the boundary 704A is laterally centered on the center of gravity 703A. It is defined by a region having a width of δx in the direction and δy in the vertical direction.

上記のようにして生成された写像を用いて正規化を行うことによって、入力された文字画像の大きさ及び形にばらつきがある場合であっても、それらが同一の文字種の画像であれば、正規化された文字画像の特徴量のばらつきを抑えることが期待できる。   Even if there are variations in the size and shape of the input character image by performing normalization using the mapping generated as described above, if they are images of the same character type, It can be expected to suppress variation in the feature amount of the normalized character image.

しかし、上記のようなモーメント正規化法が適用された場合、入力された文字画像の線の太さの変動に応じて、図10の正規化画像1002に示すような正規化画像のばらつきが生じやすい。これは、原画像の画素の重心の位置が原画像の文字の線の太さの影響を受けて変動すること等のために、モーメント値が不安定になり、それによって生成される写像も変動するためである。   However, when the moment normalization method as described above is applied, variations in the normalized image as shown in the normalized image 1002 in FIG. 10 occur according to the variation in the line thickness of the input character image. Cheap. This is because the moment value becomes unstable because the position of the center of gravity of the pixel of the original image fluctuates due to the influence of the thickness of the character line of the original image, and the mapping generated thereby fluctuates. It is to do.

これに対して、輪郭特徴量モーメント正規化法が適用された場合(すなわち輪郭画像のモーメント値に基づく正規化が行われた場合)には、原画像の輪郭の画素の重心の像が正規化画像の範囲の中心に近づき、かつ、原画像の輪郭の画素が広がる範囲の像が正規化画像の範囲に近づくように、原画像から正規化画像への写像が生成される。この場合、原画像のうち輪郭以外の部分の画素が削除されているため、輪郭の画素の重心の位置は、原画像の文字の線の太さの影響を受けにくい。このため、モーメント値及び生成される写像は文字の線の太さにかかわらず安定し、図10の正規化画像1003に示すように、正規化画像のばらつきが生じにくくなる。   On the other hand, when the contour feature value moment normalization method is applied (that is, when normalization based on the moment value of the contour image is performed), the image of the center of gravity of the pixel of the contour of the original image is normalized. A map from the original image to the normalized image is generated so that the image in the range in which the pixels of the contour of the original image expand and approaches the center of the range of the original image approaches the range of the normalized image. In this case, since the pixels other than the outline are deleted from the original image, the position of the center of gravity of the outline pixel is hardly affected by the thickness of the character line of the original image. For this reason, the moment value and the generated mapping are stable regardless of the thickness of the character line, and as shown in the normalized image 1003 in FIG.

しかし、図13の文字画像1302及び1304の例が示すように、文字の輪郭の構造が失われている場合には、輪郭の一部が抽出できない。輪郭の一部が失われることで、輪郭の画素の重心の位置が変動するため、輪郭の構造が失われる場合には、算出されるモーメントの値が不安定となり、生成される正規化画像のばらつきが、同一文字種間で大きくなる。このようなばらつきは、特徴抽出後の特徴空間上でのベクトル点のばらつきとなって現れ、識別率を低下させる原因となる。   However, as shown in the example of the character images 1302 and 1304 in FIG. 13, when the character outline structure is lost, a part of the outline cannot be extracted. Since the position of the center of gravity of the pixel of the contour fluctuates due to the loss of a part of the contour, the calculated moment value becomes unstable when the contour structure is lost, and the generated normalized image The variation increases between the same character types. Such variation appears as variation of vector points on the feature space after feature extraction, and causes a reduction in the identification rate.

次に、本発明の実施形態の正規化部301が実行する正規化について説明する。   Next, normalization performed by the normalization unit 301 according to the embodiment of this invention will be described.

文字輪郭抽出部302は、文字輪郭抽出部204と同様の方法(例えば上記の第1又は第2の例)を用いて文字輪郭画像fc(x、y)を抽出してもよいし、別の方法を用いてもよい。ここで、文字輪郭を抽出する別の方法の例として、第3及び第4の例を説明する。   The character outline extracting unit 302 may extract the character outline image fc (x, y) using the same method as the character outline extracting unit 204 (for example, the first or second example described above) A method may be used. Here, third and fourth examples will be described as examples of another method for extracting a character outline.

最初に第3の例を説明する。まず、文字輪郭抽出部302は、全ての白画素p=(x、y)についてg0(p)=g1(p)=…=g7(p)とする。次に、文字輪郭抽出部302は、全ての黒画素p=(x、y)についてg0(p)、g1(p)、…、g7(p)を数式(11)によって計算する。   First, a third example will be described. First, the character outline extraction unit 302 sets g0 (p) = g1 (p) =... = G7 (p) for all white pixels p = (x, y). Next, the character outline extraction unit 302 calculates g0 (p), g1 (p),..., G7 (p) with respect to all black pixels p = (x, y) by Expression (11).

Figure 2013190911
Figure 2013190911

d0、d1、…、d7は、図9に示すように、画素pの近傍画素である。文字輪郭抽出部302は、輪郭画像fc(x,y)を、fc(x,y)=Σgk(x,y)によって生成する。ここで、Σgk(x,y)は、k=0、1、…、7の範囲で計算される。   d0, d1,..., d7 are neighboring pixels of the pixel p as shown in FIG. The character outline extraction unit 302 generates an outline image fc (x, y) by fc (x, y) = Σgk (x, y). Here, Σgk (x, y) is calculated in the range of k = 0, 1,.

次に第4の例を説明する。まず、文字輪郭抽出部302は、全ての画素p=(x,y)についてgx(p)、gy(p)を数式(12)によって計算する。次に、文字輪郭抽出部302は、輪郭画像fc(x,y)を数式(13)によって生成する。ここで、d0、d1、…、d7は図9に示すように、画素pの近傍画素である。   Next, a fourth example will be described. First, the character outline extraction unit 302 calculates gx (p) and gy (p) for all the pixels p = (x, y) by using Expression (12). Next, the character outline extraction unit 302 generates an outline image fc (x, y) by using Equation (13). Here, d0, d1,..., D7 are neighboring pixels of the pixel p as shown in FIG.

Figure 2013190911
Figure 2013190911

Figure 2013190911
Figure 2013190911

上記の第1〜第4の例は、文字画像の輪郭を抽出する方法の例であり、文字輪郭抽出部302は、上記に例示した方法以外の方法によって文字画像の輪郭を抽出してもよい。上記のように、原画像の格子点の周囲の格子点の画素値が所定の条件を満たす場合に当該原画像の格子点における輪郭の画像の画素値を増加させる方法(上記の第1の例及び第3の例に相当)、又は、原画像の格子点の周囲の格子点の画素値に所定の係数を乗じた値を集計することによって当該原画像の格子点における輪郭の画像の画素値を算出する方法(上記の第2の例及び第3の例に相当)等によって、文字画像の輪郭を抽出することができる。   The above first to fourth examples are examples of methods for extracting the contour of a character image, and the character contour extraction unit 302 may extract the contour of a character image by a method other than the method exemplified above. . As described above, when the pixel values of the lattice points around the lattice points of the original image satisfy a predetermined condition, the pixel value of the contour image at the lattice points of the original image is increased (the first example described above) And equivalent to the third example), or the pixel values of the contour image at the grid points of the original image by summing the pixel values of the grid points around the grid points of the original image multiplied by a predetermined coefficient The outline of the character image can be extracted by the method of calculating the value (corresponding to the second example and the third example above).

以上で文字輪郭抽出部302の説明を終了し、続いて、合成画像生成部303以降の処理を説明する。合成画像生成部303は、文字輪郭抽出部302において生成した各格子点の文字輪郭画像fc(x,y)と、前処理部202から出力される各格子点の原画像f(x,y)との合成画像fs(x,y)を数式(14)によって生成する。   This is the end of the description of the character outline extraction unit 302. Next, processing after the composite image generation unit 303 will be described. The composite image generation unit 303 includes the character outline image fc (x, y) of each grid point generated by the character outline extraction unit 302 and the original image f (x, y) of each grid point output from the preprocessing unit 202. And a composite image fs (x, y) is generated by Expression (14).

Figure 2013190911
Figure 2013190911

ここで、γ1及びγ2は正の数であり、γ1+γ2=1を満たす。この合成画像は、原画像の輪郭部分が強調された画像、言い換えると、原画像の輪郭部分の画素値がそれ以外の部分の画素値より大きくなるように重み付けされた画像に相当する。   Here, γ1 and γ2 are positive numbers and satisfy γ1 + γ2 = 1. This composite image corresponds to an image in which the contour portion of the original image is emphasized, in other words, an image weighted so that the pixel value of the contour portion of the original image is larger than the pixel value of other portions.

モーメント値算出部304は、fc(x,y)の代わりにfs(x,y)を用いてモーメント値を算出する。すなわち、モーメント値算出部206は、数式(5)の代わりに数式(15)用いて、数式(6)に示す重心(xc,yc)及び数式(8)に示すδx、δyの値を計算する。   The moment value calculation unit 304 calculates a moment value using fs (x, y) instead of fc (x, y). That is, the moment value calculation unit 206 uses the formula (15) instead of the formula (5) to calculate the values of the center of gravity (xc, yc) shown in the formula (6) and δx and δy shown in the formula (8). .

Figure 2013190911
Figure 2013190911

続いて、本発明の正規化写像生成部207が、数式(15)等によって計算されたモーメント値に基づいて正規化写像を生成し、生成された正規化写像を用いて、本発明の正規化画像生成部208が正規化画像を生成する(数式(10))。   Subsequently, the normalized map generation unit 207 of the present invention generates a normalized map based on the moment value calculated by Equation (15) or the like, and uses the generated normalized map to normalize the present invention. The image generation unit 208 generates a normalized image (Formula (10)).

上記の本発明の実施形態では、合成画像の二次モーメント値δx及びδyに基づいて、合成画像の画素が広がる範囲(すなわち境界)が定められる。この範囲は、必ずしも合成画像の画素の輪郭とは一致しない。しかし、上記のようなモーメント値に基づく範囲の決定方法は一例に過ぎず、本発明では、上記以外の方法によって文字画像の画素が広がる範囲が定められてもよい。例えば、演算装置102は、モーメント値算出部304において、モーメント値を算出する代わりに、合成画像の画素の輪郭に外接する長方形の範囲を合成画像の画素が広がる範囲として定めてもよい。   In the embodiment of the present invention described above, a range (that is, a boundary) in which the pixels of the composite image spread is determined based on the secondary moment values δx and δy of the composite image. This range does not necessarily match the outline of the pixel of the composite image. However, the method of determining the range based on the moment value as described above is merely an example, and in the present invention, the range in which the pixels of the character image spread may be determined by a method other than the above. For example, instead of calculating the moment value in the moment value calculation unit 304, the arithmetic unit 102 may determine a rectangular range circumscribing the outline of the pixel of the composite image as a range in which the pixel of the composite image extends.

ここまでの説明は文字認識装置100に関するものであるが、文字認識装置100は、認識辞書生成装置として使用することもできる。その場合、演算装置102の記憶装置が文字画像DB212(図3)を保持し、前処理部202は、文字画像DB212に格納された文字画像について前処理を行う。正規化部301及び特徴抽出部209の処理は上記の文字認識装置100と同様である。認識辞書学習部213は、特徴抽出部209によって抽出された特徴量に基づいて、認識辞書の学習を行い、その結果を認識辞書214(図1の認識辞書103に相当)に格納する。なお、認識辞書学習部213は、正規化部301等と同様、演算装置102によって実現される機能である。   Although the description so far relates to the character recognition device 100, the character recognition device 100 can also be used as a recognition dictionary generation device. In that case, the storage device of the arithmetic device 102 holds the character image DB 212 (FIG. 3), and the preprocessing unit 202 performs preprocessing on the character image stored in the character image DB 212. The processes of the normalization unit 301 and the feature extraction unit 209 are the same as those of the character recognition device 100 described above. The recognition dictionary learning unit 213 learns the recognition dictionary based on the feature amount extracted by the feature extraction unit 209 and stores the result in the recognition dictionary 214 (corresponding to the recognition dictionary 103 in FIG. 1). Note that the recognition dictionary learning unit 213 is a function realized by the arithmetic device 102 as in the normalization unit 301 and the like.

以上のように、本発明の実施形態によれば、原画像と輪郭画像との合成画像のモーメント値に基づく正規化が行われる。すなわち、合成画像のモーメント値が計算され、これに基づいて原画像から正規化画像への写像が生成される。合成によって、文字画像の輪郭部分の画素値がそれ以外の部分の画素値より大きくなる。その結果、原画像そのもののモーメント値に基づく正規化を行った場合と比較すると、輪郭部分の画素の重みが増しているために、文字の線の太さの影響を軽減することができ、かつ、輪郭画像のモーメント値に基づく正規化を行った場合と比較すると、輪郭以外の部分の画素も利用されているために、輪郭の消失の影響を軽減することができる。このように、本実施形態によれば、線の太さ及び輪郭の消失のいずれに対しても安定した正規化を実現することができ、これによって、活字及び手書き文字の認識率を向上させることができる。   As described above, according to the embodiment of the present invention, normalization is performed based on the moment value of the composite image of the original image and the contour image. That is, the moment value of the composite image is calculated, and based on this, a mapping from the original image to the normalized image is generated. By the synthesis, the pixel value of the outline portion of the character image becomes larger than the pixel value of the other portion. As a result, compared to the case where normalization based on the moment value of the original image itself is performed, the weight of the pixel in the contour portion is increased, so the influence of the thickness of the character line can be reduced, and Compared with the case where normalization based on the moment value of the contour image is performed, since the pixels other than the contour are also used, the influence of disappearance of the contour can be reduced. Thus, according to the present embodiment, stable normalization can be realized for both the thickness of the line and the disappearance of the outline, thereby improving the recognition rate of type characters and handwritten characters. Can do.

なお、上記の効果を最大化するためには、係数γ1及びγ2を最適化することが望ましい。最適な係数γ1及びγ2の値は、輪郭の抽出方法等、種々の条件に依存し得るが、合成された画像における文字画像の輪郭部分の画素値がそれ以外の部分の画素値より大きくなるような値を選択する必要がある。例えば、本実施形態の合成画像生成部303は、γ1<γ2を満たすγ1及びγ2を使用してもよい。   In order to maximize the above effect, it is desirable to optimize the coefficients γ1 and γ2. The optimum values of the coefficients γ1 and γ2 may depend on various conditions such as the contour extraction method, but the pixel value of the contour portion of the character image in the synthesized image is larger than the pixel values of the other portions. It is necessary to select a correct value. For example, the composite image generation unit 303 of the present embodiment may use γ1 and γ2 that satisfy γ1 <γ2.

100 文字認識装置
101 入力装置
102 演算装置
103、214 認識辞書
104 表示装置
105 パターンDB
201 文字画像入力部
202 前処理部
203、301 正規化部
204、302 文字輪郭抽出部
206、304 モーメント値算出部
207 正規化写像生成部
208 正規化画像生成部
209 特徴抽出部
210 識別部
211 出力部
212 文字画像DB
213 認識辞書学習部
303 合成画像生成部
100 Character recognition device 101 Input device 102 Arithmetic devices 103, 214 Recognition dictionary 104 Display device 105 Pattern DB
201 Character image input unit 202 Pre-processing unit 203, 301 Normalization unit 204, 302 Character contour extraction unit 206, 304 Moment value calculation unit 207 Normalization map generation unit 208 Normalized image generation unit 209 Feature extraction unit 210 Identification unit 211 Output Part 212 Character Image DB
213 Recognition dictionary learning unit 303 Composite image generation unit

Claims (15)

プロセッサ及び記憶装置を含む演算装置と、前記演算装置に接続される入力装置と、前記演算装置に接続される出力装置と、を有する文字認識装置であって、
前記演算装置は、
前記入力装置を介して入力された入力画像又は前記記憶装置に格納された入力画像から、文字認識の妨げとなる外乱要因を低減するための前処理を実行する第1手順と、
前記前処理が実行された画像を正規化する第2手順と、
前記正規化された画像をベクトル空間上のベクトル値に変換する第3手順と、
前記記憶装置に格納された認識辞書に基づいて前記ベクトル値をいずれかの文字であると判定する第4手順と、
前記出力装置を介して前記判定の結果を出力する第5手順と、を実行し、
前記第2手順は、
前記前処理が実行された画像の輪郭を抽出する第6手順と、
前記前処理が実行された画像と前記抽出された輪郭の画像とを合成する第7手順と、
前記合成された画像から所定のサイズの正規化された画像への写像を、前記合成された画像の重心の像が前記所定のサイズの範囲の中心に近づき、かつ、前記合成された画像の画素が広がる範囲の像が前記所定のサイズの範囲に近づくように生成する第8手順と、
前記生成された写像に従って、前記前処理が実行された画像を正規化する第9手順と、を含むことを特徴とする文字認識装置。
A character recognition device having an arithmetic device including a processor and a storage device, an input device connected to the arithmetic device, and an output device connected to the arithmetic device,
The arithmetic unit is:
A first procedure for performing preprocessing for reducing disturbance factors that hinder character recognition from an input image input via the input device or an input image stored in the storage device;
A second procedure for normalizing the preprocessed image;
A third procedure for converting the normalized image into a vector value on a vector space;
A fourth procedure for determining that the vector value is any character based on a recognition dictionary stored in the storage device;
Executing a fifth procedure for outputting the result of the determination via the output device;
The second procedure includes
A sixth procedure for extracting the contour of the image on which the preprocessing has been performed;
A seventh procedure for synthesizing the preprocessed image and the extracted contour image;
Mapping the synthesized image from the synthesized image to a normalized image of a predetermined size, wherein the image of the center of gravity of the synthesized image approaches the center of the range of the predetermined size, and the pixel of the synthesized image An eighth procedure for generating an image in a range in which the image expands so as to approach the range of the predetermined size;
And a ninth procedure for normalizing the image on which the preprocessing has been performed according to the generated mapping.
前記第7手順は、各格子点における前記前処理が実行された画像の画素値に第1の係数を乗算した値と、各格子点における前記輪郭の画像の画素値に第2の係数を乗算した値と、を加算することによって、各格子点における前記合成された画像の画素値を算出する手順を含むことを特徴とする請求項1に記載の文字認識装置。   In the seventh procedure, a value obtained by multiplying the pixel value of the image on which the preprocessing is performed at each grid point by the first coefficient, and a pixel value of the contour image at each grid point are multiplied by the second coefficient. The character recognition apparatus according to claim 1, further comprising: calculating a pixel value of the synthesized image at each lattice point by adding the calculated values. 前記第2手順は、さらに、前記合成された画像の画素が広がる範囲を示すパラメータとして、前記合成された画像のモーメント値を算出する手順を含み、
前記第8手順は、前記モーメント値に応じて前記合成された画像を拡大又は縮小する写像を生成する手順を含むことを特徴とする請求項1に記載の文字認識装置。
The second procedure further includes a step of calculating a moment value of the synthesized image as a parameter indicating a range in which pixels of the synthesized image are spread,
The character recognition device according to claim 1, wherein the eighth procedure includes a procedure of generating a map for enlarging or reducing the synthesized image in accordance with the moment value.
前記第6手順は、前記前処理が実行された画像の各格子点の周囲の格子点の画素値が所定の条件を満たす場合に前記各格子点における輪郭の画像の画素値を増加させる手順を含むことを特徴とする請求項1に記載の文字認識装置。   The sixth procedure includes a step of increasing the pixel value of the contour image at each grid point when the pixel values of the grid points around each grid point of the image on which the preprocessing has been executed satisfy a predetermined condition. The character recognition device according to claim 1, further comprising: 前記第6手順は、前記前処理が実行された画像の各格子点の周囲の格子点の画素値に所定の係数を乗じた値を集計することによって前記各格子点における輪郭の画像の画素値を算出する手順を含むことを特徴とする請求項1に記載の文字認識装置。   In the sixth procedure, the pixel value of the contour image at each grid point is calculated by aggregating values obtained by multiplying pixel values of grid points around each grid point of the preprocessed image by a predetermined coefficient. The character recognition device according to claim 1, further comprising: プロセッサ、及び、前記プロセッサに接続され、文字画像が格納された記憶装置を含む演算装置を有する認識辞書生成装置であって、
前記演算装置は、
前記記憶装置に格納された文字画像から、文字認識の妨げとなる外乱要因を低減するための前処理を実行する第1手順と、
前記前処理が実行された画像を正規化する第2手順と、
前記正規化された画像をベクトル空間上のベクトル値に変換する第3手順と、
前記ベクトル値に基づいて、文字認識に使用される認識辞書を学習する第4手順と、
前記学習の結果を前記記憶装置に格納する第5手順と、を実行し、
前記第2手順は、
前記前処理が実行された画像の輪郭を抽出する第6手順と、
前記前処理が実行された画像と前記抽出された輪郭の画像とを合成する第7手順と、
前記合成された画像から所定のサイズの正規化された画像への写像を、前記合成された画像の重心の像が前記所定のサイズの範囲の中心に近づき、かつ、前記合成された画像の画素が広がる範囲の像が前記所定のサイズの範囲に近づくように生成する第8手順と、
前記生成された写像に従って、前記前処理が実行された画像を正規化する第9手順と、を含むことを特徴とする認識辞書生成装置。
A recognition dictionary generation device having a processor and an arithmetic device connected to the processor and including a storage device storing a character image,
The arithmetic unit is:
A first procedure for performing preprocessing for reducing disturbance factors that hinder character recognition from the character image stored in the storage device;
A second procedure for normalizing the preprocessed image;
A third procedure for converting the normalized image into a vector value on a vector space;
A fourth procedure for learning a recognition dictionary used for character recognition based on the vector value;
And a fifth procedure for storing the learning result in the storage device,
The second procedure includes
A sixth procedure for extracting the contour of the image on which the preprocessing has been performed;
A seventh procedure for synthesizing the preprocessed image and the extracted contour image;
Mapping the synthesized image from the synthesized image to a normalized image of a predetermined size, wherein the image of the center of gravity of the synthesized image approaches the center of the range of the predetermined size, and the pixel of the synthesized image An eighth procedure for generating an image in a range in which the image expands so as to approach the range of the predetermined size;
And a ninth procedure for normalizing the image on which the preprocessing has been performed according to the generated mapping.
前記第7手順は、各格子点における前記前処理が実行された画像の画素値に第1の係数を乗算した値と、各格子点における前記輪郭の画像の画素値に第2の係数を乗算した値と、を加算することによって、各格子点における前記合成された画像の画素値を算出する手順を含むことを特徴とする請求項6に記載の認識辞書生成装置。   In the seventh procedure, a value obtained by multiplying the pixel value of the image on which the preprocessing is performed at each grid point by the first coefficient, and a pixel value of the contour image at each grid point are multiplied by the second coefficient. The recognition dictionary generation device according to claim 6, further comprising: calculating a pixel value of the synthesized image at each lattice point by adding the obtained values. 前記第2手順は、さらに、前記合成された画像の画素が広がる範囲を示すパラメータとして、前記合成された画像のモーメント値を算出する手順を含み、
前記第8手順は、前記モーメント値に応じて前記合成された画像を拡大又は縮小する写像を生成する手順を含むことを特徴とする請求項6に記載の認識辞書生成装置。
The second procedure further includes a step of calculating a moment value of the synthesized image as a parameter indicating a range in which pixels of the synthesized image are spread,
The recognition dictionary generating apparatus according to claim 6, wherein the eighth procedure includes a procedure of generating a map for enlarging or reducing the synthesized image in accordance with the moment value.
前記第6手順は、前記前処理が実行された画像の各格子点の周囲の格子点の画素値が所定の条件を満たす場合に前記各格子点における輪郭の画像の画素値を増加させる手順を含むことを特徴とする請求項6に記載の認識辞書生成装置。   The sixth procedure includes a step of increasing the pixel value of the contour image at each grid point when the pixel values of the grid points around each grid point of the image on which the preprocessing has been executed satisfy a predetermined condition. The recognition dictionary generation device according to claim 6, further comprising: 前記第6手順は、前記前処理が実行された画像の各格子点の周囲の格子点の画素値に所定の係数を乗じた値を集計することによって前記各格子点における輪郭の画像の画素値を算出する手順を含むことを特徴とする請求項6に記載の認識辞書生成装置。   In the sixth procedure, the pixel value of the contour image at each grid point is calculated by aggregating values obtained by multiplying pixel values of grid points around each grid point of the preprocessed image by a predetermined coefficient. The recognition dictionary generation device according to claim 6, further comprising: プロセッサ及び前記プロセッサに接続される記憶装置を含む演算装置が実行する画像の正規化方法であって、
前記演算装置が、前記記憶装置に格納された原画像の輪郭を抽出する第6手順と、
前記演算装置が、前記原画像と前記抽出された輪郭の画像とを合成する第7手順と、
前記演算装置が、前記合成された画像から所定のサイズの正規化された画像への写像を、前記合成された画像の重心の像が前記所定のサイズの範囲の中心に近づき、かつ、前記合成された画像の画素が広がる範囲の像が前記所定のサイズの範囲に近づくように生成する第8手順と、
前記演算装置が、前記生成された写像に従って、前記原画像を正規化し、その結果を前記記憶装置に格納する第9手順と、を含むことを特徴とする正規化方法。
An image normalization method executed by an arithmetic device including a processor and a storage device connected to the processor,
A sixth procedure in which the arithmetic device extracts the contour of the original image stored in the storage device;
A seventh procedure in which the arithmetic device synthesizes the original image and the extracted contour image;
The computing device maps the synthesized image to a normalized image of a predetermined size, and the image of the center of gravity of the synthesized image approaches the center of the range of the predetermined size, and the synthesis An eighth procedure for generating an image in a range in which pixels of the generated image expand so as to approach the range of the predetermined size;
A normalization method comprising: a ninth procedure in which the arithmetic device normalizes the original image according to the generated mapping and stores the result in the storage device.
前記第7手順は、各格子点における前記前処理が実行された画像の画素値に第1の係数を乗算した値と、各格子点における前記輪郭の画像の画素値に第2の係数を乗算した値と、を加算することによって、各格子点における前記合成された画像の画素値を算出する手順を含むことを特徴とする請求項11に記載の正規化方法。   In the seventh procedure, a value obtained by multiplying the pixel value of the image on which the preprocessing is performed at each grid point by the first coefficient, and a pixel value of the contour image at each grid point are multiplied by the second coefficient. The normalization method according to claim 11, further comprising: calculating a pixel value of the synthesized image at each grid point by adding the calculated values. 前記正規化方法は、さらに、前記合成された画像の画素が広がる範囲を示すパラメータとして、前記合成された画像のモーメント値を算出する手順を含み、
前記第8手順は、前記モーメント値に応じて前記合成された画像を拡大又は縮小する写像を生成する手順を含むことを特徴とする請求項11に記載の正規化方法。
The normalization method further includes a procedure of calculating a moment value of the synthesized image as a parameter indicating a range in which pixels of the synthesized image are spread,
The normalization method according to claim 11, wherein the eighth procedure includes a procedure of generating a map for enlarging or reducing the synthesized image in accordance with the moment value.
前記第6手順は、前記前処理が実行された画像の各格子点の周囲の格子点の画素値が所定の条件を満たす場合に前記各格子点における輪郭の画像の画素値を増加させる手順を含むことを特徴とする請求項11に記載の正規化方法。   The sixth procedure includes a step of increasing the pixel value of the contour image at each grid point when the pixel values of the grid points around each grid point of the image on which the preprocessing has been executed satisfy a predetermined condition. The normalization method according to claim 11, further comprising: 前記第6手順は、前記前処理が実行された画像の各格子点の周囲の格子点の画素値に所定の係数を乗じた値を集計することによって前記各格子点における輪郭の画像の画素値を算出する手順を含むことを特徴とする請求項11に記載の正規化方法。   In the sixth procedure, the pixel value of the contour image at each grid point is calculated by aggregating values obtained by multiplying pixel values of grid points around each grid point of the preprocessed image by a predetermined coefficient. The normalization method according to claim 11, further comprising a step of calculating
JP2012055638A 2012-03-13 2012-03-13 Character recognition device, recognition dictionary generation device, and normalization method Active JP5769029B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012055638A JP5769029B2 (en) 2012-03-13 2012-03-13 Character recognition device, recognition dictionary generation device, and normalization method
CN201310027353.6A CN103310210B (en) 2012-03-13 2013-01-24 Character recognition device, recognition dictionary generate device and method for normalizing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012055638A JP5769029B2 (en) 2012-03-13 2012-03-13 Character recognition device, recognition dictionary generation device, and normalization method

Publications (2)

Publication Number Publication Date
JP2013190911A true JP2013190911A (en) 2013-09-26
JP5769029B2 JP5769029B2 (en) 2015-08-26

Family

ID=49135406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012055638A Active JP5769029B2 (en) 2012-03-13 2012-03-13 Character recognition device, recognition dictionary generation device, and normalization method

Country Status (2)

Country Link
JP (1) JP5769029B2 (en)
CN (1) CN103310210B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194378A (en) * 2017-06-28 2017-09-22 深圳大学 A kind of face identification method and device based on mixing dictionary learning
CN113569859A (en) * 2021-07-27 2021-10-29 北京奇艺世纪科技有限公司 Image processing method and device, electronic equipment and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6170860B2 (en) * 2014-03-25 2017-07-26 株式会社日立情報通信エンジニアリング Character recognition device and identification function generation method
CN107274345A (en) * 2017-06-07 2017-10-20 众安信息技术服务有限公司 A kind of Chinese printable character image combining method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535870A (en) * 1991-07-31 1993-02-12 Victor Co Of Japan Ltd Contour point extracting method using multi-valued data
JPH07160815A (en) * 1993-12-02 1995-06-23 Hitachi Eng Co Ltd Method and device for image binarization processing by contour enphasis
JPH07282199A (en) * 1993-12-02 1995-10-27 Nippon Telegr & Teleph Corp <Ntt> Picture pattern identifying and recognizing method
US5600736A (en) * 1993-12-02 1997-02-04 Nippon Telegraph And Telephone Corporation Image pattern identification/recognition method
JP2010108113A (en) * 2008-10-29 2010-05-13 Hitachi Computer Peripherals Co Ltd Character recognition device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150306A (en) * 2000-09-04 2002-05-24 Minolta Co Ltd Image processing device, image processing method, image processing program, and computer-readable recording medium with image processing program recorded thereon
JP2002230481A (en) * 2001-01-30 2002-08-16 Oki Electric Ind Co Ltd Optical character reader
CN100589119C (en) * 2008-05-23 2010-02-10 中南民族大学 Multi-font multi- letter size print form charater recognition method based on 'Yi' character set
CN102169542B (en) * 2010-02-25 2012-11-28 汉王科技股份有限公司 Method and device for touching character segmentation in character recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535870A (en) * 1991-07-31 1993-02-12 Victor Co Of Japan Ltd Contour point extracting method using multi-valued data
JPH07160815A (en) * 1993-12-02 1995-06-23 Hitachi Eng Co Ltd Method and device for image binarization processing by contour enphasis
JPH07282199A (en) * 1993-12-02 1995-10-27 Nippon Telegr & Teleph Corp <Ntt> Picture pattern identifying and recognizing method
US5600736A (en) * 1993-12-02 1997-02-04 Nippon Telegraph And Telephone Corporation Image pattern identification/recognition method
JP2010108113A (en) * 2008-10-29 2010-05-13 Hitachi Computer Peripherals Co Ltd Character recognition device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194378A (en) * 2017-06-28 2017-09-22 深圳大学 A kind of face identification method and device based on mixing dictionary learning
CN107194378B (en) * 2017-06-28 2020-11-17 深圳大学 Face recognition method and device based on mixed dictionary learning
CN113569859A (en) * 2021-07-27 2021-10-29 北京奇艺世纪科技有限公司 Image processing method and device, electronic equipment and storage medium
CN113569859B (en) * 2021-07-27 2023-07-04 北京奇艺世纪科技有限公司 Image processing method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
CN103310210B (en) 2016-06-29
JP5769029B2 (en) 2015-08-26
CN103310210A (en) 2013-09-18

Similar Documents

Publication Publication Date Title
JP5406705B2 (en) Data correction apparatus and method
US8155398B2 (en) Image processing apparatus, image processing method and computer program
WO2017219391A1 (en) Face recognition system based on three-dimensional data
US20180039853A1 (en) Object Detection System and Object Detection Method
US8391613B2 (en) Statistical online character recognition
US8509536B2 (en) Character recognition device and method and computer-readable medium controlling the same
JP5934762B2 (en) Document modification detection method by character comparison using character shape characteristics, computer program, recording medium, and information processing apparatus
JP5082637B2 (en) Image processing program, image processing method, and image processing apparatus
US20220012612A1 (en) System, method, and program for predicting information
US8351700B2 (en) Variable glyph system and method
JP5769029B2 (en) Character recognition device, recognition dictionary generation device, and normalization method
US20150186753A1 (en) Image Processing Apparatus, Image Processing Method, and Image Processing Program
CN111754637A (en) Large-scale three-dimensional face synthesis system with suppressed sample similarity
JP5268563B2 (en) Character recognition device and recognition dictionary generation device
JP5912570B2 (en) Handwriting appraisal method, handwriting appraisal device, and handwriting appraisal program
JP6147003B2 (en) Information processing apparatus, information processing method, and program
CN113077390B (en) Image rectification method based on deep learning
CN116403269B (en) Method, system, equipment and computer storage medium for analyzing occlusion human face
JP4011859B2 (en) Word image normalization device, word image normalization program recording medium, and word image normalization program
JP4869364B2 (en) Image processing apparatus and image processing method
US10878229B2 (en) Shape discrimination device, shape discrimination method and shape discrimination program
JP3855467B2 (en) Handwritten character normalization method, handwritten character normalization device, and recording medium recording handwritten character normalization processing program
JP5915275B2 (en) Image processing program, image processing method, and image processing apparatus
CN117275026A (en) Method for identifying investment amount form based on convolutional neural network
CN116740727A (en) Bill image processing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150610

R150 Certificate of patent or registration of utility model

Ref document number: 5769029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250