JP2010098744A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2010098744A
JP2010098744A JP2009241811A JP2009241811A JP2010098744A JP 2010098744 A JP2010098744 A JP 2010098744A JP 2009241811 A JP2009241811 A JP 2009241811A JP 2009241811 A JP2009241811 A JP 2009241811A JP 2010098744 A JP2010098744 A JP 2010098744A
Authority
JP
Japan
Prior art keywords
image
dictionary
information
symbol
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009241811A
Other languages
Japanese (ja)
Other versions
JP5264675B2 (en
Inventor
Masaaki Yasunaga
真明 安永
Atsushi Tabata
淳 田畑
Shunichi Mekawa
俊一 女川
Hiroki Sugano
浩樹 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba TEC Corp
Original Assignee
Toshiba Corp
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba TEC Corp filed Critical Toshiba Corp
Publication of JP2010098744A publication Critical patent/JP2010098744A/en
Application granted granted Critical
Publication of JP5264675B2 publication Critical patent/JP5264675B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which can compress an image according to information. <P>SOLUTION: The image processing apparatus is provided with: an analysis means which analyzes an input image; and a compressing means which compresses a first image which belongs to a first group based on the analysis result of the analysis means by a first compressing parameter, and compresses a second image which belongs to a second group by a second compressing parameter which has a possibility to deteriorate image quality than the first compressing parameter. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像圧縮技術に関わり、特にビットマップを辞書化して圧縮する技術に関する。   The present invention relates to an image compression technique, and more particularly, to a technique for converting a bitmap into a dictionary.

従来、2値画像を効率よく圧縮するために、画像ビットマップを辞書化してインデックス(該当辞書番号とその配置)と辞書を圧縮データとする方式を標準化したものとしてJBIG2があった。一方、OCRを圧縮に適用する際に、OCR結果の確からしさに応じて画像処理や信号変換・可逆・非可逆を切り替えたり(特許文献1)、辞書圧縮においてOCRの文字単位でビットマップを辞書化したり(特許文献2)、表があったりOCRで特定の文字があれば変換するファイルフォーマット(CSV、ハイパーリンク)を変更したりする(特許文献3)技術が開示されている。   Conventionally, in order to efficiently compress a binary image, JBIG2 has been standardized as a method of converting an image bitmap into a dictionary and using an index (corresponding dictionary number and its arrangement) and a dictionary as compressed data. On the other hand, when applying OCR to compression, image processing and signal conversion / reversible / irreversible are switched according to the accuracy of the OCR result (Patent Document 1), or a bitmap is dictionaryd in units of OCR characters in dictionary compression. (Patent Document 2), or a technique for changing a file format (CSV, hyperlink) to be converted if there is a table or there is a specific character in OCR (Patent Document 3).

しかしながら、OCRを圧縮に適用した方式では、情報そのものの重要度という概念が無いため、重要な情報がOCR・圧縮画像双方から欠落するおそれがある。   However, in a method in which OCR is applied to compression, there is no concept of importance of information itself, so that important information may be lost from both the OCR and the compressed image.

本発明の目的は、情報に応じた圧縮が可能な画像処理装置及び画像処理方法を提供することにある。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of compression according to information.

本発明の一実施形態に係る画像処理装置は、入力画像を分析する分析手段と、前記分析手段の分析結果に基づき第1のグループに属する第1の画像を第1の圧縮率で圧縮し、第2のグループに属する第2の画像を前記第1の圧縮パラメータより画像劣化をする可能性のある第2の圧縮パラメータで圧縮する圧縮手段と、を備える。なお、圧縮パラメータは、圧縮方法や劣化具合を設定できるパラメータとする。   An image processing apparatus according to an embodiment of the present invention compresses a first image belonging to a first group at a first compression rate based on an analysis unit that analyzes an input image, and an analysis result of the analysis unit, Compression means for compressing a second image belonging to the second group with a second compression parameter that may cause image degradation from the first compression parameter. The compression parameter is a parameter that can set the compression method and the degree of deterioration.

本発明の一実施形態に係る画像処理方法は、入力画像を分析し、分析結果に基づき第1のグループに属する第1の画像を第1の圧縮パラメータで圧縮し、第2のグループに属する第2の画像を前記第1の圧縮パラメータより画像劣化をする可能性のある第2の圧縮パラメータで圧縮する。   An image processing method according to an embodiment of the present invention analyzes an input image, compresses a first image belonging to the first group based on the analysis result with a first compression parameter, and converts the first image belonging to the second group. The second image is compressed with a second compression parameter that may cause image degradation from the first compression parameter.

本発明によれば、情報に応じた圧縮が可能な画像処理装置及び画像処理方法を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus and the image processing method which can be compressed according to information can be provided.

本発明の実施形態1−1に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus (image compression apparatus) according to Embodiment 1-1 of the present invention. レイアウト解析部1002の概略構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a schematic configuration of a layout analysis unit 1002. FIG. レイアウト解析部1002の動作の一例を示す図である。FIG. 10 is a diagram illustrating an example of the operation of a layout analysis unit 1002. 画像部品化部1003の概略構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a schematic configuration of an image component converting unit 1003. 部品画像算出の一例を示す図である。It is a figure which shows an example of component image calculation. 文字認識部1004の概略構成の一例を示す図である。5 is a diagram illustrating an example of a schematic configuration of a character recognition unit 1004. FIG. 文字分析部1005の概略構成の一例を示す図である。5 is a diagram illustrating an example of a schematic configuration of a character analysis unit 1005. FIG. 画像辞書化部1006の概略構成の一例を示す図である。5 is a diagram illustrating an example of a schematic configuration of an image dictionary unit 1006. FIG. キーワードTABLE1005−2の一例を示す図である。It is a figure which shows an example of the keyword TABLE1005-2. パラメータTABLE1006−3の一例を示す図である。It is a figure which shows an example of parameter TABLE1006-3. 本発明の実施形態1−2に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus (image compression apparatus) which concerns on Embodiment 1-2 of this invention. 文字分析部1005Aの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the character analysis part 1005A. キーワードTABLE1005A−2のTABLEデータの一例を示す図である。It is a figure which shows an example of TABLE data of keyword TABLE1005A-2. 本発明の実施形態2−1に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus (image compression apparatus) which concerns on Embodiment 2-1 of this invention. レイアウト解析部2002の概略構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a schematic configuration of a layout analysis unit 2002. FIG. オブジェクト属性判定部2002−4の動作を除いた領域検出動作の一例を示す図である。It is a figure which shows an example of the area | region detection operation | movement except the operation | movement of the object attribute determination part 2002-4. オブジェクト属性判定部2002−4の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the object attribute determination part 2002-4. オブジェクト判定データの一例を示す図である。It is a figure which shows an example of object determination data. オブジェクトの属性判定動作の一例を示す。An example of an object attribute determination operation will be described. 画像部品化部2003の概略構成の一例を示す図である。2 is a diagram illustrating an example of a schematic configuration of an image component converting unit 2003. FIG. 部品画像算出の一例を示す図である。It is a figure which shows an example of component image calculation. 画像辞書化部2004の概略構成の一例を示す図である。3 is a diagram illustrating an example of a schematic configuration of an image dictionary unit 2004. FIG. オブジェクト属性情報2012とマッチングパラメータ2004−5との関係を示す図である。It is a figure which shows the relationship between the object attribute information 2012 and the matching parameter 2004-5. 本発明の実施形態2−2に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus (image compression apparatus) which concerns on Embodiment 2-2 of this invention. レイアウト解析部2002Aの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the layout analysis part 2002A. 白地、非白地判定の一例を示す図である。It is a figure which shows an example of white background and non-white background determination. 画像辞書化部2004Aの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the image dictionary formation part 2004A. 非白地を準可逆、白地を非可逆にする例を示す図である。It is a figure which shows the example which makes a non-white background quasi-reversible and makes a white background irreversible. 白地上の文字に比べて、非白地上の文字が不安定になり易いことを示す図である。It is a figure which shows that the character on a non-white ground tends to become unstable compared with the character on a white ground. 本発明の実施形態2−3に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus (image compression apparatus) which concerns on Embodiment 2-3 of this invention. 画像辞書化部2004Bの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the image dictionary formation part 2004B. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. 図31に示す入力画像に対応した辞書情報の一例を示す図である。It is a figure which shows an example of the dictionary information corresponding to the input image shown in FIG. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. 図33に示す入力画像の先頭文字で圧縮し、この入力画像を復元した画像の一例を示す図である。It is a figure which shows an example of the image which compressed and restored this input image with the first character of the input image shown in FIG. 図33に示す入力画像の中の最適文字で圧縮し、この入力画像を復元した画像の一例を示す図である。It is a figure which shows an example of the image which compressed with the optimal character in the input image shown in FIG. 33, and decompress | restored this input image. 本発明の実施形態3−1に係る画像処理装置による圧縮処理の概念を示す図である。It is a figure which shows the concept of the compression process by the image processing apparatus which concerns on Embodiment 3-1 of this invention. 本発明の実施形態3−1に係る画像処理装置の詳細構成の一例を示す図である。It is a figure which shows an example of the detailed structure of the image processing apparatus which concerns on Embodiment 3-1 of this invention. 本発明の実施形態3−1に係る画像処理装置の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the image processing apparatus which concerns on Embodiment 3-1 of this invention. 本発明の実施形態3−1に係る圧縮処理の一例を示す図である。It is a figure which shows an example of the compression process which concerns on Embodiment 3-1 of this invention. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. 図40に示す入力画像に対応した辞書バッファの状態1を示す図である。It is a figure which shows the state 1 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像に対応した辞書バッファの状態2を示す図である。It is a figure which shows the state 2 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像に対応した辞書バッファの状態3を示す図である。It is a figure which shows the state 3 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像に対応した辞書バッファの状態4を示す図である。It is a figure which shows the state 4 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像に対応した辞書バッファの状態5を示す図である。It is a figure which shows the state 5 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像の先頭文字で圧縮し、この入力画像を復元した画像の一例を示す図である。It is a figure which shows an example of the image which compressed and restored this input image with the first character of the input image shown in FIG. 図40に示す入力画像の中の最適文字で圧縮し、この入力画像を復元した画像の一例を示す図である。It is a figure which shows an example of the image which compressed with the optimal character in the input image shown in FIG. 40, and decompress | restored this input image. 本発明の実施形態3−2に係る画像処理装置の詳細構成の一例を示す図である。It is a figure which shows an example of a detailed structure of the image processing apparatus which concerns on Embodiment 3-2 of this invention. 本発明の実施形態3−2に係る画像処理装置の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the image processing apparatus which concerns on Embodiment 3-2 of this invention. Symbolの画質向上の一例を示す図である。It is a figure which shows an example of the image quality improvement of Symbol. 本発明の実施形態4に係る画像処理装置の概略構成を示す図である。It is a figure which shows schematic structure of the image processing apparatus which concerns on Embodiment 4 of this invention. 本発明の実施形態4に係る画像処理装置の復号手段による復号処理のイメージを示す図である。It is a figure which shows the image of the decoding process by the decoding means of the image processing apparatus which concerns on Embodiment 4 of this invention. 本発明の実施形態4−1に係る画像処理装置の詳細構成の一例を示す図である。It is a figure which shows an example of the detailed structure of the image processing apparatus which concerns on Embodiment 4-1 of this invention. 本発明の実施形態4−1に係る画像処理装置の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the image processing apparatus which concerns on Embodiment 4-1 of this invention. 本発明の実施形態4−1に係る圧縮処理の一例を示す図である。It is a figure which shows an example of the compression process which concerns on Embodiment 4-1 of this invention. 図40に示す入力画像に対応した辞書バッファの状態1を示す図である。It is a figure which shows the state 1 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像に対応した辞書バッファの状態2を示す図である。It is a figure which shows the state 2 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像に対応した辞書バッファの状態3を示す図である。It is a figure which shows the state 3 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像に対応した辞書バッファの状態4を示す図である。It is a figure which shows the state 4 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像に対応した辞書バッファの状態5を示す図である。It is a figure which shows the state 5 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像に対応した辞書バッファの状態6を示す図である。It is a figure which shows the state 6 of the dictionary buffer corresponding to the input image shown in FIG. 図40に示す入力画像を圧縮し復元した画像の一例を示す図である。It is a figure which shows an example of the image which compressed and decompress | restored the input image shown in FIG. 本発明の実施形態4−2に係る画像処理装置の詳細構成の一例を示す図である。It is a figure which shows an example of the detailed structure of the image processing apparatus which concerns on Embodiment 4-2 of this invention. 本発明の実施形態4−2に係る画像処理装置の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the image processing apparatus which concerns on Embodiment 4-2 of this invention. 本発明の実施形態4−2に係る圧縮処理の一例を示す図である。It is a figure which shows an example of the compression process which concerns on Embodiment 4-2 of this invention. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. 図66に示す入力画像を緩い一致条件で圧縮し復元した復元画像の一例を示す図である。FIG. 67 is a diagram showing an example of a restored image obtained by compressing and restoring the input image shown in FIG. 66 under a loose matching condition. 図66に示す入力画像を厳しい一致条件で圧縮し復元した復元画像の一例を示す図である。FIG. 67 is a diagram showing an example of a restored image obtained by compressing and restoring the input image shown in FIG. 66 under strict matching conditions. 図66に示す入力画像を適切な一致条件で圧縮し復元した復元画像の一例を示す図である。FIG. 67 is a diagram showing an example of a restored image obtained by compressing and restoring the input image shown in FIG. 66 under appropriate matching conditions. 本発明の実施形態5−1に係る画像処理装置の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the image processing apparatus which concerns on Embodiment 5-1 of this invention. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. 図71に示す入力画像の左端の文字の処理結果を示す図である。It is a figure which shows the processing result of the character of the left end of the input image shown in FIG. 図71に示す入力画像の左から2番目の文字の処理結果を示す図である。FIG. 72 is a diagram illustrating a processing result of the second character from the left of the input image illustrated in FIG. 71. 図71に示す入力画像の左から3番目の文字の処理結果を示す図である。FIG. 72 is a diagram illustrating a processing result of the third character from the left of the input image illustrated in FIG. 71. 図71に示す入力画像の右端の文字の処理結果を示す図である。It is a figure which shows the processing result of the character of the right end of the input image shown in FIG. 本発明の実施形態5−1に係る画像処理装置のマッチングパラメータ決定部5001の詳細を示す図である。It is a figure which shows the detail of the matching parameter determination part 5001 of the image processing apparatus which concerns on Embodiment 5-1 of this invention. 本発明の実施形態5−2に係る画像処理装置の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the image processing apparatus which concerns on Embodiment 5-2 of this invention. 図71に示す入力画像の左端の文字の処理結果を示す図である。It is a figure which shows the processing result of the character of the left end of the input image shown in FIG. 図71に示す入力画像の左から2番目の文字の処理結果を示す図である。FIG. 72 is a diagram illustrating a processing result of the second character from the left of the input image illustrated in FIG. 71. 図71に示す入力画像の左から3番目の文字の処理結果を示す図である。FIG. 72 is a diagram illustrating a processing result of the third character from the left of the input image illustrated in FIG. 71. 図71に示す入力画像の右端の文字の処理結果を示す図である。It is a figure which shows the processing result of the character of the right end of the input image shown in FIG. 画像圧縮装置の一例を示す図である。It is a figure which shows an example of an image compression apparatus. テンプレートマッチングの精度向上・高速化に関する技術の一例を説明するための図である。It is a figure for demonstrating an example of the technique regarding the precision improvement and speeding-up of template matching. 本発明の実施形態6に係る画像処理装置の全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the image processing apparatus which concerns on Embodiment 6 of this invention. 補間画像を利用した画像圧縮の一例を示す図である。It is a figure which shows an example of the image compression using an interpolation image. 補間画像を利用した画像圧縮の一例を示す図である。It is a figure which shows an example of the image compression using an interpolation image. 補間画像を利用した画像圧縮の一例を示す図である。It is a figure which shows an example of the image compression using an interpolation image.

以下、図面を参照し、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態1−1に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。図1に示すように、画像処理装置の画像処理は、制御部1019により制御される。スキャナ1001は、入力画像(原稿画像)に対応した入力画像信号1010を出力する。レイアウト解析部1002は、所定のレイアウト解析技術を用いて、入力画像信号1010に含まれたオブジェクトのレイアウトを解析し、オブジェクト配置情報1011を出力する。画像部品化部1003は、所定の画像部品化技術とオブジェクト配置情報1011を用いて、画像信号1010を部品画像1012に変換する。   FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus (image compression apparatus) according to Embodiment 1-1 of the present invention. As shown in FIG. 1, the image processing of the image processing apparatus is controlled by the control unit 1019. The scanner 1001 outputs an input image signal 1010 corresponding to an input image (original image). The layout analysis unit 1002 analyzes a layout of an object included in the input image signal 1010 using a predetermined layout analysis technique, and outputs object arrangement information 1011. The image component conversion unit 1003 converts the image signal 1010 into a component image 1012 using a predetermined image component conversion technique and object arrangement information 1011.

文字認識部1004は、所定の文字認識技術を用いて、部品画像1012に対応した文字コード1013を出力し、文字分析部1005は、文字コード1013から文字分析情報1014を算出する。   The character recognition unit 1004 outputs a character code 1013 corresponding to the component image 1012 using a predetermined character recognition technique, and the character analysis unit 1005 calculates character analysis information 1014 from the character code 1013.

画像辞書化部1006は、所定のビットマップ辞書化技術と文字分析情報1014を用いて、部品画像1012に対応した画像辞書1015と辞書インデックス1015を出力する。画像符号化部1007は、画像辞書1015と辞書インデックス1015に対応した符号データ1017を出力する。画像ファイル部1008は、文字コード1013と符号データ1017に対応した検索可能圧縮ファイル1018を生成する。   The image dictionary unit 1006 outputs an image dictionary 1015 and a dictionary index 1015 corresponding to the component image 1012 using a predetermined bitmap dictionary technology and character analysis information 1014. The image encoding unit 1007 outputs code data 1017 corresponding to the image dictionary 1015 and the dictionary index 1015. The image file unit 1008 generates a searchable compressed file 1018 corresponding to the character code 1013 and the code data 1017.

図2は、レイアウト解析部1002の概略構成の一例を示すブロック図である。縮小処理部1002−1は、入力画像信号1010を既定の縮小率で縮小し、縮小画像1002−4を出力する。連結画素探索部1002−2は、所定のチェインアルゴリズムで8方向探索して、画素の連結した領域の左上座標、左下座標、右上座標、右下座標である領域情報1002−5を出力する。領域情報1002−5の座標は、縮小処理部1002−1で縮小処理した座標系であるので、領域座標変換部1002−3は、領域情報1002−5を、入力画像1010と同じ座標系に変換し、オブジェクト配置情報1011として出力する。   FIG. 2 is a block diagram illustrating an example of a schematic configuration of the layout analysis unit 1002. The reduction processing unit 1002-1 reduces the input image signal 1010 at a predetermined reduction rate, and outputs a reduced image 1002-4. The connected pixel search unit 1002-2 searches in eight directions using a predetermined chain algorithm, and outputs area information 1002-5 that is the upper left coordinates, lower left coordinates, upper right coordinates, and lower right coordinates of the areas where the pixels are connected. Since the coordinates of the area information 1002-5 are the coordinate system reduced by the reduction processing unit 1002-1, the area coordinate conversion unit 1002-3 converts the area information 1002-5 into the same coordinate system as the input image 1010. And output as object arrangement information 1011.

図3は、レイアウト解析部1002の動作の一例を示す図である。図3に示すように、入力画像信号1010に対応した入力画像の文字領域が一つの塊で部品画像として生成されているのがわかる。   FIG. 3 is a diagram illustrating an example of the operation of the layout analysis unit 1002. As shown in FIG. 3, it can be seen that the character area of the input image corresponding to the input image signal 1010 is generated as a part image in one block.

図4は、画像部品化部1003の概略構成の一例を示す図である。縦方向画素カウント部1003−1、横方向画素カウント部1003−2は、オブジェクト配置情報1011の座標単位で、画像信号1010を分割し、それぞれ縦軸、横軸への画素カウントの射影を算出し、縦方向の射影1003−6、横方向の射影1003−7として出力する。比較器1003−3は、射影値の分散の大きいほうを選択するよう、セレクタ1003−4を操作するよう制御信号1003−8を出力する。画素分割部1003−5は、選択された射影値を用いて、入力画像信号1010を分割して部品画像1012を出力する。   FIG. 4 is a diagram illustrating an example of a schematic configuration of the image component converting unit 1003. The vertical pixel count unit 1003-1 and the horizontal pixel count unit 1003-2 divide the image signal 1010 in the coordinate unit of the object arrangement information 1011 and calculate the projection of the pixel count on the vertical axis and the horizontal axis, respectively. Are output as a vertical projection 1003-6 and a horizontal projection 1003-7. The comparator 1003-3 outputs a control signal 1003-8 to operate the selector 1003-4 so as to select the one with the larger variance of the projection values. The pixel dividing unit 1003-5 divides the input image signal 1010 using the selected projection value and outputs a component image 1012.

図5は、部品画像算出の一例を示す図である。画像部品化部1003は、縦方向の射影1003−6と横方向の射影1003−7を比較し、分散の大きい横方向の射影を選択し、画素分割部1003−5で、射影に対して閾値処理を行うことで、横方向の分割座標を算出し(点線)、図5に示す「A」「B」「C」「D」「E」…で示された単位で部品画像1012として出力する。   FIG. 5 is a diagram illustrating an example of component image calculation. The image component converting unit 1003 compares the vertical projection 1003-6 and the horizontal projection 1003-7, selects a horizontal projection having a large variance, and the pixel dividing unit 1003-5 selects a threshold for the projection. By performing processing, the horizontal division coordinates are calculated (dotted line), and are output as a component image 1012 in the units indicated by “A”, “B”, “C”, “D”, “E”... Shown in FIG. .

図6は、文字認識部1004の概略構成の一例を示す図である。文字マッチング部1004−1は、入力された部品画像1012を変倍・2値化・特徴量算出などを行い、その特徴量を文字コード辞書1004−2のデータと比較し、最も一致度が高い辞書の文字コードを文字コード1013として出力する。   FIG. 6 is a diagram illustrating an example of a schematic configuration of the character recognition unit 1004. The character matching unit 1004-1 performs scaling / binarization / feature amount calculation on the input component image 1012, compares the feature amount with the data of the character code dictionary 1004-2, and has the highest degree of matching. The dictionary character code is output as the character code 1013.

図7は、文字分析部1005の概略構成の一例を示す図である。キーワードマッチング部1005−1は、文字コード1013を所定文字数バッファリングして、キーワードTABLE1005−2から所定文字数からなるキーワード1005−3を読み出しマッチングして、キーワードTABLE1005−2に登録されているキーワード1005−3と一致しているかどうかを文字分析情報1014として出力する。   FIG. 7 is a diagram illustrating an example of a schematic configuration of the character analysis unit 1005. The keyword matching unit 1005-1 buffers the character code 1013 for a predetermined number of characters, reads and matches the keyword 1005-3 having a predetermined number of characters from the keyword TABLE 1005-2, and matches the keyword 1005- registered in the keyword TABLE 1005-2. 3 is output as character analysis information 1014.

図8は、画像辞書化部1006の概略構成の一例を示す図である。ビットマップマッチング部1006−1は、上記辞書化の過程で保持したビットマップ1006−4が登録されているビットマップ辞書1006−2と、マッチングパラメータ1006−5が格納されているパラメータTABLE1006−3とからデータを受け取る。マッチング部1006−1は、所定の位置シフトとマッチング処理を組み合せて、部品画像1012がビットマップ辞書1006−2に存在するかどうか判断し、存在すれば、その辞書インデックス(辞書のインデックスと画像上の部品画像の位置情報)1016を出力する。マッチング部1006−1は、対応するビットマップパターンが辞書に無ければ、その部品画像1012を辞書に登録してインデックスを付与する。   FIG. 8 is a diagram illustrating an example of a schematic configuration of the image dictionary unit 1006. The bitmap matching unit 1006-1 includes a bitmap dictionary 1006-2 in which the bitmap 1006-4 held in the dictionary process is registered, and a parameter TABLE 1006-3 in which a matching parameter 1006-5 is stored. Receive data from. The matching unit 1006-1 determines whether the component image 1012 exists in the bitmap dictionary 1006-2 by combining a predetermined position shift and matching processing, and if it exists, the dictionary index (dictionary index and image Position information of the component image) 1016 is output. If there is no corresponding bitmap pattern in the dictionary, the matching unit 1006-1 registers the component image 1012 in the dictionary and assigns an index.

このマッチング動作時に、文字分析情報1014に応じてその属性に応じたマッチングパラメータ1006−5がパラメータTABLE1006−3から読み出されることで、文字の情報レベルに応じた圧縮が行なわれる。なお、キーワードマッチング部1005−1が所定文字数分バッファリングして文字列として文字情報分析する仕組みであるので、それに連動してビットマップマッチング部1006−1も部品画像1012をバッファリングして、分析結果と連動して処理する構成を取っている。   During this matching operation, the matching parameter 1006-5 corresponding to the attribute is read from the parameter TABLE 1006-3 according to the character analysis information 1014, so that compression according to the character information level is performed. Since the keyword matching unit 1005-1 buffers the predetermined number of characters and analyzes the character information as a character string, the bitmap matching unit 1006-1 also buffers the component image 1012 and analyzes it. It is configured to process in conjunction with the results.

このようにして、入力原稿の頁内の全オブジェクトに対する辞書化が終了すれば、辞書情報を画像辞書1015として出力する。   In this way, when dictionary formation is completed for all objects in the page of the input document, dictionary information is output as an image dictionary 1015.

そして画像符号化部1007は、画像辞書1015を所定の画像圧縮技術(例えばランレングス)で圧縮し、辞書インデックス1016と合わせて符号データ1017として出力し、画像ファイル部1008で文字コード1013と符号データ1017からなる検索可能な圧縮ファイル1018を生成する。   Then, the image encoding unit 1007 compresses the image dictionary 1015 with a predetermined image compression technique (for example, run length), outputs it together with the dictionary index 1016, and outputs it as code data 1017. The image file unit 1008 outputs the character code 1013 and the code data. A searchable compressed file 1018 consisting of 1017 is generated.

図9A及び図9Bは、文字分析情報とマッチング精度パラメータの関係の一例を示す図である。図9Aに示すように、キーワードTABLE1005−2には、第1のグループに属する情報が登録される。つまり、キーワードTABLE1005−2には、数字とアルファベットを間違い易い”o”、”l”、”0”、”1”と、会社名”XYZ.CoLtd”とアルファベット部を数字に間違えた”XYZ.C0Ltd”が登録されており、夫々文字分析情報1、2、登録外のデータは0となっている。   9A and 9B are diagrams illustrating an example of a relationship between character analysis information and a matching accuracy parameter. As shown in FIG. 9A, information belonging to the first group is registered in the keyword TABLE1005-2. In other words, the keyword TABLE1005-2 includes “o”, “l”, “0”, “1”, which are easy to mistake numbers and alphabets, and “XYZ. C0Ltd "is registered, and character analysis information 1 and 2 and unregistered data are 0, respectively.

図9Bに示すように、パラメータTABLE1006−3では文字分析情報1014に応じて
0:非可逆(通常のマッチング精度のパラメータ)
1:準可逆(通常より若干精度を高めた、完全一致に近い結果が得られるパラメータ)
2:可逆(ぴったり一致したもののみを一致したとみなすパラメータ)
となっている。このため、会社名の様な重要な情報は可逆(第1の圧縮パラメータの圧縮)で、数字とアルファベットなどOCRで間違い易いがユーザが見て間違いと判る可能性があるデータは準可逆(第1の圧縮パラメータより画像劣化をする可能性のある第2の圧縮パラメータの圧縮)、それ以外は非可逆(第2の圧縮パラメータより画像劣化をする可能性のある第3の圧縮パラメータの圧縮)と、文字の情報レベルに応じてマッチング精度を変えることで、圧縮による情報の劣化をカバーすると共に高圧縮が実現できる。なお、本例では会社名等もOCRで間違える可能性を考慮して2重に登録している。なお、圧縮パラメータは、圧縮方法や劣化具合を設定できるパラメータとする。
As shown in FIG. 9B, in parameter TABLE 1006-3, 0: irreversible (normal matching accuracy parameter) according to character analysis information 1014
1: Quasi-reversible (a parameter that gives results close to perfect match with slightly higher accuracy than usual)
2: Reversible (a parameter that considers only a perfect match)
It has become. For this reason, important information such as the company name is reversible (compression of the first compression parameter), and data that may be mistaken for OCR, such as numbers and alphabets, but is likely to be mistaken by the user is quasi-reversible (first The compression of the second compression parameter that may cause image degradation from the compression parameter of 1), and irreversible (compression of the third compression parameter that may cause image degradation from the second compression parameter) otherwise By changing the matching accuracy according to the character information level, it is possible to cover the deterioration of information due to compression and realize high compression. In this example, the company name is also registered twice in consideration of the possibility of mistakes in OCR. The compression parameter is a parameter that can set the compression method and the degree of deterioration.

以上により、OCRの結果から算出される情報のレベルに応じて、圧縮パラメータを制御できるので、画質・情報のバランスの取れた高圧縮ファイルが生成できる。   As described above, the compression parameter can be controlled in accordance with the level of information calculated from the OCR result, so that a highly compressed file with a balanced image quality and information can be generated.

また、上記実施形態では、圧縮方式は辞書化方式で統一して記述したが、可逆圧縮は辞書マッチングを介さずに、直接圧縮する構成にして圧縮速度を向上する方式を取ることも可能である。   In the above-described embodiment, the compression method is described as a unified dictionary method. However, the lossless compression method can be directly compressed without using dictionary matching to improve the compression speed. .

また、文字分析情報はキーワードを元に、有無という単純なルールで構成したが、分析情報の構成としては、例えば”¥”や”$”という特定のキーワードに続く数字又は数列(長さは不定)というルールを適用すれば、単なる数字でなく金額という概念の情報として制御可能になる。   In addition, the character analysis information is composed of simple rules such as presence / absence based on keywords, but the analysis information is composed of, for example, a number or a numeric string (length is indefinite) following a specific keyword such as “¥” or “$”. ), It is possible to control information not as a simple number but as a concept of money.

またOCRでは実際の文字よりも文字数が増減する可能性があるが(例えば”XYZCoLtd”等)、それらを考慮してキーワード登録をしてより確実性を増すことも可能であるし、OCRの確からしさ情報を利用して、その様な候補に対するマッチング範囲を制御して高速化することも可能である。   In OCR, the number of characters may increase or decrease compared to actual characters (for example, “XYZCoLtd”, etc.). However, it is possible to increase the certainty by registering keywords taking these into account. Using the uniqueness information, it is also possible to control the matching range for such candidates and increase the speed.

更には、アルファベット等の英字、ひらがな、漢字等の言語種別に応じて、辞書化対象に入れるか、入れないか、マッチング精度変える等の構成や、言語種別において、例えばアルファベットの”m”や”n”の出現頻度多さと間違い易さのバランスで制御することで画質と情報のバランスを考慮した制御を実現できる。   Furthermore, according to the language type such as alphabetic characters such as alphabet, hiragana, kanji, etc., the configuration such as whether to include in the dictionary or not, whether the matching accuracy is changed, and the language type, for example, “m” or “ Control in consideration of the balance between image quality and information can be realized by controlling the balance between the frequency of occurrence of n ″ and the ease of error.

また、画像部品化部で部品化したデータを文字認識、画像辞書化で共通に使用したが両者の対象文字が特定できれば、当然別々の構成を取ることも可能であり、レイアウト解析方法や、文字認識の方法、辞書化や圧縮方法等は本実施形態に限定されるものではなく、パラメータの制御方法・可逆非可逆などの適用方法も本実施形態に限定されるものではない。   In addition, although the data converted into parts by the image componentization unit is commonly used for character recognition and image dictionary conversion, if both target characters can be identified, it is naturally possible to take different configurations, such as layout analysis methods, A recognition method, dictionary formation, compression method, and the like are not limited to the present embodiment, and application methods such as a parameter control method and a reversible lossy method are not limited to the present embodiment.

図10は、本発明の実施形態1−2に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。図10に示す画像処理装置において、実施形態1−1と共通するブロックには、図1の画像処理装置に付与した符号と同一の符号を付与している。   FIG. 10 is a block diagram showing a schematic configuration of an image processing apparatus (image compression apparatus) according to Embodiment 1-2 of the present invention. In the image processing apparatus shown in FIG. 10, the same reference numerals as those assigned to the image processing apparatus in FIG.

文字分析部1005A、文字分析部1005Aからの出力である文字分析情報1014A、画像ファイル部1008A、検索可能な圧縮ファイル1018Aが、実施形態1−1と若干異なる点である。また、MMR圧縮部1009A、全面圧縮データ1019Aが、追加されている。   The character analysis unit 1005A, the character analysis information 1014A output from the character analysis unit 1005A, the image file unit 1008A, and the searchable compressed file 1018A are slightly different from the embodiment 1-1. Further, an MMR compression unit 1009A and full-surface compression data 1019A are added.

図11は、文字分析部1005Aの概略構成の一例を示す図である。キーワードTABLE1005A−2が、実施形態1−1と異なる。図12は、キーワードTABLE1005A−2のTABLEデータの一例を示す図である。図12に示すように文字分析情報1014Aは、0〜3の4レベルで示される。実施形態1−1では0〜2の3レベルであったが、実施形態1−1では0〜3の4レベルである。キーワードTABLE1005A−2には、”Confidential”及び、その単語”Confidential”のOCRで間違えるリスクの高いキーワードが登録され、これら登録キーワードに対してレベル3(文字分析情報1014A)が設定される。   FIG. 11 is a diagram illustrating an example of a schematic configuration of the character analysis unit 1005A. The keyword TABLE1005A-2 is different from the embodiment 1-1. FIG. 12 is a diagram illustrating an example of TABLE data of the keyword TABLE1005A-2. As shown in FIG. 12, the character analysis information 1014A is shown in four levels of 0-3. In the embodiment 1-1, there are 3 levels from 0 to 2, but in the embodiment 1-1, there are 4 levels from 0 to 3. In the keyword TABLE 1005A-2, “Confidential” and a keyword with a high risk of being mistaken in the OCR of the word “Confidential” are registered, and level 3 (character analysis information 1014A) is set for these registered keywords.

MMR圧縮1009Aは、所定の2値圧縮方法で全面2値画像として、画像全体を可逆圧縮し、全面圧縮データ1019Aとして出力する。画像ファイル部1008Aは、文字分析情報1014Aが”3”を示したとき以外は、実施形態1−1と同様、符号データ1017と文字コード1013から検索可能な圧縮ファイル1018Aを生成する。文字分析情報1014Aが”3”を示したときは、全面圧縮データ1019Aと文字コード1013から検索可能な圧縮ファイル1018Aを生成する。   The MMR compression 1009A reversibly compresses the entire image as a full binary image by a predetermined binary compression method, and outputs it as full compressed data 1019A. The image file unit 1008A generates a searchable compressed file 1018A from the code data 1017 and the character code 1013, as in the case of Embodiment 1-1, except when the character analysis information 1014A indicates “3”. When the character analysis information 1014A indicates “3”, a searchable compressed file 1018A is generated from the entire compressed data 1019A and the character code 1013.

以上により、”Confidential等の文書全体が非常に重要である可能性がある文書を情報劣化のリスクのある圧縮方式でなく、劣化の無い圧縮方式で圧縮ファイルを生成できるので、画質と情報のバランスを考慮した圧縮ファイルを提供できる。   As described above, a compressed file can be generated with a compression method that does not have a risk of information degradation, instead of a compression method that has a risk of information degradation, such as “Confidential”. Compressed files that take into account can be provided.

以下に、上記した実施形態1−1と1−2についてまとめる。   The above-described Embodiments 1-1 and 1-2 are summarized below.

(1)画像処理装置は、画像を入力する画像入力部と該画像を文字認識し文字情報を出力する文字認識部と、該画像をパラメータで可逆、非可逆等の圧縮性能を制御できる画像圧縮部を持つことを特徴とする画像処理装置であって、該文字情報を分析する文字分析部を持ち、該画像圧縮部は該文字分析結果に応じて圧縮性能を制御する。文字認識結果で圧縮率を制御するので、高画質・高圧縮を実現できる。   (1) An image processing apparatus includes an image input unit that inputs an image, a character recognition unit that recognizes the image and outputs character information, and image compression that can control compression performance such as reversible and irreversible using the image as a parameter. The image processing apparatus includes a character analysis unit that analyzes the character information, and the image compression unit controls compression performance according to the character analysis result. Since the compression rate is controlled by the character recognition result, high image quality and high compression can be realized.

(2)画像処理装置は、画像を入力する画像入力部と該画像を文字認識し文字情報を出力する文字認識部と、該画像を部品化し部品画像を出力する画像部品化部と該部品画像を辞書化し画像辞書と該部品画像の辞書インデックスを出力する画像辞書化部と、該画像辞書と該辞書インデックスを符号化する画像符号化部持つことを特徴とする画像処理装置であって、該文字情報を分析する文字分析部を持ち、該画像辞書化部は該文字分析結果に応じて辞書化精度を制御する。文字認識結果で辞書化方式のマッチング度を制御するので、高画質・高圧縮を実現できる。   (2) An image processing apparatus includes an image input unit that inputs an image, a character recognition unit that recognizes the image and outputs character information, an image componentization unit that converts the image into a component and outputs a component image, and the component image An image dictionary, an image dictionary that outputs an image dictionary and a dictionary index of the component image, and an image encoding unit that encodes the image dictionary and the dictionary index, A character analysis unit that analyzes character information is included, and the image dictionary unit controls dictionary accuracy according to the character analysis result. Since the matching level of the dictionary system is controlled by the character recognition result, high image quality and high compression can be realized.

(3)画像処理装置は、画像を入力する画像入力部と該画像を文字認識し文字情報を出力する文字認識部と、該画像を部品化し部品画像を出力する画像部品化部と該部品画像を辞書化し画像辞書と該部品画像の辞書インデックスを出力するか辞書化せずに独立画像として出力する画像辞書化部と、該画像辞書と該辞書インデックス及び該独立画像を符号化する画像符号化部持つことを特徴とする画像処理装置であって、該文字情報を分析する文字分析部を持ち、該画像辞書化部は該文字分析結果に応じて画像辞書か独立画像を選択出力する。文字認識結果でインデックス/非インデックス符号化を切り替えるので高画質・高圧縮・高速を実現できる。   (3) An image processing apparatus includes an image input unit that inputs an image, a character recognition unit that recognizes the image and outputs character information, an image componentization unit that converts the image into a component and outputs a component image, and the component image An image dictionary and an image dictionary that outputs an image dictionary and a dictionary index of the component image or outputs it as an independent image without dictionary, and an image encoding that encodes the image dictionary, the dictionary index, and the independent image The image processing apparatus has a character analysis unit that analyzes the character information, and the image dictionary unit selectively outputs an image dictionary or an independent image according to the character analysis result. Since index / non-index encoding is switched according to the character recognition result, high image quality, high compression, and high speed can be realized.

(4)画像処理装置は、画像を入力する画像入力部と該画像を文字認識し文字情報を出力する文字認識部と、該画像をパラメータで可逆、非可逆等の圧縮性能を制御できる画像圧縮部を持つことを特徴とする画像処理装置であって、該文字情報を分析する文字分析部を持ち、該画像圧縮部は該文字分析結果に応じて圧縮性能を制御し、該文字分析結果とはキーワードや文字種別等の特定の文字である。文字認識結果で特定のキーワードは可逆になる確率を高めるので、高画質・高圧縮を実現できる。   (4) An image processing apparatus includes an image input unit that inputs an image, a character recognition unit that recognizes the image and outputs character information, and image compression that can control compression performance such as reversible and irreversible using the image as a parameter. An image processing apparatus comprising: a character analysis unit that analyzes the character information, wherein the image compression unit controls compression performance according to the character analysis result; and Is a specific character such as a keyword or character type. Since the probability that a specific keyword is reversible in the character recognition result is increased, high image quality and high compression can be realized.

(5)画像処理装置は、画像を入力する画像入力部と該画像を文字認識し文字情報を出力する文字認識部と、該画像をパラメータで可逆、非可逆等の圧縮性能を制御できる画像圧縮部を持つことを特徴とする画像処理装置であって、該文字情報を分析する文字分析部を持ち、該画像圧縮部は該文字分析結果に応じて圧縮性能を制御し、該文字分析結果とはキーワードや文字種別等の特定の文字及びその文字に似た文字である。文字認識結果で特定のキーワード及びそれに近似したデータとそれ以外で圧縮を制御するので、OCRの精度も考慮して、高画質・高圧縮を実現できる。   (5) An image processing apparatus includes an image input unit that inputs an image, a character recognition unit that recognizes the image and outputs character information, and image compression that can control compression performance such as reversible and irreversible using the image as a parameter. An image processing apparatus comprising: a character analysis unit that analyzes the character information, wherein the image compression unit controls compression performance according to the character analysis result; and Is a specific character such as a keyword or character type and a character similar to the character. Since the compression is controlled by a specific keyword and data approximated by the character recognition result and other data, high image quality and high compression can be realized in consideration of OCR accuracy.

(6)画像処理装置は、画像を入力する画像入力部と該画像を文字認識し文字情報を出力する文字認識部と、該画像をパラメータで可逆、非可逆等の圧縮性能を制御できる画像圧縮部を持つことを特徴とする画像処理装置であって、該文字情報を分析する文字分析部を持ち、該画像圧縮部は該文字分析結果に応じて圧縮性能を制御し、該文字分析結果とは言語種別である。文字認識結果で言語種別に応じて圧縮を制御するので、英語・ひらがな等言語を表現する文字の特性に応じた制御が出来るので、高画質・高圧縮を実現できる。   (6) An image processing apparatus includes an image input unit that inputs an image, a character recognition unit that recognizes the image and outputs character information, and image compression that can control compression performance such as reversible and irreversible using the image as a parameter. An image processing apparatus comprising: a character analysis unit that analyzes the character information, wherein the image compression unit controls compression performance according to the character analysis result; and Is a language type. Since compression is controlled according to the language type in the character recognition result, control according to the characteristics of characters expressing languages such as English and Hiragana can be performed, so that high image quality and high compression can be realized.

(7)画像処理装置は、画像を入力する画像入力部と該画像を文字認識し文字情報を出力する文字認識部と、該画像をパラメータで可逆、非可逆等の圧縮性能を制御できる画像圧縮部を持つことを特徴とする画像処理装置であって、該文字情報を分析する文字分析部を持ち、該画像圧縮部は該文字分析結果に応じて圧縮性能を制御し、該文字分析結果とは言語種別と該言語における当該文字の出現頻度である。文字認識結果で言語種別に応じて圧縮を制御するので、英語・ひらがな等言語を表現する文字とその言語における文字の特性に応じた制御が出来るので、高画質・高圧縮・高速を実現できる。   (7) An image processing apparatus includes an image input unit that inputs an image, a character recognition unit that recognizes the image and outputs character information, and image compression that can control compression performance such as reversible and irreversible using the image as a parameter. An image processing apparatus comprising: a character analysis unit that analyzes the character information, wherein the image compression unit controls compression performance according to the character analysis result; and Is the language type and the appearance frequency of the character in the language. Since the compression is controlled according to the language type in the character recognition result, it is possible to control according to the character expressing the language such as English and hiragana and the character of the language, so that high image quality, high compression and high speed can be realized.

(8)画像処理装置は、画像を入力する画像入力部と該画像を文字認識し文字情報を出力する文字認識部と、該画像を異なる圧縮方式で圧縮できる画像圧縮部を持つことを特徴とする画像処理装置であって、該文字情報を分析する文字分析部を持ち、該画像圧縮部は該文字分析結果に応じて圧縮方式を制御する。文字認識結果で辞書化方式のマッチング度を制御するので、高画質・高圧縮を実現できる。   (8) The image processing apparatus includes an image input unit that inputs an image, a character recognition unit that recognizes the image and outputs character information, and an image compression unit that can compress the image using different compression methods. The image processing apparatus includes a character analysis unit that analyzes the character information, and the image compression unit controls a compression method according to the character analysis result. Since the matching level of the dictionary system is controlled by the character recognition result, high image quality and high compression can be realized.

以上により、例えば、文字認識結果の文字コード情報から、特定キーワードやOCRと辞書マッチング双方で欠落し易い“l”や“1”等の抽出された文字コードが属するビットマップは可逆圧縮する。更には、言語の種別に応じて辞書化精度を制御し、字数の多い漢字などは辞書化対象からはずし、高圧縮化する。   As described above, for example, a bitmap to which a character code extracted such as “l” or “1” that is likely to be lost in both the specific keyword and OCR and dictionary matching from the character code information of the character recognition result is losslessly compressed. Furthermore, dictionary accuracy is controlled in accordance with the type of language, and kanji characters with a large number of characters are removed from the dictionary target and highly compressed.

以上により、抽出した文字情報に応じて画像品質を制御できるので、重要な情報の欠落を避けることができる。重要な情報とは、登録キーワード、数字、間違え易い文字・数字である。また、圧縮率向上のため、画数の多い漢字・漢字そのもの、言語で辞書マッチングしない。もしくは、言語を判定して、その言語で出現頻度の多い字の精度をゆるく(高圧縮)したり、厳しく(高画質)したり、インデックス張替え(高速)したりする。辞書化方法は、マッチング精度を厳しく(可逆辞書化)したり、辞書化対象からはずしたり(非辞書化圧縮)する。更に、登録キーワードを見つけると、JBIG2だけでなく全般の圧縮率を低くしたり、全面JPEGで処理したりする。   As described above, since the image quality can be controlled according to the extracted character information, it is possible to avoid missing important information. Important information includes registered keywords, numbers, and letters and numbers that are easily mistaken. Also, to improve the compression rate, dictionary matching is not performed with kanji, kanji itself, or languages with a large number of strokes. Alternatively, the language is determined, and the accuracy of characters frequently appearing in the language is loosened (high compression), strict (high image quality), or index replacement (high speed) is performed. In the lexicographic method, the matching accuracy is made strict (reversible lexicographic) or excluded from the lexicographic target (non-lexicographic compression). Further, when a registered keyword is found, not only JBIG2 but also the overall compression rate is lowered, or the entire image is processed with JPEG.

以下、非辞書化と辞書化について例示する。   Hereinafter, non-dictionary and lexicization will be exemplified.

爨→画数が多い(文字コードで判断)ため非辞書化
丸→画数が少ないため辞書化
○、o、O、0→マッチングを間違うと(OCR・辞書共)意味が異なるため非辞書化で可逆圧縮
1,2,3…→マッチングを間違うと重大なミスにつながるので非辞書化し可逆圧縮
¥、$のある前後の文字→マッチングを間違うと重大なミスにつながるので非辞書化し可逆圧縮
秘・キーワード・会社名・人物名→マッチングを間違うと重大なミスにつながるので非辞書化し可逆圧縮
アルファベット・数字・ひらがな・カナ→辞書化、漢字→非辞書化
なお、上記した可逆圧縮とは第1の圧縮パラメータの圧縮であり、元の画像を100%に限りなく近い状態で再現することができる圧縮である。準可逆圧縮とは第1の圧縮パラメータより画像劣化をする可能性のある第2の圧縮パラメータの圧縮であり、元の画像をほぼ忠実に再現することができる圧縮である。非可逆圧縮とは第2の圧縮パラメータより画像劣化をする可能性のある第3の圧縮パラメータの圧縮であり、元の画像をおよそ忠実に再現することができる圧縮である。なお、圧縮パラメータは、圧縮方法や劣化具合を設定できるパラメータとする。
爨 → Non-dictionary because of the large number of strokes (judged by character code) Circle → License-based because the number of strokes is small ○, o, O, 0 → If matching is wrong (both OCR and dictionary), meaning is different and non-dictionary is reversible Compression 1, 2, 3 ... → Mismatching leads to a serious mistake, so it is lexicographically and losslessly compressed. Characters before and after $, $ → Mismatching leads to a serious mistake.・ Company name / person name → Mismatching will lead to a serious mistake, so it will be lexicographically and losslessly compressed Alphabet / Number / Hiragana / Kana → Dictionary, Kanji → Nondictionary Note that the above lossless compression is the first compression This is compression of parameters, and is compression that can reproduce an original image in a state close to 100%. The quasi-reversible compression is compression of the second compression parameter that may cause image degradation from the first compression parameter, and is compression that can reproduce the original image almost faithfully. The lossy compression is compression of a third compression parameter that may cause image degradation from the second compression parameter, and is compression that can reproduce the original image approximately faithfully. The compression parameter is a parameter that can set the compression method and the degree of deterioration.

図13は、本発明の実施形態2−1に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。図13に示すように、画像処理装置の画像処理は、制御部2006により制御される。スキャナ2001は、入力画像(原稿画像)に対応した入力画像信号2010を出力する。レイアウト解析部2002は、所定のレイアウト解析技術を用いて、スキャナ2001から入力された画像信号2010に対応したオブジェクト配置情報2011とオブジェクト属性情報2012を出力する。   FIG. 13 is a block diagram illustrating a schematic configuration of an image processing apparatus (image compression apparatus) according to Embodiment 2-1 of the present invention. As shown in FIG. 13, the image processing of the image processing apparatus is controlled by the control unit 2006. The scanner 2001 outputs an input image signal 2010 corresponding to an input image (original image). The layout analysis unit 2002 outputs object arrangement information 2011 and object attribute information 2012 corresponding to the image signal 2010 input from the scanner 2001 using a predetermined layout analysis technique.

画像部品化部2003は、オブジェクト配置情報2011を用いて、入力画像信号2010に対応した部品画像2013を出力する。   The image component converting unit 2003 uses the object arrangement information 2011 to output a component image 2013 corresponding to the input image signal 2010.

画像辞書化部2004は、所定のビットマップ辞書化技術とオブジェクト属性情報2012を用いて、部品画像2013に対応した画像辞書2014と辞書インデックス2015を出力し、画像符号化部2005で符号データ2016を生成出力する。   The image dictionary unit 2004 outputs an image dictionary 2014 and a dictionary index 2015 corresponding to the component image 2013 using a predetermined bitmap dictionary forming technique and object attribute information 2012, and the image encoding unit 2005 outputs the code data 2016. Generate and output.

図14は、レイアウト解析部2002の概略構成の一例を示すブロック図である。縮小処理部2002−1は、入力画像信号2010を既定の縮小率で縮小し、縮小画像信号2002−6を出力する。連結画素探索部2002−2は、所定のチェインアルゴリズムで8方向探索して、画素の連結した領域の左上座標、左下座標、右上座標、右下座標である領域情報2002−7を出力する。領域情報2002−7の座標は、縮小処理部2002−1で縮小処理した座標系であるので、領域座標変換部2002−3は、領域情報2002−7を、入力画像2010と同じ座標系に変換し、オブジェクト配置情報2011として出力する。   FIG. 14 is a block diagram illustrating an example of a schematic configuration of the layout analysis unit 2002. The reduction processing unit 2002-1 reduces the input image signal 2010 at a predetermined reduction rate, and outputs a reduced image signal 2002-6. The connected pixel search unit 2002-2 searches in eight directions using a predetermined chain algorithm, and outputs area information 2002-7 that is the upper left coordinates, lower left coordinates, upper right coordinates, and lower right coordinates of the areas where the pixels are connected. Since the coordinates of the region information 2002-7 are the coordinate system reduced by the reduction processing unit 2002-1, the region coordinate conversion unit 2002-3 converts the region information 2002-7 into the same coordinate system as the input image 2010. And output as object arrangement information 2011.

一方、オブジェクト属性判定部2002−4は、入力画像の頁内の領域情報2002−7を集計して、TABLE2002−5から読み出したオブジェクト判定データ2002−8と比較し、オブジェクト属性情報2012を出力する。   On the other hand, the object attribute determination unit 2002-4 aggregates the area information 2002-7 in the page of the input image, compares it with the object determination data 2002-8 read from TABLE2002-5, and outputs object attribute information 2012. .

図15は、オブジェクト属性判定部2002−4の動作を除いた領域検出動作の一例を示す図である。   FIG. 15 is a diagram illustrating an example of the region detection operation excluding the operation of the object attribute determination unit 2002-4.

入力画像2010を縮小処理することで、縮小画像2002−6では、文字等が連結した画素になることがわかる。この画像に対して所定のチェインアルゴリズムを用いて、連結した領域を算出すると、図15の点線で示したような各固まり毎の複数の領域2002−7が算出される。この領域2002−7の座標を変換すれば、座標系を縮小前に戻したオブジェクト配置情報2011が算出される。   By reducing the input image 2010, it can be seen that in the reduced image 2002-6, pixels and the like are connected. When a connected region is calculated for this image using a predetermined chain algorithm, a plurality of regions 2002-7 for each cluster as shown by the dotted lines in FIG. 15 are calculated. If the coordinates of the region 2002-7 are converted, the object arrangement information 2011 in which the coordinate system is returned to before the reduction is calculated.

図16は、オブジェクト属性判定部2002−4の概略構成の一例を示す図である。領域情報2002−7を用いて、各領域毎の高さ2002−4−4=Hを以下のように求める。   FIG. 16 is a diagram illustrating an example of a schematic configuration of the object attribute determination unit 2002-4. Using the region information 2002-7, the height 2002-4-4 = H for each region is obtained as follows.

H=MIN(|左上X座標−右下X座標|、|左上Y座標−右下Y座標|)
入力画像の頁内の各オブジェクトの高さの中央値を領域高さ中央値2002−4−5として算出する。
H = MIN (| upper left X coordinate−lower right X coordinate |, | upper left Y coordinate−lower right Y coordinate |)
The median height of each object in the page of the input image is calculated as the median region height 2002-4-5.

領域距離算出部2002−4−2は、各領域のセンター座標2002−4−6を求め、各センター座標毎に最も近いセンター座標2002−4−7と2002−4−8を求め、判断部2002−4−3に出力する。   The area distance calculation unit 2002-4-2 obtains the center coordinates 2002-4-6 of each area, obtains the nearest center coordinates 2002-4-7 and 2002-4-8 for each center coordinate, and determines the judgment part 2002. Output to -4--3.

判断部2002−4−3では、各領域毎の高さ2002−4−4と領域高さ中央値2002−4−5の差分を取り、既定値より大きいかどうか領域高さ差分として計算する。   The determination unit 2002-4-3 takes the difference between the height 2002-4-4 and the median height of the region 2002-4-5 for each region, and calculates whether the difference is greater than the predetermined value as the region height difference.

センター符号、センター差分はそれぞれ以下の式で算出する。   The center code and the center difference are calculated by the following equations, respectively.

差分A=2002−4−6 − 2002−4−7
差分B=2002−4−6 − 2002−4−8
センター符号=差分A×差分B の符号
センター差分=| |差分A|−|差分B| |
即ち、センター符号は、処理領域の上下もしくは左右夫々に近いオブジェクトが存在すれば負、下に二つ等と同一方向に並んだときは正となる。
Difference A = 2002-4-6−2002-4-7
Difference B = 2002-4-6−2002-4-8
Center code = difference A × sign of difference B center difference = | | difference A | − | difference B |
That is, the center code is negative when there are objects close to the top and bottom of the processing area, or right and left, and is positive when the objects are arranged in the same direction as two below.

センター差分は、各オブジェクトと対象オブジェクトの距離の差が2つとも大きいか差がある状態を算出する。   As the center difference, a state is calculated in which the difference in distance between each object and the target object is large or different.

そこで、図17に示すオブジェクト判定データを用いて、オブジェクトの属性を判定し、オブジェクト属性情報2012として出力する。   Therefore, the object attribute data shown in FIG. 17 is used to determine the attribute of the object and output as object attribute information 2012.

図18は、オブジェクトの属性判定動作の一例を示す。図18中の各斜線が判定対象オブジェクトであり、obj1、obj2が選択された最も近い2つのオブジェクトとすると、図18(a)、図18(b)は、高さが他のオブジェクトより大きいか、最上位の位置に属するなどで、タイトルの可能性が高い。   FIG. 18 shows an example of an attribute determination operation for an object. Each diagonal line in FIG. 18 is an object to be determined, and obj1 and obj2 are the two closest objects selected. In FIG. 18 (a) and FIG. 18 (b), are the heights higher than other objects? The title is highly likely to belong to the highest position.

図18(c)は高さは小さく、配置も他のオブジェクト内であるが、2つのオブジェクト間の距離に違いがあるため、段落の変わり目などの見出し語の可能性が高い。   In FIG. 18C, the height is small and the arrangement is within other objects, but the distance between the two objects is different, so there is a high possibility of a headword such as a paragraph change.

図18(d)は何れでもないので、通常の本文の可能性が高い。   Since FIG. 18D is neither, there is a high possibility of a normal text.

図19は、画像部品化部2003の概略構成の一例を示す図である。横方向画素カウント部2003−2及び横方向画素カウント部2003−2は、オブジェクト配置情報2011の座標単位で、画像信号2010を分割し、縦軸、横軸への画素カウントの射影を算出し、縦方向の射影2003−6、横方向の射影2003−7として出力する。   FIG. 19 is a diagram illustrating an example of a schematic configuration of the image component converting unit 2003. The horizontal pixel count unit 2003-2 and the horizontal pixel count unit 2003-2 divide the image signal 2010 in the coordinate unit of the object arrangement information 2011, calculate the projection of the pixel count on the vertical axis and the horizontal axis, Output as a vertical projection 2003-6 and a horizontal projection 2003-7.

比較器2003−3は、射影値の分散の大きいほうを選択するよう、セレクタ2003−4を操作するよう制御信号2003−8を出力する。   The comparator 2003-3 outputs a control signal 2003-8 to operate the selector 2003-4 so as to select the one having the larger variance of the projection values.

画素分割部2003−5は、選択された射影値を用いて、画像2010を分割して部品画像2013を出力する。   The pixel dividing unit 2003-5 divides the image 2010 using the selected projection value and outputs a component image 2013.

図20は、部品画像算出の一例を示す図である。画像部品化部2003は、縦方向の射影2003−6と横方向の射影2003−7を比較し、分散の大きい横方向の射影を選択し、画素分割部2003−5で、射影に対して閾値処理を行うことで、横方向の分割座標を算出し(点線)、図20に示す「A」「B」「C」「D」「E」…で示された単位で部品画像1012として出力する。   FIG. 20 is a diagram illustrating an example of component image calculation. The image componentizing unit 2003 compares the vertical projection 2003-6 and the horizontal projection 2003-7, selects a horizontal projection with a large variance, and the pixel dividing unit 2003-5 sets a threshold for the projection. By performing processing, horizontal division coordinates are calculated (dotted line), and output as a component image 1012 in the units indicated by “A”, “B”, “C”, “D”, “E”,. .

図21は、画像辞書化部2004の概略構成の一例を示す図である。ビットマップマッチング部2004−1は、上記辞書化の過程で保持したビットマップ2004−4が登録されているビットマップ辞書2004−2と、マッチングパラメータ2004−5が格納されているパラメータTABLE2004−3とからデータを受け取る。ビットマップマッチング部2004−1は、所定の位置シフトとマッチング処理を組み合せて、部品画像2013がビットマップ辞書2004−2に存在するかどうか判断し、存在すれば、その辞書インデックス(辞書のインデックスと画像上の部品画像の位置情報)2015を出力する。ビットマップマッチング部2004−1は、対応するビットマップパターンが辞書に無ければ、その部品画像2013を辞書に登録してインデックスを付与する。   FIG. 21 is a diagram illustrating an example of a schematic configuration of the image dictionary unit 2004. The bitmap matching unit 2004-1 includes a bitmap dictionary 2004-2 in which the bitmap 2004-4 stored in the lexicization process is registered, and a parameter TABLE 2004-3 in which a matching parameter 2004-5 is stored. Receive data from. The bitmap matching unit 2004-1 determines whether the component image 2013 exists in the bitmap dictionary 2004-2 by combining a predetermined position shift and matching processing, and if it exists, the dictionary index (the index of the dictionary) (Position information of part image on image) 2015 is output. If there is no corresponding bitmap pattern in the dictionary, the bitmap matching unit 2004-1 registers the component image 2013 in the dictionary and assigns an index.

このマッチング動作時に、オブジェクト属性情報2012に応じてその属性に応じたマッチングパラメータ2004−5がTABLE2004−3から読み出されることで、オブジェクト属性に応じた圧縮が行なわれる。例えば図22に示されるように、タイトルや見出し語だった場合重要な情報である可能性が高いのでマッチング精度を厳しくするパラメータ2004−5が読み出され、それ以外は通常のマッチング精度パラメータ2004−5が出力される。   At the time of this matching operation, the matching parameter 2004-5 corresponding to the attribute is read from the TABLE 2004-3 according to the object attribute information 2012, whereby the compression corresponding to the object attribute is performed. For example, as shown in FIG. 22, since it is highly likely that the information is a title or a headword, the parameter 2004-5 that makes the matching accuracy stricter is read, and otherwise, the normal matching accuracy parameter 2004- 5 is output.

このように、入力原稿の頁内の全オブジェクトに対する辞書化が終了すれば、辞書情報を画像辞書2014として出力する。   As described above, when dictionary formation for all objects in the page of the input document is completed, dictionary information is output as an image dictionary 2014.

そして画像符号化部2005は、画像辞書2014を所定の画像圧縮技術(例えばランレングス)で圧縮し、辞書インデックス2015と合わせて符号データ2016として出力する。   Then, the image encoding unit 2005 compresses the image dictionary 2014 with a predetermined image compression technique (for example, run length), and outputs it as code data 2016 together with the dictionary index 2015.

以上により、例えば図18(a)(b)(c)に示されるようなタイトル等の重要な情報は、可逆や低圧縮率で圧縮し、情報の重要度が若干下がるデータはより高圧縮処理を行うので、画質・情報劣化のバランスのとれた高圧縮ファイルが生成できる。   As described above, for example, important information such as titles shown in FIGS. 18A, 18B, and 18C is compressed at a lossless or low compression rate, and data whose information is slightly reduced is subjected to higher compression processing. Therefore, it is possible to generate a highly compressed file that balances image quality and information deterioration.

また、本実施形態では、タイトル・見出し語を例に挙げたが、属性情報は本実施形態に限定されるものではなく、例えば表を抽出した場合、その内部はより重要なデータである可能性が高いため同様に他のオブジェクトと圧縮率を変えるようにしてもよい。   In the present embodiment, titles and headwords are given as examples. However, the attribute information is not limited to the present embodiment. For example, when a table is extracted, the inside may be more important data. Therefore, the compression rate may be changed similarly to other objects.

なお、レイアウト解析方法や、そこから算出されるオブジェクト属性情報、辞書化や圧縮方法等は本実施形態に限定されるものではなく、パラメータの制御方法・可逆非可逆などの適用方法も本実施形態に限定されるものではない。   Note that the layout analysis method, the object attribute information calculated therefrom, the dictionary formation, the compression method, and the like are not limited to the present embodiment, and the application method such as the parameter control method and the reversible irreversible is also the present embodiment. It is not limited to.

図23は、本発明の実施形態2−2に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。図23に示す画像処理装置において、実施形態2−1と共通するブロックには、図13の画像処理装置に付与した符号と同一の符号を付与している。   FIG. 23 is a block diagram illustrating a schematic configuration of an image processing apparatus (image compression apparatus) according to Embodiment 2-2 of the present invention. In the image processing apparatus shown in FIG. 23, the same reference numerals as those assigned to the image processing apparatus in FIG. 13 are assigned to the blocks common to the embodiment 2-1.

レイアウト解析部2002A、オブジェクト濃度属性2012A、画像辞書化部2004Aが、実施形態2−1と若干異なる点である。   The layout analysis unit 2002A, the object density attribute 2012A, and the image dictionary unit 2004A are slightly different from the embodiment 2-1.

図24は、レイアウト解析部2002Aの概略構成の一例を示す図である。レイアウト解析部2002Aの構成は、レイアウト解析部2002の構成と基本的に同一だが、領域濃度判定部2002−6Aを持ち、オブジェクト濃度属性2012Aを出力する点が異なる。領域濃度判定部2002−6Aは、図25に示すように領域内のヒストグラムを算出し、白地かどうか判定する。   FIG. 24 is a diagram illustrating an example of a schematic configuration of the layout analysis unit 2002A. The configuration of the layout analysis unit 2002A is basically the same as the configuration of the layout analysis unit 2002, except that it has an area density determination unit 2002-6A and outputs an object density attribute 2012A. The area density determination unit 2002-6A calculates a histogram in the area as shown in FIG.

図26は、画像辞書化部2004Aの概略構成の一例を示す図である。画像辞書化部2004Aは、オブジェクト属性情報2012とオブジェクト濃度属性2012Aを用いてマッチング精度パラメータ2004−5を算出する。   FIG. 26 is a diagram illustrating an example of a schematic configuration of the image dictionary unit 2004A. The image dictionary unit 2004A calculates the matching accuracy parameter 2004-5 using the object attribute information 2012 and the object density attribute 2012A.

例えば、図27に示すように、非白地は準可逆、白地は非可逆にする。つまり、オブジェクトが白地かどうかで圧縮率を変える。これは図28に示すように非白地上の文字は、背景が編点表現されていたりすることが多いため、2値化してビットマップを生成すると白地に比べ形状が不安定になり易いため、非白地の圧縮率を低めに設定することで劣化を防いでいる。   For example, as shown in FIG. 27, a non-white background is quasi-reversible and a white background is irreversible. That is, the compression rate is changed depending on whether the object is white. This is because, as shown in FIG. 28, the background of non-white ground characters is often expressed as a knitting point, so when binarized and a bitmap is generated, the shape is likely to be unstable compared to a white background. Deterioration is prevented by setting the compression rate of non-white background to a low level.

逆の観点で効率よく圧縮することに重点を置けば、図28(b)の2値化のコブは情報で無いとしてマッチング精度を緩めて、非白地の情報を効率よく圧縮することができるのも明らかである。   If the emphasis is placed on efficient compression from the opposite viewpoint, the binarized bumps in FIG. 28 (b) are not information, and the matching accuracy is relaxed, and the information on the non-white background can be efficiently compressed. Is also obvious.

また、ビットマップ辞書2004−2に優先的に白地上の文字のビットマップを登録するようにしてもよく、非白地上の文字を読み易くすることも可能である。   In addition, it is possible to preferentially register a bit map of characters on the white background in the bitmap dictionary 2004-2, and it is also possible to make non-white characters easy to read.

図29は、本発明の実施形態2−3に係る画像処理装置(画像圧縮装置)の概略構成を示すブロック図である。図29に示す画像処理装置において、実施形態2−1と共通するブロックには、図13の画像処理装置に付与した符号と同一の符号を付与している。   FIG. 29 is a block diagram showing a schematic configuration of an image processing apparatus (image compression apparatus) according to Embodiment 2-3 of the present invention. In the image processing apparatus shown in FIG. 29, the same reference numerals as those given to the image processing apparatus in FIG.

画像辞書化部2004B、画像辞書化部2004Bの出力である画像ビットマップ2017が、実施形態2−1と若干異なる点である。   An image bitmap 2017 that is an output of the image dictionary 2004B and the image dictionary 2004B is slightly different from the embodiment 2-1.

図30は、画像辞書化部2004Bの概略構成の一例を示す図である。判断部2004−8Bは、オブジェクト属性情報2012を受け取り、オブジェクト属性情報2012がタイトルや見出しであれば、セレクタ2004−9Bを操作し、部品画像2013を画像ビットマップ2017として出力し、タイトルや見出し以外(その他)であればマッチング部2004−1に入力して、実施形態2−1と同様、辞書マッチング処理を行う。   FIG. 30 is a diagram illustrating an example of a schematic configuration of the image dictionary unit 2004B. The determination unit 2004-8B receives the object attribute information 2012. If the object attribute information 2012 is a title or a heading, the determination unit 2004-8B operates the selector 2004-9B to output the component image 2013 as an image bitmap 2017, and the other than the title and the heading. If it is (Others), it inputs into the matching part 2004-1, and a dictionary matching process is performed like Embodiment 2-1.

画像符号化部2005Bは、画像辞書2014及び画像ビットマップ2017を実施形態2−1と同様に可逆圧縮技術で圧縮し、辞書インデックス2015と画像ビットマップ2017の位置情報を合わせて符号データ2016Bとして出力する。   The image encoding unit 2005B compresses the image dictionary 2014 and the image bitmap 2017 using the lossless compression technique in the same manner as the embodiment 2-1, and combines the position information of the dictionary index 2015 and the image bitmap 2017 to output as code data 2016B. To do.

以上により、可逆処理したいオブジェクト情報は辞書化せずに直接可逆圧縮することで、圧縮の速度を高速に出来る。   As described above, the object information to be reversibly processed is directly reversibly compressed without being converted into a dictionary, so that the compression speed can be increased.

なお、本実施形態では画像辞書2014、画像ビットマップ2017を同一の可逆圧縮を用いた例を示したが両者の圧縮方式を変えたり、圧縮パラメータを変えるようにしてもよい。   In the present embodiment, the image dictionary 2014 and the image bitmap 2017 are shown using the same lossless compression. However, both compression methods may be changed or the compression parameters may be changed.

以下に、上記した実施形態2−1、2−2、2−3についてまとめる。   The above-described Embodiments 2-1, 2-2, and 2-3 are summarized below.

(1)画像処理装置は、画像を入力する画像入力部と、該画像からオブジェクト配置情報を出力するレイアウト解析部と該画像と該オブジェクト配置情報から画像を部品化して部品画像を出力する画像部品化部と該部品画像を圧縮する画像符号化部を持つことを特徴とする画像処理装置であって、該レイアウト解析部はオブジェクト属性を出力し、該画像符号化部は該オブジェクト属性に応じて圧縮率を制御する。レイアウト解析結果を元に圧縮率を制御できるので高画質・高圧縮な圧縮ファイルを提供できる。   (1) An image processing apparatus includes an image input unit that inputs an image, a layout analysis unit that outputs object arrangement information from the image, and an image component that converts the image into a component from the image and the object arrangement information and outputs a component image An image processing apparatus having an encoding unit and an image encoding unit that compresses the component image, wherein the layout analysis unit outputs an object attribute, and the image encoding unit corresponds to the object attribute Control the compression rate. Since the compression rate can be controlled based on the layout analysis result, it is possible to provide a compressed file with high image quality and high compression.

(2)画像処理装置は、画像を入力する画像入力部と、該画像からオブジェクト配置情報を出力するレイアウト解析部と該画像と該オブジェクト配置情報から画像を部品化して部品画像を出力する画像部品化部と該部品画像を辞書化し画像辞書と該部品画像の辞書インデックスを出力する画像辞書化部と、該画像辞書と該辞書インデックスを符号化する画像符号化部を持つことを特徴とする画像処理装置であって、該レイアウト解析部はオブジェクト属性を出力し、該画像辞書化部は該オブジェクト属性に応じて辞書化精度を制御する。レイアウト解析結果を元に辞書精度を制御できるので高画質・高圧縮な圧縮ファイルを提供できる。   (2) An image processing apparatus includes an image input unit that inputs an image, a layout analysis unit that outputs object arrangement information from the image, and an image component that converts the image into a component from the image and the object arrangement information and outputs a component image An image comprising: a conversion unit, an image dictionary converting the component image into an image dictionary and outputting a dictionary index of the component image, and an image encoding unit encoding the image dictionary and the dictionary index In the processing apparatus, the layout analysis unit outputs an object attribute, and the image dictionary unit controls dictionary accuracy according to the object attribute. Since dictionary accuracy can be controlled based on layout analysis results, compressed images with high image quality and high compression can be provided.

(3)画像処理装置は、画像を入力する画像入力部と、該画像からオブジェクト配置情報を出力するレイアウト解析部と該画像と該オブジェクト配置情報から画像を部品化して部品画像を出力する画像部品化部と該部品画像を辞書化し画像辞書と該部品画像の辞書インデックスを出力する画像辞書化部と、該画像辞書と該辞書インデックスを符号化する画像符号化部を持つことを特徴とする画像処理装置であって、該レイアウト解析部はオブジェクト属性を出力し、該画像辞書化部は該オブジェクト属性に応じて辞書化精度を制御し、該オブジェクト属性とは文書の見出し、表等である。見出しや表等オブジェクト属性を元に辞書精度を制御できるので高画質・高圧縮な圧縮ファイルを提供できる。   (3) An image processing apparatus includes an image input unit that inputs an image, a layout analysis unit that outputs object arrangement information from the image, and an image component that converts the image into parts from the image and the object arrangement information and outputs a component image An image comprising: a conversion unit, an image dictionary converting the component image into an image dictionary and outputting a dictionary index of the component image, and an image encoding unit encoding the image dictionary and the dictionary index In the processing apparatus, the layout analysis unit outputs an object attribute, and the image dictionary unit controls dictionary accuracy according to the object attribute. The object attribute is a document heading, a table, or the like. Since dictionary accuracy can be controlled based on object attributes such as headings and tables, compressed files with high image quality and high compression can be provided.

(4)画像処理装置は、画像を入力する画像入力部と、該画像からオブジェクト配置情報を出力するレイアウト解析部と該画像と該オブジェクト配置情報から画像を部品化して部品画像を出力する画像部品化部と該部品画像を辞書化し画像辞書と該部品画像の辞書インデックスを出力する画像辞書化部と、該画像辞書と該辞書インデックスを符号化する画像符号化部を持つことを特徴とする画像処理装置であって、該レイアウト解析部はオブジェクト属性を出力し、該画像辞書化部は該オブジェクト属性に応じて辞書化精度を制御し、該オブジェクト属性とは下地の有無である。下地上の文字かどうかなど、文字等の所属する領域属性に応じて辞書精度を制御できるので、高画質・高圧縮な圧縮ファイルを提供できる。   (4) An image processing apparatus includes: an image input unit that inputs an image; a layout analysis unit that outputs object arrangement information from the image; and an image component that converts the image into parts from the image and the object arrangement information and outputs a component image An image comprising: a conversion unit, an image dictionary converting the component image into an image dictionary and outputting a dictionary index of the component image, and an image encoding unit encoding the image dictionary and the dictionary index In the processing device, the layout analysis unit outputs an object attribute, and the image dictionary unit controls dictionary accuracy according to the object attribute, and the object attribute is the presence or absence of a background. Since the dictionary accuracy can be controlled according to the region attribute to which the character belongs, such as whether the character is on the background, a compressed file with high image quality and high compression can be provided.

(5)画像処理装置は、画像を入力する画像入力部と、該画像からオブジェクト配置情報を出力するレイアウト解析部と該画像と該オブジェクト配置情報から画像を部品化して部品画像を出力する画像部品化部と該部品画像を辞書化し画像辞書と該部品画像の辞書インデックスを出力する画像辞書化部と、該画像辞書と該辞書インデックスを符号化する画像符号化部を持つことを特徴とする画像処理装置であって、該レイアウト解析部はオブジェクト属性を出力し、該画像辞書化部は該オブジェクト属性が白下地を含むオブジェクト属性を優先的に該画像辞書化する。下地上の文字を優先的に辞書ビットマップとして使用するので高画質・高圧縮な圧縮ファイルを提供できる。   (5) An image processing apparatus includes an image input unit that inputs an image, a layout analysis unit that outputs object arrangement information from the image, and an image component that converts the image into parts from the image and the object arrangement information and outputs a component image An image comprising: a conversion unit, an image dictionary converting the component image into an image dictionary and outputting a dictionary index of the component image, and an image encoding unit encoding the image dictionary and the dictionary index In the processing apparatus, the layout analysis unit outputs an object attribute, and the image dictionary unit preferentially converts an object attribute including a white background into the image dictionary. Since characters on the background are preferentially used as a dictionary bitmap, a compressed file with high image quality and high compression can be provided.

(6)画像処理装置は、画像を入力する画像入力部と、該画像からオブジェクト配置情報を出力するレイアウト解析部と該画像と該オブジェクト配置情報から画像を部品化して部品画像を出力する画像部品化部と該部品画像を辞書化し画像辞書と該部品画像の辞書インデックスを出力する画像辞書化部と、該画像辞書と該辞書インデックスを符号化する画像符号化部を持つことを特徴とする画像処理装置であって、該レイアウト解析部はオブジェクト属性を出力し、該画像辞書化部は該オブジェクト属性に応じて該辞書圧縮を行なうかどうか制御する。レイアウト解析結果を元に辞書圧縮方式を行なうか制御するので、高画質・高圧縮な圧縮ファイルを提供できる。   (6) An image processing apparatus includes: an image input unit that inputs an image; a layout analysis unit that outputs object arrangement information from the image; and an image component that converts the image into parts from the image and the object arrangement information and outputs a component image An image comprising: a conversion unit, an image dictionary converting the component image into an image dictionary and outputting a dictionary index of the component image, and an image encoding unit encoding the image dictionary and the dictionary index In the processing apparatus, the layout analysis unit outputs an object attribute, and the image dictionary unit controls whether to perform the dictionary compression according to the object attribute. Since the dictionary compression method is controlled based on the layout analysis result, a compressed file with high image quality and high compression can be provided.

以上により、JBIG2やOCRを実現するためのレイアウト解析処理結果に応じて、領域の情報や原稿タイプを判断し、辞書化圧縮のマッチング精度や非辞書化圧縮の適用などを制御するので、高速に高画質・高圧縮な辞書圧縮ファイルを提供できる。即ち、レイアウト解析結果に応じて重要な領域などを判断し、圧縮率等を制御するので高速に高画質・高圧縮な圧縮ファイルを生成できると共に、生成された圧縮画像をOCR処理しても精度を確保することが可能な圧縮ファイルを提供することが出来る。つまり、抽出した領域情報に応じて画像品質を制御できるので、重要な情報の欠落を避けることができる。例えば、重要な情報とは、文書の見出し、表、表、グラフ等の見出しである。また、全般的な精度向上のために、白地上の文字かどうかで圧縮パラメータ等を切り替えることで、2値化等で生成される文字画像の品質を補完することもできる。または辞書のベースビットマップを白地上の文字を中心に選択することもできる。例えば、タイトル・見出しらしいと判断された領域は可逆圧縮して、確実に画像ファイルとして情報を視認できると共に、辞書圧縮ファイルにOCRを掛けた時のOCR精度を確保する。表を抽出したときは、表領域を可逆圧縮したり、数字しかない可能性が高いので、マッチングパラメータを変えたり、圧縮方法を変えたりする。   As described above, according to the result of the layout analysis processing for realizing JBIG2 and OCR, the area information and the document type are determined, and the matching accuracy of lexicographic compression and the application of non-lexicographic compression are controlled, so that high speed is achieved. A dictionary compression file with high image quality and high compression can be provided. In other words, important areas are determined according to the layout analysis results, and the compression rate is controlled, so a high-quality, high-compression compressed file can be generated at a high speed. Can be provided as a compressed file. That is, since the image quality can be controlled according to the extracted area information, it is possible to avoid missing important information. For example, the important information includes headings such as document headings, tables, tables, and graphs. In order to improve the overall accuracy, the quality of the character image generated by binarization or the like can be complemented by switching the compression parameter or the like depending on whether the character is on the ground. Alternatively, the base bitmap of the dictionary can be selected centering on white ground characters. For example, an area determined to be a title / headline is reversibly compressed so that the information can be reliably viewed as an image file, and OCR accuracy is ensured when the dictionary compression file is subjected to OCR. When a table is extracted, it is highly possible that the table area is reversibly compressed, or there is a high possibility of having only numbers, so the matching parameters are changed or the compression method is changed.

なお、上記した可逆圧縮とは第1の圧縮パラメータの圧縮であり、元の画像を100%に限りなく近い状態で再現することができる圧縮である。準可逆圧縮とは第1の圧縮パラメータより画像劣化をする可能性のある第2の圧縮パラメータの圧縮であり、元の画像をほぼ忠実に再現することができる圧縮である。非可逆圧縮とは第2の圧縮パラメータよりより画像劣化をする可能性のある第3の圧縮パラメータよりの圧縮であり、元の画像をおよそ忠実に再現することができる圧縮である。   Note that the above-described lossless compression is compression of the first compression parameter, and is compression that can reproduce the original image in a state close to 100%. The quasi-reversible compression is compression of the second compression parameter that may cause image degradation from the first compression parameter, and is compression that can reproduce the original image almost faithfully. The lossy compression is compression from a third compression parameter that may cause image degradation more than the second compression parameter, and is compression that can reproduce the original image approximately faithfully.

次に、本発明の実施形態3について説明する。   Next, a third embodiment of the present invention will be described.

同一文字毎等で一つの辞書ビットマップを形成し、その辞書ビットマップと位置情報を保存することにより画像を圧縮する方法がある。しかしながら、辞書として登録される辞書ビットマップは、最初に出現した新規のビットマップを登録しているだけであり、必ずしも辞書として最適な形状のビットマップを選択しているわけではない。   There is a method of compressing an image by forming one dictionary bitmap for each character or the like and storing the dictionary bitmap and position information. However, the dictionary bitmap registered as a dictionary only registers a new bitmap that appears first, and does not necessarily select a bitmap having an optimal shape as a dictionary.

データを圧縮する技術として多くの圧縮方法が考えられる。ハフマン符号化に代表されるエントロピー符号化や算術符号化等がある。その前処理としてユニバーサル符号化(辞書化・辞書に基づいた符号化(dictionary-based coding))という手法がある(以下『辞書化』と記述する)。   Many compression methods are conceivable as techniques for compressing data. There are entropy coding and arithmetic coding represented by Huffman coding. As a pre-processing, there is a technique called universal coding (dictionary / dictionary-based coding) (hereinafter referred to as “dictionary”).

ジャコブ・ジヴ(Jacob Ziv)とエイブラハム・レンペル(Abraham Lempel)によって開発されたデータ圧縮アルゴリズムであるLZ77やLZ78は既出のキャラクタの発生位置とその長さを保存することにより圧縮する方法であり、基本的にキャラクタコードの圧縮方法である。   LZ77 and LZ78, which are data compression algorithms developed by Jacob Ziv and Abraham Lempel, are compression methods that preserve the occurrence position and length of the existing characters. This is basically a character code compression method.

この仕組みを画像に適応したものがISO/IEC14492で国際標準となっている2値圧縮技術のJBIG2のSymbolDictionaryである。SymbolDictionaryとは、画像の領域をひとつの辞書BMPとして捉え(例えば1文字のBMP)、共通するものは同じ辞書BMPとして取り扱い、辞書BMPと位置情報を持つことにより圧縮する方法である。これらは特定のパターンを持つ画像(文字画像やハーフトーン画像等)に対しても効果を発揮する。   JBIG2 SymbolDictionary, a binary compression technology that is an international standard in ISO / IEC14492, applies this mechanism to images. SymbolDictionary is a method in which an image area is regarded as one dictionary BMP (for example, one character BMP), common ones are handled as the same dictionary BMP, and compression is performed by having the dictionary BMP and position information. These are also effective for images having a specific pattern (such as character images and halftone images).

上記JBIG2のSymbolDictionaryの辞書圧縮の具体例を以下に示す。   A specific example of the dictionary compression of JBIG2 SymbolDictionary is shown below.

例えば図31に示すような『ABCBAD』という入力画像があった場合、通常は『ABCBAD』を素直に全部画像として圧縮していた。辞書圧縮では『A』という画像は2つあるため、『A』という画像は一つだけ持ち、あとは位置情報を持つことによりデータの削減を図る。このようなデータ圧縮の場合、辞書化により以下のようなデータを作成することになる。   For example, when there is an input image “ABCBAD” as shown in FIG. 31, “ABCBAD” is normally compressed as an entire image. In the dictionary compression, there are two images “A”. Therefore, only one image “A” is held, and the data is saved by having position information after that. In the case of such data compression, the following data is created by creating a dictionary.

辞書(Symbol)4種類:『A』『B』『C』『D』(図32)
辞書(Symbol)位置情報6種類:(画像A:位置(0,0))、(画像B:位置(6,0))、(画像C:位置(12,0))、(画像B:位置(18,0))、(画像A:位置(24,0))、(画像D:位置(30,0))
これらのデータを作成する上で、辞書化対象画像抽出処理(何を辞書候補とするか)が必要となる(連結画素抽出・文字抽出)。抽出した辞書候補が既存の辞書(Symbol)と同一と判定できるか否かを判定し、同一であれば辞書(Symbol)位置情報を登録、異なると判断されれば辞書(Symbol)情報と辞書(Symbol)位置情報を登録する仕組みを持つ辞書化処理を行い、最終的に辞書(Symbol)情報と辞書(Symbol)位置情報を圧縮することにより高圧縮化を実現している。
Dictionary (Symbol) 4 types: “A” “B” “C” “D” (FIG. 32)
Dictionary (Symbol) position information 6 types: (image A: position (0, 0)), (image B: position (6, 0)), (image C: position (12, 0)), (image B: position (18,0)), (Image A: Position (24,0)), (Image D: Position (30,0))
In creating these data, lexicographic object image extraction processing (what is used as a dictionary candidate) is required (concatenated pixel extraction / character extraction). It is determined whether or not the extracted dictionary candidate can be determined to be the same as the existing dictionary (Symbol). If it is the same, the dictionary (Symbol) position information is registered, and if it is determined to be different, the dictionary (Symbol) information and the dictionary ( Symbolization processing having a mechanism for registering symbol position information is performed, and finally high compression is realized by compressing the dictionary information and the dictionary position information.

100%ではない画素一致率で同一辞書(Symbol)とみなす辞書圧縮方式においては、初めに辞書(Symbol)として登録された画像がそのまま出力画像に反映される。この為、一旦と辞書として登録された画像に問題がある場合(例えば文字の一部が欠けているなど)、その不良な辞書(Symbol)が出力結果に反映されてしまう。   In a dictionary compression method that considers the same dictionary (Symbol) with a pixel matching rate that is not 100%, an image that is initially registered as a dictionary (Symbol) is directly reflected in the output image. For this reason, if there is a problem with the image once registered as a dictionary (for example, a part of characters is missing), the defective dictionary (Symbol) is reflected in the output result.

その対策としてはあらかじめフォントの辞書(Symbol)を持っておき、該当するものがあればその辞書(Symbol)を用い、なければベクトル化(準可逆)するという方法がある(特開2005−208872)。しかし文字のベクトル化は圧縮率の低下が懸念事項として挙がる。   As a countermeasure, there is a method of having a font dictionary (Symbol) in advance, using the dictionary (Symbol) if there is a corresponding one, and vectorizing (quasi-reversible) if there is one (Japanese Patent Laid-Open No. 2005-208772) . However, the vectorization of characters raises concerns about a decrease in compression rate.

さらに、上記した圧縮、復元処理の一例について説明する。   Furthermore, an example of the above-described compression / decompression process will be described.

図33は、入力画像の一例を示す図である。例えば、画像処理装置が、左から右、上から下に辞書候補画像を探索し、辞書ビットマップを作成するケースを想定する。辞書化は非可逆であり、多少の画素の差は同一辞書とみなす。このケースでは、以下のようにして画像が圧縮され復元される。   FIG. 33 is a diagram illustrating an example of an input image. For example, a case is assumed where the image processing apparatus searches for dictionary candidate images from left to right and from top to bottom, and creates a dictionary bitmap. Dictionaries are irreversible and some pixel differences are considered the same dictionary. In this case, the image is compressed and restored as follows.

(1)一番初めに発見された文字(左)が辞書として登録されてしまう。   (1) The first discovered character (left) is registered as a dictionary.

(2)中央は左の文字と同一文字と判断されてしまう。   (2) The center is determined to be the same character as the left character.

(3)右の文字は左の文字と同一文字と判断されてしまう。   (3) The right character is determined to be the same character as the left character.

(4)このようにして作成されたデータの復元画像は、図34に示すように、入力画像の左の文字が3つ並ぶ形になってしまう。   (4) As shown in FIG. 34, the restored image of the data created in this way has a shape in which three characters on the left of the input image are arranged.

そこで、本発明の実施形態3では、辞書候補画像を一定量保持しておき、辞書候補画像の中から他の同一と判定された辞書侯補画像との一致度の高いものを辞書(Symbol)情報として蓄えておくことにより、文字欠け等の画質不具合を低減させることができる。つまり、本発明の実施形態3では、辞書として登録するかを判定するビットマップを保存しておき、より良いビットマップを辞書として登録する。これにより、辞書化の処理順に依存されること無く(初めに辞書登録されたビットマップ形状に依存されること無く)、より入力画像に近い画像を保つことができる。   Therefore, in Embodiment 3 of the present invention, a certain amount of dictionary candidate images are held, and a dictionary (Symbol) that has a high degree of matching with other dictionary candidate images determined to be the same from the dictionary candidate images. By storing it as information, it is possible to reduce image quality defects such as missing characters. That is, in Embodiment 3 of the present invention, a bitmap for determining whether to register as a dictionary is stored, and a better bitmap is registered as a dictionary. As a result, an image closer to the input image can be maintained without depending on the lexicographic processing order (without depending on the bitmap shape initially registered in the dictionary).

具体的には、同一辞書と判定されたビットマップ群を以下のように判定し辞書BMPを決定する。   Specifically, the bitmap group determined to be the same dictionary is determined as follows to determine the dictionary BMP.

(1)白画素と黒画素の変化点が最も少ないものを採用する。   (1) A pixel having the smallest change point between the white pixel and the black pixel is employed.

(2)ノイズ画素が最も少ないものを採用する。   (2) The one with the least noise pixels is adopted.

(3)OCR判定をし、最も一致度が高いものを採用する。   (3) OCR is determined and the one with the highest degree of matching is adopted.

これにより、辞書化の処理順に依存されること無く(初めに辞書登録されたビットマップ形状に依存されること無く)、より入力画像に近い画像を保つことができる。   As a result, an image closer to the input image can be maintained without depending on the lexicographic processing order (without depending on the bitmap shape initially registered in the dictionary).

例えば、本発明の実施形態3に係る画像処理装置(画像圧縮装置)は、以下のようにして画像を圧縮し復元することができる
(1)一番初めに発見された文字(左)を辞書として登録する。
For example, the image processing apparatus (image compression apparatus) according to the third embodiment of the present invention can compress and restore an image as follows. (1) A dictionary of the first character (left) found Register as

(2)中央の文字は左の文字と同一文字と判断する。辞書候補画像(中央の文字)はバッファに保存する。   (2) The center character is determined to be the same character as the left character. The dictionary candidate image (center character) is stored in a buffer.

(3)右の文字は左の文字と同一文字と判断する。辞書候補画像(右の文字)はバッファに保存する。   (3) The right character is determined to be the same character as the left character. The dictionary candidate image (right character) is stored in the buffer.

(4)辞書収集が終了したら、同一文字と判断された文字の中でノイズの少ないものを選択し(中央の文字)、辞書ビットマップとして登録する(画素の連結性が高い:ランが最も繋がっている)。   (4) When the dictionary collection is completed, select the character with the least noise among the characters determined to be the same character (center character) and register it as a dictionary bitmap (high pixel connectivity: run is most connected) ing).

(5)復元画像は、図35に示すように、入力画像の中央の文字が3つ並ぶ形になる。   (5) As shown in FIG. 35, the restored image has a shape in which three characters at the center of the input image are arranged.

以下、本発明の実施形態3について詳細に説明する。   Hereinafter, Embodiment 3 of the present invention will be described in detail.

図36は、本発明の実施形態3−1に係る画像処理装置(画像圧縮装置)による圧縮処理の概念を示す図であり、図38は、本発明の実施形態3−1に係る画像処理装置(画像圧縮装置)の全体構成の一例を示す図であり、図37は、本発明の実施形態3−1に係る画像処理装置(画像圧縮装置)の詳細構成の一例を示す図である。また、図39は、本発明の実施形態3−1に係る圧縮処理の一例を示す図である。図36に示す画像処理装置は、図37及び図38に示す画像処理装置に対応し、主に、図37及び図38に示す画像処理装置を参照し、実施形態3−1に係る圧縮処理を説明する。   FIG. 36 is a diagram showing a concept of compression processing by the image processing apparatus (image compression apparatus) according to Embodiment 3-1 of the present invention, and FIG. 38 is an image processing apparatus according to Embodiment 3-1 of the present invention. FIG. 37 is a diagram illustrating an example of an overall configuration of an (image compression apparatus), and FIG. 37 is a diagram illustrating an example of a detailed configuration of an image processing apparatus (image compression apparatus) according to Embodiment 3-1 of the present invention. FIG. 39 is a diagram illustrating an example of compression processing according to Embodiment 3-1 of the present invention. The image processing device shown in FIG. 36 corresponds to the image processing device shown in FIGS. 37 and 38, and mainly refers to the image processing device shown in FIGS. 37 and 38 and performs the compression processing according to Embodiment 3-1. explain.

Symbol一致判定部3001は、辞書化対象データD3002と辞書バッファ3005に存在するSymbol情報I3004が一致しているか否かを比較・判定し、一致判定結果R3003(一致していないなら一致していないという情報、一致しているのなら一致しているSymbolのID番号)を出力するSymbol比較部3001−1とSymbol比較結果出力部3001−2を持つ。   The Symbol match determination unit 3001 compares / determines whether the lexicographic object data D3002 and the symbol information I3004 existing in the dictionary buffer 3005 match, and determines a match determination result R3003 (if not match, It has a symbol comparison unit 3001-1 and a symbol comparison result output unit 3001-2 for outputting information (if matching, the ID number of the matching symbol).

Symbol一致判定部3001は、既知の手段・方法で一致を判定し、必ず100%画素が一致していなければならないわけではなく、ある程度似ているものは同じと判定する手段・方法も含む。   The Symbol match determination unit 3001 includes a means / method for determining a match by a known means / method, and that 100% pixels do not always have to be matched, and those that are somewhat similar are the same.

Symbol・一致Symbol情報・Symbol位置情報登録部3002の動作について説明する。辞書化対象データD3002にIDを割り振り、辞書化対象データD3002とそのIDを辞書バッファ3005のSymbol情報バッファ3005−1に登録するSymbol情報・ID登録部3002と、そのIDと位置情報を辞書バッファ3005のSymbol位置情報バッファ3005−2登録するID・Symbol位置情報登録部3002−2と、もし一致判定結果R3003が他のSymbol(Symbol候補画像)と一致しているという結果であれば、一致しているSymbolのID番号を辞書バッファ3005の一致Symbol情報バッファ3005−3に登録する一致Symbol情報登録部3002−3を持つ。   The operation of the symbol / matching symbol information / symbol position information registration unit 3002 will be described. An ID is assigned to the lexical object data D3002, and the lexical object data D3002 and its ID are registered in the symbol information buffer 3005-1 of the dictionary buffer 3005. The dictionary buffer 3005 stores the ID and position information. Symbol position information buffer 3005-2 of ID / Symbol position information registration unit 3002-2 to register, and if the match determination result R3003 matches with other Symbol (Symbol candidate image) A matching symbol information registration unit 3002-3 for registering the ID number of the existing symbol in the matching symbol information buffer 3005-3 of the dictionary buffer 3005.

Symbol決定部3003の動作について説明する。ユーザの指定するシンボル修正フラグがONの時(ユーザがSymbolの最適化を行いたい時)、辞書バッファ3005にある同一と判定されたSymbol(Symbol候補画像)の中で最も一致度が高いSymbolを最終的なSymbolとして採用する最終Symbol決定部3003−1と、それに伴いSymbol位置情報バッファ3005−2のSymbol位置情報のIDを修正するSymbol位置情報ID修正部3003−2と、Symbol情報バッファ3003−1の不要になった(Symbolとして選ばれなかった)Symbol情報を削除する不要Symbol情報削除部3003−3を持つ。   The operation of the symbol determination unit 3003 will be described. When the symbol correction flag specified by the user is ON (when the user wants to optimize the symbol), the symbol with the highest matching degree among the symbols (symbol candidate images) determined to be the same in the dictionary buffer 3005 is selected. A final symbol determination unit 3003-1 to be adopted as a final symbol, a symbol position information ID correction unit 3003-2 for correcting the ID of the symbol position information in the symbol position information buffer 3005-2, and a symbol information buffer 3003- 1 has an unnecessary symbol information deletion unit 3003-3 that deletes symbol information that has become unnecessary (not selected as a symbol).

辞書情報出力部3004は、辞書情報出力フラグF3001がONの場合は、辞書バッファ3005にあるSymbol情報バッファ3005−1とSymbol位置情報バッファ3005−2の情報(Symbol情報I3004とSymbol位置情報I3005)を出力するように制御し、出力後に辞書バッファ3005(Symbol情報バッファ3005−1とSymbol位置情報バッファ3005−2を含む)を初期化する信号を、辞書バッファ初期化部3004−2に送るゲート3004−1(辞書情報出力フラグF3001がOFFの場合はゲートは上記のような出力・初期化処理はしない)と、辞書バッファ3005(Symbol情報バッファ3005−1とSymbol位置情報バッファ3005−2・一致Symbol情報バッファ3005−3を含む)を初期化する辞書バッファ初期化部3004−2を持つ。   When the dictionary information output flag F3001 is ON, the dictionary information output unit 3004 displays the information (Symbol information I3004 and Symbol position information I3005) of the Symbol information buffer 3005-1 and Symbol position information buffer 3005-2 in the dictionary buffer 3005. A gate 3004- which controls to output and sends a signal for initializing the dictionary buffer 3005 (including the symbol information buffer 3005-1 and the symbol position information buffer 3005-2) to the dictionary buffer initialization unit 3004-2 after the output. 1 (when the dictionary information output flag F3001 is OFF, the gate does not perform the output / initialization process as described above) and the dictionary buffer 3005 (the Symbol information buffer 3005-1 and the Symbol position information buffer 3005-2 / matching Symbol information). A dictionary buffer initialization unit 3004-2 for initializing the buffer 3005-3.

例えば図40に示す画像が入力されたとする。ここでは、辞書登録がすべて終わったら最適と思われる辞書を選ぶ作業例で説明をする。   For example, assume that the image shown in FIG. 40 is input. Here, a description will be given of an example of selecting a dictionary that seems to be optimal when dictionary registration is completed.

辞書化対象データ抽出部3000の動作について説明する。まず図40の入力画像から辞書化対象データD3001を抽出する(ST3001)。左から右、上から下に黒画素を探索すると(1,1)の黒画素が見つかる(左上を(0,0)とする)。   The operation of the lexical object data extraction unit 3000 will be described. First, the lexicon target data D3001 is extracted from the input image of FIG. 40 (ST3001). When black pixels are searched from left to right and from top to bottom, (1,1) black pixels are found (the upper left is (0,0)).

(1,1)の黒画素の連結成分を抽出することにより図40の左端の『T』を候補として得ることができる(辞書化対象データの抽出方法は既知の方法を適用)。   By extracting the connected component of (1,1) black pixels, “T” at the left end of FIG. 40 can be obtained as a candidate (a known method is applied as a method for extracting data to be dictionaryd).

Symbol一致判定部3001の動作について説明する。辞書化対象データ抽出部3000で得られた辞書化対象データD3001と辞書バッファ3005に存在するSymbolを比較する(ST3002)。今回は比較するSymbolが辞書バッファ3005に登録されていないので、不一致という結果(一致判定結果R3002)を出力する(ST3003、NO)。なお、意図的にあらかじめ辞書バッファに特定Symbolを入れておくことも可能。   The operation of the symbol coincidence determination unit 3001 will be described. The dictionary-targeted data D3001 obtained by the dictionary-targeted data extraction unit 3000 is compared with the Symbol existing in the dictionary buffer 3005 (ST3002). Since the symbol to be compared is not registered in the dictionary buffer 3005 this time, a mismatch result (match determination result R3002) is output (ST3003, NO). It is also possible to intentionally put a specific symbol in the dictionary buffer beforehand.

Symbol・一致Symbol情報・Symbol位置情報登録部3002の動作について説明する。もし一致判定結果R3002が『一致』なら(ST3003、YES)、以下の作業を行う(ST3006)。   The operation of the symbol / matching symbol information / symbol position information registration unit 3002 will be described. If the match determination result R3002 is “match” (ST3003, YES), the following operation is performed (ST3006).

・辞書化対象データD3002をSymbolとして辞書バッファ3005に登録
・それがどの既存Symbolと一致しているのかという情報を辞書バッファ3005に登録
・当該Symbolがどの位置にあるのかを示す情報を辞書バッファ3005に登録
一致判定結果R3002が『不一致』なら(ST3003、NO)、以下の作業を行う(ST3005)。
Registration of data D3002 as a symbol in the dictionary buffer 3005 as a symbol Registration of information about which existing symbol matches with the dictionary buffer 3005 Information indicating the position of the symbol in the dictionary buffer 3005 If the coincidence determination result R3002 is “non-coincidence” (NO in ST3003), the following operation is performed (ST3005).

・辞書化対象データD3001をSymbolとして辞書バッファ3005に登録
・当該Symbolがどの位置にあるのかを示す情報を辞書バッファ3005に登録
本実施形態3−1では、まず『不一致』なので(ST3003、NO)、
・左端の『T』という画像をSymbolとして辞書バッファ3005に登録(ST3005)・左端の『T』の位置が(1,1)にあるという情報を辞書バッファ3005に登録(ST3005)
この状態を図41に示す。
Registration of data D3001 as a symbol in the dictionary buffer 3005 Information indicating the position of the symbol is registered in the dictionary buffer 3005 In this embodiment 3-1, first, it is “mismatch” (NO in ST3003). ,
・ Register the image “T” at the left end as a symbol in the dictionary buffer 3005 (ST3005) ・ Register the information that the position of the “T” at the left end is (1, 1) in the dictionary buffer 3005 (ST3005)
This state is shown in FIG.

続いて次の辞書化対象データ抽出部3000の作業を行う。つまり、入力画像から辞書化対象データD3001を抽出する(ST3001)。ここでは先に登録・判定されたSymbolは除外して抽出を行う。   Subsequently, the next dictionary conversion target data extraction unit 3000 is operated. That is, the lexicon target data D3001 is extracted from the input image (ST3001). Here, extraction is performed by excluding Symbols registered and determined earlier.

左から右、上から下に黒画素を探索すると(10,1)の黒画素が見つかる(左上を(0,0)とする:左端の『T』は登録済みなので除外して探索する:本抽出部に画像を入力する時点で該当の『T』を削除しておくのもあり)。   When searching for black pixels from left to right and from top to bottom, a black pixel of (10,1) is found (the upper left is (0,0): the leftmost “T” is already registered, so it is excluded and searched) The corresponding “T” may be deleted when the image is input to the extraction unit).

(10,1)の黒画素の連結成分を抽出することにより、図40の左から2番目のTを候補として得ることができる(辞書化対象データの抽出方法は既知の方法を適用)。   By extracting the connected component of the black pixel of (10, 1), the second T from the left in FIG. 40 can be obtained as a candidate (a known method is applied as the method for extracting data to be dictionaryd).

Symbol一致判定部3001の動作について説明する。辞書化対象データ抽出部3000で得られた辞書化対象データD3001と辞書バッファ3005に存在するSymbolを比較する(ST3002)。今回は比較するSymbolが辞書バッファ3005に存在するので比較を行う。左端の『T』があらかじめ登録されているので、それと左から2番目の『T』とを比較する。ここでは一致という結果(一致判定結果R3002)を出力するとする(ST3003、YES)。判定方法は、既知の方法を適用することができる
Symbol・一致Symbol情報・Symbol位置情報登録部3002の動作について説明する。本実施形態3−1では、『一致』なので(ST3003、YES)、
・左から2番目の『T』という画像をSymbolとして辞書バッファ3005に登録(ST3004)
・左から2番目の『T』が左端の『T』と一致しているという情報を辞書バッファ3005に登録(ST3004)
・左から2番目の『T』の位置が(10,1)にあるという情報を辞書バッファ3005に登録(ST3004)
この状態を図42に示す。
The operation of the symbol coincidence determination unit 3001 will be described. The dictionary-targeted data D3001 obtained by the dictionary-targeted data extraction unit 3000 is compared with the Symbol existing in the dictionary buffer 3005 (ST3002). Since the symbol to be compared exists in the dictionary buffer 3005 this time, the comparison is performed. Since the leftmost “T” is registered in advance, it is compared with the second “T” from the left. Here, it is assumed that a match result (match determination result R3002) is output (ST3003, YES). As a determination method, a known method can be applied.
The operation of the symbol / matching symbol information / symbol position information registration unit 3002 will be described. In the present embodiment 3-1, since it is “match” (ST3003, YES),
・ The second image “T” from the left is registered as a symbol in the dictionary buffer 3005 (ST3004).
-Information that the second "T" from the left matches "T" at the left end is registered in the dictionary buffer 3005 (ST3004)
-Information that the position of the second "T" from the left is (10, 1) is registered in the dictionary buffer 3005 (ST3004)
This state is shown in FIG.

続いて、次の辞書化対象データ抽出部3000の作業を行う。つまり、入力画像から辞書化対象データD3001を抽出する(ST3001)。ここでは先に登録・判定されたSymbolは除外して抽出を行う。   Subsequently, the next dictionary conversion target data extraction unit 3000 is operated. That is, the lexicon target data D3001 is extracted from the input image (ST3001). Here, extraction is performed by excluding Symbols registered and determined earlier.

左から右、上から下に黒画素を探索すると(19,1)の黒画素が見つかる(左上を(0,0)とする:左端とその右隣の『T』は登録済みなので除外して探索する:本抽出部に画像を入力する時点で該当の『T』を削除しておくのもあり)。   When searching for black pixels from left to right and from top to bottom, a black pixel of (19,1) is found (the upper left is (0,0): Exclude the left edge and the right “T” because it is already registered) Search: The corresponding “T” may be deleted when an image is input to the main extraction unit).

(19,1)の黒画素の連結成分を抽出することにより図40のIを候補として得ることができる。辞書化対象データの抽出方法は、既知の方法を適用できる。   By extracting the connected component of (19, 1) black pixels, I in FIG. 40 can be obtained as a candidate. A known method can be applied as a method for extracting data to be dictionaryd.

Symbol一致判定部3001の動作について説明する。辞書化対象データ抽出部3000で得られた辞書化対象データD3001と辞書バッファ3005に存在するSymbolを比較する(ST3002)。今回は比較するSymbolが辞書バッファ3005に存在するので比較を行う。左端とその右隣の『T』とを比較する。ここでは不一致という結果(一致判定結果R3002)を出力するとする(ST3003、NO)。判定方法は、既知の方法を適用することができる。   The operation of the symbol coincidence determination unit 3001 will be described. The dictionary-targeted data D3001 obtained by the dictionary-targeted data extraction unit 3000 is compared with the Symbol existing in the dictionary buffer 3005 (ST3002). Since the symbol to be compared exists in the dictionary buffer 3005 this time, the comparison is performed. Compare the left edge with “T” on the right. Here, it is assumed that a result of mismatch (match judgment result R3002) is output (ST3003, NO). A known method can be applied as the determination method.

Symbol・一致Symbol情報・Symbol位置情報登録部3002の動作について説明する。本実施形態3−1では、『不一致』なので(ST3003、NO)、
・『I』という画像をSymbolとして辞書バッファ3005に登録(ST3005)
・『I』の位置が(19,1)にあるという情報を辞書バッファ3005に登録(ST3005)
この状態を図43に示す。
The operation of the symbol / matching symbol information / symbol position information registration unit 3002 will be described. In the present embodiment 3-1, since it is “mismatch” (ST3003, NO),
・ Register image “I” as a symbol in dictionary buffer 3005 (ST3005)
-Information that the position of "I" is at (19,1) is registered in the dictionary buffer 3005 (ST3005)
This state is shown in FIG.

続いて次の辞書化対象データ抽出部3000の作業を行う。つまり、入力画像から辞書化対象データD3001を抽出する(ST3001)。ここでは先に登録・判定されたSymbolは除外して抽出を行う。   Subsequently, the next dictionary conversion target data extraction unit 3000 is operated. That is, the lexicon target data D3001 is extracted from the input image (ST3001). Here, extraction is performed by excluding Symbols registered and determined earlier.

左から右、上から下に黒画素を探索すると(22,1)の黒画素が見つかる(左上を(0,0)とする:左から『T』『T』『I』は登録済みなので除外して探索する:本抽出部に画像を入力する時点で該当のデータを削除しておくのもあり)。   If you search for black pixels from left to right and from top to bottom, you can find (22,1) black pixels (the upper left is (0,0): “T”, “T”, “I” from the left are excluded because they are already registered) To search: the corresponding data may be deleted when the image is input to the main extraction unit).

(22,1)の黒画素の連結成分を抽出することにより図40の右端のTを候補として得ることができる。辞書化対象データの抽出方法は、既知の方法を適用することができる。   By extracting the connected component of (22,1) black pixels, the rightmost T in FIG. 40 can be obtained as a candidate. A known method can be applied as a method for extracting data to be dictionaryd.

Symbol一致判定部3001の動作について説明する。辞書化対象データ抽出部3000で得られた辞書化対象データD3001と辞書バッファ3005に存在するSymbolを比較する(ST3002)。今回は比較するSymbolが辞書バッファ3005に存在するので比較を行う。   The operation of the symbol coincidence determination unit 3001 will be described. The dictionary-targeted data D3001 obtained by the dictionary-targeted data extraction unit 3000 is compared with the Symbol existing in the dictionary buffer 3005 (ST3002). Since the symbol to be compared exists in the dictionary buffer 3005 this time, the comparison is performed.

この時は『T』と『I』が辞書バッファ3005に登録されているので、『T』は左端の『T』とその右隣の『T』は同一判定されているので、左端の『T』とのみ比較する。同一判定された比較対象が複数ある場合、全部に対して比較する方法も可とする。   At this time, since “T” and “I” are registered in the dictionary buffer 3005, “T” on the left end and “T” on the right side of “T” are determined to be the same. Compare only with]. When there are a plurality of comparison targets determined to be the same, a method of comparing all of them is also acceptable.

ここでは一致という結果(一致判定結果R3002)を出力する(ST3003、YES)。判定方法は、既知の方法を適用することができる。   Here, the result of coincidence (coincidence judgment result R3002) is output (ST3003, YES). A known method can be applied as the determination method.

Symbol・一致Symbol情報・Symbol位置情報登録部3002の動作について説明する。本実施形態3−1では、『一致』なので(ST3003、YES)、
・右端の『T』という画像をSymbolとして辞書バッファ3005に登録(ST3004)
・右端の『T』が左端の『T』と一致しているという情報を辞書バッファ3005に登録(ST3004)
・右端の『T』の位置が(22,1)にあるという情報を辞書バッファ3005に登録(ST3004)
この状態を図44に示す。
The operation of the symbol / matching symbol information / symbol position information registration unit 3002 will be described. In the present embodiment 3-1, since it is “match” (ST3003, YES),
・ Register the image “T” on the right as a symbol in the dictionary buffer 3005 (ST3004)
-Information that “T” at the right end matches “T” at the left end is registered in the dictionary buffer 3005 (ST3004).
-Information that the position of the rightmost "T" is at (22,1) is registered in the dictionary buffer 3005 (ST3004)
This state is shown in FIG.

ユーザは予定しているすべての辞書登録が終わったので(ST3006、YES)、Symbol決定フラグF3006をONにし、Symbolの最終決定を行った後(ST3007)、辞書出力フラグF3001をONにしSymbol情報I3004とSymbol位置情報I3005を出力する(ST3008)。   Since all the dictionary registrations that the user has planned have been completed (ST3006, YES), the symbol determination flag F3006 is turned on, and after final determination of the symbol (ST3007), the dictionary output flag F3001 is turned on and the symbol information I3004. And Symbol position information I3005 is output (ST3008).

Symbol決定部3003は、辞書バッファにある同一SymbolとされたSymbolのうち、最も誤差の小さいSymbolを選択する(後述の判断例を参照)。その選択されたSymbolを同一Symbol候補の代表として登録し、その他の同一Symbolは削除する。それに伴い位置情報とのリンク等を修正する。   The Symbol determination unit 3003 selects the symbol with the smallest error among the symbols in the dictionary buffer that have the same symbol (see the determination example described later). The selected symbol is registered as a representative of the same symbol candidate, and the other same symbol is deleted. Along with that, the link with the position information is corrected.

同一Symbolと判定されたものがひとつも無ければ、必然的に存在するsymbolが代表のSymbolとなる。   If none of the symbols are identified as the same symbol, the symbol that inevitably exists is the representative symbol.

もし同一Symbolと判定されたものが2つの場合は、ノイズの少ないものを採用する。その他の方法として、先に登録された方を採用 / エッジが滑らかなものを採用するという方法も可能である。   If two are judged to be the same symbol, the one with less noise is used. As another method, it is also possible to adopt the one registered earlier / the one with smooth edges.

続いて、判断の一例を示す。   Next, an example of determination will be shown.

・ID1のSymbolは、以下の通りである。 -Symbol of ID1 is as follows.

ID1とID2のSymbolは4画素異なる
ID1とID4のSymbolは7画素異なる
⇒合計11画素異なる
・ID2のSymbolは、以下の通りである。
Symbol of ID1 and ID2 is 4 pixels different
Symbols of ID1 and ID4 are different by 7 pixels ⇒11 pixels in total are different ・ Symbols of ID2 are as follows.

ID2とID1のSymbolは4画素異なる
ID2とID4のSymbolは4画素異なる
⇒合計8画素異なる
・ID4のSymbol、以下の通りである。
ID2 and ID1 Symbols differ by 4 pixels
Symbols of ID2 and ID4 differ by 4 pixels ⇒Total of 8 pixels differ ・ Symbol of ID4 is as follows.

ID4とID1のSymbolは7画素異なる
ID4とID2のSymbolは4画素異なる
⇒合計11画素異なる
最終的なSymbolが決定した後は、それに併せてSymbol位置情報のIDを修正し、選ばれず不要となったSymbol情報を削除する。この場合、上記判断例のID1とID4のSymbol情報が削除される。
Symbol of ID4 and ID1 is 7 pixels different
Symbols of ID4 and ID2 differ by 4 pixels ⇒11 pixels in total After the final Symbol is determined, the ID of Symbol position information is corrected accordingly, and symbol information that is no longer needed is deleted. In this case, the symbol information of ID1 and ID4 in the above determination example is deleted.

最終的な辞書バッファの状態を図45に示す。   FIG. 45 shows the final dictionary buffer state.

辞書情報出力部3004の動作について説明する。辞書バッファ3005に存在するSymbol情報I3003とSymbol位置情報I3004を出力する。   The operation of the dictionary information output unit 3004 will be described. Symbol information I3003 and symbol position information I3004 existing in the dictionary buffer 3005 are output.

以上により、初めに辞書候補として挙がった画像を辞書(Symbol)として登録した場合(図46及び図47参照)に比べて、画質が良くなる確率が高いという利点がある。   As described above, there is an advantage that there is a high probability that the image quality is improved as compared with a case where an image first listed as a dictionary candidate is registered as a dictionary (see Symbol) (see FIGS. 46 and 47).

また、以下1〜3に示すように、Symbol決定部の処理の開始タイミングをユーザが意図的に調整できるため、辞書バッファを節約しながら高画質なデータを作成することができる。   Also, as shown in the following 1-3, since the user can intentionally adjust the processing start timing of the Symbol determination unit, it is possible to create high-quality data while saving the dictionary buffer.

1.指定辞書バッファ量に達したとき
2.登録Symbol(仮登録を含む)が指定数に達したとき
3.同一Symbolが指定数に達したとき(指定のSymbolのみSymbol決定をする)
図49は、本発明の実施形態3−2に係る画像処理装置(画像圧縮装置)の全体構成の一例を示す図であり、図48は、本発明の実施形態3−2に係る画像処理装置の詳細構成の一例を示す図である。
1. 1. When the specified dictionary buffer amount is reached 2. When the number of registered symbols (including provisional registration) reaches the specified number When the same number of symbols reaches the specified number (determines the symbol only for the specified symbol)
FIG. 49 is a diagram showing an example of the overall configuration of an image processing apparatus (image compression apparatus) according to Embodiment 3-2 of the present invention, and FIG. 48 is an image processing apparatus according to Embodiment 3-2 of the present invention. It is a figure which shows an example of this detailed structure.

本実施形態3−2は、ユーザが指定した時のみSymbol候補画像を辞書バッファ3005に登録することができる。実施形態3−1と異なる部分を中心に説明する。つまり、Symbol・一致Symbol情報・Symbol位置情報登録部3006の動作について説明する。Symbol候補画像登録フラグF3007がONの場合、辞書化対象データD3002にIDを割り振り、辞書化対象データD3002とそのIDを辞書バッファ3005のSymbol情報バッファ3005−1に登録し、Symbol候補画像登録フラグF3007がOFFの場合は、一致判定結果R3003が不一致だった時のみ、辞書化対象データD3002にIDを割り振り、辞書化対象データD3002とそのIDを辞書バッファ3005のSymbol情報バッファ3005−1に登録するSymbol情報・ID登録部3006−2と、登録したいSymbol(もしくはSymbol候補画像)のIDと位置情報を辞書バッファ3005のSymbol位置情報バッファ3005−2に登録するID・Symbol位置情報登録部3006−2と、もしSymbol候補画像登録フラグF3007がONの場合で一致判定結果R3003が他のSymbol(Symbol候補画像)と一致している場合、一致しているSymbolのID番号を辞書バッファ3005の一致Symbol情報バッファ3005−3に登録する一致Symbol情報登録部3006−3を持つ。   In the present embodiment 3-2, the symbol candidate image can be registered in the dictionary buffer 3005 only when designated by the user. A description will be given centering on differences from the embodiment 3-1. That is, the operation of the symbol / matching symbol information / symbol position information registration unit 3006 will be described. When the Symbol candidate image registration flag F3007 is ON, an ID is assigned to the lexical object data D3002, the lexical object data D3002 and its ID are registered in the Symbol information buffer 3005-1 of the dictionary buffer 3005, and the Symbol candidate image registration flag F3007. Is OFF, only when the match determination result R3003 does not match, an ID is assigned to the lexical object data D3002, and the lexical object data D3002 and its ID are registered in the symbol information buffer 3005-1 of the dictionary buffer 3005. An information / ID registration unit 3006-2, an ID / symbol position information registration unit 3006-2 for registering the ID and position information of the symbol (or symbol candidate image) to be registered in the symbol position information buffer 3005-2 of the dictionary buffer 3005; If the symbol candidate image registration flag F3007 is ON, the match determination result R3003 is other If it matches the Symbol (Symbol candidate image), with a matching Symbol information registration unit 3006-3 to register Symbol ID number match the match Symbol information buffer 3005-3 dictionary buffer 3005.

ユーザはSymbol候補画像として辞書化対象データD3002を辞書バッファ3005に登録したい時はSymbol候補画像登録フラグF3007をONにし、そうでない時はOFFに設定をする。   The user turns ON the symbol candidate image registration flag F3007 when he / she wants to register the lexicographic object data D3002 as the symbol candidate image in the dictionary buffer 3005, and sets it OFF otherwise.

Symbol候補画像登録フラグF3007がONの時、Symbol・一致Symbol情報・Symbol位置情報登録部3006は、Symbol・一致Symbol情報・Symbol位置情報登録部3002と同様の動作をし、Symbol候補画像を辞書バッファ3005に貯めていく。   When the symbol candidate image registration flag F3007 is ON, the symbol / matching symbol information / symbol position information registration unit 3006 operates in the same manner as the symbol / matching symbol information / symbol position information registration unit 3002, and stores the symbol candidate image in the dictionary buffer. Store up in 3005.

Symbol候補画像登録フラグF3007がOFFの時、Symbol・一致Symbol情報・Symbol位置情報登録部3006は、マッチングが不一致の場合のみSymbolを新たに辞書バッファ3005に登録する。一致の場合は、一致しているSymbolのIDと位置情報を辞書バッファ3005に登録、不一致の場合は、新規登録したSymbolのIDとその位置情報を辞書バッファ3005に登録する。Symbol候補画像の蓄積は行わない。   When the symbol candidate image registration flag F3007 is OFF, the symbol / matching symbol information / symbol position information registration unit 3006 newly registers the symbol in the dictionary buffer 3005 only when the matching does not match. If they match, the ID and position information of the matching Symbol are registered in the dictionary buffer 3005. If they do not match, the ID of the newly registered Symbol and its position information are registered in the dictionary buffer 3005. Symbol candidate images are not accumulated.

このような仕組みを持つことにより、使用メモリ量を抑えつつ画質を向上させることができる。   By having such a mechanism, it is possible to improve the image quality while suppressing the amount of memory used.

例えば、ユーザは以下のような処理を行うことにより使用メモリ量を限定させ、画質を向上させることができる。   For example, the user can limit the amount of memory used by performing the following processing and improve the image quality.

(1)使用メモリ量が規定値に達するまでSymbol候補画像を蓄える。   (1) Symbol candidate images are stored until the amount of used memory reaches a specified value.

(2)使用メモリ量が規定値を超えたら、Symbolを選定し、不要なSymbol候補画像を削除する。   (2) When the amount of memory used exceeds the specified value, a symbol is selected and unnecessary symbol candidate images are deleted.

(3)辞書化処理を行う。   (3) Perform dictionary processing.

以下に、上記した実施形態3−1と3−2についてまとめる。   The above-described Embodiments 3-1 and 3-2 are summarized below.

(1)画像処理装置は、文字毎に一つの辞書ビットマップを形成し、その辞書ビットマップと位置情報を保存することにより画像を圧縮する装置であって、同一辞書と判定されたビットマップ群を、(a)白画素と黒画素の変化点が最も少ないものを採用する、(b)ノイズ画素が最も少ないものを採用する、(c)OCR判定をし、最も一致度が高いものを採用する、のように判定し、辞書BMPを決定する。   (1) An image processing apparatus is an apparatus for compressing an image by forming one dictionary bitmap for each character and storing the dictionary bitmap and position information, and a group of bitmaps determined to be the same dictionary (A) Adopt the one with the least change point of white pixels and black pixels, (b) Adopt the one with the least noise pixels, (c) Adopt the one with the highest degree of coincidence by OCR determination The dictionary BMP is determined.

より具体的には、以下の通りである。   More specifically, it is as follows.

(2)画像処理装置は、画像情報を辞書ビットマップ(Symbol)とその位置情報に分離し保存することにより圧縮する画像を入力として辞書化対象データ(辞書候補画像)を出力する辞書化対象データ抽出部と、辞書化対象データを入力として、辞書バッファに登録されているSymbolと一致しているか否かを判定するSymbol一致判定部と、辞書化対象データと一致判定結果を入力として、Symbolが一致している場合は、辞書化対象データ(Symbol)と、一致Symbolの情報(ID等)とSymbol位置情報を辞書バッファに登録する、Symbolが一致していない場合は、辞書化対象データ(Symbol)と、Symbol位置情報を辞書バッファに登録する、Symbol・一致Symbol情報・Symbol位置情報登録部と、辞書バッファのSymbol情報とSymbol位置情報を出力する辞書情報出力部を備える画像処理装置であって、
辞書化対象データの画像をSymbolとの一致判定後も、symbol候補画像として辞書バッファに保存しておき、同一のSymbolと判定されたSymbol候補画像の中で、最も画素の一致度の高いSymbol候補画像をSymbolとして登録する。
(2) The image processing apparatus separates image information into a dictionary bitmap (Symbol) and its position information and stores the data to be compressed by inputting the image to be compressed, and outputs the data to be dictionaryd (dictionary candidate image). The extraction unit, the dictionary target data as input, the symbol match determination unit for determining whether or not it matches the symbol registered in the dictionary buffer, the dictionary target data and the match determination result as input, and the symbol is If they match, register the data to be dictionaryd (Symbol), the matching symbol information (ID, etc.), and the symbol position information in the dictionary buffer. If the symbols do not match, the data to be dictionaryd (Symbol ), Symbol position information in the dictionary buffer, a symbol / matching symbol information / symbol position information registration unit, and a dictionary information output unit that outputs the symbol information and symbol position information in the dictionary buffer. ,
After the image of the data to be dictionaryd is determined to match the symbol, it is saved in the dictionary buffer as a symbol candidate image, and the symbol candidate with the highest degree of pixel matching among the symbol candidate images determined to be the same symbol Register the image as a symbol.

(3)画像処理装置は、画像情報を辞書ビットマップ(Symbol)とその位置情報に分離し保存することにより圧縮する画像を入力として辞書化対象データ(辞書候補画像)を出力する辞書化対象データ抽出部と、辞書化対象データを入力として、辞書バッファに登録されているSymbolと一致しているか否かを判定するSymbol一致判定部と、辞書化対象データと一致判定結果を入力として、Symbolが一致している場合は、辞書化対象データ(Symbol)と、一致Symbolの情報(ID等)とSymbol位置情報を辞書バッファに登録する、Symbolが一致していない場合は、辞書化対象データ(Symbol)と、Symbol位置情報を辞書バッファに登録する、Symbol・一致Symbol情報・Symbol位置情報登録部と、辞書バッファのSymbol情報とSymbol位置情報を出力する辞書情報出力部とを備える画像処理装置であって、任意のタイミングで、辞書化対象データの画像をSymbolとの一致判定後も、symbol候補画像として辞書バッファに保存しておき、同一のSymbolと判定されたSymbol候補画像の中で、最も画素の一致度の高いSymbol候補画像をSymbolとして登録させたり、従来の圧縮処理装置と同じ動作をさせたりすることができる。   (3) The image processing apparatus separates image information into a dictionary bitmap (Symbol) and its position information, and stores the data to be compressed by inputting the image to be compressed and outputting the data to be dictionaryd (dictionary candidate image). The extraction unit, the dictionary target data as input, the symbol match determination unit for determining whether or not it matches the symbol registered in the dictionary buffer, the dictionary target data and the match determination result as input, and the symbol is If they match, register the data to be dictionaryd (Symbol), the matching symbol information (ID, etc.), and the symbol position information in the dictionary buffer. If the symbols do not match, the data to be dictionaryd (Symbol ), A symbol position information registration unit for registering the symbol position information in the dictionary buffer, and a dictionary information output unit for outputting the symbol information and the symbol position information of the dictionary buffer. At any timing, after the image of the data to be dictionaryd is determined to match the symbol, it is stored in the dictionary buffer as a symbol candidate image, and the most pixel among the symbol candidate images determined to be the same symbol Symbol candidate images with a high degree of coincidence can be registered as Symbols, or the same operation as a conventional compression processing apparatus can be performed.

次に、本発明の実施形態4について説明する。   Next, a fourth embodiment of the present invention will be described.

同一文字毎等で一つの辞書ビットマップを形成し、その辞書ビットマップを圧縮し、その画像圧縮データと位置情報を保存することにより画像を圧縮する方法がある。しかしながら、この方法で作成される辞書ビットマップはあくまで入力された画像の形状に依存するものであり、スキャン画像等は特に辞書ビットマップの圧縮率は良いとは限らない。   There is a method of compressing an image by forming a dictionary bitmap for each character or the like, compressing the dictionary bitmap, and storing the compressed image data and position information. However, the dictionary bitmap created by this method depends only on the shape of the input image, and the compression rate of the dictionary bitmap is not always good for a scanned image or the like.

さらに詳述すると、スキャン画像等において辞書圧縮を適用しようと考えた場合、同一文字でも画素が100%一致する確率は非常に少ないので、ある程度同じと思われる対象は同一辞書(symbol)とみなす辞書圧縮がある。スキャン画像においてはノイズ等が載っている可能性が高く、辞書として登録されたSymbolにも存在すると思われる。これは最終的な出力画像の画質劣化の要因となる。   In more detail, if dictionary compression is applied to scanned images, etc., there is very little probability of 100% pixel matching even for the same character, so a dictionary that is considered to be the same to some extent is a dictionary that is considered the same dictionary (symbol) There is compression. Scanned images are likely to contain noise, etc., and may be present in Symbols registered as dictionaries. This becomes a factor of image quality degradation of the final output image.

その対策としてはあらかじめきれいなフォントの辞書(symbol)を持っておき、該当するものがあればその辞書(symbol)を用い、なければベクトル化(準可逆)するという方法がある(特開2005−208872)。しかし文字のベクトル化は圧縮率の低下が懸念事項として挙がる。   As a countermeasure, there is a method of having a clean font dictionary (symbol) in advance, and using that dictionary (symbol) if applicable, and vectorizing (quasi-reversible) otherwise (Japanese Patent Laid-Open No. 2005-208772). ). However, the vectorization of characters raises concerns about a decrease in compression rate.

そこで、本発明の実施形態4に係る画像処理装置(画像圧縮装置)は、Symbolを適時最適化(エッジ鮮鋭化・ノイズ除去)を行うことにより、Symbolの画質を向上させることができる共に高圧縮化するというものである(図50参照)。つまり、本発明の実施形態4に係る画像処理装置は、辞書ビットマップを圧縮率が高くなるように(例:ランを繋げる:形状に特徴をもたせる等)形状を変形することにより圧縮率を高くする。これにより効率的な辞書ビットマップの圧縮をすることができる。   Therefore, the image processing apparatus (image compression apparatus) according to the fourth embodiment of the present invention can improve the image quality of the symbol by optimizing the symbol in a timely manner (edge sharpening / noise removal) and at the same time high compression. (See FIG. 50). That is, the image processing apparatus according to the fourth embodiment of the present invention increases the compression rate by changing the shape of the dictionary bitmap so that the compression rate is high (eg, connecting runs: giving the shape a feature). To do. This makes it possible to efficiently compress the dictionary bitmap.

具体的には、図51及び図52に示すように、本発明の実施形態4に係る画像処理装置は、電子データを入力とし、辞書化対象範囲を出力する辞書化対象範囲決定部と、電子データと辞書化対象範囲を入力とし、辞書ビットマップとするか否かを判定する辞書化判定結果を出力する辞書化判定部と、電子データと辞書化判定結果を入力とし、辞書化判定結果が辞書ビットマップを作成する判定の場合に辞書ビットマップ情報を作成し出力する辞書BMP作成部と、辞書化対象範囲と辞書化判定結果と辞書バッファ(辞書ビットマップ情報群)を入力とし、辞書化対象となる辞書ビットマップ情報とその位置を関連付けた文字位置情報を出力する文字位置情報作成部と、辞書バッファの辞書ビットマップ情報群のデータを圧縮がし易い形に形状変換し出力する辞書ビットマップ形状変換部を備える。辞書バッファとは、辞書BMP作成部から出力された辞書ビットマップ情報をまとめて管理するバッファである。   Specifically, as shown in FIGS. 51 and 52, the image processing apparatus according to the fourth embodiment of the present invention includes a lexicization target range determination unit that receives electronic data and outputs a lexicalization target range, A lexicon determination unit that outputs data and a lexicalization target range and outputs a lexicographic determination result for determining whether or not to use a dictionary bit map; an electronic data and a lexicographic determination result as inputs; A dictionary BMP creation unit that creates and outputs dictionary bitmap information in the case of a decision to create a dictionary bitmap, and inputs a lexicalization target range, lexicographic judgment result, and dictionary buffer (dictionary bitmap information group) as a dictionary A character position information creation unit that outputs character position information that associates the target dictionary bitmap information with its position, and converts the data of the dictionary bitmap information group in the dictionary buffer into a form that can be easily compressed. Comprising a dictionary bitmap shape conversion unit for force. The dictionary buffer is a buffer that collectively manages dictionary bitmap information output from the dictionary BMP creation unit.

さらに、詳しく説明すると、形状変換部の入力に入力画像・文字位置情報を加えることにより、入力データを考慮して辞書ビットマップの形状を変更する。また、辞書情報生成手段が入力パラメータで制御される。このような構成をとることにより、より効率的な辞書ビットマップの圧縮をすることができる。   More specifically, the shape of the dictionary bitmap is changed in consideration of input data by adding input image / character position information to the input of the shape conversion unit. Further, the dictionary information generating means is controlled by input parameters. By adopting such a configuration, it is possible to compress the dictionary bitmap more efficiently.

以下、本発明の実施形態4について詳細に説明する。   Hereinafter, Embodiment 4 of the present invention will be described in detail.

図51は、本発明の実施形態4−1に係る画像処理装置(画像圧縮装置)による圧縮処理の概念を示す図であり、図54は、本発明の実施形態4−1に係る画像処理装置(画像圧縮装置)の全体構成の一例を示す図であり、図53は、本発明の実施形態4−1に係る画像処理装置(画像圧縮装置)の詳細構成の一例を示す図である。また、図55は、本発明の実施形態4−1に係る圧縮処理の一例を示す図である。図51に示す画像処理装置は、図53及び図54に示す画像処理装置に対応し、主に、図53及び図54に示す画像処理装置を参照し、実施形態4−1に係る圧縮処理を説明する。   51 is a diagram showing the concept of compression processing by an image processing apparatus (image compression apparatus) according to Embodiment 4-1 of the present invention, and FIG. 54 is an image processing apparatus according to Embodiment 4-1 of the present invention. FIG. 53 is a diagram illustrating an example of an overall configuration of an (image compression apparatus), and FIG. 53 is a diagram illustrating an example of a detailed configuration of an image processing apparatus (image compression apparatus) according to Embodiment 4-1 of the present invention. FIG. 55 is a diagram showing an example of the compression processing according to Embodiment 4-1 of the present invention. The image processing apparatus shown in FIG. 51 corresponds to the image processing apparatus shown in FIGS. 53 and 54, and mainly performs compression processing according to Embodiment 4-1 with reference to the image processing apparatus shown in FIGS. explain.

Symbol一致判定部4001は、辞書化対象データD4002と辞書バッファ4005に存在するSymbol情報I4004が一致しているか否かを比較・判定し、一致判定結果R4003(一致していないなら一致していないという情報、一致しているのなら一致しているSymbolのID番号)を出力するSymbol比較部4001−1とSymbol比較結果出力部4001−2を持つ。   The symbol match determination unit 4001 compares / determines whether the dictionary target data D4002 and the symbol information I4004 existing in the dictionary buffer 4005 match, and matches the determination result R4003 (if they do not match, it means that they do not match). It has a symbol comparison unit 4001-1 and a symbol comparison result output unit 4001-2 for outputting information (if matching, the ID number of the matching symbol).

Symbol一致判定部4001は、既知の手段・方法であり、必ず100%画素が一致していなければならないわけではなく、ある程度似ているものは同じと判定する手段・方法も含む。   The Symbol coincidence determination unit 4001 is a known means / method, and 100% pixels do not necessarily have to coincide with each other, and includes a means / method for determining that something similar to some extent is the same.

Symbol・Symbol位置情報登録部4002は、辞書化対象データD4002を新規のSymbol情報として登録し、ID番号を割り振り、辞書バッファ4005のSymbol情報バッファ4005−1に登録するSymbol情報ID登録部4002−1と、登録する辞書化対象データD4002が画像中の何処にあるかを示した位置情報と、そのSymbolのIDを辞書バッファ4005のSymbol位置情報バッファ4005−2に登録するID・Symbol位置情報登録部4002−2を持つ。   The Symbol / Symbol position information registration unit 4002 registers the data to be dictionaryd D4002 as new symbol information, assigns an ID number, and registers it in the Symbol information buffer 4005-1 of the dictionary buffer 4005. ID / Symbol position information registration unit for registering the position information in the image and the ID of the symbol in the symbol position information buffer 4005-2 of the dictionary buffer 4005 4002-2.

また、一致判定結果R4003が辞書化対象データD4002とSymbol情報が一致していないと判定する結果だった場合は、Symbol情報・ID登録部4002−1の処理を行った後で、ID・Symbol位置情報登録部4002−2の処理をするように、一致判定結果R4003が辞書化対象データD4002とSymbol情報があるIDのSymbolと一致していると判定する結果だった場合は、ID・Symbol位置情報登録部4002−2の処理を振り分けるセレクタを持つ。   If the match determination result R4003 is a result of determining that the dictionary target data D4002 and the symbol information do not match, after the processing of the symbol information / ID registration unit 4002-1, the ID / symbol position is determined. If the match determination result R4003 is a result of determining that the data to be dictionary-matched D4002 and the symbol of the ID with the symbol match, as in the processing of the information registration unit 4002-2, the ID / Symbol position information It has a selector that distributes the processing of the registration unit 4002-2.

Symbol修正部4003は辞書バッファ4005にあるSymbolの画質を向上させるため、エッジの凸凹を滑らかにするエッジ鮮鋭化部4003−1と、ノイズ等のノイズを除去するノイズ除去部4003−2を持つ。   In order to improve the image quality of the symbol in the dictionary buffer 4005, the symbol correction unit 4003 includes an edge sharpening unit 4003-1 that smoothes the unevenness of the edge, and a noise removal unit 4003-2 that removes noise such as noise.

この修正処理は新規のSymbolが辞書バッファ4005に登録される度に、新規登録のSymbolに対して行われる。   This correction process is performed on a newly registered Symbol every time a new Symbol is registered in the dictionary buffer 4005.

辞書情報出力部4004は辞書情報出力フラグF4001がONの場合は、辞書バッファ4005にあるSymbol情報バッファ4005−1とSymbol位置情報バッファ4005−2の情報(Symbol情報I4004とSymbol位置情報I4005)を出力するように制御し、出力後に辞書バッファ4005(Symbol情報バッファ4005−1とSymbol位置情報バッファ4005−2を含む)を初期化する信号を、辞書バッファ初期化部4004−2に送るゲート4004−1(辞書情報出力フラグF4001がOFFの場合はゲートは上記のような出力・初期化処理はしない)と、辞書バッファ4005(Symbol情報バッファ4005−1とSymbol位置情報バッファ4005−2を含む)を初期化する辞書バッファ初期化部4003−2を持つ。   When the dictionary information output flag F4001 is ON, the dictionary information output unit 4004 outputs the information (Symbol information I4004 and Symbol position information I4005) of the Symbol information buffer 4005-1 and Symbol position information buffer 4005-2 in the dictionary buffer 4005. The gate 4004-1 sends a signal for initializing the dictionary buffer 4005 (including the symbol information buffer 4005-1 and the symbol position information buffer 4005-2) to the dictionary buffer initialization unit 4004-2 after output. (When the dictionary information output flag F4001 is OFF, the gate does not perform the above output / initialization processing) and the dictionary buffer 4005 (including the symbol information buffer 4005-1 and the symbol position information buffer 4005-2) is initialized. And a dictionary buffer initialization unit 4003-2 to be converted.

本実施形態4−1では、ユーザが以下のように入力信号を制御した場合について説明する。   In the present embodiment 4-1, a case where the user controls the input signal as follows will be described.

・上記説明した図40の画像を入力画像とする。 The image in FIG. 40 described above is set as an input image.

・辞書情報出力フラグF4001は最終ページ以外常にOFFとし、最終ページの辞書登録がすべて終わった時点でONとする。すべての処理が終わったらSymbol情報I4004とSymbol位置情報I4005を出力する。 The dictionary information output flag F4001 is always OFF except for the last page, and is turned ON when all dictionary registrations for the last page are completed. When all the processes are completed, Symbol information I4004 and Symbol position information I4005 are output.

続いて、辞書化処理の一例を説明する。辞書化対象データ抽出部4000の動作について説明する。まず図40の1ページ目の入力画像から辞書化対象データD4002を抽出する(ST4001)。   Next, an example of dictionary processing will be described. The operation of the lexical object data extraction unit 4000 will be described. First, the lexicon target data D4002 is extracted from the input image of the first page in FIG. 40 (ST4001).

左から右、上から下に黒画素を探索すると(1,1)の黒画素が見つかる(左上を(0,0)とする)。(1,1)の黒画素の連結成分を抽出することにより図40の1ページ目の画像の左端の『T』を候補として得ることができる。辞書化対象データの抽出方法は既知の方法を適用することができる。   When black pixels are searched from left to right and from top to bottom, (1,1) black pixels are found (the upper left is (0,0)). By extracting the connected component of the black pixel of (1, 1), “T” at the left end of the image of the first page in FIG. 40 can be obtained as a candidate. A known method can be applied as a method for extracting data to be lexicized.

Symbol一致判定部4001の動作について説明する。辞書化対象データ抽出部4000で得られた辞書化対象データD4002と辞書バッファ4005に存在するSymbolを比較する(ST4002)。今回は比較するSymbolが辞書バッファ4005に登録されていないので、不一致という結果(一致判定結果R4003)を出力する(ST4003、NO)。なお、意図的にあらかじめ辞書バッファ4005に特定Symbolを入れておくことも可能である。   The operation of the symbol coincidence determination unit 4001 will be described. The lexicalization target data D4002 obtained by the lexicalization target data extraction unit 4000 is compared with the Symbol existing in the dictionary buffer 4005 (ST4002). Since the symbol to be compared is not registered in the dictionary buffer 4005 this time, a mismatch result (match determination result R4003) is output (ST4003, NO). It is also possible to intentionally put a specific symbol in the dictionary buffer 4005 in advance.

Symbol・Symbol位置情報登録部4002の動作を説明する。もし一致判定結果R4003が『一致(該当するID番号)』なら(ST4003、YES)、以下の作業を行う(ST4004)。   The operation of the Symbol / Symbol position information registration unit 4002 will be described. If the match determination result R4003 is “match (corresponding ID number)” (ST4003, YES), the following operation is performed (ST4004).

・一致しているSymbol情報がどれかわかる情報(ID)を辞書バッファ4005に登録(ST4004
・当該Symbolがどの位置にあるのかを示す情報を辞書バッファ4005に登録(ST4004)
一致判定結果R4003が『不一致』なら(ST4003、NO)、以下の作業を行う(ST4005)。
-Information (ID) that identifies which symbol information matches is registered in the dictionary buffer 4005 (ST4004)
-Information indicating the position of the symbol is registered in the dictionary buffer 4005 (ST4004).
If coincidence determination result R4003 is “non-coincidence” (NO in ST4003), the following operation is performed (ST4005).

・辞書化対象データ1003をSymbolとして辞書バッファ4005に登録(ST4005)
・当該Symbolがどの位置にあるのかを示す情報を辞書バッファ4005に登録(ST4005)
本実施例では、まず『不一致』なので(ST4003、NO)、・1ページ目の左端の『T』をSymbolとして辞書バッファ4005に登録(ST4005)・『T』が1ページ目の(1,1)の位置にあるという情報を辞書バッファ4005に登録(ST4005)
この時の辞書バッファ4005の状態を図56に示す。
Registered data 1003 as a symbol is registered in the dictionary buffer 4005 as a symbol (ST4005).
-Information indicating where the symbol is located is registered in the dictionary buffer 4005 (ST4005).
In this embodiment, since it is “mismatch” (ST4003, NO), “T” at the left end of the first page is registered as a symbol in the dictionary buffer 4005 (ST4005) • “T” is (1,1) of the first page ) Is registered in the dictionary buffer 4005 (ST4005).
The state of the dictionary buffer 4005 at this time is shown in FIG.

Symbol修正部4003は、辞書バッファ4005に新規のSymbolが登録されたらそのSymbolに対して、エッジを滑らかにする処理(エッジ鮮鋭化処理4003−1)と、ノイズ等のノイズ除去をする(ノイズ除去部4003−2)(ST4006)。   When a new symbol is registered in the dictionary buffer 4005, the symbol correction unit 4003 performs processing for smoothing an edge (edge sharpening processing 4003-1) and noise removal such as noise (noise removal). Part 4003-2) (ST4006).

この時の辞書バッファ4005の状態を図57に示す。   The state of the dictionary buffer 4005 at this time is shown in FIG.

続いて次の辞書化対象データ抽出部4000の作業を行う。図40の1ページ目の入力画像から辞書化対象データD4002を抽出する(ST4001)。ここでは先に登録・判定されたSymbolは除外して抽出を行う。   Subsequently, the next dictionary conversion target data extraction unit 4000 is operated. The dictionary data D4002 is extracted from the input image of the first page in FIG. 40 (ST4001). Here, extraction is performed by excluding Symbols registered and determined earlier.

左から右、上から下に黒画素を探索すると(10,1)の黒画素が見つかる(左上を(0,0)とする:左端の『T』は登録済みなので除外して探索する:本抽出部に画像を入力する時点で該当の『T』を削除しておくことも可能)。   When searching for black pixels from left to right and from top to bottom, a black pixel of (10,1) is found (the upper left is (0,0): the leftmost “T” is already registered, so it is excluded and searched) It is also possible to delete the corresponding “T” when inputting the image to the extraction unit).

(10,1)の黒画素の連結成分を抽出することにより図40の左から2番目の『T』を候補として得ることができる。辞書化対象データの抽出方法は、既知の方法を適用することができる。   By extracting the connected component of (10, 1) black pixels, the second “T” from the left in FIG. 40 can be obtained as a candidate. A known method can be applied as a method for extracting data to be dictionaryd.

Symbol一致判定部4001の動作について説明する。辞書化対象データ抽出部4000で得られた辞書化対象データD4002と辞書バッファ4005に存在するSymbolを比較する(ST4002)。今回は比較するSymbolが辞書バッファ4005に登録さているので比較を行う。左端の『T』と比較する。ここでは左端の『T』と一致という結果(一致判定結果R4003)を出力する(ST4003、YES)。判定方法は既知の方法を適用することができる。   The operation of the symbol coincidence determination unit 4001 will be described. The lexicalization target data D4002 obtained by the lexicalization target data extraction unit 4000 is compared with the Symbol existing in the dictionary buffer 4005 (ST4002). Since the symbol to be compared is registered in the dictionary buffer 4005 this time, the comparison is performed. Compare with “T” on the left. Here, a result of matching with “T” at the left end (matching determination result R4003) is output (ST4003, YES). A known method can be applied as the determination method.

Symbol・Symbol位置情報登録部4002の動作について説明する。『左端の『T』と一致』なので、
・一致しているSymbolが左端の『T』とわかる情報(ID番号)を辞書バッファ4005に登録(ST4004)
・この『T』が(10,1)にあるという位置情報を辞書バッファ4005に登録(ST4004)
この時の辞書バッファ4005の状態を図58に示す。
The operation of the Symbol / Symbol position information registration unit 4002 will be described. “Matches the leftmost“ T ””, so
・ Register information (ID number) in which the matching Symbol is identified as “T” at the left end in the dictionary buffer 4005 (ST4004)
・ Register location information that this "T" is at (10,1) in the dictionary buffer 4005 (ST4004)
The state of the dictionary buffer 4005 at this time is shown in FIG.

Symbol修正部4003は、今回は新規登録されたSymbolは無いので特に処理は行わない。   The Symbol correction unit 4003 does not perform any particular processing because there is no newly registered Symbol this time.

続いて次の辞書化対象データ抽出部4000の作業を行う。図40の2ページ目の入力画像から辞書化対象データD4002を抽出する(ST4001)。ここでは先に登録・判定されたSymbolは除外して抽出を行う。   Subsequently, the next dictionary conversion target data extraction unit 4000 is operated. The dictionary data D4002 is extracted from the input image on the second page of FIG. 40 (ST4001). Here, extraction is performed by excluding Symbols registered and determined earlier.

左から右、上から下に黒画素を探索すると(19,1)の黒画素が見つかる(左上を(0,0)とする:左二つの『T』は登録済みなので除外して探索する:本抽出部に画像を入力する時点で該当の『T』を削除しておくことも可能)。   If you search for black pixels from left to right and from top to bottom, you can find (19,1) black pixels (the upper left is (0,0): the two left “T” are already registered, so search for them: It is also possible to delete the corresponding “T” when inputting an image into the main extraction unit).

(19,1)の黒画素の連結成分を抽出することにより図40の『I』を候補として得ることができる。辞書化対象データの抽出方法は、既知の方法を適用することができる。   By extracting the connected component of the black pixel of (19, 1), “I” in FIG. 40 can be obtained as a candidate. A known method can be applied as a method for extracting data to be dictionaryd.

Symbol一致判定部4001の動作について説明する。辞書化対象データ抽出部4000で得られた辞書化対象データD4002と辞書バッファ4005に存在するSymbolを比較する(ST4002)。今回は比較するSymbolが辞書バッファ4005に登録さているので比較を行う。『T』と比較する。ここでは不一致という結果(一致判定結果R4003)を出力する(ST4003、NO)。判定方法は、既知の方法を適用することができる。   The operation of the symbol coincidence determination unit 4001 will be described. The lexicalization target data D4002 obtained by the lexicalization target data extraction unit 4000 is compared with the Symbol existing in the dictionary buffer 4005 (ST4002). Since the symbol to be compared is registered in the dictionary buffer 4005 this time, the comparison is performed. Compare with “T”. Here, a result of mismatch (match judgment result R4003) is output (ST4003, NO). A known method can be applied as the determination method.

Symbol・Symbol位置情報登録部4002の動作について説明する。『不一致』なので(ST4003、NO)、
・『I』をSymbolとして辞書バッファ4005に登録(ST4005)
・『I』が(19,1)の位置にあるという情報を辞書バッファ4005に登録(ST4005)
この時の辞書バッファ4005の状態を図59に示す。
The operation of the Symbol / Symbol position information registration unit 4002 will be described. Because it is “mismatch” (ST4003, NO),
・ "I" is registered as a symbol in the dictionary buffer 4005 (ST4005)
-Information that "I" is at the position (19, 1) is registered in the dictionary buffer 4005 (ST4005).
The state of the dictionary buffer 4005 at this time is shown in FIG.

Symbol修正部4003は、辞書バッファ4005に新規のSymbolが登録されたらそのSymbolに対して、エッジを滑らかにする処理(エッジ鮮鋭化処理4003−1)と、ノイズ等のノイズ除去をする(ノイズ除去部4003−2)(ST4006)。   When a new symbol is registered in the dictionary buffer 4005, the symbol correction unit 4003 performs processing for smoothing an edge (edge sharpening processing 4003-1) and noise removal such as noise (noise removal). Part 4003-2) (ST4006).

この時の辞書バッファ4005の状態を図60に示す。   The state of the dictionary buffer 4005 at this time is shown in FIG.

続いて次の辞書化対象データ抽出部4000の作業を行う。辞書化対象データ抽出部4000は、図40の2ページ目の入力画像から辞書化対象データD4002を抽出する(ST4001)。ここでは先に登録・判定されたSymbolは除外して抽出を行う。   Subsequently, the next dictionary conversion target data extraction unit 4000 is operated. The lexical object data extraction unit 4000 extracts lexical object data D4002 from the input image on the second page of FIG. 40 (ST4001). Here, extraction is performed by excluding Symbols registered and determined earlier.

左から右、上から下に黒画素を探索すると(19,1)の黒画素が見つかる(左上を(0,0)とする:左二つの『T』と『I』は登録済みなので除外して探索する:本抽出部に画像を入力する時点で該当の『T』『I』を削除しておくことも可能)。   If you search for black pixels from left to right and from top to bottom, you will find (19,1) black pixels (the upper left is set to (0,0): the left two “T” and “I” are already registered, so exclude them) Search: The corresponding “T” and “I” can be deleted when the image is input to the main extraction unit).

(22,1)の黒画素の連結成分を抽出することにより図40の右端の『T』を候補として得ることができる。辞書化対象データの抽出方法は、既知の方法を適用することができる。   By extracting the connected component of the black pixel of (22, 1), “T” at the right end of FIG. 40 can be obtained as a candidate. A known method can be applied as a method for extracting data to be dictionaryd.

Symbol一致判定部4001の動作について説明する。辞書化対象データ抽出部4000で得られた辞書化対象データD4002と辞書バッファ4005に存在するSymbolを比較する(ST4002)。今回は比較するSymbolが辞書バッファ4005に登録さているので比較を行う。『T』『I』と比較する。ここでは左端の『T』と一致という結果(一致判定結果R4003)を出力する(ST4003、YES)。判定方法は、既知の方法を適用することができる。   The operation of the symbol coincidence determination unit 4001 will be described. The lexicalization target data D4002 obtained by the lexicalization target data extraction unit 4000 is compared with the Symbol existing in the dictionary buffer 4005 (ST4002). Since the symbol to be compared is registered in the dictionary buffer 4005 this time, the comparison is performed. Compare with “T” and “I”. Here, a result of matching with “T” at the left end (matching determination result R4003) is output (ST4003, YES). A known method can be applied as the determination method.

Symbol・Symbol位置情報登録部4002の動作について説明する。『左端の『T』と一致』なので(ST4003、YES)、
・一致しているSymbolが左端の『T』とわかる情報(ID番号)を辞書バッファ4005に登録(ST4004)
・この『T』が2ページ目の(10,1)にあるという位置情報を辞書バッファ4005に登録(ST4004)
この時の辞書バッファ4005の状態を図61に示す。
The operation of the Symbol / Symbol position information registration unit 4002 will be described. Since it is “matches“ T ”at the left end” (ST4003, YES),
・ Register the information (ID number) in which the matching Symbol is recognized as “T” at the left end in the dictionary buffer 4005 (ST4004)
-Location information that this "T" is at (10,1) on the second page is registered in the dictionary buffer 4005 (ST4004).
The state of the dictionary buffer 4005 at this time is shown in FIG.

Symbol修正部4003は、今回は新規登録されたSymbolは無いので特に処理は行わない。   The Symbol correction unit 4003 does not perform any particular processing because there is no newly registered Symbol this time.

ユーザは予定しているすべての辞書登録が終わったので(ST4007、YES)、辞書情報出力フラグF4001をONにし、Symbol情報I4004とSymbol位置情報I4005を取り出す。   Since all the registered dictionary registrations are completed (YES in ST4007), the user turns on dictionary information output flag F4001 and takes out symbol information I4004 and symbol position information I4005.

辞書情報出力部4003は、辞書情報出力フラグF4001がONであるので辞書バッファ4005にあるSymbol情報I4004とSymbol位置情報I4005を出力し(ST4008)、その後辞書バッファ4005を初期化する(ST4009)。   Since the dictionary information output flag F4001 is ON, the dictionary information output unit 4003 outputs the symbol information I4004 and the symbol position information I4005 in the dictionary buffer 4005 (ST4008), and then initializes the dictionary buffer 4005 (ST4009).

以上により、初めに辞書候補として挙がった画像をそのまま辞書(Symbol)として登録した場合に比べて、画質が良くなるという利点がある。初めに辞書候補として挙がった画像をそのまま辞書(Symbol)として登録した場合には、図46に示すような復号画像となってしまう。これに対して本実施形態4−1の復号結果は、図62に示すようになる。   As described above, there is an advantage that the image quality is improved as compared with a case where an image initially listed as a dictionary candidate is directly registered as a dictionary. When an image initially listed as a dictionary candidate is directly registered as a dictionary, it becomes a decoded image as shown in FIG. On the other hand, the decoding result of the embodiment 4-1 is as shown in FIG.

図64は、本発明の実施形態4−2に係る画像処理装置(画像圧縮装置)の全体構成の一例を示す図であり、図63は、本発明の実施形態4−2に係る画像処理装置(画像圧縮装置)の詳細構成の一例を示す図である。図65は、本発明の実施形態4−2に係る圧縮処理の一例を示す図である。   FIG. 64 is a diagram showing an example of the overall configuration of an image processing apparatus (image compression apparatus) according to Embodiment 4-2 of the present invention, and FIG. 63 is an image processing apparatus according to Embodiment 4-2 of the present invention. It is a figure which shows an example of a detailed structure of (image compression apparatus). FIG. 65 is a diagram illustrating an example of compression processing according to Embodiment 4-2 of the present invention.

Symbol修正部4006は、ユーザの指定するSymbol修正タイミングで(ST4006a、YES)、Symbolのエッジ鮮鋭化処理やノイズ除去部の処理が動作する(ST4006b)処理部である。これにより、登録されたSymbolをすぐに修正することによって生じる、『一致する辞書候補画像がsymbolを修正しない従来のものと変わる』といった現象を防ぐことができる。ユーザの修正したいタイミングでSymbolの修正を行えるという利点がある。   Symbol correction section 4006 is a processing section in which symbol edge sharpening processing and noise removal processing are operated (ST4006b) at the symbol correction timing designated by the user (ST4006a, YES). Thus, it is possible to prevent a phenomenon such as “a matching dictionary candidate image is changed from a conventional one that does not correct the symbol”, which is caused by immediately correcting the registered Symbol. There is an advantage that the symbol can be corrected at the timing when the user wants to correct it.

以下に、上記した実施形態4−1と4−2についてまとめる。   The above Embodiments 4-1 and 4-2 will be summarized below.

(1)画像処理装置は、電子データを入力とし、辞書化対象範囲を出力する辞書化対象範囲決定部と、電子データと辞書化対象範囲を入力とし、辞書ビットマップとするか否かを判定する辞書化判定結果を出力する辞書化判定部と、電子データと辞書化判定結果を入力とし、辞書化判定結果が辞書ビットマップを作成する判定の場合に辞書ビットマップ情報を作成し出力する辞書BMP作成部と、辞書化対象範囲と辞書化判定結果と辞書バッファ(辞書ビットマップ情報群)を入力とし、辞書化対象となる辞書ビットマップ情報とその位置を関連付けた文字位置情報を出力する文字位置情報作成部と、辞書バッファの辞書ビットマップ情報群のデータを圧縮がし易い形に形状変換し出力する辞書ビットマップ形状変換部を備える。さらに、形状変換部の入力に入力画像・文字位置情報を加えることにより、入力データを考慮して辞書ビットマップの形状を変更する。さらに、辞書情報生成手段が入力パラメータで制御される。   (1) The image processing apparatus receives electronic data and outputs a lexicographic target range determination unit, and determines whether or not the electronic data and the lexicographic target range are input to form a dictionary bitmap. A dictionary determining unit for outputting a dictionary determination result to be generated, and a dictionary for inputting and outputting electronic data and the dictionary determination result, and generating and outputting dictionary bitmap information when the dictionary determination result is a determination to create a dictionary bitmap Character that outputs character position information that associates the dictionary bitmap information to be lexicized and its position, with the BMP creation unit, lexicalization target range, lexicographic judgment result, and dictionary buffer (dictionary bitmap information group) as inputs A position information creation unit and a dictionary bitmap shape conversion unit for converting the data of the dictionary bitmap information group of the dictionary buffer into a form that can be easily compressed and outputting the data. Further, by adding the input image / character position information to the input of the shape conversion unit, the shape of the dictionary bitmap is changed in consideration of the input data. Further, the dictionary information generating means is controlled by the input parameters.

より具体的には、以下の通りである。   More specifically, it is as follows.

(2)画像処理装置は、画像情報を辞書ビットマップ(Symbol)とその位置情報に分離し保存することにより圧縮する画像を入力として辞書化対象データ(辞書候補画像)を出力する辞書化対象データ抽出部と、辞書化対象データを入力として、辞書バッファに登録されているSymbolと一致しているか否かを判定するSymbol一致判定部と、辞書化対象データと一致判定結果を入力として、Symbolが一致している場合は、辞書化対象データ(Symbol)と、一致Symbolの情報(ID等)とSymbol位置情報を辞書バッファに登録する、Symbolが一致していない場合は、辞書化対象データ(Symbol)と、Symbol位置情報を辞書バッファに登録する、Symbol・Symbol位置情報登録部と、辞書バッファのSymbol情報とSymbol位置情報を出力する辞書情報出力部と、を備え、辞書バッファのSymbolに対し輪郭を滑らかにする処理と、ノイズ除去処理をする。   (2) The image processing apparatus separates image information into a dictionary bitmap (Symbol) and its position information and stores the data to be compressed by inputting the image to be compressed, and outputs the data to be dictionaryd (dictionary candidate image). The extraction unit, the dictionary target data as input, the symbol match determination unit for determining whether or not it matches the symbol registered in the dictionary buffer, the dictionary target data and the match determination result as input, and the symbol is If they match, register the data to be dictionaryd (Symbol), the matching symbol information (ID, etc.), and the symbol position information in the dictionary buffer. If the symbols do not match, the data to be dictionaryd (Symbol ) And a symbol / symbol position information registration unit for registering the symbol position information in the dictionary buffer, and a dictionary information output unit for outputting the symbol information and the symbol position information of the dictionary buffer. A process for smoothing and noise removal processing.

(3)画像処理装置は、画像情報を辞書ビットマップ(Symbol)とその位置情報に分離し保存することにより圧縮する画像を入力として辞書化対象データ(辞書候補画像)を出力する辞書化対象データ抽出部と、辞書化対象データを入力として、辞書バッファに登録されているSymbolと一致しているか否かを判定するSymbol一致判定部と、辞書化対象データと一致判定結果を入力として、Symbolが一致している場合は、辞書化対象データ(Symbol)と、一致Symbolの情報(ID等)とSymbol位置情報を辞書バッファに登録する、Symbolが一致していない場合は、辞書化対象データ(Symbol)と、Symbol位置情報を辞書バッファに登録する、Symbol・Symbol位置情報登録部と、辞書バッファのSymbol情報とSymbol位置情報を出力する辞書情報出力部と、を備え、辞書バッファのSymbolに対し輪郭を滑らかにする処理と、ノイズ除去処理をユーザの指定するタイミングで行う。   (3) The image processing apparatus separates image information into a dictionary bitmap (Symbol) and its position information, and stores the data to be compressed by inputting the image to be compressed and outputting the data to be dictionaryd (dictionary candidate image). The extraction unit, the dictionary target data as input, the symbol match determination unit for determining whether or not it matches the symbol registered in the dictionary buffer, the dictionary target data and the match determination result as input, and the symbol is If they match, register the data to be dictionaryd (Symbol), the matching symbol information (ID, etc.), and the symbol position information in the dictionary buffer. If the symbols do not match, the data to be dictionaryd (Symbol ) And a symbol / symbol position information registration unit for registering the symbol position information in the dictionary buffer, and a dictionary information output unit for outputting the symbol information and the symbol position information of the dictionary buffer. A process of smoothing, performed at the timing designated by the user noise removal processing.

次に、本発明の実施形態5について説明する。   Next, a fifth embodiment of the present invention will be described.

画像同士を比較し、お互いが同一のものかを比較したり、ある第一の画像と同じ画像が第二の画像中に存在するか否か等を調べたりして、画像を圧縮する技術が提案されている。   A technology that compresses images by comparing images and comparing whether they are the same or by examining whether the same image as a certain first image exists in the second image. Proposed.

ISO/IEC14492は、国際標準となっている2値圧縮技術のJBIG2の技術を開示している。これは画像のある領域や文字(文字列等)をひとつの辞書画像として捉え(例えば1文字の画像)、共通するものは同じ辞書画像として扱い、辞書画像と位置情報を持つことによりデータを圧縮する方法である。これらは特定のパターンを持つ画像(文字画像やハーフトーン画像等)に対して効果を発揮する。これをスキャン画像に応用し、特定のパターン(画像)を探しながら辞書画像とマッチングを行い、一致するものが無ければ辞書に登録していくことによりスキャン画像の高圧縮化を実現できる。   ISO / IEC14492 discloses the technology of JBIG2, a binary compression technology that has become an international standard. This treats a certain region or character (character string, etc.) of an image as a single dictionary image (for example, a single character image), treats common items as the same dictionary image, and compresses data by having the dictionary image and position information. It is a method to do. These are effective for images having a specific pattern (such as character images and halftone images). Applying this to the scanned image, matching with the dictionary image while searching for a specific pattern (image), and if there is no match, registering it in the dictionary makes it possible to achieve high compression of the scanned image.

特開2006−23976は、画像中に任意のテンプレート画像と同じ・もしくは同じような画像が存在するかを調べる技術を開示している。特開2006−23976の基本技術はテンプレートマッチング法と呼ばれ、画像中にテンプレート画像(第一の画像)と同じ画像が無いかを調べる為に、第二の画像に対して第一の画像を少しずつずらしながらマッチング(比較)をする技術である。このテンプレートマッチングのマッチング精度を保った上で計算量を削減する方法として、特開2006−23976のような提案がされている。この技術はテンプレートマッチングにおいて、テンプレートのノイズ量とテンプレート特徴量を用いて、テンプレートをずらしながら走査するときの「ずらし量」と画像の変形を考慮した「変形量」、画像の抽出可否を決定する「閾値」の3パラメータを自動で設定するものである。これらはテンプレートの特徴に併せて3つのパラメータを自動で設定するものでありテンプレートに応じたマッチングの判断ができる。   Japanese Patent Application Laid-Open No. 2006-23976 discloses a technique for examining whether an image is the same as or similar to an arbitrary template image. The basic technique of Japanese Patent Laid-Open No. 2006-23976 is called a template matching method, and in order to check whether an image is the same as a template image (first image) in the image, the first image is added to the second image. This is a technique for matching (comparison) while shifting little by little. As a method for reducing the amount of calculation while maintaining the matching accuracy of the template matching, a proposal as disclosed in JP-A-2006-23976 has been proposed. This technology uses template noise amount and template feature amount in template matching to determine “shift amount” when scanning while shifting the template, “deformation amount” considering image deformation, and whether image extraction is possible. Three parameters “threshold” are automatically set. In these, three parameters are automatically set in accordance with the template characteristics, and matching according to the template can be determined.

上記2つの方法は似たように画像同士を比較する方法であるが、比較する画像を探し・作りながら比較し辞書を作成する技術と、あらかじめ比較する画像があり似たような画像が別画像にないかを比較する技術という点で大きく異なる。   The above two methods are similar methods for comparing images. However, a technique for comparing and creating a dictionary by searching for and creating images to be compared and images that are similar to each other in advance are similar images. It is very different in terms of technology to compare whether there is any.

ISO/IEC14492では、図82に示すような処理装置を用いることにより、入力画像から特徴画像(例えば文字)を抽出し、同じ文字画像は1つの辞書画像として保持し、それに対応する位置情報を持つことによりデータ量を削減することにより圧縮することが可能である。しかし図82のような処理装置では、特徴画像毎の特徴を捉えた一致判定(特徴画像毎にマッチングパラメータを設定)ができないので、誤判定をする可能性が高い。   In ISO / IEC14492, by using a processing device as shown in FIG. 82, a feature image (for example, a character) is extracted from an input image, the same character image is held as one dictionary image, and has position information corresponding thereto. Therefore, it is possible to compress the data by reducing the data amount. However, in the processing apparatus as shown in FIG. 82, since it is not possible to make a coincidence determination (matching parameters are set for each feature image) by capturing the features for each feature image, there is a high possibility of erroneous determination.

特開2006−23976は、テンプレートマッチングの精度向上・高速化に関する技術を開示している。図83に示すように、特開2006−23976に開示された技術では、テンプレート画像に合わせて画像抽出可否を決定する「閾値」やテンプレート画像の「ずらし量」、画像の「変形量」を決定しているが、これはテンプレート画像に対して一意に決定しており探索対象となる画像の特徴を用いていない為、対象画像によっては全く効果が無い可能性がある。この技術はテンプレート情報を用いて上記3パラメータを決定するが、これはテンプレートマッチングにのみ適用可能であり、ISO/IEC14492のような、入力画像から同一の特徴画像(例えば文字)を抽出し、辞書画像を作成するような場合に構成からして異なるので適用できない(そもそも図82のような装置にはテンプレートマッチングのようなずらし量等の概念は無いし、比較目的や実現する為の構成が全く異なる)。   Japanese Patent Application Laid-Open No. 2006-23976 discloses a technique related to improving the accuracy and speeding up of template matching. As shown in FIG. 83, the technique disclosed in Japanese Patent Application Laid-Open No. 2006-23976 determines a “threshold value” that determines whether image extraction is possible, a “shift amount” of the template image, and a “deformation amount” of the image. However, since this is uniquely determined for the template image and does not use the characteristics of the image to be searched, there may be no effect depending on the target image. This technique determines the above three parameters using template information, but this is only applicable to template matching, and extracts the same feature image (for example, characters) from the input image, such as ISO / IEC14492, and dictionary Since it differs depending on the configuration when creating an image, it cannot be applied (in the first place, there is no concept such as shift amount like template matching in the apparatus as shown in FIG. 82, and there is no comparison purpose or configuration for realization at all. Different).

実施形態5に係る画像処理装置(画像圧縮装置)は、2値や多値の入力画像から特定のパターン(画像)を探しながら辞書画像とマッチングを行い、一致するものが無ければ辞書に登録する装置であって、画像マッチングの誤判定を減らすことに優れる。動的に辞書を作成する時に判断するSymbol(Pattern)と辞書画像の一致判定を行うパラメータを、辞書画像と比較するSymbol(Pattern)画像の情報を用いて自動で決定する。   The image processing apparatus (image compression apparatus) according to the fifth embodiment performs matching with a dictionary image while searching for a specific pattern (image) from binary or multi-valued input images, and if there is no match, registers it in the dictionary. The apparatus is excellent in reducing erroneous determination of image matching. The parameter for determining the match between the Symbol (Pattern) and the dictionary image, which is determined when the dictionary is dynamically created, is automatically determined using the information of the Symbol (Pattern) image to be compared with the dictionary image.

実施形態5に係る画像処理装置は、任意の入力画像からある領域を取り出し、その領域画像が1つ以上の辞書画像と一致しているかを判断し、一致していなければ辞書に登録する。実施形態5に係る画像処理装置は、以下のような各部によって構成される。   The image processing apparatus according to the fifth embodiment extracts a certain area from an arbitrary input image, determines whether the area image matches one or more dictionary images, and registers them in the dictionary if they do not match. The image processing apparatus according to the fifth embodiment includes the following units.

・領域画像抽出部
・マッチングパラメータ決定部
・一致判定部
・辞書登録部
(・辞書)
実施形態5に係る画像処理装置は、上記構成により、入力領域画像毎に最適なマッチングパラメータでマッチング判定をすることができ、誤判定を減らしつつ辞書を作成することができる。
・ Area image extraction unit ・ Matching parameter determination unit ・ Match determination unit ・ Dictionary registration unit (・ Dictionary)
With the above configuration, the image processing apparatus according to the fifth embodiment can perform matching determination with an optimal matching parameter for each input region image, and can create a dictionary while reducing erroneous determination.

図66に示す入力画像から文字を抽出し文字と辞書の一致判定を行い、最小限の辞書画像を作成したい場合について説明する。   A case will be described in which characters are extracted from the input image shown in FIG. 66, matching between the characters and the dictionary is determined, and a minimum dictionary image is to be created.

実施形態5に係る画像処理装置を適用しない場合、つまりlossyパラメータの場合(一致判定条件が緩いもの)、以下のように判定される。   When the image processing apparatus according to the fifth embodiment is not applied, that is, in the case of the lossy parameter (those with a loose match determination condition), the determination is as follows.

・両端のAは一致と判定
・中央のlと1も一致と判定
最終的な画像は図67に示すようになり、『l』と『1』の区別がつかなくなる。
・ A at both ends is determined to be coincident. L and 1 at the center are also coincident. The final image is as shown in FIG. 67, making it impossible to distinguish between “l” and “1”.

また、near-losslessパラメータの場合(一致判定条件が厳しいもの)、以下のように判定される。   Further, in the case of a near-lossless parameter (one with strict match determination conditions), the determination is made as follows.

・両端のAは不一致と判定
・中央のlと1も不一致と判定
『l』『1』を区別する為にパラメータを厳しくすると、最終的な画像は図68に示すようになり、両端の『A』も一致しなくなり、高圧縮できなくなる。
・ A is determined to be inconsistent at both ends. ・ The central l and 1 are also determined to be inconsistent. If the parameters are stricter to distinguish “l” and “1”, the final image will be as shown in FIG. A ”also does not match, and high compression is not possible.

実施形態5に係る画像処理装置は、サイズの大きいSymbolの比較はlossyパラメータで、サイズの小さいSymbolの比較はnear-losslessパラメータで処理する。その結果、以下のように判定される。   The image processing apparatus according to the fifth embodiment processes a comparison of a large symbol with a lossy parameter and a comparison of a small symbol with a near-lossless parameter. As a result, the determination is made as follows.

・両端のAは一致と判定
・中央のlと1も不一致と判定
この場合、最終的な画像は図69に示すようになる。つまり、上記条件を加えることにより必要な画質を保ちつつ、効果的に圧縮することができる。
• A at both ends is determined to be coincident • 1 and 1 at the center are also determined to be inconsistent. That is, by adding the above conditions, it is possible to effectively compress while maintaining the required image quality.

以下、本発明の実施形態5について詳細に説明する。   Hereinafter, Embodiment 5 of the present invention will be described in detail.

図70は、本発明の実施形態5−1に係る画像処理装置(画像圧縮装置)の全体構成の一例を示す図であり、図76は、本発明の実施形態5−1に係る画像処理装置(画像圧縮装置)のマッチングパラメータ決定部5001の詳細を示す図である。   FIG. 70 is a diagram showing an example of the overall configuration of an image processing apparatus (image compression apparatus) according to Embodiment 5-1 of the present invention, and FIG. 76 is an image processing apparatus according to Embodiment 5-1 of the present invention. It is a figure which shows the detail of the matching parameter determination part 5001 of (image compression apparatus).

実施形態5−1に係る画像処理装置は、2値や多値の入力画像から特徴画像(文字画像)を抽出し、同じと思われる文字は同一の辞書画像として抽出することにより入力画像に存在する文字タイプを抽出する。なお、特徴画像は、文字画像以外に、記号やテクスチャ等の繰り返し発生し得る特徴を持つ画像すべてを指す。   The image processing apparatus according to Embodiment 5-1 extracts a feature image (character image) from a binary or multi-valued input image, and characters that appear to be the same exist in the input image by extracting them as the same dictionary image. Extract the character type. The feature image refers to all images having features that can be repeatedly generated, such as symbols and textures, in addition to the character image.

実施形態5−1に係る画像処理装置は、2値や多値の入力画像を入力することにより、入力画像に含まれる重複しない2値や多値の文字画像を得ることができる。これにより2値や多値の入力画像中にどのようなタイプの文字が存在するかを確認することができる。これは例えば非常用漢字(特殊文字)が使われていないかの確認等に使える。   The image processing apparatus according to Embodiment 5-1 can obtain a binary or multi-value character image that is not duplicated and included in the input image by inputting a binary or multi-value input image. Thereby, it is possible to confirm what type of character is present in the binary or multi-valued input image. This can be used, for example, to check whether emergency kanji (special characters) are used.

図71は、入力画像の一例を示し、図72〜図75は、辞書バッファ5003にバッファリングされた入力画像の一例を示す図である。特徴画像抽出部5000は、例えば、図71に示す入力画像から、既存の文字切り出し処理を用いて、文字を順に抽出し、図72〜図75に示す特徴画像(特徴画像情報I5001)を出力する。   71 shows an example of an input image, and FIGS. 72 to 75 are diagrams showing an example of an input image buffered in the dictionary buffer 5003. FIG. For example, the feature image extraction unit 5000 sequentially extracts characters from the input image shown in FIG. 71 using existing character segmentation processing, and outputs the feature images (feature image information I5001) shown in FIGS. .

図76は、上記したマッチングパラメータを決定するマッチングパラメータ決定部5001の概略構成を示すブロック図である。マッチングパラメータ決定部5001は、特徴画像抽出部5000より抽出された特徴画像情報I5001を入力として、マッチングパラメータの決定を行う。ここでマッチングパラメータとは画像同士が一致・不一致しているか否かを判定するための閾値やマッチングアルゴリズムのサブファンクションの動作のON/OFFを制御をする為のパラメータである。   FIG. 76 is a block diagram illustrating a schematic configuration of a matching parameter determination unit 5001 that determines the above-described matching parameters. The matching parameter determination unit 5001 receives the feature image information I5001 extracted from the feature image extraction unit 5000 and determines a matching parameter. Here, the matching parameter is a parameter for controlling ON / OFF of a threshold value for determining whether or not images match or does not match, and operation of a subfunction of the matching algorithm.

これらのパラメータを特徴画像情報I5001より決定する。このパラメータの決定方法として、特徴画像情報I5001の画像幅・高さを用いて決定する。マッチングパラメータ決定部5001は、『画像幅×2 < 画像高さ』である場合にはマッチング条件を厳しくする等といった条件が示されており、マッチングパラメータを決定する。   These parameters are determined from the feature image information I5001. As a method for determining this parameter, it is determined using the image width / height of the feature image information I5001. The matching parameter determination unit 5001 indicates a condition such as a strict matching condition when “image width × 2 <image height”, and determines a matching parameter.

例えば、『画像幅×2 < 画像高さ』の場合はマッチング条件が厳しくなるようにマッチングパラメータを調整、『画像幅×2 >= 画像高さ』の場合はマッチング条件が緩くなるようにマッチングパラメータを調整する。   For example, when “image width × 2 <image height”, the matching parameter is adjusted so that the matching condition becomes strict, and when “image width × 2> = image height”, the matching parameter is set so that the matching condition becomes loose. Adjust.

図72に示す入力画像の左端の『A』という特徴画像は後者の条件に当てはまるので、マッチング条件が緩いパラメータが選択される。ここで決定したマッチングパラメータP5003が出力される。   The feature image “A” at the left end of the input image shown in FIG. 72 satisfies the latter condition, so a parameter with a loose matching condition is selected. The matching parameter P5003 determined here is output.

その他のマッチングパラメータの決定方法としては、以下のようなものが挙げられる。   Examples of other matching parameter determination methods include the following.

(1)徴画像情報のメタデータ(画像幅・高さ・解像度・注釈情報等)を抽出し、その情報を用いてマッチングパラメータを決定する。   (1) Extract metadata (image width / height / resolution / annotation information, etc.) of the collected image information, and determine matching parameters using the information.

例1:画像幅を用いる
fやl等幅の狭い文字は誤判定し易い場合があるので、幅の狭い文字のみ一致条件を厳しくして誤判定を減らすことができる。
Example 1: Using image width
Characters with a narrow width such as f or l are likely to be erroneously determined. Therefore, it is possible to reduce the erroneous determination by tightening the matching condition only for characters with a narrow width.

例2:注釈(文字タイプ:日・英・数字)
言語間のマッチングミスを減らすことができる。1(数字のイチ)とl(英語の小文字のエル)も明確に分離できる。
Example 2: Annotation (character type: Japanese / English / numeric)
Matching errors between languages can be reduced. 1 (number 1) and l (English lowercase letter L) can also be clearly separated.

(2)特徴画像情報のノイズ量を抽出し、その情報を用いてパラメータを決定する。例えば2値画像の単純2値画像と誤差拡散文字を明確に区別できる。   (2) The amount of noise in the feature image information is extracted, and parameters are determined using the information. For example, a simple binary image of a binary image and an error diffusion character can be clearly distinguished.

(3)特徴画像情報の色数をカウントし、その情報を用いてマッチングパラメータを決定する。あらかじめ色情報を見ておくことにより、カラー用のマッチング条件に変えるといったことができ、マッチング精度向上や処理の高速化が可能となる。   (3) The number of colors of the feature image information is counted, and the matching parameter is determined using the information. By looking at the color information in advance, the color matching conditions can be changed, and matching accuracy can be improved and processing speed can be increased.

(4)特徴画像情報の線幅を抽出し、その情報を用いてマッチングパラメータを決定する。細い線は少し太くなってしまっただけでも目立つので、その対処方法として有効である。すべて一律で一致判定を厳しくすると、あまり線幅の変化が分からない太い線の一致判定率が悪くなる。   (4) The line width of the feature image information is extracted, and the matching parameter is determined using the information. Even if the thin line is a little thicker, it is conspicuous, so it is effective as a countermeasure. If all the matching judgments are made strict, the matching judgment rate for a thick line whose change in line width is not known is deteriorated.

(5)特徴画像情報の傾きを抽出し、その情報を用いてマッチングパラメータを決定する。文章などの場合は少し傾いただけでも目立つので、その対処方法として有効である。   (5) The inclination of the feature image information is extracted, and the matching parameter is determined using the information. In the case of sentences etc., even if it is slightly tilted, it stands out, so it is effective as a countermeasure.

一致判定部5002は、特徴画像情報I5001とマッチングパラメータ決定部5001で決定したマッチングパラメータP5002を入力として、特徴画像情報I5001が辞書バッファ5003に登録されている辞書画像と一致(類似)しているかを判定する。その結果(一致・不一致)を一致判定フラグF5004として出力する。   The match determination unit 5002 receives the feature image information I5001 and the matching parameter P5002 determined by the matching parameter determination unit 5001, and determines whether the feature image information I5001 matches (similar) the dictionary image registered in the dictionary buffer 5003. judge. The result (match / mismatch) is output as a match determination flag F5004.

例えば、この時点では辞書には何も登録されていないので、一致判定フラグF5004を不一致として出力する。   For example, since nothing is registered in the dictionary at this time, the match determination flag F5004 is output as a mismatch.

辞書登録部5004は、一致判定フラグF5004が不一致だった場合、特徴画像情報I5001を辞書バッファ5003に登録する。一致判定フラグF5004が一致だった場合、特徴画像情報I5001を辞書バッファ5003へ登録しない。   If the match determination flag F5004 does not match, the dictionary registration unit 5004 registers the feature image information I5001 in the dictionary buffer 5003. If the match determination flag F5004 is matched, the feature image information I5001 is not registered in the dictionary buffer 5003.

図72に示すケースでは、一致判定フラグF5004は不一致なので、特徴画像情報I5001を辞書バッファ5003に登録する。同様の処理を次の「1」「l」「A」についても行い、図72〜図75は、両端のAのみ一致した例を示す。   In the case shown in FIG. 72, the match determination flag F5004 does not match, so the feature image information I5001 is registered in the dictionary buffer 5003. Similar processing is performed for the following “1”, “l”, and “A”, and FIGS. 72 to 75 show examples in which only A at both ends coincides.

一致判断条件(マッチング条件)を固定にしてしまっている場合、例えばマッチング条件を一律で厳しくしてしまった場合は、図71に示す入力画像の文字がすべて不一致と判定されてしまい、一致と判断して欲しいレベルの文字の違いまで不一致とされてしまう。   When the matching judgment condition (matching condition) is fixed, for example, when the matching condition is uniformly strict, all the characters of the input image shown in FIG. The difference in the level of characters you want to do is considered to be inconsistent.

逆にマッチング条件を一律で緩くしてしまった場合、両端の「A」は一致と判定されるが、中央の「1(イチ)」と「l(エル)」も同じと判定されてしまい、復元時に望む情報が得られない。   On the contrary, if the matching condition is loosened uniformly, “A” at both ends is determined to be coincident, but “1” and “l” at the center are also determined to be the same, I can't get the information I want at the time of restoration.

本実施形態5−1の画像処理装置は、マッチングパラメータを動的に変更させることにより、あらかじめ間違え易いと思われる特徴画像のみマッチング条件を厳しくすることが可能となる為、望む結果を得やすくなる。   The image processing apparatus according to the embodiment 5-1 can make the matching condition strict only for feature images that are likely to be mistaken in advance by dynamically changing the matching parameters. .

図77は、本発明の実施形態5−2に係る画像処理装置(画像圧縮装置)の全体構成の一例を示す図である。   FIG. 77 is a diagram illustrating an example of the overall configuration of an image processing apparatus (image compression apparatus) according to Embodiment 5-2 of the present invention.

実施形態5−2に係る画像処理装置は、2値や多値の入力画像から特徴画像(文字画像)を抽出し、同じと思われる文字は同一の辞書画像として保存し、さらにその位置情報を保存することにより必要なデータ量を削減することができる。特徴画像は文字画像以外に、記号やテクスチャ等の繰り返し発生し得る特徴を持つ画像すべてを指す。   The image processing apparatus according to the embodiment 5-2 extracts a feature image (character image) from a binary or multi-valued input image, stores characters that are considered to be the same as the same dictionary image, and further stores the position information thereof. By saving, the amount of data required can be reduced. A feature image refers to all images having features that can be repeatedly generated, such as symbols and textures, in addition to character images.

実施形態5−2に係る画像処理装置は、2値や多値の入力画像を入力することにより、入力画像に含まれる重複しない2値や多値の文字画像と、各々入力画像に存在していた位置情報を得ることができる。これらの情報を得ることにより、ISO/IEC14492のSymbolDictionaryのJBIG2等を用いて画像の高圧縮化が実現できる。   The image processing apparatus according to the embodiment 5-2 inputs a binary or multi-valued input image, so that a binary or multi-value character image included in the input image is present in each input image. Position information can be obtained. By obtaining such information, it is possible to achieve high image compression using JBIG2 or the like of SymbolDictionary of ISO / IEC14492.

図71は、入力画像の一例を示し、図78〜図81は、辞書バッファ5003にバッファリングされた入力画像と、位置情報バッファ5005にバッファリングされた位置情報の一例を示す図である。特徴画像抽出部5000は、例えば、図71に示す入力画像から、既存の文字切り出し処理を用いて、文字を順に抽出し、図78〜図81に示す特徴画像(特徴画像情報I5001)を出力する。まず、左の『A』という文字画像(特徴画像情報I5001)を抽出し、その位置情報(特徴画像位置情報I5002)も出力する。   71 shows an example of the input image, and FIGS. 78 to 81 are diagrams showing an example of the input image buffered in the dictionary buffer 5003 and the position information buffered in the position information buffer 5005. For example, the feature image extraction unit 5000 sequentially extracts characters from the input image shown in FIG. 71 using existing character segmentation processing, and outputs the feature images (feature image information I5001) shown in FIGS. . First, the left character image “A” (feature image information I5001) is extracted, and its position information (feature image position information I5002) is also output.

マッチングパラメータ決定部5001は、特徴画像抽出部5000より抽出された特徴画像情報I5001を入力として、マッチングパラメータの決定を行う。ここでマッチングパラメータとは画像同士が一致・不一致しているか否かを判定するための閾値やマッチングアルゴリズムのサブファンクションの動作のON/OFFを制御をする為のパラメータである。   The matching parameter determination unit 5001 receives the feature image information I5001 extracted from the feature image extraction unit 5000 and determines a matching parameter. Here, the matching parameter is a parameter for controlling ON / OFF of a threshold value for determining whether or not images match or does not match, and operation of a subfunction of the matching algorithm.

これらのパラメータを特徴画像情報I5001より決定する。このパラメータの決定方法として、特徴画像情報I5001の画像幅・高さを用いて決定する。マッチングパラメータ決定部5001は、『画像幅×2 < 画像高さ』である場合にはマッチング条件を厳しくする等といった条件が示されており、マッチングパラメータを決定する。   These parameters are determined from the feature image information I5001. As a method for determining this parameter, it is determined using the image width / height of the feature image information I5001. The matching parameter determination unit 5001 indicates a condition such as a strict matching condition when “image width × 2 <image height”, and determines a matching parameter.

例えば、『画像幅×2 < 画像高さ』の場合はマッチング条件が厳しくなるようにマッチングパラメータを調整、『画像幅×2 >= 画像高さ』の場合はマッチング条件が緩くなるようにマッチングパラメータを調整する。   For example, when “image width × 2 <image height”, the matching parameter is adjusted so that the matching condition becomes strict, and when “image width × 2> = image height”, the matching parameter is set so that the matching condition becomes loose. Adjust.

上記したマッチングパラメータを決定するマッチングパラメータ決定部5001は、図76に示す通りである。   A matching parameter determination unit 5001 that determines the above-described matching parameters is as shown in FIG.

図78に示す入力画像の左端の『A』という特徴画像は後者の条件に当てはまるので、マッチング条件が緩いパラメータが選択される。ここで決定したマッチングパラメータP5003が出力される。   Since the feature image “A” at the left end of the input image shown in FIG. 78 satisfies the latter condition, a parameter with a loose matching condition is selected. The matching parameter P5003 determined here is output.

その他のマッチングパラメータの決定方法としては、以下のようなものが挙げられる。   Examples of other matching parameter determination methods include the following.

(1)徴画像情報のメタデータ(画像幅・高さ・解像度・注釈情報等)を抽出し、その情報を用いてマッチングパラメータを決定する。   (1) Extract metadata (image width / height / resolution / annotation information, etc.) of the collected image information, and determine matching parameters using the information.

例1:画像幅を用いる
fやl等幅の狭い文字は誤判定し易い場合があるので、幅の狭い文字のみ一致条件を厳しくして誤判定を減らすことができる。
Example 1: Using image width
Characters with a narrow width such as f or l are likely to be erroneously determined. Therefore, it is possible to reduce the erroneous determination by tightening the matching condition only for characters with a narrow width.

例2:注釈(文字タイプ:日・英・数字)
言語間のマッチングミスを減らすことができる。1(数字のイチ)とl(英語の小文字のエル)も明確に分離できる。
Example 2: Annotation (character type: Japanese / English / numeric)
Matching errors between languages can be reduced. 1 (number 1) and l (English lowercase letter L) can also be clearly separated.

(2)特徴画像情報のノイズ量を抽出し、その情報を用いてパラメータを決定する。例えば2値画像の単純2値画像と誤差拡散文字を明確に区別できる。   (2) The amount of noise in the feature image information is extracted, and parameters are determined using the information. For example, a simple binary image of a binary image and an error diffusion character can be clearly distinguished.

(3)特徴画像情報の色数をカウントし、その情報を用いてマッチングパラメータを決定する。あらかじめ色情報を見ておくことにより、カラー用のマッチング条件に変えるといったことができ、マッチング精度向上や処理の高速化が可能となる。   (3) The number of colors of the feature image information is counted, and the matching parameter is determined using the information. By looking at the color information in advance, the color matching conditions can be changed, and matching accuracy can be improved and processing speed can be increased.

(4)特徴画像情報の線幅を抽出し、その情報を用いてマッチングパラメータを決定する。細い線は少し太くなってしまっただけでも目立つので、その対処方法として有効である。すべて一律で一致判定を厳しくすると、あまり線幅の変化が分からない太い線の一致判定率が悪くなる。   (4) The line width of the feature image information is extracted, and the matching parameter is determined using the information. Even if the thin line is a little thicker, it is conspicuous, so it is effective as a countermeasure. If all the matching judgments are made strict, the matching judgment rate for a thick line whose change in line width is not known is deteriorated.

(5)特徴画像情報の傾きを抽出し、その情報を用いてマッチングパラメータを決定する。文章などの場合は少し傾いただけでも目立つので、その対処方法として有効である。   (5) The inclination of the feature image information is extracted, and the matching parameter is determined using the information. In the case of sentences etc., even if it is slightly tilted, it stands out, so it is effective as a countermeasure.

一致判定部5002は、特徴画像情報I5001とマッチングパラメータ決定部5001で決定したマッチングパラメータP5002を入力として、特徴画像情報I5001が辞書バッファ5003に登録されている辞書画像と一致(類似)しているかを判定する。その結果(一致・不一致)を一致判定フラグF5004として出力する。   The match determination unit 5002 receives the feature image information I5001 and the matching parameter P5002 determined by the matching parameter determination unit 5001, and determines whether the feature image information I5001 matches (similar) the dictionary image registered in the dictionary buffer 5003. judge. The result (match / mismatch) is output as a match determination flag F5004.

もし、一致している場合は、一致している辞書情報(ID等:一致辞書情報I5005)も出力する。   If they match, the matched dictionary information (ID etc .: matched dictionary information I5005) is also output.

例えば、この時点では辞書には何も登録されていないので、一致判定フラグF5004を不一致として出力する。   For example, since nothing is registered in the dictionary at this time, the match determination flag F5004 is output as a mismatch.

辞書登録部5004は、一致判定フラグF5004が不一致だった場合、特徴画像情報I5001にID番号等の管理情報を付与して辞書バッファ5003に登録する。また登録判定フラグF5006をONにし、登録したという情報を出力する。また登録した辞書情報(ID等:登録辞書情報I5007)も出力する。一致判定フラグF5004が一致だった場合、辞書バッファ5003への登録は行わないし、登録辞書情報I5006の出力も不要である。   If the match determination flag F5004 does not match, the dictionary registration unit 5004 adds management information such as an ID number to the feature image information I5001 and registers it in the dictionary buffer 5003. Also, the registration determination flag F5006 is turned ON, and information that registration is performed is output. The registered dictionary information (ID etc .: registered dictionary information I5007) is also output. When the coincidence determination flag F5004 is coincident, registration in the dictionary buffer 5003 is not performed, and output of the registered dictionary information I5006 is not necessary.

図78に示すケースでは、一致判定フラグF5004は不一致なので、特徴画像情報I5001に『ID番号=1』という管理情報を付与して辞書バッファ5003に登録する。また登録した辞書情報(『ID=1』:登録辞書情報I5007)も出力する。位置情報登録部5005は、特徴画像の位置情報を位置情報バッファ5006に登録する。   In the case shown in FIG. 78, since the match determination flag F5004 does not match, management information “ID number = 1” is assigned to the feature image information I5001 and registered in the dictionary buffer 5003. The registered dictionary information (“ID = 1”: registered dictionary information I5007) is also output. The position information registration unit 5005 registers the position information of the feature image in the position information buffer 5006.

一致判定フラグF5004が一致だった場合は、一致辞書情報I5005と特徴画像位置情報I5002の情報をリンクさせて位置情報バッファ5006に登録する。一致判定フラグF5004が不一致だった場合は、登録辞書情報I5006と特徴画像位置情報I5002の情報をリンクさせて位置情報バッファ5006に登録する。   If the match determination flag F5004 is matched, the match dictionary information I5005 and the feature image position information I5002 are linked and registered in the position information buffer 5006. If the match determination flag F5004 does not match, the registered dictionary information I5006 and the feature image position information I5002 are linked and registered in the position information buffer 5006.

図78に示すように、この時点(左の『A』)では不一致なので、ID1:座標(0,0)といった情報を位置情報バッファ5006に保存する。図78は、この時点での辞書バッファ5003と位置情報バッファ5006の状態を示す図である。   As shown in FIG. 78, since there is no coincidence at this point (left “A”), information such as ID1: coordinate (0,0) is stored in the position information buffer 5006. FIG. 78 shows the state of dictionary buffer 5003 and position information buffer 5006 at this time.

同様の処理を次の「1」「l」「A」についても行い、図78〜図81は、両端のAのみ一致した例を示す。   Similar processing is performed for the next “1”, “l”, and “A”, and FIGS. 78 to 81 show examples in which only A at both ends coincides.

パラメータを固定にしてしまっている場合、例えばマッチング条件を一律で厳しくしてしまった場合は、図5の入力画像の文字がすべて不一致と判定されてしまう為、データ量が削減できない。   If the parameters are fixed, for example, if the matching conditions are uniform and strict, the characters in the input image in FIG. 5 are all judged to be inconsistent, so the data amount cannot be reduced.

逆にマッチング条件を一律で緩くしてしまった場合、両端の「A」は一致と判定されるが、中央の「1(イチ)」と「l(エル)」も同じと判定されてしまい、復元時に望む情報が得られない。   On the contrary, if the matching condition is loosened uniformly, “A” at both ends is determined to be coincident, but “1” and “l” at the center are also determined to be the same, I can't get the information I want at the time of restoration.

本実施形態5−2の画像処理装置は、マッチングパラメータを動的に変更させることにより、あらかじめ間違え易いと思われる特徴画像のみマッチング条件を厳しくすることが可能となる為、望む結果を得易くなる。そのため画質(情報)を保った上でデータ量を削減することができる(両端のAは一致、中央の2文字は不一致(図71のような結果))。   In the image processing apparatus according to the embodiment 5-2, by dynamically changing the matching parameter, it is possible to tighten the matching condition only for the feature image that is likely to be mistaken in advance. . Therefore, it is possible to reduce the amount of data while maintaining the image quality (information) (A at both ends coincides and two characters at the center do not coincide (result as shown in FIG. 71)).

以下に、上記した実施形態5−1と5−2についてまとめる。   The above-described Embodiments 5-1 and 5-2 are summarized below.

(1)画像処理装置は、任意の入力画像からある領域を取り出し、その領域画像が1つ以上の辞書画像と一致しているかを判断し、一致していなければ辞書に登録するような画像処理装置であって、入力画像から1つ以上の領域画像を生成する領域画像作成部と、領域画像作成部で作成された領域画像を入力としてマッチングパラメータを決定し出力するマッチングパラメータ決定部と、領域画像作成部で作成された領域画像と辞書にある辞書画像が一致しているかをマッチングパラメータ決定部で決定したマッチングパラメータで判定する一致判定部と、一致判定部で判定された一致判定結果が不一致と判断された場合、領域画像を辞書に登録する辞書登録部と、を備える。   (1) The image processing apparatus extracts an area from an arbitrary input image, determines whether or not the area image matches one or more dictionary images, and registers the image in the dictionary if they do not match A device that generates one or more region images from an input image, a matching parameter determination unit that determines and outputs a matching parameter by using the region image created by the region image creation unit, and a region; The match determination unit that determines whether the region image created by the image creation unit matches the dictionary image in the dictionary using the matching parameter determined by the matching parameter determination unit and the match determination result determined by the match determination unit do not match A dictionary registration unit for registering the region image in the dictionary.

より具体的には、以下の通りである。   More specifically, it is as follows.

(2)画像処理装置は、入力画像を特徴画像を抽出する特徴画像抽出部と、特徴画像とマッチングパラメータを入力として、特徴画像と辞書に登録されている辞書画像が一致しているのかを判定し、一致判定結果を出力する一致判定部と、一致判定結果と特徴画像を入力として、一致判定結果が不一致の場合のみ特徴画像情報を辞書に登録する画像処理装置であって、特徴画像を入力としてマッチングパラメータを決定するマッチングパラメータ決定部を備える。特徴画像の特徴に併せてマッチングをすることができるので、高精度なマッチング(一致判定)が可能となる。よって高精度な辞書画像を得ることができる。   (2) The image processing apparatus determines whether the feature image and the dictionary image registered in the dictionary match by using the feature image extraction unit that extracts the feature image from the input image and the feature image and the matching parameter as input. A match determination unit that outputs a match determination result, and an image processing apparatus that inputs the match determination result and the feature image and registers the feature image information in the dictionary only when the match determination result does not match. A matching parameter determining unit for determining a matching parameter. Since matching can be performed in accordance with the feature of the feature image, highly accurate matching (matching determination) is possible. Therefore, a highly accurate dictionary image can be obtained.

(3)画像処理装置は、画像から特徴画像を抽出し特徴画像情報と特徴画像の位置情報を出力する特徴画像抽出部と、特徴画像とマッチングパラメータを入力として、特徴画像と辞書に登録されている辞書画像が一致しているのかを判定し、一致判定結果と一致している辞書の情報を出力する一致判定部と、特徴画像と一致判定部の出力である一致判定結果を入力とし、不一致の場合のみ特徴画像を辞書に登録し登録した辞書の情報を出力する辞書登録部と、特徴画像の位置情報と、一致判定結果、一致判定部から一致判定された場合のみに出力される一致辞書情報と、不一致だった場合のみ辞書登録部から出力される登録辞書情報を入力とし、一致判定結果が一致であれば一致辞書情報と特徴画像位置情報をリンクさせて辞書の位置情報として出力、不一致であれば登録辞書情報と特徴画像位置情報をリンクさせて辞書の位置情報として出力する位置情報登録部を備える画像処理装置であって、特徴画像を入力としてマッチングパラメータを決定するマッチングパラメータ決定部を備える。特徴画像の特徴に併せてマッチングをすることができるので、高精度なマッチング(一致判定)が可能となる。また辞書画像とその位置情報を出力するので、画質不具合の少ない高精度・高圧縮な辞書圧縮ファイルが生成できる。   (3) An image processing apparatus extracts a feature image from an image and outputs feature image information and position information of the feature image; a feature image and a matching parameter as inputs; A match determination unit that outputs information on the dictionary that matches the match determination result, and a match determination result that is output from the feature image and the match determination unit. A dictionary registration unit for registering a feature image in the dictionary and outputting information of the registered dictionary, and a match dictionary that is output only when the match information is determined by the match determination result and the match determination unit. Information and registration dictionary information output from the dictionary registration unit only when there is a mismatch, and if the match determination result is a match, the matching dictionary information and the feature image position information are linked to Output, and if it does not match, the registered dictionary information and the feature image position information are linked and output as the position information of the dictionary, and the image processing apparatus includes a feature image as an input to determine a matching parameter. A parameter determination unit is provided. Since matching can be performed in accordance with the feature of the feature image, highly accurate matching (matching determination) is possible. Also, since the dictionary image and its position information are output, a highly accurate and highly compressed dictionary compressed file with few image quality defects can be generated.

次に、本発明の実施形態6について説明する。   Next, a sixth embodiment of the present invention will be described.

2値画像を効率よく圧縮するために、画像ビットマップを辞書化してインデックス(該当辞書番号とその配置)と辞書を圧縮データとする方式を標準化したものとしてISO/IEC14492のJBIG2圧縮がある。JBIG2は文字領域・ハーフトーン領域・それ以外の領域と分類し各々適した圧縮方式を適用した方式である。   In order to efficiently compress a binary image, ISO / IEC14492 JBIG2 compression is a standardized method of converting an image bitmap into a dictionary and using an index (corresponding dictionary number and its arrangement) and a dictionary as compressed data. JBIG2 is classified into character area, halftone area, and other areas, and a compression method suitable for each is applied.

しかしこのようなSymbolとその位置情報を保存することにより圧縮させる方式(辞書圧縮)において、ある程度の異なりは同じと判断しSymbolを置き換える場合、マッチングをミスすると最悪の場合、文字などの情報が異なってしまう(情報が変化してしまう)。   However, in such a method that compresses by saving the symbol and its position information (dictionary compression), if it is judged that the difference is the same to some extent and the symbol is replaced, if the matching is missed, the information such as characters will be different in the worst case (Information changes).

そこで、実施形態6に係る画像処理装置(画像圧縮装置)は、図85〜図87に示すように、辞書データとは別に、非可逆マッチングにより発生する画質劣化を補う補完画像を作成し、復号時に重ね合わせることにより画質劣化を低減することができる。   Therefore, the image processing apparatus (image compression apparatus) according to the sixth embodiment creates and decodes a complementary image that compensates for image quality degradation caused by irreversible matching, apart from dictionary data, as shown in FIGS. Sometimes image quality deterioration can be reduced by superimposing.

図84は、本発明の実施形態6に係る画像処理装置(画像圧縮装置)の全体構成の一例を示す図である。画像処理装置は、マッチング判定部6000、辞書6001、セレクタ6002、差分画素抽出部6003、差分画素登録部6004、差分画像バッファ6005を備える。   FIG. 84 is a diagram showing an example of the overall configuration of an image processing apparatus (image compression apparatus) according to Embodiment 6 of the present invention. The image processing apparatus includes a matching determination unit 6000, a dictionary 6001, a selector 6002, a difference pixel extraction unit 6003, a difference pixel registration unit 6004, and a difference image buffer 6005.

具体的には、図85に示すように、マッチング判定部6000及び辞書6001による非可逆マッチングによる辞書圧縮において、差分画素抽出部6003が黒画素が白画素に変化する画素を抽出し、差分画素登録部6004が抽出画素群をその他の画像として持ち、差分画像バッファ6005が復号時に差分画像を出力し、差分画像と辞書データと重ね合わせることにより画素変化を防ぐ。なお、黒画素:bit=1、白画素:bit=0とする。   Specifically, as shown in FIG. 85, in dictionary compression by irreversible matching by the matching determination unit 6000 and the dictionary 6001, the difference pixel extraction unit 6003 extracts pixels in which black pixels change to white pixels, and registers the difference pixels. The unit 6004 has the extracted pixel group as another image, the difference image buffer 6005 outputs the difference image at the time of decoding, and prevents the pixel change by superimposing the difference image and the dictionary data. Note that black pixels: bit = 1 and white pixels: bit = 0.

また、図86に示すように、マッチング判定部6000及び辞書6001による非可逆マッチングによる辞書圧縮において、差分画素抽出部6003が白画素が黒画素に変化する画素を抽出し、差分画素登録部6004が抽出画素群をその他の画像として持ち、差分画像バッファ6005が復号時に差分画像を出力し、差分画像と辞書データと重ね合わせることにより画素変化を防ぐ。なお、黒画素:bit=1、白画素:bit=0とする。   Also, as shown in FIG. 86, in dictionary compression by irreversible matching by the matching determination unit 6000 and the dictionary 6001, the difference pixel extraction unit 6003 extracts pixels in which white pixels change to black pixels, and the difference pixel registration unit 6004 Having the extracted pixel group as another image, the difference image buffer 6005 outputs the difference image at the time of decoding, and the pixel change is prevented by superimposing the difference image and the dictionary data. Note that black pixels: bit = 1 and white pixels: bit = 0.

また、図87に示すように、マッチング判定部6000及び辞書6001による非可逆マッチングによる辞書圧縮において、差分画素抽出部6003が情報が変化する画素を抽出し、差分画素登録部6004が抽出画素群をその他の画像として持ち、差分画像バッファ6005が復号時に差分画像を出力し、差分画像と辞書データと重ね合わせることにより画素変化を防ぐ。なお、黒画素:bit=1、白画素:bit=0とする。   Also, as shown in FIG. 87, in dictionary compression by irreversible matching by the matching determination unit 6000 and the dictionary 6001, the difference pixel extraction unit 6003 extracts pixels whose information changes, and the difference pixel registration unit 6004 selects the extracted pixel group. The difference image buffer 6005 outputs the difference image at the time of decoding and prevents the pixel change by superimposing the difference image and the dictionary data. Note that black pixels: bit = 1 and white pixels: bit = 0.

以下に、上記した実施形態6についてまとめる。   The above-described Embodiment 6 is summarized below.

(1)画像処理装置は、Symbolとその位置情報を保存し、画像を圧縮する場合に、ある程度の異なりは同じと判断しSymbolを置き換える場合に発生する、画素の差を差分画像として保存する。これにより、効果的に圧縮を行うことができ、かつ辞書化(非可逆マッチング)による情報劣化を低減させる。状況に応じて多少の画質劣化を気にしないような場合は、辞書情報の復号のみ実行し、高速表示(差分画像の復号をしない)が可能である。このように高速表示/画質優先表示を切り替えることができる。   (1) The image processing apparatus stores the symbol and its position information, and when compressing the image, stores the difference in pixels, which occurs when the symbol is replaced and the symbol is replaced with the difference, as a difference image. As a result, compression can be performed effectively, and information deterioration due to dictionary formation (irreversible matching) is reduced. If there is no concern about a slight deterioration in image quality depending on the situation, only dictionary information can be decoded and high-speed display (no difference image can be decoded) is possible. In this way, high-speed display / image quality priority display can be switched.

より具体的には、以下の通りである。   More specifically, it is as follows.

(2)画像処理装置は、画像情報を辞書ビットマップとその位置情報に分離し保存することにより圧縮する画像を入力とし、辞書化対象画像(Symbol画像)を出力するSymbol抽出部と、Symbol画像を入力とし、それが辞書に登録されている辞書Symbolと一致しているかを判定し、一致判定結果を出力するSymbol一致判定部と、Symbol画像と一致判定結果を入力とし、Symbolが一致している場合は、一致辞書Symbolの情報とSymbol位置情報を辞書バッファに登録、Symbolが一致していない場合は、Symbol情報とSymbol位置情報を辞書に登録するSymbol・Symbol位置情報登録部と、を備え、2値Symbol画像情報と辞書データを入力として、Symbolと辞書データが一致しているかを判定するマッチング判定部6000と、2値Symbolを辞書に登録されているSymbolに置き換えることにより、画素情報が変化する画素を抽出する差分画素抽出部6003と、差分画素抽出部の出力である差分画像を差分画像バッファに登録する差分画素登録部6004と、差分画素抽出部の処理をするか否かを切り替えるセレクタ6002と、を備える。   (2) The image processing apparatus receives a compressed image by separating and storing the image information into a dictionary bitmap and its position information, and outputs a dictionary extraction target image (Symbol image), and a Symbol image Is input, and it is determined whether it matches the dictionary symbol registered in the dictionary, the symbol match determination unit that outputs the match determination result, the symbol image and the match determination result are input, and the symbol matches A symbol / symbol position information registration unit for registering the symbol information and the symbol position information in the dictionary if the symbols do not match. By inputting binary symbol image information and dictionary data, a pixel is determined by replacing the binary symbol with a symbol registered in the dictionary, and a matching determination unit 6000 that determines whether the symbol and the dictionary data match. Whether or not to process the difference pixel extraction unit 6003 that extracts pixels whose information changes, the difference pixel registration unit 6004 that registers the difference image that is the output of the difference pixel extraction unit in the difference image buffer, and the difference pixel extraction unit And a selector 6002 for switching between.

なお、本願発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   Note that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention in the implementation stage. In addition, the embodiments may be appropriately combined as much as possible, and in that case, the combined effect can be obtained. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be obtained as an invention.

1001…スキャナ、1002…レイアウト解析部、1003…画像部品化部、1004…文字認識部、1005…文字分離部、1006…画像辞書化部、1007…画像符号化部、1008…画像ファイル部 DESCRIPTION OF SYMBOLS 1001 ... Scanner, 1002 ... Layout analysis part, 1003 ... Image component part, 1004 ... Character recognition part, 1005 ... Character separation part, 1006 ... Image dictionary part, 1007 ... Image encoding part, 1008 ... Image file part

特開2007−86956号公報JP 2007-86956 A 特開2005−301663号公報JP 2005-301663 A 特開2007−25815号公報JP 2007-25815 A

Claims (10)

入力画像を分析する分析手段と、
前記分析手段の分析結果に基づき第1のグループに属する第1の画像を第1の圧縮パラメータで圧縮し、第2のグループに属する第2の画像を前記第1の圧縮パラメータより画像劣化をする可能性のある第2の圧縮パラメータで圧縮する圧縮手段と、
を備えた画像処理装置。
An analysis means for analyzing the input image;
Based on the analysis result of the analysis means, the first image belonging to the first group is compressed with the first compression parameter, and the second image belonging to the second group is subjected to image degradation based on the first compression parameter. Compression means for compressing with a possible second compression parameter;
An image processing apparatus.
前記分析手段は、前記入力画像に含まれた各文字情報を認識し、
前記圧縮手段は、文字認識結果に基づき前記第1のグループに属する第1の文字画像を前記第1の圧縮パラメータで圧縮し、前記第2のグループに属する第2の文字画像を前記第2の圧縮パラメータで圧縮する請求項1に記載の画像処理装置。
The analysis means recognizes each character information included in the input image,
The compression means compresses a first character image belonging to the first group with the first compression parameter based on a character recognition result, and converts a second character image belonging to the second group to the second character image. The image processing apparatus according to claim 1, wherein compression is performed using a compression parameter.
前記圧縮手段は、前記第2の文字情報と同一と判定された第3の文字画像を、前記第2の画像に対応した第2の符号化情報により圧縮する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the compression unit compresses a third character image determined to be the same as the second character information by using second encoded information corresponding to the second image. . 前記圧縮手段は、前記第1の文字画像に対応した第1の符号化情報を生成し、前記第1の文字画像を前記第1の符号化情報により圧縮し、前記第2の文字画像に対応した第2の符号化情報を生成し、前記第2の文字画像を前記第2の符号化情報により圧縮し、前記第3の文字画像を前記第2の符号化情報により圧縮する請求項3に記載の画像処理装置。   The compression means generates first encoded information corresponding to the first character image, compresses the first character image with the first encoded information, and corresponds to the second character image. The second encoded information is generated, the second character image is compressed with the second encoded information, and the third character image is compressed with the second encoded information. The image processing apparatus described. 前記圧縮手段は、前記第1の文字画像に対応した前記第1の符号化情報と第1の位置情報を生成し、前記第2の文字情報に対応した前記第2の符号化情報と第2の位置情報を生成し、前記第1の文字画像を前記第1の符号化情報と前記第1の位置情報により圧縮し、前記第2の文字画像を前記第2の符号化情報と前記第2の位置情報により圧縮し、前記第3の文字画像を前記第2の符号化情報と前記第3の文字情報に対応した第3の位置情報により圧縮する請求項4に記載の画像処理装置。   The compression means generates the first encoded information and the first position information corresponding to the first character image, and the second encoded information and the second corresponding to the second character information. The first character image is compressed with the first encoded information and the first position information, and the second character image is compressed with the second encoded information and the second encoded information. 5. The image processing apparatus according to claim 4, wherein the third character image is compressed using the second position information corresponding to the second encoded information and the third character information. 前記分析手段は、文字認識結果に基づき所定の文字列毎に被圧縮画像を作成する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the analysis unit creates a compressed image for each predetermined character string based on a character recognition result. 前記分析手段は、文字認識結果に基づき数字の画像を前記第1の圧縮パラメータで圧縮する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the analysis unit compresses a numerical image with the first compression parameter based on a character recognition result. 前記分析手段は、文字認識結果に基づき特定のキーワードに続く数字又は数列の画像を前記第1の圧縮パラメータで圧縮する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the analysis unit compresses an image of a number or a sequence of numbers following a specific keyword based on a character recognition result using the first compression parameter. 前記分析手段は、前記入力画像に含まれた文字・非文字領域情報のレイアウトを分析し、
前記圧縮手段は、レイアウト分析結果に基づき前記第1のグループに属する見出し、表、又はグラフの画像を前記第1の圧縮パラメータで圧縮し、前記第2のグループに属する前記見出し、表、又はグラフに該当しない画像を前記第2の圧縮パラメータで圧縮する請求項1に記載の画像処理装置。
The analysis means analyzes a layout of character / non-character area information included in the input image,
The compression unit compresses an image of a heading, table, or graph belonging to the first group based on a layout analysis result using the first compression parameter, and the heading, table, or graph belonging to the second group. The image processing apparatus according to claim 1, wherein an image not corresponding to the above is compressed with the second compression parameter.
入力画像を分析し、
分析結果に基づき第1のグループに属する第1の画像を第1の圧縮パラメータで圧縮し、第2のグループに属する第2の画像を前記第1の圧縮パラメータより画像劣化をする可能性のある第2の圧縮パラメータで圧縮する画像処理方法。
Analyze the input image,
There is a possibility that the first image belonging to the first group is compressed with the first compression parameter based on the analysis result, and the second image belonging to the second group is deteriorated by the first compression parameter. An image processing method for compressing with a second compression parameter.
JP2009241811A 2008-10-20 2009-10-20 Image processing apparatus and image processing method Expired - Fee Related JP5264675B2 (en)

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
US10680408P 2008-10-20 2008-10-20
US10688108P 2008-10-20 2008-10-20
US10680008P 2008-10-20 2008-10-20
US10688408P 2008-10-20 2008-10-20
US10688508P 2008-10-20 2008-10-20
US61/106,881 2008-10-20
US61/106,804 2008-10-20
US61/106,800 2008-10-20
US61/106,884 2008-10-20
US61/106,885 2008-10-20
US10750408P 2008-10-22 2008-10-22
US61/107,504 2008-10-22

Publications (2)

Publication Number Publication Date
JP2010098744A true JP2010098744A (en) 2010-04-30
JP5264675B2 JP5264675B2 (en) 2013-08-14

Family

ID=42261880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009241811A Expired - Fee Related JP5264675B2 (en) 2008-10-20 2009-10-20 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5264675B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101818440B1 (en) * 2017-04-28 2018-03-02 삼성전자주식회사 Data compression device, operation method using the same, and data processing apparatus having the same

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH118728A (en) * 1997-06-18 1999-01-12 Matsushita Electric Ind Co Ltd Original reader and original read system
JPH11167623A (en) * 1997-12-03 1999-06-22 Canon Inc Image processor and image processing method
JP2005159663A (en) * 2003-11-25 2005-06-16 Ricoh Co Ltd Image processing apparatus, image processing program and image processing method
JP2005175641A (en) * 2003-12-08 2005-06-30 Fuji Xerox Co Ltd Image processor
JP2005208872A (en) * 2004-01-22 2005-08-04 Canon Inc Image processing system
JP2005301663A (en) * 2004-04-12 2005-10-27 Fuji Xerox Co Ltd Image dictionary forming device, encoding device, image dictionary forming method, and program thereof
JP2006023976A (en) * 2004-07-08 2006-01-26 Nippon Telegr & Teleph Corp <Ntt> Parameter setting method, image pattern extraction method, parameter setting device, image pattern extraction device, and program for these methods
JP2007025815A (en) * 2005-07-12 2007-02-01 Canon Inc Image processing method, image processor, digital camera and computer program
JP2007086956A (en) * 2005-09-21 2007-04-05 Fuji Xerox Co Ltd Image processor, image processing method and computer program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH118728A (en) * 1997-06-18 1999-01-12 Matsushita Electric Ind Co Ltd Original reader and original read system
JPH11167623A (en) * 1997-12-03 1999-06-22 Canon Inc Image processor and image processing method
JP2005159663A (en) * 2003-11-25 2005-06-16 Ricoh Co Ltd Image processing apparatus, image processing program and image processing method
JP2005175641A (en) * 2003-12-08 2005-06-30 Fuji Xerox Co Ltd Image processor
JP2005208872A (en) * 2004-01-22 2005-08-04 Canon Inc Image processing system
JP2005301663A (en) * 2004-04-12 2005-10-27 Fuji Xerox Co Ltd Image dictionary forming device, encoding device, image dictionary forming method, and program thereof
JP2006023976A (en) * 2004-07-08 2006-01-26 Nippon Telegr & Teleph Corp <Ntt> Parameter setting method, image pattern extraction method, parameter setting device, image pattern extraction device, and program for these methods
JP2007025815A (en) * 2005-07-12 2007-02-01 Canon Inc Image processing method, image processor, digital camera and computer program
JP2007086956A (en) * 2005-09-21 2007-04-05 Fuji Xerox Co Ltd Image processor, image processing method and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101818440B1 (en) * 2017-04-28 2018-03-02 삼성전자주식회사 Data compression device, operation method using the same, and data processing apparatus having the same

Also Published As

Publication number Publication date
JP5264675B2 (en) 2013-08-14

Similar Documents

Publication Publication Date Title
JP4152789B2 (en) Clustering system and clustering method
JP3359095B2 (en) Image processing method and apparatus
US7664321B2 (en) Image processing method, system, program, program storage medium and information processing apparatus
US8396298B2 (en) Image processing apparatus, image processing method, and storage medium with vectorization process for data from graphic areas
JPH11338976A (en) Document image recognition device, method therefor, and recording medium
JP4788106B2 (en) Image dictionary creation device, encoding device, image dictionary creation method and program thereof
US20050226516A1 (en) Image dictionary creating apparatus and method
JP2001203897A (en) Pattern-matching encoding device and its method
JP5049921B2 (en) Image processing apparatus and image processing method
JP5264675B2 (en) Image processing apparatus and image processing method
JP5335581B2 (en) Image processing apparatus, image processing method, and program
US6487311B1 (en) OCR-based image compression
US20030123087A1 (en) Image compression method, decompression method thereof and program therefor
JP7013341B2 (en) Form recognition device, form recognition method, and form recognition program
Aparna et al. A complete OCR system development of Tamil magazine documents
US6219445B1 (en) Multi-color image encoding and/or decoding apparatus containing color order table and the method thereof
Boiangiu et al. Efficient solutions for ocr text remote correction in content conversion systems
JP7320985B2 (en) Information processing device, control method and control program
RU2737001C1 (en) Image processing device and method and data medium
JP4766451B2 (en) Encoding apparatus, image processing apparatus, encoding method, and encoding program
KR100241447B1 (en) English writing/number recognition method using outline information
KR101024027B1 (en) Method and apparatus for processing of binary image
JP2010027051A (en) Image compression apparatus and image compression method
MTIMET et al. Arabic Textual Images Compression
Shamim et al. Asymmetric binary tree coding for contour images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130430

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees