JP2005260452A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2005260452A
JP2005260452A JP2004067281A JP2004067281A JP2005260452A JP 2005260452 A JP2005260452 A JP 2005260452A JP 2004067281 A JP2004067281 A JP 2004067281A JP 2004067281 A JP2004067281 A JP 2004067281A JP 2005260452 A JP2005260452 A JP 2005260452A
Authority
JP
Japan
Prior art keywords
pixel
color
representative
character
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004067281A
Other languages
Japanese (ja)
Other versions
JP4396331B2 (en
Inventor
Toshiya Koyama
俊哉 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004067281A priority Critical patent/JP4396331B2/en
Publication of JP2005260452A publication Critical patent/JP2005260452A/en
Application granted granted Critical
Publication of JP4396331B2 publication Critical patent/JP4396331B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus for enhancing the reproducibility of colors in original image data and preventing deterioration in a compression efficiency and image quality. <P>SOLUTION: The image processing apparatus demarcates a basic region including pixel lumps discriminated to be an individual character from at least part of image data being a processing object, limits colors of pixel values of each pixel configuring the pixel lump included in the demarcated basic region to colors of any of representative pixel value objects included in a set of representative pixel value objects, applies number of color discrimination processing to discriminate the number of colors of the pixel lump on the basis of the frequency of incidence of the representative pixel value objects in the pixel lump after limitation of the colors, and executes prescribed image processing on the basis of a result of the discrimination of the number of colors. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像データから文字部分と絵柄部分とを分離して所定処理を行う画像処理装置に関する。   The present invention relates to an image processing apparatus that separates a character part and a picture part from image data and performs predetermined processing.

ラスタ画像のデータには、文字(テキスト)部分や、自然画の部分(絵柄部分)など、互いに性状の異なる多くの画像要素が含まれ得る。こうした画像要素は、その性状の相違から、例えば圧縮処理において異なる方式での圧縮が適していたりするなど、画像要素ごとに異なる画像処理を行うことが好ましい場合が多い。   The raster image data may include many image elements having different properties such as a character (text) portion and a natural image portion (pattern portion). Due to the difference in properties of these image elements, it is often preferable to perform different image processing for each image element, for example, compression by a different method is suitable for compression processing.

そこで従来から、いわゆるT/I分離と呼ばれる画像処理が研究・開発されている。従来、T/I分離の方法としては、例えば処理対象画像を二値化し、黒画素の連続する領域を画定し、当該画定した領域のサイズが予め定めたしきい値を下回る場合に当該領域に含まれる黒画素が文字を表すものと判定する方法等がある(特許文献1)。   Therefore, conventionally, image processing called so-called T / I separation has been researched and developed. Conventionally, as a method of T / I separation, for example, a processing target image is binarized, a continuous region of black pixels is defined, and when the size of the defined region is lower than a predetermined threshold value, the region is included in the region. There is a method of determining that an included black pixel represents a character (Patent Document 1).

また、こうして文字部分として判定された領域については、当該領域に含まれる画素値に基づいてそれらの画素の代表的な色を決定し、各文字を構成する画素の値を当該代表的な色の値に設定することで圧縮率をさらに高めているものがある(特許文献2)。
特開2003−8909号公報(段落番号0026を参照) 特開2002−165105号公報 特開2002−175532号公報
In addition, for the area thus determined as the character part, the representative colors of the pixels are determined based on the pixel values included in the area, and the values of the pixels constituting each character are set to the representative colors. Some have further increased the compression rate by setting the value (Patent Document 2).
JP 2003-8909 A (see paragraph 0026) JP 2002-165105 A JP 2002-175532 A

ところが、元々のラスタ画像のデータがJPEG圧縮されていたり、スキャナ等によって読取られた場合などでは、元々は単色であったはずの文字の画素の値がばらつき、多色の画素として識別される場合があり得る。また、文字をすべて単色として扱うのでは、色つき文字が再現できなくなり、例えばグラデーション文字など、1文字の中で複数の色が用いられている場合には、当該グラデーションが失われてしまうという問題点もある。   However, when the original raster image data is JPEG-compressed or read by a scanner or the like, the pixel values of the characters that should have been originally monochromatic vary and are identified as multicolor pixels. There can be. Further, if all characters are handled as a single color, colored characters cannot be reproduced. For example, when a plurality of colors are used in one character such as a gradation character, the gradation is lost. There is also a point.

一方で、文字を構成する画素の値をそのままとするのでは、圧縮効率が低下してしまい、画質の劣化も生じてしまう。   On the other hand, if the values of the pixels constituting the character are left as they are, the compression efficiency is lowered and the image quality is deteriorated.

本発明は上記実情に鑑みて為されたもので、元の画像データにおける色の再現性を高めるとともに、圧縮効率や画質の劣化を防止できる画像処理装置を提供することをその目的の一つとする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing apparatus that can improve color reproducibility in original image data and prevent deterioration of compression efficiency and image quality. .

上記従来例の問題点を解決するための本発明は、画像処理装置であって、処理対象となった画像データの少なくとも一部から個々の文字と判断される画素塊を含む基本領域を画定する手段と、前記画定した基本領域に含まれる画素塊を構成する各画素について、当該画素の画素値を、代表画素値候補のセットに含まれる代表画素値候補のいずれかに限定色化し、限定色化後の画素塊における前記代表画素値候補の出現頻度に基づいて、前記画素塊の色数を判定する色数判定処理を行う色数判定手段と、を含み、前記色数の判断結果に基づいて所定の画像処理が実行されることを特徴としている。   The present invention for solving the problems of the conventional example described above is an image processing apparatus, and defines a basic region including a pixel block that is determined as an individual character from at least a part of image data to be processed. And, for each pixel constituting the pixel block included in the defined basic region, the pixel value of the pixel is limited to one of the representative pixel value candidates included in the representative pixel value candidate set, and the limited color Color number determination means for performing color number determination processing for determining the number of colors of the pixel block based on the appearance frequency of the representative pixel value candidates in the pixel block after conversion, and based on the determination result of the color number Thus, predetermined image processing is executed.

ここで前記色数判定手段は、画素塊の色数が複数であると判定したときには、出現頻度順に複数の代表画素値候補を特定して、当該特定した代表画素値候補に基づいて新たな代表画素値候補を生成して、代表画素値候補のセットに含め、前記色数判定処理を再度行うこととしてもよい。この場合、新たな代表画素値候補を生成して色数判定処理を行うという動作が繰返され、所定回数繰返し後の(又は所定条件が満足されたときに)色数判定処理の結果が出力される。   Here, when the number-of-colors determination unit determines that the number of colors of the pixel block is plural, the plurality of representative pixel value candidates are identified in order of appearance frequency, and a new representative is generated based on the identified representative pixel value candidates. Pixel value candidates may be generated and included in the representative pixel value candidate set, and the color number determination process may be performed again. In this case, the operation of generating a new representative pixel value candidate and performing the color number determination process is repeated, and the result of the color number determination process after a predetermined number of repetitions (or when a predetermined condition is satisfied) is output. The

または、画素塊の色数が複数であると判定したときには、出現頻度順に複数の代表画素値候補を特定して、当該特定した代表画素値候補に基づいて新たな代表画素値候補を生成して、特定した複数の代表画素値候補と新たな代表画素値候補を新たな代表画素値候補として、前記色数判定処理を再度行うこととしてもよい。   Alternatively, when it is determined that the number of colors of the pixel block is plural, a plurality of representative pixel value candidates are identified in order of appearance frequency, and new representative pixel value candidates are generated based on the identified representative pixel value candidates. The color number determination process may be performed again with the plurality of specified representative pixel value candidates and the new representative pixel value candidate as new representative pixel value candidates.

さらに前記色数判定手段にて色数が複数であると判定された画素塊について、画素値の連続性に関する情報を生成し、当該画素値の連続性に関する情報に基づいて当該画素塊がグラデーションとなっているか否かを判定する手段をさらに含み、当該判定の結果に基づいて、当該画素塊に対する画像処理の内容を変更することとしてもよい。   Further, information regarding the continuity of the pixel values is generated for the pixel block for which the number of colors is determined by the color number determination unit, and the pixel block is determined to be a gradation based on the information regarding the continuity of the pixel value. It is good also as a means to determine whether it has become, and may change the content of the image processing with respect to the said pixel lump based on the result of the said determination.

また前記色数判定手段は、画素塊の幅に関する情報を生成し、画素塊の幅に関する情報が所定の幅しきい値未満である場合には、当該画素塊は1色で表現されていると判断することとしてもよい。   The number-of-colors determination unit generates information regarding the width of the pixel block, and when the information regarding the width of the pixel block is less than a predetermined width threshold, the pixel block is expressed by one color. It may be determined.

また上記従来例の問題点を解決するための本発明は、コンピュータを用いた画像処理方法であって、処理対象となった画像データの少なくとも一部から個々の文字と判断される画素塊を含む基本領域を画定し、前記画定した基本領域に含まれる画素塊を構成する各画素について、当該画素の画素値を、代表画素値候補のセットに含まれる代表画素値候補のいずれかに限定色化し、限定色化後の画素塊における前記代表画素値候補の出現頻度に基づいて、前記画素塊の色数を判定する色数判定処理を行わせ、前記色数の判断結果に基づいて所定の画像処理を実行させることを特徴としている。   In addition, the present invention for solving the problems of the above-described conventional example is an image processing method using a computer, and includes pixel blocks that are determined as individual characters from at least a part of image data to be processed. A basic area is defined, and for each pixel constituting the pixel block included in the defined basic area, the pixel value of the pixel is limited to one of the representative pixel value candidates included in the representative pixel value candidate set. The color number determination process for determining the number of colors of the pixel block is performed based on the appearance frequency of the representative pixel value candidate in the pixel block after the limited color, and a predetermined image is determined based on the determination result of the color number It is characterized by executing processing.

さらに本発明の別の態様に係る画像処理プログラムは、コンピュータに、処理対象となった画像データの少なくとも一部から個々の文字と判断される画素塊を含む基本領域を画定する手順と、前記画定した基本領域に含まれる画素塊を構成する各画素について、当該画素の画素値を、代表画素値候補のセットに含まれる代表画素値候補のいずれかに限定色化し、限定色化後の画素塊における前記代表画素値候補の出現頻度に基づいて、前記画素塊の色数を判定する色数判定処理を行う手順と、前記色数の判断結果に基づいて所定の画像処理を行う手順と、を実行させることを特徴としている。   Furthermore, an image processing program according to another aspect of the present invention provides a computer with a procedure for defining a basic region including a pixel block determined as an individual character from at least a part of image data to be processed; For each pixel constituting the pixel block included in the basic region, the pixel value of the pixel is limited to one of the representative pixel value candidates included in the representative pixel value candidate set, and the pixel block after the limited color is formed A procedure for performing a color number determination process for determining the number of colors of the pixel block based on the appearance frequency of the representative pixel value candidate in the method, and a procedure for performing a predetermined image process based on the determination result of the color number. It is characterized by being executed.

本発明の実施の形態に係る画像処理装置は、図1に示すように、制御部11と記憶部12と画像入力部13と画像出力部14とを含んで構成されている。制御部11は、記憶部12に格納されているプログラムに従って動作しており、後に説明する各画像処理を遂行する。この画像処理の内容については、後に詳しく述べる。   As shown in FIG. 1, the image processing apparatus according to the embodiment of the present invention includes a control unit 11, a storage unit 12, an image input unit 13, and an image output unit 14. The control unit 11 operates in accordance with a program stored in the storage unit 12 and performs each image processing described later. The contents of this image processing will be described in detail later.

記憶部12は、制御部11によって実行されるプログラムを保持している。またこの記憶部12は、制御部11の処理の過程で生成される各種データ等を格納するワークメモリとしても動作する。具体的にこの記憶部12は、コンピュータ可読な記録媒体と当該記録媒体に対してデータを書き込み、又は当該記録媒体からデータを読み出す装置(例えばハードディスク装置やメモリ装置)として実装できる。   The storage unit 12 holds a program executed by the control unit 11. The storage unit 12 also operates as a work memory that stores various data generated during the process of the control unit 11. Specifically, the storage unit 12 can be implemented as a computer-readable recording medium and a device that writes data to or reads data from the recording medium (for example, a hard disk device or a memory device).

画像入力部13は、例えばスキャナであり、原稿を光学的に読み取って得られた画像データを制御部11に出力する。ここではこの画像入力部13が出力する画像データにおいて、各画素の値がRGB(赤、緑、青)の色空間で表現されているとする。画像出力部14は、制御部11から入力される指示に従って画像データを出力するもので、例えば画像形成部(プリンタ等)に出力し、又はネットワークを介して外部の装置に送信する等の処理を行うものである。   The image input unit 13 is, for example, a scanner, and outputs image data obtained by optically reading a document to the control unit 11. Here, it is assumed that the value of each pixel is expressed in an RGB (red, green, blue) color space in the image data output from the image input unit 13. The image output unit 14 outputs image data in accordance with an instruction input from the control unit 11. For example, the image output unit 14 outputs the image data to an image forming unit (printer or the like) or transmits it to an external device via a network. Is what you do.

次に制御部11の処理の内容について説明する。本実施の形態の制御部11は、図2に機能的に示すように、画像入力部13から入力される画像データを処理対象として、この処理対象となった画像データに対して、所定前処理を行う前処理部21と、絵柄部分の候補となる部分(絵柄候補部分)を特定する絵柄候補部分特定処理部22と、文字線画を抽出する文字線画抽出処理部23と、レイアウト処理を遂行するレイアウト処理部24と、同一色領域分離部25と、穴埋処理部26と、圧縮処理部27とを含んで構成されている。   Next, the content of the process of the control part 11 is demonstrated. As functionally shown in FIG. 2, the control unit 11 of the present embodiment sets the image data input from the image input unit 13 as a processing target, and performs predetermined preprocessing on the image data that is the processing target. A pre-processing unit 21 that performs the pattern processing, a pattern candidate portion specifying processing unit 22 that specifies a portion that is a candidate for a pattern portion (design candidate portion), a character / line image extraction processing unit 23 that extracts a character / line image, and a layout process. The layout processing unit 24, the same color region separation unit 25, a hole filling processing unit 26, and a compression processing unit 27 are included.

以下、これら各部について具体的に説明する。   Hereinafter, each of these parts will be described in detail.

[1.前処理部]
この前処理部21では、画像入力部13から入力される画像データ(処理対象画像データ)の各画素の値をRGBからYCbCr(輝度と色差とからなる値)に変換する。具体的には、次の(1)式を用いて変換を行うことができる。なお、ここではRGBの各成分の値は0x00(「0x」は16進数であることを示す)から0xFFまでの値であるとしている。また、この前処理部21では、下地領域の輝度・彩度に基づいて各画素値を階調補正してもよい。尤も、この階調補正の処理は、必ずしも必要なものではない。
[1. Pre-processing section]
In the preprocessing unit 21, the value of each pixel of the image data (processing target image data) input from the image input unit 13 is converted from RGB to YCbCr (a value composed of luminance and color difference). Specifically, the conversion can be performed using the following equation (1). Here, the value of each component of RGB is assumed to be a value from 0x00 (“0x” indicates a hexadecimal number) to 0xFF. Further, the pre-processing unit 21 may correct the gradation of each pixel value based on the luminance and saturation of the background area. However, the gradation correction process is not always necessary.

Figure 2005260452
Figure 2005260452

[2.絵柄候補領域特定処理部]
絵柄候補部分特定処理部22は、前処理部21が出力するYCbCr色空間で表現された画像データから絵柄の領域と推定される領域を、絵柄候補領域として特定する処理を行う。具体的に、絵柄候補部分特定処理部22の処理方法は、種々の方法があるので、以下そのうちの代表的な2つの方法の例について説明する。
[2. Design candidate area identification processing unit]
The pattern candidate portion identification processing unit 22 performs a process of identifying an area estimated as a pattern area from the image data expressed in the YCbCr color space output from the preprocessing unit 21 as a pattern candidate area. Specifically, since there are various processing methods of the pattern candidate portion identification processing unit 22, examples of two typical methods will be described below.

絵柄候補部分特定処理部22は、図3(a)に示すように、二値化処理部31と、連結画素抽出部32と、特徴量算出部33と、属性判定部34と、非絵柄領域処理部35と、背景領域塗潰部36と、絵柄候補領域作成部37とを含んで構成される。   As shown in FIG. 3A, the pattern candidate portion specifying processing unit 22 includes a binarization processing unit 31, a connected pixel extraction unit 32, a feature amount calculation unit 33, an attribute determination unit 34, and a non-pattern region. The processing unit 35, the background region painting unit 36, and the pattern candidate region creation unit 37 are configured.

二値化処理部31は、前処理部21が出力するYCbCr色空間で表現された画像データを記憶部12にコピーして格納する。そして、当該コピーされた画像データ(絵柄領域特定画像データ)の各画素の値を参照しながら、当該画素値の輝度成分と、予め定めた二値化しきい値とを比較して、輝度成分が二値化しきい値以上の画素を黒画素(値「1」)、輝度成分が二値化しきい値未満の画素を白画素(値「0」)としていき、当該絵柄領域特定画像データを二値画像データに変換する。なおここでは、輝度成分が大きいほど、暗い(黒い)ものとしている。   The binarization processing unit 31 copies and stores image data expressed in the YCbCr color space output from the preprocessing unit 21 in the storage unit 12. Then, referring to the value of each pixel of the copied image data (design area specifying image data), the luminance component of the pixel value is compared with a predetermined binarization threshold value, and the luminance component is Pixels above the binarization threshold are black pixels (value “1”), pixels whose luminance components are less than the binarization threshold are white pixels (value “0”), and the pattern area specific image data is binarized. Convert to image data. Here, the larger the luminance component, the darker (black).

連結画素抽出部32は、二値画像データ中から、黒画素が連結している領域(連結領域)を抽出する。この連結領域の抽出は、ラベリング処理として広く知られた処理を用いることができる。ラベリング処理を用いる場合、各連結領域には互いに異なるラベル識別子を付して、記憶部12に格納しておく。   The connected pixel extracting unit 32 extracts a region (connected region) where black pixels are connected from the binary image data. For the extraction of the connected region, a process widely known as a labeling process can be used. When the labeling process is used, each connected area is given a different label identifier and stored in the storage unit 12.

特徴量算出部33は、連結画素抽出部32によって抽出された連結領域の各々について、その所定のスケール特徴量を演算する。ここでスケール特徴量には、連結領域に関係して定められる矩形の面積や、当該矩形内での黒画素の密度(矩形内の黒画素の数を矩形内の全画素の数で除したもの)などを含む。例えば特徴量算出部33は次のように処理を行う。すなわち特徴量算出部33は、各連結領域ごとの関係領域として、各連結領域に外接する矩形(外接矩形)を画定する。具体的に外接矩形は、連結領域に含まれる画素のうち、そのX座標が最小のもの(絵柄領域特定画像データ中で最も左にあるもの)の当該X座標をXminとし、同じくY座標が最小のもの(絵柄領域特定画像データ中で最も上にあるもの)の当該Y座標をYminとし、以下同様にX座標が最大のものと、Y座標が最大のものとにおける、X座標とY座標とのそれぞれをXmax、Ymaxとして、(Xmin,Ymin)から(Xmax,Ymax)までの線を対角線とする矩形を外接矩形と定める。そして当該外接矩形の面積Aを、(Xmax−Xmin)×(Ymax−Ymin)として演算する。なお、この面積Aは、当該外接矩形に含まれる全画素の数にも等しい。一方、特徴量算出部33は、当該外接矩形内の黒画素の数をカウントし、その数を上記全画素の数(すなわち面積Aの値)で除して密度Dを求める。   The feature amount calculation unit 33 calculates a predetermined scale feature amount for each of the connected regions extracted by the connected pixel extraction unit 32. Here, the scale feature amount includes the rectangular area determined in relation to the connected region, the density of black pixels in the rectangle (the number of black pixels in the rectangle divided by the number of all pixels in the rectangle) ) Etc. For example, the feature amount calculation unit 33 performs processing as follows. That is, the feature amount calculation unit 33 defines a rectangle circumscribing each connected region (a circumscribed rectangle) as a related region for each connected region. Specifically, for the circumscribed rectangle, among the pixels included in the connected area, the X coordinate of the pixel with the smallest X coordinate (the leftmost pixel in the image area specific image data) is defined as Xmin, and the Y coordinate is also the smallest. X coordinate and Y coordinate of the one with the largest X coordinate and the one with the largest Y coordinate are set to Ymin. , Xmax and Ymax are defined as rectangles having diagonal lines from (Xmin, Ymin) to (Xmax, Ymax). Then, the area A of the circumscribed rectangle is calculated as (Xmax−Xmin) × (Ymax−Ymin). The area A is equal to the number of all pixels included in the circumscribed rectangle. On the other hand, the feature amount calculation unit 33 counts the number of black pixels in the circumscribed rectangle and divides the number by the number of all the pixels (that is, the value of the area A) to obtain the density D.

こうして特徴量算出部33は、各連結領域について、これら外接矩形の面積A(面積特徴量に相当する)と、黒画素密度D(密度特徴量に相当する)とを、当該連結領域のスケール特徴量として算出する。そして、各連結領域の識別子(例えばラベル識別子)とそのスケール特徴量とを関連づけて、記憶部12にスケール特徴量データベースとして格納しておく。   In this way, the feature amount calculation unit 33 uses, for each connected region, the area A (corresponding to the area feature amount) of the circumscribed rectangle and the black pixel density D (corresponding to the density feature amount) as the scale feature of the connected region. Calculate as a quantity. Then, the identifier (for example, label identifier) of each connected area and the scale feature amount are associated with each other and stored in the storage unit 12 as a scale feature amount database.

属性判定部34は、記憶部12に格納されたスケール特徴量データベースを参照しながら、各連結領域が絵柄候補領域であるか否かを判定する。具体的な例を挙げると、この属性判定部34は、文字であれば一定以上のサイズがあるとの前提に基づく処理を行う。つまり、一般的なドキュメントで利用されるフォントサイズの最小値(例えば6ポイント)に相当する面積(いわば最小面積)未満の領域(小領域)は、文字を含まない、絵柄の領域と判定できるので、こうした小領域を除去することで文字部分を特定できる。   The attribute determination unit 34 determines whether each connected region is a pattern candidate region while referring to the scale feature amount database stored in the storage unit 12. As a specific example, this attribute determination unit 34 performs processing based on the premise that there is a certain size or more if it is a character. That is, an area (small area) less than an area (so-called minimum area) corresponding to the minimum font size (for example, 6 points) used in a general document can be determined as a picture area that does not include characters. By removing these small areas, the character portion can be specified.

さらに、本実施の形態では、例えば一般的なドキュメントで利用されるフォントサイズの最大値(例えば24ポイント)に相当する面積(いわば最大面積)以上の場合、文字は含まれないと基本的に判断できる。しかしながら、こうした領域は絵柄だけでなく線図(グラフなど)である場合もある。そこで、ここでも黒画素密度を利用して、最大面積より大きい面積を有する矩形のうち、黒画素密度が比較的大きい場合に限り、絵柄であると判定する。なぜならば、グラフなどの線図は、線を用いて構成されるので黒画素の密度は比較的低くなると推定されるからである。   Furthermore, in the present embodiment, for example, when the area is equal to or larger than the maximum font size (for example, 24 points) used in a general document (ie, the maximum area), it is basically determined that no character is included. it can. However, such a region may be a diagram (graph etc.) as well as a picture. Therefore, the black pixel density is also used here, and it is determined that the image has a pattern only when the black pixel density is relatively large among rectangles having an area larger than the maximum area. This is because a graph such as a graph is composed of lines, so that the density of black pixels is estimated to be relatively low.

具体的に本実施の形態の属性判定部34は、上記最小面積を表す第1の面積しきい値α1と、最大面積を表す第2の面積しきい値α2(ただし、α1<α2)並びに、第1、第2の密度しきい値(ρ1,ρ2)を予め定めておき、これらのしきい値を用いて、次のように判定する。   Specifically, the attribute determination unit 34 of the present embodiment includes a first area threshold value α1 representing the minimum area, a second area threshold value α2 representing the maximum area (where α1 <α2), First and second density threshold values (ρ1, ρ2) are determined in advance, and the determination is performed as follows using these threshold values.

すなわち属性判定部34は、図4に示すように、スケール特徴量データベースに含まれる連結領域のうち、この処理で未だ選択されていない連結領域の一つを注目領域として選択する(S1)。そしてこの注目領域に関連づけられたスケール特徴量を読み出して、当該スケール特徴量に含まれる面積Aが、第1の面積しきい値α1未満となっているか否か(A<α1か否か)を調べる(S2)。ここで、A<α1であれば、注目領域を絵柄領域として判定し、注目領域の識別子(例えばラベル識別子)と、その判定結果(絵柄領域である旨を表す情報)とを関連づけて記憶部12に格納し(S3)、スケール特徴量データベース内にこの処理で未だ選択されていない連結領域があるか否かを調べて(S4)、未選択の連結領域があれば(Yesならば)、処理S1に戻って処理を続ける。また、処理S4において、未選択の連結領域がなければ(Noならば)、つまりすべての連結領域について判定を終了したならば、処理を終了する。   That is, as shown in FIG. 4, the attribute determination unit 34 selects one of the connected areas not yet selected in this process as a target area from the connected areas included in the scale feature amount database (S1). Then, the scale feature quantity associated with the region of interest is read, and whether or not the area A included in the scale feature quantity is less than the first area threshold value α1 (A <α1 or not). Check (S2). Here, if A <α1, the region of interest is determined as a picture region, and the identifier of the region of interest (for example, a label identifier) is associated with the determination result (information indicating that the region is a pattern region). (S3), it is checked whether or not there is a connected area not yet selected in this process in the scale feature amount database (S4). If there is an unselected connected area (if Yes), the process is performed. The process returns to S1 and continues. Further, if there is no unselected connected region in the process S4 (if No), that is, if the determination is completed for all the connected regions, the process is ended.

また、処理S2において、A<α1でなければ、続いて注目領域の面積Aが第2の面積しきい値α2を越えているか否か(A>α2であるか否か)を調べ(S5)、A>α2であれば、注目領域のスケール特徴量の一つである黒画素密度Dが、第1の密度しきい値ρ1未満であるか否か(D<ρ1か否か)を調べ(S6)、D<ρ1であれば、注目領域が非絵柄領域である判定して、注目領域の識別子(例えばラベル識別子)と、その判定結果(非絵柄領域である旨を表す情報)とを関連づけて記憶部12に格納し(S7)、処理S4に移行する(Y)。さらに処理S6において、D<ρ1でなければ、処理S3に移行(X)して(つまり絵柄領域と判定して)処理を続ける。   If it is determined in step S2 that A <α1 is not satisfied, whether or not the area A of the attention area exceeds the second area threshold value α2 (whether A> α2) is checked (S5). If A> α2, it is checked whether or not the black pixel density D, which is one of the scale feature quantities of the region of interest, is less than the first density threshold ρ1 (whether D <ρ1) ( S6) If D <ρ1, it is determined that the attention area is a non-picture area, and an identifier of the attention area (for example, a label identifier) is associated with the determination result (information indicating that it is a non-picture area). Are stored in the storage unit 12 (S7), and the process proceeds to S4 (Y). Furthermore, if D <ρ1 is not satisfied in process S6, the process proceeds to process S3 (X) (that is, it is determined as a picture area) and the process continues.

また、処理S5において、A>α2でなければ、処理S7に移行(Z)して(つまり非絵柄領域と判定して)処理を続ける。なお、密度しきい値ρ1は、実験によって線画等を抽出するのに適した値に定める。   If A> α2 is not satisfied in process S5, the process proceeds to process S7 (Z) (that is, determined as a non-picture area) and the process is continued. The density threshold ρ1 is set to a value suitable for extracting line drawings and the like by experiment.

また、面積特徴量又は面積しきい値の少なくとも一方を、処理対象となっている画像データの解像度に基づいて補正してもよい。例えば面積しきい値α1,α2が解像度r0で設定された値である場合において、処理対象となった画像データの解像度がrであったとき、第1の面積しきい値α1を(r/r0)×(r/r0)×α1に補正し、第2の面積しきい値α2を(r/r0)×(r/r0)×α2に補正する。   Further, at least one of the area feature amount or the area threshold value may be corrected based on the resolution of the image data to be processed. For example, when the area threshold values α1 and α2 are values set at the resolution r0, when the resolution of the image data to be processed is r, the first area threshold value α1 is set to (r / r0). ) × (r / r0) × α1, and the second area threshold value α2 is corrected to (r / r0) × (r / r0) × α2.

非絵柄領域処理部35は、属性判定部34によって生成されて記憶部12に格納されている、各連結領域ごとの判定結果を参照して、絵柄領域特定画像データのうち、非絵柄領域と判定された連結領域に含まれる黒画素を白画素に変換して、非絵柄領域と背景とが白画素となっている絵柄領域特定画像データを生成する。   The non-design area processing unit 35 refers to the determination result for each connected area that is generated by the attribute determination unit 34 and stored in the storage unit 12, and is determined to be a non-design area in the design area specifying image data. The black pixels included in the connected area are converted into white pixels, and the image area specifying image data in which the non-picture area and the background are white pixels is generated.

背景領域塗潰部36は、非絵柄領域と背景とが白画素となっている絵柄領域特定画像データに対して、絵柄部分の境界と連結している白画素を、所定の値(白、黒以外の任意の色)で塗りつぶす。ここでは、広く知られているような、閉じた領域(閉曲線で囲まれた内部又は外部)を塗つぶす処理を用いる。絵柄候補領域作成部37は、背景領域塗潰部36によって所定の値で塗潰されなかった画素の色を黒に設定する。この絵柄候補領域作成部37によって黒画素に設定された部分を絵柄候補領域として扱うことになる。   The background area filling unit 36 sets white pixels connected to the boundary of the pattern portion to predetermined values (white, black, etc.) for the pattern area specifying image data in which the non-pattern area and the background are white pixels. Fill with any color other than Here, a process of painting a closed region (inside or outside surrounded by a closed curve) as is widely known is used. The pattern candidate area creation unit 37 sets the color of the pixels that have not been painted with the predetermined value by the background area painting unit 36 to black. A portion set as a black pixel by the pattern candidate area creation unit 37 is handled as a pattern candidate area.

この、小領域除去の方法による絵柄候補部分特定処理部22の動作について説明する。以下、図5(a)に示す画像データを処理対象とする場合を例として説明する。なお、図示の都合上、図5(a)においては、全体を線図で示しているが、図5(a)には、写真部分Pと、テキスト部分Tと、線図部分Gと、地図などの図版部分Mとが含まれているものとする。また、地図M内には、地図を構成する線分と一部重なり合う文字等が記述されている場合がある(X)。例えば道路名を示す文字などは、他の道路と重なり合って示されていることも多い。   The operation of the pattern candidate portion specifying processing unit 22 by this small area removal method will be described. Hereinafter, a case where the image data illustrated in FIG. 5A is a processing target will be described as an example. For convenience of illustration, FIG. 5A shows the whole as a diagram, but FIG. 5A shows a photograph portion P, a text portion T, a diagram portion G, and a map. And a plate part M such as Further, in the map M, there are cases where characters or the like partially overlapping with the line segments constituting the map are described (X). For example, letters indicating road names are often shown overlapping other roads.

絵柄候補部分特定処理部22がこれを二値化処理して(図5(b))、連結画素を抽出し、各連結画素についての特徴量に基づき小領域除去の処理を行う。すると絵柄領域特定画像データは、図5(c)に示すように、テキスト部分(T)が除かれた状態となる。なお図5においては線図部分Gの黒画素密度が比較的高いので、当該線図部分Gは除去されずに残存した状態となっている。また、地図部分M内において線分と重なり合っている文字は、当該重なり合う線分と一体として連結画素として抽出されてしまう。このためこの連結画素を囲む矩形の面積が大きくなり、小領域として除去されず、残存することとなる(図5(c)のX)。   The pattern candidate portion specifying processing unit 22 binarizes this (FIG. 5B), extracts connected pixels, and performs a small area removal process based on the feature amount for each connected pixel. Then, the pattern area specifying image data is in a state where the text portion (T) is removed as shown in FIG. In FIG. 5, since the black pixel density of the diagram portion G is relatively high, the diagram portion G remains without being removed. In addition, the characters that overlap the line segment in the map portion M are extracted as connected pixels together with the overlapping line segment. For this reason, the area of the rectangle surrounding the connected pixel is increased, and is not removed as a small region, but remains (X in FIG. 5C).

絵柄候補部分特定処理部22は、背景となっている白画素部分Bを所定の色で塗潰し(図5(d))、さらにこの所定の色で塗潰された部分以外の部分を黒画素とする。ここで背景となっている部分を塗潰す方法としては、画像データの四隅(左上、右上、左下、右下の四隅)から線分によって仕切られない領域を塗潰す、一般的なペイント処理を利用する方法を採ることができる。そして絵柄候補部分特定処理部22は、上記所定の色部分を白画素にするとともに、それ以外を黒画素にする。すると、図5(e)に示すように、絵柄候補となる部分が黒画素となり、それ以外の部分が白画素となっているような絵柄領域特定画像データが得られることとなる。   The pattern candidate portion specifying processing unit 22 fills the white pixel portion B, which is the background, with a predetermined color (FIG. 5D), and further black pixels other than the portion painted with the predetermined color. And As a method of painting the background part here, use the general paint processing that paints the area that is not partitioned by line segments from the four corners of the image data (upper left, upper right, lower left, lower right corners). Can be taken. Then, the pattern candidate portion specifying processing unit 22 sets the predetermined color portion as a white pixel and sets the others as black pixels. Then, as shown in FIG. 5 (e), pattern area specifying image data is obtained in which the pattern candidate part is a black pixel and the other part is a white pixel.

また、絵柄候補部分特定処理部22は、非絵柄領域処理部35によって絵柄領域特定画像データのうち、非絵柄領域と判定された連結領域に含まれる黒画素を白画素に変換した後の絵柄領域特定画像データに対して、膨張収縮処理を行ってもよい。すなわち、図3(b)に示すように、絵柄候補部分特定処理部22による処理は機能的に、二値化処理部31と、連結画素抽出部32と、特徴量算出部33と、属性判定部34と、非絵柄領域処理部35と、膨張収縮部38と、背景領域塗潰部36と、絵柄候補領域作成部37とを含んで構成されてもよい。   In addition, the pattern candidate portion specifying processing unit 22 converts the black pixel included in the connected region determined as the non-pattern region in the pattern region specifying image data by the non-pattern region processing unit 35 to the white pixel. Expansion and contraction processing may be performed on the specific image data. That is, as shown in FIG. 3B, the processing by the pattern candidate portion specifying processing unit 22 is functionally a binarization processing unit 31, a connected pixel extraction unit 32, a feature amount calculation unit 33, and attribute determination. A part 34, a non-picture area processing part 35, an expansion / contraction part 38, a background area painting part 36, and a pattern candidate area creation part 37 may be included.

ここで膨張収縮部38は、非絵柄領域処理部35によって絵柄領域特定画像データのうち、非絵柄領域と判定された連結領域に含まれる黒画素を白画素に変換した後の絵柄領域特定画像データに含まれる画素を順次注目画素として選択する。   Here, the expansion / contraction unit 38 has the pattern area specifying image data obtained by converting the black pixels included in the connected area determined to be the non-pattern area among the pattern area specifying image data by the non-pattern area processing unit 35 into white pixels. Are sequentially selected as the target pixel.

そして膨張収縮部38は、注目画素の近傍(上下左右の画素からなる4近傍または、周辺8画素の8近傍)に黒画素が一つでもあれば、当該注目画素を黒画素とする処理(膨張処理)を行って、黒画素部分を膨張させて、次の注目画素を選択する。この選択順序は、上から下へとラインを走査し、ライン内は左から右へと走査する順序(いわゆるラスタスキャン順)とすればよい。   Then, the expansion / contraction unit 38 performs processing (expansion) when the pixel of interest is a black pixel if there is at least one black pixel in the vicinity of the pixel of interest (four neighborhoods of upper, lower, left, and right pixels or eight neighborhoods of the surrounding eight pixels). Process) to expand the black pixel portion and select the next pixel of interest. The selection order may be the order in which lines are scanned from top to bottom and the lines are scanned from left to right (so-called raster scan order).

膨張収縮部38は、すべての画素に対する膨張処理を完了すると、再び、各画素を順次注目画素として選択しながら収縮処理を開始する。収縮処理では、注目画素の近傍(4近傍または8近傍)に白画素が一つでもあれば、注目画素を白画素とする。そして、全画素について収縮処理が完了すると、膨張収縮部38の処理を終了する。   When the expansion / contraction unit 38 completes the expansion processing for all the pixels, the expansion / contraction unit 38 again starts the contraction processing while sequentially selecting each pixel as the target pixel. In the contraction process, if there is at least one white pixel in the vicinity of the pixel of interest (near 4 or 8), the pixel of interest is set as a white pixel. Then, when the contraction process is completed for all the pixels, the process of the expansion / contraction unit 38 ends.

この場合、背景領域塗潰部36は、膨張収縮部38によって処理された後の絵柄領域特定画像データに対して、絵柄部分の境界と連結している背景部分の白画素を、所定の値(白、黒以外の任意の色)で塗りつぶすことになる。   In this case, the background area filling unit 36 sets the white pixels in the background part connected to the boundary of the pattern part to a predetermined value (with respect to the pattern area specifying image data processed by the expansion / contraction part 38). Any color other than white or black) will be painted.

このように膨張収縮処理を行うことによって、網点の領域が背景領域と区別されて絵柄領域として認識され易くなる。   By performing the expansion / contraction process in this manner, the halftone dot region is easily distinguished from the background region and recognized as a pattern region.

本実施の形態では、この絵柄領域候補を特定する処理において文字部分を絵柄と誤判定しても、後に行われるレイアウト処理によって文字部分がさらに抽出されるので、絵柄候補領域の抽出精度が比較的低くても構わない。   In the present embodiment, even if the character part is erroneously determined as a pattern in the process of specifying the pattern area candidate, the character part is further extracted by the layout process performed later, so that the extraction accuracy of the pattern candidate area is relatively high. It can be low.

なお、ここまでの説明では、背景領域塗潰部36は、背景部分を所定の色で塗り潰すこととしているが、これに代えて次のようにしてもよい。すなわち、連結領域の抽出にラベリング処理を用いている場合に、当該抽出の際に得られた最大のラベルの値より大きい値(例えば最大のラベル値に1を加えた値)のラベル(背景特定ラベル)を背景部分の画素のラベルに置換えて設定していくこととしてもよい。この場合、絵柄候補領域作成部37は、当該背景特定ラベルが付されていない画素を黒画素に設定することで、図5(e)に示した絵柄領域特定画像データを生成してもよい。   In the description so far, the background region filling unit 36 fills the background portion with a predetermined color, but the following may be used instead. That is, when a labeling process is used to extract a connected region, a label (background identification) that is larger than the maximum label value obtained at the time of extraction (for example, a value obtained by adding 1 to the maximum label value). (Label) may be set by replacing the label of the pixel in the background portion. In this case, the pattern candidate area creation unit 37 may generate the pattern area specific image data shown in FIG. 5E by setting the pixels not attached with the background specific label to black pixels.

制御部11は、特定された絵柄候補領域の各々を規定する座標情報(以下、絵柄候補領域画定情報と呼ぶ)を記憶部12に格納する。   The control unit 11 stores coordinate information (hereinafter referred to as “design candidate area definition information”) that defines each of the identified design candidate areas in the storage unit 12.

[3.文字線画抽出処理部]
文字線画抽出処理部23は、前処理部21が出力するYCbCr色空間で表現された画像データから文字線画部分を抽出する処理を行う。この処理は、例えば特許文献3に開示されている通りの処理を用いることができる。
[3. Character line drawing extraction processing unit]
The character / line drawing extraction processing unit 23 performs processing for extracting a character / line drawing part from the image data expressed in the YCbCr color space output from the preprocessing unit 21. For this processing, for example, processing as disclosed in Patent Document 3 can be used.

そして文字線画抽出部処理部23は、個々の文字や、線画部分についてそれらを取囲む矩形(文字線画外接矩形)の座標情報を記憶部12に格納する。   The character / line drawing extraction unit processing unit 23 stores the coordinate information of individual characters and rectangles (character / line drawing circumscribed rectangles) surrounding the line drawing parts in the storage unit 12.

[4.レイアウト処理部]
レイアウト処理部24は、絵柄候補部分特定処理部22が生成した絵柄候補領域画定情報と、文字線画抽出処理部23が生成した文字線画外接矩形の座標情報とを記憶部12から読み出す。
[4. Layout processing section]
The layout processing unit 24 reads, from the storage unit 12, the pattern candidate area defining information generated by the pattern candidate portion specifying processing unit 22 and the coordinate information of the character / line drawing circumscribing rectangle generated by the character / line drawing extraction processing unit 23.

レイアウト処理部24は、この絵柄候補領域画定情報によって画定される絵柄候補領域と、文字線画外接矩形の座標情報で画定される文字線画の領域とのそれぞれに対して互いに異なる判定条件を用いてレイアウト解析を行う。   The layout processing unit 24 performs layout using different determination conditions for each of the pattern candidate area defined by the pattern candidate area definition information and the character / line drawing area defined by the coordinate information of the circumscribed rectangle of the character / line drawing. Analyze.

具体的に本実施の形態においては、記憶部12から読出した絵柄候補領域画定情報によって画定される絵柄候補領域においてレイアウト解析処理を行い、当該絵柄候補領域の中からさらに文字部分の抽出を試みる。そして、抽出された文字部分を除く部分を絵柄領域として画定し、後段の処理に供する。   Specifically, in the present embodiment, layout analysis processing is performed in the pattern candidate area defined by the pattern candidate area definition information read from the storage unit 12, and further character portions are extracted from the pattern candidate area. Then, a portion excluding the extracted character portion is defined as a pattern region, and is used for subsequent processing.

ここでレイアウト解析処理の処理内容について説明する。レイアウト処理部24は図6に機能的に示すように、二値化処理部41と、連結画素抽出部42と、基本矩形画定部43と、第1セパレータ検出部44と、行矩形画定部45と、第2セパレータ検出部46と、文字領域画定部47と、ノイズ判定部48と、文字部分特定部49とを含んで構成される。   Here, processing contents of the layout analysis processing will be described. As functionally shown in FIG. 6, the layout processing unit 24 includes a binarization processing unit 41, a connected pixel extraction unit 42, a basic rectangle defining unit 43, a first separator detecting unit 44, and a row rectangle defining unit 45. A second separator detection unit 46, a character region demarcation unit 47, a noise determination unit 48, and a character part specifying unit 49.

二値化処理部41は、前処理部21が出力するYCbCr色空間で表現された画像データ(元の画像データ)のうち、絵柄候補領域画定情報で画定される領域内の部分的な画像データ(絵柄候補部分データ)を処理対象として、この処理対象となった絵柄候補部分データを二値化して、二値化絵柄候補部分データを生成する。   The binarization processing unit 41 includes partial image data in an area defined by the pattern candidate area definition information among the image data (original image data) expressed in the YCbCr color space output from the preprocessing unit 21. Using (picture candidate part data) as a processing target, the pattern candidate part data that is the processing target is binarized to generate binarized picture candidate part data.

連結画素抽出部42は、二値化絵柄候補部分データに対してラベリング処理を行い、所定の条件(例えば黒画素である等の条件)を満足する画素値の画素が連続する部分からなる複数の画素群(連結画素群)を特定する。   The connected pixel extraction unit 42 performs a labeling process on the binarized pattern candidate partial data, and includes a plurality of continuous pixels having pixel values that satisfy a predetermined condition (for example, a condition such as a black pixel). A pixel group (connected pixel group) is specified.

基本矩形画定部43は、連結画素抽出部42が特定した連結画素群に関する矩形(例えば連結画素群に外接する矩形)を基本矩形として画定し、各連結画素群についての基本矩形の座標情報(当該矩形を画定するための座標情報)を生成する。そして、各基本矩形ごとに固有の識別子を発行し、当該識別子と基本矩形の座標情報とを関連づけて基本矩形データベースとして記憶部12に格納する。   The basic rectangle defining unit 43 defines a rectangle (for example, a rectangle circumscribing the connected pixel group) related to the connected pixel group specified by the connected pixel extracting unit 42 as a basic rectangle, and the basic rectangle coordinate information about each connected pixel group Coordinate information for defining a rectangle) is generated. Then, a unique identifier is issued for each basic rectangle, and the identifier and the coordinate information of the basic rectangle are associated and stored in the storage unit 12 as a basic rectangle database.

第1セパレータ検出部44は、処理対象となっている絵柄候補部分データの左上端の画素を初期位置として、各画素を左から右へと1ライン走査し、一つ下のラインについて同様に(すなわちラスタスキャン順に)走査していき、上記ラベリング処理における所定の条件を満足しない画素値の画素(例えば白画素)が、予め定めた水平方向閾値より多く連続している場合に、当該連続画素部分を(水平方向の)第1セパレータとして検出し、当該第1セパレータを特定する情報(連続画素部分の左端画素の座標と右端画素の座標など、ここで座標は、元の画像データ上の座標であってもよいし、絵柄候補部分データ上のローカルな座標であってもよい)を生成して記憶部12に格納する。   The first separator detection unit 44 scans each pixel one line from the left to the right with the pixel at the upper left corner of the pattern candidate partial data to be processed as the initial position, and similarly for the next lower line ( That is, when the pixels having pixel values that do not satisfy the predetermined condition in the labeling process (for example, white pixels) are continuously larger than a predetermined horizontal threshold value, the continuous pixel portion is scanned. Is detected as the first separator (in the horizontal direction), and the information specifying the first separator (the coordinates of the left end pixel and the right end pixel of the continuous pixel portion, such as the coordinates are the coordinates on the original image data) Or the local coordinates on the pattern candidate portion data may be generated and stored in the storage unit 12.

また、この第1セパレータ検出部44は、処理対象となっている絵柄候補部分データの左上端の画素を初期位置として、各画素を上から下へと1ライン走査し、一つ右のラインについて同様に走査していき、上記ラベリング処理における所定の条件を満足しない画素値の画素(例えば白画素)が、予め定めた垂直方向閾値より多く連続している場合に、当該連続画素部分を(垂直方向の)第1セパレータとして検出し、当該第1セパレータを特定する情報(連続画素部分の上端画素の座標と下端画素の座標など、ここで座標は、元の画像データ上の座標であってもよいし、絵柄候補部分データ上のローカルな座標であってもよい)を生成して記憶部12に格納する。   The first separator detection unit 44 scans each pixel one line from the top to the bottom with the pixel at the upper left corner of the candidate pattern data to be processed as the initial position. Similarly, when pixels having pixel values that do not satisfy the predetermined condition in the labeling process (for example, white pixels) continue more than a predetermined vertical threshold value, the continuous pixel portion is (vertical) Information that is detected as the first separator (in the direction) and identifies the first separator (such as the coordinates of the upper end pixel and the lower end pixel of the continuous pixel portion, where the coordinates are coordinates on the original image data) It may be local coordinates on the pattern candidate portion data) and is stored in the storage unit 12.

これらの処理において、水平方向閾値や垂直方向閾値は、ユーザが任意に定め得る。水平方向閾値は多段組のレイアウトにおいて各段を分かつための閾値であり、垂直方向閾値は2行以上の文字列を含む文書から、各行を分割するための閾値である。またユーザの設定によるだけでなく、水平方向閾値は基本矩形の幅の統計値(平均)などに基づく所定関数値として、また垂直方向閾値は基本矩形の高さの統計値(平均)などに基づく所定関数値としてそれぞれ定めてもよい。   In these processes, the horizontal direction threshold and the vertical direction threshold can be arbitrarily determined by the user. The horizontal threshold is a threshold for dividing each stage in a multi-column layout, and the vertical threshold is a threshold for dividing each line from a document including two or more lines of character strings. In addition to the user setting, the horizontal threshold is a predetermined function value based on the basic rectangle width statistical value (average), and the vertical threshold is based on the basic rectangular height statistical value (average). Each may be determined as a predetermined function value.

具体的に第1セパレータは、図7(a)に示すような状態で検出されることになる。なお、図7(a)では各第1セパレータが相互に隣接して検出された結果として、一つの第1セパレータ領域のように示されている。   Specifically, the first separator is detected in a state as shown in FIG. In FIG. 7A, as a result of detecting the first separators adjacent to each other, it is shown as one first separator region.

行矩形画定部45は、記憶部12に格納されている基本矩形の一つを注目基本矩形として選択する。そして、記憶部12に格納されている基本矩形であって、いままでに注目基本矩形として選択されていない基本矩形を処理対象基本矩形として順次選択しながら、次の処理を行う。   The row rectangle defining unit 45 selects one of the basic rectangles stored in the storage unit 12 as the target basic rectangle. Then, the following processing is performed while sequentially selecting the basic rectangles that have been stored in the storage unit 12 and have not been selected as the target basic rectangle so far as the processing target basic rectangles.

すなわち、注目基本矩形の中心座標(座標情報が対角位置にある各頂点の座標を表している場合、その中点座標)から、処理対象基本矩形の中心座標へのベクトルを算出する。さらに行矩形画定部45は、ベクトルの大きさ(各成分の二乗和の平方根)から注目基本矩形と処理対象基本矩形との距離を算出する。そして、この算出した距離が予め定めた距離閾値以下となっている場合は、上記算出したベクトルが、検出された第1セパレータのいずれかと交差するか否かを調べる。この処理は2つの線分が交差するか否かを調べる処理として広く知られたものを用いることができる。ここで、上記算出したベクトルが、検出された第1セパレータのいずれとも交差しない場合、注目基本矩形の識別子に、当該処理対象基本矩形の識別子を関連づけて基本矩形関係データベースとして記憶部12に格納する。   That is, a vector is calculated from the center coordinates of the target basic rectangle (in the case where the coordinate information represents the coordinates of each vertex at the diagonal position, the center point coordinates thereof) to the center coordinates of the processing target basic rectangle. Further, the row rectangle defining unit 45 calculates the distance between the target basic rectangle and the processing target basic rectangle from the size of the vector (the square root of the sum of squares of each component). When the calculated distance is equal to or less than a predetermined distance threshold, it is checked whether the calculated vector intersects any of the detected first separators. For this process, a widely known process for checking whether or not two line segments intersect can be used. If the calculated vector does not intersect any of the detected first separators, the identifier of the target basic rectangle is associated with the identifier of the target basic rectangle and stored in the storage unit 12 as a basic rectangle relation database. .

行矩形画定部45は記憶部12に格納されている基本矩形について順次注目基本矩形として選択しながら上記処理を行う。そしてこの処理の結果として得られた基本矩形関係データベースを参照しながら連鎖的に互いに関連する一連の基本矩形群(複数あってもよい)を特定し、特定された基本矩形群に含まれる基本矩形に外接する矩形を行矩形として画定する(例えば図7(b))。   The row rectangle defining unit 45 performs the above processing while sequentially selecting the basic rectangles stored in the storage unit 12 as the target basic rectangle. Then, a series of basic rectangle groups (which may be plural) are linked and identified with reference to the basic rectangle relation database obtained as a result of this processing, and the basic rectangles included in the specified basic rectangle group A rectangle circumscribing is defined as a row rectangle (for example, FIG. 7B).

例えば基本矩形関係データベース内において、識別子が「1」の基本矩形と識別子が「2」の基本矩形とが関連づけられ、また識別子が「2」の基本矩形と識別子が「3」の基本矩形とが関連づけられている場合、行矩形画定部45は、これらの結果を統合して識別子「1」と「2」と「3」との各基本矩形を一連の基本矩形群として特定する。そして基本矩形群に含まれる基本矩形のうち、その座標情報のx(水平方向)の値の最大値と最小値とを抽出し、同じようにy(垂直方向)の値の最大値と最小値とを抽出する。そして、抽出されたxの最小値とyの最小値とを組とした第一座標と、xの最大値とyの最大値とを組とした第二座標とを、それぞれ左上座標,右下座標とする行矩形を画定する。つまり、行矩形は、この2つの座標値を含む座標情報によって画定される。   For example, in the basic rectangle relation database, a basic rectangle with an identifier “1” is associated with a basic rectangle with an identifier “2”, and a basic rectangle with an identifier “2” and a basic rectangle with an identifier “3” are associated with each other. If they are associated, the row rectangle defining unit 45 integrates these results and specifies the basic rectangles having the identifiers “1”, “2”, and “3” as a series of basic rectangle groups. Then, from the basic rectangles included in the basic rectangle group, the maximum value and minimum value of the x (horizontal direction) value of the coordinate information are extracted, and similarly the maximum value and minimum value of the y (vertical direction) value are extracted. And extract. Then, a first coordinate that is a set of the extracted minimum value of x and a minimum value of y, and a second coordinate that is a set of the maximum value of x and the maximum value of y are respectively set as upper left coordinates and lower right coordinates. A line rectangle is defined as coordinates. That is, the row rectangle is defined by coordinate information including these two coordinate values.

行矩形画定部45は、こうして画定した各行矩形についてそれぞれ固有の識別子を発行し、各識別子とその行矩形の座標情報と当該行矩形に含まれる基本矩形群を特定する情報(各基本矩形の識別子のリストなど)とを関連づけて行矩形データベースとして記憶部12に格納する。   The row rectangle defining unit 45 issues a unique identifier for each row rectangle thus defined, and information for identifying each identifier, the coordinate information of the row rectangle, and the basic rectangle group included in the row rectangle (the identifier of each basic rectangle) Are stored in the storage unit 12 as a row rectangle database.

第2セパレータ検出部46は、処理対象となっている絵柄候補部分データの左上端の画素を初期位置として、各画素を左から右へと1ライン走査し、一つ下のラインについて同様に(すなわちラスタスキャン順に)走査していき、連結画素抽出部42でのラベリング処理における所定の条件を満足する画素値の画素(例えば黒画素)が、予め定めた水平方向閾値より多く連続している場合に、当該連続画素部分を(水平方向の)第2セパレータとして検出し、当該第2セパレータを特定する情報(連続画素部分の左端画素の座標と右端画素の座標など、ここで座標は、元の画像データ上の座標であってもよいし、絵柄候補部分データ上のローカルな座標であってもよい)を生成して記憶部12に格納する。   The second separator detection unit 46 scans each pixel one line from the left to the right, using the pixel at the upper left corner of the candidate pattern data to be processed as the initial position, and similarly for the line below ( That is, when scanning is performed in the raster scan order), and pixels having pixel values satisfying a predetermined condition in the labeling process in the connected pixel extraction unit 42 (for example, black pixels) are continuously larger than a predetermined horizontal threshold value. In addition, the continuous pixel portion is detected as a second separator (in the horizontal direction), and information specifying the second separator (the coordinates of the left end pixel and the right end pixel of the continuous pixel portion, etc., where the coordinates are the original The coordinates may be coordinates on the image data, or may be local coordinates on the pattern candidate portion data) and stored in the storage unit 12.

また、この第2セパレータ検出部46は、処理対象となっている絵柄候補部分データの左上端の画素を初期位置として、各画素を上から下へと1ライン走査し、一つ右のラインについて同様に走査していき、連結画素抽出部42でのラベリング処理における所定の条件を満足する画素値の画素(例えば黒画素)が、予め定めた垂直方向閾値より多く連続している場合に、当該連続画素部分を(垂直方向の)第2セパレータとして検出し、当該第2セパレータを特定する情報(連続画素部分の上端画素の座標と下端画素の座標など、ここで座標は、元の画像データ上の座標であってもよいし、絵柄候補部分データ上のローカルな座標であってもよい)を生成して記憶部12に格納する。   The second separator detection unit 46 scans each pixel one line from the top to the bottom with the pixel at the upper left corner of the pattern candidate partial data to be processed as the initial position, and for the right one line. When scanning is performed in the same manner and pixels having pixel values satisfying a predetermined condition in the labeling process in the connected pixel extraction unit 42 (for example, black pixels) continue more than a predetermined vertical direction threshold, Information that detects a continuous pixel portion as a second separator (in the vertical direction) and identifies the second separator (such as the coordinates of the upper end pixel and the lower end pixel of the continuous pixel portion, where the coordinates are on the original image data) And may be local coordinates on the pattern candidate portion data) and stored in the storage unit 12.

これらの処理において、水平方向閾値や垂直方向閾値は、ユーザが任意に定め得る。水平方向閾値は多段組のレイアウトにおいて各段を分かつための閾値であり、垂直方向閾値は2行以上の文字列を含む文書から、各行を分かつための閾値である。またユーザの設定によるだけでなく、水平方向閾値は基本矩形の幅の統計値(平均)などに基づく所定関数値として、また垂直方向閾値は基本矩形の高さの統計値(平均)などに基づく所定関数値としてそれぞれ定めてもよい。   In these processes, the horizontal direction threshold and the vertical direction threshold can be arbitrarily determined by the user. The horizontal threshold is a threshold for dividing each stage in a multi-column layout, and the vertical threshold is a threshold for separating each line from a document including two or more character strings. In addition to the user setting, the horizontal threshold is a predetermined function value based on the basic rectangle width statistical value (average), and the vertical threshold is based on the basic rectangular height statistical value (average). Each may be determined as a predetermined function value.

文字領域画定部47は、行矩形画定部45が画定した行矩形の一つを注目行矩形として選択する。そして文字領域画定部47は、記憶部12に格納されている行矩形であって、いままでに注目行矩形として選択されていない行矩形を処理対象行矩形として順次選択しながら、次の処理を行う。   The character area defining unit 47 selects one of the line rectangles defined by the line rectangle defining unit 45 as the target line rectangle. The character area demarcating unit 47 then performs the next processing while sequentially selecting the row rectangles stored in the storage unit 12 and not selected as the target row rectangle so far as the processing target row rectangle. Do.

すなわち、注目行矩形の各頂点の座標と処理対象行矩形の対応する頂点の座標とを結ぶ線分、及び注目行矩形と処理対象行矩形の各辺とによって画定される多角形領域を生成し、この多角形領域と第2セパレータ(の領域)とが交差(領域同士が少なくとも一部で重なり合う)するか否かを調べる。この処理は2つの領域が交差するか否かを調べる処理として広く知られたものを用いることができる。   In other words, a line segment connecting the coordinates of each vertex of the target line rectangle and the coordinates of the corresponding vertex of the processing target line rectangle, and a polygonal area defined by each side of the target line rectangle and the processing target line rectangle are generated. Then, it is examined whether or not this polygonal region and the second separator (region) intersect (regions overlap at least partially). For this process, a widely known process for checking whether or not two regions intersect can be used.

ここで多角形領域と第2セパレータとが交差していない場合、注目行矩形の識別子と処理対象行矩形の識別子とを関連づけて行矩形関係データベースとして記憶部12に格納する。   Here, when the polygonal region and the second separator do not intersect, the identifier of the target row rectangle and the identifier of the processing target row rectangle are associated with each other and stored in the storage unit 12 as a row rectangle relation database.

文字領域画定部47は記憶部12に格納されている行矩形について順次注目行矩形として選択しながら上記処理を行う。そしてこの処理の結果として得られた行矩形関係データベースを参照しながら連鎖的に互いに関連する一連の行矩形群(複数あってもよい)を特定し、特定された行矩形群に含まれる行矩形に外接する矩形を文字領域として画定する。   The character area defining unit 47 performs the above processing while sequentially selecting the row rectangles stored in the storage unit 12 as the target row rectangle. Then, a series of row rectangle groups (which may be plural) related to each other in a chained manner are identified with reference to the row rectangle relation database obtained as a result of this processing, and the row rectangles included in the identified row rectangle group A rectangle circumscribing is defined as a character area.

例えば行矩形関係データベース内において、識別子が「1」の行矩形と識別子が「2」の行矩形とが関連づけられ、また識別子が「2」の行矩形と識別子が「3」の行矩形とが関連づけられている場合、行矩形画定部45は、これらの結果を統合して識別子「1」と「2」と「3」との各行矩形を一連の行矩形群として特定する。そして行矩形群に含まれる行矩形のうち、その座標情報のx(水平方向)の値の最大値と最小値とを抽出し、同じようにy(垂直方向)の値の最大値と最小値とを抽出する。そして、抽出されたxの最小値とyの最小値とを組とした第一座標と、xの最大値とyの最大値とを組とした第二座標とを、それぞれ左上座標,右下座標とする文字領域の矩形を画定する。つまり、文字領域は、この2つの座標値を含む座標情報によって画定される。   For example, in the row rectangle relation database, the row rectangle having the identifier “1” is associated with the row rectangle having the identifier “2”, and the row rectangle having the identifier “2” is associated with the row rectangle having the identifier “3”. If they are associated, the row rectangle defining unit 45 integrates these results and identifies the row rectangles having the identifiers “1”, “2”, and “3” as a series of row rectangle groups. Then, from the row rectangles included in the row rectangle group, the maximum value and the minimum value of the x (horizontal direction) value of the coordinate information are extracted, and similarly the maximum value and the minimum value of the y (vertical direction) value are extracted. And extract. Then, a first coordinate that is a set of the extracted minimum value of x and a minimum value of y, and a second coordinate that is a set of the maximum value of x and the maximum value of y are respectively set as upper left coordinates and lower right coordinates. Define the rectangle of the character area as coordinates. That is, the character area is defined by coordinate information including these two coordinate values.

文字領域画定部47は、こうして画定した文字領域についてそれぞれ固有の識別子を発行し、各識別子とその文字領域の座標情報と当該文字領域に含まれる行矩形群を特定する情報(各行矩形の識別子のリストなど)とを関連づけて文字領域データベースとして記憶部12に格納する。   The character area defining unit 47 issues unique identifiers for the character areas thus defined, and information for identifying each identifier, the coordinate information of the character area, and the group of line rectangles included in the character area (the identifier of each line rectangle identifier). Are stored in the storage unit 12 as a character area database.

ノイズ判定部48は、文字領域画定部47によって画定された文字領域のそれぞれについて文字が含まれているか否かを確認する、ノイズ判定処理を行う。ここでノイズ判定処理は、行矩形の数、又は各行矩形の性状を表す情報に基づいて、各行矩形に文字が含まれているか否かを判断する第1ノイズ判定処理と、行矩形に関係する基本矩形に関する情報に基づいて、当該行矩形に文字が含まれているか否かを判断する第2ノイズ処理とを含む。   The noise determination unit 48 performs noise determination processing for confirming whether or not a character is included in each of the character regions defined by the character region definition unit 47. Here, the noise determination processing is related to the first noise determination processing for determining whether or not each row rectangle includes a character based on the number of row rectangles or information indicating the property of each row rectangle, and the row rectangle. Second noise processing for determining whether or not a character is included in the row rectangle based on information on the basic rectangle.

具体的にノイズ判定部48の処理は、図8に示すような処理として行われる。まずノイズ判定部48は記憶部12に格納された文字領域のうち、未だ注目文字領域として選択されていないものを注目文字領域として選択する(S11)。そして注目文字領域に含まれる行矩形の数を調べ、これが2以上か(すなわち、当該文字領域が複数行からなるか)否かを判断する(S12)。ここで、行矩形の数が2以上であれば(Yesならば)、注目文字領域に含まれる各行矩形の幅と高さ、並びにそれらの平均や標準偏差など、ばらつきを検定するための統計量を演算する(S13)。そして、これらの統計量に基づいて各行矩形の幅や高さのばらつきが所定のしきい値より大きいか否かを比較する(S14)。この比較は例えば標準偏差が、予め定めたしきい値を超えるか否かの比較とすることができる。そしてこの処理S14によって、ばらつきが大きいと判断される場合(Yesの場合)、注目文字領域には文字は含まれないと判断して、記憶部12の文字領域データベースから、注目文字領域を削除して(S15)、処理S18に移行する。これら処理S12からS15の処理が、第1ノイズ判定処理に相当する。すなわちここでは行矩形の性状を表す情報として各行矩形の幅や高さ、並びにそれらの統計量が用いられている。   Specifically, the processing of the noise determination unit 48 is performed as shown in FIG. First, the noise determination unit 48 selects a character region stored in the storage unit 12 that has not yet been selected as a target character region as a target character region (S11). Then, the number of line rectangles included in the target character area is checked to determine whether it is 2 or more (that is, whether the character area is composed of a plurality of lines) (S12). Here, if the number of row rectangles is 2 or more (if Yes), the statistics for testing variation such as the width and height of each row rectangle included in the target character area, and their average and standard deviation Is calculated (S13). Then, based on these statistics, it is compared whether or not the variation in the width and height of each row rectangle is larger than a predetermined threshold (S14). This comparison can be, for example, a comparison as to whether or not the standard deviation exceeds a predetermined threshold value. If it is determined by this processing S14 that the variation is large (in the case of Yes), it is determined that no character is included in the target character region, and the target character region is deleted from the character region database in the storage unit 12. (S15), the process proceeds to S18. These processes from S12 to S15 correspond to a first noise determination process. That is, here, the width and height of each row rectangle and their statistics are used as information representing the properties of the row rectangle.

一方、処理S14において、ばらつきが小さいと判断される場合(Noの場合)には、注目文字領域に含まれる各行矩形に対して行内判定処理(第2ノイズ判定処理)を行う(S16)。この処理S16の具体的内容については後述する。そしてこの処理S16においてノイズ(文字が含まれていない)と判定された行の数と注目文字領域に含まれる行矩形の数との比に基づいて、ノイズと判定された行の数が、注目文字領域に含まれる行矩形の数に比して所定比率以上となっているか否かを判断し(S17)、所定比率以上であるときに、注目文字領域には文字は含まれないと判断して、処理S15に移行する。   On the other hand, if it is determined in the process S14 that the variation is small (in the case of No), an in-line determination process (second noise determination process) is performed on each line rectangle included in the target character area (S16). The specific contents of this process S16 will be described later. Then, based on the ratio of the number of lines determined as noise (no character is included) in this process S16 and the number of line rectangles included in the target character area, the number of lines determined as noise is It is determined whether or not the predetermined ratio is greater than or equal to the number of line rectangles included in the character area (S17). When the ratio is equal to or greater than the predetermined ratio, it is determined that no character is included in the target character area. Then, the process proceeds to process S15.

また、処理S17において、所定比率未満である場合は、未だ注目文字領域となっていない文字領域が記憶部12の文字領域データベースにあるか否かを調べ(S18)、未選択の文字領域があれば、処理S11に戻って処理を続ける。さらに処理S18において、未選択の文字領域がないならば(すべての文字領域について処理を行ったならば)、ノイズ判定の処理を終了する。   In step S17, if the ratio is less than the predetermined ratio, it is checked whether or not there is a character area that is not yet a focused character area in the character area database of the storage unit 12 (S18), and there is an unselected character area. If so, the process returns to step S11 to continue the process. Furthermore, if there is no unselected character area in process S18 (if all the character areas have been processed), the noise determination process is terminated.

さらに処理S12において行矩形の数が1つであれば(Noならば)、処理S16に移行して処理を続ける。この場合、当該単一の行矩形について文字が含まれているか否かを判断し、文字が含まれていれば(この場合は処理S17の比率は「0」となる)、注目文字領域には文字が含まれると判断され、当該単一の行矩形内に文字が含まれていないならば(この場合は処理S17の比率は「1」となる)、注目文字領域には文字が含まれないと判断される。   Further, if the number of row rectangles is one in process S12 (if No), the process proceeds to process S16 to continue the process. In this case, it is determined whether or not a character is included in the single line rectangle, and if a character is included (in this case, the ratio of processing S17 is “0”), the target character region includes If it is determined that a character is included and no character is included in the single line rectangle (in this case, the ratio of processing S17 is “1”), the character region of interest does not include the character. It is judged.

ここで、処理S16における具体的処理(第2ノイズ判定処理)の内容について説明する。この処理ではノイズ判定部48は、図9に示すように、処理の対象となった各行矩形の一つを注目行矩形として選択し(S21)、記憶部12に格納されている行矩形データベースを参照して、当該注目行矩形に含まれる基本矩形の数をカウントする(S22)。そしてカウントの結果、基本矩形の数が「1」である場合と、「2」である場合と、「3」以上である場合とに分岐して(S23)、基本矩形の数が「1」である場合は、注目行矩形に含まれる基本矩形の識別子のリストを取得し、このリストに含まれる基本矩形の座標情報を記憶部12の基本矩形データベースから読出して、このリストに含まれる基本矩形の幅及び高さとその積(つまり面積)を演算する。そしてこの面積が予め定められた面積しきい値以下であるか否かを判断し(S25)、面積しきい値以下である場合は、注目行矩形には文字が含まれないと判断して、当該結果を記憶部12に格納する(S26)。そして未だ注目行矩形として選択されていない行矩形があるか否かを調べ(S27)、未選択の行矩形があれば、当該未選択の行矩形の一つを注目行矩形として選択するべく処理S21に戻って処理を続ける。一方、処理S27において未選択の行矩形がなければ、処理を終了して図8の処理に戻る。   Here, the content of the specific process (2nd noise determination process) in process S16 is demonstrated. In this processing, as shown in FIG. 9, the noise determination unit 48 selects one of the row rectangles to be processed as a target row rectangle (S21), and selects the row rectangle database stored in the storage unit 12. With reference to this, the number of basic rectangles included in the target row rectangle is counted (S22). As a result of the counting, the process branches into a case where the number of basic rectangles is “1”, a case where it is “2”, and a case where it is “3” or more (S23), and the number of basic rectangles is “1”. Is obtained, a list of identifiers of the basic rectangles included in the target line rectangle is acquired, the coordinate information of the basic rectangles included in this list is read from the basic rectangle database of the storage unit 12, and the basic rectangles included in this list are read out. The width and height and the product (that is, the area) are calculated. Then, it is determined whether or not the area is equal to or smaller than a predetermined area threshold (S25). If the area is equal to or smaller than the area threshold, it is determined that no character is included in the target line rectangle, The result is stored in the storage unit 12 (S26). Then, it is checked whether or not there is a row rectangle that has not been selected as the target row rectangle (S27). If there is an unselected row rectangle, one of the unselected row rectangles is selected as the target row rectangle. The process returns to S21 and continues. On the other hand, if there is no unselected row rectangle in the process S27, the process is terminated and the process returns to the process of FIG.

さらに処理S22におけるカウント値が「2」である場合、各基本矩形の面積を演算し、また、これらの基本矩形間の距離を演算する。基本矩形間の距離は、例えば基本矩形の中心同士の距離として演算できる。そして、距離が予め定めた距離しきい値より大きいか、または2つの基本矩形の面積の比が予め定めた面積比しきい値より大きいかを判断し(S31)、距離が予め定めた距離しきい値より大きいか、または2つの基本矩形の面積の比が予め定めた面積比しきい値より大きい場合は、処理S26に移行して(X)処理を続ける。   Further, when the count value in the process S22 is “2”, the area of each basic rectangle is calculated, and the distance between these basic rectangles is calculated. The distance between the basic rectangles can be calculated as the distance between the centers of the basic rectangles, for example. Then, it is determined whether the distance is larger than a predetermined distance threshold value or the ratio of the areas of the two basic rectangles is larger than a predetermined area ratio threshold value (S31), and the distance is set to a predetermined distance. If it is larger than the threshold value, or if the ratio of the areas of the two basic rectangles is larger than the predetermined area ratio threshold value, the process proceeds to step S26 and (X) processing is continued.

さらに、処理S22におけるカウント値が「3」以上である場合には、カウント値(基本矩形の数)が所定最大数を超えているか否かを判断し(S32)、この所定最大数を超える場合は、注目行矩形には文字が含まれないと判断して処理S26に移行する(X)。これは、一行内に例えば100字を超える文字を含めることは通常あり得ないことなどに配慮したものであり、固定値として定めておいてもよいし、注目行矩形の幅に基づいて調整してもよい。また処理S32において基本矩形の数が所定最大数を超えていない場合は、さらに各基本矩形の面積を演算して、演算された面積の最大値が、所定最大面積値を超えているか否かを判断する(S34)。ここで所定最大面積値を超えていると判断される場合は、注目行矩形には文字が含まれないと判断して処理S26に移行する(X)。この最大面積値も、固定値として定めてもよいし、注目行矩形の幅や高さの少なくとも一方(例えばそれらのうち小さい方)に基づいて調整してもよい。   Furthermore, when the count value in process S22 is “3” or more, it is determined whether or not the count value (number of basic rectangles) exceeds a predetermined maximum number (S32). Determines that no character is included in the target line rectangle, and the process proceeds to step S26 (X). This is in consideration of the fact that it is usually impossible to include more than 100 characters in a line, and may be set as a fixed value or adjusted based on the width of the line of interest rectangle. May be. If the number of basic rectangles does not exceed the predetermined maximum number in step S32, the area of each basic rectangle is further calculated to determine whether the calculated maximum area value exceeds the predetermined maximum area value. Judgment is made (S34). If it is determined that the predetermined maximum area value is exceeded, it is determined that no character is included in the target line rectangle, and the process proceeds to step S26 (X). This maximum area value may also be determined as a fixed value, or may be adjusted based on at least one of the width and height of the target row rectangle (for example, the smaller of them).

さらに処理S34において所定最大面積値を超えていないと判断される場合、さらに2つの基本矩形の組み合せ(任意に取り出された少なくとも一つの組み合せ)について、各組み合せに係る2つの基本矩形の面積比が予め定めた面積比しきい値より大きいかを判断し(S35)、2つの基本矩形の面積の比が予め定めた面積比しきい値より大きい場合は、処理S26に移行して処理を続ける(X)。   Further, when it is determined in the process S34 that the predetermined maximum area value is not exceeded, the area ratio of the two basic rectangles related to each combination is further determined for two combinations of the basic rectangles (at least one combination arbitrarily extracted). It is determined whether it is larger than a predetermined area ratio threshold value (S35). If the ratio of the areas of the two basic rectangles is larger than the predetermined area ratio threshold value, the process proceeds to step S26 and the process continues ( X).

この処理S35において2つの基本矩形の面積の比が予め定めた面積比しきい値より大きくない場合は、注目行矩形内に文字が含まれると判断して、その判断結果を記憶部12に格納し、処理S27に移行する。   When the ratio of the areas of the two basic rectangles is not larger than the predetermined area ratio threshold value in this process S35, it is determined that the character is included in the target line rectangle, and the determination result is stored in the storage unit 12. Then, the process proceeds to process S27.

なお、処理S25において、面積が面積しきい値を超える場合、並びに、処理S31において、距離が予め定めた距離しきい値以下であり、かつ2つの基本矩形の面積の比が予め定めた面積比しきい値以下である場合には、処理S32(または処理S34)以下に移行して処理を続けることとする。   In the process S25, when the area exceeds the area threshold value, and in the process S31, the distance is equal to or smaller than the predetermined distance threshold value, and the ratio of the areas of the two basic rectangles is a predetermined area ratio. If it is less than or equal to the threshold value, the process proceeds to the process S32 (or process S34) and the process is continued.

また、処理S35においては各組み合せについて処理を行っているが、処理負荷を軽減するためには、例えば各基本矩形の面積の平均値(平均面積)や、最小値(最小面積)・最大値(最大面積)を演算し、平均面積と最小面積、平均面積と最大面積との比、あるいは最小面積と最大面積との比と、上記面積比しきい値との比較を行ってもよい。   Further, in the processing S35, the processing is performed for each combination, but in order to reduce the processing load, for example, the average value (average area) of each basic rectangle, the minimum value (minimum area), the maximum value ( The maximum area) may be calculated, and the average area and the minimum area, the ratio of the average area and the maximum area, or the ratio of the minimum area and the maximum area may be compared with the area ratio threshold value.

このように、ノイズ判定部48は、各行矩形について、そこに含まれる基本矩形の性状(面積、面積比、距離など)に基づき、各行矩形に真に文字が含まれているか否かを再確認する。   As described above, the noise determination unit 48 reconfirms whether or not each row rectangle truly includes a character based on the properties (area, area ratio, distance, etc.) of the basic rectangle included in each row rectangle. To do.

なお、ノイズ判定部48の第1ノイズ判定処理は、ここで述べた例に限られない。例えばここでは行矩形の性状として各行矩形の幅や高さを用いていたが、これらとともに、またはこれらに代えて、行矩形の座標情報(の平均値や標準偏差などの統計量)を用いてもよい。これによると、図10に示すように、文字領域内に含まれる行矩形の位置がばらついている場合などに、当該文字領域には文字が含まれていない(ノイズである)と判断して、記憶部12の文字領域データベースから、注目文字領域を削除することとなる。   The first noise determination process of the noise determination unit 48 is not limited to the example described here. For example, the width and height of each row rectangle is used here as the property of the row rectangle, but using the coordinate information of the row rectangle (statistics such as an average value and standard deviation) together with or instead of these, Also good. According to this, as shown in FIG. 10, when the positions of the line rectangles included in the character area vary, it is determined that the character area does not include a character (is a noise), The character area of interest is deleted from the character area database in the storage unit 12.

文字部分特定部49は、ノイズ判定部48の処理を経た文字領域データベースを記憶部12から読出して、当該文字領域データベースに含まれる文字領域(文字領域の座標情報そのもの)、または当該文字領域内の黒画素部分(文字領域の座標情報と、黒画素部分からなるビットマップ情報)を文字部分として特定し、当該文字部分を特定する情報(文字部分特定情報)を記憶部12に格納する。制御部11は、この時点で記憶部12に格納されている、基本矩形関係データベースや行矩形関係データベースを削除してもよい。   The character part specifying unit 49 reads the character area database that has undergone the processing of the noise determination unit 48 from the storage unit 12, and the character area included in the character area database (the coordinate information of the character area itself) or the character area database A black pixel portion (character area coordinate information and bitmap information including a black pixel portion) is specified as a character portion, and information (character portion specifying information) for specifying the character portion is stored in the storage unit 12. The control unit 11 may delete the basic rectangle relationship database and the row rectangle relationship database stored in the storage unit 12 at this time.

このように、本実施の形態におけるレイアウト処理部24は、文字から行、行から領域へと段階的に文字領域を画定し、当該画定した文字領域内の行の状態に基づいて文字列が含まれているかを判断し、文字列が含まれていないと判断される場合には、さらに行内(文字単位)の状態に基づいて文字が含まれているかを判断することとしている。尤も、本実施の形態におけるレイアウト処理はこれに限られるものではなく、その他広く知られたレイアウト処理を用いても構わない。   As described above, the layout processing unit 24 according to the present embodiment demarcates character areas step by step from a character to a line and from a line to an area, and includes a character string based on the state of the line in the delimited character area. If it is determined that the character string is not included, it is further determined whether the character is included based on the state in the line (character unit). However, the layout processing in the present embodiment is not limited to this, and other well-known layout processing may be used.

本実施形態において特徴的なことの一つは、いわゆるT/I分離処理においてレイアウト解析を用いて文字部分を抽出することとしていることである。これによって絵柄候補領域に含まれる文字部分もレイアウト解析処理によって抽出されることとなり、文字部分の抽出精度を向上させることができる。   One characteristic of this embodiment is that a character portion is extracted using layout analysis in so-called T / I separation processing. As a result, the character portion included in the pattern candidate region is also extracted by the layout analysis process, and the accuracy of extracting the character portion can be improved.

一方、レイアウト処理部24は、文字線画として画定された部分(文字線画外接矩形)内についても、レイアウト解析処理を行う。そしてレイアウト処理部24は、当該レイアウト解析処理の結果として得られたレイアウト枠(少なくとも各文字に外接する矩形(基本矩形)を含む)を定め、これらレイアウト枠の情報(座標情報など)を記憶部12に格納する。   On the other hand, the layout processing unit 24 performs a layout analysis process also on a portion (character / line drawing circumscribed rectangle) defined as a character / line drawing. The layout processing unit 24 determines layout frames (including at least rectangles (basic rectangles) circumscribing each character) obtained as a result of the layout analysis processing, and stores information (coordinate information and the like) of these layout frames. 12.

なお、文字線画外接矩形内においても、上記基本矩形を水平または垂直方向に関係づけて得られる行矩形を画定し、この行矩形の座標情報などを記憶部12に併せて格納してもよい。   Note that a line rectangle obtained by relating the basic rectangle in the horizontal or vertical direction may also be defined within the character line drawing circumscribed rectangle, and the coordinate information of the line rectangle may be stored in the storage unit 12 together.

制御部11のレイアウト処理部24は、記憶部12に格納された文字部分特定情報と、文字線画外接矩形(またはそれに対するレイアウト処理結果としてのレイアウト枠)とを参照し、処理対象となった画像データ全体について、画像データ内で文字を含む矩形領域の座標情報を生成する。具体的にレイアウト処理部24は、文字部分特定情報の座標情報で画定される矩形と、文字線画外接矩形情報(またはそれに対するレイアウト処理結果としてのレイアウト枠)で画定される矩形とを結合して、文字線画領域を生成する。すなわち、本実施の形態では絵柄候補領域の画定と、文字線画領域の画定とを別々に行っているため、絵柄候補領域内にも文字線画領域として特定された領域が存在し得る。このためここでこれらの領域を結合して、重複領域を一つの文字線画領域とする。   The layout processing unit 24 of the control unit 11 refers to the character part specifying information stored in the storage unit 12 and the character / line drawing circumscribing rectangle (or the layout frame as a layout processing result thereof), and the image to be processed For the entire data, coordinate information of a rectangular area including characters in the image data is generated. Specifically, the layout processing unit 24 combines the rectangle defined by the coordinate information of the character part specifying information and the rectangle defined by the character / line drawing circumscribing rectangle information (or the layout frame as a result of the layout processing). A character line drawing area is generated. In other words, in the present embodiment, the pattern candidate area and the character / line drawing area are defined separately, and therefore the area specified as the character / line drawing area may exist in the pattern candidate area. For this reason, these areas are combined here to make the overlapping area one character / line drawing area.

そしてレイアウト処理部24は、結合後の各文字線画部分について固有の領域識別子(以下、ラベルデータと呼ぶ)を生成し、このラベルデータと、対応する文字線画領域を画定するための座標情報(頂点座標の情報等)とを関連づけて記憶部12に文字線画領域データベースとして格納する。   Then, the layout processing unit 24 generates a unique area identifier (hereinafter referred to as label data) for each combined character / line drawing part, and coordinates information (vertex) for defining the label data and the corresponding character / line drawing area. The information is stored in the storage unit 12 as a character / line drawing area database.

[5.同一色領域分離部]
同一色領域分離部25は、記憶部12の文字線画領域データベースに格納されている文字線画領域の各々について、同一の色の文字線画部分のみからなる領域に分割する処理を行う。同一色領域分離部25は、レイアウト処理の過程で記憶部12に格納された基本矩形(絵柄候補領域と文字線画領域との双方から画定された矩形)の座標情報を読み出す。そして、処理対象となっている画像データ(元画像データ)のうち、この座標情報で画定される各基本矩形内に含まれる画素値のうち代表値(代表色)の候補を決定する。
[5. Same color area separation unit]
The same color area separation unit 25 performs a process of dividing each of the character / line drawing areas stored in the character / line drawing area database of the storage unit 12 into an area including only the character / line drawing parts of the same color. The same color region separation unit 25 reads the coordinate information of the basic rectangle (rectangle defined from both the pattern candidate region and the character / line drawing region) stored in the storage unit 12 during the layout process. Then, a candidate for a representative value (representative color) is determined among the pixel values included in each basic rectangle defined by the coordinate information in the image data (original image data) to be processed.

本実施の形態における同一色領域分離部25は、図10に示すように、色数判定部51と、連続性判定部52と、代表色決定部53と、限定色化部54とを含んで構成されている。   As shown in FIG. 10, the same color region separation unit 25 in the present embodiment includes a color number determination unit 51, a continuity determination unit 52, a representative color determination unit 53, and a limited colorization unit 54. It is configured.

色数判定部51は、記憶部12に格納された基本矩形(本発明の基本領域に相当する)の座標情報を参照し、それらを順次注目基本矩形として選択しながら、元画像データのうち注目基本矩形内の画素値に基づいて色数をカウントする。具体的にこの色数判定部51は、元画像データのうち注目基本矩形内の画素について、その画素値の種類の数、つまり色の数をカウントする。   The number-of-colors determination unit 51 refers to the coordinate information of the basic rectangle (corresponding to the basic region of the present invention) stored in the storage unit 12 and selects the target rectangle as the target basic rectangle in order, while paying attention to the original image data. The number of colors is counted based on the pixel value in the basic rectangle. Specifically, the color number determination unit 51 counts the number of types of pixel values, that is, the number of colors, of the pixels in the target basic rectangle in the original image data.

この色の数をカウントする処理は、図11に機能的な構成を示すように、代表色候補関連付け部61と、画素数算出部62と、判定部63と、新規代表色候補決定部64と、代表色決定部65とを含んで構成される。   The process of counting the number of colors includes a representative color candidate associating unit 61, a pixel number calculating unit 62, a determining unit 63, and a new representative color candidate determining unit 64, as shown in FIG. The representative color determining unit 65 is included.

代表色候補関連付け部61は、代表色候補のセットを記憶部12から読み出して、処理対象となった基本矩形(注目基本矩形と呼ぶ)内の各画素について、代表色候補のいずれかを関連付ける処理を行う。ここで代表色候補のセットには、後に説明する処理により、新たな代表色候補が追加され、更新されていくのであるが、当初は、予め定めた複数の代表色候補を含むものであって構わない。   The representative color candidate associating unit 61 reads out a set of representative color candidates from the storage unit 12, and associates one of the representative color candidates with respect to each pixel in the basic rectangle to be processed (referred to as a basic rectangle of interest). I do. Here, a new representative color candidate is added and updated in the representative color candidate set by a process described later. Initially, the representative color candidate includes a plurality of predetermined representative color candidates. I do not care.

すなわち、この代表色候補関連付け部61は、上記注目基本矩形内の各画素を順次、一つずつ注目画素として選択し、この注目画素の画素値と、各代表色候補の画素値との色空間上での距離を演算する。そして、そのうち、最も距離の小さい代表色候補を、当該注目画素を特定する情報(例えばその座標情報)に関連付けて記憶部12に代表色候補関係データベースとして格納していく。   That is, the representative color candidate associating unit 61 sequentially selects each pixel in the target basic rectangle as a target pixel one by one, and a color space between the pixel value of the target pixel and the pixel value of each representative color candidate Calculate the distance above. Among them, the representative color candidate with the shortest distance is stored in the storage unit 12 as a representative color candidate relation database in association with information (for example, coordinate information) for specifying the pixel of interest.

画素数算出部62は、代表色候補ごとに、記憶部12に格納された代表色候補関係データベース内での出現数をカウントして出力する。判定部63は、出現数が所定の閾値を超えるか否かを判断し、当該所定の閾値を超える場合に基本矩形内の文字が1色であると判断する。また、出現数が所定の閾値を超えない場合は、基本矩形内の文字が1色でない(複数色)と判断して処理を終了する。   The pixel number calculation unit 62 counts and outputs the number of appearances in the representative color candidate relationship database stored in the storage unit 12 for each representative color candidate. The determination unit 63 determines whether or not the number of appearances exceeds a predetermined threshold, and determines that the character in the basic rectangle is one color when the number exceeds the predetermined threshold. If the number of appearances does not exceed a predetermined threshold, it is determined that the characters in the basic rectangle are not one color (multiple colors), and the process is terminated.

ここで所定の閾値は、予め一定の値としておいてもよいし、処理対象とした基本矩形内の全画素数(または文字等の画素塊を構成する画素(有意画素)の数)に基づいて定めてもよい。例えば、全画素数Nに対してその8割である、0.8×Nを所定の閾値として定めてもよい。   Here, the predetermined threshold value may be set to a predetermined value in advance, or based on the total number of pixels in the basic rectangle to be processed (or the number of pixels (significant pixels) constituting a pixel block such as a character). It may be determined. For example, 0.8 × N, which is 80% of the total number of pixels N, may be set as the predetermined threshold value.

さらに、この判定部63は、基本矩形内の文字が1色でないと判断したときには、その判断回数をカウントしておき、判断回数が予め定めた最大回数になったときに、処理を終了する。   Further, when it is determined that the character in the basic rectangle is not one color, the determination unit 63 counts the number of determinations, and ends the process when the number of determinations reaches a predetermined maximum number.

新規代表色候補決定部64は、基本矩形内の文字や線画が1色でないと判断されたときに、代表色候補関係データベースを参照して、出現数の多い順に複数の代表色候補を選択する。例えば出現数の上位2つの代表色候補を選択する。そして新規代表色候補決定部64は、選択した代表色候補に基づいて少なくとも一つの新規代表色を決定して、当該決定した新規代表色を代表色候補のセットに含め、代表色候補関連付け部61に対して処理を繰返すように指示する。ここで新規代表色は、選択した代表色候補の統計演算結果(具体的には平均画素値など)とする。   When it is determined that the character or line drawing in the basic rectangle is not one color, the new representative color candidate determination unit 64 refers to the representative color candidate relationship database and selects a plurality of representative color candidates in descending order of appearance. . For example, the top two representative color candidates with the number of appearances are selected. Then, the new representative color candidate determination unit 64 determines at least one new representative color based on the selected representative color candidate, includes the determined new representative color in the set of representative color candidates, and represents the representative color candidate association unit 61. Is instructed to repeat the process. Here, the new representative color is a statistical calculation result (specifically, an average pixel value or the like) of the selected representative color candidate.

または、この新規代表色候補決定部64は次のようにしてもよい。すなわち、出現数の上位2つの代表色候補を選択し、選択した代表色候補に基づいて少なくとも一つの新規代表色を決定して、選択した2つの代表色候補と新規代表色候補を新たな代表色候補のセットとして、代表色候補関連付け部61に対して処理を繰返すように指示する。   Alternatively, the new representative color candidate determination unit 64 may be configured as follows. That is, the top two representative color candidates with the highest number of appearances are selected, at least one new representative color is determined based on the selected representative color candidate, and the selected two representative color candidates and the new representative color candidate are newly represented. As a set of color candidates, the representative color candidate associating unit 61 is instructed to repeat the process.

さらに、上位2つではなく、例えば出現数の多い順に代表色候補を順次選択しながら、選択した出現数の総和を演算し、その総和の結果を全画素数Nで除した値が所定の割合以上となったときに、当該選択した代表色候補に基づいて少なくとも一つの新規代表色を決定して、当該決定した新規代表色を代表色候補のセットに含めるようにしてもよい。   Furthermore, instead of the top two, for example, the representative color candidates are sequentially selected in descending order, the sum of the selected number of appearances is calculated, and the value obtained by dividing the sum by the total number of pixels N is a predetermined ratio. At this time, at least one new representative color may be determined based on the selected representative color candidate, and the determined new representative color may be included in the set of representative color candidates.

代表色決定部65は、判定部63が処理を終了したときに、その判断の結果を参照して代表色を決定する。具体的には、判定部63が文字が1色であると判断した場合には、その画素値のヒストグラムを生成し、最頻値となる画素値を代表色として決定する。代表色決定部65は、この代表色を基本矩形を画定する情報に関連付けて記憶部12に代表色情報として格納する。   When the determination unit 63 finishes the process, the representative color determination unit 65 determines a representative color with reference to the determination result. Specifically, when the determination unit 63 determines that the character is one color, a histogram of the pixel values is generated, and the pixel value that is the mode value is determined as the representative color. The representative color determination unit 65 stores this representative color as representative color information in the storage unit 12 in association with information defining a basic rectangle.

このようにして色数算出部51は、基本矩形ごとに、その内部に含まれる特定画素の色数と、当該代表色情報とを決定することになる。   In this way, the number-of-colors calculation unit 51 determines the number of colors of specific pixels included in each basic rectangle and the representative color information.

連続性判定部52は、色数判定部51によって判定された色数が所定のしきい値以上であるか否かを調べる。そして色数が所定のしきい値以上である場合は、当該注目基本矩形を処理対象として、当該注目基本矩形の各画素について画素値の連続性特徴量と、反転特徴量とを演算して、これら連続性特徴量と反転特徴量とに基づいて当該注目基本矩形内の画素がグラデーションとなっているか否かを調べる。   The continuity determination unit 52 checks whether the number of colors determined by the color number determination unit 51 is equal to or greater than a predetermined threshold value. If the number of colors is equal to or greater than a predetermined threshold value, the continuity feature amount of pixel values and the inversion feature amount are calculated for each pixel of the target basic rectangle with the target basic rectangle as a processing target, Based on the continuity feature quantity and the inverted feature quantity, it is checked whether or not the pixels in the target basic rectangle are in gradation.

具体的に、この連続性判定部52は、連続性特徴量と反転特徴量とを演算する処理として、次のような処理を行う。すなわち、連続性特徴量と反転特徴量とをそれぞれ「0」にリセットしておき、注目基本矩形に含まれる個々の画素を順次注目画素として選択する。そして当該注目画素について隣接する画素(図12において注目画素P周囲のAからHまでの8画素)のうち、注目画素との画素値間の距離(各成分の差の二乗和など)が予め定めた連続性判定しきい値を下回っている画素の数を連続性特徴量に加算し、この距離が連続性判定しきい値以上となっている画素の数を反転特徴量に加算する。   Specifically, the continuity determination unit 52 performs the following process as a process of calculating the continuity feature value and the inverted feature value. That is, the continuity feature value and the inverted feature value are reset to “0”, and individual pixels included in the target basic rectangle are sequentially selected as the target pixel. Of the pixels adjacent to the pixel of interest (eight pixels from A to H around the pixel of interest P in FIG. 12), the distance between the pixel values of the pixel of interest (such as the sum of squares of the differences between the components) is predetermined. The number of pixels below the continuity determination threshold is added to the continuity feature amount, and the number of pixels whose distance is greater than or equal to the continuity determination threshold is added to the inversion feature amount.

そして連続性判定部52は、連続性特徴量と反転特徴量とを比較して、注目基本矩形内の画素群がグラデーションとなっているか否かを判断する。例えば、連続性特徴量と反転特徴量との差の絶対値が、予め定めたグラデーション判定しきい値より大きい場合にグラデーションであると判断する。   Then, the continuity determination unit 52 compares the continuity feature value and the inverted feature value, and determines whether or not the pixel group in the target basic rectangle is gradation. For example, if the absolute value of the difference between the continuity feature value and the reverse feature value is greater than a predetermined gradation determination threshold value, it is determined that the image is gradation.

こうして色数算出部51と連続性判定部52とにより、各基本矩形に含まれる画素群が、(1)1色であるものと、(2)複数色であってグラデーションでないものと、(3)グラデーションであるものとに分類される。制御部11は、この分類の結果を各基本矩形の識別子に関連づけて色数分類データベースとして記憶部12に格納する。   In this way, the color number calculation unit 51 and the continuity determination unit 52 allow the pixel group included in each basic rectangle to be (1) one color, (2) a plurality of colors that are not gradations, and (3 ) Classified as gradation. The control unit 11 stores the classification result in the storage unit 12 as a color number classification database in association with the identifier of each basic rectangle.

本実施の形態において特徴的なことの一つは、上記色数をカウントする処理のように、基本矩形内の画素群ごとに有意と考えられる色数を求めていることである。これにより、例えば、元の画像データが、紙原稿をスキャンしたことにより得られており、もともと線分であった部分のエッジが鈍り、エッジ部分と線分の中心部とが少々異なる色となる場合でも、線分として有意な色は1色と判定される。   One characteristic of the present embodiment is that the number of colors considered significant for each pixel group in the basic rectangle is obtained as in the process of counting the number of colors. Thus, for example, the original image data is obtained by scanning a paper document, the edge of the original line segment becomes dull, and the edge portion and the central portion of the line segment have a slightly different color. Even in this case, it is determined that one color is significant as a line segment.

また本実施の形態ではこのように、各基本矩形内の色数に基づいて処理対象とするか否かが定められるので、グラデーション文字や多色文字などが限定色化されることがない。   Further, in this embodiment, since it is determined whether or not to be processed based on the number of colors in each basic rectangle, gradation characters and multicolor characters are not limited colors.

代表色決定部53は、記憶部12に格納されている行矩形データベースを参照して、各行矩形を順次、注目行矩形として選択する。そして注目行矩形に含まれる少なくとも一つの基本矩形の識別子を取り出し、代表画素値データベースを参照して、当該取り出した各識別子に関連づけられた代表画素値があるか否かを調べる。また、代表画素値がある場合は、当該代表画素値を読み出す。そして代表色決定部53は、注目行矩形内で1色であると判定された基本矩形について、それらの代表色を定める。   The representative color determination unit 53 refers to the row rectangle database stored in the storage unit 12 and sequentially selects each row rectangle as a target row rectangle. Then, an identifier of at least one basic rectangle included in the target row rectangle is extracted, and it is checked whether or not there is a representative pixel value associated with each extracted identifier by referring to the representative pixel value database. If there is a representative pixel value, the representative pixel value is read out. Then, the representative color determination unit 53 determines the representative colors of the basic rectangle determined to be one color within the target row rectangle.

この代表色を定めるための具体的な処理について以下に説明するが、ここでi番目の基本矩形についての代表画素値Pをa,b,cの3値で張られる色成分(a,b,cはL*a*b*やRGB等の色成分のどれであってもよい)を用いてPi(Pia,Pib,Pic)と表現することとする。また、制御部11は、元の画像データにおいて当該基本矩形(代表画素値が関連づけられている基本矩形)内の画素値の各色成分の標準偏差σi(σia,σib,σic)を演算しておく。   A specific process for determining the representative color will be described below. Here, the color components (a, b, c) in which the representative pixel value P for the i-th basic rectangle is set by three values a, b, c. c may be any color component such as L * a * b * or RGB) and is expressed as Pi (Pia, Pib, Pic). Further, the control unit 11 calculates the standard deviation σi (σia, σib, σic) of each color component of the pixel value in the basic rectangle (the basic rectangle with which the representative pixel value is associated) in the original image data. .

代表色決定部53は、i番目の基本矩形とj(iとjとは互いに等しくないものとする)番目の基本矩形についてのこれらの値、Pi,σi,Pj,σjに基づいて色空間内に形成される2つの所定幾何形状を生成し、この2つの幾何形状が色空間上で交差しているか(重なり合う部分があるか)否かによってi番目の基本矩形についての代表画素値と、j番目の基本矩形についての代表画素値が同じ色であるか否かを判断する。この幾何形状の交差の有無は、いわば所定均一色条件というべきものである。   The representative color determining unit 53 determines whether the i-th basic rectangle and j (i and j are not equal to each other) and the values of Pi, σi, Pj, and σj in the color space. Are generated in accordance with whether or not the two geometric shapes intersect in the color space (there is an overlapping portion), and the representative pixel value for the i-th basic rectangle, j It is determined whether the representative pixel values for the th basic rectangle are the same color. The presence / absence of the intersection of geometric shapes should be a predetermined uniform color condition.

具体的には、幾何形状として直方体や楕円球を用いることができる。すなわち、直方体(Pia±α×σia,Pib±α×σib,Pic±α×σic)と、(Pja±α×σja,Pjb±α×σjb,Pjc±α×σjc)とが重なり合う場合に、i番目の基本矩形についての代表画素値と、j番目の基本矩形についての代表画素値が同じ色であると判断してもよい。また、Piを中心としてσiの各値を径とする楕円球と、Pjを中心としてσjの各値を径とする楕円球とが重なり合う場合に、i番目の基本矩形についての代表画素値と、j番目の基本矩形についての代表画素値が同じ色であると判断してもよい。   Specifically, a rectangular parallelepiped or an elliptic sphere can be used as the geometric shape. That is, when the rectangular parallelepiped (Pia ± α × σia, Pib ± α × σib, Pic ± α × σic) and (Pja ± α × σja, Pjb ± α × σjb, Pjc ± α × σjc) overlap, i It may be determined that the representative pixel value for the th basic rectangle and the representative pixel value for the j th basic rectangle are the same color. In addition, when an elliptical sphere having a diameter of each value of σi centered on Pi and an elliptical sphere having a diameter of each value of σj centered on Pj, a representative pixel value for the i-th basic rectangle, It may be determined that the representative pixel values for the jth basic rectangle are the same color.

さらに、標準偏差を演算する際に、色成分(a,b,c)に代えて、広く知られた主成分分析によって得られる3つの軸(a′,b′,c′)を各成分として、これらの軸方向の標準偏差を演算し、直方体(Pia±α×σia′,Pib±α×σib′,Pic±α×σic′)と、(Pja±α×σja′,Pjb±α×σjb′,Pjc±α×σjc′)とが重なり合う場合に、i番目の基本矩形についての代表画素値と、j番目の基本矩形についての代表画素値が同じ色であると判断してもよい。   Furthermore, when calculating the standard deviation, instead of the color components (a, b, c), three axes (a ′, b ′, c ′) obtained by widely known principal component analysis are used as the respective components. These standard deviations in the axial direction are calculated, and a rectangular parallelepiped (Pia ± α × σia ′, Pib ± α × σib ′, Pic ± α × σic ′) and (Pja ± α × σja ′, Pjb ± α × σjb) ′, Pjc ± α × σjc ′), it may be determined that the representative pixel value for the i-th basic rectangle and the representative pixel value for the j-th basic rectangle are the same color.

これらにおいてαは、均一色との判定のされ易さを表すパラメータであり、例えば比較の対照となる基本矩形間の距離に応じて変化させてもよい(例えば隣接する基本矩形においてはαの値を大きくして、均一色と判定のされ易くするなど)し、予め定めた一定値としてもよい。   In these, α is a parameter indicating the ease of determination as a uniform color, and may be changed according to the distance between the basic rectangles to be compared, for example (for example, the value of α in the adjacent basic rectangles). Or the like to make it easy to determine that the color is uniform), or a predetermined constant value.

代表色決定部53は、注目行矩形内から取り出した2つの基本矩形の組み合せについて、上記処理によって互いに均一の色であると判断される基本矩形群を少なくとも一つ特定する。そして、特定した基本矩形群ごとに、それらの基本矩形群に含まれる画素を抽出して当該抽出した画素からなる色別行領域を生成する。これにより、行矩形内の画素であって、一つの代表値に関連づけられる画素ごとに、当該代表値と当該画素を再現する情報とを関連づけた情報を含む色別行領域情報が生成され、注目行矩形の識別子に関連づけて記憶部12に格納される。   The representative color determination unit 53 specifies at least one basic rectangle group that is determined to be a uniform color by the above processing for a combination of two basic rectangles extracted from the target row rectangle. Then, for each identified basic rectangle group, pixels included in the basic rectangle group are extracted, and a color-specific row region including the extracted pixels is generated. As a result, for each pixel that is associated with one representative value that is a pixel in the row rectangle, color-specific row region information including information that associates the representative value with information that reproduces the pixel is generated. The data is stored in the storage unit 12 in association with the row rectangle identifier.

限定色化部54は、記憶部12に格納されている色別行領域情報ごとに、各色別行領域内の画素値を所定色(例えばn色とする)以下に限定色化して各画素値を設定する。   For each color row area information stored in the storage unit 12, the limited colorization unit 54 limits the pixel value in each color row area to a predetermined color (for example, n colors) or less and sets each pixel value. Set.

次に、図13を参照しながら、同一色領域分離部25の動作を説明する。ここでは具体的に図13(a)に示すような2行に配列された文字領域であって、各行の先頭にグラデーションがかけられた円が含まれ、文字の一部に赤色文字(破線で仮想的に囲んだ部分)が含まれるものとする。図13(a)では、各行について行矩形が画定されている状態が示されている。   Next, the operation of the same color region separation unit 25 will be described with reference to FIG. Specifically, the character region is arranged in two lines as shown in FIG. 13A, and a circle with gradation is included at the beginning of each line, and a red character (indicated by a broken line) is included in a part of the character. Virtually enclosed part) is included. FIG. 13A shows a state in which a row rectangle is defined for each row.

色数判定部51は、各文字についての色数を判定する。グラデーションがかけられた円については、複数色が含まれると判定され、他の文字部分については、黒又は赤色の一色と判定される。連続性判定部52は、グラデーションがかけられた円については処理対象から除外し、黒色文字については黒色の代表色を決定し、赤色文字については赤色の代表色を決定する。なお、この連続性判定部52の決定する代表色は、例えば同じ黒色と決定される色であっても、画素値自体は異なっていてもよい。   The color number determination unit 51 determines the number of colors for each character. The circle with gradation is determined to include a plurality of colors, and the other character portions are determined to be black or red. The continuity determination unit 52 excludes a circle with gradation from the processing target, determines a black representative color for a black character, and determines a red representative color for a red character. The representative color determined by the continuity determination unit 52 may be a color determined to be the same black, for example, or the pixel value itself may be different.

代表色決定部53は、各行矩形内で、黒色と決定された文字についての基本矩形について、これらの基本矩形内の画素(黒画素)を含んでなる色別行矩形(図13(b)の(イ),(ハ))と、赤色と決定された文字についての基本矩形について、これらの基本矩形内の画素(赤画素)を含んでなる色別行矩形(図13(b)の(ロ),(ニ))を生成する。   The representative color determination unit 53, for each basic rectangle for a character determined to be black in each row rectangle, includes a color-specific row rectangle (FIG. 13B) including pixels (black pixels) in these basic rectangles. (A), (c)) and the basic rectangle for the character determined to be red, the color-specific row rectangles including the pixels (red pixels) in these basic rectangles ((b) in FIG. 13B). ), (D)).

そして限定色化部54が、各色別行矩形について当該色別行矩形内の画素値に基づいて1色(色数判定部51が1色の画素群ではなく、m色の画素群についてm個の代表画素値を定める場合は、当該mと同一の値以下)の限定色を定める。例えば黒画素を含んでなる色別行矩形については黒色に相当する一つの画素値を限定色として定め、赤画素を含んでなる色別行矩形については赤色に相当する一つの画素値を限定色として定める。また、各色別行矩形内の画素のうち限定色として定められる画素を黒色画素とし、それ以外の画素を白色画素として二値化しておく。これにより、画像データのうち、基本領域内の画素値が限定色化された状態となる。   Then, the limited colorization unit 54 selects one color for each color row rectangle based on the pixel value in the color row rectangle (the number of color determination units 51 is not m for one color pixel group but m for a pixel group of m colors). When the representative pixel value is determined, a limited color of the same value as m or less) is determined. For example, for a color-by-color row rectangle including black pixels, one pixel value corresponding to black is defined as a limited color, and for a color-by-color rectangle including red pixels, one pixel value corresponding to red is defined as a limited color. Determine as In addition, among the pixels in the row rectangle for each color, a pixel determined as a limited color is a black pixel, and the other pixels are binarized as a white pixel. As a result, the pixel values in the basic area of the image data are in a limited color state.

また、色別行矩形内の二値化画像をラスタスキャン順に走査しながら、この二値化画像に対してMMR(Modified Modified Read)などのランレングス圧縮を行って、文字線画圧縮データを生成する。そして同一色領域分離部25は、行矩形の識別子と、当該行矩形に含まれる画素によって得られた色別行矩形とを関連づけ、さらに各色別行矩形とそれについて定めた限定色の情報とを関連づけて、文字線画プレーンデータとして記憶部12に格納する。また、この限定色の情報は、画素値そのものではなく、各画素値を表す識別子の情報(以下、カラータグと呼ぶ)として保持してもよい。   In addition, while the binarized image in the color-specific row rectangle is scanned in the raster scan order, the binarized image is subjected to run-length compression such as MMR (Modified Modified Read) to generate character line drawing compressed data. . The same color region separation unit 25 associates the row rectangle identifier with the color-by-color row rectangle obtained by the pixels included in the row rectangle, and further associates each color-by-color row rectangle with the limited color information defined for the color rectangle. In association therewith, it is stored in the storage unit 12 as character / line drawing plane data. In addition, the limited color information may be held as identifier information (hereinafter referred to as a color tag) representing each pixel value, instead of the pixel value itself.

さらに、色数判定部51によって(2)複数色であってグラデーションでないものと判断された基本矩形については限定色化せず、当該基本矩形内の画素の値をそのまま、またはZIP等の方法で圧縮して、基本矩形を画定する情報(座標情報)とともに文字線画プレーンデータに含めて、記憶部12に格納する。さらに、(3)グラデーションであると判断された基本矩形についても、当該基本矩形内の画素の値をそのまま、またはZIP等の方法で圧縮して、基本矩形を画定する情報(座標情報)とともに文字線画プレーンデータに含めて、記憶部12に格納することとしてもよい。また(3)グラデーションであると判断された基本矩形については、絵柄プレーンデータに含めて記憶部12に格納するようにしてもよい。さらに(2)複数色であってグラデーションでないと判断した基本矩形については、その内部の有意画素について、画素値ごとに画素グループとしてグループ化する処理を行って、画素グループごとに代表色を決定することとしてもよい。この場合代表色決定部65は、有意画素のうち未だにいずれかの画素グループにグループ化されていない画素を注目画素として選択し、また、有意画素のうち未だにいずれかの画素グループにグループ化されていない画素であって、注目画素以外の画素を一つずつ、順次、対象画素として選択する。そして、この注目画素の画素値と対象画素の画素値とを比較して、注目画素と同一の画素グループ(互いに同一色と判断される画素グループ)に属するか否かを判断する。例えば注目画素の画素値と対象画素の画素値との色空間上の距離を算出し、この距離が所定のしきい値より小さい場合に、同一の画素グループに属すると判断することとする。この場合、画素グループごとに、同一の画素グループに属すると判断された画素値の平均値を画素グループ代表画素値として決定する。そして、この画素グループ代表画素値のセットを、基本矩形を特定する情報に関連付けて、記憶部12に代表色情報として格納するようにしてもよい。この場合、画素グループごとに色別の基本矩形が生成されることとなり、各色別基本矩形ごとに異なる色別行矩形、色別領域に含められるようになる。   Further, the basic rectangle that is determined by the number-of-colors determination unit 51 as (2) a plurality of colors and not gradation is not limited color, and the value of the pixel in the basic rectangle is used as it is or by a method such as ZIP. It is compressed and included in the character / line drawing plane data together with the information (coordinate information) for defining the basic rectangle, and stored in the storage unit 12. Further, (3) for the basic rectangle determined to be gradation, the value of the pixel in the basic rectangle is compressed as it is or by a method such as ZIP, and the character (along with coordinate information) for defining the basic rectangle It may be included in the line drawing plane data and stored in the storage unit 12. (3) The basic rectangle determined to be gradation may be included in the picture plane data and stored in the storage unit 12. Further, (2) for a basic rectangle that is determined to be a plurality of colors and not gradation, a process of grouping the significant pixels in the pixel group as a pixel group for each pixel value is performed, and a representative color is determined for each pixel group. It is good as well. In this case, the representative color determination unit 65 selects a pixel that is not yet grouped into any pixel group among the significant pixels as a target pixel, and is also grouped into any pixel group among the significant pixels. Pixels other than the target pixel are sequentially selected as target pixels one by one. Then, the pixel value of the target pixel is compared with the pixel value of the target pixel to determine whether or not the target pixel belongs to the same pixel group (a pixel group determined to have the same color). For example, a distance in the color space between the pixel value of the target pixel and the pixel value of the target pixel is calculated, and when the distance is smaller than a predetermined threshold, it is determined that they belong to the same pixel group. In this case, for each pixel group, an average value of the pixel values determined to belong to the same pixel group is determined as the pixel group representative pixel value. Then, this set of pixel group representative pixel values may be stored in the storage unit 12 as representative color information in association with information specifying the basic rectangle. In this case, a color-specific basic rectangle is generated for each pixel group, and is included in a different color-by-color row rectangle and color-specific region for each color-basis rectangle.

また色数判定部51は、注目基本矩形内の画素塊の幅が所定の幅しきい値より小さいときには、代表色の候補との関連付けを行うことなく、1色であると決定することとしてもよい。すなわち、細文字など、細線部分のみからなる画素塊であると、実際には1色であっても基本矩形内の全画素数に対する有意画素(画素塊を構成する画素)の数が少ないので、判定部63における判定が困難になるためである。   In addition, the color number determination unit 51 may determine that there is one color without associating with the representative color candidate when the width of the pixel block in the target basic rectangle is smaller than the predetermined width threshold value. Good. That is, if the pixel block is composed only of thin line portions such as thin characters, the number of significant pixels (pixels constituting the pixel block) is small relative to the total number of pixels in the basic rectangle even if it is actually one color. This is because determination by the determination unit 63 becomes difficult.

なお、注目基本矩形内の画素塊の幅が所定の幅しきい値より小さいか否かは、次のように判断する。すなわち、注目基本矩形内を横方向及び縦方向のラインごとに順次走査し、有意画素(画素塊を構成する画素)がいくつ連続して出現するかをカウントし、各ラインでのカウントの結果のうち、最大のものを当該注目基本矩形内の画素塊の幅とすればよい。   Whether the width of the pixel block in the basic rectangle of interest is smaller than a predetermined width threshold value is determined as follows. That is, the target basic rectangle is sequentially scanned for each line in the horizontal direction and the vertical direction, the number of significant pixels (pixels constituting the pixel block) is continuously counted, and the result of the count in each line is counted. Of these, the largest one may be the width of the pixel block in the basic rectangle of interest.

なお、基本矩形内の画素値がばらついている場合に配慮して、色数判定部51は、平滑化処理を行ってから代表画素値を決定してもよい。ここで平滑化処理としては、各基本矩形内の各画素を順次注目画素として特定し、注目画素の値とそれに隣接する画素の値との平均値を注目画素の値とする処理などがある。   In consideration of the case where the pixel values in the basic rectangle vary, the color number determination unit 51 may determine the representative pixel value after performing the smoothing process. Here, the smoothing process includes a process of sequentially specifying each pixel in each basic rectangle as a target pixel, and setting an average value of the value of the target pixel and the value of a pixel adjacent thereto as the value of the target pixel.

さらにこの平滑化処理の際に、有意画素のみを注目画素として選択してもよい。また平滑化の処理において、平均値を演算する際は当該文字を構成する画素の値のみを参照して平均値を演算することとしてもよい。これにより、文字以外の部分の画素値を参照することにより、文字の代表色が背景色に影響されることが防止される。   Further, only the significant pixel may be selected as the target pixel during the smoothing process. In the smoothing process, when calculating the average value, the average value may be calculated with reference to only the values of the pixels constituting the character. This prevents the representative color of the character from being influenced by the background color by referring to the pixel value of the portion other than the character.

ここで平滑化処理してから決定した代表値について補正を行ってもよい。すなわち、本実施の形態の同一色領域分離部25は、決定した代表値の候補についてその輝度を補正して、補正後の値を代表値として決定する。ここで輝度の補正は、例えば図14に示すようなトーンカーブ(補正関数)を用いて補正することができる。この図14に示すトーンカーブは、入力値(補正前の代表色候補の輝度)が最小値MINから第1しきい値TH1までに対する出力値(補正後の値、つまり代表値として決定される値の輝度)が最小値MINであり、第2しきい値TH2(ただしTH2>TH1)から、最大値MAXまでに対する出力値が最大値MAXであるように設定されている。また、このトーンカーブは、入力値が最大値MAXと最小値MINとの間の中央の値MID(例えば最大値が「255」であり最小値が「0」であるときにはMIDは「128」となる)であるときに、これに対する出力値が略MIDとなるように設定されてもよい。   Here, the representative value determined after the smoothing process may be corrected. That is, the same color region separation unit 25 of the present embodiment corrects the luminance of the determined representative value candidate, and determines the corrected value as the representative value. Here, the luminance can be corrected using, for example, a tone curve (correction function) as shown in FIG. The tone curve shown in FIG. 14 is an output value (value after correction, that is, a value determined as a representative value) for the input value (luminance of the representative color candidate before correction) from the minimum value MIN to the first threshold value TH1. Brightness) is the minimum value MIN, and the output value from the second threshold TH2 (where TH2> TH1) to the maximum value MAX is set to the maximum value MAX. The tone curve has a center value MID between the maximum value MAX and the minimum value MIN (for example, when the maximum value is “255” and the minimum value is “0”, the MID is “128”). The output value for this may be set to be substantially MID.

つまり同一色領域分離部25は、代表値の候補(本実施の形態ではYCbCrで表されることとしている)の輝度成分(Y)について、図14のトーンカーブによる補正を行って、代表値の輝度(Y′)を決定し、このY′と、代表値の候補の色差成分Cb,Crとによって特定される値を代表値として決定する。   That is, the same color region separation unit 25 corrects the representative value candidate (represented by YCbCr in the present embodiment) with the tone curve of FIG. Luminance (Y ′) is determined, and a value specified by this Y ′ and representative value candidate color difference components Cb and Cr is determined as a representative value.

なお、代表色候補がRGBなど、輝度成分を含まない色空間で表現されている場合は、L*a*b*や、YCbCrなど、輝度成分を含む色空間の値に変換してから上記処理を行うこととすればよい。   If the representative color candidate is expressed in a color space that does not include a luminance component, such as RGB, the above processing is performed after conversion to a color space value that includes a luminance component, such as L * a * b * or YCbCr. Should be done.

さらに、ここでは輝度のみを補正したが、色差成分についても補正を行ってもよい。具体的に同一色領域分離部25は、代表色候補の各色差成分が所定の条件を満足しているときに、当該代表色候補値の輝度成分値に関する階調数を低減する補正を行い、当該補正後の値を代表値として決定してもよい。   Further, although only the luminance is corrected here, the color difference component may also be corrected. Specifically, the same color region separation unit 25 performs correction to reduce the number of gradations regarding the luminance component value of the representative color candidate value when each color difference component of the representative color candidate satisfies a predetermined condition, The corrected value may be determined as the representative value.

具体的には、図15に示すように、L*a*bの色空間で表現された代表色候補の色差成分(a*、b*)が、それぞれ対応する色差成分の値域の中心値からの所定範囲内(図15のTHa,THbで画定される円の内部)にあるとの条件を満足している場合に、例えば256階調で表現された輝度成分Lを4階調または8階調など所定階調に低減する。この場合、色差成分の値を上記中心値に設定してもよい。ここで、各成分ごとの所定範囲THa,THbは、同じ値であってもよいし、異なる値であってもよい。   Specifically, as shown in FIG. 15, the color difference components (a *, b *) of the representative color candidates expressed in the color space of L * a * b are calculated from the center values of the corresponding color difference component value ranges. When the condition that it is within the predetermined range (inside the circle defined by THa and THb in FIG. 15) is satisfied, for example, the luminance component L expressed in 256 gradations is converted to 4 gradations or 8th floor. The tone is reduced to a predetermined gradation such as a tone. In this case, the value of the color difference component may be set to the center value. Here, the predetermined ranges THa and THb for each component may be the same value or different values.

この処理により、特に文字色がグレー(黒を含む)である場合に、その文字色の本来の色を再現した代表値が設定される。例えば文字色が黒であるときに色差成分と輝度成分とは本来「0」であるが、スキャナの特性や、元の画像データのエンコード形式(例えばJPEGなど)の特性によっては、色差成分が「0」でなくなってしまったり、輝度成分が「0」でなくなってしまう場合がある。そこでここで示した色差成分に関する処理を行うことで、代表値を本来の黒色とすることができるようになる。   By this processing, when the character color is gray (including black), a representative value that reproduces the original color of the character color is set. For example, when the character color is black, the color difference component and the luminance component are originally “0”. However, depending on the characteristics of the scanner and the encoding format of the original image data (for example, JPEG), the color difference component may be “ In some cases, the luminance component is not “0” or the luminance component is not “0”. Therefore, by performing the processing relating to the color difference component shown here, the representative value can be set to the original black color.

このように本実施の形態によれば、処理対象となった画像データ内に画定される注目画像領域としての基本矩形や行矩形内の画素値に基づいて当該注目画像領域の代表色候補を決定し、その輝度を補正して、代表色を決定することとしている。   As described above, according to the present embodiment, the representative color candidate of the target image area is determined based on the pixel values in the basic rectangle or the row rectangle as the target image area defined in the image data to be processed. Then, the luminance is corrected to determine the representative color.

なお、ここでは平滑化処理を行った後で、補正処理を行って代表値を決定しているが、この処理順序を逆にして各画素について上記補正処理を行った後で、各画素値の平滑化処理を行ってヒストグラムを演算し、代表値を決定してもよい。なお、ここでは文字の場合を説明したが、線画についても同様の処理が行われることとなる。   Here, after performing the smoothing process, the correction process is performed to determine the representative value. However, after performing the above correction process for each pixel by reversing the process order, A representative value may be determined by performing a smoothing process and calculating a histogram. Although the case of characters has been described here, the same processing is performed for line drawings.

こうした平滑化と補正の処理によって、本実施の形態においては、文字や線画を構成する画素値にばらつきがあっても、当該ばらつきの影響を軽減して、元の画像データの色と違和感のない代表色を決定することができる。   With this smoothing and correction process, in this embodiment, even if there is a variation in the pixel values that make up a character or line drawing, the influence of the variation is reduced and there is no sense of incongruity with the color of the original image data. A representative color can be determined.

さらに、ここまでの説明では行矩形ごと、かつ代表色ごとに限定色化処理を行っているが、色別行矩形ごとに定められた限定色について、さらに上記代表色決定部53におけるのと同様の処理によって互いに均一色と判断される限定色に関連づけられている色別行矩形内の画素を抽出し、当該抽出した画素を含み、文字線画部分を画定する矩形と同一サイズの矩形を、色別文字線画部分データ(色別領域の情報)として生成して、これについてさらに限定色を定めてもよい。   Further, in the above description, the limited color processing is performed for each row rectangle and for each representative color. However, for the limited colors determined for each row rectangle by color, the same processing as in the representative color determination unit 53 is performed. Extract the pixels in the color-specific row rectangles that are associated with the limited colors that are determined to be uniform colors by the process of, and select the rectangle that contains the extracted pixels and has the same size as the rectangle that defines the character / line drawing part. It may be generated as separate character / line drawing partial data (color-specific area information), and a limited color may be further defined for this.

また、色別行矩形を生成する代りに、代表色決定部53が直接、一つの文字線画部分に含まれる基本矩形であって、互いに均一色と判断される代表画素値に関連づけられている基本矩形内の画素を抽出し、当該抽出した画素を含み、文字線画部分を画定する矩形と同一サイズの矩形を、色別文字線画部分データ(色別領域の情報)として生成して、これについて限定色を定めてもよい。   Further, instead of generating the color-specific row rectangles, the representative color determining unit 53 directly relates to the basic pixel values that are basic rectangles included in one character line drawing portion and are determined to be uniform colors. Extracts the pixels in the rectangle, generates a rectangle with the same size as the rectangle that defines the character / line drawing part as the character / line drawing part data (color-specific area information), and restricts this A color may be defined.

これら色別文字線画部分データを生成する場合は、当該色別文字線画部分データの元となった文字線画部分の識別子と、それぞれ限定色を特定する情報に関連づけられた色別文字線画部分データ(内部の画素値は二値化し、MMR符号化してもよい)とを、文字線画プレーンデータとして生成することになる。   When generating these color-specific character / line drawing part data, the character / line drawing part data (color-specific character / line drawing part data) associated with the identifier of the character / line drawing part that is the source of the color-specific character / line drawing part data and the information for specifying the limited color, respectively. The internal pixel value may be binarized and may be MMR encoded) as character / line drawing plane data.

[6.穴埋処理部]
穴埋処理部26は、元の画像データのうち、絵柄候補領域に相当する領域を抽出し、この領域内からレイアウト処理部24の処理で検出された文字の画素(文字を構成する画素)を除去して、絵柄部分画像データを生成する。
[6. Cavity processing section]
The hole-filling processing unit 26 extracts a region corresponding to the pattern candidate region from the original image data, and detects a pixel of a character (a pixel constituting the character) detected by the processing of the layout processing unit 24 from this region. The pattern partial image data is generated by removing.

そして、この絵柄部分画像データの各画素をラスタスキャン順に走査し、走査により選択される注目画素が除去された画素でなければ、当該注目画素の画素値をそのままとするとともに、当該注目画素の画素値を直前画素値として記憶部12のワークメモリに記憶する。なお、既に他の画素値が直前画素値として記憶されている場合は、その記憶内容に上書きする。   Then, each pixel of the pattern partial image data is scanned in the raster scan order, and if the pixel of interest selected by the scanning is not removed, the pixel value of the pixel of interest remains as it is and the pixel of the pixel of interest The value is stored in the work memory of the storage unit 12 as the previous pixel value. If another pixel value is already stored as the previous pixel value, the stored content is overwritten.

また、走査により選択される注目画素が除去された画素である場合、当該注目画素の画素値を、記憶している直前画素値に設定する。これにより除去された部分の画素値が、ラスタスキャン順に直前画素値と同一になり、多くの圧縮処理において圧縮効率を向上させることができるようになる。   If the pixel of interest selected by scanning is a removed pixel, the pixel value of the pixel of interest is set to the immediately preceding pixel value stored. As a result, the pixel value of the removed portion becomes the same as the previous pixel value in the raster scan order, and the compression efficiency can be improved in many compression processes.

そしてこの処理を行った後の絵柄部分画像データを絵柄プレーンデータとして記憶部12に格納する。   Then, the pattern partial image data after this processing is performed is stored in the storage unit 12 as pattern plane data.

[7.圧縮処理部]
圧縮処理部27は、記憶部12に格納されている絵柄プレーンデータを、JPEG圧縮し、圧縮絵柄プレーンデータを生成する。また、この圧縮処理部27は、記憶部12に格納されている文字線画プレーンデータと、この圧縮絵柄プレーンデータとを連結して一連のデータを生成する。
[7. Compression processing unit]
The compression processing unit 27 performs JPEG compression on the pattern plane data stored in the storage unit 12 to generate compressed pattern plane data. In addition, the compression processing unit 27 concatenates the character / line drawing plane data stored in the storage unit 12 and the compressed picture plane data to generate a series of data.

具体的にこの一連のデータとしては、PDF(Portable Document Format)データとすることができる。すなわち、圧縮絵柄プレーンデータを伸長して生成したビットマップ(絵柄プレーンデータのビットマップ)を生成させる指示と、当該絵柄プレーンデータのビットマップ上に文字線画プレーンデータに含まれる各文字や線画を描画させる指示とを含むPDFデータとする。   Specifically, the series of data can be PDF (Portable Document Format) data. That is, an instruction to generate a bitmap generated by decompressing the compressed picture plane data (a bitmap of the picture plane data), and each character or line drawing included in the character / line drawing plane data is drawn on the bitmap of the picture plane data. PDF data including an instruction to be executed.

ここで文字線画プレーンデータに含まれる各文字や線画を描画させる指示は、文字線画圧縮データと、これに関連する代表色の情報と基本矩形等の座標情報との組を一つずつ読み出し、それぞれの組について、文字線画圧縮データを伸長して二値化画像を生成し、この二値化画像の黒画素の色を代表色に設定し、絵柄プレーンデータのビットマップ上において、上記基本矩形等の座標情報として設定された位置に透過合成する指示である。ここで透過合成とは、二値化画像のうち黒画素(代表色に設定された画素)以外の画素については上書きせず、代表色に設定された画素のみを上書きすることをいう。   Here, the instruction to draw each character or line drawing included in the character line drawing plane data is to read out the character line drawing compressed data, the representative color information related to this and the coordinate information such as the basic rectangle one by one, For the set of the above, the character line drawing compressed data is expanded to generate a binarized image, the color of the black pixel of the binarized image is set as the representative color, and the basic rectangle etc. on the bitmap of the picture plane data This is an instruction for transparent composition at the position set as the coordinate information. Here, “transparent composition” means that pixels other than black pixels (pixels set as representative colors) in the binarized image are not overwritten, but only pixels set as representative colors are overwritten.

圧縮処理部27は、この生成したPDFデータを記憶部12に格納し、または画像出力部14にこのPDFデータを出力して、外部の装置に送出させる。   The compression processing unit 27 stores the generated PDF data in the storage unit 12 or outputs the PDF data to the image output unit 14 to send it to an external device.

[動作]
本実施の形態の画像処理装置は、上述の構成を有しているので、次のように動作する。ここでは図16(a)に示すような文字部分(T1,T2)と、写真部分(P)と、線画部分としての地図部分(M)とを含むドキュメントが画像入力部13から入力され、このドキュメントの画像データを処理対象とする場合を例として説明する。この図16(a)の例においては写真部分(P)内に文字部分の一部(T2)が重ね合わせられている。また地図部分(M)には、道路線図と文字とが入組んでいる。なお、ここでは便宜的に白黒で示しているが、実際には地図部分の道路線図と文字とは互いに異なる色で表され、写真はカラーで構わない。
[Operation]
Since the image processing apparatus according to the present embodiment has the above-described configuration, it operates as follows. Here, a document including a character portion (T1, T2) as shown in FIG. 16A, a photograph portion (P), and a map portion (M) as a line drawing portion is input from the image input unit 13, and this A case where image data of a document is a processing target will be described as an example. In the example of FIG. 16A, a part (T2) of the character part is superimposed on the photograph part (P). The map portion (M) includes a road map and characters. Here, although shown in black and white for the sake of convenience, the road map and characters in the map portion are actually represented in different colors, and the photograph may be in color.

前処理部21は、この画像データの画素値を所定色空間(YCbCr)の値に変換する。絵柄候補部分特定処理部22は、この画像データ(元の画像データ)を二値化処理し、その小領域を除去して文字部分(T1)や線図(M)を除去した画像データを生成する(図16(b))。このとき、文字や道路線図のほとんどが除去されるが(部分的に残存しても構わない)、写真部分に重ね合わせられた文字は、そのまま絵柄候補部分として特定された状態となる。   The preprocessing unit 21 converts the pixel value of the image data into a value in a predetermined color space (YCbCr). The pattern candidate portion specifying processing unit 22 binarizes the image data (original image data), and generates image data from which the character region (T1) and the diagram (M) are removed by removing the small area. (FIG. 16B). At this time, most of the characters and the road map are removed (they may remain partially), but the characters superimposed on the photograph portion are in a state specified as the pattern candidate portion as it is.

文字線画抽出処理部23は、元の画像データを二値化し、小領域部分を特定するなどの方法で文字線画部分を抽出する。この際において、元の画像データを複数の領域に分割し、分割して得られた各領域ごとに二値化のしきい値を適応的に定める方法(特許文献3に開示の方法など)によって二値化を行うことで、地図等着色された部分からも文字の抽出を可能としている(図16(c))。   The character / line drawing extraction processing unit 23 binarizes the original image data and extracts the character / line drawing part by a method such as specifying a small area part. At this time, the original image data is divided into a plurality of regions, and a binarization threshold value is adaptively determined for each region obtained by the division (a method disclosed in Patent Document 3). By performing binarization, characters can be extracted from a colored portion such as a map (FIG. 16C).

レイアウト処理部24は、絵柄候補部分内でレイアウト解析処理を行い、絵柄候補部分内に残存する文字部分(T2)を抽出する。同一色領域分離部25は、文字線画抽出処理部23やレイアウト処理部24で抽出された文字部分や線図部分について、それに含まれる色数と色の連続性とを演算する。そして、色数が一色であれば代表色を定める。本実施の形態において特徴的なことの一つは、ここで文字部分の代表色が、個々の文字から段階的に、行矩形を経て文字部分全体へとレイアウト解析処理において得られた領域の包含関係に従って定められ、代表色別に矩形内の画素を再現する情報(ビットマップそのものや、ビットマップの圧縮結果など)が生成されることである。   The layout processing unit 24 performs a layout analysis process in the pattern candidate part, and extracts a character part (T2) remaining in the pattern candidate part. The same color region separation unit 25 calculates the number of colors and the continuity of colors included in the character portion or diagram portion extracted by the character / line drawing extraction processing unit 23 or the layout processing unit 24. If the number of colors is one, a representative color is determined. One of the characteristic features of the present embodiment is that the representative color of the character part is included in the area obtained in the layout analysis process from the individual character step by step through the line rectangle to the entire character part. Information that is determined according to the relationship and reproduces the pixels in the rectangle for each representative color (bitmap itself, bitmap compression result, etc.) is generated.

すなわち、本実施の形態では、制御部11は、個々の文字と判断される複数の画素塊を含む領域(少なくとも文字部分(T1,T2)に相当する領域)を画定する情報がレイアウト解析処理によって生成される。そして当該生成された情報で画定される各領域について、次のように処理する。   In other words, in the present embodiment, the control unit 11 uses layout analysis processing to define information that defines a region (a region corresponding to at least the character portion (T1, T2)) including a plurality of pixel blocks determined as individual characters. Generated. Then, each area defined by the generated information is processed as follows.

まず、当該領域の一つを選択し、当該選択した領域に含まれる各有意画素(画素塊を構成する画素)について、その画素値と予め定められている代表色候補とを比較し、各画素値を代表色候補のいずれかに関連づける。例えば領域内の有意画素(全画素数は19)が図17(a)に示すような画素値(ここでは簡単のため0から15までのグレイスケールの値であるとする)となっており、代表色候補が(0,5,10,15)と定められているとすると、図17(a)において値「2」は(2に最も近い値である)代表色候補の値「0」に関連付けられ、値「3」は(3に最も近い値である)代表色候補の値「5」に関連づけられ、値「15」は代表色候補の値「15」に関連付けられる(図17(b))。   First, one of the areas is selected, and for each significant pixel (pixel constituting the pixel block) included in the selected area, the pixel value is compared with a predetermined representative color candidate. The value is associated with one of the representative color candidates. For example, significant pixels in the area (the total number of pixels is 19) have pixel values as shown in FIG. 17A (here, for the sake of simplicity, it is assumed that the gray scale values are from 0 to 15). If the representative color candidate is determined to be (0, 5, 10, 15), the value “2” in FIG. 17A is the representative color candidate value “0” (which is the closest value to 2). The value “3” is associated with the representative color candidate value “5” (which is the closest value to 3), and the value “15” is associated with the representative color candidate value “15” (FIG. 17B). )).

また、図17(b)に示した関連付けの結果によると、値「0」に関連付けられた画素の数が5個、「5」について13個、「15」について1個であるから、最頻の候補である値「5」についても、所定の閾値(例えば全画素数19個の8割である15個)を超えていない。そこで制御部11が上位2つの候補である「0」と、「5」とを取り出してこれらの平均値「2.5」を算出し、これに近い値として例えば値「2」の新たな代表色候補を生成して代表色候補に含める。これにより代表色候補は、(0,2,5,10,15)となる。そして元の画素値(図17(a))のそれぞれについて、再度代表色候補を関連付ける処理を行う。またここでは元からある代表色候補と新しく追加された代表色候補とのどちらに関連付けてもよい場合は、新たに追加された代表色候補に関連付けるものとしておく。   Further, according to the association result shown in FIG. 17B, the number of pixels associated with the value “0” is 5, 13 for “5”, and 1 for “15”. Also, the value “5” that is a candidate of the above does not exceed a predetermined threshold (for example, 15 that is 80% of the total number of pixels of 19). Therefore, the control unit 11 extracts “0” and “5” which are the top two candidates, calculates an average value “2.5” thereof, and, for example, a new representative of the value “2” as a value close thereto. Color candidates are generated and included in the representative color candidates. As a result, the representative color candidates become (0, 2, 5, 10, 15). Then, for each of the original pixel values (FIG. 17A), processing for associating the representative color candidates again is performed. In addition, here, in the case where it is possible to relate to either the original representative color candidate or the newly added representative color candidate, it is assumed to be related to the newly added representative color candidate.

または、上位2つの候補である「0」と「5」と、これらの平均値「2.5」に近い値の「2」の3つを新たな代表色候補(0,2,5)としても良い。   Alternatively, three of the top two candidates “0” and “5” and “2” having a value close to the average value “2.5” are set as new representative color candidates (0, 2, 5). Also good.

すると、制御部11が新たな関連付け結果として図17(c)に示すように、画素値「2」と「3」とがいずれも代表色候補「2」に関連付けられることとなり、最頻の代表色候補「2」に関連づけられている画素数が18個となって、全画素数の8割を超えるため、この画素塊は1色であると決定し、その代表画素値を「2」と定める。また、領域内の有意画素のすべてを黒画素、それ以外の画素を白画素などとして2値化した情報(画素を再現する情報)を生成し、上記代表画素値と画素を再現する情報とを関連づけて記憶部12に格納していく。   Then, as shown in FIG. 17C, the control unit 11 associates the pixel values “2” and “3” with the representative color candidate “2” as shown in FIG. Since the number of pixels associated with the color candidate “2” is 18 and exceeds 80% of the total number of pixels, this pixel block is determined to be one color, and its representative pixel value is “2”. Determine. Also, binarized information (information for reproducing the pixel) is generated by setting all significant pixels in the region as black pixels and other pixels as white pixels, and the representative pixel value and information for reproducing the pixels are generated. The data are stored in the storage unit 12 in association with each other.

さらに制御部11は、各行領域ごとに、当該行領域に含まれる基本領域のうち、互いに近接する代表画素値に関連づけられている基本領域を互いに関連付けて、互いに関連付けられた基本領域のセットごとに1つの代表画素値をさらに決定する。こうして代表画素値別の行領域の情報(色別行領域の情報)を生成する。さらに制御部11は文字部分(T1,T2)ごとにそれぞれに含まれる色別行領域のうち、互いに近接する代表画素値に関連づけられている色別行領域同士を関連付けて色別の領域を生成し、各色別領域ごとに当該関連付けられた色別行領域のセットからさらに1つの代表画素値を決定していく。   Further, for each row region, the control unit 11 associates the basic regions associated with the representative pixel values that are close to each other among the basic regions included in the row region, and for each set of the basic regions associated with each other. One representative pixel value is further determined. In this way, information on the row region for each representative pixel value (information on the row region for each color) is generated. Further, the control unit 11 generates a color-specific region by associating the color-specific row regions associated with the representative pixel values close to each other among the color-specific row regions included in each character part (T1, T2). Then, one representative pixel value is further determined from the set of the color-specific row regions for each color-specific region.

こうして、色別領域を特定する情報を含んでなるデータが文字線画プレーンデータとして生成される。またこの際に、所定数以上の複数の色からなる文字部分(例えばグラデーションが付された文字など)については限定色化処理が行われず、そのまま又はZIP等別の方法で圧縮されてこの文字線画プレーンデータに含められる。   In this way, data including information specifying the color-specific area is generated as character / line drawing plane data. Further, at this time, the character portion composed of a plurality of colors of a predetermined number or more (for example, a character with gradation) is not subjected to the limited color processing, and is compressed as it is or by another method such as ZIP. Included in plain data.

さらにここで色に連続性がある場合は、例えば文字部分からも排除されて、後に絵柄領域として扱われるように設定してもよい。なお線画部分(M)については、その領域を画定する座標情報を別途生成してもよい。   Furthermore, here, when there is continuity in color, for example, it may be set so that it is also excluded from the character portion and treated as a picture area later. As for the line drawing part (M), coordinate information for defining the area may be separately generated.

穴埋処理部26は、絵柄候補部分から、それに内在していた文字部分(T2)を除去した画像データを生成する(図16(d))。なお、本来は文字部分T2の文字形状通りに白抜きとなるのであるが、図16(d)では図面を見やすくするため当該文字形状を含む矩形部分を白抜きにして図示している。また、図16(d)、(e)は絵柄画像部分のみを図示している。そして穴埋処理部26が当該除去された画素の値を、スキャンライン順で最近傍の画素値(除去されていない画素値)に設定して(図16(e))、絵柄プレーンデータを生成する。   The burial processing unit 26 generates image data obtained by removing the character portion (T2) inherent in the pattern candidate portion (FIG. 16D). Originally, the character portion T2 is white as in the character shape. However, in FIG. 16D, the rectangular portion including the character shape is shown as white for easy understanding of the drawing. FIGS. 16D and 16E show only the pattern image portion. Then, the hole filling processing unit 26 sets the value of the removed pixel to the nearest pixel value (the pixel value that has not been removed) in the scan line order (FIG. 16E), and generates the picture plane data. To do.

圧縮処理部27は、絵柄プレーンデータについてJPEG圧縮を行い、文字線画プレーンデータと組み合せてPDFデータを生成し、これを画像出力部14に出力する。画像出力部14は、このPDFデータを外部の装置に出力する。   The compression processing unit 27 performs JPEG compression on the pattern plane data, generates PDF data in combination with the character line drawing plane data, and outputs this to the image output unit 14. The image output unit 14 outputs the PDF data to an external device.

ここで圧縮処理部27は、絵柄プレーンデータについてJPEG圧縮の前に画像のサイズを縮小する処理(縮小処理)を行って圧縮率をより向上させることとしてもよい。   Here, the compression processing unit 27 may perform a process of reducing the image size (reduction process) on the design plane data before JPEG compression to further improve the compression rate.

本発明の実施の形態に係る画像処理装置の一例を表す構成ブロック図である。1 is a configuration block diagram illustrating an example of an image processing apparatus according to an embodiment of the present invention. 本発明の実施の形態に係る画像処理装置の制御部によって実行される処理内容を表す機能ブロック図である。It is a functional block diagram showing the processing content performed by the control part of the image processing apparatus which concerns on embodiment of this invention. 絵柄候補部分特定処理部22の処理内容例を表す機能ブロック図である。It is a functional block diagram showing the example of the processing content of the pattern candidate part specific process part. 属性判定部34の処理例を表すフローチャート図である。FIG. 6 is a flowchart illustrating a processing example of an attribute determination unit 34. 絵柄候補部分特定処理部22の処理例を表す説明図である。It is explanatory drawing showing the process example of the pattern candidate part specific process part. レイアウト処理部24の処理内容例を表す機能ブロック図である。4 is a functional block diagram illustrating an example of processing contents of a layout processing unit 24. FIG. レイアウト処理部24の処理例を表す説明図である。7 is an explanatory diagram illustrating a processing example of a layout processing unit 24. FIG. ノイズ判定部48の処理例を表すフローチャート図である。FIG. 10 is a flowchart illustrating a processing example of a noise determination unit 48. ノイズ判定部48の処理例を表すフローチャート図である。FIG. 10 is a flowchart illustrating a processing example of a noise determination unit 48. 同一色領域分離部25の処理内容例を表す機能ブロック図である。6 is a functional block diagram illustrating an example of processing contents of the same color region separation unit 25. FIG. 色数判定部51の処理内容例を表す機能ブロック図である。5 is a functional block diagram illustrating an example of processing contents of a color number determination unit 51. FIG. 連続性判定部52の処理例を表す説明図である。It is explanatory drawing showing the process example of the continuity determination part. 同一色領域分離部25の処理例を表す説明図である。11 is an explanatory diagram illustrating a processing example of the same color region separation unit 25. FIG. 同一色領域分離部25において利用されるトーンカーブの例を表す説明図である。It is explanatory drawing showing the example of the tone curve utilized in the same color area separation part 25. FIG. 同一色領域分離部25における補正処理の処理条件を表す説明図である。FIG. 11 is an explanatory diagram illustrating processing conditions for correction processing in the same color region separation unit 25. 本発明の実施の形態に係る画像処理装置の処理例を表す説明図である。It is explanatory drawing showing the process example of the image processing apparatus which concerns on embodiment of this invention. 色数判定部51の動作例を表す説明図である。6 is an explanatory diagram illustrating an operation example of a color number determination unit 51. FIG.

符号の説明Explanation of symbols

11 制御部、12 記憶部、13 画像入力部、14 画像出力部、21 前処理部、22 絵柄候補部分特定処理部、23 文字線画抽出処理部、24 レイアウト処理部、25 同一色領域分離部、26 穴埋処理部、27 圧縮処理部、31,41 二値化処理部、32,42 連結画素抽出部、33 特徴量算出部、34 属性判定部、35 非絵柄領域処理部、36 背景領域塗潰部、37 絵柄候補領域作成部、38 膨張収縮部、43 基本矩形画定部、44 第1セパレータ検出部、45 行矩形画定部、46 第2セパレータ検出部、47 文字領域画定部、48 ノイズ判定部、49 文字部分特定部、51 色数判定部、52 連続性判定部、53 代表色決定部、54 限定色化部、61 代表色候補関連付け部、62 画素数算出部、63 判定部、64 新規代表色候補決定部、65 代表色決定部。
DESCRIPTION OF SYMBOLS 11 Control part, 12 Memory | storage part, 13 Image input part, 14 Image output part, 21 Pre-processing part, 22 Design candidate part specific processing part, 23 Character line drawing extraction processing part, 24 Layout processing part, 25 Same color area separation part, 26 burial processing unit, 27 compression processing unit, 31, 41 binarization processing unit, 32, 42 connected pixel extraction unit, 33 feature amount calculation unit, 34 attribute determination unit, 35 non-pattern region processing unit, 36 background region coating Crushing part, 37 design candidate area creating part, 38 expansion / contraction part, 43 basic rectangle defining part, 44 first separator detecting part, 45 line rectangular defining part, 46 second separator detecting part, 47 character area defining part, 48 noise determination Part, 49 character part specifying part, 51 color number determining part, 52 continuity determining part, 53 representative color determining part, 54 limited color forming part, 61 representative color candidate associating part, 62 pixel number calculating part, 63 determining part, 64 New Representative color candidate determination unit, 65 Representative color determination unit.

Claims (7)

処理対象となった画像データの少なくとも一部から個々の文字と判断される画素塊を含む基本領域を画定する手段と、
前記画定した基本領域に含まれる画素塊を構成する各画素について、当該画素の画素値を、代表画素値候補のセットに含まれる代表画素値候補のいずれかに限定色化し、限定色化後の画素塊における前記代表画素値候補の出現頻度に基づいて、前記画素塊の色数を判定する色数判定処理を行う色数判定手段と、
を含み、
前記色数の判断結果に基づいて所定の画像処理が実行されることを特徴とする画像処理装置。
Means for demarcating a basic region including a pixel block determined as an individual character from at least a part of image data to be processed;
For each pixel constituting the pixel block included in the defined basic region, the pixel value of the pixel is limited to one of the representative pixel value candidates included in the representative pixel value candidate set, and after the limited color Color number determination means for performing a color number determination process for determining the number of colors of the pixel block based on the appearance frequency of the representative pixel value candidate in the pixel block;
Including
An image processing apparatus, wherein predetermined image processing is executed based on the determination result of the number of colors.
請求項1に記載の画像処理装置であって、
前記色数判定手段は、画素塊の色数が複数であると判定したときには、出現頻度順に複数の代表画素値候補を特定して、当該特定した代表画素値候補に基づいて新たな代表画素値候補を生成して、代表画素値候補のセットに含め、前記色数判定処理を再度行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
When the number-of-colors determination unit determines that the number of colors of the pixel block is plural, the plurality of representative pixel value candidates are specified in order of appearance frequency, and a new representative pixel value is determined based on the specified representative pixel value candidates. An image processing apparatus characterized by generating a candidate, including the candidate in a set of representative pixel value candidates, and performing the color number determination process again.
請求項1に記載の画像処理装置であって、
前記色数判定手段は、画素塊の色数が複数であると判定したときには、出現頻度順に複数の代表画素値候補を特定して、当該特定した代表画素値候補に基づいて新たな代表画素値候補を生成して、当該特定した代表画素値候補と新たな代表画素値候補を新たな代表画素値候補とし、前記色数判定処理を再度行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
When the number-of-colors determination unit determines that the number of colors of the pixel block is plural, the plurality of representative pixel value candidates are specified in order of appearance frequency, and a new representative pixel value is determined based on the specified representative pixel value candidates. An image processing apparatus that generates candidates, sets the specified representative pixel value candidate and the new representative pixel value candidate as new representative pixel value candidates, and performs the color number determination process again.
請求項1又は2に記載の画像処理装置であって、
前記色数判定手段にて色数が複数であると判定された画素塊について、画素値の連続性に関する情報を生成し、当該画素値の連続性に関する情報に基づいて当該画素塊がグラデーションとなっているか否かを判定する手段をさらに含み、
当該判定の結果に基づいて、当該画素塊に対する画像処理の内容を変更することを特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein:
Information on continuity of pixel values is generated for the pixel block determined to have a plurality of colors by the color number determination means, and the pixel block becomes a gradation based on the information on continuity of the pixel value. Further comprising means for determining whether or not
An image processing apparatus that changes the content of image processing on the pixel block based on the result of the determination.
請求項1から4のいずれか一項に記載の画像処理装置であって、
前記色数判定手段は、画素塊の幅に関する情報を生成し、画素塊の幅に関する情報が所定の幅しきい値未満である場合には、当該画素塊は1色で表現されていると判断することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4, wherein:
The number-of-colors determination unit generates information about the width of the pixel block, and determines that the pixel block is expressed by one color when the information about the width of the pixel block is less than a predetermined width threshold value. An image processing apparatus.
コンピュータを用い、
処理対象となった画像データの少なくとも一部から個々の文字と判断される画素塊を含む基本領域を画定し、
前記画定した基本領域に含まれる画素塊を構成する各画素について、当該画素の画素値を、代表画素値候補のセットに含まれる代表画素値候補のいずれかに限定色化し、限定色化後の画素塊における前記代表画素値候補の出現頻度に基づいて、前記画素塊の色数を判定する色数判定処理を行わせ、
前記色数の判断結果に基づいて所定の画像処理を実行させることを特徴とする画像処理方法。
Using a computer,
Defining a basic region including a pixel block that is determined as an individual character from at least a part of the image data to be processed;
For each pixel constituting the pixel block included in the defined basic region, the pixel value of the pixel is limited to one of the representative pixel value candidates included in the representative pixel value candidate set, and after the limited color Based on the appearance frequency of the representative pixel value candidate in the pixel block, let the number of colors determination processing to determine the number of colors of the pixel block,
A predetermined image processing is executed based on the determination result of the number of colors.
コンピュータに、
処理対象となった画像データの少なくとも一部から個々の文字と判断される画素塊を含む基本領域を画定する手順と、
前記画定した基本領域に含まれる画素塊を構成する各画素について、当該画素の画素値を、代表画素値候補のセットに含まれる代表画素値候補のいずれかに限定色化し、限定色化後の画素塊における前記代表画素値候補の出現頻度に基づいて、前記画素塊の色数を判定する色数判定処理を行う手順と、
前記色数の判断結果に基づいて所定の画像処理を行う手順と、
を実行させることを特徴とする画像処理プログラム。
On the computer,
A procedure for defining a basic region including a pixel block determined as an individual character from at least a part of image data to be processed;
For each pixel constituting the pixel block included in the defined basic region, the pixel value of the pixel is limited to one of the representative pixel value candidates included in the representative pixel value candidate set, and after the limited color A procedure for performing a color number determination process for determining the number of colors of the pixel block based on the appearance frequency of the representative pixel value candidates in the pixel block;
A procedure for performing predetermined image processing based on the determination result of the number of colors;
An image processing program for executing
JP2004067281A 2004-03-10 2004-03-10 Image processing device Expired - Fee Related JP4396331B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004067281A JP4396331B2 (en) 2004-03-10 2004-03-10 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004067281A JP4396331B2 (en) 2004-03-10 2004-03-10 Image processing device

Publications (2)

Publication Number Publication Date
JP2005260452A true JP2005260452A (en) 2005-09-22
JP4396331B2 JP4396331B2 (en) 2010-01-13

Family

ID=35085774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004067281A Expired - Fee Related JP4396331B2 (en) 2004-03-10 2004-03-10 Image processing device

Country Status (1)

Country Link
JP (1) JP4396331B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142885A (en) * 2005-11-18 2007-06-07 Ricoh Co Ltd Image processing device and image reading device
JP2008301187A (en) * 2007-05-31 2008-12-11 Fuji Xerox Co Ltd Image processor and image processing program
JP2009071649A (en) * 2007-09-14 2009-04-02 Seiko Epson Corp Image processing device, image processing method, and program
JP2009253751A (en) * 2008-04-08 2009-10-29 Fuji Xerox Co Ltd Image processing apparatus and image processing program
JP2010199984A (en) * 2009-02-25 2010-09-09 Fuji Xerox Co Ltd Image processor, image reader, and image formation device
JP2013153273A (en) * 2012-01-24 2013-08-08 Fuji Xerox Co Ltd Image processing device, image reading device, and program
JP2019161623A (en) * 2018-03-16 2019-09-19 ブラザー工業株式会社 Image processing device and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165105A (en) * 2000-11-27 2002-06-07 Canon Inc Image processing device, its method, and recording medium
JP2003008909A (en) * 2001-06-26 2003-01-10 Canon Inc Image processor, image processing method, program and storage medium
JP2003069843A (en) * 2001-08-24 2003-03-07 Minolta Co Ltd Device, method and program for processing image and computer readable recording medium with the program recorded thereon

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165105A (en) * 2000-11-27 2002-06-07 Canon Inc Image processing device, its method, and recording medium
JP2003008909A (en) * 2001-06-26 2003-01-10 Canon Inc Image processor, image processing method, program and storage medium
JP2003069843A (en) * 2001-08-24 2003-03-07 Minolta Co Ltd Device, method and program for processing image and computer readable recording medium with the program recorded thereon

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142885A (en) * 2005-11-18 2007-06-07 Ricoh Co Ltd Image processing device and image reading device
JP4571066B2 (en) * 2005-11-18 2010-10-27 株式会社リコー Image processing apparatus and image reading apparatus
JP2008301187A (en) * 2007-05-31 2008-12-11 Fuji Xerox Co Ltd Image processor and image processing program
US8411937B2 (en) 2007-05-31 2013-04-02 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method and computer-readable medium
JP2009071649A (en) * 2007-09-14 2009-04-02 Seiko Epson Corp Image processing device, image processing method, and program
JP2009253751A (en) * 2008-04-08 2009-10-29 Fuji Xerox Co Ltd Image processing apparatus and image processing program
JP2010199984A (en) * 2009-02-25 2010-09-09 Fuji Xerox Co Ltd Image processor, image reader, and image formation device
JP2013153273A (en) * 2012-01-24 2013-08-08 Fuji Xerox Co Ltd Image processing device, image reading device, and program
JP2019161623A (en) * 2018-03-16 2019-09-19 ブラザー工業株式会社 Image processing device and computer program

Also Published As

Publication number Publication date
JP4396331B2 (en) 2010-01-13

Similar Documents

Publication Publication Date Title
US8644602B2 (en) Colour correcting foreground colours for visual quality improvement
JP4071701B2 (en) Color image compression method and color image compression apparatus
US6865290B2 (en) Method and apparatus for recognizing document image by use of color information
JP2005509223A (en) Apparatus and method for code recognition
JP5337563B2 (en) Form recognition method and apparatus
JP5645612B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP4396331B2 (en) Image processing device
JP4217969B2 (en) Image processing apparatus and program
JP4035456B2 (en) Image compression method and image compression apparatus
JP6370080B2 (en) Image processing apparatus, image processing method, and program.
JP5151708B2 (en) Image processing apparatus and image processing program
JP4370950B2 (en) Image processing device
US20230316697A1 (en) Association method, association system, and non-transitory computer-readable storage medium
JP4259310B2 (en) Image processing apparatus and program
JP4507656B2 (en) Image processing device
JP4182891B2 (en) Image processing device
JP4193687B2 (en) Image processing apparatus and program
JP4329564B2 (en) Image processing device
JP4311183B2 (en) Image processing apparatus and program
KR102377056B1 (en) The apparatus and method of detecting a image forgery
JP4182873B2 (en) Image processing apparatus and program
JP4228905B2 (en) Image processing apparatus and program
JP4631371B2 (en) Image processing device
JP2005217983A (en) Image processing device
JP2005190010A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070221

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071112

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees