JP2008099149A - Image processor, image processing method and image processing program - Google Patents

Image processor, image processing method and image processing program Download PDF

Info

Publication number
JP2008099149A
JP2008099149A JP2006280790A JP2006280790A JP2008099149A JP 2008099149 A JP2008099149 A JP 2008099149A JP 2006280790 A JP2006280790 A JP 2006280790A JP 2006280790 A JP2006280790 A JP 2006280790A JP 2008099149 A JP2008099149 A JP 2008099149A
Authority
JP
Japan
Prior art keywords
character
color
image
attribute
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006280790A
Other languages
Japanese (ja)
Inventor
Kazuya Yago
和也 矢後
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2006280790A priority Critical patent/JP2008099149A/en
Publication of JP2008099149A publication Critical patent/JP2008099149A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily and highly accurately detect the colors of characters. <P>SOLUTION: An MFP includes: a character region extraction part 310 for extracting the character region of a character attribute where the character is indicated from color images; a thinning part 331 for thinning the character included in the character region; a character color determination part 330 for determining a character color on the basis of the color of the pixels of the color image corresponding to a plurality of character center pixels constituting the thinned character; a noise elimination part 320 for converting the color image to a binary image by binarizing it; a character region encoding part 340 for encoding the character region of the binary image and generating code data; and an integration part 370 for relating the generated code data, the determined character color and the position in the color image of the character region. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、画像処理装置、画像処理方法および画像処理プログラムに関し、特にカラー画像を効率的に圧縮する画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly, to an image processing apparatus, an image processing method, and an image processing program for efficiently compressing a color image.

近年、情報の電子化が進み、文書を紙でなく電子データとして保存あるいは送信する需要が高まっている。さらに、文書がカラーで表されることが多く、電子データもカラー画像であることが望まれる。一方で、カラー画像は、モノクロ画像に比較してデータ量が多くなるため、カラー画像の電子データを圧縮し、圧縮後のデータを保存あるいは送信することがなされている。   In recent years, with the progress of computerization of information, there is an increasing demand for storing or transmitting documents as electronic data instead of paper. Further, the document is often expressed in color, and it is desired that the electronic data is also a color image. On the other hand, since a color image has a larger data amount than a monochrome image, the electronic data of the color image is compressed and the compressed data is stored or transmitted.

しかしながら、カラー画像に文字が表されている場合、写真等の圧縮に適した非可逆方式で圧縮すると、伸張後のカラー画像中で文字が読めなくなってしまうといった問題がある。この問題に対応するために、カラー画像を、文字が表された文字領域と、文字領域以外の領域とに分離し、カラー画像の文字領域を可逆圧縮方式で圧縮し、文字領域以外の領域を非可逆圧縮方式で圧縮する技術が、特開2000−350040(特許文献1)または特開平5−130426号公報(特許文献2)に記載されている。さらに、カラー画像に複数の色で文字が表されている場合、複数の色別に文字領域を2値化した画像を可逆圧縮すると、カラー画像を効率的に圧縮することができる。   However, when characters are represented in a color image, there is a problem that if the image is compressed by an irreversible method suitable for compression of a photograph or the like, the characters cannot be read in the expanded color image. To cope with this problem, a color image is separated into a character area where characters are represented and an area other than the character area, the character area of the color image is compressed by a lossless compression method, and an area other than the character area is compressed. A technique for compressing with a lossy compression method is described in Japanese Patent Laid-Open No. 2000-350040 (Patent Document 1) or Japanese Patent Laid-Open No. 5-130426 (Patent Document 2). Furthermore, when characters are represented in a plurality of colors in a color image, the color image can be efficiently compressed by reversibly compressing an image in which character regions are binarized for a plurality of colors.

しかしながら、原稿を読み取るスキャナの特性上、スキャナが出力するカラー画像データで、文字の中心部分の画素と文字の輪郭部分の画素とで色が異なるため、文字を構成する画素の値から文字の色を高精度に検出するためには、複雑な処理を行わなければならず、処理に時間がかかるといった問題があった。
特開2001−312725号公報 特開2001−312726号公報
However, due to the characteristics of the scanner that reads the document, the color image data output by the scanner has a different color between the pixel at the center of the character and the pixel at the outline of the character. In order to detect this with high accuracy, complicated processing must be performed, and there is a problem that processing takes time.
JP 2001-31725 A JP 2001-31726 A

この発明は上述した問題点を解決するためになされたもので、この発明の目的の一つは、文字の色を容易かつ高精度に検出することが可能な画像処理装置、画像圧縮方法および画像圧縮プログラムを提供することである。   The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to provide an image processing apparatus, an image compression method, and an image capable of easily and accurately detecting the color of a character. It is to provide a compression program.

この発明の他の目的は、画像から文字が表された領域を抽出する精度を高めた画像処理装置を提供することである。   Another object of the present invention is to provide an image processing apparatus with improved accuracy for extracting a region where characters are represented from an image.

上述した目的を達成するためにこの発明のある局面によれば、画像処理装置は、カラー画像から文字が表された文字属性の文字領域を抽出する文字領域抽出手段と、文字領域に含まれる文字を細線化する細線化手段と、細線化された文字を構成する複数の文字中心画素に対応するカラー画像の画素の色に基づいて、文字色を決定する文字色決定手段と、カラー画像を2値化することによって、2値画像に変換する2値化手段と、2値画像の文字領域を符号化し、符号データを生成する文字領域符号化手段と、生成された符号データと、決定された文字色と、文字領域のカラー画像中の位置とを関連付ける関連付手段と、を備える。   In order to achieve the above-described object, according to one aspect of the present invention, an image processing device includes: a character area extracting unit that extracts a character area having a character attribute representing a character from a color image; and a character included in the character area. Thinning means for thinning the character, character color determining means for determining the character color based on the color of the pixel of the color image corresponding to the plurality of character center pixels constituting the thinned character, and two color images. By binarization, binarization means for converting to a binary image, character area encoding means for encoding a character area of the binary image and generating code data, and generated code data are determined Association means for associating the character color with the position of the character region in the color image.

この局面に従えば、カラー画像から抽出された文字領域に含まれる文字が細線化され、細線化された文字を構成する複数の文字中心画素に対応するカラー画像の画素の色に基づいて、文字色が決定される。そして、カラー画像を2値化した2値画像の文字領域が符号化され、符号データと、決定された文字色と、文字領域のカラー画像中の位置とが関連付けられる。カラー画像を2値化した2値画像の文字領域が符号化されるので、文字全体を同じ色の文字として2値化することができる。また、細線化後の文字を構成する複数の文字中心画素に対応する画像データの画素の色に基づいて文字色が決定されるので、文字の色を正確に検出することができる。その結果、画像中の文字の色を容易かつ高精度に検出することが可能な画像処理装置を提供することができる。   According to this aspect, the character included in the character region extracted from the color image is thinned, and the character is based on the color of the pixel of the color image corresponding to the plurality of character center pixels constituting the thinned character. The color is determined. Then, the character area of the binary image obtained by binarizing the color image is encoded, and the code data, the determined character color, and the position of the character area in the color image are associated with each other. Since the character area of the binary image obtained by binarizing the color image is encoded, the entire character can be binarized as a character of the same color. Further, since the character color is determined based on the color of the pixel of the image data corresponding to the plurality of character center pixels constituting the thinned character, the character color can be accurately detected. As a result, it is possible to provide an image processing apparatus that can easily and accurately detect the color of characters in an image.

好ましくは、細線化手段は、2値画像において主走査方向に連続して配置された黒画素のうちから中心の画素を抽出する主走査方向検出手段と、主走査方向と交わる副走査方向に連続して配置された黒画素のうちから中心の画素を抽出する副走査方向検出手段と、主走査方向検出手段で抽出された中心画素と、副走査方向検出手段で抽出された中心画素とを文字中心画素に決定する決定手段と、を含む。   Preferably, the thinning means is continuous in the sub-scanning direction intersecting with the main scanning direction and main scanning direction detecting means for extracting a central pixel from black pixels continuously arranged in the main scanning direction in the binary image. Sub-scanning direction detecting means for extracting the central pixel from the black pixels arranged in the same manner, the central pixel extracted by the main scanning direction detecting means, and the central pixel extracted by the sub-scanning direction detecting means Determining means for determining the center pixel.

この局面に従えば、主走査方向と副走査方向それぞれで、連続して配置された黒画素のうちから中心の画素を文字中心画素として抽出するので、文字中心画素を容易に抽出することができ、処理速度を速くすることができる。   According to this aspect, since the center pixel is extracted as the character center pixel from the continuously arranged black pixels in the main scanning direction and the sub-scanning direction, the character center pixel can be easily extracted. , Processing speed can be increased.

好ましくは、細線化手段は、主走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素を第1候補画素として抽出する主走査方向検出手段と、主走査方向と交わる副走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素を第2候補画素として抽出する副走査方向検出手段と、第1候補画素および第2候補画素のいずれでもある画素を文字中心画素に決定する決定手段と、を含む。   Preferably, the thinning unit includes a main scanning direction detecting unit that extracts at least one pixel excluding a predetermined number of pixels from both ends of a plurality of black pixels continuously arranged in the main scanning direction as a first candidate pixel. Sub-scanning direction detecting means for extracting at least one pixel excluding a predetermined number of pixels from both ends of a plurality of black pixels continuously arranged in the sub-scanning direction intersecting with the main scanning direction; Determining means for determining a pixel that is both a first candidate pixel and a second candidate pixel as a character center pixel.

この局面に従えば、主走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素であって、副走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素を文字中心画素とするので、文字中心画素を容易に抽出することができ、処理速度を早くすることができる。   According to this aspect, at least one pixel obtained by removing a predetermined number of pixels from both ends of a plurality of black pixels continuously arranged in the main scanning direction, and a plurality of pixels arranged continuously in the sub-scanning direction Since at least one pixel excluding a predetermined number of pixels from both ends of the black pixel is used as the character center pixel, the character center pixel can be easily extracted, and the processing speed can be increased.

好ましくは、文字色決定手段は、複数の文字中心画素それぞれの細線化する前の色に基づき、複数の文字中心画素それぞれを複数の色相階級のいずれかに分類する分類手段と、度数が第1のしきい値以下の色相階級に分類された画素をノイズとして除去するノイズ除去手段を含む。   Preferably, the character color determining means includes a classification means for classifying each of the plurality of character center pixels into one of a plurality of hue classes based on the color before thinning of each of the plurality of character center pixels, and the frequency is first. Noise removal means for removing pixels classified into a hue class that is equal to or less than the threshold value as noise.

好ましくは、文字色決定手段は、複数の文字中心画素それぞれの細線化する前の色に基づき、複数の文字中心画素それぞれを複数の色相階級のいずれかに分類する分類手段と、 複数の色相階級のうちから度数が第1のしきい値を超える色相階級を代表色相として選択する選択手段と、を含み、複数の文字中心画素のうち選択された代表色相の色相階級に分類された文字中心画素の細線化する前の色に基づき文字色を決定する。   Preferably, the character color determination means includes a classification means for classifying each of the plurality of character center pixels into one of a plurality of hue classes based on a color before thinning of each of the plurality of character center pixels, and a plurality of hue classes. Selecting a hue class whose frequency exceeds a first threshold value as a representative hue, and the character center pixel classified into the hue class of the selected representative hue among a plurality of character center pixels The character color is determined based on the color before thinning.

好ましくは、選択手段は、度数が第1しきい値を超える色相階級が2以上連続する場合、連続する色相階級のうち度数が最大の色相階級を代表色相として選択する色相統合手段を含む。   Preferably, the selection unit includes a hue integration unit that selects, as a representative hue, a hue class having the highest frequency among consecutive hue classes when two or more hue classes having a frequency exceeding the first threshold value are consecutive.

好ましくは、文字色決定手段は、選択手段により複数の代表色相が選択された場合、複数の代表色相にそれぞれ対応する複数の文字色を決定し、文字領域符号化手段は、複数の代表色相それぞれにおいて、2値画像の文字領域に含まれる黒画素のうちから該黒画素に対応するカラー画像の画素の色が該代表色相に対応する文字色と近似する画素を抽出することにより、該代表色相に対応する文字色別2値画像を生成する文字色別2値化データ生成手段と、決定された複数の文字色にそれぞれ対応する複数の文字色別2値化データを符号化し、文字色別符号データを生成する文字色別符号化手段と、を含み、関連付手段は、決定された複数の文字色ごとに、該文字色と、該文字色に対応する文字色別符号データと、文字領域の画像データ中の位置とを関連付ける文字色別関連付手段を含む。   Preferably, the character color determining means determines a plurality of character colors respectively corresponding to the plurality of representative hues when the selection means selects a plurality of representative hues, and the character area encoding means In this case, by extracting a pixel in which the color of the pixel of the color image corresponding to the black pixel approximates the character color corresponding to the representative hue from among the black pixels included in the character region of the binary image, the representative hue Character color binarized data generating means for generating a character color binarized image corresponding to the character color, and a plurality of character color binarized data respectively corresponding to the determined character colors A character color encoding unit that generates code data, and the association unit includes, for each of the plurality of determined character colors, the character color, the character color code data corresponding to the character color, and a character Position in the image data of the area Including the character color by association means for associating the door.

好ましくは、文字色決定手段は、複数の文字中心画素それぞれの細線化する前の色に基づき、複数の文字中心画素それぞれを複数の色相階級のいずれかに分類する分類手段と、 複数の色相階級の度数分布に基づいて、文字領域の属性を文字属性以外の属性に変更する属性変更手段と、を含む。   Preferably, the character color determination means includes a classification means for classifying each of the plurality of character center pixels into one of a plurality of hue classes based on a color before thinning of each of the plurality of character center pixels, and a plurality of hue classes. And an attribute changing means for changing the attribute of the character area to an attribute other than the character attribute based on the frequency distribution.

この発明の他の局面によれば、画像処理装置は、カラー画像から文字が表された文字属性の文字領域を抽出する文字領域抽出手段と、カラー画像から写真または図形が表された写真/図属性の写真/図領域を抽出する写真/図領域抽出手段と、文字領域に含まれる文字を細線化する細線化手段と、細線化された文字を構成する複数の文字中心画素それぞれの細線化する前の色に基づき、複数の文字中心画素それぞれを複数の色相階級のいずれかに分類する分類手段と、複数の色相階級の度数分布に基づいて、文字領域の属性を文字属性以外の属性に変更する属性変更手段と、を備える。   According to another aspect of the present invention, an image processing apparatus includes a character area extracting unit that extracts a character area having a character attribute representing a character from a color image, and a photograph / figure representing a photograph or a figure from the color image. A photo / figure area extracting means for extracting a photograph / figure area of an attribute, a thinning means for thinning a character included in the character area, and thinning each of a plurality of character center pixels constituting the thinned character. Based on the previous color, the character area attribute is changed to an attribute other than the character attribute based on the classification means for classifying each of the plurality of character center pixels into one of a plurality of hue classes and the frequency distribution of the plurality of hue classes Attribute changing means.

この局面に従えば、文字中心画素それぞれの細線化する前の色の複数の色相階級における度数分布に基づいて、文字領域の属性が文字属性以外の属性に変更される。このため、写真または図が表されている領域が誤って文字領域に判別された場合であっても、適切に領域の属性を判別することができる。その結果、画像から文字が表された領域を抽出する精度を高めた画像処理装置を提供することができる。   According to this aspect, the attribute of the character area is changed to an attribute other than the character attribute based on the frequency distribution in a plurality of hue classes of the color before thinning of each character center pixel. For this reason, even when the area where the photograph or the figure is represented is erroneously determined as the character area, the attribute of the area can be appropriately determined. As a result, it is possible to provide an image processing apparatus with improved accuracy for extracting a region where characters are represented from an image.

この発明のさらに他の局面によれば、画像処理方法は、カラー画像から文字が表された文字属性の文字領域を抽出するステップと、文字領域に含まれる文字を細線化するステップと、細線化された文字を構成する複数の文字中心画素に対応するカラー画像の画素の色に基づいて、文字色を決定するステップと、カラー画像を2値化することによって、カラー画像を2値画像に変換するステップと、2値画像の文字領域を符号化し、符号データを生成するステップと、生成された符号データと、決定された文字色と、文字領域のカラー画像中の位置とを関連付けるステップと、を含む。   According to still another aspect of the present invention, an image processing method includes a step of extracting a character region having a character attribute representing a character from a color image, a step of thinning a character included in the character region, and a thinning step Determining a character color based on the color of a pixel of a color image corresponding to a plurality of character center pixels constituting the character and converting the color image into a binary image by binarizing the color image Encoding the character region of the binary image and generating code data, associating the generated code data, the determined character color, and the position of the character region in the color image; including.

この局面に従えば、画像中の文字の色を容易かつ高精度に検出することが可能な画像処理方法を提供することができる。   According to this aspect, it is possible to provide an image processing method capable of easily and accurately detecting the color of characters in an image.

この発明のさらに他の局面によれば、画像処理方法は、カラー画像から文字が表された文字属性の文字領域を抽出するステップと、カラー画像から写真または図形が表された写真/図属性の写真/図領域を抽出するステップと、文字領域に含まれる文字を細線化するステップと、細線化された文字を構成する複数の文字中心画素それぞれの細線化する前の色に基づき、複数の文字中心画素それぞれを複数の色相階級のいずれかに分類するステップと、
複数の色相階級の度数分布に基づいて、文字領域の属性を文字属性以外の属性に変更するステップと、を含む。
According to still another aspect of the present invention, an image processing method includes a step of extracting a character area having a character attribute representing a character from a color image, and a photo / graphic attribute representing a photograph or figure from the color image. A step of extracting a photo / figure region, a step of thinning characters included in the character region, and a plurality of characters based on the color before thinning of each of a plurality of character center pixels constituting the thinned character Classifying each central pixel into one of a plurality of hue classes;
Changing the attribute of the character region to an attribute other than the character attribute based on the frequency distribution of a plurality of hue classes.

この局面に従えば、画像から文字が表された領域を抽出する精度を高めた画像処理方法を提供することができる。   If this aspect is followed, the image processing method which improved the precision which extracts the area | region where the character was represented from the image can be provided.

この発明のさらに他の局面によれば、画像処理プログラムは、カラー画像から文字が表された文字属性の文字領域を抽出するステップと、文字領域に含まれる文字を細線化するステップと、細線化された文字を構成する複数の文字中心画素に対応するカラー画像の画素の色に基づいて、文字色を決定するステップと、カラー画像を2値化することによって、カラー画像を2値画像に変換するステップと、2値画像の文字領域を符号化し、符号データを生成するステップと、生成された符号データと、決定された文字色と、文字領域のカラー画像中の位置とを関連付けるステップと、をコンピュータに実行させる。   According to still another aspect of the present invention, an image processing program extracts a character region having a character attribute representing a character from a color image, thinning characters included in the character region, and thinning Determining a character color based on the color of a pixel of a color image corresponding to a plurality of character center pixels constituting the character and converting the color image into a binary image by binarizing the color image Encoding the character region of the binary image and generating code data, associating the generated code data, the determined character color, and the position of the character region in the color image; Is executed on the computer.

この局面に従えば、画像中の文字の色を容易かつ高精度に検出することが可能な画像処理プログラムを提供することができる。   If this aspect is followed, the image processing program which can detect the color of the character in an image easily and with high precision can be provided.

この発明のさらに他の局面によれば、画像処理プログラムは、カラー画像から文字が表された文字属性の文字領域を抽出するステップと、カラー画像から写真または図形が表された写真/図属性の写真/図領域を抽出するステップと、文字領域に含まれる文字を細線化するステップと、細線化された文字を構成する複数の文字中心画素それぞれの細線化する前の色に基づき、複数の文字中心画素それぞれを複数の色相階級のいずれかに分類するステップと、
複数の色相階級の度数分布に基づいて、文字領域の属性を文字属性以外の属性に変更するステップと、をコンピュータに実行させる。
According to still another aspect of the present invention, an image processing program extracts a character region having a character attribute representing characters from a color image, and a photo / graphic attribute representing a photograph or figure from a color image. A step of extracting a photo / figure region, a step of thinning characters included in the character region, and a plurality of characters based on the color before thinning of each of a plurality of character center pixels constituting the thinned character Classifying each central pixel into one of a plurality of hue classes;
And causing the computer to execute a step of changing the attribute of the character region to an attribute other than the character attribute based on the frequency distribution of the plurality of hue classes.

この局面に従えば、画像から文字が表された領域を抽出する精度を高めた画像処理プログラムを提供することができる。   If this aspect is followed, the image processing program which improved the precision which extracts the area | region where the character was represented from the image can be provided.

以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。   Embodiments of the present invention will be described below with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本発明の実施の形態の一つにおける画像形成システムの全体概要を示す図である。図1を参照して、画像形成システム1は、ネットワーク2にそれぞれ接続された画像処理装置としてのMFP(Multi Function Peripheral)100と、コンピュータ3,3A,3B,3Cと、それぞれがMFP100に接続されるデジタルカメラ4と、デジタルビデオカメラ5と、携帯情報端末6とを含む。   FIG. 1 is a diagram showing an overall outline of an image forming system according to one embodiment of the present invention. Referring to FIG. 1, an image forming system 1 includes an MFP (Multi Function Peripheral) 100 as an image processing apparatus connected to a network 2, and computers 3, 3 A, 3 B, and 3 C, each connected to the MFP 100. Digital camera 4, digital video camera 5, and portable information terminal 6.

MFP100は、原稿を読取るためのスキャナ、画像データに基づいて紙などの記録媒体に画像を形成するための画像形成部、ファクシミリを含み、画像読取機能、複写機能、ファクシミリ送受信機能を備えている。   MFP 100 includes a scanner for reading a document, an image forming unit for forming an image on a recording medium such as paper based on image data, and a facsimile, and includes an image reading function, a copying function, and a facsimile transmission / reception function.

コンピュータ3,3A,3B,3Cは、一般的なパーソナルコンピュータであり、MFP100を制御するためのプリンタドライバプログラムがインストールされている。コンピュータ3,3A,3B,3Cは、それらがアプリケーションプログラムを実行することにより、生成されるプリントデータまたは画像データを、MFP100に出力する。MFP100は、携帯情報端末6から入力されるプリントデータまたは画像データを画像処理する、または、そのプリントデータまたは画像データに基づいて、記録媒体に画像を形成する。さらに、コンピュータ3,3A,3B,3Cは、画像処理装置としても機能する。   Computers 3, 3 </ b> A, 3 </ b> B, and 3 </ b> C are general personal computers, and a printer driver program for controlling MFP 100 is installed. Computers 3, 3 </ b> A, 3 </ b> B, and 3 </ b> C output print data or image data generated when they execute an application program to MFP 100. MFP 100 performs image processing on print data or image data input from portable information terminal 6, or forms an image on a recording medium based on the print data or image data. Furthermore, the computers 3, 3A, 3B, 3C also function as image processing apparatuses.

デジタルカメラ4およびデジタルビデオカメラ5は、撮像した静止画像または動画像を記憶し、それらが接続されたMFP100に静止画像または動画像の画像データを出力する。MFP100は、入力される静止画像の画像データを画像処理する、また、静止画像の画像データに基づき用紙等の記録媒体に静止画像を形成する。また、動画像の画像データが入力される場合、1フレームの画像の画像データを画像処理する、また、1フレームの画像の画像データに基づき記録媒体に画像を形成する。携帯情報端末6は、コンピュータ3,3A,3B,3Cと同様に、それがアプリケーションプログラムを実行することにより生成されるデータまたは画像データを、MFP100に出力する。MFP100は、携帯情報端末6から入力されるデータまたは画像データを画像処理する、また、その画像データに基づいて、記録媒体に画像を形成する。   The digital camera 4 and the digital video camera 5 store captured still images or moving images, and output image data of the still images or moving images to the MFP 100 to which they are connected. The MFP 100 performs image processing on the input still image data, and forms a still image on a recording medium such as paper based on the still image data. When image data of a moving image is input, image data of one frame image is processed, and an image is formed on a recording medium based on the image data of one frame image. As with the computers 3, 3 A, 3 B, 3 C, the portable information terminal 6 outputs data or image data generated by executing an application program to the MFP 100. MFP 100 performs image processing on data or image data input from portable information terminal 6 and forms an image on a recording medium based on the image data.

ネットワーク2は、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワーク2は、LANに限らず、ワイドエリアネットワーク(WAN)、インターネット等であってもよい。   The network 2 is a local area network (LAN), and the connection form may be wired or wireless. The network 2 is not limited to a LAN, and may be a wide area network (WAN), the Internet, or the like.

図2は、MFPの外観を示す斜視図である。図2を参照して、MFP100は、自動原稿搬送装置(ADF)10と、画像読取部20と、画像形成部40と、給紙部50と、を含む。ADF10は、原稿台に搭載された複数枚の原稿をさばいて1枚ずつ順に、画像読取部20に搬送する。画像読取部20は、写真、文字、絵等の画像情報を原稿から光学的に読み取って画像データを取得する。画像形成部40は、画像データが入力されると、画像データに基づいて用紙上に画像を形成する。画像形成部40は、シアン、マゼンタ、イエロー、ブラックの4色のトナーを用いて画像を形成する。給紙部50は、用紙を格納しており、格納した用紙を1枚ずつ画像形成部40に供給する。MFP100は、その上面に操作パネル9を備える。   FIG. 2 is a perspective view showing the appearance of the MFP. Referring to FIG. 2, MFP 100 includes an automatic document feeder (ADF) 10, an image reading unit 20, an image forming unit 40, and a paper feeding unit 50. The ADF 10 handles a plurality of documents mounted on the document table, and sequentially conveys them to the image reading unit 20 one by one. The image reading unit 20 optically reads image information such as photographs, characters, pictures, and the like from a document and acquires image data. When the image data is input, the image forming unit 40 forms an image on a sheet based on the image data. The image forming unit 40 forms an image using toners of four colors, cyan, magenta, yellow, and black. The paper feed unit 50 stores paper and supplies the stored paper to the image forming unit 40 one by one. MFP 100 includes an operation panel 9 on the upper surface thereof.

図3は、MFPのハード構成の一例を示すブロック図である。図3を参照して、MFP100は、メイン回路101と、ファクシミリ部60と、通信制御部61と、ADF10と、画像読取部20と、画像処理部30と、画像形成部40と、給紙部50とを含む。メイン回路101は、中央演算装置(CPU)111と、CPU111の作業領域として使用されるRAM(Random Access Memory)112と、CPU111が実行するプログラム等を記憶するためのROM(Read Only Memory)113と、表示部114と、操作部115と、大容量記憶装置としてのハードディスクドライブ(HDD)116と、データ通信制御部117と、を含む。CPU111は、表示部114、操作部115、HDD116およびデータ通信制御部117とそれぞれ接続され、メイン回路101の全体を制御する。また、CPU111は、ファクシミリ部60、通信制御部61、ADF10、画像読取部20、画像処理部30、画像形成部40、給紙部50、と接続され、MFP100の全体を制御する。   FIG. 3 is a block diagram illustrating an example of a hardware configuration of the MFP. Referring to FIG. 3, MFP 100 includes main circuit 101, facsimile unit 60, communication control unit 61, ADF 10, image reading unit 20, image processing unit 30, image forming unit 40, and paper feeding unit. 50. The main circuit 101 includes a central processing unit (CPU) 111, a RAM (Random Access Memory) 112 used as a work area of the CPU 111, a ROM (Read Only Memory) 113 for storing programs executed by the CPU 111, and the like. A display unit 114, an operation unit 115, a hard disk drive (HDD) 116 as a mass storage device, and a data communication control unit 117. The CPU 111 is connected to the display unit 114, the operation unit 115, the HDD 116, and the data communication control unit 117, and controls the entire main circuit 101. The CPU 111 is connected to the facsimile unit 60, the communication control unit 61, the ADF 10, the image reading unit 20, the image processing unit 30, the image forming unit 40, and the paper feeding unit 50, and controls the entire MFP 100.

表示部114は、液晶表示装置(LCD)、有機ELD(Electro Luminescence Display)等の表示装置であり、ユーザに対する指示メニューや取得した画像データに関する情報等を表示する。操作部115は、複数のキーを備え、キーに対応するユーザの操作による各種の指示、文字、数字などのデータの入力を受付ける。操作部115は、表示部114上に設けられたタッチパネルを含む。表示部114と操作部115とで、操作パネル9が構成される。   The display unit 114 is a display device such as a liquid crystal display (LCD) or an organic ELD (Electro Luminescence Display), and displays an instruction menu for the user, information about acquired image data, and the like. The operation unit 115 includes a plurality of keys, and accepts input of various instructions, data such as characters and numbers by user operations corresponding to the keys. The operation unit 115 includes a touch panel provided on the display unit 114. The display unit 114 and the operation unit 115 constitute the operation panel 9.

データ通信制御部117は、TCP(Transmission Control Protocol)またはFTP(File Transfer Protocol)等の通信プロトコルで通信するためのインターフェースであるLAN端子118と、シリアル通信インターフェース端子119とを有する。データ通信制御部117は、CPU111からの指示に従って、LAN端子118またはシリアル通信インターフェース端子119に接続された外部の機器との間でデータを送受信する。   The data communication control unit 117 includes a LAN terminal 118 that is an interface for communicating with a communication protocol such as TCP (Transmission Control Protocol) or FTP (File Transfer Protocol), and a serial communication interface terminal 119. The data communication control unit 117 transmits / receives data to / from an external device connected to the LAN terminal 118 or the serial communication interface terminal 119 in accordance with an instruction from the CPU 111.

LAN端子118に、ネットワーク2に接続するためのLANケーブルが接続される場合、データ通信制御部117は、LAN端子118を介して接続された他のMFP、スキャナ、プリンタ、またはコンピュータ3,3A,3B,3Cと通信する。シリアル通信インターフェース端子119に機器が接続された場合、データ通信制御部117は、シリアル通信インターフェース端子119に接続された機器、例えば、デジタルカメラ4、デジタルビデオカメラ5または携帯情報端末6との間で通信して画像データを入出力する。また、シリアル通信インターフェース端子119には、フラッシュメモリを内蔵したメモリカード119Aが接続可能である。CPU111は、データ通信制御部117を制御して、メモリカード119AからCPU111または画像処理部30が実行するためのプログラムを読出し、読み出したプログラムをRAM112に記憶し、実行する。   When a LAN cable for connecting to the network 2 is connected to the LAN terminal 118, the data communication control unit 117 is connected to another MFP, scanner, printer, or computer 3, 3A, which is connected via the LAN terminal 118. Communicate with 3B, 3C. When a device is connected to the serial communication interface terminal 119, the data communication control unit 117 communicates with a device connected to the serial communication interface terminal 119, for example, the digital camera 4, the digital video camera 5, or the portable information terminal 6. Communicate and input / output image data. The serial communication interface terminal 119 can be connected to a memory card 119A incorporating a flash memory. The CPU 111 controls the data communication control unit 117 to read a program to be executed by the CPU 111 or the image processing unit 30 from the memory card 119A, and stores the read program in the RAM 112 and executes it.

なお、CPU111または画像処理部30が実行するためのプログラムを記憶する記録媒体としては、メモリカード119Aに限られず、フレキシブルディスク、カセットテープ、光ディスク(CD−ROM(Compact Disc−Read Only Memory)/MO(Magnetic Optical Disc/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード(メモリカードを含む)、光カード、マスクROM、EPROM(Erasable Programmable ROM)、EEPROM(Electronically EPROM)などの半導体メモリ等の媒体でもよい。さらに、CPU111がインターネットに接続されたコンピュータからプログラムをダウンロードしてHDD116に記憶する、または、インターネットに接続されたコンピュータがプログラムをHDD116に書込みするようにして、HDD116に記憶されたプログラムをRAM112にロードしてCPU111または画像処理部30で実行するようにしてもよい。ここでいうプログラムは、CPU111または画像処理部30により直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   A recording medium for storing a program to be executed by the CPU 111 or the image processing unit 30 is not limited to the memory card 119A, but a flexible disk, a cassette tape, an optical disk (CD-ROM (Compact Disc-Read Only Memory) / MO). (Magnetic Optical Disc / MD (Mini Disc) / DVD (Digital Versatile Disc)), IC card (including memory card), optical card, mask ROM, EPROM (Erasable Programmable ROM), EEPROM (Electrical ROM, etc.) Further, the CPU 111 may be programmed from a computer connected to the Internet. The program is downloaded and stored in the HDD 116, or the computer connected to the Internet writes the program in the HDD 116, and the program stored in the HDD 116 is loaded into the RAM 112 and executed by the CPU 111 or the image processing unit 30. The program here includes not only a program that can be directly executed by the CPU 111 or the image processing unit 30 but also a source program, a compressed program, an encrypted program, and the like.

通信制御部61は、CPU111をPSTN(Public Switched Telephone Networks)7に接続するためのモデムである。MFP100には、PSTN7における電話番号が予め割り当てられており、PSTN7に接続されたファクシミリ装置からMFP100に割り当てられた電話番号に発呼があると、通信制御部61がその発呼を検出する。通信制御部61は、発呼を検出すると通話を確立し、ファクシミリ部60に通信させる。   The communication control unit 61 is a modem for connecting the CPU 111 to a PSTN (Public Switched Telephony Networks) 7. The MFP 100 is assigned a telephone number in the PSTN 7 in advance. When a call is made from the facsimile apparatus connected to the PSTN 7 to the telephone number assigned to the MFP 100, the communication control unit 61 detects the call. When the communication control unit 61 detects a call, the communication control unit 61 establishes a call and causes the facsimile unit 60 to communicate.

ファクシミリ部60は、PSTN7に接続され、PSTN7にファクシミリデータを送信する、またはPSTN7からファクシミリデータを受信する。ファクシミリ部60は、受信したファクシミリデータを、CPU111に出力する。また、ファクシミリ部60は、受信したファクシミリデータを画像形成部40でプリント可能なプリントデータに変換して、画像形成部40に出力する。これにより、画像形成部40は、ファクシミリ部60により受信されたファクシミリデータを記録シートにプリントする。また、ファクシミリ部60は、HDD116に記憶された画像データをファクシミリデータに変換して、PSTN7に接続されたファクシミリ装置または他のMFPに出力する。これにより、HDD116に記憶されたデータをファクシミリ装置または他のMFPに出力することができる。なお、ファクシミリデータは画像データに含まれる。このように、MFP100は、ファクシミリ送受信機能を有する。   The facsimile unit 60 is connected to the PSTN 7 and transmits facsimile data to the PSTN 7 or receives facsimile data from the PSTN 7. The facsimile unit 60 outputs the received facsimile data to the CPU 111. The facsimile unit 60 converts the received facsimile data into print data that can be printed by the image forming unit 40 and outputs the print data to the image forming unit 40. As a result, the image forming unit 40 prints the facsimile data received by the facsimile unit 60 on a recording sheet. The facsimile unit 60 converts the image data stored in the HDD 116 into facsimile data, and outputs the facsimile data to a facsimile machine connected to the PSTN 7 or another MFP. As a result, the data stored in HDD 116 can be output to a facsimile machine or another MFP. The facsimile data is included in the image data. As described above, the MFP 100 has a facsimile transmission / reception function.

MFP100は、スキャナ機能を有し、画像読取部20が原稿を読み取って出力する画像データが、RAM112に一時的に記憶される。また、画像形成部40は、画像読取部20が原稿を読み取って出力する画像データに基づいて、用紙等の記録シート上に画像を形成する。このため、MFP100は、コピー機能を有する。さらに、データ通信制御部117は、ネットワーク2に接続された他のPC3、3A,3B,3Cのいずれかから受信した画像データ、または、シリアル通信インターフェース端子119に接続されたデジタルカメラ4、デジタルビデオカメラ5および携帯情報端末6のいずれかから受信された画像データをRAM112に一時的に記憶する。そして、RAM112に一時的に記憶された画像データに基づいて、用紙等の記録シート上に画像を形成する。このため、MFP100は、プリント機能を有する。   The MFP 100 has a scanner function, and image data that the image reading unit 20 reads and outputs a document is temporarily stored in the RAM 112. The image forming unit 40 forms an image on a recording sheet such as paper based on image data output by the image reading unit 20 reading a document. Therefore, the MFP 100 has a copy function. Further, the data communication control unit 117 receives image data received from any of the other PCs 3, 3A, 3B, 3C connected to the network 2, or the digital camera 4 connected to the serial communication interface terminal 119, the digital video. Image data received from either the camera 5 or the portable information terminal 6 is temporarily stored in the RAM 112. Then, an image is formed on a recording sheet such as paper based on the image data temporarily stored in the RAM 112. Therefore, MFP 100 has a print function.

画像処理部30は、RAM112に記憶された画像データを画像処理する。画像処理部30は、MFP100がスキャナ機能またはコピー機能を能動化する場合には、画像読取部20が原稿を読み取って出力する画像データを画像処理する。また、画像処理部30は、MFP100がファクシミリ機能を能動化する場合には、ファクシミリ部60が受信するファクシミリデータ(画像データ)を画像処理する。さらに、画像処理部30は、データ通信制御部117が、ネットワーク2に接続された他のPC3、3A,3B,3C、スキャナ、MFPのいずれかから受信した画像データ、またはシリアル通信インターフェース端子119に接続されたデジタルカメラ4、デジタルビデオカメラ5および携帯情報端末6のいずれかから受信された画像データを画像処理する。   The image processing unit 30 performs image processing on the image data stored in the RAM 112. When the MFP 100 activates the scanner function or the copy function, the image processing unit 30 performs image processing on image data output by the image reading unit 20 reading a document. Further, when MFP 100 activates the facsimile function, image processing unit 30 performs image processing on facsimile data (image data) received by facsimile unit 60. Further, the image processing unit 30 is connected to the image data received by the data communication control unit 117 from any of the other PCs 3, 3 A, 3 B, 3 C, scanner, and MFP connected to the network 2, or to the serial communication interface terminal 119. Image data received from any of the connected digital camera 4, digital video camera 5, and portable information terminal 6 is subjected to image processing.

図4は、画像処理部の機能の一例を示す機能ブロック図である。図4を参照して、画像処理部30は、画像データに前処理を実行し明度画像を出力する前処理部301と、明度画像から文字の表された文字領域を抽出する文字領域抽出部310と、文字領域の画像からノイズを除去するノイズ除去部320と、文字領域に含まれる文字の色を決定する文字色決定部330と、文字領域の画像を符号化する文字領域符号化部340と、明度画像から写真属性および図属性の領域をそれぞれ抽出する写真/図領域抽出部350と、写真属性および図属性の領域の画像を符号化する写真/図領域符号化部360と、符号データを統合する統合部370と、を含む。   FIG. 4 is a functional block diagram illustrating an example of functions of the image processing unit. Referring to FIG. 4, an image processing unit 30 performs preprocessing on image data and outputs a brightness image, and a character region extraction unit 310 that extracts a character region in which characters are represented from the brightness image. A noise removing unit 320 that removes noise from the character region image, a character color determining unit 330 that determines the color of the character included in the character region, and a character region encoding unit 340 that encodes the character region image. A photo / figure region extraction unit 350 that extracts a photo attribute and a graphic attribute region from the brightness image, a photo / figure region encoding unit 360 that encodes a photo attribute and a graphic attribute region, and encoded data And an integration unit 370 for integration.

本実施の形態においては、画像処理部30に入力される画像データは、1画素が赤(R)、緑(G)および青(B)の3つの値(8ビット)を含む24ビットの値を有するカラー画像である。   In the present embodiment, the image data input to the image processing unit 30 is a 24-bit value in which one pixel includes three values (8 bits) of red (R), green (G), and blue (B). Is a color image.

前処理部301は、カラー画像の下地部分を除去する下地除去処理と、下地の除去されたカラー画像を明度画像に変換する明度変換処理と、明度画像をスムージングするスムージング処理とを実行し、スムージング処理した明度画像を文字領域抽出部310および写真/図領域抽出部350に出力する。下地除去処理は、カラー画像の濃度の薄い下地色を除去し、コントラストを伸張する。これにより、カラー画像の傾向を整えることができる。明度変換処理は、カラー画像の各画素値(24ビット)に基づいて明度(8ビット)を算出し、明度画像を生成する。明度画像は、1画素が8ビットの値を有するグレースケールの画像である。明度画像を生成するのは、写真/図領域抽出部350および文字領域抽出部310で、明度画像を処理の対象としているからである。スムージング処理は、明度画像をスムージングする。スムージングすることにより、ノイズが除去されるので、写真/図領域抽出部350および文字領域抽出部310において領域を抽出する精度を向上させることができる。   The pre-processing unit 301 performs background removal processing for removing the background portion of the color image, lightness conversion processing for converting the color image from which the background is removed into a brightness image, and smoothing processing for smoothing the brightness image. The processed brightness image is output to the character region extraction unit 310 and the photograph / figure region extraction unit 350. The background removal process removes a background color having a low density in a color image and extends the contrast. Thereby, the tendency of a color image can be adjusted. In the brightness conversion process, brightness (8 bits) is calculated based on each pixel value (24 bits) of the color image, and a brightness image is generated. The brightness image is a grayscale image in which one pixel has an 8-bit value. The brightness image is generated because the brightness / image area extraction unit 350 and the character area extraction unit 310 set the brightness image as a processing target. In the smoothing process, the brightness image is smoothed. Since the noise is removed by the smoothing, it is possible to improve the accuracy of extracting a region in the photo / figure region extracting unit 350 and the character region extracting unit 310.

写真/図領域抽出部350の主目的は、文字、図、写真および表の表された領域を含んだカラー画像から図が表された領域および写真が表された領域を抽出することである。図が表された領域および写真が表された領域を抽出するのは、それらの領域は文字が含まれることが少ないからである。文字が含まれることが少ない図および写真の表された領域に対して文字抽出処理を行うと、図および写真の表された領域の一部を誤って文字と判定してしまうため、そのような誤判定を回避するためである。このため、本実施の形態においては、写真/図領域抽出部350において、図属性または写真属性と判定された領域の明度データを、文字領域抽出部310に入力しないようにしている。表の罫線については文字領域抽出部310において罫線除去を行い、罫線の位置情報を写真/図領域符号化部360に伝え、罫線を写真/図領域符号化部360で符号化する。   The main purpose of the photograph / drawing area extraction unit 350 is to extract the area where the figure is represented and the area where the photograph is represented from the color image including the area where the character, the figure, the photograph and the table are represented. The reason why the region where the figure is represented and the region where the photograph is represented is extracted because these regions rarely include characters. If character extraction processing is performed on an area where figures and photographs that contain few characters are included, a part of the area where figures and photographs are displayed will be erroneously determined as characters. This is to avoid erroneous determination. For this reason, in the present embodiment, the photo / figure region extraction unit 350 does not input the brightness data of the region determined to be a figure attribute or a photo attribute to the character region extraction unit 310. For the ruled lines in the table, the ruled line is removed by the character area extracting unit 310, the ruled line position information is transmitted to the photo / figure region encoding unit 360, and the ruled lines are encoded by the photo / figure region encoding unit 360.

写真/図領域抽出部350は、明度画像を2値化し、2値画像を生成する。そして、生成した2値画像をラベリングする。ラベリングは、2値画像で値が「1」の黒画素のうちで隣接する複数の画素の集合に外接する矩形をブロックとして抽出する処理である。ブロックを矩形とするのは、一般的に、写真、図形などは矩形の画像として原稿に表されることが多いからである。ラベリングにより抽出されたブロックは、それの画像データ中における位置を示す位置情報と関連付けられる。   The photograph / drawing region extraction unit 350 binarizes the brightness image and generates a binary image. Then, the generated binary image is labeled. Labeling is a process of extracting a rectangle circumscribing a set of a plurality of adjacent pixels among black pixels having a value of “1” in a binary image as a block. The reason why the block is rectangular is that, in general, a photograph, a figure, and the like are often displayed on a document as a rectangular image. The block extracted by labeling is associated with position information indicating its position in the image data.

さらに、写真/図領域抽出部350は、抽出されたブロックの大きさやそれぞれの明度画像の特徴量を算出し、ブロックの属性を判別する。複数のブロックが抽出された場合は、複数のブロックそれぞれの属性を判別する。属性は、明度画像のブロックに表されている対象を特定し、文字の表された文字属性と、図形の表された図属性と、写真の表された写真属性と、表属性とを含む。そして、写真/図領域抽出部350は、写真属性または図属性のブロックの位置情報を写真画像符号化部360と文字領域抽出部310に出力する。位置情報は、例えば、画像データにおけるブロックの対角の画素の座標である。   Further, the photograph / figure region extraction unit 350 calculates the size of the extracted block and the feature amount of each brightness image, and determines the attribute of the block. When a plurality of blocks are extracted, the attribute of each of the plurality of blocks is determined. The attribute specifies the object represented in the block of the brightness image, and includes a character attribute represented by a character, a figure attribute represented by a graphic, a photo attribute represented by a photograph, and a table attribute. Then, the photograph / figure region extraction unit 350 outputs the position information of the block of the photograph attribute or the diagram attribute to the photograph image encoding unit 360 and the character region extraction unit 310. The position information is, for example, the coordinates of the diagonal pixels of the block in the image data.

図5は、文字領域抽出部の詳細な機能を示す機能ブロック図である。図5を参照して、文字領域抽出部310は、明度画像からエッジを抽出し、エッジ画像を生成するエッジ画像生成部311と、抽出されたエッジで構成される線からエッジ画像の傾きを補正する傾き補正部312と、傾きが補正されたエッジ画像から罫線を除去する罫線除去部313と、エッジ画像から文字領域の候補となるブロックを抽出する候補ブロック抽出部314と、ブロックのエッジ画像が文字属性か否かを判定する判定部315と、文字属性とされたブロックを文字領域に決定する文字領域決定部316と、文字属性でないと判定されたブロックを写真属性の領域に変更する第1属性変更部317と、を含む。   FIG. 5 is a functional block diagram showing detailed functions of the character area extraction unit. Referring to FIG. 5, the character region extraction unit 310 extracts an edge from the brightness image, corrects the inclination of the edge image from the edge image generation unit 311 that generates the edge image, and a line composed of the extracted edges. An inclination correction unit 312, a ruled line removal unit 313 that removes a ruled line from the edge image whose inclination is corrected, a candidate block extraction unit 314 that extracts a block that is a candidate for a character region from the edge image, and an edge image of the block A determination unit 315 that determines whether or not a character attribute is present, a character region determination unit 316 that determines a block that is a character attribute as a character region, and a first that changes a block that is determined not to be a character attribute to a region of a photo attribute Attribute change unit 317.

エッジ画像生成部311は、前処理部301が出力する明度画像が入力され、明度画像を、例えば微分フィルタを用いてフィルタ処理することにより、エッジ画像を生成する。エッジ画像は、明度画像において、画素の値が、周辺の画素の値と所定の差のある画素をエッジ画素(値が「1」)として含む。傾き補正部312は、抽出されたエッジ画素で構成される線が、水平または垂直となるように、エッジ画像を回転させる。これにより、次の罫線除去部313による罫線の検出精度が向上する。罫線除去部313は、エッジ画像から罫線を検出し、その罫線をエッジ画像から除去する。判定部315における文字判定の精度を向上させるためである。また、エッジ画像の罫線に対応する部分の周辺の明度データを調べ、罫線領域を決定し、罫線の位置情報を写真/図領域符号化部360に出力する。   The edge image generation unit 311 receives the brightness image output from the preprocessing unit 301 and generates an edge image by filtering the brightness image using, for example, a differential filter. The edge image includes, as edge pixels (value is “1”), in the brightness image, the pixel value has a predetermined difference from the values of surrounding pixels. The inclination correction unit 312 rotates the edge image so that the line formed by the extracted edge pixels is horizontal or vertical. Thereby, the detection accuracy of the ruled line by the next ruled line removing unit 313 is improved. The ruled line removal unit 313 detects a ruled line from the edge image and removes the ruled line from the edge image. This is to improve the accuracy of character determination in the determination unit 315. Further, the brightness data around the part corresponding to the ruled line of the edge image is examined, the ruled line area is determined, and the position information of the ruled line is output to the photo / figure area encoding unit 360.

候補ブロック抽出部314は、エッジ画像中から文字領域の候補となる候補ブロックを抽出する。具体的には、まず行間を処理対象から除外する。行間は、エッジ画像の主走査方向(X軸方向)の画素値がすべて「0」のラインである。エッジ画像の行間以外の画素で、近傍のエッジ画素(値が「1」の画素)を連結することにより、連結されたエッジ画素の集合に外接する矩形を候補ブロックとして抽出する。候補ブロックは、画像中で、1行の文字列の外接矩形に相当する。   The candidate block extraction unit 314 extracts candidate blocks that are candidates for character regions from the edge image. Specifically, the line spacing is first excluded from the processing target. Between the lines, the pixel values in the main scanning direction (X-axis direction) of the edge image are all “0” lines. By connecting neighboring edge pixels (pixels having a value of “1”) with pixels other than between the rows of the edge image, a rectangle circumscribing the set of connected edge pixels is extracted as a candidate block. The candidate block corresponds to a circumscribed rectangle of a character string in one line in the image.

判定部315は、抽出された候補ブロックが、文字属性か否かを判定する。判定方法は、例えば、候補ブロックの縦横比、横方向の長さ、縦方向の長さ、候補ブロックのエッジ画像におけるエッジ画素の占める割合等を基に判定するようにすればよい。判定部315は、候補ブロック抽出部314により複数の候補ブロックが抽出された場合には、複数の候補ブロックそれぞれを判定する。   The determination unit 315 determines whether or not the extracted candidate block has a character attribute. The determination method may be determined based on, for example, the aspect ratio of the candidate block, the length in the horizontal direction, the length in the vertical direction, the ratio of edge pixels in the edge image of the candidate block, and the like. When a plurality of candidate blocks are extracted by the candidate block extraction unit 314, the determination unit 315 determines each of the plurality of candidate blocks.

文字領域決定部316は、判定部315により文字属性と判定された候補ブロックを文字領域に決定し、文字領域の画像データ中の位置を示す位置情報をノイズ除去部320に出力する。第1属性変更部317は、判定部315により文字属性と判定されなかった候補ブロックを写真領域に変更し、候補ブロックの画像データ中の位置を示す位置情報を写真/図領域符号化部360に出力する。   The character region determination unit 316 determines the candidate block determined as the character attribute by the determination unit 315 as the character region, and outputs position information indicating the position of the character region in the image data to the noise removal unit 320. The first attribute changing unit 317 changes a candidate block that has not been determined to be a character attribute by the determining unit 315 to a photo area, and sends position information indicating the position of the candidate block in the image data to the photo / figure area encoding unit 360. Output.

図6は、ノイズ除去部320の詳細な機能を示す機能ブロック図である。図6を参照して、ノイズ除去部320は、文字領域抽出部310から文字領域の位置情報が入力され、前処理部301から明度画像が入力される。ノイズ除去部320は、明度画像の文字領域に含まれる複数の画素の画素値に基づいて明度ヒストグラムを生成するための明度ヒストグラム生成部321と、ノイズおよび背景を除去するための網点・背景除去部323と、文字領域の属性を写真属性に変更する第2属性変更部325とを含む。   FIG. 6 is a functional block diagram showing detailed functions of the noise removing unit 320. Referring to FIG. 6, noise removal unit 320 receives character region position information from character region extraction unit 310 and brightness image from preprocessing unit 301. The noise removing unit 320 includes a lightness histogram generating unit 321 for generating a lightness histogram based on the pixel values of a plurality of pixels included in the character area of the lightness image, and a halftone dot / background removal for removing noise and background. Part 323 and a second attribute changing part 325 for changing the attribute of the character area to a photo attribute.

網点のノイズは、明度が低い。このため、網点・背景除去部323は、明度画像の文字領域に含まれる複数の画素のうちで所定のしきい値より明度の低い画素を、網点のノイズとして除去する。具体的には、しきい値より明度の低い画素の画素値を「0」にする。さらに、明度画像の文字領域に文字が表されている場合、文字領域に含まれる画素は、文字を構成する画素または背景を構成する画素のいずれかである。文字と背景とでは明度が異なる。このため、明度ヒストグラムは、文字の明度で度数が高くなり、背景の明度で度数が高くなる。複数色の文字を含む場合、複数色それぞれの文字を構成する画素の明度で度数が高くなる。また、背景は、明度が高く、文字は明度が低い。したがって、ノイズ除去部320は、ヒストグラムの度数から文字の明度と背景の明度との間に背景除去のためのしきい値を設定し、明度画像を2値化し、2値画像を生成する。具体的には、明度画像の文字領域に含まれる複数の画素のうちで背景除去のためのしきい値よりも明度の高い画素の画素値を「0」にし、他の画像の値を「1」にする。網点・背景除去部323は、文字領域の位置情報と2値画像とを、文字色決定部330および文字領域符号化部340に出力する。   Halftone noise has low brightness. For this reason, the halftone dot / background removal unit 323 removes pixels having lightness lower than a predetermined threshold among a plurality of pixels included in the character area of the lightness image as halftone noise. Specifically, the pixel value of a pixel whose brightness is lower than the threshold value is set to “0”. Furthermore, when a character is represented in the character area of the brightness image, the pixel included in the character area is either a pixel constituting the character or a pixel constituting the background. The brightness differs between the character and the background. For this reason, in the brightness histogram, the frequency increases with the brightness of the character, and the frequency increases with the brightness of the background. In the case of including characters of a plurality of colors, the frequency increases with the brightness of the pixels constituting each character of the plurality of colors. In addition, the background has high lightness and the characters have low lightness. Therefore, the noise removal unit 320 sets a threshold for background removal between the lightness of the character and the lightness of the background from the frequency of the histogram, and binarizes the lightness image to generate a binary image. Specifically, among the plurality of pixels included in the character area of the brightness image, the pixel value of the pixel having a brightness higher than the threshold for background removal is set to “0”, and the values of the other images are set to “1”. " The halftone dot / background removal unit 323 outputs the character region position information and the binary image to the character color determination unit 330 and the character region encoding unit 340.

網点・背景除去部323は、背景除去のためのしきい値を設定することができない場合がある。明度画像の文字領域に写真または図が表されている場合である。したがって、網点・背景除去部323は、背景除去のためのしきい値を設定することができない場合、第2属性変更部にエラー信号を出力する。第2属性変更部325は、網点・背景除去部323からエラー信号が入力されると、文字領域の属性を写真領域に変更し、文字領域の画像データ中の位置を示す位置情報を写真/図領域符号化部360に出力する。   The halftone dot / background removal unit 323 may not be able to set a threshold for background removal. This is a case where a photograph or a figure is represented in the character area of the brightness image. Therefore, the halftone / background removal unit 323 outputs an error signal to the second attribute change unit when the threshold for background removal cannot be set. When an error signal is input from the halftone dot / background removal unit 323, the second attribute change unit 325 changes the attribute of the character area to a photo area, and displays position information indicating the position of the character area in the image data. It outputs to the figure area | region encoding part 360. FIG.

図7は、文字色決定部の詳細な機能を示す機能ブロック図である。図7を参照して、文字色決定部330は、ノイズ除去部320から2値画像と位置情報とが入力され、カラー画像が入力される。文字色決定部330は、2値画像に含まれる文字の線幅を細くする細線化部331と、カラー画像中における細線の画素値から色相ヒストグラムを生成する色相ヒストグラム生成部332と、ノイズ色相除去部333と、隣接色相統合部334と、第3属性変更部335と、代表色相選択部336と、第4属性変更部337と、文字色算出部338とを含む。   FIG. 7 is a functional block diagram showing detailed functions of the character color determining unit. Referring to FIG. 7, character color determination unit 330 receives a binary image and position information from noise removal unit 320, and receives a color image. The character color determination unit 330 includes a thinning unit 331 that narrows the line width of characters included in the binary image, a hue histogram generation unit 332 that generates a hue histogram from pixel values of the thin lines in the color image, and noise hue removal. A section 333, an adjacent hue integration section 334, a third attribute change section 335, a representative hue selection section 336, a fourth attribute change section 337, and a character color calculation section 338.

細線化部331は、2値画像において主走査方向に連続して配置された黒画素のうちから中心の画素を主走査方向中心画素として抽出し、主走査方向と交わる副走査方向に連続して配置された黒画素のうちから中心の画素を副走査方向中心画素として抽出する。そして、抽出した主走査方向中心画素と、副走査方向中心画素とを文字を構成する文字中心画素に決定する。図8は、文字「A」を含む2値画像の一例を示す図である。文字を構成する画素をハッチングで示している。図9(A)は、主走査方向中心画素の一例を示す図である。図8に示した2値画像から抽出された主走査方向中心画素を、ハッチングで示している。図9(B)は、副主走査方向中心画素の一例を示す図である。図8に示した2値画像から抽出された副走査方向中心画素をハッチングで示している。図9(C)は、文字中心画素の一例を示す図である。文字中心画素は、図9(A)に示した主走査方向中心画素と、図9(B)に示した副走査方向中心画素とを含み、それをハッチングして示している。   The thinning unit 331 extracts the central pixel from the black pixels continuously arranged in the main scanning direction in the binary image as the central pixel in the main scanning direction, and continuously in the sub-scanning direction intersecting with the main scanning direction. A central pixel is extracted from the arranged black pixels as a central pixel in the sub-scanning direction. Then, the extracted central pixel in the main scanning direction and the central pixel in the sub-scanning direction are determined as character central pixels constituting the character. FIG. 8 is a diagram illustrating an example of a binary image including the character “A”. Pixels constituting the character are indicated by hatching. FIG. 9A is a diagram illustrating an example of the central pixel in the main scanning direction. The central pixel in the main scanning direction extracted from the binary image shown in FIG. 8 is indicated by hatching. FIG. 9B is a diagram illustrating an example of the central pixel in the sub main scanning direction. The center pixel in the sub-scanning direction extracted from the binary image shown in FIG. 8 is indicated by hatching. FIG. 9C is a diagram illustrating an example of the character center pixel. The character center pixel includes the main scanning direction center pixel shown in FIG. 9A and the sub-scanning direction center pixel shown in FIG. 9B, and is hatched.

図7に戻って、細線化部331は、文字中心画素の値を「1」とし、他の画素の値を「0」にした2値画像を色相ヒストグラム生成部332に出力する。上述したように、スキャナの特性からそれが出力する画像中の黒以外の色の文字の輪郭の色が、文字の中心の色と異なるため、文字の色を文字の中心を構成する色から判定するためである。文字の主走査方向の中心の画素と、副走査方法の中心の画素とを抽出する簡単な処理で文字中心画素を抽出することができるので、処理速度が向上する。さらに、処理対象とする画素の数が少なくなるので、後の処理の速度を早くすることができる。   Returning to FIG. 7, the thinning unit 331 outputs a binary image in which the value of the character center pixel is “1” and the values of the other pixels are “0” to the hue histogram generation unit 332. As described above, because the color of the outline of the non-black character in the image that it outputs is different from the color of the center of the character, the character color is determined from the color that forms the center of the character. It is to do. Since the character center pixel can be extracted by a simple process of extracting the center pixel in the main scanning direction of the character and the center pixel of the sub-scanning method, the processing speed is improved. Furthermore, since the number of pixels to be processed is reduced, the speed of subsequent processing can be increased.

また、中心画素を文字の輪郭部分を除いた画素とするようにしてもよい。この場合、細線化部331は、2値画像において主走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素を第1候補画素として抽出し、副走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素を第2候補画素として抽出する。そして、第1候補画素および第2候補画素のいずれでもある画素を文字中心画素に決定する。所定数は、文字の太さ、スキャナの読取解像度により定めるようにすればよい。この場合においても、文字の輪郭部分の画素を除去する簡単な処理で文字中心画素を抽出することができるので、処理速度が向上する。さらに、処理対象とする画素の数が少なくなるので、後の処理の速度を早くすることができる。   The central pixel may be a pixel excluding the outline portion of the character. In this case, the thinning unit 331 extracts at least one pixel obtained by removing a predetermined number of pixels from both ends of a plurality of black pixels continuously arranged in the main scanning direction in the binary image as a first candidate pixel, At least one pixel obtained by removing a predetermined number of pixels from both ends of a plurality of black pixels continuously arranged in the sub-scanning direction is extracted as a second candidate pixel. Then, the pixel that is both the first candidate pixel and the second candidate pixel is determined as the character center pixel. The predetermined number may be determined by the thickness of the character and the reading resolution of the scanner. Even in this case, since the character center pixel can be extracted by a simple process of removing the pixels in the outline portion of the character, the processing speed is improved. Furthermore, since the number of pixels to be processed is reduced, the speed of subsequent processing can be increased.

色相ヒストグラム生成部332は、細線化部331から入力される2値画像で値が「1」の画素のカラー画像の画素値に基づいて、色相ヒストグラムを生成する。換言すれば、細線化された文字(文字中心画素)の細線化する前の色に基づき、細線化された文字(文字中心画素)を複数の色相階級のいずれかに分類する。具体的には、2値画像中の処理対象とする画素の位置と、2値化画像の位置情報とから処理対象とする画素に対応するカラー画像中の画素の画素値を取得する。カラー画像中の画素の画素値は、RGB値を有するため、このRGB値をHSL表色系に変換する。そして、色相(H)に基づいて、色相ヒストグラムを生成する。ただし、彩度(S)が所定の値よりも低い場合、明度(L)をしきい値と比較し、白または黒のいずれかの階級に分類する。ここでは、色相ヒストグラムは、色相を32等分した32区間の階級と、白の階級と、黒の階級とを含む。図10に、色相ヒストグラムの階級の一例を示す。   The hue histogram generation unit 332 generates a hue histogram based on the pixel value of the color image of the pixel having the value “1” in the binary image input from the thinning unit 331. In other words, the thinned character (character center pixel) is classified into one of a plurality of hue classes based on the color before thinning of the thinned character (character center pixel). Specifically, the pixel value of the pixel in the color image corresponding to the pixel to be processed is acquired from the position of the pixel to be processed in the binary image and the position information of the binarized image. Since the pixel value of the pixel in the color image has an RGB value, the RGB value is converted into the HSL color system. Then, a hue histogram is generated based on the hue (H). However, when the saturation (S) is lower than a predetermined value, the lightness (L) is compared with a threshold value and classified into either a white or black class. In this case, the hue histogram includes a class of 32 sections obtained by dividing the hue into 32 equal parts, a white class, and a black class. FIG. 10 shows an example of the class of the hue histogram.

ノイズ色相除去部333は、色相ヒストグラム生成部332により生成された色相ヒストグラムにおいて、最大度数を基準に第1しきい値を設定し、第1しきい値以下の度数の階級に振り分けられた画素をノイズとみなし、その画素を処理対象から除外する。ノイズを除去することにより、文字の色の検出精度を向上させることができる。図11は、色相ヒストグラムの一例を示す第1の図である。図11を参照して、度数が1以上の12の階級が存在する。色相の階級「10」で度数が最大の「2500」である。図12は、色相ヒストグラムの一例を示す第2の図である。第1しきい値を、最大度数の30%の「750」としている。図13は、色相ヒストグラムの一例を示す第3の図である。図13は、ノイズ色相を除去した後の色相ヒストグラムを示す。ノイズ色相を除去することにより、4階級の色相に限定される。   The noise hue removing unit 333 sets the first threshold value based on the maximum frequency in the hue histogram generated by the hue histogram generating unit 332, and the pixels distributed to the frequency class equal to or lower than the first threshold value. It is regarded as noise and the pixel is excluded from the processing target. By removing noise, it is possible to improve the accuracy of character color detection. FIG. 11 is a first diagram illustrating an example of a hue histogram. Referring to FIG. 11, there are 12 classes whose frequency is 1 or more. The hue class is “10” and the frequency is “2500” which is the maximum. FIG. 12 is a second diagram illustrating an example of a hue histogram. The first threshold value is “750” which is 30% of the maximum frequency. FIG. 13 is a third diagram illustrating an example of a hue histogram. FIG. 13 shows a hue histogram after removing the noise hue. By removing the noise hue, the hue is limited to the 4th class hue.

隣接色相統合部334は、第1のしきい値を超える度数の階級を、代表色相選択部336に出力する。また、第1しきい値を超える度数の階級が連続する場合、連続する階級を統合した1つの階級を、代表色相選択部336に出力する。具体的には、連続する階級のうち度数が最大の階級に統合する。図14は、色相ヒストグラムの一例を示す第4の図である。図14は、階級「29」と階級「30」とを階級「30」に統合した後の色相ヒストグラムを示す。これにより、色相の統合により3階級の色相に限定される。   The adjacent hue integration unit 334 outputs a class having a frequency exceeding the first threshold value to the representative hue selection unit 336. In addition, when classes having a frequency exceeding the first threshold value continue, one class obtained by integrating the consecutive classes is output to the representative hue selection unit 336. Specifically, it integrates into the class with the highest frequency among consecutive classes. FIG. 14 is a fourth diagram illustrating an example of a hue histogram. FIG. 14 shows a hue histogram after the class “29” and the class “30” are integrated into the class “30”. Thereby, it is limited to the hue of the 3rd class by the integration of the hue.

ただし、隣接色相統合部334は、第1しきい値を超える度数の階級が第2のしきい値以上連続する場合、位置情報で特定される文字領域が、文字以外のもの(写真、図形、罫線など)が表わされた領域と判断し、第3属性変更部335にエラー信号を出力する。第2のしきい値は、色相ヒストグラムの階級数により定まり、色相を32等分して32階級とする場合には、4階級とすれば、良好な結果が得られる。   However, when the frequency class exceeding the first threshold value continues for the second threshold value or more, the adjacent hue integration unit 334 determines that the character region specified by the position information is other than characters (photograph, figure, A ruled line or the like) is output, and an error signal is output to the third attribute changing unit 335. The second threshold value is determined by the number of classes in the hue histogram, and when the hue is divided into 32 equal parts to obtain the 32nd class, good results can be obtained if the fourth class is used.

第3属性変更部335は、隣接色相統合部334からエラー信号が入力されると、文字領域の属性を写真領域に変更し、文字領域の画像データ中の位置を示す位置情報を写真/図領域符号化部360に出力する。   When the error signal is input from the adjacent hue integration unit 334, the third attribute change unit 335 changes the attribute of the character region to a photo region, and displays position information indicating the position of the character region in the image data as a photo / figure region. The data is output to the encoding unit 360.

代表色相選択部336は、隣接色相統合部334から入力される階級の色相を、文字領域に含まれる文字の色相に決定し、入力された階級を文字色算出部338に出力する。隣接色相統合部334から複数の階級が入力される場合、複数の階級それぞれの色相を代表色相として決定する。ただし、代表色相選択部336は、隣接色相統合部334から第3のしきい値以上の階級が入力される場合、位置情報で特定される文字領域が、文字でなく写真または図形が表された領域と判断し、第4属性変更部337にエラー信号を出力する。第3のしきい値は、文字領域に含まれる文字の色数の上限であり、第3のしきい値を4とすれば良好な結果が得られる。   The representative hue selection unit 336 determines the hue of the class input from the adjacent hue integration unit 334 as the hue of the character included in the character area, and outputs the input class to the character color calculation unit 338. When a plurality of classes are input from the adjacent hue integration unit 334, the hues of the plurality of classes are determined as representative hues. However, the representative hue selection unit 336 displays a photograph or a figure instead of a character in the character area specified by the position information when a class higher than the third threshold value is input from the adjacent hue integration unit 334. An area is determined, and an error signal is output to the fourth attribute changing unit 337. The third threshold value is the upper limit of the number of colors of characters included in the character area. If the third threshold value is 4, good results can be obtained.

第4属性変更部337は、代表色相選択部336からエラー信号が入力されると、文字領域の属性を写真領域に変更し、文字領域の画像データ中の位置を示す位置情報を写真/図領域符号化部360に出力する。   When an error signal is input from the representative hue selection unit 336, the fourth attribute change unit 337 changes the attribute of the character region to a photo region, and displays position information indicating the position of the character region in the image data as a photo / figure region. The data is output to the encoding unit 360.

文字色算出部338は、代表色相選択部336から入力された階級に振り分けられた複数の画素のカラー画像の画素値から文字色を算出し、算出した文字色を文字領域符号化部340に出力する。具体的には、複数の画素のRGB値の平均を算出し、文字色とする。代表色相選択部336から複数の階級が入力される場合、複数の階級毎に文字色を算出する。   The character color calculation unit 338 calculates the character color from the pixel values of the color image of the plurality of pixels distributed to the class input from the representative hue selection unit 336, and outputs the calculated character color to the character region encoding unit 340. To do. Specifically, an average of RGB values of a plurality of pixels is calculated and set as a character color. When a plurality of classes are input from the representative hue selection unit 336, the character color is calculated for each of the plurality of classes.

図15は、文字領域符号化部の詳細な機能を示す機能ブロック図である。図15を参照して、文字領域符号化部340は、ノイズ除去部320から2値画像と位置情報とが入力され、文字色決定部330から文字色が入力され、カラー画像が入力される。文字領域符号化部340は、文字色別の2値画像を生成する文字色別2値画像生成部341と、文字色別の2値画像を圧縮符号化する文字色別符号化部343とを含む。文字色別2値画像生成部341は、2値画像のうち画素値が「1」の画素のうちからカラー画像の画素値が文字色に近い画素を抽出することにより、その文字色に対応する文字色別2値画像を生成する。カラー画像の画素値が文字色と近いか否かは、カラー画像の画素値と文字色との間のRGB色空間における距離が所定の範囲にあるか否かにより判断すればよい。   FIG. 15 is a functional block diagram showing detailed functions of the character area encoding unit. Referring to FIG. 15, character region encoding unit 340 receives a binary image and position information from noise removal unit 320, receives a character color from character color determination unit 330, and receives a color image. The character region encoding unit 340 includes: a character color-specific binary image generation unit 341 that generates a binary image for each character color; and a character color-specific encoding unit 343 that compresses and encodes a binary image for each character color. Including. The binary image generating unit 341 for each character color corresponds to the character color by extracting a pixel having a pixel value of the color image close to the character color from the pixels having the pixel value “1” in the binary image. A binary image for each character color is generated. Whether or not the pixel value of the color image is close to the character color may be determined by whether or not the distance in the RGB color space between the pixel value of the color image and the character color is within a predetermined range.

例えば、文字領域に「文字色別に圧縮」の7文字が含まれており、カラー画像において7文字のうち「文字色別」の4文字が赤色、「に」の1文字が黒色、および「圧縮」の2文字が青色の場合、文字領域符号化部340には、赤、黒および青の3つの文字色が入力される。文字色別2値画像生成部341は、赤色の文字色に対応する2値画像として、「文字色別」の4文字を含む文字色別2値化画像を生成し、黒色の文字色に対応する2値画像として、「に」の1文字を含む文字色別2値化画像を生成し、青色の文字色に対応する2値画像として、「圧縮」の2文字を含む文字色別2値化画像を生成する。文字色別2値画像生成部341は、文字色と、その文字色に対応する文字色別2値画像とを文字色別符号化部343に出力する。   For example, the character area includes seven characters “compressed by character color”, and among the seven characters in the color image, four characters “by character color” are red, one character “ni” is black, and “compressed” ”Is blue, three character colors of red, black, and blue are input to the character region encoding unit 340. The binary image generation unit 341 for each character color generates a binary image for each character color including four characters “for each character color” as a binary image corresponding to the red character color, and corresponds to the black character color. As a binary image to be generated, a binary image classified by character color including one character “ni” is generated, and as a binary image corresponding to a blue character color, binary by character color including two characters “compressed” Generate a digitized image. The character color-specific binary image generation unit 341 outputs the character color and the character color-specific binary image corresponding to the character color to the character color-specific encoding unit 343.

文字色別符号化部343は、文字色別2値画像を可逆圧縮方式で符号化し、符号データを生成する。そして、符号データと、文字色と、文字領域の位置情報とを統合部370に出力する。可逆圧縮方式は、いずれの方式を用いてもよいが、ここでは、MMR(Modified Modified Read)圧縮方式を用いる。   The character color encoding unit 343 encodes the character color binary image using a lossless compression method to generate code data. Then, the code data, the character color, and the position information of the character region are output to the integration unit 370. Any method may be used as the lossless compression method, but here, an MMR (Modified Modified Read) compression method is used.

図4に戻って、写真/図領域符号化部360は、文字以外(写真、図、罫線)のカラー画像を、非可逆圧縮方式で符号化し、符号データを生成する。圧縮方式は、非可逆圧縮方式であればよく、ここではJPEG(Joint Photographic Experts Group)方式を用いている。そして、符号データを統合部370に出力する。統合部370は、文字領域符号化部340から入力される符号データ、文字色および文字領域の位置情報と、写真/図領域符号化部360から入力される符号データとを併せて1つのファイルとして出力する。符号データは、それぞれ別々の符号データとして出力する。   Returning to FIG. 4, the photo / figure region encoding unit 360 encodes a color image other than characters (photos, diagrams, ruled lines) by the lossy compression method to generate code data. The compression method may be an irreversible compression method, and here, the JPEG (Joint Photographic Experts Group) method is used. Then, the code data is output to the integration unit 370. The integration unit 370 combines the code data input from the character region encoding unit 340, the character color and the position information of the character region, and the code data input from the photo / figure region encoding unit 360 as one file. Output. The code data is output as separate code data.

図16は、圧縮処理の流れの一例を示すフローチャートである。圧縮処理は、圧縮プログラムを実行する画像処理部30により実行される処理である。図16を参照して、画像処理部30は、画像データを受け付けたか否かを判断する(ステップS01)。画像データを受け付けるまで待機状態となり(ステップS01でNO)、画像データを受け付けたならば処理をステップS02に進める。すなわち、画像処理は、画像データを受け付けることにより実行される処理である。画像データは、CPU111からの指示により、画像処理部30が、RAM112から画像データを読み出すことにより受け付ける。画像データは、1画素がRGBの3つの値(8ビット)を含むカラー画像である。   FIG. 16 is a flowchart illustrating an example of the flow of compression processing. The compression process is a process executed by the image processing unit 30 that executes a compression program. Referring to FIG. 16, image processing unit 30 determines whether image data has been received (step S01). The process waits until image data is received (NO in step S01). If image data is received, the process proceeds to step S02. That is, the image processing is processing that is executed by receiving image data. The image data is received by the image processing unit 30 reading the image data from the RAM 112 in accordance with an instruction from the CPU 111. The image data is a color image in which one pixel includes three values of RGB (8 bits).

次に、カラー画像に前処理を実行することにより明度画像を生成し(ステップS02)、写真領域および図領域を抽出する写真/図領域抽出処理を実行し(ステップS03)、文字領域を抽出する文字領域抽出処理を実行する(ステップS04)。文字領域抽出処理については後述するが、ステップS02において抽出された明度画像から文字領域を抽出する。文字領域は、カラー画像中の位置を示す位置情報で特定される。文字領域抽出処理は、複数の文字領域が抽出される場合がある。   Next, a brightness image is generated by performing pre-processing on the color image (step S02), and a photo / figure region extraction process for extracting a photograph region and a diagram region is performed (step S03), thereby extracting a character region. Character area extraction processing is executed (step S04). The character region extraction process will be described later, but a character region is extracted from the brightness image extracted in step S02. The character area is specified by position information indicating a position in the color image. In the character area extraction process, a plurality of character areas may be extracted.

ステップS05〜ステップS08の処理は、1つの文字領域に対して実行される処理である。このため、複数の文字領域が抽出された場合は、それらのうち1つを処理対象に設定し、ステップS05以降の処理が実行される。ステップS05においては、ステップS02で生成された明度画像の文字領域からノイズを除去することにより明度画像の文字領域を2値画像に変換する。ノイズを除去できたか否かにより明度画像の文字領域が文字属性か否かを判断する(ステップS06)。文字属性ならば処理をステップS07に進め、文字属性でなければ処理をステップS10に進める。   The processes in steps S05 to S08 are executed for one character area. For this reason, when a plurality of character regions are extracted, one of them is set as a processing target, and the processing after step S05 is executed. In step S05, the character area of the brightness image is converted into a binary image by removing noise from the character area of the brightness image generated in step S02. It is determined whether or not the character area of the brightness image has a character attribute based on whether or not noise has been removed (step S06). If it is a character attribute, the process proceeds to step S07, and if it is not a character attribute, the process proceeds to step S10.

ステップS07においては、カラー画像の文字領域に含まれる文字の色を決定するための文字色決定処理を実行する。そして、カラー画像の文字領域に含まれる文字の色相の状態により、文字領域が文字属性か否かを判断する(ステップS08)。文字属性ならば処理をステップS09に進め、文字属性でなければ処理をステップS10に進める。   In step S07, a character color determination process for determining the color of the character included in the character region of the color image is executed. Then, it is determined whether or not the character area has a character attribute according to the state of the hue of the character included in the character area of the color image (step S08). If it is a character attribute, the process proceeds to step S09, and if it is not a character attribute, the process proceeds to step S10.

ステップS09においては、2値画像の文字領域を符号化するための文字領域符号化処理を実行し、処理をステップS10に進める。この段階で、2値画像の文字領域が圧縮符号化される。ステップS10においては、次に処理対象とするべき未処理の文字領域が存在するか否かを判断する。そのような文字領域が存在すればその文字領域を処理対象に設定し、処理をステップS05に戻すが、存在しなければ処理をステップS11に進める。   In step S09, a character area encoding process for encoding the character area of the binary image is executed, and the process proceeds to step S10. At this stage, the character area of the binary image is compression encoded. In step S10, it is determined whether there is an unprocessed character area to be processed next. If such a character area exists, the character area is set as a processing target, and the process returns to step S05. If the character area does not exist, the process proceeds to step S11.

ステップS11においては、ステップS03で抽出された写真/図領域と、ステップS04、ステップS05およびステップS07において文字ではないと判定された領域を圧縮符号化するための写真/図領域符号化処理を実行する。複数の写真/図領域が抽出された場合には、複数の写真/図領域毎に圧縮符号化する。このため、複数の写真/図領域のうち1つを処理対処に設定し、ステップS11を実行する。そして、次に処理対象とするべき未処理の写真/図領域が存在するか否かを判断する(ステップS12)。そのような写真/文字領域が存在すればその写真/文字領域を処理対象に設定し、処理をステップS11に戻すが、存在しなければ処理をステップS13に進める。   In step S11, the photo / figure region encoding process is performed to compress and encode the photo / figure region extracted in step S03 and the region determined not to be a character in step S04, step S05, and step S07. To do. When a plurality of photograph / figure areas are extracted, compression coding is performed for each of the plurality of photograph / figure areas. For this reason, one of the plurality of photograph / drawing areas is set to be processed, and step S11 is executed. Then, it is determined whether or not there is an unprocessed photo / drawing area to be processed next (step S12). If such a photograph / character area exists, the photograph / character area is set as a processing target, and the process returns to step S11. If not, the process proceeds to step S13.

ステップS13においては、ステップS09において2値画像の文字領域を符号化した符号データと、その文字領域の文字色と、その文字領域の位置情報と、ステップS11においてカラー画像の写真/文字領域を符号化した符号データとを統合し、1つの圧縮データを生成する。   In step S13, code data obtained by encoding the character area of the binary image in step S09, the character color of the character area, the position information of the character area, and the photograph / character area of the color image are encoded in step S11. The compressed code data is integrated to generate one compressed data.

図17は、前処理の流れの一例を示すフローチャートである。前処理は、図16のステップS02で実行される処理である。図17を参照して、カラー画像の下地部分を除去する(ステップS21)。カラー画像の濃度の薄い下地色を除去し、コントラストを伸張する。これにより、カラー画像の傾向を整えることができる。そして、下地の除去されたカラー画像を明度画像に変換する(ステップS22)。カラー画像の各画素値(24ビット)の値を明度(8ビット)に変換することにより、カラー画像を明度画像に変換する。次に、明度画像をスムージングする(ステップS23)。明度画像をスムージングすることにより、ノイズが除去されるので、後の処理の精度を向上させることができる。   FIG. 17 is a flowchart illustrating an example of the flow of preprocessing. The preprocessing is processing executed in step S02 in FIG. Referring to FIG. 17, the background portion of the color image is removed (step S21). Removes the background color with low density in the color image and extends the contrast. Thereby, the tendency of a color image can be adjusted. Then, the color image from which the background is removed is converted into a brightness image (step S22). By converting the value of each pixel value (24 bits) of the color image into lightness (8 bits), the color image is converted into a lightness image. Next, the brightness image is smoothed (step S23). Since the noise is removed by smoothing the brightness image, the accuracy of the subsequent processing can be improved.

図18は、写真/図領域抽出処理の流れの一例を示すフローチャートである。図18を参照して、図16のステップS02において生成した明度画像を2値化し、2値画像を生成する(ステップS31)。そして、生成した2値画像をラベリングする(ステップS32)。ラベリングにより、2値画像で値が「1」の複数の画素の集合に外接する矩形がブロックとして抽出される。2値画像から複数のブロックが抽出される場合がある。   FIG. 18 is a flowchart showing an example of the flow of the photograph / drawing area extraction process. Referring to FIG. 18, the brightness image generated in step S02 of FIG. 16 is binarized to generate a binary image (step S31). Then, the generated binary image is labeled (step S32). By labeling, a rectangle circumscribing a set of a plurality of pixels having a value of “1” in the binary image is extracted as a block. A plurality of blocks may be extracted from the binary image.

ステップS33〜ステップS35の処理は、1つのブロックに対して実行される処理である。このため、複数のブロックが抽出された場合は、それらのうち1つを処理対象に設定し、ステップS33以降の処理を実行する。ステップS33においては、ステップS31で生成された2値画像の処理対象ブロックの特徴量を算出する。そして、算出した特徴量から処理対象ブロックの属性を判別する。属性は、文字属性と、図属性と、写真属性と、下地属性とを含む。そして、ステップS34においては、処理対象ブロックの属性が、写属性または図属性であれば処理をステップS35に進め、そうでなければステップS35をスキップして処理をステップS36に進める。ステップS35においては、処理対象ブロックを、写真/文字領域と判断し、その処理対象ブロックの2値画像中の位置を示す位置情報を写真/文字領域の位置情報として記憶する。例えば、処理対象ブロックの対抗する2つの頂点の2値画像中の座標をRAM112の写真/文字領域の位置情報を格納する領域に記憶する。   The processes in steps S33 to S35 are processes executed for one block. For this reason, when a plurality of blocks are extracted, one of them is set as a processing target, and the processing after step S33 is executed. In step S33, the feature amount of the processing target block of the binary image generated in step S31 is calculated. Then, the attribute of the processing target block is determined from the calculated feature amount. The attributes include a character attribute, a figure attribute, a photograph attribute, and a background attribute. In step S34, if the attribute of the processing target block is a copy attribute or a graphic attribute, the process proceeds to step S35, and if not, step S35 is skipped and the process proceeds to step S36. In step S35, the processing target block is determined to be a photo / character area, and position information indicating the position of the processing target block in the binary image is stored as position information of the photo / character area. For example, the coordinates in the binary image of the two vertices opposed to the processing target block are stored in the area for storing the position information of the photo / character area in the RAM 112.

ステップS36においては、次に処理対象とするべき未処理のブロックが存在するか否かを判断する。そのようなブロックが存在すればそのブロックを処理対象に設定し、処理をステップS33に戻すが、存在しなければ処理を圧縮処理に戻す。   In step S36, it is determined whether there is an unprocessed block to be processed next. If such a block exists, the block is set as a processing target, and the process returns to step S33. If not, the process returns to the compression process.

図19は、文字領域抽出処理の流れの一例を示すフローチャートである。文字領域抽出処理は、図16のステップS04において実行される処理である。画像処理部30は、図16のステップS02において生成された明度画像を、例えば微分フィルタを用いてフィルタ処理することにより、エッジ画像を生成する(ステップS41)。そして、エッジ画像の傾きを補正する(ステップS42)。抽出されたエッジ画素で構成される線が、水平または垂直となるように、エッジ画像を回転させる。画像データが、画像読取部20から入力される場合があり、原稿が傾いて読み取られる場合があるからである。そして、エッジ画像から罫線を検出し、その罫線をエッジ画像から除去する(ステップS43)。次のステップS45における文字判定の精度を向上させるためである。   FIG. 19 is a flowchart illustrating an example of the flow of character area extraction processing. The character area extraction process is a process executed in step S04 in FIG. The image processing unit 30 generates an edge image by filtering the lightness image generated in step S02 of FIG. 16 using, for example, a differential filter (step S41). Then, the inclination of the edge image is corrected (step S42). The edge image is rotated so that the line composed of the extracted edge pixels is horizontal or vertical. This is because image data may be input from the image reading unit 20 and the document may be read while being tilted. Then, a ruled line is detected from the edge image, and the ruled line is removed from the edge image (step S43). This is to improve the accuracy of character determination in the next step S45.

次のステップS44においては、エッジ画像中から文字領域の候補となる候補ブロックを抽出する。具体的には、まず行間を処理対象から除外し、エッジ画像のエッジ画素を近傍のエッジ画素と連結することにより、連結された複数のエッジ画素の集合に外接する矩形を候補ブロックとして抽出する。候補ブロックは、画像中で、1行の文字列の外接矩形に相当する。複数の候補ブロックが抽出される場合がある。   In the next step S44, candidate blocks as character area candidates are extracted from the edge image. Specifically, first, a line space is excluded from the processing target, and edge pixels of the edge image are connected to neighboring edge pixels to extract a rectangle circumscribing a set of a plurality of connected edge pixels as a candidate block. The candidate block corresponds to a circumscribed rectangle of a character string in one line in the image. A plurality of candidate blocks may be extracted.

ステップS45〜ステップS48の処理は、1つの候補ブロックに対して実行される処理である。このため、複数の候補ブロックが抽出された場合は、それらのうち1つを処理対象に設定し、ステップS45以降の処理が実行される。ステップS45においては、処理対象の候補ブロックが、文字属性か否かを判定する。判定方法は、例えば、候補ブロックの縦横比、横方方向の長さ、縦方向の長さ、候補ブロックのエッジ画像におけるエッジ画素の占める割合等を基に判定する。処理対象の候補ブロックが文字属性ならば処理をステップS46に進めるが、そうでなければ処理をステップS47に進める。   The processes in steps S45 to S48 are executed for one candidate block. For this reason, when a plurality of candidate blocks are extracted, one of them is set as a processing target, and the processing after step S45 is executed. In step S45, it is determined whether the candidate block to be processed has a character attribute. The determination method is determined based on, for example, the aspect ratio of the candidate block, the length in the horizontal direction, the length in the vertical direction, the ratio of edge pixels in the edge image of the candidate block, and the like. If the candidate block to be processed is a character attribute, the process proceeds to step S46; otherwise, the process proceeds to step S47.

ステップS46においては、文字属性と判定された候補ブロックを、文字領域と判断し、その候補ブロックのエッジ画像中の位置を示す位置情報を文字領域の位置情報として記憶する。例えば、候補ブロックの対抗する2つの頂点のエッジ画像中の座標をRAM112の文字領域の位置情報を格納する領域に記憶する。   In step S46, the candidate block determined as the character attribute is determined as the character area, and the position information indicating the position of the candidate block in the edge image is stored as the position information of the character area. For example, the coordinates in the edge image of the two vertices opposed by the candidate block are stored in the area for storing the position information of the character area in the RAM 112.

一方、ステップS47においては、文字属性と判定されなかった候補ブロックの属性を写真属性に変更し、処理をステップS48に進める。具体的には、その候補ブロックのエッジ画像中の位置を示す位置情報を写真領域の位置情報として記憶するため、候補ブロックの位置情報をRAM112の写真領域の位置情報を格納する領域に記憶する。   On the other hand, in step S47, the attribute of the candidate block that has not been determined to be a character attribute is changed to a photo attribute, and the process proceeds to step S48. Specifically, in order to store the position information indicating the position of the candidate block in the edge image as the position information of the photograph area, the position information of the candidate block is stored in the area for storing the position information of the photograph area in the RAM 112.

ステップS48においては、次に処理対象とするべき未処理の候補ブロックが存在するか否かを判断する。そのような候補ブロックが存在すればその候補ブロックを処理対象に設定し、処理をステップS45に戻すが、存在しなければ処理を圧縮処理に戻す。   In step S48, it is determined whether there is an unprocessed candidate block to be processed next. If such a candidate block exists, the candidate block is set as a processing target, and the process returns to step S45. If not, the process returns to the compression process.

図20は、ノイズ除去処理の流れの一例を示すフローチャートである。ノイズ除去処理は、図16のステップS05において実行される処理である。図20を参照して、画像処理部30は、文字領域の位置情報をRAM112から読み出す(ステップS51)。そして、図16のステップS02で生成された明度画像の文字領域に含まれる複数の画素の画素値に基づいて明度ヒストグラムを生成する(ステップS52)。明度画像の文字領域に含まれる複数の画素のうちで所定のしきい値より明度の低い画素を、網点のノイズとして除去する(ステップS53)。具体的には、しきい値より明度の低い画素の画素値を「0」にする。さらに、ヒストグラムの度数から文字の明度と背景の明度との間に背景除去のためのしきい値を設定する(ステップS54)。しきい値を設定できたならば処理をステップS55に進めるが、しきい値を設定できない場合は処理をステップS57に進める。背景除去のためのしきい値を設定できない場合には、文字領域に文字でなく写真または図が表されている可能性が高いからである。   FIG. 20 is a flowchart illustrating an example of the flow of noise removal processing. The noise removal process is a process executed in step S05 in FIG. Referring to FIG. 20, the image processing unit 30 reads the position information of the character area from the RAM 112 (step S51). Then, a brightness histogram is generated based on the pixel values of a plurality of pixels included in the character area of the brightness image generated in step S02 of FIG. 16 (step S52). Of the plurality of pixels included in the character area of the brightness image, pixels having a brightness lower than a predetermined threshold are removed as halftone noise (step S53). Specifically, the pixel value of a pixel whose brightness is lower than the threshold value is set to “0”. Further, a threshold for background removal is set between the brightness of the character and the brightness of the background from the frequency of the histogram (step S54). If the threshold value can be set, the process proceeds to step S55. If the threshold value cannot be set, the process proceeds to step S57. This is because when the threshold value for background removal cannot be set, there is a high possibility that a photo or a figure is displayed in the character area instead of characters.

ステップS55においては、背景除去のためのしきい値を用いて、明度画像の文字領域を2値化し、2値画像を生成する。次のステップS56においては、生成した2値画像と位置情報とを関連付け、処理を圧縮処理に戻す。具体的には、その2値画像と位置情報との組をRAM112の所定の領域に記憶する。   In step S55, the character area of the brightness image is binarized using a threshold value for background removal, and a binary image is generated. In the next step S56, the generated binary image is associated with the position information, and the process returns to the compression process. Specifically, the set of the binary image and position information is stored in a predetermined area of the RAM 112.

一方、ステップS57においては、しきい値を設定できなかった文字領域の属性を写真属性に変更し、処理を圧縮処理に戻す。具体的には、その文字領域の位置情報をRAM112の写真領域の位置情報を格納する領域に記憶する。   On the other hand, in step S57, the attribute of the character area for which the threshold value could not be set is changed to a photo attribute, and the process returns to the compression process. Specifically, the position information of the character area is stored in an area for storing the position information of the photo area in the RAM 112.

図21は、文字色決定処理の流れの一例を示すフローチャートである。文字色決定処理は、図16のステップS07において実行される処理である。図21を参照して、画像処理部30は、2値画像と位置情報との組をRAM112から読み出す(ステップS61)。読み出した2値画像中の文字の線幅を細くするために細線化処理を実行する(ステップS62)。細線化処理が実行されることにより文字中心画素の値を「1」とし、他の画素の値を「0」にした2値画像が生成される。   FIG. 21 is a flowchart illustrating an example of the flow of character color determination processing. The character color determination process is a process executed in step S07 in FIG. Referring to FIG. 21, the image processing unit 30 reads a pair of a binary image and position information from the RAM 112 (step S61). Thinning processing is executed to narrow the line width of the characters in the read binary image (step S62). By executing the thinning process, a binary image in which the value of the character center pixel is “1” and the values of the other pixels are “0” is generated.

ステップS63においては、文字領域の色相ヒストグラムを生成する。ステップS61で読み出した位置情報は、カラー画像における文字領域の位置を示す。この位置情報からステップS62で生成された2値画像が含む各画素に対応するカラー画像中の画素を特定することができる。このため、ステップS62で生成され2値画像で値が「1」の画素に対応するカラー画像の画素の画素値に基づいて、色相ヒストグラムを生成する。ここでは、色相ヒストグラムは、色相を32等分した32区間の階級と、白の階級と、黒の階級とを含む。   In step S63, a hue histogram of the character area is generated. The position information read in step S61 indicates the position of the character area in the color image. From this position information, the pixel in the color image corresponding to each pixel included in the binary image generated in step S62 can be specified. Therefore, a hue histogram is generated based on the pixel value of the pixel of the color image corresponding to the pixel having the value “1” in the binary image generated in step S62. In this case, the hue histogram includes a class of 32 sections obtained by dividing the hue into 32 equal parts, a white class, and a black class.

そして、ノイズとなる色相の画素を処理対象から除去する(ステップS64)。具体的には、色相ヒストグラムにおいて、最大度数を基準に第1しきい値を設定し、第1しきい値以下の度数の階級に振り分けられた画素をノイズとみなし、その画素を処理対象から除外する。ノイズを除去することにより、文字の色の検出精度を向上させることができる。第1しきい値は、最大度数の30%とするのが好ましい。   Then, the pixel of the hue that causes noise is removed from the processing target (step S64). Specifically, in the hue histogram, a first threshold value is set based on the maximum frequency, pixels assigned to a frequency class lower than the first threshold value are regarded as noise, and the pixel is excluded from the processing target. To do. By removing noise, it is possible to improve the accuracy of character color detection. The first threshold value is preferably 30% of the maximum frequency.

次に、色相ヒストグラムにおいて第1のしきい値を超える度数の階級が3つ以上連続するか否かを判断する(ステップS65)。第1しきい値を超える度数の階級が3つ以上連続する場合、処理をステップS71に進めるが、そうでなければ処理をステップS66に進める。第1しきい値を超える度数の階級が3つ以上連続する場合、位置情報で特定される文字領域が、文字でなく写真または図形が表わされている可能性が高いからである。なお、第1しきい値を超える度数の階級が連続する最大のしきい値を2としたが、このしきい値は、これに限定されることなく、色相ヒストグラムの階級に応じて定めることができる。   Next, it is determined whether or not three or more frequency classes exceeding the first threshold value continue in the hue histogram (step S65). If three or more classes having a frequency exceeding the first threshold value continue, the process proceeds to step S71; otherwise, the process proceeds to step S66. This is because, when three or more classes having a frequency exceeding the first threshold value continue, there is a high possibility that the character area specified by the position information represents a photograph or a figure instead of characters. In addition, although the maximum threshold value with which the frequency class exceeding the first threshold value continues is 2, this threshold value is not limited to this and may be determined according to the class of the hue histogram. it can.

ステップS66においては、第1しきい値を超える度数の階級が連続する場合、連続する階級を度数が最大の代表色相の階級に統合する。これにより、文字色の近い画素を1つの代表色相の階級にすることで、文字色の数を少なくし、圧縮率を向上することができる。また、文字の輪郭部分と中央部分との色を同じ色とすることができ、文字の見栄えをよくすることができる。   In step S66, when the frequency class exceeding the first threshold value continues, the continuous class is integrated into the class of the representative hue having the maximum frequency. Thereby, the number of character colors can be reduced and the compression rate can be improved by making pixels close to the character color into one representative hue class. Moreover, the color of the outline part and center part of a character can be made into the same color, and the appearance of a character can be improved.

次のステップS67においては、代表色相の階級数が4以上か否かを判断する。代表色相の階級数が4以上であれば処理をステップS71に進め、そうでなければ処理をステップS68に進める。代表色相の階級数が4以上の場合、カラー画像が文字領域において4色以上を含むことになり、文字でなく写真または図形が表わされている可能性が高いからである。なお、代表色相の階級数が4以上の場合に文字領域を写真属性に変更するようにしたが、このしきい値「4」は、これに限定されることなく、色相ヒストグラムの階級に応じて定めることができる。   In the next step S67, it is determined whether the number of representative hues is 4 or more. If the number of representative hues is 4 or more, the process proceeds to step S71; otherwise, the process proceeds to step S68. This is because when the number of representative hues is 4 or more, the color image includes four or more colors in the character area, and there is a high possibility that a photograph or a figure is represented instead of characters. The character area is changed to the photo attribute when the number of classes of the representative hue is 4 or more. However, the threshold value “4” is not limited to this, and the character area is changed according to the class of the hue histogram. Can be determined.

ステップS68においては、文字色を算出する。文字色は、代表色相の階級に基づいて算出する。代表色相の階級が複数の場合、複数の代表色相の階級毎に文字色を算出するため、複数の代表色相の階級の1つを処理対象に設定する。そして、色相ヒストグラムにおいて、処理対象の代表色相の階級に振り分けられた複数の画素のカラー画像における画素値から文字色を算出する。文字色は、複数の画素のRGB値それぞれを平均したRGB値である。   In step S68, the character color is calculated. The character color is calculated based on the representative hue class. If there are a plurality of representative hue classes, one of the plurality of representative hue classes is set as a processing target in order to calculate a character color for each of the plurality of representative hue classes. Then, in the hue histogram, the character color is calculated from the pixel values in the color image of a plurality of pixels assigned to the representative hue class to be processed. The character color is an RGB value obtained by averaging the RGB values of a plurality of pixels.

次のステップS69においては、文字色と2値画像と位置情報とを関連付け、処理をステップS70に進める。具体的には、ステップS68で算出された文字色と、ステップS64でノイズが除去された2値画像と、位置情報との組をRAM112の所定の領域に記憶する。   In the next step S69, the character color, the binary image, and the position information are associated, and the process proceeds to step S70. Specifically, a set of the character color calculated in step S68, the binary image from which noise is removed in step S64, and the position information is stored in a predetermined area of the RAM 112.

次のステップS70においては、次に処理対象とするべき未処理の代表色相の階級が存在するか否かを判断する。未処理の代表色相の階級が存在すれば処理をステップS08に戻し、存在しなければ処理を圧縮処理に戻す。   In the next step S70, it is determined whether or not there is an unprocessed representative hue class to be processed next. If there is an unprocessed representative hue class, the process returns to step S08; otherwise, the process returns to the compression process.

一方、処理をステップS71に進める場合は、ステップS65において第1しきい値を超える度数の階級が3つ以上連続すると判断された場合、または、ステップS67において代表色相の階級数が4以上存在すると判断された場合である。この場合、文字領域には文字でなく写真または図形が表されている可能性が高いので、ステップS71においては、文字領域の属性を写真属性に変更し、処理を圧縮処理に戻す。具体的には、文字領域の位置情報をRAM112の写真領域の位置情報を格納する領域に記憶する。   On the other hand, when the process proceeds to step S71, when it is determined in step S65 that three or more classes having a frequency exceeding the first threshold value are consecutive, or in step S67, there are four or more representative hue classes. This is the case. In this case, since there is a high possibility that a photo or a figure is represented in the character area instead of a character, in step S71, the attribute of the character area is changed to a photo attribute, and the process returns to the compression process. Specifically, the position information of the character area is stored in the area for storing the position information of the photo area in the RAM 112.

図22は、文字領域符号化処理の流れの一例を示すフローチャートである。文字領域符号化処理は、図16のステップS09において実行される処理である。図22を参照して、画像処理部30は、文字色と、2値画像と、位置情報との組をRAM112から読み出す(ステップS81)。文字色と2値画像と位置情報との組で同じ位置情報の組が複数記憶されている場合には、それらの組のうちから1つを読み出す。そして、文字色別2値画像を生成する(ステップS82)。文字色別2値画像は、カラー画像で文字色に近い色の画素の画素値を「1」とし、他の画素の画素値を「0」とした画像である。具体的には、画像処理部30は、2値画像のうち画素値が「1」の画素のうちからカラー画像の画素値が文字色に近い画素を抽出することにより、その文字色に対応する文字色別2値画像を生成する。カラー画像の画素値が文字色と近いか否かは、カラー画像の画素値と文字色との間のRGB色空間における距離が所定の範囲にあることを条件とする。   FIG. 22 is a flowchart showing an example of the flow of character area encoding processing. The character area encoding process is a process executed in step S09 in FIG. Referring to FIG. 22, the image processing unit 30 reads a set of a character color, a binary image, and position information from the RAM 112 (step S81). When a plurality of sets of the same position information are stored as a set of the character color, the binary image, and the position information, one of the sets is read out. Then, a binary image for each character color is generated (step S82). The binary image for each character color is an image in which the pixel value of a pixel of a color close to the character color is “1” and the pixel values of other pixels are “0”. Specifically, the image processing unit 30 extracts a pixel having a pixel value of a color image close to a character color from pixels having a pixel value “1” in the binary image, thereby corresponding to the character color. A binary image for each character color is generated. Whether the pixel value of the color image is close to the character color is based on the condition that the distance in the RGB color space between the pixel value of the color image and the character color is within a predetermined range.

次のステップS83においては、文字色別2値画像を圧縮符号化し、符号データを生成する。ここでの圧縮符号化は、可逆圧縮方式であり、例えばMMR圧縮方式である。次のステップS84においては、文字色と符号データと位置情報とを関連付け、処理をステップS85に進める。具体的には、ステップS81で読み出した文字色および位置情報と、ステップS84で生成した符号データの組をRAM112の所定の領域に記憶する。   In the next step S83, the binary image for each character color is compression-encoded to generate code data. The compression coding here is a lossless compression method, for example, an MMR compression method. In the next step S84, the character color, the code data, and the position information are associated with each other, and the process proceeds to step S85. Specifically, the character color and position information read in step S81 and the set of code data generated in step S84 are stored in a predetermined area of the RAM 112.

次のステップS85においては、次に処理対象とするべき文字色と2値画像と位置情報との組が存在するか否かを判断する。そのような組が存在するならば、処理をステップS81に戻し、存在しなければ処理を圧縮処理に戻す。   In the next step S85, it is determined whether or not there is a set of a character color, a binary image, and position information to be processed next. If such a group exists, the process returns to step S81, and if not, the process returns to the compression process.

以上説明したように、本実施の形態におけるMFP100は、カラー画像から抽出された文字領域に含まれる文字を細線化し、細線化された文字を構成する複数の文字中心画素に対応するカラー画像の画素の色に基づいて、文字色を決定する。そして、カラー画像を2値化した2値画像の文字領域を符号化し、符号データと、決定された文字色と、文字領域のカラー画像中の位置とを関連付ける。カラー画像を2値化した2値画像の文字領域を符号化するので、文字全体を同じ色の文字として2値化することができる。また、細線化後の文字を構成する複数の文字中心画素に対応する画像データの画素の色に基づいて文字色を決定するので、文字の色を正確に検出することができる。その結果、画像中の文字の色を容易かつ高精度に検出することができる。   As described above, MFP 100 according to the present embodiment thins a character included in a character region extracted from a color image, and color image pixels corresponding to a plurality of character center pixels constituting the thinned character. The character color is determined based on the color. Then, the character area of the binary image obtained by binarizing the color image is encoded, and the code data, the determined character color, and the position of the character area in the color image are associated with each other. Since the character area of the binary image obtained by binarizing the color image is encoded, the entire character can be binarized as a character of the same color. In addition, since the character color is determined based on the color of the pixel of the image data corresponding to the plurality of character center pixels constituting the thinned character, the character color can be accurately detected. As a result, the color of characters in the image can be detected easily and with high accuracy.

また、主走査方向と副走査方向それぞれで、連続して配置された黒画素のうちから中心の画素を文字中心画素として抽出するので、文字中心画素を容易に抽出することができ、処理速度を速くすることができる。   In addition, since the center pixel is extracted as the character center pixel from the continuously arranged black pixels in each of the main scanning direction and the sub-scanning direction, the character center pixel can be easily extracted, and the processing speed can be reduced. Can be fast.

さらに、主走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素であって、副走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素を文字中心画素とするので、文字中心画素を容易に抽出することができ、処理速度を早くすることができる。   Furthermore, at least one pixel obtained by removing a predetermined number of pixels from both ends of a plurality of black pixels arranged continuously in the main scanning direction, and both ends of the plurality of black pixels arranged continuously in the sub-scanning direction Since at least one pixel excluding a predetermined number of pixels is used as the character center pixel, the character center pixel can be easily extracted, and the processing speed can be increased.

なお、上述した実施の形態においては画像処理装置の一例としてMFP100について説明したが、図16〜図21に示した圧縮処理をMFP100に実行させるための画像圧縮方法、または図16〜図21に示した圧縮処理をMFP100またはPC3,3A,3B、3Cに実行させるための画像圧縮プログラムとして発明を捉えることができるのは言うまでもない。   In the above-described embodiment, the MFP 100 has been described as an example of the image processing apparatus. However, an image compression method for causing the MFP 100 to execute the compression processing illustrated in FIGS. 16 to 21 or illustrated in FIGS. Needless to say, the invention can be understood as an image compression program for causing the MFP 100 or the PCs 3, 3A, 3B, and 3C to execute the compression process.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

<付記>
(1) 前記第1のしきい値は、度数の最大値に基づき定められる、請求項4に記載の画像処理装置。
(2) 前記属性変更手段は、度数が第1しきい値を超える色相階級が第2のしきい値を超えて連続する場合、前記文字領域の属性を文字属性以外の属性に変更する、請求項8または9に記載の画像処理装置。
(3) 前記文字色決定手段は、前記複数の色相階級のうちから度数が第1のしきい値を超える色相階級を代表色相として選択する選択手段をさらに含み、
前記属性変更手段は、度数が第1しきい値を超える代表色相が第3のしきい値を越えて存在する場合、前記文字領域の属性を文字属性以外の属性に変更する、請求項8または9に記載の画像処理装置。
(4) 前記文字領域符号化手段は、前記2値化データを可逆圧縮する可逆圧縮手段を含む、請求項1に記載の画像処理装置。
(5) カラー画像から写真または図形が表された写真/図属性の写真/図領域を抽出する写真/図領域抽出手段と、
前記写真/図領域のカラー画像を符号化する写真/図形領域符号化手段と、をさらに備えた請求項1に記載の画像処理装置。
(6) 前記文字領域符号化手段は、前記2値画像の前記文字領域を可逆圧縮する可逆圧縮手段を含み、
前記写真/図形領域符号化手段は、前記カラー画像の前記写真/図領域を非可逆圧縮する非可逆圧縮手段を含む、(5)に記載の画像処理装置。
<Appendix>
(1) The image processing apparatus according to claim 4, wherein the first threshold value is determined based on a maximum frequency value.
(2) The attribute changing unit changes the attribute of the character region to an attribute other than the character attribute when the hue class whose frequency exceeds the first threshold value exceeds the second threshold value. Item 10. The image processing device according to Item 8 or 9.
(3) The character color determination means further includes a selection means for selecting, as a representative hue, a hue class whose frequency exceeds a first threshold value from the plurality of hue classes.
The attribute changing unit changes the attribute of the character region to an attribute other than a character attribute when a representative hue whose frequency exceeds a first threshold exceeds a third threshold. The image processing apparatus according to 9.
(4) The image processing apparatus according to claim 1, wherein the character area encoding unit includes a reversible compression unit that reversibly compresses the binarized data.
(5) a photograph / figure area extracting means for extracting a photograph / figure attributed photograph / figure area representing a photograph or a figure from a color image;
The image processing apparatus according to claim 1, further comprising a photograph / graphic region encoding unit that encodes a color image of the photograph / graphic region.
(6) The character area encoding means includes lossless compression means for reversibly compressing the character area of the binary image,
The image processing apparatus according to (5), wherein the photograph / graphic region encoding unit includes an irreversible compression unit that performs irreversible compression on the photograph / figure region of the color image.

本発明の実施の形態の一つにおける画像形成システムの全体概要を示す図である。1 is a diagram showing an overall outline of an image forming system in one embodiment of the present invention. MFPの外観を示す斜視図である。1 is a perspective view showing an appearance of an MFP. MFPのハード構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of an MFP. FIG. 画像処理部の機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function of an image process part. 文字領域抽出部の詳細な機能を示す機能ブロック図である。It is a functional block diagram which shows the detailed function of a character area extraction part. ノイズ除去部320の詳細な機能を示す機能ブロック図である。3 is a functional block diagram showing detailed functions of a noise removing unit 320. FIG. 文字色決定部の詳細な機能を示す機能ブロック図である。It is a functional block diagram which shows the detailed function of a character color determination part. 文字「A」を含む2値画像の一例を示す図である。It is a figure which shows an example of the binary image containing the character "A". (A)は主走査方向中心画素の一例を示す図であり、(B)は副走査方向中心画素の一例を示す図であり、(C)は文字中心画素の一例を示す図である。(A) is a figure which shows an example of a main scanning direction center pixel, (B) is a figure which shows an example of a subscanning direction center pixel, (C) is a figure which shows an example of a character center pixel. 色相ヒストグラムの階級の一例を示す図である。It is a figure which shows an example of the class of a hue histogram. 色相ヒストグラムの一例を示す第1の図である。It is a 1st figure which shows an example of a hue histogram. 色相ヒストグラムの一例を示す第2の図である。It is a 2nd figure which shows an example of a hue histogram. 色相ヒストグラムの一例を示す第3の図である。It is a 3rd figure which shows an example of a hue histogram. 色相ヒストグラムの一例を示す第4の図である。It is a 4th figure which shows an example of a hue histogram. 文字領域符号化部の詳細な機能を示す機能ブロック図である。It is a functional block diagram which shows the detailed function of a character area encoding part. 圧縮処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a compression process. 前処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of pre-processing. 写真/図領域抽出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a photograph / figure area | region extraction process. 文字領域抽出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a character area extraction process. ノイズ除去処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a noise removal process. 文字色決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a character color determination process. 文字領域符号化処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a character area encoding process.

符号の説明Explanation of symbols

1 画像形成システム、2 ネットワーク、3,3A,3B,3C コンピュータ、4 デジタルカメラ、5 デジタルビデオカメラ、6 携帯情報端末、9 操作パネル、20 画像読取部、20 画像読取部、30 画像処理部、40 画像形成部、50 給紙部、60 ファクシミリ部、61 通信制御部、100 MFP、101 メイン回路、111 CPU、112 RAM、113 ROM、114 表示部、115 操作部、116 HDD、117 データ通信制御部、118 LAN端子、119 シリアル通信インターフェース端子、119A メモリカード、301 前処理部、310 文字領域抽出部、311 エッジ画像生成部、312 傾き補正部、313 罫線除去部、314 候補ブロック抽出部、315 判定部、316 文字領域決定部、317 第1属性変更部、320 ノイズ除去部、321 明度ヒストグラム生成部、323 網点・背景除去部、325 第2属性変更部、330 文字色決定部、331 細線化部、332 色相ヒストグラム生成部、333 ノイズ色相除去部、334 隣接色相統合部、335 第3属性変更部、336 代表色相選択部、337 第4属性変更部、338 文字色算出部、340 文字領域符号化部、341 値画像生成部、343 文字色別符号化部、350 写真/図領域抽出部、360 写真画像符号化部、370 統合部。   DESCRIPTION OF SYMBOLS 1 Image forming system 2 Network 3 3, 3A, 3B, 3C Computer 4 Digital camera 5 Digital video camera 6 Mobile information terminal 9 Operation panel 20 Image reading part 20 Image reading part 30 Image processing part 40 image forming unit, 50 paper feeding unit, 60 facsimile unit, 61 communication control unit, 100 MFP, 101 main circuit, 111 CPU, 112 RAM, 113 ROM, 114 display unit, 115 operation unit, 116 HDD, 117 data communication control , 118 LAN terminal, 119 serial communication interface terminal, 119A memory card, 301 preprocessing unit, 310 character area extraction unit, 311 edge image generation unit, 312 tilt correction unit, 313 ruled line removal unit, 314 candidate block extraction unit, 315 Judgment part, 316 sentences Area determination unit, 317 first attribute change unit, 320 noise removal unit, 321 brightness histogram generation unit, 323 halftone dot / background removal unit, 325 second attribute change unit, 330 character color determination unit, 331 thinning unit, 332 hue Histogram generation section, 333 noise hue removal section, 334 adjacent hue integration section, 335 third attribute change section, 336 representative hue selection section, 337 fourth attribute change section, 338 character color calculation section, 340 character area encoding section, 341 Value image generation unit, 343 Character color coding unit, 350 photo / figure region extraction unit, 360 photo image coding unit, 370 integration unit.

Claims (13)

カラー画像から文字が表された文字属性の文字領域を抽出する文字領域抽出手段と、
前記文字領域に含まれる文字を細線化する細線化手段と、
前記細線化された文字を構成する複数の文字中心画素に対応する前記カラー画像の画素の色に基づいて、文字色を決定する文字色決定手段と、
前記カラー画像を2値化することによって、2値画像に変換する2値化手段と、
前記2値画像の前記文字領域を符号化し、符号データを生成する文字領域符号化手段と、
前記生成された符号データと、前記決定された文字色と、前記文字領域の前記カラー画像中の位置とを関連付ける関連付手段と、を備えた画像処理装置。
A character area extracting means for extracting a character area having a character attribute representing a character from a color image;
Thinning means for thinning characters included in the character region;
A character color determining means for determining a character color based on a color of a pixel of the color image corresponding to a plurality of character center pixels constituting the thinned character;
Binarization means for converting the color image into a binary image by binarizing;
A character area encoding means for encoding the character area of the binary image and generating code data;
An image processing apparatus comprising: association means for associating the generated code data, the determined character color, and a position of the character region in the color image.
前記細線化手段は、前記2値画像において主走査方向に連続して配置された黒画素のうちから中心の画素を抽出する主走査方向検出手段と、
前記主走査方向と交わる副走査方向に連続して配置された黒画素のうちから中心の画素を抽出する副走査方向検出手段と、
前記主走査方向検出手段で抽出された中心画素と、前記副走査方向検出手段で抽出された中心画素とを前記文字中心画素に決定する決定手段と、を含む請求項1に記載の画像処理装置。
The thinning unit is a main scanning direction detecting unit that extracts a central pixel from black pixels continuously arranged in the main scanning direction in the binary image;
Sub-scanning direction detecting means for extracting a central pixel from black pixels continuously arranged in the sub-scanning direction intersecting with the main scanning direction;
The image processing apparatus according to claim 1, further comprising: a determining unit that determines the center pixel extracted by the main scanning direction detection unit and the center pixel extracted by the sub-scanning direction detection unit as the character center pixel. .
前記細線化手段は、主走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素を第1候補画素として抽出する主走査方向検出手段と、
前記主走査方向と交わる副走査方向に連続して配置された複数の黒画素の両端から所定数の画素を除いた少なくとも1つの画素を第2候補画素として抽出する副走査方向検出手段と、
前記第1候補画素および前記第2候補画素のいずれでもある画素を前記文字中心画素に決定する決定手段と、を含む請求項1に記載の画像処理装置。
The thinning means extracts main scanning direction detection means for extracting at least one pixel excluding a predetermined number of pixels from both ends of a plurality of black pixels arranged continuously in the main scanning direction as a first candidate pixel;
Sub-scanning direction detecting means for extracting at least one pixel excluding a predetermined number of pixels from both ends of a plurality of black pixels continuously arranged in the sub-scanning direction intersecting with the main scanning direction;
The image processing apparatus according to claim 1, further comprising: a determination unit that determines a pixel that is both the first candidate pixel and the second candidate pixel as the character center pixel.
前記文字色決定手段は、前記複数の文字中心画素それぞれの細線化する前の色に基づき、前記複数の文字中心画素それぞれを複数の色相階級のいずれかに分類する分類手段と、
度数が第1のしきい値以下の色相階級に分類された画素をノイズとして除去するノイズ除去手段を含む、請求項1に記載の画像処理装置。
The character color determining means is a classification means for classifying each of the plurality of character center pixels into one of a plurality of hue classes based on a color before thinning of each of the plurality of character center pixels.
The image processing apparatus according to claim 1, further comprising a noise removing unit that removes, as noise, pixels classified into a hue class whose frequency is equal to or less than a first threshold value.
前記文字色決定手段は、前記複数の文字中心画素それぞれの細線化する前の色に基づき、前記複数の文字中心画素それぞれを複数の色相階級のいずれかに分類する分類手段と、 前記複数の色相階級のうちから度数が第1のしきい値を超える色相階級を代表色相として選択する選択手段と、を含み、
前記複数の文字中心画素のうち前記選択された代表色相の色相階級に分類された前記文字中心画素の細線化する前の色に基づき前記文字色を決定する、請求項1に記載の画像処理装置。
The character color determining means includes a classification means for classifying each of the plurality of character center pixels into one of a plurality of hue classes based on a color before thinning of each of the plurality of character center pixels; Selection means for selecting, as a representative hue, a hue class whose frequency exceeds a first threshold value from among the classes,
The image processing device according to claim 1, wherein the character color is determined based on a color before thinning of the character center pixel classified into a hue class of the selected representative hue among the plurality of character center pixels. .
前記選択手段は、度数が前記第1しきい値を超える色相階級が2以上連続する場合、連続する色相階級のうち度数が最大の色相階級を代表色相として選択する色相統合手段を含む、請求項5に記載の画像処理装置。   The selection means includes hue integration means for selecting, as a representative hue, a hue class having the highest frequency among consecutive hue classes when two or more hue classes having a frequency exceeding the first threshold value are consecutive. 5. The image processing apparatus according to 5. 前記文字色決定手段は、前記選択手段により複数の前記代表色相が選択された場合、前記複数の代表色相にそれぞれ対応する複数の前記文字色を決定し、
前記文字領域符号化手段は、前記複数の代表色相それぞれにおいて、前記2値画像の前記文字領域に含まれる黒画素のうちから該黒画素に対応する前記カラー画像の画素の色が該代表色相に対応する前記文字色と近似する画素を抽出することにより、該代表色相に対応する文字色別2値画像を生成する文字色別2値化データ生成手段と、
前記決定された複数の文字色にそれぞれ対応する複数の文字色別2値化データを符号化し、文字色別符号データを生成する文字色別符号化手段と、を含み、
前記関連付手段は、前記決定された複数の文字色ごとに、該文字色と、該文字色に対応する前記文字色別符号データと、前記文字領域の前記画像データ中の位置とを関連付ける文字色別関連付手段を含む、請求項5に記載の画像処理装置。
The character color determining means determines a plurality of the character colors respectively corresponding to the plurality of representative hues when a plurality of the representative hues are selected by the selecting means;
The character region encoding means includes, in each of the plurality of representative hues, a color of a pixel of the color image corresponding to the black pixel among the black pixels included in the character region of the binary image. Binarized data generation unit for each character color that generates a binary image for each character color corresponding to the representative hue by extracting pixels that approximate the corresponding character color;
A character color coding unit that codes a plurality of character color binarized data respectively corresponding to the determined plurality of character colors, and generates character color code data.
The association means associates, for each of the determined plurality of character colors, the character color, the character color code data corresponding to the character color, and the position of the character region in the image data. The image processing apparatus according to claim 5, comprising color-specific association means.
前記文字色決定手段は、前記複数の文字中心画素それぞれの細線化する前の色に基づき、前記複数の文字中心画素それぞれを複数の色相階級のいずれかに分類する分類手段と、 前記複数の色相階級の度数分布に基づいて、前記文字領域の属性を文字属性以外の属性に変更する属性変更手段と、を含む請求項1に記載の画像処理装置。   The character color determining means includes a classification means for classifying each of the plurality of character center pixels into one of a plurality of hue classes based on a color before thinning of each of the plurality of character center pixels; The image processing apparatus according to claim 1, further comprising: an attribute changing unit that changes an attribute of the character region to an attribute other than the character attribute based on a class frequency distribution. カラー画像から文字が表された文字属性の文字領域を抽出する文字領域抽出手段と、
カラー画像から写真または図形が表された写真/図属性の写真/図領域を抽出する写真/図領域抽出手段と、
前記文字領域に含まれる文字を細線化する細線化手段と、
前記細線化された文字を構成する複数の文字中心画素それぞれの細線化する前の色に基づき、前記複数の文字中心画素それぞれを複数の色相階級のいずれかに分類する分類手段と、
前記複数の色相階級の度数分布に基づいて、前記文字領域の属性を文字属性以外の属性に変更する属性変更手段と、を備えた画像処理装置。
A character area extracting means for extracting a character area having a character attribute representing a character from a color image;
A photograph / figure region extracting means for extracting a photograph / figure attribute / photo / figure region representing a photograph or a figure from a color image;
Thinning means for thinning characters included in the character region;
Classifying means for classifying each of the plurality of character center pixels into one of a plurality of hue classes based on the color before thinning of each of the plurality of character center pixels constituting the thinned character;
An image processing apparatus comprising: an attribute changing unit that changes an attribute of the character region to an attribute other than the character attribute based on the frequency distribution of the plurality of hue classes.
カラー画像から文字が表された文字属性の文字領域を抽出するステップと、
前記文字領域に含まれる文字を細線化するステップと、
前記細線化された文字を構成する複数の文字中心画素に対応する前記カラー画像の画素の色に基づいて、文字色を決定するステップと、
前記カラー画像を2値化することによって、前記カラー画像を2値画像に変換するステップと、
前記2値画像の前記文字領域を符号化し、符号データを生成するステップと、
前記生成された符号データと、前記決定された文字色と、前記文字領域の前記カラー画像中の位置とを関連付けるステップと、を含む画像処理方法。
Extracting a character region having a character attribute representing a character from a color image;
Thinning characters included in the character region;
Determining a character color based on a color of a pixel of the color image corresponding to a plurality of character center pixels constituting the thinned character;
Converting the color image into a binary image by binarizing the color image;
Encoding the character region of the binary image to generate code data;
An image processing method comprising: associating the generated code data, the determined character color, and a position of the character region in the color image.
カラー画像から文字が表された文字属性の文字領域を抽出するステップと、
カラー画像から写真または図形が表された写真/図属性の写真/図領域を抽出するステップと、
前記文字領域に含まれる文字を細線化するステップと、
前記細線化された文字を構成する複数の文字中心画素それぞれの細線化する前の色に基づき、前記複数の文字中心画素それぞれを複数の色相階級のいずれかに分類するステップと、
前記複数の色相階級の度数分布に基づいて、前記文字領域の属性を文字属性以外の属性に変更するステップと、を含む画像処理方法。
Extracting a character region having a character attribute representing a character from a color image;
Extracting a photo / picture attribute of a picture / picture attribute representing a picture or figure from a color image;
Thinning characters included in the character region;
Classifying each of the plurality of character center pixels into one of a plurality of hue classes based on the color before thinning of each of the plurality of character center pixels constituting the thinned character;
Changing the attribute of the character region to an attribute other than the character attribute based on the frequency distribution of the plurality of hue classes.
カラー画像から文字が表された文字属性の文字領域を抽出するステップと、
前記文字領域に含まれる文字を細線化するステップと、
前記細線化された文字を構成する複数の文字中心画素に対応する前記カラー画像の画素の色に基づいて、文字色を決定するステップと、
前記カラー画像を2値化することによって、前記カラー画像を2値画像に変換するステップと、
前記2値画像の前記文字領域を符号化し、符号データを生成するステップと、
前記生成された符号データと、前記決定された文字色と、前記文字領域の前記カラー画像中の位置とを関連付けるステップと、をコンピュータに実行させる画像処理プログラム。
Extracting a character region having a character attribute representing a character from a color image;
Thinning characters included in the character region;
Determining a character color based on a color of a pixel of the color image corresponding to a plurality of character center pixels constituting the thinned character;
Converting the color image into a binary image by binarizing the color image;
Encoding the character region of the binary image to generate code data;
An image processing program that causes a computer to execute the step of associating the generated code data, the determined character color, and the position of the character region in the color image.
カラー画像から文字が表された文字属性の文字領域を抽出するステップと、
カラー画像から写真または図形が表された写真/図属性の写真/図領域を抽出するステップと、
前記文字領域に含まれる文字を細線化するステップと、
前記細線化された文字を構成する複数の文字中心画素それぞれの細線化する前の色に基づき、前記複数の文字中心画素それぞれを複数の色相階級のいずれかに分類するステップと、
前記複数の色相階級の度数分布に基づいて、前記文字領域の属性を文字属性以外の属性に変更するステップと、をコンピュータに実行させる画像処理プログラム。
Extracting a character region having a character attribute representing a character from a color image;
Extracting a photo / picture attribute of a picture / picture attribute representing a picture or figure from a color image;
Thinning characters included in the character region;
Classifying each of the plurality of character center pixels into one of a plurality of hue classes based on the color before thinning of each of the plurality of character center pixels constituting the thinned character;
An image processing program for causing a computer to execute the step of changing the attribute of the character region to an attribute other than the character attribute based on the frequency distribution of the plurality of hue classes.
JP2006280790A 2006-10-13 2006-10-13 Image processor, image processing method and image processing program Pending JP2008099149A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006280790A JP2008099149A (en) 2006-10-13 2006-10-13 Image processor, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006280790A JP2008099149A (en) 2006-10-13 2006-10-13 Image processor, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2008099149A true JP2008099149A (en) 2008-04-24

Family

ID=39381492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006280790A Pending JP2008099149A (en) 2006-10-13 2006-10-13 Image processor, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2008099149A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028603A (en) * 2008-07-23 2010-02-04 Nec Access Technica Ltd Image data processing apparatus, image data processing method and image data processing program
JP2010074368A (en) * 2008-09-17 2010-04-02 Ricoh Co Ltd Image processor, image processing method and program
WO2012091181A1 (en) * 2010-12-29 2012-07-05 コニカミノルタビジネステクノロジーズ株式会社 Character detection device, character detection method, and recording medium
US8320673B2 (en) 2009-03-03 2012-11-27 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method and computer-readable medium
JP2014197804A (en) * 2013-03-29 2014-10-16 ブラザー工業株式会社 Image processing apparatus and computer program
JP2015195549A (en) * 2013-12-19 2015-11-05 キヤノン株式会社 Image processing system and image processing method
WO2018100662A1 (en) * 2016-11-30 2018-06-07 キヤノン株式会社 Image processing device, image capture device, image processing method, image processing program, and recording medium
JP2019067365A (en) * 2017-09-29 2019-04-25 株式会社リコー Image processing device, image processing system, image processing method and program
JP2019139488A (en) * 2018-02-09 2019-08-22 大日本印刷株式会社 Image processing device, image processing method, and program
JP2020092363A (en) * 2018-12-06 2020-06-11 ブラザー工業株式会社 Image processing apparatus and computer program
JP2020144691A (en) * 2019-03-07 2020-09-10 株式会社Screenホールディングス Model color determination method, inspection device, inspection method, and program
JP2021010117A (en) * 2019-07-01 2021-01-28 株式会社リコー Information processing apparatus, image processing apparatus, method, and program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028603A (en) * 2008-07-23 2010-02-04 Nec Access Technica Ltd Image data processing apparatus, image data processing method and image data processing program
JP2010074368A (en) * 2008-09-17 2010-04-02 Ricoh Co Ltd Image processor, image processing method and program
US8320673B2 (en) 2009-03-03 2012-11-27 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method and computer-readable medium
WO2012091181A1 (en) * 2010-12-29 2012-07-05 コニカミノルタビジネステクノロジーズ株式会社 Character detection device, character detection method, and recording medium
JP2014197804A (en) * 2013-03-29 2014-10-16 ブラザー工業株式会社 Image processing apparatus and computer program
JP2015195549A (en) * 2013-12-19 2015-11-05 キヤノン株式会社 Image processing system and image processing method
WO2018100662A1 (en) * 2016-11-30 2018-06-07 キヤノン株式会社 Image processing device, image capture device, image processing method, image processing program, and recording medium
JPWO2018100662A1 (en) * 2016-11-30 2019-10-17 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium
US10565687B2 (en) 2016-11-30 2020-02-18 Canon Kabushiki Kaisha Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium
JP7143649B2 (en) 2017-09-29 2022-09-29 株式会社リコー Image processing device, image processing system, image processing method, and program
JP2019067365A (en) * 2017-09-29 2019-04-25 株式会社リコー Image processing device, image processing system, image processing method and program
JP2019139488A (en) * 2018-02-09 2019-08-22 大日本印刷株式会社 Image processing device, image processing method, and program
JP2020092363A (en) * 2018-12-06 2020-06-11 ブラザー工業株式会社 Image processing apparatus and computer program
JP7205689B2 (en) 2018-12-06 2023-01-17 ブラザー工業株式会社 Image processing device and computer program
JP2020144691A (en) * 2019-03-07 2020-09-10 株式会社Screenホールディングス Model color determination method, inspection device, inspection method, and program
JP2021010117A (en) * 2019-07-01 2021-01-28 株式会社リコー Information processing apparatus, image processing apparatus, method, and program

Similar Documents

Publication Publication Date Title
JP2008099149A (en) Image processor, image processing method and image processing program
JP4758502B2 (en) Image processing apparatus, image reading apparatus, image transmitting apparatus, image forming apparatus, image processing method, program, and recording medium thereof
US8634650B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, and image processing method
JP4772888B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof
JP4333708B2 (en) Method, apparatus, and computer program for processing input data related to generation of electronic file
US8165402B2 (en) Image processing method, image processing apparatus, image forming apparatus and storage medium
US8395813B2 (en) Subtractive color method, subtractive color processing apparatus, image forming apparatus, and computer-readable storage medium for computer program
JP2010288229A (en) Image processing method, image processing apparatus, image forming apparatus, program and recording medium
JP4725645B2 (en) Image processing apparatus, data amount reduction method, and data amount reduction program
US8670623B2 (en) Image processing apparatus, image conversion method, and computer-readable storage medium for computer program based on calculated degree of complexity
JP2012074852A (en) Image processing device, image formation device, image reading device, image processing method, image processing program and recording medium
US7986838B2 (en) Image processing apparatus and image processing method
JP2009296150A (en) Image processor, image conversion method and computer program
JP2009017247A (en) Image processing device and program
JP5819378B2 (en) Image determination apparatus, image processing system, program, and recording medium
JP2000013596A (en) Device and method for processing image and recording medium with image processing program recorded there
JP4135656B2 (en) Image region determination method, image processing apparatus, and program
JP6262102B2 (en) Image processing apparatus, image processing system, computer program, and recording medium
JP2010161745A (en) Image processor, image reader, image transmission device, image formation device, image processing method, program, and recording medium of the same
JP6752263B2 (en) Image processing device, image forming device, and image processing method
JP7185451B2 (en) Image processing device, image processing method, and program
US8553294B2 (en) Outlining method for properly representing curved line and straight line, and image compression method using the same
JP6618307B2 (en) Image processing apparatus, image forming apparatus, and resolution determination method
JP6441772B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP2000013611A (en) Device and method for image processing and recording medium recorded with image processing program