JP2008092447A - Image processing apparatus, image output device, and image processing method - Google Patents

Image processing apparatus, image output device, and image processing method Download PDF

Info

Publication number
JP2008092447A
JP2008092447A JP2006273100A JP2006273100A JP2008092447A JP 2008092447 A JP2008092447 A JP 2008092447A JP 2006273100 A JP2006273100 A JP 2006273100A JP 2006273100 A JP2006273100 A JP 2006273100A JP 2008092447 A JP2008092447 A JP 2008092447A
Authority
JP
Japan
Prior art keywords
image
image data
pixel
flatness
separation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006273100A
Other languages
Japanese (ja)
Inventor
Kenji Furuyama
健司 古山
Hiromi Kita
洋実 北
Tsutomu Kimura
努 木村
Shintaro Adachi
真太郎 安達
Kenji Yamada
健二 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2006273100A priority Critical patent/JP2008092447A/en
Publication of JP2008092447A publication Critical patent/JP2008092447A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, image output device, and image processing method, which appropriately corrects a segmentation defect included in a result of segmentation into a character/drawing region and a non-character/drawing region. <P>SOLUTION: An image processing apparatus 11 comprises: an image region segmenting unit 18 for segmenting image data of an image read by an image reader 10 into a character/drawing region for characters or drawings and a non-character/drawing region that is not the character/drawing region; a color flatness calculating unit 19 for deriving, for each pixel, a flatness indicating whether a change of image data is in a flat region not more than a predetermined value, based on the image data of the read image in units of pixels; and an image region correcting unit 20 for correcting a segmentation defect included in the segmentation result on the basis of the calculated flatness. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理装置、画像出力装置、および画像処理方法に関する。   The present invention relates to an image processing device, an image output device, and an image processing method.

複写機、FAX、プリンタなどの画像出力装置等では、読み取った画像を文字領域、写真領域、および網点領域に分離し(以下像域分離と呼称)、像域分離した領域毎に最適な画像処理を施して高品質な画像を出力することが広く行われている。このように領域毎に画像処理を施す場合には、像域分離エラーが発生すると、画質欠陥が発生する。   In image output devices such as copiers, fax machines, and printers, the read image is separated into a character area, a photographic area, and a halftone dot area (hereinafter referred to as image area separation). It is widely performed to perform processing and output a high-quality image. In this way, when image processing is performed for each area, an image quality defect occurs when an image area separation error occurs.

そこで、像域分離部と、変数決定部と、階調再現制御部とを備えた画像処理装置であって、像域分離部で、入力画像データから入力画像の文字領域、写真領域および網点領域を分離判定し、その判定結果に基づいて、変数決定部で、入力画像の特徴を段階的または連続的に示す像域分離変数を決定し、その像域分離変数に基づいて、階調再現制御部で、入力画像データに対する階調再現特性を段階的または連続的に変化させることにより、像域分離エラーが発生しても画質欠陥を生じないようにする画像処理装置が提案されている(例えば、特許文献1参照。)。
特開平8−65514号公報
Therefore, an image processing apparatus including an image area separation unit, a variable determination unit, and a gradation reproduction control unit, wherein the image area separation unit converts a character area, a photograph area, and a halftone dot of an input image from input image data. Based on the determination result, the variable determination unit determines an image area separation variable that indicates the characteristics of the input image stepwise or continuously, and reproduces the gradation based on the image area separation variable. An image processing apparatus has been proposed in which the control unit changes gradation reproduction characteristics for input image data stepwise or continuously so that no image quality defect occurs even if an image area separation error occurs ( For example, see Patent Document 1.)
JP-A-8-65514

しかしながら、前記従来の画像処理装置では、像域分離変数(文字度合い、網点度合い、写真度合い)により階調再現特性のみを段階的にあるいは連続的に変化させるだけであり、これにより文字領域と写真、網点領域の分離境界をぼかすことはできるが、図29(B)に示すように本来写真領域と判定され処理されるべき領域で、図29(A)に示すように誤判定されて処理されると、分離エラー領域と該分離エラー領域近傍の正しく像域分離された領域とで、画質にギャップが発生し不自然さが残ってしまう場合がある。   However, in the conventional image processing apparatus, only the gradation reproduction characteristics are changed stepwise or continuously by the image area separation variables (character degree, halftone dot degree, and photo degree). Although it is possible to blur the separation boundary between the photograph and the halftone dot area, it is an area that should be originally determined as a photograph area as shown in FIG. 29 (B) and should be processed erroneously as shown in FIG. 29 (A). When processed, there may be a gap in image quality between the separation error area and the area where the image area is correctly separated in the vicinity of the separation error area, and unnaturalness may remain.

本発明は、上述した問題点を解決するためになされたものであり、文字線画領域と非文字線画領域とに分離した分離結果に含まれる分離不良を適切に補正することができる画像処理装置、画像出力装置、および画像処理方法を提供することを目的とする。   The present invention has been made in order to solve the above-described problems, and is an image processing apparatus capable of appropriately correcting a separation failure included in a separation result separated into a character line drawing area and a non-character line drawing area, An object of the present invention is to provide an image output apparatus and an image processing method.

上記目的を達成するために、請求項1に記載の発明の画像処理装置は、画像読取手段によって読み取られた画像の画像データを、文字または線画の文字線画領域と文字線画領域ではない非文字線画領域とに分離する分離手段と、前記読み取られた画像の画像データに基づいて、各画素が画像データの変化が所定値以下の平坦領域であるか否かを示す平坦度を各画素毎に導出する平坦度導出手段と、前記導出された平坦度に基づいて前記分離手段の分離結果に含まれる分離不良を補正する補正手段と、を備えている。   In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention provides an image data read by an image reading means, wherein a character or line drawing character line drawing area and a non-character line drawing area that is not a character line drawing area. Based on the image data of the read image, the flatness indicating whether each pixel is a flat region whose change in image data is a predetermined value or less is derived for each pixel based on the image data of the read image. Flatness deriving means for correcting, and correcting means for correcting a separation failure included in the separation result of the separating means based on the derived flatness.

請求項2の発明は、請求項1記載の発明において、前記平坦度導出手段は、前記各画素毎の平坦度を、均等色空間における各画素および各画素近傍領域の画像データの平均座標からの分布に基づいて導出することを特徴とする。   According to a second aspect of the invention, in the first aspect of the invention, the flatness deriving means calculates the flatness of each pixel from the average coordinates of the image data of each pixel and each pixel neighboring area in the uniform color space. It is derived based on distribution.

請求項3の発明は、請求項1または請求項2記載の発明において、前記平坦度導出手段は、前記読み取られた画像の各画素を順次注目画素に設定し、該設定した注目画素および該注目画素近傍領域の画像データのばらつきの度合いと、該注目画素の画像データと該注目画素および該注目画素近傍領域の画像データの平均値との偏差と、を算出し、該算出したばらつきの度合いおよび偏差に基づいて該注目画素の平坦度を導出することによって、前記各画素毎に平坦度を導出することを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the invention, the flatness deriving unit sequentially sets each pixel of the read image as a target pixel, and sets the target pixel and the target attention. Calculating the degree of variation of image data in the pixel vicinity region, and the deviation between the image data of the target pixel and the average value of the target pixel and the image data of the target pixel vicinity region; and The flatness of each pixel is derived by deriving the flatness of the target pixel based on the deviation.

請求項4の発明は、請求項3記載の発明において、前記平坦度導出手段は、前記ばらつきの度合いとして、前記画像データに含まれる色相および彩度を示すデータの標準偏差を算出し、前記偏差として、前記注目画素および前記注目画素近傍領域の画像データに含まれる色相のデータの平均と前記注目画素の画像データに含まれる色相のデータとの差を算出することを特徴とする。   According to a fourth aspect of the invention, in the third aspect of the invention, the flatness derivation means calculates a standard deviation of data indicating hue and saturation included in the image data as the degree of variation, and the deviation The difference between the average of the hue data included in the image data of the pixel of interest and the region near the pixel of interest and the hue data included in the image data of the pixel of interest is calculated.

請求項5の発明は、請求項1乃至請求項4のいずれか1項記載の発明において、前記読み取られた画像の画像データに、前記補正手段で補正された分離結果に応じて画像処理を施す画像処理手段を更に備えている。   According to a fifth aspect of the present invention, in the invention according to any one of the first to fourth aspects, the image data of the read image is subjected to image processing according to the separation result corrected by the correction means. Image processing means is further provided.

請求項6の発明は、請求項5記載の発明において、前記画像処理手段は、前記読み取られた画像の画像データに、前記補正手段で補正された分離結果および前記平坦度導出手段で導出された平坦度に応じて画像処理を施すことを特徴とする。   According to a sixth aspect of the invention, in the fifth aspect of the invention, the image processing means is derived by the separation result corrected by the correction means and the flatness deriving means into the image data of the read image. Image processing is performed according to flatness.

請求項7の発明は、請求項1乃至請求項6のいずれか1項記載の発明において、前記分離手段は、前記読み取られた画像の各画素を順次注目画素に設定し、前記読み取られた画像の画像データから該設定した注目画素を含む矩形領域の画像データを抽出し、該抽出した画像データに所定の処理を施すことによって前記読み取られた画像の画像データを文字線画領域と非文字線画領域とに分離し、更に各画素毎の分離結果を前記読み取られた画像の各画素の位置に対応して配置した分離結果配置データを前記分離結果として生成し、前記補正手段は、前記導出された平坦度および予め定められた矩形のひな型を用いて、前記生成された分離結果配置データから矩形または矩形が連なった形状の分離不良を検出し、該検出した分離不良を補正することを特徴とする。   According to a seventh aspect of the present invention, in the invention according to any one of the first to sixth aspects, the separation unit sequentially sets each pixel of the read image as a target pixel, and the read image The image data of the rectangular area including the set target pixel is extracted from the image data of the image, and the image data of the read image is converted into the character line drawing area and the non-character line drawing area by performing predetermined processing on the extracted image data. Further, separation result arrangement data in which the separation result for each pixel is arranged corresponding to the position of each pixel of the read image is generated as the separation result, and the correction means is derived Using the flatness and a predetermined rectangular template, a separation defect having a shape of a rectangle or a series of rectangles is detected from the generated separation result arrangement data, and the detected separation defect is corrected. And wherein the door.

請求項8の発明は、請求項7記載の発明において、前記分離手段は、前記読み取られた画像の各画素を順次注目画素に設定し、前記読み取られた画像の画像データから該設定した注目画素を含む矩形領域の画像データを抽出し、該抽出した画像データに黒部分を収縮する収縮処理を施した後、黒部分を膨張させる膨張処理を施し、全ての注目画素について収縮処理および膨張処理が終了した後の画像データを反転させた画像データと収縮処理前の画像データとに基づいて前記読み取られた画像の画像データから文字線画領域を分離すると共に、該分離した文字線画領域以外の画像データを非文字線画領域として分離して前記分離結果配置データを生成し、前記補正手段は、前記導出された平坦度、予め定められた矩形のひな型、および前記収縮処理後の画像データを用いて、前記生成された分離結果配置データから矩形または矩形が連なった形状の分離不良を検出し、該検出した分離不良を補正することを特徴とする。   The invention according to claim 8 is the invention according to claim 7, wherein the separation unit sequentially sets each pixel of the read image as a target pixel, and sets the target pixel set from the image data of the read image. After extracting the image data of the rectangular area including the image, and performing the contraction process for contracting the black part on the extracted image data, the expansion process for expanding the black part is performed, and the contraction process and the expansion process are performed for all the target pixels. Separating the character / line drawing area from the image data of the read image based on the image data obtained by inverting the image data after completion and the image data before the shrinking process, and image data other than the separated character / line drawing area Is generated as a non-character / line drawing area to generate the separation result arrangement data, and the correction means includes the derived flatness, a predetermined rectangular model, and the convergence. Using the processed image data, the above-generated separation results from the arrangement data of the continuous shape is rectangular or square separating detect bad, and correcting the defective separation of the detected.

請求項9の発明は、請求項1乃至請求項8のいずれか1項記載の発明において、前記分離手段は、更に、前記非文字線画領域を網点領域および写真領域に分離することを特徴とする。   The invention according to claim 9 is the invention according to any one of claims 1 to 8, wherein the separating unit further separates the non-character / line drawing area into a halftone dot area and a photograph area. To do.

請求項10の発明の画像出力装置は、原稿の画像を読み取る画像読取手段と、前記読み取られた画像の画像データを、文字または線画の文字線画領域と文字線画領域ではない非文字線画領域とに分離する分離手段と、前記読み取られた画像の画像データに基づいて、各画素が画像データの変化が所定値以下の平坦領域であるか否かを示す平坦度を各画素毎に導出する平坦度導出手段と、前記導出された平坦度に基づいて前記分離手段の分離結果に含まれる分離不良を補正する補正手段と、前記読み取られた画像の画像データに、前記補正手段で補正された分離結果に応じて画像処理を施す画像処理手段と、前記画像処理手段で画像処理が施された画像データに基づいて画像を出力する画像出力手段と、を備えている。   An image output device according to a tenth aspect of the present invention provides an image reading unit for reading an image of a document, and converts the image data of the read image into a character / line drawing area and a non-character / line drawing area that is not a character / line drawing area. Flatness for deriving, for each pixel, flatness indicating whether or not each pixel is a flat region whose change in image data is a predetermined value or less based on image data of the read image and separation means for separating A deriving unit, a correcting unit that corrects a separation failure included in the separation result of the separating unit based on the derived flatness, and a separation result corrected by the correcting unit in the image data of the read image And image output means for outputting an image based on the image data subjected to the image processing by the image processing means.

請求項11の発明の画像処理方法は、画像読取手段によって読み取られた画像の画像データを、文字または線画の文字線画領域と文字線画領域ではない非文字線画領域とに分離する分離ステップと、前記読み取られた画像の画像データに基づいて、各画素が画像データの変化が所定値以下の平坦領域であるか否かを示す平坦度を各画素毎に導出する平坦度導出ステップと、前記導出された平坦度に基づいて前記分離ステップの分離結果に含まれる分離不良を補正する補正ステップと、を備えている。   An image processing method according to an eleventh aspect of the invention includes a separation step of separating image data of an image read by an image reading unit into a character / line drawing character / line drawing region and a non-character / line drawing region that is not a character / line drawing region; A flatness deriving step for deriving flatness for each pixel, which indicates whether each pixel is a flat region whose change in image data is a predetermined value or less based on the image data of the read image; And a correction step of correcting a separation failure included in the separation result of the separation step based on the flatness.

以上説明したように請求項1、請求項10、および請求項11に記載の発明によれば、文字線画領域と非文字線画領域とに分離した分離結果に含まれる分離不良を適切に補正することができる、という効果が得られる。   As described above, according to the inventions according to claims 1, 10, and 11, the separation failure included in the separation result separated into the character line drawing area and the non-character line drawing area is appropriately corrected. The effect of being able to be obtained.

請求項2に記載の発明によれば、平坦度の導出が容易となる。   According to the second aspect of the invention, the flatness can be easily derived.

請求項3および請求項4に記載の発明によれば、適切に平坦度を導出できる。   According to the third and fourth aspects of the invention, the flatness can be derived appropriately.

請求項5に記載の発明によれば、適切に補正された分離結果に応じて適切な画像処理を施すことができる。   According to the fifth aspect of the present invention, appropriate image processing can be performed according to the appropriately corrected separation result.

請求項6に記載の発明によれば、適切に補正された分離結果および平坦度に応じて適切な画像処理を施すことができる。   According to the sixth aspect of the present invention, appropriate image processing can be performed in accordance with the appropriately corrected separation result and flatness.

請求項7に記載の発明によれば、矩形領域の画像データを抽出して所定の処理を施すことによって文字線画領域と非文字線画領域とに分離する場合に発生する矩形または矩形が連なった形状の分離不良を補正することができる。   According to the seventh aspect of the present invention, a rectangular shape or a continuous shape of rectangles generated when image data of a rectangular area is extracted and subjected to predetermined processing to be separated into a character line drawing area and a non-character line drawing area. Can be corrected.

請求項8に記載の発明によれば、矩形領域の画像データを抽出して収縮処理や膨張処理を行うことによって文字線画領域と非文字線画領域とに分離する場合に発生する矩形または矩形が連なった形状の分離不良をより精度高く補正することができる。   According to the eighth aspect of the present invention, the rectangles or rectangles generated when the image data of the rectangular area is extracted and subjected to the shrinking process or the expanding process to be separated into the character line drawing area and the non-character line drawing area are connected. It is possible to correct the separation failure of the shape with higher accuracy.

請求項9に記載の発明によれば、文字線画領域、網点領域および写真領域に分離する場合であっても、同様に分離不良を補正することができる。   According to the ninth aspect of the present invention, even when separating into a character / line drawing area, a halftone dot area, and a photographic area, it is possible to correct the separation defect similarly.

以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。なお、本実施の形態は、原稿の画像を読み取って複写する複写機に本発明を適用したものである。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. In the present embodiment, the present invention is applied to a copying machine that reads and copies an image of a document.

図1は、本実施の形態に係る複写機の構成を示すブロック図である。   FIG. 1 is a block diagram showing the configuration of the copying machine according to the present embodiment.

この複写機は、画像読取装置10、画像処理装置11、および画像出力装置12を含んで構成されている。   The copying machine includes an image reading device 10, an image processing device 11, and an image output device 12.

画像読取装置10は、原稿の画像を読み取り、該読み取った原稿画像のRGB色空間の画像データを画像処理装置11に出力する。   The image reading device 10 reads an image of a document and outputs image data in the RGB color space of the read document image to the image processing device 11.

画像処理装置11は、色変換部13、縮拡部14、像域分離処理部15、縮拡部16、および画像処理部17を含んで構成されている。   The image processing apparatus 11 includes a color conversion unit 13, a scaling unit 14, an image area separation processing unit 15, a scaling unit 16, and an image processing unit 17.

色変換部13は、画像読取装置10で読み取って得られたRGB色空間の画像データを所定のルックアップテーブル(LUT)を用いて均等色空間の1つであるL*a*b*色空間の画像データに変換する。なお、ここで均等色空間とは、知覚可能な色差と空間的な距離差とが略一致するような色空間をいう。   The color conversion unit 13 uses the L * a * b * color space, which is one of the uniform color spaces, for the image data in the RGB color space obtained by reading with the image reading device 10 using a predetermined look-up table (LUT). Convert to image data. Here, the uniform color space refers to a color space in which a perceptible color difference and a spatial distance difference substantially coincide.

縮拡部14は、色変換部13で変換された画像データに拡大・縮小処理を施す。   The reduction / enlargement unit 14 performs enlargement / reduction processing on the image data converted by the color conversion unit 13.

像域分離処理部15は、図1に示すように、像域分離部18、色平坦度算出部19、および像域補正部20を備えている。   As shown in FIG. 1, the image area separation processing unit 15 includes an image area separation unit 18, a color flatness calculation unit 19, and an image area correction unit 20.

像域分離部18には、色変換部13で変換されたL*a*b*色空間の画像データのL*値のみが入力される。像域分離部18は、特開平2−294885号公報に示されるような手順で、L*値の画像データが示す画像を、文字領域と写真領域とに分離し、各画素の位置に対応して像域分離結果がマッピングされたデータ(像域分離タグ画像データと呼称)を生成する。   Only the L * value of the image data in the L * a * b * color space converted by the color conversion unit 13 is input to the image area separation unit 18. The image area separation unit 18 separates the image indicated by the image data of the L * value into a character area and a photographic area according to a procedure as disclosed in Japanese Patent Laid-Open No. Hei 2-294485, and corresponds to the position of each pixel. Thus, data in which the image area separation result is mapped (referred to as image area separation tag image data) is generated.

なお、本実施の形態においては、文字や線画のように画像データが白および黒近傍にピークを有し、画像データの変化が急峻な画像の領域を文字領域と呼称し、写真などの画像データの変化が比較的緩やかな画像である写真画像の領域を写真領域と呼称し、印刷物などに見られる、網点形成による疑似階調画像である網点画像の領域を網点領域と呼称する。しかしながら、本実施の形態における画像処理部17は、文字領域とそれ以外の領域とで画像処理を区別して行い、網点領域と写真領域とを区別した画像処理は行わないため、像域分離部18では、文字領域以外の領域を全て写真領域とした像域分離結果がマッピングされた像域分離タグ画像データを生成するものとする。   In the present embodiment, an image area in which image data has a peak near white and black and has a sharp change in image data, such as characters and line drawings, is referred to as a character area, and image data such as a photograph. An area of a photographic image that is an image with a relatively slow change is referred to as a photographic area, and an area of a halftone image that is a pseudo gradation image by halftone dot formation that is seen in a printed material is referred to as a halftone area. However, the image processing unit 17 according to the present embodiment distinguishes image processing between character regions and other regions and does not perform image processing that distinguishes between halftone dot regions and photographic regions. In 18, it is assumed that image area separation tag image data in which an image area separation result in which all areas other than the character area are photograph areas is mapped is generated.

色平坦度算出部19は、色変換部13で変換されたL*a*b*色空間の画像データから各画素毎の色平坦度を算出し、各画素の位置に対応して色平坦度がマッピングされたデータ(色平坦度タグ画像データと呼称)を生成する。   The color flatness calculation unit 19 calculates the color flatness for each pixel from the image data in the L * a * b * color space converted by the color conversion unit 13, and the color flatness corresponding to the position of each pixel. Is mapped data (referred to as color flatness tag image data).

なお、ここで色平坦度とは、各画素が画像データの変化が所定値以下の平坦領域であるか否かを示す値であり、ここでは、彩度の高い色か、あるいは彩度の低い白/黒色かの区別を含めて、0(白平坦・非平坦)、1(黒平坦)、2(中間平坦)、3(色平坦)の4つの値をとる。   Here, the color flatness is a value indicating whether or not each pixel is a flat region where the change in the image data is a predetermined value or less. Here, the color is high in color or low in color. Including white / black distinction, four values of 0 (white flat / non-flat), 1 (black flat), 2 (intermediate flat), and 3 (color flat) are taken.

像域補正部20は、像域分離部18で生成された像域分離タグ画像データが示す像域分離結果を、色平坦度算出部19で生成された色平坦度タグ画像データが示す色平坦度等を用いて補正する。   The image area correction unit 20 uses the color flatness indicated by the color flatness tag image data generated by the color flatness calculation unit 19 to display the image area separation result indicated by the image area separation tag image data generated by the image area separation unit 18. Correct using degrees.

縮拡部16は、像域分離処理部15で生成され補正された像域分離タグ画像データおよび色平坦度タグ画像データを、前記縮拡部14で行われた拡大・縮小処理と同一の倍率で拡大・縮小処理する。   The enlargement / reduction unit 16 converts the image area separation tag image data and the color flatness tag image data generated and corrected by the image area separation processing unit 15 to the same magnification as the enlargement / reduction process performed by the reduction / enlargement unit 14. Enlarge / reduce with.

画像処理部17は、縮拡部14から出力された画像データに対して、縮拡部16から出力された像域分離タグ画像データが示す像域分離結果、および色平坦度タグ画像データが示す色平坦度に基づいて画像処理を施して出力用データを出力する。   The image processing unit 17 displays the image area separation result indicated by the image area separation tag image data output from the enlargement / reduction unit 16 and the color flatness tag image data for the image data output from the enlargement / reduction unit 14. Image processing is performed based on the color flatness and output data is output.

画像出力装置12は、画像処理部17から出力された出力用データに基づいて、記録紙に画像を形成する。   The image output device 12 forms an image on recording paper based on the output data output from the image processing unit 17.

図2は、画像処理部17の構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration of the image processing unit 17.

画像処理部17は、空間補正部21、色変換部22、階調補正部23、スクリーン生成部24を含んで構成されている。   The image processing unit 17 includes a space correction unit 21, a color conversion unit 22, a gradation correction unit 23, and a screen generation unit 24.

空間補正部21は、縮拡部14から出力されたL*a*b*色空間の画像データの空間周波数を、像域分離結果および色平坦度に応じたフィルタを用いて補正する。   The space correction unit 21 corrects the spatial frequency of the image data in the L * a * b * color space output from the reduction / enlargement unit 14 using a filter corresponding to the image area separation result and the color flatness.

色変換部22は、空間補正部21で補正されたL*a*b*色空間の画像データを、像域分離結果および色平坦度に応じたルックアップテーブル(LUT)を用いて印刷用のYMCK色空間の画像データに変換する。   The color conversion unit 22 prints the image data in the L * a * b * color space corrected by the space correction unit 21 using a look-up table (LUT) corresponding to the image area separation result and color flatness. Convert to image data in YMCK color space.

階調補正部23は、色変換部22で変換されたYMCK色空間の画像データの階調特性を、像域分離結果および色平坦度に応じたルックアップテーブル(LUT)を用いて補正する。   The tone correction unit 23 corrects the tone characteristics of the image data in the YMCK color space converted by the color conversion unit 22 using a look-up table (LUT) corresponding to the image area separation result and color flatness.

スクリーン生成部24は、階調補正部23で補正されたYMCK色空間の画像データを、画像出力装置12で画像の形成が可能なように、像域分離結果および色平坦度に応じて予め定められたハーフトーンスクリーンのパターンを用いてハーフトーン処理(多階調データから低階調データに変換する処理)し、出力用データとして生成して画像出力装置12に出力する。   The screen generation unit 24 determines in advance the image data in the YMCK color space corrected by the gradation correction unit 23 according to the image area separation result and the color flatness so that the image output device 12 can form an image. Halftone processing (processing for converting multi-gradation data into low-gradation data) is performed using the halftone screen pattern thus generated, and it is generated as output data and output to the image output device 12.

図3は、前述の像域分離部18の構成を示すブロック図である。   FIG. 3 is a block diagram showing the configuration of the image area separation unit 18 described above.

像域分離部18は、二値化処理部25、網点抽出部26、OR処理部27、収縮処理部28、膨張処理部29、反転処理部30、AND処理部31、および像域分離タグ生成部32を含んで構成されている。   The image area separation unit 18 includes a binarization processing unit 25, a halftone dot extraction unit 26, an OR processing unit 27, a contraction processing unit 28, an expansion processing unit 29, an inversion processing unit 30, an AND processing unit 31, and an image region separation tag. The generation unit 32 is included.

二値化処理部25は、上記色変換部13から出力されたL*値の画像データを一般的に知られた二値化処理を行って二値画像データに変換する。そして、該変換した二値画像データを二値化領域の画像データとして出力する。   The binarization processing unit 25 performs generally known binarization processing on the L * value image data output from the color conversion unit 13 and converts the image data into binary image data. Then, the converted binary image data is output as image data of a binarized area.

網点抽出部26は、上記色変換部13から出力されたL*値の画像データから、一般的なパターンマッチング処理を行って網点領域を抽出し、該抽出した網点領域の二値画像データを出力する。例えば、所定サイズのテンプレートのパターンにマッチしている割合が所定レベル以上であれば網点領域として抽出するようなアルゴリズムを用いることができる。   The halftone dot extraction unit 26 performs a general pattern matching process on the L * value image data output from the color conversion unit 13 to extract a halftone dot region, and the binary image of the extracted halftone dot region. Output data. For example, it is possible to use an algorithm that extracts a halftone dot area if the ratio of matching a template pattern of a predetermined size is equal to or higher than a predetermined level.

OR処理部27は、二値化処理部25から出力された画像データおよび網点抽出部26から出力された画像データの論理和をとった画像データを出力する。   The OR processing unit 27 outputs image data obtained by ORing the image data output from the binarization processing unit 25 and the image data output from the halftone extraction unit 26.

収縮処理部28は、OR処理部27から出力された画像データに収縮処理を施す。収縮処理は、予め定められたサイズの参照ウィンドウを1画素ピッチで移動させながらウィンドウ画像を抽出し、該ウィンドウ画像の中心に位置する注目画素の白黒変換を行うことにより、黒部分を細らせる(収縮させる)ように画像データを変換する。   The contraction processing unit 28 performs contraction processing on the image data output from the OR processing unit 27. In the shrinking process, a window image is extracted while moving a reference window of a predetermined size at a pitch of one pixel, and the black portion is thinned by performing black-and-white conversion of the pixel of interest located at the center of the window image. The image data is converted so as to be contracted.

例えば、図4(A)に示されるような入力画像(白「0」、黒「1」の二値画像)に、図4(B)に示されるような5×5画素の参照ウィンドウを用いて収縮処理を施す場合を例に挙げて説明する。   For example, a reference window of 5 × 5 pixels as shown in FIG. 4B is used for an input image (a binary image of white “0” and black “1”) as shown in FIG. The case where the contraction process is performed will be described as an example.

収縮処理では図4(C)に示すように、参照ウインドウの中心が注目画素となるようにしてウィンドウ画像を抽出する。抽出したウィンドウ画像内の全ての画素が黒の場合には、注目画素を黒「1」に変換し、抽出したウィンドウ画像内に1つでも白の画素があれば、注目画素を白「0」に変換する。図4(C)における位置で抽出されるウィンドウ画像には白画素が1つ含まれているため、注目画素は図4(D)に示されるように白画素に変換される。注目画素について白黒変換が終了した後は、次の画素を注目画素に設定して参照ウィンドウの位置を移動し、同様の処理を行う。なお、参照ウィンドウで抽出するウィンドウ画像は、収縮処理で白黒変換する前の(収縮処理後の)画像から抽出する。   In the contraction process, as shown in FIG. 4C, the window image is extracted so that the center of the reference window becomes the target pixel. If all the pixels in the extracted window image are black, the target pixel is converted to black “1”, and if there is at least one white pixel in the extracted window image, the target pixel is set to white “0”. Convert to Since the window image extracted at the position in FIG. 4C includes one white pixel, the target pixel is converted to a white pixel as shown in FIG. After the monochrome conversion for the target pixel is completed, the next pixel is set as the target pixel, the position of the reference window is moved, and the same processing is performed. Note that the window image extracted by the reference window is extracted from an image before black-and-white conversion (after the contraction process) by the contraction process.

このように順次参照ウィンドウを移動して注目画素の白黒変換を行うと、図4(E)に示すような処理結果が得られる。同図に示すように、処理結果は、黒部分が収縮した画像となっている。また、参照ウィンドウが矩形であるため、収縮処理の処理結果にはブロック形状の領域が形成される。   When the reference window is sequentially moved in this way to perform monochrome conversion of the pixel of interest, a processing result as shown in FIG. 4E is obtained. As shown in the figure, the processing result is an image in which the black portion is contracted. Further, since the reference window is rectangular, a block-shaped region is formed in the processing result of the contraction process.

なお、収縮処理の処理結果は、膨張処理部29に出力される以外に、不図示のバッファに格納され、後述する像域補正部20の像域補正に用いられる。   The processing result of the contraction process is not only output to the expansion processing unit 29 but also stored in a buffer (not shown) and used for image area correction of the image area correction unit 20 described later.

膨張処理部29は、収縮処理部28から出力された画像データに膨張処理を施す。膨張処理は、予め定められたサイズの参照ウィンドウを1画素ピッチで移動させながらウィンドウ画像を抽出し、該ウィンドウ画像の中心に位置する注目画素の白黒変換を行うことにより、黒部分を太らせる(膨張させる)ように画像データを変換する。   The expansion processing unit 29 performs expansion processing on the image data output from the contraction processing unit 28. In the expansion process, a window image is extracted while moving a reference window of a predetermined size at a pitch of one pixel, and the black portion is thickened by performing black-and-white conversion of the pixel of interest located at the center of the window image ( The image data is converted so as to be expanded.

例えば、図5(A)に示されるような入力画像(白「0」、黒「1」の二値画像)を、図5(B)に示されるような5×5画素の参照ウィンドウを用いて膨張処理を施す場合を例に挙げて説明する。   For example, an input image (a binary image of white “0” and black “1”) as shown in FIG. 5A is used as a reference window of 5 × 5 pixels as shown in FIG. The case where the expansion process is performed will be described as an example.

膨張処理では図5(C)に示すように、参照ウインドウの中心が注目画素となるようにしてウィンドウ画像を抽出する。抽出したウィンドウ画像内の少なくとも1つでも黒画素が含まれている場合には、注目画素を黒「1」に変換し、抽出したウィンドウ画像内の全てが白画素の場合には、注目画素を白「0」に変換する。図5(C)における位置で抽出されるウィンドウ画像には黒画素が1つ以上含まれているため、注目画素は図5(D)に示されるように黒画素に変換される。注目画素について白黒変換が終了した後は、次の画素を注目画素に設定して参照ウィンドウの位置を移動し、同様の処理を行う。なお、参照ウィンドウで抽出するウィンドウ画像は、膨張処理で白黒変換する前の入力画像から抽出する。   In the expansion process, as shown in FIG. 5C, the window image is extracted so that the center of the reference window becomes the target pixel. If at least one black pixel is included in the extracted window image, the target pixel is converted to black “1”. If all of the extracted window images are white pixels, the target pixel is Convert to white “0”. Since the window image extracted at the position in FIG. 5C includes one or more black pixels, the target pixel is converted into a black pixel as shown in FIG. After the monochrome conversion for the target pixel is completed, the next pixel is set as the target pixel, the position of the reference window is moved, and the same processing is performed. Note that the window image extracted by the reference window is extracted from the input image before black-and-white conversion by the expansion process.

このように順次参照ウィンドウを移動して注目画素の白黒変換を行うと、図5(E)に示すような処理結果が得られる。同図に示すように、処理結果は、黒部分が膨張した画像となっている。また、参照ウィンドウが矩形であるため、膨張処理の処理結果にはブロック形状の領域が形成される。   When the reference window is sequentially moved in this way to perform monochrome conversion of the pixel of interest, a processing result as shown in FIG. 5E is obtained. As shown in the figure, the processing result is an image in which the black portion is expanded. Since the reference window is rectangular, a block-shaped region is formed in the processing result of the expansion process.

反転処理部30は、膨張処理部29から出力された画像データを白黒反転処理する。   The inversion processing unit 30 performs monochrome inversion processing on the image data output from the expansion processing unit 29.

AND処理部31は、反転処理部30で白黒反転処理された画像データと、OR処理部27から出力された画像データの論理積をとった画像データを出力する。   The AND processing unit 31 outputs image data obtained by ANDing the image data subjected to the black and white inversion processing by the inversion processing unit 30 and the image data output from the OR processing unit 27.

図6は、AND処理部31に入力される画像データと、該入力された画像データの論理積をとった画像データの一例を示す図である。   FIG. 6 is a diagram illustrating an example of image data obtained by ANDing the image data input to the AND processing unit 31 and the input image data.

図6(A)に示すような収縮処理前の画像の画像データと、図6(B)に示すような膨張処理後の画像を白黒反転処理した画像の画像データとがAND処理部31に入力されると、図6(D)に示すような画像データが得られる。収縮処理および膨張処理では参照ウィンドウを用いて処理が行われるため、AND処理部31の処理結果もブロック形状の領域が形成された画像となる。   The image data of the image before the contraction process as shown in FIG. 6A and the image data of the image obtained by performing the black and white inversion process on the image after the expansion process as shown in FIG. Then, image data as shown in FIG. 6D is obtained. In the contraction process and the expansion process, the process is performed using the reference window. Therefore, the processing result of the AND processing unit 31 is also an image in which a block-shaped region is formed.

像域分離タグ生成部32は、AND処理部31から出力された画像データから、色変換部13で変換された画像データが示す画像の各画素の位置に対応して、各画素が文字領域か写真領域かを示す像域分離結果をマッピングした像域分離タグ画像データを生成する。すなわち、AND処理部31で黒「1」となった画素位置には文字領域のタグ値「1」をマッピングし、それ以外の画素位置には写真領域のタグ値「0」をマッピングする。   The image area separation tag generation unit 32 determines whether each pixel is a character area corresponding to the position of each pixel of the image indicated by the image data converted by the color conversion unit 13 from the image data output from the AND processing unit 31. Image area separation tag image data in which an image area separation result indicating a photographic area is mapped is generated. That is, the tag value “1” of the character area is mapped to the pixel position that has become black “1” in the AND processing unit 31, and the tag value “0” of the photographic area is mapped to the other pixel positions.

図7は像域分離部18の各部における処理結果の一例を示した図である。ここで、図7を参照しながら、像域分離部18の処理の流れを説明する。   FIG. 7 is a diagram showing an example of the processing result in each part of the image area separation unit 18. Here, the processing flow of the image area separation unit 18 will be described with reference to FIG.

図7(1)に示される画像は、二値化処理部25で、入力画像の画像データを二値化処理した画像である。ここでは、文字以外の網点領域の画像や印画紙写真等の自然画などの連続画像もその一部が二値化領域として抽出されている。   The image shown in FIG. 7A is an image obtained by binarizing the image data of the input image by the binarization processing unit 25. Here, a part of a continuous image such as an image of a halftone dot region other than characters or a natural image such as a photographic paper photograph is extracted as a binarized region.

図7(2)に示される画像は、網点抽出部26で、入力画像の画像データから一般的なパターンマッチング処理を行って抽出した網点領域の画像データが表す画像である。   The image shown in FIG. 7B is an image represented by the image data of the halftone dot region extracted by performing a general pattern matching process from the image data of the input image by the halftone dot extracting unit 26.

図7(3)に示される画像は、OR処理部27から出力された画像データが表す画像であって、図7(1)の画像データおよび図7(2)の画像の画像データの論理和をとったものである。   The image shown in FIG. 7 (3) is an image represented by the image data output from the OR processing unit 27, and the logical sum of the image data of FIG. 7 (1) and the image data of the image of FIG. 7 (2). Is taken.

図7(4)に示される画像は、図7(3)の画像の画像データを収縮処理部28で収縮処理したものである。これにより、黒部分を細らせた(収縮させた)画像が生成される。文字・線画は細い領域(小領域)で表されるため、収縮処理では小領域の文字領域が消去され、比較的大領域の網点領域が残存する。   The image shown in FIG. 7 (4) is obtained by contracting the image data of the image in FIG. 7 (3) by the contraction processing unit 28. Thereby, an image in which the black portion is thinned (shrinked) is generated. Since the character / line drawing is represented by a thin area (small area), the character area of the small area is erased by the shrinking process, and a relatively large halftone dot area remains.

図7(5)に示される画像は、図7(4)の画像の画像データを膨張処理部29で膨張処理したものである。これにより、黒部分を太らせた(膨張させた)画像が生成される。これにより収縮処理で残存した網点領域が膨張される。   The image shown in FIG. 7 (5) is obtained by expanding the image data of the image of FIG. 7 (4) by the expansion processing unit 29. As a result, an image in which the black portion is fattened (expanded) is generated. As a result, the halftone dot region remaining after the contraction process is expanded.

図7(6)に示される画像は、図7(5)の画像の画像データを反転処理部30で白黒反転処理した画像である。   The image shown in FIG. 7 (6) is an image obtained by reversing the image data of the image in FIG. 7 (5) by the reversal processing unit 30.

図7(7)に示される画像は、AND処理部31から出力された画像データの画像であって、図7(6)および図7(3)の画像の画像データの論理積をとったものである。この画像から明らかなように、最終的な画像は文字領域のみが黒画素として抽出された画像となる。これにより、文字領域とそれ以外の写真領域とを像域分離することができる。   The image shown in FIG. 7 (7) is an image of the image data output from the AND processing unit 31, and is obtained by ANDing the image data of the images of FIG. 7 (6) and FIG. 7 (3). It is. As is apparent from this image, the final image is an image in which only the character area is extracted as black pixels. As a result, the image area can be separated from the character area and the other photographic areas.

なお、画像読取装置10で読み取られる原稿は、画像出力装置12或いは他のプリンタで出力された原稿、すなわち、低線数網点や、多値レーザープリンタで一般なYMCK万線(ライン)スクリーンや、ローテーションスクリーンで画像が形成された原稿である。このような原稿を複写すると、複写時に行われる像域分離によって、矩形または矩形が連なった形状、すなわちブロック形状の像域分離エラーが発生し、画質欠陥が発生する場合がある。   The document read by the image reading device 10 is a document output by the image output device 12 or another printer, that is, a low line number halftone dot, a YMCK line screen generally used in a multi-value laser printer, A document on which an image is formed on a rotation screen. When such a document is copied, image area separation performed at the time of copying may cause an image area separation error of a rectangle or a shape in which rectangles are connected, that is, a block shape, and an image quality defect may occur.

図8は、ドットTOラインスクリーン手法によりスクリーン処理した画像データに基づいて印刷された原稿画像を複写するときに発生するブロック形状の像域分離エラーを説明する説明図である。なお、ドットTOラインスクリーン手法とは、ハイライト部をドットで再現し、ドット成分を成長させ、ラインスクリーンとすることにより階調を再現する方法の一つである。   FIG. 8 is an explanatory diagram for explaining a block-shaped image area separation error that occurs when an original image printed based on image data screen-processed by the dot TO line screen method is copied. The dot TO line screen method is one of methods for reproducing gradation by reproducing a highlight portion with dots and growing a dot component to form a line screen.

図8(A)に示される複写対象の原稿画像は、全域が写真領域として像域分離されるべき画像である。この原稿画像を読み取ったときに、図8(B)に示すように、読取結果が隣り合うドット同士が独立している領域については、文字領域ではない(写真領域である)と判断される。しかしながら、図8(C)に示すように、読取結果が隣り合うドットが連続しているラインスクリーンの領域については、網点領域ではなく文字領域であると判断されてしまう。画像読取装置10の読取解像度が高解像度になるほど、像域分離部に拡大画像が入力されるため、このような誤判断が増加する。   The original image to be copied shown in FIG. 8A is an image whose entire area should be separated as a photographic area. When the original image is read, as shown in FIG. 8B, the area where the adjacent dots are independent from each other as a result of the reading is determined not to be a character area (a photographic area). However, as shown in FIG. 8C, the area of the line screen in which the adjacent dots of the reading result are continuous is determined to be a character area rather than a halftone area. As the reading resolution of the image reading apparatus 10 becomes higher, an enlarged image is input to the image area separation unit, and thus such misjudgment increases.

このように網点領域の抽出もれ(誤って文字領域と判断される像域分離エラー領域)が発生すると、その領域は前述の収縮処理および膨張処理によって、図8(D)に示すようにブロック形状になってしまう。   When a halftone dot region extraction leak (an image region separation error region that is erroneously determined as a character region) occurs, the region is subjected to the above-described shrinkage processing and expansion processing as shown in FIG. 8D. It becomes a block shape.

このように像域分離エラーが発生した状態で、文字領域と判断された領域に対しては精細度重視の画像処理を行い、写真領域と判断された領域に対しては階調再現重視の画像処理を行って画像を出力すると、図8(E)に示すようにブロック状に画質欠陥が発生してしまう。   In such a state where an image area separation error has occurred, image processing with emphasis on fineness is performed on an area determined as a character area, and image on which gradation reproduction is emphasized on an area determined as a photographic area. When processing is performed and an image is output, an image quality defect occurs in a block shape as shown in FIG.

図9は、低線数網点で表現された原稿画像を複写するときに発生するブロック形状の白抜けを説明する説明図である。   FIG. 9 is an explanatory diagram for explaining block-shaped white spots that occur when copying an original image represented by low-line-number halftone dots.

図9(A)に示される複写対象の原稿画像は、線数が低い網点画像である。従って、網点ドット間隔が広く網点検知処理では網点領域として検知できない場合がある。例えば、検知ウィンドウに対して新聞レベル(約70線網点)を網点領域として検知し、25線を文字領域とするようなアルゴリズムで網点領域を検知する場合、30〜60線程度の網点領域が像域分離境界域となり、この境界域で像域分離エラーが発生する。   The document image to be copied shown in FIG. 9A is a halftone dot image with a low number of lines. Therefore, there is a case where the halftone dot interval is wide and cannot be detected as a halftone dot region by the halftone detection processing. For example, when a halftone dot area is detected by an algorithm in which a newspaper level (about 70-line halftone dot) is detected as a halftone dot area and a 25-line character area is detected with respect to the detection window, a halftone line of about 30-60 lines is detected. The point area becomes an image area separation boundary area, and an image area separation error occurs in this boundary area.

従って、網点抽出部26では、ドット間隔が広く比較的低線数となっている網点領域については、図9(B)に示されるように、ドット一点がそれぞれ文字と判定され網点領域として抽出できない場合があり、このように網点抽出処理で取りこぼしが発生した状態で後段のOR処理、収縮処理、膨張処理を行って像域分離し、画像処理および画像出力を行うと、図9(C)に示すようにブロック形状の白抜けが発生してしまうことがある。   Accordingly, the halftone dot extraction unit 26 determines that each dot point is a character as shown in FIG. 9B for a halftone dot region having a wide dot interval and a relatively low line number. In the case where the halftone dot extraction process has been missed in this manner, the subsequent OR processing, contraction processing, and expansion processing are performed to separate the image area, and image processing and image output are performed. As shown in (C), block-shaped white spots may occur.

そこで、この画像処理装置11では、像域分離部18で生じた像域分離エラーを、色平坦度算出部19で算出された色平坦度等を用いて像域補正部20で補正する。   Therefore, in this image processing apparatus 11, the image area correction unit 20 corrects the image area separation error generated by the image area separation unit 18 using the color flatness calculated by the color flatness calculation unit 19.

図10は、色平坦度算出部19が行う色平坦度算出処理のメインルーチンの流れを示すフローチャートである。また、図11は、色平坦度算出処理のメインルーチンで呼び出されるサブルーチンの流れを示すフローチャートである。   FIG. 10 is a flowchart showing the flow of the main routine of the color flatness calculation process performed by the color flatness calculation unit 19. FIG. 11 is a flowchart showing the flow of a subroutine called in the main routine of the color flatness calculation process.

図10に示すメインルーチンのステップ100では、図12に示すように、色変換部13で変換されたL*a*b*色空間の画像データが表す画像がM×N画素の複数の小領域(MやNは自然数、ただし、ノイズ成分に対し十分広い領域とする)に分割されるように、該画像データを分割する。   In step 100 of the main routine shown in FIG. 10, as shown in FIG. 12, the image represented by the image data in the L * a * b * color space converted by the color conversion unit 13 is a plurality of small regions of M × N pixels. The image data is divided so that it is divided into (M and N are natural numbers, but a sufficiently wide area for noise components).

ステップ102では、各小領域について、a*b*座標上の色重心(aG、bG)、およびa*の標準偏差およびb*の標準偏差(ここではa*の標準偏差およびb*の標準偏差の双方を総称して彩度標準偏差と呼称)を算出する。   In step 102, for each small region, the color centroid (aG, bG) on the a * b * coordinate, and the standard deviation of a * and the standard deviation of b * (here, the standard deviation of a * and the standard deviation of b *) Are collectively referred to as saturation standard deviation).

各小領域の色重心(aG、bG)は、以下の式(1)、(2)を用いて算出する。   The color centroid (aG, bG) of each small region is calculated using the following equations (1) and (2).

色重心(aG、bG)は、このように各小領域のa*値、b*値の平均値を算出することによって求められる。 The color centroid (aG, bG) is obtained by calculating the average value of the a * value and b * value of each small region in this way.

また、各小領域のa*の標準偏差σa*、およびb*の標準偏差σb*は、以下の式(3)、(4)を用いて算出する。   In addition, the standard deviation σa * of a * and the standard deviation σb * of b * of each small region are calculated using the following equations (3) and (4).

a*の標準偏差σa*、およびb*の標準偏差σb*は、各小領域におけるばらつきの度合いを示す。 The standard deviation σa * of a * and the standard deviation σb * of b * indicate the degree of variation in each small area.

なお、上記算出した各小領域の色重心(aG、bG)、および彩度標準偏差(a*の標準偏差と、b*の標準偏差)は、不図示のメモリに各小領域毎に記憶しておく。   The calculated color centroid (aG, bG) and saturation standard deviation (standard deviation of a * and standard deviation of b *) are stored for each small area in a memory (not shown). Keep it.

ステップ104では、入力された画像データの画像を構成する画素の中から、注目画素を設定する。   In step 104, the target pixel is set from the pixels constituting the image of the input image data.

ステップ106では、L*C*平面上の注目画素の座標値(l、c)を算出する。ここでL*C*平面上の彩度を示すC*軸の座標値cは、a*b*平面上の中心からの距離を示し、以下の式(5)で求められる。   In step 106, the coordinate value (l, c) of the target pixel on the L * C * plane is calculated. Here, the coordinate value c of the C * axis indicating the saturation on the L * C * plane indicates the distance from the center on the a * b * plane, and is obtained by the following equation (5).

このように、各画素のC*座標値cは、各画素のa*値およびb*値から求められる。なお、各画素のL*座標値lは、入力された画像データのL*値そのままとする。 Thus, the C * coordinate value c of each pixel is obtained from the a * value and b * value of each pixel. Note that the L * coordinate value l of each pixel is the L * value of the input image data.

ステップ108では、色平坦度判定処理のサブルーチン(図11)を実行する。   In step 108, a subroutine for color flatness determination processing (FIG. 11) is executed.

図11のステップ200では、L*C*平面上の座標位置(l,c)が、色領域(彩度が高い領域)に位置しているか否かを判定する。なお、このような、L*C*平面上の座標位置(l,c)による色判定処理は、図13に示す閾値(THL_AVE1、THL_AVE2、THC_AVE1、THC_AVE2)を用いて行われる。そして、ステップ200では、C*座標値cが閾値THC_AVE2以上であれば、L*座標値lがどのような値であろうとも色領域に位置していると判定される。   In step 200 of FIG. 11, it is determined whether or not the coordinate position (l, c) on the L * C * plane is located in the color region (region with high saturation). Note that such color determination processing based on the coordinate position (l, c) on the L * C * plane is performed using threshold values (THL_AVE1, THL_AVE2, THC_AVE1, THC_AVE2) shown in FIG. In step 200, if the C * coordinate value c is equal to or greater than the threshold value THC_AVE2, it is determined that the L * coordinate value l is located in the color region regardless of the value.

ステップ200で、L*C*平面上の座標位置(l,c)が、色領域に位置していないと判定した場合には、ステップ208に移行し、L*C*平面上の座標位置(l,c)が、中間領域に位置しているか否かを判定する。ここでは、C*座標値cが閾値THC_AVE1以上閾値THC_AVE2未満であれば、L*座標値lがどのような値であろうとも中間領域に位置していると判定される。また、C*座標値cが閾値THC_AVE1未満であっても、L*座標値lが閾値THL_AVE1以上閾値THL_AVE2未満であれば、中間領域に位置していると判定される。   If it is determined in step 200 that the coordinate position (l, c) on the L * C * plane is not located in the color area, the process proceeds to step 208, where the coordinate position ( It is determined whether l, c) is located in the intermediate area. Here, if the C * coordinate value c is greater than or equal to the threshold value THC_AVE1 and less than the threshold value THC_AVE2, it is determined that the L * coordinate value l is located in the intermediate region regardless of the value. Even if the C * coordinate value c is less than the threshold value THC_AVE1, if the L * coordinate value 1 is not less than the threshold value THL_AVE1 and less than the threshold value THL_AVE2, it is determined that the object is located in the intermediate region.

ステップ208で、L*C*平面上の座標位置(l,c)が、中間領域に位置していないと判定した場合には、ステップ216に移行し、L*C*平面上の座標位置(l,c)が、黒領域(彩度が低い領域であって、黒に近いあるいは黒の領域)に位置しているか否かを判定する。ここでは、C*座標値cが閾値THC_AVE1未満であって、L*座標値lがTHL_AVE1未満であれば黒領域に位置していると判定される。   If it is determined in step 208 that the coordinate position (l, c) on the L * C * plane is not located in the intermediate region, the process proceeds to step 216, where the coordinate position ( It is determined whether or not l, c) is located in a black region (a region with low saturation and close to black or a black region). Here, if the C * coordinate value c is less than the threshold THC_AVE1 and the L * coordinate value l is less than THL_AVE1, it is determined that the pixel is located in the black region.

ステップ216で、L*C*平面上の座標位置(l,c)が、黒領域に位置していないと判定した場合には、座標位置(l,c)は白領域(彩度が低い領域であって、白に近いあるいは白の領域)に位置していると判定して、ステップ224に移行する。   If it is determined in step 216 that the coordinate position (l, c) on the L * C * plane is not located in the black area, the coordinate position (l, c) is a white area (an area with low saturation). Then, it is determined that the image is located in a region close to white or white), and the process proceeds to step 224.

ステップ224では、注目画素の色平坦度として白平坦・非平坦領域を示す「0」を設定する。なお、白平坦領域とは、白に近いあるいは白の領域であって、色相や彩度の変化が小さい領域を示し、非平坦領域は、色相や彩度の変化が大きな領域を示す。   In step 224, “0” indicating a white flat / non-flat region is set as the color flatness of the target pixel. Note that the white flat region is a region close to white or white and has a small change in hue and saturation, and the non-flat region indicates a region in which a change in hue and saturation is large.

一方、ステップ200で、L*C*平面上の座標位置(l,c)が、色領域に位置していると判定した場合には、ステップ202に移行し、注目画素が含まれるM×Nの小領域の彩度標準偏差(a*の標準偏差σa*およびb*の標準偏差σb*)が閾値THC_RI以下か否かを判定する。ここで、彩度標準偏差が閾値THC_RI以下であると判定した場合には、ステップ204で、平坦色相角が閾値THUEI以下か否かを判定する。なお、ここで平坦色相角とは、図14に示すように、a*b*平面上の色重心(aG、bG)に対する注目画素の座標値(a*、b*)の角度偏差をいう。   On the other hand, if it is determined in step 200 that the coordinate position (l, c) on the L * C * plane is located in the color area, the process proceeds to step 202, where M × N including the target pixel. It is determined whether or not the saturation standard deviation (standard deviation σa * of a * and standard deviation σb * of b *) of the small area is equal to or smaller than a threshold THC_RI. If it is determined that the saturation standard deviation is equal to or smaller than the threshold value THC_RI, it is determined in step 204 whether or not the flat hue angle is equal to or smaller than the threshold value THUEI. Here, the flat hue angle is an angular deviation of the coordinate value (a *, b *) of the pixel of interest with respect to the color centroid (aG, bG) on the a * b * plane, as shown in FIG.

ステップ204で、平坦色相角が閾値THUEI以下であると判定した場合には、ステップ206で、注目画素の色平坦度として色平坦領域を示す「3」を設定する。色平坦領域とは、彩度が高く、色相や彩度の変化が小さい領域をいう。   If it is determined in step 204 that the flat hue angle is equal to or smaller than the threshold THUEI, in step 206, “3” indicating a color flat region is set as the color flatness of the pixel of interest. The color flat region is a region having high saturation and small changes in hue and saturation.

また、ステップ208で、L*C*平面上の座標位置(l,c)が、中間領域に位置していると判定した場合には、ステップ210に移行し、注目画素が含まれるM×Nの小領域の彩度標準偏差(a*の標準偏差σa*およびb*の標準偏差σb*)が閾値THC_RM以下か否かを判定する。ここで、彩度標準偏差が閾値THC_RM以下であると判定した場合には、ステップ212で、平坦色相角が閾値THUEM以下か否かを判定する。   If it is determined in step 208 that the coordinate position (l, c) on the L * C * plane is located in the intermediate region, the process proceeds to step 210 and M × N including the pixel of interest is included. It is determined whether or not the saturation standard deviation (standard deviation σa * of a * and standard deviation σb * of b *) of the small area is equal to or smaller than a threshold value THC_RM. If it is determined that the saturation standard deviation is equal to or smaller than the threshold value THC_RM, it is determined in step 212 whether or not the flat hue angle is equal to or smaller than the threshold value THUEM.

ステップ212で、平坦色相角が閾値THUEM以下であると判定した場合には、ステップ214で、注目画素の色平坦度として中間平坦領域を示す「2」を設定する。中間平坦領域は、白、黒領域と色領域の中間領域であって、色相や彩度の変化が小さい領域をいう。   If it is determined in step 212 that the flat hue angle is equal to or smaller than the threshold THUEM, “2” indicating an intermediate flat region is set as the color flatness of the pixel of interest in step 214. The intermediate flat area is an intermediate area between the white and black areas and the color area and has a small change in hue and saturation.

また、ステップ216で、L*C*平面上の座標位置(l,c)が、黒領域に位置していると判定した場合には、ステップ218に移行し、注目画素が含まれるM×Nの小領域の彩度標準偏差(a*の標準偏差σa*およびb*の標準偏差σb*)が閾値THC_RB以下か否かを判定する。ここで、彩度標準偏差が閾値THC_RB以下であると判定した場合には、ステップ220で、平坦色相角が閾値THUEB以下か否かを判定する。   If it is determined in step 216 that the coordinate position (l, c) on the L * C * plane is located in the black region, the process proceeds to step 218, and M × N including the target pixel. It is determined whether or not the saturation standard deviation (standard deviation σa * of a * and standard deviation σb * of b *) of the small area is equal to or smaller than a threshold value THC_RB. If it is determined that the saturation standard deviation is equal to or smaller than the threshold value THC_RB, it is determined in step 220 whether or not the flat hue angle is equal to or smaller than the threshold value THUEB.

ステップ220で、平坦色相角が閾値THUEB以下であると判定した場合には、ステップ222で、注目画素の色平坦度として黒平坦領域を示す「1」を設定する。黒平坦領域とは、黒に近いあるいは黒の領域であって、色相や彩度の変化が小さい領域をいう。   If it is determined in step 220 that the flat hue angle is equal to or smaller than the threshold THUEB, “1” indicating a black flat region is set as the color flatness of the pixel of interest in step 222. The black flat region is a region close to black or black and having a small change in hue and saturation.

また、ステップ202、204、210、212,218、および220において、否定判定した場合には、ステップ224に移行し、注目画素の色平坦度として白平坦・非平坦領域を示す「0」を設定する。   If a negative determination is made in steps 202, 204, 210, 212, 218, and 220, the process proceeds to step 224, and “0” indicating a white flat / non-flat area is set as the color flatness of the target pixel. To do.

注目画素について色平坦度を求めた後、図10のステップ110では、入力された画像データが表す全画素について色平坦度判定処理が終了したか否かを判定する。ステップ110で全画素について色平坦度判定処理が終了していないと判定した場合には、ステップ112に移行し、次の画素を注目画素に設定して、ステップ106に戻り、上記処理を繰り返す。   After obtaining the color flatness for the pixel of interest, in step 110 of FIG. 10, it is determined whether or not the color flatness determination processing has been completed for all the pixels represented by the input image data. If it is determined in step 110 that the color flatness determination process has not been completed for all pixels, the process proceeds to step 112, the next pixel is set as the target pixel, the process returns to step 106, and the above process is repeated.

このように各画素について色平坦度判定処理を行うことによって、図15に示すように、各画素の色平坦度が0〜3の判定結果のいずれかに設定される。なお、色平坦領域、中間平坦領域、黒平坦領域と判定された部分は、彩度の変化や色相の変化が小さく平坦な部分であるため、非文字の領域である可能性が高い。また、白平坦・非平坦領域と判定された部分は、白色の領域であって文字や線画として誤認識されることがないか、または、彩度の変化や色相の変化が大きく、文字の領域である可能性が高い。   By performing the color flatness determination process for each pixel in this way, the color flatness of each pixel is set to one of determination results 0 to 3 as shown in FIG. Note that the portions determined as the color flat region, the intermediate flat region, and the black flat region are flat portions with small changes in saturation and hue, and are highly likely to be non-character regions. In addition, a portion determined to be a white flat / non-flat region is a white region that is not mistakenly recognized as a character or line drawing, or has a large change in saturation or hue, resulting in a character region. Is likely.

そして、ステップ110で全画素について色平坦度判定処理が終了したと判定した場合には、ステップ114に移行する。   If it is determined in step 110 that the color flatness determination process has been completed for all pixels, the process proceeds to step 114.

ステップ114では、各画素について求めた色平坦度に基づいて、画像データが示す画像の各画素の位置に対応して上記求めた色平坦度をマッピングした色平坦度タグ画像データを生成する。そして、本メインルーチンを終了する。   In step 114, based on the color flatness obtained for each pixel, color flatness tag image data in which the obtained color flatness is mapped corresponding to the position of each pixel of the image indicated by the image data is generated. Then, the main routine ends.

なお、彩度標準偏差の閾値として用いたTHC_RI、THC_RM、THC_RBであるが、それぞれ異なる値とすることが好ましいが、同じ値としてもよい。また、同様に平坦色相角の閾値として用いたTHUEI、THUEM、THUEBについても、それぞれ異なる値としてもよいし、同じ値としてもよい。   Note that THC_RI, THC_RM, and THC_RB used as threshold values for the saturation standard deviation are preferably different values, but may be the same value. Similarly, THUEI, THUEM, and THUEB used as the threshold values of the flat hue angle may be different values or the same value.

また、ここでは、平坦度を求めるためにa*およびb*の標準偏差を求める例について説明したが、標準偏差には限定されず、例えば分散など、ばらつきの度合いを示す値であれば、特に限定されない。   Further, here, an example of obtaining the standard deviation of a * and b * for obtaining the flatness has been described. However, the present invention is not limited to the standard deviation, and is not particularly limited as long as it is a value indicating the degree of variation such as variance. It is not limited.

このように色平坦度算出部19で求めた色平坦度タグ画像データが示す各画素の色平坦度は、像域補正部20に出力される。   As described above, the color flatness of each pixel indicated by the color flatness tag image data obtained by the color flatness calculation unit 19 is output to the image area correction unit 20.

図16は、像域補正部20の構成を示すブロック図である。   FIG. 16 is a block diagram illustrating a configuration of the image area correction unit 20.

像域補正部20は、像域分離エラーブロックパターン検知処理部34と、ブロック補正処理部35とを備えている。   The image area correction unit 20 includes an image area separation error block pattern detection processing unit 34 and a block correction processing unit 35.

像域分離エラーブロックパターン検知処理部34には、像域分離タグ画像データが示す像域分離結果、色平坦度タグ画像データが示す各画素の色平坦度、像域分離部18の収縮処理部28の収縮処理結果が入力される。像域分離エラーブロックパターン検知処理部34は、像域分離結果、色平坦度、収縮処理結果に基づいてブロック状に像域分離エラーが発生した部分を検知して、検知結果をブロック補正処理部35に出力する。   The image area separation error block pattern detection processing unit 34 includes an image area separation result indicated by the image area separation tag image data, a color flatness of each pixel indicated by the color flatness tag image data, and a contraction processing unit of the image area separation unit 18. 28 contraction processing results are input. The image area separation error block pattern detection processing unit 34 detects a part where an image area separation error has occurred in a block shape based on the image area separation result, the color flatness, and the contraction processing result, and the detection result is a block correction processing unit. 35.

ブロック補正処理部35には、像域分離エラーブロックパターン検知処理部34の検知結果、および像域分離部18の像域分離結果が入力される。ブロック補正処理部35は、像域分離エラーブロックパターン検知処理部34の検知結果に基づいて像域分離部18の像域分離結果を補正して出力する。より具体的には、像域分離部18で文字領域と誤判定された写真領域を、本来の写真領域となるように補正する。   The block correction processing unit 35 receives the detection result of the image region separation error block pattern detection processing unit 34 and the image region separation result of the image region separation unit 18. The block correction processing unit 35 corrects and outputs the image region separation result of the image region separation unit 18 based on the detection result of the image region separation error block pattern detection processing unit 34. More specifically, a photographic region erroneously determined as a character region by the image region separation unit 18 is corrected so as to become an original photographic region.

図17は、像域分離エラーブロックパターン検知処理部34の構成を示すブロック図である。   FIG. 17 is a block diagram illustrating a configuration of the image area separation error block pattern detection processing unit 34.

像域分離エラーブロックパターン検知処理部34は、ブロック検知部36、横線検知部37、縦線検知部38、ブロックエッジ検知部39、OR処理部40、ON画素加算部41、およびしきい値処理部42とを備えている。   The image area separation error block pattern detection processing unit 34 includes a block detection unit 36, a horizontal line detection unit 37, a vertical line detection unit 38, a block edge detection unit 39, an OR processing unit 40, an ON pixel addition unit 41, and threshold processing. Part 42.

図18は、ブロック検知部36の構成および処理内容を示す図である。   FIG. 18 is a diagram illustrating the configuration and processing contents of the block detection unit 36.

ブロック検知部36は、第1テンプレートマッチング処理部43、第2テンプレートマッチング処理部44、第3テンプレートマッチング処理部45、第4テンプレートマッチング処理部46、第5テンプレートマッチング処理部47、OR処理部48、判定部49を備えている。   The block detection unit 36 includes a first template matching processing unit 43, a second template matching processing unit 44, a third template matching processing unit 45, a fourth template matching processing unit 46, a fifth template matching processing unit 47, and an OR processing unit 48. The determination unit 49 is provided.

第1テンプレートマッチング処理部43、第2テンプレートマッチング処理部44、第3テンプレートマッチング処理部45、第4テンプレートマッチング処理部46、および第5テンプレートマッチング処理部47は、予め定められたテンプレート(検知パターン)を用いたテンプレートマッチング処理を行う。   The first template matching processing unit 43, the second template matching processing unit 44, the third template matching processing unit 45, the fourth template matching processing unit 46, and the fifth template matching processing unit 47 are configured with predetermined templates (detection patterns). ) Is used to perform template matching processing.

より具体的に説明すると、第1テンプレートマッチング処理部43は、注目画素を中心とした1×1画素の領域の像域分離結果が全て「1」の場合(すなわち、注目画素の像域分離結果が「1」の場合)に、「1」を出力し、それ以外は「0」を出力する。   More specifically, the first template matching processing unit 43 determines that the image area separation results of the 1 × 1 pixel area centered on the target pixel are all “1” (that is, the image area separation result of the target pixel). "1"), "1" is output, otherwise "0" is output.

第2テンプレートマッチング処理部44は、注目画素を中心とした3×3画素の領域の像域分離結果が全て「1」の場合に、「1」を出力し、それ以外は「0」を出力する。   The second template matching processing unit 44 outputs “1” when the image area separation results of the 3 × 3 pixel region centered on the target pixel are all “1”, and outputs “0” otherwise. To do.

第3テンプレートマッチング処理部45は、注目画素を中心とした5×5画素の領域の像域分離結果が全て「1」の場合に、「1」を出力し、それ以外は「0」を出力する。   The third template matching processing unit 45 outputs “1” when the image region separation results of the 5 × 5 pixel region centered on the target pixel are all “1”, and outputs “0” otherwise. To do.

第4テンプレートマッチング処理理部46は、注目画素を中心とした7×7画素の領域の像域分離結果が全て「1」の場合に、「1」を出力し、それ以外は「0」を出力する。   The fourth template matching processing unit 46 outputs “1” when the image region separation results of the 7 × 7 pixel region centered on the target pixel are all “1”, and “0” otherwise. Output.

第5テンプレートマッチング処理部47は、注目画素を中心とした9×9画素の領域の像域分離結果が全て「1」の場合に、「1」を出力し、それ以外は「0」を出力する。   The fifth template matching processing unit 47 outputs “1” when the image region separation results of the 9 × 9 pixel region centered on the target pixel are all “1”, and outputs “0” otherwise. To do.

なお、ここで説明したテンプレートマッチング処理は一例であって、上記第1テンプレートマッチング処理部43、第2テンプレートマッチング処理部44、第3テンプレートマッチング処理部45、第4テンプレートマッチング処理部46、および第5テンプレートマッチング処理部47のみに限定されるものではない。   Note that the template matching processing described here is an example, and the first template matching processing unit 43, the second template matching processing unit 44, the third template matching processing unit 45, the fourth template matching processing unit 46, and the It is not limited to the 5 template matching processing unit 47 alone.

第1テンプレートマッチング処理部43、第2テンプレートマッチング処理部44、第3テンプレートマッチング処理部45、第4テンプレートマッチング処理部46、および第5テンプレートマッチング処理部47からの出力結果はOR処理部48に出力される。   Output results from the first template matching processing unit 43, the second template matching processing unit 44, the third template matching processing unit 45, the fourth template matching processing unit 46, and the fifth template matching processing unit 47 are output to the OR processing unit 48. Is output.

OR処理部48は、第1テンプレートマッチング処理部43、第2テンプレートマッチング処理部44、第3テンプレートマッチング処理部45、第4テンプレートマッチング処理部46、および第5テンプレートマッチング処理部47からの出力結果の論理和をとってテンプレートマッチング処理結果として出力する。すなわち、これら複数のテンプレートマッチング処理部の少なくとも1つから「1」が出力された場合に、判定部49に「1」を出力し、それ以外は、判定部49に「0」を出力する。   The OR processing unit 48 outputs results from the first template matching processing unit 43, the second template matching processing unit 44, the third template matching processing unit 45, the fourth template matching processing unit 46, and the fifth template matching processing unit 47. Is output as a template matching process result. That is, “1” is output to the determination unit 49 when “1” is output from at least one of the plurality of template matching processing units, and “0” is output to the determination unit 49 otherwise.

判定部49には、OR処理部48からのテンプレートマッチング処理結果、注目画素の色平坦度、および注目画素の収縮処理部28における収縮処理結果が入力される。   The determination unit 49 receives the template matching processing result from the OR processing unit 48, the color flatness of the target pixel, and the contraction processing result in the target pixel contraction processing unit 28.

判定部49では、注目画素についてのテンプレートマッチング処理結果が「1」であり、かつ色平坦度が「1」以上であり、かつ収縮処理結果が「1:白画素」である(すなわち収縮処理で白画素となる)場合には、「1」を出力し、それ以外の場合には、「0」を出力する。   In the determination unit 49, the template matching processing result for the target pixel is “1”, the color flatness is “1” or more, and the contraction processing result is “1: white pixel” (that is, in the contraction processing). “1” is output in the case of white pixels), and “0” is output in other cases.

なお、判定部49から「1」が出力された場合には、彩度の変化や色相の変化が小さく平坦な部分であるにも拘わらず、注目画素がブロック形状の文字領域の一部として像域分離されている可能性が高い。   When “1” is output from the determination unit 49, the pixel of interest is imaged as a part of a block-shaped character region even though the change in saturation and the change in hue are small and flat. There is a high possibility that the area is separated.

なお、ここでは、テンプレートマッチング処理結果および色平坦度に加えて、収縮処理結果も参照してブロック検知を行っている。これは、収縮処理を行っても白画素にならなかった画素は、文字領域ではない可能性が高いためであり、収縮処理結果を用いることによって像域分離エラーの検知の精度をより高めることができる。   Here, in addition to the template matching processing result and the color flatness, the block detection is performed with reference to the contraction processing result. This is because a pixel that does not become a white pixel even after the shrinkage process is highly likely not to be a character area. By using the shrinkage process result, the accuracy of detecting an image area separation error can be further improved. it can.

横線検知部37は、図19に示すテンプレート(横線検知パターン)を用いて、横線検知を行う。具体的には、注目画素の収縮処理結果が「1:白画素」の場合であって注目画素を含む1×11画素全ての像域分離結果が「1」の場合に、「1」を出力する。   The horizontal line detection part 37 performs horizontal line detection using the template (horizontal line detection pattern) shown in FIG. Specifically, when the contraction processing result of the target pixel is “1: white pixel” and the image area separation result of all 1 × 11 pixels including the target pixel is “1”, “1” is output. To do.

縦線検知部38は、図20に示すテンプレート(縦線検知パターン)を用いて、縦線検知を行う。具体的には、注目画素の収縮処理結果が「1:白画素」の場合であって注目画素を含む11×1画素全ての像域分離結果が「1」の場合に、「1」を出力する。   The vertical line detection unit 38 performs vertical line detection using the template (vertical line detection pattern) shown in FIG. Specifically, when the contraction processing result of the target pixel is “1: white pixel” and the image area separation result of all 11 × 1 pixels including the target pixel is “1”, “1” is output. To do.

横線検知部37および縦線検知部38の検知処理によって、ブロックのエッジを構成する横線、縦線を検出することができる。なお、ここで説明した横線検知パターンや縦線検知パターンは一例であって、1×11画素、あるいは11×1画素のサイズに限定されるものではない。なお、横線検知部37、縦線検知部38では、像域分離部18の膨張処理部29で用いた参照ウィンドウのサイズよりも大きなサイズの検知パターンを用いる。   By the detection processing of the horizontal line detection unit 37 and the vertical line detection unit 38, it is possible to detect the horizontal lines and vertical lines constituting the edge of the block. The horizontal line detection pattern and the vertical line detection pattern described here are merely examples, and the size is not limited to 1 × 11 pixels or 11 × 1 pixels. The horizontal line detection unit 37 and the vertical line detection unit 38 use a detection pattern having a size larger than the size of the reference window used in the expansion processing unit 29 of the image area separation unit 18.

また、ここでも収縮処理結果を参照して縦線横線検知を行うのは、前述のブロック検知と同様の理由からである。   In this case as well, vertical line and horizontal line detection is performed with reference to the contraction processing result for the same reason as the block detection described above.

図21は、ブロックエッジ検知部39の構成および処理内容を示す図である。   FIG. 21 is a diagram illustrating the configuration and processing contents of the block edge detection unit 39.

ブロックエッジ検知部39は、第1ブロックエッジ検知処理部50、第2ブロックエッジ検知処理部51、第3ブロックエッジ検知処理部52、第4ブロックエッジ検知処理部53、OR処理部54、および判定部55を備えている。   The block edge detection unit 39 includes a first block edge detection processing unit 50, a second block edge detection processing unit 51, a third block edge detection processing unit 52, a fourth block edge detection processing unit 53, an OR processing unit 54, and a determination. A portion 55 is provided.

第1ブロックエッジ検知処理部50、第2ブロックエッジ検知処理部51、第3ブロックエッジ検知処理部52、および第4ブロックエッジ検知処理部53は、それぞれ図21に示すような予め定められたテンプレート(検知パターン)を用いて、注目画素から所定画素(ここでは5画素)だけ離れた部分に横線検知部37または縦線検知部38でエッジが検出された画素が複数連続して存在するか否かを判定し、存在していれば、1を出力する。   The first block edge detection processing unit 50, the second block edge detection processing unit 51, the third block edge detection processing unit 52, and the fourth block edge detection processing unit 53 are respectively predetermined templates as shown in FIG. Whether or not there are a plurality of pixels whose edges are detected by the horizontal line detection unit 37 or the vertical line detection unit 38 continuously in a part away from the target pixel by a predetermined pixel (here, 5 pixels) using (detection pattern). If it exists, 1 is output.

OR処理部54は、第1ブロックエッジ検知処理部50、第2ブロックエッジ検知処理部51、第3ブロックエッジ検知処理部52、および第4ブロックエッジ検知処理部53からの出力結果の論理和をとってブロックエッジ検知結果として出力する。すなわち、これら複数のブロックエッジ検知処理部の少なくとも1つから「1」が出力された場合には、ブロックエッジ検知結果として「1」を出力し、それ以外は「0」を出力する。   The OR processing unit 54 calculates the logical sum of the output results from the first block edge detection processing unit 50, the second block edge detection processing unit 51, the third block edge detection processing unit 52, and the fourth block edge detection processing unit 53. The result is output as a block edge detection result. That is, when “1” is output from at least one of the plurality of block edge detection processing units, “1” is output as the block edge detection result, and “0” is output otherwise.

判定部55には、OR処理部54からのブロックエッジ検知結果、注目画素の色平坦度、および注目画素の像域分離結果が入力される。   The determination unit 55 receives the block edge detection result, the color flatness of the target pixel, and the image area separation result of the target pixel from the OR processing unit 54.

判定部55では、注目画素についてのブロックエッジ検知結果が「1」であり、かつ色平坦度が「1」以上であり、かつ像域分離結果が「1」である場合には、「1」を出力し、それ以外の場合には、「0」を出力する。   In the determination unit 55, when the block edge detection result for the target pixel is “1”, the color flatness is “1” or more, and the image area separation result is “1”, “1”. In other cases, “0” is output.

なお、判定部55から「1」が出力された場合には、彩度の変化や色相の変化が小さく平坦な部分であって、文字や線画ではない縦線、横線パターンのエッジ部分であるにも拘わらず、注目画素が文字領域として像域分離されている可能性が高い。   Note that when “1” is output from the determination unit 55, the change in saturation and hue is small and flat, and is an edge portion of a vertical line or horizontal line pattern that is not a character or line drawing. Nevertheless, there is a high possibility that the pixel of interest is image-region separated as a character region.

ブロック検知部36から出力された検知結果と、ブロックエッジ検知部39から出力された検知結果は、OR処理部40に出力される。OR処理部40では入力された検知結果の論理和をとってON画素加算部41に出力する。   The detection result output from the block detection unit 36 and the detection result output from the block edge detection unit 39 are output to the OR processing unit 40. The OR processing unit 40 calculates the logical sum of the input detection results and outputs it to the ON pixel addition unit 41.

ON画素加算部41は、入力された検知結果をバッファリングし、注目画素について、注目画素を中心としたm×m画素の矩形領域に含まれる各画素についての検知結果を加算する。例えば、加算対象が5×5画素の矩形領域である場合には、加算結果は0〜25の値をとる。   The ON pixel adding unit 41 buffers the input detection result, and adds the detection result for each pixel included in a rectangular area of m × m pixels centered on the target pixel. For example, when the addition target is a rectangular area of 5 × 5 pixels, the addition result takes a value of 0 to 25.

しきい値処理部42は、ON画素加算部41での加算結果と予め定められたしきい値とを比較し、加算結果がしきい値以上であればブロック補正処理部35に対して像域分離エラーブロックパターン検知結果として「1」を出力し、加算結果がしきい値未満であれば、ブロック補正処理部35に「0」を出力する。これにより、各画素毎に像域分離エラーブロックパターン検知結果が出力される。なお、像域分離エラーブロックパターン検知結果「1」は、本来写真領域であるべき領域が文字領域として像域分離された(すなわち、像域分離エラーが生じた)ブロックパターンを検知したことを示し、像域分離エラーブロックパターン検知結果「0」は、像域分離エラーが生じたブロックパターンは検知されなかったことを示す。   The threshold value processing unit 42 compares the addition result from the ON pixel addition unit 41 with a predetermined threshold value. “1” is output as the separation error block pattern detection result, and “0” is output to the block correction processing unit 35 if the addition result is less than the threshold value. Thereby, an image area separation error block pattern detection result is output for each pixel. The image area separation error block pattern detection result “1” indicates that a block pattern in which an area that should originally be a photographic area has been separated as a character area (that is, an image area separation error has occurred) has been detected. The image area separation error block pattern detection result “0” indicates that the block pattern in which the image area separation error has occurred is not detected.

このように、注目画素を含む所定範囲の画素についての検知結果を加算してしきい値と比較することで、像域分離エラーを精度高く検出することができる。   In this way, by adding the detection results for the pixels in a predetermined range including the target pixel and comparing it with the threshold value, the image area separation error can be detected with high accuracy.

ブロック補正処理部35は、像域分離エラーブロックパターン検知結果から像域分離結果を補正する。   The block correction processing unit 35 corrects the image area separation result from the image area separation error block pattern detection result.

図22は、ブロック補正処理部35が実行する補正処理の流れを示すフローチャートである。   FIG. 22 is a flowchart showing the flow of correction processing executed by the block correction processing unit 35.

ステップ300では、注目画素を設定する。   In step 300, a target pixel is set.

ステップ302では、像域分離部18で生成された像域分離タグ画像データから注目画素の像域分離結果を取得すると共に、像域分離エラーブロックパターン検知処理部34から注目画素についての像域分離エラーブロックパターン検知結果を取得する。   In step 302, the image area separation result of the pixel of interest is acquired from the image area separation tag image data generated by the image area separation unit 18, and the image area separation for the pixel of interest is performed from the image area separation error block pattern detection processing unit 34. Get error block pattern detection result.

ステップ304では、注目画素の像域分離結果が「0(写真領域)」であるか「1(文字領域)」であるかを判断する。ここで、像域分離結果が「1」であると判断した場合には、ステップ306に移行し、像域分離エラーブロックパターン検知結果が「0」であるか、「1」であるかを判断する。ここで、像域分離エラーブロックパターン検知結果が「1」であると判断した場合には、ステップ308で、像域分離結果を「1」から「0」に補正して、ステップ310に移行する。   In step 304, it is determined whether the image area separation result of the target pixel is “0 (photo area)” or “1 (character area)”. If it is determined that the image area separation result is “1”, the process proceeds to step 306 to determine whether the image area separation error block pattern detection result is “0” or “1”. To do. If it is determined that the image area separation error block pattern detection result is “1”, the image area separation result is corrected from “1” to “0” in step 308, and the process proceeds to step 310. .

一方、ステップ304で、像域分離結果が「0」であると判断した場合、およびステップ306で、像域分離エラーブロックパターン検知結果が「0」であると判断した場合には、ステップ308の補正処理は行わずにステップ310に移行する。   On the other hand, if it is determined in step 304 that the image area separation result is “0”, and if it is determined in step 306 that the image area separation error block pattern detection result is “0”, step 308 The process proceeds to step 310 without performing the correction process.

ステップ310では、全画素について処理済みか否かを判断する。ここで全画素について処理済みでないと判断した場合には、ステップ312に移行し、次の画素を注目画素に設定してステップ302に戻り、上記処理を繰り返す。   In step 310, it is determined whether or not all pixels have been processed. If it is determined that all the pixels have not been processed, the process proceeds to step 312, the next pixel is set as the target pixel, the process returns to step 302, and the above process is repeated.

一方、ステップ310で、全画素について処理済みだと判断した場合に補正処理は終了する。   On the other hand, when it is determined in step 310 that all pixels have been processed, the correction process ends.

このように、本実施の形態では、文字領域と判定された画素について、像域分離エラーが生じたブロックパターンが検知された場合に、該画素の像域分離結果を写真領域に補正する。   Thus, in this embodiment, when a block pattern in which an image area separation error has occurred is detected for a pixel determined to be a character area, the image area separation result of the pixel is corrected to a photographic area.

補正された像域分離タグ画像データおよび色平坦度算出部19で算出された色平坦度タグ画像データは縮拡部16に出力され、縮拡部14と同一倍率で縮小・拡大されて、画像処理部17に出力される。   The corrected image area separation tag image data and the color flatness tag image data calculated by the color flatness calculation unit 19 are output to the enlargement / reduction unit 16 and reduced / enlarged at the same magnification as that of the enlargement / reduction unit 14. It is output to the processing unit 17.

画像処理部17では、縮拡部14から出力された画像データに対して画像処理を行うが、このとき、縮拡部16から出力された像域分離タグ画像データが示す像域分離結果、および色平坦度タグ画像データが示す色平坦度の各々に応じて画像処理を行う。   The image processing unit 17 performs image processing on the image data output from the enlargement / reduction unit 14. At this time, an image area separation result indicated by the image area separation tag image data output from the reduction / enlargement unit 16, and Image processing is performed according to each color flatness indicated by the color flatness tag image data.

図23は、画像処理部17の空間補正部21で行われる空間周波数補正処理を説明する説明図である。   FIG. 23 is an explanatory diagram illustrating the spatial frequency correction processing performed by the spatial correction unit 21 of the image processing unit 17.

空間補正部21は、入力された画像データ(図23(A)参照)に対して、DF(デジタルフィルタ)係数がマトリクス状に配列されたフィルタ(図23(B)参照)を用いてフィルタ処理を行って空間周波数を補正した出力データ(図23(C)参照)を生成する。   The spatial correction unit 21 performs filter processing on input image data (see FIG. 23A) using a filter (see FIG. 23B) in which DF (digital filter) coefficients are arranged in a matrix. To generate output data (see FIG. 23C) in which the spatial frequency is corrected.

この空間周波数補正では、像域分離結果と色平坦度とに応じて用いるフィルタを異ならせている。本実施の形態では、図23(A)に示すように、像域分離結果と色平坦度とに応じてDF係数の特性が定まり、これに応じて空間周波数補正に使用するフィルタを選択する。図23(A)に示すような空間周波数補正に使用すべきフィルタ選択面が像域分離結果と色平坦度とに応じて記憶されたテーブルは、予め不図示のメモリなどに記憶され参照される。   In this spatial frequency correction, different filters are used according to the image area separation result and the color flatness. In the present embodiment, as shown in FIG. 23A, the characteristics of the DF coefficient are determined according to the image area separation result and the color flatness, and a filter used for spatial frequency correction is selected according to this. A table in which the filter selection surface to be used for spatial frequency correction as shown in FIG. 23A is stored according to the image area separation result and the color flatness is stored and referred to in advance in a memory (not shown) or the like. .

なお、画像処理部17における色変換部22、階調補正部23、スクリーン生成部24においても、空間補正部21と同様に、像域分離結果および色平坦度に応じて処理に用いるLUTやスクリーン等を適応的に切替えて用いることができる。   Note that the color conversion unit 22, the gradation correction unit 23, and the screen generation unit 24 in the image processing unit 17 also use the LUT and screen used for processing according to the image area separation result and the color flatness, similarly to the space correction unit 21. Etc. can be used with adaptive switching.

画像処理部17で画像処理されて生成された出力用データは、画像出力装置12に出力され、画像出力装置12は、出力用データに基づいて高品質な画像を出力することができる。   The output data generated by image processing by the image processing unit 17 is output to the image output device 12, and the image output device 12 can output a high-quality image based on the output data.

以上説明したように、本実施の形態では、色平坦度等に基づいて像域分離結果を補正するようにしたため、補正した像域分離結果に応じて適切な画像処理を施すことができ、像域分離エラーによる画質の欠陥を低減させることができる。   As described above, in the present embodiment, since the image area separation result is corrected based on the color flatness or the like, appropriate image processing can be performed according to the corrected image area separation result, and the image Image quality defects due to area separation errors can be reduced.

特に、文字領域と誤判定された写真領域の境界部分で段階的にあるいは連続的に変化させてぼかすような従来の方法と異なり、像域分離エラーそのものを補正するため、本来必要とされている階調性を再現することができる。なお、従来の方法では検知パラメータを写真よりに設定することにより像域分離エラーを回避しようとしているが、その結果、トレードオフの関係にある文字の検知レベルを下げる結果になる。しかしながら、上述したように色平坦度などに基づいて像域分離補正を行えば、文字の検知レベルが低下することはない。   In particular, it is originally necessary to correct the image area separation error itself, unlike the conventional method of blurring stepwise or continuously at the boundary part of the photograph area erroneously determined as the character area. The gradation can be reproduced. In the conventional method, an attempt is made to avoid the image area separation error by setting the detection parameter to that of a photograph, but as a result, the detection level of characters having a trade-off relationship is lowered. However, if the image area separation correction is performed based on the color flatness as described above, the character detection level does not decrease.

また、上記説明したように参照ウィンドウ等を用いた像域分離手法を用いた場合、文字領域と写真領域の境界部分で段階的にあるいは連続的に変化させてぼかすような従来の方法では、低線数網点や、多値レーザープリンタで一般なYMCK万線(ライン)スクリーンや、ローテーションスクリーンで画像が形成された原稿を用いて複写する場合に発生するブロック形状の像域分離エラーについては何ら解決できず、画質欠陥を補正することができない。しかしながら、上記説明したようにブロックパターンを検知して補正すれば、そうした像域分離エラーを補正することができる。   In addition, when the image area separation method using a reference window or the like is used as described above, the conventional method that blurs in a stepwise or continuously changing manner at the boundary between the character area and the photographic area is low. What about block-type image area separation errors that occur when copying using a line number halftone dot, a YMCK multi-line (line) screen that is common in multi-value laser printers, or a document with an image formed on a rotation screen? It cannot be solved and the image quality defect cannot be corrected. However, if the block pattern is detected and corrected as described above, such an image area separation error can be corrected.

また、上記説明したように、本実施の形態では、例えば8ビット256階調のYMCK画像データを用いて像域分離補正処理を行うのではなく、像域分離タグ画像データおよび色平坦度タグ画像データをいずれも1ビット(0、1)または2ビット(0〜3)単位で生成し、これらを用いて像域分離補正処理を行うため、処理時間が早くなるだけでなく、処理に必要なメモリ容量も少なくてすむ、という利点もある。   Further, as described above, in this embodiment, for example, image area separation tag image data and color flatness tag image are not used for performing image area separation correction processing using YMCK image data of, for example, 8-bit 256 gradations. All data is generated in 1-bit (0, 1) or 2-bit (0-3) units, and these are used to perform image area separation correction processing. This not only shortens the processing time but also requires processing. There is also an advantage that the memory capacity is small.

また、8ビット多階調のイメージ画像データでブロックパターン検知を行うと誤検知が発生する場合があるが、像域分離タグ画像データや色平坦度タグ画像データに基づいて像域分離エラーブロックパターン検知処理を行うため、誤検知することなく精度高く補正することができる。   In addition, erroneous detection may occur when block pattern detection is performed on 8-bit multi-gradation image image data, but an image area separation error block pattern based on image area separation tag image data or color flatness tag image data. Since the detection process is performed, the correction can be performed with high accuracy without erroneous detection.

また、色平坦度を像域分離補正処理だけでなく、後段の画像処理部の画像処理でも利用するようにしたため、色平坦度に応じた最適な画像処理を行うことができる。   In addition, since the color flatness is used not only in the image area separation correction process but also in the image processing of the subsequent image processing unit, optimal image processing corresponding to the color flatness can be performed.

なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で様々な設計上の変更を行うことができる。   The present invention is not limited to the above-described embodiments, and various design changes can be made within the scope of the invention described in the claims.

例えば、上記実施の形態では、入力画像を文字領域および写真領域に像域分離して各領域に応じて画像処理する例について説明したが、これに限定されず、例えば、黒文字領域、色文字領域、網点領域、および写真領域の4領域に像域分離して各領域に応じて画像処理するようにしてもよい。以下、4領域に像域分離する変形例について説明する。   For example, in the above embodiment, an example in which an input image is separated into a character area and a photographic area and image processing is performed according to each area has been described. However, the present invention is not limited to this. The image area may be separated into four areas, a halftone dot area and a photographic area, and image processing may be performed according to each area. Hereinafter, a modification example in which the image area is separated into four areas will be described.

なお、この変形例の基本構成は図1に示す構成と同じであるものとする。ただし、像域分離部は以下のように構成し、符号は18aとして上記実施の形態の像域分離部18と区別して説明する。   The basic configuration of this modification is the same as the configuration shown in FIG. However, the image area separation unit is configured as follows, and the reference numeral 18a is described as being distinguished from the image area separation unit 18 of the above embodiment.

図24は、変形例における像域分離部18aの構成を示す図である。なお、図24において、図3と同一もしくは同等の部分には同じ記号を付し、その説明を簡略化あるいは省略する。   FIG. 24 is a diagram illustrating a configuration of the image area separation unit 18a according to the modification. In FIG. 24, the same or equivalent parts as in FIG. 3 are denoted by the same reference numerals, and the description thereof is simplified or omitted.

この像域分離部18aは、二値化処理部25、網点抽出部26、OR処理部27、収縮処理部28、膨張処理部29、反転処理部30、AND処理部31、像域分離タグ生成部56、および色黒判定部57を含んで構成されている。   The image area separation unit 18a includes a binarization processing unit 25, a halftone dot extraction unit 26, an OR processing unit 27, a contraction processing unit 28, an expansion processing unit 29, an inversion processing unit 30, an AND processing unit 31, and an image region separation tag. A generation unit 56 and a color black determination unit 57 are included.

AND処理部31から出力される処理結果(0または1)を、上記実施の形態では、1を文字領域とし、0を写真領域とする例について説明したが、この変形例では、1を文字領域、0を非文字領域として説明する。   In the above embodiment, the processing result (0 or 1) output from the AND processing unit 31 has been described as an example in which 1 is a character region and 0 is a photo region. In this modification, 1 is a character region. , 0 will be described as a non-character area.

網点抽出部26は、上記実施の形態と同様に、色変換部13から出力された画像データから、網点領域を抽出し、該抽出した網点領域の二値画像データ(0:非網点、1:網点)を出力する。更にまた、この変形例では、網点抽出部26は、網点領域の抽出結果を像域分離タグ生成部56および像域補正部20a(図27参照。)に出力する。   As in the above embodiment, the halftone dot extracting unit 26 extracts a halftone dot region from the image data output from the color converting unit 13, and binary image data (0: non-halftone dot) of the extracted halftone dot region. Dot, 1: halftone dot). Furthermore, in this modification, the halftone dot extraction unit 26 outputs the extraction result of the halftone dot region to the image area separation tag generation unit 56 and the image area correction unit 20a (see FIG. 27).

色黒判定部57は、L*a*b*色空間の画像データのa*値およびb*値を用いて、入力画像を彩度が高い領域(色領域)と、彩度が低い領域(黒領域)とに分離する。具体的には、前述の式(5)を用いてC*軸上の座標値を演算し、該演算値と予め定めた閾値とを比較して色領域か黒領域かを判定して分離する。この判定結果(0:黒、1:色)は像域分離タグ生成部56に出力される。   The color black determination unit 57 uses the a * value and b * value of the image data in the L * a * b * color space to divide the input image into a region with high saturation (color region) and a region with low saturation (color region). Black area). Specifically, the coordinate value on the C * axis is calculated using the above-described equation (5), and the calculated value is compared with a predetermined threshold value to determine whether the color region is a black region or not. . This determination result (0: black, 1: color) is output to the image area separation tag generator 56.

以下、像域分離タグ生成部56に入力される色黒判定部57の判定結果をD0と称し、網点抽出部26の抽出結果をD1と称し、AND処理部31の処理結果をD2と称す。   Hereinafter, the determination result of the color / black determination unit 57 input to the image area separation tag generation unit 56 is referred to as D0, the extraction result of the halftone extraction unit 26 is referred to as D1, and the processing result of the AND processing unit 31 is referred to as D2. .

図25は、像域分離タグ生成部56に対する入力データと、像域分離タグ生成部56から出力される出力データとの関係を示したテーブルである。   FIG. 25 is a table showing the relationship between the input data to the image area separation tag generation unit 56 and the output data output from the image area separation tag generation unit 56.

前述したように、像域分離タグ生成部56には入力データとして画素毎にD0、D1、D2が入力される。各入力データD0、D1、D2は、0または1の1ビットデータであるため、像域分離タグ生成部56に対する入力は3ビットとなる。   As described above, D0, D1, and D2 are input to the image area separation tag generation unit 56 for each pixel as input data. Since each input data D0, D1, D2 is 1-bit data of 0 or 1, the input to the image area separation tag generator 56 is 3 bits.

像域分離タグ生成部56は、この3ビットの入力データを図25のテーブルで表された関係に従って2ビットの出力データ(TD0、TD1)に変換し、図26のテーブルに示すようにTD1を上位ビット(2bitめ)、TD0を下位ビット(1bitめ)とする各画素2ビットの像域分離タグ画像データを生成する。   The image area separation tag generator 56 converts the 3-bit input data into 2-bit output data (TD0, TD1) according to the relationship shown in the table of FIG. 25, and converts TD1 as shown in the table of FIG. Image area separation tag image data of 2 bits for each pixel having the upper bit (second bit) and TD0 as the lower bit (first bit) is generated.

なお、出力データTD1は、AND処理部31からの入力データD2(文字、非文字)となる。また、出力データTD0は、TD1が非文字領域(0)を示す場合には、入力データD1となり、TD1が文字領域(1)を示す場合には、入力データD0となる。   The output data TD1 becomes the input data D2 (character, non-character) from the AND processing unit 31. The output data TD0 is the input data D1 when TD1 indicates the non-character area (0), and the input data D0 when TD1 indicates the character area (1).

ここで生成された像域分離タグ画像データは、後段の像域補正処理で補正されるが、この補正を行う像域補正部は、本変形例では以下のように構成し、符号は20aとして上記実施の形態の像域補正部20と区別して説明する。   The image area separation tag image data generated here is corrected by the subsequent image area correction processing. In this modification, the image area correction unit that performs this correction is configured as follows, and the code is 20a. The description will be made separately from the image area correction unit 20 of the above embodiment.

図27は、変形例における像域補正部20aの構成を示す図である。なお、図27において、図16と同一もしくは同等の部分には同じ記号を付し、その説明を簡略化あるいは省略する。   FIG. 27 is a diagram illustrating a configuration of the image area correction unit 20a according to the modification. In FIG. 27, parts that are the same as or equivalent to those in FIG. 16 are given the same reference numerals, and descriptions thereof are simplified or omitted.

像域補正部20は、タグ切り出し処理部58と、像域分離エラーブロックパターン検知処理部34と、ブロック補正処理部59と備えている。   The image area correction unit 20 includes a tag cutout processing unit 58, an image area separation error block pattern detection processing unit 34, and a block correction processing unit 59.

タグ切り出し処理部58は、各画素2ビットの像域分離タグ画像データから、出力データTD1に相当する上位1ビットを切り出して像域分離エラーブロックパターン検知処理部34に出力する。前述したように、出力データTD1は、AND処理部31からの入力データD2(文字、非文字)に相当するため、像域分離エラーブロックパターン検知処理部34は、上記実施の形態で説明した検知処理と同様の検知処理を行うことができる。   The tag cutout processing unit 58 cuts out the upper one bit corresponding to the output data TD1 from the image region separation tag image data of 2 bits for each pixel and outputs it to the image region separation error block pattern detection processing unit 34. As described above, since the output data TD1 corresponds to the input data D2 (character, non-character) from the AND processing unit 31, the image area separation error block pattern detection processing unit 34 performs the detection described in the above embodiment. Detection processing similar to the processing can be performed.

ブロック補正処理部59には、2ビットの像域分離タグ画像データを像域分離エラーブロックパターン検知結果に応じて補正する。   The block correction processing unit 59 corrects the 2-bit image area separation tag image data according to the image area separation error block pattern detection result.

図28は、変形例におけるブロック補正処理部59が実行する補正処理の流れを示すフローチャートである。   FIG. 28 is a flowchart showing the flow of correction processing executed by the block correction processing unit 59 in the modification.

ステップ400では、注目画素を設定する。   In step 400, a target pixel is set.

ステップ402では、像域分離部18aで生成された像域分離タグ画像データから注目画素の像域分離結果を取得すると共に、網点抽出部26の網点抽出結果(D1)を取得する。さらにまた、像域分離エラーブロックパターン検知処理部34から注目画素についての像域分離エラーブロックパターン検知結果を取得する。   In step 402, the image area separation result of the target pixel is obtained from the image area separation tag image data generated by the image area separation unit 18a, and the halftone dot extraction result (D1) of the halftone dot extraction unit 26 is obtained. Furthermore, the image area separation error block pattern detection result for the target pixel is acquired from the image area separation error block pattern detection processing unit 34.

ステップ404では、注目画素の像域分離結果の上位ビット(TD1)が「0」であるか「1」であるかを判断する。ここで、像域分離結果の上位ビット(TD1)が「1」であると判断した場合には、ステップ406に移行し、像域分離エラーブロックパターン検知結果が「0」であるか、「1」であるかを判断する。ここで、像域分離エラーブロックパターン検知結果が「1」であると判断した場合には、ステップ408で、網点抽出結果D1に応じて、像域分離結果を写真領域または網点領域に変更する。具体的には、上位ビットTD1を「1」から「0」に補正し、下位ビットTD0を網点抽出結果D1と同じ値に補正する。ステップ408の補正処理後は、ステップ410に移行する。   In step 404, it is determined whether the upper bit (TD1) of the image area separation result of the target pixel is “0” or “1”. If it is determined that the upper bit (TD1) of the image area separation result is “1”, the process proceeds to step 406, where the image area separation error block pattern detection result is “0” or “1”. Is determined. If it is determined that the image area separation error block pattern detection result is “1”, in step 408, the image area separation result is changed to a photographic area or a halftone area according to the halftone extraction result D1. To do. Specifically, the upper bit TD1 is corrected from “1” to “0”, and the lower bit TD0 is corrected to the same value as the halftone extraction result D1. After the correction process in step 408, the process proceeds to step 410.

一方、ステップ404で、像域分離結果の上位ビット(TD1)が「0」であると判断した場合、およびステップ406で、像域分離エラーブロックパターン検知結果が「0」であると判断した場合には、ステップ408の補正処理は行わずにステップ410に移行する。   On the other hand, if it is determined in step 404 that the upper bit (TD1) of the image area separation result is “0”, and if it is determined in step 406 that the image area separation error block pattern detection result is “0”. In step S408, the process proceeds to step S410 without performing the correction process in step S408.

ステップ410では、全画素について処理済みか否かを判断する。ここで全画素について処理済みでないと判断した場合には、ステップ412に移行し、次の画素を注目画素に設定してステップ402に戻り、上記処理を繰り返す。   In step 410, it is determined whether all pixels have been processed. If it is determined that all the pixels have not been processed, the process proceeds to step 412 to set the next pixel as a target pixel and return to step 402 to repeat the above process.

一方、ステップ410で、全画素について処理済みだと判断した場合に補正処理は終了する。   On the other hand, when it is determined in step 410 that all pixels have been processed, the correction process ends.

このように、この変形例では、黒文字領域または色文字領域と判定された画素について、像域分離エラーが生じたブロックパターンが検知された場合に、該画素の像域分離結果を写真領域か網点領域に補正する。   As described above, in this modified example, when a block pattern in which an image area separation error has occurred is detected for a pixel determined to be a black character area or a color character area, the image area separation result of the pixel is displayed as a photographic area or a network. Correct to point area.

補正された像域分離タグ画像データおよび色平坦度算出部19で算出された色平坦度タグ画像データは縮拡部16に出力され、縮拡部14と同一倍率で縮小・拡大されて、画像処理部17に出力される。   The corrected image area separation tag image data and the color flatness tag image data calculated by the color flatness calculation unit 19 are output to the enlargement / reduction unit 16 and reduced / enlarged at the same magnification as that of the enlargement / reduction unit 14. It is output to the processing unit 17.

画像処理部17では、縮拡部14から出力された画像データに対して画像処理を行うが、このとき、縮拡部16から出力された像域分離タグ画像データが示す像域分離結果、および色平坦度タグ画像データが示す色平坦度の各々に応じて上記実施の形態と同様に画像処理を行う。なお、この変形例では4種類の領域に像域分離したため、各領域に適した画像処理を行うことができる。   The image processing unit 17 performs image processing on the image data output from the enlargement / reduction unit 14. At this time, an image area separation result indicated by the image area separation tag image data output from the reduction / enlargement unit 16, and Image processing is performed in the same manner as in the above embodiment in accordance with each of the color flatness indicated by the color flatness tag image data. In this modification, the image area is divided into four types of areas, so that image processing suitable for each area can be performed.

以上変形例について説明したが、変形例においても、上記実施の形態で説明した効果と同様の効果が得られる。   Although the modification has been described above, the same effect as that described in the above embodiment can be obtained in the modification.

なお、上記実施の形態および変形例では、色平坦度算出部で算出する色平坦度を「3:色平坦領域」、「2:中間平坦領域」、「1:黒平坦領域」、「0:白平坦・非平坦領域」の4値としたが、これに限定されず、例えば色分けせずに、平坦性が高い「1:平坦領域」および平坦性が低い「0:非平坦領域」の2値のみとしてもよい。これによっても、像域分離エラーを補正できる。   In the embodiment and the modification described above, the color flatness calculated by the color flatness calculating unit is “3: color flat region”, “2: intermediate flat region”, “1: black flat region”, “0: Although the four values of “white flat / non-flat region” are used, the present invention is not limited to this, and, for example, two colors, “1: flat region” with high flatness and “0: non-flat region” with low flatness, are not color-coded. Only the value may be used. This also corrects the image area separation error.

また、像域分離部18、18aにおける像域分離処理は、上記実施の形態および変形例で説明した手法に限定されない。例えば、矩形のテンプレートを用いたパターンマッチングのみで文字領域、写真領域(網点領域)を分離するようにしてもよい。単純なパターンマッチング処理としては、テンプレートのパターンとのマッチ度で点数付けを行い、注目画素に対して所定サイズのウインドウの点数付けの結果を加算した後に平均値を算出し、該平均値としきい値とを比較した比較処理により網点領域、非網点領域(文字領域)に分離する方法などがある。このような手法によっても、パターンマッチングで用いるテンプレートが矩形であるため、分離境界域でブロック形状の像域分離エラーが発生する場合がある。テンプレートを用いた像域分離は広く行われている手法であるため、上記説明したようにブロックパターン検知結果を用いて補正することで、こうしたブロック形状の像域分離エラーを精度高く補正することができる。   Further, the image area separation processing in the image area separation units 18 and 18a is not limited to the method described in the above-described embodiment and modification examples. For example, a character area and a photograph area (halftone dot area) may be separated only by pattern matching using a rectangular template. As a simple pattern matching process, scoring is performed based on the degree of matching with the template pattern, and the result of scoring a window of a predetermined size is added to the target pixel, and then an average value is calculated. There is a method of separating into a halftone dot region and a non-halftone dot region (character region) by a comparison process comparing the values. Even with such a technique, since the template used for pattern matching is rectangular, a block-shaped image area separation error may occur in the separation boundary area. Since image area separation using a template is a widely performed technique, it is possible to correct such block shape image area separation errors with high accuracy by correcting using block pattern detection results as described above. it can.

また、収縮処理や膨張処理を行わない像域分離方法を採用する場合には、収縮処理結果は考慮せず、色平坦度およびブロックパターン検知結果のみに基づいて像域分離エラーを補正することができる。なお、上記実施の形態および変形例で説明した像域分離方法でも、収縮処理結果を用いずに像域分離エラーを補正することはできる。これにより若干の精度低下はあるが、従来よりも精度高く像域分離処理を行うことができる。   Further, when an image area separation method that does not perform contraction processing or expansion processing is adopted, the image area separation error can be corrected based on only the color flatness and the block pattern detection result without considering the contraction processing result. it can. It should be noted that the image area separation method described in the above embodiments and modifications can also correct the image area separation error without using the contraction processing result. As a result, although there is a slight decrease in accuracy, the image area separation process can be performed with higher accuracy than in the past.

また、色平坦度のみに基づいて像域分離エラーを補正することも可能である。例えば、ブロック形状の像域分離エラーが発生しない像域分離方法(例えば、エッジ抽出処理のみによって文字領域と非文字領域に分離する場合など)では、色平坦度のみで像域分離エラーを補正するようにしてもよい。   It is also possible to correct the image area separation error based only on the color flatness. For example, in an image area separation method in which a block-shaped image area separation error does not occur (for example, when separating into a character area and a non-character area only by edge extraction processing), the image area separation error is corrected only by color flatness. You may do it.

ブロック形状の像域分離エラーが発生するような像域分離方法であっても、色平坦度のみに基づいて像域分離エラーを補正することが可能である。上記実施の形態や変形例などで説明した像域分離方法では、色平坦度のみで像域分離エラーを補正すると、カタログの見出し文字など色背景中の文字が写真領域に補正される可能性はあるが、文字、写真(或いは網点)間で画像処理が切替ることによる画質の低下を防ぐことができる。従って、色平坦度が「3(色平坦領域)」の場合、文字領域に像域分離された部分を写真領域(あるいは網点領域)に補正しても、高画質な出力結果が得られる。   Even with an image area separation method in which a block-shaped image area separation error occurs, it is possible to correct the image area separation error based only on the color flatness. In the image gamut separation methods described in the above embodiments and modifications, if an image gamut separation error is corrected only by color flatness, there is a possibility that characters in a color background such as catalog headline characters will be corrected to a photographic region. However, it is possible to prevent deterioration in image quality due to switching of image processing between characters and photographs (or halftone dots). Therefore, when the color flatness is “3 (color flat area)”, a high-quality output result can be obtained even if the portion of the image area separated into the character area is corrected to the photographic area (or halftone dot area).

また、上記実施の形態および変形例では、RGB画像データをL*a*b*色空間の画像データに変換して、像域分離処理や平坦度算出処理、画像処理を行う例について説明したが、L*a*b*色空間に限定されず、均等色空間の画像データであれば他の色空間の画像データに変換してもよい。   In the embodiment and the modification described above, an example has been described in which RGB image data is converted into image data in the L * a * b * color space, and image area separation processing, flatness calculation processing, and image processing are performed. The image data is not limited to the L * a * b * color space, and may be converted into image data of another color space as long as it is image data of a uniform color space.

本発明の実施の形態に係る複写機の構成を示すブロック図である。1 is a block diagram showing a configuration of a copying machine according to an embodiment of the present invention. 画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an image process part. 像域分離部の構成を示すブロック図である。It is a block diagram which shows the structure of an image area separation part. 収縮処理部の収縮処理を説明する説明図である。It is explanatory drawing explaining the contraction process of a contraction process part. 膨張処理部の膨張処理を説明する説明図である。It is explanatory drawing explaining the expansion process of an expansion process part. 像域分離部のAND処理部に入力される画像データと、該入力された画像データの論理積をとった画像データの一例を示す図である。It is a figure which shows an example of the image data which took the logical product of the image data input into the AND process part of an image area separation part, and this input image data. 像域分離部の各部における処理結果の一例を示した図である。It is the figure which showed an example of the processing result in each part of an image area separation part. ドットTOラインスクリーン手法によりスクリーン処理した画像データに基づいて印刷された原稿画像を複写するときに発生するブロック形状の像域分離エラーを説明する説明図である。FIG. 5 is an explanatory diagram for explaining a block-shaped image area separation error that occurs when a document image printed based on image data screen-processed by the dot TO line screen method is copied. 低線数網点で表現された原稿画像を複写するときに発生するブロック形状の白抜けを説明する説明図である。FIG. 6 is an explanatory diagram for explaining block-shaped white spots that occur when copying a document image expressed by a low line number halftone dot. 色平坦度算出部が行う色平坦度算出処理のメインルーチンの流れを示すフローチャートである。It is a flowchart which shows the flow of the main routine of the color flatness calculation process which a color flatness calculation part performs. 色平坦度算出処理のメインルーチンで呼び出されるサブルーチンの流れを示すフローチャートである。It is a flowchart which shows the flow of the subroutine called by the main routine of a color flatness calculation process. L*a*b*色空間の画像データが表す画像をM×N画素の複数の小領域に分割したときの状態を示す図である。It is a figure which shows a state when the image which the image data of L * a * b * color space represents is divided | segmented into the several small area | region of MxN pixel. L*C*平面上で各画素を色領域、白領域、黒領域、および中間領域のいずれかに判定するための閾値を示す図である。It is a figure which shows the threshold value for determining each pixel to any of a color area | region, a white area | region, a black area | region, and an intermediate | middle area | region on a L * C * plane. 平坦色相角を説明する説明図である。It is explanatory drawing explaining a flat hue angle. 色平坦度の種類を表したテーブルである。It is a table showing the type of color flatness. 像域補正部の構成を示すブロック図である。It is a block diagram which shows the structure of an image area correction | amendment part. 像域分離エラーブロックパターン検知処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an image area separation error block pattern detection process part. ブロック検知部の構成および処理内容を示す図である。It is a figure which shows the structure and process content of a block detection part. 横線検知部の横線検知で用いるテンプレートの一例を示す図である。It is a figure which shows an example of the template used by the horizontal line detection of a horizontal line detection part. 縦線検知部で縦線検知で用いるテンプレートの一例を示す図である。It is a figure which shows an example of the template used for a vertical line detection in a vertical line detection part. ブロックエッジ検知部の構成および処理内容を示す図である。It is a figure which shows the structure and process content of a block edge detection part. ブロック補正処理部が実行する補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the correction process which a block correction process part performs. 画像処理部の空間補正部で行われる空間周波数補正処理を説明する説明図である。It is explanatory drawing explaining the spatial frequency correction process performed in the spatial correction part of an image process part. 変形例における像域分離部の構成を示す図である。It is a figure which shows the structure of the image area separation part in a modification. 変形例における像域分離タグ生成部に対する入力データと、像域分離タグ生成部56から出力される出力データとの関係を示したテーブルである。10 is a table showing a relationship between input data to an image area separation tag generation unit and output data output from the image area separation tag generation unit 56 in a modified example. 各画素2ビットの像域分離タグ画像データを生成するときの、各ビットの値とこれに対応する像域分離内容を示すテーブルである。It is a table | surface which shows the value of each bit, and the image area separation content corresponding to this at the time of producing | generating image area separation tag image data of each pixel 2 bits. 変形例における像域補正部の構成を示す図である。It is a figure which shows the structure of the image area correction | amendment part in a modification. 変形例におけるブロック補正処理部が実行する補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the correction process which the block correction process part in a modification performs. 像域分離エラーが発生した状態で画像処理を行って画像を出力することにより、画質が劣化することを説明する説明図である。It is explanatory drawing explaining that an image quality degrades by performing an image process in the state in which the image area separation error generate | occur | produced, and outputting an image.

符号の説明Explanation of symbols

10 画像読取装置
11 画像処理装置
12 画像出力装置
15 像域分離処理部
17 画像処理部
18、18a 像域分離部
19 色平坦度算出部
20、20a 像域補正部
25 二値化処理部
26 網点抽出部
28 収縮処理部
29 膨張処理部
30 反転処理部
32 像域分離タグ生成部
34 像域分離エラーブロックパターン検知処理部
35 ブロック補正処理部
36 ブロック検知部
37 横線検知部
38 縦線検知部
39 ブロックエッジ検知部
56 像域分離タグ生成部
57 色黒判定部
59 ブロック補正処理部
DESCRIPTION OF SYMBOLS 10 Image reader 11 Image processing apparatus 12 Image output apparatus 15 Image area separation process part 17 Image process part 18, 18a Image area separation part 19 Color flatness calculation part 20, 20a Image area correction part 25 Binarization process part 26 Network Point extraction unit 28 Shrinkage processing unit 29 Expansion processing unit 30 Inversion processing unit 32 Image region separation tag generation unit 34 Image region separation error block pattern detection processing unit 35 Block correction processing unit 36 Block detection unit 37 Horizontal line detection unit 38 Vertical line detection unit 39 Block edge detection unit 56 Image area separation tag generation unit 57 Color black determination unit 59 Block correction processing unit

Claims (11)

画像読取手段によって読み取られた画像の画像データを、文字または線画の文字線画領域と文字線画領域ではない非文字線画領域とに分離する分離手段と、
前記読み取られた画像の画像データに基づいて、各画素が画像データの変化が所定値以下の平坦領域であるか否かを示す平坦度を各画素毎に導出する平坦度導出手段と、
前記導出された平坦度に基づいて前記分離手段の分離結果に含まれる分離不良を補正する補正手段と、
を備えた画像処理装置。
Separating means for separating the image data of the image read by the image reading means into a character or line drawing character line drawing area and a non-character line drawing area that is not a character line drawing area;
Flatness deriving means for deriving flatness for each pixel, which indicates whether each pixel is a flat region where the change in the image data is a predetermined value or less based on the image data of the read image;
Correction means for correcting a separation failure included in the separation result of the separation means based on the derived flatness;
An image processing apparatus.
前記平坦度導出手段は、前記各画素毎の平坦度を、均等色空間における各画素および各画素近傍領域の画像データの平均座標からの分布に基づいて導出する
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the flatness deriving unit derives the flatness of each pixel based on a distribution from average coordinates of image data of each pixel and each pixel neighboring area in a uniform color space.
前記平坦度導出手段は、前記読み取られた画像の各画素を順次注目画素に設定し、該設定した注目画素および該注目画素近傍領域の画像データのばらつきの度合いと、該注目画素の画像データと該注目画素および該注目画素近傍領域の画像データの平均値との偏差と、を算出し、該算出したばらつきの度合いおよび偏差に基づいて該注目画素の平坦度を導出することによって、前記各画素毎に平坦度を導出する
請求項1または請求項2記載の画像処理装置。
The flatness deriving means sequentially sets each pixel of the read image as a target pixel, the degree of variation in image data of the set target pixel and the region near the target pixel, and the image data of the target pixel Calculating the deviation from the average value of the image data of the target pixel and the region near the target pixel, and deriving the flatness of the target pixel based on the calculated degree of variation and the deviation. The image processing apparatus according to claim 1, wherein flatness is derived for each.
前記平坦度導出手段は、前記ばらつきの度合いとして、前記画像データに含まれる色相および彩度を示すデータの標準偏差を算出し、前記偏差として、前記注目画素および前記注目画素近傍領域の画像データに含まれる色相のデータの平均と前記注目画素の画像データに含まれる色相のデータとの差を算出する
請求項3記載の画像処理装置。
The flatness deriving unit calculates a standard deviation of data indicating hue and saturation included in the image data as the degree of variation, and the image data of the pixel of interest and the region near the pixel of interest as the deviation. The image processing apparatus according to claim 3, wherein the difference between the average of the hue data included and the hue data included in the image data of the target pixel is calculated.
前記読み取られた画像の画像データに、前記補正手段で補正された分離結果に応じて画像処理を施す画像処理手段を更に備えた
請求項1乃至請求項4のいずれか1項記載の画像処理装置。
5. The image processing apparatus according to claim 1, further comprising an image processing unit that performs image processing on the image data of the read image according to the separation result corrected by the correction unit. .
前記画像処理手段は、前記読み取られた画像の画像データに、前記補正手段で補正された分離結果および前記平坦度導出手段で導出された平坦度に応じて画像処理を施す
請求項5記載の画像処理装置。
The image according to claim 5, wherein the image processing means performs image processing on the image data of the read image according to the separation result corrected by the correction means and the flatness derived by the flatness derivation means. Processing equipment.
前記分離手段は、前記読み取られた画像の各画素を順次注目画素に設定し、前記読み取られた画像の画像データから該設定した注目画素を含む矩形領域の画像データを抽出し、該抽出した画像データに所定の処理を施すことによって前記読み取られた画像の画像データを文字線画領域と非文字線画領域とに分離し、更に各画素毎の分離結果を前記読み取られた画像の各画素の位置に対応して配置した分離結果配置データを前記分離結果として生成し、
前記補正手段は、前記導出された平坦度および予め定められた矩形のひな型を用いて、
前記生成された分離結果配置データから矩形または矩形が連なった形状の分離不良を検出し、該検出した分離不良を補正する
請求項1乃至請求項6のいずれか1項記載の画像処理装置。
The separation unit sequentially sets each pixel of the read image as a target pixel, extracts image data of a rectangular area including the set target pixel from the image data of the read image, and extracts the extracted image The image data of the read image is separated into a character line drawing area and a non-character line drawing area by performing predetermined processing on the data, and further, the separation result for each pixel is obtained at the position of each pixel of the read image. Generate separation result arrangement data arranged correspondingly as the separation result,
The correction means uses the derived flatness and a predetermined rectangular model,
The image processing apparatus according to any one of claims 1 to 6, wherein a separation defect having a shape of a rectangle or a series of rectangles is detected from the generated separation result arrangement data, and the detected separation defect is corrected.
前記分離手段は、前記読み取られた画像の各画素を順次注目画素に設定し、前記読み取られた画像の画像データから該設定した注目画素を含む矩形領域の画像データを抽出し、該抽出した画像データに黒部分を収縮する収縮処理を施した後、黒部分を膨張させる膨張処理を施し、全ての注目画素について収縮処理および膨張処理が終了した後の画像データを反転させた画像データと収縮処理前の画像データとに基づいて前記読み取られた画像の画像データから文字線画領域を分離すると共に、該分離した文字線画領域以外の画像データを非文字線画領域として分離して前記分離結果配置データを生成し、
前記補正手段は、前記導出された平坦度、予め定められた矩形のひな型、および前記収縮処理後の画像データを用いて、前記生成された分離結果配置データから矩形または矩形が連なった形状の分離不良を検出し、該検出した分離不良を補正する
請求項7記載の画像処理装置。
The separation unit sequentially sets each pixel of the read image as a target pixel, extracts image data of a rectangular area including the set target pixel from the image data of the read image, and extracts the extracted image Image data that has undergone contraction processing that contracts the black portion of the data, and then expands processing that expands the black portion, and image data and contraction processing obtained by inverting the image data after the contraction processing and expansion processing have been completed for all pixels of interest A character / line drawing area is separated from the image data of the read image based on the previous image data, and image data other than the separated character / line drawing area is separated as a non-character / line drawing area, and the separation result arrangement data is obtained. Generate and
The correction means uses the derived flatness, a predetermined rectangular template, and the image data after the shrinkage processing to separate a rectangle or a shape in which rectangles are connected from the generated separation result arrangement data. The image processing apparatus according to claim 7, wherein a defect is detected and the detected separation defect is corrected.
前記分離手段は、更に、前記非文字線画領域を網点領域および写真領域に分離する
請求項1乃至請求項8のいずれか1項記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the separating unit further separates the non-character / line drawing area into a halftone dot area and a photograph area.
原稿の画像を読み取る画像読取手段と、
前記読み取られた画像の画像データを、文字または線画の文字線画領域と文字線画領域ではない非文字線画領域とに分離する分離手段と、
前記読み取られた画像の画像データに基づいて、各画素が画像データの変化が所定値以下の平坦領域であるか否かを示す平坦度を各画素毎に導出する平坦度導出手段と、
前記導出された平坦度に基づいて前記分離手段の分離結果に含まれる分離不良を補正する補正手段と、
前記読み取られた画像の画像データに、前記補正手段で補正された分離結果に応じて画像処理を施す画像処理手段と、
前記画像処理手段で画像処理が施された画像データに基づいて画像を出力する画像出力手段と、
を備えた画像出力装置。
Image reading means for reading an image of a document;
Separating means for separating the image data of the read image into a character or line drawing character line drawing area and a non-character line drawing area that is not a character line drawing area;
Flatness deriving means for deriving flatness for each pixel, which indicates whether each pixel is a flat region where the change in the image data is a predetermined value or less based on the image data of the read image;
Correction means for correcting a separation failure included in the separation result of the separation means based on the derived flatness;
Image processing means for performing image processing on the image data of the read image according to the separation result corrected by the correction means;
Image output means for outputting an image based on image data subjected to image processing by the image processing means;
An image output device.
画像読取手段によって読み取られた画像の画像データを、文字または線画の文字線画領域と文字線画領域ではない非文字線画領域とに分離する分離ステップと、
前記読み取られた画像の画像データに基づいて、各画素が画像データの変化が所定値以下の平坦領域であるか否かを示す平坦度を各画素毎に導出する平坦度導出ステップと、
前記導出された平坦度に基づいて前記分離ステップの分離結果に含まれる分離不良を補正する補正ステップと、
を備えた画像処理方法。
A separation step of separating the image data of the image read by the image reading unit into a character or line drawing character line drawing area and a non-character line drawing area that is not a character line drawing area;
A flatness derivation step for deriving flatness for each pixel, which indicates whether each pixel is a flat region whose change in image data is a predetermined value or less, based on the image data of the read image;
A correction step of correcting a separation failure included in the separation result of the separation step based on the derived flatness;
An image processing method comprising:
JP2006273100A 2006-10-04 2006-10-04 Image processing apparatus, image output device, and image processing method Withdrawn JP2008092447A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006273100A JP2008092447A (en) 2006-10-04 2006-10-04 Image processing apparatus, image output device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006273100A JP2008092447A (en) 2006-10-04 2006-10-04 Image processing apparatus, image output device, and image processing method

Publications (1)

Publication Number Publication Date
JP2008092447A true JP2008092447A (en) 2008-04-17

Family

ID=39376075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006273100A Withdrawn JP2008092447A (en) 2006-10-04 2006-10-04 Image processing apparatus, image output device, and image processing method

Country Status (1)

Country Link
JP (1) JP2008092447A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013175887A (en) * 2012-02-24 2013-09-05 Konica Minolta Inc Image processing device, image processing method, and computer program
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting
JP2016076079A (en) * 2014-10-06 2016-05-12 大日本印刷株式会社 Determination system and determination method, determination device and image-capturing device, program for determination device, and program for image-capturing device
US9495757B2 (en) 2013-03-27 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9530216B2 (en) 2013-03-27 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9723285B2 (en) 2013-11-28 2017-08-01 Olympus Corporation Multi-area white-balance control device, multi-area white-balance control method, multi-area white-balance control program, computer in which multi-area white-balance control program is recorded, multi-area white-balance image-processing device, multi-area white-balance image-processing method, multi-area white-balance image-processing program, computer in which multi-area white-balance image-processing program is recorded, and image-capture apparatus
WO2022065299A1 (en) * 2020-09-24 2022-03-31 京セラドキュメントソリューションズ株式会社 Image formation device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013175887A (en) * 2012-02-24 2013-09-05 Konica Minolta Inc Image processing device, image processing method, and computer program
US9495757B2 (en) 2013-03-27 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9530216B2 (en) 2013-03-27 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting
US9723285B2 (en) 2013-11-28 2017-08-01 Olympus Corporation Multi-area white-balance control device, multi-area white-balance control method, multi-area white-balance control program, computer in which multi-area white-balance control program is recorded, multi-area white-balance image-processing device, multi-area white-balance image-processing method, multi-area white-balance image-processing program, computer in which multi-area white-balance image-processing program is recorded, and image-capture apparatus
JP2016076079A (en) * 2014-10-06 2016-05-12 大日本印刷株式会社 Determination system and determination method, determination device and image-capturing device, program for determination device, and program for image-capturing device
WO2022065299A1 (en) * 2020-09-24 2022-03-31 京セラドキュメントソリューションズ株式会社 Image formation device

Similar Documents

Publication Publication Date Title
EP0713329B1 (en) Method and apparatus for automatic image segmentation using template matching filters
JP5501958B2 (en) Method for creating binary mask image, symbol determination method in binary image, image compression method, image compression program, and recording medium for the program
JP3097785B2 (en) Image processing device
EP0673000B1 (en) Pixel correction and smoothing method
JP4557843B2 (en) Image processing apparatus and method
US7411699B2 (en) Method and apparatus to enhance digital image quality
WO1999067943A1 (en) Image processor, image processing method, and medium on which image processing program is recorded
JP2001238074A (en) Method and device for discriminating picture attribute
JP2008092447A (en) Image processing apparatus, image output device, and image processing method
JP2009278363A (en) Image processor and image processing method
KR100524072B1 (en) Method for improving image quality
JPH08228290A (en) Reinforcing method of dot-matrix-data
JP3765847B2 (en) Pixel correction and smoothing method
JP4111190B2 (en) Image processing device
WO2000051337A1 (en) Image processing device and image processing method
JP3083673B2 (en) Image area identification device
JP4771428B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP5743187B2 (en) Image area separation method, program for executing the same, and image area separation apparatus
JP2005184685A (en) Image processing device, program, and recording medium
JP4010440B2 (en) Image processing apparatus with shadow detection
JP3073837B2 (en) Image region separation device and image region separation method
JP3888090B2 (en) Image processing apparatus and image processing method
JPH0818785A (en) Image output device
JP4035696B2 (en) Line segment detection apparatus and image processing apparatus
JP2004246110A (en) Plate inspection apparatus, printing system, method for inspecting printed data on plate, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090916

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100412