JP2010252184A - Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium - Google Patents

Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium Download PDF

Info

Publication number
JP2010252184A
JP2010252184A JP2009101250A JP2009101250A JP2010252184A JP 2010252184 A JP2010252184 A JP 2010252184A JP 2009101250 A JP2009101250 A JP 2009101250A JP 2009101250 A JP2009101250 A JP 2009101250A JP 2010252184 A JP2010252184 A JP 2010252184A
Authority
JP
Japan
Prior art keywords
unit
pixel
trapping
color
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009101250A
Other languages
Japanese (ja)
Inventor
Setsuya Kobayashi
節也 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009101250A priority Critical patent/JP2010252184A/en
Publication of JP2010252184A publication Critical patent/JP2010252184A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which can appropriately perform processing (trapping processing) for overlapping pixel data of a plurality of color components. <P>SOLUTION: A trapping processing unit 15 performs binarizing processing to input image data. Furthermore, the trapping processing unit 15 counts the number of pixels, having the same pixel value, continued in main scanning and sub scanning directions, respectively, for each block including each of pixels (pixel of interest) and peripheral pixels for the input image data converted into binary data. On the basis of a count value, the trapping processing unit 15 determines whether or not each block is included in a small-letter area and if it is determined that a block is included in the small-letter area, trapping overlap processing is not performed to the pixel of interest in the center of the block. If it is determined that each block is not included in the small-letter area. the trapping processing unit 15 performs trapping overlap processing on the pixel of interest in the center of the block. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、複数の色成分の画素データを重ね合せる処理を行う画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム及び記録媒体に関する。   The present invention relates to an image processing apparatus, an image forming apparatus, an image processing method, a computer program, and a recording medium that perform processing for superimposing pixel data of a plurality of color components.

コピー機又はプリンタ等の画像形成装置が紙媒体に形成する画像の画質劣化を防止するためにトラッピング処理等が行われている。トラッピング処理は、複数の色成分の画素データを重ね合せる処理であり、版ずれ時の白抜けを防止するための処理である。例えば、プリントジョブに含まれる画像情報を解析し、画像情報に含まれる画像要素の形式(サイズ)を判別し、判別結果に応じたトラッピング処理を、プリントジョブに含まれる画像情報に対して行う装置が提案されている(特許文献1参照)。   A trapping process or the like is performed to prevent image quality deterioration of an image formed on a paper medium by an image forming apparatus such as a copier or a printer. The trapping process is a process for overlapping pixel data of a plurality of color components, and is a process for preventing white spots at the time of misregistration. For example, an apparatus that analyzes image information included in a print job, determines a format (size) of an image element included in the image information, and performs a trapping process according to the determination result on the image information included in the print job Has been proposed (see Patent Document 1).

特許文献1の装置は、例えば、プリントジョブに含まれる文字のポイント数を基にトラッピング処理を行うか否かを判定している。具体的には、ポイント数に基づいて、プリントジョブに含まれる文字が小さいサイズであると判定した場合、トラッピング処理を行わず、大きいサイズであると判定した場合、トラッピングを行うようにしてある。このような画像形成装置によれば、カラー画像の印刷の際に版ずれが生じても、色抜けの発生が抑制される。   For example, the apparatus of Patent Document 1 determines whether or not to perform a trapping process based on the number of character points included in a print job. Specifically, based on the number of points, when it is determined that the character included in the print job has a small size, the trapping process is not performed, and when it is determined that the character has a large size, trapping is performed. According to such an image forming apparatus, occurrence of color loss is suppressed even if plate misalignment occurs during printing of a color image.

特開2006−137155号公報JP 2006-137155 A

しかし、特許文献1の装置は、トラッピング処理を行うか否かの判定に、文字のサイズしか考慮していないので、トラッピング処理を行うか否かを誤判定する可能性を有するという問題がある。誤ってトラッピング処理を行った場合、画質の劣化を招く虞がある。   However, since the apparatus of Patent Document 1 considers only the character size in determining whether or not to perform the trapping process, there is a problem in that it may erroneously determine whether or not to perform the trapping process. If the trapping process is mistakenly performed, the image quality may be deteriorated.

本発明はかかる事情に鑑みてなされたものであり、その目的とするところは、トラッピング処理を行うか否かをより精度よく判定することが可能な画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム、及び記録媒体を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus, an image forming apparatus, an image processing method, and an image processing apparatus capable of more accurately determining whether or not to perform trapping processing. A computer program and a recording medium are provided.

本発明に係る画像処理装置は、複数の色成分を有する入力画像データから抽出したエッジに、複数の色成分の画素を重ね合せる処理を行う画像処理装置において、前記入力画像データに含まれる所定の文字領域を検出する文字検出部と、前記入力画像データの注目画素が、前記エッジであって、前記文字検出部が検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定部と、該処理判定部が重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理部とを備えることを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that performs processing for superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components. A character detection unit that detects a character region, and whether or not the pixel of interest of the input image data is the edge and is included in the character region detected by the character detection unit. A process determination unit that determines whether or not to perform a process of superimposing pixels of color components, and a process of superimposing pixels of a plurality of color components on the target pixel when the process determination unit determines to perform the overlay process And an overlay processing unit for performing the above.

本発明に係る画像処理装置は、前記入力画像データを所定の閾値を基に2値データに変換する2値化処理部と、該2値化処理部によって変換された2値データについて、交差する2方向のそれぞれに連続する同一の画素値の画素数を計数する計数部とを備え、前記文字検出部は、前記計数部による計数結果に基づいて、前記所定の文字領域を検出するようにしてあることを特徴とする。   An image processing apparatus according to the present invention intersects a binarization processing unit that converts the input image data into binary data based on a predetermined threshold, and binary data converted by the binarization processing unit. A counting unit that counts the number of pixels having the same pixel value continuous in each of the two directions, and the character detection unit detects the predetermined character region based on a counting result by the counting unit. It is characterized by being.

本発明に係る画像処理装置は、前記入力画像データの注目画素及び該注目画素の周辺画素の画素値の平均値を算出する平均値算出部と、該平均値算出部が算出した平均値に基づいて閾値を算出する閾値算出部とを備え、前記2値化処理部は、前記閾値算出部が算出した閾値を基に前記入力画像データを2値データに変換するようにしてあることを特徴とする。   An image processing apparatus according to the present invention is based on an average value calculation unit that calculates an average value of pixel values of a target pixel of the input image data and peripheral pixels of the target pixel, and an average value calculated by the average value calculation unit A threshold value calculation unit that calculates a threshold value, and the binarization processing unit converts the input image data into binary data based on the threshold value calculated by the threshold value calculation unit. To do.

本発明に係る画像処理装置は、前記計数部は、前記2値化処理部によって変換された2値データについて、交差する2方向、及び該2方向に斜めに交差する方向のそれぞれに連続する同一の画素値の画素数を計数するようにしてあることを特徴とする。   In the image processing apparatus according to the present invention, the counting unit is the same as the binary data converted by the binarization processing unit that is continuous in each of two intersecting directions and a direction obliquely intersecting the two directions. The number of pixels of the pixel value is counted.

本発明に係る画像処理装置は、前記文字検出部は、前記計数部による計数結果を、方向別に設定された閾値と比較し、比較結果に基づいて前記所定の文字領域であるか否かを判定するようにしてあることを特徴とする。   In the image processing apparatus according to the present invention, the character detection unit compares the count result of the count unit with a threshold set for each direction, and determines whether the character region is the predetermined character region based on the comparison result. It is made to do so.

本発明に係る画像形成装置は、上述したいずれかの画像処理装置と、該画像処理装置で処理された画像データに基づいて出力画像を形成する画像形成手段とを備えることを特徴とする。   An image forming apparatus according to the present invention includes any one of the above-described image processing apparatuses and an image forming unit that forms an output image based on image data processed by the image processing apparatus.

本発明に係る画像処理方法は、複数の色成分を有する入力画像データから抽出したエッジに、複数の色成分の画素を重ね合せる処理を行う画像処理方法において、前記入力画像データに含まれる所定の文字領域を検出する文字検出ステップと、前記入力画像データの注目画素が、前記エッジであって、前記文字検出ステップで検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定ステップと、該処理判定ステップで重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理ステップとを含むことを特徴とする。   An image processing method according to the present invention is an image processing method for performing processing of superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components. A character detection step for detecting a character region; and a pixel of interest in the input image data based on whether the pixel of interest is included in the character region detected in the character detection step at the edge. A process determination step for determining whether or not to perform a process for superimposing pixels of color components, and a process for superimposing pixels of a plurality of color components on the target pixel when it is determined that the overlap process is performed in the process determination step And a superposition processing step.

本発明に係るコンピュータプログラムは、コンピュータに、複数の色成分を有する入力画像データから抽出したエッジに、複数の色成分の画素を重ね合せる処理を行わせるコンピュータプログラムにおいて、コンピュータに、前記入力画像データに含まれる所定の文字領域を検出する文字検出ステップと、前記入力画像データの注目画素が、前記エッジであって、前記文字検出ステップで検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定ステップと、該処理判定ステップで重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理ステップとを実行させることを特徴とする。   A computer program according to the present invention is a computer program for causing a computer to perform processing for superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components. A character detection step for detecting a predetermined character region included in the image, and based on whether the pixel of interest of the input image data is the edge and included in the character region detected in the character detection step, A process determination step for determining whether or not to perform a process for superimposing a pixel of a plurality of color components on a target pixel; and a determination process for performing a superimposition process in the process determination step; And a superimposing process step of performing a process of superimposing pixels.

本発明に係る記録媒体は、上述したコンピュータプログラムが記録されていることを特徴とする。   A recording medium according to the present invention stores the above-described computer program.

本発明においては、入力画像データに含まれる所定の文字領域を検出する。また、入力画像データの注目画素のそれぞれが、入力画像データから抽出したエッジであって、検出した前記所定の文字領域に含まれるか否かに基づいて、各注目画素に複数の色成分の画素を重ね合せる処理(トラッピング処理)を行うか否かを判定する。そして、判定結果に応じてトラッピング処理を行う。例えば、入力画像データから抽出したエッジのうちで、フォントサイズが所定サイズよりも小さい文字の領域に含まれるエッジに対してはトラッピング処理を行わない。これにより、フォントサイズが小さい文字の領域にトラッピング処理を行うことによって生じる画質の劣化を回避する。また、必要な領域にはトラッピング処理を適切に行うことにより、版ずれが生じた場合に発生する白抜けを防止する。   In the present invention, a predetermined character area included in the input image data is detected. Further, based on whether or not each of the target pixels of the input image data is an edge extracted from the input image data and is included in the detected predetermined character area, each target pixel has a plurality of color component pixels. It is determined whether or not to perform a process of overlapping (trapping process). Then, a trapping process is performed according to the determination result. For example, the trapping process is not performed on edges included in a character region having a font size smaller than a predetermined size among edges extracted from input image data. This avoids degradation of image quality caused by performing trapping processing on a character region having a small font size. Further, by appropriately performing a trapping process in a necessary area, white spots that occur when misregistration occurs are prevented.

本発明においては、入力画像データを所定の閾値を基に2値データに変換し、得られた2値データについて、交差する2方向のそれぞれに連続する同一の画素値の画素数を計数する。そして、計数結果に基づいて、入力画像データに含まれる所定の文字領域を検出する。よって、連続する同一の画素値の画素数に基づいて、各注目画素が、フォントサイズが小さい文字の領域、細線の領域、文字と文字との間の領域等に属するかを精度よく判別することが可能となる。   In the present invention, the input image data is converted into binary data based on a predetermined threshold value, and the number of pixels having the same pixel value continuous in each of the two intersecting directions is counted for the obtained binary data. Based on the counting result, a predetermined character area included in the input image data is detected. Therefore, based on the number of consecutive pixels with the same pixel value, it is possible to accurately determine whether each pixel of interest belongs to a character area with a small font size, a thin line area, an area between characters, or the like. Is possible.

本発明においては、入力画像データの注目画素及び注目画素の周辺画素の画素値の平均値に基づく閾値を基に前記入力画像データを2値データに変換する。そして、変換して得られた2値データにおいて、交差する2方向のそれぞれに連続する同一の画素値の画素数に基づいて所定の文字領域を検出する。よって、背景色の影響を抑えることにより、各注目画素がいずれの領域に属するかをより精度よく判別することが可能となる。   In the present invention, the input image data is converted into binary data based on a threshold value based on an average value of pixel values of the target pixel of the input image data and the peripheral pixels of the target pixel. Then, in the binary data obtained by the conversion, a predetermined character area is detected based on the number of pixels having the same pixel value that is continuous in each of the two intersecting directions. Therefore, by suppressing the influence of the background color, it is possible to more accurately determine which region each pixel of interest belongs to.

本発明においては、入力画像データから変換された2値データにおいて、交差する2方向、及び該2方向に斜めに交差する方向のそれぞれに連続する同一の画素値の画素数を計数する。そして、計数結果に基づいて、入力画像データに含まれる所定の文字領域を検出する。よって、交差する2方向、及び該2方向に斜めに交差する方向のそれぞれに連続する同一の画素値の画素数に基づいて、各注目画素がいずれの領域に属するかをより精度よく判別することが可能となる。   In the present invention, in the binary data converted from the input image data, the number of pixels having the same pixel value consecutive in each of the two intersecting directions and the direction obliquely intersecting the two directions is counted. Based on the counting result, a predetermined character area included in the input image data is detected. Therefore, it is possible to more accurately determine which region each pixel of interest belongs to based on the number of pixels having the same pixel value that is continuous in each of the two intersecting directions and the direction obliquely intersecting the two directions. Is possible.

本発明においては、交差する2方向、及び該2方向に斜めに交差する方向のそれぞれに連続する同一の画素値の画素数を、方向別に設定された閾値と比較した結果に基づいて前記所定の文字領域であるか否かを判定する。よって、各注目画素がいずれの領域に属するかをより精度よく判別することが可能となる。   In the present invention, the predetermined number of pixels is determined based on the result of comparing the number of pixels having the same pixel value in each of the two intersecting directions and the direction obliquely intersecting the two directions with a threshold value set for each direction. It is determined whether it is a character area. Therefore, it is possible to more accurately determine which region each pixel of interest belongs to.

本発明は、各注目画素が、フォントサイズが小さい文字の領域、細線の領域、文字と文字との間の領域等のいずれに属するかを精度よく判別できる。よって、この判別結果に基づいてトラッピング処理を行うか否かを精度よく判定できる。即ち、文字の線幅、文字間の間隔等を考慮してトラッピング処理を行うか否かを判定するので、トラッピング処理を行うか否かの誤判定を防止し、トラッピング処理を精度よく行うことができる。   The present invention can accurately determine whether each pixel of interest belongs to a character area having a small font size, a thin line area, a region between characters, or the like. Therefore, it is possible to accurately determine whether or not to perform the trapping process based on the determination result. That is, since it is determined whether or not the trapping process is performed in consideration of the line width of the character, the space between the characters, etc., it is possible to prevent an erroneous determination whether or not to perform the trapping process and to perform the trapping process with high accuracy. it can.

実施形態1に係るカラー画像形成装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a color image forming apparatus according to Embodiment 1. FIG. トラッピング処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a trapping process part. 入力ラインバッファ部の構成を示すブロック図である。It is a block diagram which shows the structure of an input line buffer part. 2値化処理部が行う2値化処理を説明するための模式図である。It is a schematic diagram for demonstrating the binarization process which a binarization process part performs. 画素カウント部の構成を示すブロック図である。It is a block diagram which shows the structure of a pixel count part. 画素カウント部が行う画素カウント処理を説明するための模式図である。It is a schematic diagram for demonstrating the pixel count process which a pixel count part performs. 文字検出部の構成を示すブロック図である。It is a block diagram which shows the structure of a character detection part. トラッピング判定処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a trapping determination process part. 入力画像データの一例を模式的に示す図である。It is a figure which shows an example of input image data typically. 微分フィルタの一例を模式的に示す図である。It is a figure which shows an example of a differential filter typically. 図10の微分フィルタを用いて、図9の入力画像データに対してエッジ量を算出した結果の一部を示す図である。FIG. 11 is a diagram illustrating a part of the result of calculating the edge amount for the input image data in FIG. 9 using the differential filter in FIG. 10. インクリメント方向領域及びデクリメント方向領域を説明するための模式図である。It is a schematic diagram for demonstrating an increment direction area | region and a decrement direction area | region. 図9の入力画像データに対して、類似色方向判定を実行した結果の一部を示す図である。FIG. 10 is a diagram illustrating a part of the result of executing the similar color direction determination on the input image data of FIG. 9. 代表色を算出する際に参照する領域を説明するための模式図である。It is a schematic diagram for demonstrating the area | region referred when calculating a representative color. 代表色を算出する際に参照する領域を説明するための模式図である。It is a schematic diagram for demonstrating the area | region referred when calculating a representative color. 注目側及び反対側の代表色を算出した結果の一部を示す図である。It is a figure which shows a part of result of having calculated the representative color of the attention side and the opposite side. 注目側及び反対側の代表色に基づいて算出した輝度値及びトラップ判定の結果の一部を示す図である。It is a figure which shows a part of luminance value computed based on the representative color of an attention side and an other side, and the result of trap determination. トラッピング重ね合せ処理を行った結果の一部を示す図である。It is a figure which shows a part of result of having performed the trapping superimposition process. トラッピング重ね合せ処理を行った結果の一部を示す図である。It is a figure which shows a part of result of having performed the trapping superimposition process. カラー画像処理装置によるトラッピング処理を示すフローチャートである。It is a flowchart which shows the trapping process by a color image processing apparatus. トラッピング判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a trapping determination process. トラッピング判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a trapping determination process. トラッピング判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a trapping determination process. 実施形態2のトラッピング処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the trapping process part of Embodiment 2. 閾値算出部の構成を示すブロック図である。It is a block diagram which shows the structure of a threshold value calculation part. カラー画像処理装置によるトラッピング処理を示すフローチャートである。It is a flowchart which shows the trapping process by a color image processing apparatus. 画素カウント部が行う画素カウント処理を説明するための模式図である。It is a schematic diagram for demonstrating the pixel count process which a pixel count part performs. 実施形態3の文字検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the character detection part of Embodiment 3. 実施形態4の文字検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the character detection part of Embodiment 4. 本発明に係る画像処理装置を備えるデジタルカラー複合機の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a digital color multi-function peripheral including an image processing apparatus according to the present invention.

以下に、本発明に係る画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム及び記録媒体について、その実施形態を示す図面に基づいて詳述する。   Hereinafter, an image processing apparatus, an image forming apparatus, an image processing method, a computer program, and a recording medium according to the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.

(実施形態1)
以下に、実施形態1に係るカラー画像形成装置について説明する。図1は実施形態1に係るカラー画像形成装置の構成を示すブロック図である。本実施形態1のカラー画像形成装置は、入力された画像データ(以下、入力画像データと言う)に対して画像処理を施し、処理後の画像データに基づいて記録用紙などのシート上にカラー画像を形成する。入力画像データは、図示しないコンピュータ上で画像編集ソフトなどのアプリケーションソフトウェアを用いて作成される。作成された入力画像データは、プリンタドライバにてページ記述言語に変換され、ネットワーク等を介してコンピュータからカラー画像形成装置へ伝送される。
(Embodiment 1)
The color image forming apparatus according to Embodiment 1 will be described below. FIG. 1 is a block diagram illustrating a configuration of a color image forming apparatus according to the first embodiment. The color image forming apparatus according to the first embodiment performs image processing on input image data (hereinafter referred to as input image data), and a color image is formed on a sheet such as recording paper based on the processed image data. Form. The input image data is created using application software such as image editing software on a computer (not shown). The created input image data is converted into a page description language by a printer driver, and transmitted from the computer to the color image forming apparatus via a network or the like.

カラー画像形成装置は、図1に示すように、入力画像データを処理するカラー画像処理装置1、及びカラー画像処理装置1によって処理された画像データに基づく画像を形成するカラー画像出力装置(画像形成手段)2などを備えている。カラー画像出力装置2は、記録用紙又はOHPシート等のシート上に画像を形成する例えば電子写真方式又はインクジェット方式等のプリンタである。なお、カラー画像出力装置2は、ディスプレイのような表示装置としてもよい。   As shown in FIG. 1, the color image forming apparatus includes a color image processing apparatus 1 that processes input image data, and a color image output apparatus that forms an image based on the image data processed by the color image processing apparatus 1 (image formation). Means) 2 and the like. The color image output device 2 is, for example, a printer such as an electrophotographic system or an inkjet system that forms an image on a sheet such as a recording sheet or an OHP sheet. The color image output device 2 may be a display device such as a display.

カラー画像処理装置1は、ラスタデータ生成部11、色補正部12、黒生成下地除去部13、セレクタ14、トラッピング処理部15、出力階調補正部16及び階調再現処理部17などを備えている。   The color image processing apparatus 1 includes a raster data generation unit 11, a color correction unit 12, a black generation background removal unit 13, a selector 14, a trapping processing unit 15, an output gradation correction unit 16, a gradation reproduction processing unit 17, and the like. Yes.

ラスタデータ生成部11は、入力されたページ記述言語を解析し、RGB(R:赤、G:緑、B:青)又はCMYK(C:シアン、M:マゼンタ、Y:イエロー、K:黒)のラスタデータを生成する。RGBのラスタデータを生成した場合、ラスタデータ生成部11は、生成したラスタデータを色補正部12へ出力する。一方、CMYKのラスタデータを生成した場合、ラスタデータ生成部11は、生成したラスタデータをセレクタ14へ出力する。   The raster data generation unit 11 analyzes the input page description language, and RGB (R: red, G: green, B: blue) or CMYK (C: cyan, M: magenta, Y: yellow, K: black) Generate raster data. When the RGB raster data is generated, the raster data generation unit 11 outputs the generated raster data to the color correction unit 12. On the other hand, when the raster data of CMYK is generated, the raster data generation unit 11 outputs the generated raster data to the selector 14.

また、ラスタデータ生成部11は、入力画像データの色空間情報を取得し、取得した色空間情報をセレクタ14へ出力する。さらに、ラスタデータ生成部11は、ラスタデータの各画素が文字領域、ベクター・グラフィックス領域、写真領域、又はそれ以外の何れのものであるかを示すタグ情報を生成し、黒生成下地除去部13及び階調再現処理部17へ出力する。   Further, the raster data generation unit 11 acquires color space information of the input image data, and outputs the acquired color space information to the selector 14. Further, the raster data generation unit 11 generates tag information indicating whether each pixel of the raster data is a character region, a vector graphics region, a photographic region, or any other one, and a black generation background removal unit 13 and the gradation reproduction processing unit 17.

色補正部12は、色再現の忠実化実現のために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行う。色補正部12は、色補正後の3色のCMY信号を黒生成下地除去部13へ出力する。   The color correction unit 12 performs a process of removing color turbidity based on the spectral characteristics of the CMY color material including unnecessary absorption components in order to realize faithful color reproduction. The color correction unit 12 outputs the three-color CMY signals after color correction to the black generation background removal unit 13.

黒生成下地除去部13は、色補正後のCMY信号から黒(K)信号を生成する黒生成処理、元のCMY信号からK信号を差し引いて新たなCMY信号を生成する処理を行う。これにより、CMYの3色信号はCMYKの4色信号に変換される。黒生成下地除去部13は、生成したCMYK信号をセレクタ14へ出力する。   The black generation background removal unit 13 performs black generation processing for generating a black (K) signal from the color-corrected CMY signal, and processing for generating a new CMY signal by subtracting the K signal from the original CMY signal. As a result, the CMY three-color signal is converted into a CMYK four-color signal. The black generation background removal unit 13 outputs the generated CMYK signal to the selector 14.

なお、黒生成下地除去部13は、例えばスケルトンブラック処理により黒信号を生成する。この方法では、スケルトンカーブの入出力特性をy=f(x)、入力されるデータをC,M,Y、出力されるデータをC',M',Y',K'、UCR(Under Color Removal)率をα(0<α<1)とした場合、黒生成下色除去処理により出力されるデータ夫々は、K'=f{min(C、M、Y)}、C'=C−αK'、M'=M−αK'、Y'=Y−αK'で表される。   Note that the black generation background removal unit 13 generates a black signal by, for example, skeleton black processing. In this method, the input / output characteristic of the skeleton curve is y = f (x), the input data is C, M, Y, the output data is C ′, M ′, Y ′, K ′, UCR (Under Color When the removal rate is α (0 <α <1), the data output by the black generation and under color removal processing is K ′ = f {min (C, M, Y)}, C ′ = C−. αK ′, M ′ = M−αK ′, Y ′ = Y−αK ′.

セレクタ14は、ラスタデータ生成部11及び黒生成下地除去部13からCMYK信号が入力されており、ラスタデータ生成部11から出力された色空間情報に基づいて、何れか一方の信号を出力する。色空間情報がRGBである場合、セレクタ14は、黒生成下地除去部13から入力されたCMYK信号をトラッピング処理部15へ出力する。色空間情報がCMYKである場合、セレクタ14は、ラスタデータ生成部11から直接入力されたCMYK信号をトラッピング処理部15へ出力する。従って、入力画像データの色空間情報がCMYKであった場合、トラッピング処理部15には、色補正部12及び黒生成下地除去部13で処理されていないCMYK信号が入力される。   The selector 14 receives CMYK signals from the raster data generation unit 11 and the black generation background removal unit 13, and outputs one of the signals based on the color space information output from the raster data generation unit 11. When the color space information is RGB, the selector 14 outputs the CMYK signal input from the black generation background removal unit 13 to the trapping processing unit 15. When the color space information is CMYK, the selector 14 outputs the CMYK signal directly input from the raster data generation unit 11 to the trapping processing unit 15. Therefore, when the color space information of the input image data is CMYK, the trapping processing unit 15 receives a CMYK signal that has not been processed by the color correction unit 12 and the black generation background removal unit 13.

トラッピング処理部15は、入力されたラスタデータに対して、版ずれ時の白抜けを防止するためのトラッピング処理を行う。そして、トラッピング処理部15は、処理後のCMYK信号を出力階調補正部16へ出力する。なお、トラッピング処理部15の構成及び処理内容については後述する。   The trapping processing unit 15 performs a trapping process for preventing white spots at the time of misregistration on the input raster data. The trapping processing unit 15 then outputs the processed CMYK signal to the output tone correction unit 16. The configuration and processing contents of the trapping processing unit 15 will be described later.

出力階調補正部16は、カラー画像出力装置2の特性に基づく出力階調補正処理を行い、階調再現処理部17は、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)を施す。階調再現処理部17は、ラスタデータ生成部11からのタグ情報に基づいて写真と判定されている領域に関しては、階調再現性を重視したスクリーンでの二値化又は多値化処理を行う。   The output tone correction unit 16 performs output tone correction processing based on the characteristics of the color image output device 2, and the tone reproduction processing unit 17 can finally separate the image into pixels and reproduce each tone. In this way, gradation reproduction processing (halftone generation) is performed. The tone reproduction processing unit 17 performs binarization or multi-value processing on the screen with an emphasis on tone reproducibility for an area determined to be a photograph based on the tag information from the raster data generation unit 11. .

次に、トラッピング処理部15について説明する。図2はトラッピング処理部15の構成を示すブロック図である。トラッピング処理部15は、入力ラインバッファ部21、2値化処理部22、画素カウント部23、文字検出部24、トラッピング判定処理部25、トラッピング重ね合せ処理部26、閾値記憶部27などを備えている。なお、図2において、入力及び出力の信号線などは1本のみ描いているが、実際にはCMYKの4つの色成分毎に信号線があるものとする。セレクタ14から出力されてトラッピング処理部15に入力されたラスタデータ(CMYK信号)は、入力ラインバッファ部21及びトラッピング重ね合せ処理部26に入力される。   Next, the trapping processing unit 15 will be described. FIG. 2 is a block diagram showing a configuration of the trapping processing unit 15. The trapping processing unit 15 includes an input line buffer unit 21, a binarization processing unit 22, a pixel count unit 23, a character detection unit 24, a trapping determination processing unit 25, a trapping overlap processing unit 26, a threshold storage unit 27, and the like. Yes. In FIG. 2, only one input and output signal line is drawn, but it is assumed that there is actually a signal line for every four color components of CMYK. The raster data (CMYK signal) output from the selector 14 and input to the trapping processing unit 15 is input to the input line buffer unit 21 and the trapping overlap processing unit 26.

図3は入力ラインバッファ部21の構成を示すブロック図である。入力ラインバッファ部21は、プレーン(色成分)毎に、セレクタ14が出力した入力画像データ(CMYK信号)をライン単位で一時的に格納するラインバッファ212を複数備えている。また、入力ラインバッファ部21は、入力画像データをラインバッファ212に書き込むバッファ書込制御部211と、ラインバッファ212から画像データを読み出すバッファ読出制御部213とを備える。複数のラインバッファ212により、後段の2値化処理部22及びトラッピング判定処理部25は、マスク処理等を行う際に複数ラインのデータを参照できるようになっている。   FIG. 3 is a block diagram showing the configuration of the input line buffer unit 21. The input line buffer unit 21 includes a plurality of line buffers 212 for temporarily storing the input image data (CMYK signal) output from the selector 14 for each plane (color component) in units of lines. The input line buffer unit 21 includes a buffer write control unit 211 that writes input image data to the line buffer 212 and a buffer read control unit 213 that reads image data from the line buffer 212. By the plurality of line buffers 212, the binarization processing unit 22 and the trapping determination processing unit 25 in the subsequent stage can refer to data of a plurality of lines when performing mask processing or the like.

バッファ読出制御部213は、複数のラインバッファ212の所定領域に格納された画像データ(ラインデータ)を順次読み出して、後段の2値化処理部22及びトラッピング判定処理部25へ出力する。なお、ラインバッファ212の所定領域から順次読み出される画像データ(ラインデータ)は、後段の2値化処理部22及びトラッピング判定処理部25において、注目画素と所定のマスクサイズ内の周辺画素とを含む処理対象の画素データ群として取得される。   The buffer read control unit 213 sequentially reads image data (line data) stored in a predetermined area of the plurality of line buffers 212 and outputs the image data to the subsequent binarization processing unit 22 and the trapping determination processing unit 25. Note that image data (line data) sequentially read from a predetermined area of the line buffer 212 includes a pixel of interest and peripheral pixels within a predetermined mask size in the binarization processing unit 22 and the trapping determination processing unit 25 in the subsequent stage. Acquired as a pixel data group to be processed.

図4は2値化処理部22が行う2値化処理を説明するための模式図である。2値化処理部22には、閾値記憶部27に記憶されている閾値と、入力ラインバッファ部21から出力されるラインデータとが入力される。なお、本実施形態1では、入力ラインバッファ部21から出力されるラインデータを5×5のマスクサイズを1ブロックとしてブロック単位で処理するものとして説明する。しかし、マスクサイズはこれに限るものではなく、必要に応じて最適なサイズとすればよい。また、図4に示したブロックにおいては、横方向を画像データの主走査方向とし、縦方向を副走査方向とする。   FIG. 4 is a schematic diagram for explaining the binarization processing performed by the binarization processing unit 22. The threshold value stored in the threshold value storage unit 27 and the line data output from the input line buffer unit 21 are input to the binarization processing unit 22. In the first embodiment, the line data output from the input line buffer unit 21 is described as being processed in units of blocks with a 5 × 5 mask size as one block. However, the mask size is not limited to this, and may be an optimum size as necessary. In the block shown in FIG. 4, the horizontal direction is the main scanning direction of the image data, and the vertical direction is the sub-scanning direction.

2値化処理部22は比較器を備え、閾値記憶部27から入力される閾値と、入力ラインバッファ部21から入力されるラインデータに含まれるそれぞれの画素データ(画素値)とを比較する。そして、2値化処理部22は、比較結果に基づいて、入力されたラインデータを2値データに変換する。図4に示した例では、閾値が84h(16進数で84)としており、閾値以上の画素値が1に、閾値未満の画素値が0にそれぞれ変換される。   The binarization processing unit 22 includes a comparator, and compares the threshold value input from the threshold value storage unit 27 with each pixel data (pixel value) included in the line data input from the input line buffer unit 21. Then, the binarization processing unit 22 converts the input line data into binary data based on the comparison result. In the example shown in FIG. 4, the threshold value is 84 h (84 in hexadecimal), and the pixel value equal to or greater than the threshold value is converted to 1 and the pixel value less than the threshold value is converted to 0.

図5は画素カウント部23の構成を示すブロック図、図6は画素カウント部23が行う画素カウント処理を説明するための模式図である。画素カウント部23には、2値化処理部22によって2値データに変換されたラインデータが、5×5画素のブロック単位で入力される。画素カウント部23は、図6(a)に示すように、2値化処理部22から出力されてくる5×5画素のブロックの主走査方向及び副走査方向のそれぞれにおいて、連続する同一の画素値(1又は0)の画素数をカウントする。なお、本実施形態1では、画素値が1の画素が連続する画素数をカウントする。   FIG. 5 is a block diagram showing the configuration of the pixel count unit 23, and FIG. 6 is a schematic diagram for explaining pixel count processing performed by the pixel count unit 23. Line data converted into binary data by the binarization processing unit 22 is input to the pixel count unit 23 in units of 5 × 5 pixel blocks. As shown in FIG. 6A, the pixel count unit 23 is the same continuous pixel in each of the main scanning direction and the sub-scanning direction of the 5 × 5 pixel block output from the binarization processing unit 22. The number of pixels of value (1 or 0) is counted. In the first embodiment, the number of pixels in which pixels having a pixel value of 1 continue is counted.

画素カウント部23は、図5に示すように、主走査方向及び副走査方向のそれぞれに配列される5つの画素値について、それぞれ隣り合う画素値の論理積を算出する4つのAND回路231,231を有する。また、画素カウント部23は、AND回路231,231のそれぞれからの出力値について、それぞれ隣り合う出力値の論理積を算出する3つのAND回路232,232を有する。また、画素カウント部23は、AND回路232,232のそれぞれからの出力値について、それぞれ隣り合う出力値の論理積を算出する2つのAND回路233,233を有する。   As shown in FIG. 5, the pixel count unit 23 calculates four AND circuits 231 and 231 that calculate the logical product of adjacent pixel values for the five pixel values arranged in the main scanning direction and the sub-scanning direction, respectively. Have Further, the pixel count unit 23 includes three AND circuits 232 and 232 that calculate the logical product of adjacent output values for the output values from the AND circuits 231 and 231, respectively. Further, the pixel count unit 23 includes two AND circuits 233 and 233 that calculate a logical product of adjacent output values for the output values from the AND circuits 232 and 232, respectively.

また、画素カウント部23は、AND回路233,233のそれぞれからの出力値の論理積を算出するAND回路234、AND回路233,233のそれぞれからの出力値の論理和を算出するOR回路235を有する。また、画素カウント部23は、3つのAND回路232,232からの出力値の論理和を算出するOR回路236、4つのAND回路231,231からの出力値の論理和を算出するOR回路237、入力された5つの画素値の論理和を算出するOR回路238を有する。そして、画素カウント部23は、AND回路234からの出力値A、OR回路235,236,237,238からの出力値B,C,D,Eに基づいて、主走査方向(又は副走査方向)において連続する同一の画素値(ここでは1)の画素数(カウント値)を特定して出力するカウント結果出力部239を有する。   In addition, the pixel count unit 23 includes an AND circuit 234 that calculates a logical product of output values from the AND circuits 233 and 233, and an OR circuit 235 that calculates a logical sum of output values from the AND circuits 233 and 233, respectively. Have. In addition, the pixel count unit 23 includes an OR circuit 236 that calculates a logical sum of output values from the three AND circuits 232 and 232, an OR circuit 237 that calculates a logical sum of output values from the four AND circuits 231 and 231, It has an OR circuit 238 for calculating the logical sum of the five input pixel values. Then, the pixel count unit 23 is based on the output value A from the AND circuit 234 and the output values B, C, D, and E from the OR circuits 235, 236, 237, and 238, and is in the main scanning direction (or sub-scanning direction). 1 includes a count result output unit 239 that specifies and outputs the number of pixels (count value) having the same pixel value (here, 1).

図6(b)は、カウント結果出力部239に入力される入力値A,B,C,D,Eと、カウント結果出力部239から出力されるカウント値との対応関係を示している。図6(b)に示すように、例えば、入力値A,B,C,D,Eが全て1であれば、カウント結果出力部239は、画素値が1の画素が5画素連続していることを示すカウント値「5」を出力する。また、入力値Aが0で、入力値B,C,D,Eが1であれば、カウント結果出力部239は、画素値が1の画素が4画素連続していることを示すカウント値「4」を出力する。   FIG. 6B shows a correspondence relationship between the input values A, B, C, D, and E input to the count result output unit 239 and the count value output from the count result output unit 239. As shown in FIG. 6B, for example, if the input values A, B, C, D, and E are all 1, the count result output unit 239 has five consecutive pixels with a pixel value of 1. The count value “5” indicating this is output. If the input value A is 0 and the input values B, C, D, and E are 1, the count result output unit 239 counts the count value “4” indicating that four pixels having the pixel value 1 are consecutive. 4 "is output.

このような構成により、画素カウント部23は、2値化処理部22から取得した5×5画素のブロックにおいて、主走査方向及び副走査方向のそれぞれについて、画素値が1の画素が連続する画素数(カウント値)をカウントする。なお、画素カウント部23は、主走査方向及び副走査方向のそれぞれについてカウントした10種類のカウント値を文字検出部24へ出力する。   With such a configuration, the pixel counting unit 23 is a pixel in which a pixel having a pixel value of 1 is continuous in each of the main scanning direction and the sub-scanning direction in the 5 × 5 pixel block acquired from the binarization processing unit 22. Count the number (count value). The pixel count unit 23 outputs ten types of count values counted in each of the main scanning direction and the sub-scanning direction to the character detection unit 24.

図7は文字検出部24の構成を示すブロック図である。文字検出部24は、第1比較器241、第2比較器242、小文字判定部243、文字検出用閾値記憶部244等を備える。文字検出部24には、画素カウント部23から出力された10種類のカウント値が入力され、主走査方向についての5つのカウント値が第1比較器241に入力され、副走査方向についての5つのカウント値が第2比較器242に入力される。   FIG. 7 is a block diagram showing a configuration of the character detection unit 24. The character detection unit 24 includes a first comparator 241, a second comparator 242, a lower case determination unit 243, a character detection threshold storage unit 244, and the like. Ten types of count values output from the pixel count unit 23 are input to the character detection unit 24, and five count values in the main scanning direction are input to the first comparator 241 and five count values in the sub-scanning direction are input. The count value is input to the second comparator 242.

また、比較器241,242には、文字検出用閾値記憶部244に記憶されている閾値(例えば5)が入力されている。文字検出用閾値記憶部244に記憶されている閾値は、5×5画素のブロックの中央の画素(注目画素)が、フォントサイズが所定サイズよりも小さい文字の領域、細線の領域、文字と文字との間の領域等に含まれるか否かを判別するための閾値である。よって、判別精度を考慮した適切な値が設定される。   Further, the threshold values (for example, 5) stored in the character detection threshold storage unit 244 are input to the comparators 241 and 242. The threshold value stored in the character detection threshold storage unit 244 is that a central pixel (target pixel) of a 5 × 5 pixel block has a character size, a fine line region, a character and a character whose font size is smaller than a predetermined size. It is a threshold value for determining whether or not it is included in the area between and the like. Therefore, an appropriate value is set in consideration of the discrimination accuracy.

比較器241,242は、画素カウント部23から入力されるカウント値のそれぞれと、文字検出用閾値記憶部244から入力される閾値とを比較し、比較結果を小文字判定部243へ出力する。なお、比較器241,242は、例えば、各カウント値が閾値以上であれば1を、閾値未満であれば0を出力する。   The comparators 241 and 242 compare each count value input from the pixel count unit 23 with the threshold value input from the character detection threshold storage unit 244, and output the comparison result to the lowercase determination unit 243. For example, the comparators 241 and 242 output 1 if each count value is greater than or equal to a threshold value, and outputs 0 if less than the threshold value.

小文字判定部243は、比較器241,242からそれぞれ出力された比較結果に基づいて、5×5画素のブロックが小文字領域に属するか否かを判定する。例えば、小文字判定部243は、比較器241,242から出力された10種類の比較結果のいずれかが1ではない場合に、このブロックは小文字領域に属すると判定する。即ち、10種類の比較結果の全てが1である場合、このブロックは小文字領域に属さないと判定する。   The lowercase letter determination unit 243 determines whether or not the 5 × 5 pixel block belongs to the lowercase area based on the comparison results output from the comparators 241 and 242, respectively. For example, the lowercase determination unit 243 determines that this block belongs to the lowercase area when any of the 10 types of comparison results output from the comparators 241 and 242 is not 1. That is, when all of the 10 types of comparison results are 1, it is determined that this block does not belong to the lowercase area.

この場合、5×5画素のブロックにおいて、主走査方向及び副走査方向のそれぞれについて連続する画素値が1の画素数が所定値(閾値)以上でなければ、小文字領域であると判定される。なお、このように判定した場合、各ブロックが、フォントサイズが所定サイズよりも小さい文字の領域に含まれる場合だけでなく、各ブロックが、細線の領域、文字と文字との間の領域に含まれるか否かも判別できる。なお、フォントサイズが所定サイズよりも小さい文字の領域、細線の領域、文字と文字との間の領域をまとめて小文字領域という。   In this case, in a 5 × 5 pixel block, if the number of pixels having a continuous pixel value of 1 in each of the main scanning direction and the sub-scanning direction is not equal to or greater than a predetermined value (threshold value), it is determined that the region is a lowercase area. In addition, when determined in this way, each block is included not only in the case where the font size is smaller than the predetermined size but also in the region between the thin lines and between the characters. It can also be determined whether or not. Note that a character area, a fine line area, and an area between characters that have a font size smaller than a predetermined size are collectively referred to as a lowercase area.

小文字判定部243は、処理対象のブロックが小文字領域に属すると判定した場合、このブロックの中央の画素(注目画素)が小文字領域に属すると判定し、この注目画素に対する小文字判定結果として「1」をトラッピング判定処理部25へ出力する。また、小文字判定部243は、処理対象のブロックが小文字領域に属さないと判定した場合、このブロックの注目画素が小文字領域に属さないと判定し、この注目画素に対する小文字判定結果として「0」をトラッピング判定処理部25へ出力する。なお、文字検出用閾値記憶部244に記憶されている閾値はこの値に限らず、トラッピング処理部15が入力画像データを処理する際のブロックのマスクサイズに応じて適宜変更すればよい。   When the lowercase determination unit 243 determines that the block to be processed belongs to the lowercase area, the lowercase determination unit 243 determines that the center pixel (target pixel) of this block belongs to the lowercase area, and “1” as the lowercase determination result for the target pixel. Is output to the trapping determination processing unit 25. If the lowercase determination unit 243 determines that the block to be processed does not belong to the lowercase area, the lowercase determination unit 243 determines that the target pixel of this block does not belong to the lowercase area, and sets “0” as the lowercase determination result for the target pixel. Output to the trapping determination processing unit 25. Note that the threshold value stored in the character detection threshold value storage unit 244 is not limited to this value, and may be appropriately changed according to the mask size of the block when the trapping processing unit 15 processes the input image data.

図8はトラッピング判定処理部25の構成を示すブロック図である。トラッピング判定処理部25は、入力画像データの各画素にトラッピング重ね合せ処理を行うかを判定(以下、トラップ判定と言う)し、さらに、重ね合せ処理を行う際に重ね合せる色(以下、トラップ色と言う)を決定する。   FIG. 8 is a block diagram illustrating a configuration of the trapping determination processing unit 25. The trapping determination processing unit 25 determines whether or not to perform trapping and superimposition processing on each pixel of the input image data (hereinafter referred to as trap determination), and further, a color to be superimposed when performing the superimposition processing (hereinafter referred to as trap color). Say).

図9は入力画像データの一例を模式的に示す図である。以下、図9に示す15×15画素の入力画像データに対して処理を行うものとして説明する。図9では、横方向を画像データの主走査方向、縦方向を副走査方向とし、斜線部分の画素がシアン(C)の純色、白抜部分の画素がマゼンダ(M)の純色を示している。従って、マゼンダ(M)のみの画素(例えば、主走査方向1、副走査方向1の画素)における画素値(M,C)は、(255,0)となる。また、シアン(C)のみの画素(例えば、主走査方向8、副走査方向8の画素)における画素値(M,C)は、(0,255)となる。なお、他の色成分(Y及びK)はないものとし、以下の説明では、シアン(C)及びマゼンダ(M)についてのみ説明する。   FIG. 9 is a diagram schematically illustrating an example of input image data. In the following description, it is assumed that processing is performed on the input image data of 15 × 15 pixels shown in FIG. In FIG. 9, the horizontal direction is the main scanning direction of the image data, the vertical direction is the sub-scanning direction, the shaded pixels are cyan (C) pure colors, and the white pixels are magenta (M) pure colors. . Therefore, the pixel value (M, C) in the pixel having only magenta (M) (for example, the pixel in the main scanning direction 1 and the sub-scanning direction 1) is (255, 0). Further, the pixel value (M, C) in a pixel of only cyan (C) (for example, a pixel in the main scanning direction 8 and the sub-scanning direction 8) is (0, 255). Note that there are no other color components (Y and K), and in the following description, only cyan (C) and magenta (M) will be described.

トラッピング判定処理部25は、図8に示すように、主走査側及び副走査側エッジ量算出部251,252、主走査側及び副走査側類似色方向判定部253,254、トラップ判定・トラップ色算出部255、セレクタ256などを備える。   As shown in FIG. 8, the trapping determination processing unit 25 includes main-scanning and sub-scanning edge amount calculation units 251 and 252, main-scanning and sub-scanning side similar color direction determination units 253 and 254, trap determination / trap color. A calculation unit 255, a selector 256, and the like are provided.

トラッピング判定処理部25には、入力ラインバッファ部21から出力されるラインデータ(入力画像データ)と、文字検出部24から出力される小文字判定結果とが入力される。ラインデータは、セレクタ256に入力され、小文字判定結果は、セレクタ256及びトラップ判定・トラップ色算出部255に入力される。   The trapping determination processing unit 25 receives the line data (input image data) output from the input line buffer unit 21 and the lowercase determination result output from the character detection unit 24. The line data is input to the selector 256, and the lowercase determination result is input to the selector 256 and the trap determination / trap color calculation unit 255.

セレクタ256は、文字検出部24から小文字判定結果として「1」が入力された場合、ラインデータをエッジ量算出部251,252へ転送しない。即ち、文字検出部24によって小文字領域に含まれると判定された注目画素については、トラッピング判定処理部25はトラップ判定を行わない。また、トラップ判定・トラップ色算出部255は、小文字判定結果として「1」が入力された場合、トラップ判定結果として、トラップ判定を無効とする「0」をトラッピング重ね合せ処理部26へ出力する。即ち、文字検出部24によって小文字領域に含まれると判定された注目画素について、後述するトラッピング重ね合せ処理部26はトラッピング重ね合せ処理を行わない。   The selector 256 does not transfer the line data to the edge amount calculation units 251 and 252 when “1” is input as the lowercase determination result from the character detection unit 24. That is, the trapping determination processing unit 25 does not perform trap determination for the target pixel determined to be included in the lowercase area by the character detection unit 24. Further, when “1” is input as the lowercase determination result, the trap determination / trap color calculation unit 255 outputs “0”, which invalidates the trap determination, to the trapping overlap processing unit 26 as the trap determination result. That is, the trapping and superimposing process unit 26 described later does not perform the trapping and superimposing process on the target pixel determined to be included in the lowercase area by the character detection unit 24.

一方、セレクタ256は、文字検出部24から小文字判定結果として「0」が入力された場合、入力されたラインデータを主走査側及び副走査側エッジ量算出部251,252へ転送する。即ち、文字検出部24によって小文字領域に含まれないと判定された注目画素については、トラッピング判定処理部25はトラップ判定を行う。また、トラップ判定・トラップ色算出部255は、小文字判定結果として「0」が入力された場合、後述するトラップ判定及びトラップ色の決定を行い、処理結果(トラップ判定結果、トラップ色)をトラッピング重ね合せ処理部26に対して出力する。   On the other hand, when “0” is input as the lowercase determination result from the character detection unit 24, the selector 256 transfers the input line data to the main scanning side and sub-scanning side edge amount calculation units 251 and 252. In other words, the trapping determination processing unit 25 performs trap determination for the pixel of interest that is determined not to be included in the lowercase area by the character detection unit 24. Further, when “0” is input as the lowercase determination result, the trap determination / trap color calculation unit 255 performs trap determination and determination of the trap color, which will be described later, and traps the processing results (trap determination result, trap color). The data is output to the matching processing unit 26.

このように、文字検出部24から小文字判定結果として「1」が入力された場合、即ち、処理対象の注目画素が小文字領域に属する場合、トラッピング判定処理部25は、トラップ判定結果として、トラップ判定を無効とする「0」をトラッピング重ね合せ処理部26へ出力する。従って、小文字領域に属すると判定された注目画素に対してはトラッピング重ね合わせ処理を行わないことにより、フォントサイズが所定サイズよりも小さい文字の領域、細線の領域、文字と文字との間の領域に含まれる注目画素に対してトラッピング処理を行うことによって生じる画質の劣化を回避できる。一方、文字領域に属さないと判定された注目画素に対してはトラッピング重ね合わせ処理を行うことにより、必要な領域にはトラッピング処理を適切に行うことにより、版ずれが生じた場合に発生する白抜けを防止する。   As described above, when “1” is input as the lowercase determination result from the character detection unit 24, that is, when the target pixel to be processed belongs to the lowercase area, the trapping determination processing unit 25 uses the trap determination as the trap determination result. Is output to the trapping and superposition processing unit 26. Accordingly, by not performing the trapping and superimposing process on the target pixel determined to belong to the lowercase area, the area of the character whose font size is smaller than the predetermined size, the area of the fine line, and the area between the characters It is possible to avoid degradation of image quality caused by performing trapping processing on the target pixel included in. On the other hand, white pixels that occur when misregistration occurs by performing trapping overlay processing on the target pixel that is determined not to belong to the character region, and by appropriately performing trapping processing on the necessary region. Prevent omissions.

主走査側及び副走査側エッジ量算出部251,252は、セレクタ256を介して入力された入力画像データの各プレーン(色成分毎の画像データ)に対して、微分フィルタを用いて主走査方向及び副走査方向それぞれのエッジ量を算出する。図10は微分フィルタの一例を模式的に示す図であり、(a)は主走査方向、(b)は副走査方向に対して用いる微分フィルタである。なお、図10では5×5のマスクサイズを示しているがこれに限るものではない。このような微分フィルタを用いることにより、色成分毎に、各画素と周囲の画素との主走査方向及び副走査方向における色差を示すエッジ量を算出する。   The main scanning side and sub scanning side edge amount calculation units 251 and 252 use a differential filter for each plane (image data for each color component) of input image data input via the selector 256 in the main scanning direction. And the edge amount in each sub-scanning direction is calculated. FIG. 10 is a diagram schematically showing an example of a differential filter. (A) is a differential filter used in the main scanning direction, and (b) is a differential filter used in the sub-scanning direction. Although FIG. 10 shows a 5 × 5 mask size, the present invention is not limited to this. By using such a differential filter, an edge amount indicating a color difference between each pixel and the surrounding pixels in the main scanning direction and the sub-scanning direction is calculated for each color component.

版の色境界(以下、トラッピング境界と言う)からどれくらいの幅までトラッピングを行うかを示すトラップ幅は、マスクサイズに依存する。従って、微分フィルタは、必要に応じて最適なマスクサイズを選択することができる。一般的に、トラップ幅を大きくした場合、色の重ね合せ領域が大きくなり、その領域が偽色として目立つため、画質としては悪くなる。一方、トラップ幅が小さい場合、版ずれの量が大きい場合に白抜けが目立つ結果となる。そのため、版ずれの量の大きさと偽色による画質低下のバランスにより、最適なトラップ幅、及びマスクサイズを決めることができる。   The trap width indicating how much the trapping is performed from the color boundary of the plate (hereinafter referred to as the trapping boundary) depends on the mask size. Therefore, the differential filter can select an optimal mask size as necessary. In general, when the trap width is increased, the color superposition region becomes large and the region is conspicuous as a false color, so that the image quality is deteriorated. On the other hand, when the trap width is small, white spots are conspicuous when the amount of misregistration is large. Therefore, the optimum trap width and mask size can be determined based on the balance between the amount of misregistration and the deterioration in image quality due to false colors.

図11は、図10の微分フィルタを用いて、図9の入力画像データに対してエッジ量を算出した結果の一部を示す図である。図11において、画素内の左側に表示されている数字は、シアン(C)に対して算出したエッジ量であり、上側が主走査方向、下側が副走査方向のエッジ量を示している。また、画素内の右側に表示されている数字は、マゼンダ(M)に対して算出したエッジ量であり、上側が主走査方向、下側が副走査方向のエッジ量を示している。   FIG. 11 is a diagram illustrating a part of the result of calculating the edge amount for the input image data of FIG. 9 using the differential filter of FIG. In FIG. 11, the numbers displayed on the left side of the pixels are the edge amounts calculated for cyan (C), with the upper side showing the edge amount in the main scanning direction and the lower side showing the edge amount in the sub-scanning direction. The number displayed on the right side in the pixel is the edge amount calculated for magenta (M), the upper side indicates the edge amount in the main scanning direction, and the lower side indicates the edge amount in the sub-scanning direction.

例えば、主走査方向8、副走査方向8の画素の場合、シアン(C)のエッジ量は、主走査方向及び副走査方向の何れも「765」となり、マゼンダ(M)は、「−765」となる。また、図11では省略しているが、エッジから離れた画素(例えば、主走査方向1、副走査方向1の画素)では、エッジ量は主走査側及び副走査側の何れも「0」となる。このように、入力画像データにおけるシアン(C)とマゼンダ(M)との境界(エッジ)付近では、エッジ量は0でない値を持つ。   For example, in the case of pixels in the main scanning direction 8 and the sub scanning direction 8, the edge amount of cyan (C) is “765” in both the main scanning direction and the sub scanning direction, and magenta (M) is “−765”. It becomes. Further, although omitted in FIG. 11, in the pixels far from the edge (for example, pixels in the main scanning direction 1 and the sub scanning direction 1), the edge amount is “0” on both the main scanning side and the sub scanning side. Become. Thus, the edge amount has a non-zero value near the boundary (edge) between cyan (C) and magenta (M) in the input image data.

主走査側及び副走査側類似色方向判定部253,254は、エッジ量算出部251,252が算出したエッジ量に対して、主走査方向及び副走査方向それぞれについての類似色方向を判定する。類似色方向とは、注目画素の色と類似している画素がある方向である。まず、類似色方向判定部253,254は、CMYKのうち少なくとも2つのプレーン(本実施形態では、C及びM色成分)で、エッジ量の絶対値が閾値(例えば240)以上であり、エッジ量のそれぞれが正負の値となる画素が存在するか否かを判定する。なお、このような画素は、版ずれが生じた場合に白抜けが発生するエッジとなる。   The main scanning side and sub-scanning side similar color direction determination units 253 and 254 determine similar color directions for the main scanning direction and the sub-scanning direction with respect to the edge amounts calculated by the edge amount calculation units 251 and 252, respectively. The similar color direction is a direction in which there is a pixel similar to the color of the target pixel. First, the similar color direction determination units 253 and 254 have at least two planes (C and M color components in the present embodiment) of CMYK, the absolute value of the edge amount is a threshold value (for example, 240) or more, and the edge amount It is determined whether or not there is a pixel having a positive or negative value. Note that such a pixel becomes an edge where white spots occur when a misregistration occurs.

このような画素が存在する場合、類似色方向判定部253,254は、この画素に対して、エッジが存在すると判定する。このような画素が存在しない場合、類似色方向判定部253,254は、類似色方向の判定結果として「0」をトラップ判定・トラップ色算出部255へ出力する。なお、閾値は、どの程度までエッジを検出するかなどによって適宜変更可能である。   When such a pixel exists, the similar color direction determination units 253 and 254 determine that an edge exists for this pixel. When such a pixel does not exist, the similar color direction determination units 253 and 254 output “0” as the determination result of the similar color direction to the trap determination / trap color calculation unit 255. Note that the threshold value can be changed as appropriate depending on how far the edge is detected.

図11の主走査方向4、副走査方向6の画素の場合、主走査方向のエッジ量は、シアン(C)が255、マゼンダ(M)が−255となっているため、かかる画素にはエッジが存在すると判定される。エッジが存在すると判定した場合、類似色方向判定部253,254は、エッジが存在すると判定した画素(注目画素)と、インクリメント方向領域・デクリメント方向領域内の画素の画素値の平均値とに基づいて色差(col_diff)を算出する。   In the case of a pixel in the main scanning direction 4 and the sub-scanning direction 6 in FIG. 11, the edge amounts in the main scanning direction are 255 for cyan (C) and −255 for magenta (M). Is determined to exist. When it is determined that there is an edge, the similar color direction determination units 253 and 254 are based on the pixel (target pixel) determined to have an edge and the average value of the pixel values of the pixels in the increment direction area and the decrement direction area. To calculate the color difference (col_diff).

図12は、インクリメント方向領域及びデクリメント方向領域を説明するための模式図であり、(a)は主走査方向、(b)は副走査方向の場合を示している。主走査方向では、中央の注目画素Pより左側がデクリメント方向領域となり、右側がインクリメント方向領域となる。また、副走査方向の場合、中央の注目画素Pより上側がデクリメント方向領域となり、下側がインクリメント方向領域となる。   FIG. 12 is a schematic diagram for explaining the increment direction area and the decrement direction area, where (a) shows the case in the main scanning direction and (b) shows the case in the sub scanning direction. In the main scanning direction, the left side from the center pixel of interest P is a decrement direction area, and the right side is an increment direction area. In the case of the sub-scanning direction, the upper side from the central target pixel P is a decrement direction area, and the lower side is an increment direction area.

注目画素Pのシアン(C)、マゼンダ(M)、イエロー(Y)及びブラック(K)それぞれの画素値を、C1 、M1 、Y1 、K1とし、インクリメント方向領域又はデクリメント方向領域内の画素の画素値の平均値を、C2、M2、Y2、K2とした場合、注目画素と、インクリメント方向領域又はデクリメント方向領域との色差(col_diff)は、以下の式1により算出される。 The pixel values of cyan (C), magenta (M), yellow (Y), and black (K) of the target pixel P are set to C 1 , M 1 , Y 1 , and K 1 , respectively, in the increment direction area or the decrement direction area. When the average value of the pixel values of C 2 , C 2 , M 2 , Y 2 , and K 2 is used, the color difference (col_diff) between the pixel of interest and the increment direction area or the decrement direction area is calculated by the following formula 1. Is done.

col_diff=|C1 −C2|+|M1 −M2|+|Y1 −Y2|+|K1 −K2| …(式1) col_diff = | C 1 −C 2 | + | M 1 −M 2 | + | Y 1 −Y 2 | + | K 1 −K 2 | (Formula 1)

類似色方向判定部253,254は、上記の式1により、インクリメント方向領域及びデクリメント方向領域との色差(col_diff)を算出した結果、色差の小さい方向を類似色方向とする。例えば、注目画素P及びインクリメント方向領域に基づいて算出した色差が、注目画素P及びデクリメント方向領域に基づいて算出した色差よりも小さい場合、インクリメント方向が類似色方向とされる。   The similar color direction determination units 253 and 254 calculate the color difference (col_diff) between the increment direction area and the decrement direction area by Equation 1 above, and as a result, the direction with a small color difference is set as the similar color direction. For example, when the color difference calculated based on the target pixel P and the increment direction area is smaller than the color difference calculated based on the target pixel P and the decrement direction area, the increment direction is set as the similar color direction.

類似色方向判定部253,254は、インクリメント方向が類似色方向と判定した場合、判定結果として「1」をトラップ判定・トラップ色算出部255へ出力する。また、類似色方向判定部253,254は、デクリメント方向が類似色方向と判定した場合、判定結果として「−1」をトラップ判定・トラップ色算出部255へ出力する。なお、類似色方向判定部253,254は、エッジが存在しないと判定した場合、類似色方向は「なし」とし、判定結果として「0」をトラップ判定・トラップ色算出部255へ出力する。   When the increment direction is determined to be the similar color direction, the similar color direction determination units 253 and 254 output “1” as the determination result to the trap determination / trap color calculation unit 255. Also, when the similar color direction determination units 253 and 254 determine that the decrement direction is the similar color direction, the determination result “−1” is output to the trap determination / trap color calculation unit 255. If the similar color direction determination units 253 and 254 determine that no edge exists, the similar color direction is set to “none”, and “0” is output to the trap determination / trap color calculation unit 255 as a determination result.

図13は、図9の入力画像データに対して、類似色方向判定を実行した結果の一部を示す図である。各画素内の数値は、類似色方向の判定結果を示しており、上側の数値が主走査方向、下側の数値が副走査方向を示している。例えば、主走査方向6、副走査方向7の画素の場合、主走査方向及び副走査方向における類似色方向は何れも−1、即ちデクリメント方向となり、注目画素は、デクリメント方向の画素と色が類似していることになる。   FIG. 13 is a diagram illustrating a part of the result of executing the similar color direction determination on the input image data in FIG. 9. The numerical value in each pixel indicates the determination result of the similar color direction, the upper numerical value indicates the main scanning direction, and the lower numerical value indicates the sub-scanning direction. For example, in the case of pixels in the main scanning direction 6 and the sub-scanning direction 7, the similar color directions in the main scanning direction and the sub-scanning direction are both −1, that is, the decrement direction, and the target pixel is similar in color to the pixel in the decrement direction. Will be.

トラップ判定・トラップ色算出部255は、エッジ量算出部251,252、並びに類似色方向判定部253,254における処理結果に基づいて、トラップ判定及びトラップ色の決定を行う。まず、トラップ判定・トラップ色算出部255は、マスクサイズ内の画素に対して代表色を算出する。   The trap determination / trap color calculation unit 255 performs trap determination and trap color determination based on the processing results of the edge amount calculation units 251 and 252 and the similar color direction determination units 253 and 254. First, the trap determination / trap color calculation unit 255 calculates a representative color for pixels within the mask size.

図14及び図15は、代表色を算出する際に参照する領域を説明するための模式図である。図14は、複数画素の画素値の平均値に基づいて代表色を算出する場合、図15は、1つの画素の画素値に基づいて代表色を算出する場合をそれぞれ示している。以下の説明では、図14に示す領域を用いて代表色を算出する方法を面積タイプと言い、図15の方法を点タイプと言う。   14 and 15 are schematic diagrams for explaining regions to be referred to when calculating representative colors. FIG. 14 shows a case where a representative color is calculated based on an average value of pixel values of a plurality of pixels, and FIG. 15 shows a case where a representative color is calculated based on the pixel value of one pixel. In the following description, the method of calculating the representative color using the region shown in FIG. 14 is referred to as an area type, and the method of FIG. 15 is referred to as a point type.

トラップ判定・トラップ色算出部255は、類似色方向判定部253,254による判定結果に対して、注目側及び反対側の代表色を色成分毎に算出する。例えば、図13において、主走査方向6、副走査方向7の画素は、主走査方向及び副走査方向における類似色方向は何れも「−1」である。そして、面積タイプに基づいて代表色を算出する場合、注目側の代表色(代表色画素値)は、図14(a)に示す(−1,−1)の領域内の画素値の平均値となる。このとき、反対側の代表色は、(1,1)の領域内の画素値の平均値となる。また、点タイプに基づいて代表色を算出する場合、注目側の代表色は、図15に示す(−1,−1)の画素値となり、反対側の代表色は、(1,1)の画素値となる。以下、代表色は、面積タイプに基づいて算出するものとして説明する。   The trap determination / trap color calculation unit 255 calculates the representative color on the attention side and the opposite side for each color component with respect to the determination results by the similar color direction determination units 253 and 254. For example, in FIG. 13, in the pixels in the main scanning direction 6 and the sub scanning direction 7, the similar color directions in the main scanning direction and the sub scanning direction are both “−1”. When the representative color is calculated based on the area type, the representative color (representative color pixel value) on the attention side is the average value of the pixel values in the region (−1, −1) shown in FIG. It becomes. At this time, the representative color on the opposite side is an average value of the pixel values in the area (1, 1). Further, when calculating the representative color based on the point type, the representative color on the attention side is the pixel value of (−1, −1) shown in FIG. 15, and the representative color on the opposite side is (1, 1). It becomes a pixel value. In the following description, the representative color is calculated based on the area type.

図16は、注目側及び反対側の代表色を算出した結果の一部を示す図である。各画素内の数値は、算出した代表色の画素値を示しており、画素内の右側に表示されている数字はマゼンダ(M)、左側の数字はシアン(C)に対して算出した代表色の画素値を示している。また、上側の数値が注目側の代表色の画素値、下側の数値が反対側の代表色の画素値を示している。例えば、主走査方向6、副走査方向7の画素の場合、注目側の代表色は、マゼンダ(M)、反対側の代表色は、シアン(C)となる。   FIG. 16 is a diagram illustrating a part of the result of calculating the representative color on the attention side and the opposite side. The numerical value in each pixel indicates the pixel value of the calculated representative color. The number displayed on the right side of the pixel is magenta (M), and the left number is the calculated representative color for cyan (C). The pixel value is shown. The upper numerical value indicates the pixel value of the representative color on the attention side, and the lower numerical value indicates the pixel value of the representative color on the opposite side. For example, in the case of pixels in the main scanning direction 6 and the sub-scanning direction 7, the representative color on the target side is magenta (M), and the representative color on the opposite side is cyan (C).

トラップ判定・トラップ色算出部255は、注目側及び反対側の代表色を算出した後、以下の式2から式5に基づいて輝度値Lを算出する。式2から式4の(Crep,Mrep,Yrep,Krep)は、注目側及び反対側それぞれの代表色の画素値であり、これらの式は、CMYKをRGBに変換するための式である。式5は、変換したRGBを用いて輝度値Lを算出する式である。   The trap determination / trap color calculation unit 255 calculates the luminance value L based on the following Expressions 2 to 5 after calculating the representative color on the attention side and the opposite side. (Crep, Mrep, Yrep, Krep) in Expression 2 to Expression 4 are pixel values of representative colors on the attention side and the opposite side, and these expressions are expressions for converting CMYK to RGB. Expression 5 is an expression for calculating the luminance value L using the converted RGB.

Figure 2010252184
Figure 2010252184

トラップ判定・トラップ色算出部255は、上記の式により算出した注目側及び反対側それぞれの輝度値を対比し、注目側の輝度値が反対側の輝度値より低い場合、輝度が明るい領域(色が薄い領域)を拡大させるために、トラップ判定を有効とする。輝度が明るい方の領域を広げることで、オブジェクトの形状が変形されることを防ぐことができる。トラップ判定を有効とした場合、トラップ判定・トラップ色算出部255は、反対側の領域、即ち、輝度が高い方の代表色をトラップ色(Ctrap ,Mtrap,Ytrap,Ktrap)に決定する。また、注目側の輝度値が反対側の輝度値より高い場合、トラップ判定・トラップ色算出部255は、トラップ判定を無効とする。 The trap determination / trap color calculation unit 255 compares the luminance values of the attention side and the opposite side calculated by the above formulas, and if the luminance value of the attention side is lower than the luminance value of the opposite side, the region having a bright luminance (color The trap determination is made effective in order to enlarge the thin area. By expanding the brighter region, it is possible to prevent the shape of the object from being deformed. When the trap determination is enabled, the trap determination / trap color calculation unit 255 determines the opposite side, that is, the representative color with the higher luminance as the trap color (C trap , M trap , Y trap , K trap ). To do. Further, when the luminance value on the attention side is higher than the luminance value on the opposite side, the trap determination / trap color calculation unit 255 invalidates the trap determination.

図17は、注目側及び反対側の代表色に基づいて算出した輝度値及びトラップ判定の結果の一部を示す図である。各画素内の数値は、算出した注目側及び反対側の輝度値、及び、トラップ判定結果を示しており、トラップ判定結果は、「1」がトラップ判定を有効とした場合、「0」がトラップ判定を無効とした場合である。例えば、主走査方向6、副走査方向7の画素の場合、注目側の輝度値が反対側の輝度値より低いため、トラップ判定は有効となり、トラップ判定が1とされる。トラップ判定・トラップ色算出部255は、この画素に対して、決定されたトラップ色、即ち、シアン(C)をトラップ色(図16参照)として重ね合せの処理を行うよう決定する。   FIG. 17 is a diagram illustrating a part of the luminance value calculated based on the representative color on the attention side and the opposite side and the result of the trap determination. The numerical value in each pixel indicates the calculated luminance value on the opposite side and the opposite side, and the trap determination result. As for the trap determination result, when “1” enables trap determination, “0” indicates trapping. This is a case where the determination is invalid. For example, in the case of pixels in the main scanning direction 6 and the sub-scanning direction 7, since the luminance value on the attention side is lower than the luminance value on the opposite side, the trap determination is valid and the trap determination is 1. The trap determination / trap color calculation unit 255 determines to perform superimposition processing on this pixel using the determined trap color, that is, cyan (C) as the trap color (see FIG. 16).

トラッピング判定処理部25は、トラップ判定・トラップ色算出部255による上述の処理結果を、トラッピング重ね合せ処理部26に対して出力する。なお、トラッピング重ね合せ処理部26には、入力画像データ(CMYK信号)が入力されている。   The trapping determination processing unit 25 outputs the above processing result by the trap determination / trap color calculation unit 255 to the trapping superimposition processing unit 26. Note that input image data (CMYK signal) is input to the trapping and superimposing processing unit 26.

トラッピング重ね合せ処理部26は、トラッピング判定処理部25から出力されるトラップ判定結果及びトラップ色(Ctrap,Mtrap,Ytrap,Ktrap)を用いて、入力画像データ(Cin,Min,Yin,Kin)に対してトラッピング重ね合せ処理を行う。トラッピング重ね合せ処理部26は、トラップ判定結果が1のとき、色成分毎に、入力画像データとトラップ色とにおいて大きい方の値を出力画素の画素値とする。即ち、出力画素をCout ,Mout ,Yout ,Kout とした場合に、Cout =MAX(Cin,Ctrap),Mout =MAX(Min,Mtrap),Yout =MAX(Yin,Ytrap),Kout =MAX(Kin,Ktrap)とする。なお、MAX(A,B)は、A,Bのうちの大きい方の値を示す。 The trapping overlap processing unit 26 uses the trap determination result and the trap color (C trap , M trap , Y trap , K trap ) output from the trapping determination processing unit 25 to input image data (C in , M in , Trapping superposition processing is performed on Y in , K in ). When the trap determination result is 1, the trapping superimposing processing unit 26 sets the larger value of the input image data and the trap color as the pixel value of the output pixel for each color component. That is, when the output pixel is C out , M out , Y out , K out , C out = MAX (C in , C trap ), M out = MAX (M in , M trap ), Y out = MAX ( Y in , Y trap ), K out = MAX (K in , K trap ). MAX (A, B) indicates the larger value of A and B.

なお、ブラック(K)については、重ね合せたとき、重ねた画素値が目立ちやすい場合があるため、他の色成分と同様の処理を行う、又は、重ね合せ処理を行わないという選択をできるようにしてもよい。
トラップ判定結果が0のとき、トラッピング重ね合せ処理部26は、入力画像データの画素値を、出力画素の画素値とする。
For black (K), the superimposed pixel values may be noticeable when they are superimposed, so that the same processing as other color components can be performed, or it can be selected not to perform the overlapping processing. It may be.
When the trap determination result is 0, the trapping and overlay processing unit 26 sets the pixel value of the input image data as the pixel value of the output pixel.

図18及び図19はトラッピング重ね合せ処理を行った結果の一部を示す図であり、図18は、図14に示すような面積タイプでトラップ色を算出した場合を、図19は、図15に示すような点タイプでトラップ色を算出した場合を示している。   18 and 19 are diagrams showing a part of the result of performing the trapping and superimposing process. FIG. 18 shows a case where the trap color is calculated with the area type as shown in FIG. 14, and FIG. The case where the trap color is calculated by the point type as shown in FIG.

面積タイプでトラップ色を算出した場合、図18に示すように、シアン(C)とマゼンダ(M)との境界付近では、マゼンダ(M)側にシアン(C)の値がトラッピングされた画像となる。また、面積タイプでトラップ色を算出した場合、境界から離れるに従って色が薄くなるが、これは、重ね合せた箇所(トラッピング箇所)を目立ちにくくする効果がある。
一方、点タイプでトラップ色を算出した場合、図19に示すように色が薄くならない。そのため、重ね合せた箇所が目立ちやすくなるが、版ずれ時の白ぬけの視認度合いは低くなる。
When the trap color is calculated for the area type, as shown in FIG. 18, in the vicinity of the boundary between cyan (C) and magenta (M), an image in which the value of cyan (C) is trapped on the magenta (M) side Become. Further, when the trap color is calculated by the area type, the color becomes lighter as the distance from the boundary increases. This has an effect of making the overlapped portion (trapping portion) inconspicuous.
On the other hand, when the trap color is calculated for the point type, the color does not lighten as shown in FIG. For this reason, the overlapped portion is easily noticeable, but the degree of visual recognition of whitening at the time of plate displacement is low.

従って、トラップ判定・トラップ色算出部255は、版ずれが少ないときの偽色による画質劣化、又は版ずれが大きい時の白抜けによる画質劣化など、どちらの問題を優先するかに応じて、面積タイプ及び点タイプの何れかに切り替えて、代表色を算出するようにしてもよい。   Therefore, the trap determination / trap color calculation unit 255 determines the area depending on which problem is prioritized, such as image quality degradation due to false color when there is little misregistration or image quality degradation due to whiteout when the misregistration is large. The representative color may be calculated by switching to either the type or the point type.

次に、本実施形態1のカラー画像処理装置1の動作について説明する。図20は、カラー画像処理装置1によるトラッピング処理を示すフローチャートである。なお、以下のトラッピング処理は、カラー画像処理装置1のトラッピング処理部15が行う処理である。   Next, the operation of the color image processing apparatus 1 according to the first embodiment will be described. FIG. 20 is a flowchart showing the trapping process performed by the color image processing apparatus 1. The following trapping process is a process performed by the trapping processing unit 15 of the color image processing apparatus 1.

カラー画像処理装置1のトラッピング処理部15は、セレクタ14から入力された入力画像データを、入力ラインバッファ部21のラインバッファ212に順次書き込む(S1)。トラッピング処理部15は、ラインバッファ212の所定領域に入力画像データ(ラインデータ)が書き込まれたか否かを判断する(S2)。書き込みが完了していないと判断した場合(S2:NO)、トラッピング処理部15は、ステップS1に処理を戻し、入力画像データのラインバッファ212への書き込みを継続する。   The trapping processing unit 15 of the color image processing apparatus 1 sequentially writes the input image data input from the selector 14 into the line buffer 212 of the input line buffer unit 21 (S1). The trapping processing unit 15 determines whether or not input image data (line data) has been written in a predetermined area of the line buffer 212 (S2). If it is determined that the writing has not been completed (S2: NO), the trapping processing unit 15 returns the process to step S1, and continues writing the input image data to the line buffer 212.

ラインバッファ212の所定領域への書き込みが完了したと判断した場合(S2:YES)、トラッピング処理部15は、ラインバッファ212のそれぞれに書き込まれたラインデータを順次読み出す(S3)。トラッピング処理部15は、ラインバッファ212から読み出したラインデータに対して2値化処理を行う(S4)。なお、トラッピング処理部15は、ラインバッファ212の所定領域から読み出したラインデータを、注目画素と所定のマスクサイズ内の周辺画素とを含む処理対象の画素データ群(例えば、5×5画素のブロック)として取得する。また、トラッピング処理部15は、閾値記憶部27に記憶してある閾値に基づいて、ラインデータを2値データに変換する。   When it is determined that the writing to the predetermined area of the line buffer 212 has been completed (S2: YES), the trapping processing unit 15 sequentially reads the line data written in each of the line buffers 212 (S3). The trapping processing unit 15 performs binarization processing on the line data read from the line buffer 212 (S4). Note that the trapping processing unit 15 uses line data read from a predetermined area of the line buffer 212 as a processing target pixel data group including a target pixel and peripheral pixels within a predetermined mask size (for example, a block of 5 × 5 pixels). ) Get as. Further, the trapping processing unit 15 converts the line data into binary data based on the threshold value stored in the threshold value storage unit 27.

トラッピング処理部15は、2値データに変換したラインデータに対して、主走査方向及び副走査方向のそれぞれにおいて画素値が1の画素が連続する画素数をカウントする(S5)。トラッピング処理部15は、主走査方向及び副走査方向のそれぞれにおいてカウントした画素数に基づいて、ラインデータによって構成されるブロックの中央の画素(注目画素)が、小文字領域に属するか否かを判定する(S6)。   The trapping processing unit 15 counts the number of consecutive pixels having a pixel value of 1 in each of the main scanning direction and the sub-scanning direction for the line data converted into binary data (S5). The trapping processing unit 15 determines whether or not the central pixel (target pixel) of the block constituted by the line data belongs to the lowercase area based on the number of pixels counted in each of the main scanning direction and the sub-scanning direction. (S6).

トラッピング処理部15は、注目画素が小文字領域に属さないと判定した場合(S6:NO)、この注目画素に対してトラッピング判定処理を行う(S7)。なお、トラッピング判定処理の詳細については後述する。トラッピング処理部15は、ステップS7でのトラップ判定結果及び決定したトラップ色を用いて、注目画素に対してトラッピング重ね合せ処理を行う(S8)。   If the trapping processing unit 15 determines that the target pixel does not belong to the lowercase area (S6: NO), the trapping processing unit 15 performs a trapping determination process on the target pixel (S7). Details of the trapping determination process will be described later. The trapping processing unit 15 performs the trapping and superimposing process on the pixel of interest using the trap determination result in step S7 and the determined trap color (S8).

なお、トラッピング処理部15は、注目画素が小文字領域に属すると判定した場合(S6:YES)、ステップS7,S8の処理をスキップする。即ち、注目画素が小文字領域に属する場合にはトラッピング重ね合せ処理を行わないことにより、小文字領域に対してトラッピング重ね合せ処理を行った場合に生じる画質の劣化を防止できる。また、注目画素が小文字領域に属さない場合にはトラッピング重ね合せ処理を行うことにより、版ずれが生じた場合に発生する白抜きを防止できる。   Note that when the trapping processing unit 15 determines that the target pixel belongs to the lower case area (S6: YES), the process of steps S7 and S8 is skipped. That is, when the pixel of interest belongs to the lowercase area, the image quality degradation that occurs when the trapping process is performed on the lowercase area can be prevented by not performing the trapping process. In addition, when the pixel of interest does not belong to the lowercase area, whitening that occurs when misregistration can be prevented by performing trapping and superimposing processing.

トラッピング処理部15は、入力画像データに含まれる全ての画素に対して処理を行ったか否かを判断し(S9)、全ての画素に対する処理が完了していないと判断した場合(S9:NO)、ステップS1へ処理を戻す。全ての画素に対する処理が完了したと判断した場合(S9:YES)、トラッピング処理部15は本処理を終了する。   The trapping processing unit 15 determines whether or not processing has been performed for all the pixels included in the input image data (S9), and determines that processing has not been completed for all the pixels (S9: NO). Then, the process returns to step S1. When it is determined that the processing for all the pixels has been completed (S9: YES), the trapping processing unit 15 ends this processing.

次に、上述したトラッピング処理におけるトラッピング判定処理(図20中のステップS7)についてフローチャートに基づいて説明する。図21乃至23はトラッピング判定処理の手順を示すフローチャートである。なお、以下のトラッピング判定処理は、トラッピング処理部15のトラッピング判定処理部25が行う処理である。   Next, the trapping determination process (step S7 in FIG. 20) in the trapping process described above will be described based on a flowchart. 21 to 23 are flowcharts showing the procedure of the trapping determination process. The following trapping determination process is a process performed by the trapping determination processing unit 25 of the trapping processing unit 15.

トラッピング処理部15は、入力画像データの各プレーンに対して、注目画素と所定のマスクサイズ内の周辺画素とを処理対象の画素としてそれぞれ取得する(S11)。なお、ラインバッファ212の所定領域から読み出されたラインデータは、注目画素と所定のマスクサイズ内の周辺画素とを含む処理対象の画素データ群となる。トラッピング処理部15は、各プレーンの処理対象の画素に対して、図10に示す微分フィルタを用いて主走査方向及び副走査方向それぞれのエッジ量を算出する(S12)。   The trapping processing unit 15 acquires a target pixel and peripheral pixels within a predetermined mask size as processing target pixels for each plane of the input image data (S11). The line data read from the predetermined area of the line buffer 212 is a pixel data group to be processed including the target pixel and peripheral pixels within a predetermined mask size. The trapping processing unit 15 calculates edge amounts in the main scanning direction and the sub-scanning direction for each pixel to be processed in each plane, using the differential filter shown in FIG. 10 (S12).

次に、トラッピング処理部15は、主走査方向及び副走査方向のそれぞれについて、4つのプレーンのうちの1つのプレーンに対するエッジ量を選択し(S13)、選択したエッジ量の絶対値が閾値(例えば240)以上であるか否かを判断する(S14)。選択したエッジ量の絶対値が閾値以上であると判断した場合(S14:YES)、トラッピング処理部15は、選択したエッジ量が正の数であるか否かを判断する(S15)。   Next, the trapping processing unit 15 selects an edge amount for one of the four planes in each of the main scanning direction and the sub-scanning direction (S13), and the absolute value of the selected edge amount is a threshold value (for example, 240) It is judged whether it is more than (S14). When it is determined that the absolute value of the selected edge amount is greater than or equal to the threshold (S14: YES), the trapping processing unit 15 determines whether or not the selected edge amount is a positive number (S15).

トラッピング処理部15は、選択したエッジ量が正の数であると判断した場合(S15:YES)、ステップS13で選択したエッジ量のプレーンに対するエッジ判定を1とし(S16)、選択したエッジ量が負の数であると判断した場合(S15:NO)、ステップS13で選択したエッジ量のプレーンに対するエッジ判定を−1とする(S17)。なお、選択したエッジ量の絶対値が閾値未満であると判断した場合(S14:NO)、トラッピング処理部15は、ステップS13で選択したエッジ量のプレーンに対するエッジ判定を0とする(S18)。   When the trapping processing unit 15 determines that the selected edge amount is a positive number (S15: YES), the edge determination for the plane of the edge amount selected in step S13 is set to 1 (S16), and the selected edge amount is When it is determined that the number is negative (S15: NO), the edge determination for the plane of the edge amount selected in step S13 is set to -1 (S17). When it is determined that the absolute value of the selected edge amount is less than the threshold value (S14: NO), the trapping processing unit 15 sets the edge determination for the plane of the edge amount selected in step S13 to 0 (S18).

トラッピング処理部15は、4つのプレーン全てに対するエッジ量について、ステップS14,S15の判定を行ったか否かを判断し(S19)、行っていないと判断した場合(S19:NO)、ステップS13に処理を戻し、まだ判定が行われていないプレーンに対するエッジ量を選択する(S13)。トラッピング処理部15は、選択したエッジ量に対してステップS14〜S18の処理を行い、全てのプレーンに対するエッジ量についてステップS14〜S18の処理を行う。   The trapping processing unit 15 determines whether or not the determinations in steps S14 and S15 have been made for the edge amounts for all four planes (S19), and if not (S19: NO), the process proceeds to step S13. And the edge amount for the plane that has not yet been determined is selected (S13). The trapping processing unit 15 performs steps S14 to S18 for the selected edge amount, and performs steps S14 to S18 for the edge amounts for all planes.

トラッピング処理部15は、全てのプレーンに対するエッジ量について、ステップS14,S15の判定を行ったと判断した場合(S19:YES)、ステップS16〜S18で決定した各プレーンに対するエッジ判定に1及び−1が含まれているか否かを判断する(S20)。各プレーンに対するエッジ判定に1及び−1が含まれていないと判断した場合(S20:NO)、トラッピング処理部15は、類似色方向の判定結果を0とし(S21)、ステップS27へ処理を移行する。   When the trapping processing unit 15 determines that the determinations in steps S14 and S15 have been made for the edge amounts for all the planes (S19: YES), 1 and −1 are included in the edge determination for each plane determined in steps S16 to S18. It is determined whether it is included (S20). If it is determined that 1 and −1 are not included in the edge determination for each plane (S20: NO), the trapping processing unit 15 sets the determination result of the similar color direction to 0 (S21), and the process proceeds to step S27. To do.

各プレーンに対するエッジ判定に1及び−1が含まれていると判断した場合(S20:YES)、即ち、処理対象の注目画素にエッジが存在する場合、トラッピング処理部15は、この注目画素と、インクリメント方向領域との色差を算出する(S22)。また、トラッピング処理部15は、この注目画素と、デクリメント方向領域との色差を算出する(S23)。トラッピング処理部15は、インクリメント方向領域との色差と、デクリメント方向領域との色差とを比較し、インクリメント方向領域との色差の方が小さいか否かを判断する(S24)。   If it is determined that 1 and −1 are included in the edge determination for each plane (S20: YES), that is, if there is an edge in the target pixel to be processed, the trapping processing unit 15 The color difference from the increment direction area is calculated (S22). Further, the trapping processing unit 15 calculates a color difference between the target pixel and the decrement direction area (S23). The trapping processing unit 15 compares the color difference with the increment direction area and the color difference with the decrement direction area, and determines whether or not the color difference with the increment direction area is smaller (S24).

トラッピング処理部15は、インクリメント方向領域との色差の方が小さいと判断した場合(S24:YES)、類似色方向の判定結果を1とし(S25)、インクリメント方向領域との色差の方が大きいと判断した場合(S24:NO)、類似色方向の判定結果を−1とする(S26)。なお、入力画像データの主走査方向及び副走査方向それぞれについて、上述したステップS12〜S26の各処理は、主走査側エッジ量算出部251及び主走査側類似色方向判定部253と、副走査側エッジ量算出部252及び副走査側類似色方向判定部254とによって、並列に行うことができる。   When the trapping processing unit 15 determines that the color difference from the increment direction area is smaller (S24: YES), the determination result of the similar color direction is set to 1 (S25), and the color difference from the increment direction area is larger. If it is determined (S24: NO), the determination result of the similar color direction is set to -1 (S26). It should be noted that for each of the main scanning direction and the sub-scanning direction of the input image data, the processes in steps S12 to S26 described above are performed by the main-scanning side edge amount calculation unit 251, the main-scanning side similar color direction determination unit 253, and the sub-scanning side. The edge amount calculation unit 252 and the sub-scanning side similar color direction determination unit 254 can perform in parallel.

トラッピング処理部15は、ステップS21,S25又はS26において、主走査方向について決定した類似色方向の判定結果と副走査方向について決定した類似色方向の判定結果とが共に0であるか否かを判断する(S27)。類似色方向の判定結果が共に0であると判断した場合(S27:YES)、トラッピング処理部15は、ステップS35に処理を移行する。   In step S21, S25, or S26, the trapping processing unit 15 determines whether the determination result of the similar color direction determined for the main scanning direction and the determination result of the similar color direction determined for the sub-scanning direction are both 0. (S27). When it is determined that the determination results of the similar color direction are both 0 (S27: YES), the trapping processing unit 15 proceeds to step S35.

類似色方向の判定結果の少なくとも一方が0でないと判断した場合(S27:NO)、トラッピング処理部15は、注目側の代表色を算出する(S28)。例えば、図13において、主走査方向6、副走査方向7の画素は、主走査方向及び副走査方向における類似色方向は何れも「−1」(デクリメント方向領域)である。そして、図14に基づいて代表色を算出する場合、注目側の代表色は、図14(a)中に(−1,−1)で示した領域内の画素値の平均値となる。   When it is determined that at least one of the determination results of the similar color direction is not 0 (S27: NO), the trapping processing unit 15 calculates the representative color on the attention side (S28). For example, in FIG. 13, the pixels in the main scanning direction 6 and the sub-scanning direction 7 are both “−1” (decrement direction region) in the similar color direction in the main scanning direction and the sub-scanning direction. When the representative color is calculated based on FIG. 14, the representative color on the attention side is an average value of the pixel values in the region indicated by (−1, −1) in FIG.

また、トラッピング処理部15は、反対側の代表色を算出する(S29)。例えば、図13において、主走査方向6、副走査方向7の画素は、主走査方向及び副走査方向における類似色方向は何れも「−1」である。そして、図14に基づいて代表色を算出する場合、反対側の代表色は、図14(a)中に(1,1)で示した領域内の画素値の平均値となる。   Further, the trapping processing unit 15 calculates a representative color on the opposite side (S29). For example, in FIG. 13, in the pixels in the main scanning direction 6 and the sub scanning direction 7, the similar color directions in the main scanning direction and the sub scanning direction are both “−1”. When the representative color is calculated based on FIG. 14, the representative color on the opposite side is an average value of the pixel values in the region indicated by (1, 1) in FIG.

トラッピング処理部15は、注目側及び反対側の代表色を算出した後、式2から式5に基づいて、注目側の輝度値及び反対側の輝度値をそれぞれ算出する(S30,S31)。なお、トラッピング処理部15は、ステップS28〜S32の処理において、処理順序を逆にしてもよいし、同時に行うようにしてもよい。   The trapping processing unit 15 calculates the target side and opposite side representative colors and then calculates the target side luminance value and the opposite side luminance value based on Equations 2 to 5 (S30 and S31). The trapping processing unit 15 may reverse the processing order in steps S28 to S32, or may perform them simultaneously.

トラッピング処理部15は、注目側の輝度値と反対側の輝度値とを比較し、注目側の輝度値が反対側の輝度値より低いか否かを判定する(S32)。注目側の輝度値が反対側の輝度値より低いと判定した場合(S32:YES)、トラッピング処理部15は、トラップ判定を有効としてトラップ判定結果を1とし(S33)、トラップ色を決定する(S34)。ここで、トラップ色は、反対側の領域の代表色である。   The trapping processing unit 15 compares the luminance value on the attention side with the luminance value on the opposite side, and determines whether the luminance value on the attention side is lower than the luminance value on the opposite side (S32). When it is determined that the luminance value on the target side is lower than the luminance value on the opposite side (S32: YES), the trapping processing unit 15 sets the trap determination result to 1 (S33) and determines the trap color (S33). S34). Here, the trap color is the representative color of the opposite region.

なお、類似色方向の判定結果が共に0であると判断した場合(S27:YES)、又は、注目側の輝度値が反対側の輝度値より低くないと判定した場合(S32:NO)、トラッピング処理部15は、トラップ判定を無効としてトラップ判定結果を0とする(S35)。   Note that when it is determined that the determination results of the similar color directions are both 0 (S27: YES), or when it is determined that the luminance value on the attention side is not lower than the luminance value on the opposite side (S32: NO), trapping is performed. The processing unit 15 invalidates the trap determination and sets the trap determination result to 0 (S35).

トラッピング処理部15は、ステップS33又はS35で決定したトラップ判定結果が1であるか否かを判断する(S36)。トラップ判定結果が1であると判断した場合(S36:YES)、トラッピング処理部15は、ステップS11で取得した注目画素に、ステップS34で決定したトラップ色を重ね合せた出力画素を生成し(S37)、出力する。トラップ判定結果が0であると判断した場合(S36:NO)、トラッピング処理部15は、ステップS11で取得した注目画素を出力画素とし(S38)、出力する。   The trapping processing unit 15 determines whether or not the trap determination result determined in step S33 or S35 is 1 (S36). If it is determined that the trap determination result is 1 (S36: YES), the trapping processing unit 15 generates an output pixel in which the trap color determined in step S34 is superimposed on the target pixel acquired in step S11 (S37). ),Output. When it is determined that the trap determination result is 0 (S36: NO), the trapping processing unit 15 sets the target pixel acquired in step S11 as an output pixel (S38) and outputs it.

トラッピング処理部15は、入力画像データに含まれる全ての画素に対して処理を行ったか否かを判断し(S39)、全ての画素に対する処理が完了していないと判断した場合(S39:NO)、ステップS11へ処理を戻す。全ての画素に対する処理が完了したと判断した場合(S39:YES)、トラッピング処理部15は、本処理を終了する。   The trapping processing unit 15 determines whether or not processing has been performed on all the pixels included in the input image data (S39), and determines that processing has not been completed for all the pixels (S39: NO). The process returns to step S11. When it is determined that the processing for all the pixels has been completed (S39: YES), the trapping processing unit 15 ends this processing.

(実施形態2)
以下に、実施形態2に係るカラー画像形成装置について説明する。なお、本実施形態2のカラー画像形成装置は、上述した実施形態1のカラー画像形成装置と同様の構成を有しており、同様の構成については同一の符号を付して説明を省略する。
(Embodiment 2)
The color image forming apparatus according to the second embodiment will be described below. Note that the color image forming apparatus according to the second embodiment has the same configuration as the color image forming apparatus according to the first embodiment described above, and the same reference numerals are given to the same configurations, and description thereof is omitted.

図24は実施形態2のトラッピング処理部15の構成を示すブロック図である。本実施形態2のトラッピング処理部15は、図2に示した実施形態1のトラッピング処理部15において、閾値記憶部27の代わりに閾値算出部28を備える。図25は閾値算出部28の構成を示すブロック図である。本実施形態2の入力ラインバッファ部21は、複数のラインバッファ212の所定領域に格納された画像データ(ラインデータ)を順次読み出して、後段の2値化処理部22及びトラッピング判定処理部25、並びに閾値算出部28へ出力する。   FIG. 24 is a block diagram illustrating a configuration of the trapping processing unit 15 according to the second embodiment. The trapping processing unit 15 of the second embodiment includes a threshold value calculation unit 28 instead of the threshold value storage unit 27 in the trapping processing unit 15 of the first embodiment shown in FIG. FIG. 25 is a block diagram illustrating a configuration of the threshold value calculation unit 28. The input line buffer unit 21 of the second embodiment sequentially reads out image data (line data) stored in a predetermined area of the plurality of line buffers 212, and performs a subsequent binarization processing unit 22 and a trapping determination processing unit 25, In addition, the data is output to the threshold calculation unit 28.

閾値算出部28は、データ格納部281及び平均値算出部282等を備える。データ格納部281は、入力ラインバッファ部21から取得した画像データを、例えば5×5画素のブロック単位で格納する。平均値算出部282は、データ格納部281に格納されたブロック内の各画素値の平均値を算出する。閾値算出部28は、平均値算出部282によって算出されたブロック毎の画素値の平均値を閾値として2値化処理部22へ出力する。なお、閾値算出部28は、算出した平均値をそのまま閾値とせずに、算出した平均値に対して所定の演算を行うことにより閾値を算出してもよい。   The threshold calculation unit 28 includes a data storage unit 281 and an average value calculation unit 282. The data storage unit 281 stores the image data acquired from the input line buffer unit 21 in units of blocks of 5 × 5 pixels, for example. The average value calculation unit 282 calculates the average value of each pixel value in the block stored in the data storage unit 281. The threshold calculation unit 28 outputs the average value of the pixel values for each block calculated by the average value calculation unit 282 to the binarization processing unit 22 as a threshold. The threshold calculation unit 28 may calculate the threshold by performing a predetermined calculation on the calculated average without using the calculated average as the threshold.

本実施形態2の2値化処理部22には、閾値算出部28によって算出された閾値と、入力ラインバッファ部21から出力されるラインデータとが入力される。2値化処理部22は、閾値算出部28から入力される閾値と、入力ラインバッファ部21から入力されるラインデータに含まれるそれぞれの画素データ(画素値)とを比較し、比較結果に基づいて、入力されたラインデータを2値データに変換する。   The threshold value calculated by the threshold value calculation unit 28 and the line data output from the input line buffer unit 21 are input to the binarization processing unit 22 of the second embodiment. The binarization processing unit 22 compares the threshold value input from the threshold value calculation unit 28 with each pixel data (pixel value) included in the line data input from the input line buffer unit 21, and based on the comparison result. The input line data is converted into binary data.

上述したように、本実施形態2では、2値化処理部22が、入力画像データにおける所定領域内の画素値の平均値を閾値として、入力画像データを2値データに変換する。よって、入力画像データにおける背景色の影響を抑えた2値化処理を実行できるので、このような2値化処理によって得られた2値データに基づいて、各注目画素が小文字領域に属するか否かを精度よく判別できる。   As described above, in the second embodiment, the binarization processing unit 22 converts the input image data into binary data using the average value of pixel values in a predetermined area in the input image data as a threshold value. Therefore, since the binarization process in which the influence of the background color in the input image data is suppressed can be executed, whether or not each pixel of interest belongs to the lowercase area based on the binary data obtained by the binarization process. Can be accurately determined.

次に、本実施形態2のカラー画像処理装置1の動作について説明する。図26は、カラー画像処理装置1によるトラッピング処理を示すフローチャートである。なお、以下のトラッピング処理は、カラー画像処理装置1のトラッピング処理部15が行う処理である。   Next, the operation of the color image processing apparatus 1 according to the second embodiment will be described. FIG. 26 is a flowchart showing the trapping process by the color image processing apparatus 1. The following trapping process is a process performed by the trapping processing unit 15 of the color image processing apparatus 1.

カラー画像処理装置1のトラッピング処理部15は、セレクタ14から入力された入力画像データを、入力ラインバッファ部21のラインバッファ212に順次書き込む(S41)。トラッピング処理部15は、ラインバッファ212の所定領域に入力画像データ(ラインデータ)が書き込まれたか否かを判断する(S42)。書き込みが完了していないと判断した場合(S42:NO)、トラッピング処理部15は、ステップS41に処理を戻し、入力画像データのラインバッファ212への書き込みを継続する。   The trapping processing unit 15 of the color image processing apparatus 1 sequentially writes the input image data input from the selector 14 into the line buffer 212 of the input line buffer unit 21 (S41). The trapping processing unit 15 determines whether or not input image data (line data) has been written in a predetermined area of the line buffer 212 (S42). If it is determined that the writing has not been completed (S42: NO), the trapping processing unit 15 returns the process to step S41 and continues writing the input image data to the line buffer 212.

ラインバッファ212の所定領域への書き込みが完了したと判断した場合(S42:YES)、トラッピング処理部15は、ラインバッファ212のそれぞれに書き込まれたラインデータを順次読み出す(S43)。トラッピング処理部15は、ラインバッファ212から読み出したラインデータに基づいて、2値化処理に用いるための閾値を算出する(S44)。なお、トラッピング処理部15は、ラインバッファ212から読み出したラインデータに含まれる画素データ(画素値)の平均値を算出して閾値とする。   When it is determined that the writing to the predetermined area of the line buffer 212 has been completed (S42: YES), the trapping processing unit 15 sequentially reads the line data written to each of the line buffers 212 (S43). The trapping processing unit 15 calculates a threshold for use in the binarization process based on the line data read from the line buffer 212 (S44). The trapping processing unit 15 calculates an average value of pixel data (pixel value) included in the line data read from the line buffer 212 and sets it as a threshold value.

トラッピング処理部15は、算出した閾値に基づいて、ラインバッファ212から読み出したラインデータに対して2値化処理を行う(S45)。トラッピング処理部15は、2値データに変換したラインデータに対して、主走査方向及び副走査方向のそれぞれにおいて画素値が1の画素が連続する画素数をカウントする(S46)。トラッピング処理部15は、主走査方向及び副走査方向のそれぞれにおいてカウントした画素数に基づいて、ラインデータによって構成されるブロックの中央の画素(注目画素)が、小文字領域に属するか否かを判定する(S47)。   The trapping processing unit 15 performs binarization processing on the line data read from the line buffer 212 based on the calculated threshold value (S45). The trapping processing unit 15 counts the number of pixels in which the pixel value is 1 in the main scanning direction and the sub-scanning direction with respect to the line data converted into binary data (S46). The trapping processing unit 15 determines whether or not the central pixel (target pixel) of the block constituted by the line data belongs to the lowercase area based on the number of pixels counted in each of the main scanning direction and the sub-scanning direction. (S47).

トラッピング処理部15は、注目画素が小文字領域に属さないと判定した場合(S47:NO)、この注目画素に対してトラッピング判定処理を行う(S48)。なお、トラッピング判定処理は、上述の実施形態1で図21乃至図23に基づいて説明した処理と同一である。トラッピング処理部15は、ステップS48でのトラップ判定結果及び決定したトラップ色を用いて、注目画素に対してトラッピング重ね合せ処理を行う(S49)。   If the trapping processing unit 15 determines that the target pixel does not belong to the lowercase area (S47: NO), the trapping processing unit 15 performs a trapping determination process on the target pixel (S48). The trapping determination process is the same as the process described with reference to FIGS. 21 to 23 in the first embodiment. The trapping processing unit 15 performs the trapping and superimposing process on the pixel of interest using the trap determination result in step S48 and the determined trap color (S49).

なお、トラッピング処理部15は、注目画素が小文字領域に属すると判定した場合(S47:YES)、ステップS48,S49の処理をスキップする。即ち、注目画素が小文字領域に属する場合にはトラッピング重ね合せ処理を行わないことにより、小文字領域に対してトラッピング重ね合せ処理を行った場合に生じる画質の劣化を防止できる。また、注目画素が小文字領域に属さない場合にはトラッピング重ね合せ処理を行うことにより、版ずれが生じた場合に発生する白抜きを防止できる。   If the trapping processing unit 15 determines that the target pixel belongs to the lower case area (S47: YES), it skips the processes of steps S48 and S49. That is, when the pixel of interest belongs to the lowercase area, the image quality degradation that occurs when the trapping process is performed on the lowercase area can be prevented by not performing the trapping process. In addition, when the pixel of interest does not belong to the lowercase area, whitening that occurs when misregistration can be prevented by performing trapping and superimposing processing.

トラッピング処理部15は、入力画像データに含まれる全ての画素に対して処理を行ったか否かを判断し(S50)、全ての画素に対する処理が完了していないと判断した場合(S50:NO)、ステップS41へ処理を戻す。全ての画素に対する処理が完了したと判断した場合(S50:YES)、トラッピング処理部15は本処理を終了する。   The trapping processing unit 15 determines whether or not processing has been performed for all the pixels included in the input image data (S50), and determines that processing has not been completed for all the pixels (S50: NO). The process returns to step S41. When it is determined that the processing for all the pixels has been completed (S50: YES), the trapping processing unit 15 ends this processing.

(実施形態3)
以下に、実施形態3に係るカラー画像形成装置について説明する。なお、本実施形態3のカラー画像形成装置は、上述した実施形態1のカラー画像形成装置と同様の構成を有しており、同様の構成については同一の符号を付して説明を省略する。
(Embodiment 3)
The color image forming apparatus according to the third embodiment will be described below. Note that the color image forming apparatus according to the third embodiment has the same configuration as the color image forming apparatus according to the first embodiment described above, and the same components are denoted by the same reference numerals and description thereof is omitted.

図27は画素カウント部23が行う画素カウント処理を説明するための模式図である。本実施形態3の画素カウント部23は、図5に示す構成と同様の構成を有しており、図27に示すように、2値化処理部22から出力されてくる5×5画素のブロックの主走査方向及び副走査方向だけでなく、左斜め上方向及び右斜め上方向においても、連続する同一の画素値(1又は0)の画素数をカウントする。なお、本実施形態3も、画素値が1の画素が連続する画素数をカウントする。   FIG. 27 is a schematic diagram for explaining pixel count processing performed by the pixel count unit 23. The pixel count unit 23 according to the third embodiment has the same configuration as that shown in FIG. 5, and a 5 × 5 pixel block output from the binarization processing unit 22 as shown in FIG. In addition to the main scanning direction and the sub-scanning direction, the number of consecutive pixels having the same pixel value (1 or 0) is counted not only in the diagonally upward left direction and diagonally upward right direction. Note that the third embodiment also counts the number of pixels in which pixels having a pixel value of 1 continue.

従って、本実施形態3の画素カウント部23は、2値化処理部22から取得した5×5画素のブロックにおいて、主走査方向及び副走査方向、並びに左斜め上方向及び右斜め上方向のそれぞれについて、画素値が1の画素が連続する画素数(カウント値)をカウントする。よって、本実施形態3の画素カウント部23は、主走査方向、副走査方向、左斜め上方向及び右斜め上方向のそれぞれについてカウントした12種類のカウント値を文字検出部24へ出力する。   Therefore, the pixel counting unit 23 of the third embodiment is configured to perform the main scanning direction and the sub scanning direction, the left diagonally upward direction, and the diagonally right upward direction in the 5 × 5 pixel block acquired from the binarization processing unit 22, respectively. , The number of pixels (count value) in which pixels having a pixel value of 1 are consecutive is counted. Therefore, the pixel count unit 23 according to the third embodiment outputs 12 types of count values counted in each of the main scanning direction, the sub-scanning direction, the upper left diagonal direction, and the upper right diagonal direction to the character detection unit 24.

図28は実施形態3の文字検出部24の構成を示すブロック図である。本実施形態3の文字検出部24は、図7に示した構成のほかに、第3比較器245及び第4比較器246等を備える。本実施形態3の文字検出部24では、画素カウント部23から出力された12種類のカウント値において、主走査方向についての5つのカウント値が第1比較器241に入力され、副走査方向についての5つのカウント値が第2比較器242に入力される。また、右斜め上方向についてのカウント値が第3比較器245に入力され、左斜め上方向についてのカウント値が第4比較器246に入力される。   FIG. 28 is a block diagram illustrating a configuration of the character detection unit 24 according to the third embodiment. The character detection unit 24 of the third embodiment includes a third comparator 245, a fourth comparator 246, and the like in addition to the configuration shown in FIG. In the character detection unit 24 according to the third embodiment, among the 12 types of count values output from the pixel count unit 23, five count values in the main scanning direction are input to the first comparator 241 and the sub-scanning direction is detected. Five count values are input to the second comparator 242. Further, the count value for the upper right diagonal direction is input to the third comparator 245, and the count value for the upper left diagonal direction is input to the fourth comparator 246.

また、比較器241,242,245,246には、文字検出用閾値記憶部244に記憶されている閾値(例えば5)が入力されており、比較器241,242,245,246は、入力されたカウント値のそれぞれと、入力された閾値とを比較し、比較結果を小文字判定部243へ出力する。なお、比較器241,242,245,246は、例えば、各カウント値が閾値以上であれば1を、閾値未満であれば0を出力する。   The comparators 241, 242, 245, and 246 are input with the threshold value (for example, 5) stored in the character detection threshold storage unit 244, and the comparators 241, 242, 245, and 246 are input. Each count value is compared with the input threshold value, and the comparison result is output to the lowercase letter determination unit 243. The comparators 241, 242, 245, and 246 output 1 if each count value is equal to or greater than a threshold value, and outputs 0 if it is less than the threshold value.

小文字判定部243は、比較器241,242,245,246からそれぞれ出力された比較結果に基づいて、5×5画素のブロックが小文字領域に属するか否かを判定する。例えば、小文字判定部243は、比較器241,242,245,246から出力された12種類の比較結果のいずれかが1ではない場合に、このブロックは小文字領域に属すると判定する。   The lowercase determination unit 243 determines whether or not the 5 × 5 pixel block belongs to the lowercase area based on the comparison results output from the comparators 241, 242, 245, and 246, respectively. For example, the lowercase determination unit 243 determines that this block belongs to the lowercase area when any of the 12 types of comparison results output from the comparators 241, 242, 245, and 246 is not 1.

小文字判定部243は、処理対象のブロックが小文字領域に属すると判定した場合、このブロックの中央の画素(注目画素)が小文字領域に属すると判定し、この注目画素に対する小文字判定結果として「1」をトラッピング判定処理部25へ出力する。また、小文字判定部243は、処理対象のブロックが小文字領域に属さないと判定した場合、このブロックの注目画素が小文字領域に属さないと判定し、この注目画素に対する小文字判定結果として「0」をトラッピング判定処理部25へ出力する。   When the lowercase determination unit 243 determines that the block to be processed belongs to the lowercase area, the lowercase determination unit 243 determines that the center pixel (target pixel) of this block belongs to the lowercase area, and “1” as the lowercase determination result for the target pixel. Is output to the trapping determination processing unit 25. If the lowercase determination unit 243 determines that the block to be processed does not belong to the lowercase area, the lowercase determination unit 243 determines that the target pixel of this block does not belong to the lowercase area, and sets “0” as the lowercase determination result for the target pixel. Output to the trapping determination processing unit 25.

上述したように、本実施形態3では、処理対象のブロックにおいて、主走査方向及び副走査方向だけでなく、左斜め上方向及び右斜め上方向についても、同一の画素値が連続する画素数を算出する。そして、それぞれの方向について算出した画素数に基づいて、各注目画素が小文字領域に属するか否かを判定することにより、左斜め上方向及び右斜め上方向に連続する同一の画素値の画素数も考慮できる。よって、各注目画素が、フォントサイズが所定サイズよりも小さい文字の領域に含まれる場合だけでなく、各注目画素が、細線の領域、文字と文字との間の領域に含まれるか否かも精度よく判別できる。   As described above, in the third embodiment, the number of pixels in which the same pixel value continues in not only the main scanning direction and the sub-scanning direction but also the diagonally upper left direction and the diagonally upper right direction in the processing target block. calculate. Then, based on the number of pixels calculated for each direction, by determining whether each target pixel belongs to the lower case area, the number of pixels having the same pixel value that is continuous in the upper left diagonal direction and the upper right diagonal direction Can also be considered. Therefore, not only when each pixel of interest is included in a character area whose font size is smaller than a predetermined size, but also whether each pixel of interest is included in a thin line region, a region between characters and characters. Can be distinguished well.

なお、本実施形態3のカラー画像処理装置1において、トラッピング処理部15が行うトラッピング処理は、上述した実施形態1で図20に基づいて説明した処理と同様であるので説明を省略する。なお、本実施形態3のトラッピング処理部15は、図20中のステップS5において、2値データに変換したラインデータに対して、主走査方向及び副走査方向、並びに左斜め上方向及び右斜め上方向のそれぞれにおいて画素値が1の画素が連続する画素数をカウントする。また、本実施形態3のトラッピング処理部15は、図20中のステップS6において、主走査方向及び副走査方向、並びに左斜め上方向及び右斜め上方向のそれぞれにおいてカウントした画素数に基づいて、ラインデータによって構成されるブロックの中央の画素(注目画素)が、小文字領域に属するか否かを判定する。   In the color image processing apparatus 1 according to the third embodiment, the trapping process performed by the trapping processing unit 15 is the same as the process described with reference to FIG. Note that the trapping processing unit 15 of the third embodiment performs the main scanning direction and the sub-scanning direction, the left diagonally upward direction, and the diagonally right upward direction with respect to the line data converted into binary data in step S5 in FIG. The number of pixels in which pixels having a pixel value of 1 continue in each direction is counted. Further, the trapping processing unit 15 according to the third embodiment, based on the number of pixels counted in each of the main scanning direction and the sub-scanning direction, the left diagonally upward direction, and the diagonally right upward direction in step S6 in FIG. It is determined whether or not the central pixel (target pixel) of the block constituted by the line data belongs to the lowercase area.

(実施形態4)
以下に、実施形態4に係るカラー画像形成装置について説明する。なお、本実施形態4のカラー画像形成装置は、上述した実施形態3のカラー画像形成装置と同様の構成を有しており、同様の構成については同一の符号を付して説明を省略する。
(Embodiment 4)
The color image forming apparatus according to Embodiment 4 will be described below. Note that the color image forming apparatus according to the fourth embodiment has the same configuration as the color image forming apparatus according to the third embodiment described above, and the same components are denoted by the same reference numerals and description thereof is omitted.

図29は実施形態4の文字検出部24の構成を示すブロック図である。本実施形態4の文字検出部24は、図28に示した構成と同様の構成を有する。本実施形態4の文字検出部24では、文字検出用閾値記憶部244に、主走査方向、副走査方向、左斜め上方向及び右斜め上方向のそれぞれに対して個別に設定された文字検出用閾値が記憶されている。そして、本実施形態4の文字検出部24では、文字検出用閾値記憶部244に記憶されている主走査方向用閾値が第1比較器241に入力され、副走査方向用閾値が第2比較器242に入力され、右斜め上方向用閾値が第3比較器245に入力され、左斜め上方向用閾値が第4比較器246に入力される。   FIG. 29 is a block diagram illustrating a configuration of the character detection unit 24 according to the fourth embodiment. The character detection unit 24 according to the fourth embodiment has a configuration similar to that shown in FIG. In the character detection unit 24 according to the fourth embodiment, the character detection threshold storage unit 244 has character detection thresholds individually set for the main scanning direction, the sub-scanning direction, the upper left diagonal direction, and the upper right diagonal direction. A threshold value is stored. In the character detection unit 24 of the fourth embodiment, the main scanning direction threshold value stored in the character detection threshold value storage unit 244 is input to the first comparator 241, and the sub-scanning direction threshold value is the second comparator. 242 is input to the third comparator 245, and the upper left threshold is input to the fourth comparator 246.

比較器241,242,245,246は、画素カウント部23から入力されたカウント値のそれぞれと、文字検出用閾値記憶部244からそれぞれ入力される閾値とを比較し、比較結果を小文字判定部243へ出力する。なお、比較器241,242,245,246は、例えば、各カウント値が閾値以上であれば1を、閾値未満であれば0を出力する。   Comparators 241, 242, 245, and 246 compare the count values input from pixel count unit 23 with the threshold values input from character detection threshold storage unit 244, respectively, and compare the comparison results with lowercase letter determination unit 243. Output to. The comparators 241, 242, 245, and 246 output 1 if each count value is equal to or greater than a threshold value, and outputs 0 if it is less than the threshold value.

小文字判定部243は、比較器241,242,245,246からそれぞれ出力された比較結果に基づいて、5×5画素のブロックが小文字領域に属するか否かを判定する。小文字判定部243は、処理対象のブロックが小文字領域に属すると判定した場合、このブロックの中央の画素(注目画素)が小文字領域に属すると判定し、この注目画素に対する小文字判定結果として「1」をトラッピング判定処理部25へ出力する。また、小文字判定部243は、処理対象のブロックが小文字領域に属さないと判定した場合、このブロックの注目画素が小文字領域に属さないと判定し、この注目画素に対する小文字判定結果として「0」をトラッピング判定処理部25へ出力する。   The lowercase determination unit 243 determines whether or not the 5 × 5 pixel block belongs to the lowercase area based on the comparison results output from the comparators 241, 242, 245, and 246, respectively. When the lowercase determination unit 243 determines that the block to be processed belongs to the lowercase area, the lowercase determination unit 243 determines that the center pixel (target pixel) of this block belongs to the lowercase area, and “1” as the lowercase determination result for the target pixel. Is output to the trapping determination processing unit 25. If the lowercase determination unit 243 determines that the block to be processed does not belong to the lowercase area, the lowercase determination unit 243 determines that the target pixel of this block does not belong to the lowercase area, and sets “0” as the lowercase determination result for the target pixel. Output to the trapping determination processing unit 25.

上述したように、本実施形態4では、処理対象のブロックにおいて、主走査方向、副走査方向、左斜め上方向及び右斜め上方向に連続する同一画素値の画素数に基づいて小文字領域であるか否かを判定するための閾値を個別に設定される。よって、各注目画素が、フォントサイズが所定サイズよりも小さい文字の領域、細線の領域、文字と文字との間の領域等に含まれるか否かをより精度よく判別できる。   As described above, in the fourth embodiment, the block to be processed is a lower-case area based on the number of pixels having the same pixel value in the main scanning direction, the sub-scanning direction, the upper left diagonal direction, and the upper right diagonal direction. Threshold values for determining whether or not are individually set. Therefore, it is possible to more accurately determine whether or not each pixel of interest is included in a character region, a fine line region, a region between characters and the like whose font size is smaller than a predetermined size.

上述した実施形態1〜4では、本発明に係る画像処理装置を、プリンタなどのカラー画像形成装置に備えた場合について説明したが、カラー複合機に備えるようにしてもよい。図30は本発明に係る画像処理装置を備えるデジタルカラー複合機の構成を示すブロック図である。   In the above-described first to fourth embodiments, the case where the image processing apparatus according to the present invention is provided in a color image forming apparatus such as a printer has been described. FIG. 30 is a block diagram showing a configuration of a digital color multi-function peripheral including the image processing apparatus according to the present invention.

カラー画像処理装置50は、A/D変換部51、シェーディング補正部52、入力階調補正部53、領域分離処理部54、色補正部55、黒生成下地除去部56、空間フィルタ処理部57、トラッピング処理部58、出力階調補正部59、及び階調再現処理部60などから構成されている。デジタルカラー複合機は、カラー画像処理装置50に、操作パネル50a、カラー画像入力装置40、カラー画像出力装置70及び送信装置71が接続されて構成されている。操作パネル50aは、デジタルカラー複合機の動作モードを設定する設定ボタン及びテンキー、並びに液晶ディスプレイなどで構成される表示部より構成される。   The color image processing apparatus 50 includes an A / D conversion unit 51, a shading correction unit 52, an input tone correction unit 53, a region separation processing unit 54, a color correction unit 55, a black generation background removal unit 56, a spatial filter processing unit 57, It comprises a trapping processing unit 58, an output tone correction unit 59, a tone reproduction processing unit 60, and the like. The digital color multifunction peripheral is configured by connecting an operation panel 50a, a color image input device 40, a color image output device 70, and a transmission device 71 to a color image processing device 50. The operation panel 50a is configured by a display unit including a setting button and a numeric keypad for setting an operation mode of the digital color multifunction peripheral, and a liquid crystal display.

カラー画像入力装置40は、例えばCCD(Charge Coupled Device )を備えたスキャナ部より構成され、原稿からの反射光像を、RGB(R:赤・G:緑・B:青)のアナログ信号としてCCDにて読み取って、カラー画像処理装置50に入力する。カラー画像入力装置40にて読み取られたアナログ信号は、カラー画像処理装置50内を、A/D変換部51、シェーディング補正部52、入力階調補正部53、領域分離処理部54、色補正部55、黒生成下地除去部56、空間フィルタ処理部57、トラッピング処理部58、出力階調補正部59、階調再現処理部60の順で送られ、ストリームとしてカラー画像出力装置70へ出力される。   The color image input device 40 is composed of, for example, a scanner unit equipped with a CCD (Charge Coupled Device), and the reflected light image from the original is converted into an CCD (R: red, G: green, B: blue) analog signal as a CCD. And input to the color image processing apparatus 50. The analog signal read by the color image input device 40 is converted into an A / D conversion unit 51, a shading correction unit 52, an input tone correction unit 53, a region separation processing unit 54, and a color correction unit in the color image processing device 50. 55, the black generation background removal unit 56, the spatial filter processing unit 57, the trapping processing unit 58, the output gradation correction unit 59, and the gradation reproduction processing unit 60 are sent in this order, and are output to the color image output device 70 as a stream. .

A/D変換部51は、RGBのアナログ信号をデジタル信号に変換する。シェーディング補正部52は、A/D変換部51より送られてきたデジタルのRGB信号に対して、カラー画像入力装置40の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施す。入力階調補正部53は、シェーディング補正部52から入力されたRGB信号(RGBの反射率信号)に対して、カラーバランスを整えると同時に、濃度信号などカラー画像処理装置50に採用されている画像処理システムの扱い易い信号に変換する処理を施す。また、入力階調補正部53は、下地濃度の除去やコントラストなどの画質調整処理を施す。   The A / D converter 51 converts RGB analog signals into digital signals. The shading correction unit 52 performs a process for removing various distortions generated in the illumination system, the imaging system, and the imaging system of the color image input device 40 on the digital RGB signal sent from the A / D conversion unit 51. . The input tone correction unit 53 adjusts the color balance of the RGB signal (RGB reflectance signal) input from the shading correction unit 52, and at the same time, an image employed in the color image processing apparatus 50 such as a density signal. A process for converting the signal into an easy-to-handle signal of the processing system is performed. The input tone correction unit 53 performs image quality adjustment processing such as removal of background density and contrast.

領域分離処理部54は、RGB信号より、入力画像中の各画素を文字領域、網点領域、写真領域の何れかに分離するものである。領域分離処理部54は、分離結果に基づき、画素がどの領域に属しているかを示す領域識別信号を、黒生成下地除去部56、空間フィルタ処理部57、及び階調再現処理部60へと出力すると共に、入力階調補正部53より出力された入力信号をそのまま後段の色補正部55に出力する。色補正部55、黒生成下地除去部56、及びトラッピング処理部58の処理内容は、上述の実施形態1〜4と同様である。   The region separation processing unit 54 separates each pixel in the input image into one of a character region, a halftone dot region, and a photograph region from the RGB signal. The region separation processing unit 54 outputs, to the black generation background removal unit 56, the spatial filter processing unit 57, and the gradation reproduction processing unit 60, a region identification signal indicating which region the pixel belongs to based on the separation result. In addition, the input signal output from the input tone correction unit 53 is output to the subsequent color correction unit 55 as it is. The processing contents of the color correction unit 55, the black generation background removal unit 56, and the trapping processing unit 58 are the same as those in the first to fourth embodiments.

空間フィルタ処理部57は、黒生成下地除去部56より入力されるCMYK信号の画像データに対して、領域識別信号を基にデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによって出力画像のぼやけ又は粒状性劣化を防ぐ処理を行う。階調再現処理部60は、空間フィルタ処理部57と同様に、CMYK信号の画像データに対して、領域識別信号を基に所定の処理を施す。例えば、領域分離処理部54にて文字に分離された領域は、特に黒文字或いは色文字の再現性を高めるために、空間フィルタ処理部57による空間フィルタ処理における鮮鋭強調処理で高周波数の強調量が大きくされる。同時に、階調再現処理部60においては、高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択される。   The spatial filter processing unit 57 performs spatial filter processing using a digital filter on the image data of the CMYK signal input from the black generation background removal unit 56 based on the region identification signal and corrects the spatial frequency characteristics for output. A process for preventing image blur or graininess deterioration is performed. Similar to the spatial filter processing unit 57, the gradation reproduction processing unit 60 performs predetermined processing on the image data of the CMYK signal based on the region identification signal. For example, a region separated into characters by the region separation processing unit 54 has a high frequency enhancement amount in the sharp enhancement processing in the spatial filter processing by the spatial filter processing unit 57 in order to improve the reproducibility of black characters or color characters in particular. Increased. At the same time, the gradation reproduction processing unit 60 selects binarization or multi-value processing on a high-resolution screen suitable for high-frequency reproduction.

また、領域分離処理部54にて網点に分離された領域に関しては、空間フィルタ処理部57において、入力網点成分を除去するためのローパス・フィルタ処理が施される。   Further, with respect to the region separated into halftone dots by the region separation processing unit 54, the spatial filter processing unit 57 performs low-pass filter processing for removing the input halftone component.

出力階調補正部59は、カラー画像出力装置70の特性に基づく出力階調補正処理を行った後、階調再現処理部60により、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)が施される。領域分離処理部60にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化または多値化処理が行われる。   The output tone correction unit 59 performs output tone correction processing based on the characteristics of the color image output device 70, and then the tone reproduction processing unit 60 finally separates the image into pixels and sets each tone. A gradation reproduction process (halftone generation) is performed so that the reproduction is possible. With respect to the region separated into photographs by the region separation processing unit 60, binarization or multi-value processing on the screen is performed with emphasis on gradation reproducibility.

送信装置71は、モデム又はネットワークカードを備えている。ファクシミリの送信を行うときは、モデムにて、相手先との送信手続きを行い送信可能な状態が確保された後、所定の形式で圧縮された画像データ(スキャナで読み込まれた画像データ)をメモリから読み出し、圧縮形式の変更など必要な処理を施して、相手先に通信回線を介して順次送信する。   The transmission device 71 includes a modem or a network card. When sending a facsimile, the modem sends the data to the other party and secures a state where transmission is possible, and then stores the image data compressed in a predetermined format (image data read by the scanner) in the memory. The data is read from the data, and the necessary processing such as changing the compression format is performed, and the data is sequentially transmitted to the other party via the communication line.

ファクシミリを受信する場合、通信手続きを行いながら相手先から送信されてくる画像データを受信してカラー画像処理装置50に入力し、カラー画像処理装置50では、受信した画像データを、圧縮/伸張処理部(図示せず)にて伸張処理を施す。伸張された画像データは、必要に応じて、回転処理や解像度変換処理が行われ、出力階調補正及び階調再現処理が施され、カラー画像出力装置70より出力される。   When a facsimile is received, image data transmitted from the other party is received while performing a communication procedure and input to the color image processing apparatus 50. The color image processing apparatus 50 compresses / decompresses the received image data. A decompression process is performed at a section (not shown). The decompressed image data is subjected to rotation processing and resolution conversion processing as necessary, subjected to output tone correction and tone reproduction processing, and is output from the color image output device 70.

また、ネットワークカード、LANケーブルを介して、ネットワークに接続されたコンピュータや他のデジタル複合機とデータ通信を行う。なお、デジタルカラー複合機について説明したが、モノクロの複合機であっても構わない。   In addition, data communication is performed with a computer or other digital multi-function peripheral connected to the network via a network card or a LAN cable. Although the digital color multifunction peripheral has been described, it may be a monochrome multifunction peripheral.

さらに、本発明はコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体に、前記したトラッピング処理を行う方法を記録するものとすることもできる。この結果、前記処理を行うプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を記録した記録媒体を持ち運び自在に提供することができる。   Furthermore, the present invention may record the method for performing the trapping process on a computer-readable recording medium in which a program to be executed by a computer is recorded. As a result, it is possible to provide a portable recording medium on which the program code (execution format program, intermediate code program, source program) for performing the processing is recorded.

なお、この記録媒体としては、マイクロコンピュータで処理が行われるために図示していないメモリ、例えばROMのようなものそのものがプログラムメディアであってもよい。また、図示していない外部記憶装置としてプログラム読み取り装置が設けられ、そこに記録媒体を挿入することで読み取り可能なプログラムメディアであってもよい。   As the recording medium, a memory (not shown) such as a ROM itself, which is processed by a microcomputer, may be a program medium. Further, a program reading device may be provided as an external storage device (not shown), and the program medium may be read by inserting a recording medium therein.

いずれの場合においても、格納されているプログラムはマイクロプロセッサがアクセスして実行させる構成であっても良いし、あるいは、いずれの場合もプログラムコードを読み出し、読み出されたプログラムコードは、マイクロコンピュータの図示されていないプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。   In any case, the stored program may be configured to be accessed and executed by the microprocessor, or in any case, the program code is read and the read program code is stored in the microcomputer. It may be downloaded to a program storage area (not shown) and the program may be executed. It is assumed that this download program is stored in the main device in advance.

ここで、前記プログラムメディアは、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フレキシブルディスクやハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリを含めた固定的にプログラムコードを担持する媒体であっても良い。   Here, the program medium is a recording medium configured to be separable from the main body, a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, a CD-ROM / MO / MD / DVD, or the like. Semiconductors such as optical discs, IC cards (including memory cards) / optical cards, etc., or mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash ROM, etc. It may be a medium that carries a fixed program code including a memory.

また、本実施の形態においては、インターネットを含む通信ネットワークを接続可能なシステム構成であることから、通信ネットワークからプログラムコードをダウンロードするように流動的にプログラムコードを担持する媒体であっても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。なお、本発明は、前記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   In the present embodiment, since the system configuration is such that a communication network including the Internet can be connected, a medium that dynamically carries the program code so as to download the program code from the communication network may be used. When the program is downloaded from the communication network as described above, the download program may be stored in the main device in advance, or may be installed from another recording medium. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

前記記録媒体は、デジタルカラー画像形成装置やコンピュータシステムに備えられるプログラム読み取り装置により読み取られることで上述した画像処理方法が実行される。   The recording medium is read by a program reading device provided in a digital color image forming apparatus or a computer system, whereby the above-described image processing method is executed.

以上、本発明の好適な実施の形態について具体的に説明したが、各構成及び動作等は適宜変更可能であって、上述の実施の形態に限定されることはない。   The preferred embodiments of the present invention have been specifically described above, but each configuration, operation, and the like can be changed as appropriate, and are not limited to the above-described embodiments.

15 トラッピング処理部
21 入力ラインバッファ部
22 2値化処理部
23 画素カウント部
24 文字検出部
25 トラッピング判定処理部
26 トラッピング重ね合せ処理部
DESCRIPTION OF SYMBOLS 15 Trapping process part 21 Input line buffer part 22 Binarization process part 23 Pixel count part 24 Character detection part 25 Trapping determination process part 26 Trapping superimposition process part

Claims (9)

複数の色成分を有する入力画像データから抽出したエッジに、複数の色成分の画素を重ね合せる処理を行う画像処理装置において、
前記入力画像データに含まれる所定の文字領域を検出する文字検出部と、
前記入力画像データの注目画素が、前記エッジであって、前記文字検出部が検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定部と、
該処理判定部が重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理部と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that performs processing for superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components,
A character detection unit for detecting a predetermined character region included in the input image data;
Based on whether the target pixel of the input image data is the edge and is included in the character area detected by the character detection unit, a process of superimposing pixels of a plurality of color components on the target pixel is performed. A process determination unit for determining whether or not
An image processing apparatus comprising: an overlay processing unit that performs a process of superimposing pixels of a plurality of color components on the target pixel when the process determination unit determines to perform overlay processing.
前記入力画像データを所定の閾値を基に2値データに変換する2値化処理部と、
該2値化処理部によって変換された2値データについて、交差する2方向のそれぞれに連続する同一の画素値の画素数を計数する計数部とを備え、
前記文字検出部は、前記計数部による計数結果に基づいて、前記所定の文字領域を検出するようにしてあることを特徴とする請求項1に記載の画像処理装置。
A binarization processing unit that converts the input image data into binary data based on a predetermined threshold;
A counting unit that counts the number of pixels having the same pixel value continuous in each of two intersecting directions with respect to the binary data converted by the binarization processing unit;
The image processing apparatus according to claim 1, wherein the character detection unit is configured to detect the predetermined character region based on a counting result obtained by the counting unit.
前記入力画像データの注目画素及び該注目画素の周辺画素の画素値の平均値を算出する平均値算出部と、
該平均値算出部が算出した平均値に基づいて閾値を算出する閾値算出部とを備え、
前記2値化処理部は、前記閾値算出部が算出した閾値を基に前記入力画像データを2値データに変換するようにしてあることを特徴とする請求項2に記載の画像処理装置。
An average value calculating unit that calculates an average value of pixel values of the target pixel of the input image data and the peripheral pixels of the target pixel;
A threshold value calculation unit that calculates a threshold value based on the average value calculated by the average value calculation unit,
The image processing apparatus according to claim 2, wherein the binarization processing unit converts the input image data into binary data based on the threshold value calculated by the threshold value calculation unit.
前記計数部は、前記2値化処理部によって変換された2値データについて、交差する2方向、及び該2方向に斜めに交差する方向のそれぞれに連続する同一の画素値の画素数を計数するようにしてあることを特徴とする請求項2又は3に記載の画像処理装置。   The counting unit counts, for the binary data converted by the binarization processing unit, the number of pixels having the same pixel value that is continuous in two intersecting directions and in a direction obliquely intersecting the two directions. The image processing apparatus according to claim 2, wherein the image processing apparatus is configured as described above. 前記文字検出部は、前記計数部による計数結果を、方向別に設定された閾値と比較し、比較結果に基づいて前記所定の文字領域であるか否かを判定するようにしてあることを特徴とする請求項2から4までのいずれかひとつに記載の画像処理装置。   The character detection unit compares the count result of the count unit with a threshold value set for each direction, and determines whether the character region is the predetermined character region based on the comparison result. The image processing apparatus according to any one of claims 2 to 4. 請求項1から5までのいずれかひとつに記載の画像処理装置と、
該画像処理装置で処理された画像データに基づいて出力画像を形成する画像形成手段と
を備えることを特徴とする画像形成装置。
An image processing apparatus according to any one of claims 1 to 5,
An image forming apparatus comprising: an image forming unit that forms an output image based on image data processed by the image processing apparatus.
複数の色成分を有する入力画像データから抽出したエッジに、複数の色成分の画素を重ね合せる処理を行う画像処理方法において、
前記入力画像データに含まれる所定の文字領域を検出する文字検出ステップと、
前記入力画像データの注目画素が、前記エッジであって、前記文字検出ステップで検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定ステップと、
該処理判定ステップで重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理ステップと
を含むことを特徴とする画像処理方法。
In an image processing method for performing processing of superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components,
A character detection step of detecting a predetermined character region included in the input image data;
Based on whether or not the target pixel of the input image data is the edge and is included in the character region detected in the character detection step, a process of superimposing pixels of a plurality of color components on the target pixel is performed. A process determination step for determining whether or not,
An image processing method comprising: a superposition processing step of performing a process of superposing pixels of a plurality of color components on the target pixel when it is determined that superposition processing is performed in the processing determination step.
コンピュータに、複数の色成分を有する入力画像データから抽出したエッジに、複数の色成分の画素を重ね合せる処理を行わせるコンピュータプログラムにおいて、
コンピュータに、
前記入力画像データに含まれる所定の文字領域を検出する文字検出ステップと、
前記入力画像データの注目画素が、前記エッジであって、前記文字検出ステップで検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定ステップと、
該処理判定ステップで重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理ステップと
を実行させるためのコンピュータプログラム。
In a computer program for causing a computer to superimpose pixels of a plurality of color components on edges extracted from input image data having a plurality of color components,
On the computer,
A character detection step of detecting a predetermined character region included in the input image data;
Based on whether or not the target pixel of the input image data is the edge and is included in the character region detected in the character detection step, a process of superimposing pixels of a plurality of color components on the target pixel is performed. A process determination step for determining whether or not,
A computer program for executing, when it is determined in the processing determination step that superimposition processing is performed, a superposition processing step of performing processing for superimposing pixels of a plurality of color components on the target pixel.
請求項8に記載のコンピュータプログラムが記録されていることを特徴とするコンピュータでの読取り可能な記録媒体。   A computer-readable recording medium on which the computer program according to claim 8 is recorded.
JP2009101250A 2009-04-17 2009-04-17 Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium Pending JP2010252184A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009101250A JP2010252184A (en) 2009-04-17 2009-04-17 Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009101250A JP2010252184A (en) 2009-04-17 2009-04-17 Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium

Publications (1)

Publication Number Publication Date
JP2010252184A true JP2010252184A (en) 2010-11-04

Family

ID=43313995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009101250A Pending JP2010252184A (en) 2009-04-17 2009-04-17 Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium

Country Status (1)

Country Link
JP (1) JP2010252184A (en)

Similar Documents

Publication Publication Date Title
JP4749477B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4749476B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4549418B2 (en) Image processing apparatus, image processing method, image forming apparatus, program, and recording medium
JP4331159B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
JP2011147085A (en) Image compression apparatus, compressed image outputting apparatus, image compression method, computer program, and recording medium
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
US8599456B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer-readable recording medium on which image processing program is recorded
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP4637054B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP2010016628A (en) Image processing device and image processing method
JP2008305099A (en) Image processing method, image processor, image forming device, computer program and recording medium
JP4549227B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4545167B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4695472B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and storage medium
JP2006262215A (en) Image processor, image processing method, image processing program and recording medium with the program recorded thereon
JP2010263313A (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4176053B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP4176656B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program
JP3944032B2 (en) Image processing apparatus and method
JP5122507B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP2010252184A (en) Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium
JPH0541796A (en) Copying machine