JP6186828B2 - Image processing apparatus, image processing apparatus control method, and image processing apparatus control program - Google Patents

Image processing apparatus, image processing apparatus control method, and image processing apparatus control program Download PDF

Info

Publication number
JP6186828B2
JP6186828B2 JP2013086272A JP2013086272A JP6186828B2 JP 6186828 B2 JP6186828 B2 JP 6186828B2 JP 2013086272 A JP2013086272 A JP 2013086272A JP 2013086272 A JP2013086272 A JP 2013086272A JP 6186828 B2 JP6186828 B2 JP 6186828B2
Authority
JP
Japan
Prior art keywords
color
extended
value
boundary
gradation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013086272A
Other languages
Japanese (ja)
Other versions
JP2014212370A (en
Inventor
哲平 中村
哲平 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2013086272A priority Critical patent/JP6186828B2/en
Publication of JP2014212370A publication Critical patent/JP2014212370A/en
Application granted granted Critical
Publication of JP6186828B2 publication Critical patent/JP6186828B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラムに関し、より特定的には、色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラムに関する。   The present invention relates to an image processing apparatus, an image processing apparatus control method, and an image processing apparatus control program. More specifically, the present invention relates to a trapping process for an image including first and second objects having different colors. The present invention relates to an image processing apparatus, a control method for the image processing apparatus, and a control program for the image processing apparatus.

画像形成装置は、通常、C(シアン)、M(マゼンタ)、Y(イエロー)、およびK(ブラック)の4色の基本色のトナー(またはインク)を用紙上に重ね合わることで、カラー画像の印刷を行う。トナーが用紙上に塗布する際の圧力による用紙の伸縮、搬送の際の用紙の位置のずれ、または画像形成装置に設けられた位置調整装置の精度などによって、トナーの重ね合わせ位置がずれ(印字ズレが生じ)、それによって白抜けが発生する可能性がある。画像形成装置は、隣接する2つの基本色のうち一方の基本色のトナーを塗布する領域を、他方の基本色のトナーを塗布する領域に拡張するように画像データを補正するトラッピング処理を行うことにより、白抜けの発生を回避している。   In general, an image forming apparatus superimposes toner (or ink) of four basic colors of C (cyan), M (magenta), Y (yellow), and K (black) on a sheet, thereby forming a color image. Print. The toner overlay position is shifted (printing) due to the expansion and contraction of the paper due to the pressure when the toner is applied on the paper, the positional deviation of the paper during conveyance, or the accuracy of the position adjustment device provided in the image forming apparatus. There is a possibility that white spots may occur due to deviation. The image forming apparatus performs a trapping process for correcting image data so that an area where one basic color toner is applied to an area where the other basic color toner is applied is expanded to an area where the other basic color toner is applied. Therefore, the occurrence of white spots is avoided.

図27は、画像に白抜けが発生する原理を説明する図である。(a)は、白抜けが発生していない画像IM101を模式的に示す図であり、(b)は、白抜けが発生している画像IM101を模式的に示す図である。なお、以降の図では、画像の色の違いをハッチングの違いで表現している。   FIG. 27 is a diagram for explaining the principle of occurrence of white spots in an image. (A) is a diagram schematically showing an image IM101 in which white spots have not occurred, and (b) is a diagram schematically showing an image IM101 in which white spots have occurred. In the following drawings, the difference in image color is expressed by the difference in hatching.

図27(a)を参照して、用紙上に形成された画像IM101は、レッドの背景のオブジェクトと、「あ」というブラックの文字のオブジェクトとを含んでいる。用紙上の背景のオブジェクトの領域には、マゼンタのトナー(またはインク)TMと、シアンのトナー(またはインク)TCとが重ね合わされて塗布されている。文字のオブジェクトの領域には、ブラックのトナー(またはインク)TKが塗布されている。図27(a)では、トナーTCおよびTMのエッジと、トナーTKのエッジとが整合しているため、画像IM101に白抜けは生じていない。   Referring to FIG. 27A, an image IM101 formed on a sheet includes a red background object and a black character object “A”. A magenta toner (or ink) TM and a cyan toner (or ink) TC are superimposed and applied to the background object area on the paper. Black toner (or ink) TK is applied to the character object area. In FIG. 27A, since the edges of the toners TC and TM are aligned with the edges of the toner TK, no white spots occur in the image IM101.

図27(b)を参照して、画像IM101において、トナーTCおよびTMの重ね合わせ位置が本来の位置よりも図27中左側にずれた場合には、トナーTCおよびTMのエッジが、2つのオブジェクトの本来の隣接位置BPよりも図27中左側にずれる。その結果、トナーTCおよびTMと、トナーTKとの間には、トナーが塗布されずに用紙の下地の白色が露出した領域RG101が発生する。白抜けとは、トナーの重ね合わせ位置のずれにより用紙の下地の白色が露出することを意味する。   Referring to FIG. 27B, in the image IM101, when the overlapping position of the toners TC and TM is shifted to the left in FIG. 27 from the original position, the edges of the toners TC and TM are two objects. Is shifted to the left in FIG. 27 from the original adjacent position BP. As a result, a region RG101 in which the white of the background of the paper is exposed without the toner being applied is generated between the toners TC and TM and the toner TK. The white spot means that the white background of the paper is exposed due to the deviation of the toner overlapping position.

図28は、トラッピング処理が行われた画像を模式的に示す図である。(a)は、トナーの重ね合わせ位置が整合している場合の画像を示す図であり、(b)は、トナーの重ね合わせ位置がずれた場合の画像を示す図である。   FIG. 28 is a diagram schematically illustrating an image on which the trapping process has been performed. (A) is a diagram showing an image when the toner overlapping position is aligned, and (b) is a diagram showing an image when the toner overlapping position is deviated.

図28(a)を参照して、用紙上に形成された画像IM102は、トラッピング処理が行われている。すなわち、用紙上の背景のオブジェクトの領域に塗布されたトナーTCおよびTMのエッジは、2つのオブジェクトの本来の隣接位置BPよりも文字側の位置まで延長されており、それにより、本来の隣接位置BPから文字側に向かって、トナーTCおよびTMとトナーTKとが重なり合うオーバーラップ領域ORが生じている。これにより、トナーTCおよびTMの重ね合わせ位置が矢印AR1で示すようにずれた場合であっても、トナーTCおよびTMのエッジは依然として本来の隣接位置BPよりも文字側に位置するので、用紙の下地の白色は露出せず、白抜けは発生しない。   Referring to FIG. 28A, trapping processing is performed on an image IM102 formed on a sheet. That is, the edges of the toners TC and TM applied to the background object region on the paper are extended to the character side position from the original adjacent position BP of the two objects, and thereby the original adjacent position. An overlapping region OR where the toners TC and TM overlap with the toner TK is generated from the BP toward the character side. As a result, even when the overlapping positions of the toners TC and TM are shifted as indicated by the arrow AR1, the edges of the toners TC and TM are still located on the character side of the original adjacent position BP. The white background is not exposed and white spots do not occur.

トラッピング処理に関する技術は、たとえば下記特許文献1および2に開示されている。下記特許文献1には、印刷すべきカラー画像においてトラッピング処理を行うべき境界を抽出し、この境界を跨いだ2つの領域のそれぞれに対してトラッピング処理を行うべきトラップ領域を指定し、指定したトラップ領域のそれぞれに対してトラップ色を指定する技術が開示されている。この技術では、一方の領域のCMYKの4色の色成分のうち0でない何れかの色成分が他方の領域で0である場合に、一方の領域の該色成分の10%の値を他方の領域の色に加えた色を、他方の領域の側のトラップ領域の色に指定している。   Techniques related to the trapping process are disclosed in Patent Documents 1 and 2 below, for example. In the following Patent Document 1, a boundary to be trapped is extracted from a color image to be printed, a trap area to be trapped is specified for each of two areas across the boundary, and a specified trap is specified. A technique for specifying a trap color for each of the regions is disclosed. In this technique, when any non-zero color component of the four color components of CMYK in one area is 0 in the other area, the value of 10% of the color component in one area is The color added to the color of the area is designated as the color of the trap area on the other area side.

下記特許文献2には、画像に含まれる2つのオブジェクトの境界部分に用いられている基本色を検出し、境界部分において2つのオブジェクトに共通に用いられている基本色である共通色が有る場合に、その共通色の濃度を検出し、共通色の濃度に応じてトラッピングを行うか否かを判断する技術が開示されている。   In Patent Document 2 below, a basic color used in a boundary portion between two objects included in an image is detected, and there is a common color that is a basic color commonly used in two objects in the boundary portion In addition, a technique for detecting the density of the common color and determining whether to perform trapping according to the density of the common color is disclosed.

特開2002−165104号公報JP 2002-165104 A 特開2007−184865号公報JP 2007-184865 A

図29は、従来のトラッピング処理で生じる、オブジェクトのエッジの色変化を模式的に示す図である。(a)は、従来のトラッピング処理が行われていない場合の画像IM102を示す図であり、(b)は、従来のトラッピング処理が行われた場合の画像IM102を示す図である。   FIG. 29 is a diagram schematically showing the color change of the edge of the object, which occurs in the conventional trapping process. (A) is a figure which shows image IM102 when the conventional trapping process is not performed, (b) is a figure which shows image IM102 when the conventional trapping process is performed.

図29(a)を参照して、用紙上に形成された画像IM102は、たとえばブルーの背景のオブジェクトと、「あ」というレッドの文字のオブジェクトとを含んでいる。従来のトラッピング処理を行った場合、画像IM102は、図29(b)に示すように、オブジェクトのエッジにオーバーラップ領域ORを含んでいる。このため、印字ズレが発生しない場合には、オブジェクトのエッジの色が本来の色から変化した色(画像IM102の場合にはブラック)に見えやすく、画像品質が劣化しやすいという問題があった。たとえば特許文献1の技術では、境界を跨いだ2つの領域の色の組合せによりトラップ色が決まるので、トラップ色によっては、オブジェクトのエッジの色が本来の色から変化した色に見えやすくなる。   Referring to FIG. 29A, an image IM102 formed on a sheet includes, for example, a blue background object and a red character object “A”. When the conventional trapping process is performed, the image IM102 includes an overlap region OR at the edge of the object, as shown in FIG. For this reason, when no print misalignment occurs, there is a problem that the edge color of the object is likely to appear as a color changed from the original color (black in the case of the image IM102), and the image quality tends to deteriorate. For example, in the technique of Patent Document 1, since the trap color is determined by the combination of the colors of two regions straddling the boundary, depending on the trap color, the color of the edge of the object is likely to appear as a color changed from the original color.

この問題に関して、特許文献2の技術では、境界部分の2つのオブジェクトの共通色の濃度が閾値以上である場合には、トラッピング処理が行われないので、オブジェクトのエッジの色変化をある程度抑制することができる。しかし、特許文献2の技術においても、境界部分の2つのオブジェクトに共通色が無い場合や、共通色の濃度が低い場合などには、トラッピング処理が行われるので、オブジェクトのエッジの色変化が発生する。   Regarding this problem, in the technique of Patent Document 2, when the density of the common color of the two objects in the boundary portion is equal to or higher than the threshold value, the trapping process is not performed, and thus the color change of the edge of the object is suppressed to some extent. Can do. However, even in the technique of Patent Document 2, trapping processing is performed when there is no common color between the two objects at the boundary portion or when the density of the common color is low, so that the color change of the edge of the object occurs. To do.

印字ズレの白抜けが目立ちにくく、かつ印字ズレが発生しない場合に、オブジェクトのエッジの色変化を低減するトラッピング処理が求められている。   There is a need for a trapping process that reduces the color change of the edge of an object when printout white spots are not noticeable and print deviation does not occur.

本発明は、上記課題を解決するためのものであり、その目的は、画像品質の劣化を抑制することのできる画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラムを提供することである。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing device, a control method for the image processing device, and a control program for the image processing device that can suppress deterioration in image quality. That is.

本発明の一の局面に従う画像処理装置は、色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置であって、第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索手段と、境界部に存在する第1のオブジェクトを構成する各基本色の階調値に基づいて第1のオブジェクトの濃度値を算出し、境界部に存在する第2のオブジェクトを構成する各基本色の階調値に基づいて第2のオブジェクトの濃度値を算出する濃度算出手段と、第1および第2のオブジェクトの濃度値に基づいて、境界部を補正対象とするか否かを判別する補正対象判別手段と、補正対象判別手段にて補正対象とすると判別した場合に、境界部の少なくとも一部にトラッピング処理を行うトラッピング手段とを備え、補正対象判別手段は、第1および第2のオブジェクトの濃度値のうち少なくともいずれか一方が第1の閾値以下である場合には、境界部を補正対象としないと判別し、第1および第2のオブジェクトの濃度値がいずれも第1の閾値より大きい場合には、境界部を補正対象とすると判別し、補正対象判別手段にて補正対象としないと判別した場合に、トラッピング手段はトラッピング処理を行わない。
上記画像処理装置において好ましくは、補正対象判別手段にて補正対象とすると判別した場合に、第1および第2のオブジェクトの濃度値に基づいて、境界部に存在する第1のオブジェクトの色、および境界部に存在する第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定手段をさらに備え、トラッピング手段は、拡張色を構成する少なくとも1つの基本色を被拡張色の領域に拡張するトラッピング処理を行う。
本発明の他の局面に従う画像処理装置は、色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置であって、第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索手段と、境界部に存在する第1のオブジェクトを構成する各基本色の階調値に基づいて第1のオブジェクトの濃度値を算出し、境界部に存在する第2のオブジェクトを構成する各基本色の階調値に基づいて第2のオブジェクトの濃度値を算出する濃度算出手段と、第1および第2のオブジェクトの濃度値に基づいて、境界部を補正対象とするか否かを判別する補正対象判別手段と、補正対象判別手段にて補正対象とすると判別した場合に、境界部の少なくとも一部にトラッピング処理を行うトラッピング手段とを備え、補正対象判別手段にて補正対象としないと判別した場合に、トラッピング手段はトラッピング処理を行わず、補正対象判別手段にて補正対象とすると判別した場合に、第1および第2のオブジェクトの濃度値に基づいて、境界部に存在する第1のオブジェクトの色、および境界部に存在する第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定手段をさらに備え、トラッピング手段は、拡張色を構成する少なくとも1つの基本色を被拡張色の領域に拡張するトラッピング処理を行い、隣接位置から被拡張色へ向かう方向に設けられた拡張領域であって、拡張色を構成する少なくとも1つの基本色と被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定手段と、補正対象判別手段にて補正対象とすると判別した場合に、各基本色の補正方法として、境界部に存在する第1のオブジェクトの階調値と、境界部に存在する第2のオブジェクトの階調値とに基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択する補正方法選択手段とをさらに備え、一定階調補正は、一定の階調値を拡張領域全体の階調値に加える補正方法であり、階段状補正は、隣接位置からの距離に応じて階段状に小さくなるような階調値を拡張領域の階調値に加える補正方法である。
上記画像処理装置において好ましくは、補正方法選択手段は、各基本色について、境界部に存在する第1のオブジェクトの階調値と、境界部に存在する第2のオブジェクトの階調値とのうち、小さい方の階調値が第3の閾値以下である場合には一定階調補正を選択し、小さい方の階調値が第3の閾値を超える場合には階段状補正を選択する。
上記画像処理装置において好ましくは、拡張色を構成する基本色の中に、被拡張色を構成する基本色の階調値よりも小さい階調値を有する基本色が存在するときは、トラッピング手段は、その基本色についてのトラッピング処理を行わない。
上記画像処理装置において好ましくは、補正方法選択手段にて一定階調補正を選択した場合、トラッピング手段は、拡張色の階調値から被拡張色の階調値を減算した値に相当する階調値を拡張領域全体の階調値に加える。
上記画像処理装置において好ましくは、補正方法選択手段にて階段状補正を選択した場合、トラッピング手段は、その基本色について、拡張色の階調値から被拡張色の階調値を減算した値と、隣接位置からの距離に応じて減少する第2の係数とを乗算した値に相当する階調値を、拡張領域の階調値に加える。
上記画像処理装置において好ましくは、基本色がブラックである場合に用いる第2の係数は、基本色がブラック以外である場合に用いる第2の係数よりも小さい。
本発明のさらに他の局面に従う画像処理装置は、色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置であって、第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索手段と、境界部に存在する第1のオブジェクトを構成する各基本色の階調値に基づいて第1のオブジェクトの濃度値を算出し、境界部に存在する第2のオブジェクトを構成する各基本色の階調値に基づいて第2のオブジェクトの濃度値を算出する濃度算出手段と、第1および第2のオブジェクトの濃度値に基づいて、境界部を補正対象とするか否かを判別する補正対象判別手段と、補正対象判別手段にて補正対象とすると判別した場合に、境界部の少なくとも一部にトラッピング処理を行うトラッピング手段とを備え、補正対象判別手段にて補正対象としないと判別した場合に、トラッピング手段はトラッピング処理を行わず、補正対象判別手段にて補正対象とすると判別した場合に、第1および第2のオブジェクトの濃度値に基づいて、境界部に存在する第1のオブジェクトの色、および境界部に存在する第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定手段をさらに備え、トラッピング手段は、拡張色を構成する少なくとも1つの基本色を被拡張色の領域に拡張するトラッピング処理を行い、隣接位置から被拡張色へ向かう方向に設けられた拡張領域であって、拡張色を構成する少なくとも1つの基本色と被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定手段をさらに備え、トラッピング手段は、拡張領域に加えるブラック以外の基本色の階調値の量に応じて、拡張領域におけるブラックの階調値を減らす。
上記画像処理装置において好ましくは、拡張色決定手段は、第1および第2のオブジェクトの濃度値のうち低い方の濃度値を持つオブジェクトの色を拡張色として決定し、高い方の濃度値を持つオブジェクトの色を被拡張色として決定する。
上記画像処理装置において好ましくは、隣接位置から被拡張色へ向かう方向に設けられた拡張領域であって、拡張色を構成する少なくとも1つの基本色と被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定手段をさらに備える。
An image processing apparatus according to one aspect of the present invention is an image processing apparatus that performs a trapping process on an image including first and second objects having different colors, and the first and second objects are adjacent to each other. And calculating a density value of the first object on the basis of the gradation value of each basic color constituting the first object existing in the boundary part, and a boundary part searching means for searching the boundary part which is an area including the adjacent position. Density calculating means for calculating the density value of the second object based on the gradation values of the respective basic colors constituting the second object existing at the boundary, and the density values of the first and second objects. Based on the correction target determining means for determining whether or not the boundary portion is to be corrected, and when the correction target determining means determines that the boundary portion is to be corrected, trapping is performed on at least a part of the boundary portion. And a trapping means for processing, correction target determination unit, when at least one of the density values of the first and second objects is equal to or less than the first threshold, no correction target boundary portion When the density values of the first and second objects are both greater than the first threshold value, it is determined that the boundary is a correction target, and the correction target determination unit determines that it is not a correction target. In this case, the trapping means does not perform the trapping process.
Preferably, in the image processing apparatus, when the correction target determining unit determines that the correction target is to be corrected, based on the density values of the first and second objects, the color of the first object existing at the boundary, and The apparatus further comprises extended color determining means for determining one of the colors of the second object existing at the boundary as an extended color and determining the other as an extended color, and the trapping means includes at least one basic component constituting the extended color. A trapping process for extending the color to the extended color area is performed.
An image processing apparatus according to another aspect of the present invention is an image processing apparatus that performs a trapping process on an image including first and second objects having different colors, and the first and second objects are adjacent to each other. And calculating a density value of the first object on the basis of the gradation value of each basic color constituting the first object existing in the boundary part, and a boundary part searching means for searching the boundary part which is an area including the adjacent position. Density calculating means for calculating the density value of the second object based on the gradation values of the respective basic colors constituting the second object existing at the boundary, and the density values of the first and second objects. Based on the correction target determining means for determining whether or not the boundary portion is to be corrected, and when the correction target determining means determines that the boundary portion is to be corrected, trapping is performed on at least a part of the boundary portion. A trapping unit for performing processing, and when the correction target determining unit determines that the correction target is not to be corrected, the trapping unit does not perform the trapping process, and the correction target determination unit determines that the correction target is to be corrected. Based on the density values of the first and second objects, one of the color of the first object existing at the boundary and the color of the second object existing at the boundary is determined as an extended color, and the other is covered. Extended color determining means for determining as an extended color is further provided, and the trapping means performs a trapping process for extending at least one basic color constituting the extended color into the extended color area, and is directed from the adjacent position toward the extended color. An extended area in which at least one basic color constituting the extended color and the extended color overlap with each other is determined. When it is determined that the correction target is determined by the extension area determination unit and the correction target determination unit, the gradation value of the first object existing at the boundary and the first value existing at the boundary are determined as the correction method of each basic color. And a correction method selection means for selecting one of a constant gradation correction and a stepped correction based on the gradation value of the second object. This is a correction method for adding to the gradation value of the entire extended area. Staircase correction is a correction method for adding a gradation value that decreases in a stepped manner to the gradation value of the extended area according to the distance from the adjacent position. .
Preferably, in the image processing apparatus, the correction method selection unit includes, for each basic color, a gradation value of the first object existing at the boundary portion and a gradation value of the second object existing at the boundary portion. When the smaller gradation value is equal to or smaller than the third threshold value, constant gradation correction is selected, and when the smaller gradation value exceeds the third threshold value, stepwise correction is selected.
Preferably, in the image processing apparatus, when a basic color having a gradation value smaller than the gradation value of the basic color forming the extended color exists among the basic colors forming the extended color, the trapping means The trapping process for the basic color is not performed.
Preferably, in the image processing apparatus, when the constant gradation correction is selected by the correction method selection unit, the trapping unit has a gradation corresponding to a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color. The value is added to the gradation value of the entire extended area.
Preferably, in the above image processing apparatus, when the staircase correction is selected by the correction method selection unit, the trapping unit has a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color for the basic color. Then, a gradation value corresponding to a value obtained by multiplying the second coefficient that decreases according to the distance from the adjacent position is added to the gradation value of the extension region.
Preferably, in the image processing apparatus, the second coefficient used when the basic color is black is smaller than the second coefficient used when the basic color is other than black.
An image processing apparatus according to still another aspect of the present invention is an image processing apparatus that performs a trapping process on an image including first and second objects having different colors, wherein the first and second objects are mutually connected. Boundary part searching means for searching for a boundary part that is an area including adjacent positions, and a density value of the first object based on a gradation value of each basic color constituting the first object existing in the boundary part Density calculation means for calculating and calculating the density value of the second object based on the gradation values of the respective basic colors constituting the second object existing at the boundary, and the density values of the first and second objects Based on the correction object determining means for determining whether or not the boundary part is to be corrected, and when the correction object determining means determines that the boundary is to be corrected, A trapping unit that performs a ping process, and when the correction target determination unit determines that the correction target is not a correction target, the trapping unit does not perform the trapping process, and the correction target determination unit determines that the correction target is a correction target. Based on the density values of the first and second objects, one of the color of the first object existing at the boundary and the color of the second object present at the boundary is determined as an extended color, and the other is Extended color determination means for determining as an extended color is further provided, and the trapping means performs a trapping process for extending at least one basic color constituting the extended color to the extended color area, and heads from the adjacent position to the extended color. An extension area provided in the direction, in which at least one basic color constituting the extension color and the extended color overlap. Further comprising an expansion area determining means for trapping means, depending on the amount of the gradation values of the basic colors other than black to be added to expand the area and reduce the tone value of black in the extended area.
Preferably, in the image processing apparatus, the extended color determining means determines the color of the object having the lower density value among the density values of the first and second objects as the extended color, and has the higher density value. The color of the object is determined as the extended color.
Preferably, in the image processing apparatus, an extended area provided in a direction from the adjacent position toward the extended color, wherein the extended area where at least one basic color constituting the extended color and the extended color overlap is determined. And an extended area determining means.

上記画像処理装置において好ましくは、濃度算出手段は、境界部に存在する第1のオブジェクトを構成する各基本色の階調値と、各基本色に対して決められた第1の係数とを乗算し、乗算値を全て加算した結果を第1のオブジェクトの濃度値として算出する第1の濃度算出手段と、境界部に存在する第2のオブジェクトを構成する各基本色の階調値と、各基本色に対して決められた第1の係数とを乗算し、乗算値を全て加算した結果を第2のオブジェクトの濃度値として算出する第2の濃度算出手段とを含む。   Preferably, in the image processing apparatus, the density calculation unit multiplies the gradation value of each basic color constituting the first object existing at the boundary by a first coefficient determined for each basic color. A first density calculating means for calculating a result of adding all the multiplication values as a density value of the first object, a gradation value of each basic color constituting the second object existing in the boundary portion, Second density calculating means for multiplying the first coefficient determined for the basic color and calculating the result of adding all the multiplied values as the density value of the second object.

上記画像処理装置において好ましくは、境界部探索手段は、画像を任意の方向に走査した場合に、各基本色の階調値の変化量が第2の閾値を超える位置を隣接位置とすることにより、境界部を抽出する。   Preferably, in the above image processing apparatus, the boundary search means sets the position where the amount of change in the gradation value of each basic color exceeds the second threshold as the adjacent position when the image is scanned in an arbitrary direction. Extract the boundary.

上記画像処理装置において好ましくは、境界部に存在する第1のオブジェクトを構成する各基本色の階調値と、境界部に存在する第2のオブジェクトを構成する各基本色の階調値とを抽出する色抽出手段をさらに備える。   In the image processing apparatus, preferably, the gradation value of each basic color constituting the first object existing in the boundary portion and the gradation value of each basic color constituting the second object existing in the boundary portion are determined. Color extraction means for extracting is further provided.

上記画像処理装置において好ましくは、色抽出手段は、境界部に存在する第1のオブジェクト内の一定のサイズの領域を構成する各基本色の階調値の平均値と、境界部に存在する第2のオブジェクト内の一定のサイズの領域を構成する各基本色の階調値の平均値とを抽出する。   Preferably, in the image processing apparatus, the color extraction unit includes an average value of gradation values of the basic colors constituting a region of a certain size in the first object existing at the boundary portion and a first value existing at the boundary portion. The average value of the gradation values of the basic colors constituting the area of a certain size in the two objects is extracted.

本発明のさらに他の局面に従う画像処理装置は、色が互いに異なる第1および第2のオブジェクトを含む画像を処理する画像処理装置であって、第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を抽出する境界部探索手段と、境界部に存在する第1のオブジェクトを構成する各基本色の階調値に基づいて第1のオブジェクトの濃度値を算出し、境界部に存在する第2のオブジェクトを構成する各基本色の階調値に基づいて第2のオブジェクトの濃度値を算出する濃度算出手段と、第1および第2のオブジェクトの濃度値に基づいて、境界部に存在する第1のオブジェクトの色、および境界部に存在する第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定手段と、隣接位置から被拡張色へ向かう方向に設けられた拡張領域であって、拡張色を構成する少なくとも1つの基本色と被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定手段と、各基本色の補正方法として、境界部に存在する第1のオブジェクトの階調値と、境界部に存在する第2のオブジェクトの階調値とに基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択する補正方法選択手段と、トラッピング処理を行うトラッピング手段とを備え、拡張色を構成する基本色の中に、被拡張色を構成する各基本色の階調値よりも小さい階調値を有する基本色が存在するときは、トラッピング手段は、その基本色についてのトラッピング処理を行わず、補正方法選択手段にて一定階調補正を選択した場合、トラッピング手段は、拡張色の階調値から被拡張色の階調値を減算した値に相当する階調値を拡張領域全体の階調値に加え、補正方法選択手段にて階段状補正を選択した場合、トラッピング手段は、その基本色について、拡張色の階調値から被拡張色の階調値を減算した値と、隣接位置からの距離に応じて減少する係数とを乗算した値に相当する階調値を、拡張領域の階調値に加える。 An image processing apparatus according to still another aspect of the present invention is an image processing apparatus that processes an image including first and second objects having different colors, and adjacent positions at which the first and second objects are adjacent to each other. A boundary portion searching means for extracting a boundary portion that is an area including the first object, and calculating a density value of the first object based on a gradation value of each basic color constituting the first object existing in the boundary portion; Density calculating means for calculating the density value of the second object based on the gradation values of the respective basic colors constituting the second object existing in the section, and based on the density values of the first and second objects, Extended color determining means for determining one of the color of the first object existing at the boundary and the color of the second object existing at the boundary as the extended color and determining the other as the extended color Extension region determining means for determining an extension region provided in a direction from the adjacent position toward the extended color, wherein at least one basic color constituting the extended color overlaps the extended color; As a correction method for each basic color, constant gradation correction and stepped correction are performed based on the gradation value of the first object existing in the boundary portion and the gradation value of the second object existing in the boundary portion. A correction method selecting means for selecting one of the methods, and a trapping means for performing a trapping process, and the basic colors constituting the extended color are more than the gradation values of the basic colors constituting the extended color. When a basic color having a small gradation value exists, the trapping means does not perform the trapping process for the basic color, and if the constant gradation correction is selected by the correction method selection means, the trapping means The means adds a gradation value corresponding to a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color to the gradation value of the entire extended area, and selects the staircase correction by the correction method selection means. In this case, the trapping means corresponds to a value obtained by multiplying the basic color by a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color and a coefficient that decreases according to the distance from the adjacent position. The gradation value is added to the gradation value of the extended area.

本発明のさらに他の局面に従う画像処理装置の制御方法は、色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置の制御方法であって、第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索ステップと、境界部に存在する第1のオブジェクトを構成する各基本色の階調値に基づいて第1のオブジェクトの濃度値を算出し、境界部に存在する第2のオブジェクトを構成する各基本色の階調値に基づいて第2のオブジェクトの濃度値を算出する濃度算出ステップと、第1および第2のオブジェクトの濃度値に基づいて、境界部を補正対象とするか否かを判別する補正対象判別ステップと、補正対象判別ステップにて補正対象とすると判別した場合に、境界部の少なくとも一部にトラッピング処理を行うトラッピングステップとを備え、補正対象判別ステップにおいて、第1および第2のオブジェクトの濃度値のうち少なくともいずれか一方が第1の閾値以下である場合には、境界部を補正対象としないと判別し、第1および第2のオブジェクトの濃度値がいずれも第1の閾値より大きい場合には、境界部を補正対象とすると判別し、補正対象判別ステップにて補正対象としないと判別した場合に、トラッピングステップにおいてトラッピング処理を行わない。
本発明のさらに他の局面に従う画像処理装置の制御方法は、色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置の制御方法であって、第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索ステップと、境界部に存在する第1のオブジェクトを構成する各基本色の階調値に基づいて第1のオブジェクトの濃度値を算出し、境界部に存在する第2のオブジェクトを構成する各基本色の階調値に基づいて第2のオブジェクトの濃度値を算出する濃度算出ステップと、第1および第2のオブジェクトの濃度値に基づいて、境界部を補正対象とするか否かを判別する補正対象判別ステップと、補正対象判別ステップにて補正対象とすると判別した場合に、境界部の少なくとも一部にトラッピング処理を行うトラッピングステップとを備え、補正対象判別ステップにて補正対象としないと判別した場合に、トラッピングステップにおいてトラッピング処理を行わず、補正対象判別ステップにて補正対象とすると判別した場合に、第1および第2のオブジェクトの濃度値に基づいて、境界部に存在する第1のオブジェクトの色、および境界部に存在する第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定ステップをさらに備え、トラッピングステップにおいて、拡張色を構成する少なくとも1つの基本色を被拡張色の領域に拡張するトラッピング処理を行い、隣接位置から被拡張色へ向かう方向に設けられた拡張領域であって、拡張色を構成する少なくとも1つの基本色と被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定ステップと、補正対象判別ステップにて補正対象とすると判別した場合に、各基本色の補正方法として、境界部に存在する第1のオブジェクトの階調値と、境界部に存在する第2のオブジェクトの階調値とに基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択する補正方法選択ステップとをさらに備え、一定階調補正は、一定の階調値を拡張領域全体の階調値に加える補正方法であり、階段状補正は、隣接位置からの距離に応じて階段状に小さくなるような階調値を拡張領域の階調値に加える補正方法である。
本発明のさらに他の局面に従う画像処理装置の制御方法は、色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置の制御方法であって、第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索ステップと、境界部に存在する第1のオブジェクトを構成する各基本色の階調値に基づいて第1のオブジェクトの濃度値を算出し、境界部に存在する第2のオブジェクトを構成する各基本色の階調値に基づいて第2のオブジェクトの濃度値を算出する濃度算出ステップと、第1および第2のオブジェクトの濃度値に基づいて、境界部を補正対象とするか否かを判別する補正対象判別ステップと、補正対象判別ステップにて補正対象とすると判別した場合に、境界部の少なくとも一部にトラッピング処理を行うトラッピングステップとを備え、補正対象判別ステップにて補正対象としないと判別した場合に、トラッピングステップにおいてトラッピング処理を行わず、補正対象判別ステップにて補正対象とすると判別した場合に、第1および第2のオブジェクトの濃度値に基づいて、境界部に存在する第1のオブジェクトの色、および境界部に存在する第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定ステップをさらに備え、トラッピングステップにおいて、拡張色を構成する少なくとも1つの基本色を被拡張色の領域に拡張するトラッピング処理を行い、隣接位置から被拡張色へ向かう方向に設けられた拡張領域であって、拡張色を構成する少なくとも1つの基本色と被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定ステップをさらに備え、トラッピングステップにおいて、拡張領域に加えるブラック以外の基本色の階調値の量に応じて、拡張領域におけるブラックの階調値を減らす。
An image processing device control method according to still another aspect of the present invention is a control method for an image processing device that performs a trapping process on an image including first and second objects having different colors. A boundary portion searching step for searching for a boundary portion that is an area including adjacent positions where the second object is adjacent to each other, and a first based on the gradation value of each basic color constituting the first object existing in the boundary portion A density calculation step of calculating a density value of the second object, and calculating a density value of the second object based on a gradation value of each basic color constituting the second object existing at the boundary; Based on the density value of the second object, the correction target determination step for determining whether or not the boundary portion is to be corrected, and the correction target determination step determines that the correction target is determined. The case, and a trapping step for trapping processing at least a part of a boundary portion, in the correction target determination step, at least one is below a first threshold value of the density values of the first and second objects In this case, it is determined that the boundary portion is not to be corrected, and when both the density values of the first and second objects are larger than the first threshold, it is determined that the boundary portion is to be corrected, and the correction target is determined. When it is determined in the determination step that the correction is not performed, the trapping process is not performed in the trapping step.
An image processing device control method according to still another aspect of the present invention is a control method for an image processing device that performs a trapping process on an image including first and second objects having different colors. A boundary portion searching step for searching for a boundary portion that is an area including adjacent positions where the second object is adjacent to each other, and a first based on the gradation value of each basic color constituting the first object existing in the boundary portion A density calculation step of calculating a density value of the second object, and calculating a density value of the second object based on a gradation value of each basic color constituting the second object existing at the boundary; Based on the density value of the second object, the correction target determination step for determining whether or not the boundary portion is to be corrected, and the correction target determination step determines that the correction target is determined. A trapping step for performing a trapping process on at least a part of the boundary portion, and when it is determined in the correction target determination step that the target is not a correction target, the trapping process is not performed in the trapping step and the correction target determination step is performed. Of the first object existing at the boundary and the color of the second object existing at the boundary based on the density values of the first and second objects. The method further comprises an extended color determining step of determining one as an extended color and determining the other as an extended color, and in the trapping step, a trapping process for expanding at least one basic color constituting the extended color into the extended color region. The extended area is provided in the direction from the adjacent position toward the extended color, and the extended color is configured. As a correction method for each basic color, it is determined that the correction target is an extension region determination step for determining an extension region where at least one basic color and the extended color overlap, and a correction target determination step. Correction that selects either one of the constant gradation correction and the stepped correction based on the gradation value of the first object existing in the portion and the gradation value of the second object existing in the boundary portion A constant gradation correction is a correction method for adding a constant gradation value to the gradation values of the entire extended region, and the staircase correction is stepwise according to the distance from the adjacent position. This is a correction method in which a gradation value that becomes smaller is added to the gradation value in the extended area.
An image processing device control method according to still another aspect of the present invention is a control method for an image processing device that performs a trapping process on an image including first and second objects having different colors. A boundary portion searching step for searching for a boundary portion that is an area including adjacent positions where the second object is adjacent to each other, and a first based on the gradation value of each basic color constituting the first object existing in the boundary portion A density calculation step of calculating a density value of the second object, and calculating a density value of the second object based on a gradation value of each basic color constituting the second object existing at the boundary; Based on the density value of the second object, the correction target determination step for determining whether or not the boundary portion is to be corrected, and the correction target determination step determines that the correction target is determined. A trapping step for performing a trapping process on at least a part of the boundary portion, and when it is determined in the correction target determination step that the target is not a correction target, the trapping process is not performed in the trapping step and the correction target determination step is performed. Of the first object existing at the boundary and the color of the second object existing at the boundary based on the density values of the first and second objects. The method further comprises an extended color determining step of determining one as an extended color and determining the other as an extended color, and in the trapping step, a trapping process for expanding at least one basic color constituting the extended color into the extended color region. The extended area is provided in the direction from the adjacent position toward the extended color, and the extended color is configured. And an extended area determining step for determining an extended area where at least one basic color and the extended color overlap, and in the trapping step, according to the amount of gradation values of basic colors other than black added to the extended area , Reducing the black tone value in the extended region.

本発明のさらに他の局面に従う画像処理装置の制御方法は、色が互いに異なる第1および第2のオブジェクトを含む画像を処理する画像処理装置の制御方法であって、第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を抽出する境界部探索ステップと、境界部に存在する第1のオブジェクトを構成する各基本色の階調値に基づいて第1のオブジェクトの濃度値を算出し、境界部に存在する第2のオブジェクトを構成する各基本色の階調値に基づいて第2のオブジェクトの濃度値を算出する濃度算出ステップと、第1および第2のオブジェクトの濃度値に基づいて、境界部に存在する第1のオブジェクトの色、および境界部に存在する第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定ステップと、隣接位置から被拡張色へ向かう方向に設けられた拡張領域であって、拡張色を構成する少なくとも1つの基本色と被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定ステップと、各基本色の補正方法として、境界部に存在する第1のオブジェクトの階調値と、境界部に存在する第2のオブジェクトの階調値とに基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択する補正方法選択ステップと、トラッピング処理を行うトラッピングステップとを備え、拡張色を構成する基本色の中に、被拡張色を構成する各基本色の階調値よりも小さい階調値を有する基本色が存在するときは、トラッピングステップにおいて、その基本色についてのトラッピング処理を行わず、補正方法選択ステップにて一定階調補正を選択した場合、トラッピングステップにおいて、拡張色の階調値から被拡張色の階調値を減算した値に相当する階調値を拡張領域全体の階調値に加え、補正方法選択ステップにて階段状補正を選択した場合、トラッピングステップにおいて、その基本色について、拡張色の階調値から被拡張色の階調値を減算した値と、隣接位置からの距離に応じて減少する係数とを乗算した値に相当する階調値を、拡張領域の階調値に加える。   An image processing apparatus control method according to still another aspect of the present invention is an image processing apparatus control method for processing an image including first and second objects having different colors, and the first and second objects. A boundary portion searching step for extracting a boundary portion that is an area including adjacent positions adjacent to each other, and the density of the first object based on the gradation value of each basic color constituting the first object existing in the boundary portion A density calculating step for calculating a value and calculating a density value of the second object based on a gradation value of each basic color constituting the second object existing at the boundary; Based on the density value, one of the color of the first object existing at the boundary and the color of the second object existing at the boundary is determined as the extended color, and the other is the extended color. Extended color determination step determined in the above, and an extended area provided in a direction from the adjacent position toward the extended color, wherein the extended color overlaps at least one basic color constituting the extended color Based on the gradation value of the first object existing in the boundary part and the gradation value of the second object existing in the boundary part as an extended area determination step for determining A correction method selection step for selecting one of a constant gradation correction and a staircase correction and a trapping step for performing a trapping process are provided, and the extended color is configured in the basic colors forming the extended color. When there is a basic color having a gradation value smaller than the gradation value of each basic color, the trapping process is not performed for the basic color in the trapping step, and correction is performed. When constant gradation correction is selected in the method selection step, the gradation value corresponding to the value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color is set to the gradation value of the entire extended area in the trapping step. In addition, when stepped correction is selected in the correction method selection step, the value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color and the value from the adjacent position for the basic color in the trapping step. A gradation value corresponding to a value obtained by multiplying a coefficient that decreases in accordance with the distance is added to the gradation value of the extension area.

本発明のさらに他の局面に従う画像処理装置の制御プログラムは、上記のいずれかの画像処理装置の制御方法を実行するためのものである。 An image processing apparatus control program according to still another aspect of the present invention is for executing any one of the above-described image processing apparatus control methods.

本発明によれば、画像品質の劣化を抑制することのできる画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus which can suppress degradation of image quality, the control method of an image processing apparatus, and the control program of an image processing apparatus can be provided.

本発明の一実施の形態における画像形成装置100の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image forming apparatus 100 according to an embodiment of the present invention. 画像形成装置100が実行する画像処理のメインルーチンである。This is a main routine of image processing executed by the image forming apparatus 100. 本発明の一実施の形態における入力画像の一例を示す図である。It is a figure which shows an example of the input image in one embodiment of this invention. 境界部探索処理を説明する図である。It is a figure explaining a boundary part search process. 境界部探索部51が入力画像の主走査方向に沿って抽出した各基本色の階調値の一例を示す図である。It is a figure which shows an example of the gradation value of each basic color which the boundary part search part 51 extracted along the main scanning direction of an input image. 図2に示すステップS3の境界部探索処理のサブルーチンである。It is a subroutine of the boundary part search process of step S3 shown in FIG. 色抽出処理を説明する図である。It is a figure explaining a color extraction process. 図2に示すステップS5の色抽出処理のサブルーチンである。It is a subroutine of the color extraction process of step S5 shown in FIG. 図2に示すステップS7の濃度算出処理のサブルーチンである。This is a subroutine of the density calculation process in step S7 shown in FIG. オブジェクトの濃度値の組合せと、白抜けの発生の程度との関係を示す表である。It is a table | surface which shows the relationship between the combination of the density value of an object, and the grade of generation | occurrence | production of a white spot. 入力画像IM1から抽出された各境界部と、その境界部の補正対象判別部57による判別結果との関係を示す表である。It is a table | surface which shows the relationship between each boundary part extracted from input image IM1, and the discrimination | determination result by the correction object discrimination | determination part 57 of the boundary part. 入力画像IM1における補正対象判別処理の前後での補正対象の変化を模式的に示す図である。It is a figure which shows typically the change of the correction object before and behind the correction object discrimination | determination process in input image IM1. 図2に示すステップS9の補正対象判別処理のサブルーチンである。This is a subroutine for the correction target determination process in step S9 shown in FIG. 図2に示すステップS11の拡張色決定処理のサブルーチンである。This is a subroutine for extended color determination processing in step S11 shown in FIG. 拡張領域決定処理を説明する図である。It is a figure explaining an expansion area | region determination process. 図2に示すステップS13の拡張領域決定処理のサブルーチンである。This is a subroutine for the extended area determination process in step S13 shown in FIG. 補正方法選択処理を説明する図である。It is a figure explaining a correction method selection process. 図2に示すステップS15の補正方法選択処理のサブルーチンである。This is a subroutine of the correction method selection process in step S15 shown in FIG. 一定階調補正を説明する図である。It is a figure explaining fixed gradation correction. 階段状補正を説明する図である。It is a figure explaining step-like correction. トラッピング処理前の境界部の断面図である。It is sectional drawing of the boundary part before a trapping process. 図21に示す境界部に対して一定階調補正を行った後の断面図である。It is sectional drawing after performing a fixed gradation correction | amendment with respect to the boundary part shown in FIG. 図21に示す境界部に対して階段状補正を行った後の断面図である。FIG. 22 is a cross-sectional view after the staircase correction is performed on the boundary portion illustrated in FIG. 21. 拡張領域がブラックを含む場合の拡張領域の付加的な補正方法を説明する図である。It is a figure explaining the additional correction method of an extended area in case an extended area contains black. 図2に示すステップS17のトラッピング処理のサブルーチンの前半部分である。This is the first half of the subroutine of the trapping process in step S17 shown in FIG. 図2に示すステップS17のトラッピング処理のサブルーチンの後半部分である。This is the second half of the subroutine of the trapping process in step S17 shown in FIG. 画像に白抜けが発生する原理を説明する図である。It is a figure explaining the principle which a white spot generate | occur | produces in an image. トラッピング処理が行われた画像を模式的に示す図である。It is a figure which shows typically the image in which the trapping process was performed. 従来のトラッピング処理で生じる、オブジェクトのエッジの色変化を模式的に示す図である。It is a figure which shows typically the color change of the edge of an object which arises by the conventional trapping process.

以下、本発明の一実施の形態について、図面に基づいて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

以下の実施の形態においては、画像処理装置が画像形成装置である場合について説明する。画像形成装置は、画像形成機能を有しており、たとえばMFP(Multifunction Peripheral)、ファクシミリ装置、複写機、またはプリンタなどであってもよい。画像処理装置は、画像形成装置である場合の他、たとえばPC(Personal Computer)や、携帯電話、タブレットPCなどの、画像形成機能を有さない装置であってもよい。   In the following embodiments, a case where the image processing apparatus is an image forming apparatus will be described. The image forming apparatus has an image forming function, and may be, for example, an MFP (Multifunction Peripheral), a facsimile machine, a copier, or a printer. The image processing apparatus may be an apparatus that does not have an image forming function, such as a PC (Personal Computer), a mobile phone, and a tablet PC, in addition to an image forming apparatus.

本明細書においては、シアンをC、マゼンタをM、イエローをY、ブラックをKと表記する場合がある。   In this specification, cyan may be expressed as C, magenta as M, yellow as Y, and black as K.

以下の実施の形態では、トラッピング処理の対象となる入力画像がシアン、マゼンタ、イエロー、およびブラックの4つの基本色により構成されているものとする。画像を構成する各画素を構成するシアン、マゼンタ、イエロー、およびブラックの階調値を、(C,M,Y,K)という形式で示すことがある。この場合、各階調値は、0以上255以下の256段階の値をとるものとし、階調値が大きくなるほどその基本色の濃度が濃くなるものとする。   In the following embodiment, it is assumed that an input image to be trapped is composed of four basic colors of cyan, magenta, yellow, and black. The gradation values of cyan, magenta, yellow, and black constituting each pixel constituting the image may be indicated in the form (C, M, Y, K). In this case, each gradation value has a value of 256 steps from 0 to 255, and the density of the basic color increases as the gradation value increases.

[画像形成装置の構成]   [Configuration of Image Forming Apparatus]

図1は、本発明の一実施の形態における画像形成装置100の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an image forming apparatus 100 according to an embodiment of the present invention.

図1を参照して、本実施の形態における画像形成装置100は、MFPであり、スキャナー機能、ファクシミリ機能、複写機能、プリンタとしての機能、データ通信機能、およびサーバー機能を備えている。画像形成装置100は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)13と、RAM(Random Access Memory)15と、補助記憶装置17と、ネットワーク接続部19と、画像処理部21と、操作パネル23と、画像形成部25と、スキャナー27とを備えている。CPU11と、ROM13、RAM15、補助記憶装置17、ネットワーク接続部19、画像処理部21、操作パネル23、画像形成部25、およびスキャナー27の各々とは、相互に接続されている。   Referring to FIG. 1, an image forming apparatus 100 according to the present embodiment is an MFP, and includes a scanner function, a facsimile function, a copying function, a function as a printer, a data communication function, and a server function. The image forming apparatus 100 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 13, a RAM (Random Access Memory) 15, an auxiliary storage device 17, a network connection unit 19, an image processing unit 21, and the like. , An operation panel 23, an image forming unit 25, and a scanner 27 are provided. The CPU 11, the ROM 13, the RAM 15, the auxiliary storage device 17, the network connection unit 19, the image processing unit 21, the operation panel 23, the image forming unit 25, and the scanner 27 are connected to each other.

CPU11は、画像形成装置100全体の制御を行う。CPU11は、ROM13に記憶された各種プログラムを実行して動作する。   The CPU 11 controls the entire image forming apparatus 100. The CPU 11 operates by executing various programs stored in the ROM 13.

ROM13は、CPU11を動作させる為のプログラムを格納している。   The ROM 13 stores a program for operating the CPU 11.

RAM15は、CPU11がプログラムを動作するために必要なデータや画像データを一時的に記憶する。   The RAM 15 temporarily stores data and image data necessary for the CPU 11 to operate the program.

補助記憶装置17は、たとえばHDD(Hard Disk Drive)などよりなっており、画像データなどの各種データを格納する。   The auxiliary storage device 17 is composed of, for example, an HDD (Hard Disk Drive) or the like, and stores various data such as image data.

ネットワーク接続部19は、イーサネット(登録商標)やUSBを通じて外部機器との通信を行う。またネットワーク接続部19は、WWW(World Wide Web)やネットワーク上の外部機器とでデータを送受信する際には、図示しない通信デバイスを用いる。   The network connection unit 19 communicates with an external device through Ethernet (registered trademark) or USB. The network connection unit 19 uses a communication device (not shown) when transmitting / receiving data to / from an external device on the WWW (World Wide Web) or the network.

画像処理部21は、印刷する際などに印刷対象となる画像データの処理を行う。画像処理部21は、境界部探索部51と、色抽出部53と、濃度算出部55と、補正対象判別部57と、拡張色決定部59と、拡張領域決定部61と、補正方法選択部63と、トラッピング部65とを含んでいる。   The image processing unit 21 processes image data to be printed when printing. The image processing unit 21 includes a boundary search unit 51, a color extraction unit 53, a density calculation unit 55, a correction target determination unit 57, an extended color determination unit 59, an extended region determination unit 61, and a correction method selection unit. 63 and a trapping unit 65.

操作パネル23は、ユーザーから画像形成装置100の操作を受け付けたり、ユーザーへの各種情報の表示を行ったりするユーザーインタフェースである。   The operation panel 23 is a user interface that accepts an operation of the image forming apparatus 100 from a user and displays various information to the user.

画像形成部25は、おおまかに、トナー像形成部、定着装置、および用紙搬送部などで構成される。画像形成部25は、たとえば電子写真方式で用紙に画像を形成する。トナー像形成部は、いわゆるタンデム方式で4色の画像を合成し、用紙(記録媒体)にカラー画像を形成可能に構成される。トナー像形成部は、シアン、マゼンタ、イエロー、およびブラックの各基本色について設けられた感光体と、感光体からトナー像が転写(1次転写)される中間転写ベルトと、中間転写ベルトから用紙に画像を転写(2次転写)する転写部などで構成される。定着装置は、加熱ローラーおよび加圧ローラーを有する。定着装置は、加熱ローラーと加圧ローラーとでトナー像が形成された用紙を挟みながら搬送し、その用紙に加熱および加圧を行なう。これにより、定着装置は、用紙に付着したトナーを溶融させて用紙に定着させ、用紙に画像を形成する。用紙搬送部は、給紙ローラー、搬送ローラー、およびそれらを駆動するモーターなどで構成されている。用紙搬送部は、用紙を給紙カセットから給紙して、画像形成装置100の筐体の内部で搬送する。また、用紙搬送部は、画像が形成された用紙を画像形成装置100の筐体から排紙トレイなどに排出する。   The image forming unit 25 is roughly composed of a toner image forming unit, a fixing device, a paper transport unit, and the like. The image forming unit 25 forms an image on a sheet by, for example, electrophotography. The toner image forming unit is configured to be able to form a color image on a sheet (recording medium) by combining four color images by a so-called tandem method. The toner image forming unit includes a photoconductor provided for each of the basic colors of cyan, magenta, yellow, and black, an intermediate transfer belt on which the toner image is transferred (primary transfer) from the photoconductor, and a sheet from the intermediate transfer belt to the sheet. The image forming apparatus includes a transfer unit that transfers an image (secondary transfer). The fixing device has a heating roller and a pressure roller. The fixing device conveys the sheet on which the toner image is formed between the heating roller and the pressure roller, and heats and presses the sheet. As a result, the fixing device melts the toner adhering to the paper and fixes it on the paper to form an image on the paper. The paper transport unit includes a paper feed roller, a transport roller, and a motor that drives them. The paper transport unit feeds paper from the paper feed cassette and transports the paper inside the housing of the image forming apparatus 100. Further, the paper transport unit discharges the paper on which the image is formed from the housing of the image forming apparatus 100 to a paper discharge tray or the like.

スキャナー27は、原稿の画像を読み込んで画像データを作成する。   The scanner 27 reads an image of a document and creates image data.

[画像処理の概要]   [Image processing overview]

画像形成装置100は、スキャナー27や画像形成装置100と接続している外部機器などから入力された入力画像を印刷する場合に、入力画像に対して以下に説明する画像処理を行い、画像処理後の画像を印刷する。   When printing an input image input from the scanner 27 or an external device connected to the image forming apparatus 100, the image forming apparatus 100 performs the image processing described below on the input image, and after the image processing Print the image.

図2は、画像形成装置100が実行する画像処理のメインルーチンである。   FIG. 2 is a main routine of image processing executed by the image forming apparatus 100.

図2を参照して、画像処理の必要が生じると(たとえば、印刷の実行指示を受け付けた場合など)、画像形成装置100のCPU11は、入力画像IM1を取得し(S1)、境界部探索部51を用いて境界部探索処理を行う(S3)。次にCPU11は、色抽出部53を用いて色抽出処理を行い(S5)、濃度算出部55を用いて濃度算出処理を行う(S7)。続いてCPU11は、補正対象判別部57を用いて補正対象判別処理を行い(S9)、拡張色決定部59を用いて拡張色決定処理を行う(S11)。次にCPU11は、拡張領域決定部61を用いて拡張領域決定処理を行い(S13)、補正方法選択部63を用いて補正方法選択処理を行う(S15)。続いてCPU11は、トラッピング部65を用いてトラッピング処理を行い(S17)、画像形成部25を用いて、トラッピング処理後の入力画像を印刷する出力処理を行い(S19)、処理を終了する。   Referring to FIG. 2, when image processing becomes necessary (for example, when a print execution instruction is received), CPU 11 of image forming apparatus 100 acquires input image IM1 (S1), and searches for a boundary portion. The boundary portion search process is performed using 51 (S3). Next, the CPU 11 performs color extraction processing using the color extraction unit 53 (S5), and performs density calculation processing using the density calculation unit 55 (S7). Subsequently, the CPU 11 performs a correction target determination process using the correction target determination unit 57 (S9), and performs an extended color determination process using the extended color determination unit 59 (S11). Next, the CPU 11 performs an extended area determination process using the extended area determination unit 61 (S13), and performs a correction method selection process using the correction method selection unit 63 (S15). Subsequently, the CPU 11 performs a trapping process using the trapping unit 65 (S17), performs an output process for printing the input image after the trapping process using the image forming unit 25 (S19), and ends the process.

[境界部探索処理]   [Boundary part search processing]

次に、境界部探索処理について説明する。   Next, the boundary part search process will be described.

境界部探索処理において、境界部探索部51は、色が互いに異なる2つのオブジェクトを含む画像において、2つのオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する。   In the boundary part searching process, the boundary part searching part 51 searches for a boundary part that is an area including adjacent positions where two objects are adjacent to each other in an image including two objects having different colors.

図3は、本発明の一実施の形態における入力画像の一例を示す図である。   FIG. 3 is a diagram illustrating an example of an input image according to the embodiment of the present invention.

図3を参照して、入力画像IM1は、「あ」というブラックの文字のオブジェクトOB1およびOB3と、「あ」という薄いブルーの文字のオブジェクトOB2およびOB4と、オブジェクトOB1およびOB2のブラウンの背景であるオブジェクトOB5と、オブジェクトOB3およびOB4のイエローの背景であるオブジェクトOB6とを含んでいる。オブジェクトOB1〜OB6の各々における各基本色の階調値は全体にわたって一定(オブジェクトOB1〜OB6は、全体にわたってそれぞれ同一色)であるものとする。ここでは、境界部探索処理の対象が入力画像IM1であるものとして説明する。   Referring to FIG. 3, an input image IM1 includes objects OB1 and OB3 with black characters “A”, objects OB2 and OB4 with light blue characters “A”, and brown backgrounds of objects OB1 and OB2. A certain object OB5 and an object OB6 that is a yellow background of the objects OB3 and OB4 are included. The gradation values of the basic colors in each of the objects OB1 to OB6 are constant throughout (the objects OB1 to OB6 have the same color throughout). Here, description will be made assuming that the target of the boundary portion search process is the input image IM1.

図4は、境界部探索処理を説明する図である。   FIG. 4 is a diagram for explaining the boundary portion search processing.

図4を参照して、境界部探索部51は、図4(a)に示すように、入力画像IM1の主走査方向である方向DR1、入力画像IM1の副走査方向である方向DR2、および斜めの方向DR3に走査し、走査した方向での各基本色の階調値を抽出する。階調値を抽出する際の走査方向は任意である。そして境界部探索部51は、図4(b)に示すように、各基本色の階調値の変化量が、変化量閾値(第2の閾値の一例)よりも大きい位置を隣接位置BP(エッジ)として決定し、隣接位置BPを含む領域(ここでは、隣接位置BPから1ドットの以内の領域)を境界部として抽出する。入力画像IM1からは、オブジェクトOB1とオブジェクトOB5との境界部RG1Aと、オブジェクトOB2とオブジェクトOB5との境界部RG1Bと、オブジェクトOB3とオブジェクトOB6との境界部RG1Cと、オブジェクトOB4とオブジェクトOB6との境界部RG1Dと、オブジェクトOB5とオブジェクトOB6との境界部RG1Eとが抽出される。抽出された境界部は、仮の補正対象とされる。仮の補正対象を補正対象とするか否かは、補正対象判別処理において判別される。   Referring to FIG. 4, boundary search unit 51, as shown in FIG. 4A, includes direction DR <b> 1 that is the main scanning direction of input image IM <b> 1, direction DR <b> 2 that is the sub-scanning direction of input image IM <b> 1, and diagonally. And the gradation value of each basic color in the scanned direction is extracted. The scanning direction when extracting gradation values is arbitrary. Then, as shown in FIG. 4B, the boundary searching unit 51 determines the position where the change amount of the gradation value of each basic color is larger than the change amount threshold value (an example of the second threshold value) as the adjacent position BP ( And an area including the adjacent position BP (here, an area within one dot from the adjacent position BP) is extracted as a boundary portion. From the input image IM1, a boundary part RG1A between the objects OB1 and OB5, a boundary part RG1B between the objects OB2 and OB5, a boundary part RG1C between the objects OB3 and OB6, and a boundary between the objects OB4 and OB6 The part RG1D and the boundary part RG1E between the objects OB5 and OB6 are extracted. The extracted boundary portion is a temporary correction target. Whether or not the provisional correction target is the correction target is determined in the correction target determination process.

図5は、境界部探索部51が入力画像の主走査方向に沿って抽出した各基本色の階調値の一例を示す図である。(a)はシアンの階調値であり、(b)はマゼンタの階調値であり、(c)はイエローの階調値であり、(d)はブラックの階調値である。   FIG. 5 is a diagram illustrating an example of the gradation values of each basic color extracted by the boundary search unit 51 along the main scanning direction of the input image. (A) is a cyan gradation value, (b) is a magenta gradation value, (c) is a yellow gradation value, and (d) is a black gradation value.

図5を参照して、ここでは、変化量閾値が50であるものとする。マゼンタの階調値は、図5(b)に示すように、位置PO2において55(=70−15)という変化量だけ変化している。マゼンタの階調値の変化量は変化量閾値を超えているので、境界部探索部51はマゼンタの階調値から位置PO2を隣接位置BPとして決定し、位置PO2を含む領域を境界部RG1(境界部RG1は境界部RG1A、RG1B、RG1C、RG1D、およびRG1Eのうち任意のものに相当する)として抽出する。   Referring to FIG. 5, it is assumed here that the change amount threshold is 50. As shown in FIG. 5B, the magenta tone value changes by a change amount of 55 (= 70-15) at the position PO2. Since the change amount of the magenta tone value exceeds the change amount threshold value, the boundary portion search unit 51 determines the position PO2 as the adjacent position BP from the magenta tone value, and sets the region including the position PO2 as the boundary portion RG1 ( The boundary portion RG1 is extracted as a boundary portion RG1A, RG1B, RG1C, RG1D, and RG1E).

一方、シアンの階調値は、図5(a)に示すように、位置PO1において10(=25−15)という変化量だけ変化している。シアンの階調値の変化量は変化量閾値未満であるので、境界部探索部51はシアンの階調値から境界部を抽出しない。イエローの階調値は、図5(c)に示すように、主走査方向で一定であるので、境界部探索部51はイエローの階調値から境界部を抽出しない。ブラックの階調値は、位置PO3において5(=20−15)という変化量だけ変化している。ブラックの階調値の変化量は変化量閾値未満であるので、境界部探索部51はブラックの階調値から境界部を抽出しない。   On the other hand, as shown in FIG. 5A, the cyan tone value changes by a change amount of 10 (= 25-15) at the position PO1. Since the change amount of the cyan gradation value is less than the change amount threshold value, the boundary portion search unit 51 does not extract the boundary portion from the cyan gradation value. Since the yellow gradation value is constant in the main scanning direction as shown in FIG. 5C, the boundary portion search unit 51 does not extract the boundary portion from the yellow gradation value. The black tone value changes by a change amount of 5 (= 20-15) at the position PO3. Since the change amount of the black gradation value is less than the change amount threshold value, the boundary portion search unit 51 does not extract the boundary portion from the black gradation value.

なお、境界部探索部51は、階調変化の大きい領域を境界部として抽出することが好ましいが、境界部探索部51が行う境界部の探索方法は任意である。   The boundary searching unit 51 preferably extracts a region having a large gradation change as the boundary, but the boundary searching method performed by the boundary searching unit 51 is arbitrary.

図6は、図2に示すステップS3の境界部探索処理のサブルーチンである。   FIG. 6 is a subroutine of the boundary portion search process in step S3 shown in FIG.

図6を参照して、境界部探索処理において、CPU11は、シアン、マゼンタ、イエロー、およびブラックの各基本色について、任意の走査方向に沿って抽出した階調値の変化量が閾値以上であるか否かを判定し、閾値以上であると判定した場合に、その位置を隣接位置として決定する(エッジ判定)(ステップS101、S103、S105、およびS107)。次にCPU11は、シアン、マゼンタ、イエロー、およびブラックのいずれかで隣接位置を決定したか否かを判別する(OR判定を行う)(S109)。次にCPU11は、隣接位置を決定した場合には、その隣接位置から1ドットの以内の領域を境界部とし(マスクし)(S111)、リターンする。   Referring to FIG. 6, in the boundary portion search process, CPU 11 has a change amount of the gradation value extracted along an arbitrary scanning direction for each of the basic colors of cyan, magenta, yellow, and black equal to or greater than a threshold value. If it is determined that the position is equal to or greater than the threshold, the position is determined as an adjacent position (edge determination) (steps S101, S103, S105, and S107). Next, the CPU 11 determines whether or not the adjacent position is determined in any of cyan, magenta, yellow, and black (OR determination is performed) (S109). Next, when determining the adjacent position, the CPU 11 sets (masks) an area within one dot from the adjacent position as a boundary (S111), and returns.

[色抽出処理]   [Color extraction processing]

次に、色抽出処理について説明する。   Next, the color extraction process will be described.

色抽出処理において、色抽出部53は、境界部に存在する2つのオブジェクトの各々の階調値を抽出する。   In the color extraction process, the color extraction unit 53 extracts the gradation value of each of the two objects present at the boundary.

ここでは、色抽出処理の対象が入力画像IM1であるものとして、オブジェクトOB2とオブジェクトOB5との境界部RG1Bを取り上げて説明する。入力画像IM1における他の境界部についても同様の色抽出処理が行われる。   Here, it is assumed that the target of color extraction processing is the input image IM1, and the boundary portion RG1B between the object OB2 and the object OB5 will be described. Similar color extraction processing is performed for other boundary portions in the input image IM1.

図7は、色抽出処理を説明する図である。   FIG. 7 is a diagram for explaining the color extraction processing.

図7を参照して、色抽出部53は、境界部RG1Bに存在するオブジェクトOB2内に存在する一定のサイズの領域RG2A(予め設定されたマトリクス)と、境界部RG1に存在するオブジェクトOB5内に存在する一定のサイズの領域RG2Bとを抽出する。ここでは、1ビット×3ビットのサイズの領域が抽出される。領域RG2AおよびRG2Aを抽出する位置は任意である。   Referring to FIG. 7, color extracting unit 53 includes a region RG2A (a preset matrix) having a certain size existing in object OB2 existing in boundary portion RG1B and an object OB5 existing in boundary portion RG1. An existing region RG2B having a certain size is extracted. Here, an area having a size of 1 bit × 3 bits is extracted. The positions where the regions RG2A and RG2A are extracted are arbitrary.

そして色抽出部53は、領域RG2Aの3つの画素の各々を構成する各基本色の階調値(C1,M1,Y1,K1)、(C2,M2,Y2,K2)、および(C3,M3,Y3,K3)を抽出する。ここでは、オブジェクトOB2の内部は同一色であるので、C1、C2およびC3は同一値であり、M1、M2およびM3は同一値であり、Y1、Y2およびY3は同一値であり、K1、K2およびK3は同一値である。   Then, the color extraction unit 53 performs gradation values (C1, M1, Y1, K1), (C2, M2, Y2, K2), and (C3, M3) of the basic colors constituting each of the three pixels in the region RG2A. , Y3, K3). Here, since the inside of the object OB2 is the same color, C1, C2 and C3 have the same value, M1, M2 and M3 have the same value, Y1, Y2 and Y3 have the same value, and K1, K2 And K3 are the same value.

次に色抽出部53は、3つの画素を構成する各基本色の階調値から、領域RG2Aの平均階調値(AC1,AM1,AY1,AK1)=((C1+C2+C3)/3,(M1+M2+M3)/3,(Y1+Y2+Y3)/3,(K1+K2+K3)/3)を算出する。   Next, the color extraction unit 53 calculates the average gradation value (AC1, AM1, AY1, AK1) of the region RG2A from the gradation values of the basic colors constituting the three pixels ((C1 + C2 + C3) / 3, (M1 + M2 + M3)). / 3, (Y1 + Y2 + Y3) / 3, (K1 + K2 + K3) / 3).

色抽出部53は、同様の方法で、領域RG2Bの平均階調値(AC2,AM2,AY2,AK2)を算出する。   The color extraction unit 53 calculates the average gradation value (AC2, AM2, AY2, AK2) of the region RG2B by the same method.

領域RG2Aの平均階調値(AC1,AM1,AY1,AK1)は、以降の処理において、境界部RG1Bに存在するオブジェクトOB2の階調値として用いられ、領域RG2Bの平均階調値(AC1,AM1,AY1,AK1)で示される色は、境界部RG1Bに存在するオブジェクトOB2の代表色となる。領域RG2Bの平均階調値(AC2,AM2,AY2,AK2)は、以降の処理において、境界部RG1Bに存在するオブジェクトOB5の階調値として用いられ、領域RG2Bの平均階調値(AC2,AM2,AY2,AK2)で示される色は、境界部RG1Bに存在するオブジェクトOB5の代表色となる。   The average gradation value (AC1, AM1, AY1, AK1) of the region RG2A is used as the gradation value of the object OB2 existing in the boundary portion RG1B in the subsequent processing, and the average gradation value (AC1, AM1 of the region RG2B). , AY1, AK1) are representative colors of the object OB2 existing in the boundary portion RG1B. The average gradation value (AC2, AM2, AY2, AK2) of the region RG2B is used as the gradation value of the object OB5 existing in the boundary portion RG1B in the subsequent processing, and the average gradation value (AC2, AM2 of the region RG2B) , AY2, AK2) are representative colors of the object OB5 existing in the boundary portion RG1B.

なお、色抽出部53は、境界部に存在する2つのオブジェクトを構成する各基本色の階調値を抽出すればよく、抽出方法は任意である。   Note that the color extraction unit 53 may extract the gradation values of the respective basic colors constituting the two objects existing at the boundary, and the extraction method is arbitrary.

図8は、図2に示すステップS5の色抽出処理のサブルーチンである。   FIG. 8 is a subroutine of the color extraction process in step S5 shown in FIG.

図8を参照して、色抽出処理において、CPU11は、境界部に存在する2つのオブジェクトの各々において、内部に存在する一定のサイズの領域の階調値を抽出する(設定されたマトリクスを読み込む)(S201)。次にCPU11は、抽出した領域の平均階調値(設定されたマトリクス内の平均値)を算出する(S203)。次にCPU11は、全ての境界部に存在するオブジェクトの平均階調値を算出したか否かを判別する(S205)。   Referring to FIG. 8, in the color extraction process, CPU 11 extracts a gradation value of a region of a certain size existing inside each of two objects existing at the boundary (reads a set matrix). (S201). Next, the CPU 11 calculates the average gradation value (average value in the set matrix) of the extracted area (S203). Next, the CPU 11 determines whether or not the average gradation value of the objects existing in all the boundary portions has been calculated (S205).

ステップS205において、全ての境界部に存在するオブジェクトの平均階調値を算出したと判別した場合(S205でYES)、CPU11はリターンする。一方、ステップS205において、全ての境界部に存在するオブジェクトの平均階調値を算出していないと判別した場合(S205でNO)、CPU11は、ステップS201の処理に進み、他の境界部に存在する2つのオブジェクトの階調値を抽出する。   If it is determined in step S205 that the average gradation values of the objects existing in all the boundary portions have been calculated (YES in S205), the CPU 11 returns. On the other hand, if it is determined in step S205 that the average gradation values of the objects existing in all the boundary portions have not been calculated (NO in S205), the CPU 11 proceeds to the processing in step S201 and exists in other boundary portions. The gradation values of the two objects to be extracted are extracted.

[濃度算出処理]   [Density calculation processing]

次に、濃度算出処理について説明する。   Next, the density calculation process will be described.

濃度算出処理において、濃度算出部55は、境界部に存在する2つのオブジェクトのうち一方のオブジェクトを構成する各基本色の階調値に基づいて、一方のオブジェクトの濃度値を算出し、他方のオブジェクトを構成する各基本色の階調値に基づいて、他方のオブジェクトの濃度値を算出する。   In the density calculation process, the density calculation unit 55 calculates the density value of one object based on the gradation value of each basic color that constitutes one of the two objects existing at the boundary, and the other Based on the gradation value of each basic color constituting the object, the density value of the other object is calculated.

ここでは、濃度算出処理の対象が入力画像IM1であるものとして、オブジェクトOB2とオブジェクトOB5との境界部RG1Bを取り上げて説明する。入力画像IM1における他の境界部についても同様の濃度算出処理が行われる。   Here, it is assumed that the target of the density calculation process is the input image IM1, and the boundary portion RG1B between the object OB2 and the object OB5 will be described. Similar density calculation processing is performed for other boundary portions in the input image IM1.

境界部RG1Bに存在するオブジェクトOB2の階調値は(AC1,AM1,AY1,AK1)であり、境界部RG1Bに存在するオブジェクトOB5の階調値は(AC2,AM2,AY2,AK2)であるものとする。濃度算出部55は、以下の式(1)によって、境界部RG1Bに存在するオブジェクトOB2の濃度値D2を算出する。   The gradation value of the object OB2 existing in the boundary portion RG1B is (AC1, AM1, AY1, AK1), and the gradation value of the object OB5 existing in the boundary portion RG1B is (AC2, AM2, AY2, AK2). And The density calculation unit 55 calculates the density value D2 of the object OB2 existing in the boundary part RG1B by the following equation (1).

濃度値D2=Wc×AC1+Wm×AM1+Wy×AY1+Wk×AK1 ・・・(1)   Concentration value D2 = Wc × AC1 + Wm × AM1 + Wy × AY1 + Wk × AK1 (1)

上記式(1)において、Wc、Wm、Wy、およびWkは、それぞれシアン、マゼンタ、イエロー、およびブラックの濃度算出係数(第1の係数の一例)である。濃度算出係数としては、たとえば0〜100の範囲の固定値が設定される。濃度算出係数は、算出した濃度値が明度の逆数に比例するように設定されることが好ましい。   In the above equation (1), Wc, Wm, Wy, and Wk are cyan, magenta, yellow, and black density calculation coefficients (an example of a first coefficient), respectively. As the density calculation coefficient, for example, a fixed value in the range of 0 to 100 is set. The density calculation coefficient is preferably set so that the calculated density value is proportional to the reciprocal of the brightness.

つまり、濃度算出部55は、境界部RG1Bに存在するオブジェクトOB2を構成する各基本色の階調値(AC1,AM1,AY1,AK1)と、各基本色に対して決められた濃度算出係数(Wc,Wm,Wy,Wk)とを乗算し、乗算値を全て加算した結果を、境界部RG1Bに存在するオブジェクトOB2の濃度値D2として算出する。   In other words, the density calculation unit 55 determines the gradation value (AC1, AM1, AY1, AK1) of each basic color constituting the object OB2 existing in the boundary part RG1B, and the density calculation coefficient ( Wc, Wm, Wy, Wk) and the result of adding all the multiplied values is calculated as the density value D2 of the object OB2 existing in the boundary portion RG1B.

一例として、境界部RG1Bに存在するオブジェクトOB2を構成する各基本色の階調値が(100,20,10,5)であり、濃度算出係数(Wc,Wm,Wy,Wk)が(24,44,3,66)である場合、濃度値D2は以下の式(2)により算出される。   As an example, the gradation values of the basic colors constituting the object OB2 existing in the boundary part RG1B are (100, 20, 10, 5), and the density calculation coefficients (Wc, Wm, Wy, Wk) are (24, 44, 3, 66), the density value D2 is calculated by the following equation (2).

濃度値D2=100×24+20×44+10×3+5×66=3640 ・・・(2)   Density value D2 = 100 × 24 + 20 × 44 + 10 × 3 + 5 × 66 = 3640 (2)

同様に、濃度算出部55は、以下の式(3)によって、境界部RG1Bに存在するオブジェクトOB5の濃度値D5を算出する。   Similarly, the density calculation unit 55 calculates the density value D5 of the object OB5 existing in the boundary part RG1B by the following equation (3).

境界部RG1Bに存在するオブジェクトOB5の濃度値D5=Wc×AC2+Wm×AM2+Wy×AY2+Wk×AK2 ・・・(3)   The density value D5 of the object OB5 existing in the boundary portion RG1B = Wc × AC2 + Wm × AM2 + Wy × AY2 + Wk × AK2 (3)

つまり、濃度算出部55は、境界部RG1Bに存在するオブジェクトOB5を構成する各基本色の階調値(AC2,AM2,AY2,AK2)と、各基本色に対して決められた濃度算出係数(Wc,Wm,Wy,Wk)とを乗算し、乗算値を全て加算した結果を、境界部RG1Bに存在するオブジェクトOBの濃度値D5として算出する。   In other words, the density calculation unit 55 determines the gradation value (AC2, AM2, AY2, AK2) of each basic color constituting the object OB5 existing in the boundary part RG1B and the density calculation coefficient ( Wc, Wm, Wy, Wk), and the result of adding all the multiplied values is calculated as the density value D5 of the object OB present in the boundary portion RG1B.

なお、濃度算出部55は、境界部に存在する2つのオブジェクトのうち一方のオブジェクトを構成する各基本色の階調値に基づいて、一方のオブジェクトの濃度値を算出し、他方のオブジェクトを構成する各基本色の階調値に基づいて、他方のオブジェクトの濃度値を算出すればよく、濃度値の算出方法は任意である。   The density calculation unit 55 calculates the density value of one object based on the gradation value of each basic color that constitutes one of the two objects existing at the boundary, and configures the other object. The density value of the other object may be calculated based on the gradation value of each basic color, and the density value calculation method is arbitrary.

図9は、図2に示すステップS7の濃度算出処理のサブルーチンである。   FIG. 9 is a subroutine of the density calculation process in step S7 shown in FIG.

図9を参照して、濃度算出処理において、CPU11は、境界部に存在するオブジェクトを構成するシアンの階調値を読み込み(S301)、シアンの濃度算出係数Wcとシアンの階調値とを乗算することにより、シアンの濃度値CDを算出する(S303)。次にCPU11は、境界部に存在するオブジェクトを構成するマゼンタの階調値を読み込み(S305)、マゼンタの濃度算出係数Wmとマゼンタの階調値とを乗算することにより、マゼンタの濃度値MDを算出する(S307)。続いてCPU11は、境界部に存在するオブジェクトを構成するイエローの階調値を読み込み(S309)、イエローの濃度算出係数Wyとイエローの階調値とを乗算することにより、イエローの濃度値YDを算出する(S311)。次にCPU11は、境界部に存在するオブジェクトを構成するブラックの階調値を読み込み(S313)、ブラックの濃度算出係数Wkとブラックの階調値とを乗算することにより、ブラックの濃度値KDを算出する(S315)。続いてCPU11は、算出した全ての基本色の濃度値CD、MD、YD、およびKDを加算することにより、境界部に存在するオブジェクトの濃度値を算出する(S317)。次にCPU11は、全ての境界部のオブジェクトの濃度値を算出したか否かを判別する(S319)。   Referring to FIG. 9, in the density calculation process, CPU 11 reads the cyan gradation value constituting the object existing at the boundary (S301), and multiplies the cyan density calculation coefficient Wc by the cyan gradation value. Thus, the cyan density value CD is calculated (S303). Next, the CPU 11 reads the magenta gradation value constituting the object existing at the boundary (S305), and multiplies the magenta density calculation coefficient Wm by the magenta gradation value to obtain the magenta density value MD. Calculate (S307). Subsequently, the CPU 11 reads the yellow gradation value constituting the object existing at the boundary (S309), and multiplies the yellow density calculation coefficient Wy by the yellow gradation value to obtain the yellow density value YD. Calculate (S311). Next, the CPU 11 reads the black gradation value constituting the object existing at the boundary (S313), and multiplies the black density calculation coefficient Wk by the black gradation value to obtain the black density value KD. Calculate (S315). Subsequently, the CPU 11 adds the calculated density values CD, MD, YD, and KD of all the basic colors to calculate the density value of the object existing at the boundary (S317). Next, the CPU 11 determines whether or not the density values of all the boundary objects have been calculated (S319).

ステップS319において、全ての境界部のオブジェクトの濃度値を算出したと判別した場合(S319でYES)、CPU11はリターンする。一方、ステップS319において、全ての境界部のオブジェクトの濃度値を算出していないと判別した場合(S319でNO)、CPU11は、ステップS301の処理に進み、他のオブジェクトを構成するシアンの階調値を読み込む。   If it is determined in step S319 that the density values of all the boundary objects have been calculated (YES in S319), the CPU 11 returns. On the other hand, if it is determined in step S319 that the density values of all the boundary objects have not been calculated (NO in S319), the CPU 11 proceeds to the process of step S301, and performs the cyan gradations constituting other objects. Read the value.

[補正対象判別処理]   [Correction target discrimination process]

次に、補正対象判別処理(補正取消処理)について説明する。   Next, the correction target determination process (correction cancellation process) will be described.

補正対象判別処理において、補正対象判別部57は、境界部に存在する2つのオブジェクトの各々の濃度値に基づいて、その境界部を補正対象とするか否かを判別する。   In the correction target determination process, the correction target determination unit 57 determines whether or not the boundary portion is to be corrected based on the density values of the two objects existing at the boundary portion.

補正対象判別部57が補正対象とすると判別した境界部は、トラッピング部65によるトラッピング処理の対象となる。一方、補正対象判別部57が補正対象としないと判別した境界部は、トラッピング部65によるトラッピング処理の対象とはならない。   The boundary portion determined as the correction target by the correction target determination unit 57 is the target of the trapping process by the trapping unit 65. On the other hand, the boundary portion that the correction target determination unit 57 determines not to be a correction target is not a target of the trapping process by the trapping unit 65.

図10は、オブジェクトの濃度値の組合せと、白抜けの発生の程度との関係を示す表である。   FIG. 10 is a table showing the relationship between combinations of density values of objects and the degree of occurrence of white spots.

図10を参照して、画像1は、濃いブルーの背景のオブジェクトとブラックの文字のオブジェクトとよりなっており、背景および文字の両方のオブジェクトが高濃度である。画像1の場合、白抜けが発生するとその白抜けは目立つものとなる。   Referring to FIG. 10, image 1 includes a dark blue background object and a black character object, and both the background and character objects have a high density. In the case of the image 1, when white spots occur, the white spots become conspicuous.

画像2は、ブラックの背景のオブジェクトとイエローの文字のオブジェクトとよりなっており、背景のオブジェクトが高濃度であり、文字のオブジェクトが低濃度である。画像2の場合、白抜けが発生してもその白抜けは目立ちにくいものとなる。   The image 2 includes a black background object and a yellow character object. The background object has a high density and the character object has a low density. In the case of the image 2, even if white spots occur, the white spots are hardly noticeable.

画像3は、イエローの背景のオブジェクトとブラックの文字のオブジェクトとよりなっており、背景のオブジェクトが低濃度であり、文字のオブジェクトが高濃度である。画像3の場合、白抜けが発生してもその白抜けは目立ちにくいものとなる。   The image 3 includes a yellow background object and a black character object. The background object has a low density and the character object has a high density. In the case of the image 3, even if white spots occur, the white spots are hardly noticeable.

画像4は、薄いブルーの背景のオブジェクトとイエローの文字のオブジェクトとよりなっており、背景および文字の両方のオブジェクトが低濃度である。画像4の場合、白抜けが発生してもその白抜けは目立ちにくいものとなる。   The image 4 includes a light blue background object and a yellow character object, and both the background and character objects have a low density. In the case of the image 4, even if white spots occur, the white spots are hardly noticeable.

図10に示す関係を考慮して、補正対象判別部57は、境界部に存在する2つのオブジェクトの濃度値のうち少なくともいずれか一方が濃度閾値(第1の閾値の一例)以下である場合には、その境界部に印字ズレが発生しても白抜けは目立たないと判断する。この場合、境界部を補正対象としないと判別し、その境界部を補正対象から除外する。   In consideration of the relationship illustrated in FIG. 10, the correction target determination unit 57 determines that at least one of the density values of two objects existing at the boundary is equal to or less than a density threshold value (an example of a first threshold value). Determines that white spots are not noticeable even when printing misalignment occurs at the boundary. In this case, it is determined that the boundary is not a correction target, and the boundary is excluded from the correction target.

ここでは、濃度閾値が1000であるものとする。濃度閾値としては任意の値を設定することができ、たとえば次の方法で設定されてもよい。始めに、サンプル色のチャートから選択された任意の色を持つ2つのオブジェクトを含む複数の画像を、敢えて印字ズレを生じさせた状態で印刷する。次に、印刷されたそれぞれの画像をユーザーが目視することにより、白抜けが目立つか否かを判断する。そして、白抜けが目立つ判断した画像におけるオブジェクトの濃度値と、白抜けが目立たないと判断した画像におけるオブジェクトの濃度値との境界値を濃度閾値として設定する。   Here, it is assumed that the density threshold is 1000. An arbitrary value can be set as the density threshold, and for example, it may be set by the following method. First, a plurality of images including two objects having an arbitrary color selected from the sample color chart are printed in a state in which print misalignment is generated. Next, the user visually checks each printed image to determine whether or not white spots are conspicuous. Then, a boundary value between the density value of the object in the image determined to be conspicuous and the density value of the object in the image determined not to be conspicuous is set as a density threshold value.

ここでは、補正対象判別処理の対象が入力画像IM1であるものとして説明する。   Here, description will be made assuming that the target of the correction target determination process is the input image IM1.

図11は、入力画像IM1から抽出された各境界部と、その境界部の補正対象判別部57による判別結果との関係を示す表である。   FIG. 11 is a table showing the relationship between each boundary extracted from the input image IM1 and the determination result of the correction target determination unit 57 at the boundary.

図11を参照して、境界部RG1Aに関して、オブジェクトOB1の濃度値は16830(>1000)であり、オブジェクトOB5の濃度値は8380(>1000)である。境界部RG1Aを構成する2つのオブジェクトの濃度値はいずれも濃度閾値より大きいので、補正対象判別部57は、境界部RG1Aが補正対象であると判別する。   Referring to FIG. 11, regarding the boundary portion RG1A, the density value of the object OB1 is 16830 (> 1000), and the density value of the object OB5 is 8380 (> 1000). Since the density values of the two objects constituting the boundary part RG1A are both greater than the density threshold value, the correction target determination unit 57 determines that the boundary part RG1A is the correction target.

境界部RG1BおよびRG1Dに関して、オブジェクトOB2およびOB4の濃度値は880(≦1000)である。境界部RG1BおよびRGIDでは、境界部に存在する少なくとも一方のオブジェクトの濃度値が濃度閾値以下であるので、補正対象判別部57は、境界部RG1BおよびRG1Dが補正対象でないと判別し、境界部RG1BおよびRG1Dを補正対象から除外する。   Regarding the boundaries RG1B and RG1D, the density values of the objects OB2 and OB4 are 880 (≦ 1000). In the boundary portions RG1B and RGID, since the density value of at least one object existing in the boundary portion is equal to or less than the density threshold value, the correction target determination unit 57 determines that the boundary portions RG1B and RG1D are not correction targets, and the boundary portion RG1B And RG1D are excluded from correction targets.

境界部RG1C、RG1D、およびRG1Eに関して、オブジェクトOB6の濃度値は240(≦1000)である。境界部RG1C、RG1D、およびRG1Eでは、境界部に存在する少なくとも一方のオブジェクトの濃度値が濃度閾値以下であるので、補正対象判別部57は、境界部RG1C、RG1D、およびRG1Eが補正対象でないと判別し、境界部RG1C、RG1D、およびRG1Eを補正対象から除外する。   Regarding the boundary portions RG1C, RG1D, and RG1E, the density value of the object OB6 is 240 (≦ 1000). In the boundary portions RG1C, RG1D, and RG1E, since the density value of at least one object existing in the boundary portion is equal to or lower than the density threshold value, the correction target determination unit 57 does not require the boundary portions RG1C, RG1D, and RG1E to be corrected. The boundary portions RG1C, RG1D, and RG1E are excluded from correction targets.

図12は、入力画像IM1における補正対象判別処理の前後での補正対象の変化を模式的に示す図である。(a)は補正対象判別処理前の補正対象を示しており、(b)は補正対象判別処理後の補正対象を示している。   FIG. 12 is a diagram schematically illustrating a change in the correction target before and after the correction target determination process in the input image IM1. (A) shows the correction target before the correction target discrimination process, and (b) shows the correction target after the correction target discrimination process.

図12(a)を参照して、補正対象判別処理前には、境界部探索部51によって抽出された境界部RG1A、RG1B、RG1C、RG1D、およびRG1Eが補正対象(仮の補正対象)となる。一方、図12(b)を参照して、補正対象判別処理後には、補正対象判別部57によって境界部RG1B、RG1C、RG1D、およびRG1Eが補正対象から除外され、その結果、境界部RG1Aのみが補正対象となる。   Referring to FIG. 12A, before the correction target determination process, the boundary portions RG1A, RG1B, RG1C, RG1D, and RG1E extracted by the boundary search unit 51 are correction targets (temporary correction targets). . On the other hand, referring to FIG. 12B, after correction target determination processing, boundary portions RG1B, RG1C, RG1D, and RG1E are excluded from correction targets by correction target determination portion 57. As a result, only boundary portion RG1A is excluded. It becomes a correction target.

図13は、図2に示すステップS9の補正対象判別処理のサブルーチンである。   FIG. 13 is a subroutine for the correction target determination process in step S9 shown in FIG.

図13を参照して、補正対象判別処理において、CPU11は、境界部に存在する2つのオブジェクトの各々の濃度値を読み込み(S401)、2つのオブジェクトの濃度値がいずれも濃度閾値以上であるか否かを判別する(S403)。   Referring to FIG. 13, in the correction target determination process, CPU 11 reads the density values of each of the two objects existing at the boundary (S401), and whether the density values of the two objects are both greater than or equal to the density threshold value. It is determined whether or not (S403).

ステップS403において、2つのオブジェクトの濃度値がいずれも濃度閾値以上であると判別した場合(S403でYES)、CPU11は、境界部を補正対象から除外すること無く、ステップS405へ進む。一方、ステップS403において、2つのオブジェクトの濃度値のうち少なくともいずれか一方が濃度閾値未満であると判別した場合(S403でNO)、CPU11は、その境界部を補正対象から除外し(S407)、ステップS405へ進む。   If it is determined in step S403 that the density values of the two objects are both greater than or equal to the density threshold (YES in S403), the CPU 11 proceeds to step S405 without excluding the boundary from the correction target. On the other hand, when it is determined in step S403 that at least one of the density values of the two objects is less than the density threshold (NO in S403), the CPU 11 excludes the boundary from the correction target (S407). Proceed to step S405.

ステップS405において、CPU11は、全ての境界部についてステップS403の判別処理を行ったか否かを判別する(S405)。ステップS405において、全ての境界部についてステップS403の判別処理を行ったと判別した場合(S405でYES)、CPU11はリターンする。一方、ステップS405において、全ての境界部についてステップS403の判別処理を行っていないと判別した場合(S405でNO)、CPU11は、ステップS401の処理に進み、他の境界部に存在する2つのオブジェクトの各々の濃度値を読み込む。   In step S405, the CPU 11 determines whether or not the determination processing in step S403 has been performed for all boundary portions (S405). If it is determined in step S405 that the determination process of step S403 has been performed for all the boundary portions (YES in S405), the CPU 11 returns. On the other hand, if it is determined in step S405 that the determination process of step S403 has not been performed for all the boundary parts (NO in S405), the CPU 11 proceeds to the process of step S401, and two objects existing in other boundary parts Read each density value.

[拡張色決定処理]   [Extended color determination processing]

次に、拡張色決定処理(拡張方向判定処理)について説明する。   Next, extended color determination processing (extended direction determination processing) will be described.

拡張色決定処理において、拡張色決定部59は、補正対象である境界部に存在する2つのオブジェクトの濃度値に基づいて、境界部に存在する2つのオブジェクトのうち一方のオブジェクトの色を拡張色として決定し、他方のオブジェクトの色を被拡張色として決定する。拡張色を構成する少なくとも1つの基本色は、後述するトラッピング処理において、被拡張色の領域の方へ拡張される。   In the extended color determination process, the extended color determination unit 59 expands the color of one of the two objects existing in the boundary portion based on the density value of the two objects existing in the boundary portion to be corrected. And the color of the other object is determined as the extended color. At least one basic color constituting the extended color is extended toward the extended color area in the trapping process described later.

具体的には、拡張色決定部59は、境界部に存在する2つのオブジェクトの濃度値のうち相対的に低い濃度値を持つオブジェクトの色を拡張色として決定し、相対的に高い方の濃度値を持つオブジェクトの色を被拡張色として決定する。   Specifically, the extended color determination unit 59 determines the color of an object having a relatively low density value among the density values of two objects existing at the boundary as an extended color, and the relatively higher density The color of the object having a value is determined as the extended color.

ここでは、拡張色決定処理の対象が入力画像IM1の境界部RG1Aであるものとして説明する。   Here, it is assumed that the target of the extended color determination process is the boundary portion RG1A of the input image IM1.

図11を参照して、拡張色決定部59は、入力画像IM1の境界部RG1Aに存在するオブジェクトOB1の濃度値(16830)と、オブジェクトOB5の濃度値(8380)とを比較する。その結果、相対的に低い濃度値を持つオブジェクトOB5の色を拡張色として決定し、相対的に高い濃度を持つオブジェクトOB1の色を被拡張色として決定する。   Referring to FIG. 11, extended color determination unit 59 compares the density value (16830) of object OB1 present at boundary portion RG1A of input image IM1 with the density value (8380) of object OB5. As a result, the color of the object OB5 having a relatively low density value is determined as the extended color, and the color of the object OB1 having a relatively high density is determined as the extended color.

なお、拡張色および被拡張色の決定方法は任意であり、濃度値の高低以外の基準(たとえば明度など)に基づくものであってもよい。   Note that the method for determining the extended color and the extended color is arbitrary, and may be based on a standard other than the density value (for example, brightness).

図14は、図2に示すステップS11の拡張色決定処理のサブルーチンである。   FIG. 14 is a subroutine of extended color determination processing in step S11 shown in FIG.

図14を参照して、拡張色決定処理において、CPU11は、補正対象の境界部に存在する2つのオブジェクトの各々の濃度値を読み込み(S501)、一方のオブジェクトの濃度値が他方のオブジェクトの濃度値よりも大きいか否かを判別する(S503)。   Referring to FIG. 14, in the extended color determination process, CPU 11 reads the density values of two objects existing at the boundary to be corrected (S501), and the density value of one object is the density of the other object. It is determined whether or not the value is larger than the value (S503).

ステップS503において、一方のオブジェクトの濃度値が他方のオブジェクトの濃度値よりも大きいと判別した場合(S503でYES)、CPU11は、一方のオブジェクトの色を被拡張色として決定し、他方のオブジェクトの色を拡張色として決定し(S505)、ステップS509の処理へ進む。   If it is determined in step S503 that the density value of one object is greater than the density value of the other object (YES in S503), the CPU 11 determines the color of one object as an extended color and determines the color of the other object. The color is determined as an extended color (S505), and the process proceeds to step S509.

ステップS503において、一方のオブジェクトの濃度値が他方のオブジェクトの濃度値以下であると判別した場合(S503でNO)、CPU11は、一方のオブジェクトの色を拡張色として決定し、他方のオブジェクトの色を被拡張色として決定し(S507)、ステップS509の処理へ進む。   If it is determined in step S503 that the density value of one object is less than or equal to the density value of the other object (NO in S503), the CPU 11 determines the color of one object as an extended color and the color of the other object Is determined as an extended color (S507), and the process proceeds to step S509.

ステップS509において、CPU11は、全ての補正対象の境界部で拡張色および被拡張色を決定したか否かを判別する(S509)。   In step S509, the CPU 11 determines whether or not the extended color and the extended color have been determined at all the correction target boundary portions (S509).

ステップS509において、全ての補正対象の境界部で拡張色および被拡張色を決定したと判別した場合(S509でYES)、CPU11は処理を終了する。一方、ステップS509において、全ての補正対象の境界部で拡張色および被拡張色を決定していないと判別した場合(S509でNO)、CPU11はステップS501に処理へ進み、他の補正対象の境界部に存在する2つのオブジェクトの各々の濃度値を読み込む。   If it is determined in step S509 that the extended color and the extended color have been determined at all the correction target boundaries (YES in S509), the CPU 11 ends the process. On the other hand, if it is determined in step S509 that the extended color and the extended color have not been determined in all the boundary portions to be corrected (NO in S509), the CPU 11 proceeds to the processing in step S501, and the boundary of another correction target is determined. The density value of each of the two objects existing in the part is read.

[拡張領域決定処理]   [Extended area determination processing]

次に、拡張領域決定処理について説明する。   Next, the extended area determination process will be described.

拡張領域決定処理において、拡張領域決定部61は、補正対象である境界部に拡張領域を決定する。拡張領域は、境界部に存在する2つのオブジェクトが互いに隣接する隣接位置から被拡張色へ向かう方向に設けられた領域であって、拡張色を構成する少なくとも1つの基本色と被拡張色とがオーバーラップする領域である。   In the extended area determination process, the extended area determination unit 61 determines an extended area at the boundary part to be corrected. The extended area is an area in which two objects existing in the boundary portion are provided in the direction from the adjacent positions adjacent to each other toward the extended color, and at least one basic color and the extended color constituting the extended color are included. It is an overlapping area.

ここでは、拡張領域決定処理の対象が入力画像IM1の境界部RG1Aであるものとして説明する。   Here, description will be made assuming that the target of the extended region determination process is the boundary portion RG1A of the input image IM1.

図15は、拡張領域決定処理を説明する図である。なお図15では、説明の便宜のため、オブジェクトOB1およびOB5の色を示すハッチングが省略されている。   FIG. 15 is a diagram illustrating the extended area determination process. In FIG. 15, for convenience of explanation, hatching indicating the colors of the objects OB1 and OB5 is omitted.

図15(a)を参照して、境界部RG1AではオブジェクトOB1の色が被拡張色であり、オブジェクトOB5の色が拡張色である。この場合、拡張領域決定部61は、図15(b)に示すように、オブジェクトOB1とオブジェクトOB5との隣接位置BPから被拡張色へ向かう方向(オブジェクトOB1へ向かう方向)の、たとえば3ドット以内の領域を拡張領域RG3に決定する。   Referring to FIG. 15A, in the boundary portion RG1A, the color of the object OB1 is an extended color, and the color of the object OB5 is an extended color. In this case, as shown in FIG. 15B, the extension area determination unit 61, for example, within 3 dots in the direction from the adjacent position BP between the objects OB1 and OB5 toward the extended color (direction toward the object OB1). Is determined as the extension region RG3.

拡張領域RG3の幅(隣接位置BPから拡張領域RG3の境界までの距離)は、任意の値に設定することができる。拡張領域RG3の幅を大きくする程、トラッピング処理における補正幅(対応可能な印字ズレ量)が大きくなる。ここでは、拡張領域の幅は3ドットである。   The width of the extension region RG3 (the distance from the adjacent position BP to the boundary of the extension region RG3) can be set to an arbitrary value. As the width of the extended region RG3 is increased, the correction width (corresponding print displacement amount) in the trapping process is increased. Here, the width of the extension area is 3 dots.

図16は、図2に示すステップS13の拡張領域決定処理のサブルーチンである。   FIG. 16 is a subroutine of the extended area determination process in step S13 shown in FIG.

図16を参照して、拡張領域決定処理において、CPU11は、拡張色および被拡張色を読み込み(S601)、拡張領域の幅を読み込む(S603)。続いてCPU11は、拡張領域の幅に基づいて、隣接位置から被拡張色へ向かう方向に拡張領域を決定する(S605)。次にCPU11は、全ての補正対象の境界部で拡張領域を決定したか否かを判別する(S607)。   Referring to FIG. 16, in the extended area determination process, CPU 11 reads the extended color and the extended color (S601), and reads the width of the extended area (S603). Subsequently, the CPU 11 determines an extension area in a direction from the adjacent position toward the extended color based on the width of the extension area (S605). Next, the CPU 11 determines whether or not an extension region has been determined at all the correction target boundary portions (S607).

ステップS607において、全ての補正対象の境界部で拡張領域を決定したと判別した場合(S607でYES)、CPU11は処理を終了する。一方、ステップS607において、全ての補正対象の境界部で拡張領域を決定していないと判別した場合(S607でNO)、CPU11はステップS601に処理へ進み、他の補正対象の境界部の拡張色および被拡張色を読み込む。   If it is determined in step S607 that the extended region has been determined at all the correction target boundaries (YES in S607), the CPU 11 ends the process. On the other hand, if it is determined in step S607 that the extension region has not been determined for all the correction target boundary portions (NO in S607), the CPU 11 proceeds to the processing in step S601, and the extended color of the other correction target boundary portions. And read the extended color.

[補正方法選択処理]   [Correction method selection process]

次に、補正方法選択処理について説明する。   Next, the correction method selection process will be described.

補正方法選択処理において、補正方法選択部63は、補正対象である境界部の補正方法として、境界部に存在する2つのオブジェクトの階調値に基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択する。補正方法選択部63は、シアン、マゼンタ、イエロー、およびブラックの各基本色について、一定階調補正および階段状補正のうちいずれかの方法を選択する。   In the correction method selection process, the correction method selection unit 63 performs a constant gradation correction and a step-like correction based on the gradation values of two objects existing at the boundary as a correction method for the boundary part to be corrected. Choose one of the methods. The correction method selection unit 63 selects one of a constant gradation correction and a stepped correction for each of the basic colors of cyan, magenta, yellow, and black.

図17は、補正方法選択処理を説明する図である。(a)は、補正方法選択処理の対象となる境界部の断面図であり、(b)は、(a)に示す境界部に存在する2つのオブジェクトの階調値および補正方法の選択結果を示す表である。   FIG. 17 is a diagram for explaining correction method selection processing. (A) is sectional drawing of the boundary part used as the correction | amendment method selection process object, (b) shows the gradation value of two objects which exist in the boundary part shown to (a), and the selection result of the correction method. It is a table | surface shown.

図17(a)を参照して、補正対象である境界部は、文字のオブジェクトと背景のオブジェクトとで構成されている。図17(b)を参照して、境界部に存在する文字のオブジェクトは、階調値(C,M,Y,K)=(120,120,100,0)を有している。境界部に存在する背景のオブジェクトは、階調値(C,M,Y,K)=(20,140,160,0)を有している。背景のオブジェクトの色が拡張色に決定され、背景のオブジェクトの色が被拡張色に決定されている。   Referring to FIG. 17A, the boundary to be corrected is composed of a character object and a background object. Referring to FIG. 17B, the character object existing at the boundary has a gradation value (C, M, Y, K) = (120, 120, 100, 0). The background object existing at the boundary portion has gradation values (C, M, Y, K) = (20, 140, 160, 0). The color of the background object is determined as the extended color, and the color of the background object is determined as the extended color.

補正方法選択部63は、シアン、マゼンタ、イエロー、およびブラックの各基本色について、境界部に存在する2つのオブジェクトの階調値のうち小さい方の階調値を抽出する。そして補正方法選択部63は、抽出した階調値が選択閾値(第3の閾値の一例)以下である場合には一定階調補正を選択し、抽出した階調値が選択閾値を超える場合には階段状補正を選択する。選択閾値は任意の値に設定することができるが、ここでは選択閾値が100であるものとする。   The correction method selection unit 63 extracts, for each of the basic colors of cyan, magenta, yellow, and black, the smaller one of the gradation values of the two objects existing at the boundary. Then, the correction method selection unit 63 selects fixed gradation correction when the extracted gradation value is equal to or less than the selection threshold (an example of the third threshold), and when the extracted gradation value exceeds the selection threshold. Selects staircase correction. Although the selection threshold can be set to an arbitrary value, it is assumed here that the selection threshold is 100.

図17(a)に示す境界部が補正対象である場合、補正方法選択部63は、2つのオブジェクトの階調値から、シアン、マゼンタ、イエロー、およびブラックの各基本色について(C,M,Y,K)=(20,120,100,0)という階調値を抽出する。そして、抽出した階調値と選択式位置とを比較することによって、シアンおよびマゼンタの補正方法として一定階調補正を選択し、イエローおよびブラックの補正方法として階段状補正を選択する。   When the boundary shown in FIG. 17A is a correction target, the correction method selection unit 63 determines (C, M, and C) for the basic colors of cyan, magenta, yellow, and black from the tone values of the two objects. A gradation value of Y, K) = (20, 120, 100, 0) is extracted. Then, by comparing the extracted gradation value with the selection position, the constant gradation correction is selected as the cyan and magenta correction method, and the stepped correction is selected as the yellow and black correction method.

図18は、図2に示すステップS15の補正方法選択処理のサブルーチンである。   FIG. 18 is a subroutine of the correction method selection process in step S15 shown in FIG.

図18を参照して、補正方法選択処理において、CPU11は、境界部に存在する2つのオブジェクトを構成する各基本色の階調値のうち、小さい方の階調値を抽出する(S701)。次にCPU11は、抽出した階調値が選択閾値よりも大きいか否かを判別する
(S703)。
Referring to FIG. 18, in the correction method selection process, CPU 11 extracts the smaller gradation value of the gradation values of the basic colors constituting the two objects existing at the boundary (S701). Next, the CPU 11 determines whether or not the extracted gradation value is larger than a selection threshold (S703).

ステップS703において、選択閾値よりも大きいと判別した場合(S703でYES)、CPU11は、その基本色の補正方法として階段状補正を選択し(S705)、ステップS709の処理へ進む。   If it is determined in step S703 that it is larger than the selection threshold value (YES in S703), the CPU 11 selects stepped correction as the basic color correction method (S705), and proceeds to the process in step S709.

ステップS703において、選択閾値以下であると判別した場合(S703でNO)、CPU11は、その基本色の補正方法として一定階調補正を選択し(S707)、ステップS709の処理へ進む。   If it is determined in step S703 that it is equal to or smaller than the selection threshold (NO in S703), the CPU 11 selects constant gradation correction as the basic color correction method (S707), and proceeds to the process of step S709.

ステップS709において、CPU11は、全ての補正対象の境界部で補正方法を決定したか否かを判別する(S709)。   In step S709, the CPU 11 determines whether or not the correction method has been determined for all the correction target boundaries (S709).

ステップS709において、全ての補正対象の境界部で補正方法を決定したと判別した場合(S709でYES)、CPU11は処理を終了する。一方、ステップS709において、全ての補正対象の境界部で補正方法を決定していないと判別した場合(S709でNO)、CPU11はステップS701に処理へ進み、他の補正対象の境界部に存在する2つのオブジェクトの各基本色の階調値のうち、小さい方の階調値を抽出する。   If it is determined in step S709 that the correction method has been determined for all the correction target boundaries (YES in step S709), the CPU 11 ends the process. On the other hand, if it is determined in step S709 that the correction method has not been determined for all the correction target boundary portions (NO in S709), the CPU 11 proceeds to the processing in step S701 and exists in another correction target boundary portion. Of the gradation values of the basic colors of the two objects, the smaller gradation value is extracted.

[トラッピング処理]   [Trapping process]

次に、トラッピング処理について説明する。   Next, the trapping process will be described.

トラッピング処理において、トラッピング部65は、補正対象である境界部の拡張領域に対して、補正方法選択部63で選択した補正方法で、拡張色を構成する基本色の中の特定の基本色の階調値を拡張領域に加える。   In the trapping process, the trapping unit 65 uses the correction method selected by the correction method selection unit 63 with respect to the extended region of the boundary part to be corrected, and determines the level of a specific basic color among the basic colors constituting the extended color. Add a key value to the extended area.

(1) 拡張領域に加える基本色の決定方法     (1) How to determine the basic color to be added to the extended area

トラッピング部65は、拡張色を構成する各基本色の階調値と、被拡張色を構成する各基本色の階調値とを比較する。そしてトラッピング部65は、拡張色を構成する基本色の中で、被拡張色を構成する各基本色の階調値よりも大きい階調値を有する基本色のみを、拡張領域に加える基本色(トラッピング処理を行う基本色)とする。言い換えれば、トラッピング部65は、拡張色を構成する基本色の中で、被拡張色を構成する各基本色の階調値以下の階調値を有する基本色を、拡張領域に加える基本色から除外する。   The trapping unit 65 compares the gradation value of each basic color constituting the extended color with the gradation value of each basic color constituting the extended color. The trapping unit 65 adds only a basic color having a gradation value larger than the gradation value of each basic color constituting the extended color among basic colors constituting the extended color to the extended region ( Basic color for trapping processing). In other words, the trapping unit 65 adds the basic color having a gradation value equal to or lower than the gradation value of each basic color constituting the extended color from the basic colors constituting the extended color from the basic colors constituting the extended color. exclude.

ここでは、図17(a)に示す境界部がトラッピング処理の対象であるものとして説明する。   Here, the description will be made assuming that the boundary shown in FIG. 17A is the target of the trapping process.

図17(a)および(b)を参照して、この境界部では、文字のオブジェクトの色が拡張色となっており、背景のオブジェクトの色が被拡張色となっている。拡張色を構成する各基本色の階調値(C,M,Y,K)=(120,120,100,0)と、被拡張色を構成する各基本色の階調値(C,M,Y,K)=(20,140,160,0)とを比較すると、拡張色を構成する基本色の中で、被拡張色を構成する各基本色の階調値よりも大きい階調値を有するのは、シアンのみである。したがって、トラッピング部65は、シアンのみを、拡張領域に加える基本色(トラッピング処理を行う基本色)とし、マゼンタ、イエロー、およびブラックを、拡張領域に加える基本色から除外する。   Referring to FIGS. 17A and 17B, in this boundary portion, the color of the character object is the extended color, and the color of the background object is the extended color. The gradation values (C, M, Y, K) = (120, 120, 100, 0) of the basic colors constituting the extended color and the gradation values (C, M) of the basic colors constituting the extended color , Y, K) = (20, 140, 160, 0), among the basic colors constituting the extended color, the gradation value larger than the gradation value of each basic color constituting the extended color Only cyan has. Accordingly, the trapping unit 65 uses only cyan as a basic color to be added to the extended area (basic color for performing the trapping process), and excludes magenta, yellow, and black from the basic colors to be added to the extended area.

(2) 一定階調補正   (2) Constant gradation correction

補正方法として一定階調補正が選択されている場合、トラッピング部65は次の方法で、拡張色を構成する基本色の階調値を拡張領域に加える。   When the constant gradation correction is selected as the correction method, the trapping unit 65 adds the gradation value of the basic color constituting the extended color to the extended area by the following method.

ここでは、図17(a)に示す境界部が一定階調補正の対象であるものとして説明する。   Here, description will be made assuming that the boundary portion shown in FIG. 17A is a target of constant gradation correction.

図19は、一定階調補正を説明する図である。(a)は、一定階調補正を行う前の境界部の断面図であり、(b)は、一定階調補正を行った後の境界部の断面図である。   FIG. 19 is a diagram for explaining constant gradation correction. (A) is a cross-sectional view of the boundary portion before the constant gradation correction is performed, and (b) is a cross-sectional view of the boundary portion after the constant gradation correction is performed.

図19を参照して、一定階調補正は、隣接位置からの距離によらず一定の階調値を拡張領域RG3全体の階調値に加える補正方法である。一定階調補正は、階段状補正に比べて、印字ズレが生じた場合の画質の劣化を抑制する効果が大きい。拡張領域RG3全体に加える階調値は、たとえば拡張色の階調値から被拡張色の階調値を減算した値に相当する階調値であることが好ましい。   Referring to FIG. 19, the constant gradation correction is a correction method in which a constant gradation value is added to the gradation value of the entire extension region RG3 regardless of the distance from the adjacent position. The constant gradation correction has a greater effect of suppressing the deterioration of the image quality when the printing deviation occurs compared to the stepped correction. The gradation value added to the entire extended region RG3 is preferably a gradation value corresponding to a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color, for example.

具体的には、拡張領域RG3に存在する各画素の階調値は以下の式(4)〜(6)により算出される。   Specifically, the gradation value of each pixel existing in the extension region RG3 is calculated by the following equations (4) to (6).

隣接位置BPから1ドットの以内の画素の階調値={(拡張色の階調値)−(被拡張色の階調値)}×CF1+(被拡張色の階調値) ・・・(4)   Tone value of pixels within 1 dot from adjacent position BP = {(tone value of extended color) − (tone value of extended color)} × CF1 + (tone value of extended color) (. 4)

隣接位置BPから2ドットの以内の画素の階調値={(拡張色の階調値)−(被拡張色の階調値)}×CF1+(被拡張色の階調値) ・・・(5)   Tone value of pixel within 2 dots from adjacent position BP = {(tone value of extended color) − (tone value of extended color)} × CF1 + (tone value of extended color) (. 5)

隣接位置BPから3ドットの以内の画素の階調値={(拡張色の階調値)−(被拡張色の階調値)}×CF1+(被拡張色の階調値) ・・・(6)   Tone value of pixels within 3 dots from adjacent position BP = {(tone value of extended color) − (tone value of extended color)} × CF1 + (tone value of extended color) (. 6)

演算係数CF1は、一定階調補正の場合の演算係数であり、0<CF1≦1の範囲の任意の値に設定される。演算係数CF1は好ましくは1(100%)である。   The calculation coefficient CF1 is a calculation coefficient in the case of constant gradation correction, and is set to an arbitrary value in the range of 0 <CF1 ≦ 1. The calculation coefficient CF1 is preferably 1 (100%).

一定階調補正の結果、図19(b)に示すように、拡張領域RG3におけるシアンの階調値は、文字のオブジェクトにおけるシアンの階調値と同一値になる。   As a result of the constant gradation correction, as shown in FIG. 19B, the cyan gradation value in the extended region RG3 becomes the same value as the cyan gradation value in the character object.

演算係数CF1は、基本色によらず一定値であってもよいし、各基本色で異なる値であってもよい。   The calculation coefficient CF1 may be a constant value regardless of the basic color, or may be a different value for each basic color.

(3) 階段状補正   (3) Staircase correction

補正方法として階段状補正が選択されている場合、トラッピング部65は次の方法で、拡張色を構成する基本色の階調値を拡張領域の階調値に加える。   When the staircase correction is selected as the correction method, the trapping unit 65 adds the gradation value of the basic color constituting the extended color to the gradation value of the extended area by the following method.

ここでは、図17(a)に示す境界部が一定階調補正の対象であるものとして説明する。   Here, description will be made assuming that the boundary portion shown in FIG. 17A is a target of constant gradation correction.

図20は、階段状補正を説明する図である。(a)は、階段状補正を行う前の境界部の断面図であり、(b)は、階段状補正を行った後の境界部の断面図である。   FIG. 20 is a diagram for explaining the staircase correction. (A) is sectional drawing of the boundary part before performing staircase shape correction | amendment, (b) is sectional drawing of the boundary part after performing staircase shape correction | amendment.

図20を参照して、階段状補正は、隣接位置BPからの距離(エッジからの距離)に応じて階段状に小さくなるような階調値を拡張領域RG3に加える補正方法である。階段状補正は、一定階調補正に比べて、印字ズレが生じない場合の画質の劣化を抑制する効果が大きい。階段状補正は、その基本色について、拡張色の階調値から被拡張色の階調値を減算した値と、隣接位置BPからの距離に応じて減少する演算係数CF2、CF3、およびCF4(第2の係数の一例)とを乗算した値に相当する階調値を、拡張領域RG3の階調値(被拡張色の階調値)に加えるものであることが好ましい。   Referring to FIG. 20, the staircase correction is a correction method in which a gradation value that decreases in a staircase shape according to the distance from the adjacent position BP (distance from the edge) is added to the extension region RG3. The staircase correction has a greater effect of suppressing deterioration in image quality when there is no print misalignment, compared to the constant gradation correction. In the staircase correction, for the basic color, a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color, and arithmetic coefficients CF2, CF3, and CF4 (decrease according to the distance from the adjacent position BP). It is preferable that a gradation value corresponding to a value obtained by multiplying an example of the second coefficient) is added to the gradation value of the extension region RG3 (the gradation value of the extended color).

具体的には、拡張領域RG3に存在する各画素の階調値は以下の式(7)〜(9)により算出される。   Specifically, the gradation value of each pixel existing in the extension region RG3 is calculated by the following equations (7) to (9).

隣接位置BPから1ドットの以内の画素の階調値={(拡張色の階調値)−(被拡張色の階調値)}×CF2+(被拡張色の階調値) ・・・(7)   Tone value of pixels within 1 dot from adjacent position BP = {(tone value of extended color) − (tone value of extended color)} × CF2 + (tone value of extended color) ( 7)

隣接位置BPから2ドットの以内の画素の階調値={(拡張色の階調値)−(被拡張色の階調値)}×CF3+(被拡張色の階調値) ・・・(8)   Tone value of pixel within 2 dots from adjacent position BP = {(tone value of extended color) − (tone value of extended color)} × CF3 + (tone value of extended color) 8)

隣接位置BPから3ドットの以内の画素の階調値={(拡張色の階調値)−(被拡張色の階調値)}×CF4+(被拡張色の階調値) ・・・(9)   Tone value of pixel within 3 dots from adjacent position BP = {(tone value of extended color) − (tone value of extended color)} × CF4 + (tone value of extended color) 9)

演算係数CF2、CF3、およびCF4の各々は、0<CF4<CF3<CF2≦1を満たす任意の値に設定される。演算係数CF2は好ましくは0.75(75%)であり、演算係数CF3は好ましくは0.5(50%)であり、演算係数CF4は好ましくは0.25(25%)である。   Each of the operation coefficients CF2, CF3, and CF4 is set to an arbitrary value that satisfies 0 <CF4 <CF3 <CF2 ≦ 1. The calculation coefficient CF2 is preferably 0.75 (75%), the calculation coefficient CF3 is preferably 0.5 (50%), and the calculation coefficient CF4 is preferably 0.25 (25%).

演算係数CF2、CF3、およびCF4の各々は、基本色によらず一定値であってもよいし、各基本色で異なる値であってもよい。   Each of the arithmetic coefficients CF2, CF3, and CF4 may be a constant value regardless of the basic color, or may be a value that is different for each basic color.

(4) ブラックを拡張領域に加える場合の補正方法   (4) Correction method for adding black to the extended area

ブラックを加えることにより拡張領域が必要以上に高濃度化するのを防ぐために、ブラックを拡張領域に加える場合の演算係数は、シアン、マゼンタ、またはイエローを拡張領域に加える場合の演算係数よりも小さいことが好ましい。   In order to prevent the expansion area from becoming darker than necessary by adding black, the calculation coefficient when adding black to the expansion area is smaller than the calculation coefficient when adding cyan, magenta, or yellow to the expansion area. It is preferable.

図21は、トラッピング処理前の境界部の断面図である。   FIG. 21 is a cross-sectional view of the boundary portion before the trapping process.

図21を参照して、ここでは、図21(a)に示す境界部と、図21(b)に示す境界部とを比較して説明する。図21(a)に示す境界部は、階調値(C,M,Y,K)=(100,0,0,0)を有する文字のオブジェクトと、階調値(C,M,Y,K)=(0,100,100,0)を有する背景のオブジェクトとにより構成されている。文字のオブジェクトの色(シアン)が拡張色であり、背景のオブジェクトの色(マゼンタおよびイエロー)が被拡張色である。図21(a)の場合には、シアンの階調値が拡張領域に加えられる。   Referring to FIG. 21, here, the boundary portion shown in FIG. 21A is compared with the boundary portion shown in FIG. The boundary shown in FIG. 21A includes character objects having gradation values (C, M, Y, K) = (100, 0, 0, 0) and gradation values (C, M, Y, K) = (0,100,100,0) and the background object. The color of the character object (cyan) is the extended color, and the color of the background object (magenta and yellow) is the extended color. In the case of FIG. 21A, a cyan gradation value is added to the extended region.

図21(b)に示す境界部は、階調値(C,M,Y,K)=(0,0,0,100)を有する文字のオブジェクトと、階調値(C,M,Y,K)=(100,100,0,0)を有する背景のオブジェクトにより構成されている。文字のオブジェクトの色(ブラック)が拡張色であり、背景のオブジェクトの色(シアンおよびマゼンタ)が被拡張色である。図21(b)の場合には、ブラックの階調値が拡張領域に加えられる。   The boundary shown in FIG. 21B includes character objects having gradation values (C, M, Y, K) = (0, 0, 0, 100) and gradation values (C, M, Y, K) = consists of background objects having (100,100,0,0). The character object color (black) is an extended color, and the background object colors (cyan and magenta) are extended colors. In the case of FIG. 21B, the black gradation value is added to the extended region.

以降、シアン、マゼンタ、またはイエローを拡張領域に加える場合の演算係数と、ブラックを拡張領域に加える場合の演算係数とを区別するために、ブラックを拡張領域に加える場合の演算係数を演算係数CF1K、CF2K、CF3K、およびCF4Kと示す。演算係数CF1、CF2、CF3、およびCF4の各々と、演算係数CF1K、CF2K、CF3K、およびCF4Kの各々との間には、それぞれCF1K<CF1、CF2K<CF2、CF3K<CF3、およびCF4K<CF4の関係が成り立つ。演算係数CF1K、CF2K、CF3K、およびCF4Kの各々は、演算係数CF1、CF2、CF3、およびCF4の各々の2分の1の値(具体的には、演算係数CF1Kが0.5(50%)、演算係数CF2Kが0.375(37.5%)、演算係数CF3Kが0.25(25%)、演算係数CF4Kが0.125(12.5%))であることが好ましい。   Thereafter, in order to distinguish between the calculation coefficient when adding cyan, magenta, or yellow to the expansion area and the calculation coefficient when adding black to the expansion area, the calculation coefficient when adding black to the expansion area is the calculation coefficient CF1K. , CF2K, CF3K, and CF4K. Between each of the operation coefficients CF1, CF2, CF3, and CF4 and each of the operation coefficients CF1K, CF2K, CF3K, and CF4K, CF1K <CF1, CF2K <CF2, CF3K <CF3, and CF4K <CF4, respectively. A relationship is established. Each of the operation coefficients CF1K, CF2K, CF3K, and CF4K is half the value of each of the operation coefficients CF1, CF2, CF3, and CF4 (specifically, the operation coefficient CF1K is 0.5 (50%)). The calculation coefficient CF2K is preferably 0.375 (37.5%), the calculation coefficient CF3K is 0.25 (25%), and the calculation coefficient CF4K is 0.125 (12.5%)).

図22は、図21に示す境界部に対して一定階調補正を行った後の断面図である。(a)は、図21(a)に示す境界部の一定階調補正後を示しており、(b)は、図21(b)に示す境界部の一定階調補正後を示している。   FIG. 22 is a cross-sectional view after the constant gradation correction is performed on the boundary portion shown in FIG. FIG. 21A shows a state after the constant gradation correction of the boundary portion shown in FIG. 21A, and FIG. 21B shows a state after the constant gradation correction of the boundary portion shown in FIG.

図22を参照して、図21(a)に示す境界部の場合、拡張領域RG3に存在するシアンの階調値は、一定階調補正により、シアンの演算係数CF1に基づいて式(4)〜(6)により算出された値に設定される。一方、図21(b)に示す境界部の場合、拡張領域RG3に存在するブラックの階調値は、一定階調補正により、ブラックの演算係数CF1Kに基づいて式(4)〜(6)により算出された値に設定される。結論として、拡張色の階調値と被拡張色の階調値との差が同一値である場合、拡張領域RG3に加えられるブラックの階調値は、拡張領域RG3に加えられるブラック以外の階調値よりも小さくなる。   Referring to FIG. 22, in the case of the boundary portion shown in FIG. 21 (a), the cyan gradation value existing in the extension region RG3 is expressed by the equation (4) based on the cyan calculation coefficient CF1 by constant gradation correction. To the value calculated by (6). On the other hand, in the case of the boundary portion shown in FIG. 21B, the black tone value existing in the extension region RG3 is calculated by the formulas (4) to (6) based on the black calculation coefficient CF1K by constant tone correction. Set to the calculated value. In conclusion, when the difference between the gradation value of the extended color and the gradation value of the extended color is the same value, the black gradation value added to the extended area RG3 is the level other than black added to the extended area RG3. It becomes smaller than the key value.

図23は、図21に示す境界部に対して階段状補正を行った後の断面図である。(a)は、図21(a)に示す境界部の階段状補正後を示しており、(b)は、図21(b)に示す境界部の階段状補正後を示している。   FIG. 23 is a cross-sectional view after the staircase correction is performed on the boundary portion shown in FIG. FIG. 21A shows the boundary portion after stepwise correction shown in FIG. 21A, and FIG. 21B shows the boundary portion after stepwise correction shown in FIG.

図23を参照して、図21(a)に示す境界部の場合、拡張領域RG3に存在するシアンの階調値は、階段状補正により、シアンの演算係数CF2、CF3、およびCF4に基づいて式(7)〜(9)により算出された値に設定される。一方、図21(b)に示す境界部の場合、拡張領域RG3に存在するブラックの階調値は、一定階調補正により、ブラックの演算係数CF2K、CF3K、およびCF4Kに基づいて式(7)〜(9)により算出された値に設定される。結論として、拡張色の階調値と被拡張色の階調値との差が同一値である場合、拡張領域RG3に加えられるブラックの階調値は、拡張領域RG3に加えられるブラック以外の階調値よりも小さくなる。   Referring to FIG. 23, in the case of the boundary portion shown in FIG. 21A, the cyan gradation value existing in the extension region RG3 is calculated based on the cyan calculation coefficients CF2, CF3, and CF4 by the staircase correction. It is set to the value calculated by the equations (7) to (9). On the other hand, in the case of the boundary portion shown in FIG. 21B, the black tone value existing in the extension region RG3 is calculated by the formula (7) based on the black calculation coefficients CF2K, CF3K, and CF4K by constant tone correction. To the value calculated by (9). In conclusion, when the difference between the gradation value of the extended color and the gradation value of the extended color is the same value, the black gradation value added to the extended area RG3 is the level other than black added to the extended area RG3. It becomes smaller than the key value.

なお、一定階調補正でブラックを拡張領域に加える場合の演算係数と、一定階調補正でシアン、マゼンタ、またはイエローを拡張領域に加える場合の演算係数とを同一値にし(つまり、CF1K=CF1とし)、階段状補正でブラックを拡張領域に加える場合の演算係数を、階段状補正でシアン、マゼンタ、またはイエローを拡張領域に加える場合の演算係数よりも小さくしてもよい(つまり、CF2K<CF2、CF3K<CF3、およびCF4K<CF4としてもよい)。   Note that the calculation coefficient when black is added to the extended area with constant gradation correction and the calculation coefficient when cyan, magenta, or yellow is added to the extended area with constant gradation correction are set to the same value (that is, CF1K = CF1). The calculation coefficient when black is added to the expansion area by the staircase correction may be smaller than the calculation coefficient when cyan, magenta, or yellow is added to the expansion area by the staircase correction (that is, CF2K < CF2, CF3K <CF3, and CF4K <CF4).

(5) 拡張領域がブラックを含む場合の拡張領域の付加的な補正方法   (5) Additional correction method for the extension area when the extension area includes black

ブラックを含む拡張領域にシアン、マゼンタ、またはイエローが加えられた場合、その領域は高濃度化による色変化が発生しやすくなる。ブラックを含む拡張領域の高濃度化による色変化を抑止するために、拡張領域に加えるブラック以外の基本色の階調値の量に応じて、拡張領域におけるブラックの階調値を減らすことが好ましい。   When cyan, magenta, or yellow is added to the extended area including black, the area is likely to undergo color change due to higher density. In order to suppress the color change due to the high density in the extended area including black, it is preferable to reduce the black gradation value in the extended area according to the amount of the gradation value of the basic color other than black added to the extended area. .

図24は、拡張領域がブラックを含む場合の拡張領域の付加的な補正方法を説明する図である。(a)は、トラッピング処理前の境界部の断面図であり、(b)は、(a)に示す境界部に対して階段状補正を行った後の断面図であり、(c)は、(a)に示す境界部に対して一定階調補正を行った後の断面図である。   FIG. 24 is a diagram for explaining an additional correction method for the extension region when the extension region includes black. (A) is a cross-sectional view of the boundary part before the trapping process, (b) is a cross-sectional view after performing the staircase correction on the boundary part shown in (a), (c), It is sectional drawing after performing a fixed gradation correction | amendment with respect to the boundary part shown to (a).

図24(a)を参照して、境界部は、階調値(C,M,Y,K)=(100,0,0,0)を有する文字のオブジェクトと、階調値(C,M,Y,K)=(100,100,0,0)を有する背景のオブジェクトにより構成されている。背景のオブジェクトの色(シアンおよびマゼンタ)が拡張色であり、文字のオブジェクトの色(ブラック)が被拡張色である。図24(a)の場合には、シアンおよびマゼンタの階調値が拡張領域に加えられる。   Referring to FIG. 24A, the boundary includes character objects having gradation values (C, M, Y, K) = (100, 0, 0, 0) and gradation values (C, M , Y, K) = (100, 100, 0, 0). The background object colors (cyan and magenta) are extended colors, and the character object color (black) is an extended color. In the case of FIG. 24A, cyan and magenta tone values are added to the extended region.

図24(b)を参照して、拡張領域RG3に存在するシアンおよびマゼンタの各々の階調値は、一定階調補正により、シアンおよびマゼンタの各々の演算係数CF1に基づいて式(4)〜(6)により算出された値に設定される。一方、拡張領域RG3に存在するブラックの階調値は、以下の式(10)〜(14)により算出される値に設定される。   Referring to FIG. 24B, the gradation values of cyan and magenta existing in the extension region RG3 are expressed by the equations (4) to (4) based on the respective calculation coefficients CF1 of cyan and magenta by constant gradation correction. The value calculated by (6) is set. On the other hand, the black gradation value existing in the extension region RG3 is set to a value calculated by the following equations (10) to (14).

拡張領域RG3の各画素のブラックの階調値=(拡張領域RG3の各画素のトラッピング処理前のブラックの階調値)−(各画素のブラック階調値調整値) ・・・(10)   Black tone value of each pixel in the extension region RG3 = (Black tone value before trapping processing of each pixel in the extension region RG3) − (Black tone value adjustment value of each pixel) (10)

ブラック階調値調整値=(トラッピング処理により増加したシアンの階調値)×シアンの乗算係数+(トラッピング処理により増加したマゼンタの階調値)×マゼンタの乗算係数+(トラッピング処理により増加したイエローの階調値)×イエローの乗算係数 ・・・(11)   Black gradation value adjustment value = (cyan gradation value increased by trapping process) × cyan multiplication coefficient + (magenta gradation value increased by trapping process) × magenta multiplication coefficient + (yellow increased by trapping process) Gradation value) x yellow multiplication coefficient (11)

シアンの乗算係数=シアンの濃度算出係数Wc/ブラックの濃度算出係数Wk ・・・(12)   Cyan multiplication coefficient = cyan density calculation coefficient Wc / black density calculation coefficient Wk (12)

マゼンタの乗算係数=マゼンタの濃度算出係数Wm/ブラックの濃度算出係数Wk ・・・(13)   Magenta multiplication coefficient = Magenta density calculation coefficient Wm / Black density calculation coefficient Wk (13)

イエローの乗算係数=イエローの濃度算出係数Wy/ブラックの濃度算出係数Wk ・・・(14)   Yellow multiplication coefficient = Yellow density calculation coefficient Wy / Black density calculation coefficient Wk (14)

乗算係数は、同一濃度を再現するのに必要な各基本色の階調値の比率であり、濃度算出係数から算出される。   The multiplication coefficient is a ratio of gradation values of each basic color necessary for reproducing the same density, and is calculated from the density calculation coefficient.

一例として、濃度算出係数(Wc,Wm,Wy,Wk)が(24,44,3,66)である場合、拡張領域RG3の各画素のブラックの階調値は以下の式(15)により算出される。   As an example, when the density calculation coefficient (Wc, Wm, Wy, Wk) is (24, 44, 3, 66), the black tone value of each pixel in the extended region RG3 is calculated by the following equation (15). Is done.

拡張領域RG3の各画素のブラックの階調値=(拡張領域RG3の各画素のトラッピング処理前のブラックの階調値)−{(トラッピング処理により増加したシアンの階調値)×24/66+(トラッピング処理により増加したマゼンタの階調値)×44/66+(トラッピング処理により増加したイエローの階調値)×3/66} ・・・(15)   Black tone value of each pixel in the extension region RG3 = (Black tone value of each pixel in the extension region RG3 before the trapping process) − {(Cyan tone value increased by the trapping process) × 24/66 + ( Magenta tone value increased by trapping process) × 44/66 + (Yellow tone value increased by trapping process) × 3/66} (15)

(6)トラッピング処理のサブルーチン   (6) Trapping process subroutine

図25および図26は、図2に示すステップS17のトラッピング処理のサブルーチンである。   25 and 26 are subroutines for the trapping process in step S17 shown in FIG.

図25を参照して、トラッピング処理において、CPU11は、拡張色と被拡張色との各々における特定の基本色の階調値を読み込む(S801)。続いてCPU11は、拡張色の階調値が被拡張色の階調値よりも大きいか否かを判別する(S803)。   Referring to FIG. 25, in the trapping process, CPU 11 reads the gradation value of a specific basic color in each of the extended color and the extended color (S801). Subsequently, the CPU 11 determines whether or not the gradation value of the extended color is larger than the gradation value of the extended color (S803).

ステップS803において、拡張色の階調値が被拡張色の階調値以下であると判別した場合(S803でNO)、CPU11は、その基本色についてはトラッピング処理を行わずに(S807)、図26のステップS831の処理へ進む。   If it is determined in step S803 that the gradation value of the extended color is equal to or smaller than the gradation value of the extended color (NO in S803), the CPU 11 does not perform the trapping process for the basic color (S807). The process proceeds to step S831 in step 26.

ステップS803において、拡張色の階調値が被拡張色の階調値より大きいと判別した場合(S803でYES)、CPU11は、拡張色と被拡張色との階調値の差分を算出し(S805)、補正方法選択部63が選択した補正方法を読み込む(S809)。次にCPU11は、補正方法が階段状補正であるか否かを判別する(S811)。   If it is determined in step S803 that the gradation value of the extended color is larger than the gradation value of the extended color (YES in S803), the CPU 11 calculates the difference between the gradation values of the extended color and the extended color ( In step S805, the correction method selected by the correction method selection unit 63 is read (S809). Next, the CPU 11 determines whether or not the correction method is step correction (S811).

ステップS811において、補正方法が一定階調補正であると判別した場合(S811でNO)、CPU11は、一定階調補正の演算係数CF1を読み込み(S819)、図26のステップS821の処理へ進む。   If it is determined in step S811 that the correction method is constant gradation correction (NO in S811), the CPU 11 reads the constant gradation correction calculation coefficient CF1 (S819), and proceeds to the process of step S821 in FIG.

ステップS811において、補正方法が階段状補正であると判別した場合(S811でYES)、CPU11は、拡張色はブラックであるか否かを判別する(S813)。   If it is determined in step S811 that the correction method is step correction (YES in S811), the CPU 11 determines whether or not the extended color is black (S813).

ステップS813において、拡張色はブラックであると判別した場合(S813でYES)、階段状補正のブラックの演算係数CF2K、CF3K、およびCF4Kを読み込み(S815)、図26のステップS821の処理へ進む。   If it is determined in step S813 that the extended color is black (YES in S813), the black calculation coefficients CF2K, CF3K, and CF4K for staircase correction are read (S815), and the process proceeds to step S821 in FIG.

ステップS813において、拡張色はブラックであると判別した場合(S813でYES)、CPU11は、階段状補正のシアン、マゼンタ、およびイエローの演算係数CF2、CF3、およびCF4を読み込み(S817)、図26のステップS821の処理へ進む。   If it is determined in step S813 that the extended color is black (YES in S813), the CPU 11 reads the cyan, magenta, and yellow calculation coefficients CF2, CF3, and CF4 for the staircase correction (S817), and FIG. The process proceeds to step S821.

図26を参照して、ステップS821において、CPU11はトラッピング処理を行う(S821)。続いてCPU11は、被拡張色はブラックを含むか否かを判別する(S823)。   Referring to FIG. 26, in step S821, the CPU 11 performs a trapping process (S821). Subsequently, the CPU 11 determines whether or not the extended color includes black (S823).

ステップS823において、被拡張色はブラックを含まないと判別した場合(S823でNO)、CPU11はステップS831の処理へ進む。   If it is determined in step S823 that the extended color does not include black (NO in S823), the CPU 11 proceeds to the process of step S831.

ステップS823において、被拡張色はブラックを含むと判別した場合(S823でYES)、CPU11は、拡張領域RG3におけるシアン、マゼンタ、およびイエローの各々の階調値の増加量を算出し(S825)、ブラックの階調値調整値を算出する(S827)。次にCPU11は、ブラックの階調値調整値に基づいて、拡張領域におけるブラックの階調値を調整し(S829)、ステップS831の処理へ進む。   If it is determined in step S823 that the extended color includes black (YES in S823), the CPU 11 calculates an increase amount of each gradation value of cyan, magenta, and yellow in the extended region RG3 (S825). A black tone value adjustment value is calculated (S827). Next, the CPU 11 adjusts the black tone value in the extended region based on the black tone value adjustment value (S829), and proceeds to the process of step S831.

ステップS831において、CPU11は、全ての基本色の階調値を読み込んだか否かを判別する(S831)。ステップS831において、全ての基本色の階調値を読み込んだと判別した場合(S831でYES)、CPU11はリターンする。一方、ステップS831において、全ての基本色の階調値を読み込んでいないと判別した場合(S831でNO)、CPU11は図25のステップS801の処理へ進み、拡張色と被拡張色との各々における、未だ読み込んでいない基本色の階調値を読み込む。   In step S831, the CPU 11 determines whether the gradation values of all basic colors have been read (S831). If it is determined in step S831 that the gradation values of all the basic colors have been read (YES in S831), the CPU 11 returns. On the other hand, if it is determined in step S831 that the gradation values of all the basic colors have not been read (NO in S831), the CPU 11 proceeds to the process of step S801 in FIG. 25, and in each of the extended color and the extended color. Read the gradation value of the basic color that has not yet been read.

[実施の形態の効果]   [Effect of the embodiment]

上述の実施の形態は、複数色のトナーを用いてカラー画像を形成する場合に、トラッピング処理を行うことにより、各基本色の印字ズレによって発生する白抜けを補正するものである。互いに隣接する2つのオブジェクトの濃度値に基づいて、白抜けが目立ちやすいか否かを判断し、白抜けが目立ちやすい場合にのみトラッピング処理を行う。これにより、不必要にトラッピング処理を行うことが無くなり、オブジェクトの色変化を低減することができ、画像品質の劣化を抑制することができる。加えて、2つのオブジェクトの階調値に基づいて階段状補正を行うか否かを判別するので、色変化が大きくなることが懸念される場合に階段状補正を行い、その結果、2つのオブジェクトの隣接位置(エッジ)からの距離に応じて補正濃度を徐々に薄くすることができる。その結果、白抜けが目立ちにくくなり、オブジェクトの色変化を低減することができる。   In the above-described embodiment, when a color image is formed using a plurality of colors of toner, trapping processing is performed to correct white spots caused by printing misalignment of each basic color. Based on the density values of two objects adjacent to each other, it is determined whether or not white spots are easily noticeable, and the trapping process is performed only when white spots are easily noticeable. As a result, unnecessary trapping processing is eliminated, color change of the object can be reduced, and deterioration of image quality can be suppressed. In addition, since it is determined whether or not the staircase correction is performed based on the gradation values of the two objects, the staircase correction is performed when there is a concern that the color change becomes large. As a result, the two objects are corrected. The correction density can be gradually reduced according to the distance from the adjacent position (edge). As a result, white spots are less noticeable and the color change of the object can be reduced.

[その他]   [Others]

上述の実施の形態において、トラッピング処理の内容は任意であり、トラッピング処理に用いる拡張色や補正方法は上述のもの以外であってもよい。   In the above-described embodiment, the content of the trapping process is arbitrary, and the extended color and correction method used for the trapping process may be other than those described above.

各画素を構成する基本色は、CMYKである場合の他、RGB(レッド、グリーン、およびブラック)や、RGB+X(Xは任意の色)、またはCMYK+Xなどであってもよい。   The basic color constituting each pixel may be RGB (red, green, and black), RGB + X (X is an arbitrary color), CMYK + X, or the like in addition to the case of CMYK.

上述の実施の形態における各処理のうち一部の処理のみを選択的に実行してもよい。たとえば、図2に示すステップS9の補正対象判別処理において、補正対象であると判別した境界部に対して、図2に示すステップS17のトラッピング処理において、固定色を用いて階段状補正または一定階調補正を一律に行ってもよい。   Only a part of the processes in the above-described embodiments may be selectively executed. For example, in the trapping process determined in step S9 shown in FIG. 2, the boundary portion determined to be a correction target in the trapping process in step S17 shown in FIG. Tone correction may be performed uniformly.

また、互いに隣接する2つのオブジェクトの各々の階調値に基づいて濃度値を算出し、算出した濃度値に基づいて拡張色および被拡張色を決定し、2つのオブジェクトの各々の階調値に基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択し、選択した補正方法を用いたトラッピング処理を行ってもよい。   Further, density values are calculated based on the gradation values of the two objects adjacent to each other, the extended color and the extended color are determined based on the calculated density values, and the gradation values of the two objects are determined. Based on this, either one of the constant gradation correction and the stepped correction may be selected, and the trapping process using the selected correction method may be performed.

上述の実施の形態における処理は、ソフトウェアにより行なっても、ハードウェア回路を用いて行なってもよい。また、上述の実施の形態における処理を実行するプログラムを提供することもできるし、そのプログラムをCD−ROM、フレキシブルディスク、ハードディスク、ROM、RAM、メモリカードなどの記録媒体に記録してユーザーに提供することにしてもよい。プログラムは、CPUなどのコンピューターにより実行される。また、プログラムはインターネットなどの通信回線を介して、装置にダウンロードするようにしてもよい。   The processing in the above-described embodiment may be performed by software or may be performed using a hardware circuit. It is also possible to provide a program for executing the processing in the above-described embodiment, and record the program on a recording medium such as a CD-ROM, a flexible disk, a hard disk, a ROM, a RAM, or a memory card and provide it to the user. You may decide to do it. The program is executed by a computer such as a CPU. The program may be downloaded to the apparatus via a communication line such as the Internet.

上述の実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The above-described embodiment is to be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

11 CPU(Central Processing Unit)
13 ROM(Read Only Memory)
15 RAM(Random Access Memory)
17 補助記憶装置
19 ネットワーク接続部
21 画像処理部
23 操作パネル
25 画像形成部
27 スキャナー
51 境界部探索部
53 色抽出部
55 濃度算出部
57 補正対象判別部
59 拡張色決定部
61 拡張領域決定部
63 補正方法選択部
65 トラッピング部
100 画像形成装置
AR1 矢印
BP 隣接位置
DR1,DR2,DR3 方向
IM1 入力画像
IM101,IM102 画像
OB1〜OB6 オブジェクト
OR オーバーラップ領域
PO1〜PO3 主走査方向の位置
RG1,RG1A,RG1B,RG1C,RG1D,RG1E 境界部
RG2A,RG2B,RG101 領域
RG3 拡張領域
TC,TK,TM,TY トナー
11 CPU (Central Processing Unit)
13 ROM (Read Only Memory)
15 RAM (Random Access Memory)
DESCRIPTION OF SYMBOLS 17 Auxiliary storage device 19 Network connection part 21 Image processing part 23 Operation panel 25 Image formation part 27 Scanner 51 Boundary part search part 53 Color extraction part 55 Density calculation part 57 Correction object discrimination part 59 Extended color determination part 61 Extended area determination part 63 Correction method selection unit 65 Trapping unit 100 Image forming apparatus AR1 Arrow BP Adjacent position DR1, DR2, DR3 Direction IM1 Input image IM101, IM102 Image OB1 to OB6 Object OR Overlap area PO1 to PO3 Position in main scanning direction RG1, RG1A, RG1B , RG1C, RG1D, RG1E border RG2A, RG2B, RG101 area RG3 extended area TC, TK, TM, TY toner

Claims (21)

色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置であって、
前記第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索手段と、
前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値に基づいて前記第1のオブジェクトの濃度値を算出し、前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値に基づいて前記第2のオブジェクトの濃度値を算出する濃度算出手段と、
前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部を補正対象とするか否かを判別する補正対象判別手段と、
前記補正対象判別手段にて補正対象とすると判別した場合に、前記境界部の少なくとも一部にトラッピング処理を行うトラッピング手段とを備え、
前記補正対象判別手段は、前記第1および第2のオブジェクトの濃度値のうち少なくともいずれか一方が第1の閾値以下である場合には、前記境界部を補正対象としないと判別し、前記第1および第2のオブジェクトの濃度値がいずれも前記第1の閾値より大きい場合には、前記境界部を補正対象とすると判別し、
前記補正対象判別手段にて補正対象としないと判別した場合に、前記トラッピング手段はトラッピング処理を行わない、画像処理装置。
An image processing apparatus that performs a trapping process on an image including first and second objects having different colors,
Boundary part searching means for searching for a boundary part that is an area including adjacent positions where the first and second objects are adjacent to each other;
A density value of the first object is calculated based on a gradation value of each basic color constituting the first object existing in the boundary portion, and the second object existing in the boundary portion is configured. Density calculating means for calculating the density value of the second object based on the gradation value of each basic color;
Correction target determination means for determining whether or not the boundary portion is to be corrected based on the density values of the first and second objects;
A trapping unit that performs a trapping process on at least a part of the boundary when it is determined that the correction target is determined by the correction target determination unit;
The correction target determining unit determines that the boundary portion is not a correction target when at least one of the density values of the first and second objects is equal to or less than a first threshold value, and When both the density values of the first and second objects are larger than the first threshold, it is determined that the boundary portion is a correction target;
An image processing apparatus in which the trapping unit does not perform a trapping process when the correction target determining unit determines that the correction target is not to be corrected.
前記補正対象判別手段にて補正対象とすると判別した場合に、前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部に存在する前記第1のオブジェクトの色、および前記境界部に存在する前記第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定手段をさらに備え、
前記トラッピング手段は、前記拡張色を構成する少なくとも1つの基本色を前記被拡張色の領域に拡張するトラッピング処理を行う、請求項1に記載の画像処理装置。
Based on the density values of the first and second objects, the color of the first object existing in the boundary portion and the boundary portion are determined based on the density values of the first and second objects. Extended color determining means for determining one of the colors of the second object existing as an extended color and determining the other as an extended color;
The image processing apparatus according to claim 1, wherein the trapping unit performs a trapping process for extending at least one basic color constituting the extended color to the area of the extended color.
色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置であって、
前記第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索手段と、
前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値に基づいて前記第1のオブジェクトの濃度値を算出し、前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値に基づいて前記第2のオブジェクトの濃度値を算出する濃度算出手段と、
前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部を補正対象とするか否かを判別する補正対象判別手段と、
前記補正対象判別手段にて補正対象とすると判別した場合に、前記境界部の少なくとも一部にトラッピング処理を行うトラッピング手段とを備え、
前記補正対象判別手段にて補正対象としないと判別した場合に、前記トラッピング手段はトラッピング処理を行わず、
前記補正対象判別手段にて補正対象とすると判別した場合に、前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部に存在する前記第1のオブジェクトの色、および前記境界部に存在する前記第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定手段をさらに備え、
前記トラッピング手段は、前記拡張色を構成する少なくとも1つの基本色を前記被拡張色の領域に拡張するトラッピング処理を行い、
前記隣接位置から前記被拡張色へ向かう方向に設けられた拡張領域であって、前記拡張色を構成する少なくとも1つの基本色と前記被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定手段と、
前記補正対象判別手段にて補正対象とすると判別した場合に、各基本色の補正方法として、前記境界部に存在する前記第1のオブジェクトの階調値と、前記境界部に存在する前記第2のオブジェクトの階調値とに基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択する補正方法選択手段をさらに備え、
前記一定階調補正は、一定の階調値を前記拡張領域全体の階調値に加える補正方法であり、
前記階段状補正は、前記隣接位置からの距離に応じて階段状に小さくなるような階調値を前記拡張領域の階調値に加える補正方法である、画像処理装置。
An image processing apparatus that performs a trapping process on an image including first and second objects having different colors,
Boundary part searching means for searching for a boundary part that is an area including adjacent positions where the first and second objects are adjacent to each other;
A density value of the first object is calculated based on a gradation value of each basic color constituting the first object existing in the boundary portion, and the second object existing in the boundary portion is configured. Density calculating means for calculating the density value of the second object based on the gradation value of each basic color;
Correction target determination means for determining whether or not the boundary portion is to be corrected based on the density values of the first and second objects;
A trapping unit that performs a trapping process on at least a part of the boundary when it is determined that the correction target is determined by the correction target determination unit;
When the correction target determination unit determines that the correction target is not to be corrected, the trapping unit does not perform the trapping process,
Based on the density values of the first and second objects, the color of the first object existing in the boundary portion and the boundary portion are determined based on the density values of the first and second objects. Extended color determining means for determining one of the colors of the second object existing as an extended color and determining the other as an extended color;
The trapping means performs a trapping process for extending at least one basic color constituting the extended color into the extended color area;
Extension area determination that is an extension area provided in a direction from the adjacent position toward the extended color, and that determines an extended area where at least one basic color constituting the extended color and the extended color overlap. Means,
When it is determined that the correction target is determined as the correction target by the correction target determination unit, as the correction method for each basic color, the gradation value of the first object existing in the boundary portion and the second value existing in the boundary portion are used. based on the gradation value of the object, further comprising a correction method selecting means for selecting one of the methods of constant tone correction and stepped correction,
The constant gradation correction is a correction method for adding a constant gradation value to the gradation value of the entire extended region,
The stepped correction is a correction method of adding the tone value that becomes smaller stepwise in accordance with the distance from the adjacent positions to the tone value of the extended area, images processing device.
前記補正方法選択手段は、各基本色について、前記境界部に存在する前記第1のオブジェクトの階調値と、前記境界部に存在する前記第2のオブジェクトの階調値とのうち、小さい方の階調値が第3の閾値以下である場合には前記一定階調補正を選択し、前記小さい方の階調値が前記第3の閾値を超える場合には前記階段状補正を選択する、請求項に記載の画像処理装置。 For each basic color, the correction method selection means is the smaller one of the gradation value of the first object existing at the boundary and the gradation value of the second object existing at the boundary. The constant gradation correction is selected when the gradation value is equal to or smaller than a third threshold value, and the stepwise correction is selected when the smaller gradation value exceeds the third threshold value. The image processing apparatus according to claim 3 . 前記拡張色を構成する基本色の中に、前記被拡張色を構成する基本色の階調値よりも小さい階調値を有する基本色が存在するときは、前記トラッピング手段は、その基本色についてのトラッピング処理を行わない、請求項またはに記載の画像処理装置。 When the basic color constituting the extended color includes a basic color having a gradation value smaller than the gradation value of the basic color constituting the extended color, the trapping means not perform trapping processing, the image processing apparatus according to claim 3 or 4. 前記補正方法選択手段にて前記一定階調補正を選択した場合、前記トラッピング手段は、
前記拡張色の階調値から前記被拡張色の階調値を減算した値に相当する階調値を前記拡張領域全体の階調値に加える、請求項に記載の画像処理装置。
When the constant gradation correction is selected by the correction method selection means, the trapping means
The image processing apparatus according to claim 5 , wherein a gradation value corresponding to a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color is added to the gradation value of the entire extended area.
前記補正方法選択手段にて前記階段状補正を選択した場合、前記トラッピング手段は、その基本色について、前記拡張色の階調値から前記被拡張色の階調値を減算した値と、前記隣接位置からの距離に応じて減少する第2の係数とを乗算した値に相当する階調値を、前記拡張領域の階調値に加える、請求項またはに記載の画像処理装置。 When the correction method selection unit selects the stepped correction, the trapping unit, for the basic color, subtracts the gradation value of the extended color from the gradation value of the extended color, and the adjacent color the tone value corresponding to a value obtained by multiplying the second coefficient that decreases with the distance from the position, is added to the tone value of the extended area, the image processing apparatus according to claim 5 or 6. 基本色がブラックである場合に用いる前記第2の係数は、基本色がブラック以外である場合に用いる前記第2の係数よりも小さい、請求項に記載の画像処理装置。 The image processing apparatus according to claim 7 , wherein the second coefficient used when the basic color is black is smaller than the second coefficient used when the basic color is other than black. 色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置であって、
前記第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索手段と、
前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値に基づいて前記第1のオブジェクトの濃度値を算出し、前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値に基づいて前記第2のオブジェクトの濃度値を算出する濃度算出手段と、
前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部を補正対象とするか否かを判別する補正対象判別手段と、
前記補正対象判別手段にて補正対象とすると判別した場合に、前記境界部の少なくとも一部にトラッピング処理を行うトラッピング手段とを備え、
前記補正対象判別手段にて補正対象としないと判別した場合に、前記トラッピング手段はトラッピング処理を行わず、
前記補正対象判別手段にて補正対象とすると判別した場合に、前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部に存在する前記第1のオブジェクトの色、および前記境界部に存在する前記第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定手段をさらに備え、
前記トラッピング手段は、前記拡張色を構成する少なくとも1つの基本色を前記被拡張色の領域に拡張するトラッピング処理を行い、
前記隣接位置から前記被拡張色へ向かう方向に設けられた拡張領域であって、前記拡張色を構成する少なくとも1つの基本色と前記被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定手段をさらに備え、
前記トラッピング手段は、前記拡張領域に加えるブラック以外の基本色の階調値の量に応じて、前記拡張領域におけるブラックの階調値を減らす、画処理装置。
An image processing apparatus that performs a trapping process on an image including first and second objects having different colors,
Boundary part searching means for searching for a boundary part that is an area including adjacent positions where the first and second objects are adjacent to each other;
A density value of the first object is calculated based on a gradation value of each basic color constituting the first object existing in the boundary portion, and the second object existing in the boundary portion is configured. Density calculating means for calculating the density value of the second object based on the gradation value of each basic color;
Correction target determination means for determining whether or not the boundary portion is to be corrected based on the density values of the first and second objects;
A trapping unit that performs a trapping process on at least a part of the boundary when it is determined that the correction target is determined by the correction target determination unit;
When the correction target determination unit determines that the correction target is not to be corrected, the trapping unit does not perform the trapping process,
Based on the density values of the first and second objects, the color of the first object existing in the boundary portion and the boundary portion are determined based on the density values of the first and second objects. Extended color determining means for determining one of the colors of the second object existing as an extended color and determining the other as an extended color;
The trapping means performs a trapping process for extending at least one basic color constituting the extended color into the extended color area;
Extension area determination that is an extension area provided in a direction from the adjacent position toward the extended color, and that determines an extended area where at least one basic color constituting the extended color and the extended color overlap. Further comprising means,
Said trapping means, said depending on the amount of the gradation values of the base color other than black is added to the extended area, reduce the tone value of black in the extended region, images processing device.
前記拡張色決定手段は、前記第1および第2のオブジェクトの濃度値のうち低い方の濃度値を持つオブジェクトの色を前記拡張色として決定し、高い方の濃度値を持つオブジェクトの色を前記被拡張色として決定する、請求項2〜9のいずれかに記載の画像処理装置。 The extended color determining means determines the color of an object having a lower density value among the density values of the first and second objects as the extended color, and determines the color of the object having a higher density value as the color of the object. The image processing device according to claim 2, wherein the image processing device is determined as an extended color. 前記隣接位置から前記被拡張色へ向かう方向に設けられた拡張領域であって、前記拡張色を構成する少なくとも1つの基本色と前記被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定手段をさらに備えた、請求項2〜10のいずれかに記載の画像処理装置。 Extension area determination that is an extension area provided in a direction from the adjacent position toward the extended color, and that determines an extended area where at least one basic color constituting the extended color and the extended color overlap. The image processing apparatus according to claim 2 , further comprising means. 前記濃度算出手段は、
前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値と、各基本色に対して決められた第1の係数とを乗算し、乗算値を全て加算した結果を前記第1のオブジェクトの濃度値として算出する第1の濃度算出手段と、
前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値と、各基本色に対して決められた前記第1の係数とを乗算し、乗算値を全て加算した結果を前記第2のオブジェクトの濃度値として算出する第2の濃度算出手段とを含む、請求項1〜11のいずれかに記載の画像処理装置。
The concentration calculating means includes
Multiplying the gradation value of each basic color constituting the first object existing in the boundary by the first coefficient determined for each basic color, and adding all the multiplication values First density calculating means for calculating the density value of the first object;
A result obtained by multiplying the gradation value of each basic color constituting the second object existing in the boundary by the first coefficient determined for each basic color, and adding all the multiplication values. and a second concentration calculating means for calculating a density value of the second object, an image processing apparatus according to any one of claims 1 to 11.
前記境界部探索手段は、前記画像を任意の方向に走査した場合に、各基本色の階調値の変化量が第2の閾値を超える位置を前記隣接位置とすることにより、前記境界部を抽出する、請求項1〜12のいずれかに記載の画像処理装置。 The boundary search means, when scanning the image in an arbitrary direction, sets the boundary as a position where the change amount of the gradation value of each basic color exceeds a second threshold as the adjacent position. extraction is, the image processing apparatus according to any one of claims 1 to 12. 前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値と、前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値とを抽出する色抽出手段をさらに備えた、請求項1〜13のいずれかに記載の画像処理装置。 Color extraction for extracting the gradation value of each basic color constituting the first object existing in the boundary portion and the gradation value of each basic color constituting the second object existing in the boundary portion further comprising means, image processing apparatus according to any one of claims 1 to 13. 前記色抽出手段は、前記境界部に存在する前記第1のオブジェクト内の一定のサイズの領域を構成する各基本色の階調値の平均値と、前記境界部に存在する前記第2のオブジェクト内の一定のサイズの領域を構成する各基本色の階調値の平均値とを抽出する、請求項14に記載の画像処理装置。 The color extracting means includes an average value of gradation values of basic colors constituting an area of a certain size in the first object existing in the boundary portion, and the second object existing in the boundary portion. The image processing apparatus according to claim 14 , wherein an average value of gradation values of each basic color constituting an area of a certain size is extracted. 色が互いに異なる第1および第2のオブジェクトを含む画像を処理する画像処理装置であって、
前記第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を抽出する境界部探索手段と、
前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値に基づいて前記第1のオブジェクトの濃度値を算出し、前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値に基づいて前記第2のオブジェクトの濃度値を算出する濃度算出手段と、
前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部に存在する前記第1のオブジェクトの色、および前記境界部に存在する前記第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定手段と、
前記隣接位置から前記被拡張色へ向かう方向に設けられた拡張領域であって、前記拡張色を構成する少なくとも1つの基本色と前記被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定手段と、
各基本色の補正方法として、前記境界部に存在する前記第1のオブジェクトの階調値と、前記境界部に存在する前記第2のオブジェクトの階調値とに基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択する補正方法選択手段と、
トラッピング処理を行うトラッピング手段とを備え、
前記拡張色を構成する基本色の中に、前記被拡張色を構成する各基本色の階調値よりも小さい階調値を有する基本色が存在するときは、前記トラッピング手段は、その基本色についてのトラッピング処理を行わず、
前記補正方法選択手段にて前記一定階調補正を選択した場合、前記トラッピング手段は、前記拡張色の階調値から前記被拡張色の階調値を減算した値に相当する階調値を前記拡張領域全体の階調値に加え、
前記補正方法選択手段にて前記階段状補正を選択した場合、前記トラッピング手段は、その基本色について、前記拡張色の階調値から前記被拡張色の階調値を減算した値と、前記隣接位置からの距離に応じて減少する係数とを乗算した値に相当する階調値を、前記拡張領域の階調値に加える、画像処理装置。
An image processing apparatus for processing an image including first and second objects having different colors,
Boundary search means for extracting a boundary that is an area including adjacent positions where the first and second objects are adjacent to each other;
A density value of the first object is calculated based on a gradation value of each basic color constituting the first object existing in the boundary portion, and the second object existing in the boundary portion is configured. Density calculating means for calculating the density value of the second object based on the gradation value of each basic color;
Based on the density values of the first and second objects, one of the color of the first object existing at the boundary and the color of the second object existing at the boundary is set as an extended color. Extended color determining means for determining and determining the other as the extended color;
Extension area determination that is an extension area provided in a direction from the adjacent position toward the extended color, and that determines an extended area where at least one basic color constituting the extended color and the extended color overlap. Means,
As a correction method for each basic color, a constant gradation correction and a gradation value of the first object existing in the boundary part and a gradation value of the second object existing in the boundary part are performed. Correction method selection means for selecting any one of the staircase corrections;
Trapping means for performing trapping processing,
When there is a basic color having a gradation value smaller than the gradation value of each basic color constituting the extended color among the basic colors constituting the extended color, the trapping means Without trapping for
When the constant gradation correction is selected by the correction method selection unit, the trapping unit calculates a gradation value corresponding to a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color. In addition to the gradation value of the entire extended area,
When the correction method selection unit selects the stepped correction, the trapping unit, for the basic color, subtracts the gradation value of the extended color from the gradation value of the extended color, and the adjacent color An image processing apparatus that adds a gradation value corresponding to a value obtained by multiplying a coefficient that decreases in accordance with a distance from a position to a gradation value of the extension area.
色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置の制御方法であって、
前記第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索ステップと、
前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値に基づいて前記第1のオブジェクトの濃度値を算出し、前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値に基づいて前記第2のオブジェクトの濃度値を算出する濃度算出ステップと、
前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部を補正対象とするか否かを判別する補正対象判別ステップと、
前記補正対象判別ステップにて補正対象とすると判別した場合に、前記境界部の少なくとも一部にトラッピング処理を行うトラッピングステップとを備え、
前記補正対象判別ステップにおいて、前記第1および第2のオブジェクトの濃度値のうち少なくともいずれか一方が第1の閾値以下である場合には、前記境界部を補正対象としないと判別し、前記第1および第2のオブジェクトの濃度値がいずれも前記第1の閾値より大きい場合には、前記境界部を補正対象とすると判別し、
前記補正対象判別ステップにて補正対象としないと判別した場合に、前記トラッピングステップにおいてトラッピング処理を行わない、画像処理装置の制御方法。
A control method for an image processing apparatus that performs a trapping process on an image including first and second objects having different colors,
A boundary search step for searching for a boundary that is an area including adjacent positions where the first and second objects are adjacent to each other;
A density value of the first object is calculated based on a gradation value of each basic color constituting the first object existing in the boundary portion, and the second object existing in the boundary portion is configured. A density calculating step for calculating a density value of the second object based on a gradation value of each basic color;
A correction target determining step for determining whether or not the boundary portion is to be corrected based on the density values of the first and second objects;
A trapping step for performing a trapping process on at least a part of the boundary when it is determined that the correction target is determined in the correction target determination step;
In the correction target determination step, when at least one of the density values of the first and second objects is equal to or less than a first threshold, it is determined that the boundary portion is not a correction target, and the first When both the density values of the first and second objects are larger than the first threshold, it is determined that the boundary portion is a correction target;
A control method for an image processing apparatus, wherein a trapping process is not performed in the trapping step when it is determined that the correction target is not a correction target in the correction target determination step.
色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置の制御方法であって、A control method for an image processing apparatus that performs a trapping process on an image including first and second objects having different colors,
前記第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索ステップと、A boundary search step for searching for a boundary that is an area including adjacent positions where the first and second objects are adjacent to each other;
前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値に基づいて前記第1のオブジェクトの濃度値を算出し、前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値に基づいて前記第2のオブジェクトの濃度値を算出する濃度算出ステップと、A density value of the first object is calculated based on a gradation value of each basic color constituting the first object existing in the boundary portion, and the second object existing in the boundary portion is configured. A density calculating step for calculating a density value of the second object based on a gradation value of each basic color;
前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部を補正対象とするか否かを判別する補正対象判別ステップと、A correction target determining step for determining whether or not the boundary portion is to be corrected based on the density values of the first and second objects;
前記補正対象判別ステップにて補正対象とすると判別した場合に、前記境界部の少なくとも一部にトラッピング処理を行うトラッピングステップとを備え、A trapping step for performing a trapping process on at least a part of the boundary when it is determined that the correction target is determined in the correction target determination step;
前記補正対象判別ステップにて補正対象としないと判別した場合に、前記トラッピングステップにおいてトラッピング処理を行わず、When it is determined that the correction target is not a correction target in the correction target determination step, the trapping process is not performed in the trapping step,
前記補正対象判別ステップにて補正対象とすると判別した場合に、前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部に存在する前記第1のオブジェクトの色、および前記境界部に存在する前記第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定ステップをさらに備え、When it is determined that the correction target is determined in the correction target determination step, based on the density values of the first and second objects, the color of the first object existing in the boundary and the boundary An extended color determining step of determining one of the colors of the second object existing as an extended color and determining the other as an extended color;
前記トラッピングステップにおいて、前記拡張色を構成する少なくとも1つの基本色を前記被拡張色の領域に拡張するトラッピング処理を行い、In the trapping step, a trapping process for extending at least one basic color constituting the extended color to the area of the extended color is performed,
前記隣接位置から前記被拡張色へ向かう方向に設けられた拡張領域であって、前記拡張色を構成する少なくとも1つの基本色と前記被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定ステップと、Extension area determination that is an extension area provided in a direction from the adjacent position toward the extended color, and that determines an extended area where at least one basic color constituting the extended color and the extended color overlap. Steps,
前記補正対象判別ステップにて補正対象とすると判別した場合に、各基本色の補正方法として、前記境界部に存在する前記第1のオブジェクトの階調値と、前記境界部に存在する前記第2のオブジェクトの階調値とに基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択する補正方法選択ステップとをさらに備え、When it is determined that the correction target is determined in the correction target determination step, as the correction method for each basic color, the gradation value of the first object existing in the boundary portion and the second value existing in the boundary portion are used. A correction method selection step of selecting one of a constant gradation correction and a stepped correction based on the gradation value of the object of
前記一定階調補正は、一定の階調値を前記拡張領域全体の階調値に加える補正方法であり、The constant gradation correction is a correction method for adding a constant gradation value to the gradation value of the entire extended region,
前記階段状補正は、前記隣接位置からの距離に応じて階段状に小さくなるような階調値を前記拡張領域の階調値に加える補正方法である、画像処理装置の制御方法。The stepwise correction is a control method for an image processing apparatus, which is a correction method for adding a gradation value that decreases in a stepped manner according to a distance from the adjacent position to a gradation value of the extension region.
色が互いに異なる第1および第2のオブジェクトを含む画像に対してトラッピング処理を行う画像処理装置の制御方法であって、A control method for an image processing apparatus that performs a trapping process on an image including first and second objects having different colors,
前記第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を探索する境界部探索ステップと、A boundary search step for searching for a boundary that is an area including adjacent positions where the first and second objects are adjacent to each other;
前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値に基づいて前記第1のオブジェクトの濃度値を算出し、前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値に基づいて前記第2のオブジェクトの濃度値を算出する濃度算出ステップと、A density value of the first object is calculated based on a gradation value of each basic color constituting the first object existing in the boundary portion, and the second object existing in the boundary portion is configured. A density calculating step for calculating a density value of the second object based on a gradation value of each basic color;
前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部を補正対象とするか否かを判別する補正対象判別ステップと、A correction target determining step for determining whether or not the boundary portion is to be corrected based on the density values of the first and second objects;
前記補正対象判別ステップにて補正対象とすると判別した場合に、前記境界部の少なくとも一部にトラッピング処理を行うトラッピングステップとを備え、A trapping step for performing a trapping process on at least a part of the boundary when it is determined that the correction target is determined in the correction target determination step;
前記補正対象判別ステップにて補正対象としないと判別した場合に、前記トラッピングステップにおいてトラッピング処理を行わず、When it is determined that the correction target is not a correction target in the correction target determination step, the trapping process is not performed in the trapping step,
前記補正対象判別ステップにて補正対象とすると判別した場合に、前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部に存在する前記第1のオブジェクトの色、および前記境界部に存在する前記第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定ステップをさらに備え、When it is determined that the correction target is determined in the correction target determination step, based on the density values of the first and second objects, the color of the first object existing in the boundary and the boundary An extended color determining step of determining one of the colors of the second object existing as an extended color and determining the other as an extended color;
前記トラッピングステップにおいて、前記拡張色を構成する少なくとも1つの基本色を前記被拡張色の領域に拡張するトラッピング処理を行い、In the trapping step, a trapping process for extending at least one basic color constituting the extended color to the area of the extended color is performed,
前記隣接位置から前記被拡張色へ向かう方向に設けられた拡張領域であって、前記拡張色を構成する少なくとも1つの基本色と前記被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定ステップをさらに備え、Extension area determination that is an extension area provided in a direction from the adjacent position toward the extended color, and that determines an extended area where at least one basic color constituting the extended color and the extended color overlap. Further comprising steps,
前記トラッピングステップにおいて、前記拡張領域に加えるブラック以外の基本色の階調値の量に応じて、前記拡張領域におけるブラックの階調値を減らす、画像処理装置の制御方法。A control method for an image processing apparatus, wherein, in the trapping step, a black tone value in the extension region is reduced according to an amount of a tone value of a basic color other than black added to the extension region.
色が互いに異なる第1および第2のオブジェクトを含む画像を処理する画像処理装置の制御方法であって、
前記第1および第2のオブジェクトが互いに隣接する隣接位置を含む領域である境界部を抽出する境界部探索ステップと、
前記境界部に存在する前記第1のオブジェクトを構成する各基本色の階調値に基づいて前記第1のオブジェクトの濃度値を算出し、前記境界部に存在する前記第2のオブジェクトを構成する各基本色の階調値に基づいて前記第2のオブジェクトの濃度値を算出する濃度算出ステップと、
前記第1および第2のオブジェクトの濃度値に基づいて、前記境界部に存在する前記第1のオブジェクトの色、および前記境界部に存在する前記第2のオブジェクトの色のうち一方を拡張色として決定し、他方を被拡張色として決定する拡張色決定ステップと、
前記隣接位置から前記被拡張色へ向かう方向に設けられた拡張領域であって、前記拡張色を構成する少なくとも1つの基本色と前記被拡張色とがオーバーラップする拡張領域を決定する拡張領域決定ステップと、
各基本色の補正方法として、前記境界部に存在する前記第1のオブジェクトの階調値と、前記境界部に存在する前記第2のオブジェクトの階調値とに基づいて、一定階調補正および階段状補正のうちいずれかの方法を選択する補正方法選択ステップと、
トラッピング処理を行うトラッピングステップとを備え、
前記拡張色を構成する基本色の中に、前記被拡張色を構成する各基本色の階調値よりも小さい階調値を有する基本色が存在するときは、前記トラッピングステップにおいて、その基本色についてのトラッピング処理を行わず、
前記補正方法選択ステップにて前記一定階調補正を選択した場合、前記トラッピングステップにおいて、前記拡張色の階調値から前記被拡張色の階調値を減算した値に相当する階調値を前記拡張領域全体の階調値に加え、
前記補正方法選択ステップにて前記階段状補正を選択した場合、前記トラッピングステップにおいて、その基本色について、前記拡張色の階調値から前記被拡張色の階調値を減算した値と、前記隣接位置からの距離に応じて減少する係数とを乗算した値に相当する階調値を、前記拡張領域の階調値に加える、画像処理装置の制御方法。
A control method for an image processing apparatus for processing an image including first and second objects having different colors,
A boundary search step for extracting a boundary that is an area including adjacent positions where the first and second objects are adjacent to each other;
A density value of the first object is calculated based on a gradation value of each basic color constituting the first object existing in the boundary portion, and the second object existing in the boundary portion is configured. A density calculating step for calculating a density value of the second object based on a gradation value of each basic color;
Based on the density values of the first and second objects, one of the color of the first object existing at the boundary and the color of the second object existing at the boundary is set as an extended color. An extended color determining step for determining and determining the other as an extended color;
Extension area determination that is an extension area provided in a direction from the adjacent position toward the extended color, and that determines an extended area where at least one basic color constituting the extended color and the extended color overlap. Steps,
As a correction method for each basic color, a constant gradation correction and a gradation value of the first object existing in the boundary part and a gradation value of the second object existing in the boundary part are performed. A correction method selection step for selecting one of the staircase corrections;
A trapping step for performing a trapping process,
When a basic color having a gradation value smaller than the gradation value of each basic color constituting the extended color exists among the basic colors constituting the extended color, in the trapping step, the basic color Without trapping for
When the constant gradation correction is selected in the correction method selection step, a gradation value corresponding to a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color is selected in the trapping step. In addition to the gradation value of the entire extended area,
When the stepped correction is selected in the correction method selection step, in the trapping step, for the basic color, a value obtained by subtracting the gradation value of the extended color from the gradation value of the extended color, and the adjacent color A control method for an image processing apparatus, wherein a gradation value corresponding to a value obtained by multiplying a coefficient that decreases in accordance with a distance from a position is added to a gradation value of the extension area.
請求項17〜20のいずれかに記載の画像処理装置の制御方法を実行するための、画像処理装置の制御プログラム。 An image processing apparatus control program for executing the image processing apparatus control method according to any one of claims 17 to 20 .
JP2013086272A 2013-04-17 2013-04-17 Image processing apparatus, image processing apparatus control method, and image processing apparatus control program Expired - Fee Related JP6186828B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013086272A JP6186828B2 (en) 2013-04-17 2013-04-17 Image processing apparatus, image processing apparatus control method, and image processing apparatus control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013086272A JP6186828B2 (en) 2013-04-17 2013-04-17 Image processing apparatus, image processing apparatus control method, and image processing apparatus control program

Publications (2)

Publication Number Publication Date
JP2014212370A JP2014212370A (en) 2014-11-13
JP6186828B2 true JP6186828B2 (en) 2017-08-30

Family

ID=51931842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013086272A Expired - Fee Related JP6186828B2 (en) 2013-04-17 2013-04-17 Image processing apparatus, image processing apparatus control method, and image processing apparatus control program

Country Status (1)

Country Link
JP (1) JP6186828B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016201373A1 (en) * 2016-01-29 2017-08-03 Robert Bosch Gmbh Method for recognizing objects, in particular of three-dimensional objects

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002211099A (en) * 2001-01-17 2002-07-31 Fuji Photo Film Co Ltd Method and apparatus for generating trapping region as well as trapping region generating program, and trapping region generating program storage medium
JP4189467B2 (en) * 2004-05-27 2008-12-03 コニカミノルタビジネステクノロジーズ株式会社 Image processing device
JP4396899B2 (en) * 2006-09-15 2010-01-13 株式会社沖データ Color image processing device
JP4979357B2 (en) * 2006-12-04 2012-07-18 キヤノン株式会社 Image forming apparatus and control method thereof
JP5060502B2 (en) * 2009-03-19 2012-10-31 キヤノン株式会社 Image processing apparatus and image processing apparatus control method

Also Published As

Publication number Publication date
JP2014212370A (en) 2014-11-13

Similar Documents

Publication Publication Date Title
JP4882390B2 (en) Image processing device
US8274707B2 (en) Image processing apparatus, image processing method, and program for determining or computing an extended region of a block region of image data or an input image
US8295592B2 (en) Apparatus and method for adjusting pixels values of object edges within images
JP2010226252A (en) Image processing apparatus, and method for controlling image forming apparatus
JP6344064B2 (en) Image processing apparatus and computer program
JP2022023712A (en) Information processing device, output method, and output program
JP6186828B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
US20050286087A1 (en) Image outputting system, image outputting method, program for executing the method and a computer-readable information recording medium on which the program is recorded
JP4485430B2 (en) Image processing apparatus, image processing method, and program causing computer to execute the method
US8711437B2 (en) Correcting color plate data for mis-registration in a sub-scanning direction by performing a pixel transition at the transition point aligned in the main-scanning direction
JP2016096447A (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
JP5103074B2 (en) Image processing apparatus and image forming apparatus
JP2005094397A (en) Image forming device
JP6233135B2 (en) Image output apparatus, image forming apparatus, control method, and program
JP5910266B2 (en) Print control apparatus, image forming system, print control method, and program
US8547612B2 (en) Image processing apparatus, image forming apparatus, and image processing method that read color image data from a document
JP5644230B2 (en) Image processing apparatus and image processing method
JP2016224229A (en) Image forming apparatus, information formation method, and program
JP7358218B2 (en) Image processing device, image processing method, and program
JP6984336B2 (en) Image forming device, control method and control program
JP2018037833A (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
JP4035489B2 (en) Background removal device, background removal method, background removal program, and recording medium
JP2009225449A (en) Image processing apparatus and image processing method
US20130148141A1 (en) Image processing apparatus, image processing method, and storage medium
JP4856607B2 (en) Image forming apparatus, image processing apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170717

R150 Certificate of patent or registration of utility model

Ref document number: 6186828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees