JP2018133656A - Image forming apparatus - Google Patents
Image forming apparatus Download PDFInfo
- Publication number
- JP2018133656A JP2018133656A JP2017024937A JP2017024937A JP2018133656A JP 2018133656 A JP2018133656 A JP 2018133656A JP 2017024937 A JP2017024937 A JP 2017024937A JP 2017024937 A JP2017024937 A JP 2017024937A JP 2018133656 A JP2018133656 A JP 2018133656A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- image data
- color
- white
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Color, Gradation (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は、記録媒体に画像を形成する画像形成装置に関する。 The present invention relates to an image forming apparatus that forms an image on a recording medium.
画像形成装置では、互いに色が異なる複数の色画像を記録媒体に形成する際の形成位置のずれを考慮し、画像データに対してしばしば、いわゆるトラッピング処理を行う。例えば、特許文献1には、トラッピング処理を行うことにより印刷結果物の画質の向上を図る画像形成装置が開示されている。
In an image forming apparatus, a so-called trapping process is often performed on image data in consideration of a shift in formation position when a plurality of color images having different colors are formed on a recording medium. For example,
画像形成装置では、記録媒体の色が画質に与える影響を抑えるために、しばしば、例えば白色の現像剤が使用される。このような場合でも、画質が高いことが望まれている。 In an image forming apparatus, for example, a white developer is often used in order to suppress the influence of the color of a recording medium on image quality. Even in such a case, high image quality is desired.
画質を高めることができる画像形成装置を提供することが望ましい。 It is desirable to provide an image forming apparatus that can improve image quality.
本発明の一実施の形態における画像形成装置は、画像処理部と、画像形成部とを備えている。画像処理部は、第1の色に対応する第1の画像が配置された画像領域のうちの、第2の色に対応する第2の画像が配置された第1の領域と、画像領域のうちの第1の領域以外の第2の領域との間の境界を含む境界領域において、第1の色に対応する第1の画像データに対して、画素値の変化をゆるやかにする第1の補正処理を行うものである。画像形成部は、第2の色に対応する第2の画像データ、および第1の補正処理が施された第1の画像データに基づいて、記録媒体に画像を形成するものである。 An image forming apparatus according to an embodiment of the present invention includes an image processing unit and an image forming unit. The image processing unit includes: a first area in which a second image corresponding to the second color is arranged in an image area in which the first image corresponding to the first color is arranged; First in which the change of the pixel value is moderated with respect to the first image data corresponding to the first color in the boundary region including the boundary with the second region other than the first region. Correction processing is performed. The image forming unit forms an image on a recording medium based on the second image data corresponding to the second color and the first image data subjected to the first correction process.
本発明の一実施の形態における画像形成装置によれば、境界領域において、第1の色に対応する第1の画像データに対して、画素値の変化をゆるやかにする第1の補正処理を行うようにしたので、画質を高めることができる According to the image forming apparatus of one embodiment of the present invention, the first correction process for gradual change of the pixel value is performed on the first image data corresponding to the first color in the boundary region. So that the image quality can be improved
以下、本発明の実施の形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[構成例]
図1は、本発明の一実施の形態に係る画像形成装置(画像形成装置1)の一構成例を表すものである。画像形成装置1は、例えば、普通紙などの記録媒体9に対して、白色を含む複数の現像剤を用いて画像を形成するプリンタとして機能するものである。画像形成装置1は、通信部11と、媒体色センサ12と、画像処理部20と、画像形成部13とを備えている。
[Configuration example]
FIG. 1 shows a configuration example of an image forming apparatus (image forming apparatus 1) according to an embodiment of the present invention. The
通信部11は、例えば、有線LAN(Local Area Network)を介して、ホストコンピュータ(図示せず)と通信を行うことにより、印刷データDPを受信するものである。そして、通信部11は、受信した印刷データDPを画像処理部20に供給するようになっている。なお、この例では有線LANを用いたが、これに限定されるものではなく、これに代えて、例えば無線LANを用いてもよい。また、この例ではネットワークを用いたが、これに限定されるものではなく、これに代えて、例えばUSB(Universal Serial Bus)を用いてもよい。
The
媒体色センサ12は、画像形成部13が画像を形成する記録媒体9の色を検出するものである。そして、媒体色センサ12は、その検出結果を、媒体色情報Cとして、画像処理部20に供給するようになっている。
The
画像処理部20は、印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成し、各色画像データDに対して、トラッピング処理を行うものである。画像処理部20は、例えば、ハードウェアにより構成してもよいし、プログラムを実行可能なプロセッサを用いて構成してもよい。画像処理部20は、色画像生成部21と、エッジ検出部22と、白境界検出部23と、補正部24とを有している。
The
色画像生成部21は、印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成するものである。色画像データDYは、黄色の現像剤を用いて形成されるべき画像に対応する画像データであり、色画像データDMは、マゼンタ色の現像剤を用いて形成されるべき画像に対応する画像データであり、色画像データDCは、シアン色の現像剤を用いて形成されるべき画像に対応する画像データであり、色画像データDKは、黒色の現像剤を用いて形成されるべき画像に対応する画像データであり、色画像データDWは、白色の現像剤を用いて形成されるべき画像に対応する画像データである。
The color
エッジ検出部22は、5つの色画像データDに基づいて、画像のエッジを検出するものである。具体的には、エッジ検出部22は、後述するように、5つの色画像データDに基づいて、エッジ方向情報のマップを示す5つのエッジ方向データDIR、エッジ距離情報のマップを示す5つのエッジ距離データDIS、および幅情報のマップを示す5つの幅データDLWを生成するようになっている。
The
白境界検出部23は、5つの色画像データDに基づいて、記録媒体9に形成されるべき画像における、白色の画像領域と白色以外の色の画像領域との間の境界(以下、白境界BWともいう)を検出するものである。具体的には、白境界検出部23は、後述するように、5つの色画像データDに基づいて、白境界BWの場所を示すマップである白境界データDWRを生成するようになっている。
Based on the five color image data D, the white
補正部24は、媒体色情報C、5つのエッジ方向データDIR、5つのエッジ距離データDIS、5つの幅データDLW、5つの色画像データD(色画像データDY,DM,DC,DK,DW)、および白境界データDWRに基づいて、補正処理(白境界補正処理およびトラッピング補正処理)を行うことにより、5つの色画像データE(色画像データEY,EM,EC,EK,EW)を生成するものである。具体的には、補正部24は、色画像データDYを補正することにより色画像データEYを生成し、色画像データDMを補正することにより色画像データEMを生成し、色画像データDCを補正することにより色画像データECを生成し、色画像データDKを補正することにより色画像データEKを生成し、色画像データDWを補正することにより色画像データEWを生成するようになっている。
The
画像形成部13は、5つの色画像データEに基づいて、記録媒体9に画像を形成するものである。画像形成部13は、黄色、マゼンタ色、シアン色、黒色、白色の5色の現像剤を用いて、記録媒体9に画像を形成する。具体的には、画像形成部13は、色画像データEYに基づいて黄色の現像剤を用いて黄色の画像を形成し、色画像データEMに基づいてマゼンタ色の現像剤を用いてマゼンタ色の画像を形成し、色画像データECに基づいてシアン色の現像剤を用いてシアン色の画像を形成し、色画像データEKに基づいて黒色の現像剤を用いて黒色の画像を形成し、色画像データEWに基づいて白色の現像剤を用いて白色の画像を形成する。その際、画像形成部13は、白色の画像、黒色の画像、シアン色の画像、マゼンタ色の画像、および黄色の画像を、記録媒体9にこの順で形成する。すなわち、白色の画像が一番下に形成される。これにより、画像形成装置1では、記録媒体9の色が画質に与える影響を抑えることができるようになっている。
The
ここで、画像処理部20は、本発明における「画像処理部」の一具体例に対応する。画像形成部13は、本発明における「画像形成部」の一具体例に対応する。色画像データDWは、本発明における「第1の画像データ」の一具体例に対応する。色画像データDY,DM,DC,DKのいずれか一つは、本発明における「第2の画像データ」の一具体例に対応する。
Here, the
[動作および作用]
続いて、本実施の形態の画像形成装置1の動作および作用について説明する。
[Operation and Action]
Next, the operation and action of the
(全体動作概要)
まず、図1を参照して、画像形成装置1の全体動作概要を説明する。通信部11は、ホストコンピュータと通信を行うことにより、印刷データDPを受信する。媒体色センサ12は、画像形成部13が画像を形成する記録媒体9の色を検出し、その検出結果を媒体色情報Cとして画像処理部20に供給する。画像処理部20の色画像生成部21は、印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成する。エッジ検出部22は、5つの色画像データDに基づいて、画像のエッジを検出する。具体的には、エッジ検出部22は、5つの色画像データDに基づいて、エッジ方向情報のマップを示す5つのエッジ方向データDIR、エッジ距離情報のマップを示す5つのエッジ距離データDIS、および幅情報のマップを示す5つの幅データDLWを生成する。白境界検出部23は、5つの色画像データDに基づいて、記録媒体9に形成されるべき画像における、白色の画像領域と白色以外の色の画像領域との間の境界(白境界BW)を検出する。具体的には、白境界検出部23は、5つの色画像データDに基づいて、白境界BWの場所を示すマップである白境界データDWRを生成する。補正部24は、媒体色情報C、5つのエッジ方向データDIR、5つのエッジ距離データDIS、5つの幅データDLW、5つの色画像データD(色画像データDY,DM,DC,DK,DW)、および白境界データDWRに基づいて、補正処理(白境界補正処理およびトラッピング補正処理)を行うことにより、5つの色画像データE(色画像データEY,EM,EC,EK,EW)を生成する。画像形成部13は、5つの色画像データEに基づいて、記録媒体9に画像を形成する。
(Overview of overall operation)
First, an overall operation outline of the
(詳細動作)
図2は、画像処理部20の一動作例を表すものである。画像処理部20は、印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成し、各色画像データDに対して補正処理(白境界補正処理およびトラッピング補正処理)を行う。この動作について、以下に説明する。
(Detailed operation)
FIG. 2 illustrates an operation example of the
まず、色画像生成部21は、通信部11が受信した印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成する(ステップS100)。
First, the color
次に、エッジ検出部22は、5つの色画像データDに基づいてエッジ検出処理を行う(ステップS200)。具体的には、エッジ検出部22は、後述するように、5つの色画像データDに基づいて、エッジ方向情報のマップを示す5つのエッジ方向データDIR、エッジ距離情報のマップを示す5つのエッジ距離データDIS、および幅情報のマップを示す5つの幅データDLWを生成する。
Next, the
次に、白境界検出部23は、5つの色画像データDに基づいて白境界検出処理を行う(ステップS300)。具体的には、白境界検出部23は、後述するように、5つの色画像データDに基づいて、白境界BWの場所を示すマップである白境界データDWRを生成する。
Next, the white
なお、この例では、エッジ検出処理(ステップS200)および、白境界検出処理(ステップS300)をこの順で行ったが、これに限定されるものではなく、順序を逆にしてもよい。 In this example, the edge detection process (step S200) and the white boundary detection process (step S300) are performed in this order, but the present invention is not limited to this, and the order may be reversed.
次に、補正部24は、5つの色画像データDのうちの白色の色画像データDWに対して、白境界補正処理を行う(ステップS400)。具体的には、補正部24は、後述するように、白境界データDWRに基づいて、白色の色画像データDWにおける白境界BW付近(後述する白境界領域RBW)の画素値を補正する。
Next, the
次に、補正部24は、5つの色画像データDに対して、トラッピング補正処理を行う(ステップS500)。具体的には、補正部24は、後述するように、媒体色情報C、5つのエッジ方向データDIR、5つのエッジ距離データDIS、および5つの幅データDLWに基づいて、5つの色画像データDに対してトラッピング処理を行うことにより、5つの色画像データE(色画像データEY,EM,EC,EK,EW)を生成する。
Next, the
このようにして、画像処理部20は、5つの色画像データEを生成する。そして、画像形成部13は、5つの色画像データEに基づいて、記録媒体9に画像を形成する。
In this way, the
(エッジ検出処理)
次に、図2に示した、ステップS200におけるエッジ検出処理について、詳細に説明する。
(Edge detection processing)
Next, the edge detection process in step S200 shown in FIG. 2 will be described in detail.
図3は、エッジ検出処理の一例を表すものである。エッジ検出処理では、5つの色画像データDに基づいて、5つのエッジ方向データDIR、5つのエッジ距離データDIS、および5つの幅データDLWを生成する。以下に、この動作について詳細に説明する。 FIG. 3 shows an example of edge detection processing. In the edge detection processing, based on the five color image data D, five edge direction data DIR, five edge distance data DIS, and five width data DLW are generated. This operation will be described in detail below.
まず、エッジ検出部22は、5つの色画像データD(色画像データDY,DM,DC,DK,DW)のうちの1つを選択する(ステップS201)。
First, the
次に、エッジ検出部22は、選択した色画像データDに対して2値化処理を行う(ステップS202)。具体的には、エッジ検出部22は、選択した色画像データDにおいて、各画素における画素値を所定のしきい値TH1と比較する。その際、エッジ検出部22は、選択した色画像データDが、黄色の色画像データDY、マゼンタ色の色画像データDM、シアン色の色画像データDC、および黒色の色画像データDKのいずれかである場合には、画素値がしきい値TH1よりも大きい場合には“1”にし、画素値がしきい値TH1よりも小さい場合には“0”にする。また、エッジ検出部22は、選択した色画像データDが、白色の色画像データDWである場合には、画素値がしきい値TH1よりも大きい場合には“0”にし、画素値がしきい値TH1よりも小さい場合には“1”にする。
Next, the
図4A,4Bは、黄色の色画像データDYに対する2値化処理の一例を表すものであり、図4Aは、色画像データDYの一部を模式的に示し、図4Bは、2値化処理の結果を示している。なお、マゼンタ色の色画像データDM、シアン色の色画像データDC、黒色の色画像データDKについても同様である。図4Aにおいて、網掛けされている画素は、画素値がしきい値TH1よりも大きい画素を示し、網掛けされていない画素は、画素値がしきい値TH1よりも小さい画素を示す。エッジ検出部22は、このような色画像データDYに対して2値化処理を行うことにより、図4Bに示したようなマップを示す2値データDBNを生成する。この例では、選択した色画像データDが黄色の色画像データDYであるので、エッジ検出部22は、画素値がしきい値TH1よりも大きい場合には“1”にし、画素値がしきい値TH1よりも小さい場合には“0”にする。すなわち、図4Bにおける“1”で示された画素は、図4Aにおける網掛けされている画素にそれぞれ対応する。同様に、図4Bにおける“0”で示された画素は、図4Aにおける網掛けされていない画素にそれぞれ対応する。
4A and 4B show an example of binarization processing for yellow color image data DY. FIG. 4A schematically shows part of the color image data DY. FIG. 4B shows binarization processing. Shows the results. The same applies to the magenta color image data DM, the cyan color image data DC, and the black color image data DK. In FIG. 4A, shaded pixels indicate pixels whose pixel values are larger than the threshold value TH1, and unshaded pixels indicate pixels whose pixel values are smaller than the threshold value TH1. The
図5A,5Bは、白色の色画像データDWに対する2値化処理の一例を表すものであり、図5Aは、白色の色画像データDWの一部を模式的に示し、図5Bは、2値化処理の結果を示している。図5Aにおいて、網掛けされている画素は、画素値がしきい値TH1よりも大きい画素を示し、網掛けされていない画素は、画素値がしきい値TH1よりも小さい画素を示す。エッジ検出部22は、このような色画像データDWに対して2値化処理を行うことにより、図5Bに示したようなマップを示す2値データDBNを生成する。この例では、選択した色画像データDが白色の色画像データDWであるので、エッジ検出部22は、画素値がしきい値TH1よりも大きい場合には“0”にし、画素値がしきい値TH1よりも小さい場合には“1”にする。すなわち、図5Bにおける“0”で示された画素は、図5Aにおける網掛けされている画素にそれぞれ対応する。同様に、図5Bにおける“1”で示された画素は、図5Aにおける網掛けされていない画素にそれぞれ対応する。
5A and 5B show an example of binarization processing for the white color image data DW. FIG. 5A schematically shows a part of the white color image data DW, and FIG. The result of the digitization process is shown. In FIG. 5A, shaded pixels indicate pixels whose pixel values are larger than the threshold value TH1, and unshaded pixels indicate pixels whose pixel values are smaller than the threshold value TH1. The
このようにして、エッジ検出部22は、選択した色画像データDに対して2値化処理を行うことにより、2値データDBNを生成する。
In this way, the
次に、エッジ検出部22は、ステップS202において生成した2値データDBNに基づいて、エッジ方向データDIRおよびエッジ距離データDISを生成する(ステップS203)。以下に、この動作について詳細に説明する。
Next, the
まず、エッジ検出部22は、2値データDBNにおいて、値が“1”である複数の画素のうちの1つを、注目画素Aとして順次選択する。そして、エッジ検出部22は、注目画素Aの上の画素(上画素)、注目画素Aの下の画素(下画素)、注目画素Aの左の画素(左画素)、および注目画素Aの右の画素(右の画素)における値(“0”または“1”)に基づいて、その注目画素Aにおけるエッジ方向情報を生成する。
First, the
図6は、注目画素Aのエッジ方向情報を生成する動作の一例を表すものである。エッジ検出部22は、例えば、上画素、下画素、左画素、および右画素の値が、それぞれ“1”,“0”,“0”,“0”である場合には、注目画素Aのエッジ方向情報を“上”にする。同様に、エッジ検出部22は、例えば、上画素、下画素、左画素、および右画素の値が、それぞれ“0”,“1”,“0”,“0”である場合には、注目画素Aのエッジ方向情報を“下”にし、それぞれ“0”,“0”,“1”,“0”である場合には、注目画素Aのエッジ方向情報を“左”にし、それぞれ“0”,“0”,“0”,“1”である場合には、注目画素Aのエッジ方向情報を“右”にする。また、例えば、エッジ検出部22は、上画素、下画素、左画素、および右画素の値が、それぞれ“1”,“1”,“0”,“0”である場合には、注目画素Aのエッジ方向情報を“上下”にし、それぞれ“1”,“0”,“1”,“0”である場合には、注目画素Aのエッジ方向情報を“左上”にし、それぞれ“1”,“0”,“0”,“1”である場合には、注目画素Aのエッジ方向情報を“右上”にする。また、例えば、エッジ検出部22は、上画素、下画素、左画素、および右画素の値が、それぞれ“1”,“1”,“1”,“0”である場合には、注目画素Aのエッジ方向情報を“左”にし、それぞれ“1”,“1”,“0”,“1”である場合には、注目画素Aのエッジ方向情報を“右”にする。また、例えば、エッジ検出部22は、上画素、下画素、左画素、および右画素の値が全て“1”である場合には、注目画素Aのエッジ方向情報を“なし”にし、全て“0”である場合には、注目画素Aのエッジ方向情報を“上下左右”にする。
FIG. 6 illustrates an example of an operation for generating edge direction information of the target pixel A. For example, when the values of the upper pixel, the lower pixel, the left pixel, and the right pixel are “1”, “0”, “0”, and “0”, respectively, the
そして、エッジ検出部22は、注目画素Aのエッジ方向情報が“なし”以外である場合には、その注目画素Aのエッジ距離情報を“1”にする。
Then, when the edge direction information of the target pixel A is other than “none”, the
これにより、2値データDBNにおける、値が“1”である領域の領域内における一番外側の画素におけるエッジ方向情報およびエッジ距離情報が生成される。 Thereby, the edge direction information and the edge distance information in the outermost pixel in the area of the area having the value “1” in the binary data DBN are generated.
次に、エッジ検出部22は、エッジ方向情報が“なし”である画素のうちの1つを、注目画素Aとして順次選択する。そして、エッジ検出部22は、注目画素Aの上の画素(上画素)、注目画素Aの下の画素(下画素)、注目画素Aの左の画素(左画素)、および注目画素Aの右の画素(右の画素)におけるエッジ方向情報に基づいて、その注目画素Aにおけるエッジ方向情報を生成する。
Next, the
図7は、上画素、下画素、左画素、および右画素におけるエッジ方向情報に基づいて、注目画素Aのエッジ方向情報を生成する動作の一例を表すものである。エッジ検出部22は、例えば、(a)に示したように、右画素におけるエッジ方向情報に“左”が含まれる場合には、注目画素Aのエッジ方向情報を“左”にする。具体的には、例えば、右画素におけるエッジ方向情報が“左”,“左上”,“左下”,“左右”,“上下左右”のいずれかである場合には、注目画素Aのエッジ方向情報を“左”にする。また、エッジ検出部22は、例えば、(e)に示したように、上画素におけるエッジ方向情報に“左”が含まれるとともに右画素におけるエッジ方向情報に“下”が含まれる場合には、注目画素Aのエッジ方向情報を“左下”にする。
FIG. 7 illustrates an example of an operation for generating edge direction information of the target pixel A based on edge direction information in the upper pixel, the lower pixel, the left pixel, and the right pixel. For example, as illustrated in (a), when the edge direction information in the right pixel includes “left”, the
この処理を繰り返すことにより、2値データDBNにおける、値が“1”である領域の領域内において、外側から内側に向かって順に、エッジ方向情報が生成される。そして、エッジ検出部22は、この処理を1回行ったときにエッジ方向情報が生成された画素におけるエッジ距離情報を“2”にし、この処理を2回行ったときにエッジ方向情報が生成された画素におけるエッジ距離情報を“3”にする。これ以降についても同様である。これにより、2値データDBNにおける、値が“1”である領域の領域内の一番外側から順に、エッジ距離情報が“1”,“2”,“3”,…のように設定される。
By repeating this process, edge direction information is generated in order from the outside toward the inside in the area of the area having the value “1” in the binary data DBN. Then, the
例えば、図4Bに示した注目画素Aのエッジ方向情報は“上”であり、この注目画素Aのエッジ距離情報は“2”である。すなわち、このエッジ方向情報およびエッジ距離情報は、この注目画素Aが、一番近いエッジ部分Bよりも“上”にあり、そのエッジ部分Bから“2”画素目にあることを示している。 For example, the edge direction information of the target pixel A shown in FIG. 4B is “up”, and the edge distance information of the target pixel A is “2”. That is, the edge direction information and the edge distance information indicate that the target pixel A is “above” the nearest edge portion B and is located at the “2” pixel from the edge portion B.
このようにして、2値データDBNにおける、値が“1”である全ての画素において、エッジ方向情報およびエッジ距離情報が生成される。そして、エッジ検出部22は、各画素でのエッジ方向情報に基づいて、エッジ方向情報のマップを示すエッジ方向データDIRを生成するとともに、各画素でのエッジ距離情報に基づいて、エッジ距離情報のマップを示すエッジ距離データDISを生成する。
In this way, edge direction information and edge distance information are generated for all pixels having a value of “1” in the binary data DBN. Then, the
次に、エッジ検出部22は、ステップS203において生成したエッジ方向データDIRおよびエッジ距離データDISに基づいて、幅データDLWを生成する(ステップS204)。具体的には、エッジ検出部22は、2値データDBNにおいて、値が“1”である画素のうちの1つを、注目画素Aとして順次選択する。そして、エッジ検出部22は、その注目画素Aのエッジ方向情報に基づいて、そのエッジ方向情報が示す方向、およびその方向の反対方向において、“1”が何画素続くかを調べる。例えば、注目画素Aのエッジ方向情報が“上”,“下”,“上下”である場合には、エッジ検出部22は、注目画素Aの上下方向において、“1”が何画素続くかを調べる。また、例えば、注目画素Aのエッジ方向情報が“左”,“右”,“左右”である場合には、エッジ検出部22は、注目画素Aの左右方向において、“1”が何画素続くかを調べる。また、例えば、注目画素Aのエッジ方向情報が“右上”,“右下”,“左上”,“左下”である場合には、エッジ検出部22は、注目画素Aの上下方向または左右方向において、“1”が何画素続くかを調べる。そして、エッジ検出部22は、このようにして得た値を、その注目画素Aにおける幅情報とする。
Next, the
例えば、図4Bに示した注目画素Aのエッジ方向情報は“上”であり、この注目画素Aのエッジ距離情報は“2”である。よって、エッジ検出部22は、この注目画素Aの上下方向において、“1”が何画素続くかを調べる。この例では、上下方向に5つの“1”が続く。よって、エッジ検出部22は、この注目画素Aでの幅情報を“5”にする。
For example, the edge direction information of the target pixel A shown in FIG. 4B is “up”, and the edge distance information of the target pixel A is “2”. Therefore, the
このようにして、2値データDBNにおける、値が“1”である全ての画素において、幅情報が生成される。そして、エッジ検出部22は、各画素における幅情報に基づいて、幅情報のマップを示す幅データDLWを生成する。
In this manner, width information is generated for all pixels having a value of “1” in the binary data DBN. Then, the
次に、エッジ検出部22は、全ての色画像データDを選択したか否かを確認する(ステップS205)。まだ全ての色画像データDを選択していない場合(ステップS205において“N”)には、まだ選択していない色画像データDを選択し(ステップS206)、ステップS202に戻る。そして、全ての色画像データDが選択されるまで、ステップS202〜S206を繰り返す。そして、全ての色画像データDを選択した場合(ステップS205において“Y”)には、エッジ検出部22は、このエッジ検出処理(図2におけるステップS200)を終了する。
Next, the
(白境界検出処理)
次に、図2に示した、ステップS300における白境界検出処理について、詳細に説明する。
(White border detection processing)
Next, the white boundary detection process in step S300 shown in FIG. 2 will be described in detail.
図8は、白境界検出処理の一例を表すものである。白境界検出処理では、5つの色画像データDに基づいて、白境界BWの場所を示すマップである白境界データDWRを生成する。以下に、この動作について詳細に説明する。 FIG. 8 shows an example of white boundary detection processing. In the white boundary detection process, white boundary data DWR, which is a map indicating the location of the white boundary BW, is generated based on the five color image data D. This operation will be described in detail below.
まず、白境界検出部23は、画素の1つを注目画素Aとして選択する(ステップS301)。
First, the white
次に、白境界検出部23は、白色の色画像データDWの注目画素Aでの画素値がしきい値TH4よりも大きく、色画像データDW以外の4つの色画像データDY,DM,DC,DKの注目画素Aでの画素値がいずれも“0”(ゼロ)であるか否かを確認する(ステップS302)。このステップS302の条件を満たさない場合(ステップS302において“N”)には、ステップS305に進む。
Next, the white
ステップS302の条件を満たす場合(ステップS302において“Y”)には、白境界検出部23は、注目画素Aの周辺画素A1は、白色の色画像データDWの画素値が“0”(ゼロ)より大きく、色画像データDW以外の4つの色画像データDY,DM,DC,DKのうちの少なくとも1つの画素値が“0”(ゼロ)より大きい画素を含むか否かを確認する(ステップS303)。ここで、周辺画素A1は、例えば、注目画素Aを中心とした9つ(3×3)の画素のうちの注目画素A以外の8つの画素である。
When the condition of step S302 is satisfied (“Y” in step S302), the white
ステップS303の条件を満たす場合(ステップS303において“Y”)には、白境界検出部23は、注目画素Aでの白境界データDWRの値を“1”にする(ステップS304)。すなわち、この場合には、白境界検出部23は、注目画素Aが白境界画素C1であると判定する。そして、ステップS306に進む。
When the condition of step S303 is satisfied (“Y” in step S303), the white
また、ステップS303の条件を満たさない場合(ステップS303において“N”)には、白境界検出部23は、注目画素Aでの白境界データDWRの値を“0”にする(ステップS305)。すなわち、この場合には、白境界検出部23は、注目画素Aが非白境界画素C2であると判定する。そして、ステップS306に進む。
If the condition of step S303 is not satisfied (“N” in step S303), the white
図9A,9Bは、白境界検出処理の一例を表すものである。図9Aは、白色の色画像データDWの一部を模式的に示し、図9Bは、マゼンタ色の色画像データDMの一部を模式的に示す。以下、説明の便宜上、色画像データDの画素値を0〜255に正規化して説明する。図9Aにおいて、濃く網掛けされている画素は、色画像データDWにおける画素値が大きい(この例では“255”)画素を示し、薄く網掛けされている画素は、色画像データDWにおける画素値が小さい(この例では“55”)画素を示す。この例では、濃く網掛けされている画素での画素値、および薄く網掛けされている画素での画素値は、ともにしきい値TH4よりも大きい。また、図9Bにおいて、網掛けされている画素は、色画像データDMにおける画素値が“0”(ゼロ)より大きい(この例では“255”)画素を示し、網掛けされていない画素は、色画像データDMにおける画素値が“0”(ゼロ)である画素を示している。また、図示していないが、この例では、色画像データDY,DC,DKの画素値は全て“0”(ゼロ)である。 9A and 9B show an example of white boundary detection processing. FIG. 9A schematically shows a part of the white color image data DW, and FIG. 9B schematically shows a part of the magenta color image data DM. Hereinafter, for convenience of explanation, the pixel value of the color image data D is normalized to 0 to 255 for explanation. In FIG. 9A, pixels that are darkly shaded indicate pixels having a large pixel value in the color image data DW (in this example, “255”), and pixels that are lightly shaded are pixel values in the color image data DW. Indicates a small pixel (in this example, “55”). In this example, the pixel value in the darkly shaded pixel and the pixel value in the lightly shaded pixel are both larger than the threshold value TH4. In FIG. 9B, the shaded pixels indicate pixels whose pixel value in the color image data DM is greater than “0” (zero) (in this example, “255”). A pixel having a pixel value “0” (zero) in the color image data DM is shown. Although not shown, in this example, the pixel values of the color image data DY, DC, and DK are all “0” (zero).
この例では、注目画素Aでの、白色の色画像データDWの画素値は、しきい値TH4よりも大きく、色画像データDW以外の4つの色画像データDY,DM,DC,DKの画素値は、いずれも“0”(ゼロ)である(ステップS302において“Y”)。また、注目画素Aの周辺画素A1のうち、注目画素Aの左上の画素、注目画素Aの左の画素、および注目画素Aの左下の画素は、白色の色画像データDWの画素値が“0”(ゼロ)より大きく、マゼンタ色の色画像データDMの画素値が“0”(ゼロ)より大きい画素である(ステップS303において“Y”)。よって、白境界検出部23は、ステップS304において、この注目画素Aが白境界画素C1であると判定する。
In this example, the pixel value of the white color image data DW at the target pixel A is larger than the threshold value TH4, and the pixel values of the four color image data DY, DM, DC, DK other than the color image data DW Are both “0” (zero) (“Y” in step S302). Among the peripheral pixels A1 of the target pixel A, the pixel value of the white color image data DW is “0” for the upper left pixel of the target pixel A, the left pixel of the target pixel A, and the lower left pixel of the target pixel A. “(Zero)” and the pixel value of the magenta color image data DM is larger than “0” (zero) (“Y” in step S303). Therefore, the white
次に、白境界検出部23は、全ての画素を注目画素Aとして選択したか否かを確認する(ステップS306)。まだ全ての画素を選択していない場合(ステップS306において“N”)には、白境界検出部23は、まだ選択していない画素を注目画素Aとして選択し(ステップS307)、ステップS302に戻る。そして、全ての画素が選択されるまで、ステップS302〜S307を繰り返す。そして、全ての画素を選択した場合(ステップS306において“Y”)には、白境界検出部23は、白境界検出処理(図2におけるステップS300)を終了する。
Next, the white
図10は、図9A,9Bに示した例において、白境界検出処理により生成された白境界データDWRの一例を表すものである。図9A,9Bに示したように、左半分の画像領域では、白色の色画像データDWの値が“255”であり、マゼンタ色の色画像データの値が“255”である。そして、右半分の画像領域では、白色の色画像データDWの値が“55”であり、マゼンタ色の色画像データの値が“0”(ゼロ)である。すなわち、左半分の画像領域は、マゼンタ色および白色が重なる画像領域であり、右半分の画像領域は、白色のみの画像領域であるので、この2つの画像領域の境界が白境界BWである(図10)。白境界検出部23は、白色のみの画像領域の画素のうちの白境界BWに接する画素を、白境界画素C1と判定する。
FIG. 10 shows an example of the white boundary data DWR generated by the white boundary detection process in the example shown in FIGS. 9A and 9B. As shown in FIGS. 9A and 9B, in the left half image area, the value of the white color image data DW is “255” and the value of the magenta color image data is “255”. In the right half image area, the value of the white color image data DW is “55”, and the value of the magenta color image data is “0” (zero). That is, the left half image area is an image area in which magenta color and white color overlap, and the right half image area is an image area only in white, so the boundary between the two image areas is the white boundary BW ( FIG. 10). The white
(白境界補正処理)
次に、図2に示した、ステップS400における白境界補正処理について、詳細に説明する。
(White border correction processing)
Next, the white boundary correction process in step S400 shown in FIG. 2 will be described in detail.
図11は、白境界補正処理の一例を表すものである。白境界補正処理では、白境界データDWRに基づいて、白色の色画像データDWにおける白境界BW付近(後述する白境界領域RBW)の画素値を補正する。以下に、この動作について詳細に説明する。 FIG. 11 shows an example of white boundary correction processing. In the white boundary correction process, based on the white boundary data DWR, the pixel value near the white boundary BW (white boundary region RBW described later) in the white color image data DW is corrected. This operation will be described in detail below.
まず、補正部24は、画素の1つを注目画素Aとして選択する(ステップS401)。
First, the
次に、補正部24は、白境界データDWRに基づいて、注目画素Aが白境界画素C1であるか否かを確認する(ステップS402)。注目画素Aが白境界画素C1ではない場合(ステップS402において“N”)には、ステップS410に進む。
Next, the correcting
ステップS402において、注目画素Aが白境界画素C1である場合(ステップS402において“Y”)には、補正部24は、注目画素Aの周辺画素A1のうちの1つを、画素A2として選択する(ステップS403)。具体的には、補正部24は、例えば、注目画素Aの上の画素、注目画素Aの下の画素、注目画素Aの左の画素、および注目画素Aの右の画素のうちのいずれか1つを画素A2として選択する。
In step S402, when the target pixel A is the white boundary pixel C1 (“Y” in step S402), the
次に、補正部24は、白色の色画像データDWにおける、注目画素Aでの画素値と画素A2での画素値との差の絶対値(差分値DIFF)がしきい値TH5よりも大きいか否かを確認する(ステップS404)。ここで、しきい値TH5は、本発明における「第1のしきい値」の一具体例に対応する。
Next, the
ステップS404において、差分値DIFFがしきい値TH5よりも小さい場合(ステップS404において“N”)には、補正部24は、周辺画素A1のうちの全ての画素を画素A2として選択したか否かを確認する(ステップS405)。まだ全ての画素を画素A2として選択していない場合(ステップS405において“N”)には、補正部24は、周辺画素A1のうちのまだ選択していない画素を画素A2として選択する(ステップS405)。その際、補正部24は、例えば、注目画素Aの上の画素、注目画素Aの下の画素、注目画素Aの左の画素、および注目画素Aの右の画素のうちのまだ選択していない画素を、画素A2として順次選択し、その後に、注目画素Aの左上の画素、注目画素Aの右上の画素、注目画素Aの左下の画素、および注目画素Aの右下の画素のうちのまだ選択していない画素を、画素A2として順次選択する。そして、ステップS404に戻る。ステップS405において、周辺画素A1の全ての画素を選択した場合(ステップS405において“Y”)には、ステップS410に進む。
If the difference value DIFF is smaller than the threshold value TH5 in step S404 (“N” in step S404), the
ステップS404において、差分値DIFFがしきい値TH5よりも大きい場合には、補正部24は、補正対象領域Rを設定する(ステップS407)。補正対象領域Rは、後述するように、白境界BWをまたぎ、複数の画素を含む領域である。
If the difference value DIFF is larger than the threshold value TH5 in step S404, the
そして、補正部24は、補正対象領域R内の各画素での色画像データDWの画素値を補正する(ステップS408)。具体的には、補正部24は、以下の式を用いて、補正対象領域R内の各画素の画素値を補正する。
XXi=Xi×(1−Wi)+Y×Wi …(EQ1)
ここで、XXiは、補正対象領域R内のi番目の画素での色画像データDWの補正後の画素値であり、Xiは、i番目の画素での色画像データDWの補正前の画素値であり、Wiは、i番目の画素の重み係数であり、Yは、補正対象領域R内の全画素での色画像データDWの補正前の画素値の平均値である。重み係数Wiは、例えば、0以上かつ1以下の値を有するものである。
Then, the
XXi = Xi * (1-Wi) + Y * Wi (EQ1)
Here, XXi is a pixel value after correction of the color image data DW at the i-th pixel in the correction target region R, and Xi is a pixel value before correction of the color image data DW at the i-th pixel. Wi is a weighting coefficient of the i-th pixel, and Y is an average value of pixel values before correction of the color image data DW in all the pixels in the correction target region R. The weight coefficient Wi has a value of 0 or more and 1 or less, for example.
図12は、図9A,9B,10に示した例における、白境界補正処理の一例を模式的に表すものである。図9Aと同様に、濃く網掛けされている画素は、色画像データDWにおける画素値が大きい(この例では“255”)画素を示し、薄く網掛けされている画素は、色画像データDWにおける画素値が小さい(この例では“55”)画素を示す。この例では、濃く網掛けされている画素における画素値と、薄く網掛けされている画素における画素値との差(この例では“200”)は、しきい値TH5よりも大きい。 FIG. 12 schematically illustrates an example of white boundary correction processing in the example illustrated in FIGS. 9A, 9B, and 10. As in FIG. 9A, pixels that are darkly shaded indicate pixels having a large pixel value in the color image data DW (in this example, “255”), and pixels that are lightly shaded are pixels in the color image data DW. This indicates a pixel having a small pixel value (in this example, “55”). In this example, the difference (in this example, “200”) between the pixel value of the darkly shaded pixel and the pixel value of the lightly shaded pixel is larger than the threshold value TH5.
この例では、注目画素Aは、図10に示したように、白境界画素C1である(ステップS402において“Y”)。補正部24が、注目画素Aの左の画素を画素A2として選択したとき、色画像データDWにおける、注目画素Aでの画素値と画素A2での画素値との差の絶対値(差分値DIFF)は、しきい値TH5よりも大きい(ステップS404において“Y”)。よって、補正部24は、この例では、左右方向に互いに隣り合う注目画素Aおよび画素A2を含む、左右方向に並んだ4つの画素からなる補正対象領域Rを設定する(ステップS407)。そして、補正部24は、この補正対象領域R内の4つの画素値を補正する(ステップS408)。
In this example, the target pixel A is the white boundary pixel C1 as shown in FIG. 10 (“Y” in step S402). When the
図13は、図12に示した補正対象領域Rにおける補正処理の一例を表すものであり、(A)は重み係数Wiを示し、(B)は補正前の画素値Xiを示し、(C)は補正後の画素値XXiを示す。この例では、重み係数Wiは、左から順に“0.2”,“0.7”,“0.7”,“0.2”に設定されている。すなわち、重み係数Wiは、注目画素Aおよび画素A2の並び方向(左右方向)において対称に設定され、この並び方向において外側にいくほど小さい値に設定されている。補正前の画素値Xiは、左から順に“255”,“255”,“55”,“55”である。これらの画素値Xiに対して、式(EQ1)を用いて補正を行うことにより、補正後の画素値XXiを得る。補正後の画素値XXiは、左から順に“235”,“185”,“125”,“75”である。補正後の画素値XXiは、式(EQ1)に示したように、重み係数Wiが大きいほど、平均値Yに近い値になり、重み係数Wiが小さいほど、補正前の画素値Xiに近い値になる。これにより、図13(B),(C)に示したように、白境界BWと交差する方向(この例では左右方向)での補正後の画素値XXiの変化は、補正前の画素値Xiの変化に比べてゆるやかになる。すなわち、補正前の画素値Xiは、急激に変化するが、補正後の画素値XXiは、ゆるやかかつ単調に変化するようになる。 FIG. 13 shows an example of correction processing in the correction target region R shown in FIG. 12, (A) shows the weighting factor Wi, (B) shows the pixel value Xi before correction, and (C) Indicates a corrected pixel value XXi. In this example, the weight coefficient Wi is set to “0.2”, “0.7”, “0.7”, “0.2” in order from the left. That is, the weight coefficient Wi is set symmetrically in the arrangement direction (left-right direction) of the target pixel A and the pixel A2, and is set to a smaller value as it goes outward in the arrangement direction. The pixel values Xi before correction are “255”, “255”, “55”, and “55” in order from the left. By correcting these pixel values Xi using the equation (EQ1), a corrected pixel value XXi is obtained. The corrected pixel values XXi are “235”, “185”, “125”, “75” in order from the left. As shown in the equation (EQ1), the corrected pixel value XXi is closer to the average value Y as the weighting factor Wi is larger, and is closer to the pixel value Xi before correction as the weighting factor Wi is smaller. become. Accordingly, as shown in FIGS. 13B and 13C, the change in the pixel value XXi after correction in the direction intersecting the white boundary BW (in this example, the left-right direction) is the pixel value Xi before correction. Compared to changes in That is, the pixel value Xi before correction changes abruptly, but the pixel value XXi after correction changes gently and monotonously.
この例では、白境界BWは、図12の縦方向に延びるため、補正対象領域Rを左右方向に長くした。例えば、白境界BWが横方向に延びる場合には、補正対象領域Rを上下方向に長くすることができる。また、例えば、白境界BWが角を構成する場合には、以下のように補正対象領域Rを設定することができる。 In this example, since the white boundary BW extends in the vertical direction of FIG. 12, the correction target region R is elongated in the left-right direction. For example, when the white boundary BW extends in the horizontal direction, the correction target region R can be lengthened in the vertical direction. For example, when the white boundary BW forms a corner, the correction target region R can be set as follows.
図14は、白境界補正処理の他の例を模式的に表すものである。図12と同様に、濃く網掛けされている画素は、色画像データDWにおける画素値が大きい(この例では“255”)画素を示し、薄く網掛けされている画素は、色画像データDWにおける画素値が小さい(この例では“55”)画素を示す。 FIG. 14 schematically illustrates another example of the white boundary correction process. As in FIG. 12, pixels that are darkly shaded indicate pixels having a large pixel value in the color image data DW (in this example, “255”), and pixels that are lightly shaded are pixels in the color image data DW. This indicates a pixel having a small pixel value (in this example, “55”).
この例でも、注目画素Aは、白境界画素C1である(ステップS402において“Y”)。注目画素Aの左上の画素を画素A2として選択したとき、色画像データDWにおける、注目画素Aでの画素値と画素A2での画素値との差の絶対値(差分値DIFF)は、しきい値TH5よりも大きい(ステップS404において“Y”)。よって、補正部24は、この例では、斜め方向に互いに隣り合う注目画素Aおよび画素A2を含む、8つの画素からなる補正対象領域Rを設定する(ステップS407)。そして、補正部24は、この補正対象領域R内の8つの画素値を補正する(ステップS408)。
Also in this example, the target pixel A is the white boundary pixel C1 (“Y” in step S402). When the upper left pixel of the target pixel A is selected as the pixel A2, the absolute value (difference value DIFF) of the difference between the pixel value at the target pixel A and the pixel value at the pixel A2 in the color image data DW is the threshold. It is larger than the value TH5 (“Y” in step S404). Accordingly, in this example, the
図15は、図14に示した補正対象領域Rにおける補正処理の一例を表すものである。重み係数Wiは、注目画素Aおよび画素A2の並び方向(斜め方向)において対称に設定され、この並び方向において外側にいくほど小さい値に設定されている。これにより、図15(B),(C)に示したように、白境界BWと交差する方向(この例では斜め方向)での補正後の画素値XXiの変化は、補正前の画素値Xiの変化に比べてゆるやかになる。すなわち、補正前の画素値Xiは、急激に変化するが、補正後の画素値XXiは、ゆるやかかつ単調に変化するようになる。 FIG. 15 illustrates an example of correction processing in the correction target region R illustrated in FIG. The weight coefficient Wi is set symmetrically in the arrangement direction (diagonal direction) of the target pixel A and the pixel A2, and is set to a smaller value as it goes outward in the arrangement direction. As a result, as shown in FIGS. 15B and 15C, the change in the corrected pixel value XXi in the direction intersecting the white boundary BW (in this example, the oblique direction) is the pixel value Xi before correction. Compared to changes in That is, the pixel value Xi before correction changes abruptly, but the pixel value XXi after correction changes gently and monotonously.
補正対象領域Rの大きさは、例えば、固定にしてもよい。この場合、補正対象領域Rの白境界BWと交差する方向における幅は、例えば、画像形成部13が、黄色、マゼンタ色、シアン色、黒色、および白色の画像を、記録媒体9にそれぞれ形成する際の、各画像の形成位置の相対的なずれ量に応じて、予め設定することができる。具体的には、図12,13の例では、各画像の形成位置の相対的なずれ量が大きい場合には、補正対象領域R内の左右方向に並ぶ画素の数をより多くすることができる。また、補正対象領域Rの大きさは、例えば、差分値DIFFに応じて変化させてもよい。具体的には、例えば、差分値DIFFが大きいほど、補正対象領域Rの白境界BWと交差する方向における幅を大きくすることが望ましい。例えば、複数のしきい値を設定し、この差分値DIFFと各しきい値とを比較することにより、この差分値DIFFに応じて、補正対象領域Rの大きさを設定することができる。ここで、この複数のしきい値のうちのいずれかは、本発明における「第2のしきい値」の一具体例に対応する。また、この補正処理において、補正対象領域R内に、色画像データDWの画素値が“0”(ゼロ)である画素がある場合には、この画素を省いて補正対象領域Rを設定してもよい。
For example, the size of the correction target region R may be fixed. In this case, the width of the correction target region R in the direction intersecting with the white boundary BW is, for example, that the
次に、補正部24は、補正対象領域R内の画素のうちのまだ注目画素Aとして選択していない画素を、注目画素Aの選択候補から除外する(ステップS409)。
Next, the
次に、補正部24は、全ての画素を注目画素Aとして選択したか否かを確認する(ステップS410)。まだ全ての画素を選択していない場合(ステップS410において“N”)には、補正部24は、まだ選択していない画素を注目画素Aとして選択し(ステップS411)、ステップS402に戻る。そして、全ての画素が選択されるまで、ステップS402〜S411を繰り返す。そして、全ての画素を選択した場合(ステップS410において“Y”)には、補正部24は、白境界補正処理(図2におけるステップS400)を終了する。
Next, the correcting
図16は、図12,13に示した例において、白境界補正処理により生成された白色の色画像データDWの一例を模式的に表すものである。図17は、図14,15に示した例において、白境界補正処理により生成された白色の色画像データDWの一例を模式的に表すものである。図16,17において、網掛けの濃淡は、図12,14と同様に、色画像データDWにおける画素値の大きさに対応している。白境界補正処理おいて、補正対象領域Rを順次設定して補正を行うことより、白境界BWを含む帯状の領域(白境界領域RBW)における画素値が補正される。この白境界領域RBWでは、白境界BWと交差する方向での画素値の変化が、補正前(図12,14)に比べてゆるやかになる。白境界領域RBWは、本発明における「境界領域」の一具体例に対応する。 FIG. 16 schematically shows an example of the white color image data DW generated by the white boundary correction process in the examples shown in FIGS. FIG. 17 schematically shows an example of the white color image data DW generated by the white boundary correction process in the examples shown in FIGS. In FIGS. 16 and 17, shaded shading corresponds to the size of the pixel value in the color image data DW, as in FIGS. In the white boundary correction process, correction is performed by sequentially setting the correction target region R, thereby correcting the pixel value in the band-like region (white boundary region RBW) including the white boundary BW. In the white boundary region RBW, the change in the pixel value in the direction intersecting with the white boundary BW is gentler than before correction (FIGS. 12 and 14). The white boundary region RBW corresponds to a specific example of “boundary region” in the present invention.
(トラッピング補正処理)
次に、図2に示した、ステップS500におけるトラッピング補正処理について、詳細に説明する。
(Trapping correction process)
Next, the trapping correction process in step S500 shown in FIG. 2 will be described in detail.
図18,19は、トラッピング補正処理の一例を表すものである。トラッピング補正処理では、媒体色情報C、5つのエッジ方向データDIR、5つのエッジ距離データDIS、および5つの幅データDLWに基づいて、5つの色画像データDに対してトラッピング処理を行う。以下に、この動作について詳細に説明する。 18 and 19 show an example of the trapping correction process. In the trapping correction process, the trapping process is performed on the five color image data D based on the medium color information C, the five edge direction data DIR, the five edge distance data DIS, and the five width data DLW. This operation will be described in detail below.
まず、補正部24は、画素の1つを注目画素Aとして選択し(ステップS501)、5つの色画像データDのうちの1つを選択する(ステップS502)。
First, the
次に、補正部24は、選択した色画像データDが白色の色画像データDWであるか否かを確認する(ステップS503)。白色の色画像データDWではない場合(ステップS503において“N”)にはステップS505に進む。
Next, the correcting
ステップS503において、選択した色画像データDが白色の色画像データDWである場合(ステップS503において“Y”)には、補正部24は、注目画素Aが、白境界補正処理のステップS408において補正が行われた画素であるか否かを確認する(ステップS504)。言い換えれば、補正部24は、注目画素Aが、白境界領域RBW内の画素であるか否かを確認する。注目画素Aが、白境界補正処理のステップS408において補正が行われた画素である場合(ステップS504において“Y”)には、ステップS510に進む。
In step S503, when the selected color image data D is white color image data DW (“Y” in step S503), the
ステップS504において、選択した色画像データDが白色の色画像データDWではない場合(ステップS504において“N”)、補正部24は、選択した色画像データDのエッジ方向データDIRにおける注目画素Aでのエッジ方向情報に基づいて、そのエッジ方向情報に含まれるエッジ方向の一つを選択する(ステップS505)。すなわち、例えばエッジ方向情報が“左上”である場合には、まずはそのうちの一方(例えば“左”)を選択する。
In step S504, when the selected color image data D is not white color image data DW (“N” in step S504), the
次に、補正部24は、エッジを挟む2つの画素B1,B2を決定する(ステップS506)。
Next, the
図20は、画素B1,B2の決定動作の一例を表すものである。この図20は、選択した色画像データDの2値データDBNを示しており、網掛けされた画素は、値が“1”の画素を示し、網掛けされていない画素は、値が“0”の画素を示す。この例では、注目画素Aのエッジ方向情報は“左”であり、この注目画素Aのエッジ距離情報は“2”である。補正部24は、このエッジ方向情報およびエッジ距離情報に基づいて、エッジを特定する。すなわち、エッジ部分Bは、注目画素Aの右に、注目画素Aから1画素分の距離に位置する手前側の画素B1と、注目画素Aの右に、注目画素Aから2画素分の距離に位置する奥側の画素B2との間にある。すなわち、画素B1は、注目画素Aの、エッジ方向情報が示すエッジ方向と反対方向に、注目画素Aから、エッジ距離情報が示す値よりも一つ小さい値に対応する距離に位置し、画素B2は、注目画素Aの、エッジ方向情報が示すエッジ方向と反対方向に、注目画素Aから、エッジ距離情報が示す値に対応する距離に位置する。
FIG. 20 illustrates an example of the determination operation of the pixels B1 and B2. FIG. 20 shows the binary data DBN of the selected color image data D. The shaded pixels indicate the pixels having the value “1”, and the pixels not shaded have the value “0”. "Indicates a pixel. In this example, the edge direction information of the target pixel A is “left”, and the edge distance information of the target pixel A is “2”. The correcting
補正部24は、このようにして、注目画素Aでのエッジ方向情報およびエッジ距離情報に基づいて、エッジ部分Bを挟む画素B1,B2を特定する。
In this way, the
次に、補正部24は、トラッピング処理を行う(ステップS507)。
Next, the
まず、図19に示したように、補正部24は、選択した色画像データDにおける注目画素Aがトラッピング対象画素であるか否かを確認する(ステップS521)。具体的には、補正部24は、以下の2つの条件を満たしたときに、その注目画素Aがトラッピング対象画素であると判断する。
First, as illustrated in FIG. 19, the
第1の条件は、注目画素Aでのエッジ距離情報が、予め設定した所定のしきい値TH2以下であることである。すなわち、この条件を満たす場合には、注目画素Aが、選択した色画像データDにおけるエッジ部分Bに近いことを示している。このしきい値TH2は、画像形成部13が、黄色、マゼンタ色、シアン色、黒色、および白色の画像を、記録媒体9にそれぞれ形成する際の、各画像の形成位置の相対的なずれ量に応じて、予め設定される。例えば、ずれ量が2画素分である場合には、このしきい値TH2を“2”に設定する。この場合、例えば、注目画素Aにおけるエッジ距離情報が示す値が“2”以下であれば、この第1の条件を満たし、注目画素Aにおけるエッジ距離情報が示す値が“3”であれば、この第1の条件を満たさない。
The first condition is that the edge distance information at the target pixel A is equal to or less than a predetermined threshold value TH2. That is, when this condition is satisfied, it indicates that the target pixel A is close to the edge portion B in the selected color image data D. This threshold value TH2 is the relative shift amount of each image forming position when the
第2の条件は、画素B1,B2のうちの一方において、色画像データDY,DM,DC,DKのうちのいずれか1つのみの2値データDBNに“1”を有し、他方において、色画像データDWのみの2値データDBNに“1”を有することである。すなわち、この条件を満たす場合は、画素B1,B2のうちの一方において、色画像データDY,DM,DC,DKのいずれか1つのみ、および色画像データDWの画素値がしきい値TH1より大きく、画素B1,B2のうちの他方において、色画像データDY,DM,DC,DK,DWの画素値がしきい値TH1よりも小さいことを示している。例えば、画素B1においてマゼンタ色の画素値と白色の画素値を有し、画素B2においてどの色も画素値を有しない場合に、この第2の条件を満たす。例えば、画素B1においてマゼンタ色の画素値と黄色の画素値を有する場合には、この第2の条件を満たさない。 The second condition is that one of the pixels B1 and B2 has “1” in the binary data DBN of only one of the color image data DY, DM, DC, and DK, The binary data DBN of only the color image data DW has “1”. That is, when this condition is satisfied, only one of the color image data DY, DM, DC, and DK and the pixel value of the color image data DW are greater than the threshold value TH1 in one of the pixels B1 and B2. It shows that the pixel value of the color image data DY, DM, DC, DK, DW is smaller than the threshold value TH1 on the other of the pixels B1, B2. For example, the second condition is satisfied when the pixel B1 has a magenta pixel value and a white pixel value, and no color has a pixel value in the pixel B2. For example, when the pixel B1 has a magenta pixel value and a yellow pixel value, the second condition is not satisfied.
補正部24は、これらの2つの条件を満たしたときに、その注目画素Aがトラッピング対象画素であると判断する。注目画素Aがトラッピング対象画素でない場合(ステップS521において“N”)には、トラッピング処理を終了する。
The
ステップS521において、注目画素Aがトラッピング対象画素である場合(ステップS521において“Y”)には、補正部24は、画素B1,B2での幅情報が、ともに、所定のしきい値TH3よりも大きいか否かを確認する(ステップS522)。具体的には、例えば、マゼンタ色の色画像データDMの2値データDBNが、画素B1において“1”を有し、白色の色画像データDWの2値データDBNが、画素B2において“1”を有する場合には、補正部24は、マゼンタ色の色画像データDMの幅データDLWにおける画素B1での幅情報と、白色の色画像データDWの幅データDLWにおける画素B2での幅情報とが、ともに、しきい値TH3よりも大きいか否かを確認する。
In step S521, when the target pixel A is a trapping target pixel (“Y” in step S521), the
ステップS522において、画素B1,B2での幅情報が、ともに、しきい値TH3よりも大きい場合(ステップS522において“Y”)には、補正部24は、画素B2での明度が画素B1での明度よりも高いか否かを確認する(ステップS523)。具体的には、例えば、マゼンタ色の色画像データDMの2値データDBNが、画素B1において“1”を有し、白色の色画像データDWの2値データDBNが、画素B2において“1”を有する場合には、補正部24は、媒体色情報Cに基づいて求めた明度が、マゼンタ色の色画像データDMの画素B1での画素値から求めた明度よりも大きいか否かを確認する。すなわち、この例では、画素B2において例えばどの色も画素値を有しないので、記録媒体9の色を示す媒体色情報Cに基づいて明度を求め、この明度を画素B2における明度として用いる。ここで、明度は、本発明における「明るさ度合い」の一具体例に対応する。画素B2での明度が画素B1での明度よりも高い場合(ステップS523において“Y”)には、ステップS527に進み、画素B2での明度が画素B1での明度よりも低い場合(ステップS524において“N”)には、トラッピング処理を終了する。
In step S522, when both the width information in the pixels B1 and B2 are larger than the threshold value TH3 (“Y” in step S522), the
ステップS522において、画素B1,B2での幅情報のうちの少なくとも一方がしきい値TH3より小さい場合(ステップS522において“N”)には、補正部24は、画素B1での幅情報がしきい値TH3よりも大きいか否かを確認する(ステップS524)。ステップS524において、画素B1での幅情報が、しきい値TH3よりも大きい場合(ステップS524において“Y”)には、ステップS527に進む。
In step S522, when at least one of the width information in the pixels B1 and B2 is smaller than the threshold value TH3 (“N” in step S522), the
ステップS524において、画素B1での幅情報がしきい値TH3よりも小さい場合(ステップS524において“N”)には、補正部24は、画素B2での幅情報がしきい値TH3よりも大きいか否かを確認する(ステップS525)。画素B2での幅情報がしきい値TH3より大きい場合(ステップS525において“Y”)には、トラッピング処理を終了する。
In step S524, when the width information at pixel B1 is smaller than threshold value TH3 ("N" at step S524),
ステップS525において、画素B2での幅情報がしきい値TH3より小さい場合(ステップS525において“N”)には、補正部24は、注目画素Aのエッジ距離情報がしきい値TH3の半分(TH3/2)よりも小さいかどうかを確認する(ステップS526)。注目画素Aのエッジ距離情報がしきい値TH3の半分よりも小さい場合(ステップS526において“Y”)には、ステップS527に進み、注目画素Aのエッジ距離情報がしきい値TH3の半分よりも大きい場合(ステップS526において“N”)には、トラッピング処理を終了する。
In step S525, when the width information at the pixel B2 is smaller than the threshold value TH3 (“N” in step S525), the
次に、補正部24は、注目画素Aの画素値を、画素B2の画素値と同じ画素値に設定する(ステップS527)。
Next, the
具体的には、例えば、白色の色画像データDWの2値データDBNが、画素B1において“1”を有し、マゼンタ色の色画像データDMの2値データDBNが、画素B2において“1”を有する場合には、マゼンタ色の色画像データDMにおける注目画素Aの画素値を、マゼンタ色の色画像データDMにおける画素B2での画素値と同じ画素値に設定する。これにより、マゼンタ色の画像領域が広くなる。 Specifically, for example, the binary data DBN of the white color image data DW has “1” in the pixel B1, and the binary data DBN of the magenta color image data DM has “1” in the pixel B2. , The pixel value of the target pixel A in the magenta color image data DM is set to the same pixel value as the pixel value in the pixel B2 in the magenta color image data DM. As a result, the magenta image area is widened.
また、例えば、マゼンタ色の色画像データDMの2値データDBNが、画素B1において“1”を有し、白色の色画像データDWの2値データDBNが、画素B2において“1”を有する場合には、補正部24は、白色の色画像データDWにおける注目画素Aの画素値を、白色の色画像データDWにおける画素B2での画素値と同じ画素値に設定する。すなわち、この場合、白色の色画像データDWにおいて、画素B2における画素値はしきい値TH1よりも低い。よって、注目画素Aにおける画素値も、このような十分に低い値に設定される。これにより、白色の画像領域が狭くなる。
For example, when the binary data DBN of the magenta color image data DM has “1” in the pixel B1, and the binary data DBN of the white color image data DW has “1” in the pixel B2. The
以上によりトラッピング処理が終了する。 Thus, the trapping process ends.
次に、図18に示したように、補正部24は、選択した色画像データDにおける注目画素Aにおいて、全てのエッジ方向を選択したか否かを確認する(ステップS508)。まだ全てのエッジ方向を選択していない場合(ステップS508において“N”)には、補正部24は、まだ選択していないエッジ方向を選択し(ステップS509)、ステップS506に戻る。そして、全てのエッジ方向が選択されるまで、ステップS506〜S509を繰り返す。そして、全てのエッジ方向を選択した場合(ステップS508において“Y”)には、ステップS510に進む。
Next, as illustrated in FIG. 18, the
次に、補正部24は、全ての色画像データDを選択したか否かを確認する(ステップS510)。まだ全ての色画像データDを選択していない場合(ステップS510において“N”)には、補正部24は、まだ選択していない色画像データDを選択し(ステップS511)、ステップS503に戻る。そして、全ての色画像データDが選択されるまで、ステップS503〜S511を繰り返す。そして、全ての色画像データDを選択した場合(ステップS510において“Y”)には、ステップS512に進む。
Next, the correcting
次に、補正部24は、全ての画素を注目画素Aとして選択したか否かを確認する(ステップS512)。まだ全ての画素を選択していない場合(ステップS512において“N”)には、補正部24は、まだ選択していない画素を注目画素Aとして選択し(ステップS513)、ステップS502に戻る。そして、全ての画素が選択されるまで、ステップS502〜S513を繰り返す。そして、全ての画素を選択した場合(ステップS512において“Y”)には、補正部24は、トラッピング補正処理(図2におけるステップS500)を終了する。
Next, the
このようにして、補正部24は、5つの色画像データDに対して補正を行うことにより、5つの色画像データEを生成する。そして、画像形成部13は、5つの色画像データEに基づいて、記録媒体9に画像を形成する。
In this way, the
次に、いくつか例を挙げて、画像形成装置1の動作を説明する。
Next, the operation of the
(白境界補正処理の具体例)
図21,22は、記録媒体9に、マゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。図21(A)は、白境界補正処理を行わない場合の断面図を示し、図21(B)は、図21(A)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図21(C)は、白境界補正処理を行う場合の断面図を示し、図21(D)は、図21(C)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図22(A)は、白境界補正処理を行わない場合の断面図を示し、図22(B)は、図22(A)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図22(C)は、白境界補正処理を行う場合の断面図を示し、図22(D)は、図22(C)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図21,22では、説明の便宜上、マゼンタ色画像PMおよび白色画像PWの階調を、例えば現像剤の層の厚さで表している。なお、画像形成部13における階調の表現方法は、濃度階調に限定されるものではなく、例えば面積階調であってもよい。
(Specific example of white boundary correction processing)
21 and 22 schematically illustrate an image formation example when a magenta color image PM is formed on the
図21(A),22(A)に示したように、白境界補正処理を行わない場合において、画像形成装置1は、記録媒体9上における白境界BWの左側の領域R1において、大きい画素値(例えば“255”)に基づいて白色画像PWを形成し、白境界BWの右側の領域R2において、小さい画素値(例えば“55”)に基づいて白色画像PWを形成する。そして、画像形成装置1は、領域R1において、白色画像PWの上にマゼンタ色画像PMを形成する。このように、領域R1において、マゼンタ色画像PMの下に白色画像PWを形成することにより、ユーザが画像を観察したときに、マゼンタ色が記録媒体9の色と混ざって見えるおそれを低減することができる。
As shown in FIGS. 21A and 22A, when the white boundary correction processing is not performed, the
しかしながら、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、例えば、マゼンタ色画像PMが白色画像PWに比べて相対的に左にずれて形成された場合には、図21(B)に示したように、領域R1の白境界BW付近の領域R11において、白色画像PWの一部が露出してしまう。特に、この例では、領域R1における白色画像PWでは現像剤の濃度が高く、領域R2における白色画像PWでは現像剤の濃度が低く、これらの濃度の差が大きいので、領域R11の白色画像PWが不自然に目立ってしまうおそれがある。また、例えば、マゼンタ色画像PMが白色画像PWに比べて相対的に右にずれて形成された場合には、図22(B)に示したように、領域R2の白境界BW付近の領域R21に、マゼンタ色画像PMがはみ出してしまう。特に、この例では、領域R2における白色画像PWでは現像剤の濃度が低いので、領域R21におけるマゼンタ色画像PMは、記録媒体9の色の影響を受けてしまい、本来の色を再現することができないおそれがある。
However, when the
一方、画像形成装置1では、図21(C),22(C)に示したように、白境界補正処理により、白境界領域RBWにおいて、白色画像PWにおける現像剤の濃度がゆるやかに変化する。これにより、画像形成装置1では、画像形成部13が画像を形成する際に、マゼンタ色画像PMが白色画像PWに比べて相対的に左にずれて形成された場合でも、図21(D)に示したように、露出した白色画像PWでの現像剤の濃度がゆるやかに変化するため、白境界領域RBWにおいて、白色画像PWが不自然に目立ってしまうおそれを低減することができる。また、例えば、マゼンタ色画像PMが白色画像PWに比べて相対的に右にずれて形成された場合でも、図22(D)に示したように、はみ出したマゼンタ色画像PMの下の白色画像PWでの現像剤の濃度は、白境界補正処理を行わない場合の領域R21における白色画像PWでの現像剤の濃度(図22(B))よりも高いため、記録媒体9の色の影響を受けるおそれを低減することができる。また、白色画像PWの濃度の変化がゆるやかなので、画像が不自然に見えるおそれを低減することができる。その結果、画像形成装置1では、画質を高めることができる。
On the other hand, in the
(トラッピング処理の具体例1)
図23は、明度が低い色の記録媒体9に、その明度よりも高い明度を有するマゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。図23(A)は、トラッピング処理を行わない場合の断面図を示し、図23(B)は、図23(A)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図23(C)は、トラッピング処理を行う場合の断面図を示し、図23(D)は、図23(C)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。この例では、トラッピング処理を行わない場合におけるマゼンタ色画像PMの幅WP1および間隔WS1,WS2を、しきい値TH3に対応する幅WTHよりも広くしている。
(Specific example 1 of trapping process)
FIG. 23 schematically illustrates an image formation example in the case where a magenta color image PM having a lightness higher than the lightness is formed on the
図23(A)に示したように、トラッピング処理を行わない場合において、画像形成装置1は、この例では、記録媒体9の上に白色画像PWを形成し、その上にマゼンタ色画像PMを形成する。このように、マゼンタ色画像PMの下に白色画像PWを形成することにより、ユーザが画像を観察したときに、マゼンタ色が記録媒体9の色と混ざって見えるおそれを低減することができる。
As shown in FIG. 23A, in the case where the trapping process is not performed, the
しかしながら、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、これらの画像の形成位置に相対的なずれが生じた場合には、図23(B)に示したように、明度が高い白色画像PWの一部が露出してしまう。その結果、マゼンタ色画像PMの近傍に、明度が高い白色画像PWが見えてしまう。
However, when the
一方、画像形成装置1では、図23(C)に示したように、トラッピング処理によりマゼンタ色画像PMを広げる。すなわち、ステップS502において白色の色画像データDWを選択した場合において、幅WP1および間隔WS1,WS2がしきい値TH3に対応する幅WTHよりも広く(ステップS522において“Y”)、マゼンタ色画像PMの明度が記録媒体9の色の明度よりも高いので(ステップS523において“Y”)、画像形成装置1は、ステップS527においてマゼンタ色の色画像データDMを補正することにより、マゼンタ色画像PMを広げる。具体的には、画像形成装置1は、図23(C)に示したように、マゼンタ色画像PMの左側のエッジを左方向に移動させるとともに右側のエッジを右方向に移動させることにより、マゼンタ色画像PMを広げる。
On the other hand, in the
これにより、画像形成装置1では、画像形成部13が画像を形成する際に、画像の形成位置に相対的なずれが生じた場合でも、図23(D)に示したように、明度が高い白色画像PWが露出するおそれを低減することができる。その結果、明度が高い白色画像PWが見えるおそれを低減することができ、画質を高めることができる。
Thus, in the
(トラッピング処理の具体例2)
図24は、明度が高い色の記録媒体9に、その明度よりも低い明度を有するマゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。図24(A)は、トラッピング処理を行わない場合の断面図を示し、図24(B)は、図24(A)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図24(C)は、トラッピング処理を行う場合の断面図を示し、図24(D)は、図24(C)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。
(Specific example 2 of trapping process)
FIG. 24 schematically illustrates an image formation example when a magenta color image PM having a lightness lower than the lightness is formed on the
この場合でも、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、これらの画像の形成位置に相対的なずれが生じた場合には、図24(B)に示したように、明度が高い白色画像PWの一部が露出してしまう。その結果、マゼンタ色画像PMの近傍に、明度が高い白色画像PWが見えてしまう。
Even in this case, when the
このように白色画像PWが露出しにくくする方法としては、図23(C)と同様に、マゼンタ色画像PMを広げる方法も考えられる。しかしながら、この場合には、オブジェクト(例えばマゼンタ色の線)が太く見えてしまう。すなわち、この例では、記録媒体9の色の明度が高いため、広くなったマゼンタ色画像PMが目立ち、オブジェクトが太く見えてしまう。
As a method of making the white image PW difficult to be exposed in this manner, a method of widening the magenta color image PM can be considered as in FIG. However, in this case, the object (for example, a magenta line) looks thick. That is, in this example, since the brightness of the color of the
そこで、画像形成装置1では、図24(C)に示したように、トラッピング処理により白色画像PWを狭める。すなわち、ステップS502においてマゼンタ色の色画像データDMを選択した場合において、幅WP1および間隔WS1,WS2がしきい値TH3に対応する幅WTHよりも広く(ステップS522において“Y”)、記録媒体9の色の明度がマゼンタ色画像PMの明度よりも高いので(ステップS523において“Y”)、画像形成装置1は、ステップS527において白色の色画像データDWを補正することにより、白色画像PWを狭める。具体的には、画像形成装置1は、図24(C)に示したように、白色画像PWの左側のエッジを右方向に移動させるとともに、白色画像PWの右側のエッジを左方向に移動させることにより、白色画像PWを狭める。
Therefore, in the
これにより、画像形成装置1では、画像形成部13が画像を形成する際に、画像の形成位置に相対的なずれが生じた場合でも、図24(D)に示したように、明度が高い白色画像PWが露出するおそれを低減することができるとともに、マゼンタ色画像PMの幅を維持することができる。その結果、オブジェクトが太く見えることなく、明度が高い白色画像PWが見えるおそれを低減することができ、画質を高めることができる。
Accordingly, in the
(トラッピング処理の具体例3)
図25は、明度が低い色の記録媒体9に、その明度よりも高い明度を有するマゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。この例では、トラッピング処理を行わない場合におけるマゼンタ色画像PMの幅WP1および間隔WS1を、しきい値TH3に対応する幅WTHよりも狭くし、間隔WS2を、しきい値TH3に対応する幅WTHよりも広くしている。
(Specific example 3 of trapping process)
FIG. 25 schematically shows an image formation example in the case where a magenta color image PM having a lightness higher than the lightness is formed on the
この場合でも、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、これらの画像の形成位置に相対的なずれが生じた場合には、図25(B)に示したように、明度が高い白色画像PWの一部が露出してしまう。このとき、例えば、図23(C),(D)と同様に、マゼンタ色画像PMを広げた場合には、狭い間隔WS1にもマゼンタ色画像PMが広がることにより、画質が低下するおそれがある。
Even in this case, when the
一方、画像形成装置1では、図25(C)に示したように、トラッピング処理において、マゼンタ色画像PMの左側のエッジおよび白色画像PWの左側のエッジの両方を、互いに反対の方向に移動させることにより、マゼンタ色画像PMを広げるとともに白色画像PWを狭める。すなわち、ステップS502において白色の色画像データDWを選択した場合において、幅WP1および間隔WS1がしきい値TH3に対応する幅WTHよりも狭いので(ステップS522,S524,S525において“N”)、画像形成装置1は、ステップS526,S527において、マゼンタ色の色画像データDMを補正することにより、マゼンタ色画像PMを広げる。具体的には、画像形成装置1は、マゼンタ色画像PMの左側のエッジを、図23(C)の場合の半分だけ左方向に移動させることにより、マゼンタ色画像PMを広げる。また、ステップS502においてマゼンタ色の色画像データDMを選択した場合において、幅WP1および間隔WS1がしきい値TH3に対応する幅WTHよりも狭いので(ステップS522,S524,S525において“N”)、画像形成装置1は、ステップS526,S527において、白色の色画像データDWを補正することにより、白色画像PWを狭める。具体的には、画像形成装置1は、白色画像PWの左側のエッジを、図24(C)の場合の半分だけ右方向に移動させることにより、白色画像PWを狭める。
On the other hand, in the
これにより、画像形成装置1では、画像形成部13が画像を形成する際に、画像の形成位置に相対的なずれが生じた場合でも、図25(D)に示したように、明度が高い白色画像PWが露出するおそれを低減することができるとともに、狭い間隔WS1にマゼンタ色画像PMが広がるおそれを低減することができる。その結果、画質を高めることができる。
Thus, in the
(トラッピング処理の具体例4)
図26は、明度が高い色の記録媒体9に、その明度よりも低い明度を有するマゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。
(Specific example 4 of trapping process)
FIG. 26 schematically illustrates an image formation example when a magenta color image PM having a lightness lower than the lightness is formed on the
この場合でも、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、これらの画像の形成位置に相対的なずれが生じた場合には、図26(B)に示したように、明度が高い白色画像PWの一部が露出してしまう。このとき、例えば、図24(C)と同様に、白色画像PWを狭めた場合には、狭い幅WP1において白色画像PWがさらに狭くなるため、記録媒体9の色とマゼンタ色とが混ざり合って見える領域が増えるため、色が変色してしまい、画質が低下するおそれがある。
Even in this case, when the
一方、画像形成装置1では、図26(C)に示したように、トラッピング処理において、マゼンタ色画像PMの右側のエッジを移動させることにより、マゼンタ色画像PMを広げる。すなわち、ステップS502において白色の色画像データDWを選択した場合において、幅WP1がしきい値TH3に対応する幅WTHよりも狭く(ステップS522において“N”)、間隔WS2がしきい値TH3に対応する幅WTHよりも広い(ステップS524において“Y”)ので、画像形成装置1は、ステップS527において、マゼンタ色の色画像データDMを補正することにより、マゼンタ色画像PMを広げる。具体的には、画像形成装置1は、マゼンタ色画像PMの右側のエッジを右方向に移動させることにより、マゼンタ色画像PMを広げる。
On the other hand, in the
これにより、画像形成装置1では、画像形成部13が画像を形成する際に、画像の形成位置に相対的なずれが生じた場合でも、図26(D)に示したように、明度が高い白色画像PWが露出するおそれを低減することができるとともに、狭い幅WP1において、記録媒体9の色とマゼンタ色とが混ざり合って変色するおそれを低減することができる。その結果、画質を高めることができる。
Thus, in the
[効果]
以上のように本実施の形態では、白境界補正処理を行い、白境界付近において、画素値がゆるやかに変化するようにしたので、画質を高めることができる。
[effect]
As described above, in this embodiment, the white boundary correction process is performed so that the pixel value gradually changes in the vicinity of the white boundary, so that the image quality can be improved.
本実施の形態では、記録媒体の色を検出し、検出した色に基づいてトラッピング処理を行うようにしたので、画質を高めることができる。 In the present embodiment, since the color of the recording medium is detected and the trapping process is performed based on the detected color, the image quality can be improved.
本実施の形態では、画像の幅および間隔が広い場合において、記録媒体の明度が画像の明度よりも高い場合に、白色画像の幅を狭めるようにしたので、オブジェクトが太くなるおそれを低減することができるため、画質を高めることができる。 In the present embodiment, the width of the white image is narrowed when the brightness of the recording medium is higher than the brightness of the image when the width and interval of the image are wide, thereby reducing the possibility that the object becomes thick. Image quality can be improved.
本実施の形態では、画像の幅および間隔に基づいて、トラッピング処理を行うようにしたので、画質を高めることができる。 In this embodiment, since the trapping process is performed based on the width and interval of the image, the image quality can be improved.
[変形例1]
上記実施の形態では、エッジ方向データDIR、エッジ距離データDIS、幅データDLW、および白境界データDWRの生成方法の一例を示したが、これらの方法に限定されるものではなく、他の方法を用いてもよい。
[Modification 1]
In the above-described embodiment, an example of the generation method of the edge direction data DIR, the edge distance data DIS, the width data DLW, and the white boundary data DWR has been described. It may be used.
[変形例2]
上記実施の形態では、ステップS408において、式(EQ1)を用いて、補正対象領域R内の各画素での色画像データDWの画素値を補正したが、これに限定されるものではない。例えば、白境界BWと交差する方向において、白境界領域RBW内の画素値をゆるやかに変化させる様々な方法を用いることができる。
[Modification 2]
In the above embodiment, in step S408, the pixel value of the color image data DW at each pixel in the correction target region R is corrected using the equation (EQ1), but the present invention is not limited to this. For example, various methods can be used in which the pixel value in the white boundary region RBW is gradually changed in the direction intersecting the white boundary BW.
[変形例3]
上記実施の形態では、媒体色センサ12を設け、記録媒体9の色を検出したが、これに限定されるものではない。これに代えて、例えば図27に示す画像形成装置1Bのように、媒体色設定部12Bを設け、ユーザが、例えば操作パネルを操作することにより、記録媒体9の色を入力し、媒体色設定部12Bがこの入力結果に基づいて媒体色情報Cを生成してもよい。また、例えば、ホストコンピュータ(図示せず)から、印刷データDPとともに、記録媒体9に関する記録媒体情報を受信し、その記録媒体情報に基づいて媒体色情報Cを生成してもよい。また、例えば、画像形成装置1の装置内や、外部のデータベースに、記録媒体の種類と媒体色情報Cとの対応関係を示すテーブルを記憶させておき、ホストコンピュータから供給された記録媒体情報に基づいて、このテーブルを参照することにより、媒体色情報Cを生成してもよい。
[Modification 3]
In the above embodiment, the
以上、いくつかの実施の形態および変形例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。 The present technology has been described above with some embodiments and modifications. However, the present technology is not limited to these embodiments and the like, and various modifications are possible.
例えば、上記の実施の形態等では、本発明を普通紙などの記録媒体9に画像を形成する用途に適用したが、これに限定されるものではない。記録媒体は、いわゆるアイロンプリントの転写シートであってもよいし、例えば、OHP(Over Head Projector)フィルムであってもよい。この場合、画像形成部13は、例えば、黄色の画像、マゼンタ色の画像、シアン色の画像、黒色の画像、および白色の画像を、この順で形成する。すなわち、白色の画像が一番上に形成される。例えば、アイロンプリントの場合には、転写シートから、生地などの被転写物に転写することにより、非転写物において、白色の画像が一番下に形成される。
For example, in the above-described embodiment and the like, the present invention is applied to the use of forming an image on the
また、例えば、上記の実施の形態等では、白色の現像剤を用いたが、これに限定されるものではなく、例えば、白色に近い色の現像剤を用いてもよい。 Further, for example, in the above-described embodiment and the like, the white developer is used. However, the present invention is not limited to this. For example, a developer having a color close to white may be used.
また、例えば、上記の実施の形態等では、本発明を画像形成装置に適用したが、これに限定されるものではなく、これに代えて、コピー、ファクシミリ、スキャナなどの機能を有する多機能周辺装置(MFP;Multi Function Peripheral)に適用してもよい。 Further, for example, in the above-described embodiment, the present invention is applied to the image forming apparatus, but the present invention is not limited to this, and instead, a multifunction peripheral having functions such as a copy, a facsimile, and a scanner. You may apply to an apparatus (MFP; Multi Function Peripheral).
また、例えば、上記の実施の形態等では、本発明における「明るさ度合い」の一具体例として明度を用いたが、これに限定されるものではない。これに代えて、例えば、輝度を用いてもよい。 Further, for example, in the above-described embodiment and the like, brightness is used as a specific example of “brightness degree” in the present invention, but the present invention is not limited to this. Instead of this, for example, luminance may be used.
1,1B…画像形成装置、9…記録媒体、11…通信部、12…媒体色センサ、12B…媒体色設定部、13…画像形成部、20…画像処理部、21…色画像生成部、22…エッジ検出部、23…白境界検出部、24…補正部、A…注目画素、A1…周辺画素、B…エッジ部分、B1,B2…画素、C…媒体色情報、C1…白境界画素、C2…非白境界画素、D,DY,DM,DC,DK,DW,E,EY,EM,EC,EK,EW…色画像データ、DBN…2値データ、DIR…エッジ方向データ、DIS…エッジ距離データ、DLW…幅データ、DWR…白境界データ、PM…マゼンタ色画像、PW…白色画像、R…補正対象領域、RBW…白境界領域、R1,R11,R2,R21…領域、TH1,TH2,TH3,TH4…しきい値、WP1…幅、WS1,WS2…間隔。
DESCRIPTION OF
Claims (15)
前記第2の色に対応する第2の画像データ、および前記第1の補正処理が施された前記第1の画像データに基づいて、記録媒体に画像を形成する画像形成部と
を備えた画像形成装置。 Of the image area in which the first image corresponding to the first color is arranged, the first area in which the second image corresponding to the second color is arranged, and the first of the image areas. First correction processing for gradual change in pixel value with respect to first image data corresponding to the first color in a boundary region including a boundary with a second region other than the first region An image processing unit for performing
An image forming unit configured to form an image on a recording medium based on the second image data corresponding to the second color and the first image data subjected to the first correction process. Forming equipment.
請求項1に記載の画像形成装置。 The image processing unit includes a first pixel value of a first pixel included in the first region and a second value of a second pixel included in the second region in the first image data. The image forming apparatus according to claim 1, wherein the boundary region is set based on a difference from a pixel value.
請求項2に記載の画像形成装置。 The image processing unit sets the boundary region when a difference value that is an absolute value of a difference between the first pixel value and the second pixel value is larger than a first threshold value. The image forming apparatus according to 2.
前記差分値が、前記第1のしきい値よりも大きく、前記第1のしきい値よりも大きい第2のしきい値よりも小さい場合に、前記境界領域の、前記境界と交差する方向における領域幅を第1の幅に設定し、
前記差分値が第2のしきい値よりも大きい場合に、前記領域幅を前記第1の幅よりも広い第2の幅に設定する
請求項3に記載の画像形成装置。 The image processing unit
When the difference value is larger than the first threshold value and smaller than a second threshold value larger than the first threshold value, the boundary region in a direction intersecting the boundary Set the region width to the first width,
The image forming apparatus according to claim 3, wherein when the difference value is larger than a second threshold value, the area width is set to a second width wider than the first width.
請求項2から請求項4のいずれか一項に記載の画像形成装置。 The image forming apparatus according to claim 2, wherein the first pixel and the second pixel are adjacent to each other.
請求項2から請求項5のいずれか一項に記載の画像形成装置。 The image processing unit includes pixels in the plurality of pixels based on pixel values of the plurality of pixels in the boundary region and weight values respectively associated with the plurality of pixels in the first image data. The image forming apparatus according to claim 2, wherein the first correction process is performed by correcting a value.
請求項6に記載の画像形成装置。 The image forming apparatus according to claim 6, wherein the plurality of pixels include the first pixel and the second pixel.
請求項1から請求項7のいずれか一項に記載の画像形成装置。 The image processing unit performs the first correction processing so that pixel values of a plurality of pixels arranged in a direction intersecting the boundary in the boundary area in the first image data change monotonously. The image forming apparatus according to claim 1.
請求項1から請求項8のいずれか一項に記載の画像形成装置。 The image processing unit includes a first edge portion of the first image and a first edge portion of the second image in an area other than the boundary area based on a medium color of the recording medium. The second correction processing for correcting the first image data and the second image data is further performed by separating the second edge portion corresponding to the first edge data. 9. The image forming apparatus described in 1.
請求項9に記載の画像形成装置。 The image processing unit compares the first brightness level of the medium color with the second brightness level near the second edge portion in the second image, and based on the comparison result, The image forming apparatus according to claim 9, wherein the second correction process is performed.
請求項10に記載の画像形成装置。 When the first brightness level is higher than the second brightness level, the image processing unit moves the first edge portion so that the area of the first image is reduced. The image forming apparatus according to claim 10, wherein the second correction process is performed.
請求項10または請求項11に記載の画像形成装置。 When the second brightness level is higher than the first brightness level, the image processing unit moves the second edge portion so that the area of the second image is increased. The image forming apparatus according to claim 10, wherein the second correction process is performed.
請求項1から請求項12のいずれか一項に記載の画像形成装置。 The image forming apparatus according to any one of claims 1 to 12, wherein the first color is a color other than a basic color forming an image.
請求項1から請求項13のいずれか一項に記載の画像形成装置。 The image forming apparatus according to claim 1, wherein the first color is white.
請求項1から請求項14のいずれか一項に記載の画像形成装置。 The image forming apparatus according to claim 1, wherein the second color is any one of yellow, magenta, cyan, and black.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017024937A JP2018133656A (en) | 2017-02-14 | 2017-02-14 | Image forming apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017024937A JP2018133656A (en) | 2017-02-14 | 2017-02-14 | Image forming apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018133656A true JP2018133656A (en) | 2018-08-23 |
Family
ID=63247684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017024937A Pending JP2018133656A (en) | 2017-02-14 | 2017-02-14 | Image forming apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018133656A (en) |
-
2017
- 2017-02-14 JP JP2017024937A patent/JP2018133656A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8416460B2 (en) | Image processing apparatus and control method of image forming apparatus with exclusive or relative control over the trapping and edge smoothing processing | |
US9241090B2 (en) | Image processing device, image correcting method and program | |
JP4498233B2 (en) | Image processing apparatus and image processing method | |
US10506131B2 (en) | Image processing apparatus that specifies edge pixel in target image using single-component image data | |
US20170208211A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6630228B2 (en) | Image forming device | |
US8995021B2 (en) | Black trapping methods, apparatus and systems for binary images | |
JP5863001B2 (en) | Image processing apparatus, image forming apparatus, and program | |
US8120817B2 (en) | Revising halftone image by adding dot to or filtering edge pixel | |
US9036219B2 (en) | Image processing device and image processing method for preventing image quality deterioration | |
JP2018133656A (en) | Image forming apparatus | |
JP5884362B2 (en) | Image processing method, image reading apparatus, and image processing program | |
JP2017068023A (en) | Image forming apparatus | |
US10154174B2 (en) | Image forming apparatus | |
JP5218768B2 (en) | Image processing apparatus and program | |
US10389909B2 (en) | Image processing apparatus that specifies edge pixel in target image using minimum and maximum component values of pixel value in target image data | |
JP5316312B2 (en) | Image processing device | |
JP6303458B2 (en) | Image processing apparatus and image processing method | |
US20140063557A1 (en) | Image forming apparatus and image forming method | |
JP2006287603A (en) | Mesh point region discrimination apparatus and mesh point region discrimination program | |
JP5777602B2 (en) | Image forming apparatus | |
JP5870826B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2010245591A (en) | Image processor and program | |
JP2012239095A (en) | Image processing apparatus, suitable image determination method, and computer program | |
JP2019092127A (en) | Image processing apparatus, image forming apparatus, image processing method, and image processing program |