JP2018133656A - Image forming apparatus - Google Patents

Image forming apparatus Download PDF

Info

Publication number
JP2018133656A
JP2018133656A JP2017024937A JP2017024937A JP2018133656A JP 2018133656 A JP2018133656 A JP 2018133656A JP 2017024937 A JP2017024937 A JP 2017024937A JP 2017024937 A JP2017024937 A JP 2017024937A JP 2018133656 A JP2018133656 A JP 2018133656A
Authority
JP
Japan
Prior art keywords
pixel
image
image data
color
white
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017024937A
Other languages
Japanese (ja)
Inventor
晃光 河野
Akimitsu Kono
晃光 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Data Corp filed Critical Oki Data Corp
Priority to JP2017024937A priority Critical patent/JP2018133656A/en
Publication of JP2018133656A publication Critical patent/JP2018133656A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image forming apparatus capable of enhancing image quality.SOLUTION: The image forming apparatus includes: an image processing unit that performs a first correction process for gently changing a pixel value with respect to first image data corresponding to a first color in a boundary region including a boundary between a first region in which a second image corresponding to a second color is arranged among image regions in which a first image corresponding to a first color is arranged and a second region other than the first region among the image regions; and an image forming unit for forming an image on the basis of the second image data corresponding to the second color and the first image data subjected to the first correction processing.SELECTED DRAWING: Figure 21

Description

本発明は、記録媒体に画像を形成する画像形成装置に関する。   The present invention relates to an image forming apparatus that forms an image on a recording medium.

画像形成装置では、互いに色が異なる複数の色画像を記録媒体に形成する際の形成位置のずれを考慮し、画像データに対してしばしば、いわゆるトラッピング処理を行う。例えば、特許文献1には、トラッピング処理を行うことにより印刷結果物の画質の向上を図る画像形成装置が開示されている。   In an image forming apparatus, a so-called trapping process is often performed on image data in consideration of a shift in formation position when a plurality of color images having different colors are formed on a recording medium. For example, Patent Document 1 discloses an image forming apparatus that improves the image quality of a printed product by performing a trapping process.

特開2008−141623号公報JP 2008-141623 A

画像形成装置では、記録媒体の色が画質に与える影響を抑えるために、しばしば、例えば白色の現像剤が使用される。このような場合でも、画質が高いことが望まれている。   In an image forming apparatus, for example, a white developer is often used in order to suppress the influence of the color of a recording medium on image quality. Even in such a case, high image quality is desired.

画質を高めることができる画像形成装置を提供することが望ましい。   It is desirable to provide an image forming apparatus that can improve image quality.

本発明の一実施の形態における画像形成装置は、画像処理部と、画像形成部とを備えている。画像処理部は、第1の色に対応する第1の画像が配置された画像領域のうちの、第2の色に対応する第2の画像が配置された第1の領域と、画像領域のうちの第1の領域以外の第2の領域との間の境界を含む境界領域において、第1の色に対応する第1の画像データに対して、画素値の変化をゆるやかにする第1の補正処理を行うものである。画像形成部は、第2の色に対応する第2の画像データ、および第1の補正処理が施された第1の画像データに基づいて、記録媒体に画像を形成するものである。   An image forming apparatus according to an embodiment of the present invention includes an image processing unit and an image forming unit. The image processing unit includes: a first area in which a second image corresponding to the second color is arranged in an image area in which the first image corresponding to the first color is arranged; First in which the change of the pixel value is moderated with respect to the first image data corresponding to the first color in the boundary region including the boundary with the second region other than the first region. Correction processing is performed. The image forming unit forms an image on a recording medium based on the second image data corresponding to the second color and the first image data subjected to the first correction process.

本発明の一実施の形態における画像形成装置によれば、境界領域において、第1の色に対応する第1の画像データに対して、画素値の変化をゆるやかにする第1の補正処理を行うようにしたので、画質を高めることができる   According to the image forming apparatus of one embodiment of the present invention, the first correction process for gradual change of the pixel value is performed on the first image data corresponding to the first color in the boundary region. So that the image quality can be improved

一実施の形態に係る画像形成装置の一構成例を表すブロック図である。1 is a block diagram illustrating a configuration example of an image forming apparatus according to an embodiment. 図1に示した画像処理部の一動作例を表すフローチャートである。3 is a flowchart illustrating an operation example of the image processing unit illustrated in FIG. 1. 図2に示したエッジ検出処理の一例を表すフローチャートである。3 is a flowchart illustrating an example of edge detection processing illustrated in FIG. 2. 図3に示した2値化処理の一例を表す説明図である。It is explanatory drawing showing an example of the binarization process shown in FIG. 図3に示した2値化処理の一例を表す他の説明図である。It is another explanatory drawing showing an example of the binarization process shown in FIG. 図3に示した2値化処理の一例を表す他の説明図である。It is another explanatory drawing showing an example of the binarization process shown in FIG. 図3に示した2値化処理の一例を表す他の説明図である。It is another explanatory drawing showing an example of the binarization process shown in FIG. 図2に示したエッジ検出処理の一例を表す表である。It is a table | surface showing an example of the edge detection process shown in FIG. 図2に示したエッジ検出処理の一例を表す説明図である。It is explanatory drawing showing an example of the edge detection process shown in FIG. 図2に示した白境界検出処理の一例を表すフローチャートである。3 is a flowchart illustrating an example of white boundary detection processing illustrated in FIG. 2. 図8に示した白境界検出処理の一例を表す説明図である。FIG. 9 is an explanatory diagram illustrating an example of white boundary detection processing illustrated in FIG. 8. 図8に示した白境界検出処理の一例を表す他の説明図である。FIG. 9 is another explanatory diagram illustrating an example of the white boundary detection process illustrated in FIG. 8. 図8に示した白境界検出処理の一例を表す他の説明図である。FIG. 9 is another explanatory diagram illustrating an example of the white boundary detection process illustrated in FIG. 8. 図2に示した白境界補正処理の一例を表すフローチャートである。3 is a flowchart illustrating an example of a white boundary correction process illustrated in FIG. 2. 図11に示した白境界補正処理の一例を表す説明図である。It is explanatory drawing showing an example of the white boundary correction process shown in FIG. 図11に示した白境界補正処理の一例を表す他の説明図である。FIG. 12 is another explanatory diagram illustrating an example of the white boundary correction process illustrated in FIG. 11. 図11に示した白境界補正処理の一例を表す他の説明図である。FIG. 12 is another explanatory diagram illustrating an example of the white boundary correction process illustrated in FIG. 11. 図11に示した白境界補正処理の一例を表す他の説明図である。FIG. 12 is another explanatory diagram illustrating an example of the white boundary correction process illustrated in FIG. 11. 図11に示した白境界補正処理の一例を表す他の説明図である。FIG. 12 is another explanatory diagram illustrating an example of the white boundary correction process illustrated in FIG. 11. 図11に示した白境界補正処理の一例を表す他の説明図である。FIG. 12 is another explanatory diagram illustrating an example of the white boundary correction process illustrated in FIG. 11. 図2に示したトラッピング補正処理の一例を表すフローチャートである。3 is a flowchart illustrating an example of a trapping correction process illustrated in FIG. 2. 図18に示したトラッピング処理の一例を表すフローチャートである。It is a flowchart showing an example of the trapping process shown in FIG. 図18に示したトラッピング補正処理の一例を表す説明図である。It is explanatory drawing showing an example of the trapping correction process shown in FIG. 図1に示した画像形成装置の一動作例を表す説明図である。FIG. 6 is an explanatory diagram illustrating an operation example of the image forming apparatus illustrated in FIG. 1. 図1に示した画像形成装置の一動作例を表す他の説明図である。FIG. 10 is another explanatory diagram illustrating an operation example of the image forming apparatus illustrated in FIG. 1. 図1に示した画像形成装置の一動作例を表す他の説明図である。FIG. 10 is another explanatory diagram illustrating an operation example of the image forming apparatus illustrated in FIG. 1. 図1に示した画像形成装置の一動作例を表す他の説明図である。FIG. 10 is another explanatory diagram illustrating an operation example of the image forming apparatus illustrated in FIG. 1. 図1に示した画像形成装置の一動作例を表す他の説明図である。FIG. 10 is another explanatory diagram illustrating an operation example of the image forming apparatus illustrated in FIG. 1. 図1に示した画像形成装置の一動作例を表す他の説明図である。FIG. 10 is another explanatory diagram illustrating an operation example of the image forming apparatus illustrated in FIG. 1. 変形例に係る画像形成装置の一構成例を表すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of an image forming apparatus according to a modification.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[構成例]
図1は、本発明の一実施の形態に係る画像形成装置(画像形成装置1)の一構成例を表すものである。画像形成装置1は、例えば、普通紙などの記録媒体9に対して、白色を含む複数の現像剤を用いて画像を形成するプリンタとして機能するものである。画像形成装置1は、通信部11と、媒体色センサ12と、画像処理部20と、画像形成部13とを備えている。
[Configuration example]
FIG. 1 shows a configuration example of an image forming apparatus (image forming apparatus 1) according to an embodiment of the present invention. The image forming apparatus 1 functions as a printer that forms an image on a recording medium 9 such as plain paper using a plurality of developers including white. The image forming apparatus 1 includes a communication unit 11, a medium color sensor 12, an image processing unit 20, and an image forming unit 13.

通信部11は、例えば、有線LAN(Local Area Network)を介して、ホストコンピュータ(図示せず)と通信を行うことにより、印刷データDPを受信するものである。そして、通信部11は、受信した印刷データDPを画像処理部20に供給するようになっている。なお、この例では有線LANを用いたが、これに限定されるものではなく、これに代えて、例えば無線LANを用いてもよい。また、この例ではネットワークを用いたが、これに限定されるものではなく、これに代えて、例えばUSB(Universal Serial Bus)を用いてもよい。   The communication unit 11 receives print data DP by communicating with a host computer (not shown) via a wired LAN (Local Area Network), for example. The communication unit 11 supplies the received print data DP to the image processing unit 20. In this example, a wired LAN is used. However, the present invention is not limited to this. For example, a wireless LAN may be used instead. In this example, the network is used. However, the present invention is not limited to this. For example, a USB (Universal Serial Bus) may be used instead.

媒体色センサ12は、画像形成部13が画像を形成する記録媒体9の色を検出するものである。そして、媒体色センサ12は、その検出結果を、媒体色情報Cとして、画像処理部20に供給するようになっている。   The medium color sensor 12 detects the color of the recording medium 9 on which the image forming unit 13 forms an image. The medium color sensor 12 supplies the detection result to the image processing unit 20 as medium color information C.

画像処理部20は、印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成し、各色画像データDに対して、トラッピング処理を行うものである。画像処理部20は、例えば、ハードウェアにより構成してもよいし、プログラムを実行可能なプロセッサを用いて構成してもよい。画像処理部20は、色画像生成部21と、エッジ検出部22と、白境界検出部23と、補正部24とを有している。   The image processing unit 20 generates five color image data D (color image data DY, DM, DC, DK, DW) based on the print data DP, and performs a trapping process on each color image data D It is. For example, the image processing unit 20 may be configured by hardware, or may be configured by using a processor capable of executing a program. The image processing unit 20 includes a color image generation unit 21, an edge detection unit 22, a white boundary detection unit 23, and a correction unit 24.

色画像生成部21は、印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成するものである。色画像データDYは、黄色の現像剤を用いて形成されるべき画像に対応する画像データであり、色画像データDMは、マゼンタ色の現像剤を用いて形成されるべき画像に対応する画像データであり、色画像データDCは、シアン色の現像剤を用いて形成されるべき画像に対応する画像データであり、色画像データDKは、黒色の現像剤を用いて形成されるべき画像に対応する画像データであり、色画像データDWは、白色の現像剤を用いて形成されるべき画像に対応する画像データである。   The color image generation unit 21 generates five color image data D (color image data DY, DM, DC, DK, DW) based on the print data DP. The color image data DY is image data corresponding to an image to be formed using a yellow developer, and the color image data DM is image data corresponding to an image to be formed using a magenta developer. The color image data DC is image data corresponding to an image to be formed using a cyan developer, and the color image data DK corresponds to an image to be formed using a black developer. The color image data DW is image data corresponding to an image to be formed using a white developer.

エッジ検出部22は、5つの色画像データDに基づいて、画像のエッジを検出するものである。具体的には、エッジ検出部22は、後述するように、5つの色画像データDに基づいて、エッジ方向情報のマップを示す5つのエッジ方向データDIR、エッジ距離情報のマップを示す5つのエッジ距離データDIS、および幅情報のマップを示す5つの幅データDLWを生成するようになっている。   The edge detector 22 detects the edge of the image based on the five color image data D. Specifically, as will be described later, the edge detection unit 22 based on the five color image data D, five edge direction data DIR indicating a map of edge direction information, and five edges indicating a map of edge distance information The distance data DIS and five width data DLW indicating a map of width information are generated.

白境界検出部23は、5つの色画像データDに基づいて、記録媒体9に形成されるべき画像における、白色の画像領域と白色以外の色の画像領域との間の境界(以下、白境界BWともいう)を検出するものである。具体的には、白境界検出部23は、後述するように、5つの色画像データDに基づいて、白境界BWの場所を示すマップである白境界データDWRを生成するようになっている。   Based on the five color image data D, the white boundary detection unit 23 is a boundary between a white image area and an image area of a color other than white in an image to be formed on the recording medium 9 (hereinafter, white boundary (Also referred to as BW). Specifically, the white boundary detection unit 23 generates white boundary data DWR, which is a map indicating the location of the white boundary BW, based on the five color image data D, as will be described later.

補正部24は、媒体色情報C、5つのエッジ方向データDIR、5つのエッジ距離データDIS、5つの幅データDLW、5つの色画像データD(色画像データDY,DM,DC,DK,DW)、および白境界データDWRに基づいて、補正処理(白境界補正処理およびトラッピング補正処理)を行うことにより、5つの色画像データE(色画像データEY,EM,EC,EK,EW)を生成するものである。具体的には、補正部24は、色画像データDYを補正することにより色画像データEYを生成し、色画像データDMを補正することにより色画像データEMを生成し、色画像データDCを補正することにより色画像データECを生成し、色画像データDKを補正することにより色画像データEKを生成し、色画像データDWを補正することにより色画像データEWを生成するようになっている。   The correction unit 24 includes medium color information C, five edge direction data DIR, five edge distance data DIS, five width data DLW, and five color image data D (color image data DY, DM, DC, DK, DW). Then, based on the white boundary data DWR, correction processing (white boundary correction processing and trapping correction processing) is performed to generate five color image data E (color image data EY, EM, EC, EK, EW). Is. Specifically, the correction unit 24 generates the color image data EY by correcting the color image data DY, generates the color image data EM by correcting the color image data DM, and corrects the color image data DC. Thus, color image data EC is generated, color image data EK is generated by correcting color image data DK, and color image data EW is generated by correcting color image data DW.

画像形成部13は、5つの色画像データEに基づいて、記録媒体9に画像を形成するものである。画像形成部13は、黄色、マゼンタ色、シアン色、黒色、白色の5色の現像剤を用いて、記録媒体9に画像を形成する。具体的には、画像形成部13は、色画像データEYに基づいて黄色の現像剤を用いて黄色の画像を形成し、色画像データEMに基づいてマゼンタ色の現像剤を用いてマゼンタ色の画像を形成し、色画像データECに基づいてシアン色の現像剤を用いてシアン色の画像を形成し、色画像データEKに基づいて黒色の現像剤を用いて黒色の画像を形成し、色画像データEWに基づいて白色の現像剤を用いて白色の画像を形成する。その際、画像形成部13は、白色の画像、黒色の画像、シアン色の画像、マゼンタ色の画像、および黄色の画像を、記録媒体9にこの順で形成する。すなわち、白色の画像が一番下に形成される。これにより、画像形成装置1では、記録媒体9の色が画質に与える影響を抑えることができるようになっている。   The image forming unit 13 forms an image on the recording medium 9 based on the five color image data E. The image forming unit 13 forms an image on the recording medium 9 using developers of five colors of yellow, magenta, cyan, black, and white. Specifically, the image forming unit 13 forms a yellow image using a yellow developer based on the color image data EY, and uses a magenta developer based on the color image data EM to form a magenta color. An image is formed, a cyan image is formed using a cyan developer based on the color image data EC, and a black image is formed using a black developer based on the color image data EK. A white image is formed using a white developer based on the image data EW. At that time, the image forming unit 13 forms a white image, a black image, a cyan image, a magenta image, and a yellow image on the recording medium 9 in this order. That is, a white image is formed at the bottom. As a result, the image forming apparatus 1 can suppress the influence of the color of the recording medium 9 on the image quality.

ここで、画像処理部20は、本発明における「画像処理部」の一具体例に対応する。画像形成部13は、本発明における「画像形成部」の一具体例に対応する。色画像データDWは、本発明における「第1の画像データ」の一具体例に対応する。色画像データDY,DM,DC,DKのいずれか一つは、本発明における「第2の画像データ」の一具体例に対応する。   Here, the image processing unit 20 corresponds to a specific example of an “image processing unit” in the present invention. The image forming unit 13 corresponds to a specific example of “image forming unit” in the present invention. The color image data DW corresponds to a specific example of “first image data” in the present invention. Any one of the color image data DY, DM, DC, and DK corresponds to a specific example of “second image data” in the present invention.

[動作および作用]
続いて、本実施の形態の画像形成装置1の動作および作用について説明する。
[Operation and Action]
Next, the operation and action of the image forming apparatus 1 according to the present embodiment will be described.

(全体動作概要)
まず、図1を参照して、画像形成装置1の全体動作概要を説明する。通信部11は、ホストコンピュータと通信を行うことにより、印刷データDPを受信する。媒体色センサ12は、画像形成部13が画像を形成する記録媒体9の色を検出し、その検出結果を媒体色情報Cとして画像処理部20に供給する。画像処理部20の色画像生成部21は、印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成する。エッジ検出部22は、5つの色画像データDに基づいて、画像のエッジを検出する。具体的には、エッジ検出部22は、5つの色画像データDに基づいて、エッジ方向情報のマップを示す5つのエッジ方向データDIR、エッジ距離情報のマップを示す5つのエッジ距離データDIS、および幅情報のマップを示す5つの幅データDLWを生成する。白境界検出部23は、5つの色画像データDに基づいて、記録媒体9に形成されるべき画像における、白色の画像領域と白色以外の色の画像領域との間の境界(白境界BW)を検出する。具体的には、白境界検出部23は、5つの色画像データDに基づいて、白境界BWの場所を示すマップである白境界データDWRを生成する。補正部24は、媒体色情報C、5つのエッジ方向データDIR、5つのエッジ距離データDIS、5つの幅データDLW、5つの色画像データD(色画像データDY,DM,DC,DK,DW)、および白境界データDWRに基づいて、補正処理(白境界補正処理およびトラッピング補正処理)を行うことにより、5つの色画像データE(色画像データEY,EM,EC,EK,EW)を生成する。画像形成部13は、5つの色画像データEに基づいて、記録媒体9に画像を形成する。
(Overview of overall operation)
First, an overall operation outline of the image forming apparatus 1 will be described with reference to FIG. The communication unit 11 receives the print data DP by communicating with the host computer. The medium color sensor 12 detects the color of the recording medium 9 on which the image forming unit 13 forms an image, and supplies the detection result to the image processing unit 20 as medium color information C. The color image generation unit 21 of the image processing unit 20 generates five color image data D (color image data DY, DM, DC, DK, DW) based on the print data DP. The edge detection unit 22 detects the edge of the image based on the five color image data D. Specifically, the edge detection unit 22 based on the five color image data D, five edge direction data DIR indicating a map of edge direction information, five edge distance data DIS indicating a map of edge distance information, and Five width data DLW indicating a map of width information is generated. Based on the five color image data D, the white boundary detection unit 23 is a boundary (white boundary BW) between a white image region and an image region of a color other than white in an image to be formed on the recording medium 9. Is detected. Specifically, the white boundary detection unit 23 generates white boundary data DWR, which is a map indicating the location of the white boundary BW, based on the five color image data D. The correction unit 24 includes medium color information C, five edge direction data DIR, five edge distance data DIS, five width data DLW, and five color image data D (color image data DY, DM, DC, DK, DW). Then, based on the white boundary data DWR, correction processing (white boundary correction processing and trapping correction processing) is performed to generate five color image data E (color image data EY, EM, EC, EK, EW). . The image forming unit 13 forms an image on the recording medium 9 based on the five color image data E.

(詳細動作)
図2は、画像処理部20の一動作例を表すものである。画像処理部20は、印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成し、各色画像データDに対して補正処理(白境界補正処理およびトラッピング補正処理)を行う。この動作について、以下に説明する。
(Detailed operation)
FIG. 2 illustrates an operation example of the image processing unit 20. The image processing unit 20 generates five color image data D (color image data DY, DM, DC, DK, DW) based on the print data DP, and performs correction processing (white boundary correction) on each color image data D. Processing and trapping correction processing). This operation will be described below.

まず、色画像生成部21は、通信部11が受信した印刷データDPに基づいて、5つの色画像データD(色画像データDY,DM,DC,DK,DW)を生成する(ステップS100)。   First, the color image generation unit 21 generates five color image data D (color image data DY, DM, DC, DK, DW) based on the print data DP received by the communication unit 11 (step S100).

次に、エッジ検出部22は、5つの色画像データDに基づいてエッジ検出処理を行う(ステップS200)。具体的には、エッジ検出部22は、後述するように、5つの色画像データDに基づいて、エッジ方向情報のマップを示す5つのエッジ方向データDIR、エッジ距離情報のマップを示す5つのエッジ距離データDIS、および幅情報のマップを示す5つの幅データDLWを生成する。   Next, the edge detection unit 22 performs an edge detection process based on the five color image data D (step S200). Specifically, as will be described later, the edge detection unit 22 based on the five color image data D, five edge direction data DIR indicating a map of edge direction information, and five edges indicating a map of edge distance information The distance data DIS and five width data DLW indicating a map of width information are generated.

次に、白境界検出部23は、5つの色画像データDに基づいて白境界検出処理を行う(ステップS300)。具体的には、白境界検出部23は、後述するように、5つの色画像データDに基づいて、白境界BWの場所を示すマップである白境界データDWRを生成する。   Next, the white boundary detection unit 23 performs white boundary detection processing based on the five color image data D (step S300). Specifically, the white boundary detection unit 23 generates white boundary data DWR, which is a map indicating the location of the white boundary BW, based on the five color image data D, as will be described later.

なお、この例では、エッジ検出処理(ステップS200)および、白境界検出処理(ステップS300)をこの順で行ったが、これに限定されるものではなく、順序を逆にしてもよい。   In this example, the edge detection process (step S200) and the white boundary detection process (step S300) are performed in this order, but the present invention is not limited to this, and the order may be reversed.

次に、補正部24は、5つの色画像データDのうちの白色の色画像データDWに対して、白境界補正処理を行う(ステップS400)。具体的には、補正部24は、後述するように、白境界データDWRに基づいて、白色の色画像データDWにおける白境界BW付近(後述する白境界領域RBW)の画素値を補正する。   Next, the correction unit 24 performs white boundary correction processing on the white color image data DW among the five color image data D (step S400). Specifically, as will be described later, the correction unit 24 corrects a pixel value near the white boundary BW (a white boundary region RBW described later) in the white color image data DW based on the white boundary data DWR.

次に、補正部24は、5つの色画像データDに対して、トラッピング補正処理を行う(ステップS500)。具体的には、補正部24は、後述するように、媒体色情報C、5つのエッジ方向データDIR、5つのエッジ距離データDIS、および5つの幅データDLWに基づいて、5つの色画像データDに対してトラッピング処理を行うことにより、5つの色画像データE(色画像データEY,EM,EC,EK,EW)を生成する。   Next, the correction unit 24 performs a trapping correction process on the five color image data D (step S500). Specifically, as will be described later, the correction unit 24 generates five color image data D based on the medium color information C, the five edge direction data DIR, the five edge distance data DIS, and the five width data DLW. 5 color image data E (color image data EY, EM, EC, EK, EW) is generated by performing a trapping process on.

このようにして、画像処理部20は、5つの色画像データEを生成する。そして、画像形成部13は、5つの色画像データEに基づいて、記録媒体9に画像を形成する。   In this way, the image processing unit 20 generates five color image data E. The image forming unit 13 forms an image on the recording medium 9 based on the five color image data E.

(エッジ検出処理)
次に、図2に示した、ステップS200におけるエッジ検出処理について、詳細に説明する。
(Edge detection processing)
Next, the edge detection process in step S200 shown in FIG. 2 will be described in detail.

図3は、エッジ検出処理の一例を表すものである。エッジ検出処理では、5つの色画像データDに基づいて、5つのエッジ方向データDIR、5つのエッジ距離データDIS、および5つの幅データDLWを生成する。以下に、この動作について詳細に説明する。   FIG. 3 shows an example of edge detection processing. In the edge detection processing, based on the five color image data D, five edge direction data DIR, five edge distance data DIS, and five width data DLW are generated. This operation will be described in detail below.

まず、エッジ検出部22は、5つの色画像データD(色画像データDY,DM,DC,DK,DW)のうちの1つを選択する(ステップS201)。   First, the edge detection unit 22 selects one of the five color image data D (color image data DY, DM, DC, DK, DW) (step S201).

次に、エッジ検出部22は、選択した色画像データDに対して2値化処理を行う(ステップS202)。具体的には、エッジ検出部22は、選択した色画像データDにおいて、各画素における画素値を所定のしきい値TH1と比較する。その際、エッジ検出部22は、選択した色画像データDが、黄色の色画像データDY、マゼンタ色の色画像データDM、シアン色の色画像データDC、および黒色の色画像データDKのいずれかである場合には、画素値がしきい値TH1よりも大きい場合には“1”にし、画素値がしきい値TH1よりも小さい場合には“0”にする。また、エッジ検出部22は、選択した色画像データDが、白色の色画像データDWである場合には、画素値がしきい値TH1よりも大きい場合には“0”にし、画素値がしきい値TH1よりも小さい場合には“1”にする。   Next, the edge detection unit 22 performs binarization processing on the selected color image data D (step S202). Specifically, the edge detection unit 22 compares the pixel value in each pixel with a predetermined threshold value TH1 in the selected color image data D. At this time, the edge detection unit 22 selects any one of the yellow color image data DY, the magenta color image data DM, the cyan color image data DC, and the black color image data DK as the selected color image data D. In the case where the pixel value is larger than the threshold value TH1, it is set to “1”, and when the pixel value is smaller than the threshold value TH1, it is set to “0”. Further, when the selected color image data D is white color image data DW, the edge detection unit 22 sets the pixel value to “0” when the pixel value is larger than the threshold value TH1. When it is smaller than the threshold value TH1, it is set to “1”.

図4A,4Bは、黄色の色画像データDYに対する2値化処理の一例を表すものであり、図4Aは、色画像データDYの一部を模式的に示し、図4Bは、2値化処理の結果を示している。なお、マゼンタ色の色画像データDM、シアン色の色画像データDC、黒色の色画像データDKについても同様である。図4Aにおいて、網掛けされている画素は、画素値がしきい値TH1よりも大きい画素を示し、網掛けされていない画素は、画素値がしきい値TH1よりも小さい画素を示す。エッジ検出部22は、このような色画像データDYに対して2値化処理を行うことにより、図4Bに示したようなマップを示す2値データDBNを生成する。この例では、選択した色画像データDが黄色の色画像データDYであるので、エッジ検出部22は、画素値がしきい値TH1よりも大きい場合には“1”にし、画素値がしきい値TH1よりも小さい場合には“0”にする。すなわち、図4Bにおける“1”で示された画素は、図4Aにおける網掛けされている画素にそれぞれ対応する。同様に、図4Bにおける“0”で示された画素は、図4Aにおける網掛けされていない画素にそれぞれ対応する。   4A and 4B show an example of binarization processing for yellow color image data DY. FIG. 4A schematically shows part of the color image data DY. FIG. 4B shows binarization processing. Shows the results. The same applies to the magenta color image data DM, the cyan color image data DC, and the black color image data DK. In FIG. 4A, shaded pixels indicate pixels whose pixel values are larger than the threshold value TH1, and unshaded pixels indicate pixels whose pixel values are smaller than the threshold value TH1. The edge detection unit 22 generates binary data DBN indicating a map as illustrated in FIG. 4B by performing binarization processing on such color image data DY. In this example, since the selected color image data D is yellow color image data DY, the edge detection unit 22 sets “1” when the pixel value is larger than the threshold value TH1, and the pixel value is the threshold value. If it is smaller than the value TH1, it is set to “0”. That is, the pixels indicated by “1” in FIG. 4B correspond to the shaded pixels in FIG. 4A, respectively. Similarly, the pixels indicated by “0” in FIG. 4B correspond to the non-shaded pixels in FIG. 4A, respectively.

図5A,5Bは、白色の色画像データDWに対する2値化処理の一例を表すものであり、図5Aは、白色の色画像データDWの一部を模式的に示し、図5Bは、2値化処理の結果を示している。図5Aにおいて、網掛けされている画素は、画素値がしきい値TH1よりも大きい画素を示し、網掛けされていない画素は、画素値がしきい値TH1よりも小さい画素を示す。エッジ検出部22は、このような色画像データDWに対して2値化処理を行うことにより、図5Bに示したようなマップを示す2値データDBNを生成する。この例では、選択した色画像データDが白色の色画像データDWであるので、エッジ検出部22は、画素値がしきい値TH1よりも大きい場合には“0”にし、画素値がしきい値TH1よりも小さい場合には“1”にする。すなわち、図5Bにおける“0”で示された画素は、図5Aにおける網掛けされている画素にそれぞれ対応する。同様に、図5Bにおける“1”で示された画素は、図5Aにおける網掛けされていない画素にそれぞれ対応する。   5A and 5B show an example of binarization processing for the white color image data DW. FIG. 5A schematically shows a part of the white color image data DW, and FIG. The result of the digitization process is shown. In FIG. 5A, shaded pixels indicate pixels whose pixel values are larger than the threshold value TH1, and unshaded pixels indicate pixels whose pixel values are smaller than the threshold value TH1. The edge detection unit 22 generates binary data DBN indicating a map as shown in FIG. 5B by performing binarization processing on such color image data DW. In this example, since the selected color image data D is white color image data DW, the edge detection unit 22 sets “0” when the pixel value is larger than the threshold value TH1, and the pixel value is the threshold value. When it is smaller than the value TH1, it is set to “1”. That is, the pixels indicated by “0” in FIG. 5B correspond to the shaded pixels in FIG. 5A, respectively. Similarly, the pixels indicated by “1” in FIG. 5B correspond to the non-shaded pixels in FIG. 5A, respectively.

このようにして、エッジ検出部22は、選択した色画像データDに対して2値化処理を行うことにより、2値データDBNを生成する。   In this way, the edge detection unit 22 generates binary data DBN by performing binarization processing on the selected color image data D.

次に、エッジ検出部22は、ステップS202において生成した2値データDBNに基づいて、エッジ方向データDIRおよびエッジ距離データDISを生成する(ステップS203)。以下に、この動作について詳細に説明する。   Next, the edge detection unit 22 generates edge direction data DIR and edge distance data DIS based on the binary data DBN generated in step S202 (step S203). This operation will be described in detail below.

まず、エッジ検出部22は、2値データDBNにおいて、値が“1”である複数の画素のうちの1つを、注目画素Aとして順次選択する。そして、エッジ検出部22は、注目画素Aの上の画素(上画素)、注目画素Aの下の画素(下画素)、注目画素Aの左の画素(左画素)、および注目画素Aの右の画素(右の画素)における値(“0”または“1”)に基づいて、その注目画素Aにおけるエッジ方向情報を生成する。   First, the edge detection unit 22 sequentially selects one of a plurality of pixels having a value “1” as the target pixel A in the binary data DBN. Then, the edge detection unit 22 includes a pixel above the target pixel A (upper pixel), a pixel below the target pixel A (lower pixel), a left pixel (left pixel) of the target pixel A, and a right side of the target pixel A. Based on the value (“0” or “1”) in the pixel (right pixel), edge direction information for the target pixel A is generated.

図6は、注目画素Aのエッジ方向情報を生成する動作の一例を表すものである。エッジ検出部22は、例えば、上画素、下画素、左画素、および右画素の値が、それぞれ“1”,“0”,“0”,“0”である場合には、注目画素Aのエッジ方向情報を“上”にする。同様に、エッジ検出部22は、例えば、上画素、下画素、左画素、および右画素の値が、それぞれ“0”,“1”,“0”,“0”である場合には、注目画素Aのエッジ方向情報を“下”にし、それぞれ“0”,“0”,“1”,“0”である場合には、注目画素Aのエッジ方向情報を“左”にし、それぞれ“0”,“0”,“0”,“1”である場合には、注目画素Aのエッジ方向情報を“右”にする。また、例えば、エッジ検出部22は、上画素、下画素、左画素、および右画素の値が、それぞれ“1”,“1”,“0”,“0”である場合には、注目画素Aのエッジ方向情報を“上下”にし、それぞれ“1”,“0”,“1”,“0”である場合には、注目画素Aのエッジ方向情報を“左上”にし、それぞれ“1”,“0”,“0”,“1”である場合には、注目画素Aのエッジ方向情報を“右上”にする。また、例えば、エッジ検出部22は、上画素、下画素、左画素、および右画素の値が、それぞれ“1”,“1”,“1”,“0”である場合には、注目画素Aのエッジ方向情報を“左”にし、それぞれ“1”,“1”,“0”,“1”である場合には、注目画素Aのエッジ方向情報を“右”にする。また、例えば、エッジ検出部22は、上画素、下画素、左画素、および右画素の値が全て“1”である場合には、注目画素Aのエッジ方向情報を“なし”にし、全て“0”である場合には、注目画素Aのエッジ方向情報を“上下左右”にする。   FIG. 6 illustrates an example of an operation for generating edge direction information of the target pixel A. For example, when the values of the upper pixel, the lower pixel, the left pixel, and the right pixel are “1”, “0”, “0”, and “0”, respectively, the edge detection unit 22 Set the edge direction information to “up”. Similarly, the edge detection unit 22 pays attention when the values of the upper pixel, the lower pixel, the left pixel, and the right pixel are “0”, “1”, “0”, and “0”, respectively. When the edge direction information of the pixel A is “down” and is “0”, “0”, “1”, “0”, respectively, the edge direction information of the target pixel A is set to “left” and “0”, respectively. In the case of “,” “0”, “0”, “1”, the edge direction information of the target pixel A is set to “right”. Further, for example, the edge detection unit 22 determines that the pixel of interest when the values of the upper pixel, the lower pixel, the left pixel, and the right pixel are “1”, “1”, “0”, and “0”, respectively. When the edge direction information of A is “up and down” and are “1”, “0”, “1”, and “0”, respectively, the edge direction information of the target pixel A is set to “upper left” and “1”. , “0”, “0”, “1”, the edge direction information of the target pixel A is set to “upper right”. Further, for example, the edge detection unit 22 determines that the pixel of interest when the values of the upper pixel, the lower pixel, the left pixel, and the right pixel are “1”, “1”, “1”, and “0”, respectively. When the edge direction information of A is “left” and “1”, “1”, “0”, and “1” respectively, the edge direction information of the target pixel A is set to “right”. Further, for example, when the values of the upper pixel, the lower pixel, the left pixel, and the right pixel are all “1”, the edge detection unit 22 sets the edge direction information of the target pixel A to “none” and sets all “ If it is “0”, the edge direction information of the target pixel A is set to “up / down / left / right”.

そして、エッジ検出部22は、注目画素Aのエッジ方向情報が“なし”以外である場合には、その注目画素Aのエッジ距離情報を“1”にする。   Then, when the edge direction information of the target pixel A is other than “none”, the edge detection unit 22 sets the edge distance information of the target pixel A to “1”.

これにより、2値データDBNにおける、値が“1”である領域の領域内における一番外側の画素におけるエッジ方向情報およびエッジ距離情報が生成される。   Thereby, the edge direction information and the edge distance information in the outermost pixel in the area of the area having the value “1” in the binary data DBN are generated.

次に、エッジ検出部22は、エッジ方向情報が“なし”である画素のうちの1つを、注目画素Aとして順次選択する。そして、エッジ検出部22は、注目画素Aの上の画素(上画素)、注目画素Aの下の画素(下画素)、注目画素Aの左の画素(左画素)、および注目画素Aの右の画素(右の画素)におけるエッジ方向情報に基づいて、その注目画素Aにおけるエッジ方向情報を生成する。   Next, the edge detection unit 22 sequentially selects one of the pixels whose edge direction information is “none” as the target pixel A. Then, the edge detection unit 22 includes a pixel above the target pixel A (upper pixel), a pixel below the target pixel A (lower pixel), a left pixel (left pixel) of the target pixel A, and a right side of the target pixel A. Based on the edge direction information in the pixel (right pixel), edge direction information in the target pixel A is generated.

図7は、上画素、下画素、左画素、および右画素におけるエッジ方向情報に基づいて、注目画素Aのエッジ方向情報を生成する動作の一例を表すものである。エッジ検出部22は、例えば、(a)に示したように、右画素におけるエッジ方向情報に“左”が含まれる場合には、注目画素Aのエッジ方向情報を“左”にする。具体的には、例えば、右画素におけるエッジ方向情報が“左”,“左上”,“左下”,“左右”,“上下左右”のいずれかである場合には、注目画素Aのエッジ方向情報を“左”にする。また、エッジ検出部22は、例えば、(e)に示したように、上画素におけるエッジ方向情報に“左”が含まれるとともに右画素におけるエッジ方向情報に“下”が含まれる場合には、注目画素Aのエッジ方向情報を“左下”にする。   FIG. 7 illustrates an example of an operation for generating edge direction information of the target pixel A based on edge direction information in the upper pixel, the lower pixel, the left pixel, and the right pixel. For example, as illustrated in (a), when the edge direction information in the right pixel includes “left”, the edge detection unit 22 sets the edge direction information of the target pixel A to “left”. Specifically, for example, when the edge direction information in the right pixel is any one of “left”, “upper left”, “lower left”, “left / right”, and “up / down / left / right”, the edge direction information of the target pixel A Set to “Left”. Further, for example, as illustrated in (e), the edge detection unit 22 includes “left” in the edge direction information in the upper pixel and “down” in the edge direction information in the right pixel. The edge direction information of the target pixel A is set to “lower left”.

この処理を繰り返すことにより、2値データDBNにおける、値が“1”である領域の領域内において、外側から内側に向かって順に、エッジ方向情報が生成される。そして、エッジ検出部22は、この処理を1回行ったときにエッジ方向情報が生成された画素におけるエッジ距離情報を“2”にし、この処理を2回行ったときにエッジ方向情報が生成された画素におけるエッジ距離情報を“3”にする。これ以降についても同様である。これにより、2値データDBNにおける、値が“1”である領域の領域内の一番外側から順に、エッジ距離情報が“1”,“2”,“3”,…のように設定される。   By repeating this process, edge direction information is generated in order from the outside toward the inside in the area of the area having the value “1” in the binary data DBN. Then, the edge detection unit 22 sets the edge distance information in the pixel for which the edge direction information is generated when this processing is performed once to “2”, and the edge direction information is generated when this processing is performed twice. The edge distance information at the selected pixel is set to “3”. The same applies to the subsequent steps. Thereby, the edge distance information is set as “1”, “2”, “3”,... In order from the outermost side in the region of the value data “1” in the binary data DBN. .

例えば、図4Bに示した注目画素Aのエッジ方向情報は“上”であり、この注目画素Aのエッジ距離情報は“2”である。すなわち、このエッジ方向情報およびエッジ距離情報は、この注目画素Aが、一番近いエッジ部分Bよりも“上”にあり、そのエッジ部分Bから“2”画素目にあることを示している。   For example, the edge direction information of the target pixel A shown in FIG. 4B is “up”, and the edge distance information of the target pixel A is “2”. That is, the edge direction information and the edge distance information indicate that the target pixel A is “above” the nearest edge portion B and is located at the “2” pixel from the edge portion B.

このようにして、2値データDBNにおける、値が“1”である全ての画素において、エッジ方向情報およびエッジ距離情報が生成される。そして、エッジ検出部22は、各画素でのエッジ方向情報に基づいて、エッジ方向情報のマップを示すエッジ方向データDIRを生成するとともに、各画素でのエッジ距離情報に基づいて、エッジ距離情報のマップを示すエッジ距離データDISを生成する。   In this way, edge direction information and edge distance information are generated for all pixels having a value of “1” in the binary data DBN. Then, the edge detection unit 22 generates edge direction data DIR indicating a map of the edge direction information based on the edge direction information at each pixel, and also calculates the edge distance information based on the edge distance information at each pixel. Edge distance data DIS indicating a map is generated.

次に、エッジ検出部22は、ステップS203において生成したエッジ方向データDIRおよびエッジ距離データDISに基づいて、幅データDLWを生成する(ステップS204)。具体的には、エッジ検出部22は、2値データDBNにおいて、値が“1”である画素のうちの1つを、注目画素Aとして順次選択する。そして、エッジ検出部22は、その注目画素Aのエッジ方向情報に基づいて、そのエッジ方向情報が示す方向、およびその方向の反対方向において、“1”が何画素続くかを調べる。例えば、注目画素Aのエッジ方向情報が“上”,“下”,“上下”である場合には、エッジ検出部22は、注目画素Aの上下方向において、“1”が何画素続くかを調べる。また、例えば、注目画素Aのエッジ方向情報が“左”,“右”,“左右”である場合には、エッジ検出部22は、注目画素Aの左右方向において、“1”が何画素続くかを調べる。また、例えば、注目画素Aのエッジ方向情報が“右上”,“右下”,“左上”,“左下”である場合には、エッジ検出部22は、注目画素Aの上下方向または左右方向において、“1”が何画素続くかを調べる。そして、エッジ検出部22は、このようにして得た値を、その注目画素Aにおける幅情報とする。   Next, the edge detection unit 22 generates the width data DLW based on the edge direction data DIR and the edge distance data DIS generated in step S203 (step S204). Specifically, the edge detection unit 22 sequentially selects one of the pixels having a value “1” as the target pixel A in the binary data DBN. Then, based on the edge direction information of the target pixel A, the edge detection unit 22 checks how many pixels “1” continue in the direction indicated by the edge direction information and in the opposite direction. For example, when the edge direction information of the target pixel A is “upper”, “lower”, and “upper / lower”, the edge detection unit 22 determines how many pixels “1” continue in the vertical direction of the target pixel A. Investigate. For example, when the edge direction information of the target pixel A is “left”, “right”, and “left / right”, the edge detection unit 22 continues with “1” in the left / right direction of the target pixel A. Find out. For example, when the edge direction information of the target pixel A is “upper right”, “lower right”, “upper left”, and “lower left”, the edge detection unit 22 performs the vertical or horizontal direction of the target pixel A. , How many pixels “1” continues. Then, the edge detection unit 22 uses the value obtained in this way as the width information in the target pixel A.

例えば、図4Bに示した注目画素Aのエッジ方向情報は“上”であり、この注目画素Aのエッジ距離情報は“2”である。よって、エッジ検出部22は、この注目画素Aの上下方向において、“1”が何画素続くかを調べる。この例では、上下方向に5つの“1”が続く。よって、エッジ検出部22は、この注目画素Aでの幅情報を“5”にする。   For example, the edge direction information of the target pixel A shown in FIG. 4B is “up”, and the edge distance information of the target pixel A is “2”. Therefore, the edge detection unit 22 checks how many pixels “1” continue in the vertical direction of the target pixel A. In this example, five “1” s follow in the vertical direction. Therefore, the edge detection unit 22 sets the width information at the target pixel A to “5”.

このようにして、2値データDBNにおける、値が“1”である全ての画素において、幅情報が生成される。そして、エッジ検出部22は、各画素における幅情報に基づいて、幅情報のマップを示す幅データDLWを生成する。   In this manner, width information is generated for all pixels having a value of “1” in the binary data DBN. Then, the edge detection unit 22 generates width data DLW indicating a map of width information based on the width information in each pixel.

次に、エッジ検出部22は、全ての色画像データDを選択したか否かを確認する(ステップS205)。まだ全ての色画像データDを選択していない場合(ステップS205において“N”)には、まだ選択していない色画像データDを選択し(ステップS206)、ステップS202に戻る。そして、全ての色画像データDが選択されるまで、ステップS202〜S206を繰り返す。そして、全ての色画像データDを選択した場合(ステップS205において“Y”)には、エッジ検出部22は、このエッジ検出処理(図2におけるステップS200)を終了する。   Next, the edge detection unit 22 confirms whether or not all the color image data D has been selected (step S205). If all the color image data D have not been selected (“N” in step S205), the color image data D that has not been selected is selected (step S206), and the process returns to step S202. Then, steps S202 to S206 are repeated until all the color image data D are selected. When all the color image data D are selected (“Y” in step S205), the edge detection unit 22 ends this edge detection process (step S200 in FIG. 2).

(白境界検出処理)
次に、図2に示した、ステップS300における白境界検出処理について、詳細に説明する。
(White border detection processing)
Next, the white boundary detection process in step S300 shown in FIG. 2 will be described in detail.

図8は、白境界検出処理の一例を表すものである。白境界検出処理では、5つの色画像データDに基づいて、白境界BWの場所を示すマップである白境界データDWRを生成する。以下に、この動作について詳細に説明する。   FIG. 8 shows an example of white boundary detection processing. In the white boundary detection process, white boundary data DWR, which is a map indicating the location of the white boundary BW, is generated based on the five color image data D. This operation will be described in detail below.

まず、白境界検出部23は、画素の1つを注目画素Aとして選択する(ステップS301)。   First, the white boundary detection unit 23 selects one of the pixels as the target pixel A (step S301).

次に、白境界検出部23は、白色の色画像データDWの注目画素Aでの画素値がしきい値TH4よりも大きく、色画像データDW以外の4つの色画像データDY,DM,DC,DKの注目画素Aでの画素値がいずれも“0”(ゼロ)であるか否かを確認する(ステップS302)。このステップS302の条件を満たさない場合(ステップS302において“N”)には、ステップS305に進む。   Next, the white boundary detection unit 23 has a pixel value at the target pixel A of the white color image data DW larger than the threshold value TH4, and four color image data DY, DM, DC, and other than the color image data DW. It is confirmed whether or not the pixel values of the target pixel A of DK are all “0” (zero) (step S302). If the condition of step S302 is not satisfied ("N" in step S302), the process proceeds to step S305.

ステップS302の条件を満たす場合(ステップS302において“Y”)には、白境界検出部23は、注目画素Aの周辺画素A1は、白色の色画像データDWの画素値が“0”(ゼロ)より大きく、色画像データDW以外の4つの色画像データDY,DM,DC,DKのうちの少なくとも1つの画素値が“0”(ゼロ)より大きい画素を含むか否かを確認する(ステップS303)。ここで、周辺画素A1は、例えば、注目画素Aを中心とした9つ(3×3)の画素のうちの注目画素A以外の8つの画素である。   When the condition of step S302 is satisfied (“Y” in step S302), the white boundary detection unit 23 determines that the pixel value of the white color image data DW is “0” (zero) for the peripheral pixel A1 of the target pixel A. It is confirmed whether or not at least one pixel value of four color image data DY, DM, DC, DK other than the color image data DW includes a pixel larger than “0” (zero) (step S303). ). Here, the peripheral pixel A1 is, for example, eight pixels other than the target pixel A among nine (3 × 3) pixels centered on the target pixel A.

ステップS303の条件を満たす場合(ステップS303において“Y”)には、白境界検出部23は、注目画素Aでの白境界データDWRの値を“1”にする(ステップS304)。すなわち、この場合には、白境界検出部23は、注目画素Aが白境界画素C1であると判定する。そして、ステップS306に進む。   When the condition of step S303 is satisfied (“Y” in step S303), the white boundary detection unit 23 sets the value of the white boundary data DWR at the target pixel A to “1” (step S304). That is, in this case, the white boundary detection unit 23 determines that the target pixel A is the white boundary pixel C1. Then, the process proceeds to step S306.

また、ステップS303の条件を満たさない場合(ステップS303において“N”)には、白境界検出部23は、注目画素Aでの白境界データDWRの値を“0”にする(ステップS305)。すなわち、この場合には、白境界検出部23は、注目画素Aが非白境界画素C2であると判定する。そして、ステップS306に進む。   If the condition of step S303 is not satisfied (“N” in step S303), the white boundary detection unit 23 sets the value of the white boundary data DWR at the target pixel A to “0” (step S305). That is, in this case, the white boundary detection unit 23 determines that the target pixel A is the non-white boundary pixel C2. Then, the process proceeds to step S306.

図9A,9Bは、白境界検出処理の一例を表すものである。図9Aは、白色の色画像データDWの一部を模式的に示し、図9Bは、マゼンタ色の色画像データDMの一部を模式的に示す。以下、説明の便宜上、色画像データDの画素値を0〜255に正規化して説明する。図9Aにおいて、濃く網掛けされている画素は、色画像データDWにおける画素値が大きい(この例では“255”)画素を示し、薄く網掛けされている画素は、色画像データDWにおける画素値が小さい(この例では“55”)画素を示す。この例では、濃く網掛けされている画素での画素値、および薄く網掛けされている画素での画素値は、ともにしきい値TH4よりも大きい。また、図9Bにおいて、網掛けされている画素は、色画像データDMにおける画素値が“0”(ゼロ)より大きい(この例では“255”)画素を示し、網掛けされていない画素は、色画像データDMにおける画素値が“0”(ゼロ)である画素を示している。また、図示していないが、この例では、色画像データDY,DC,DKの画素値は全て“0”(ゼロ)である。   9A and 9B show an example of white boundary detection processing. FIG. 9A schematically shows a part of the white color image data DW, and FIG. 9B schematically shows a part of the magenta color image data DM. Hereinafter, for convenience of explanation, the pixel value of the color image data D is normalized to 0 to 255 for explanation. In FIG. 9A, pixels that are darkly shaded indicate pixels having a large pixel value in the color image data DW (in this example, “255”), and pixels that are lightly shaded are pixel values in the color image data DW. Indicates a small pixel (in this example, “55”). In this example, the pixel value in the darkly shaded pixel and the pixel value in the lightly shaded pixel are both larger than the threshold value TH4. In FIG. 9B, the shaded pixels indicate pixels whose pixel value in the color image data DM is greater than “0” (zero) (in this example, “255”). A pixel having a pixel value “0” (zero) in the color image data DM is shown. Although not shown, in this example, the pixel values of the color image data DY, DC, and DK are all “0” (zero).

この例では、注目画素Aでの、白色の色画像データDWの画素値は、しきい値TH4よりも大きく、色画像データDW以外の4つの色画像データDY,DM,DC,DKの画素値は、いずれも“0”(ゼロ)である(ステップS302において“Y”)。また、注目画素Aの周辺画素A1のうち、注目画素Aの左上の画素、注目画素Aの左の画素、および注目画素Aの左下の画素は、白色の色画像データDWの画素値が“0”(ゼロ)より大きく、マゼンタ色の色画像データDMの画素値が“0”(ゼロ)より大きい画素である(ステップS303において“Y”)。よって、白境界検出部23は、ステップS304において、この注目画素Aが白境界画素C1であると判定する。   In this example, the pixel value of the white color image data DW at the target pixel A is larger than the threshold value TH4, and the pixel values of the four color image data DY, DM, DC, DK other than the color image data DW Are both “0” (zero) (“Y” in step S302). Among the peripheral pixels A1 of the target pixel A, the pixel value of the white color image data DW is “0” for the upper left pixel of the target pixel A, the left pixel of the target pixel A, and the lower left pixel of the target pixel A. “(Zero)” and the pixel value of the magenta color image data DM is larger than “0” (zero) (“Y” in step S303). Therefore, the white boundary detection unit 23 determines in step S304 that the target pixel A is the white boundary pixel C1.

次に、白境界検出部23は、全ての画素を注目画素Aとして選択したか否かを確認する(ステップS306)。まだ全ての画素を選択していない場合(ステップS306において“N”)には、白境界検出部23は、まだ選択していない画素を注目画素Aとして選択し(ステップS307)、ステップS302に戻る。そして、全ての画素が選択されるまで、ステップS302〜S307を繰り返す。そして、全ての画素を選択した場合(ステップS306において“Y”)には、白境界検出部23は、白境界検出処理(図2におけるステップS300)を終了する。   Next, the white boundary detection unit 23 checks whether or not all the pixels have been selected as the pixel of interest A (step S306). If all the pixels have not been selected (“N” in step S306), the white boundary detection unit 23 selects a pixel that has not been selected as the target pixel A (step S307), and returns to step S302. . Then, steps S302 to S307 are repeated until all the pixels are selected. When all the pixels are selected (“Y” in step S306), the white boundary detection unit 23 ends the white boundary detection process (step S300 in FIG. 2).

図10は、図9A,9Bに示した例において、白境界検出処理により生成された白境界データDWRの一例を表すものである。図9A,9Bに示したように、左半分の画像領域では、白色の色画像データDWの値が“255”であり、マゼンタ色の色画像データの値が“255”である。そして、右半分の画像領域では、白色の色画像データDWの値が“55”であり、マゼンタ色の色画像データの値が“0”(ゼロ)である。すなわち、左半分の画像領域は、マゼンタ色および白色が重なる画像領域であり、右半分の画像領域は、白色のみの画像領域であるので、この2つの画像領域の境界が白境界BWである(図10)。白境界検出部23は、白色のみの画像領域の画素のうちの白境界BWに接する画素を、白境界画素C1と判定する。   FIG. 10 shows an example of the white boundary data DWR generated by the white boundary detection process in the example shown in FIGS. 9A and 9B. As shown in FIGS. 9A and 9B, in the left half image area, the value of the white color image data DW is “255” and the value of the magenta color image data is “255”. In the right half image area, the value of the white color image data DW is “55”, and the value of the magenta color image data is “0” (zero). That is, the left half image area is an image area in which magenta color and white color overlap, and the right half image area is an image area only in white, so the boundary between the two image areas is the white boundary BW ( FIG. 10). The white boundary detection unit 23 determines that the pixel in contact with the white boundary BW among the pixels of the image region of only white is the white boundary pixel C1.

(白境界補正処理)
次に、図2に示した、ステップS400における白境界補正処理について、詳細に説明する。
(White border correction processing)
Next, the white boundary correction process in step S400 shown in FIG. 2 will be described in detail.

図11は、白境界補正処理の一例を表すものである。白境界補正処理では、白境界データDWRに基づいて、白色の色画像データDWにおける白境界BW付近(後述する白境界領域RBW)の画素値を補正する。以下に、この動作について詳細に説明する。   FIG. 11 shows an example of white boundary correction processing. In the white boundary correction process, based on the white boundary data DWR, the pixel value near the white boundary BW (white boundary region RBW described later) in the white color image data DW is corrected. This operation will be described in detail below.

まず、補正部24は、画素の1つを注目画素Aとして選択する(ステップS401)。   First, the correction unit 24 selects one of the pixels as the target pixel A (step S401).

次に、補正部24は、白境界データDWRに基づいて、注目画素Aが白境界画素C1であるか否かを確認する(ステップS402)。注目画素Aが白境界画素C1ではない場合(ステップS402において“N”)には、ステップS410に進む。   Next, the correcting unit 24 confirms whether or not the target pixel A is the white boundary pixel C1 based on the white boundary data DWR (step S402). If the target pixel A is not the white boundary pixel C1 (“N” in step S402), the process proceeds to step S410.

ステップS402において、注目画素Aが白境界画素C1である場合(ステップS402において“Y”)には、補正部24は、注目画素Aの周辺画素A1のうちの1つを、画素A2として選択する(ステップS403)。具体的には、補正部24は、例えば、注目画素Aの上の画素、注目画素Aの下の画素、注目画素Aの左の画素、および注目画素Aの右の画素のうちのいずれか1つを画素A2として選択する。   In step S402, when the target pixel A is the white boundary pixel C1 (“Y” in step S402), the correction unit 24 selects one of the peripheral pixels A1 of the target pixel A as the pixel A2. (Step S403). Specifically, the correcting unit 24 is, for example, any one of a pixel above the target pixel A, a pixel below the target pixel A, a left pixel of the target pixel A, and a right pixel of the target pixel A. Is selected as pixel A2.

次に、補正部24は、白色の色画像データDWにおける、注目画素Aでの画素値と画素A2での画素値との差の絶対値(差分値DIFF)がしきい値TH5よりも大きいか否かを確認する(ステップS404)。ここで、しきい値TH5は、本発明における「第1のしきい値」の一具体例に対応する。   Next, the correction unit 24 determines whether the absolute value (difference value DIFF) of the difference between the pixel value at the target pixel A and the pixel value at the pixel A2 in the white color image data DW is greater than the threshold value TH5. It is confirmed whether or not (step S404). Here, the threshold value TH5 corresponds to a specific example of “first threshold value” in the present invention.

ステップS404において、差分値DIFFがしきい値TH5よりも小さい場合(ステップS404において“N”)には、補正部24は、周辺画素A1のうちの全ての画素を画素A2として選択したか否かを確認する(ステップS405)。まだ全ての画素を画素A2として選択していない場合(ステップS405において“N”)には、補正部24は、周辺画素A1のうちのまだ選択していない画素を画素A2として選択する(ステップS405)。その際、補正部24は、例えば、注目画素Aの上の画素、注目画素Aの下の画素、注目画素Aの左の画素、および注目画素Aの右の画素のうちのまだ選択していない画素を、画素A2として順次選択し、その後に、注目画素Aの左上の画素、注目画素Aの右上の画素、注目画素Aの左下の画素、および注目画素Aの右下の画素のうちのまだ選択していない画素を、画素A2として順次選択する。そして、ステップS404に戻る。ステップS405において、周辺画素A1の全ての画素を選択した場合(ステップS405において“Y”)には、ステップS410に進む。   If the difference value DIFF is smaller than the threshold value TH5 in step S404 (“N” in step S404), the correction unit 24 has selected all the pixels in the peripheral pixel A1 as the pixel A2. Is confirmed (step S405). When all the pixels have not been selected as the pixel A2 (“N” in step S405), the correction unit 24 selects a pixel that has not yet been selected from the peripheral pixels A1 as the pixel A2 (step S405). ). At this time, the correction unit 24 has not yet selected, for example, a pixel above the target pixel A, a pixel below the target pixel A, a left pixel of the target pixel A, and a right pixel of the target pixel A. The pixels are sequentially selected as the pixel A2, and after that, among the upper left pixel of the target pixel A, the upper right pixel of the target pixel A, the lower left pixel of the target pixel A, and the lower right pixel of the target pixel A Unselected pixels are sequentially selected as the pixel A2. Then, the process returns to step S404. In step S405, when all the pixels of the peripheral pixel A1 are selected (“Y” in step S405), the process proceeds to step S410.

ステップS404において、差分値DIFFがしきい値TH5よりも大きい場合には、補正部24は、補正対象領域Rを設定する(ステップS407)。補正対象領域Rは、後述するように、白境界BWをまたぎ、複数の画素を含む領域である。   If the difference value DIFF is larger than the threshold value TH5 in step S404, the correction unit 24 sets the correction target region R (step S407). The correction target region R is a region including a plurality of pixels across the white boundary BW, as will be described later.

そして、補正部24は、補正対象領域R内の各画素での色画像データDWの画素値を補正する(ステップS408)。具体的には、補正部24は、以下の式を用いて、補正対象領域R内の各画素の画素値を補正する。
XXi=Xi×(1−Wi)+Y×Wi …(EQ1)
ここで、XXiは、補正対象領域R内のi番目の画素での色画像データDWの補正後の画素値であり、Xiは、i番目の画素での色画像データDWの補正前の画素値であり、Wiは、i番目の画素の重み係数であり、Yは、補正対象領域R内の全画素での色画像データDWの補正前の画素値の平均値である。重み係数Wiは、例えば、0以上かつ1以下の値を有するものである。
Then, the correction unit 24 corrects the pixel value of the color image data DW at each pixel in the correction target region R (step S408). Specifically, the correction unit 24 corrects the pixel value of each pixel in the correction target region R using the following equation.
XXi = Xi * (1-Wi) + Y * Wi (EQ1)
Here, XXi is a pixel value after correction of the color image data DW at the i-th pixel in the correction target region R, and Xi is a pixel value before correction of the color image data DW at the i-th pixel. Wi is a weighting coefficient of the i-th pixel, and Y is an average value of pixel values before correction of the color image data DW in all the pixels in the correction target region R. The weight coefficient Wi has a value of 0 or more and 1 or less, for example.

図12は、図9A,9B,10に示した例における、白境界補正処理の一例を模式的に表すものである。図9Aと同様に、濃く網掛けされている画素は、色画像データDWにおける画素値が大きい(この例では“255”)画素を示し、薄く網掛けされている画素は、色画像データDWにおける画素値が小さい(この例では“55”)画素を示す。この例では、濃く網掛けされている画素における画素値と、薄く網掛けされている画素における画素値との差(この例では“200”)は、しきい値TH5よりも大きい。   FIG. 12 schematically illustrates an example of white boundary correction processing in the example illustrated in FIGS. 9A, 9B, and 10. As in FIG. 9A, pixels that are darkly shaded indicate pixels having a large pixel value in the color image data DW (in this example, “255”), and pixels that are lightly shaded are pixels in the color image data DW. This indicates a pixel having a small pixel value (in this example, “55”). In this example, the difference (in this example, “200”) between the pixel value of the darkly shaded pixel and the pixel value of the lightly shaded pixel is larger than the threshold value TH5.

この例では、注目画素Aは、図10に示したように、白境界画素C1である(ステップS402において“Y”)。補正部24が、注目画素Aの左の画素を画素A2として選択したとき、色画像データDWにおける、注目画素Aでの画素値と画素A2での画素値との差の絶対値(差分値DIFF)は、しきい値TH5よりも大きい(ステップS404において“Y”)。よって、補正部24は、この例では、左右方向に互いに隣り合う注目画素Aおよび画素A2を含む、左右方向に並んだ4つの画素からなる補正対象領域Rを設定する(ステップS407)。そして、補正部24は、この補正対象領域R内の4つの画素値を補正する(ステップS408)。   In this example, the target pixel A is the white boundary pixel C1 as shown in FIG. 10 (“Y” in step S402). When the correction unit 24 selects the pixel to the left of the target pixel A as the pixel A2, the absolute value (difference value DIFF) of the difference between the pixel value at the target pixel A and the pixel value at the pixel A2 in the color image data DW. ) Is larger than the threshold value TH5 (“Y” in step S404). Therefore, in this example, the correction unit 24 sets a correction target region R including four pixels arranged in the left-right direction, including the target pixel A and the pixel A2 that are adjacent to each other in the left-right direction (step S407). Then, the correction unit 24 corrects the four pixel values in the correction target region R (step S408).

図13は、図12に示した補正対象領域Rにおける補正処理の一例を表すものであり、(A)は重み係数Wiを示し、(B)は補正前の画素値Xiを示し、(C)は補正後の画素値XXiを示す。この例では、重み係数Wiは、左から順に“0.2”,“0.7”,“0.7”,“0.2”に設定されている。すなわち、重み係数Wiは、注目画素Aおよび画素A2の並び方向(左右方向)において対称に設定され、この並び方向において外側にいくほど小さい値に設定されている。補正前の画素値Xiは、左から順に“255”,“255”,“55”,“55”である。これらの画素値Xiに対して、式(EQ1)を用いて補正を行うことにより、補正後の画素値XXiを得る。補正後の画素値XXiは、左から順に“235”,“185”,“125”,“75”である。補正後の画素値XXiは、式(EQ1)に示したように、重み係数Wiが大きいほど、平均値Yに近い値になり、重み係数Wiが小さいほど、補正前の画素値Xiに近い値になる。これにより、図13(B),(C)に示したように、白境界BWと交差する方向(この例では左右方向)での補正後の画素値XXiの変化は、補正前の画素値Xiの変化に比べてゆるやかになる。すなわち、補正前の画素値Xiは、急激に変化するが、補正後の画素値XXiは、ゆるやかかつ単調に変化するようになる。   FIG. 13 shows an example of correction processing in the correction target region R shown in FIG. 12, (A) shows the weighting factor Wi, (B) shows the pixel value Xi before correction, and (C) Indicates a corrected pixel value XXi. In this example, the weight coefficient Wi is set to “0.2”, “0.7”, “0.7”, “0.2” in order from the left. That is, the weight coefficient Wi is set symmetrically in the arrangement direction (left-right direction) of the target pixel A and the pixel A2, and is set to a smaller value as it goes outward in the arrangement direction. The pixel values Xi before correction are “255”, “255”, “55”, and “55” in order from the left. By correcting these pixel values Xi using the equation (EQ1), a corrected pixel value XXi is obtained. The corrected pixel values XXi are “235”, “185”, “125”, “75” in order from the left. As shown in the equation (EQ1), the corrected pixel value XXi is closer to the average value Y as the weighting factor Wi is larger, and is closer to the pixel value Xi before correction as the weighting factor Wi is smaller. become. Accordingly, as shown in FIGS. 13B and 13C, the change in the pixel value XXi after correction in the direction intersecting the white boundary BW (in this example, the left-right direction) is the pixel value Xi before correction. Compared to changes in That is, the pixel value Xi before correction changes abruptly, but the pixel value XXi after correction changes gently and monotonously.

この例では、白境界BWは、図12の縦方向に延びるため、補正対象領域Rを左右方向に長くした。例えば、白境界BWが横方向に延びる場合には、補正対象領域Rを上下方向に長くすることができる。また、例えば、白境界BWが角を構成する場合には、以下のように補正対象領域Rを設定することができる。   In this example, since the white boundary BW extends in the vertical direction of FIG. 12, the correction target region R is elongated in the left-right direction. For example, when the white boundary BW extends in the horizontal direction, the correction target region R can be lengthened in the vertical direction. For example, when the white boundary BW forms a corner, the correction target region R can be set as follows.

図14は、白境界補正処理の他の例を模式的に表すものである。図12と同様に、濃く網掛けされている画素は、色画像データDWにおける画素値が大きい(この例では“255”)画素を示し、薄く網掛けされている画素は、色画像データDWにおける画素値が小さい(この例では“55”)画素を示す。   FIG. 14 schematically illustrates another example of the white boundary correction process. As in FIG. 12, pixels that are darkly shaded indicate pixels having a large pixel value in the color image data DW (in this example, “255”), and pixels that are lightly shaded are pixels in the color image data DW. This indicates a pixel having a small pixel value (in this example, “55”).

この例でも、注目画素Aは、白境界画素C1である(ステップS402において“Y”)。注目画素Aの左上の画素を画素A2として選択したとき、色画像データDWにおける、注目画素Aでの画素値と画素A2での画素値との差の絶対値(差分値DIFF)は、しきい値TH5よりも大きい(ステップS404において“Y”)。よって、補正部24は、この例では、斜め方向に互いに隣り合う注目画素Aおよび画素A2を含む、8つの画素からなる補正対象領域Rを設定する(ステップS407)。そして、補正部24は、この補正対象領域R内の8つの画素値を補正する(ステップS408)。   Also in this example, the target pixel A is the white boundary pixel C1 (“Y” in step S402). When the upper left pixel of the target pixel A is selected as the pixel A2, the absolute value (difference value DIFF) of the difference between the pixel value at the target pixel A and the pixel value at the pixel A2 in the color image data DW is the threshold. It is larger than the value TH5 (“Y” in step S404). Accordingly, in this example, the correction unit 24 sets a correction target region R including eight pixels including the target pixel A and the pixel A2 that are adjacent to each other in the oblique direction (step S407). Then, the correction unit 24 corrects the eight pixel values in the correction target region R (step S408).

図15は、図14に示した補正対象領域Rにおける補正処理の一例を表すものである。重み係数Wiは、注目画素Aおよび画素A2の並び方向(斜め方向)において対称に設定され、この並び方向において外側にいくほど小さい値に設定されている。これにより、図15(B),(C)に示したように、白境界BWと交差する方向(この例では斜め方向)での補正後の画素値XXiの変化は、補正前の画素値Xiの変化に比べてゆるやかになる。すなわち、補正前の画素値Xiは、急激に変化するが、補正後の画素値XXiは、ゆるやかかつ単調に変化するようになる。   FIG. 15 illustrates an example of correction processing in the correction target region R illustrated in FIG. The weight coefficient Wi is set symmetrically in the arrangement direction (diagonal direction) of the target pixel A and the pixel A2, and is set to a smaller value as it goes outward in the arrangement direction. As a result, as shown in FIGS. 15B and 15C, the change in the corrected pixel value XXi in the direction intersecting the white boundary BW (in this example, the oblique direction) is the pixel value Xi before correction. Compared to changes in That is, the pixel value Xi before correction changes abruptly, but the pixel value XXi after correction changes gently and monotonously.

補正対象領域Rの大きさは、例えば、固定にしてもよい。この場合、補正対象領域Rの白境界BWと交差する方向における幅は、例えば、画像形成部13が、黄色、マゼンタ色、シアン色、黒色、および白色の画像を、記録媒体9にそれぞれ形成する際の、各画像の形成位置の相対的なずれ量に応じて、予め設定することができる。具体的には、図12,13の例では、各画像の形成位置の相対的なずれ量が大きい場合には、補正対象領域R内の左右方向に並ぶ画素の数をより多くすることができる。また、補正対象領域Rの大きさは、例えば、差分値DIFFに応じて変化させてもよい。具体的には、例えば、差分値DIFFが大きいほど、補正対象領域Rの白境界BWと交差する方向における幅を大きくすることが望ましい。例えば、複数のしきい値を設定し、この差分値DIFFと各しきい値とを比較することにより、この差分値DIFFに応じて、補正対象領域Rの大きさを設定することができる。ここで、この複数のしきい値のうちのいずれかは、本発明における「第2のしきい値」の一具体例に対応する。また、この補正処理において、補正対象領域R内に、色画像データDWの画素値が“0”(ゼロ)である画素がある場合には、この画素を省いて補正対象領域Rを設定してもよい。   For example, the size of the correction target region R may be fixed. In this case, the width of the correction target region R in the direction intersecting with the white boundary BW is, for example, that the image forming unit 13 forms yellow, magenta, cyan, black, and white images on the recording medium 9, respectively. It can be set in advance according to the relative shift amount of the image formation position. Specifically, in the example of FIGS. 12 and 13, when the relative shift amount of each image formation position is large, the number of pixels arranged in the left-right direction in the correction target region R can be increased. . Further, the size of the correction target region R may be changed according to the difference value DIFF, for example. Specifically, for example, it is desirable to increase the width in the direction intersecting the white boundary BW of the correction target region R as the difference value DIFF increases. For example, by setting a plurality of threshold values and comparing the difference value DIFF with each threshold value, the size of the correction target region R can be set according to the difference value DIFF. Here, any one of the plurality of threshold values corresponds to a specific example of “second threshold value” in the present invention. In this correction processing, if there is a pixel whose color image data DW has a pixel value “0” (zero) in the correction target region R, the correction target region R is set by omitting this pixel. Also good.

次に、補正部24は、補正対象領域R内の画素のうちのまだ注目画素Aとして選択していない画素を、注目画素Aの選択候補から除外する(ステップS409)。   Next, the correction unit 24 excludes pixels that have not yet been selected as the target pixel A among the pixels in the correction target region R from the selection candidates for the target pixel A (step S409).

次に、補正部24は、全ての画素を注目画素Aとして選択したか否かを確認する(ステップS410)。まだ全ての画素を選択していない場合(ステップS410において“N”)には、補正部24は、まだ選択していない画素を注目画素Aとして選択し(ステップS411)、ステップS402に戻る。そして、全ての画素が選択されるまで、ステップS402〜S411を繰り返す。そして、全ての画素を選択した場合(ステップS410において“Y”)には、補正部24は、白境界補正処理(図2におけるステップS400)を終了する。   Next, the correcting unit 24 checks whether or not all the pixels have been selected as the target pixel A (step S410). If not all the pixels have been selected (“N” in step S410), the correction unit 24 selects a pixel that has not been selected as the target pixel A (step S411), and returns to step S402. Then, steps S402 to S411 are repeated until all the pixels are selected. When all the pixels are selected (“Y” in step S410), the correction unit 24 ends the white boundary correction process (step S400 in FIG. 2).

図16は、図12,13に示した例において、白境界補正処理により生成された白色の色画像データDWの一例を模式的に表すものである。図17は、図14,15に示した例において、白境界補正処理により生成された白色の色画像データDWの一例を模式的に表すものである。図16,17において、網掛けの濃淡は、図12,14と同様に、色画像データDWにおける画素値の大きさに対応している。白境界補正処理おいて、補正対象領域Rを順次設定して補正を行うことより、白境界BWを含む帯状の領域(白境界領域RBW)における画素値が補正される。この白境界領域RBWでは、白境界BWと交差する方向での画素値の変化が、補正前(図12,14)に比べてゆるやかになる。白境界領域RBWは、本発明における「境界領域」の一具体例に対応する。   FIG. 16 schematically shows an example of the white color image data DW generated by the white boundary correction process in the examples shown in FIGS. FIG. 17 schematically shows an example of the white color image data DW generated by the white boundary correction process in the examples shown in FIGS. In FIGS. 16 and 17, shaded shading corresponds to the size of the pixel value in the color image data DW, as in FIGS. In the white boundary correction process, correction is performed by sequentially setting the correction target region R, thereby correcting the pixel value in the band-like region (white boundary region RBW) including the white boundary BW. In the white boundary region RBW, the change in the pixel value in the direction intersecting with the white boundary BW is gentler than before correction (FIGS. 12 and 14). The white boundary region RBW corresponds to a specific example of “boundary region” in the present invention.

(トラッピング補正処理)
次に、図2に示した、ステップS500におけるトラッピング補正処理について、詳細に説明する。
(Trapping correction process)
Next, the trapping correction process in step S500 shown in FIG. 2 will be described in detail.

図18,19は、トラッピング補正処理の一例を表すものである。トラッピング補正処理では、媒体色情報C、5つのエッジ方向データDIR、5つのエッジ距離データDIS、および5つの幅データDLWに基づいて、5つの色画像データDに対してトラッピング処理を行う。以下に、この動作について詳細に説明する。   18 and 19 show an example of the trapping correction process. In the trapping correction process, the trapping process is performed on the five color image data D based on the medium color information C, the five edge direction data DIR, the five edge distance data DIS, and the five width data DLW. This operation will be described in detail below.

まず、補正部24は、画素の1つを注目画素Aとして選択し(ステップS501)、5つの色画像データDのうちの1つを選択する(ステップS502)。   First, the correction unit 24 selects one of the pixels as the target pixel A (step S501), and selects one of the five color image data D (step S502).

次に、補正部24は、選択した色画像データDが白色の色画像データDWであるか否かを確認する(ステップS503)。白色の色画像データDWではない場合(ステップS503において“N”)にはステップS505に進む。   Next, the correcting unit 24 checks whether or not the selected color image data D is white color image data DW (step S503). If it is not the white color image data DW (“N” in step S503), the process proceeds to step S505.

ステップS503において、選択した色画像データDが白色の色画像データDWである場合(ステップS503において“Y”)には、補正部24は、注目画素Aが、白境界補正処理のステップS408において補正が行われた画素であるか否かを確認する(ステップS504)。言い換えれば、補正部24は、注目画素Aが、白境界領域RBW内の画素であるか否かを確認する。注目画素Aが、白境界補正処理のステップS408において補正が行われた画素である場合(ステップS504において“Y”)には、ステップS510に進む。   In step S503, when the selected color image data D is white color image data DW (“Y” in step S503), the correction unit 24 corrects the target pixel A in step S408 of the white boundary correction process. It is confirmed whether or not the pixel has been subjected to (step S504). In other words, the correction unit 24 checks whether or not the target pixel A is a pixel in the white boundary region RBW. If the target pixel A is a pixel that has been corrected in step S408 of the white boundary correction process (“Y” in step S504), the process proceeds to step S510.

ステップS504において、選択した色画像データDが白色の色画像データDWではない場合(ステップS504において“N”)、補正部24は、選択した色画像データDのエッジ方向データDIRにおける注目画素Aでのエッジ方向情報に基づいて、そのエッジ方向情報に含まれるエッジ方向の一つを選択する(ステップS505)。すなわち、例えばエッジ方向情報が“左上”である場合には、まずはそのうちの一方(例えば“左”)を選択する。   In step S504, when the selected color image data D is not white color image data DW (“N” in step S504), the correction unit 24 uses the target pixel A in the edge direction data DIR of the selected color image data D. On the basis of the edge direction information, one of the edge directions included in the edge direction information is selected (step S505). That is, for example, when the edge direction information is “upper left”, one of them (for example, “left”) is first selected.

次に、補正部24は、エッジを挟む2つの画素B1,B2を決定する(ステップS506)。   Next, the correction unit 24 determines two pixels B1 and B2 that sandwich the edge (step S506).

図20は、画素B1,B2の決定動作の一例を表すものである。この図20は、選択した色画像データDの2値データDBNを示しており、網掛けされた画素は、値が“1”の画素を示し、網掛けされていない画素は、値が“0”の画素を示す。この例では、注目画素Aのエッジ方向情報は“左”であり、この注目画素Aのエッジ距離情報は“2”である。補正部24は、このエッジ方向情報およびエッジ距離情報に基づいて、エッジを特定する。すなわち、エッジ部分Bは、注目画素Aの右に、注目画素Aから1画素分の距離に位置する手前側の画素B1と、注目画素Aの右に、注目画素Aから2画素分の距離に位置する奥側の画素B2との間にある。すなわち、画素B1は、注目画素Aの、エッジ方向情報が示すエッジ方向と反対方向に、注目画素Aから、エッジ距離情報が示す値よりも一つ小さい値に対応する距離に位置し、画素B2は、注目画素Aの、エッジ方向情報が示すエッジ方向と反対方向に、注目画素Aから、エッジ距離情報が示す値に対応する距離に位置する。   FIG. 20 illustrates an example of the determination operation of the pixels B1 and B2. FIG. 20 shows the binary data DBN of the selected color image data D. The shaded pixels indicate the pixels having the value “1”, and the pixels not shaded have the value “0”. "Indicates a pixel. In this example, the edge direction information of the target pixel A is “left”, and the edge distance information of the target pixel A is “2”. The correcting unit 24 identifies an edge based on the edge direction information and the edge distance information. That is, the edge portion B is located on the right side of the target pixel A at a distance of one pixel from the target pixel A, and on the right side of the target pixel A at a distance of two pixels from the target pixel A. It is between the pixel B2 on the back side. That is, the pixel B1 is located at a distance corresponding to one smaller value than the value indicated by the edge distance information from the target pixel A in the opposite direction to the edge direction indicated by the edge direction information of the target pixel A. Is located at a distance corresponding to the value indicated by the edge distance information from the target pixel A in a direction opposite to the edge direction indicated by the edge direction information of the target pixel A.

補正部24は、このようにして、注目画素Aでのエッジ方向情報およびエッジ距離情報に基づいて、エッジ部分Bを挟む画素B1,B2を特定する。   In this way, the correction unit 24 identifies the pixels B1 and B2 that sandwich the edge portion B based on the edge direction information and the edge distance information at the target pixel A.

次に、補正部24は、トラッピング処理を行う(ステップS507)。   Next, the correction unit 24 performs a trapping process (step S507).

まず、図19に示したように、補正部24は、選択した色画像データDにおける注目画素Aがトラッピング対象画素であるか否かを確認する(ステップS521)。具体的には、補正部24は、以下の2つの条件を満たしたときに、その注目画素Aがトラッピング対象画素であると判断する。   First, as illustrated in FIG. 19, the correction unit 24 confirms whether or not the target pixel A in the selected color image data D is a trapping target pixel (step S <b> 521). Specifically, the correction unit 24 determines that the target pixel A is a trapping target pixel when the following two conditions are satisfied.

第1の条件は、注目画素Aでのエッジ距離情報が、予め設定した所定のしきい値TH2以下であることである。すなわち、この条件を満たす場合には、注目画素Aが、選択した色画像データDにおけるエッジ部分Bに近いことを示している。このしきい値TH2は、画像形成部13が、黄色、マゼンタ色、シアン色、黒色、および白色の画像を、記録媒体9にそれぞれ形成する際の、各画像の形成位置の相対的なずれ量に応じて、予め設定される。例えば、ずれ量が2画素分である場合には、このしきい値TH2を“2”に設定する。この場合、例えば、注目画素Aにおけるエッジ距離情報が示す値が“2”以下であれば、この第1の条件を満たし、注目画素Aにおけるエッジ距離情報が示す値が“3”であれば、この第1の条件を満たさない。   The first condition is that the edge distance information at the target pixel A is equal to or less than a predetermined threshold value TH2. That is, when this condition is satisfied, it indicates that the target pixel A is close to the edge portion B in the selected color image data D. This threshold value TH2 is the relative shift amount of each image forming position when the image forming unit 13 forms yellow, magenta, cyan, black, and white images on the recording medium 9, respectively. It is preset according to For example, when the shift amount is 2 pixels, the threshold value TH2 is set to “2”. In this case, for example, if the value indicated by the edge distance information in the target pixel A is “2” or less, the first condition is satisfied, and if the value indicated by the edge distance information in the target pixel A is “3”, This first condition is not satisfied.

第2の条件は、画素B1,B2のうちの一方において、色画像データDY,DM,DC,DKのうちのいずれか1つのみの2値データDBNに“1”を有し、他方において、色画像データDWのみの2値データDBNに“1”を有することである。すなわち、この条件を満たす場合は、画素B1,B2のうちの一方において、色画像データDY,DM,DC,DKのいずれか1つのみ、および色画像データDWの画素値がしきい値TH1より大きく、画素B1,B2のうちの他方において、色画像データDY,DM,DC,DK,DWの画素値がしきい値TH1よりも小さいことを示している。例えば、画素B1においてマゼンタ色の画素値と白色の画素値を有し、画素B2においてどの色も画素値を有しない場合に、この第2の条件を満たす。例えば、画素B1においてマゼンタ色の画素値と黄色の画素値を有する場合には、この第2の条件を満たさない。   The second condition is that one of the pixels B1 and B2 has “1” in the binary data DBN of only one of the color image data DY, DM, DC, and DK, The binary data DBN of only the color image data DW has “1”. That is, when this condition is satisfied, only one of the color image data DY, DM, DC, and DK and the pixel value of the color image data DW are greater than the threshold value TH1 in one of the pixels B1 and B2. It shows that the pixel value of the color image data DY, DM, DC, DK, DW is smaller than the threshold value TH1 on the other of the pixels B1, B2. For example, the second condition is satisfied when the pixel B1 has a magenta pixel value and a white pixel value, and no color has a pixel value in the pixel B2. For example, when the pixel B1 has a magenta pixel value and a yellow pixel value, the second condition is not satisfied.

補正部24は、これらの2つの条件を満たしたときに、その注目画素Aがトラッピング対象画素であると判断する。注目画素Aがトラッピング対象画素でない場合(ステップS521において“N”)には、トラッピング処理を終了する。   The correction unit 24 determines that the target pixel A is a trapping target pixel when these two conditions are satisfied. If the target pixel A is not a trapping target pixel (“N” in step S521), the trapping process is terminated.

ステップS521において、注目画素Aがトラッピング対象画素である場合(ステップS521において“Y”)には、補正部24は、画素B1,B2での幅情報が、ともに、所定のしきい値TH3よりも大きいか否かを確認する(ステップS522)。具体的には、例えば、マゼンタ色の色画像データDMの2値データDBNが、画素B1において“1”を有し、白色の色画像データDWの2値データDBNが、画素B2において“1”を有する場合には、補正部24は、マゼンタ色の色画像データDMの幅データDLWにおける画素B1での幅情報と、白色の色画像データDWの幅データDLWにおける画素B2での幅情報とが、ともに、しきい値TH3よりも大きいか否かを確認する。   In step S521, when the target pixel A is a trapping target pixel (“Y” in step S521), the correction unit 24 determines that both the width information in the pixels B1 and B2 are greater than the predetermined threshold value TH3. It is confirmed whether it is larger (step S522). Specifically, for example, the binary data DBN of the magenta color image data DM has “1” in the pixel B1, and the binary data DBN of the white color image data DW has “1” in the pixel B2. When the correction unit 24 includes the width information at the pixel B1 in the width data DLW of the magenta color image data DM and the width information at the pixel B2 in the width data DLW of the white color image data DW, In addition, it is confirmed whether or not both are larger than the threshold value TH3.

ステップS522において、画素B1,B2での幅情報が、ともに、しきい値TH3よりも大きい場合(ステップS522において“Y”)には、補正部24は、画素B2での明度が画素B1での明度よりも高いか否かを確認する(ステップS523)。具体的には、例えば、マゼンタ色の色画像データDMの2値データDBNが、画素B1において“1”を有し、白色の色画像データDWの2値データDBNが、画素B2において“1”を有する場合には、補正部24は、媒体色情報Cに基づいて求めた明度が、マゼンタ色の色画像データDMの画素B1での画素値から求めた明度よりも大きいか否かを確認する。すなわち、この例では、画素B2において例えばどの色も画素値を有しないので、記録媒体9の色を示す媒体色情報Cに基づいて明度を求め、この明度を画素B2における明度として用いる。ここで、明度は、本発明における「明るさ度合い」の一具体例に対応する。画素B2での明度が画素B1での明度よりも高い場合(ステップS523において“Y”)には、ステップS527に進み、画素B2での明度が画素B1での明度よりも低い場合(ステップS524において“N”)には、トラッピング処理を終了する。   In step S522, when both the width information in the pixels B1 and B2 are larger than the threshold value TH3 (“Y” in step S522), the correction unit 24 determines that the lightness in the pixel B2 is equal to that in the pixel B1. It is confirmed whether or not the brightness is higher (step S523). Specifically, for example, the binary data DBN of the magenta color image data DM has “1” in the pixel B1, and the binary data DBN of the white color image data DW has “1” in the pixel B2. In this case, the correction unit 24 checks whether or not the lightness obtained based on the medium color information C is larger than the lightness obtained from the pixel value at the pixel B1 of the magenta color image data DM. . That is, in this example, for example, none of the colors in the pixel B2 has a pixel value, so the brightness is obtained based on the medium color information C indicating the color of the recording medium 9, and this brightness is used as the brightness in the pixel B2. Here, the lightness corresponds to a specific example of “brightness degree” in the present invention. If the brightness at pixel B2 is higher than the brightness at pixel B1 ("Y" in step S523), the process proceeds to step S527, and if the brightness at pixel B2 is lower than the brightness at pixel B1 (in step S524). In “N”), the trapping process ends.

ステップS522において、画素B1,B2での幅情報のうちの少なくとも一方がしきい値TH3より小さい場合(ステップS522において“N”)には、補正部24は、画素B1での幅情報がしきい値TH3よりも大きいか否かを確認する(ステップS524)。ステップS524において、画素B1での幅情報が、しきい値TH3よりも大きい場合(ステップS524において“Y”)には、ステップS527に進む。   In step S522, when at least one of the width information in the pixels B1 and B2 is smaller than the threshold value TH3 (“N” in step S522), the correction unit 24 uses the width information in the pixel B1 as a threshold. It is confirmed whether or not the value is larger than the value TH3 (step S524). If the width information at the pixel B1 is larger than the threshold value TH3 in step S524 (“Y” in step S524), the process proceeds to step S527.

ステップS524において、画素B1での幅情報がしきい値TH3よりも小さい場合(ステップS524において“N”)には、補正部24は、画素B2での幅情報がしきい値TH3よりも大きいか否かを確認する(ステップS525)。画素B2での幅情報がしきい値TH3より大きい場合(ステップS525において“Y”)には、トラッピング処理を終了する。   In step S524, when the width information at pixel B1 is smaller than threshold value TH3 ("N" at step S524), correction unit 24 determines whether the width information at pixel B2 is larger than threshold value TH3. It is confirmed whether or not (step S525). When the width information at the pixel B2 is larger than the threshold value TH3 (“Y” in step S525), the trapping process is terminated.

ステップS525において、画素B2での幅情報がしきい値TH3より小さい場合(ステップS525において“N”)には、補正部24は、注目画素Aのエッジ距離情報がしきい値TH3の半分(TH3/2)よりも小さいかどうかを確認する(ステップS526)。注目画素Aのエッジ距離情報がしきい値TH3の半分よりも小さい場合(ステップS526において“Y”)には、ステップS527に進み、注目画素Aのエッジ距離情報がしきい値TH3の半分よりも大きい場合(ステップS526において“N”)には、トラッピング処理を終了する。   In step S525, when the width information at the pixel B2 is smaller than the threshold value TH3 (“N” in step S525), the correction unit 24 sets the edge distance information of the pixel of interest A to half the threshold value TH3 (TH3). / 2) is checked (step S526). When the edge distance information of the target pixel A is smaller than half of the threshold value TH3 (“Y” in step S526), the process proceeds to step S527, and the edge distance information of the target pixel A is smaller than half of the threshold value TH3. If larger (“N” in step S526), the trapping process is terminated.

次に、補正部24は、注目画素Aの画素値を、画素B2の画素値と同じ画素値に設定する(ステップS527)。   Next, the correction unit 24 sets the pixel value of the target pixel A to the same pixel value as the pixel value of the pixel B2 (step S527).

具体的には、例えば、白色の色画像データDWの2値データDBNが、画素B1において“1”を有し、マゼンタ色の色画像データDMの2値データDBNが、画素B2において“1”を有する場合には、マゼンタ色の色画像データDMにおける注目画素Aの画素値を、マゼンタ色の色画像データDMにおける画素B2での画素値と同じ画素値に設定する。これにより、マゼンタ色の画像領域が広くなる。   Specifically, for example, the binary data DBN of the white color image data DW has “1” in the pixel B1, and the binary data DBN of the magenta color image data DM has “1” in the pixel B2. , The pixel value of the target pixel A in the magenta color image data DM is set to the same pixel value as the pixel value in the pixel B2 in the magenta color image data DM. As a result, the magenta image area is widened.

また、例えば、マゼンタ色の色画像データDMの2値データDBNが、画素B1において“1”を有し、白色の色画像データDWの2値データDBNが、画素B2において“1”を有する場合には、補正部24は、白色の色画像データDWにおける注目画素Aの画素値を、白色の色画像データDWにおける画素B2での画素値と同じ画素値に設定する。すなわち、この場合、白色の色画像データDWにおいて、画素B2における画素値はしきい値TH1よりも低い。よって、注目画素Aにおける画素値も、このような十分に低い値に設定される。これにより、白色の画像領域が狭くなる。   For example, when the binary data DBN of the magenta color image data DM has “1” in the pixel B1, and the binary data DBN of the white color image data DW has “1” in the pixel B2. The correction unit 24 sets the pixel value of the target pixel A in the white color image data DW to the same pixel value as the pixel value in the pixel B2 in the white color image data DW. That is, in this case, in the white color image data DW, the pixel value in the pixel B2 is lower than the threshold value TH1. Therefore, the pixel value in the target pixel A is also set to such a sufficiently low value. This narrows the white image area.

以上によりトラッピング処理が終了する。   Thus, the trapping process ends.

次に、図18に示したように、補正部24は、選択した色画像データDにおける注目画素Aにおいて、全てのエッジ方向を選択したか否かを確認する(ステップS508)。まだ全てのエッジ方向を選択していない場合(ステップS508において“N”)には、補正部24は、まだ選択していないエッジ方向を選択し(ステップS509)、ステップS506に戻る。そして、全てのエッジ方向が選択されるまで、ステップS506〜S509を繰り返す。そして、全てのエッジ方向を選択した場合(ステップS508において“Y”)には、ステップS510に進む。   Next, as illustrated in FIG. 18, the correction unit 24 confirms whether or not all edge directions have been selected for the target pixel A in the selected color image data D (step S508). If not all edge directions have been selected (“N” in step S508), the correction unit 24 selects an edge direction that has not yet been selected (step S509), and returns to step S506. Steps S506 to S509 are repeated until all edge directions are selected. If all edge directions have been selected (“Y” in step S508), the process proceeds to step S510.

次に、補正部24は、全ての色画像データDを選択したか否かを確認する(ステップS510)。まだ全ての色画像データDを選択していない場合(ステップS510において“N”)には、補正部24は、まだ選択していない色画像データDを選択し(ステップS511)、ステップS503に戻る。そして、全ての色画像データDが選択されるまで、ステップS503〜S511を繰り返す。そして、全ての色画像データDを選択した場合(ステップS510において“Y”)には、ステップS512に進む。   Next, the correcting unit 24 checks whether or not all the color image data D has been selected (step S510). If all the color image data D has not yet been selected (“N” in step S510), the correction unit 24 selects the color image data D that has not yet been selected (step S511), and returns to step S503. . Then, steps S503 to S511 are repeated until all the color image data D are selected. If all the color image data D are selected (“Y” in step S510), the process proceeds to step S512.

次に、補正部24は、全ての画素を注目画素Aとして選択したか否かを確認する(ステップS512)。まだ全ての画素を選択していない場合(ステップS512において“N”)には、補正部24は、まだ選択していない画素を注目画素Aとして選択し(ステップS513)、ステップS502に戻る。そして、全ての画素が選択されるまで、ステップS502〜S513を繰り返す。そして、全ての画素を選択した場合(ステップS512において“Y”)には、補正部24は、トラッピング補正処理(図2におけるステップS500)を終了する。   Next, the correction unit 24 checks whether or not all the pixels have been selected as the target pixel A (step S512). When all the pixels have not been selected (“N” in step S512), the correction unit 24 selects a pixel that has not been selected as the target pixel A (step S513), and returns to step S502. Then, steps S502 to S513 are repeated until all the pixels are selected. When all the pixels are selected (“Y” in step S512), the correction unit 24 ends the trapping correction process (step S500 in FIG. 2).

このようにして、補正部24は、5つの色画像データDに対して補正を行うことにより、5つの色画像データEを生成する。そして、画像形成部13は、5つの色画像データEに基づいて、記録媒体9に画像を形成する。   In this way, the correction unit 24 generates five color image data E by correcting the five color image data D. The image forming unit 13 forms an image on the recording medium 9 based on the five color image data E.

次に、いくつか例を挙げて、画像形成装置1の動作を説明する。   Next, the operation of the image forming apparatus 1 will be described with some examples.

(白境界補正処理の具体例)
図21,22は、記録媒体9に、マゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。図21(A)は、白境界補正処理を行わない場合の断面図を示し、図21(B)は、図21(A)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図21(C)は、白境界補正処理を行う場合の断面図を示し、図21(D)は、図21(C)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図22(A)は、白境界補正処理を行わない場合の断面図を示し、図22(B)は、図22(A)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図22(C)は、白境界補正処理を行う場合の断面図を示し、図22(D)は、図22(C)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図21,22では、説明の便宜上、マゼンタ色画像PMおよび白色画像PWの階調を、例えば現像剤の層の厚さで表している。なお、画像形成部13における階調の表現方法は、濃度階調に限定されるものではなく、例えば面積階調であってもよい。
(Specific example of white boundary correction processing)
21 and 22 schematically illustrate an image formation example when a magenta color image PM is formed on the recording medium 9. FIG. 21A shows a cross-sectional view when the white boundary correction process is not performed, and FIG. 21B shows a cross-section when a relative shift occurs in the image formation position in FIG. The figure is shown. FIG. 21C shows a cross-sectional view when white boundary correction processing is performed, and FIG. 21D is a cross-sectional view when a relative shift occurs in the image formation position in FIG. 21C. Indicates. 22A shows a cross-sectional view when the white boundary correction process is not performed, and FIG. 22B shows a cross-section when a relative shift occurs in the image formation position in FIG. 22A. The figure is shown. 22C is a cross-sectional view when white boundary correction processing is performed, and FIG. 22D is a cross-sectional view when a relative shift occurs in the image formation position in FIG. 22C. Indicates. 21 and 22, for convenience of explanation, the gradations of the magenta color image PM and the white image PW are represented by, for example, the thickness of the developer layer. Note that the gradation expression method in the image forming unit 13 is not limited to the density gradation, and may be, for example, an area gradation.

図21(A),22(A)に示したように、白境界補正処理を行わない場合において、画像形成装置1は、記録媒体9上における白境界BWの左側の領域R1において、大きい画素値(例えば“255”)に基づいて白色画像PWを形成し、白境界BWの右側の領域R2において、小さい画素値(例えば“55”)に基づいて白色画像PWを形成する。そして、画像形成装置1は、領域R1において、白色画像PWの上にマゼンタ色画像PMを形成する。このように、領域R1において、マゼンタ色画像PMの下に白色画像PWを形成することにより、ユーザが画像を観察したときに、マゼンタ色が記録媒体9の色と混ざって見えるおそれを低減することができる。   As shown in FIGS. 21A and 22A, when the white boundary correction processing is not performed, the image forming apparatus 1 has a large pixel value in the region R1 on the left side of the white boundary BW on the recording medium 9. The white image PW is formed based on (for example, “255”), and the white image PW is formed based on a small pixel value (for example, “55”) in the region R2 on the right side of the white boundary BW. Then, the image forming apparatus 1 forms a magenta image PM on the white image PW in the region R1. In this manner, by forming the white image PW under the magenta color image PM in the region R1, the possibility that the magenta color appears to be mixed with the color of the recording medium 9 when the user observes the image is reduced. Can do.

しかしながら、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、例えば、マゼンタ色画像PMが白色画像PWに比べて相対的に左にずれて形成された場合には、図21(B)に示したように、領域R1の白境界BW付近の領域R11において、白色画像PWの一部が露出してしまう。特に、この例では、領域R1における白色画像PWでは現像剤の濃度が高く、領域R2における白色画像PWでは現像剤の濃度が低く、これらの濃度の差が大きいので、領域R11の白色画像PWが不自然に目立ってしまうおそれがある。また、例えば、マゼンタ色画像PMが白色画像PWに比べて相対的に右にずれて形成された場合には、図22(B)に示したように、領域R2の白境界BW付近の領域R21に、マゼンタ色画像PMがはみ出してしまう。特に、この例では、領域R2における白色画像PWでは現像剤の濃度が低いので、領域R21におけるマゼンタ色画像PMは、記録媒体9の色の影響を受けてしまい、本来の色を再現することができないおそれがある。   However, when the image forming unit 13 forms the white image PW and the magenta image PM on the recording medium 9, for example, the magenta image PM is formed to be shifted to the left relative to the white image PW. In this case, as shown in FIG. 21B, a part of the white image PW is exposed in the region R11 near the white boundary BW of the region R1. In particular, in this example, the density of the developer is high in the white image PW in the area R1, and the density of the developer is low in the white image PW in the area R2, and the difference between these densities is large. May stand out unnaturally. For example, when the magenta color image PM is formed to be shifted to the right relative to the white image PW, as shown in FIG. 22B, the region R21 near the white boundary BW of the region R2. In addition, the magenta color image PM protrudes. In particular, in this example, since the density of the developer is low in the white image PW in the region R2, the magenta image PM in the region R21 is affected by the color of the recording medium 9, and may reproduce the original color. It may not be possible.

一方、画像形成装置1では、図21(C),22(C)に示したように、白境界補正処理により、白境界領域RBWにおいて、白色画像PWにおける現像剤の濃度がゆるやかに変化する。これにより、画像形成装置1では、画像形成部13が画像を形成する際に、マゼンタ色画像PMが白色画像PWに比べて相対的に左にずれて形成された場合でも、図21(D)に示したように、露出した白色画像PWでの現像剤の濃度がゆるやかに変化するため、白境界領域RBWにおいて、白色画像PWが不自然に目立ってしまうおそれを低減することができる。また、例えば、マゼンタ色画像PMが白色画像PWに比べて相対的に右にずれて形成された場合でも、図22(D)に示したように、はみ出したマゼンタ色画像PMの下の白色画像PWでの現像剤の濃度は、白境界補正処理を行わない場合の領域R21における白色画像PWでの現像剤の濃度(図22(B))よりも高いため、記録媒体9の色の影響を受けるおそれを低減することができる。また、白色画像PWの濃度の変化がゆるやかなので、画像が不自然に見えるおそれを低減することができる。その結果、画像形成装置1では、画質を高めることができる。   On the other hand, in the image forming apparatus 1, as shown in FIGS. 21C and 22C, the density of the developer in the white image PW gradually changes in the white boundary region RBW by the white boundary correction process. Thus, in the image forming apparatus 1, when the image forming unit 13 forms an image, even when the magenta color image PM is formed relatively shifted to the left as compared with the white image PW, FIG. As shown in FIG. 6, since the developer density in the exposed white image PW changes gradually, the possibility that the white image PW becomes unnaturally conspicuous in the white boundary region RBW can be reduced. Further, for example, even when the magenta color image PM is formed to be shifted to the right relative to the white image PW, as shown in FIG. 22D, the white image under the protruding magenta color image PM. Since the density of the developer in PW is higher than the density of the developer in the white image PW in the region R21 when the white boundary correction processing is not performed (FIG. 22B), the influence of the color of the recording medium 9 is affected. The risk of receiving can be reduced. Further, since the change in the density of the white image PW is gentle, the possibility that the image looks unnatural can be reduced. As a result, the image forming apparatus 1 can improve the image quality.

(トラッピング処理の具体例1)
図23は、明度が低い色の記録媒体9に、その明度よりも高い明度を有するマゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。図23(A)は、トラッピング処理を行わない場合の断面図を示し、図23(B)は、図23(A)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図23(C)は、トラッピング処理を行う場合の断面図を示し、図23(D)は、図23(C)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。この例では、トラッピング処理を行わない場合におけるマゼンタ色画像PMの幅WP1および間隔WS1,WS2を、しきい値TH3に対応する幅WTHよりも広くしている。
(Specific example 1 of trapping process)
FIG. 23 schematically illustrates an image formation example in the case where a magenta color image PM having a lightness higher than the lightness is formed on the recording medium 9 having a low lightness. FIG. 23A shows a cross-sectional view when the trapping process is not performed, and FIG. 23B shows a cross-sectional view when a relative shift occurs in the image formation position in FIG. 23A. Show. FIG. 23C shows a cross-sectional view when the trapping process is performed, and FIG. 23D shows a cross-sectional view when a relative shift occurs in the image formation position in FIG. 23C. . In this example, the width WP1 and the intervals WS1 and WS2 of the magenta color image PM when the trapping process is not performed are made wider than the width WTH corresponding to the threshold value TH3.

図23(A)に示したように、トラッピング処理を行わない場合において、画像形成装置1は、この例では、記録媒体9の上に白色画像PWを形成し、その上にマゼンタ色画像PMを形成する。このように、マゼンタ色画像PMの下に白色画像PWを形成することにより、ユーザが画像を観察したときに、マゼンタ色が記録媒体9の色と混ざって見えるおそれを低減することができる。   As shown in FIG. 23A, in the case where the trapping process is not performed, the image forming apparatus 1 forms a white image PW on the recording medium 9 and a magenta image PM on the recording medium 9 in this example. Form. In this way, by forming the white image PW under the magenta color image PM, it is possible to reduce the possibility that the magenta color appears to be mixed with the color of the recording medium 9 when the user observes the image.

しかしながら、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、これらの画像の形成位置に相対的なずれが生じた場合には、図23(B)に示したように、明度が高い白色画像PWの一部が露出してしまう。その結果、マゼンタ色画像PMの近傍に、明度が高い白色画像PWが見えてしまう。   However, when the image forming unit 13 forms the white image PW and the magenta color image PM on the recording medium 9, if a relative shift occurs in the formation position of these images, FIG. ), A part of the white image PW having high brightness is exposed. As a result, a white image PW with high brightness appears in the vicinity of the magenta color image PM.

一方、画像形成装置1では、図23(C)に示したように、トラッピング処理によりマゼンタ色画像PMを広げる。すなわち、ステップS502において白色の色画像データDWを選択した場合において、幅WP1および間隔WS1,WS2がしきい値TH3に対応する幅WTHよりも広く(ステップS522において“Y”)、マゼンタ色画像PMの明度が記録媒体9の色の明度よりも高いので(ステップS523において“Y”)、画像形成装置1は、ステップS527においてマゼンタ色の色画像データDMを補正することにより、マゼンタ色画像PMを広げる。具体的には、画像形成装置1は、図23(C)に示したように、マゼンタ色画像PMの左側のエッジを左方向に移動させるとともに右側のエッジを右方向に移動させることにより、マゼンタ色画像PMを広げる。   On the other hand, in the image forming apparatus 1, as shown in FIG. 23C, the magenta color image PM is expanded by the trapping process. That is, when the white color image data DW is selected in step S502, the width WP1 and the intervals WS1 and WS2 are wider than the width WTH corresponding to the threshold value TH3 (“Y” in step S522), and the magenta image PM Is higher than the brightness of the color of the recording medium 9 (“Y” in step S523), the image forming apparatus 1 corrects the magenta color image data DM in step S527, thereby correcting the magenta color image PM. spread. Specifically, as shown in FIG. 23C, the image forming apparatus 1 moves the left edge of the magenta color image PM to the left and moves the right edge to the right, thereby moving the magenta Widen the color image PM.

これにより、画像形成装置1では、画像形成部13が画像を形成する際に、画像の形成位置に相対的なずれが生じた場合でも、図23(D)に示したように、明度が高い白色画像PWが露出するおそれを低減することができる。その結果、明度が高い白色画像PWが見えるおそれを低減することができ、画質を高めることができる。   Thus, in the image forming apparatus 1, even when a relative shift occurs in the image forming position when the image forming unit 13 forms an image, the brightness is high as shown in FIG. The possibility that the white image PW is exposed can be reduced. As a result, the possibility that a white image PW with high brightness can be seen can be reduced, and the image quality can be improved.

(トラッピング処理の具体例2)
図24は、明度が高い色の記録媒体9に、その明度よりも低い明度を有するマゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。図24(A)は、トラッピング処理を行わない場合の断面図を示し、図24(B)は、図24(A)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。図24(C)は、トラッピング処理を行う場合の断面図を示し、図24(D)は、図24(C)において、画像の形成位置に相対的なずれが生じた場合の断面図を示す。
(Specific example 2 of trapping process)
FIG. 24 schematically illustrates an image formation example when a magenta color image PM having a lightness lower than the lightness is formed on the recording medium 9 having a high lightness. FIG. 24A shows a cross-sectional view when the trapping process is not performed, and FIG. 24B shows a cross-sectional view when a relative shift occurs in the image formation position in FIG. 24A. Show. FIG. 24C shows a cross-sectional view when the trapping process is performed, and FIG. 24D shows a cross-sectional view when a relative shift occurs in the image formation position in FIG. 24C. .

この場合でも、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、これらの画像の形成位置に相対的なずれが生じた場合には、図24(B)に示したように、明度が高い白色画像PWの一部が露出してしまう。その結果、マゼンタ色画像PMの近傍に、明度が高い白色画像PWが見えてしまう。   Even in this case, when the image forming unit 13 forms the white image PW and the magenta color image PM on the recording medium 9, if a relative shift occurs in the formation positions of these images, FIG. As shown to (B), a part of white image PW with high brightness will be exposed. As a result, a white image PW with high brightness appears in the vicinity of the magenta color image PM.

このように白色画像PWが露出しにくくする方法としては、図23(C)と同様に、マゼンタ色画像PMを広げる方法も考えられる。しかしながら、この場合には、オブジェクト(例えばマゼンタ色の線)が太く見えてしまう。すなわち、この例では、記録媒体9の色の明度が高いため、広くなったマゼンタ色画像PMが目立ち、オブジェクトが太く見えてしまう。   As a method of making the white image PW difficult to be exposed in this manner, a method of widening the magenta color image PM can be considered as in FIG. However, in this case, the object (for example, a magenta line) looks thick. That is, in this example, since the brightness of the color of the recording medium 9 is high, the widened magenta color image PM is conspicuous and the object looks thick.

そこで、画像形成装置1では、図24(C)に示したように、トラッピング処理により白色画像PWを狭める。すなわち、ステップS502においてマゼンタ色の色画像データDMを選択した場合において、幅WP1および間隔WS1,WS2がしきい値TH3に対応する幅WTHよりも広く(ステップS522において“Y”)、記録媒体9の色の明度がマゼンタ色画像PMの明度よりも高いので(ステップS523において“Y”)、画像形成装置1は、ステップS527において白色の色画像データDWを補正することにより、白色画像PWを狭める。具体的には、画像形成装置1は、図24(C)に示したように、白色画像PWの左側のエッジを右方向に移動させるとともに、白色画像PWの右側のエッジを左方向に移動させることにより、白色画像PWを狭める。   Therefore, in the image forming apparatus 1, as shown in FIG. 24C, the white image PW is narrowed by the trapping process. That is, when the magenta color image data DM is selected in step S502, the width WP1 and the intervals WS1 and WS2 are wider than the width WTH corresponding to the threshold value TH3 (“Y” in step S522), and the recording medium 9 Is lighter than the magenta color image PM (“Y” in step S523), the image forming apparatus 1 corrects the white color image data DW in step S527 to narrow the white image PW. . Specifically, as shown in FIG. 24C, the image forming apparatus 1 moves the left edge of the white image PW to the right and moves the right edge of the white image PW to the left. As a result, the white image PW is narrowed.

これにより、画像形成装置1では、画像形成部13が画像を形成する際に、画像の形成位置に相対的なずれが生じた場合でも、図24(D)に示したように、明度が高い白色画像PWが露出するおそれを低減することができるとともに、マゼンタ色画像PMの幅を維持することができる。その結果、オブジェクトが太く見えることなく、明度が高い白色画像PWが見えるおそれを低減することができ、画質を高めることができる。   Accordingly, in the image forming apparatus 1, even when a relative shift occurs in the image forming position when the image forming unit 13 forms an image, the brightness is high as shown in FIG. The possibility that the white image PW is exposed can be reduced, and the width of the magenta color image PM can be maintained. As a result, it is possible to reduce the possibility that the white image PW with high brightness can be seen without causing the object to appear thick, and the image quality can be improved.

(トラッピング処理の具体例3)
図25は、明度が低い色の記録媒体9に、その明度よりも高い明度を有するマゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。この例では、トラッピング処理を行わない場合におけるマゼンタ色画像PMの幅WP1および間隔WS1を、しきい値TH3に対応する幅WTHよりも狭くし、間隔WS2を、しきい値TH3に対応する幅WTHよりも広くしている。
(Specific example 3 of trapping process)
FIG. 25 schematically shows an image formation example in the case where a magenta color image PM having a lightness higher than the lightness is formed on the recording medium 9 having a low lightness. In this example, the width WP1 and the interval WS1 of the magenta image PM when the trapping process is not performed are made narrower than the width WTH corresponding to the threshold value TH3, and the interval WS2 is set to the width WTH corresponding to the threshold value TH3. Than wider.

この場合でも、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、これらの画像の形成位置に相対的なずれが生じた場合には、図25(B)に示したように、明度が高い白色画像PWの一部が露出してしまう。このとき、例えば、図23(C),(D)と同様に、マゼンタ色画像PMを広げた場合には、狭い間隔WS1にもマゼンタ色画像PMが広がることにより、画質が低下するおそれがある。   Even in this case, when the image forming unit 13 forms the white image PW and the magenta color image PM on the recording medium 9, if a relative shift occurs in the formation positions of these images, FIG. As shown to (B), a part of white image PW with high brightness will be exposed. At this time, for example, as in FIGS. 23C and 23D, when the magenta color image PM is widened, the magenta color image PM may spread even in the narrow interval WS <b> 1, thereby degrading the image quality. .

一方、画像形成装置1では、図25(C)に示したように、トラッピング処理において、マゼンタ色画像PMの左側のエッジおよび白色画像PWの左側のエッジの両方を、互いに反対の方向に移動させることにより、マゼンタ色画像PMを広げるとともに白色画像PWを狭める。すなわち、ステップS502において白色の色画像データDWを選択した場合において、幅WP1および間隔WS1がしきい値TH3に対応する幅WTHよりも狭いので(ステップS522,S524,S525において“N”)、画像形成装置1は、ステップS526,S527において、マゼンタ色の色画像データDMを補正することにより、マゼンタ色画像PMを広げる。具体的には、画像形成装置1は、マゼンタ色画像PMの左側のエッジを、図23(C)の場合の半分だけ左方向に移動させることにより、マゼンタ色画像PMを広げる。また、ステップS502においてマゼンタ色の色画像データDMを選択した場合において、幅WP1および間隔WS1がしきい値TH3に対応する幅WTHよりも狭いので(ステップS522,S524,S525において“N”)、画像形成装置1は、ステップS526,S527において、白色の色画像データDWを補正することにより、白色画像PWを狭める。具体的には、画像形成装置1は、白色画像PWの左側のエッジを、図24(C)の場合の半分だけ右方向に移動させることにより、白色画像PWを狭める。   On the other hand, in the image forming apparatus 1, as shown in FIG. 25C, in the trapping process, both the left edge of the magenta color image PM and the left edge of the white image PW are moved in opposite directions. As a result, the magenta image PM is widened and the white image PW is narrowed. That is, when the white color image data DW is selected in step S502, the width WP1 and the interval WS1 are narrower than the width WTH corresponding to the threshold value TH3 (“N” in steps S522, S524, and S525). In steps S526 and S527, the forming apparatus 1 corrects the magenta color image data DM to widen the magenta color image PM. Specifically, the image forming apparatus 1 widens the magenta color image PM by moving the left edge of the magenta color image PM to the left by half of the case of FIG. Further, when the magenta color image data DM is selected in step S502, the width WP1 and the interval WS1 are narrower than the width WTH corresponding to the threshold value TH3 (“N” in steps S522, S524, and S525). In steps S526 and S527, the image forming apparatus 1 corrects the white color image data DW to narrow the white image PW. Specifically, the image forming apparatus 1 narrows the white image PW by moving the left edge of the white image PW to the right by half of the case of FIG.

これにより、画像形成装置1では、画像形成部13が画像を形成する際に、画像の形成位置に相対的なずれが生じた場合でも、図25(D)に示したように、明度が高い白色画像PWが露出するおそれを低減することができるとともに、狭い間隔WS1にマゼンタ色画像PMが広がるおそれを低減することができる。その結果、画質を高めることができる。   Thus, in the image forming apparatus 1, even when a relative shift occurs in the image forming position when the image forming unit 13 forms an image, the brightness is high as shown in FIG. The possibility that the white image PW is exposed can be reduced, and the possibility that the magenta color image PM spreads in the narrow interval WS1 can be reduced. As a result, the image quality can be improved.

(トラッピング処理の具体例4)
図26は、明度が高い色の記録媒体9に、その明度よりも低い明度を有するマゼンタ色画像PMを形成した場合の画像形成例を模式的に表すものである。
(Specific example 4 of trapping process)
FIG. 26 schematically illustrates an image formation example when a magenta color image PM having a lightness lower than the lightness is formed on the recording medium 9 having a high lightness.

この場合でも、画像形成部13が、記録媒体9に、白色画像PWとマゼンタ色画像PMとを形成する際に、これらの画像の形成位置に相対的なずれが生じた場合には、図26(B)に示したように、明度が高い白色画像PWの一部が露出してしまう。このとき、例えば、図24(C)と同様に、白色画像PWを狭めた場合には、狭い幅WP1において白色画像PWがさらに狭くなるため、記録媒体9の色とマゼンタ色とが混ざり合って見える領域が増えるため、色が変色してしまい、画質が低下するおそれがある。   Even in this case, when the image forming unit 13 forms the white image PW and the magenta color image PM on the recording medium 9, if a relative shift occurs in the formation positions of these images, FIG. As shown to (B), a part of white image PW with high brightness will be exposed. At this time, for example, as in FIG. 24C, when the white image PW is narrowed, the white image PW is further narrowed in the narrow width WP1, so that the color of the recording medium 9 and the magenta color are mixed. Since the visible area increases, the color may change and the image quality may deteriorate.

一方、画像形成装置1では、図26(C)に示したように、トラッピング処理において、マゼンタ色画像PMの右側のエッジを移動させることにより、マゼンタ色画像PMを広げる。すなわち、ステップS502において白色の色画像データDWを選択した場合において、幅WP1がしきい値TH3に対応する幅WTHよりも狭く(ステップS522において“N”)、間隔WS2がしきい値TH3に対応する幅WTHよりも広い(ステップS524において“Y”)ので、画像形成装置1は、ステップS527において、マゼンタ色の色画像データDMを補正することにより、マゼンタ色画像PMを広げる。具体的には、画像形成装置1は、マゼンタ色画像PMの右側のエッジを右方向に移動させることにより、マゼンタ色画像PMを広げる。   On the other hand, in the image forming apparatus 1, as shown in FIG. 26C, in the trapping process, the right edge of the magenta color image PM is moved to widen the magenta color image PM. That is, when white color image data DW is selected in step S502, width WP1 is narrower than width WTH corresponding to threshold value TH3 (“N” in step S522), and interval WS2 corresponds to threshold value TH3. The image forming apparatus 1 widens the magenta color image PM by correcting the magenta color image data DM in step S527 because it is wider than the width WTH to be performed (“Y” in step S524). Specifically, the image forming apparatus 1 widens the magenta color image PM by moving the right edge of the magenta color image PM to the right.

これにより、画像形成装置1では、画像形成部13が画像を形成する際に、画像の形成位置に相対的なずれが生じた場合でも、図26(D)に示したように、明度が高い白色画像PWが露出するおそれを低減することができるとともに、狭い幅WP1において、記録媒体9の色とマゼンタ色とが混ざり合って変色するおそれを低減することができる。その結果、画質を高めることができる。   Thus, in the image forming apparatus 1, even when a relative shift occurs in the image forming position when the image forming unit 13 forms an image, the brightness is high as shown in FIG. The possibility that the white image PW is exposed can be reduced, and the possibility that the color of the recording medium 9 and the magenta color are mixed and discolored in the narrow width WP1 can be reduced. As a result, the image quality can be improved.

[効果]
以上のように本実施の形態では、白境界補正処理を行い、白境界付近において、画素値がゆるやかに変化するようにしたので、画質を高めることができる。
[effect]
As described above, in this embodiment, the white boundary correction process is performed so that the pixel value gradually changes in the vicinity of the white boundary, so that the image quality can be improved.

本実施の形態では、記録媒体の色を検出し、検出した色に基づいてトラッピング処理を行うようにしたので、画質を高めることができる。   In the present embodiment, since the color of the recording medium is detected and the trapping process is performed based on the detected color, the image quality can be improved.

本実施の形態では、画像の幅および間隔が広い場合において、記録媒体の明度が画像の明度よりも高い場合に、白色画像の幅を狭めるようにしたので、オブジェクトが太くなるおそれを低減することができるため、画質を高めることができる。   In the present embodiment, the width of the white image is narrowed when the brightness of the recording medium is higher than the brightness of the image when the width and interval of the image are wide, thereby reducing the possibility that the object becomes thick. Image quality can be improved.

本実施の形態では、画像の幅および間隔に基づいて、トラッピング処理を行うようにしたので、画質を高めることができる。   In this embodiment, since the trapping process is performed based on the width and interval of the image, the image quality can be improved.

[変形例1]
上記実施の形態では、エッジ方向データDIR、エッジ距離データDIS、幅データDLW、および白境界データDWRの生成方法の一例を示したが、これらの方法に限定されるものではなく、他の方法を用いてもよい。
[Modification 1]
In the above-described embodiment, an example of the generation method of the edge direction data DIR, the edge distance data DIS, the width data DLW, and the white boundary data DWR has been described. It may be used.

[変形例2]
上記実施の形態では、ステップS408において、式(EQ1)を用いて、補正対象領域R内の各画素での色画像データDWの画素値を補正したが、これに限定されるものではない。例えば、白境界BWと交差する方向において、白境界領域RBW内の画素値をゆるやかに変化させる様々な方法を用いることができる。
[Modification 2]
In the above embodiment, in step S408, the pixel value of the color image data DW at each pixel in the correction target region R is corrected using the equation (EQ1), but the present invention is not limited to this. For example, various methods can be used in which the pixel value in the white boundary region RBW is gradually changed in the direction intersecting the white boundary BW.

[変形例3]
上記実施の形態では、媒体色センサ12を設け、記録媒体9の色を検出したが、これに限定されるものではない。これに代えて、例えば図27に示す画像形成装置1Bのように、媒体色設定部12Bを設け、ユーザが、例えば操作パネルを操作することにより、記録媒体9の色を入力し、媒体色設定部12Bがこの入力結果に基づいて媒体色情報Cを生成してもよい。また、例えば、ホストコンピュータ(図示せず)から、印刷データDPとともに、記録媒体9に関する記録媒体情報を受信し、その記録媒体情報に基づいて媒体色情報Cを生成してもよい。また、例えば、画像形成装置1の装置内や、外部のデータベースに、記録媒体の種類と媒体色情報Cとの対応関係を示すテーブルを記憶させておき、ホストコンピュータから供給された記録媒体情報に基づいて、このテーブルを参照することにより、媒体色情報Cを生成してもよい。
[Modification 3]
In the above embodiment, the medium color sensor 12 is provided and the color of the recording medium 9 is detected. However, the present invention is not limited to this. Instead, for example, a medium color setting unit 12B is provided as in the image forming apparatus 1B shown in FIG. 27, and the user inputs the color of the recording medium 9 by operating the operation panel, for example, to set the medium color. The unit 12B may generate the medium color information C based on the input result. Further, for example, the recording medium information regarding the recording medium 9 may be received together with the print data DP from a host computer (not shown), and the medium color information C may be generated based on the recording medium information. Further, for example, a table indicating the correspondence relationship between the type of the recording medium and the medium color information C is stored in the apparatus of the image forming apparatus 1 or in an external database, and the recording medium information supplied from the host computer is stored in the table. Based on this table, the medium color information C may be generated by referring to this table.

以上、いくつかの実施の形態および変形例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。   The present technology has been described above with some embodiments and modifications. However, the present technology is not limited to these embodiments and the like, and various modifications are possible.

例えば、上記の実施の形態等では、本発明を普通紙などの記録媒体9に画像を形成する用途に適用したが、これに限定されるものではない。記録媒体は、いわゆるアイロンプリントの転写シートであってもよいし、例えば、OHP(Over Head Projector)フィルムであってもよい。この場合、画像形成部13は、例えば、黄色の画像、マゼンタ色の画像、シアン色の画像、黒色の画像、および白色の画像を、この順で形成する。すなわち、白色の画像が一番上に形成される。例えば、アイロンプリントの場合には、転写シートから、生地などの被転写物に転写することにより、非転写物において、白色の画像が一番下に形成される。   For example, in the above-described embodiment and the like, the present invention is applied to the use of forming an image on the recording medium 9 such as plain paper, but the present invention is not limited to this. The recording medium may be a so-called iron print transfer sheet, or may be an OHP (Over Head Projector) film, for example. In this case, the image forming unit 13 forms, for example, a yellow image, a magenta image, a cyan image, a black image, and a white image in this order. That is, a white image is formed on the top. For example, in the case of iron printing, a white image is formed at the bottom of a non-transferred material by transferring it from a transfer sheet to an object to be transferred such as cloth.

また、例えば、上記の実施の形態等では、白色の現像剤を用いたが、これに限定されるものではなく、例えば、白色に近い色の現像剤を用いてもよい。   Further, for example, in the above-described embodiment and the like, the white developer is used. However, the present invention is not limited to this. For example, a developer having a color close to white may be used.

また、例えば、上記の実施の形態等では、本発明を画像形成装置に適用したが、これに限定されるものではなく、これに代えて、コピー、ファクシミリ、スキャナなどの機能を有する多機能周辺装置(MFP;Multi Function Peripheral)に適用してもよい。   Further, for example, in the above-described embodiment, the present invention is applied to the image forming apparatus, but the present invention is not limited to this, and instead, a multifunction peripheral having functions such as a copy, a facsimile, and a scanner. You may apply to an apparatus (MFP; Multi Function Peripheral).

また、例えば、上記の実施の形態等では、本発明における「明るさ度合い」の一具体例として明度を用いたが、これに限定されるものではない。これに代えて、例えば、輝度を用いてもよい。   Further, for example, in the above-described embodiment and the like, brightness is used as a specific example of “brightness degree” in the present invention, but the present invention is not limited to this. Instead of this, for example, luminance may be used.

1,1B…画像形成装置、9…記録媒体、11…通信部、12…媒体色センサ、12B…媒体色設定部、13…画像形成部、20…画像処理部、21…色画像生成部、22…エッジ検出部、23…白境界検出部、24…補正部、A…注目画素、A1…周辺画素、B…エッジ部分、B1,B2…画素、C…媒体色情報、C1…白境界画素、C2…非白境界画素、D,DY,DM,DC,DK,DW,E,EY,EM,EC,EK,EW…色画像データ、DBN…2値データ、DIR…エッジ方向データ、DIS…エッジ距離データ、DLW…幅データ、DWR…白境界データ、PM…マゼンタ色画像、PW…白色画像、R…補正対象領域、RBW…白境界領域、R1,R11,R2,R21…領域、TH1,TH2,TH3,TH4…しきい値、WP1…幅、WS1,WS2…間隔。   DESCRIPTION OF SYMBOLS 1,1B ... Image forming apparatus, 9 ... Recording medium, 11 ... Communication part, 12 ... Medium color sensor, 12B ... Medium color setting part, 13 ... Image forming part, 20 ... Image processing part, 21 ... Color image generation part, 22 ... Edge detection unit, 23 ... White boundary detection unit, 24 ... Correction unit, A ... Target pixel, A1 ... Peripheral pixel, B ... Edge part, B1, B2 ... Pixel, C ... Medium color information, C1 ... White boundary pixel , C2 ... non-white boundary pixels, D, DY, DM, DC, DK, DW, E, EY, EM, EC, EK, EW ... color image data, DBN ... binary data, DIR ... edge direction data, DIS ... Edge distance data, DLW ... width data, DWR ... white boundary data, PM ... magenta image, PW ... white image, R ... correction area, RBW ... white boundary area, R1, R11, R2, R21 ... area, TH1, TH2, TH3, TH4 ... Threshold WP1 ... width, WS1, WS2 ... interval.

Claims (15)

第1の色に対応する第1の画像が配置された画像領域のうちの、第2の色に対応する第2の画像が配置された第1の領域と、前記画像領域のうちの前記第1の領域以外の第2の領域との間の境界を含む境界領域において、前記第1の色に対応する第1の画像データに対して、画素値の変化をゆるやかにする第1の補正処理を行う画像処理部と、
前記第2の色に対応する第2の画像データ、および前記第1の補正処理が施された前記第1の画像データに基づいて、記録媒体に画像を形成する画像形成部と
を備えた画像形成装置。
Of the image area in which the first image corresponding to the first color is arranged, the first area in which the second image corresponding to the second color is arranged, and the first of the image areas. First correction processing for gradual change in pixel value with respect to first image data corresponding to the first color in a boundary region including a boundary with a second region other than the first region An image processing unit for performing
An image forming unit configured to form an image on a recording medium based on the second image data corresponding to the second color and the first image data subjected to the first correction process. Forming equipment.
前記画像処理部は、前記第1の画像データにおける、前記第1の領域に含まれる第1の画素の第1の画素値と、前記第2の領域に含まれる第2の画素の第2の画素値との差に基づいて、前記境界領域を設定する
請求項1に記載の画像形成装置。
The image processing unit includes a first pixel value of a first pixel included in the first region and a second value of a second pixel included in the second region in the first image data. The image forming apparatus according to claim 1, wherein the boundary region is set based on a difference from a pixel value.
前記画像処理部は、前記第1の画素値と前記第2の画素値との差の絶対値である差分値が第1のしきい値よりも大きい場合に、前記境界領域を設定する
請求項2に記載の画像形成装置。
The image processing unit sets the boundary region when a difference value that is an absolute value of a difference between the first pixel value and the second pixel value is larger than a first threshold value. The image forming apparatus according to 2.
前記画像処理部は、
前記差分値が、前記第1のしきい値よりも大きく、前記第1のしきい値よりも大きい第2のしきい値よりも小さい場合に、前記境界領域の、前記境界と交差する方向における領域幅を第1の幅に設定し、
前記差分値が第2のしきい値よりも大きい場合に、前記領域幅を前記第1の幅よりも広い第2の幅に設定する
請求項3に記載の画像形成装置。
The image processing unit
When the difference value is larger than the first threshold value and smaller than a second threshold value larger than the first threshold value, the boundary region in a direction intersecting the boundary Set the region width to the first width,
The image forming apparatus according to claim 3, wherein when the difference value is larger than a second threshold value, the area width is set to a second width wider than the first width.
前記第1の画素および前記第2の画素は隣り合っている
請求項2から請求項4のいずれか一項に記載の画像形成装置。
The image forming apparatus according to claim 2, wherein the first pixel and the second pixel are adjacent to each other.
前記画像処理部は、前記第1の画像データにおける、前記境界領域内の複数の画素の画素値と、前記複数の画素にそれぞれ対応づけられた重み値とに基づいて、前記複数の画素における画素値を補正することにより、前記第1の補正処理を行う
請求項2から請求項5のいずれか一項に記載の画像形成装置。
The image processing unit includes pixels in the plurality of pixels based on pixel values of the plurality of pixels in the boundary region and weight values respectively associated with the plurality of pixels in the first image data. The image forming apparatus according to claim 2, wherein the first correction process is performed by correcting a value.
前記複数の画素は、前記第1の画素および前記第2の画素を含む
請求項6に記載の画像形成装置。
The image forming apparatus according to claim 6, wherein the plurality of pixels include the first pixel and the second pixel.
前記画像処理部は、前記第1の画像データにおける、前記境界領域内の、前記境界と交差する方向に並ぶ複数の画素の画素値が単調に変化するように、前記第1の補正処理を行う
請求項1から請求項7のいずれか一項に記載の画像形成装置。
The image processing unit performs the first correction processing so that pixel values of a plurality of pixels arranged in a direction intersecting the boundary in the boundary area in the first image data change monotonously. The image forming apparatus according to claim 1.
前記画像処理部は、前記記録媒体の媒体色に基づいて、前記境界領域以外の領域における、前記第1の画像の第1のエッジ部分と、前記第2の画像の、前記第1のエッジ部分に対応する第2のエッジ部分とを離すことにより、前記第1の画像データおよび前記第2の画像データを補正する第2の補正処理をさらに行う
請求項1から請求項8のいずれか一項に記載の画像形成装置。
The image processing unit includes a first edge portion of the first image and a first edge portion of the second image in an area other than the boundary area based on a medium color of the recording medium. The second correction processing for correcting the first image data and the second image data is further performed by separating the second edge portion corresponding to the first edge data. 9. The image forming apparatus described in 1.
前記画像処理部は、前記媒体色の第1の明るさ度合いと、前記第2の画像における前記第2のエッジ部分付近の第2の明るさ度合いとを比較し、その比較結果に基づいて、前記第2の補正処理を行う
請求項9に記載の画像形成装置。
The image processing unit compares the first brightness level of the medium color with the second brightness level near the second edge portion in the second image, and based on the comparison result, The image forming apparatus according to claim 9, wherein the second correction process is performed.
前記画像処理部は、前記第1の明るさ度合いが前記第2の明るさ度合いよりも高い場合には、前記第1の画像の面積が小さくなるように前記第1のエッジ部分を移動させることにより、前記第2の補正処理を行う
請求項10に記載の画像形成装置。
When the first brightness level is higher than the second brightness level, the image processing unit moves the first edge portion so that the area of the first image is reduced. The image forming apparatus according to claim 10, wherein the second correction process is performed.
前記画像処理部は、前記第2の明るさ度合いが前記第1の明るさ度合いよりも高い場合には、前記第2の画像の面積が大きくなるように前記第2のエッジ部分を移動させることにより、前記第2の補正処理を行う
請求項10または請求項11に記載の画像形成装置。
When the second brightness level is higher than the first brightness level, the image processing unit moves the second edge portion so that the area of the second image is increased. The image forming apparatus according to claim 10, wherein the second correction process is performed.
前記第1の色は、画像を形成する基本色以外の色である
請求項1から請求項12のいずれか一項に記載の画像形成装置。
The image forming apparatus according to any one of claims 1 to 12, wherein the first color is a color other than a basic color forming an image.
前記第1の色は、白色である
請求項1から請求項13のいずれか一項に記載の画像形成装置。
The image forming apparatus according to claim 1, wherein the first color is white.
前記第2の色は、黄色、マゼンタ色、シアン色、および黒色のうちのいずれかである
請求項1から請求項14のいずれか一項に記載の画像形成装置。
The image forming apparatus according to claim 1, wherein the second color is any one of yellow, magenta, cyan, and black.
JP2017024937A 2017-02-14 2017-02-14 Image forming apparatus Pending JP2018133656A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017024937A JP2018133656A (en) 2017-02-14 2017-02-14 Image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017024937A JP2018133656A (en) 2017-02-14 2017-02-14 Image forming apparatus

Publications (1)

Publication Number Publication Date
JP2018133656A true JP2018133656A (en) 2018-08-23

Family

ID=63247684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017024937A Pending JP2018133656A (en) 2017-02-14 2017-02-14 Image forming apparatus

Country Status (1)

Country Link
JP (1) JP2018133656A (en)

Similar Documents

Publication Publication Date Title
US8416460B2 (en) Image processing apparatus and control method of image forming apparatus with exclusive or relative control over the trapping and edge smoothing processing
US9241090B2 (en) Image processing device, image correcting method and program
JP4498233B2 (en) Image processing apparatus and image processing method
US10506131B2 (en) Image processing apparatus that specifies edge pixel in target image using single-component image data
US20170208211A1 (en) Image processing apparatus, image processing method, and storage medium
JP6630228B2 (en) Image forming device
US8995021B2 (en) Black trapping methods, apparatus and systems for binary images
JP5863001B2 (en) Image processing apparatus, image forming apparatus, and program
US8120817B2 (en) Revising halftone image by adding dot to or filtering edge pixel
US9036219B2 (en) Image processing device and image processing method for preventing image quality deterioration
JP2018133656A (en) Image forming apparatus
JP5884362B2 (en) Image processing method, image reading apparatus, and image processing program
JP2017068023A (en) Image forming apparatus
US10154174B2 (en) Image forming apparatus
JP5218768B2 (en) Image processing apparatus and program
US10389909B2 (en) Image processing apparatus that specifies edge pixel in target image using minimum and maximum component values of pixel value in target image data
JP5316312B2 (en) Image processing device
JP6303458B2 (en) Image processing apparatus and image processing method
US20140063557A1 (en) Image forming apparatus and image forming method
JP2006287603A (en) Mesh point region discrimination apparatus and mesh point region discrimination program
JP5777602B2 (en) Image forming apparatus
JP5870826B2 (en) Image processing apparatus, image processing method, and computer program
JP2010245591A (en) Image processor and program
JP2012239095A (en) Image processing apparatus, suitable image determination method, and computer program
JP2019092127A (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program