JP2020102767A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2020102767A
JP2020102767A JP2018239935A JP2018239935A JP2020102767A JP 2020102767 A JP2020102767 A JP 2020102767A JP 2018239935 A JP2018239935 A JP 2018239935A JP 2018239935 A JP2018239935 A JP 2018239935A JP 2020102767 A JP2020102767 A JP 2020102767A
Authority
JP
Japan
Prior art keywords
value
dots
pixel
predetermined area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018239935A
Other languages
Japanese (ja)
Inventor
佳輝 橋岡
Yoshiteru Hashioka
佳輝 橋岡
石川 尚
Takashi Ishikawa
尚 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018239935A priority Critical patent/JP2020102767A/en
Priority to US16/708,643 priority patent/US10834288B2/en
Publication of JP2020102767A publication Critical patent/JP2020102767A/en
Pending legal-status Critical Current

Links

Images

Abstract

To more appropriately reproduce color tone of a detailed line when performing quantization processing on a color image including a detailed line.SOLUTION: An image processing device includes: deriving means for deriving the number of dots to be arranged in a predetermined area based on a pixel value of each pixel included in the predetermined area for each predetermined area regarding the input image data of color to be processed; determination means for determining an arrangement priority order indicating a priority order of pixels for arranging dots in the predetermined area using an evaluation value based on each pixel value in the predetermined area and a threshold value group corresponding to the predetermined area in a threshold matrix; correction means for correcting the number of dots derived based on the accumulated representative value obtained by accumulating a representative value of pixel values in the predetermined area between colors when the derived dot number is less than a reference dot number; and generation means for generating the dot data corresponding to the predetermined area based on the corrected dot number and the arrangement priority determined by the determining means.SELECTED DRAWING: Figure 2

Description

本発明は画像データをより高品質なハーフトーン画像データに変換するための技術に関する。 The present invention relates to a technique for converting image data into higher quality halftone image data.

カメラで撮影された画像やCGなどの方法で作成された画像のデジタル画像データ(以下、単に画像データと呼ぶ。)を印刷するプリンタ等の画像形成装置が広く利用されている。画像データは、一般に各画素を1色あたり8ビットや16ビット等の多階調で表現する。一方、画像形成装置は記録材によるドットのオンとオフによって階調を表現するため、出力可能な階調数が少ない。そこで、多階調の画像データを画像形成装置で出力可能な階調数に変換する量子化手法が用いられる。一般に階調数を少なくする量子化手法として、ハーフトーン処理がある。ハーフトーン処理後に得られるハーフトーン画像データは、画像形成装置が記録媒体上に出力するドットパターンを表し、疑似的に画像の階調を表現する。ハーフトーン処理の一種として、ディザ処理がよく利用される。ディザ処理では、画像データにおける各画素に対応して閾値が配置された閾値マトリクスを用いて、画素ごとに、画像データの画素値と閾値マトリクスの閾値とを比較して、各画素についてドットのオンまたはオフを決定する。 2. Description of the Related Art Image forming apparatuses such as printers that print digital image data (hereinafter, simply referred to as image data) of an image captured by a camera or an image created by a method such as CG are widely used. In image data, each pixel is generally expressed in multi-gradation of 8 bits or 16 bits per color. On the other hand, since the image forming apparatus expresses gradation by turning dots on and off by the recording material, the number of gradations that can be output is small. Therefore, a quantization method for converting multi-tone image data into the number of tones that can be output by the image forming apparatus is used. Generally, there is halftone processing as a quantization method for reducing the number of gradations. The halftone image data obtained after the halftone processing represents a dot pattern output on the recording medium by the image forming apparatus, and pseudo-expresses the gradation of the image. Dither processing is often used as a type of halftone processing. In the dither processing, a threshold value matrix in which a threshold value is arranged corresponding to each pixel in the image data is used, and for each pixel, the pixel value of the image data is compared with the threshold value of the threshold value matrix, and the dot is turned on for each pixel. Or decide to turn off.

しかし、高周波成分を含む画像データを入力して処理する場合、画像データに含まれる高周波成分と閾値マトリクスの閾値の周期とが干渉し、モアレ(テクスチャ)や鮮鋭性の劣化、細線の途切れ等が発生するおそれがあった。そこで、特許文献1には、画像データを複数の処理領域に分割し、処理領域毎に、画像の画素値に応じて、領域内に配置するドット数を決定し、領域内の各画素にドットを配置する優先順を決定するハーフトーン処理が開示されている。 However, when inputting and processing image data containing a high frequency component, the high frequency component contained in the image data interferes with the threshold period of the threshold matrix, and moiré (texture), deterioration of sharpness, breakage of fine lines, etc. may occur. It was likely to occur. Therefore, in Patent Document 1, the image data is divided into a plurality of processing regions, the number of dots to be arranged in the region is determined according to the pixel value of the image for each processing region, and the dots are arranged in each pixel in the region. A halftone process for deciding a priority order for arranging the positions is disclosed.

特開2016−21735号公報JP, 2016-21735, A

しかし、従来技術に記載の方法では、ハーフトーン処理により明細線を上手く再現できない可能性がある。明細線とは明度が高く(画素値が小さく)かつ線幅の狭い線のことである。そのため、明細線のみを含む処理領域では平均画素値が低くなる。したがって、画素値に基づいてドット数を決定する方法では処理領域内に配置されるドット数が少なくなり、出力画像において明細線が上手く再現できなくなる可能性があった。特にカラー画像を印刷する場合には、RGB画像をCMYK画像に分解する過程において各色の濃度値が小さくなりやすく、CMYK各色の画像データにおいて低濃度領域が発生しやすくなる。それにより、ハーフトーン処理後の画像データにおいて明細線の色調を再現するのに十分なドット数が得られない場合があった。 However, the method described in the related art may not be able to successfully reproduce the detail line by the halftone process. The detail line is a line having high brightness (small pixel value) and narrow line width. Therefore, the average pixel value becomes low in the processing region including only the detail line. Therefore, in the method of determining the number of dots based on the pixel value, the number of dots arranged in the processing area is small, and the detail line may not be reproduced well in the output image. In particular, when printing a color image, the density value of each color tends to be small in the process of separating the RGB image into the CMYK image, and a low density area is likely to occur in the image data of each color of CMYK. As a result, the number of dots sufficient to reproduce the color tone of the detail line may not be obtained in the image data after the halftone process.

そこで、本発明は、カラー画像に対して量子化処理を行う場合に、明細線の色調をより適切に再現することができる画像処理装置を提供することを目的とする。 Therefore, it is an object of the present invention to provide an image processing device that can more appropriately reproduce the color tone of a detail line when performing a quantization process on a color image.

本発明による画像処理装置は、記録媒体上への画像の形成に用いる各画素にドットを配置するか否かを定めるドットデータを、前記画像の形成に用いる色材の色ごとに生成する画像処理装置であって、処理対象とする色の入力画像データについて、所定領域ごとに、前記所定領域に含まれる各画素の画素値に基づき前記所定領域内に配置すべきドット数を導出する導出手段と、前記所定領域の各画素値と、閾値マトリクス内の前記所定領域に対応する閾値群とに基づく評価値を用いて、前記所定領域においてドットを配置する画素の優先順を示す配置優先順を決定する決定手段と、前記導出手段が導出した前記ドット数が基準ドット数に満たない場合に、前記所定領域の画素値の代表値を色間で累積して得られる累積代表値に基づき、前記導出手段が導出した前記ドット数を補正する補正手段と、前記補正手段により補正された前記ドット数と、前記決定手段が決定した前記配置優先順とに基づいて、前記所定領域に対応する前記ドットデータを生成する生成手段と、を備えることを特徴とする。 The image processing apparatus according to the present invention generates dot data for determining whether or not to arrange dots in each pixel used for forming an image on a recording medium for each color of a color material used for forming the image. A device for deriving input image data of a color to be processed, for each predetermined region, deriving means for deriving the number of dots to be arranged in the predetermined region based on the pixel value of each pixel included in the predetermined region. , An arrangement priority order indicating a priority order of pixels in which dots are arranged in the predetermined area is determined by using an evaluation value based on each pixel value of the predetermined area and a threshold value group corresponding to the predetermined area in a threshold matrix. Determining means, and when the number of dots derived by the deriving means is less than a reference number of dots, the derivation is performed based on a cumulative representative value obtained by accumulating representative values of pixel values in the predetermined area between colors. Correction means for correcting the number of dots derived by the means, the number of dots corrected by the correction means, and the layout priority order determined by the determining means, based on the dot data corresponding to the predetermined area And generating means for generating.

本発明によれば、カラー画像に対して量子化処理を行う場合に、明細線の色調をより適切に再現することができる。 According to the present invention, the color tone of the detail line can be more appropriately reproduced when the quantization processing is performed on the color image.

第1実施形態の画像処理部を含む画像形成システムの構成を示すブロック図。FIG. 3 is a block diagram showing a configuration of an image forming system including an image processing unit according to the first embodiment. 第1実施形態における画像処理部の構成を示すブロック図。FIG. 3 is a block diagram showing a configuration of an image processing unit in the first embodiment. 入力画像データにおける処理領域を示す図。The figure which shows the processing area in input image data. 明細線を含む処理領域と該処理領域に対応する閾値群との一例を示す図。The figure which shows an example of the processing area containing a detail line and the threshold value group corresponding to this processing area. 第1実施形態における画像処理部の動作を示すフローチャート。6 is a flowchart showing the operation of the image processing unit in the first embodiment. 図5に示す処理によって得られる処理結果を説明するための図。FIG. 6 is a diagram for explaining a processing result obtained by the processing shown in FIG. 5. 第1実施形態における補正値導出部の処理を示すフローチャート。6 is a flowchart showing the processing of the correction value derivation unit in the first embodiment. 第2実施形態における補正値導出部の処理を示すフローチャートである。It is a flow chart which shows processing of a correction value derivation part in a 2nd embodiment. 第2実施形態における配置優先順決処理を説明するための図。The figure for demonstrating the arrangement priority order determination process in 2nd Embodiment. 第3実施形態における画像処理部の構成を示すブロック図。The block diagram which shows the structure of the image processing part in 3rd Embodiment. 第3実施形態における画像処理部の動作を示すフローチャート。9 is a flowchart showing the operation of the image processing unit in the third embodiment. 第3実施形態における補正出力値決定部の処理を説明するための図。The figure for demonstrating the process of the correction|amendment output value determination part in 3rd Embodiment. 第3実施形態における画像処理部の動作を説明するための図。FIG. 8 is a diagram for explaining the operation of the image processing unit in the third embodiment.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention, and all combinations of the features described in the present embodiment are not necessarily essential to the solving means of the present invention. The same configurations will be described with the same reference numerals.

<第1実施形態>
(画像処理装置の構成)
図1は、第1実施形態の画像処理部(以下、画像処理装置とも呼ぶ。)を含む画像形成システムの構成を示すブロック図である。本実施形態では、画像処理装置の一例として、記録媒体上に記録材を用いて画像を形成するプリンタ内に内蔵された画像処理コントローラを例として説明する。
<First Embodiment>
(Structure of image processing device)
FIG. 1 is a block diagram showing a configuration of an image forming system including an image processing unit (hereinafter, also referred to as an image processing apparatus) of the first embodiment. In the present embodiment, as an example of an image processing apparatus, an image processing controller built in a printer that forms an image on a recording medium using a recording material will be described as an example.

第1実施形態に係る画像形成システムは、CPU100、RAM101、ROM102、操作部103、表示部104、外部記憶装置105、画像処理部106、画像形成部107、I/F(インターフェース)部108、及びバス109を備える。 The image forming system according to the first embodiment includes a CPU 100, a RAM 101, a ROM 102, an operation unit 103, a display unit 104, an external storage device 105, an image processing unit 106, an image forming unit 107, an I/F (interface) unit 108, and The bus 109 is provided.

CPU100は、入力されたデータや、後述するRAMやROMに格納されているコンピュータプログラムを用いて、画像形成システム全体の動作を制御する。なお、ここではCPU100が画像形成システム全体を制御する場合を例に説明するが、複数のハードウェアが処理を分担することにより、画像形成システム全体を制御するようにしてもよい。 The CPU 100 controls the operation of the entire image forming system using the input data and a computer program stored in a RAM or a ROM described later. Although the case where the CPU 100 controls the entire image forming system is described here as an example, the entire image forming system may be controlled by a plurality of pieces of hardware sharing the processing.

RAM101は、外部記憶装置105から読み取ったコンピュータプログラムやデータ、I/F部108を介して外部から受信したデータを一時的に記憶する記憶領域を有する。またRAM101は、CPU100が各種処理を実行する際に用いる記憶領域や画像処理部106が画像処理を実行する際に用いる記憶領域として使用される。すなわちRAM101は各種の記憶領域を適宜提供することができる。ROM102には、画像形成システムにおける各部を設定する設定パラメータやブートプログラムなどが格納されている。 The RAM 101 has a storage area for temporarily storing a computer program or data read from the external storage device 105 and data received from the outside via the I/F unit 108. Further, the RAM 101 is used as a storage area used when the CPU 100 executes various processes and a storage area used when the image processing unit 106 executes image processing. That is, the RAM 101 can appropriately provide various storage areas. The ROM 102 stores setting parameters for setting each unit in the image forming system, a boot program, and the like.

操作部103は、キーボードやマウスなどにより構成されていて、操作者による操作を介して操作者の指示を受け付ける。これにより操作者は各種の指示をCPU100に対して入力することができる。 The operation unit 103 is composed of a keyboard, a mouse, and the like, and receives an instruction from the operator through an operation performed by the operator. This allows the operator to input various instructions to the CPU 100.

表示部104は、CRTや液晶画面などにより構成されていて、CPU100による処理結果を画像や文字などで表示することができる。なお表示部104がタッチ操作を検知可能なタッチパネルである場合、表示部104が操作部103の一部として機能してもよい。 The display unit 104 is composed of a CRT, a liquid crystal screen, or the like, and can display the processing result by the CPU 100 as an image or characters. When the display unit 104 is a touch panel that can detect a touch operation, the display unit 104 may function as a part of the operation unit 103.

外部記憶装置105は、ハードディスクドライブに代表される大容量情報記憶装置である。外部記憶装置105には、OS(オペレーティングシステム)やCPU100に処理を実行させるためのコンピュータプログラムやデータなどが保存されている。また外部記憶装置105は、各部の処理によって生成される一時的なデータ(入出力される画像データや画像処理部106で使われる閾値マトリクスなど)が保存される。外部記憶装置105に保存されているコンピュータプログラムやデータは、CPU100による制御に従って適宜読み取られ、RAM101に記憶されてCPU100による処理の対象とされる。 The external storage device 105 is a large capacity information storage device represented by a hard disk drive. The external storage device 105 stores an OS (operating system), a computer program for causing the CPU 100 to execute processing, data, and the like. Further, the external storage device 105 stores temporary data (image data to be input/output, a threshold matrix used in the image processing unit 106, etc.) generated by the processing of each unit. The computer programs and data stored in the external storage device 105 are appropriately read according to the control of the CPU 100, stored in the RAM 101, and subjected to processing by the CPU 100.

画像処理部106は、コンピュータプログラムを実行可能なプロセッサや専用の画像処理回路として実現される。画像処理部106は、印刷対象として入力された画像データを画像形成部107が出力可能な画像データに変換するため各種画像処理を実行する。例えば、CPU100から画像処理を実行する指示を受け付けると、外部記憶装置105に格納されたN階調の入力画像データを、M階調の出力画像データに変換する処理を実行する。 The image processing unit 106 is realized as a processor capable of executing a computer program or a dedicated image processing circuit. The image processing unit 106 executes various types of image processing in order to convert the image data input as a print target into image data that can be output by the image forming unit 107. For example, when an instruction to execute image processing is received from the CPU 100, a process of converting N gradation input image data stored in the external storage device 105 into M gradation output image data is executed.

画像形成部107は、画像処理部106から出力される出力画像データに基づいて、用紙などの記録媒体上に記録材を用いて画像を形成する。第1実施形態における画像形成部107は、インクをノズルから記録媒体上に吐出することにより画像を形成するインクジェット方式を採用する。なお画像形成部107は、帯電した像担持体に露光しトナーで現像し、そのトナー像を記録媒体上に転写することで画像を形成する電子写真方式を採用してもよい。 The image forming unit 107 forms an image using a recording material on a recording medium such as paper based on the output image data output from the image processing unit 106. The image forming unit 107 according to the first embodiment employs an inkjet method that forms an image by ejecting ink from a nozzle onto a recording medium. Note that the image forming unit 107 may employ an electrophotographic method in which an image is formed by exposing a charged image carrier to development with toner and transferring the toner image onto a recording medium.

I/F部108は、本実施形態における画像形成システムと外部機器を接続するためのインターフェースとして機能する。さらに、I/F部108は、赤外線通信や無線LAN等を用いて通信装置とデータのやりとりを行うためのインターフェースとしても機能する。上記の各構成要素はいずれもバス109に接続され、バス109を介して互いにデータの授受を行う。 The I/F unit 108 functions as an interface for connecting the image forming system according to this embodiment and an external device. Furthermore, the I/F unit 108 also functions as an interface for exchanging data with a communication device using infrared communication, wireless LAN, or the like. All of the above components are connected to the bus 109, and exchange data with each other via the bus 109.

(画像処理部106の構成)
本実施形態における画像処理部106について説明する。画像処理部106は、入力画像データを入力画像データより階調数が少ないハーフトーン画像データに変換するためのハーフトーン処理を実行する。図2は、第1実施形態における画像処理部106の構成を示すブロック図である。本実施形態における画像処理部106は、図2に示す構成を有する専用の画像処理回路として実現される。画像処理部106は、画素値取得部201、配置優先順決定部202、閾値取得部203、目標値導出部204、補正値導出部205、合計出力値導出部206、出力値決定部207、及び色間累積値導出部208を有する。
(Structure of Image Processing Unit 106)
The image processing unit 106 in this embodiment will be described. The image processing unit 106 executes halftone processing for converting the input image data into halftone image data having a smaller number of gradations than the input image data. FIG. 2 is a block diagram showing the configuration of the image processing unit 106 in the first embodiment. The image processing unit 106 in this embodiment is realized as a dedicated image processing circuit having the configuration shown in FIG. The image processing unit 106 includes a pixel value acquisition unit 201, an arrangement priority order determination unit 202, a threshold value acquisition unit 203, a target value derivation unit 204, a correction value derivation unit 205, a total output value derivation unit 206, an output value determination unit 207, and It has an inter-color cumulative value derivation unit 208.

本実施形態における画像処理部106は、入力画像データとして、プリンタが使用する色材ごとに色分解後の単色画像データが入力される。なお、色分解は、RGBごとの画像データからプリンタで使用する色材に対応するCMYKごとの画像データに変換する処理である。本実施形態では、色分解後の各画像データはKCMYの順に画像処理部106に入力され、画像処理部106は、各色の画像データに対して個別に画像処理を行うものとする。また、各色の画像データは、画素毎に0〜255いずれかの値を示す8ビットのデータであるものとする。そして、画像処理部106は、1画素当たり8ビットの入力画像データを、画素毎に0か1のいずれかの値を有する1ビット2値のハーフトーン画像データ(出力画像データ)に変換する。それにより、KCMY4色分のハーフトーン画像データが生成される。ハーフトーン画像データにおいて、画素値(出力値)が0である画素はドットのオフを、画素値が1である画素はドットのオンを表す。このようなハーフトーン画像データは、入力画像データが表す階調数より少ない階調数で疑似的に入力画像データを再現している。なお、以下において、ハーフトーン画像データをドットデータと呼ぶ場合がある。 The image processing unit 106 according to the present embodiment receives, as input image data, monochromatic image data after color separation for each color material used by the printer. The color separation is a process of converting image data for each RGB into image data for each CMYK corresponding to the color material used in the printer. In the present embodiment, each image data after color separation is input to the image processing unit 106 in the order of KCMY, and the image processing unit 106 individually performs image processing on the image data of each color. The image data of each color is 8-bit data indicating any value of 0 to 255 for each pixel. Then, the image processing unit 106 converts 8-bit input image data per pixel into 1-bit binary halftone image data (output image data) having a value of 0 or 1 for each pixel. Thereby, halftone image data for four colors of KCMY are generated. In the halftone image data, a pixel having a pixel value (output value) of 0 represents a dot off, and a pixel having a pixel value of 1 represents a dot on. In such halftone image data, the input image data is reproduced in a pseudo manner with a gradation number smaller than the gradation number represented by the input image data. In the following, the halftone image data may be referred to as dot data.

画素値取得部201は、入力画像データにおいて処理対象とする単位領域(以下、処理領域または所定領域と呼ぶ。)に含まれる複数画素の各画素値を取得する。図3は、入力画像データ300における処理領域を示す図である。本実施形態では、図3における太枠が示す4画素×4画素の領域を処理領域とする。例えば処理領域を領域301とした場合、画素値取得部201は、領域301に含まれる16画素のそれぞれの画素値を取得する。 The pixel value acquisition unit 201 acquires each pixel value of a plurality of pixels included in a unit area (hereinafter, referred to as a processing area or a predetermined area) to be processed in the input image data. FIG. 3 is a diagram showing a processing area in the input image data 300. In the present embodiment, the region of 4 pixels×4 pixels indicated by the thick frame in FIG. 3 is set as the processing region. For example, when the processing region is the region 301, the pixel value acquisition unit 201 acquires each pixel value of 16 pixels included in the region 301.

閾値取得部203は、ディザ処理に使用する閾値群をRAM101または外部記憶装置105から取得する。図4は、明細線を含む処理領域と該処理領域に対応する閾値群との一例を示す図である。本実施形態では、図4に示す閾値群401がディザ処理に使用されるものとする。閾値群401は、RAM101または外部記憶装置105に格納されている閾値マトリクスの一部である。閾値取得部203は画素値取得部201によって処理領域の各画素値が読み込まれる度に図4に示す閾値群401を取得する。なお、本実施形態では、説明の簡単のためKCMY各色で共通の閾値マトリクスが用いられるものとするが、各色で異なる閾値マトリクスが用いるようにしても良い。 The threshold acquisition unit 203 acquires a threshold group used for dither processing from the RAM 101 or the external storage device 105. FIG. 4 is a diagram showing an example of a processing area including a detail line and a threshold value group corresponding to the processing area. In the present embodiment, it is assumed that the threshold value group 401 shown in FIG. 4 is used for dither processing. The threshold group 401 is a part of a threshold matrix stored in the RAM 101 or the external storage device 105. The threshold value acquiring unit 203 acquires the threshold value group 401 shown in FIG. 4 every time the pixel value acquiring unit 201 reads each pixel value of the processing region. In the present embodiment, a common threshold value matrix is used for each color of KCMY for simplicity of description, but different threshold value matrices may be used for each color.

目標値導出部204は、処理領域に含まれる複数画素の画素値と閾値群の閾値とに基づいて、処理領域における出力値の合計(合計出力値)を決定するための目標値を導出する。前述した通り、出力値はドットのオンとオフを1と0で表されるため、処理領域における目標値は、処理領域においてオンとすべきドットの数に相当する。本実施形態では、処理領域の各画素の画素値の平均値と閾値群の各閾値とを比較し、平均値未満となる閾値の数を目標値として導出する。 The target value derivation unit 204 derives a target value for determining the total output value (total output value) in the processing area based on the pixel values of the plurality of pixels included in the processing area and the threshold values of the threshold value group. As described above, the output value is represented by 1s and 0s indicating that dots are turned on and off. Therefore, the target value in the processing area corresponds to the number of dots that should be turned on in the processing area. In the present embodiment, the average value of the pixel values of each pixel in the processing area is compared with each threshold value of the threshold value group, and the number of threshold values less than the average value is derived as the target value.

色間累積値導出部208は、補正値導出部205で補正値を導出する際に使用する色間累積値を出力する。色間累積値については、後述する。 The inter-color cumulative value deriving unit 208 outputs the inter-color cumulative value used when the correction value deriving unit 205 derives the correction value. The inter-color cumulative value will be described later.

補正値導出部205は、処理領域の各画素の画素値と、閾値群の各閾値と、色間累積値導出部208が導出した色間累積値とに基づいて、合計出力値を補正するための補正量(補正値)を導出する。本実施形態では、補正値導出部205は、処理領域内の画素値の平均値と色間累積値の和と、閾値群の最小閾値とを比較する。比較した結果、その和が最小閾値以上であれば補正値として1を設定し、最小閾値未満であれば補正値として0を設定する。 The correction value derivation unit 205 corrects the total output value based on the pixel value of each pixel in the processing region, each threshold value of the threshold value group, and the inter-color cumulative value derived by the inter-color cumulative value deriving unit 208. The correction amount (correction value) of is derived. In the present embodiment, the correction value derivation unit 205 compares the sum of the average value of pixel values in the processing area and the inter-color cumulative value with the minimum threshold value of the threshold value group. As a result of the comparison, if the sum is greater than or equal to the minimum threshold, 1 is set as the correction value, and if less than the minimum threshold, 0 is set as the correction value.

合計出力値導出部206は、目標値導出部204が導出した目標値と、補正値導出部205が導出した補正値とに基づいて、処理領域における出力値の合計(合計出力値)を導出する。本実施形態では、合計出力値導出部206は、目標値と補正値とを加算した結果を合計出力値として導出する。 The total output value deriving unit 206 derives the total output value in the processing area (total output value) based on the target value derived by the target value deriving unit 204 and the correction value derived by the correction value deriving unit 205. .. In the present embodiment, the total output value deriving unit 206 derives the result of adding the target value and the correction value as the total output value.

配置優先順決定部202は、処理領域の各画素の画素値と閾値群の各閾値とに基づいて、処理領域においてどの画素から優先的にドットを配置させるかを示す配置優先順を決定する。本実施形態では、配置優先順決定部202は、位置的に対応する画素値と閾値との差分値(ここでは、画素値を閾値で減算して得られる差分値)を、ドットの配置優先順を決定する際の評価値として導出する。そして、配置優先順決定部202は、導出した各画素の評価値をソートすることにより、ドットの配置優先順を決定する。入力画像が明細線を含む場合、処理領域402に示すように線を構成する有効画素(白画素でない画素)が少なく、画素値が0である白画素が大半を占める。また、明細線を構成する画素は白画素との画素値の差分が小さいため、処理領域402に示すような領域では、閾値群の閾値がドットの配置優先順に与える影響が大きく、白画素の配置優先順が高くなる可能性がある。白画素にドットを配置してしまうと、鮮鋭性が劣化した画像が生成されてしまうため、ドットの配置優先順は白画素を除いた有効画素が上位の優先順になることが望ましい。なお、本実施形態では画素値が0である画素を白画素としているが、原稿スキャナで読み取った画像に対する公知の下地処理のように、画素値が所定値以下となる画素を白画素としても良い。その場合、有効画素は、上記所定値を超える画素値の画素となる。 The arrangement priority order determination unit 202 determines the arrangement priority order indicating from which pixel in the processing area the dots are to be arranged preferentially, based on the pixel value of each pixel in the processing area and each threshold value of the threshold value group. In the present embodiment, the arrangement priority order determination unit 202 determines the difference value between the pixel value corresponding to the position and the threshold value (here, the difference value obtained by subtracting the pixel value by the threshold value) as the dot arrangement priority order. Is derived as an evaluation value for determining. Then, the arrangement priority order determination unit 202 determines the dot arrangement priority order by sorting the derived evaluation values of each pixel. When the input image includes the detail line, the number of effective pixels (pixels that are not white pixels) forming the line is small as shown in the processing area 402, and most of the white pixels having a pixel value of 0 occupy the majority. Further, since the difference in pixel value between the pixels forming the detail line and the white pixels is small, in a region such as the processing region 402, the thresholds of the threshold group have a great influence on the dot arrangement priority order, and the arrangement of the white pixels is large. Priority may be higher. If dots are arranged in white pixels, an image with deteriorated sharpness is generated. Therefore, the dot arrangement priority order is preferably the effective pixels excluding the white pixels in the higher priority order. Note that in the present embodiment, a pixel having a pixel value of 0 is a white pixel, but a pixel having a pixel value of a predetermined value or less may be a white pixel, as in known background processing for an image read by a document scanner. .. In that case, the effective pixel is a pixel having a pixel value exceeding the predetermined value.

出力値決定部207は、配置優先順決定部202が決定したドットの配置優先順に基づいて、合計出力値導出部206が導出した合計出力値に達するまで、各画素に出力値として1を割り当てていく。出力値として1が割り当てられなかった画素は、出力値として0が割り当てられたものとして扱われる。これにより、処理領域における各画素の出力値が決定される。 The output value determination unit 207 allocates 1 as an output value to each pixel until the total output value derived by the total output value derivation unit 206 is reached based on the dot arrangement priority order determined by the arrangement priority order determination unit 202. Go Pixels to which 1 is not assigned as the output value are treated as those to which 0 is assigned as the output value. As a result, the output value of each pixel in the processing area is determined.

ここで、図4を用いて、色間累積値導出部208が導出する色間累積値について説明する。色間累積値は、補正値導出部205がKCMY各色の補正値導出処理をする毎に累積される値である。本実施形態では、1つ前に入力されたチャネル(色プレーン)の入力画像データの画素値の平均値と色間累積値との和を、処理中の色プレーンの色間累積値とする。なお、この和は、今回までに入力された各チャネルの入力画像データの画素値の平均値を累積したものと言えるので、累積平均値(または累積代表値)と呼ぶこともできる。ここで、図4に示す処理領域402がKCMY共通の画像データとして入力される場合を考える。その場合、画像処理部106に対しKの入力画像データが入力された場合、Kは最初に入力される色プレーンであるため、色間累積値は0となる。次に、Cの入力画像データが入力された場合、色間累積値は、1つ前に入力された色プレーンKの画素値の平均値と色間累積値との和となる。処理領域402の平均値は3(=(18+14+10+6)÷16)であるため、色間累積値は3(=3+0)となる。同様に、Mの入力画像データが入力された場合の色間累積値は、色間累積値6(=3+3)、Yが入力された場合の色間累積値は9(=3+6)となる。なお、処理中の色プレーンの色間累積値として最も好適であるのは、1つ前に入力された画素値の平均値と色間累積値の和である。しかし、処理領域内の合計値、最大画素値、中央値、最小値といったその他の代表値(統計量)と色間累積値との和を、処理中の色プレーンの色間累積値としてもよい。以下において、色間累積値を累積代表値と呼ぶ場合がある。また、それらの値に係数αを乗算した値と色間累積値との和などを処理中の色プレーンの色間累積値としてもよい。 Here, the inter-color cumulative value derived by the inter-color cumulative value deriving unit 208 will be described with reference to FIG. The inter-color cumulative value is a value that is accumulated every time the correction value derivation unit 205 performs the correction value derivation process for each color of KCMY. In the present embodiment, the sum of the average value of the pixel values of the input image data of the channel (color plane) input immediately before and the inter-color cumulative value is set as the inter-color cumulative value of the color plane being processed. Since this sum can be said to be an accumulation of the average values of the pixel values of the input image data of each channel input up to this time, it can also be called a cumulative average value (or a cumulative representative value). Here, consider a case where the processing area 402 shown in FIG. 4 is input as image data common to KCMY. In this case, when K input image data is input to the image processing unit 106, K is the color plane that is input first, so the inter-color cumulative value is 0. Next, when the input image data of C is input, the inter-color cumulative value is the sum of the average value of the pixel values of the color plane K input immediately before and the inter-color cumulative value. Since the average value of the processing area 402 is 3 (=(18+14+10+6)÷16), the inter-color cumulative value is 3 (=3+0). Similarly, the inter-color cumulative value when M input image data is input is 6 (=3+3), and the inter-color cumulative value when Y is input is 9 (=3+6). The most suitable inter-color cumulative value of the color plane being processed is the sum of the average value of the pixel values input immediately before and the inter-color cumulative value. However, the sum of other representative values (statistics) such as the total value, maximum pixel value, median value, and minimum value in the processing area and the inter-color cumulative value may be used as the inter-color cumulative value of the color plane being processed. .. Hereinafter, the inter-color cumulative value may be referred to as a cumulative representative value. Further, the sum of the value obtained by multiplying these values by the coefficient α and the inter-color cumulative value may be used as the inter-color cumulative value of the color plane being processed.

(画像処理部106における動作)
図5は、第1実施形態における画像処理部106の動作を示すフローチャートである。なお、図5に示すフローチャートで示される一連の処理は、CPU100がROM102に記憶されているプログラムコードをRAM101に展開し実行することにより行われる。あるいは、図5におけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、フローチャートにおけるステップであることを意味する。図6は、図5に示す処理によって得られる処理結果を説明するための図である。なお、出力結果608〜610はハーフトーン後の出力結果を表し、各画素位置においてドットをオンにする色を「K」「C」「M」「Y」で示している。画像処理部106は、RAM101や外部記憶装置105から取得した色分解後のKCMY各色の入力画像データに対して順に、以下に示すS501〜S510の処理を実行する。なお、ここでは説明の簡単のため、図6に示す16画素×16画素の画像データ601,602,603及び604が、K、C、M及びYの入力画像データとしてそれぞれ取得されるものとする。なお、画像データ601〜604は、図3に示す画像データ300の一部(領域301〜304)に対応する。また、処理領域のサイズを4画素×4画素とし、各入力画像データに対して左上の領域から右上、左下、右下の領域へと順に処理が実行されるものとする。なお、処理領域のサイズは上記サイズに限られない。また、処理領域に対する処理の実行順は上記の順番に限られない。
(Operation in the image processing unit 106)
FIG. 5 is a flowchart showing the operation of the image processing unit 106 in the first embodiment. The series of processes shown in the flowchart of FIG. 5 is performed by the CPU 100 expanding the program code stored in the ROM 102 into the RAM 101 and executing the program code. Alternatively, some or all of the functions of the steps in FIG. 5 may be realized by hardware such as an ASIC or an electronic circuit. The symbol "S" in the description of each process means a step in the flowchart. FIG. 6 is a diagram for explaining the processing result obtained by the processing shown in FIG. The output results 608 to 610 represent the output results after halftone, and the colors at which the dots are turned on at each pixel position are indicated by "K", "C", "M", and "Y". The image processing unit 106 sequentially performs the processes of S501 to S510 described below on the input image data of each color of KCMY after color separation acquired from the RAM 101 or the external storage device 105. Here, for the sake of simplicity of description, it is assumed that the image data 601, 602, 603 and 604 of 16 pixels×16 pixels shown in FIG. 6 are respectively acquired as K, C, M and Y input image data. .. The image data 601 to 604 correspond to a part (areas 301 to 304) of the image data 300 shown in FIG. Further, it is assumed that the size of the processing area is 4 pixels×4 pixels, and the processing is sequentially executed from the upper left area to the upper right area, the lower left area, and the lower right area for each input image data. The size of the processing area is not limited to the above size. Further, the execution order of the processing on the processing area is not limited to the above order.

まず、画素値取得部201が、入力画像データから処理領域の各画素の画素値を取得する(S501)。次いで、閾値取得部203が、RAM101や外部記憶装置105から処理領域に対応する閾値群を取得する(S502)。図6に示す閾値マトリクス605は、入力画像データ601〜604に対して共通に用いられる閾値マトリクスである。よって、ここでは、閾値マトリクス605から、処理領域に対応する位置の閾値群が取得される。なお、色プレーンごとに異なる閾値マトリクスが用いられてもよい。また、S501及びS502の処理は、互いに依存しないのでどちらが先に実行されてもよいし、それぞれの処理を並行して実行するようにしてもよい。 First, the pixel value acquisition unit 201 acquires the pixel value of each pixel in the processing region from the input image data (S501). Next, the threshold acquisition unit 203 acquires a threshold group corresponding to the processing area from the RAM 101 or the external storage device 105 (S502). The threshold matrix 605 shown in FIG. 6 is a threshold matrix commonly used for the input image data 601 to 604. Therefore, here, the threshold value group at the position corresponding to the processing region is acquired from the threshold value matrix 605. A different threshold matrix may be used for each color plane. Further, since the processes of S501 and S502 do not depend on each other, whichever may be executed first, or the respective processes may be executed in parallel.

次いで、目標値導出部204が、S501で取得された画素値と、S502で取得された閾値とに基づいて、処理領域における目標値(処理領域においてドットをオンにするべき画素の合計数の目標値)を導出する(S503)。ここでは、目標値導出部204は、処理領域内の全ての画素の平均値を算出し、算出した平均値と閾値群の各閾値とを比較して、平均値未満である閾値の数を目標値として導出する。入力画像データ601の左上の領域を処理領域とする場合、その処理領域について画素の平均値を求めると12.5になる。また、閾値マトリクス605のうちの処理領域に対応する閾値群の中で12.5未満の閾値は11の1つのみであるため、目標値は1となる。右上、左下、右下の領域を処理領域とする場合についても同様の計算をすると、目標値として0がそれぞれ導出される。 Next, the target value derivation unit 204 sets the target value in the processing area (the target of the total number of pixels for which dots should be turned on in the processing area) based on the pixel value acquired in S501 and the threshold value acquired in S502. A value) is derived (S503). Here, the target value derivation unit 204 calculates the average value of all the pixels in the processing area, compares the calculated average value with each threshold value of the threshold value group, and targets the number of threshold values that are less than the average value. Derived as a value. When the upper left area of the input image data 601 is used as the processing area, the average value of pixels in the processing area is 12.5. In addition, the target value is 1 because only one threshold value less than 12.5 is 11 in the threshold value group corresponding to the processing area in the threshold value matrix 605. When the upper right, lower left, and lower right areas are used as the processing areas, the same calculation results in 0 as the target value.

次いで、画像処理部106は、補正値導出部205に補正値導出を実行させるか否かを判断する(S504)。具体的には、ステップS503で導出された目標値が基準ドット数に満たない場合に(S504のYES)、画像処理部106は、ステップS505の処理に進む。本実施形態では、基準ドット数を1とする。なお、基準ドット数は1に限定されず、処理領域のサイズに応じて変更するようにしてもよい。したがって、目標値が0である場合に処理がS505に進むことになる。一方、目標値が0でない場合(S504のNO)、画像処理部106は、補正値の初期値として0を設定し、S506の処理に進む。本実施形態の目的は明細線の視認性を向上させることである。そのため、明細線が存在しない高濃度領域と想定される目標値が1以上の領域では補正値の導出を行わず、目標値が0となる低濃度領域においてのみ補正値の導出を行う。 Next, the image processing unit 106 determines whether or not the correction value derivation unit 205 should execute the correction value derivation (S504). Specifically, when the target value derived in step S503 is less than the reference dot number (YES in S504), the image processing unit 106 proceeds to the process of step S505. In this embodiment, the reference number of dots is 1. The reference number of dots is not limited to one, and may be changed according to the size of the processing area. Therefore, if the target value is 0, the process proceeds to S505. On the other hand, when the target value is not 0 (NO in S504), the image processing unit 106 sets 0 as the initial value of the correction value, and the process proceeds to S506. The purpose of this embodiment is to improve the visibility of detail lines. Therefore, the correction value is not derived in the region where the target value is 1 or more, which is assumed to be the high-density region where the detail line does not exist, and the correction value is derived only in the low-density region where the target value is 0.

次いで、補正値導出部205は、S501で取得された画素値と、S502で取得された閾値と、色間累積値導出部208が導出した色間累積値に基づいて、処理領域における補正値(目標値の補正量)を導出する。 Next, the correction value derivation unit 205, based on the pixel value acquired in S501, the threshold value acquired in S502, and the inter-color cumulative value derived by the inter-color cumulative value deriving unit 208, the correction value ( A correction amount of the target value) is derived.

ここで、S505において補正値導出部205が実行する補正値導出処理について説明する。図7は、第1実施形態における補正値導出部205の処理を示すフローチャートである。まず、補正値導出部205は、補正値に0を設定し、補正値を初期化する(S701)。次いで、補正値導出部205は、同一の処理領域内で他の色プレーンも含めて、ドットが未配置であるかを判定する(S702)。ドットが配置されている場合には(S702のNO)、補正値導出部205は処理を終了する。本実施形態の目的は、明細線の欠落を防ぎ、再現性を高めることである。そのため、既にドットが配置されている処理領域については、ある程度線が連続している(明細線が欠落していない)または他の色では明細線になっていないと判断し、過度な補正処理を防ぐため補正値導出処理を終了する。 Here, the correction value derivation process executed by the correction value derivation unit 205 in S505 will be described. FIG. 7 is a flowchart showing the process of the correction value derivation unit 205 in the first embodiment. First, the correction value derivation unit 205 sets 0 to the correction value and initializes the correction value (S701). Next, the correction value derivation unit 205 determines whether dots have not been arranged in the same processing area, including other color planes (S702). When the dots are arranged (NO in S702), the correction value derivation unit 205 ends the process. The purpose of this embodiment is to prevent the loss of detail lines and improve reproducibility. Therefore, regarding the processing area where dots are already arranged, it is judged that the lines are continuous to some extent (the detail line is not missing) or not in other colors, and excessive correction processing is performed. To prevent this, the correction value derivation process ends.

次いで、補正値導出部205は、処理領域内の平均値と最小閾値を取得する(S703,S704)。さらに、補正値導出部205は、色間累積値を取得する(S705)。次いで、補正値導出部205は、S703で取得した平均値とS705で取得した色間累積値の和と、S704で取得した最小閾値とを比較する。平均値と色間累積値の和が最小閾値以上であった場合は(S706のYES)、補正値導出部205は、補正値を1に設定する。一方、最小閾値未満であった場合は(S706のNO)、補正値導出部205は処理を終了する。 Next, the correction value derivation unit 205 acquires the average value and the minimum threshold value in the processing area (S703, S704). Further, the correction value derivation unit 205 acquires the inter-color cumulative value (S705). Next, the correction value derivation unit 205 compares the sum of the average value acquired in S703 and the inter-color cumulative value acquired in S705 with the minimum threshold value acquired in S704. When the sum of the average value and the inter-color cumulative value is greater than or equal to the minimum threshold value (YES in S706), the correction value derivation unit 205 sets the correction value to 1. On the other hand, if it is less than the minimum threshold value (NO in S706), the correction value derivation unit 205 ends the process.

図5の説明に戻る。S505の後、合計出力値導出部206が、S503で導出された目標値とS505で導出された補正値から、処理領域においてドットをオンにするべき画素の数(合計出力値)を導出する(S506)。ここでは、目標値と補正値の和が合計出力値として導出される。入力画像データ601の右上、左下、及び右下の処理領域のように目標値が0となる場合には、合計出力値には補正値がそのまま設定される。なおこのとき、目標値の値域は0〜16である一方、補正値の値域は0か1となる。そのため、S504の分岐処理を省略し、S506において目標値と補正値とのいずれか大きい方の値を合計出力値として採用する構成をとっても良い。その場合、S506において補正値が合計出力値に反映されるのは目標値が0のときであるため、図5に示す処理と同様の処理が行われることになる。 Returning to the explanation of FIG. After S505, the total output value derivation unit 206 derives the number of pixels for which dots should be turned on in the processing area (total output value) from the target value derived in S503 and the correction value derived in S505 ( S506). Here, the sum of the target value and the correction value is derived as the total output value. When the target value is 0 as in the upper right, lower left, and lower right processing areas of the input image data 601, the correction value is set as it is as the total output value. At this time, the range of the target value is 0 to 16, while the range of the correction value is 0 or 1. Therefore, the branching process of S504 may be omitted, and the larger value of the target value and the correction value may be adopted as the total output value in S506. In that case, since the correction value is reflected in the total output value in S506 when the target value is 0, the same processing as the processing shown in FIG. 5 is performed.

次いで、配置優先順決定部202が、処理領域においてドットをオンにするべき画素について、ドットをオンにする画素の優先順位を決定する(S507)。つまり、配置優先順決定部202は、処理領域に配置するドットの配置優先順を決定する。ここでは、まず、配置優先順決定部202は、処理領域の各画素位置の画素値を、対応する画素位置の閾値で減算して、各画素位置の評価値を導出する。そして、配置優先順決定部202は、導出した評価値を大きい順にソートし、ソートした結果を配置優先順とする。例えば、入力画像データ601〜604と閾値マトリクス605とに基づいて、評価値群が導出される。このとき、評価値は有効画素を有する画素についてのみ導出される。また、各色プレーンの入力画像データ601〜604のいずれにおいても、画像データ内の有効画素の画素値は全て同じであるため、KCMY共通の評価値群606が導出され、ドットの配置優先順が決定される。配置優先順データ607は、このとき決定されるドットの配置優先順を表すデータである。なお、ここでは説明の簡単のため、Kについて導出された評価値群606をKCMY共通に用いる場合を例にしたが、画像データ内の有効画素の画素値が各色プレーンの入力画像データそれぞれで異なる場合には、色プレーンごとに評価値群を導出すればよい。 Next, the arrangement priority order determination unit 202 determines the priority order of the pixels whose dots are to be turned on for the pixels whose dots should be turned on in the processing area (S507). That is, the arrangement priority order determination unit 202 determines the arrangement priority order of dots to be arranged in the processing area. Here, the placement priority order determination unit 202 first derives the evaluation value of each pixel position by subtracting the pixel value of each pixel position of the processing region by the threshold value of the corresponding pixel position. Then, the placement priority order determination unit 202 sorts the derived evaluation values in descending order, and sets the sorted result as the placement priority order. For example, the evaluation value group is derived based on the input image data 601 to 604 and the threshold matrix 605. At this time, the evaluation value is derived only for a pixel having an effective pixel. Further, in all of the input image data 601 to 604 of each color plane, since the pixel values of the effective pixels in the image data are all the same, the evaluation value group 606 common to KCMY is derived, and the dot arrangement priority order is determined. To be done. The arrangement priority data 607 is data representing the dot arrangement priority order determined at this time. Here, for simplicity of explanation, the case where the evaluation value group 606 derived for K is commonly used for KCMY is taken as an example, but the pixel value of the effective pixel in the image data is different for each input image data of each color plane. In this case, the evaluation value group may be derived for each color plane.

次いで、出力値決定部207が、S506で得られた合計出力値の数だけドットがオンになるように、S507で決定された配置優先順に従って対応する画素に出力値として1を設定する(S508)。それ以外の画素については、出力値決定部207は、ドットがオフになるように出力値として0を設定する。 Next, the output value determination unit 207 sets 1 as an output value to the corresponding pixel according to the arrangement priority order determined in S507 so that the dots are turned on by the number of the total output values obtained in S506 (S508). ). For the other pixels, the output value determination unit 207 sets 0 as the output value so that the dot is turned off.

S508の後、画像処理部106は、全ての処理領域について処理が完了したかどうかを判定する(S509)。完了していない場合には(S509のNO)、画像処理部106は、S501の処理に戻って、S501〜S508の処理を繰り返す。完了している場合には(S509のYES)、画像処理部106は、KCMY全色について処理が完了したかどうかを判定する(S510)。完了していない場合には(S510のNO)、画像処理部106は、S501の処理に戻って、S501〜S509の処理を繰り返す。完了している場合には(S510のYES)、画像処理部106は、処理を終了する。 After S508, the image processing unit 106 determines whether the processing has been completed for all the processing areas (S509). If not completed (NO in S509), the image processing unit 106 returns to the processing in S501 and repeats the processing in S501 to S508. When the processing is completed (YES in S509), the image processing unit 106 determines whether the processing is completed for all KCMY colors (S510). If not completed (NO in S510), the image processing unit 106 returns to the process of S501 and repeats the processes of S501 to S509. When it is completed (YES in S510), the image processing unit 106 ends the process.

KCMYの各入力画像データ(画像データ601〜604)に対して順に図5に示す処理を実行した場合に得られる出力結果について説明する。なお、左下の処理領域については有効画素数が0であるためS507において配置優先順が決定されずドットが配置されないので説明を省略する。まず、Kの入力画像データが入力された場合、左上の処理領域では、平均値(50×4÷16=12.5)>最小閾値(11)となるため、Kの目標値は1となる。右上、右下の処理領域では、目標値導出部204が導出するKの目標値が0となるため、補正値導出部205が導出する補正値がそのまま合計出力値となる。ここで、右上の処理領域では、平均値+色間累積値(3.125+0=3.125)<最小閾値(7)となるため、Kの補正値は0となる。また、右下の処理領域では、平均値+色間累積値(9.375+0=9.375)<最小閾値(15)となるため、Kの補正値は0となる。よって、Kの入力画像データに対する処理が完了したときには、出力結果608に示すように、左上の処理領域にKドットが1つ配置された状態となる。次いで、Cの入力画像データが入力された場合、左上、右上、右下の処理領域では、目標値導出部204が導出するCの目標値が0となるため、補正値導出部205が導出する補正値がそのまま合計出力値となる。ここで、左上の処理領域には既にKドットが配置されているため、S702の分岐処理によりCの補正値は0に設定される。また、右上の処理領域では、平均値+色間累積値(2.5+3.125=5.625)<最小閾値(7)となるため、Cの補正値は0となる。さらに、右下の処理領域では、平均値+色間累積値(7.5+9.375=16.875)≧最小閾値(15)となるため、補正値に1が設定される。よって、Cの入力画像データに対する処理が完了したときには、出力結果609に示すように、左上の処理領域にKドットが1つ、右下の処理領域にCドットが1つ配置された状態となる。同様にして、MとYの入力画像データに対して処理を行うと、最終的に左上の処理領域にKドットが1つ、右上の処理領域にMドットが1つ、右下の処理領域にCドットが1つ配置された出力結果610が得られる。 The output result obtained when the process shown in FIG. 5 is sequentially executed on each input image data of KCMY (image data 601 to 604) will be described. Since the number of effective pixels is 0 in the lower left processing area, the arrangement priority order is not determined in S507 and the dots are not arranged, and thus the description thereof is omitted. First, when input image data of K is input, the average value (50×4÷16=12.5)>minimum threshold value (11) in the upper left processing area, so the target value of K is 1. .. In the upper right and lower right processing regions, the target value of K derived by the target value derivation unit 204 is 0, so the correction value derived by the correction value derivation unit 205 becomes the total output value as it is. Here, in the upper right processing region, the average value+the inter-color cumulative value (3.125+0=3.125)<the minimum threshold value (7), so the correction value of K is 0. In the lower right processing area, the average value+the inter-color cumulative value (9.375+0=9.375)<the minimum threshold value (15), so the correction value for K is 0. Therefore, when the processing for the K input image data is completed, one K dot is placed in the upper left processing area as shown in the output result 608. Next, when the input image data of C is input, the target value of C derived by the target value deriving unit 204 becomes 0 in the processing regions at the upper left, upper right, and lower right, and therefore the correction value deriving unit 205 derives it. The correction value becomes the total output value as it is. Here, since K dots have already been arranged in the upper left processing area, the correction value of C is set to 0 by the branch processing of S702. In the upper right processing area, the average value+the inter-color cumulative value (2.5+3.125=5.625)<the minimum threshold value (7), and thus the correction value of C is 0. Further, in the lower right processing area, the average value+the inter-color cumulative value (7.5+9.375=16.875)≧minimum threshold value (15), and thus the correction value is set to 1. Therefore, when the processing on the C input image data is completed, as shown in the output result 609, one K dot is arranged in the upper left processing area and one C dot is arranged in the lower right processing area. .. Similarly, when processing is performed on the M and Y input image data, one K dot is finally located in the upper left processing area, one M dot is located in the upper right processing area, and one is located in the lower right processing area. An output result 610 in which one C dot is arranged is obtained.

以下、本実施形態の効果について説明する。まず、補正値導出部205における補正値導出処理を行わない場合、右上、左下、及び右下の各処理領域に配置されるドット数はいずれも0となる。よって、入力画像データ601の明細線の視認性が、ハーフトーン処理後において著しく低下する。すなわち、入力画像データにおけるオブジェクトの形状が保持されなくなる。また、補正値を導出する際に色間累積値を考慮せずに、色プレーンごとに独立して平均値と最小閾値とを比較する場合、右上の処理領域においては、K,C,M,Yの平均値がいずれも最小閾値(7)を上回るためドットが配置されない。また、右下の処理領域においても同様にドットが配置されない。そのため、図6に示す出力結果610に示すハーフトーン処理後の画像において、MドットとCドットが記録されなくなり、Kドットのみで明細線が再現されることになる。一方、補正値を導出する際に色間累積値を考慮する本実施形態では、出力結果610のように右上、右下の処理領域にそれぞれMドット、Cドットが記録されるので、明細線の色調が調整される。 The effects of the present embodiment will be described below. First, when the correction value derivation process in the correction value derivation unit 205 is not performed, the number of dots arranged in each of the upper right, lower left, and lower right processing regions is 0. Therefore, the visibility of the detail line of the input image data 601 is significantly reduced after the halftone process. That is, the shape of the object in the input image data is not retained. Further, when the average value and the minimum threshold value are independently compared for each color plane without considering the inter-color cumulative value when deriving the correction value, K, C, M, and No dot is arranged because the average value of Y exceeds the minimum threshold value (7). Similarly, no dots are arranged in the lower right processing area. Therefore, in the image after the halftone process shown in the output result 610 shown in FIG. 6, M dots and C dots are not recorded, and the detail line is reproduced only with K dots. On the other hand, in the present embodiment in which the inter-color cumulative value is taken into consideration when deriving the correction value, M dots and C dots are recorded in the upper right and lower right processing regions, respectively, as in the output result 610, so that the detail line The color tone is adjusted.

なお、S507の処理(配置優先順決定処理)は、S501,S502の処理によって処理領域に含まれる画素値と閾値マトリクスとが取得された後であればいつでも実行可能である。また、S507の処理とS503〜S506の処理とは互いに依存しない処理である。よって、ステップS507の処理とステップS503〜S506の処理とは、どちらが先に実行されてもよいし、それぞれを並行して実行するようにしてもよい。 The process of S507 (placement priority order determination process) can be executed any time after the pixel values and the threshold matrix included in the processing region are acquired by the processes of S501 and S502. Further, the process of S507 and the processes of S503 to S506 are processes that do not depend on each other. Therefore, whichever of the processing in step S507 and the processing in steps S503 to S506 may be executed first, or each of them may be executed in parallel.

また、本実施形態の要点は合計出力値を決定する際に色間累積値を考慮した補正処理を加える点である。したがって、所定の領域内で出力値の合計を導出し、出力値の合計の導出とは別にドットの配置を決定するように構成された画像形成システムにおいても、本実施形態を適用可能である。 Further, the main point of this embodiment is that a correction process considering the inter-color cumulative value is added when determining the total output value. Therefore, the present embodiment is also applicable to an image forming system configured to derive the total output value within a predetermined area and determine the dot arrangement separately from the total output value derivation.

<第2実施形態>
第1実施形態では、補正値導出部205で補正値を導出する際に、同一の処理領域内に他の色プレーンのドットが既に配置されている場合には、補正値の導出を行わない構成について説明した。第1実施形態では、そのような構成により、明細線が過度に強調され、明度が大きく変化することを防いでいる。本実施形態では、明度の変化をある程度許容することで、明細線の色調の調整を容易にする構成について説明する。
<Second Embodiment>
In the first embodiment, when the correction value deriving unit 205 derives the correction value, if the dots of another color plane are already arranged in the same processing area, the correction value is not derived. I explained. In the first embodiment, such a configuration prevents the detail line from being overemphasized and the brightness from largely changing. In the present embodiment, a configuration will be described in which the adjustment of the color tone of the detail line is facilitated by allowing the change in the brightness to some extent.

第2実施形態の画像処理部106の構成及び動作は、第1実施形態と同様である。ただし、図8に示されように、補正値導出部205と配置優先順決定部202との動作が第1実施形態と異なる。なお、第1実施形態と同様の構成については同じ符号を付し、詳細な説明を省略する。 The configuration and operation of the image processing unit 106 of the second embodiment are similar to those of the first embodiment. However, as shown in FIG. 8, the operations of the correction value derivation unit 205 and the placement priority order determination unit 202 are different from those of the first embodiment. The same components as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

図8は、第2実施形態における補正値導出部205の処理を示すフローチャートである。第1実施形態の補正値導出処理では、明度が大きく変化しないように、S702で同一の処理領域内に他の色プレーンのドットが既に配置されていると判断した場合には処理を終了させて、補正値の値域が0か1になるようにしていた。一方、本実施形態では、第1実施形態のS702の分岐処理に相当する処理を行わないようにして、補正値の値域を0〜16へと拡大させる。これにより、処理領域内に配置可能なドット数を増やすことができ、色調の調整を容易にする。なお、S801,S802〜S804,S805〜S807の処理は、第1実施形態のS701,S703〜S705,S708〜S710の処理と同様であるため説明を省略する。 FIG. 8 is a flowchart showing the process of the correction value derivation unit 205 in the second embodiment. In the correction value derivation process of the first embodiment, if it is determined in S702 that dots of another color plane have already been arranged in the same processing area so that the brightness does not change significantly, the process is terminated. The correction value range is set to 0 or 1. On the other hand, in this embodiment, the range of the correction value is expanded to 0 to 16 by not performing the process corresponding to the branching process of S702 of the first embodiment. As a result, the number of dots that can be arranged in the processing area can be increased, and the adjustment of the color tone is facilitated. Note that the processing of S801, S802 to S804, S805 to S807 is the same as the processing of S701, S703 to S705, S708 to S710 of the first embodiment, and a description thereof will be omitted.

ステップS804の処理の後、補正値導出部205は、処理領域内に配置されたドット数が有効画素数より少ないかどうかを判定する(S805)。有効画素数以上である場合には(S805のNO)、補正値導出部205は処理を終了する。これにより、処理領域内に配置される最大のドット数を有効画素数に制限することができ、合計出力値(目標値と補正値の和)を有効画素数未満にすることができる。よって、S508にて出力値決定部207がS507で決定された配置優先順に従ってドットを配置する場合に、画素値が0である画素にドットが配置されることを防ぐことができ、画像の鮮鋭性が劣化することを抑制することができる。 After the processing of step S804, the correction value derivation unit 205 determines whether the number of dots arranged in the processing area is smaller than the number of effective pixels (S805). If the number of pixels is equal to or more than the number of effective pixels (NO in S805), the correction value derivation unit 205 ends the process. As a result, the maximum number of dots arranged in the processing area can be limited to the effective pixel number, and the total output value (sum of the target value and the correction value) can be less than the effective pixel number. Therefore, when the output value determination unit 207 arranges the dots in S508 according to the arrangement priority order determined in S507, it is possible to prevent the dot from being arranged in the pixel having the pixel value of 0, and the image sharpness is improved. It is possible to suppress deterioration of the property.

処理領域内に配置されたドット数が有効画素数未満である場合には(S805のYES)、補正値導出部205は、補正値を設定する(S806)。第1実施形態では、処理領域の各画素の画素値の平均値と処理領域の色間累積値の和が処理領域内の最小閾値以上である場合に、補正値に1を設定した。一方、本実施形態では、最大画素値と処理領域の色間累積値の和と、閾値群の各閾値とを比較し、その和未満である閾値の数と、処理領域内において既に配置されたドットの数との差を補正値として設定する。最後に、補正値導出部205は、配置優先順決定部202が導出した評価値を修正する(S807)。ここでは、補正値導出部205は、処理領域内において既にドットが配置されている画素にドットが配置されないように、それらの画素の評価値を最小値(=0−閾値がとりうる最大値)に設定する。 When the number of dots arranged in the processing area is less than the number of effective pixels (YES in S805), the correction value deriving unit 205 sets a correction value (S806). In the first embodiment, the correction value is set to 1 when the sum of the average value of the pixel values of each pixel in the processing area and the inter-color cumulative value of the processing area is equal to or greater than the minimum threshold value in the processing area. On the other hand, in the present embodiment, the sum of the maximum pixel value and the inter-color cumulative value of the processing area is compared with each threshold value of the threshold value group, and the number of threshold values that is less than the sum is already arranged in the processing area. The difference from the number of dots is set as the correction value. Finally, the correction value derivation unit 205 corrects the evaluation value derived by the placement priority order determination unit 202 (S807). Here, the correction value derivation unit 205 sets the evaluation value of these pixels to the minimum value (=0-the maximum value that the threshold value can take) so that the dots are not arranged in the pixels where the dots are already arranged in the processing area. Set to.

次に、本実施形態における配置優先順決定部202の処理(S507の配置優先順決定処理)について説明する。第1実施形態では、ステップS702の分岐処理により同一の処理領域において各色プレーンについて導出される補正値の合計は全ての色プレーンで最大1となる。一方、本実施形態では補正値の値域を0〜16へと拡大したため、同一の処理領域に複数のドットを配置することを可能にしている。しかし、S507の配置優先順決定処理で決定したドットの配置優先順を全ての色プレーンで共通に使用した場合、複数の色プレーン間でドットが重複し、重複したドットにより色調が変化してしまい、色調の再現が困難になる可能性がある。そこで、本実施形態の配置優先順決定部202は、S507でドットの配置優先順を決定する際に、複数の色プレーン間でドットが同じ位置に配置されないようにドットの配置位置を制御する。具体的には、配置優先順決定部202は、ある色プレーンで補正処理によって配置されたドットについては、他の色プレーンでドットの配置優先順を決定する際に白画素と同等に扱い、ドットが重なって配置されないように制御する。 Next, the process of the placement priority order determination unit 202 (the placement priority order determination process of S507) in this embodiment will be described. In the first embodiment, the sum of the correction values derived for each color plane in the same processing area by the branching process of step S702 is 1 at the maximum for all color planes. On the other hand, in the present embodiment, the range of the correction value is expanded to 0 to 16, so that it is possible to arrange a plurality of dots in the same processing area. However, when the arrangement priority order of the dots determined in the arrangement priority order determination processing of S507 is commonly used in all the color planes, the dots overlap between the plurality of color planes, and the color tone changes due to the overlapping dots. , It may be difficult to reproduce the color tone. Therefore, when determining the dot arrangement priority order in S507, the arrangement priority order determination unit 202 of the present embodiment controls the dot arrangement position so that the dots are not arranged at the same position among the plurality of color planes. Specifically, the placement priority order determination unit 202 treats dots placed by a correction process in a certain color plane in the same manner as white pixels when determining the placement priority order of dots in another color plane, and Control so that they are not overlapped.

図9を用いて、本実施形態の配置優先順決処理について具体的に説明する。ここでは、S501にて閾値群901が取得され、S502にて画像データ902,903が取得された場合を例にする。画像データ902は、色分解後におけるKMYの入力画像データである。画像データ903は、色分解後におけるCの入力画像データである。このとき、S507において、KCMY全ての入力画像データに対して、配置優先順データ904で表されるような配置優先順が決定される。また、入力画像データ902,903の平均値はそれぞれ2,4であり、閾値群901において平均値未満の閾値は0個であるので、目標値は0となる。そのため、合計出力値には補正値がそのまま反映される。また、本実施形態では色間累積値として処理領域内の最大画素値の累積値を用いるため、K,C,M,Yの色間累積値はそれぞれ、0,8,24,32となる。 The arrangement priority order determination process of this embodiment will be specifically described with reference to FIG. 9. Here, the case where the threshold value group 901 is acquired in S501 and the image data 902 and 903 are acquired in S502 is taken as an example. The image data 902 is KMY input image data after color separation. The image data 903 is C input image data after color separation. At this time, in S507, the arrangement priority order as represented by the arrangement priority order data 904 is determined for all the input image data of KCMY. Further, the average values of the input image data 902 and 903 are 2 and 4, respectively, and since there are 0 threshold values less than the average value in the threshold value group 901, the target value is 0. Therefore, the correction value is directly reflected in the total output value. Further, in this embodiment, since the cumulative value of the maximum pixel values in the processing area is used as the cumulative value between colors, the cumulative values between colors of K, C, M, and Y are 0, 8, 24, and 32, respectively.

Kの入力画像データに対する配置優先順決処理では、S805において、処理領域内に配置されたドット数(0)<有効画素数(4)と判定されるため、S806の処理(補正値設定処理)が実行される。このとき、最大画素値(8)と色間累積値(0)の加算値は8となり、閾値群において加算値未満である閾値は7の1つのみとなる。よって、加算値未満の閾値数(1)と既に配置されているドットの数(0)より、Kの補正値には1(=1−0)が設定され、Kのドット数は1ドットとなる。次に、Cの入力画像データに対する配置優先順決処理では、最大画素値(16)と色間累積値(8)の加算値は24となり、閾値群において加算値未満である閾値は7,15,23の3つとなる。既に配置されているドット数は1であるため、Cの補正値には2(=3−1)が設定され、Cのドット数は2ドットとなる。同様に、Mの入力画像データに対する配置優先順決処理では、最大画素値(8)と色間累積値(24)の加算値は32となり、閾値群において加算値未満となる閾値は7,15,23,31の4つとなる。既に配置されているドット数はKの1ドットとMの2ドットの計3ドットであるため、Mの補正値には1(=4−3)が設定され、Mのドット数は1ドットとなる。一方、Yの入力画像データに対する配置優先順決処理では、既に配置されたドット数(4)が有効画素数(4)と等しくなるため、S806,S807の処理は実行されない。そのため、Yの補正値には初期値である0が設定される。その結果、K,C,M,Yについて配置されるドット数はそれぞれ、1,2,1,0となり、このドット数と配置優先順とに従ってK,C,M,Yの順にドットを配置していくと、最終的に出力結果905が得られる。図9に示されるように、本実施形態による補正値導出処理によれば、目標値が0となる低階調な処理領域における合計出力値を1より大きい値(図9に示す例では4)に設定されるため、明度を大きく変化させる処理が実施される。一方、出力結果905では、入力画像データにおける階調数が高いCのドット数が他の色プレーンよりも多くなっていて、Cの色調が強調されている。つまり、本実施形態による補正値導出処理によれば、低階調の領域を処理対象領域とする場合でも入力画像の色調を出力結果に反映させやすくなる。 In the arrangement priority order determination process for the input image data of K, it is determined in S805 that the number of dots (0) arranged in the processing area is smaller than the number of effective pixels (4), and therefore the process of S806 (correction value setting process) Is executed. At this time, the added value of the maximum pixel value (8) and the inter-color cumulative value (0) is 8, and only one threshold value which is less than the added value is 7 in the threshold value group. Therefore, based on the threshold number (1) that is less than the added value and the number (0) of dots that are already arranged, the correction value of K is set to 1 (=1-0), and the number of K dots is 1 dot. Become. Next, in the arrangement priority order determination process for the input image data of C, the added value of the maximum pixel value (16) and the inter-color cumulative value (8) is 24, and the threshold values less than the added value in the threshold value group are 7, 15 , 23. Since the number of dots already arranged is 1, the correction value for C is set to 2 (=3-1), and the number of dots for C is 2. Similarly, in the arrangement priority order determination process for the M input image data, the added value of the maximum pixel value (8) and the inter-color cumulative value (24) is 32, and the threshold values less than the added value in the threshold value group are 7, 15 ,23,31. Since the number of dots already arranged is 1 dot of K and 2 dots of M, a total of 3 dots, the correction value of M is set to 1 (=4-3), and the number of dots of M is 1 dot. Become. On the other hand, in the arrangement priority order determination process for the Y input image data, the number of dots (4) that have already been arranged becomes equal to the number of effective pixels (4), and therefore the processes of S806 and S807 are not executed. Therefore, the correction value of Y is set to 0 which is an initial value. As a result, the numbers of dots arranged for K, C, M, and Y are 1, 2, 1, 0, respectively, and the dots are arranged in the order of K, C, M, and Y according to this dot number and the arrangement priority order. As a result, the output result 905 is finally obtained. As shown in FIG. 9, according to the correction value derivation process according to the present embodiment, the total output value in the low gradation processing region where the target value is 0 is a value larger than 1 (4 in the example shown in FIG. 9). Is set to, the process of greatly changing the brightness is performed. On the other hand, in the output result 905, the number of C dots having a high gradation number in the input image data is larger than that of the other color planes, and the C tone is emphasized. That is, according to the correction value derivation process according to the present embodiment, the color tone of the input image can be easily reflected in the output result even when the low gradation region is set as the processing target region.

<第3実施形態>
第2実施形態では、処理領域毎に導出される補正値の値域を拡大することで色調の調整を容易にする構成について説明した。第2実施形態のように処理領域毎に補正値を導出する方法では処理領域内の最大画素値と最小閾値とを比較するので、ディザマトリクスの位相に関係なく補正値を決定することができ、ドットが配置される確率を高くすることができる。一方で、処理領域内の平均値や最大画素値のような処理領域内の低周波成分に基づいて補正値を決定する上記の方法では、画素毎の高周波な色調の再現性を低下させる可能性がある。そこで、本実施形態では、目標値が0となる低濃度の入力画像データにおいて、画素毎に色間累積値を考慮しながらドットのオンとオフを決定することで明細線の色調の再現性を高める方法について説明する。
<Third Embodiment>
In the second embodiment, the configuration in which the adjustment of the color tone is facilitated by expanding the range of the correction value derived for each processing region has been described. In the method of deriving the correction value for each processing area as in the second embodiment, since the maximum pixel value and the minimum threshold value in the processing area are compared, the correction value can be determined regardless of the phase of the dither matrix. It is possible to increase the probability that dots are arranged. On the other hand, the above method of determining the correction value based on the low-frequency component in the processing area, such as the average value or the maximum pixel value in the processing area, may reduce the reproducibility of high-frequency color tone for each pixel. There is. Therefore, in the present embodiment, in low-density input image data having a target value of 0, dot on/off is determined by taking into consideration the inter-color cumulative value for each pixel, thereby improving the reproducibility of the color tone of the detail line. A method of increasing the value will be described.

(画像処理部106の構成)
本実施形態における画像処理部106の構成について説明する。図10は、第3実施形態における画像処理部106の構成を示すブロック図である。本実施形態における画像処理部106の構成は、図10に示すように、補正値導出部205と合計出力値導出部206とを有していない点、及び、補正出力値決定部209が新たに追加されている点で第1および第2実施形態の構成と異なる。
(Structure of Image Processing Unit 106)
The configuration of the image processing unit 106 in this embodiment will be described. FIG. 10 is a block diagram showing the arrangement of the image processing unit 106 according to the third embodiment. As shown in FIG. 10, the configuration of the image processing unit 106 according to the present embodiment does not include the correction value derivation unit 205 and the total output value derivation unit 206, and the correction output value determination unit 209 is newly added. The added point is different from the configurations of the first and second embodiments.

補正出力値決定部209は、画素値取得部201で取得された処理領域の画素値と閾値取得部203で取得された閾値、及び、色間累積値導出部208で導出された色間累積値に基づいて、補正後の出力値を決定する。その際、補正出力値決定部209は、画像処理部106が出力すべき出力画像データが得られるように、補正後の出力値を決定する。補正出力値決定部209の動作の詳細については後述する。 The corrected output value determination unit 209 includes a pixel value of the processing area acquired by the pixel value acquisition unit 201, a threshold value acquired by the threshold value acquisition unit 203, and an inter-color cumulative value derived by the inter-color cumulative value deriving unit 208. The corrected output value is determined based on At that time, the corrected output value determination unit 209 determines the corrected output value so that the output image data to be output by the image processing unit 106 can be obtained. Details of the operation of the correction output value determination unit 209 will be described later.

(画像処理部106における動作)
第1実施形態の画像処理部106では、合計出力値導出部206が、補正値導出部205が導出した補正値を用いて合計出力値を導出し、出力値決定部207が、配置優先順決定部202が決定した配置優先順に従って出力値を決定した。一方、本実施形態では、目標値が0である場合には、補正出力値決定部209が、既に配置された他の色プレーンのドットの配置状況を示す配置情報を用いて、補正後の出力値を決定する。一方、目標値が0でない場合には、出力値決定部207が、目標値と配置優先順とに基づき出力値を決定する。以下、図11を用いて、本実施形態の画像処理部106の動作を説明する。
(Operation in the image processing unit 106)
In the image processing unit 106 of the first embodiment, the total output value derivation unit 206 derives the total output value using the correction value derived by the correction value derivation unit 205, and the output value determination unit 207 determines the placement priority order. The output value is determined according to the arrangement priority order determined by the unit 202. On the other hand, in the present embodiment, when the target value is 0, the corrected output value determination unit 209 uses the arrangement information indicating the arrangement state of the dots of the other color planes already arranged, and outputs the corrected output. Determine the value. On the other hand, when the target value is not 0, the output value determination unit 207 determines the output value based on the target value and the arrangement priority order. The operation of the image processing unit 106 of this embodiment will be described below with reference to FIG.

図11は、第3実施形態における画像処理部106の動作を示すフローチャートである。なお、図11に示すフローチャートで示される一連の処理は、CPU100がROM102に記憶されているプログラムコードをRAM101に展開し実行することにより行われる。あるいは、図11におけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。本実施形態では、第1及び第2実施形態におけるS505,S506に相当する処理が行われない。また本実施形態では、新たな処理としてS1107の処理が追加されている。なお、S1101〜S1103,S1108,S1109の処理は、第1及び第2実施形態のS501〜S503,S509,S510の処理と同様であるため説明を省略する。 FIG. 11 is a flowchart showing the operation of the image processing unit 106 in the third embodiment. The series of processes shown in the flowchart of FIG. 11 is performed by the CPU 100 expanding the program code stored in the ROM 102 into the RAM 101 and executing the program code. Alternatively, some or all of the functions of the steps in FIG. 11 may be realized by hardware such as an ASIC or an electronic circuit. In this embodiment, the processes corresponding to S505 and S506 in the first and second embodiments are not performed. Further, in this embodiment, the process of S1107 is added as a new process. Note that the processing of S1101 to S1103, S1108, and S1109 is the same as the processing of S501 to S503, S509, and S510 of the first and second embodiments, and a description thereof will be omitted.

S1104において目標値が0でない場合には(S1104のNO)、配置優先順決定部202が、配置優先順決定処理を実行する(S1105)。なお、この処理は第1実施形態のS507の処理と同様である。そして、出力値決定部207が、S1103で導出された目標値の数だけドットがオンになるように、S1105で決定された配置優先順に従って対応する画素に出力値として1を設定する(S1106)。それ以外の画素については、出力値決定部207は、ドットがオフになるように出力値として0を設定する。一方、目標値が0である場合は(S1104のYES)、補正出力値決定部209が、S1101で取得した画素値と、S1102で取得した閾値とに基づいて、出力値を決定する(S1107)。ここで、図12を用いて、S1107の処理を具体的に説明する。図12に示す処理は、処理領域の各画素に対し順に実行される。 If the target value is not 0 in S1104 (NO in S1104), the placement priority order determination unit 202 executes the placement priority order determination process (S1105). Note that this processing is the same as the processing of S507 of the first embodiment. Then, the output value determination unit 207 sets 1 as the output value to the corresponding pixel according to the arrangement priority order determined in S1105 so that the dots are turned on by the number of the target values derived in S1103 (S1106). .. For the other pixels, the output value determination unit 207 sets 0 as the output value so that the dot is turned off. On the other hand, when the target value is 0 (YES in S1104), the corrected output value determination unit 209 determines the output value based on the pixel value acquired in S1101 and the threshold value acquired in S1102 (S1107). .. Here, the process of S1107 will be specifically described with reference to FIG. The processing shown in FIG. 12 is sequentially executed for each pixel in the processing area.

まず、補正出力値決定部209は、処理対象の画素(注目画素)に設定される出力値を、ドットのオフを表す0に初期化する(S1201)。次いで、補正出力値決定部209は、処理領域内の注目画素位置に他の色プレーンの処理において既にドットが配置されているかを判定する(S1202)。既にドットが配置されている場合は(S1202のYES)、補正出力値決定部209は、S1206の処理に移行する。ドットが配置されていない場合は(S1202のNO)、補正出力値決定部209は、注目画素の色間累積値(以下、累積画素値とも呼ぶ。)を取得する(S1203)。次いで、補正出力値決定部209は、注目画素における、S1203で取得した色間累積値と画素値の和が、注目画素位置に対応する閾値より大きいかを判定する(S1204)。閾値未満の場合は(S1204のNO)、補正出力値決定部209は、S1206の処理に移行する。閾値以上である場合は(S1204のYES)、補正出力値決定部209は、注目画素の出力値にドットのオンを表す1を設定する(S1205)。そして、補正出力値決定部209は、処理領域内の全画素について処理を実行し終えたかを確認する(S1206)。全画素について処理を実行し終えている場合は(S1206のYES)、補正出力値決定部209は処理を終了する。未処理の画素が存在する場合は(S1206のNO)、補正出力値決定部209は、未処理の画素から処理対象とする画素を選択し、選択した画素を注目画素としてS1201〜S1206の処理を繰り返す。 First, the corrected output value determination unit 209 initializes the output value set in the pixel to be processed (target pixel) to 0 indicating that the dot is off (S1201). Next, the corrected output value determination unit 209 determines whether or not dots have already been arranged at the target pixel position in the processing area in the processing of another color plane (S1202). When the dots have already been arranged (YES in S1202), the corrected output value determination unit 209 proceeds to the process of S1206. When the dots are not arranged (NO in S1202), the corrected output value determination unit 209 acquires the inter-color cumulative value of the target pixel (hereinafter, also referred to as cumulative pixel value) (S1203). Next, the correction output value determination unit 209 determines whether the sum of the inter-color cumulative value and the pixel value acquired in S1203 in the target pixel is larger than the threshold value corresponding to the target pixel position (S1204). When it is less than the threshold value (NO in S1204), the corrected output value determination unit 209 proceeds to the process of S1206. If it is greater than or equal to the threshold value (YES in S1204), the corrected output value determination unit 209 sets the output value of the pixel of interest to 1 indicating that the dot is on (S1205). Then, the corrected output value determination unit 209 confirms whether the processing has been completed for all pixels in the processing area (S1206). If the processing has been completed for all pixels (YES in S1206), the corrected output value determination unit 209 ends the processing. When there is an unprocessed pixel (NO in S1206), the correction output value determination unit 209 selects a pixel to be processed from the unprocessed pixel, and performs the processes of S1201 to S1206 with the selected pixel as the pixel of interest. repeat.

図13を用いて、本実施形態の画像処理部106の動作を具体的に説明する。ここでは、S1101にて閾値群1302が取得され、S1102にてKCMY共通の入力画像データ1301が取得された場合を例にする。このとき、入力画像データ1301の平均値は4(=16×4÷16)であり、閾値群1302の最小閾値(11)よりも小さいので、S1103において目標値として0が導出される。よって、S1107において、補正出力値決定部209により各色の補正後の出力値が決定されることになる。なお、ここでは、KCMYの順で入力画像データが処理されるものとする。Kの入力画像データに対する補正出力値決定処理では、S1203の処理(色間累積値取得処理)において色間累積値1303が得られる。また、画素値(16)と色間累積値(0)の加算値は16であり、閾値(11)より大きいため、閾値(11)が設定されている画素位置にKのドットが配置される。出力結果1307は、Kの入力画像データに対する補正出力値決定処理により得られる出力結果を表している。Cの入力画像データに対する補正出力値決定処理では、S1203の処理において色間累積値1304が得られる。なお、既にKのドットが配置された画素に対しては、S1202の処理によって以降の処理が実行されなくなるので、既にKのドットが配置されている画素については白画素と同様に扱われ、色間累積値1304に示されように、色間累積値が無効化される。また、画素値(16)と色間累積値(16)の加算値は32であり、閾値(23)より大きいため、閾値(23)が設定されている画素位置にCのドットが配置される。出力結果1308は、Cの入力画像データに対する補正出力値決定処理が行われた際に得られる出力結果を表している。M,Yの入力画像データに対しても同様にして補正値決定処理が行われ、色間累積値1305,1306に基づいて出力結果1309,1310が導出される。 The operation of the image processing unit 106 of this embodiment will be specifically described with reference to FIG. Here, the case where the threshold group 1302 is acquired in S1101 and the input image data 1301 common to KCMY is acquired in S1102 is taken as an example. At this time, the average value of the input image data 1301 is 4 (=16×4÷16), which is smaller than the minimum threshold value (11) of the threshold value group 1302, and thus 0 is derived as the target value in S1103. Therefore, in S1107, the corrected output value determination unit 209 determines the corrected output value of each color. It is assumed here that the input image data is processed in the order of KCMY. In the correction output value determination process for the K input image data, the inter-color cumulative value 1303 is obtained in the process of S1203 (inter-color cumulative value acquisition process). Further, since the sum of the pixel value (16) and the inter-color cumulative value (0) is 16, which is larger than the threshold value (11), K dots are arranged at the pixel position where the threshold value (11) is set. .. The output result 1307 represents the output result obtained by the correction output value determination process for the K input image data. In the correction output value determination process for the C input image data, the inter-color cumulative value 1304 is obtained in the process of S1203. It should be noted that, for the pixel in which the K dot has already been arranged, the subsequent processing is not executed by the processing in S1202, so the pixel in which the K dot has already been arranged is treated in the same manner as the white pixel, and the color As shown by the inter-color cumulative value 1304, the inter-color cumulative value is invalidated. Further, since the sum of the pixel value (16) and the inter-color cumulative value (16) is 32, which is larger than the threshold value (23), the C dot is arranged at the pixel position where the threshold value (23) is set. .. The output result 1308 represents the output result obtained when the corrected output value determination processing is performed on the C input image data. Similarly, the correction value determination processing is performed on the M and Y input image data, and the output results 1309 and 1310 are derived based on the inter-color cumulative values 1305 and 1306.

なお、本実施形態で処理フローとして最も好適なものは図11に示す方法であるが、S1106により出力値が決定されたのちに、S1104の処理を行ってS1107の補正出力値決定処理を実行する否かを判定するようにしてもよい。また、本実施形態の要点は低濃度領域において画素毎の色間累積値を考慮した補正処理を行う点である。したがって、色分解後の入力画像データにハーフトーン処理を施して得られる出力画像データにおける所定の領域内の出力値の合計が所定値以下の場合に該領域に対して補正を行うように構成された画像形成システムにおいても、本実施形態を適用可能である。 Although the most preferable processing flow in this embodiment is the method shown in FIG. 11, after the output value is determined in S1106, the processing in S1104 is performed to execute the corrected output value determination processing in S1107. It may be determined whether or not. Further, the main point of this embodiment is that the correction processing is performed in consideration of the inter-color cumulative value for each pixel in the low density area. Therefore, when the total of the output values in the predetermined area in the output image data obtained by performing the halftone process on the input image data after color separation is less than or equal to the predetermined value, the correction is performed on the area. This embodiment can be applied to an image forming system.

また、図13に示す例においては、ドットが配置された画素の色間累積値を無効化しているが、これに限らず、閾値を無効化しても良い。閾値を無効化する場合は、第2実施形態で示したように、処理領域内の最小閾値が使える。即ち、ドットが配置された色プレーンの最小閾値を無効化する。これにより、閾値の位置による干渉を抑えることが可能となる。 Further, in the example shown in FIG. 13, the inter-color cumulative value of the pixels in which the dots are arranged is invalidated, but the present invention is not limited to this, and the threshold value may be invalidated. When the threshold value is invalidated, the minimum threshold value in the processing area can be used as shown in the second embodiment. That is, the minimum threshold value of the color plane in which the dots are arranged is invalidated. This makes it possible to suppress interference due to the position of the threshold value.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

202 配置優先順決定部
204 目標値導出部
205 補正値導出部
206 合計出力値導出部
207 出力値決定部
208 色間累積値導出部
209 補正出力値決定部
202 Arrangement Priority Order Determination Unit 204 Target Value Derivation Unit 205 Correction Value Derivation Unit 206 Total Output Value Derivation Unit 207 Output Value Determination Unit 208 Inter-Color Accumulated Value Derivation Unit 209 Correction Output Value Determination Unit

Claims (19)

記録媒体上への画像の形成に用いる各画素にドットを配置するか否かを定めるドットデータを、前記画像の形成に用いる色材の色ごとに生成する画像処理装置であって、
処理対象とする色の入力画像データについて、所定領域ごとに、前記所定領域に含まれる各画素の画素値に基づき前記所定領域内に配置すべきドット数を導出する導出手段と、
前記所定領域の各画素値と、閾値マトリクス内の前記所定領域に対応する閾値群とに基づく評価値を用いて、前記所定領域においてドットを配置する画素の優先順を示す配置優先順を決定する決定手段と、
前記導出手段が導出した前記ドット数が基準ドット数に満たない場合に、前記所定領域の画素値の代表値を色間で累積して得られる累積代表値に基づき、前記導出手段が導出した前記ドット数を補正する補正手段と、
前記補正手段により補正された前記ドット数と、前記決定手段が決定した前記配置優先順とに基づいて、前記所定領域に対応する前記ドットデータを生成する生成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for generating dot data for determining whether or not to arrange a dot in each pixel used for forming an image on a recording medium, for each color of a color material used for forming the image,
With respect to the input image data of the color to be processed, for each predetermined area, a deriving unit that derives the number of dots to be arranged in the predetermined area based on the pixel value of each pixel included in the predetermined area,
Using the evaluation value based on each pixel value of the predetermined area and the threshold value group corresponding to the predetermined area in the threshold matrix, the arrangement priority order indicating the priority order of the pixels in which the dots are arranged in the predetermined area is determined. Decision means,
When the number of dots derived by the deriving unit is less than the reference number of dots, the deriving unit derives based on a cumulative representative value obtained by accumulating representative values of pixel values of the predetermined region between colors. Correction means for correcting the number of dots,
Generating means for generating the dot data corresponding to the predetermined area based on the number of dots corrected by the correcting means and the arrangement priority order determined by the determining means;
An image processing apparatus comprising:
前記補正手段は、前記所定領域に含まれる各画素の画素値から前記代表値を導出し、導出した前記代表値と、他の色の前記入力画像データについて既に導出している前記所定領域に対応する前記代表値との和を、前記累積代表値として導出する
ことを特徴とする請求項1に記載の画像処理装置。
The correction means derives the representative value from the pixel value of each pixel included in the predetermined area, and corresponds to the derived representative value and the predetermined area already derived for the input image data of another color. The image processing apparatus according to claim 1, wherein a sum of the representative value and the representative value is calculated as the cumulative representative value.
前記補正手段は、前記導出手段が導出した前記ドット数が前記基準ドット数に満たない場合に、前記所定領域の前記累積代表値と前記所定領域に対応する前記閾値群の最小閾値とを比較し、前記累積代表値が前記最小閾値より大きければ、前記導出手段が導出した前記ドット数を前記基準ドット数まで増やす補正を行う
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
When the number of dots derived by the deriving unit is less than the reference number of dots, the correction unit compares the cumulative representative value of the predetermined region with a minimum threshold value of the threshold value group corresponding to the predetermined region. If the cumulative representative value is larger than the minimum threshold value, correction is performed to increase the number of dots derived by the deriving unit to the reference number of dots. ..
前記補正手段は、前記累積代表値が前記最小閾値以下である場合には、前記導出手段が導出した前記ドット数を補正しない
ことを特徴とする請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the correction unit does not correct the number of dots derived by the derivation unit when the cumulative representative value is equal to or less than the minimum threshold value.
前記決定手段は、前記所定領域に含まれる各画素の画素値を、前記所定領域に対応する前記閾値群の各閾値で減算して、前記各画素のそれぞれについて前記評価値を導出し、導出した前記評価値が大きい画素ほど前記配置優先順を高く設定する
ことを特徴とする請求項1から請求項4のうちのいずれか1項に記載の画像処理装置。
The determining unit subtracts the pixel value of each pixel included in the predetermined area by each threshold value of the threshold value group corresponding to the predetermined area, and derives and derives the evaluation value for each of the pixels. The image processing apparatus according to any one of claims 1 to 4, wherein the arrangement priority order is set higher for a pixel having a larger evaluation value.
前記補正手段は、前記所定領域内に配置すると定められたドット数が、前記所定領域に含まれる白画素でない画素の数未満である場合に、前記導出手段が導出した前記ドット数を補正する
ことを特徴とする請求項1または請求項2に記載の画像処理装置。
The correcting unit corrects the dot number derived by the deriving unit when the number of dots determined to be arranged in the predetermined region is less than the number of non-white pixels included in the predetermined region. The image processing apparatus according to claim 1 or 2, characterized in that.
前記補正手段は、前記所定領域に対応する前記閾値群に含まれる、前記所定領域の前記累積代表値未満である閾値の数を、前記所定領域内に配置すると定められたドット数で減算して得られる補正値を、前記導出手段が導出した前記ドット数に加算して該ドット数を補正する
ことを特徴とする請求項6に記載の画像処理装置。
The correction unit subtracts the number of thresholds included in the threshold value group corresponding to the predetermined area, which is less than the cumulative representative value of the predetermined area, by the number of dots determined to be arranged in the predetermined area. The image processing apparatus according to claim 6, wherein the obtained correction value is added to the number of dots derived by the deriving unit to correct the number of dots.
前記補正手段は、前記所定領域内において他の色のドットを配置すると定められた画素の前記配置優先順が他の画素よりも低くなるように、前記評価値を修正する
ことを特徴とする請求項6または請求項7に記載の画像処理装置。
The correction unit corrects the evaluation value such that the arrangement priority order of pixels determined to arrange dots of other colors in the predetermined region is lower than that of other pixels. The image processing apparatus according to claim 6 or 7.
前記代表値が、前記所定領域に含まれる各画素の画素値の平均値、合計値、最大値、最小値、中央値、またはそれらに所定の係数を乗算したものである
ことを特徴とする請求項1から請求項8のうちのいずれか1項に記載の画像処理装置。
The representative value is an average value, a total value, a maximum value, a minimum value, a median value of pixel values of pixels included in the predetermined area, or a value obtained by multiplying them by a predetermined coefficient. The image processing device according to any one of claims 1 to 8.
前記基準ドット数が前記所定領域のサイズに基づき決定される
ことを特徴とする請求項1から請求項9のうちのいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the reference number of dots is determined based on the size of the predetermined area.
前記所定領域のサイズが4画素×4画素のとき、前記基準ドット数が1である
ことを特徴とする請求項10に記載の画像処理装置。
The image processing apparatus according to claim 10, wherein the reference dot number is 1 when the size of the predetermined area is 4 pixels×4 pixels.
前記補正手段は、前記所定領域に他の色のドットが配置されると定められている場合には、前記導出手段が導出した前記ドット数を補正しない
ことを特徴とする請求項1から請求項11のうちのいずれか1項に記載の画像処理装置。
The correction unit does not correct the number of dots derived by the derivation unit when it is determined that dots of other colors are arranged in the predetermined area. The image processing device according to any one of 11.
前記導出手段は、前記所定領域に対応する前記閾値群に含まれる、前記所定領域の画素値の平均値未満である閾値の数を、前記ドット数として導出する
ことを特徴とする請求項1から請求項12のうちのいずれか1項に記載の画像処理装置。
The deriving unit derives, as the number of dots, a number of threshold values included in the threshold value group corresponding to the predetermined area, which is less than an average value of pixel values of the predetermined area. The image processing device according to claim 12.
記録媒体上への画像の形成に用いる各画素にドットを配置するか否かを定めるドットデータを、前記画像の形成に用いる色材の色ごとに生成する画像処理装置であって、
処理対象とする色の入力画像データについて、所定領域ごとに、前記所定領域に含まれる各画素の画素値に基づき前記所定領域内に配置すべきドット数を導出する導出手段と、
前記導出手段が導出した前記ドット数が基準ドット数に満たない場合に、前記所定領域の各画素の画素値を色間で累積して得られる前記各画素の累積画素値と、閾値マトリクス内の前記所定領域に対応する閾値群の各閾値とに基づき、前記所定領域に対応する前記ドットデータを生成する生成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for generating dot data for determining whether or not to arrange a dot in each pixel used for forming an image on a recording medium, for each color of a color material used for forming the image,
With respect to the input image data of the color to be processed, for each predetermined area, a deriving unit that derives the number of dots to be arranged in the predetermined area based on the pixel value of each pixel included in the predetermined area,
When the number of dots derived by the deriving unit is less than the reference number of dots, the cumulative pixel value of each pixel obtained by accumulating the pixel value of each pixel in the predetermined area between colors, and a threshold matrix Based on each threshold value of the threshold value group corresponding to the predetermined area, a generation unit that generates the dot data corresponding to the predetermined area,
An image processing apparatus comprising:
前記生成手段は、
前記導出手段が導出した前記ドット数が前記基準ドット数を満たす場合に、前記所定領域の各画素値と、前記所定領域に対応する閾値群とに基づく評価値を用いて、前記所定領域においてドットを配置する画素の優先順を示す配置優先順を決定し、さらに、
前記導出手段が導出した前記ドット数と前記配置優先順とに基づいて、前記所定領域に対応する前記ドットデータを生成する
ことを特徴とする請求項14に記載の画像処理装置。
The generating means is
When the number of dots derived by the deriving unit satisfies the reference number of dots, dots are calculated in the predetermined area by using an evaluation value based on each pixel value of the predetermined area and a threshold value group corresponding to the predetermined area. Deciding the arrangement priority order indicating the priority order of the pixels to be arranged,
The image processing apparatus according to claim 14, wherein the dot data corresponding to the predetermined area is generated based on the number of dots and the arrangement priority order derived by the deriving unit.
前記生成手段は、
前記所定領域の各画素値と前記各画素の累積画素値の和と、前記所定領域内の他の全ての色においてドットが配置されていない画素の最小閾値に基づいて各画素の出力値を決定することを特徴とする請求項15に記載の画像処理装置。
The generating means is
The output value of each pixel is determined based on the sum of each pixel value of the predetermined area and the cumulative pixel value of each pixel, and the minimum threshold value of pixels in which dots are not arranged in all other colors in the predetermined area. The image processing apparatus according to claim 15, wherein the image processing apparatus comprises:
記録媒体上への画像の形成に用いる各画素にドットを配置するか否かを定めるドットデータを、前記画像の形成に用いる色材の色ごとに生成する画像処理方法であって、
処理対象とする色の入力画像データについて、所定領域ごとに、前記所定領域に含まれる各画素の画素値に基づき前記所定領域内に配置すべきドット数を導出する導出ステップと、
前記所定領域の各画素値と、閾値マトリクス内の前記所定領域に対応する閾値群とに基づく評価値を用いて、前記所定領域においてドットを配置する画素の優先順を示す配置優先順を決定する決定ステップと、
前記導出ステップで前記導出された前記ドット数が基準ドット数に満たない場合に、前記所定領域の画素値の代表値を色間で累積して得られる累積代表値に基づき、前記導出ステップで前記導出された前記ドット数を補正する補正ステップと、
前記補正ステップで補正された前記ドット数と、前記決定ステップで決定された前記配置優先順とに基づいて、前記所定領域に対応する前記ドットデータを生成する生成ステップと、
を含むことを特徴とする画像処理方法。
An image processing method for generating dot data for determining whether or not to arrange dots in each pixel used for forming an image on a recording medium, for each color of a color material used for forming the image,
With respect to the input image data of the color to be processed, for each predetermined region, a deriving step of deriving the number of dots to be arranged in the predetermined region based on the pixel value of each pixel included in the predetermined region,
Using the evaluation value based on each pixel value of the predetermined area and the threshold value group corresponding to the predetermined area in the threshold matrix, the arrangement priority order indicating the priority order of the pixels in which the dots are arranged in the predetermined area is determined. Decision step,
When the number of dots derived in the deriving step is less than a reference number of dots, based on a cumulative representative value obtained by accumulating representative values of pixel values of the predetermined region between colors, the deriving step is performed. A correction step for correcting the derived number of dots,
A generation step of generating the dot data corresponding to the predetermined area based on the number of dots corrected in the correction step and the arrangement priority order determined in the determination step,
An image processing method comprising:
記録媒体上への画像の形成に用いる各画素にドットを配置するか否かを定めるドットデータを、前記画像の形成に用いる色材の色ごとに生成する画像処理方法であって、
処理対象とする色の入力画像データについて、所定領域ごとに、前記所定領域に含まれる各画素の画素値に基づき前記所定領域内に配置すべきドット数を導出する導出ステップと、
前記導出ステップで導出された前記ドット数が基準ドット数に満たない場合に、前記所定領域の各画素の画素値を色間で累積して得られる前記各画素の累積画素値と、閾値マトリクス内の前記所定領域に対応する閾値群の各閾値とに基づき、前記所定領域に対応する前記ドットデータを生成する生成ステップと、
を含むことを特徴とする画像処理方法。
An image processing method for generating dot data for determining whether or not to arrange dots in each pixel used for forming an image on a recording medium, for each color of a color material used for forming the image,
With respect to the input image data of the color to be processed, for each predetermined region, a deriving step of deriving the number of dots to be arranged in the predetermined region based on the pixel value of each pixel included in the predetermined region,
When the number of dots derived in the deriving step is less than a reference number of dots, the cumulative pixel value of each pixel obtained by accumulating the pixel value of each pixel in the predetermined region between colors and a threshold matrix A generation step of generating the dot data corresponding to the predetermined area based on each threshold value of the threshold value group corresponding to the predetermined area of
An image processing method comprising:
コンピュータに、請求項17または請求項18に記載の画像処理方法を実行させるためのプログラム。 A program for causing a computer to execute the image processing method according to claim 17 or 18.
JP2018239935A 2018-12-21 2018-12-21 Image processing device, image processing method, and program Pending JP2020102767A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018239935A JP2020102767A (en) 2018-12-21 2018-12-21 Image processing device, image processing method, and program
US16/708,643 US10834288B2 (en) 2018-12-21 2019-12-10 Generating image region dot data based on corrected number of dots and determined arrangement priority

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018239935A JP2020102767A (en) 2018-12-21 2018-12-21 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2020102767A true JP2020102767A (en) 2020-07-02

Family

ID=71140017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018239935A Pending JP2020102767A (en) 2018-12-21 2018-12-21 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2020102767A (en)

Similar Documents

Publication Publication Date Title
US10834288B2 (en) Generating image region dot data based on corrected number of dots and determined arrangement priority
CN109510918B (en) Image processing apparatus and image processing method
JP4912270B2 (en) Image processing apparatus and control method thereof
JP2017199981A (en) Image processing apparatus, image processing method, and program
JP2017092872A (en) Image processing apparatus and image processing method
JP6781406B2 (en) Image processing equipment and computer programs
CN110012193B (en) Image processing apparatus and control method thereof
US9501019B2 (en) Image processing apparatus and control method thereof
JP6976824B2 (en) Image processing equipment, image processing methods, and programs
US10529058B2 (en) Image processing apparatus that smooths image using classification result of pixels included therein
US9147140B2 (en) Image processing apparatus, method, and product for converting image data into fewer gradations based on total value of pixels in a group except for a detected pixel having a specific value
US8120817B2 (en) Revising halftone image by adding dot to or filtering edge pixel
JP4570534B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP4861506B2 (en) Image processing apparatus and control method thereof
JP2020102767A (en) Image processing device, image processing method, and program
JP6736299B2 (en) Printing device, printing method, and program
JPWO2005109851A1 (en) Image processing apparatus, image processing method, and program
JP7250508B2 (en) Image processing device, image processing method, and program
JP5453215B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP2012095173A (en) Image processing device, image formation device, and image processing method
JP2020082694A (en) Dither matrix generation device and generation method, and image processing device, image processing method, and program using the dither matrix
JP6632253B2 (en) Image processing apparatus, image processing method, and program
US10798267B2 (en) Image processing to set output pixel values subject to edge or thin line correction
JP4334498B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP6805874B2 (en) Image processing equipment, image processing methods and programs