JP5921134B2 - Halftone processing apparatus, halftone processing method, and program - Google Patents

Halftone processing apparatus, halftone processing method, and program Download PDF

Info

Publication number
JP5921134B2
JP5921134B2 JP2011230660A JP2011230660A JP5921134B2 JP 5921134 B2 JP5921134 B2 JP 5921134B2 JP 2011230660 A JP2011230660 A JP 2011230660A JP 2011230660 A JP2011230660 A JP 2011230660A JP 5921134 B2 JP5921134 B2 JP 5921134B2
Authority
JP
Japan
Prior art keywords
pixel
interest
quantization
result
pixel group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011230660A
Other languages
Japanese (ja)
Other versions
JP2013090232A (en
Inventor
健一郎 春田
健一郎 春田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011230660A priority Critical patent/JP5921134B2/en
Publication of JP2013090232A publication Critical patent/JP2013090232A/en
Application granted granted Critical
Publication of JP5921134B2 publication Critical patent/JP5921134B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、誤差拡散処理を行う装置に関する。   The present invention relates to an apparatus for performing error diffusion processing.

従来より、プリンタ、複写機、ファクシミリ等の画像処理装置においては、階調再現性の高い疑似中間調処理(ハーフトーン処理)方法として誤差拡散法や平均濃度保存法などが一般に知られている。誤差拡散法は、注目画素の多値画像データを2値化し、2値化の結果と2値化する前の多値画像データとの誤差に所定の重み付けをして、それを注目画素近坊の画素のデータに加算するものである。平均濃度保存法は、注目画素近傍の既に2値化されたデータを使用して重み付け平均濃度を求めて注目画素の画像データと比較し、比較結果の大小により注目画素を2値化し、2値化時に発生した誤差をまだ2値化していない近傍画素に拡散させるものである。図8の(a)は、誤差拡散法の中でも代表的な Floyd-Steinberg 法における誤差拡散係数の例を示したものである。この場合、注目画素(*)の直後の画素に誤差の7/16が渡され、1ライン下の3つの画素にそれぞれ誤差の3/16, 5/16, 1/16 が分配されることになる。   2. Description of the Related Art Conventionally, in image processing apparatuses such as printers, copiers, and facsimiles, an error diffusion method and an average density storage method are generally known as pseudo halftone processing (halftone processing) methods with high gradation reproducibility. The error diffusion method binarizes the multi-valued image data of the pixel of interest, gives a predetermined weight to the error between the binarization result and the multi-valued image data before binarization, and uses the weighted value for the pixel of interest. This is added to the pixel data. In the average density storage method, weighted average density is obtained using already binarized data in the vicinity of the target pixel and compared with the image data of the target pixel, and the target pixel is binarized according to the comparison result. The error generated at the time of conversion is diffused to neighboring pixels that have not yet been binarized. FIG. 8A shows an example of an error diffusion coefficient in a typical Floyd-Steinberg method among error diffusion methods. In this case, 7/16 of the error is passed to the pixel immediately after the target pixel (*), and 3/16, 5/16, and 1/16 of the error are distributed to the three pixels below one line, respectively. Become.

近年、高画質化の要求に応えるために、デジタルプリンティング技術の高解像度化が進んでいる。しかし、最小画素での孤立ドットが安定して形成できない状況にある。すなわち、記録制御信号のパルス幅は高解像度になればなるほど狭くなり、狭くするほど感光体上での静電潜像の電位分布はなまった形状となるので、ドットの再現が困難になっている。   In recent years, in order to meet the demand for higher image quality, digital printing technology has been improved in resolution. However, it is in a situation where isolated dots with the minimum pixels cannot be formed stably. In other words, the pulse width of the recording control signal becomes narrower as the resolution becomes higher, and the potential distribution of the electrostatic latent image on the photosensitive member becomes a lesser shape as the resolution becomes narrower, making it difficult to reproduce dots. .

これを解決する方法として、出力解像度に合わせて誤差拡散係数を切り替える技術が知られている(特許文献1)。この特許文献1に開示された方法では、注目画素で発生した誤差を拡散させる範囲を広げることで(図8の(b)を参照)、例えば600DPI相当の画質を1200DPIで処理した誤差拡散から得ることができる。   As a method for solving this, a technique of switching an error diffusion coefficient in accordance with the output resolution is known (Patent Document 1). In the method disclosed in Patent Document 1, the range in which an error generated in a pixel of interest is diffused is widened (see FIG. 8B), and for example, an image quality equivalent to 600 DPI is obtained from error diffusion processed by 1200 DPI. be able to.

特開2002−135583号公報JP 2002-135583 A

しかしながら、この特許文献1に開示された方法の場合、誤差を保存するためにより多くのバッファ(メモリ)を用意する必要が生じる。例えば、600DPI用の誤差拡散テーブルを用いる時は注目画素の存在するラインの1ライン前の誤差を保存するバッファのみで足りるが、1200DPI用の誤差拡散テーブルを用いる時は2ライン前の誤差を保存するためのバッファも必要となる。このように多くのバッファを要する結果、コスト増を招いてしまうことになる。   However, in the case of the method disclosed in Patent Document 1, it is necessary to prepare more buffers (memory) in order to save the error. For example, when an error diffusion table for 600 DPI is used, only a buffer for storing an error one line before the line where the target pixel exists is sufficient, but when an error diffusion table for 1200 DPI is used, an error two lines before is stored. A buffer is also required to do this. As a result of requiring such a large number of buffers, the cost increases.

本発明に係るハーフトーン処理装置は、注目画素及び当該注目画素と副走査方向に隣り合う画素を少なくとも含む注目画素群に含まれた複数の画素の夫々に対して量子化処理する量子化処理手段と、前記量子化処理の結果から求められる量子化誤差を、前記注目画素群の近傍に位置する画素群における複数の画素に拡散する拡散手段と、前記注目画素群に含まれた複数の画素に対する量子化処理の結果、前記注目画素が孤立ドットである場合、当該孤立ドットの大きさが小さくなるように前記量子化処理の結果を変更する変更手段と、を備え、前記変更手段は、前記注目画素群に対応するマトリクスと前記注目画素群の量子化処理の結果との論理積を取ることによって、前記注目画素群に含まれる複数の画素の一部が欠けたドットとなるように変更して、前記孤立ドットの大きさが小さくなるように制御することを特徴とする。 The halftone processing apparatus according to the present invention includes a quantization processing unit that performs quantization processing on each of a plurality of pixels included in a target pixel group including at least the target pixel and a pixel adjacent to the target pixel in the sub-scanning direction. Diffusion means for diffusing a quantization error obtained from the result of the quantization process to a plurality of pixels in a pixel group located in the vicinity of the target pixel group, and a plurality of pixels included in the target pixel group result of the quantization process, if the pixel of interest is isolated dots, comprising changing means for changing the results of the previous SL amount coca processing such that the magnitude of the isolated dot becomes smaller, and the changing means, By taking the logical product of the matrix corresponding to the pixel group of interest and the result of the quantization processing of the pixel group of interest, a dot in which some of the plurality of pixels included in the pixel group of interest are missing is obtained. Change, and controls such that the magnitude of the isolated dot is reduced.

誤差を保存するためのバッファの増加を伴うことなく、誤差拡散の範囲を広げることができる。   The range of error diffusion can be expanded without increasing the number of buffers for storing errors.

画像形成装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image forming apparatus. 画像処理部の内部構成を示す図である。It is a figure which shows the internal structure of an image process part. 実施例1に係るハーフトーン処理部の内部構成を示すブロック図である。2 is a block diagram illustrating an internal configuration of a halftone processing unit according to Embodiment 1. FIG. 実施例1におけるハーフトーン処理の流れを示すフローチャートである。3 is a flowchart showing a flow of halftone processing in Embodiment 1. 注目画素と注目画素群の関係を示す図である。It is a figure which shows the relationship between an attention pixel and an attention pixel group. 注目画素群内の注目画素に対して、累積誤差が加算される状況を示す図である。It is a figure which shows the condition where an accumulation error is added with respect to the attention pixel in a attention pixel group. 累積誤差メモリの内部構造の一例を示す図である。It is a figure which shows an example of the internal structure of a cumulative error memory. (a)はFloyd-Steinberg 法における誤差拡散係数を示す図であり、(b)は誤差を拡散させる範囲を広げた場合の一例を示す図である。(A) is a figure which shows the error diffusion coefficient in Floyd-Steinberg method, (b) is a figure which shows an example at the time of extending the range which diffuses an error. 実施例2に係るハーフトーン処理部の内部構成を示すブロック図である。6 is a block diagram illustrating an internal configuration of a halftone processing unit according to Embodiment 2. FIG. 実施例2に係るハーフトーン処理の流れを示すフローチャートである。12 is a flowchart illustrating a flow of halftone processing according to the second embodiment. 平均濃度の算出に使用する所定の係数と注目画素群との関係を示す図である。It is a figure which shows the relationship between the predetermined coefficient used for calculation of average density | concentration, and an attention pixel group. 平均濃度の算出に使用する2値化結果と注目画素群との関係を示す図である。It is a figure which shows the relationship between the binarization result used for calculation of average density | concentration, and an attention pixel group. 実施例3に係るハーフトーン処理部の内部構成を示すブロック図である。FIG. 9 is a block diagram illustrating an internal configuration of a halftone processing unit according to a third embodiment. 実施例3に係るハーフトーン処理の流れを示すフローチャートである。12 is a flowchart illustrating a flow of halftone processing according to the third embodiment. (a)、(b)、(c)、(d)はそれぞれ制御MATRIXの一例を示す図である。(A), (b), (c), (d) is a figure which shows an example of control MATRIX, respectively. 注目画素の位置を説明する図である。It is a figure explaining the position of an attention pixel. パターンマッチングに使用される所定のパターンの一例を示す図である。It is a figure which shows an example of the predetermined pattern used for pattern matching. 実施例4に係るハーフトーン処理部の内部構成を示すブロック図である。FIG. 9 is a block diagram illustrating an internal configuration of a halftone processing unit according to a fourth embodiment.

以下、本発明を実施するための最良の形態について図面を用いて説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本実施例に係る画像形成装置(プリンタ)の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of an image forming apparatus (printer) according to the present embodiment.

101は、画像読取部であり、原稿読取台(不図示)にセットされた原稿の画像を読み取って、画像データを出力する。   An image reading unit 101 reads an image of a document set on a document reading table (not shown) and outputs image data.

102は、画像処理部であり、濃度調整処理、色変換処理、ガンマ補正処理、ハーフトーン処理等の各種画像処理を行う。なお、ここでは画像処理部102をプリンタの一構成要素として説明したが独立の装置(画像処理装置)としても機能し得るものである。画像処理部102の詳細については後述する。   An image processing unit 102 performs various types of image processing such as density adjustment processing, color conversion processing, gamma correction processing, and halftone processing. Here, the image processing unit 102 has been described as a component of the printer, but it can also function as an independent device (image processing device). Details of the image processing unit 102 will be described later.

103は記憶部であり、ROM、RAM、ハードディスク(HD)などから構成される。ROMには各種の制御プログラムや画像処理プログラムが格納される。RAMはCPU104がデータや各種情報を格納する参照領域や作業領域として用いられる。また、RAMやHDには印刷処理の対象となる画像データが蓄積される。   A storage unit 103 includes a ROM, a RAM, a hard disk (HD), and the like. Various control programs and image processing programs are stored in the ROM. The RAM is used as a reference area or work area where the CPU 104 stores data and various types of information. Further, image data to be subjected to print processing is stored in the RAM or HD.

104はCPUであり、ROMに格納された各種の制御プログラムや画像処理プログラムを実行して各部を統括的に制御する。   Reference numeral 104 denotes a CPU, which executes various control programs and image processing programs stored in the ROM to control each unit in an integrated manner.

105は画像出力部であり、記録紙などの記録媒体に画像を形成して出力する。   An image output unit 105 forms an image on a recording medium such as recording paper and outputs the image.

106は上述の各部を繋ぐ画像形成装置の内部バスである。   Reference numeral 106 denotes an internal bus of the image forming apparatus that connects the above-described units.

なお、画像形成装置は、画像データを管理するサーバ、印刷の実行を指示するパーソナルコンピュータ(PC)などにネットワークなどを介して接続可能である。   The image forming apparatus can be connected to a server that manages image data, a personal computer (PC) that instructs execution of printing, and the like via a network.

次に画像処理部102で実行される各種画像処理について説明する。   Next, various image processing executed by the image processing unit 102 will be described.

図2は、画像処理部102の内部構成を示す図である。   FIG. 2 is a diagram illustrating an internal configuration of the image processing unit 102.

画像処理部102は、圧縮処理部201、展開処理部202、色変換処理部203、濃度調整処理部204、ガンマ補正処理部205、ハーフトーン処理部206及び内部バス207によって構成される。   The image processing unit 102 includes a compression processing unit 201, a development processing unit 202, a color conversion processing unit 203, a density adjustment processing unit 204, a gamma correction processing unit 205, a halftone processing unit 206, and an internal bus 207.

圧縮処理部201は、画像読取部101で取得した画像データを記憶部103内のHDへ格納するため、例えばJPEGなどの形式に圧縮する圧縮処理を行なう。なお、圧縮処理の対象となる画像データは、CPU104によって、所定のブロック単位(例えば、8×8画素のブロック単位)で画像処理部102に供される。そして、圧縮処理部201で圧縮された8×8画素のブロック単位の画像データは、RAMを経由してHDに格納される。   The compression processing unit 201 performs a compression process of compressing the image data acquired by the image reading unit 101 into a format such as JPEG in order to store the image data in the HD in the storage unit 103. Note that image data to be subjected to compression processing is provided to the image processing unit 102 by the CPU 104 in predetermined block units (for example, 8 × 8 pixel block units). The 8 × 8 pixel block unit image data compressed by the compression processing unit 201 is stored in the HD via the RAM.

展開処理部202は、圧縮された8×8画素のブロック単位の画像データを展開処理し、ラスタ画像へ戻す処理を行なう。この際、8×8画素のブロックはラインメモリに展開される。   The expansion processing unit 202 expands the compressed 8 × 8 pixel block image data and returns the raster image to a raster image. At this time, the 8 × 8 pixel block is developed in the line memory.

色変換処理部203は、展開された画像データをプリンタの色空間にあわせるための色変換処理を行う。   A color conversion processing unit 203 performs color conversion processing for matching the developed image data with the color space of the printer.

濃度調整処理部204は、出力時の印刷濃度を調整する処理を行う。   The density adjustment processing unit 204 performs a process of adjusting the print density at the time of output.

ガンマ補正処理部205は、プリンタ毎に決まる画像形成時のプリンタガンマ特性のデータに基づき、画像データに対してガンマ補正を行なう。   The gamma correction processing unit 205 performs gamma correction on the image data based on printer gamma characteristic data at the time of image formation determined for each printer.

ハーフトーン処理部206は、色変換された画像データに対し誤差拡散法等を用いてハーフトーン処理を行う。ここで、ハーフトーン処理とは、原稿を読み取って得られた画像データの階調値(例えば、256階調)を、画像出力部105で印刷可能なN値(例えば2値)の画像データに変換することをいう。   The halftone processing unit 206 performs halftone processing on the color-converted image data using an error diffusion method or the like. Here, halftone processing refers to the gradation value (for example, 256 gradations) of image data obtained by reading a document into N-value (for example, binary) image data that can be printed by the image output unit 105. It means converting.

次に、ハーフトーン処理部206で実行される処理の詳細について説明する。   Next, details of processing executed by the halftone processing unit 206 will be described.

図3は誤差拡散法を用いてハーフトーン処理を行う、本実施例に係るハーフトーン処理部206の内部構成を示すブロック図であり、図4はそのハーフトーン処理の流れを示すフローチャートである。   FIG. 3 is a block diagram showing the internal configuration of the halftone processing unit 206 according to the present embodiment, which performs halftone processing using the error diffusion method, and FIG. 4 is a flowchart showing the flow of the halftone processing.

本実施例に係るハーフトーン処理部206は、誤差加算部301、量子化部302、誤差拡散部303、累積誤差メモリ304で構成され、入力された256階調の画像データを2値の画像データに変換するものとする。
ステップ401において、ハーフトーン処理部206は、ガンマ補正処理部205から画像データを構成する各画素のデータを、順次受け取る。
The halftone processing unit 206 according to the present embodiment includes an error adding unit 301, a quantizing unit 302, an error diffusing unit 303, and an accumulated error memory 304, and the input 256 gradation image data is converted into binary image data. Shall be converted to
In step 401, the halftone processing unit 206 sequentially receives data of each pixel constituting image data from the gamma correction processing unit 205.

ステップ402において、誤差加算部301は、入力された画素データに、横画素位置xに対応した累積誤差E(x)の値を加算する。受け取った画素データをI、累積誤差を加算した後の画素データをI’とすれば、式(1)のような関係になる。
I’=I+E(x) ・・・式(1)
In step 402, the error adding unit 301 adds the value of the accumulated error E (x) corresponding to the horizontal pixel position x to the input pixel data. If the received pixel data is I, and the pixel data after adding the accumulated error is I ′, the relationship is as shown in Equation (1).
I ′ = I + E (x) (1)

本ステップにおける累積誤差の加算処理では、注目画素群を構成する各画素には同じ累積誤差E(x)が加算される。   In the cumulative error addition process in this step, the same cumulative error E (x) is added to each pixel constituting the target pixel group.

図5は、入力された画素(注目画素)と注目画素群の関係を示す図である。図5において、左から右が主走査方向であり、上から下が副走査方向である。実線で区切られた各矩形領域が個々の注目画素群を示しており、各注目画素群内の破線で区切られた各領域が入力される各画素を示している。入力される各画素及び各注目画素群は、座標によって特定される。ここでは、注目画素群は、2画素×2画素の計4画素で構成されている。例えば、参照符合501で示される注目画素群Aの場合、座標A(1,1)によってその位置が特定される。そして、座標A(1,1)によって特定される注目画素群Aは、それぞれ座標(2,2)、(3,2)、(2,3)、(3,3)で特定される4つの画素によって構成される。誤差加算部301は、入力された画素データの座標情報から当該入力された注目画素の属する注目画素群を導出して、累積誤差E(x)を加算する。   FIG. 5 is a diagram illustrating the relationship between the input pixel (target pixel) and the target pixel group. In FIG. 5, the main scanning direction is from left to right, and the sub-scanning direction is from top to bottom. Each rectangular area delimited by a solid line indicates an individual target pixel group, and each area delimited by a broken line in each target pixel group indicates each pixel to be input. Each input pixel and each target pixel group are specified by coordinates. Here, the target pixel group is composed of a total of four pixels of 2 pixels × 2 pixels. For example, in the case of the target pixel group A indicated by the reference numeral 501, the position is specified by the coordinates A (1, 1). The target pixel group A specified by the coordinates A (1, 1) has four pixels specified by the coordinates (2, 2), (3, 2), (2, 3), and (3, 3), respectively. Consists of pixels. The error adding unit 301 derives a target pixel group to which the input target pixel belongs from the coordinate information of the input pixel data, and adds the accumulated error E (x).

図6は、注目画素群A内の注目画素(a,b,c,d)に対して、累積誤差E(x)が加算される状況を示している。各注目画素(a,b,c,d)には、近傍の画素群B、C、D、Eで発生した誤差の平均値が加算される。例えば、上述のFloyd-Steinberg 法における誤差拡散係数を採用したと仮定し、各画素群B、C、D、E内の各画素で生じた誤差をe(n○○)とすると、注目画素群Aの各画素に加算される累積誤差E(x)は次の式(2)で求められる。
E(x) = {(e(n46)+e(n45)+e(n36)+e(n35))*(1/16)+(e(n44)+e(n43)+e(n34)+e(n33))*(5/16)
+(e(n42)+e(n41)+e(n32)+e(n31))*(3/16)+(e(n26)+e(n25)+e(n16)+e(n15))*(7/16)} /4
・・・式(2)
FIG. 6 shows a situation where the accumulated error E (x) is added to the target pixel (a, b, c, d) in the target pixel group A. For each pixel of interest (a, b, c, d), an average value of errors generated in neighboring pixel groups B, C, D, E is added. For example, assuming that the error diffusion coefficient in the above-mentioned Floyd-Steinberg method is adopted, and the error occurring in each pixel in each pixel group B, C, D, E is e (n ○○), the target pixel group The accumulated error E (x) added to each pixel of A is obtained by the following equation (2).
E (x) = {(e (n46) + e (n45) + e (n36) + e (n35)) * (1/16) + (e (n44) + e (n43) + e (n34) + e (n33)) * (5/16)
+ (e (n42) + e (n41) + e (n32) + e (n31)) * (3/16) + (e (n26) + e (n25) + e (n16) + e (n15)) * (7/16)} / 4
... Formula (2)

累積誤差メモリ304には、上記式(2)によって算出された累積誤差E(x)の値が格納されている。図7は、累積誤差メモリ304の内部構造の一例を示す図である。本実施例の場合、注目画素群は2画素×2画素の4画素からなるので、画像の横画素の数(W)の半分の数(W/2)の記憶領域に、累積誤差E(x)がそれぞれ格納されることになる。例えば、画像データの横画素(主走査方向)の数が1000(画素)であったとすれば、累積誤差メモリ304に格納される累積画素は、E(1)〜E(500)となる。従来、誤差を拡散する範囲を同様の範囲にまで広げようと思えば、画素位置n46、画素位置n45、画素位置n36、画素位置n35で発生した誤差のすべてを(即ち、2ライン前の誤差も)保持する必要があった。これに対して、本実施例の方法では、4つの画素における誤差の平均値のみを保持すればよい(即ち、1ライン分で足りる)ので、メモリ容量を増やす必要がない。   The accumulated error memory 304 stores the value of the accumulated error E (x) calculated by the above equation (2). FIG. 7 is a diagram illustrating an example of the internal structure of the cumulative error memory 304. In the case of the present embodiment, since the target pixel group is composed of 4 pixels of 2 pixels × 2 pixels, the cumulative error E (x (x)) is stored in the storage area of the number (W / 2) of the number of horizontal pixels (W) of the image. ) Will be stored respectively. For example, if the number of horizontal pixels (main scanning direction) of the image data is 1000 (pixels), the cumulative pixels stored in the cumulative error memory 304 are E (1) to E (500). Conventionally, if the error diffusion range is expanded to the same range, all the errors generated at the pixel position n46, the pixel position n45, the pixel position n36, and the pixel position n35 (that is, the error two lines before) ) It was necessary to hold. On the other hand, in the method of this embodiment, it is only necessary to hold the average value of errors in four pixels (that is, one line is sufficient), so there is no need to increase the memory capacity.

このようにして、本ステップで、注目画素群を構成する各画素には同じ累積誤差E(x)が加算されることになる。   Thus, in this step, the same cumulative error E (x) is added to each pixel constituting the target pixel group.

ステップ403において、量子化部302は、量子化処理を行う。具体的には、累積誤差が加算された画素データI’と所定の閾値Tとを比較し、出力する画素値を決定する。2値化する場合の閾値Tは、最大入力画素値と最小入力画素値の中央値(入力画素値が0から255の範囲の整数値とすれば、閾値Tは、127乃至128)に設定される。そして、この場合の出力画素値Vは、次の式(3)により決定される。
V=0 (I’≦Tのとき)
V=255(I’>Tのとき) ・・・式(3)
In step 403, the quantization unit 302 performs quantization processing. Specifically, the pixel data I ′ to which the accumulated error is added is compared with a predetermined threshold value T, and the pixel value to be output is determined. The threshold value T for binarization is set to the median value of the maximum input pixel value and the minimum input pixel value (the threshold value T is 127 to 128 if the input pixel value is an integer value in the range of 0 to 255). The In this case, the output pixel value V is determined by the following equation (3).
V = 0 (when I ′ ≦ T)
V = 255 (when I ′> T) Expression (3)

ステップ404において、誤差拡散部303は、累積誤差が加算された画素データI’と出力画素値Vとの差分(量子化誤差E)を算出し、所定の誤差拡散係数に基づいて誤差の拡散処理を行う。そして、拡散処理によって新たに生じた誤差を基に上述の累積誤差E(x)を算出して、累積誤差メモリ304に格納する。   In step 404, the error diffusion unit 303 calculates a difference (quantization error E) between the pixel data I ′ to which the accumulated error is added and the output pixel value V, and performs error diffusion processing based on a predetermined error diffusion coefficient. I do. The accumulated error E (x) is calculated based on the error newly generated by the diffusion process and stored in the accumulated error memory 304.

ステップ405において、画像データ中のすべての画素について処理が完了したかどうかを判定し、未処理の画素がある場合はステップ401に戻ってステップ401〜ステップ404の処理を繰り返す。   In step 405, it is determined whether or not the processing has been completed for all the pixels in the image data. If there are unprocessed pixels, the processing returns to step 401 and the processing in steps 401 to 404 is repeated.

以上説明したような、本実施例に係るハーフトーン処理によれば、メモリ容量を増やすことなく誤差拡散係数の範囲を広げることが可能となる。これにより、出力解像度が高くなってもメモリ容量の増大に伴うコスト増を招くことなく、高品位の画像を得ることができる。   As described above, according to the halftone processing according to the present embodiment, the range of the error diffusion coefficient can be expanded without increasing the memory capacity. Thereby, even if the output resolution is increased, a high-quality image can be obtained without causing an increase in cost due to an increase in memory capacity.

実施例1では、誤差格差法を用いたハーフトーン処理の場合について説明した。次に、平均濃度保存法を用いたハーフトーン処理の態様について実施例2として説明する。なお、実施例1と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。   In the first embodiment, the case of halftone processing using the error inequality method has been described. Next, an embodiment of halftone processing using the average density preservation method will be described as a second embodiment. Note that description of parts common to the first embodiment is simplified or omitted, and here, differences will be mainly described.

図9は、平均濃度保存法を用いてハーフトーン処理を行う、本実施例に係るハーフトーン処理部206の内部構成を示すブロック図であり、図10はそのハーフトーン処理の流れを示すフローチャートである。本実施例に係るハーフトーン処理部206は、誤差加算部901、量子化部902、誤差拡散部903、累積誤差メモリ904、量子化結果遅延メモリ、平均濃度算出部906で構成される。実施例1と同様、入力された256階調の画像データを2値の画像データに変換する場合を例に説明する。   FIG. 9 is a block diagram showing an internal configuration of the halftone processing unit 206 according to the present embodiment that performs halftone processing using the average density preservation method, and FIG. 10 is a flowchart showing the flow of the halftone processing. is there. The halftone processing unit 206 according to this embodiment includes an error addition unit 901, a quantization unit 902, an error diffusion unit 903, an accumulated error memory 904, a quantization result delay memory, and an average density calculation unit 906. As in the first embodiment, an example of converting input 256-gradation image data into binary image data will be described.

ステップ1001において、ハーフトーン処理部206は、ガンマ補正処理部205から画像データを構成する各画素のデータを、順次受け取る。   In step 1001, the halftone processing unit 206 sequentially receives data of each pixel constituting the image data from the gamma correction processing unit 205.

ステップ1002において、誤差加算部901は、入力された画素データに、横画素位置xに対応した累積誤差E(x)の値を加算する。受け取った画素データをI、累積誤差を加算した後の画素データをI’とすれば、式(4)のような関係になる。
I’=I+E(x) ・・・式(4)
In step 1002, the error addition unit 901 adds the value of the accumulated error E (x) corresponding to the horizontal pixel position x to the input pixel data. If the received pixel data is I, and the pixel data after adding the accumulated error is I ′, the relationship is as shown in Equation (4).
I ′ = I + E (x) (4)

本ステップにおける累積誤差の加算処理においても、実施例1の場合と同様、注目画素群を構成する各画素には同じ累積誤差E(x)が加算される。   Also in the cumulative error addition processing in this step, the same cumulative error E (x) is added to each pixel constituting the pixel group of interest as in the first embodiment.

ステップ1003において、平均濃度算出部906は、量子化結果遅延メモリ905に格納された量子化結果(2値化結果)を取得し、予め設定された所定の係数と遅延された2値化結果とで積和演算を行い、量子化部902で使用する閾値M(平均濃度)を生成する。図11は、平均濃度の算出に使用する所定の係数と注目画素群との関係を示す図である。図12は、平均濃度の算出に使用する2値化結果と注目画素群との関係を示す図である。閾値Mとなる平均濃度は、式(5)によって求めることができる。
M=(K35*(N6A+N69+N5A+N59)+K34*(N68+N67+N58+N57)+K33*(N66+N65+N56+N55)+K32*(N64+N63+N54+N53)+K31*(N62+N61+N52+N51)+K25*(N4A+N3A+N49+N39)+K24*(N48+N47+N38+N37)+K23*(N46+N45+N36+N35)+K22*(N44+N43+N34+N33)+K21*(N42+N41+N32+N31)+K15*(N2A+N29+N1A+N19)+K14*(N28+N27+N18+N17))/4
・・・式(5)
In step 1003, the average density calculation unit 906 acquires the quantization result (binarization result) stored in the quantization result delay memory 905, and sets a predetermined coefficient and a delayed binarization result. A product-sum operation is performed to generate a threshold value M (average density) used in the quantization unit 902. FIG. 11 is a diagram illustrating a relationship between a predetermined coefficient used for calculating the average density and the target pixel group. FIG. 12 is a diagram illustrating the relationship between the binarization result used for calculating the average density and the pixel group of interest. The average density that becomes the threshold value M can be obtained by Expression (5).
M = (K35 * (N6A + N69 + N5A + N59) + K34 * (N68 + N67 + N58 + N57) + K33 * (N66 + N65 + N56 + N55) + K32 * (N64 + N63 + N54 + N53) + K31 * (N62 + N61 + N52 + N51) + K25 * (N4A + N3A + N49 + N39) + K24 * (N48 + N47 + N38 + N37) + K23 * (N46 + N45 + N36 + N35) + K22 * (N44 + N43 + N34 + N33) + K21 * (N42 + N41 + N32 + N31) + K15 * (N2A + N29 + N1A + N19) + K14 * (N28 + N27 + N18 + N17)) / 4
... Formula (5)

従来手法であれば、例えば、1ラインが4992画素だった場合には、4ライン分の2値化結果(4line*4992pix*1bit=19968bit)を保持しておく必要があった。本実施例によれば、2画素×2画素の計4画素(画素群G)の単位での2値化結果の保持で済むことになる。すなわち、2ラインと画素群当たり3ビット(0、1、2、3、4を保持するため)の2値化結果(2line*2496pix*3bit=14976bit)のみの保持で足りることになる。
ステップ1004において、量子化部902は、累積誤差E(x)を加算後の画素データI’と平均濃度算出部906で生成した閾値Mとを比較し、出力する画素値を決定する。すなわち、以下の式(6)によって出力画素値Vが決定される。
V=0 (I’≦Mのとき)
V=255(I’>Mのとき) ・・・式(6)
In the conventional method, for example, when one line is 4992 pixels, it is necessary to hold the binarization result (4line * 4992pix * 1bit = 19968bit) for four lines. According to the present embodiment, it is only necessary to hold the binarization result in units of 4 pixels (pixel group G) in total of 2 pixels × 2 pixels. That is, it is sufficient to hold only the binarization result (2line * 2496pix * 3bit = 14976bit) of 2 lines and 3 bits per pixel group (to hold 0, 1, 2, 3, 4).
In step 1004, the quantization unit 902 compares the pixel data I ′ after adding the accumulated error E (x) with the threshold value M generated by the average density calculation unit 906 to determine a pixel value to be output. That is, the output pixel value V is determined by the following equation (6).
V = 0 (when I ′ ≦ M)
V = 255 (when I ′> M) Expression (6)

ステップ1005において、誤差拡散部903は、累積誤差が加算された画素データI’と出力画素値Vとの差分(量子化誤差E)を算出し、所定の誤差拡散係数に基づいて誤差の拡散処理を行う。そして、拡散処理によって新たに生じた誤差を累積誤差メモリ904に格納する。   In step 1005, the error diffusion unit 903 calculates a difference (quantization error E) between the pixel data I ′ to which the accumulated error is added and the output pixel value V, and performs error diffusion processing based on a predetermined error diffusion coefficient. I do. Then, the error newly generated by the diffusion process is stored in the accumulated error memory 904.

ステップ1006において、画像データ中のすべての画素について処理が完了したかどうかを判定し、未処理の画素がある場合はステップ1001に戻ってステップ1001〜ステップ1005の処理を繰り返す。   In step 1006, it is determined whether or not the processing has been completed for all the pixels in the image data. If there are unprocessed pixels, the processing returns to step 1001 and the processing in steps 1001 to 1005 is repeated.

以上説明したように、本実施例に係る平均濃度法を用いたハーフトーン処理によっても、メモリ容量を増やすことなく誤差拡散係数の範囲を広げることが可能となる。   As described above, the range of the error diffusion coefficient can be expanded without increasing the memory capacity even by the halftone process using the average density method according to the present embodiment.

実施例1及び2では、メモリ容量を抑えつつ誤差拡散係数や平均濃度係数の範囲を拡大し、例えば、1200DPI単位で処理をした場合に、600DPI相当の画質を得ることを可能にしている。この場合、最小孤立点は2画素×2画素となるが、プリンタの性能によっては大き過ぎる場合がある。更なる高画質を得るためには、プリンタの性能に合わせて最小孤立点の大きさを細かく制御する必要がある。そこで、最小孤立点の大きさを自由に制御する態様について実施例3として説明する。なお、実施例1及び2と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。   In the first and second embodiments, the range of the error diffusion coefficient and the average density coefficient is expanded while suppressing the memory capacity. For example, when processing is performed in units of 1200 DPI, it is possible to obtain an image quality equivalent to 600 DPI. In this case, the minimum isolated point is 2 pixels × 2 pixels, but may be too large depending on the performance of the printer. In order to obtain a higher image quality, it is necessary to finely control the size of the minimum isolated point in accordance with the performance of the printer. Therefore, a mode for freely controlling the size of the minimum isolated point will be described as a third embodiment. In addition, description is simplified or abbreviate | omitted about the part which is common in Example 1 and 2, and suppose that it demonstrates centering around a difference here.

図13は、本実施例に係るハーフトーン処理部206の内部構成を示すブロック図であり、図14はそのハーフトーン処理の流れを示すフローチャートである。本実施例に係るハーフトーン処理部206は、実施例2と同様の構成(誤差加算部901、量子化部902、誤差拡散部903、累積誤差メモリ904、量子化結果遅延メモリ、平均濃度算出部906)に、以下の各部が追加される。すなわち、乱数発生部1301、制御マトリクス選択部1302、論理積処理部1303、パターンマッチング部1304、セレクタ1305をさらに備える。なお、本実施例においても、実施例1及び2と同様、入力された256階調の画像データを2値の画像データに変換する場合を例に説明する。   FIG. 13 is a block diagram showing the internal configuration of the halftone processing unit 206 according to this embodiment, and FIG. 14 is a flowchart showing the flow of the halftone processing. The halftone processing unit 206 according to the present embodiment has the same configuration as that of the second embodiment (an error addition unit 901, a quantization unit 902, an error diffusion unit 903, a cumulative error memory 904, a quantization result delay memory, an average density calculation unit) 906), the following parts are added. That is, a random number generation unit 1301, a control matrix selection unit 1302, a logical product processing unit 1303, a pattern matching unit 1304, and a selector 1305 are further provided. In the present embodiment, as in the first and second embodiments, a case where input 256-gradation image data is converted into binary image data will be described as an example.

ステップ1401〜ステップ1405は、実施例2のステップ1001〜ステップ1005と同じである。すなわち、入力された画素データへの累積誤差E(x)の加算(S1401及びS1402)、閾値M(平均濃度)の生成(S1403)、出力画素値の決定(S1404)を経て、誤差拡散処理が実行される(S1405)。   Steps 1401 to 1405 are the same as steps 1001 to 1005 in the second embodiment. That is, the error diffusion process is performed through addition of the accumulated error E (x) to the input pixel data (S1401 and S1402), generation of a threshold M (average density) (S1403), and determination of an output pixel value (S1404). It is executed (S1405).

ステップ1406において、乱数発生部1301は、擬似乱数(例えば、M系列)を発生させる。発生させた擬似乱数は、制御MATRIX選択部1302に送られる。   In step 1406, the random number generation unit 1301 generates pseudo random numbers (for example, M series). The generated pseudo random number is sent to the control MATRIX selection unit 1302.

ステップ1407において、制御MATRIX選択部1302は、入力された擬似乱数を使用して、一つの制御MATRIXをランダムに選択する。図15の(a)〜(d)は、それぞれ制御MATRIXの一例を示しており、このように予め用意された複数の制御MATRIXの中から、擬似乱数を用いて一の制御MATRIXがランダムに選択される。選択された制御MATRIXは、論理積処理部1303に送られる。   In step 1407, the control MATRIX selection unit 1302 randomly selects one control MATRIX using the input pseudo-random number. FIGS. 15A to 15D show examples of control MATRIX, and one control MATRIX is randomly selected from a plurality of control MATRIX prepared in advance using pseudorandom numbers. Is done. The selected control MATRIX is sent to the logical product processing unit 1303.

ステップ1408において、論理積処理部1303は、量子化部902の出力結果と制御MATRIX選択部1302で選択された制御MATRIXとの論理積をとる。すなわち、量子化処理の結果を変更する。例えば、選択された制御MATRIXが図15の(a)であり、注目画素が図16のjの位置であったとする。この場合、図15の(a)においてa1が図16のjに対応するので、このa1との論理積が算出される。すなわち、この場合は、図16におけるjの位置が白く欠けたドットになるような結果が出力される。このようにして算出された論理積の結果は、セレクタ1305へ送られる。   In step 1408, the logical product processing unit 1303 performs a logical product of the output result of the quantization unit 902 and the control MATRIX selected by the control MATRIX selection unit 1302. That is, the result of the quantization process is changed. For example, assume that the selected control MATRIX is (a) in FIG. 15 and the target pixel is at the position j in FIG. In this case, since a1 in FIG. 15A corresponds to j in FIG. 16, a logical product with this a1 is calculated. That is, in this case, a result is output such that the position of j in FIG. The result of the logical product calculated in this way is sent to the selector 1305.

ステップ1409において、パターンマッチング部1304は、量子化結果遅延メモリ905に格納されている注目画素の周辺の量子化結果と予め用意された所定のパターンとを比較して、注目画素が孤立点(孤立したドット)であるかどうかを判定する。この場合、量子化結果と所定のパターンとが合致すると、注目画素は孤立点であると判定されることになる。図17は、予め用意され保持されている所定のパターンの一例を示す図である。図17において、n,o,p,qはそれぞれ注目画素を示している。この場合において、注目画素n、o、p、qの出力値が255で、その周辺(図17のs15、s16、s25、s26、s31〜s36、s41〜s46)の量子化結果が0であると、注目画素は孤立点であると判定されることになる。注目画素が孤立点と判定された場合にはステップ1410に進み、孤立点ではないと判定された場合にはステップ1411に進む。なお、この判定の結果は孤立点信号としてセレクタ1305に送られる。   In step 1409, the pattern matching unit 1304 compares the quantization result around the pixel of interest stored in the quantization result delay memory 905 with a predetermined pattern prepared in advance, so that the pixel of interest is an isolated point (isolated). It is determined whether it is a dot). In this case, when the quantization result matches a predetermined pattern, the target pixel is determined to be an isolated point. FIG. 17 is a diagram illustrating an example of a predetermined pattern prepared and held in advance. In FIG. 17, n, o, p, and q each indicate a target pixel. In this case, the output value of the pixel of interest n, o, p, q is 255, and the quantization result of its periphery (s15, s16, s25, s26, s31-s36, s41-s46 in FIG. 17) is 0. Then, the target pixel is determined to be an isolated point. If it is determined that the target pixel is an isolated point, the process proceeds to step 1410. If it is determined that the target pixel is not an isolated point, the process proceeds to step 1411. Note that the result of this determination is sent to the selector 1305 as an isolated point signal.

ステップ1410及びステップ1411において、セレクタ1305は、パターンマッチング部1304から出力された孤立点信号に従って、出力を切り替える。具体的には、注目画素が孤立点だと判定された場合(ステップ1410)においては論理積の結果を出力し、注目画素が孤立点ではないと判定された場合(ステップ1411)においては量子化の結果をそのまま出力する。   In step 1410 and step 1411, the selector 1305 switches the output according to the isolated point signal output from the pattern matching unit 1304. Specifically, when it is determined that the target pixel is an isolated point (step 1410), a logical product result is output, and when it is determined that the target pixel is not an isolated point (step 1411), quantization is performed. The result of is output as it is.

ステップ1412において、画像データ中のすべての画素について処理が完了したかどうかを判定し、未処理の画素がある場合はステップ1401に戻ってステップ1401〜ステップ1411の処理を繰り返す。
以上説明したように、本実施例によれば、孤立点の大きさを細かく制御することが可能となる。これにより、より高品位の画像を得ることが可能となる。
In step 1412, it is determined whether or not the processing has been completed for all the pixels in the image data. If there are unprocessed pixels, the processing returns to step 1401 and the processing in steps 1401 to 1411 is repeated.
As described above, according to this embodiment, it is possible to finely control the size of isolated points. Thereby, it becomes possible to obtain a higher quality image.

実施例3では、パターンマッチングによって孤立点の制御を行う態様について説明した。実施例3の手法で様々なパターンに対応するためには、多くのパターンを保持しておく必要があり、回路規模が増大してしまうという懸念がある。   In the third embodiment, the aspect in which the isolated point is controlled by pattern matching has been described. In order to cope with various patterns by the method of the third embodiment, it is necessary to hold many patterns, and there is a concern that the circuit scale increases.

そこで、パターンマッチングを用いずに、入力データから孤立点を制御する態様について実施例4として説明する。なお、実施例3と大部分が共通するので、ここでは実施例3との差異点を中心に説明することとする。   Therefore, a mode for controlling isolated points from input data without using pattern matching will be described as a fourth embodiment. In addition, since most part is common with Example 3, suppose that it demonstrates centering on difference with Example 3.

図18は本実施例に係るハーフトーン処理部206の内部構成を示すブロック図である。実施例3に係る図13との違いは、パターンマッチング部1304に代えて、濃度判定部1801が存在する点である。濃度判定部1801は、注目画素が低濃度域の場合に孤立点であると判定する。   FIG. 18 is a block diagram showing the internal configuration of the halftone processing unit 206 according to this embodiment. A difference from FIG. 13 according to the third embodiment is that a density determination unit 1801 exists instead of the pattern matching unit 1304. The density determination unit 1801 determines that the pixel of interest is an isolated point when the pixel of interest is in a low density region.

本実施例におけるハーフトーン処理の流れ自体は実施例3と同じである。違いは、注目画素が孤立点かどうかを判定するステップ1409の中身である。以下、本実施例におけるステップ1409での処理について説明する。   The flow of halftone processing in this embodiment is the same as that in the third embodiment. The difference is the contents of step 1409 for determining whether the pixel of interest is an isolated point. Hereinafter, the processing in step 1409 in the present embodiment will be described.

ステップ1401〜ステップ1408を経て、ステップ1409において、濃度判定部1801は、予め設定された係数Lと入力画素データIとを比較して、注目画素が孤立点であるかどうかを判定する。具体的には、入力画素データIの値が係数Lより小さい場合には、孤立点(孤立したドット)と判定し、ステップステップ1410に進む。一方、入力画素データIの値が、係数Lと等しい又は大きい場合には、孤立点ではないと判定し、ステップ1411へ進む。ここでの処理は、していることになる。
以降のステップ1410〜ステップ1412の処理は、実施例3の場合と同じなので省略する。
After step 1401 to step 1408, in step 1409, the density determination unit 1801 compares the preset coefficient L with the input pixel data I to determine whether the pixel of interest is an isolated point. Specifically, when the value of the input pixel data I is smaller than the coefficient L, it is determined as an isolated point (isolated dot), and the process proceeds to Step 1410. On the other hand, when the value of the input pixel data I is equal to or larger than the coefficient L, it is determined that the input pixel data I is not an isolated point, and the process proceeds to step 1411. This processing is done.
The subsequent processing in Steps 1410 to 1412 is the same as that in the third embodiment, and will be omitted.

以上説明したように、本実施例によれば、回路規模を増大させることなく様々なパターンに対応することが可能となる。   As described above, according to the present embodiment, it is possible to deal with various patterns without increasing the circuit scale.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (7)

注目画素及び当該注目画素と副走査方向に隣り合う画素を少なくとも含む注目画素群に含まれた複数の画素の夫々に対して量子化処理する量子化処理手段と、
前記量子化処理の結果から求められる量子化誤差を、前記注目画素群の近傍に位置する画素群における複数の画素に拡散する拡散手段と、
前記注目画素群に含まれた複数の画素に対する量子化処理の結果、前記注目画素が孤立ドットである場合、当該孤立ドットの大きさが小さくなるように前記量子化処理の結果を変更する変更手段と、
を備え
前記変更手段は、前記注目画素群に対応するマトリクスと前記注目画素群の量子化処理の結果との論理積を取ることによって、前記注目画素群に含まれる複数の画素の一部が欠けたドットとなるように変更して、前記孤立ドットの大きさが小さくなるように制御する
ことを特徴とするハーフトーン処理装置。
Quantization processing means for performing a quantization process on each of a plurality of pixels included in a target pixel group including at least the target pixel and a pixel adjacent to the target pixel in the sub-scanning direction;
Diffusion means for diffusing a quantization error obtained from the result of the quantization processing to a plurality of pixels in a pixel group located in the vicinity of the target pixel group;
The target result of the quantization process for a plurality of pixels included in the pixel group, the pixel of interest may be isolated dot, to change the result of the previous SL amount coca processing such that the magnitude is decreased of the isolated dots Change means,
Equipped with a,
The changing unit calculates a logical product of a matrix corresponding to the pixel group of interest and a result of quantization processing of the pixel group of interest, thereby missing a part of a plurality of pixels included in the pixel group of interest. The halftone processing apparatus is controlled so as to reduce the size of the isolated dot .
前記変更手段は、それぞれ異なる部分が欠けたドットを得ることが可能な複数のマトリクスの中から、適用する1のマトリクスをランダムに決定して前記変更を行うことを特徴とする請求項1に記載のハーフトーン処理装置。 2. The change unit according to claim 1 , wherein the change unit performs the change by randomly determining one matrix to be applied from among a plurality of matrices capable of obtaining dots lacking different portions. The halftone processing apparatus described. 前記変更手段は、擬似乱数を用いて、前記適用する1のマトリクスを決定することを特徴とする請求項2に記載のハーフトーン処理装置。The halftone processing apparatus according to claim 2, wherein the changing unit determines the one matrix to be applied using a pseudo random number. 前記注目画素が孤立ドットであるかどうかを、当該注目画素の周辺の量子化結果と所定のパターンとを比較するパターンマッチングによって判定する判定手段をさらに備えたことを特徴とする請求項1乃至3のいずれか1項に記載のハーフトーン処理装置。 Whether the pixel of interest is the isolated dot, claims 1 to 3, further comprising a determining means by pattern matching for comparing the quantization result of the periphery of the target pixel with a predetermined pattern The halftone processing device according to any one of the above. 前記注目画素が孤立ドットであるかどうかを、当該注目画素の濃度によって判定する判定手段をさらに備えたことを特徴とする請求項1乃至3のいずれか1項に記載のハーフトーン処理装置。 Wherein the pixel of interest is whether the isolated dot, the halftone processing apparatus according to any one of claims 1 to 3, further comprising a determining means by the concentration of the target pixel. 注目画素及び当該注目画素と副走査方向に隣り合う画素を少なくとも含む注目画素群に含まれた複数の画素の夫々に対して量子化処理する量子化処理ステップと、
前記量子化処理の結果から求められる量子化誤差を、前記注目画素群の近傍に位置する画素群における複数の画素に拡散する拡散ステップと、
前記注目画素群に含まれた複数の画素に対する量子化処理の結果、前記注目画素が孤立ドットである場合、当該孤立ドットの大きさが小さくなるように前記量子化処理の結果を変更する変更ステップと、
を含み、
前記変更ステップでは、前記量子化処理の結果を、前記注目画素群に対応するマトリクスと前記注目画素群の量子化処理の結果との論理積を取ることによって、前記注目画素群に含まれる複数の画素の一部が欠けたドットとなるように変更して、前記孤立ドットの大きさが小さくなるように制御する
ことを特徴とするハーフトーン処理方法。
A quantization processing step for performing a quantization process on each of the plurality of pixels included in the target pixel group including at least the target pixel and the pixel adjacent to the target pixel in the sub-scanning direction;
A diffusion step of diffusing a quantization error obtained from the result of the quantization process to a plurality of pixels in a pixel group located in the vicinity of the target pixel group;
A change step of changing the result of the quantization processing so that the size of the isolated dot is reduced when the pixel of interest is an isolated dot as a result of the quantization processing for a plurality of pixels included in the pixel-of-interest group. When,
Only including,
In the changing step, a result of the quantization process is obtained by performing a logical product of a matrix corresponding to the pixel group of interest and a result of the quantization process of the pixel group of interest, thereby a plurality of pixels included in the pixel group of interest. A halftone processing method , wherein a part of a pixel is changed to be a missing dot, and the size of the isolated dot is controlled to be small .
コンピュータを、請求項1乃至のいずれか1項に記載のハーフトーン処理装置として機能させるためのプログラム。 A program for causing a computer to function as the halftone processing apparatus according to any one of claims 1 to 5 .
JP2011230660A 2011-10-20 2011-10-20 Halftone processing apparatus, halftone processing method, and program Expired - Fee Related JP5921134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011230660A JP5921134B2 (en) 2011-10-20 2011-10-20 Halftone processing apparatus, halftone processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011230660A JP5921134B2 (en) 2011-10-20 2011-10-20 Halftone processing apparatus, halftone processing method, and program

Publications (2)

Publication Number Publication Date
JP2013090232A JP2013090232A (en) 2013-05-13
JP5921134B2 true JP5921134B2 (en) 2016-05-24

Family

ID=48533709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011230660A Expired - Fee Related JP5921134B2 (en) 2011-10-20 2011-10-20 Halftone processing apparatus, halftone processing method, and program

Country Status (1)

Country Link
JP (1) JP5921134B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3480887B2 (en) * 1997-02-13 2003-12-22 株式会社リコー Image processing apparatus and image processing method
JPH10271331A (en) * 1997-03-26 1998-10-09 Oki Data:Kk Image processing method and device therefor
JP2001157047A (en) * 1999-11-25 2001-06-08 Kyocera Mita Corp Image-processing method
JP4591771B2 (en) * 2005-06-17 2010-12-01 ブラザー工業株式会社 Image forming apparatus
JP2007053439A (en) * 2005-08-15 2007-03-01 Sharp Corp Isolated point discrimination apparatus, image processing apparatus, image reading apparatus, image forming apparatus, isolated point discrimination method, isolated point discrimination program, image processing program, and computer-readable recording medium
JP2008010958A (en) * 2006-06-27 2008-01-17 Canon Inc Imaging apparatus and method

Also Published As

Publication number Publication date
JP2013090232A (en) 2013-05-13

Similar Documents

Publication Publication Date Title
JP4634292B2 (en) Image processing apparatus, image processing method, and program for causing computer to execute the method
JP6353271B2 (en) Image processing apparatus and method
JP4236804B2 (en) Image processing method, apparatus and storage medium
JP2010161503A (en) Image forming apparatus and image forming method
JP2017130751A (en) Image processing system and image processing method, and program
US20030081259A1 (en) Image formation apparatus
US8947735B2 (en) Image processing apparatus and image processing method for performing error diffusion processing for each region of an image
JP6192326B2 (en) Image processing apparatus and control method thereof
JP5921134B2 (en) Halftone processing apparatus, halftone processing method, and program
US8199363B2 (en) Image processing using hybrid lookup table
JPH08298598A (en) Image processor and image processing method
US8422080B2 (en) Image processing apparatus and image processing method in which composite tone pixel data is provided based on tone pixel data generated by error diffusion processing and dither processing
JP2008113364A (en) Image processor, processing circuit, and processing method, and program
US20070052982A1 (en) Color image forming apparatus and image forming method
JP6079720B2 (en) Image processing apparatus, image processing method, and program
JP2008306427A (en) Device and method for processing image
JP4274102B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the program
JP3679522B2 (en) Image processing method and apparatus
JP2008228106A (en) Image processor, image processing method, program, recording medium and image forming apparatus
JP2019110512A (en) Image forming apparatus, image forming method, and program
JP6639076B2 (en) Image processing apparatus, image processing method, and program
JP5464906B2 (en) Image processing apparatus and control method thereof
JP3950871B2 (en) Image processing method and apparatus
EP1924075B1 (en) Image processing using hybrid lookup table
JP2005252807A (en) Image processing method, printing system and printer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160412

R151 Written notification of patent or utility model registration

Ref document number: 5921134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees