JP4549306B2 - Image processing method, image processing apparatus, image forming apparatus, and computer program - Google Patents

Image processing method, image processing apparatus, image forming apparatus, and computer program Download PDF

Info

Publication number
JP4549306B2
JP4549306B2 JP2006075442A JP2006075442A JP4549306B2 JP 4549306 B2 JP4549306 B2 JP 4549306B2 JP 2006075442 A JP2006075442 A JP 2006075442A JP 2006075442 A JP2006075442 A JP 2006075442A JP 4549306 B2 JP4549306 B2 JP 4549306B2
Authority
JP
Japan
Prior art keywords
data
image
component
noise
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006075442A
Other languages
Japanese (ja)
Other versions
JP2007251825A (en
Inventor
央光 加藤木
真 早崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2006075442A priority Critical patent/JP4549306B2/en
Publication of JP2007251825A publication Critical patent/JP2007251825A/en
Application granted granted Critical
Publication of JP4549306B2 publication Critical patent/JP4549306B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像データの空間周波数成分の係数を変更して画像処理を行う画像処理方法、画像処理装置、該画像処理装置を備える画像形成装置、前記画像処理方法を実現するコンピュータプログラムに関する。   The present invention relates to an image processing method for performing image processing by changing a coefficient of a spatial frequency component of image data, an image processing apparatus, an image forming apparatus including the image processing apparatus, and a computer program for realizing the image processing method.

中間調を含む画像の階調数を減少させる方法、例えば、256階調の画像を2値化して2階調の画像を生成する方法としては、画像の階調値と所定値(閾値)とを比較して2値化する方法、ディザ法、誤差拡散法などが知られている。   As a method of reducing the number of gradations of an image including halftones, for example, a method of binarizing a 256 gradation image and generating a two gradation image, the gradation value of the image and a predetermined value (threshold) are used. A binarization method, a dither method, an error diffusion method, and the like are known.

図16は、16階調の画像を2値化するディザ法に用いられる4×4のディザマトリクスの一例を示す模式図である。ディザマトリクスには、画素の位置に応じて0乃至240の何れかの所定値が設定されている。ディザ法は、入力された256階調の画像データの階調値と、ディザマトリクスに設定された所定値とを各画素毎に比較し、階調値が所定値以上の場合、階調値を255とし、階調値が所定値未満の場合、階調値を0とすることにより画像を2値化する。   FIG. 16 is a schematic diagram illustrating an example of a 4 × 4 dither matrix used in a dither method for binarizing a 16-gradation image. In the dither matrix, a predetermined value of 0 to 240 is set according to the position of the pixel. In the dither method, the gradation value of the input 256 gradation image data is compared with a predetermined value set in the dither matrix for each pixel, and if the gradation value is equal to or larger than the predetermined value, the gradation value is determined. When the gradation value is less than the predetermined value, the image is binarized by setting the gradation value to 0.

誤差拡散法は、入力された画像データの各画素を2値化する際に生じる量子化誤差、すなわち、2値化前の画素の階調値に対する2値化後の階調値の差を、未だ2値化されていない画素に分配して2値化する方法である。2値化される画素を注目画素とした場合、注目画素の量子化誤差は、注目画素からの相対位置に応じた重み付けが行われた後、注目画素の周辺に位置する2値化処理前の画素の階調値に加算される。   The error diffusion method is a quantization error that occurs when binarizing each pixel of input image data, that is, a difference between a binarized gradation value and a gradation value of a pixel before binarization, This is a method of binarizing by distributing to pixels that have not been binarized yet. When the pixel to be binarized is the target pixel, the quantization error of the target pixel is weighted according to the relative position from the target pixel and then before the binarization process positioned around the target pixel. It is added to the gradation value of the pixel.

図17は誤差拡散法に用いられる重み係数マトリクスの一例を示す模式図である。図17の例では、水平方向(図中の左右方向)をX方向、垂直方向(図中の上下方向)をY方向とし、注目画素(IX,IY)を含む2×3の重み係数マトリックスが示されている。重み係数マトリックスは、注目画素(IX,IY)を基準として左下隣、下隣、右下隣、右隣の重み係数を示している。例えば、注目画素(IX,IY)の階調値と所定値とを比較し、前記階調値が所定値以上の場合、注目画素(IX,IY)の階調値を255とし、所定値未満の場合、注目画素(IX,IY)の階調値を0とする。   FIG. 17 is a schematic diagram showing an example of a weighting coefficient matrix used in the error diffusion method. In the example of FIG. 17, the horizontal direction (left and right direction in the figure) is the X direction, the vertical direction (up and down direction in the figure) is the Y direction, and a 2 × 3 weight coefficient matrix including the pixel of interest (IX, IY) is obtained. It is shown. The weighting coefficient matrix indicates the weighting coefficients of the lower left neighbor, the lower neighbor, the lower right neighbor, and the right neighbor with reference to the target pixel (IX, IY). For example, the gradation value of the target pixel (IX, IY) is compared with a predetermined value, and when the gradation value is equal to or larger than the predetermined value, the gradation value of the target pixel (IX, IY) is set to 255, which is less than the predetermined value. In this case, the gradation value of the target pixel (IX, IY) is set to 0.

次に、2値化された255又は0の階調値と2値化前の注目画素(IX,IY)の階調値との差、すなわち、量子化誤差を重み係数マトリクスに基づいて周辺の2値化処理前の画素へ配分する。ただし、注目画素(IX,IY)の左隣の画素(IX−1,IY)は注目画素(IX,IY)よりも先に量子化されているため、量子化誤差は配分されない。量子化誤差をErrとした場合、注目画素(IX,IY)の4近傍(IX+1,IY)、(IX+1,IY+1)、(IX,IY+1)、(IX−1,IY+1)には、それぞれErr×(7/16)、Err×(1/16)、Err(5/16)、Err(3/16)が配分される。   Next, the difference between the binarized 255 or 0 gradation value and the gradation value of the target pixel (IX, IY) before binarization, that is, the quantization error is calculated based on the weighting coefficient matrix. Allocate to pixels before binarization. However, since the pixel (IX-1, IY) adjacent to the left of the target pixel (IX, IY) is quantized before the target pixel (IX, IY), the quantization error is not distributed. When the quantization error is Err, each of four neighboring (IX + 1, IY), (IX + 1, IY + 1), (IX, IY + 1), and (IX-1, IY + 1) of the pixel of interest (IX, IY) is Err × (7/16), Err × (1/16), Err (5/16), Err (3/16) are allocated.

誤差拡散法は、重み係数マトリクスに基づいて量子化誤差を周辺の未処理画素へ配分するため、ディザ法に比べ、2値化された画像にモアレ模様が出にくいという長所を有する。   The error diffusion method distributes quantization errors to surrounding unprocessed pixels based on a weight coefficient matrix, and therefore has an advantage that a moiré pattern is less likely to appear in a binarized image.

また、前述のディザ法、誤差拡散法の他に、画像データを空間周波数成分を有する画像データに変換して、 変換した空間周波数成分の係数に対して、予め決定されたハーフトーンの空間周波数領域に変換されたデータを利用して画像のハーフトーン処理を行う手法が提案されている(例えば、特許文献1参照)。   In addition to the dither method and error diffusion method described above, the image data is converted into image data having a spatial frequency component, and the halftone spatial frequency domain determined in advance for the converted coefficient of the spatial frequency component. There has been proposed a method of performing halftone processing of an image using data converted into (see, for example, Patent Document 1).

しかしながら、ディザ法によれば、同一パターンのディザマトリクスを用いて2値化するため、2値化された画像にはディザ特有のテクスチャ、すなわち周期的なパターン画像が発生するという問題点を有する。   However, according to the dither method, since binarization is performed using a dither matrix having the same pattern, there is a problem that a texture specific to dither, that is, a periodic pattern image is generated in the binarized image.

また、特許文献1に記載された方法によれば、予め決定されたハーフトーンのデータを利用しているため、誤差拡散法又はディザ法などと同様のテクスチャの発生が生じるという問題点を有している。すなわち、空間周波数領域において、前述した従来と同様の方法を用いてハーフトーン処理を行っているに過ぎないため、前述と同様の問題点が生じる。   Further, according to the method described in Patent Document 1, since the halftone data determined in advance is used, there is a problem that the same texture generation as that of the error diffusion method or the dither method occurs. ing. That is, in the spatial frequency domain, only the halftone process is performed using the same method as the above-described conventional method, and the same problem as described above occurs.

誤差拡散法では、画素毎に同一のマトリクスに基づいて誤差を拡散させるため、階調値が大きいハイライト部分で大きな量子化誤差が連鎖的に拡散し、画素同士が繋がったように見えるという問題があった。つまり、異なる階調値を有する画素同士が同一の階調値となり、画素同士が部分的に連結したように見える画像が得られるという問題点を有していた。   In the error diffusion method, the error is diffused based on the same matrix for each pixel, so that a large quantization error is diffused in a chained manner in a highlight portion having a large gradation value, and the pixels appear to be connected. was there. That is, there is a problem that pixels having different gradation values have the same gradation value, and an image can be obtained in which the pixels appear to be partially connected.

また、4値画像などの多値化画像においては、中間の濃度領域でドットパターンが均一になり、トーンギャップ(階調が不連続に変化する現象)が発生するという問題がある。例えば、出力値が0、85、171、又は255の場合、中間濃度部の85、171付近では、同一濃度が集中してトーンギャップが発生し易い。トーンギャップは、複数の閾値で量子化処理を行っている限り必ず生じる。例えば、2値出力の場合でも0か255付近においてトーンギャップが生じているが、多値出力の場合は、人間の目につきやすい中間濃度の出力値が存在するため、中間濃度部のトーンギャップが目立ち易い。中間濃度部のトーンギャップは、中間濃度領域に用いる複数の閾値を適切に選択して量子化処理するというようなアルゴリズムでは完全に防ぐことは困難である。   In addition, in a multi-valued image such as a quaternary image, there is a problem that a dot pattern becomes uniform in an intermediate density region and a tone gap (a phenomenon in which gradation changes discontinuously) occurs. For example, when the output value is 0, 85, 171, or 255, a tone gap is likely to occur near the intermediate density portion 85, 171 due to concentration of the same density. A tone gap always occurs as long as quantization processing is performed with a plurality of threshold values. For example, even in the case of binary output, a tone gap occurs near 0 or 255. However, in the case of multi-value output, there is an intermediate density output value that is easily noticeable by humans. Easy to stand out. It is difficult to completely prevent the tone gap in the intermediate density portion by an algorithm such that a plurality of threshold values used in the intermediate density region are appropriately selected and quantized.

そこで、本出願人は、画像データの高周波数成分を変更することにより、画像データの出力値付近で発生するトーンギャップの問題を抑制すると共に、ディザ法で生じているテクスチャ及び誤差拡散法で発生していたワームの発生を抑制し、品質の良い2値画像及び多値画像を生成できる方法を提案している(例えば、特許文献2参照)。   Therefore, the present applicant suppresses the tone gap problem that occurs near the output value of the image data by changing the high-frequency component of the image data, and generates the texture and error diffusion method that occurs in the dither method. A method has been proposed in which generation of a worm that has been suppressed can be suppressed and a high-quality binary image and multi-valued image can be generated (see, for example, Patent Document 2).

特許文献2に記載された画像処理方法は、画像データを空間周波数成分に変換し、変換された空間周波数成分に対し、所定周波数領域の空間周波数成分を変更し、変更処理が行われた空間周波数成分を画像データに逆変換し、逆変換された画像データの階調数を閾値に基づいて減少させることにより、中間調処理を行うものである。ここで、上記の空間周波数成分の変更処理は、空間周波数成分に含まれる直流成分を検出し、検出した直流成分に応じて変更数が決定され、決定された変更数に応じた数の空間周波数成分を変更するというものである。
特開2002−10085号公報 特開2005−50296号公報
The image processing method described in Patent Document 2 converts image data into a spatial frequency component, changes the spatial frequency component of a predetermined frequency region with respect to the converted spatial frequency component, and performs the change processing on the spatial frequency. Halftone processing is performed by inversely converting the components into image data and reducing the number of gradations of the inversely converted image data based on a threshold value. Here, the spatial frequency component change processing described above detects the direct current component included in the spatial frequency component, the number of changes is determined according to the detected direct current component, and the number of spatial frequencies according to the determined number of changes. It is to change the ingredients.
Japanese Patent Laid-Open No. 2002-10085 JP 2005-50296 A

前述のように、特許文献2に記載された方法では、空間周波数成分の変更を行う際に、空間周波数成分に含まれる直流成分を検出し、検出した直流成分に応じて変更数を決定し、決定された変更数に応じた数の空間周波数成分を変更する。しかしながら、変更の大きさ、すなわち、振幅の大きさは定められた範囲内で定義されており、局所的に振幅を増大させることができない。このため、濃度領域の画像データにおいて、4値で出力する場合には、出力値が0及び255以外の2つのレベル(8レベル、171レベル)付近では、一定濃度のドットの偏りが強くなる傾向があり、この付近でのトーンギャップが解消されていないという問題点がある。   As described above, in the method described in Patent Document 2, when changing the spatial frequency component, the DC component included in the spatial frequency component is detected, and the number of changes is determined according to the detected DC component, The number of spatial frequency components corresponding to the determined number of changes is changed. However, the magnitude of the change, that is, the magnitude of the amplitude is defined within a predetermined range, and the amplitude cannot be increased locally. For this reason, when the image data in the density area is output in four values, the bias of the dots having a constant density tends to increase near the two levels (8 levels and 171 levels) other than 0 and 255. There is a problem that the tone gap in this vicinity is not solved.

本発明は斯かる事情に鑑みてなされたものであり、空間周波数成分の直流成分が所定の範囲内にない場合、交流成分に対して第1のデータを加算し、空間周波数成分の直流成分が所定の範囲内にある場合、加算すべき値を強調した第2のデータを交流成分に加算する構成とすることにより、グラデーションパターンにおいても、トーンギャップの目立たない画像を生成することができる画像処理方法、画像処理装置、該画像処理装置を備える画像形成装置、及び前記画像処理方法を実現するコンピュータプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and when the DC component of the spatial frequency component is not within a predetermined range, the first data is added to the AC component, and the DC component of the spatial frequency component is Image processing capable of generating an image in which tone gap is not conspicuous even in a gradation pattern by adopting a configuration in which the second data in which the value to be added is emphasized is added to the AC component when it is within the predetermined range It is an object to provide a method, an image processing apparatus, an image forming apparatus provided with the image processing apparatus, and a computer program for realizing the image processing method.

本発明の他の目的は、階調値がとり得る値のうち最大又は最小となる階調値を有する画素が画像データに含まれているか否かを判断し、最大又は最小となる階調値を有する画素が含まれていると判断した場合、前記画素以外の画素の階調値を閾値に基づいて変更する構成とすることにより、より入力画像に忠実な階調再現処理画像が得られる画像処理方法、画像処理装置、及び該画像処理装置を備える画像形成装置を提供することにある。   Another object of the present invention is to determine whether a pixel having a maximum or minimum gradation value among the possible gradation values is included in the image data, and to determine the maximum or minimum gradation value. When it is determined that a pixel having a pixel value is included, an image in which a gradation reproduction process image that is more faithful to the input image can be obtained by changing the gradation value of pixels other than the pixel based on a threshold value A processing method, an image processing apparatus, and an image forming apparatus including the image processing apparatus are provided.

本発明に係る画像処理方法は、画像データに直交変換を施して空間周波数成分からなるデータを生成し、生成したデータに基づいて画像処理を行う画像処理方法において、前記データを構成する空間周波数成分のうち直流成分の大きさが所定の範囲内にあるか否かを判断するステップと、前記所定の範囲内にないと判断した場合、前記空間周波数成分の交流成分に対してブルーノイズの特性を有する空間周波数領域のノイズデータを加算するステップと、前記所定の範囲内にあると判断した場合、前記ノイズデータに1より大きな定数を乗じて得られるデータを前記交流成分に加算するステップと、前記ノイズデータ又は該ノイズデータに前記定数を乗じたデータを加算して得られたデータに逆直交変換を施すステップと、前記逆直交変換により得られた画像データの階調数を1又は複数の閾値を用いて減少させるステップとを有することを特徴とする。 An image processing method according to the present invention is an image processing method for performing orthogonal transformation on image data to generate data composed of spatial frequency components, and performing image processing based on the generated data, and the spatial frequency components constituting the data Determining whether or not the magnitude of the direct current component is within a predetermined range, and determining that the direct current component is not within the predetermined range, a blue noise characteristic with respect to the alternating current component of the spatial frequency component is determined. Adding noise data of a spatial frequency domain having, adding the data obtained by multiplying the noise data by a constant larger than 1 to the alternating current component when determined to be within the predetermined range; and a step of performing inverse orthogonal transformation on the data obtained by adding the data obtained by multiplying the constant noise data or the noise data, the inverse orthogonal transform And having a step of decreasing with the number of gradations of one or more thresholds of image data obtained Ri.

本発明にあっては、空間周波数成分の直流成分が所定の範囲内にない場合、交流成分に対して第1のデータを加算し、空間周波数成分の直流成分が所定の範囲内にある場合、加算すべき値を強調した第2のデータを交流成分に加算するようにしているため、階調値が最大又は最小となる出力値以外の出力値近傍でのトーンギャップが解消される。   In the present invention, when the direct current component of the spatial frequency component is not within the predetermined range, the first data is added to the alternating current component, and when the direct current component of the spatial frequency component is within the predetermined range, Since the second data emphasizing the value to be added is added to the AC component, the tone gap in the vicinity of the output value other than the output value at which the gradation value is maximum or minimum is eliminated.

本発明にあっては、直流成分が所定の範囲内にある場合に加算する第2のデータは演算により得られる。また、階調値が最大又は最小となる出力値以外の出力値近傍でのトーンギャップが解消される。   In the present invention, the second data to be added when the DC component is within a predetermined range is obtained by calculation. Further, the tone gap in the vicinity of the output value other than the output value at which the gradation value is maximum or minimum is eliminated.

本発明に係る画像処理方法は、前記直交変換を施すべき画像データは、各画素が適宜の階調値を有する複数の画素からなるデータであり、階調値がとり得る値のうち最大又は最小となる階調値を有する画素が前記画像データに含まれているか否かを判断するステップと、最大又は最小となる階調値を有する画素が含まれていると判断した場合、前記画素以外の画素の階調値を前記閾値に基づいて変更するステップとを有することを特徴とする。   In the image processing method according to the present invention, the image data to be subjected to the orthogonal transformation is data including a plurality of pixels in which each pixel has an appropriate gradation value, and the maximum or minimum value that the gradation value can take. A step of determining whether or not a pixel having a gradation value to be included in the image data and a pixel having a maximum or minimum gradation value are included. And changing the gradation value of the pixel based on the threshold value.

本発明にあっては、階調値がとり得る値のうち最大又は最小となる階調値を有する画素が画像データに含まれているか否かを判断し、最大又は最小となる階調値を有する画素が含まれていると判断した場合、前記画素以外の画素の階調値を閾値に基づいて変更するようにしているため、より入力画像に忠実な階調再現処理画像が得られる。   In the present invention, it is determined whether or not a pixel having the maximum or minimum gradation value among the possible gradation values is included in the image data, and the maximum or minimum gradation value is determined. When it is determined that the pixel having the pixel is included, the gradation value of the pixel other than the pixel is changed based on the threshold value, so that a gradation reproduction process image more faithful to the input image can be obtained.

本発明に係る画像処理装置は、画像データに直交変換を施して空間周波数成分からなるデータを生成し、生成したデータに基づいて画像処理を行う画像処理装置において、前記データを構成する空間周波数成分のうち直流成分の大きさが所定の範囲内にあるか否かを判断する手段と、前記所定の範囲内にないと判断した場合、前記空間周波数の交流成分に対してブルーノイズの特性を有する空間周波数領域のノイズデータを加算し、前記所定の範囲内にあると判断した場合、前記ノイズデータに1より大きな定数を乗じて得られるデータを前記交流成分に加算する手段と、前記ノイズデータ又は該ノイズデータに前記定数を乗じたデータを加算して得られたデータに逆直交変換を施す手段と、前記逆直交変換により得られた画像データの階調数を1又は複数の閾値を用いて減少させる手段とを備えることを特徴とする。 An image processing device according to the present invention generates data composed of spatial frequency components by performing orthogonal transformation on image data, and performs image processing based on the generated data. Means for determining whether or not the magnitude of the DC component is within a predetermined range, and having a blue noise characteristic with respect to the AC component of the spatial frequency when it is determined that the magnitude is not within the predetermined range adding the noise data in the spatial frequency domain, if it is determined that within said predetermined range, and means for adding data obtained by multiplying the constant greater than 1 in the noise data on the AC component, the noise data or and means for performing inverse orthogonal transformation on the data obtained by adding the data obtained by multiplying the constant to the noise data, the gradation of the image data obtained by the inverse orthogonal transform The characterized in that it comprises a means for reducing using one or more thresholds.

本発明にあっては、空間周波数成分の直流成分が所定の範囲内にない場合、交流成分に対して第1のデータを加算し、空間周波数成分の直流成分が所定の範囲内にある場合、加算すべき値を強調した第2のデータを交流成分に加算するようにしているため、階調値が最大値又は最小値となる出力値以外の出力値近傍でのトーンギャップが解消される。   In the present invention, when the direct current component of the spatial frequency component is not within the predetermined range, the first data is added to the alternating current component, and when the direct current component of the spatial frequency component is within the predetermined range, Since the second data emphasizing the value to be added is added to the AC component, the tone gap in the vicinity of the output value other than the output value at which the gradation value becomes the maximum value or the minimum value is eliminated.

本発明にあっては、直流成分が所定の範囲内にある場合に加算する第2のデータは演算により得られる。また、階調値が最大又は最小となる出力値以外の出力値近傍でのトーンギャップが解消される。   In the present invention, the second data to be added when the DC component is within a predetermined range is obtained by calculation. Further, the tone gap in the vicinity of the output value other than the output value at which the gradation value is maximum or minimum is eliminated.

本発明に係る画像処理装置は、前記直交変換を施すべき画像データは、各画素が適宜の階調値を有する複数の画素からなるデータであり、階調値がとり得る値のうち最大又は最小となる階調値を有する画素が前記画像データに含まれているか否かを判断する手段と、最大又は最小となる階調値を有する画素が含まれていると判断した場合、前記画素以外の画素の階調値を前記閾値に基づいて変更する手段とを備えることを特徴とする。   In the image processing apparatus according to the present invention, the image data to be subjected to the orthogonal transformation is data including a plurality of pixels in which each pixel has an appropriate gradation value, and the maximum or minimum value that the gradation value can take Means for determining whether or not a pixel having a gradation value to be included is included in the image data, and if it is determined that a pixel having a maximum or minimum gradation value is included, And means for changing the gradation value of the pixel based on the threshold value.

本発明にあっては、階調値がとり得る値のうち最大又は最小となる階調値を有する画素が画像データに含まれているか否かを判断し、最大又は最小となる階調値を有する画素が含まれていると判断した場合、前記画素以外の画素の階調値を閾値に基づいて変更するようにしているため、より入力画像に忠実な階調再現処理画像が得られる。   In the present invention, it is determined whether or not a pixel having the maximum or minimum gradation value among the possible gradation values is included in the image data, and the maximum or minimum gradation value is determined. When it is determined that the pixel having the pixel is included, the gradation value of the pixel other than the pixel is changed based on the threshold value, so that a gradation reproduction process image more faithful to the input image can be obtained.

本発明に係る画像形成装置は、前述した発明の何れか1つに記載の画像処理装置と、該画像処理装置により得られた画像データに基づいてシート上に画像形成を行う手段とを備えることを特徴とする。   An image forming apparatus according to the present invention includes the image processing apparatus according to any one of the above-described inventions, and a unit that forms an image on a sheet based on image data obtained by the image processing apparatus. It is characterized by.

本発明にあっては、前述した何れかの画像処理装置を備え、この画像処理装置により処理された画像データに基づいてシート上に画像を形成するようにしているため、トーンギャップが解消された画像がシート上に形成される。   In the present invention, since any one of the image processing apparatuses described above is provided and an image is formed on the sheet based on the image data processed by the image processing apparatus, the tone gap is eliminated. An image is formed on the sheet.

本発明に係るコンピュータプログラムは、コンピュータに、画像データに直交変換を施して空間周波数成分からなるデータを生成させ、生成させたデータに基づいて画像処理を行わせるコンピュータプログラムにおいて、コンピュータに、前記データを構成する空間周波数成分のうち直流成分の大きさが所定の範囲内にあるか否かを判断させるステップと、コンピュータに、前記所定の範囲内にないと判断した場合、前記空間周波数成分の交流成分に対してブルーノイズの特性を有する空間周波数領域のノイズデータを加算させるステップと、コンピュータに、前記所定の範囲内にあると判断した場合、前記ノイズデータに1より大きな定数を乗じて得られるデータを前記交流成分に加算させるステップと、コンピュータに、前記ノイズデータ又は該ノイズデータに前記定数を乗じたデータを加算して得られたデータに逆直交変換を施させるステップと、コンピュータに、前記逆直交変換により得られた画像データの階調数を1又は複数の閾値を用いて減少させるステップとを有することを特徴とする。 A computer program according to the present invention is a computer program that causes a computer to perform orthogonal transformation on image data to generate data composed of spatial frequency components, and to perform image processing based on the generated data. And determining whether or not the magnitude of the DC component is within a predetermined range among the spatial frequency components constituting the A, and if the computer determines that the magnitude is not within the predetermined range, the alternating current of the spatial frequency component Obtained by multiplying the noise data by a constant larger than 1 when the computer determines that the noise data is in the predetermined range, and a step of adding noise data in a spatial frequency region having blue noise characteristics to the component. a step of adding data to the AC component, the computer, the Noizude Or the steps that subjected to the inverse orthogonal transformation on the data obtained by multiplying the constant noise data to data obtained by adding, to the computer, the number of gradations of one or more image data obtained by the inverse orthogonal transform And a step of decreasing using a threshold value.

本発明にあっては、空間周波数成分の直流成分が所定の範囲内にない場合、交流成分に対して第1のデータを加算し、空間周波数成分の直流成分が所定の範囲内にある場合、加算すべき値を強調した第2のデータを交流成分に加算するようにしているため、階調値が最大又は最小となる出力値以外の出力値近傍でのトーンギャップが解消される。   In the present invention, when the direct current component of the spatial frequency component is not within the predetermined range, the first data is added to the alternating current component, and when the direct current component of the spatial frequency component is within the predetermined range, Since the second data emphasizing the value to be added is added to the AC component, the tone gap in the vicinity of the output value other than the output value at which the gradation value is maximum or minimum is eliminated.

本発明による場合は、空間周波数成分の直流成分が所定の範囲内にない場合、交流成分に対して第1のデータを加算し、空間周波数成分の直流成分が所定の範囲内にある場合、加算すべき値を強調した第2のデータを交流成分に加算するようにしている。したがって、階調値が最大又は最小となる出力値以外の出力値近傍においてトーンギャップを解消することができる。   According to the present invention, when the DC component of the spatial frequency component is not within the predetermined range, the first data is added to the AC component, and when the DC component of the spatial frequency component is within the predetermined range, the addition is performed. The second data emphasizing the value to be added is added to the AC component. Therefore, the tone gap can be eliminated in the vicinity of the output value other than the output value at which the gradation value is maximum or minimum.

本発明による場合は、直流成分が所定の範囲内にある場合に加算する第2のデータは演算により得られる。また、階調値が最大又は最小となる出力値以外の出力値近傍においてトーンギャップを解消することができる。   According to the present invention, the second data to be added when the DC component is within a predetermined range is obtained by calculation. Further, the tone gap can be eliminated in the vicinity of the output value other than the output value at which the gradation value is maximum or minimum.

本発明による場合は、直流成分が所定の範囲内にある場合に加算する第2のデータは、空間周波数に対して連続的に変化する値を持つ。この場合、強調の方法を緩やかに変化するように変えているので、階調値が最大又は最小となる出力値以外の出力値近傍においてトーンギャップをよりきれいに解消することができる。   According to the present invention, the second data to be added when the DC component is within a predetermined range has a value that continuously changes with respect to the spatial frequency. In this case, since the emphasis method is changed so as to change gradually, the tone gap can be more clearly eliminated in the vicinity of the output value other than the output value at which the gradation value is maximum or minimum.

本発明による場合は、階調値がとり得る値のうち最大又は最小となる階調値を有する画素が画像データに含まれているか否かを判断し、最大又は最小となる階調値を有する画素が含まれていると判断した場合、前記画素以外の画素の階調値を閾値に基づいて変更するようにしている。したがって、より入力画像に忠実な階調再現処理画像を得ることができる。   According to the present invention, it is determined whether or not a pixel having the maximum or minimum gradation value among the possible gradation values is included in the image data, and the maximum or minimum gradation value is obtained. When it is determined that the pixel is included, the gradation value of the pixel other than the pixel is changed based on the threshold value. Therefore, a gradation reproduction processed image that is more faithful to the input image can be obtained.

本発明による場合は、前述した何れかの画像処理装置を備え、この画像処理装置により処理された画像データに基づいてシート上に画像を形成するようにしている。したがって、トーンギャップを解消した画像をシート上に形成することができる。   According to the present invention, any one of the above-described image processing apparatuses is provided, and an image is formed on a sheet based on image data processed by the image processing apparatus. Therefore, an image in which the tone gap is eliminated can be formed on the sheet.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。
実施の形態1.
図1は実施の形態1に係る画像処理装置の構成例を示すブロック図である。図中101は実施の形態1に係る画像処理装置である。この画像処理装置101は、入力画像データPi(X,Y)を記憶する画像データ記憶部1、入力画像データPi(X,Y)を空間周波数成分Qj(S,T)に変換する周波数変換部2、変換された空間周波数成分Qj(S,T)に基づいて直流成分の判定を行う直流成分判定部4、周波数変換部2により出力される空間周波数成分Qj(S,T)に対してノイズデータを加算するノイズ加算部5、ノイズデータが加算された空間周波数成分Qm(S,T)を逆周波数変換して濃度領域の画像データを取得する逆周波数変換部6、逆周波数変換部6が出力する画像データに対して閾値処理を行う閾値処理部7を備えている。
Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof.
Embodiment 1 FIG.
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus according to the first embodiment. In the figure, reference numeral 101 denotes an image processing apparatus according to the first embodiment. The image processing apparatus 101 includes an image data storage unit 1 that stores input image data Pi (X, Y), and a frequency conversion unit that converts the input image data Pi (X, Y) into a spatial frequency component Qj (S, T). 2. DC component determination unit 4 for determining a DC component based on the converted spatial frequency component Qj (S, T), noise with respect to the spatial frequency component Qj (S, T) output by the frequency conversion unit 2 A noise adding unit 5 for adding data, an inverse frequency converting unit 6 for acquiring frequency domain image data by performing inverse frequency conversion on the spatial frequency component Qm (S, T) to which the noise data is added, and an inverse frequency converting unit 6 A threshold processing unit 7 that performs threshold processing on the output image data is provided.

周波数変換部2では、画像データ記憶部1から8×8画素を1ブロックとする画像データ(以下、処理ブロックという)を受取り、直交変換の1つであるDCT変換を行う。DCT変換された空間周波数成分Qj(S,T)はノイズ加算部5へ出力される。以下では、DCT変換された空間周波数成分Qj(S,T)をDCT係数という。ここでは、代表的な離散コサイン変換(DCT:Discrete Cosine Transform)を用いて説明する。離散コサイン変換の式は、入力画像をA、出力画像をB、入力画像Aの行、列のサイズをM、Nとした場合、以下の式で与えられる。   The frequency conversion unit 2 receives image data (hereinafter referred to as a processing block) having 8 × 8 pixels as one block from the image data storage unit 1 and performs DCT conversion, which is one of orthogonal transformations. The DCT-transformed spatial frequency component Qj (S, T) is output to the noise adding unit 5. Hereinafter, the DCT-transformed spatial frequency component Qj (S, T) is referred to as a DCT coefficient. Here, a description will be given using a typical discrete cosine transform (DCT). The expression for the discrete cosine transform is given by the following expression when the input image is A, the output image is B, and the row and column sizes of the input image A are M and N.

Figure 0004549306
Figure 0004549306

本実施の形態では、2次元画像に対して最も左上の画素を含む処理ブロックから、右方向(X方向)に処理ブロック単位でDCT変換を行い、処理ブロック単位でラインを変更しながら最終的に最も右下の画素を含む最終の処理ブロックまでDCT変換を行う。   In the present embodiment, DCT conversion is performed in the processing block unit in the right direction (X direction) from the processing block including the upper left pixel in the two-dimensional image, and finally the line is changed while processing unit is changed. DCT conversion is performed up to the final processing block including the lower right pixel.

直流成分判定部4では、空間周波数成分に変換された処理ブロック単位のデータ内において、直流成分の大きさを判定する。直流成分の大きさは処理ブロック内の平均濃度値を表している。ここで、画像データを8ビット(濃度値:0〜255)とし、0、85、171、255の4値で出力する場合を想定する。この場合、例えば、グラデーションのパターンに対して4値の誤差拡散処理を行うと、出力値が中間の85、171付近でトーンギャップが目立ってしまう。この場合のトーンギャップが目立つ濃度レベルは80から90の間と165から175の間となる。   The DC component determination unit 4 determines the size of the DC component in the processing block unit data converted into the spatial frequency component. The magnitude of the direct current component represents the average density value in the processing block. Here, it is assumed that the image data is 8 bits (density value: 0 to 255) and is output in four values of 0, 85, 171, and 255. In this case, for example, when a four-value error diffusion process is performed on a gradation pattern, a tone gap becomes conspicuous in the vicinity of the intermediate output values 85 and 171. In this case, the density levels where the tone gap is conspicuous are between 80 and 90 and between 165 and 175.

4値出力の誤差拡散処理では、0から255レベルの間の43、128、213の値を閾値として使用し、入力画素の濃度値と閾値とを順次比較しながら、出力値を決定する。出力値は、設定されている0、85、171、255のうちの最も近いレベルが選択されて出力するが、これらの4つのうちのどれかに限定される。誤差拡散処理では、入力値と決定された出力値との差分をとり、定められた周辺の未処理画素へ重み付けを行って、誤差を配分する処理を行う。ここで、入力画素の濃度が極めて低い場合は0レベルの出力値がより多く選択されやすく、濃度が極めて高い場合は、255レベルの出力値がより多く選択される。また、濃度がこれらの間にあり、出力値85や171レベル付近にある場合でも、より近い出力値が選択されるため、85や171レベルがそれぞれ選択されやすくなり、同じ出力レベルが偏る傾向がある。出力値レベルが0と255の場合においては、グラデーションを有する画像の処理を行う場合、0と255レベルのドットの偏りはグラデーション領域の端に位置しているため、目立ちにくい。しかし、中間濃度となる85や171の出力レベルでは、グラデーション領域の中よりに存在するため、同一濃度のドットの偏りは目につきやすい。   In the error diffusion process of quaternary output, values 43, 128, and 213 between 0 and 255 levels are used as threshold values, and the output value is determined while sequentially comparing the density value of the input pixel and the threshold value. As the output value, the closest level of selected 0, 85, 171 and 255 is selected and output, but is limited to any one of these four. In the error diffusion processing, a difference between the input value and the determined output value is calculated, and weighting is performed on the determined peripheral unprocessed pixels to perform error distribution processing. Here, when the density of the input pixel is extremely low, more output values of 0 level are easily selected, and when the density is extremely high, more output values of 255 level are selected. Even if the density is between these values and the output value is in the vicinity of the 85 or 171 level, the closer output value is selected, so the 85 and 171 levels are easily selected, and the same output level tends to be biased. is there. When the output value level is 0 and 255, when processing an image having gradation, the deviation of the 0 and 255 level dots is located at the end of the gradation area, so that it is not noticeable. However, since the output levels of 85 and 171 that are intermediate densities are present in the gradation area, the deviation of dots having the same density is easily noticeable.

ここで、濃度値で表されている画像データを周波数空間に変換すると、0から255までの均一的な濃度の画像データは直流成分では0から2040の値となる。したがって、トーンギャップが起こりうる直流成分の値はおよそ639.2〜720.8、1278.4〜1441.6となる。そこで、ある処理ブロックの直流成分の大きさをDCとした場合、639.2<DC<720.8、又は、1278.4<DC<1441.6の条件を満たす場合、トーンギャップが起こりうる濃度レベルであると判断し、次のノイズ加算部5へノイズを強調して加算する制御信号を出力する。   Here, when the image data represented by the density value is converted into the frequency space, the image data having a uniform density from 0 to 255 has a value of 0 to 2040 in the DC component. Therefore, the values of the direct current component that can cause the tone gap are approximately 639.2 to 720.8 and 1278.4 to 1441.6. Accordingly, when the magnitude of the DC component of a certain processing block is DC, if the condition of 639.2 <DC <720.8 or 1278.4 <DC <1441.6 is satisfied, the density at which a tone gap may occur It is determined that the level is high, and a control signal for enhancing and adding noise is output to the next noise adding unit 5.

次に、ノイズ加算部5について説明する。ノイズ加算部5では、ブルーノイズ特性を持ったノイズ(濃度値で表れたノイズ)をDCT変換などにより空間周波数領域のノイズデータに変換し、その値を周波数変換された画像データ(この場合DCT係数)に加算する。DCT変換された後に正規化されたブルーノイズ特性データは、高周波数領域に大きい値を持つ。空間周波数領域に変換された画像データ、すなわち、DCT係数Qj(S,T)は、処理ブロック単位で処理されており、これらに対応する処理ブロックごとのデータに対して、ブルーノイズ特性データが加算処理される。
ここで、直流成分判定部4より、ノイズを強調する制御信号が送られてきた場合、ノイズ加算部5では、処理ブロック単位で所定の定数を用いてノイズ全体を強調処理する。
Next, the noise adding unit 5 will be described. The noise adding unit 5 converts noise having a blue noise characteristic (noise expressed by a density value) into noise data in a spatial frequency domain by DCT conversion or the like, and converts the value into frequency-converted image data (in this case, a DCT coefficient). ). Blue noise characteristic data normalized after DCT conversion has a large value in a high frequency region. The image data converted into the spatial frequency domain, that is, the DCT coefficient Qj (S, T) is processed in units of processing blocks, and blue noise characteristic data is added to the data for each processing block corresponding to these. It is processed.
Here, when a control signal for emphasizing noise is sent from the DC component determination unit 4, the noise addition unit 5 emphasizes the entire noise using a predetermined constant for each processing block.

このように、ノイズの振幅が強調されて加算されるか、そのまま変更せずに加算されるのかの処理の選択が直流成分判定部4の結果によって切り替えられる。ノイズを強調処理して加算した場合は、結果的にはブルーノイズの振幅を強調したデータになるが、ブルーノイズの特性は保たれており、良好なノイズとして作用する。   In this way, the selection of the processing of whether the noise amplitude is emphasized and added or added without change is switched according to the result of the DC component determination unit 4. When the noise is enhanced and added, the result is data in which the amplitude of the blue noise is enhanced, but the characteristics of the blue noise are maintained and the data acts as good noise.

図2はブルーノイズの一例を示す模式図である。図2の例は強調処理を行わない場合、すなわち、直流成分の大きさが前述した範囲に属さないと判断した場合のブルーノイズ特性データを示しており、処理ブロックと同じ8×8の要素を持つ。強調処理を行う場合、各要素を定数倍し(例えば、定数は1.1)、直流成分の大きさが前述した範囲に属すると判断した場合に加算するブルーノイズ特性データを得る。    FIG. 2 is a schematic diagram showing an example of blue noise. The example of FIG. 2 shows the blue noise characteristic data when the enhancement process is not performed, that is, when it is determined that the magnitude of the DC component does not belong to the above-described range. Have. When performing enhancement processing, each element is multiplied by a constant (for example, the constant is 1.1), and blue noise characteristic data to be added when it is determined that the magnitude of the DC component belongs to the above-described range is obtained.

ブルーノイズの場合、低周波数成分はほとんどゼロに近く、高周波成分に大きい値の成分を持つので、特開2005−50296号公報で示されているように、DCT係数の変更を行う変更領域と変更しない非変更領域とを分ける必要はなく、処理ブロックのDCT係数にブルーノイズを加算することができる。また、ブルーノイズを加算するので、元のデータが損失することなく画像の劣化を抑えることができる。加算処理されたデータは次の逆周波数変換部6へ出力される。   In the case of blue noise, the low frequency component is almost zero, and the high frequency component has a large value component. Therefore, as shown in Japanese Patent Application Laid-Open No. 2005-50296, the change region for changing the DCT coefficient is changed. There is no need to divide the non-changed area, and blue noise can be added to the DCT coefficient of the processing block. In addition, since blue noise is added, image degradation can be suppressed without losing the original data. The added data is output to the next inverse frequency converter 6.

逆周波数変換部6は、ノイズ加算部5から送られてきた空間周波数領域のデータを濃度領域データ(画像データ)に変換する処理を行う。本実施の形態では、直交変換としてDCT変換を用いているため、その逆直交変換として逆DCT変換を行う。2次元の逆DCT変換は式1の逆変換で与えられる。高周波数領域のデータに主にブルーノイズ特性のノイズが加算されているので、元の画像データに与える影響を最小限に抑えて、ドットの配置を変更できる。   The inverse frequency conversion unit 6 performs processing for converting the spatial frequency domain data sent from the noise addition unit 5 into density region data (image data). In this embodiment, since the DCT transformation is used as the orthogonal transformation, the inverse DCT transformation is performed as the inverse orthogonal transformation. The two-dimensional inverse DCT transform is given by the inverse transform of Equation 1. Since the noise of the blue noise characteristic is mainly added to the data in the high frequency region, the dot arrangement can be changed while minimizing the influence on the original image data.

閾値処理部7は、逆周波数変換部6から受け取った濃度領域データ(画像データ)Pn(X,Y)を複数の閾値を用いて、多値の濃度データ(出力画像データ)Po(X,Y)に変換する。例えば、4値出力の場合は、3つの閾値を用いて、
0<Pn(X,Y)≦42 ならば、Po(X,Y)=0、
42<Pn(X,Y)≦127 ならば、Po(X,Y)=85、
127<Pn(X,Y)≦212 ならば、Po(X,Y)=171、
212<Pn(X,Y)≦255 ならば、Po(X,Y)=255
に変換する。
The threshold processing unit 7 uses the plurality of threshold values for the density area data (image data) Pn (X, Y) received from the inverse frequency conversion unit 6, and multi-value density data (output image data) Po (X, Y). ). For example, in the case of quaternary output, using three threshold values,
If 0 <Pn (X, Y) ≦ 42, then Po (X, Y) = 0,
If 42 <Pn (X, Y) ≦ 127, Po (X, Y) = 85,
If 127 <Pn (X, Y) ≦ 212, Po (X, Y) = 171,
If 212 <Pn (X, Y) ≦ 255, Po (X, Y) = 255
Convert to

このようにして、画像データ記憶部1に格納された入力画像データPi(X,Y)は、空間周波数領域に変換された後、最適なノイズが加算され、逆変換され、最終的に閾値処理により、全画素について階調数が4値などに減少された出力画像データPo(X,Y)となる。   In this way, the input image data Pi (X, Y) stored in the image data storage unit 1 is converted into the spatial frequency domain, and then the optimum noise is added and inversely converted. As a result, the output image data Po (X, Y) in which the number of gradations is reduced to four values or the like for all pixels is obtained.

実施の形態2.
実施の形態1では、ノイズ強調処理を行う場合、その強調の度合いを一定としたが、DC成分の大きさに応じて可変としてもよい。例えば、DC成分の大きさに対して緩やかに強調レベルを変化させることにより、よりトーンギャップの目立たない綺麗なグラデーションパターンを得ることができる。
Embodiment 2. FIG.
In the first embodiment, when noise enhancement processing is performed, the degree of enhancement is constant, but may be variable according to the magnitude of the DC component. For example, a beautiful gradation pattern with less noticeable tone gap can be obtained by gradually changing the enhancement level with respect to the magnitude of the DC component.

図3は実施の形態2に係る画像処理装置の構成例を示すブロック図である。実施の形態2に係る画像処理装置102は、実施の形態1で説明した画像データ記憶部1、周波数変換部2、直流成分判定部4、ノイズ加算部5、逆周波数変換部6、閾値処理部7の他に、ゲイン設定部8を備えている。   FIG. 3 is a block diagram illustrating a configuration example of the image processing apparatus according to the second embodiment. The image processing apparatus 102 according to the second embodiment includes the image data storage unit 1, the frequency conversion unit 2, the DC component determination unit 4, the noise addition unit 5, the inverse frequency conversion unit 6, and the threshold processing unit described in the first embodiment. 7, a gain setting unit 8 is provided.

ゲイン設定部8は、直流成分判定部4でノイズ強調処理が必要とされた場合、強調レベルを可変に設定する。図4はゲイン設定部8による強調レベルを説明するグラフである。縦軸は強調レベルを表し、横軸はDC成分の大きさを表している。ある処理ブロックの直流成分の大きさをDCとした場合、639.2<DC<720.8、又は、1278.4<DC<1441.6の条件を満たす場合、トーンギャップが起こりうる濃度レベルであると判断し、次のノイズ加算部5へノイズ強調して加算する制御信号を出力する。上記のDCの判定条件は滑らかなグラデーション画像が得られるように調整される。   The gain setting unit 8 sets the enhancement level variably when the DC component determination unit 4 requires noise enhancement processing. FIG. 4 is a graph for explaining the emphasis level by the gain setting unit 8. The vertical axis represents the enhancement level, and the horizontal axis represents the magnitude of the DC component. When the magnitude of the DC component of a certain processing block is DC, when the condition of 639.2 <DC <720.8 or 1278.4 <DC <1441.6 is satisfied, the tone level is a density level at which a tone gap can occur. It is determined that there is, and a control signal to be added with noise enhancement is output to the next noise adding unit 5. The DC determination condition is adjusted so that a smooth gradation image is obtained.

この場合の強調レベルの大きさはDC成分の大きさに依存しており、図に示したグラフのように、DC成分の値に対して徐々に強調レベルを増大して、ちょうど出力値レベル付近で最大値を取り、出力値レベル以降は徐々に強調レベルを減少させてゆく。すなわち、緩やかな曲線を描くようなノイズ強調レベルを可変にした処理を行う。   In this case, the magnitude of the enhancement level depends on the magnitude of the DC component, and as shown in the graph, the enhancement level is gradually increased with respect to the value of the DC component, just around the output value level. The maximum value is taken with, and the emphasis level is gradually reduced after the output value level. In other words, processing is performed in which the noise enhancement level is variable so as to draw a gentle curve.

このように、本実施の形態では、なだらかにノイズの振幅を強調することによって、ノイズ振幅の強調を行わない所とノイズ振幅を行う所との境界のギャップを解消することができ、よりトーンギャップの目立たない綺麗なグラデーションパターンを提供することができる。   As described above, in this embodiment, by gently emphasizing the amplitude of the noise, the gap at the boundary between the portion where the noise amplitude is not emphasized and the portion where the noise amplitude is performed can be eliminated. It is possible to provide a beautiful gradation pattern that is inconspicuous.

実施の形態3.
実施の形態1では、直流成分判定部4により判定結果に基づいてノイズ強調処理を行うか否かを行う構成としたが、処理ブロックがエッジ成分の特徴を有するか否かの判定を行い、その結果に基づいて処理ブロック内の所定の周波数成分の強調処理または平滑化処理を行う手法と組み合わせてもよい。
Embodiment 3 FIG.
In the first embodiment, the DC component determination unit 4 is configured to determine whether or not to perform noise enhancement processing based on the determination result. However, it is determined whether or not the processing block has the feature of the edge component. You may combine with the method of performing the emphasis process or smoothing process of the predetermined frequency component in a processing block based on a result.

図5は実施の形態3に係る画像処理装置の構成例を示すブロック図である。実施の形態3に係る画像処理装置103は、実施の形態1で説明した画像データ記憶部1、周波数変換部2、直流成分判定部4、ノイズ加算部5、逆周波数変換部6、閾値処理部7の他に、周波数成分判定部3および変更部24を備えている。   FIG. 5 is a block diagram illustrating a configuration example of the image processing apparatus according to the third embodiment. The image processing apparatus 103 according to the third embodiment includes the image data storage unit 1, the frequency conversion unit 2, the DC component determination unit 4, the noise addition unit 5, the inverse frequency conversion unit 6, and the threshold processing unit described in the first embodiment. 7, a frequency component determination unit 3 and a change unit 24 are provided.

周波数成分判定部3は、空間周波数成分に変換された夫々の処理ブロック内において、直流成分の近傍の位置における空間周波数成分の大きさを判定する。図6は判定手法を説明する説明図である。この説明図では、空間周波数成分に変換された後の処理ブロック(8×8画素)を模式的に示している。左上の位置を直流成分(DC成分)とし、それ以外は交流成分(AC成分)と呼ぶ。周波数成分判定部3はDC成分の近傍の位置における周波数成分を表すDCT係数の絶対値の大きさを求め、少なくとも一つがある所定の値より大きいか、小さいかを判定する。   The frequency component determination unit 3 determines the size of the spatial frequency component at a position near the DC component in each processing block converted to the spatial frequency component. FIG. 6 is an explanatory diagram for explaining the determination method. In this explanatory diagram, a processing block (8 × 8 pixels) after being converted into a spatial frequency component is schematically shown. The upper left position is a direct current component (DC component), and the rest is called an alternating current component (AC component). The frequency component determination unit 3 obtains the magnitude of the absolute value of the DCT coefficient representing the frequency component at a position near the DC component, and determines whether at least one is larger or smaller than a predetermined value.

例えば、DC成分の位置での座標をQ11(y1,x1)、その位置での成分(係数)の大きさをA、右隣の位置での座標をQ12(y1,x1+1)、その位置での成分の大きさをB、更にその右隣の位置での座標をQ13(y1,x1+2)、その位置での成分の大きさをC、一行下がって左側から同様に、Q21(y1+1,x1)、その位置での成分の大きさをD、右隣の位置での座標をQ22(y1+1,x1+1)、その位置での成分の大きさをE、更に右隣の位置での座標をQ23(y1+1,x1+2)、その位置での成分の大きさをF、更に一行下がって同様に、Q31(y1+2,x1)、その位置での成分の大きさをG、右隣の位置での座標をQ33(y1+2,x1+1)、その位置での成分の大きさをH、更に右隣での位置をQ33(y1+2,x1+2)、その位置での成分の大きさをIで表し、所定の値をα(正の定数)とした場合、以下の条件式で判定する。
|B|>α、又は、|C|>α、又は、|D|>α、又は、|E|>α、又は、|F|>α、|G|>α、又は、|H|>α、又は、|I|>α
For example, the coordinate at the position of the DC component is Q11 (y1, x1), the magnitude of the component (coefficient) at that position is A, the coordinate at the right adjacent position is Q12 (y1, x1 + 1), and The size of the component is B, the coordinate at the position immediately to the right is Q13 (y1, x1 + 2), the size of the component at that position is C, and Q21 (y1 + 1, x1) in the same manner from the left side down one row. The component size at that position is D, the coordinate at the right adjacent position is Q22 (y1 + 1, x1 + 1), the component size at that position is E, and the coordinate at the right adjacent position is Q23 (y1 + 1, x1 + 2), the magnitude of the component at that position is F, and further down one line, similarly, Q31 (y1 + 2, x1), the magnitude of the component at that position is G, and the coordinate at the right adjacent position is Q33 (y1 + 2) , X1 + 1), the size of the component at that position is H, and further to the right Position Q33 (y1 + 2, x1 + 2) in, determines the magnitude of the component at that position expressed in I, when a predetermined value of the alpha (positive constant), the following conditional expression.
| B |> α or | C |> α or | D |> α or | E |> α or | F |> α, | G |> α or | H |> α or | I |> α

この条件が成立するか否かを判断基準とし、判定データを変更部24へ出力する。なお、所定の正の定数であるαは任意に設定できるものとし、αの設定値が小さい場合は、処理ブロックはエッジを含むと判定しやすくなり、αの設定値が大きい場合はエッジを含むと判定しにくくなる。ここでは、一つの例としてα=64を設定している。このαを設定しておくことにより、これらの処理ブロック単位でそれぞれ濃度領域での画像がエッジ成分を含んでいるか否かの判定材料として使用する。上記の条件式が成立すればフラグを立てたデータ1を出力し、不成立の場合、フラグを立てないデータ0を処理ブロック毎に順次出力する。なお、周波数変換部2において周波数変換された画像データはそのまま変更部24に入力される。   Whether or not this condition is satisfied is used as a determination criterion, and determination data is output to the changing unit 24. Note that α, which is a predetermined positive constant, can be arbitrarily set. When the set value of α is small, it is easy to determine that the processing block includes an edge, and when the set value of α is large, the edge is included. It becomes difficult to judge. Here, α = 64 is set as an example. By setting this α, it is used as a material for determining whether or not an image in the density region includes an edge component in each processing block unit. If the above conditional expression is satisfied, data 1 with a flag set is output, and if not satisfied, data 0 without a flag set is sequentially output for each processing block. The image data frequency-converted by the frequency converting unit 2 is input to the changing unit 24 as it is.

本実施の形態では、DC成分に隣接する6つの係数を用いて判定を行う構成としたが、判定に用いる周波数成分の所定の位置は、ハードウェアの条件が許すのであれば、低周波数領域内でさらに広い範囲まで広げておいてもよい。   In the present embodiment, the determination is performed using six coefficients adjacent to the DC component. However, the predetermined position of the frequency component used for the determination is within the low frequency region if the hardware condition permits. It may be expanded to a wider range.

変更部24は、DCT係数Qj(S,T)に対し、処理ブロック単位で変更処理を行う。変更処理は処理ブロック内の全てのDCT係数に対して行うのではなく、処理ブロック内の8×8のDCT係数のうち、所定のDCT係数に対してのみ行う。   The changing unit 24 changes the DCT coefficient Qj (S, T) in units of processing blocks. The change process is not performed for all DCT coefficients in the processing block, but only for a predetermined DCT coefficient among the 8 × 8 DCT coefficients in the processing block.

図7はDCT係数の変更を行う領域の一例を示す模式図である。図7は周波数成分判定部3により、フラグ1のデータ、すなわち、処理ブロックがエッジ領域を含んでいると判定されたデータが送られてきた場合での変更領域を示している。変更領域の設定は、例えば、変更部24または図示しない制御部に予め設定されている。   FIG. 7 is a schematic diagram showing an example of a region where the DCT coefficient is changed. FIG. 7 shows the change area when the data of the flag 1, that is, the data determined that the processing block includes the edge area is sent by the frequency component determination unit 3. The change area is set in advance in the change unit 24 or a control unit (not shown), for example.

次に、DCT係数の変更方法について説明する。フラグが1の場合、図7に示した変更領域の成分(垂直方向のみの周波数成分、水平方向のみの周波数成分、及び両者の交点の位置にある周波数成分)に対して所定の定数を乗算させる。このとき、それぞれ周波数成分の位置による位置情報を利用する。変更領域以外の成分に関してはデータ変更は行わない。   Next, a method for changing the DCT coefficient will be described. When the flag is 1, the change area component shown in FIG. 7 (the frequency component only in the vertical direction, the frequency component only in the horizontal direction, and the frequency component at the intersection of both) is multiplied by a predetermined constant. . At this time, position information based on the position of each frequency component is used. Data is not changed for components other than the change region.

周波数成分判定部3によってエッジを含む処理ブロックであると判定された処理ブロックにおいて、処理ブロック内の8×8画素において、それぞれの位置から順に、
(1,1)、(1,2)、(1,3)、(1,4)、(1,5)、(1,6)、(1,7)、(1,8)
(2,1)、(2,2)、(2,3)、(2,4)、(2,5)、(2,6)、(2,7)、(2,8)
(3,1)、(3,2)、(3,3)、(3,4)、(3,5)、(3,6)、(3,7)、(3,8)
(4,1)、(4,2)、(4,3)、(4,4)、(4,5)、(4,6)、(4,7)、(4,8)
(5,1)、(5,2)、(5,3)、(5,4)、(5,5)、(5,6)、(5,7)、(5,8)
(6,1)、(6,2)、(6,3)、(6,4)、(6,5)、(6,6)、(6,7)、(6,8)
(7,1)、(7,2)、(7,3)、(7,4)、(7,5)、(7,6)、(7,7)、(7,8)
(8,1)、(8,2)、(8,3)、(8,4)、(8,5)、(8,6)、(8,7)、(8,8)
と設定した場合、これらの行番号と列番号とをそれぞれ加算した値をその処理位置での位置情報データとして設定する。例えば、(1,1)の場合の位置情報データは2(=1+1)、(1,2)の場合の位置情報データは3(=1+2)、(1,8)の場合の位置情報データは9(=1+8)、(2,1)の場合の位置情報データは3(=2+1)、(8,1)の場合の位置情報データは9(=8+1)となる。図8は変更領域における位置情報データを示す模式図である。
In the processing block determined by the frequency component determination unit 3 as a processing block including an edge, in the 8 × 8 pixels in the processing block, from the respective positions in order,
(1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (1,7), (1,8)
(2,1), (2,2), (2,3), (2,4), (2,5), (2,6), (2,7), (2,8)
(3,1), (3,2), (3,3), (3,4), (3,5), (3,6), (3,7), (3,8)
(4,1), (4,2), (4,3), (4,4), (4,5), (4,6), (4,7), (4,8)
(5,1), (5,2), (5,3), (5,4), (5,5), (5,6), (5,7), (5,8)
(6,1), (6,2), (6,3), (6,4), (6,5), (6,6), (6,7), (6,8)
(7,1), (7,2), (7,3), (7,4), (7,5), (7,6), (7,7), (7,8)
(8,1), (8,2), (8,3), (8,4), (8,5), (8,6), (8,7), (8,8)
In this case, a value obtained by adding the row number and the column number is set as position information data at the processing position. For example, the position information data in the case of (1, 1) is 2 (= 1 + 1), the position information data in the case of (1, 2) is 3 (= 1 + 2), and the position information data in the case of (1, 8) is The position information data in the case of 9 (= 1 + 8) and (2, 1) is 3 (= 2 + 1), and the position information data in the case of (8, 1) is 9 (= 8 + 1). FIG. 8 is a schematic diagram showing position information data in the change area.

次いで、変更領域における周波数データに対して、それぞれの位置に対する位置情報データと所定の定数を乗算することによって変換処理を行う。すなわち、変更領域においては、(変更後の周波数成分データ)=(変更前の周波数成分データ)×(位置情報データ)×(定数)となる。   Next, conversion processing is performed on the frequency data in the change region by multiplying the position information data for each position by a predetermined constant. That is, in the change region, (frequency component data after change) = (frequency component data before change) × (position information data) × (constant).

エッジを含むブロックと判定された場合、例えば、1行3列のデータについては変更処理を行うため、Qk(1,3)=Qj(1,3)×(1+3)×0.35となり、2行3列のデータについては変更処理を行わないため、Qk(2,3)=Qj(2,3)となる。この例では、変更処理に用いる定数を0.35としたが、必ずしも0.35である必要はなく、ある微小な値で強調されるような値であればよい。また、この値によって強調されるため、エッジが強調されすぎないかどうかなどの全体のバランスを考慮し、実際の印字サンプルなどを用いて画質の評価を行いながら決定すると良い。このような処理を行った場合でも、DC成分はそのままなので、処理ブロック全体の平均濃度は、ほぼ維持される。   If it is determined that the block includes an edge, for example, Qk (1,3) = Qj (1,3) × (1 + 3) × 0.35 is obtained because change processing is performed on data in 1 row and 3 columns. Since the change process is not performed for the data in row 3 column, Qk (2,3) = Qj (2,3). In this example, the constant used for the changing process is set to 0.35. However, the constant is not necessarily 0.35, and may be a value that is emphasized by a small value. In addition, since it is emphasized by this value, it may be determined while evaluating the image quality using an actual print sample in consideration of the overall balance such as whether or not the edge is excessively emphasized. Even when such processing is performed, since the DC component remains as it is, the average density of the entire processing block is substantially maintained.

一方、周波数成分判定部3からフラグ0のデータが送られてきた場合、この処理ブロックはエッジ成分を含んでいないと判定し、この場合、変更部24での処理は平滑化処理となる。平滑化処理に関しては、視覚特性を利用したCSF関数やガウス特性を持った関数を利用したスムージング処理となる。それぞれの変更処理がなされた画像データは、次のノイズ加算部5へデータを転送される。   On the other hand, when flag 0 data is sent from the frequency component determination unit 3, it is determined that this processing block does not include an edge component. In this case, the processing in the changing unit 24 is smoothing processing. The smoothing process is a smoothing process using a CSF function using visual characteristics or a function having Gaussian characteristics. The image data that has been subjected to the respective change processes is transferred to the next noise adding unit 5.

ノイズ加算部5、逆周波数変換部6、及び閾値処理部7で実行する処理内容は、実施の形態1と全く同様である。   The processing contents executed by the noise adding unit 5, the inverse frequency converting unit 6, and the threshold processing unit 7 are exactly the same as those in the first embodiment.

なお、本実施の形態においても、実施の形態2で説明したゲイン設定部8を直流成分判定部4とノイズ加算部5との間に設ける構成としてもよい。   In the present embodiment, the gain setting unit 8 described in the second embodiment may be provided between the DC component determination unit 4 and the noise addition unit 5.

実施の形態4.
図9は実施の形態4に係る画像処理装置の構成例を示すブロック図である。実施の形態4に係る画像処理装置104は、実施の形態1で説明した画像データ記憶部1、周波数変換部2、直流成分判定部4、ノイズ加算部5、逆周波数変換部6、閾値処理部7の他に、バッファ部10を備えている。
Embodiment 4 FIG.
FIG. 9 is a block diagram illustrating a configuration example of the image processing apparatus according to the fourth embodiment. The image processing apparatus 104 according to the fourth embodiment includes the image data storage unit 1, the frequency conversion unit 2, the DC component determination unit 4, the noise addition unit 5, the inverse frequency conversion unit 6, and the threshold processing unit described in the first embodiment. 7, a buffer unit 10 is provided.

バッファ部10は一時的にデータをラインバッファに入れておき、入力画像データが255又は0である場合に、その位置でのデータ情報を閾値処理部7へ出力する。   The buffer unit 10 temporarily stores data in the line buffer, and when the input image data is 255 or 0, the data information at that position is output to the threshold processing unit 7.

閾値処理部7はバッファ部10から送られてきたデータ情報を基に、逆周波数変換されたデータを閾値処理する際、閾値に拘わらず0又は255のデータに変換する。   Based on the data information sent from the buffer unit 10, the threshold processing unit 7 converts the data subjected to inverse frequency conversion into 0 or 255 data regardless of the threshold.

これらの処理により、閾値処理された後の画像においても、より入力画像に忠実な階調再現画像を得ることができる。
なお、実施の形態2で説明したゲイン設定部8、実施の形態3で説明した周波数成分判定部3及び変更部24を更に備える構成であってもよい。
With these processes, it is possible to obtain a gradation reproduction image that is more faithful to the input image even in the image after the threshold processing.
The configuration may further include the gain setting unit 8 described in the second embodiment, the frequency component determination unit 3 and the changing unit 24 described in the third embodiment.

実施の形態5.
この実施の形態では本発明に係る画像形成装置について説明する。図10は本実施の形態に係る画像形成装置の構成例を示すブロック図である。この画像形成装置300は、デジタルカラー複写機、デジタルカラー複合機として動作する。画像形成装置300は、カラー画像入力装置30、カラー画像処理装置31、カラー画像出力装置32、及び操作パネル33を備える。また、画像形成装置300は、カラー画像入力装置30、カラー画像処理装置31、カラー画像出力装置32の各装置を制御するための制御部(不図示)を備えている。
Embodiment 5 FIG.
In this embodiment, an image forming apparatus according to the present invention will be described. FIG. 10 is a block diagram illustrating a configuration example of the image forming apparatus according to the present embodiment. The image forming apparatus 300 operates as a digital color copying machine or a digital color multifunction peripheral. The image forming apparatus 300 includes a color image input device 30, a color image processing device 31, a color image output device 32, and an operation panel 33. The image forming apparatus 300 includes a control unit (not shown) for controlling each of the color image input device 30, the color image processing device 31, and the color image output device 32.

カラー画像入力装置30は、例えば、CCD(Charge Coupled Device)を備えており、原稿からの反射光像がCCDにより読取られ、RGB(R : Red, G : Green, B : Blue)のアナログ信号が生成される。生成されたRGBアナログ信号は、カラー画像処理装置31へ出力される。   The color image input device 30 includes, for example, a CCD (Charge Coupled Device), and a reflected light image from an original is read by the CCD, and RGB (R: Red, G: Green, B: Blue) analog signals are output. Generated. The generated RGB analog signal is output to the color image processing device 31.

カラー画像処理装置31は、A/D変換部311、シェーディング補正部312、入力階調補正部313、領域分離処理部314、色補正部315、黒生成下色除去部316、空間フィルタ処理部317、出力階調補正部318、階調再現処理部319を備える。階調再現処理部319は、実施の形態1〜4で説明した画像処理装置101〜104と同様の処理を行う。   The color image processing apparatus 31 includes an A / D conversion unit 311, a shading correction unit 312, an input tone correction unit 313, a region separation processing unit 314, a color correction unit 315, a black generation and under color removal unit 316, and a spatial filter processing unit 317. An output tone correction unit 318 and a tone reproduction processing unit 319. The gradation reproduction processing unit 319 performs processing similar to that of the image processing apparatuses 101 to 104 described in the first to fourth embodiments.

カラー画像処理装置31は、カラー画像入力装置30から受取ったRGBアナログ信号をRGBデジタル信号に変換し、補正処理などの種々の画像処理を行い、CMYK(C : Cyan, M : Magenta, Y : Yellow, K : Black)のデジタルカラー信号を生成し、生成したCMYKデジタル信号の階調数を2値又は4値などに減少させる。2値化又は4値化などされた出力画像データは、図示しない記憶手段に一時的に記憶され、所定のタイミングでカラー画像出力装置32に出力される。   The color image processing device 31 converts the RGB analog signal received from the color image input device 30 into an RGB digital signal, performs various image processing such as correction processing, and performs CMYK (C: Cyan, M: Magenta, Y: Yellow). , K: Black), and the number of gradations of the generated CMYK digital signal is reduced to binary or quaternary. The binarized or quaternarized output image data is temporarily stored in a storage unit (not shown), and is output to the color image output device 32 at a predetermined timing.

A/D変換部311は、カラー画像入力装置30からRGBアナログ信号を受取り、受取ったRGBアナログ信号をRGBデジタル信号に変換し、シェーディング補正部312に送る。シェーディング補正部312は、A/D変換部311から受取ったRGBデジタル信号に対して、カラー画像入力装置30の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を行った後、入力階調補正部313に送る。入力階調補正部313は、シェーディング補正部312から受取ったRGBデジタル信号(RGBの反射率信号)に対して、カラーバランスを整えると共に、カラー画像処理装置31に採用されている画像処理システムが処理しやすい濃度信号に変換し、領域分離処理部314へ送る。   The A / D conversion unit 311 receives the RGB analog signal from the color image input device 30, converts the received RGB analog signal into an RGB digital signal, and sends the RGB digital signal to the shading correction unit 312. The shading correction unit 312 performs processing for removing various distortions generated in the illumination system, the imaging system, and the imaging system of the color image input device 30 on the RGB digital signal received from the A / D conversion unit 311. This is sent to the input tone correction unit 313. The input tone correction unit 313 adjusts the color balance for the RGB digital signal (RGB reflectance signal) received from the shading correction unit 312 and is processed by the image processing system employed in the color image processing device 31. It is converted into a density signal that can be easily processed and sent to the region separation processing unit 314.

領域分離処理部314は、入力階調補正部313から受取ったRGBデジタル信号の画像内の各画素を、文字領域、網点領域、写真領域の何れかに分離し、分離結果に基づいて、画素がどの領域に属しているかを示す領域識別信号を色補正部315、黒生成下色除去部316、空間フィルタ処理部317及び階調再現処理部319へ出力する。また、入力階調補正部313から受取ったRGBデジタル信号は、そのまま色補正部315に送られる。   The region separation processing unit 314 separates each pixel in the image of the RGB digital signal received from the input tone correction unit 313 into one of a character region, a halftone dot region, and a photograph region, and based on the separation result, the pixel Is output to the color correction unit 315, the black generation and under color removal unit 316, the spatial filter processing unit 317, and the gradation reproduction processing unit 319. The RGB digital signal received from the input tone correction unit 313 is sent to the color correction unit 315 as it is.

色補正部315は、色再現を忠実に行うために入力階調補正部313から送られたRGBデジタル信号を、CMY信号に変換すると共に、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行った後、黒生成下色除去部316に送る。黒生成下色除去部316は、色補正部315から受取ったCMY信号の3色の信号(C信号、M信号、Y信号)から黒の信号(K信号)を生成する黒生成処理を行い、元のCMY信号から黒生成処理で得たK信号を差し引いて新たなCMY信号を生成し、CMYKの4色信号(CMYK信号)を空間フィルタ処理部317に送る。   The color correction unit 315 converts the RGB digital signal sent from the input tone correction unit 313 into a CMY signal in order to perform color reproduction faithfully, and based on the spectral characteristics of the CMY color material including unnecessary absorption components. After the process of removing the color turbidity, it is sent to the black generation and under color removal unit 316. The black generation and under color removal unit 316 performs black generation processing for generating a black signal (K signal) from the three color signals (C signal, M signal, and Y signal) of the CMY signal received from the color correction unit 315, A new CMY signal is generated by subtracting the K signal obtained by the black generation process from the original CMY signal, and a CMYK four-color signal (CMYK signal) is sent to the spatial filter processing unit 317.

一般的な黒生成処理として、スケルトンブラックにより黒生成を行う方法がある。この方法では、スケルトンカーブの入出力特性をy=f(x)、入力されるデータをC,M,Y、出力されるデータをC’,M’,Y’,K’、UCR率(UCR : Under Color Removal)をα(0<α<1)とすると、
K’=f{min(C,M,Y)}
C’=C−αK’
M’=M−αK’
Y’=Y−αK’
で表される。
As a general black generation process, there is a method of generating black using skeleton black. In this method, the input / output characteristic of the skeleton curve is y = f (x), the input data is C, M, Y, the output data is C ′, M ′, Y ′, K ′, the UCR rate (UCR) : Under Color Removal) α (0 <α <1)
K ′ = f {min (C, M, Y)}
C ′ = C−αK ′
M ′ = M−αK ′
Y ′ = Y−αK ′
It is represented by

空間フィルタ処理部317は、黒生成下色除去部316から受取ったCMYK信号の画像に対し、領域識別信号に基づいてデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正して画像のぼやけ又は粒状性劣化を改善する処理などを行う。また、出力階調補正部318は、出力階調補正処理などを行い、階調再現処理部319は、領域識別信号に基づいて、CMYK信号の画像データに対して所定の処理を行う。   The spatial filter processing unit 317 performs spatial filter processing using a digital filter on the image of the CMYK signal received from the black generation and under color removal unit 316 and corrects the spatial frequency characteristics to correct blur or Perform processing to improve graininess degradation. The output tone correction unit 318 performs output tone correction processing and the like, and the tone reproduction processing unit 319 performs predetermined processing on the image data of the CMYK signal based on the region identification signal.

例えば、領域分離処理部314によって文字として分離された領域は、特に黒文字又は色文字の再現性を高めるために、空間フィルタ処理部317が行う空間フィルタ処理に含まれる鮮鋭強調処理により高周波数の強調量を大きくする。また、階調再現処理部319は、高域周波数の再現に適した高解像度の2値化または多値化処理を行う。   For example, a region separated as a character by the region separation processing unit 314 is emphasized at a high frequency by a sharp enhancement process included in the spatial filter processing performed by the spatial filter processing unit 317 in order to improve the reproducibility of black characters or color characters. Increase the amount. Further, the gradation reproduction processing unit 319 performs high-resolution binarization or multilevel conversion suitable for high-frequency reproduction.

また、領域分離処理部314によって網点として分離された領域に関しては、空間フィルタ処理部317において、入力網点成分を除去するためのローパス・フィルタ処理が行われる。そして、出力階調補正部318では、濃度信号などの信号をカラー画像出力装置32の特性値である網点面積率に変換する出力階調補正処理が行われ、階調再現処理部319においては、最終的に画像を画素に分離してそれぞれの階調を再現できるように2値化又は多値化する階調再現処理(中間調生成)が行われる。更に、領域分離処理部314によって写真に分離された領域に関しては、階調再現処理部319において、階調再現性を重視した2値化又は多値化が行われる。   Further, with respect to the regions separated as halftone dots by the region separation processing unit 314, the spatial filter processing unit 317 performs low-pass filter processing for removing the input halftone component. The output tone correction unit 318 performs output tone correction processing for converting a signal such as a density signal into a halftone dot area ratio that is a characteristic value of the color image output device 32, and the tone reproduction processing unit 319 performs processing. Then, gradation reproduction processing (halftone generation) is performed so that the image is finally separated into pixels and binarized or multi-valued so that each gradation can be reproduced. Further, regarding the region separated into the photograph by the region separation processing unit 314, the gradation reproduction processing unit 319 performs binarization or multi-value conversion with emphasis on gradation reproducibility.

階調再現処理部319で2値化又は多値化処理されたCMYK信号(画像データ)は、カラー画像出力装置32に送られる。カラー画像出力装置32は、カラー画像処理装置31から受取ったCMYK信号に基づいて、紙などの記録媒体上に画像を形成する装置である。例えば、電子写真方式又はインクジェット方式のカラー画像出力装置を用いることができる。   The CMYK signal (image data) that has been binarized or multi-valued by the gradation reproduction processing unit 319 is sent to the color image output device 32. The color image output device 32 is a device that forms an image on a recording medium such as paper based on the CMYK signal received from the color image processing device 31. For example, an electrophotographic or inkjet color image output device can be used.

操作パネル33は、オペレータがキー操作などにより指示入力を行うための入力手段である。オペレータの指示は、制御信号として、操作パネル33からカラー画像入力装置30、カラー画像処理装置31及びカラー画像出力装置32へ出力される。オペレータの指示により、カラー画像入力装置30で原稿画像が読取られ、カラー画像処理装置31によりデータ処理後に、カラー画像出力装置32によって記録媒体上に画像が形成され、デジタルカラー複写機として機能する。以上の処理は図示しない制御部により制御される。   The operation panel 33 is an input means for an operator to input an instruction by a key operation or the like. An operator instruction is output as a control signal from the operation panel 33 to the color image input device 30, the color image processing device 31, and the color image output device 32. According to an operator's instruction, an original image is read by the color image input device 30, and after data processing by the color image processing device 31, an image is formed on a recording medium by the color image output device 32, thereby functioning as a digital color copying machine. The above processing is controlled by a control unit (not shown).

実施の形態6.
実施の形態1〜実施の形態5では、本発明に係る画像処理装置及び画像形成装置について説明したが、コンピュータにインストールするプリンタドライバ(コンピュータプログラム)により本発明を実現する構成であってもよい。
Embodiment 6 FIG.
In the first to fifth embodiments, the image processing apparatus and the image forming apparatus according to the present invention have been described. However, the present invention may be implemented by a printer driver (computer program) installed in a computer.

図11は本実施の形態の画像形成システムの構成例を示すブロック図である。この画像形成システム400は、コンピュータ40及びプリンタ41を備える。プリンタ41は、通常のプリンタ機能に加えて、コピー機能、ファクシミリ機能を有するデジタル複合機であってもよい。また、プリンタ41は、電子写真方式又はインクジェット方式の画像形成を行う。   FIG. 11 is a block diagram illustrating a configuration example of the image forming system according to the present embodiment. The image forming system 400 includes a computer 40 and a printer 41. The printer 41 may be a digital multifunction machine having a copy function and a facsimile function in addition to a normal printer function. Further, the printer 41 performs electrophotographic or inkjet image formation.

コンピュータ40には、スキャナ、デジタルカメラなどの画像入力装置が取得した画像データが入力され、図示しない記憶装置に記憶される。コンピュータ40に入力された画像データは、各種のアプリケーションプログラムを実行して加工・編集等を行うことが可能である。また、コンピュータ40には、プリンタ41へ出力する画像データを生成するためのプリンタドライバ42がインストールされている。このプリンタドライバ42は、画像データの色補正処理を行う色補正部45、出力画像データの階調数(例えば、256階調)を2値又は4値などに減少させる閾値処理を行う階調再現処理部46、及び出力画像データのプリンタ言語への変換を行うプリンタ言語翻訳部47として動作する。色補正部45では、黒生成下色除去処理なども行われる。階調再現処理部46において実行する処理は、実施の形態1〜4で説明した画像処理装置101〜104が実行する処理に相当する。プリンタ言語翻訳部47でプリンタ言語に変換されたデータは、RS232C、LAN等の通信ポート44を介してプリンタ41へ出力される。   Image data acquired by an image input device such as a scanner or a digital camera is input to the computer 40 and stored in a storage device (not shown). The image data input to the computer 40 can be processed and edited by executing various application programs. Further, a printer driver 42 for generating image data to be output to the printer 41 is installed in the computer 40. The printer driver 42 includes a color correction unit 45 that performs color correction processing of image data, and gradation reproduction that performs threshold processing to reduce the number of gradations (for example, 256 gradations) of output image data to two values or four values. It operates as a processing unit 46 and a printer language translation unit 47 that converts output image data into a printer language. The color correction unit 45 also performs black generation and under color removal processing. The processing executed in the gradation reproduction processing unit 46 corresponds to the processing executed by the image processing apparatuses 101 to 104 described in the first to fourth embodiments. The data converted into the printer language by the printer language translation unit 47 is output to the printer 41 via the communication port 44 such as RS232C or LAN.

実施の形態7.
実施の形態6では、プリンタドライバ42をインストールしたコンピュータ40により本発明に係る画像処理装置を実現する構成としたが、このようなコンピュータプログラムをFD、CD−ROMなどの記録媒体により提供し、記録媒体から読取ったコンピュータプログラムを実行して本発明に係る画像処理方法を実現する構成としてもよい。
Embodiment 7 FIG.
In the sixth embodiment, the image processing apparatus according to the present invention is realized by the computer 40 in which the printer driver 42 is installed. However, such a computer program is provided by a recording medium such as an FD or a CD-ROM and recorded. The image processing method according to the present invention may be realized by executing a computer program read from a medium.

図12は本実施の形態に係る画像形成システムの構成例を説明するブロック図である。この画像形成システム500は、実施の形態6と同様にコンピュータ50とプリンタ41を備えている。コンピュータ50はCPU51を備えており、このCPU51が、RAM52、ハードディスク53、通信ポート54、外部記憶部55、入力部56、表示部57などのハードウェア各部を制御する。   FIG. 12 is a block diagram illustrating a configuration example of the image forming system according to the present embodiment. The image forming system 500 includes a computer 50 and a printer 41 as in the sixth embodiment. The computer 50 includes a CPU 51, and this CPU 51 controls each part of hardware such as a RAM 52, a hard disk 53, a communication port 54, an external storage unit 55, an input unit 56, and a display unit 57.

RAM52は、CPU51が前述したハードウェア各部を制御する際に生成される各種データを一時的に記憶する揮発性の記憶手段である。ハードディスク53は、処理前及び処理後の画像データなどを記憶する不揮発性の記憶手段である。通信ポート54は、プリンタ41を接続するためのポートであり、接続されているプリンタ41に出力用の画像データを送信すると共に、プリンタ41から通知される情報を受信する通信手段として機能する。   The RAM 52 is a volatile storage unit that temporarily stores various data generated when the CPU 51 controls the above-described hardware units. The hard disk 53 is a nonvolatile storage unit that stores image data before processing and after processing. The communication port 54 is a port for connecting the printer 41, and functions as a communication unit that transmits image data for output to the connected printer 41 and receives information notified from the printer 41.

外部記憶部55は、本発明のコンピュータプログラムを記録した記録媒体60からコンピュータプログラムを読取るための読取装置を備えている。記録媒体60としては、FD、CD−ROM等を用いることができる。外部記憶部55を通じて読取られたコンピュータはハードディスク53に記憶される。   The external storage unit 55 includes a reading device for reading the computer program from the recording medium 60 on which the computer program of the present invention is recorded. As the recording medium 60, an FD, a CD-ROM, or the like can be used. The computer read through the external storage unit 55 is stored in the hard disk 53.

入力部56は、処理対象となる画像データの選択、画像処理に必要なパラメータの入力、画像処理の開始指示等を受付けるために、キーボード、マウス等の入力手段を備える。表示部57は、液晶ディスプレイ、CRTディスプレイを備えており、各種操作に必要なインストラクション、処理前の画像データ、処理後の画像データ等を表示する。   The input unit 56 includes input means such as a keyboard and a mouse in order to select image data to be processed, input parameters necessary for image processing, an instruction to start image processing, and the like. The display unit 57 includes a liquid crystal display and a CRT display, and displays instructions necessary for various operations, image data before processing, image data after processing, and the like.

なお、本発明に係るコンピュータプログラムを記録する記録媒体60としては、前述したFD及びCD−ROMの他に、MO、MD、DVD等の光ディスク、ハードディスクのような磁気記録媒体、ICカード、メモリカード、光カード等のカード型記録媒体、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリの利用も可能である。また、通信手段を通じて不図示の外部サーバからダウンロードする構成であってもよい。   As the recording medium 60 for recording the computer program according to the present invention, in addition to the above-mentioned FD and CD-ROM, optical recording medium such as MO, MD, DVD, magnetic recording medium such as hard disk, IC card, memory card Further, it is also possible to use a semiconductor memory such as a card-type recording medium such as an optical card, a mask ROM, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), a flash ROM, or the like. Moreover, the structure which downloads from an external server not shown through a communication means may be sufficient.

以下、コンピュータ50の動作について説明する。図13はコンピュータ50が実行する処理の手順を説明するフローチャートである。ここでは、DCTによる周波数変換処理を行って4値出力画像を生成する処理手順について説明する。処理対象の画像データ、この画像データに加算するノイズデータ等は、ハードディスク53に記憶されており、処理を行う際にRAM52上に読込まれ、CPU51により利用されるものとする。まず、CPU51は、RAM52に読込まれた画像データから8×8画素の処理ブロックの読出しを行い(ステップS101)、読出した処理ブロックについてDCT処理を施すことにより、画像データを空間周波数成分のデータに変換する(ステップS102)。   Hereinafter, the operation of the computer 50 will be described. FIG. 13 is a flowchart for explaining a procedure of processing executed by the computer 50. Here, a processing procedure for generating a quaternary output image by performing frequency conversion processing by DCT will be described. Image data to be processed, noise data to be added to the image data, and the like are stored in the hard disk 53, read into the RAM 52 when used for processing, and used by the CPU 51. First, the CPU 51 reads out an 8 × 8 pixel processing block from the image data read into the RAM 52 (step S101), and performs DCT processing on the read processing block, thereby converting the image data into spatial frequency component data. Conversion is performed (step S102).

次いで、CPU51は、処理ブロックのDC成分が所定の範囲内に属しているか否かを判断する(ステップS111)。処理ブロックのDC成分が所定の範囲内に属していると判断した場合(S111:YES)、CPU51は、ノイズの振幅強調処理を実行する(ステップS112)。ノイズの振幅強調処理では、実施の形態1で説明したように予め用意してあるノイズデータ(ブルーノイズ)に定数を乗じて新たなノイズデータを生成する処理、又は実施の形態2で説明したように、DC成分の大きさに依存させてノイズの振幅強度を変化させる処理を行う。   Next, the CPU 51 determines whether or not the DC component of the processing block belongs within a predetermined range (step S111). When it is determined that the DC component of the processing block belongs to the predetermined range (S111: YES), the CPU 51 executes noise amplitude enhancement processing (step S112). In the noise amplitude enhancement process, as described in the first embodiment, the noise data (blue noise) prepared in advance is multiplied by a constant to generate new noise data, or as described in the second embodiment. In addition, a process of changing the amplitude intensity of the noise is performed depending on the magnitude of the DC component.

処理ブロックのDC成分が所定の範囲内に属していないと判断した場合(S111:NO)、予め用意してあるノイズデータ(ブルーノイズ)を加算し、処理ブロックのDC成分が所定の範囲内に属していると判断した場合(S111:YES)、ステップS112で振幅強調されたノイズデータを加算するノイズ加算処理をCPU51が実行する(ステップS116)。   When it is determined that the DC component of the processing block does not belong within the predetermined range (S111: NO), noise data (blue noise) prepared in advance is added, and the DC component of the processing block falls within the predetermined range. If it is determined that they belong (S111: YES), the CPU 51 executes a noise addition process for adding the noise data whose amplitude is emphasized in step S112 (step S116).

ノイズ加算処理を実行した後、CPU51は、逆DCT処理を実行し、空間周波数領域のデータを濃度領域のデータに変換する(ステップS117)。そして、閾値処理を行い、4値出力画像を得る(ステップS118)。4値出力画像を得るために3つの閾値を設定しておく必要があるが、これらの閾値は、記録媒体60から読み取るコンピュータプログラム内のパラメータとして設定しておくとよい。   After executing the noise addition processing, the CPU 51 executes inverse DCT processing to convert the spatial frequency domain data into density domain data (step S117). Then, threshold processing is performed to obtain a quaternary output image (step S118). Although it is necessary to set three threshold values in order to obtain a four-value output image, these threshold values may be set as parameters in a computer program read from the recording medium 60.

次いで、CPU51は、全処理ブロックに対する処理が終了したか否かを判断し(ステップS119)、終了していないと判断した場合(S119:NO)、CPU51は、処理をステップS101へ戻す。また、全処理ブロックに対する処理が終了したと判断した場合(S119:YES)、CPU51は、本フローチャートによる処理を終了する。   Next, the CPU 51 determines whether or not the processing has been completed for all the processing blocks (step S119). If it is determined that the processing has not ended (S119: NO), the CPU 51 returns the processing to step S101. If it is determined that the processing for all the processing blocks has been completed (S119: YES), the CPU 51 ends the processing according to this flowchart.

実施の形態8.
実施の形態7では、直流成分の大きさに基づいてノイズ加算処理を行う構成としたが、実施の形態3と同様に、所定の周波数成分の強調処理または平滑化処理と組み合わせてノイズ加算処理を実行する構成であってもよい。なお、本実施の形態での画像処理方法を実現するためのハードウェア構成は実施の形態7で説明したものと同様である。すなわち、記録媒体60から本発明のコンピュータプログラムを読取り、それをRAM52上にロードしてCPU51が実行することにより、本実施の形態に係る画像処理方法を実現する。
Embodiment 8 FIG.
In the seventh embodiment, the noise addition processing is performed based on the magnitude of the DC component. However, as in the third embodiment, the noise addition processing is combined with the enhancement processing or smoothing processing of a predetermined frequency component. It may be configured to execute. Note that the hardware configuration for realizing the image processing method in the present embodiment is the same as that described in the seventh embodiment. In other words, the computer program of the present invention is read from the recording medium 60, loaded onto the RAM 52, and executed by the CPU 51, thereby realizing the image processing method according to the present embodiment.

図14はコンピュータ50が実行する処理の手順を説明するフローチャートである。実施の形態7と同様に、処理対象の画像データ、この画像データに加算するノイズデータ等は、ハードディスク53に記憶されており、処理を行う際にRAM52上に読込まれるものとする。まず、CPU51は、RAM52に読込まれた画像データから8×8画素の処理ブロックの読出しを行い(ステップS101)、読出した処理ブロックについてDCT処理を施すことにより、画像データを周波数成分のデータに変換する(ステップS102)。   FIG. 14 is a flowchart for explaining a procedure of processing executed by the computer 50. As in the seventh embodiment, it is assumed that image data to be processed, noise data to be added to the image data, and the like are stored in the hard disk 53 and read onto the RAM 52 when processing is performed. First, the CPU 51 reads an 8 × 8 pixel processing block from the image data read into the RAM 52 (step S101), and performs DCT processing on the read processing block to convert the image data into frequency component data. (Step S102).

次いで、CPU51は、所定の周波数成分のDCT係数の大きさが所定値より大きいか否かを判断する(ステップS103)。所定の周波数成分のDCT係数の大きさが所定値より大きいと判断した場合(S103:YES)、CPU101は、予め定めた定数と位置情報とを乗算する変更処理を行う(ステップS104)。また、所定の周波数成分のDCT係数の大きさが所定値以下であると判断した場合(S103:NO)、人間の視覚特性等を利用した周波数変更処理を行う(ステップS105)。   Next, the CPU 51 determines whether or not the magnitude of the DCT coefficient of the predetermined frequency component is larger than a predetermined value (step S103). When determining that the magnitude of the DCT coefficient of the predetermined frequency component is larger than the predetermined value (S103: YES), the CPU 101 performs a changing process of multiplying a predetermined constant and position information (step S104). If it is determined that the magnitude of the DCT coefficient of the predetermined frequency component is equal to or smaller than the predetermined value (S103: NO), a frequency changing process using human visual characteristics or the like is performed (step S105).

次いで、CPU51は、処理ブロックのDC成分が所定の範囲内に属しているか否かを判断する(ステップS111)。処理ブロックのDC成分が所定の範囲内に属していると判断した場合(S111:YES)、CPU51は、ノイズの振幅強調処理を実行する(ステップS112)。ノイズの振幅強調処理では、実施の形態1で説明したように予め用意してあるノイズデータ(ブルーノイズ)に定数を乗じて新たなノイズデータを生成する処理、又は実施の形態2で説明したように、DC成分の大きさに依存させてノイズの振幅強度を変化させる処理を行う。   Next, the CPU 51 determines whether or not the DC component of the processing block belongs within a predetermined range (step S111). When it is determined that the DC component of the processing block belongs to the predetermined range (S111: YES), the CPU 51 executes noise amplitude enhancement processing (step S112). In the noise amplitude enhancement process, as described in the first embodiment, the noise data (blue noise) prepared in advance is multiplied by a constant to generate new noise data, or as described in the second embodiment. In addition, a process of changing the amplitude intensity of the noise is performed depending on the magnitude of the DC component.

処理ブロックのDC成分が所定の範囲内に属していないと判断した場合(S111:NO)、予め用意してあるノイズデータ(ブルーノイズ)を加算し、処理ブロックのDC成分が所定の範囲内に属していると判断した場合(S111:YES)、ステップS112で振幅強調されたノイズデータを加算するノイズ加算処理をCPU51が実行する(ステップS116)。   When it is determined that the DC component of the processing block does not belong within the predetermined range (S111: NO), noise data (blue noise) prepared in advance is added, and the DC component of the processing block falls within the predetermined range. If it is determined that they belong (S111: YES), the CPU 51 executes a noise addition process for adding the noise data whose amplitude is emphasized in step S112 (step S116).

ノイズ加算処理を実行した後、CPU51は、逆DCT処理を実行し、空間周波数領域のデータを濃度領域のデータに変換する(ステップS117)。そして、閾値処理を行い、4値出力画像を得る(ステップS118)。4値出力画像を得るために3つの閾値を設定しておく必要があるが、これらの閾値は、記録媒体60から読取るコンピュータプログラム内のパラメータとして設定しておくとよい。   After executing the noise addition processing, the CPU 51 executes inverse DCT processing to convert the spatial frequency domain data into density domain data (step S117). Then, threshold processing is performed to obtain a quaternary output image (step S118). In order to obtain a four-value output image, it is necessary to set three threshold values. These threshold values may be set as parameters in a computer program read from the recording medium 60.

次いで、CPU51は、全処理ブロックに対する処理が終了したか否かを判断し(ステップS119)、終了していないと判断した場合(S119:NO)、CPU51は、処理をステップS101へ戻す。また、全処理ブロックに対する処理が終了したと判断した場合(S119:YES)、CPU51は、本フローチャートによる処理を終了する。   Next, the CPU 51 determines whether or not the processing has been completed for all the processing blocks (step S119). If it is determined that the processing has not ended (S119: NO), the CPU 51 returns the processing to step S101. If it is determined that the processing for all the processing blocks has been completed (S119: YES), the CPU 51 ends the processing according to this flowchart.

実施の形態9.
実施の形態7及び実施の形態8では、4値出力画像を得るために3つの閾値を用いて閾値処理を行う構成としたが、実施の形態4と同様に、逆DCT処理後の画像データについて階調値が0又は255となる画素が含まれているか否かを判断し、含まれている場合にはその階調値を保持する構成としてもよい。なお、ハードウェア構成は実施の形態7で説明したものと同様である。すなわち、記録媒体60から本発明のコンピュータプログラムを読取り、それをRAM52上にロードしてCPU51が実行することにより、本実施の形態に係る画像処理方法を実現する。
Embodiment 9 FIG.
In the seventh embodiment and the eighth embodiment, the threshold value processing is performed using three threshold values in order to obtain a four-value output image. However, as in the fourth embodiment, the image data after the inverse DCT processing is used. It may be determined whether or not a pixel having a gradation value of 0 or 255 is included, and if included, the gradation value is retained. The hardware configuration is the same as that described in the seventh embodiment. In other words, the computer program of the present invention is read from the recording medium 60, loaded onto the RAM 52, and executed by the CPU 51, thereby realizing the image processing method according to the present embodiment.

図15はコンピュータ50が実行する処理の手順を説明するフローチャートである。なお、本フローチャートにより説明する処理は、図13及び図14で説明したステップS118の閾値処理に代えて実行されるものである。CPU51は、逆DCT処理後の処理ブロックに含まれる各画素の階調値が0又は255であるか否かを判断する(ステップS201)。対象の画素の階調値が0又は255であると判断した場合(S201:YES)、処理ブロック内の同じ画素の位置では、閾値に拘わらず階調値を0又は255とする(ステップS202)。   FIG. 15 is a flowchart for explaining a procedure of processing executed by the computer 50. Note that the processing described with reference to this flowchart is executed instead of the threshold processing in step S118 described with reference to FIGS. The CPU 51 determines whether or not the gradation value of each pixel included in the processing block after the inverse DCT process is 0 or 255 (step S201). When it is determined that the gradation value of the target pixel is 0 or 255 (S201: YES), the gradation value is set to 0 or 255 regardless of the threshold value at the same pixel position in the processing block (step S202). .

一方、対象の画素の階調値が0及び255でないと判断した場合(S201:NO)、通常の閾値処理を行う(ステップS203)。すなわち、4値を出力とする場合、3つの閾値を設定しておき、これらの閾値と対象の画素の階調値との大小関係を判定し、その判定結果に基づいて4つの階調値に分類する。   On the other hand, when it is determined that the gradation value of the target pixel is not 0 or 255 (S201: NO), normal threshold processing is performed (step S203). That is, when four values are output, three threshold values are set, the magnitude relationship between these threshold values and the gradation value of the target pixel is determined, and the four gradation values are determined based on the determination result. Classify.

次いで、CPU51は、全画素について処理が終了したか否かを判断し(ステップS204)、全画素について処理が終了していないと判断した場合(S204:NO)、処理をステップS201へ戻し、全画素について処理が終了したと判断した場合(S204:YES)、本フローチャートによる処理を終了する。   Next, the CPU 51 determines whether or not processing has been completed for all pixels (step S204). If it is determined that processing has not been completed for all pixels (S204: NO), the process returns to step S201, and all the pixels are processed. If it is determined that the process has been completed for the pixel (S204: YES), the process according to this flowchart is terminated.

これらの処理により、閾値処理された後の画像においても、より入力画像に忠実な階調再現画像を得ることができる。   With these processes, it is possible to obtain a gradation reproduction image that is more faithful to the input image even in the image after the threshold processing.

実施の形態1に係る画像処理装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image processing apparatus according to a first embodiment. ブルーノイズの一例を示す模式図である。It is a schematic diagram which shows an example of blue noise. 実施の形態2に係る画像処理装置の構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of an image processing device according to Embodiment 2. FIG. ゲイン設定部による強調レベルを説明するグラフである。It is a graph explaining the emphasis level by a gain setting part. 実施の形態3に係る画像処理装置の構成例を示すブロック図である。10 is a block diagram illustrating a configuration example of an image processing apparatus according to Embodiment 3. FIG. 判定手法を説明する説明図である。It is explanatory drawing explaining the determination method. DCT係数の変更を行う領域の一例を示す模式図である。It is a schematic diagram which shows an example of the area | region which changes a DCT coefficient. 変更領域における位置情報データを示す模式図である。It is a schematic diagram which shows the positional information data in a change area | region. 実施の形態4に係る画像処理装置の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of an image processing device according to a fourth embodiment. 本実施の形態に係る画像形成装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image forming apparatus according to an exemplary embodiment. 本実施の形態の画像形成システムの構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image forming system according to an embodiment. 本実施の形態に係る画像形成システムの構成例を説明するブロック図である。1 is a block diagram illustrating a configuration example of an image forming system according to an embodiment. コンピュータが実行する処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the process which a computer performs. コンピュータが実行する処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the process which a computer performs. コンピュータが実行する処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the process which a computer performs. 16階調の画像を2値化するディザ法に用いられる4×4のディザマトリクスの一例を示す模式図である。It is a schematic diagram which shows an example of the 4x4 dither matrix used for the dither method which binarizes a 16 gradation image. 誤差拡散法に用いられる重み係数マトリクスの一例を示す模式図である。It is a schematic diagram which shows an example of the weighting coefficient matrix used for the error diffusion method.

符号の説明Explanation of symbols

1 画像データ記憶部
2 周波数変換部
3 周波数成分判定部
4 直流成分判定部
5 ノイズ加算部
6 逆周波数変換部
7 閾値処理部
8 ゲイン設定部
10 バッファ部
101,102,103,104 画像処理装置
DESCRIPTION OF SYMBOLS 1 Image data memory | storage part 2 Frequency conversion part 3 Frequency component determination part 4 DC component determination part 5 Noise addition part 6 Inverse frequency conversion part 7 Threshold processing part 8 Gain setting part 10 Buffer part 101,102,103,104 Image processing apparatus

Claims (6)

画像データに直交変換を施して空間周波数成分からなるデータを生成し、生成したデータに基づいて画像処理を行う画像処理方法において、
前記データを構成する空間周波数成分のうち直流成分の大きさが所定の範囲内にあるか否かを判断するステップと、前記所定の範囲内にないと判断した場合、前記空間周波数成分の交流成分に対してブルーノイズの特性を有する空間周波数領域のノイズデータを加算するステップと、前記所定の範囲内にあると判断した場合、前記ノイズデータに1より大きな定数を乗じて得られるデータを前記交流成分に加算するステップと、前記ノイズデータ又は該ノイズデータに前記定数を乗じたデータを加算して得られたデータに逆直交変換を施すステップと、前記逆直交変換により得られた画像データの階調数を1又は複数の閾値を用いて減少させるステップとを有することを特徴とする画像処理方法。
In an image processing method of performing orthogonal transformation on image data to generate data composed of spatial frequency components and performing image processing based on the generated data,
The step of determining whether or not the magnitude of the DC component of the spatial frequency components constituting the data is within a predetermined range, and the AC component of the spatial frequency component when it is determined that it is not within the predetermined range Adding noise data in the spatial frequency domain having blue noise characteristics to the data, and determining that the noise data is within the predetermined range, the data obtained by multiplying the noise data by a constant larger than 1 is used as the AC Adding to the component; performing inverse orthogonal transformation on the noise data or data obtained by multiplying the noise data by the constant; and stepping the image data obtained by the inverse orthogonal transformation. Reducing the logarithm using one or more thresholds.
前記直交変換を施すべき画像データは、各画素が適宜の階調値を有する複数の画素からなるデータであり、階調値がとり得る値のうち最大又は最小となる階調値を有する画素が前記画像データに含まれているか否かを判断するステップと、最大又は最小となる階調値を有する画素が含まれていると判断した場合、前記画素以外の画素の階調値を前記閾値に基づいて変更するステップとを有することを特徴とする請求項1に記載の画像処理方法。   The image data to be subjected to the orthogonal transformation is data composed of a plurality of pixels in which each pixel has an appropriate gradation value, and a pixel having a maximum or minimum gradation value among values that the gradation value can take. A step of determining whether or not the pixel is included in the image data; and if it is determined that a pixel having a maximum or minimum gradation value is included, the gradation value of a pixel other than the pixel is set as the threshold value. The image processing method according to claim 1, further comprising a step of changing based on the step. 画像データに直交変換を施して空間周波数成分からなるデータを生成し、生成したデータに基づいて画像処理を行う画像処理装置において、
前記データを構成する空間周波数成分のうち直流成分の大きさが所定の範囲内にあるか否かを判断する手段と、前記所定の範囲内にないと判断した場合、前記空間周波数の交流成分に対してブルーノイズの特性を有する空間周波数領域のノイズデータを加算し、前記所定の範囲内にあると判断した場合、前記ノイズデータに1より大きな定数を乗じて得られるデータを前記交流成分に加算する手段と、前記ノイズデータ又は該ノイズデータに前記定数を乗じたデータを加算して得られたデータに逆直交変換を施す手段と、前記逆直交変換により得られた画像データの階調数を1又は複数の閾値を用いて減少させる手段とを備えることを特徴とする画像処理装置。
In an image processing apparatus that performs orthogonal transformation on image data to generate data composed of spatial frequency components, and performs image processing based on the generated data,
Among the spatial frequency components constituting the data, a means for determining whether or not the magnitude of the direct current component is within a predetermined range, and when determining that the direct current component is not within the predetermined range, On the other hand, when noise data in the spatial frequency region having blue noise characteristics is added and it is determined that the noise data is within the predetermined range, data obtained by multiplying the noise data by a constant larger than 1 is added to the AC component. Means for performing inverse orthogonal transformation on the noise data or data obtained by adding the noise data multiplied by the constant, and the number of gradations of the image data obtained by the inverse orthogonal transformation. An image processing apparatus comprising: means for decreasing using one or a plurality of threshold values.
前記直交変換を施すべき画像データは、各画素が適宜の階調値を有する複数の画素からなるデータであり、階調値がとり得る値のうち最大又は最小となる階調値を有する画素が前記画像データに含まれているか否かを判断する手段と、最大又は最小となる階調値を有する画素が含まれていると判断した場合、前記画素以外の画素の階調値を前記閾値に基づいて変更する手段とを備えることを特徴とする請求項3に記載の画像処理装置。   The image data to be subjected to the orthogonal transformation is data composed of a plurality of pixels in which each pixel has an appropriate gradation value, and a pixel having a maximum or minimum gradation value among values that the gradation value can take. In the case where it is determined that a pixel having a maximum or minimum gradation value is included and means for determining whether or not the image data is included, the gradation value of a pixel other than the pixel is set as the threshold value. The image processing apparatus according to claim 3, further comprising a changing unit based on the image processing unit. 請求項3又は請求項4に記載の画像処理装置と、該画像処理装置により得られた画像データに基づいてシート上に画像形成を行う手段とを備えることを特徴とする画像形成装置。   An image forming apparatus comprising: the image processing apparatus according to claim 3; and means for forming an image on a sheet based on image data obtained by the image processing apparatus. コンピュータに、画像データに直交変換を施して空間周波数成分からなるデータを生成させ、生成させたデータに基づいて画像処理を行わせるコンピュータプログラムにおいて、
コンピュータに、前記データを構成する空間周波数成分のうち直流成分の大きさが所定の範囲内にあるか否かを判断させるステップと、コンピュータに、前記所定の範囲内にないと判断した場合、前記空間周波数成分の交流成分に対してブルーノイズの特性を有する空間周波数領域のノイズデータを加算させるステップと、コンピュータに、前記所定の範囲内にあると判断した場合、前記ノイズデータに1より大きな定数を乗じて得られるデータを前記交流成分に加算させるステップと、コンピュータに、前記ノイズデータ又は該ノイズデータに前記定数を乗じたデータを加算して得られたデータに逆直交変換を施させるステップと、コンピュータに、前記逆直交変換により得られた画像データの階調数を1又は複数の閾値を用いて減少させるステップとを有することを特徴とするコンピュータプログラム。
In a computer program for causing a computer to perform orthogonal transformation on image data to generate data composed of spatial frequency components, and to perform image processing based on the generated data,
A step of causing a computer to determine whether or not a magnitude of a direct current component among spatial frequency components constituting the data is within a predetermined range; and when the computer determines that the magnitude is not within the predetermined range, A step of adding noise data of a spatial frequency region having blue noise characteristics to an alternating current component of the spatial frequency component, and if the computer determines that the noise data is within the predetermined range, a constant greater than 1 is added to the noise data Adding the data obtained by multiplying the AC component to the AC component, and causing the computer to perform inverse orthogonal transformation on the noise data or the data obtained by adding the noise data multiplied by the constant ; The computer reduces the number of gradations of the image data obtained by the inverse orthogonal transformation using one or more threshold values. Computer program, characterized in that a step.
JP2006075442A 2006-03-17 2006-03-17 Image processing method, image processing apparatus, image forming apparatus, and computer program Active JP4549306B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006075442A JP4549306B2 (en) 2006-03-17 2006-03-17 Image processing method, image processing apparatus, image forming apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006075442A JP4549306B2 (en) 2006-03-17 2006-03-17 Image processing method, image processing apparatus, image forming apparatus, and computer program

Publications (2)

Publication Number Publication Date
JP2007251825A JP2007251825A (en) 2007-09-27
JP4549306B2 true JP4549306B2 (en) 2010-09-22

Family

ID=38595611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006075442A Active JP4549306B2 (en) 2006-03-17 2006-03-17 Image processing method, image processing apparatus, image forming apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP4549306B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5111412B2 (en) * 2009-02-27 2013-01-09 株式会社日立製作所 Image display apparatus and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015614A (en) * 2002-06-10 2004-01-15 Konica Minolta Holdings Inc Image processing apparatus and method therefor
JP2005050296A (en) * 2003-07-11 2005-02-24 Sharp Corp Image processing method, image processor, image forming device, computer program, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015614A (en) * 2002-06-10 2004-01-15 Konica Minolta Holdings Inc Image processing apparatus and method therefor
JP2005050296A (en) * 2003-07-11 2005-02-24 Sharp Corp Image processing method, image processor, image forming device, computer program, and recording medium

Also Published As

Publication number Publication date
JP2007251825A (en) 2007-09-27

Similar Documents

Publication Publication Date Title
JP4381360B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4173154B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2008227759A (en) Image processing device, image forming device, image processing method, image processing program, and computer readable recording medium
JP4107059B2 (en) Image processing method and image processing apparatus
US7692817B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program product and computer memory product for carrying out image processing by transforming image data to image data having spatial frequency components
US6160921A (en) Error diffusion with homogeneous distribution in highlight and shadow regions
JP6976824B2 (en) Image processing equipment, image processing methods, and programs
JP4783566B2 (en) System and method for processing color image data
JP4596964B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4549306B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP2010278933A (en) Image processing device, image forming device, image processing method, program and recording medium
JP2008306400A (en) Image processing method, image processing device, image forming apparatus, computer program, and record medium
JP2005182824A (en) Method for processing image data
JP2006155572A (en) Image processor, image forming device, image processing method and computer program
JP6778401B2 (en) Image processing device, image forming device, image processing method and image processing program
JP4067538B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4404457B2 (en) Halftoning method, halftoning apparatus, and computer-readable recording medium on which halftoning program is recorded
JP4148443B2 (en) Image forming apparatus
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JPH11346311A (en) Gradation reproduction method
JP3813146B2 (en) Image processing apparatus, image processing method, image forming apparatus, computer program, and recording medium
JP4027300B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4499685B2 (en) Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium
JP4386870B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2006033643A (en) Image processing apparatus, image forming apparatus, image processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100514

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100706

R150 Certificate of patent or registration of utility model

Ref document number: 4549306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3