JP2015103952A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2015103952A
JP2015103952A JP2013242889A JP2013242889A JP2015103952A JP 2015103952 A JP2015103952 A JP 2015103952A JP 2013242889 A JP2013242889 A JP 2013242889A JP 2013242889 A JP2013242889 A JP 2013242889A JP 2015103952 A JP2015103952 A JP 2015103952A
Authority
JP
Japan
Prior art keywords
pixel
image data
value
pixels
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013242889A
Other languages
Japanese (ja)
Other versions
JP6226717B2 (en
Inventor
藤本 昭宏
Akihiro Fujimoto
昭宏 藤本
石川 尚
Takashi Ishikawa
尚 石川
裕司 原
Yuji Hara
裕司 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013242889A priority Critical patent/JP6226717B2/en
Priority to US14/297,026 priority patent/US9749496B2/en
Publication of JP2015103952A publication Critical patent/JP2015103952A/en
Application granted granted Critical
Publication of JP6226717B2 publication Critical patent/JP6226717B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a result of halftone processing of high image quality free from deterioration in image quality by reducing jaggy and Moire in systematic dithering, without increase in circuit scale.SOLUTION: AM screening and gamma conversion are applied to an input image. Gamma-converted pixel values are used as pixels corresponding to the boundary pixels of the input image, and screened pixel values are used as pixels corresponding to pixels other than the boundary pixels.

Description

本発明は、多値画像データにハーフトーン処理を行う画像処理装置に関する。   The present invention relates to an image processing apparatus that performs halftone processing on multivalued image data.

デジタル化した画像データをレーザービームプリンタ等のデジタルプリンタから出力して画像を再現するデジタル画像処理装置が広く普及している。このデジタル画像処理装置においては、中間調を再現する場合、AM(Amplitude Modulation振幅変調:ドットの面積で階調を再現)スクリーンなどを用いたハーフトーン処理により階調再現を行う方法が一般に採用されている。   Digital image processing apparatuses that output digitized image data from a digital printer such as a laser beam printer to reproduce an image are widely used. In this digital image processing apparatus, when reproducing halftones, a method is generally adopted in which gradation reproduction is performed by halftone processing using an AM (Amplitude Modulation: Reproduction of gradation by dot area) screen or the like. ing.

このような方法は、平坦部のように高周波成分が少ない部分においては良好である。しかしながら、網点のように周期的なパターンで構成されている画像や文字・細線部においては、AMスクリーンが持つ周期と入力画像に含まれる高周波成分(特にAMスクリーンの周期に近い周期的パターン)とが干渉する。この結果、モアレと呼ばれる周期的な縞模様が発生するという課題があった。また、AMスクリーンを用いると表現可能な空間解像度が低下するために、エッジ部はジャギーと呼ばれる階段状に配置されたドットで表現されてしまうという課題があった。   Such a method is good in a portion with a small high-frequency component such as a flat portion. However, in images and characters / thin lines that are composed of periodic patterns such as halftone dots, the period of the AM screen and the high-frequency components included in the input image (especially the periodic pattern close to the period of the AM screen) Interfere with. As a result, there is a problem that a periodic striped pattern called moire occurs. In addition, when the AM screen is used, the spatial resolution that can be expressed is lowered, so that the edge portion is expressed by dots arranged in a step shape called jaggy.

これに対し特許文献1では、画像に対して異なる複数のスクリーンを用いてそれぞれスクリーン処理を行い、画像の特徴解析結果に基づいてスクリーン処理の合成比率を決定し、合成処理した画像を出力する方法が開示されている。また、特許文献2では、入力画像のエッジ判定部により、エッジ部と非エッジ部とで異なるスクリーン処理を施す方法が開示されている。   On the other hand, in Patent Document 1, a screen process is performed using a plurality of different screens for an image, a composition ratio of the screen process is determined based on an image feature analysis result, and a composite-processed image is output. Is disclosed. Further, Patent Document 2 discloses a method of performing different screen processing between an edge portion and a non-edge portion by an edge determination unit of an input image.

特開2010−74627号公報JP 2010-74627 A 特開2010−245591号公報JP 2010-245591 A

特許文献1及び特許文献2で開示された方法では、異なる複数のスクリーン処理を行う処理手段と画像の特徴解析を行うための解析手段を備える必要があり、回路規模が増大するという課題がある。また、混合された画素や切替部の画素が目立ってしまい、画質劣化と視認される可能性があった。   In the methods disclosed in Patent Literature 1 and Patent Literature 2, it is necessary to include processing means for performing a plurality of different screen processes and analysis means for performing image feature analysis, and there is a problem that the circuit scale increases. In addition, the mixed pixels and the pixels of the switching unit become conspicuous, and there is a possibility that the image quality is visually recognized as degraded.

本発明にかかる画像処理装置は、入力画像データにおける境界画素を検出する検出手段と、前記入力画像データに組織的ディザ法によるスクリーン処理を行いスクリーン処理後画像データを出力するスクリーン処理手段と、前記入力画像データをガンマ変換してガンマ変換後画像データを出力するガンマ変換手段と、前記検出手段で検出された境界画素に基づいて、前記スクリーン処理後画像データと前記ガンマ変換後画像データとを合成する合成手段とを有することを特徴とする画像処理装置。   An image processing apparatus according to the present invention includes a detection unit that detects boundary pixels in input image data, a screen processing unit that performs screen processing by a systematic dither method on the input image data, and outputs image data after screen processing, Gamma conversion means for gamma-converting input image data and outputting the image data after gamma conversion, and combining the image data after screen processing and the image data after gamma conversion based on the boundary pixels detected by the detection means And an image processing apparatus.

本発明によれば、回路規模を増大することなく、ジャギーやモアレを低減して、画質劣化のない高画質なハーフトーン処理結果を得ることができる。   According to the present invention, it is possible to reduce jaggy and moire without increasing the circuit scale and obtain a high-quality halftone processing result without image quality deterioration.

実施例1の構成を説明するためのブロック図である。FIG. 3 is a block diagram for explaining the configuration of the first embodiment. 実施例1のディザマトリクスを説明するための図である。FIG. 3 is a diagram for explaining a dither matrix according to the first embodiment. 実施例1のガンマ変換を説明するための図である。FIG. 6 is a diagram for explaining gamma conversion according to the first embodiment. 実施例1の白画素検出のフィルタと、画像処理の具体例とを説明するための図である。FIG. 4 is a diagram for explaining a white pixel detection filter according to the first exemplary embodiment and a specific example of image processing. 実施例1の画像処理の具体例を示す図である。FIG. 6 is a diagram illustrating a specific example of image processing according to the first embodiment. 実施例1の画像処理の具体例を示す図である。FIG. 6 is a diagram illustrating a specific example of image processing according to the first embodiment. 実施例1の画像処理の具体例を示す図である。FIG. 6 is a diagram illustrating a specific example of image processing according to the first embodiment. 実施例1の画像処理の流れの一例を示すフローチャートである。6 is a flowchart illustrating an example of a flow of image processing according to the first exemplary embodiment. 実施例2の構成を説明するためのブロック図である。FIG. 6 is a block diagram for explaining a configuration of a second embodiment. 実施例2の画像処理の具体例を示す図である。FIG. 10 is a diagram illustrating a specific example of image processing according to the second embodiment. 実施例2の画像処理の具体例を示す図である。FIG. 10 is a diagram illustrating a specific example of image processing according to the second embodiment. 実施例3の構成を説明するためのブロック図である。FIG. 10 is a block diagram for explaining a configuration of a third embodiment. 実施例4の構成を説明するためのブロック図である。FIG. 10 is a block diagram for explaining a configuration of a fourth embodiment. 実施例4の画像処理の具体例を示す図である。FIG. 10 is a diagram illustrating a specific example of image processing according to the fourth embodiment. 実施例4の画像処理の具体例を示す図である。FIG. 10 is a diagram illustrating a specific example of image processing according to the fourth embodiment. 実施例4のガンマ変換を説明するための図である。FIG. 10 is a diagram for explaining gamma conversion according to a fourth embodiment. 実施例4のエッジ検出の例を説明するための図である。It is a figure for demonstrating the example of the edge detection of Example 4. FIG. 実施例5の構成を説明するためのブロック図である。FIG. 10 is a block diagram for explaining a configuration of a fifth embodiment. 実施例5の画像処理の具体例を示す図である。FIG. 10 is a diagram illustrating a specific example of image processing according to the fifth embodiment. 実施例6の構成を説明するためのブロック図である。FIG. 10 is a block diagram for explaining a configuration of a sixth embodiment. 実施例7の構成を説明するためのブロック図である。FIG. 10 is a block diagram for explaining a configuration of a seventh embodiment.

以下、図面を用いて本発明に係る実施形態を詳細に説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらに限定する趣旨のものではない。   Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings. However, the components described in this embodiment are merely examples, and are not intended to limit the scope of the present invention thereto.

図1を参照して本発明における実施例1について説明する。図1は、実施例1の画像処理装置の構成例を示すブロック図である。画像処理装置は、スクリーン処理部1と、ガンマ変換部2と、白画素境界検出部3と、セレクタ4と、セル内合計算出部5と、セル内合計算出部6と、減算部7と、補正値算出部8と、加算部9と、ドット安定化部10とを有する。   A first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration example of the image processing apparatus according to the first embodiment. The image processing apparatus includes a screen processing unit 1, a gamma conversion unit 2, a white pixel boundary detection unit 3, a selector 4, an in-cell total calculation unit 5, an in-cell total calculation unit 6, a subtraction unit 7, The correction value calculation unit 8, the addition unit 9, and the dot stabilization unit 10 are included.

画像処理装置には多値入力画像データが入力される。以下、多値入力画像データのことを単に入力画像データと称する。入力画像データを構成する各画素には、画素値が格納されている。本実施例では、入力画像データを構成する各画素は、0〜255の画素値のいずれかによって表されている。   Multi-value input image data is input to the image processing apparatus. Hereinafter, the multi-value input image data is simply referred to as input image data. A pixel value is stored in each pixel constituting the input image data. In this embodiment, each pixel constituting the input image data is represented by one of pixel values from 0 to 255.

スクリーン処理部1は、入力画像データに対して画素毎にスクリーン処理する。例えば、スクリーン処理部1は、入力画像データをAMスクリーン処理する。AMスクリーン処理は組織的ディザ法とも呼ばれる。スクリーン処理部1は、各画素に対応する閾値からなるディザマトリクスを用いて、入力画像データを構成する各画素の画素値と対応する閾値とを比較することにより、スクリーン処理をする。なお、ディザマトリクスによって決まる画素群をセルとする。本実施例では、スクリーン処理は入力画像データを2値化する。ただし、出力値は後述の処理のため、0または1ではなく0と量子化代表値である255のいずれかが出力される。スクリーン処理によって得られる各画素値をスクリーン画素値とし、スクリーン画素値が表す画素が構成するデータをスクリーン処理後画像データとする。つまりスクリーン処理部1は、入力画像データをスクリーン処理後画像データに変換し、スクリーン処理後画像データを出力する。   The screen processing unit 1 performs screen processing on the input image data for each pixel. For example, the screen processing unit 1 performs AM screen processing on the input image data. AM screen processing is also called organized dithering. The screen processing unit 1 performs screen processing by comparing a pixel value of each pixel constituting the input image data with a corresponding threshold value using a dither matrix including threshold values corresponding to each pixel. A pixel group determined by the dither matrix is defined as a cell. In the present embodiment, the screen processing binarizes the input image data. However, because the output value is a process described later, either 0 or 255, which is the quantized representative value, is output instead of 0 or 1. Each pixel value obtained by the screen processing is defined as a screen pixel value, and data constituted by a pixel represented by the screen pixel value is defined as image data after screen processing. That is, the screen processing unit 1 converts the input image data into post-screen processing image data, and outputs the post-screen processing image data.

ガンマ変換部2は、ガンマテーブルを用いて入力画像データをガンマ変換する。入力画像データを構成する各画素は、ガンマ変換によってガンマ変換後画素値に変換される。ガンマ変換部2は、ガンマ変換後画素値が表す画素により構成されるガンマ変換後画像データを出力する。   The gamma conversion unit 2 gamma-converts input image data using a gamma table. Each pixel constituting the input image data is converted into a pixel value after gamma conversion by gamma conversion. The gamma conversion unit 2 outputs image data after gamma conversion constituted by pixels represented by pixel values after gamma conversion.

このように入力画像データは、並行して、AMスクリーン処理と、ガンマ変換とが実行される。すなわち、入力画像データからスクリーン処理後画像データと、ガンマ変換後画像データとが得られる。   In this way, AM screen processing and gamma conversion are executed on the input image data in parallel. That is, image data after screen processing and image data after gamma conversion are obtained from the input image data.

白画素境界検出部3は入力画像データに含まれる画素の中から、白画素境界画素を検出する。白画素境界画素とは、白画素ではない画素のうち白画素と隣接する画素のことをいう。本実施例では、入力画像データにおいて画素値が0である画素を白画素とする。白画素境界検出部3は、入力画像データにおける画素ごとに、白画素境界画素であるかどうかを検出し、画素毎に検出結果を表す情報が格納されたデータを出力する。   The white pixel boundary detection unit 3 detects a white pixel boundary pixel from the pixels included in the input image data. The white pixel boundary pixel is a pixel adjacent to the white pixel among the pixels that are not white pixels. In this embodiment, a pixel whose pixel value is 0 in the input image data is a white pixel. The white pixel boundary detection unit 3 detects whether each pixel in the input image data is a white pixel boundary pixel, and outputs data in which information representing the detection result is stored for each pixel.

セレクタ部4は白画素境界検出部3による白画素境界検出結果に基づいて、スクリーン処理後画像データとガンマ変換後画像データとを合成して合成後のデータを出力する。白画素境界検出部3から出力されるデータ、スクリーン処理後画像データ、ガンマ変換後画像データはいずれも、対応する画素位置をもつ。セレクタ部4は、白画素境界検出部3から出力されるデータにおけるある注目画素について、該注目画素の画素位置に対応するスクリーン画素値かガンマ変換画素値かを選択する。より具体的には、セレクタ部4は、白画素境界画素として検出された注目画素については、注目画素の画素位置に対応するガンマ変換後画素値を選択するように制御する。また、白画素境界画素以外の画素については、注目画素の画素位置に対応するスクリーン画素値を選択するように制御する。ここでは、スクリーン処理後画像データを構成する画素のうち、白画素境界画素として検出された画素位置の画素についてはガンマ変換後画素値に置き換える。スクリーン処理部1、ガンマ変換部2、白画素境界検出部3、セレクタ部4による処理の結果、入力画像データは、白画素境界画素の画素値はガンマ変換された画素値となり、白画素境界画素以外の画素値はスクリーン処理された画素値となる。   The selector unit 4 combines the screen-processed image data and the gamma-converted image data based on the white pixel boundary detection result by the white pixel boundary detection unit 3 and outputs the combined data. Data output from the white pixel boundary detection unit 3, image data after screen processing, and image data after gamma conversion all have corresponding pixel positions. The selector 4 selects a screen pixel value or a gamma conversion pixel value corresponding to the pixel position of the target pixel for a target pixel in the data output from the white pixel boundary detection unit 3. More specifically, the selector unit 4 performs control to select a pixel value after gamma conversion corresponding to the pixel position of the target pixel for the target pixel detected as the white pixel boundary pixel. For pixels other than the white pixel boundary pixels, control is performed so as to select a screen pixel value corresponding to the pixel position of the target pixel. Here, among the pixels constituting the image data after screen processing, the pixel position detected as the white pixel boundary pixel is replaced with the pixel value after gamma conversion. As a result of processing by the screen processing unit 1, gamma conversion unit 2, white pixel boundary detection unit 3, and selector unit 4, the pixel value of the white pixel boundary pixel becomes a pixel value obtained by gamma conversion, and the white pixel boundary pixel Pixel values other than are pixel values subjected to screen processing.

セル内合計算出部5とセル内合計算出部6とは扱う画像データが異なるだけであり、同じ動作をする。セル内合計算出部5とセル内合計算出部6とは、スクリーン処理部1で設定されるセル毎に、セルに含まれる画素の画素値の合計を算出する。具体的には、セル内合計算出部5は、セレクタ部4から出力されたデータにおけるセルごとに、セルに含まれる画素の画素値の合計値を算出する。一方、セル内合計算出部6は、入力画像データにおけるセルごとに、セルに含まれる画素の画素値の合計値を算出する。   The in-cell total calculation unit 5 and the in-cell total calculation unit 6 differ only in the image data to be handled and perform the same operation. The in-cell total calculation unit 5 and the in-cell total calculation unit 6 calculate the sum of the pixel values of the pixels included in the cell for each cell set by the screen processing unit 1. Specifically, the in-cell total calculation unit 5 calculates the total value of the pixel values of the pixels included in the cell for each cell in the data output from the selector unit 4. On the other hand, the in-cell total calculation unit 6 calculates the total value of the pixel values of the pixels included in the cell for each cell in the input image data.

減算部7は、セル内合計算出部5とセル内合計算出部6との出力において、対応するセルの合計値同士の差分を求める。   The subtraction unit 7 obtains a difference between the total values of the corresponding cells in the outputs of the in-cell total calculation unit 5 and the in-cell total calculation unit 6.

補正値算出部8は、入力画像データに基づいて各画素の補正値を求める。補正値は、減算部7から出力されるセル毎の差分値から算出される。本実施例ではエッジのボケを防止するため、入力画像データにおいて画素値が0である白画素は補正しない。よって、補正値算出部8は入力画像データにおいて画素値が0である白画素については、補正値0を出力する。一方補正値算出部8は、入力画像データにおいて画素値が0以外の画素については、減算部7から出力されるセル毎の差分値を、セルに含まれる画素のうち、入力画像データにおける画素値が0以外の画素の数で除算した値を補正値として出力する。   The correction value calculation unit 8 obtains a correction value for each pixel based on the input image data. The correction value is calculated from the difference value for each cell output from the subtraction unit 7. In the present embodiment, in order to prevent edge blurring, white pixels having a pixel value of 0 in the input image data are not corrected. Therefore, the correction value calculation unit 8 outputs a correction value of 0 for white pixels having a pixel value of 0 in the input image data. On the other hand, the correction value calculation unit 8 calculates the difference value for each cell output from the subtraction unit 7 for the pixels having pixel values other than 0 in the input image data, among the pixels included in the cell, the pixel value in the input image data. A value obtained by dividing by the number of pixels other than 0 is output as a correction value.

加算部9は、をセレクタ部4から出力されるデータに対して、画素毎に、対応する補正値を加算する。なお前述の通り、セレクタ部4から出力されるデータは、白画素境界画素以外の画素はスクリーン画素値によって表され、白画素境界画素はガンマ変換画素値によって表されるデータである。加算部9から出力される補正済の画像データは補正後データとする。   The adding unit 9 adds a corresponding correction value to the data output from the selector unit 4 for each pixel. As described above, the data output from the selector unit 4 is data in which pixels other than the white pixel boundary pixels are represented by screen pixel values, and the white pixel boundary pixels are represented by gamma conversion pixel values. The corrected image data output from the adder 9 is assumed to be corrected data.

ドット安定化部10は、補正後データを画像形成装置が安定的に画像を出力できるようなビット数のデータに変換する。ドット安定化部10からの出力は図示しない画像形成装置に出力されて画像がプリントされる。   The dot stabilization unit 10 converts the corrected data into data having a number of bits such that the image forming apparatus can stably output an image. The output from the dot stabilization unit 10 is output to an image forming apparatus (not shown) and an image is printed.

なお、上記説明ではドット安定化部10にて画像形成装置の入力ビット数に合わせる構成としたが、補正値算出部8の出力を画像形成装置が安定的に出力できるビット数に量子化して加算する構成でも良い。また、加算部9の出力がドット安定化部10の入力画素値のレンジを超える場合は、ドット安定化部10の入力画素値のレンジになるようにクリップされてドット安定化部10に入力されてもよい。   In the above description, the dot stabilization unit 10 is configured to match the number of input bits of the image forming apparatus. However, the output of the correction value calculation unit 8 is quantized and added to the number of bits that can be stably output by the image forming apparatus. The structure to do may be sufficient. When the output of the adding unit 9 exceeds the range of the input pixel value of the dot stabilizing unit 10, the output is clipped to be in the range of the input pixel value of the dot stabilizing unit 10 and input to the dot stabilizing unit 10. May be.

実施例1の詳細な動作を図2〜図7を用いて説明する。図2は、スクリーン処理部1においてAMスクリーン処理を行う際に用いられるディザマトリクスの一例を表すマトリクステーブルである。図2の1個の四角形が1画素を表している。四角形の中の数字はそれぞれの画素位置における閾値を表している。本実施例では各画素の画素値が0〜255の多値の画像データが入力される。スクリーン処理部1の出力は0、255の2値の画素値となる。図2のディザマトリクスの閾値は出力される画素値0または255を決定するための閾値である。すなわち、入力画像データの画素の画素値が閾値以下の時、スクリーン処理後データにおける該画素に対応する画素位置のスクリーン画素値は0となる。入力画像データの画素の画素値が閾値を超える時、スクリーン処理後データにおける該画素に対応する画素位置のスクリーン画素値は255となる。本実施例のディザマトリクスにおける各セルは図2の太線で示される形をしており、合計32画素からなる。以後の説明で、この太線で示される領域をセルと呼ぶ。   The detailed operation of the first embodiment will be described with reference to FIGS. FIG. 2 is a matrix table showing an example of a dither matrix used when AM screen processing is performed in the screen processing unit 1. One square in FIG. 2 represents one pixel. The numbers in the squares represent the threshold values at the respective pixel positions. In this embodiment, multivalued image data having pixel values of 0 to 255 is input. The output of the screen processing unit 1 is a binary pixel value of 0, 255. The threshold value of the dither matrix in FIG. 2 is a threshold value for determining the output pixel value 0 or 255. That is, when the pixel value of the pixel of the input image data is equal to or smaller than the threshold value, the screen pixel value at the pixel position corresponding to the pixel in the post-screen processing data is 0. When the pixel value of the pixel of the input image data exceeds the threshold value, the screen pixel value of the pixel position corresponding to the pixel in the post-screen processing data is 255. Each cell in the dither matrix of the present embodiment has a shape shown by a thick line in FIG. 2, and is composed of a total of 32 pixels. In the following description, the area indicated by the bold line is called a cell.

図3は、ガンマ変換を説明するための図である。図3(a)は、細線を印字した時の入力画像データにおける画素の画素値と出力濃度との関係を表すガンマ特性の一例を示す図である。横軸を入力画像データにおける画素の画素値とし、縦軸を出力される画素値(出力濃度)としている。出力濃度は最大濃度が255になるように正規化している。本実施例では、入力画像データにおける画素の画素値と出力濃度とが図3(a)のような関係にあるとき、次の処理を行う。すなわち、入力画像データにあわせて出力濃度をリニアに出力するために、図3(b)のようなガンマテーブルを用いて入力画像データにおける画素の画素値の変換を行う。このガンマテーブルを用いることで、入力画像データにおける画素の画素値が小さい領域では、出力されるガンマ変換後画素値は大きくなる。たとえば、入力画像データにおける画素の画素値が96であれば、このガンマテーブルで187のガンマ変換後画素値に変換される。ガンマ変換後画素値はセレクタ部4に入力される。   FIG. 3 is a diagram for explaining gamma conversion. FIG. 3A is a diagram illustrating an example of a gamma characteristic representing the relationship between the pixel value of the pixel and the output density in the input image data when a thin line is printed. The horizontal axis is the pixel value of the pixel in the input image data, and the vertical axis is the output pixel value (output density). The output density is normalized so that the maximum density is 255. In this embodiment, when the pixel value of the pixel in the input image data and the output density are in the relationship as shown in FIG. 3A, the following processing is performed. That is, in order to output the output density linearly in accordance with the input image data, the pixel value of the pixel in the input image data is converted using a gamma table as shown in FIG. By using this gamma table, the output pixel value after gamma conversion becomes large in the region where the pixel value of the pixel in the input image data is small. For example, if the pixel value of a pixel in the input image data is 96, it is converted to a pixel value after gamma conversion of 187 using this gamma table. The pixel value after gamma conversion is input to the selector unit 4.

図4は、白画素検出フィルタの例とフィルタを用いた白画素検出の例とを模式的に示す図である。図4(a)は白画素境界検出部3における白画素検出のためのフィルタを模式的に示した図である。このフィルタにおいて注目画素dの画素値が0以外であり、かつ隣接画素のd00〜d22の8画素のうち少なくとも2個の画素の画素値が0であるときに、注目画素dは白画素境界と判定する。具体的な例を、図4(b)及び(c)を用いて説明する。図4(b)、(c)ともに注目画素を〇印で囲んである。図4(b)は注目画素の画素値が64であり、注目画素の左上、上、左の3画素の画素値が0である例であるので、この注目画素は白画素境界であると判定する。図4(c)は、注目画素の画素値は64であり、注目画素の隣接画素がすべて0以外の画素値である例であるので、この注目画素は白画素境界ではないと判定する。この白画素境界検出部3の検出結果は、セレクタ部4に送られる。   FIG. 4 is a diagram schematically illustrating an example of a white pixel detection filter and an example of white pixel detection using a filter. FIG. 4A is a diagram schematically showing a filter for white pixel detection in the white pixel boundary detection unit 3. In this filter, when the pixel value of the target pixel d is other than 0 and the pixel values of at least two pixels among the eight pixels d00 to d22 of the adjacent pixels are 0, the target pixel d is defined as a white pixel boundary. judge. A specific example will be described with reference to FIGS. In FIGS. 4B and 4C, the target pixel is surrounded by a circle. FIG. 4B shows an example in which the pixel value of the target pixel is 64, and the pixel values of the upper left, upper, and left pixels of the target pixel are 0. Therefore, it is determined that the target pixel is a white pixel boundary. To do. FIG. 4C illustrates an example in which the pixel value of the target pixel is 64 and all adjacent pixels of the target pixel are pixel values other than 0. Therefore, the target pixel is determined not to be a white pixel boundary. The detection result of the white pixel boundary detection unit 3 is sent to the selector unit 4.

先に述べたように、セレクタ部4は検出された白画素境界の画素位置の画素値としてガンマ変換部2からのガンマ変換後画素値を、白画素境界以外の画素位置の画素値としてスクリーン処理部1からのスクリーン画素値を選択して出力する。   As described above, the selector unit 4 performs screen processing using the pixel value after gamma conversion from the gamma conversion unit 2 as the pixel value of the detected pixel position of the white pixel boundary, and the pixel value of the pixel position other than the white pixel boundary. The screen pixel value from the unit 1 is selected and output.

これまでの動作を図5から図7を用いて入力画像データが変換される過程の例を用いて説明する。入力画像データにおけるある領域の各画素の画素値を図5(a)に示す。なお、図5から図7において太線で囲まれた範囲がAMスクリーンの一つのセルの大きさに対応している。この図5(a)で示す入力画像データにおける各画素の画素値にスクリーン処理を施すと図5(b)に示す各画素のスクリーン画素値が得られる。   The operation so far will be described with reference to FIGS. 5 to 7 using an example of a process in which input image data is converted. The pixel value of each pixel in a certain area in the input image data is shown in FIG. Note that a range surrounded by a thick line in FIGS. 5 to 7 corresponds to the size of one cell of the AM screen. When screen processing is performed on the pixel value of each pixel in the input image data shown in FIG. 5A, the screen pixel value of each pixel shown in FIG. 5B is obtained.

また、同じ図5(a)に示す入力画像データにおける各画素の画素値に対する白画素境界検出部3の出力は図6(a)に示したようになる。図6(a)で、1は白画素境界画素を、0は白画素境界画素以外を示す情報を表している。また、この情報は入力画像データの各画素の画素位置に対応している。   Further, the output of the white pixel boundary detection unit 3 for the pixel value of each pixel in the same input image data shown in FIG. 5A is as shown in FIG. In FIG. 6A, 1 represents information indicating a white pixel boundary pixel, and 0 represents information indicating other than the white pixel boundary pixel. This information corresponds to the pixel position of each pixel of the input image data.

先に説明したように、入力画像データにおける画素の画素値が96である画素に対して図3で表されるガンマテーブルで補正したガンマ変換後画素値は187になる。従って、図5(a)で示す入力画像データにおける各画素に対するセレクタ部4の出力は、図6(b)に示す各画素の画素値となる。図6(b)に示すセレクタ部4から出力される画素値は、白画素境界画素は入力画像データの画素の画素値96をガンマ変換して得られたガンマ変換後画素値187である。白画素境界画素以外の画素は、図5(b)に示すスクリーン画素値(この例では、0か255の値)となっている。   As described above, the pixel value after gamma conversion corrected by the gamma table represented in FIG. Therefore, the output of the selector unit 4 for each pixel in the input image data shown in FIG. 5A is the pixel value of each pixel shown in FIG. The pixel value output from the selector unit 4 shown in FIG. 6B is a pixel value 187 after gamma conversion obtained by gamma-converting the pixel value 96 of the pixel of the input image data for the white pixel boundary pixel. Pixels other than the white pixel boundary pixels have screen pixel values (values of 0 or 255 in this example) shown in FIG.

これまで説明した例を用いて、セル内合計算出部5、6の動作を説明する。セル内合計算出部は、注目画素が含まれるAMスクリーンのセル内の各画素の画素値の合計を算出する。セル内合計算出部5には、セレクタ部4から選択処理後の各画素の画素値が入力される。すなわちセル内合計算出部5には、図6(b)に示すような画素値が入力される。ここでは、太線で示されるセル内に注目画素が含まれるものとして説明する。セル内合計算出部5は、図6(b)の太線で示されたセル内の画素の画素値の合計値を算出する。この場合、合計値は、0×26+187×4+255×2=1258となる。   The operation of the in-cell total calculation units 5 and 6 will be described using the examples described so far. The in-cell total calculation unit calculates the sum of the pixel values of each pixel in the cell of the AM screen including the target pixel. The pixel value of each pixel after the selection process is input from the selector unit 4 to the in-cell total calculation unit 5. That is, pixel values as shown in FIG. 6B are input to the in-cell total calculation unit 5. Here, description will be made assuming that the pixel of interest is included in the cell indicated by the bold line. The in-cell total calculation unit 5 calculates the total value of the pixel values of the pixels in the cell indicated by the thick line in FIG. In this case, the total value is 0 × 26 + 187 × 4 + 255 × 2 = 1258.

一方、セル内合計算出部6には、入力画像データにおける各画素の画素値が入力される。すなわち、セル内合計算出部6には、図5(a)に示すような画素値が入力される。図6(b)の太線で示すセルに対応する画素位置における図5(a)に示す画素値の合計値は、0×18+96×14=1344となる。セル内合計算出はセル単位で行われる。   On the other hand, the pixel value of each pixel in the input image data is input to the in-cell total calculation unit 6. That is, pixel values as shown in FIG. 5A are input to the in-cell total calculation unit 6. The total pixel value shown in FIG. 5A at the pixel position corresponding to the cell indicated by the thick line in FIG. 6B is 0 × 18 + 96 × 14 = 1344. In-cell total calculation is performed in cell units.

補正値算出部8は、減算部7においてセル内合計算出部6で算出された合計値からセル内合計算出部5で算出された合計値を減算した差分値をセル内の有効画像データ数で除したものを補正値として算出する。有効画像データ数とは、入力画像データにおけるセル内の各画素のうち画素値が0以外の画素の数である。本実施例では、図5(a)に示す太線のセル内の有効画像データ数は14であるので、補正値を計算すると以下のようになる。(1344−1258)/14=6
なお、この補正値の計算では小数点以下は切り捨てを行っているが、四捨五入で求めてもよい。
The correction value calculation unit 8 subtracts the total value calculated by the in-cell total calculation unit 5 from the total value calculated by the in-cell total calculation unit 6 in the subtraction unit 7 by the number of effective image data in the cell. The value obtained by dividing is calculated as a correction value. The number of effective image data is the number of pixels whose pixel value is other than 0 among the pixels in the cell in the input image data. In the present embodiment, the number of effective image data in the thick line cell shown in FIG. 5A is 14, and the correction value is calculated as follows. (1344-1258) / 14 = 6
In the calculation of the correction value, the fractional part is rounded down, but may be obtained by rounding off.

加算部9にて、補正値算出部8で得られた補正値をセレクタ部4の出力データに加算することで、ハーフトーン処理後の補正画像データを得ることができる。セレクタ部4の出力データは白画素境界画素をガンマ変換したものを含むので、セル内の各画素の画素値によって表される面積濃度が入力画像データにおける対応する各画素の面積濃度から変化している可能性がある。そこで、本実施例では濃度変動を少なくするためにセレクタ部4の出力データを補正する処理を行う。なお、先に説明したように、エッジのボケを防止するために、入力画像データにおける画素値が0である画素には補正をしない。また、補正後データにおける各画素は負の値および255以上の値は取り得ない。よって、補正値にかかわらず、補正後データにおける各画素の画素値は0、255でそれぞれクリップされる。本実施例では、セレクタ部4の出力データにおける各画素に補正値をそれぞれ加算した結果は図7(a)となる。図7(a)は図6(b)の太線で示すセルを含む領域の各画素の画素値に補正値をそれぞれ加算した結果を示している。図7(a)で示す様に、4個の白画素境界画素の画素値は187+6=193となる。また、AMスクリーン処理後のスクリーン処理後画像データのうち、スクリーン画素値が255の画素の画素値はそのまま255に、スクリーン画素値が0の画素は画素値が0+6=6となる。   By adding the correction value obtained by the correction value calculation unit 8 to the output data of the selector unit 4 in the addition unit 9, the corrected image data after the halftone process can be obtained. Since the output data of the selector unit 4 includes a gamma-transformed white pixel boundary pixel, the area density represented by the pixel value of each pixel in the cell changes from the area density of each corresponding pixel in the input image data. There is a possibility. Therefore, in this embodiment, processing for correcting the output data of the selector unit 4 is performed in order to reduce the density fluctuation. Note that as described above, in order to prevent edge blurring, correction is not performed on pixels whose pixel value is 0 in the input image data. Further, each pixel in the corrected data cannot take a negative value or a value of 255 or more. Therefore, regardless of the correction value, the pixel value of each pixel in the corrected data is clipped at 0 and 255, respectively. In the present embodiment, the result of adding the correction value to each pixel in the output data of the selector unit 4 is shown in FIG. FIG. 7A shows the result of adding the correction value to the pixel value of each pixel in the region including the cell indicated by the thick line in FIG. 6B. As shown in FIG. 7A, the pixel values of the four white pixel boundary pixels are 187 + 6 = 193. In addition, in the post-screen processing image data after the AM screen processing, the pixel value of the pixel having the screen pixel value of 255 is as it is, and the pixel value of the pixel having the screen pixel value of 0 is 0 + 6 = 6.

本実施例では2値のAMスクリーン処理で説明を行っている。しかしながら、画像形成部でのドット形成において多階調のドットを形成できるものがある。また、白画素境界画素は入力画像データにおける画素にガンマ変換を行った画素であるので、中間調でドットが形成できる場合には中間データを出力させるようにするとよい。本実施例では、図示しない画像形成部でのドット形成は、1ドットを15分割して1ドットあたり16階調のドットを形成できるものとして説明する。その場合、0から255の画素値をもつ各ドットはドット安定化部10に入力される前に16段階に量子化される。255を16段階に量子化するために、0と17の倍数を量子化代表値とする。すなわち、0〜255の画素値のうち、0と17の倍数以外の画素値は、0と17の倍数に画素値が変換される。図7(b)に量子化代表値で表した補正後データを示す。図7(a)で示す各画素のうち画素値が193の画素に対応する補正後データの画素の画素値は187で表される。また、画素値が6の画素に対応する補正後データの画素の補正値は0で表されることになる。   In this embodiment, a binary AM screen process is described. However, there are some that can form multi-tone dots in dot formation in the image forming unit. Further, since the white pixel boundary pixel is a pixel obtained by performing gamma conversion on the pixel in the input image data, it is preferable to output the intermediate data when a dot can be formed in a halftone. In this embodiment, the dot formation in the image forming unit (not shown) will be described on the assumption that one dot can be divided into 15 to form 16 gradation dots per dot. In this case, each dot having a pixel value from 0 to 255 is quantized in 16 steps before being input to the dot stabilization unit 10. In order to quantize 255 into 16 steps, multiples of 0 and 17 are used as quantization representative values. That is, among pixel values of 0 to 255, pixel values other than multiples of 0 and 17 are converted into pixel values of 0 and 17. FIG. 7B shows corrected data represented by quantized representative values. Of the pixels shown in FIG. 7A, the pixel value of the pixel of the corrected data corresponding to the pixel having a pixel value of 193 is represented by 187. Further, the correction value of the pixel of the corrected data corresponding to the pixel having the pixel value of 6 is represented by 0.

ドット安定化部10では、補正後データを用いて画像形成部で画像形成する際に、ドット形成が安定的になされない画素の画素値を安定的にドット形成が行われるような画素値に補正する。この方法について一例をあげると以下のようなものがある。スクリーン処理後画像データのスクリーン画素値が所定の値より小さいことなどを検知してドット安定化が必要であると判断した場合、周囲のドットパターン形状に応じてあらかじめきめられたLUTを用いて画像データを大きくするなどのデータ変換を行う。周囲のドットパターン形状が細線である場合、孤立点である場合などに応じてそれぞれ異なるLUTを用いて補正するとよい。   In the dot stabilization unit 10, when an image is formed in the image forming unit using the corrected data, the pixel value of a pixel where dot formation is not stably performed is corrected to a pixel value that allows stable dot formation. To do. An example of this method is as follows. When it is determined that dot stabilization is necessary by detecting that the screen pixel value of the image data after screen processing is smaller than a predetermined value, the image is determined using the LUT determined in advance according to the surrounding dot pattern shape. Data conversion such as enlarging data is performed. When the surrounding dot pattern shape is a thin line, or when it is an isolated point, correction may be performed using different LUTs.

本実施例では、予め入力画像データにおける白画素境界画素の画素値をガンマ変換することにより、ドット安定化部の回路を簡略化することが可能になる。すなわち、ほとんどの場合、白画素境界画素は入力画像データにおける輪郭部あるいは細線になるので、ガンマ変換を行うことで隣接ドットと線状につながることになる。加えて入力画像データにおける白画素境界画素の画素値を濃くするようなガンマ変換を行うことにより、背景の白画素部分との潜像コントラストを確保できるような画像データに補正することが可能である。この結果、画像形成部では線状につながっている白画素境界画素のドットを安定的にドット形成できる。さらに、前述したような潜像コントラストを確保できるような補正を行っていることにより、細線用のドット安定化処理を省略するなどしてドット安定化部を簡略化することができる。   In the present embodiment, it is possible to simplify the circuit of the dot stabilization unit by gamma-converting the pixel value of the white pixel boundary pixel in the input image data in advance. That is, in most cases, the white pixel boundary pixel becomes a contour portion or a fine line in the input image data, and therefore, gamma conversion is performed to connect to adjacent dots in a line shape. In addition, by performing gamma conversion that darkens the pixel value of the white pixel boundary pixel in the input image data, it is possible to correct the image data so as to ensure the latent image contrast with the white pixel portion of the background. . As a result, in the image forming unit, it is possible to stably form dots of white pixel boundary pixels that are connected in a line. Furthermore, by performing the correction to ensure the latent image contrast as described above, the dot stabilization unit can be simplified by omitting the dot stabilization processing for fine lines.

次に、図8を用いて本実施例の画像処理の流れを説明する。
ステップS801において画像処理装置は入力画像データを取得する。ステップS802においてスクリーン処理部2は、ステップS801で取得した入力画像データをスクリーン処理してスクリーン処理後画像データを出力する。ステップS803においてガンマ変換部2は、ステップS801で取得した入力画像データをガンマ変換してガンマ変換後画像データを出力する。ステップS804において白画素境界検出部3は、ステップS801で取得した入力画像データにおける白画素境界画素を検出する。なお、ステップS802からステップS804の処理は、並列処理される。
Next, the flow of image processing according to this embodiment will be described with reference to FIG.
In step S801, the image processing apparatus acquires input image data. In step S802, the screen processing unit 2 screen-processes the input image data acquired in step S801, and outputs screen-processed image data. In step S803, the gamma conversion unit 2 performs gamma conversion on the input image data acquired in step S801, and outputs image data after gamma conversion. In step S804, the white pixel boundary detection unit 3 detects white pixel boundary pixels in the input image data acquired in step S801. Note that the processing from step S802 to step S804 is performed in parallel.

ステップS805においてセレクタ部4は、ステップS803で得られた白画素境界画素の検出結果に基づいて、ステップS802で得られたスクリーン処理後画像データと、ステップS803で得られたガンマ変換後画像データとを合成する。例えば、先に説明したように、セレクタ部4は、スクリーン処理後画像データの画素のうち、白画素境界画素と検出された画素に対応する画素位置の画素をガンマ変換後画像データにおける対応する画素位置の画素の画素値に置き換える処理を行う。   In step S805, the selector unit 4 determines the screen-processed image data obtained in step S802, the gamma-converted image data obtained in step S803, based on the detection result of the white pixel boundary pixel obtained in step S803. Is synthesized. For example, as described above, the selector unit 4 selects the pixel at the pixel position corresponding to the pixel detected as the white pixel boundary pixel among the pixels of the image data after screen processing, and the corresponding pixel in the image data after gamma conversion. Processing to replace the pixel value of the pixel at the position is performed.

ステップS806において補正値算出部8は、ステップS805で出力された出力データにおけるセル毎の合計値と、ステップS801で得られた入力画像データにおける対応する位置のセル毎の合計値との差分値から補正値を決定する。先に説明したように、補正値算出部8は、有効画素に対する補正値を決定する。   In step S806, the correction value calculator 8 calculates the difference between the total value for each cell in the output data output in step S805 and the total value for each cell at the corresponding position in the input image data obtained in step S801. Determine the correction value. As described above, the correction value calculation unit 8 determines a correction value for the effective pixel.

ステップS807において加算部9は、ステップS806で決定した補正値を加算することにより、ステップS805で得られた出力データを補正する。   In step S807, the adding unit 9 corrects the output data obtained in step S805 by adding the correction value determined in step S806.

ステップS808においてドット安定化部10は、補正後データのドットを安定化する。   In step S808, the dot stabilization unit 10 stabilizes the dots of the corrected data.

以上説明したように、本実施例によれば、入力画像データにおける白画素境界部分の画素の画素値をガンマ変換テーブルにより補正したガンマ変換後画素値で置き換えることができるため、白画素との境界部分は連続した線状の形状となる。従って、白画素境界部分は入力画像と同等の解像度を保持する。また、白画素境界部分はAMスクリーン処理をしなくても背景が白画素であるため、潜像(感光ドラム上の電位)のコントラストを確保しやすく安定化が容易である。よって、白背景の文字・線画の画質が大幅に向上するという効果がある。また、複数のスクリーン処理部や複雑なエッジ判定部を備える必要がないため、処理(回路)を簡略化できる。   As described above, according to this embodiment, the pixel value of the pixel at the white pixel boundary portion in the input image data can be replaced with the pixel value after gamma conversion corrected by the gamma conversion table. The portion has a continuous linear shape. Therefore, the white pixel boundary portion maintains the same resolution as the input image. Further, since the background of the white pixel boundary portion is a white pixel without AM screen processing, the contrast of the latent image (the potential on the photosensitive drum) can be easily secured and stabilized. Therefore, there is an effect that the image quality of the white background character / line drawing is greatly improved. In addition, since it is not necessary to provide a plurality of screen processing units and complicated edge determination units, the processing (circuit) can be simplified.

なお、本実施例では、白画素境界検出部3では、注目画素の隣接画素の少なくとも2つの画素値が0である場合に注目画素を白画素境界画素として検出する例を説明した。しかしながら、注目画素の隣接画素の少なくとも1つの画素値が0である場合に注目画素を白画素境界画素として検出してもよい。   In the present embodiment, the example in which the white pixel boundary detection unit 3 detects a target pixel as a white pixel boundary pixel when at least two pixel values of adjacent pixels of the target pixel are 0 has been described. However, the target pixel may be detected as a white pixel boundary pixel when at least one pixel value of a pixel adjacent to the target pixel is 0.

また、量子化処理は補正値を加算する場合、すなわちドット安定化部10の前段で行われる例を説明したが、ドット安定化部10で量子化処理が行われてもよい。   In addition, although the example in which the quantization process is performed when adding correction values, that is, performed in the previous stage of the dot stabilization unit 10, the quantization process may be performed in the dot stabilization unit 10.

実施例1で説明した例では、補正後の量子化代表値が0、187または255である例を説明した。しかしながら、補正後の量子化代表値が小さい値となる場合がある。本実施例は、このような補正後の量子化代表値が小さい値の場合、ドットを形成しないように制御する例について説明する。   In the example described in the first embodiment, the example in which the quantized representative value after correction is 0, 187, or 255 has been described. However, the corrected quantized representative value may be a small value. In the present embodiment, an example in which dots are not formed when such a corrected quantized representative value is a small value will be described.

図9は、実施例2の画像処理装置の構成例を示すブロック図である。図9中、実施例1と同じ動作をする構成要素については同じ符号を付し、説明を省略する。本実施例では安定化画素検出部11が付加され、ドット安定化部12の動作が図1のドット安定化部10と異なる。   FIG. 9 is a block diagram illustrating a configuration example of the image processing apparatus according to the second embodiment. In FIG. 9, the same reference numerals are given to components that perform the same operations as those in the first embodiment, and description thereof is omitted. In this embodiment, a stabilized pixel detection unit 11 is added, and the operation of the dot stabilization unit 12 is different from that of the dot stabilization unit 10 of FIG.

図10及び図11は、実施例2における画像処理を説明するための図である。図10(a)の入力画像データに実施例1と同様の画像処理を行うことで、図9の加算部9の出力データは、図11(b)のようになる。詳述すると、図10(a)で示す入力画像データにおける各画素をスクリーン処理すると図10(b)で示すスクリーン処理後画像データが得られる。図10(b)で示すスクリーン処理後画像データの画素のうち、白画素境界画素に対応する位置の画素値をガンマ変換画素値に置き換えると図11(a)で示すような出力データが得られる。ここから有効画像データ数を考慮して補正値を算出し、量子化代表値を考慮して図11(a)の各画素の画素値を補正すると、図11(b)で示す補正後データにおける各画素の画素値が得られる。図11(b)の補正後データのうち、斜線で示した画素はスクリーン処理後のスクリーン画素値が0の画素に補正値の17を加算することで、画素値が17になった画素を示している。この17の値は、最も小さい量子化代表値と同じである。   10 and 11 are diagrams for explaining image processing in the second embodiment. By performing image processing similar to that of the first embodiment on the input image data in FIG. 10A, the output data of the adder 9 in FIG. 9 becomes as shown in FIG. 11B. More specifically, when each pixel in the input image data shown in FIG. 10A is screen-processed, image data after screen processing shown in FIG. 10B is obtained. When the pixel value at the position corresponding to the white pixel boundary pixel among the pixels of the image data after screen processing shown in FIG. 10B is replaced with a gamma conversion pixel value, output data as shown in FIG. 11A is obtained. . From this, the correction value is calculated in consideration of the number of effective image data, and when the pixel value of each pixel in FIG. 11A is corrected in consideration of the quantized representative value, the corrected data shown in FIG. A pixel value of each pixel is obtained. Among the corrected data in FIG. 11B, the hatched pixels indicate pixels whose pixel value is 17 by adding the correction value 17 to the pixel whose screen pixel value is 0 after the screen processing. ing. This value of 17 is the same as the smallest quantized representative value.

このような値の小さいデータは画像形成時にドット安定化がしにくいことがある。そこで、安定化画素検出部11は、加算部9で補正量が加算された画素の加算後の画素値と設定された閾値とを比較し、加算後の画素値が閾値より小さい時は、ドット安定化を行わないようにドット安定化部12を制御する。ドット安定化部12は基本的に実施例1のドット安定化部10と同じドット安定化を行う。異なる点は、安定化画素検出部11の制御により、ドット安定化のON/OFFを制御する点である。例えば、本実施例においては、白画素境界付近に非常に小さな値のドットが発生するが、このような小さなドットは濃度変動の補正にはほとんど寄与しない。特に、白画素境界画素においては、視覚的に濃度変動が検知されにくいため、補正によって生成される小さなドットは再現しない方が画質が安定する。そこで、例えば閾値を34に設定すると、図11(b)の斜線部の画素はドット安定化を行わないようにできる。つまり、濃度変動の補正にはほとんど寄与しない不安定なドットを安定化しないようにする。これにより、白画素境界画素以外の平坦部の画像データに対して安定化処理を行うことが少なくなる。なお、平坦部はAMスクリーン処理が行われているので、ドット安定化処理を行わなくても安定してドットを形成することができる。つまり本実施例では、特定の画素に対してのみドット安定化を適用することでドット安定化処理を簡略化できる。   Data with such a small value may be difficult to stabilize dots during image formation. Therefore, the stabilized pixel detection unit 11 compares the pixel value after addition of the pixel to which the correction amount is added by the addition unit 9 with a set threshold value, and when the pixel value after addition is smaller than the threshold value, The dot stabilization unit 12 is controlled so as not to perform stabilization. The dot stabilization unit 12 basically performs the same dot stabilization as the dot stabilization unit 10 of the first embodiment. The difference is that ON / OFF of dot stabilization is controlled by the control of the stabilization pixel detection unit 11. For example, in this embodiment, a dot having a very small value is generated in the vicinity of the white pixel boundary, but such a small dot hardly contributes to correction of density fluctuation. In particular, since it is difficult to visually detect density fluctuations at white pixel boundary pixels, the image quality is more stable when small dots generated by correction are not reproduced. Therefore, for example, when the threshold value is set to 34, the pixels in the shaded area in FIG. 11B can be prevented from performing dot stabilization. That is, the unstable dots that hardly contribute to the correction of the density fluctuation are not stabilized. As a result, the stabilization process is less performed on the image data of the flat portion other than the white pixel boundary pixels. In addition, since AM screen processing is performed on the flat portion, it is possible to stably form dots without performing dot stabilization processing. In other words, in this embodiment, dot stabilization processing can be simplified by applying dot stabilization only to specific pixels.

図12は、実施例3の画像処理装置の構成例を示すブロック図である。図12中、実施例1と同じ動作をする構成要素については同じ符号を付し、説明を省略する。また、本実施例では図9と同一の機能を持つ、ドット安定化部12が付加されている。また、白画素境界検出部3の検出結果をドット安定化部12に出力する信号線S1が追加されている。   FIG. 12 is a block diagram illustrating a configuration example of the image processing apparatus according to the third embodiment. In FIG. 12, the same reference numerals are given to components that perform the same operations as those in the first embodiment, and the description thereof is omitted. In this embodiment, a dot stabilizing unit 12 having the same function as that shown in FIG. 9 is added. Further, a signal line S1 for outputting the detection result of the white pixel boundary detection unit 3 to the dot stabilization unit 12 is added.

本実施例では、白画素境界検出部3の検出結果により、ドット安定化部12は制御される。具体的には、入力画像データにおいて白画素境界画素と検出された画素位置に対応する出力データにおける画素に対してはドット安定化を行う。白画素境界画素以外の画素位置に対応する出力データにおける画素に対してはドット安定化を行わない。これにより、白画素境界画素のドット安定化を確実に行うと共に濃度変動の補正にはほとんど寄与しない不安定なドットを安定化しないようにすることができる。なお、先に説明したようにドット安定化が必要な場合は主にドットが細線や孤立点である場合が想定される。白画素境界画素をガンマ変換することで細線や孤立点が線状につながることになるが、白画素境界画素の濃度が非常に小さい場合、ガンマ変換後の白画素境界画素の濃度がドットを安定的に形成できない濃度となる場合もあり得る。そこで、白画素境界画素と検出された画素位置に対応する出力データにおける画素に対してはドット安定化を行う。一方、白画素境界画素以外の画素位置に対応する出力データにおける画素は、平坦部の画素と考えられ、AMスクリーン処理が行われているので、ドット安定化処理を行わなくても安定してドットを形成することができる。つまり本実施例では、特定の画素に対してのみドット安定化を適用することでドット安定化処理を簡略化できる。   In this embodiment, the dot stabilization unit 12 is controlled based on the detection result of the white pixel boundary detection unit 3. Specifically, dot stabilization is performed on pixels in output data corresponding to pixel positions detected as white pixel boundary pixels in the input image data. Dot stabilization is not performed on pixels in output data corresponding to pixel positions other than white pixel boundary pixels. As a result, it is possible to reliably stabilize the dots of the white pixel boundary pixels and not to stabilize the unstable dots that hardly contribute to the correction of the density variation. As described above, when dot stabilization is required, it is assumed that the dots are mainly thin lines or isolated points. Gamma conversion of white pixel boundary pixels will connect thin lines and isolated points into a line, but when the density of white pixel boundary pixels is very low, the density of white pixel boundary pixels after gamma conversion stabilizes the dots. In some cases, the concentration cannot be formed automatically. Therefore, dot stabilization is performed on the pixels in the output data corresponding to the pixel positions detected as white pixel boundary pixels. On the other hand, the pixels in the output data corresponding to the pixel positions other than the white pixel boundary pixels are considered to be the pixels of the flat portion, and the AM screen processing is performed. Can be formed. In other words, in this embodiment, dot stabilization processing can be simplified by applying dot stabilization only to specific pixels.

実施例1から3においては白画素境界画素を検出して白画素境界画素の値としてガンマ変換後画素値を用いる例を説明した。しかしながら、境界画素を検出する手法は白画素境界画素に限られるものではない。以降の実施例では、境界画素としてエッジ部の画素を検出し、エッジ部の画素の値としてガンマ変換画素値を用いる例について説明する。   In the first to third embodiments, the example in which the white pixel boundary pixel is detected and the pixel value after gamma conversion is used as the value of the white pixel boundary pixel has been described. However, the method of detecting the boundary pixel is not limited to the white pixel boundary pixel. In the following embodiments, an example will be described in which an edge portion pixel is detected as a boundary pixel and a gamma conversion pixel value is used as the edge portion pixel value.

図13は実施例4の構成を示すブロック図である。図13に示す画像処理装置は、多値の入力画像データをより少ない階調数の画像データに変換するものである。図13に示す画像処理装置は、スクリーン処理部1301、ガンマ変換部1302、セレクタ部1303、エッジ検出部1304、セル内合計算出部1305、1306を含む。また図13に示す画像処理装置は、減算器1307、補正量算出部1308、加算器1309、ドット安定化部1310を含む。以下、各部の動作について説明する。   FIG. 13 is a block diagram showing the configuration of the fourth embodiment. The image processing apparatus shown in FIG. 13 converts multi-value input image data into image data with a smaller number of gradations. The image processing apparatus shown in FIG. 13 includes a screen processing unit 1301, a gamma conversion unit 1302, a selector unit 1303, an edge detection unit 1304, and in-cell total calculation units 1305 and 1306. The image processing apparatus shown in FIG. 13 includes a subtracter 1307, a correction amount calculation unit 1308, an adder 1309, and a dot stabilization unit 1310. Hereinafter, the operation of each unit will be described.

スクリーン処理部1301は、入力画像データに対して画素毎にスクリーン処理を行い、より少ない階調数のスクリーン処理後画像データに変換して出力する。通常、スクリーン処理後画像データは、入力画像データより少ないビット数で表現されるが、ここでは量子化代表値に相当する値が各画素の画素値として出力される。例えば、入力画像データの各画素の画素値が8ビット(0〜255)の場合で、2値のスクリーンに量子化する場合、スクリーン処理後の各画素の画素値は0または255の値で出力される。   The screen processing unit 1301 performs screen processing on the input image data for each pixel, converts the image data to screen-processed image data having a smaller number of gradations, and outputs the image data. Normally, the screen-processed image data is expressed with a smaller number of bits than the input image data, but here, a value corresponding to the quantized representative value is output as the pixel value of each pixel. For example, when the pixel value of each pixel of the input image data is 8 bits (0 to 255) and quantization is performed on a binary screen, the pixel value of each pixel after screen processing is output with a value of 0 or 255 Is done.

図14及び図15は実施例4における画像処理の具体例を示す図である。ここで、図14(a)はスクリーン処理部1301において用いられる、各画素に対応する閾値からなるディザマトリクスの一例を示している。図中、太線で囲まれた各画素に対応する閾値によりセルが構成される。セル内の数字は入力画像データの各画素の画素値が8ビット(0〜255)の場合の閾値を示している。スクリーン処理部1301は、ディザマトリクスを用いて、入力画像データを構成する各画素の画素値と対応する閾値とを比較することにより、スクリーン処理をする。本実施例では1つのセルは32個の閾値を持っており、閾値との比較の結果が各々2値(0、255)で出力されるとすると、1つのセルにおいて33レベルの面積階調が実現できる。上述したように、本実施例のスクリーン処理部1301は、スクリーン処理後データにおけるスクリーン画素値を2値で出力するのではなく、量子化代表値に相当する値で出力する。つまり、閾値以下場合は0を、閾値より大きい場合は255を出力する。例えば、図14(b)に示す入力画像データにおける各画素の画素に対するスクリーン画素値は図14(c)となる。   14 and 15 are diagrams illustrating specific examples of image processing in the fourth embodiment. Here, FIG. 14A shows an example of a dither matrix that is used in the screen processing unit 1301 and includes threshold values corresponding to each pixel. In the figure, a cell is constituted by threshold values corresponding to each pixel surrounded by a thick line. The numbers in the cells indicate the threshold values when the pixel value of each pixel of the input image data is 8 bits (0 to 255). The screen processing unit 1301 performs screen processing by using the dither matrix to compare the pixel value of each pixel constituting the input image data with the corresponding threshold value. In this embodiment, one cell has 32 threshold values, and if the result of comparison with the threshold value is output as binary values (0, 255), the 33-level area gradation is obtained in one cell. realizable. As described above, the screen processing unit 1301 according to the present embodiment does not output the screen pixel value in the post-screen processing data as a binary value, but outputs a value corresponding to the quantized representative value. That is, 0 is output when the value is less than or equal to the threshold, and 255 is output when the value is greater than the threshold. For example, the screen pixel value for each pixel in the input image data shown in FIG. 14B is as shown in FIG.

ガンマ変換部1302はエッジ部のドットを連続させて安定化を図るために、エッジ用に最適化されたガンマ変換を行う。   The gamma conversion unit 1302 performs gamma conversion optimized for edges in order to stabilize the dots in the edge part continuously.

図16はガンマ変換部1302の特性の一例を示している。横軸に入力画像データにおける画素の画素値(0〜255)、縦軸にガンマ変換後の出力される画素値(0〜255)を示す。通常のリニアな特性1601に対して、本ガンマ変換の特性1602は、低濃度部の入力画像データにおける画素の画素値を高濃度側の画素値に変換して出力する特性を有する。ここで、ガンマ変換は、図示しない本画像処理部後段のPWM回路の精度(4ビット量子化)に合わせて、入力画像データの画素の画素値(0〜255)を16レベル(0、17、34、...、238、255:17の倍数)に補正する。例えば、本実施例では、図14(b)の入力画像データの画素の画素値‘96’を‘187’にガンマ変換する。   FIG. 16 shows an example of the characteristics of the gamma conversion unit 1302. The horizontal axis represents the pixel value (0 to 255) of the pixel in the input image data, and the vertical axis represents the pixel value (0 to 255) output after the gamma conversion. In contrast to the normal linear characteristic 1601, the gamma conversion characteristic 1602 has a characteristic of converting the pixel value of the pixel in the input image data of the low density portion into a pixel value on the high density side and outputting it. Here, in gamma conversion, the pixel values (0 to 255) of the input image data are set to 16 levels (0, 17,...) In accordance with the accuracy (4-bit quantization) of the PWM circuit in the latter stage of the image processing unit (not shown). 34,..., 238, a multiple of 255: 17). For example, in this embodiment, the pixel value “96” of the pixel of the input image data in FIG. 14B is gamma-converted to “187”.

セレクタ部1303はエッジ検出部1304の検出結果を基に、入力画像データにおける注目画素がエッジ部の画素の時、注目画素の画素位置に対応する画素としてガンマ変換部1302のガンマ変換後画素値を選択する。注目画素がエッジ部の画素でないときは注目画素の画素位置に対応する画素としてスクリーン処理部1301のスクリーン画素値を選択する。   Based on the detection result of the edge detection unit 1304, the selector unit 1303 uses the gamma converted pixel value of the gamma conversion unit 1302 as a pixel corresponding to the pixel position of the target pixel when the target pixel in the input image data is the pixel of the edge unit. select. When the target pixel is not the edge pixel, the screen pixel value of the screen processing unit 1301 is selected as a pixel corresponding to the pixel position of the target pixel.

エッジ検出部1304は入力画像データからエッジ部分に対応する画素を検出する。ここでは、エッジ検出方法として、注目画素と隣接画素との差分量が閾値を超えている場合に注目画素をエッジ画素と検出する例を、図17を用いて説明する。図17の中心の画素を注目画素*とすると、その注目画素と隣接する4近傍画素の差分量のうち、最大の差分量と閾値との比較によってエッジ画素を検出する。又、エッジ画素は高濃度側を検出する。すなわち、最大の差分量をDIFF, 閾値をTHとすると以下の条件でエッジ検出する。
DIFF=max((*−a),(*−b),(*−c),(*−d))
DIFF=(*−a)の時、
DIFF ≧ THの場合、エッジと判定、それ以外は非エッジと判定する。
同様に
DIFF=(*−b)の時、
DIFF ≧ THの場合、エッジと判定、それ以外は非エッジと判定する。
DIFF=(*−c)の時、
DIFF ≧ THの場合、エッジと判定、それ以外は非エッジと判定する。
DIFF=(*−d)の時、
DIFF ≧ THの場合、エッジと判定、それ以外は非エッジと判定する。
例えばTH=64の場合、図14(b)の画素1401はDIFF=0である為、非エッジと判定する。また、画素1402はDIFF=(*−a)又は(*−b)=96でDIFF>TH=64である為、エッジと判定する。
The edge detection unit 1304 detects pixels corresponding to the edge portion from the input image data. Here, as an edge detection method, an example in which a target pixel is detected as an edge pixel when a difference amount between the target pixel and an adjacent pixel exceeds a threshold value will be described with reference to FIG. Assuming that the pixel at the center in FIG. 17 is the target pixel *, the edge pixel is detected by comparing the maximum difference amount with the threshold value among the difference amounts of the four neighboring pixels adjacent to the target pixel. The edge pixel detects the high density side. That is, if the maximum difference amount is DIFF and the threshold is TH, edge detection is performed under the following conditions.
DIFF = max ((*-a), (* -b), (* -c), (* -d))
When DIFF = (*-a)
If DIFF ≥ TH, it is judged as an edge, otherwise it is judged as a non-edge.
As well
When DIFF = (*-b)
If DIFF ≥ TH, it is judged as an edge, otherwise it is judged as a non-edge.
When DIFF = (*-c)
If DIFF ≥ TH, it is judged as an edge, otherwise it is judged as a non-edge.
When DIFF = (*-d)
If DIFF ≥ TH, it is judged as an edge, otherwise it is judged as a non-edge.
For example, when TH = 64, the pixel 1401 in FIG. 14B is determined to be a non-edge because DIFF = 0. The pixel 1402 is determined to be an edge because DIFF = (* − a) or (* −b) = 96 and DIFF> TH = 64.

図15(a)にセレクタ部1303の出力データを示す。図14(c)に示すスクリーン処理後画像データにおける画素のうち、エッジ画素に対応する画素位置の画素の画素値をガンマ変換後画素値である‘187’の値で置き換えている。   FIG. 15A shows output data of the selector unit 1303. Of the pixels in the screen-processed image data shown in FIG. 14C, the pixel value of the pixel at the pixel position corresponding to the edge pixel is replaced with a value of '187' which is a pixel value after gamma conversion.

セル内合計算出部1305はセレクタ部1303からの出力データをセル毎に、セル内に含まれる画素の画素値を積算する。例えば、セレクタ部1303からの出力データが図15(a)であった場合、太枠のセル内に関して積算すると、187×4+255×2=1258となる。また、セル内合計算出部1306は入力画像データをセル毎に、セル内に含まれる画素の画素値を積算する。例えば、入力画像データにおける画素の画素値が図14(b)であった場合、太枠のセル内に関して積算すると、96x14=1344となる。   The in-cell total calculation unit 1305 integrates the output data from the selector unit 1303 for each cell, and the pixel values of the pixels included in the cell. For example, when the output data from the selector unit 1303 is shown in FIG. 15A, the sum in the thick frame cell is 187 × 4 + 255 × 2 = 1258. The in-cell total calculation unit 1306 integrates the input image data for each cell and the pixel values of the pixels included in the cell. For example, when the pixel value of the pixel in the input image data is shown in FIG. 14B, the sum in the thick cell is 96 × 14 = 1344.

減算器1307は、セル内合計算出部1306の出力からセル内合計算出部1305の出力を減算し、セル内の濃度変動の合計値を算出する。例えば、図14及び図15の太線で示すセルの例では、セル内合計算出部1306の出力―セル内合計算出部1305の出力=1344−1258=86となる。   The subtracter 1307 subtracts the output of the in-cell total calculation unit 1305 from the output of the in-cell total calculation unit 1306 to calculate the total value of density fluctuations in the cell. For example, in the example of the cell indicated by the thick line in FIGS. 14 and 15, the output of the in-cell total calculation unit 1306−the output of the in-cell total calculation unit 1305 = 1344-1258 = 86.

補正量算出部1308は減算器1307の出力をセル内の補正可能な画素数で正規化して、1画素あたりの補正量を算出する。ここで、補正可能な画素とは、入力画像データを構成する画素のうち、画素値が‘0’でない画素である。本実施例ではエッジのボケを防止するため、入力画像データを構成する画素のうち、画素値が‘0’の画素を補正不可能な画素としている。例えば、図14及び図15に示す例では、図14(b)の太枠のセル内の補正可能な画素数は‘14’である。よって補正量は、INT(86/14)=6(INT()は小数点以下切り捨て演算を示す。)となる。但し、前記PWM回路の精度に合わせて、補正量を16レベルに量子化変換する。よって、最終的な補正値はINT((6+8)/17)*17=0となる。図15(b)に補正量算出部1308で算出された1画素毎の補正量を示す。灰色で色付けされた画素は上記演算にて算出された補正可能な画素であり、補正量算出部1308で算出された1画素毎の補正量を示す。なお、本例では補正可能な画素の補正量は先に示すように0である。灰色で色づけされた以外の部分は補正不可能な画素である為、補正量を‘0’とする。   The correction amount calculation unit 1308 normalizes the output of the subtracter 1307 with the number of pixels that can be corrected in the cell, and calculates a correction amount per pixel. Here, the correctable pixel is a pixel whose pixel value is not “0” among the pixels constituting the input image data. In this embodiment, in order to prevent edge blurring, a pixel having a pixel value of “0” among pixels constituting the input image data is set as an uncorrectable pixel. For example, in the example shown in FIGS. 14 and 15, the number of pixels that can be corrected in the thick-line cell in FIG. 14B is ‘14’. Therefore, the correction amount is INT (86/14) = 6 (INT () indicates a truncation operation after the decimal point). However, the correction amount is quantized and converted to 16 levels in accordance with the accuracy of the PWM circuit. Therefore, the final correction value is INT ((6 + 8) / 17) * 17 = 0. FIG. 15B shows the correction amount for each pixel calculated by the correction amount calculation unit 1308. Pixels colored in gray are correctable pixels calculated by the above calculation, and indicate the correction amount for each pixel calculated by the correction amount calculation unit 1308. In this example, the correction amount of pixels that can be corrected is 0 as described above. Since the portions other than those colored in gray are pixels that cannot be corrected, the correction amount is set to “0”.

加算器1309はセレクタ部1303の出力データにおける各画素の画素値に補正量算出部1308から出力される対応する画素位置の画素の補正量を加算して、補正処理を行う。ここで、加算結果が‘0’未満の場合値を‘0’にクリップする。また、加算結果が‘255’より大きい場合は、値を‘255’にクリップする。   An adder 1309 performs correction processing by adding the correction amount of the pixel at the corresponding pixel position output from the correction amount calculation unit 1308 to the pixel value of each pixel in the output data of the selector unit 1303. Here, if the addition result is less than “0”, the value is clipped to “0”. When the addition result is larger than “255”, the value is clipped to “255”.

ここで、濃度変動がある場合、入力画像データにはない濃度変動がスクリーン処理後画像データ上で発生しており、モアレの原因となる。加算器1309で補正処理を行うことより、濃度変動を抑制する。また、本実施例では、スクリーン処理後画像データにおけるエッジ部の画素の画素値を、入力画像データにおける対応する画素位置の画素の画素値をガンマ変換した大きな値に置き換えて補正量を算出している。これによりエッジ部の付近に値の小さなデータが発生することを防止し、エッジ部に値の比較的大きなドットを集中させることが可能となり、ドットを線状に連続させて文字線画の画質を向上させるとともに、画像形成時にドットを安定化し易くさせる。   Here, when there is a density variation, a density variation that does not exist in the input image data occurs on the image data after the screen processing, which causes moire. By performing correction processing with the adder 1309, density fluctuation is suppressed. Further, in this embodiment, the correction value is calculated by replacing the pixel value of the pixel at the edge portion in the image data after screen processing with a large value obtained by gamma-converting the pixel value of the pixel at the corresponding pixel position in the input image data. Yes. This prevents data with a small value from occurring near the edge, allowing dots with relatively large values to be concentrated on the edge, and improving the image quality of the character line drawing by making the dots continuous in a line. And making it easier to stabilize dots during image formation.

次に、ドット安定化部1310の動作を説明する。本実施例では、スクリーン処理後画像データをセル毎に濃度変動が無くなるように補正している。補正の結果、画素値が小さくなった画素はドット形成が安定的になされない。そこでドットを安定化させるために、データの変換を行う。例えば、図示しない後段PWM回路における最小パルス幅を保証するような動作を行う。つまり、ドット安定化部1310に入力されるデータが予め設定した最小値未満で周囲に0でない値が存在する場合、値を加算することで前記設定した値以上となる場合は、値の大きな方のデータに合算する。または、PWM回路の位相を制御し、パルスが連続するようにしても良い。一方、入力されるデータが予め設定した最小値未満で周囲に0でない値が存在しない場合は、前記最小値に置換する。   Next, the operation of the dot stabilization unit 1310 will be described. In this embodiment, the screen-processed image data is corrected so that there is no density variation for each cell. As a result of the correction, the dot formation is not stably performed for the pixel having a small pixel value. Therefore, data conversion is performed to stabilize the dots. For example, an operation for guaranteeing a minimum pulse width in a post-stage PWM circuit (not shown) is performed. In other words, when the data input to the dot stabilization unit 1310 is less than a preset minimum value and there are non-zero values in the surrounding area, if the value is equal to or greater than the set value by adding the value, the larger value Add to the data. Alternatively, the phase of the PWM circuit may be controlled so that the pulses are continuous. On the other hand, if the input data is less than a preset minimum value and there are no non-zero values around it, the value is replaced with the minimum value.

また、本実施例では予め入力画像データにガンマ変換を行うことにより、ドット安定化部の回路を簡略化する。例えば、エッジ部に対して最小パルス幅を保証するようにガンマ変換を行うことにより、上記最小値パルス幅保証動作を無くすことが可能となる。また、エッジ部以外においては、エッジ近傍の小さな値はエッジ部に合算することで、小さな値が連続する領域を最小化する。このため、エッジ部以外においても上記最小値パルス幅保証動作を無くすことが可能となる。   In this embodiment, the circuit of the dot stabilization unit is simplified by performing gamma conversion on the input image data in advance. For example, the minimum value pulse width guarantee operation can be eliminated by performing gamma conversion so as to guarantee the minimum pulse width for the edge portion. In addition to the edge portion, small values near the edge are added to the edge portion, thereby minimizing the region where the small values continue. For this reason, it is possible to eliminate the minimum value pulse width guaranteeing operation even at portions other than the edge portion.

本実施例によれば、簡易な方法でスクリーン処理の欠点を補正し、良好な階調変換結果を得ることが可能となる。特に、入力画像データにおけるエッジ部の画素の画素位置に対応する画素をガンマ変換したガンマ変換後画素値に置き換えたスクリーン処理後画像データを用いることにより、エッジ部の画素に補正データを集中させることが可能となる。その結果、エッジ部のドットは線状に連続するようになり、そのドットを安定化させることで文字・線画の画質が大幅に向上する。   According to the present embodiment, it is possible to correct a defect in screen processing by a simple method and obtain a good gradation conversion result. In particular, the correction data is concentrated on the edge pixels by using the image data after screen processing in which the pixel corresponding to the pixel position of the edge pixel in the input image data is replaced with a gamma-converted pixel value obtained by gamma conversion. Is possible. As a result, the dots at the edge portion are continuous in a line shape, and the image quality of characters and line drawings is greatly improved by stabilizing the dots.

次に、実施例5について以下に説明する。図18は実施例5における画像処理装置の構成を示すブロック図である。図18中、実施例4と同じ動作をする構成要素については同じ符号を付し、説明を省略する。本実施例では安定化画素検出部1801が付加され、ドット安定化部1802は図13のドット安定化部1310と異なる動作をする。   Next, Example 5 will be described below. FIG. 18 is a block diagram illustrating the configuration of the image processing apparatus according to the fifth embodiment. In FIG. 18, components that perform the same operations as those in the fourth embodiment are denoted by the same reference numerals, and description thereof is omitted. In this embodiment, a stabilization pixel detection unit 1801 is added, and the dot stabilization unit 1802 operates differently from the dot stabilization unit 1310 of FIG.

例えば、図19(a)に示す入力画像データにおいて、図19(a)に示すようにディザマトリクスのセルの位相関係が図14(a)に示したものと異なる場合、実施例4と同等な処理を行うと、図19(b)に示すように各画素の補正量が算出される。加算器1309における加算の結果、図19(c)に示すような補正後データが出力される。図19(c)では、エッジ部の付近に値の小さなデータ‘17’が発生して、画像形成時にドット安定化がしにくくなる場合がある。   For example, in the input image data shown in FIG. 19A, when the phase relationship of the cells of the dither matrix is different from that shown in FIG. 14A as shown in FIG. When the processing is performed, the correction amount of each pixel is calculated as shown in FIG. As a result of the addition in the adder 1309, corrected data as shown in FIG. 19C is output. In FIG. 19C, data ‘17’ having a small value is generated in the vicinity of the edge portion, which may make it difficult to stabilize the dots during image formation.

この様な不具合を防止するために、本実施例の安定化画素検出部1801では、加算器1309で補正量が加算された画素の加算後の画素値が、設定された閾値より小さい時は、ドット安定化を行わないようにドット安定化部1902を制御する。ドット安定化部1902はドット安定化部1310と同等な安定化を行うが、安定化画素検出部1801の制御により、ドット安定化のON/OFFを行う。これにより、エッジ部以外のドットに対して不要な安定化処理を行わなくなる。この様なエッジ付近の非常に小さな値のドットは濃度変動の補正にはほとんど寄与しない。特に、エッジ部においては、視覚的に濃度変動が検知されにくいため、前記補正によって生成される小さなドットは再現しない方が画質が安定する。つまり、濃度変動の補正にはほとんど寄与しない不安定なドットを安定化しないようにすることで、換言すれば、特定の画素に対してのみドット安定化処理を適用することで、ドット安定化部1310を簡略化できる。   In order to prevent such a problem, in the stabilized pixel detection unit 1801 of this embodiment, when the pixel value after addition of the pixel to which the correction amount is added by the adder 1309 is smaller than the set threshold value, The dot stabilization unit 1902 is controlled so as not to perform dot stabilization. The dot stabilization unit 1902 performs stabilization equivalent to that of the dot stabilization unit 1310, but performs dot stabilization ON / OFF under the control of the stabilization pixel detection unit 1801. As a result, unnecessary stabilization processing is not performed on dots other than the edge portion. Such a very small dot near the edge hardly contributes to the correction of the density fluctuation. In particular, since it is difficult to visually detect density fluctuation at the edge portion, the image quality is more stable when the small dots generated by the correction are not reproduced. In other words, by avoiding stabilization of unstable dots that hardly contribute to correction of density fluctuation, in other words, by applying dot stabilization processing only to specific pixels, the dot stabilization unit 1310 can be simplified.

次に、実施例6について以下に説明する。図20は、実施例6における画像処理装置の構成を示すブロック図である。図20中、実施例4と同じ動作をする構成要素については同じ符号を付し、説明を省略する。また、本実施例では図18と同一の機能を持つ、ドット安定化部1802が付加されている。   Next, Example 6 will be described below. FIG. 20 is a block diagram illustrating the configuration of the image processing apparatus according to the sixth embodiment. In FIG. 20, the same reference numerals are given to components that perform the same operations as those in the fourth embodiment, and description thereof is omitted. In this embodiment, a dot stabilization unit 1802 having the same function as that shown in FIG. 18 is added.

本実施例ではエッジ検出部1304の検出結果により、ドット安定化部1802が制御される。よって、エッジ部はドット安定化を行い、エッジ部以外はドット安定化を行わない。これにより、エッジ部のドット安定化を確実に行うと共に図19(c)に示したような、濃度変動の補正にはほとんど寄与しない不安定なドットを安定化しないようにする。よって、実施例5と同様に、特定の画素に対してのみドット安定化処理を適用することで、ドット安定化部1310を簡略化できる。   In this embodiment, the dot stabilization unit 1802 is controlled based on the detection result of the edge detection unit 1304. Therefore, dot stabilization is performed at the edge portion, and dot stabilization is not performed at portions other than the edge portion. As a result, the dot at the edge is surely stabilized and unstable dots that hardly contribute to the correction of the density variation as shown in FIG. 19C are not stabilized. Therefore, as in the fifth embodiment, the dot stabilization unit 1310 can be simplified by applying the dot stabilization process only to specific pixels.

次に、実施例7について以下に説明する。図21は実施例7における画像処理装置の構成を示すブロック図である。図21中、実施例4と同じ動作をする構成要素については同じ符号を付し、説明を省略する。また、本実施例ではガンマ変換部2101が追加されている。実施例4から6では入力画像データにおける各画素の画素値にスクリーン処理用のガンマ変換を施してある前提で説明した。本実施例ではガンマ変換前の入力画像データを入力し、ガンマ変換部2101でスクリーン処理用のガンマ変換を行い、スクリーン処理部1301に出力する。これにより入力画像に対して、エッジ部に対するガンマ変換とスクリーン処理に対するガンマ変換とを独立に行えるようになる。よって、エッジ部、細線の強調処理を同時に行うことが可能となる。   Next, Example 7 will be described below. FIG. 21 is a block diagram illustrating the configuration of the image processing apparatus according to the seventh embodiment. In FIG. 21, the same reference numerals are given to components that perform the same operations as those in the fourth embodiment, and the description thereof is omitted. In this embodiment, a gamma conversion unit 2101 is added. The fourth to sixth embodiments have been described on the assumption that the pixel value of each pixel in the input image data is subjected to gamma conversion for screen processing. In this embodiment, input image data before gamma conversion is input, gamma conversion for the screen processing is performed by the gamma conversion unit 2101, and output to the screen processing unit 1301. As a result, the input image can be independently subjected to gamma conversion for the edge portion and gamma conversion for the screen processing. Therefore, it is possible to simultaneously perform edge portion and thin line enhancement processing.

なお、実施例1から3における処理においても同様に、ガンマ変換前の入力画像データを入力し、ガンマ変換部でスクリーン処理用のガンマ変換を行い、スクリーン処理部1に出力する構成を採用してもよい。   Similarly, in the processing in the first to third embodiments, a configuration in which input image data before gamma conversion is input, gamma conversion for screen processing is performed in the gamma conversion unit, and output to the screen processing unit 1 is adopted. Also good.

以上説明したように実施例4から7においては、簡易な方法でスクリーン処理の欠点を補正し、良好な階調変換結果を得ることが可能となる。特に、入力画像データにおけるエッジ部の画素の画素位置に対応する画素をガンマ変換したガンマ変換後画素値に置き換えたスクリーン処理画像データを用いることにより、エッジ部に補正データを集中させることが可能となる。その結果、エッジ部のドットを線状に連続するようになり、そのドットを安定化させることで文字・線画の画質が大幅に向上する。さらに、ドット安定化部においては、補正後の値や、エッジ情報によりドット安定化のON/OFFを制御することにより、エッジ部のドット安定化を確実に行う。それと共に濃度変動の補正にはほとんど寄与しない不安定なドットを安定化しないようにし、安定した高画質な出力が可能となる。   As described above, in the fourth to seventh embodiments, it is possible to correct a defect of the screen processing by a simple method and obtain a favorable gradation conversion result. In particular, it is possible to concentrate correction data on the edge portion by using screen-processed image data obtained by replacing the pixel corresponding to the pixel position of the edge portion pixel in the input image data with a gamma-converted pixel value obtained by gamma conversion. Become. As a result, the dots at the edge portion are continuous in a line shape, and the image quality of characters / line drawings is greatly improved by stabilizing the dots. Further, in the dot stabilization unit, the dot stabilization of the edge portion is reliably performed by controlling ON / OFF of dot stabilization based on the corrected value and the edge information. At the same time, unstable dots that hardly contribute to correction of density fluctuations are not stabilized, and stable high-quality output is possible.

<その他の実施例>
なお、実施例1から3は白画素境界画素を境界画素として検出する例を説明し、実施例4から7はエッジ部を境界画素として検出する例を説明した。実施例1から3と実施例4から7とは、境界画素として検出する対象が異なっている点を除けば、他の処理は共通の処理として扱っても良い。従って、実施例1から3で説明した処理を実施例4から7で行っても良いし、実施例4から7で説明した処理を実施例1から3で行っても良い。例えば、実施例4では、ガンマ変換部1302においてガンマ変換後のデータは、PWM回路の精度に併せて変換される例を説明したが、実施例1のガンマ変換部2においても同様の処理を行っても良い。なお、境界画素を識別する信号を入力画素の属性データとして入力画素データとともに入力する場合は、前記白画素境界検出部3、前記エッジ検出部1304の出力の代りに該属性データを用いることができる。これにより、前記白画素境界検出部3、前記エッジ検出部1304を省略できる。すなわち、入力画像データにおける境界画素の位置を示す位置情報が入力される場合には、位置情報を用いて境界画素の位置を特定することができる。
<Other examples>
In the first to third embodiments, an example in which a white pixel boundary pixel is detected as a boundary pixel has been described, and in the fourth to seventh embodiments, an edge portion is detected as a boundary pixel. In the first to third embodiments and the fourth to seventh embodiments, other processes may be treated as a common process except that a target to be detected as a boundary pixel is different. Therefore, the processing described in the first to third embodiments may be performed in the fourth to seventh embodiments, and the processing described in the fourth to seventh embodiments may be performed in the first to third embodiments. For example, in the fourth embodiment, the gamma conversion unit 1302 converts the data after gamma conversion according to the accuracy of the PWM circuit. However, the gamma conversion unit 2 of the first embodiment also performs the same processing. May be. When a signal for identifying a boundary pixel is input as input pixel attribute data together with input pixel data, the attribute data can be used in place of the outputs of the white pixel boundary detection unit 3 and the edge detection unit 1304. . Accordingly, the white pixel boundary detection unit 3 and the edge detection unit 1304 can be omitted. That is, when position information indicating the position of the boundary pixel in the input image data is input, the position of the boundary pixel can be specified using the position information.

また、実施例4から7では、スクリーン処理後画像データのうちのエッジ部の画素の画素位置に対応する画素をガンマ変換後画素値に置き換える処理を例に挙げて説明したが、これに限られるものではない。例えば、ガンマ変換後の各画素のうち、エッジ部以外の画素の画素値をスクリーン画素値に置き換える処理であってもよい。また、入力画像データの同じ画素数のデータ領域を確保して、エッジ部の画素に対応する画素位置の画素については、ガンマ変換後画素値を格納し、エッジ部以外の画素に対応する画素位置の画素についてはスクリーン画素値を格納する処理であってもよい。実施例1から3の処理についても同様である。   Further, in the fourth to seventh embodiments, the process of replacing the pixel corresponding to the pixel position of the pixel at the edge portion in the screen-processed image data with the pixel value after gamma conversion has been described as an example, but the present invention is not limited thereto. It is not a thing. For example, it may be a process of replacing pixel values of pixels other than the edge portion of each pixel after gamma conversion with screen pixel values. In addition, a data area having the same number of pixels of the input image data is secured, and the pixel value after gamma conversion is stored for the pixel at the pixel position corresponding to the edge pixel, and the pixel position corresponding to the pixel other than the edge part This pixel may be a process of storing a screen pixel value. The same applies to the processing of the first to third embodiments.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (23)

入力画像データにおける境界画素を検出する検出手段と、
前記入力画像データに組織的ディザ法によるスクリーン処理を行いスクリーン処理後画像データを出力するスクリーン処理手段と、
前記入力画像データをガンマ変換してガンマ変換後画像データを出力するガンマ変換手段と、
前記検出手段で検出された境界画素に基づいて、前記スクリーン処理後画像データと前記ガンマ変換後画像データとを合成する合成手段と
を有することを特徴とする画像処理装置。
Detection means for detecting boundary pixels in the input image data;
Screen processing means for performing screen processing by a systematic dither method on the input image data and outputting image data after the screen processing;
Gamma conversion means for gamma-converting the input image data and outputting the image data after gamma conversion;
An image processing apparatus comprising: combining means for combining the screen-processed image data and the gamma-converted image data based on the boundary pixel detected by the detection means.
前記合成手段は、前記スクリーン処理後画像データのうち、検出された境界画素に対応する画素位置の画素の画素値を前記ガンマ変換後画像データにおける対応する画素位置の画素の画素値で置き換えることを特徴とする請求項1に記載の画像処理装置。   The combining means replaces the pixel value of the pixel at the pixel position corresponding to the detected boundary pixel in the post-screen processing image data with the pixel value of the pixel at the corresponding pixel position in the image data after gamma conversion. The image processing apparatus according to claim 1, wherein: 前記合成手段は、前記境界画素に対応する画素位置の画素値として前記ガンマ変換後画像データにおける対応する画素位置の画素の画素値を出力し、前記境界画素以外の画素に対応する画素位置の画素値として前記スクリーン処理後画像データにおける対応する画素位置の画素値を出力することを特徴とする請求項1に記載の画像処理装置。   The synthesizing unit outputs a pixel value of a pixel at a corresponding pixel position in the image data after gamma conversion as a pixel value at a pixel position corresponding to the boundary pixel, and a pixel at a pixel position corresponding to a pixel other than the boundary pixel. The image processing apparatus according to claim 1, wherein a pixel value at a corresponding pixel position in the post-screen processing image data is output as a value. 前記入力画像データと、合成後のデータとに基づいて補正値を決定する決定手段をさらに有し、
前記合成手段は、合成後のデータにおける画素の画素値に前記補正値を加算することを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。
A determination means for determining a correction value based on the input image data and the combined data;
The image processing apparatus according to claim 1, wherein the synthesizing unit adds the correction value to a pixel value of a pixel in the synthesized data.
前記決定手段は、前記補正値を前記スクリーン処理に用いられるセル単位で決定することを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the determination unit determines the correction value for each cell used for the screen processing. 前記決定手段は、前記入力画像データのセル内の各画素の画素値の合計値と、該セルに対応する前記合成後のデータのセル内の各画素の画素値の合計値との差に基づいて前記補正値を決定することを特徴とする請求項4または5に記載の画像処理装置。   The determining means is based on a difference between a total value of pixel values of each pixel in the cell of the input image data and a total value of pixel values of each pixel in the cell of the combined data corresponding to the cell. The image processing apparatus according to claim 4, wherein the correction value is determined. 前記決定手段は、前記入力画像データにおける前記セル内の画素の画素値が0でない画素の数で前記差を除算することで前記補正値を決定することを特徴とする請求項6に記載の画像処理装置。   The image according to claim 6, wherein the determining unit determines the correction value by dividing the difference by the number of pixels in which pixel values of pixels in the cell in the input image data are not 0. Processing equipment. 前記決定された補正値は、前記入力画像データにおける画素値が0でない画素に対応する画素位置の前記合成後の画素の画素値に加算されることを特徴とする請求項4から7のいずれか一項に記載の画像処理装置。   8. The determined correction value is added to a pixel value of the combined pixel at a pixel position corresponding to a pixel with a pixel value other than 0 in the input image data. The image processing apparatus according to one item. 前記合成手段で合成されたデータにドット安定化処理を行うドット安定化手段をさらに有することを特徴とする請求項4から8のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 4, further comprising dot stabilization means for performing dot stabilization processing on the data synthesized by the synthesis means. 前記ドット安定化手段に入力されるデータは、ドットを形成できる階調数に応じた値で量子化されていることを特徴とする請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the data input to the dot stabilization unit is quantized with a value corresponding to the number of gradations at which dots can be formed. 前記補正値は、ドットを形成できる階調数に応じた値で量子化されている値であることを特徴とする請求項9または10に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the correction value is a value quantized with a value corresponding to the number of gradations at which dots can be formed. 前記ガンマ変換手段は、ドットを形成できる階調数に応じた値に量子化された値を出力することを特徴とする請求項9から11のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the gamma conversion unit outputs a value quantized to a value corresponding to the number of gradations at which dots can be formed. 前記ドット安定化手段は、前記決定手段で決定された補正値を加算した画素の値が閾値以下の場合、当該補正値が加算された画素に前記ドット安定化処理を行わないことを特徴とする請求項9から12のいずれか一項に記載の画像処理装置。   The dot stabilization unit does not perform the dot stabilization process on a pixel to which the correction value is added when the value of the pixel to which the correction value determined by the determination unit is added is equal to or less than a threshold value. The image processing apparatus according to claim 9. 前記ドット安定化手段は、前記境界画素として検出された画素位置に対応する画素に対してドット安定化処理を行い、
前記境界画素として検出された画素以外の画素位置に対応する画素にはドット安定化処理を行わないことを特徴とする請求項9から12のいずれか一項に記載の画像処理装置。
The dot stabilization means performs dot stabilization processing on a pixel corresponding to a pixel position detected as the boundary pixel,
The image processing apparatus according to claim 9, wherein a dot stabilization process is not performed on pixels corresponding to pixel positions other than the pixels detected as the boundary pixels.
前記ガンマ変換手段は、低濃度の画素値を高濃度の画素値に変換することを特徴とする請求項1から14のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the gamma conversion unit converts a low density pixel value into a high density pixel value. 前記検出手段は、0でない値を有する注目画素に隣接する少なくとも2つの画素の値が0である場合、前記注目画素を前記境界画素として検出することを特徴とする請求項1から15のいずれか一項に記載の画像処理装置。   16. The detection unit according to claim 1, wherein when the value of at least two pixels adjacent to a target pixel having a non-zero value is zero, the detection unit detects the target pixel as the boundary pixel. The image processing apparatus according to one item. 前記検出手段は、注目画素と前記注目画素に隣接する隣接画素との差分が閾値を超えている場合、前記注目画素を前記境界画素として検出することを特徴とする請求項1から15のいずれか一項に記載の画像処理装置。   16. The detection unit according to claim 1, wherein the detection unit detects the target pixel as the boundary pixel when a difference between the target pixel and an adjacent pixel adjacent to the target pixel exceeds a threshold value. The image processing apparatus according to one item. 白画素に接する白画素でない白画素境界画素の位置情報を含む入力画像データを入力する入力手段と、
前記入力画像データに組織的ディザ法によるスクリーン処理を行いスクリーン処理後画像データを出力するスクリーン処理手段と、
前記スクリーン処理後画像データにおける前記白画素境界画素の画素位置に対応する画素の値を前記入力画像データにおける前記白画素境界画素の画素位置に対応する画素の値よりも高い値に変換する変換手段と、
前記変換手段で変換された白画素境界画素にドット安定化処理を行うように制御し、
前記白画素境界画素以外に前記ドット安定化処理を行わないように制御する、制御手段と
を有することを特徴とする画像処理装置。
Input means for inputting input image data including position information of white pixel boundary pixels that are not white pixels in contact with white pixels;
Screen processing means for performing screen processing by a systematic dither method on the input image data and outputting image data after the screen processing;
Conversion means for converting a pixel value corresponding to the pixel position of the white pixel boundary pixel in the post-screen processing image data to a value higher than a pixel value corresponding to the pixel position of the white pixel boundary pixel in the input image data When,
Control to perform dot stabilization processing on white pixel boundary pixels converted by the conversion means,
An image processing apparatus comprising: a control unit that performs control so that the dot stabilization processing is not performed on the pixels other than the white pixel boundary pixels.
入力画像のエッジ部に接する高濃度側の境界画素の位置情報を含む入力画像データを入力する入力手段と、
前記入力画像データに組織的ディザ法によるスクリーン処理を行いスクリーン処理後画像データを出力するスクリーン処理手段と、
前記スクリーン処理後画像データにおける前記高濃度側の境界画素の位置に対応する画素の値を前記入力画像データにおける前記高濃度側の境界画素の位置に対応する画素の値よりも高い値に変換する変換手段と、
前記変換手段で変換された前記高濃度側の境界画素にドット安定化処理を行うように制御し、
前記高濃度側の境界画素以外に前記ドット安定化処理を行わないように制御する、制御手段と
を有することを特徴とする画像処理装置。
Input means for inputting input image data including position information of boundary pixels on the high density side in contact with the edge portion of the input image;
Screen processing means for performing screen processing by a systematic dither method on the input image data and outputting image data after the screen processing;
The pixel value corresponding to the position of the high density side boundary pixel in the post-screen processing image data is converted to a value higher than the pixel value corresponding to the position of the high density side boundary pixel in the input image data. Conversion means;
Control to perform dot stabilization processing on the high density side boundary pixels converted by the conversion means,
An image processing apparatus comprising: a control unit configured to perform control so that the dot stabilization processing is not performed except for the boundary pixels on the high density side.
入力画像データにおける境界画素を検出する検出工程と、
前記入力画像データに組織的ディザ法によるスクリーン処理を行いスクリーン処理後画像データを出力するスクリーン処理工程と、
前記入力画像データをガンマ変換してガンマ変換後画像データを出力するガンマ変換工程と、
前記検出工程で検出された境界画素に基づいて、前記スクリーン処理後画像データと前記ガンマ変換後画像データとを合成する合成工程と
を有することを特徴とする画像処理方法。
A detection step of detecting boundary pixels in the input image data;
A screen processing step of performing screen processing by a systematic dither method on the input image data and outputting the image data after the screen processing;
A gamma conversion step of gamma converting the input image data and outputting the image data after gamma conversion;
An image processing method comprising: a combining step of combining the screen-processed image data and the gamma-converted image data based on the boundary pixels detected in the detection step.
白画素に接する白画素でない白画素境界画素の位置情報を含む入力画像データを入力する入力工程と、
前記入力画像データに組織的ディザ法によるスクリーン処理を行いスクリーン処理後画像データを出力するスクリーン処理工程と、
前記スクリーン処理後画像データにおける前記白画素境界画素の画素位置に対応する画素の値を前記入力画像データにおける前記白画素境界画素の画素位置に対応する画素の値よりも高い値に変換する変換工程と、
前記変換工程で変換された白画素境界画素にドット安定化処理を行うように制御し、
前記白画素境界画素以外に前記ドット安定化処理を行わないように制御する、制御工程と
を有することを特徴とする画像処理方法。
An input step of inputting input image data including position information of white pixel boundary pixels that are not white pixels in contact with the white pixels;
A screen processing step of performing screen processing by a systematic dither method on the input image data and outputting the image data after the screen processing;
A conversion step of converting a pixel value corresponding to the pixel position of the white pixel boundary pixel in the post-screen processing image data to a value higher than a pixel value corresponding to the pixel position of the white pixel boundary pixel in the input image data. When,
Control to perform dot stabilization processing on the white pixel boundary pixels converted in the conversion step,
And a control step of controlling not to perform the dot stabilization processing except for the white pixel boundary pixels.
入力画像のエッジ部に接する高濃度側の境界画素の位置情報を含む入力画像データを入力する入力工程と、
前記入力画像データに組織的ディザ法によるスクリーン処理を行いスクリーン処理後画像データを出力するスクリーン処理工程と、
前記スクリーン処理後画像データにおける前記高濃度側の境界画素の位置に対応する画素の値を前記入力画像データにおける前記高濃度側の境界画素の位置に対応する画素の値よりも高い値に変換する変換工程と、
前記変換工程で変換された前記高濃度側の境界画素にドット安定化処理を行うように制御し、
前記高濃度側の境界画素以外に前記ドット安定化処理を行わないように制御する、制御工程と
を有することを特徴とする画像処理方法。
An input step of inputting input image data including position information of boundary pixels on the high density side in contact with the edge portion of the input image;
A screen processing step of performing screen processing by a systematic dither method on the input image data and outputting the image data after the screen processing;
The pixel value corresponding to the position of the high density side boundary pixel in the post-screen processing image data is converted to a value higher than the pixel value corresponding to the position of the high density side boundary pixel in the input image data. Conversion process;
Control to perform dot stabilization processing on the boundary pixels on the high density side converted in the conversion step,
And a control step of performing control so that the dot stabilization processing is not performed except for the boundary pixels on the high density side.
コンピュータを請求項1から19のいずれか一項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 19.
JP2013242889A 2013-06-19 2013-11-25 Image processing apparatus and image processing method Active JP6226717B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013242889A JP6226717B2 (en) 2013-11-25 2013-11-25 Image processing apparatus and image processing method
US14/297,026 US9749496B2 (en) 2013-06-19 2014-06-05 Performing halftone processing using intra-cell sum value differences applied so as to correct boundary pixels

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013242889A JP6226717B2 (en) 2013-11-25 2013-11-25 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2015103952A true JP2015103952A (en) 2015-06-04
JP6226717B2 JP6226717B2 (en) 2017-11-08

Family

ID=53379338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013242889A Active JP6226717B2 (en) 2013-06-19 2013-11-25 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6226717B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328121A (en) * 1992-05-20 1993-12-10 Ricoh Co Ltd Method and device for picture processing
JPH08223421A (en) * 1995-02-15 1996-08-30 Ricoh Co Ltd Image processor
JP2005341249A (en) * 2004-05-27 2005-12-08 Konica Minolta Business Technologies Inc Image processing apparatus
JP2013034183A (en) * 2011-07-07 2013-02-14 Canon Inc Image processing apparatus and control method thereof
JP2013172284A (en) * 2012-02-21 2013-09-02 Konica Minolta Inc Image processing device and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328121A (en) * 1992-05-20 1993-12-10 Ricoh Co Ltd Method and device for picture processing
JPH08223421A (en) * 1995-02-15 1996-08-30 Ricoh Co Ltd Image processor
JP2005341249A (en) * 2004-05-27 2005-12-08 Konica Minolta Business Technologies Inc Image processing apparatus
JP2013034183A (en) * 2011-07-07 2013-02-14 Canon Inc Image processing apparatus and control method thereof
JP2013172284A (en) * 2012-02-21 2013-09-02 Konica Minolta Inc Image processing device and image processing method

Also Published As

Publication number Publication date
JP6226717B2 (en) 2017-11-08

Similar Documents

Publication Publication Date Title
US9749496B2 (en) Performing halftone processing using intra-cell sum value differences applied so as to correct boundary pixels
JP4610517B2 (en) Method and system for extending binary image data to contone image data
JP5436624B2 (en) Image processing apparatus and control method thereof
US8401329B2 (en) Image processing device, display device and image processing method, and its program
KR102318488B1 (en) Image processing apparatus and image processing method
JP2009100228A (en) Image processing apparatus and control method therefor
JP4243854B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4107059B2 (en) Image processing method and image processing apparatus
JP5534787B2 (en) Image processing apparatus and image processing method
JP2016046606A (en) Image processing apparatus, image forming apparatus, image processing method, and program
JP3992789B2 (en) Input image conversion method and pixel value quantization method
JP6613115B2 (en) Image processing apparatus, image processing method, and program
JP2015216455A (en) Image processing device, image processing method and program
KR20100045917A (en) Image processing apparatus and image processing method
KR101330665B1 (en) Apparatus and method for revising halftoning image, image forming device using the same
US6978045B1 (en) Image-processing apparatus
JP6226717B2 (en) Image processing apparatus and image processing method
JP6335016B2 (en) Image processing apparatus and method
JP6159162B2 (en) Image processing apparatus and method
JP2006270655A (en) Apparatus and method for image processing
JP4522812B2 (en) Image processing apparatus, image processing method, program for causing computer to execute the method, and computer-readable recording medium
JP7066562B2 (en) Image processing equipment, image processing methods and programs
US8810859B2 (en) Dot growth system and method
JP4589887B2 (en) Image processing device
JP2010245899A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171010

R151 Written notification of patent or utility model registration

Ref document number: 6226717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151