JP2015095713A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2015095713A
JP2015095713A JP2013233211A JP2013233211A JP2015095713A JP 2015095713 A JP2015095713 A JP 2015095713A JP 2013233211 A JP2013233211 A JP 2013233211A JP 2013233211 A JP2013233211 A JP 2013233211A JP 2015095713 A JP2015095713 A JP 2015095713A
Authority
JP
Japan
Prior art keywords
pixel
data
cell
image data
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013233211A
Other languages
Japanese (ja)
Inventor
健太 寳▲崎▼
Kenta Takarazaki
健太 寳▲崎▼
石川 尚
Takashi Ishikawa
尚 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013233211A priority Critical patent/JP2015095713A/en
Publication of JP2015095713A publication Critical patent/JP2015095713A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To obtain an excellent halftone processing result by properly correcting screen processing (systematic dither method) by a simple method.SOLUTION: There is provided an image processing device including: an edge detection part 101 which detects an edge from input image data and outputs determination data indicative of whether a pixel of interest is a pixel of an edge part; a gamma conversion processing part 102; a screen processing part 103; a selection part 104 which selectively outputs one of gamma conversion image data and screen image data according to the determination data; a first in-cell total calculation part 105 which sums up selection data by cells so as to calculate a first in-cell total value; a second in-cell total calculation part 106 which sums up the input image data by cells so as to calculate a second in-cell total value; a subtraction part 107 which outputs difference data; and a normalization part 108 which calculates a correction amount for each pixel from the difference data. A correction amount (absolute value) of the edge part is smaller than a correction amount (absolute value) of a non-edge part.

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。具体的には、本発明は、スクリーン処理した結果を適切に補正し、良好なハーフトーン画像を出力する画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program. Specifically, the present invention relates to an image processing apparatus, an image processing method, and a program that appropriately correct a result of screen processing and output a good halftone image.

近年、コンピュータ等の画像処理装置で処理した画像データを印刷することが広く行われている。しかしながら、コンピュータ上で画像データが表現する階調数に対して、一般的に、印刷装置や表示装置等の出力装置が表現可能な階調数の方が少ない。このため、画像データの階調数を出力装置で表現可能な階調数に変換するハーフトーン処理がなされることが多い。   In recent years, printing of image data processed by an image processing apparatus such as a computer has been widely performed. However, the number of gradations that can be expressed by an output device such as a printing device or a display device is generally smaller than the number of gradations represented by image data on a computer. For this reason, halftone processing is often performed in which the number of gradations of image data is converted to the number of gradations that can be expressed by an output device.

ハーフトーン処理の一つとして、画像データを周期的に変動する閾値と比較することによって出力値を決定するスクリーン処理(組織的ディザ法)が知られている。スクリーン処理を施すことにより、画像の濃淡を面積階調で表現したスクリーン画像が得られる。特に階調の変化が少ない平坦部においては、均等な間隔で同一形状の網点が形成されるため、良好な画像が得られる。ところが、スクリーン処理した画像データには、視覚的に目立つ繰り返しパターン(モアレ)が発生し、画質が劣化する場合がある。また、画像が細線を含む場合、細線の濃度や角度によって細線の再現性が低下してしまう場合がある。   As one of the halftone processes, a screen process (organized dither method) that determines an output value by comparing image data with a periodically varying threshold value is known. By performing screen processing, a screen image in which the density of the image is expressed by area gradation can be obtained. In particular, in a flat portion where there is little change in gradation, halftone dots having the same shape are formed at equal intervals, so that a good image can be obtained. However, visually repetitive patterns (moire) may occur in the screen-processed image data, and the image quality may deteriorate. In addition, when an image includes a fine line, the reproducibility of the fine line may deteriorate depending on the density and angle of the fine line.

以上の様な画像の劣化を抑制し、良好なスクリーン処理結果を得るための技術が提案されている。例えば、ハーフトーン処理する画像においてモアレが発生しやすい位置を検出し、モアレが発生しやすい領域においては、事前にモアレの原因となる高周波成分を除去することで、モアレを抑制する方法がある(特許文献1)。   Techniques have been proposed for suppressing image deterioration as described above and obtaining good screen processing results. For example, there is a method of detecting a position where moiré is likely to occur in an image to be subjected to halftone processing, and in a region where moiré is likely to occur, by removing high frequency components that cause moiré in advance, thereby suppressing moiré ( Patent Document 1).

また、スクリーン処理(組織的ディザ法)と、誤差拡散法とを組み合わせる方法も提案されている。組織的ディザ法と、誤差拡散法とを組み合わせることにより、ディザ処理に起因する処理前後の誤差の偏りを低減することが出来る(特許文献2)。   A method of combining screen processing (organized dither method) and error diffusion method has also been proposed. By combining the systematic dither method and the error diffusion method, it is possible to reduce the error bias before and after processing due to the dither processing (Patent Document 2).

特開平9−238259号公報JP-A-9-238259 特開2005−252583号公報JP 2005-252583 A

しかしながら、特許文献1に記載された方法では、モアレの発生を低減することは出来るが、一部領域において高周波成分が失われてしまう。中濃度のエッジ部から高周波成分を除去すると、エッジ部のコントラストが低下して不鮮明になり、好ましい画像が得られない場合がある。   However, although the method described in Patent Document 1 can reduce the occurrence of moire, high-frequency components are lost in some areas. When the high frequency component is removed from the edge portion of medium density, the contrast of the edge portion is lowered and unclear, and a preferable image may not be obtained.

また、特許文献2に記載された方法では、各画素に対してディザ処理と、誤差拡散処理とのどちらを適用するか選択している。しかしながら、適切な選択を実行するためには、複雑な処理を必要とする。本発明の目的は、簡易な方法でスクリーン処理(組織的ディザ法)を適切に補正し、良好なハーフトーン処理結果を得ることにある。   In the method described in Patent Document 2, it is selected whether to apply dither processing or error diffusion processing to each pixel. However, in order to perform an appropriate selection, complicated processing is required. An object of the present invention is to appropriately correct the screen processing (organized dither method) by a simple method and obtain a good halftone processing result.

上記の課題を解決するため、本発明に係る画像処理装置は、以下の構成を備える。即ち、本発明の請求項1に記載の発明は、入力画像データにおいてエッジを構成する画素を検出し、注目画素がエッジ部分の画素であるか否かを示す判定データを出力するエッジ検出手段と、前記入力画像データをガンマ変換処理するガンマ変換処理手段と、前記入力画像データをスクリーン処理するスクリーン処理手段と、前記判定データに応じて、画素毎にガンマ変換画像データまたはスクリーン画像データのうちいずれかを構成する画素値が決定されたデータを選択データとして出力する選択手段と、前記スクリーン処理手段で用いられるセル毎の、前記選択データの総和を第1のセル内合計値として算出する第1のセル内合計算出手段と、前記セル毎の前記入力画像データの総和を第2のセル内合計値として算出する第2のセル内合計算出手段と、前記第1のセル内合計値と、前記第2のセル内合計値との差分を算出して差分データを出力する減算手段と、前記差分データに基づいて画素毎の補正量を算出する正規化手段とを備え、前記正規化手段は、前記判定データに応じて、エッジ部分における補正量(絶対値)を非エッジ部分における補正量(絶対値)よりも小さくすることを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention comprises the following arrangement. That is, the invention described in claim 1 of the present invention comprises edge detection means for detecting pixels constituting an edge in input image data and outputting determination data indicating whether or not the pixel of interest is an edge portion pixel. Gamma conversion processing means for gamma conversion processing of the input image data; screen processing means for screen processing of the input image data; either gamma conversion image data or screen image data for each pixel according to the determination data A selection means for outputting data for which the pixel values constituting these are determined as selection data, and a first for calculating the sum total of the selection data for each cell used in the screen processing means as a first in-cell total value. And a second in-cell total for calculating a total sum of the input image data for each cell as a second in-cell total value. A calculating means; a subtracting means for calculating a difference between the first in-cell total value and the second in-cell total value and outputting difference data; and a correction amount for each pixel based on the difference data. Normalization means for calculating, wherein the normalization means makes the correction amount (absolute value) in the edge portion smaller than the correction amount (absolute value) in the non-edge portion according to the determination data. To do.

エッジのドットを線状に連続させることで、そのドットを安定化させる。これにより、文字・線画の画質が向上する。   The dots on the edge are made continuous in a line to stabilize the dots. Thereby, the image quality of a character and a line drawing improves.

実施例1に係る画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to a first embodiment. 実施例2に係る画像処理装置のブロック図である。FIG. 6 is a block diagram of an image processing apparatus according to a second embodiment. スクリーン処理部で用いられるセルの例の説明図である。It is explanatory drawing of the example of the cell used with a screen process part. 実施例1に係る画像処理データの説明図である。6 is an explanatory diagram of image processing data according to Embodiment 1. FIG. 実施例3に係る画像処理装置のブロック図である。FIG. 10 is a block diagram of an image processing apparatus according to a third embodiment. 実施例4に係る画像処理装置のブロック図である。FIG. 10 is a block diagram of an image processing apparatus according to a fourth embodiment. 実施例2に係る画像処理データの説明図である。6 is an explanatory diagram of image processing data according to Embodiment 2. FIG.

以下、添付図面を参照して、本発明の実施形態を説明する。尚、以降の実施例において使用される画像データとしては、濃度成分のみを持つモノクロスケール画像データを想定している。   Embodiments of the present invention will be described below with reference to the accompanying drawings. As image data used in the following embodiments, monochrome scale image data having only a density component is assumed.

図1は、本実施例に係る画像処理装置の構成を示すブロック図である。図1に示す画像処理装置は、入力された画像データをより少ない階調数のハーフトーン画像データに変換する。本明細書では、画像処理装置に入力された画像データを「入力画像データ」と略記する。画像処理装置は、エッジ検出部101、白画素検出部111、ガンマ変換処理部102、スクリーン処理部103、選択部104、セル内合計算出部105・106、減算部107、正規化部108、加算部109、及び安定化部110から構成される。以下、各構成の概要について説明する。   FIG. 1 is a block diagram illustrating the configuration of the image processing apparatus according to the present embodiment. The image processing apparatus shown in FIG. 1 converts input image data into halftone image data having a smaller number of gradations. In this specification, image data input to the image processing apparatus is abbreviated as “input image data”. The image processing apparatus includes an edge detection unit 101, a white pixel detection unit 111, a gamma conversion processing unit 102, a screen processing unit 103, a selection unit 104, an in-cell total calculation unit 105/106, a subtraction unit 107, a normalization unit 108, and an addition. Part 109 and stabilization part 110. Hereinafter, an outline of each component will be described.

エッジ検出部101は、入力画像データからエッジを検出し、画素毎にエッジ部分の画素かそうでないかを示す判定データを生成する。エッジ検出部101は、判定データを選択部104、正規化部108、及び安定化部110に出力する。   The edge detection unit 101 detects an edge from the input image data, and generates determination data indicating whether the pixel is an edge portion or not for each pixel. The edge detection unit 101 outputs the determination data to the selection unit 104, the normalization unit 108, and the stabilization unit 110.

白画素検出部111は、入力画像データにおける白画素を検出する。白画素とは入力画像データにおいて画素値が0である画素である。画素ごとに白画素を示す白画素判定データを生成し、白画素判定データをセル内合計算出部105・106及び正規化部108に出力する。   The white pixel detection unit 111 detects white pixels in the input image data. A white pixel is a pixel having a pixel value of 0 in the input image data. White pixel determination data indicating a white pixel is generated for each pixel, and the white pixel determination data is output to the in-cell total calculation units 105 and 106 and the normalization unit 108.

ガンマ変換処理部102は、入力画像データに対してガンマ変換処理を施す。γ変換処理をした結果得られる画像データを、ガンマ変換画像データとして選択部104に出力する。   The gamma conversion processing unit 102 performs gamma conversion processing on the input image data. Image data obtained as a result of the γ conversion processing is output to the selection unit 104 as gamma converted image data.

スクリーン処理部103は、入力画像データに対してスクリーン処理(組織的ディザ処理)を施し、より少ない階調数である画像データ(本明細書では、「スクリーン画像データ」と称呼する)に変換する。スクリーン処理部103は、画素毎に入力画素値と、対応する閾値とを比較することで、量子化を実行する。本明細書では、スクリーン処理部103が量子化した結果得られる各画素の値を「スクリーン画素値」と呼ぶことにする。スクリーン画像データは、各画素に対するスクリーン画素値によって構成される。即ち、スクリーン処理部103は、入力画像データを構成する各入力画素値を、スクリーン処理によってスクリーン画像データを構成するスクリーン画素値に変換し、スクリーン画像データを選択部104に出力する。   The screen processing unit 103 performs screen processing (systematic dither processing) on the input image data, and converts the input image data into image data having a smaller number of gradations (referred to as “screen image data” in this specification). . The screen processing unit 103 performs quantization by comparing the input pixel value with the corresponding threshold value for each pixel. In this specification, the value of each pixel obtained as a result of quantization by the screen processing unit 103 is referred to as a “screen pixel value”. The screen image data is composed of screen pixel values for each pixel. That is, the screen processing unit 103 converts each input pixel value constituting the input image data into a screen pixel value constituting the screen image data by screen processing, and outputs the screen image data to the selection unit 104.

選択部104は、エッジ検出部101による検出結果に基づいて、画素毎にスクリーン画像データを構成するスクリーン画素値かガンマ変換処理画像データを構成する画素値のいずれかを選択する。スクリーン画像データおよびガンマ変換処理画像データはそれぞれ、画素位置が対応する。選択部104は、対応する画素位置ごとに、スクリーン画素値かガンマ変換処理画像データを構成する画素値かのいずれかを選択したデータを、選択データとしてセル内合計算出部105及び加算部109に出力する。   The selection unit 104 selects either a screen pixel value constituting screen image data or a pixel value constituting gamma conversion processed image data for each pixel based on the detection result by the edge detection unit 101. Each of the screen image data and the gamma conversion processed image data corresponds to a pixel position. The selection unit 104 selects, for each corresponding pixel position, data that selects either the screen pixel value or the pixel value constituting the gamma conversion processed image data as selection data in the in-cell total calculation unit 105 and the addition unit 109. Output.

セル内合計算出部105は、選択部104から出力された選択データにおいて、セルごとにセルに含まれる画素を表す画素値の総和を算出する。同様に、セル内合計算出部106は、入力画像データに対してセルごとにセルに含まれる画素を表す画素値の総和を算出する。つまりセル内合計算出部105およびセル内合計値算出部106は、処理の対象とするデータが異なるだけで動作は同じである。セル内合計算出部105およびセル内合計値算出部106は、セル毎の画素値の総和を減算部107に出力する。   The in-cell total calculation unit 105 calculates the sum of pixel values representing pixels included in the cell for each cell in the selection data output from the selection unit 104. Similarly, the in-cell total calculation unit 106 calculates the sum of pixel values representing pixels included in the cell for each cell with respect to the input image data. That is, the in-cell total calculation unit 105 and the in-cell total value calculation unit 106 have the same operation except for the data to be processed. The in-cell total calculation unit 105 and the in-cell total value calculation unit 106 output the sum of pixel values for each cell to the subtraction unit 107.

減算部107は、画素毎に入力画像データと、選択部104から得られる選択データとの差分値を算出する。入力画像データおよび選択データは、各画素位置が対応している。減算部107は、ある画素位置について、入力画像データを構成する画素値と、選択データを構成する画素値との差分を算出し、該画素位置の差分値として決定する。そして、減算部107は、各画素の差分値が構成する差分データを正規化部108に出力する。   The subtraction unit 107 calculates a difference value between the input image data and the selection data obtained from the selection unit 104 for each pixel. Each pixel position corresponds to the input image data and the selection data. The subtraction unit 107 calculates a difference between a pixel value constituting the input image data and a pixel value constituting the selection data for a certain pixel position, and determines the difference as a difference value of the pixel position. Then, the subtraction unit 107 outputs the difference data formed by the difference value of each pixel to the normalization unit 108.

正規化部108は、減算部107から得られる差分データに基づいて画素毎の補正量を算出し、補正データを生成する。正規化部108は、補正データを加算部109に出力する。このとき、正規化部108は、エッジ検出部101からの判定データも参照し、その値に応じて画素毎に補正量の算出方法を変える。   The normalization unit 108 calculates a correction amount for each pixel based on the difference data obtained from the subtraction unit 107, and generates correction data. The normalizing unit 108 outputs the correction data to the adding unit 109. At this time, the normalization unit 108 also refers to the determination data from the edge detection unit 101, and changes the correction amount calculation method for each pixel according to the value.

加算部109は、選択部104で得られた選択データの各画素に対して、正規化部108で得られた補正データにおいて対応する画素の補正量を加算して中間データを出力し、安定化部110に出力する。   The addition unit 109 adds the correction amount of the corresponding pixel in the correction data obtained by the normalization unit 108 to each pixel of the selection data obtained by the selection unit 104, and outputs intermediate data for stabilization. Output to the unit 110.

安定化部110は、加算部109から得られる中間データにおいて、ドットが安定していないデータを検出し、後段の画像形成装置がドットを安定して出力可能なデータに置換する。   The stabilizing unit 110 detects data in which dots are not stable in the intermediate data obtained from the adding unit 109, and replaces the data with data that can be output stably by the subsequent image forming apparatus.

以上が画像処理装置の構成要素の概要である。以下、各部の処理を詳細に説明する。   The above is the outline of the components of the image processing apparatus. Hereinafter, the processing of each unit will be described in detail.

エッジ検出部101は、入力画像データに存在するエッジを検出し、画素毎に結果を判定データとして出力する。エッジの検出方法は既に様々な方法が多数提案されており、ここでは特に規定しない。一例を挙げると、以下に記す方法でエッジを検出出来る。入力画像データを構成する注目画素の画素値から注目画素の上下左右の4画素の画素値をそれぞれ減算して差分を4つ算出し、得られた4つの差分の最大値が予め定めた閾値以上である場合に、エッジ検出部101は、注目画素をエッジ部分だと判定する。即ち、この方法では、エッジの高濃度側をエッジ部分だと判定する。エッジ検出部101は、入力画像データにおける注目画素がエッジ部分だと判定したら判定データとして“1”を出力し、注目画素がエッジ部分ではないと判定したら判定データとして“0”を出力する。   The edge detection unit 101 detects an edge present in the input image data, and outputs the result as determination data for each pixel. Many methods for detecting edges have already been proposed, and are not particularly defined here. For example, an edge can be detected by the following method. Four differences are calculated by subtracting the pixel values of the upper, lower, left, and right pixels of the target pixel from the pixel value of the target pixel constituting the input image data, and the maximum value of the obtained four differences is equal to or greater than a predetermined threshold value. The edge detection unit 101 determines that the pixel of interest is an edge portion. That is, in this method, it is determined that the high density side of the edge is the edge portion. The edge detection unit 101 outputs “1” as determination data when it is determined that the target pixel in the input image data is an edge portion, and outputs “0” as determination data when it is determined that the target pixel is not an edge portion.

ガンマ変換処理部102は、エッジ部分のドットを連続させて安定化を図るために、入力画像データに対してエッジ用に最適化されたガンマ補正を行う。ガンマ補正の様な一対一の変換をかける方法としては様々な手法が提案されており、公知の手法を用いれば良い。通常はテーブルを参照するという構成が多く用いられる。   The gamma conversion processing unit 102 performs gamma correction optimized for edges on the input image data in order to stabilize the dots in the edge portion continuously. Various methods have been proposed as a method of performing one-to-one conversion such as gamma correction, and a known method may be used. Usually, a configuration of referring to a table is often used.

スクリーン処理部103は、入力画像データに対してスクリーン処理を行い、スクリーン処理データを出力する。図3は、スクリーン処理部103で用いられる閾値群を示している。図3において、太線で囲まれた領域がセルを示し、セル内の数字は閾値を示している。ここではセル内に32個の閾値が存在しており、それぞれの閾値は、入力画像データを構成する各画素に対応する。スクリーン処理部103は、閾値群におけるそれぞれの閾値に基づいて対応する入力画素値を2値化する。スクリーン処理によって得られるスクリーン画像データにおいては、セル内の全ての画素値が0の場合からセル内の全スクリーン画素値が1の場合まである。従って、セルにおけるスクリーン画素値の総和は0以上32以下となるため、セルごとに33階調の表現が出来ることとなる。尚、上述したように、スクリーン処理部103は、入力画素値を2値化するものの実際には“0”、“1”の2値で出力するのではなく、量子化代表値に相当する値を出力する。つまり、スクリーン処理部103は、入力画素値が閾値より小さい場合は“0”を、閾値より大きい場合は“255”を出力する。   The screen processing unit 103 performs screen processing on the input image data and outputs screen processing data. FIG. 3 shows threshold groups used in the screen processing unit 103. In FIG. 3, a region surrounded by a thick line indicates a cell, and a number in the cell indicates a threshold value. Here, there are 32 threshold values in the cell, and each threshold value corresponds to each pixel constituting the input image data. The screen processing unit 103 binarizes the corresponding input pixel value based on each threshold value in the threshold value group. In the screen image data obtained by the screen processing, there is a case where all pixel values in a cell are 0 to a case where all screen pixel values in the cell are 1. Accordingly, the sum of the screen pixel values in the cell is 0 or more and 32 or less, so that 33 gradations can be expressed for each cell. As described above, the screen processing unit 103 binarizes the input pixel value, but actually does not output the binary value of “0” and “1”, but a value corresponding to the quantized representative value. Is output. That is, the screen processing unit 103 outputs “0” when the input pixel value is smaller than the threshold, and “255” when larger than the threshold.

選択部104は、エッジ検出部101で得られた判定データに応じて、スクリーン画像データかガンマ変換画像データのいずれかを画素毎に選択して出力する。具体的には、入力された判定データにおける注目画素の値が“1”、つまり注目画素がエッジ部分の画素であることを示している場合、選択部104は、注目画素の位置におけるガンマ変換画像データの画素値を選択して出力する。一方、判定データにおける注目画素の値が“0”、つまり注目画素が非エッジ部分の画素であることを示している場合、選択部104は、注目画素の位置におけるスクリーン画像データの画素値を選択して出力する。場合分けすると以下のように記述出来る。
(i)判定データが“1”のとき
選択データ=ガンマ変換画像データ
(ii)判定データが“0”のとき
選択データ=スクリーン画像データ
エッジ部分においてはスクリーン処理により線の途切れやジャギー等が発生しやすい場合が多く、また、線の途切れやジャギーは画質劣化の原因となる。そこで、エッジ部分については、選択部104がガンマ変換画像データを出力してスクリーン処理による線の途切れを防いでおくことで、画質劣化を防ぐことが出来る。こうして得られた選択データは、エッジ部分を除いてスクリーン処理によって得られた安定した構造を持っている。ただし、エッジ部分においてはスクリーン処理によって得られたデータではないため、所望の画像形成装置がドットを形成するのに安定したデータとは言えない。つまり、ガンマ変換画像データが選択された画素は、ドットを形成するのに不安定なデータで表されていることになる。
The selection unit 104 selects and outputs either screen image data or gamma converted image data for each pixel according to the determination data obtained by the edge detection unit 101. Specifically, when the value of the target pixel in the input determination data is “1”, that is, when the target pixel is an edge portion pixel, the selection unit 104 performs the gamma conversion image at the position of the target pixel. Select and output the pixel value of the data. On the other hand, if the value of the target pixel in the determination data is “0”, that is, indicates that the target pixel is a non-edge pixel, the selection unit 104 selects the pixel value of the screen image data at the target pixel position. And output. If divided into cases, it can be described as follows.
(I) When the judgment data is “1”, the selection data = gamma conversion image data (ii) When the judgment data is “0”, the selection data = the screen image data. In many cases, line breaks and jaggies cause image quality degradation. Therefore, for the edge portion, the selection unit 104 outputs gamma converted image data to prevent line breaks due to screen processing, thereby preventing image quality deterioration. The selection data obtained in this way has a stable structure obtained by screen processing excluding the edge portion. However, since the edge portion is not data obtained by screen processing, it cannot be said that the desired image forming apparatus is stable data for forming dots. That is, the pixel for which gamma conversion image data is selected is represented by data that is unstable for forming dots.

セル内合計算出部105は、選択部104から出力された選択データについてセルごとに画素値の総和を取る。セル内合計算出部105は、セル毎の画素値の総和を第1の合計値データとして出力する。セル内合計算出部105は、画素値の総和を算出するときには白画素検出部111からの白画素判定データも参照する。白画素判定データが白画素と示す画素については、選択データにおいて0より大きい画素値をもっていても、セル内の画素値の総和には加えない。つまり、セル内合計算出部105は、入力画像データにおいて画素値が0の画素位置に対応する選択データの画素は、総和を取るときの対象外とする。尚、ガンマ変換やスクリーン処理によって白画素の画素値が0からそれより大きな値に変換されるということが無い場合は、白画素として0を加算するので、セル内合計算出部105が白画素判定データを参照する必要はない。ここで用いられるセルは、スクリーン処理部103で使用したセルと同じ形状のセルを使用する(図3を参照)。   The in-cell total calculation unit 105 calculates the sum of pixel values for each cell for the selection data output from the selection unit 104. The in-cell total calculation unit 105 outputs the sum of pixel values for each cell as first total value data. The in-cell total calculation unit 105 also refers to white pixel determination data from the white pixel detection unit 111 when calculating the sum of pixel values. For pixels whose white pixel determination data indicates a white pixel, even if the selection data has a pixel value greater than 0, it is not added to the sum of the pixel values in the cell. That is, the in-cell total calculation unit 105 excludes the pixels of the selection data corresponding to the pixel position having a pixel value of 0 in the input image data when taking the sum. If the pixel value of the white pixel is not converted from 0 to a larger value by gamma conversion or screen processing, 0 is added as the white pixel, so the in-cell total calculation unit 105 determines the white pixel. There is no need to reference the data. The cell used here is a cell having the same shape as the cell used in the screen processing unit 103 (see FIG. 3).

セル内合計算出部106は、前述の通りセル内合計算出部105と入力データが異なるだけで動作は同じである。セル内合計算出部106は入力画像データを入力としてセル毎の合計値を算出し、第2の合計値データとして出力する。   The in-cell total calculation unit 106 is the same in operation as the in-cell total calculation unit 105 except for the input data as described above. The in-cell total calculation unit 106 receives the input image data, calculates a total value for each cell, and outputs it as second total value data.

減算部107は、入力画像データを基準として選択データの濃度変動量を算出する。即ち、対応するセルごとに第2の合計値データから第1の合計値データを減算して差分データとして出力する。差分データは、セル単位での濃度変動量を表している。また、差分データは、ガンマ変換やスクリーン処理に起因する濃度変動を表し、次段の正規化部108での補正量算出に用いられる。   The subtraction unit 107 calculates the density fluctuation amount of the selection data using the input image data as a reference. That is, for each corresponding cell, the first total value data is subtracted from the second total value data and output as difference data. The difference data represents the density fluctuation amount in cell units. The difference data represents a density variation caused by gamma conversion or screen processing, and is used for correction amount calculation in the normalization unit 108 at the next stage.

正規化部108は、差分データに基づいて1画素当たりの濃度補正量を求める。予め正規化部108にはセル形状を記憶しておくか設定しておき、入力された判定データからセル内のエッジ部分の画素数をカウントする。同時に、白画素判定データを参照して、セル内の白画素の画素数をカウントする。次に、画素毎に判定データを参照し、判定データが“1”で注目画素がエッジ部分の画素であることを示している場合、差分データを、セル面積(セル内の画素数)から白画素の画素数を減算した値で除算して補正量を算出する。判定データが“0”であり、且つ判定データ“1”の画素に上下左右の4近傍のいずれかで隣接している画素に対しては、差分データを、セル面積からエッジ部分の画素数と、白画素の画素数とを減算した値で除算して補正量を算出する。判定データが“0”であり、且つ判定データが“1”の画素に隣接していない画素に対しては、差分データを、セル面積から白画素の画素数を減算した値で除算して補正量を算出する。これらを式で表すと以下のように記述出来る。
(i)判定データが“1”のとき(注目画素がエッジ部分の画素であるとき)
補正量=差分データ/(セル面積−白画素の画素数)
(ii)判定データが“0”で、且つ判定データが“1”の画素に隣接しているとき(注目画素が非エッジ部分の画素であり、エッジ部分の画素に隣接しているとき)
補正量=差分データ/(セル面積−エッジ部分の画素数−白画素の画素数)
(iii)判定データが“0”で、且つ判定データが“1”の画素に隣接していないとき(注目画素が非エッジ部分の画素であり、エッジ部分の画素に隣接していないとき)
補正量=差分データ/(セル面積−白画素の画素数)
上記の式から分かる通り(i)の条件により求まる補正量は(ii)の条件で求まる補正量よりも小さい。前述したように、エッジ部分については、選択部104によってスクリーン画像データではなくガンマ変換データが選択されているため、エッジ部分は途切れることなく線状に連続している。また、ガンマ変換データは濃度が上がる方向への効果があるので、その効果を低減するために補正量はマイナスの値になる場合が多い。そのため、エッジ部分に対してエッジ近傍の部分と同じ補正を行うと、エッジ部分が途切れてしまい連続性を失ってしまう可能性がある。そのために、実施例1では、エッジ部分における補正量(上記(i)の場合)を、エッジ近傍部分における補正量に比較して小さくしている。また、スクリーン画像データが選択されており、且つエッジ部分の画素に隣接していない部分に関しては(即ち、上記(iii)の場合)、既に画像形成装置に適した値となっているため、基本的には補正を必要としない。本実施例では、(i)と同様に、比較的小さな補正量を設定する。
The normalizing unit 108 obtains a density correction amount per pixel based on the difference data. The normalization unit 108 stores or sets the cell shape in advance, and counts the number of pixels at the edge portion in the cell from the input determination data. At the same time, the number of white pixels in the cell is counted with reference to the white pixel determination data. Next, referring to the determination data for each pixel, if the determination data is “1” and the target pixel is an edge portion pixel, the difference data is calculated from the cell area (the number of pixels in the cell) to white. The correction amount is calculated by dividing the number of pixels by the value obtained by subtraction. For pixels whose determination data is “0” and which are adjacent to the pixel of determination data “1” in any of the four neighborhoods of the top, bottom, left and right, the difference data is calculated from the cell area to the number of pixels in the edge portion. Then, the correction amount is calculated by dividing by the value obtained by subtracting the number of white pixels. For pixels whose determination data is “0” and whose determination data is not “1”, the difference data is corrected by dividing by the value obtained by subtracting the number of white pixels from the cell area. Calculate the amount. These can be described as follows:
(I) When the determination data is “1” (when the target pixel is an edge pixel)
Correction amount = difference data / (cell area−number of white pixels)
(Ii) When the determination data is “0” and the determination data is adjacent to the pixel “1” (when the target pixel is a non-edge portion pixel and adjacent to the edge portion pixel)
Correction amount = difference data / (cell area−number of pixels of edge portion−number of pixels of white pixel)
(Iii) When the determination data is “0” and the determination data is not adjacent to the pixel “1” (when the target pixel is a non-edge portion pixel and not adjacent to the edge portion pixel)
Correction amount = difference data / (cell area−number of white pixels)
As can be seen from the above equation, the correction amount obtained under the condition (i) is smaller than the correction amount obtained under the condition (ii). As described above, for the edge portion, not the screen image data but the gamma conversion data is selected by the selection unit 104, so that the edge portion is continuous in a linear shape without interruption. In addition, since the gamma conversion data has an effect in the direction of increasing the density, the correction amount is often a negative value in order to reduce the effect. For this reason, if the same correction is performed on the edge portion as in the vicinity of the edge, the edge portion may be interrupted and the continuity may be lost. Therefore, in the first embodiment, the correction amount at the edge portion (in the case of (i) above) is made smaller than the correction amount at the edge vicinity portion. In addition, since the screen image data is selected and the portion that is not adjacent to the pixel of the edge portion (that is, in the case of (iii) above), the value is already suitable for the image forming apparatus. In fact, no correction is required. In this embodiment, a relatively small correction amount is set as in (i).

加算部109は、画素ごとに選択データに対して、補正データにおいて対応する画素位置の補正量を加算し、中間データを生成する。   The adding unit 109 adds the correction amount of the corresponding pixel position in the correction data to the selection data for each pixel to generate intermediate data.

安定化部110は、入力された中間データを画像形成装置が安定して出力出来る値へ変換する。安定化の処理方法は特に限定しないが、一例を上げると次のような方法で安定化が可能である。   The stabilizing unit 110 converts the input intermediate data into a value that can be output stably by the image forming apparatus. Although the stabilization processing method is not particularly limited, for example, stabilization is possible by the following method.

ここでは、図示しないこの後のパルス幅変調回路(以下PWM回路と記す)における最小パルス幅を保証するような動作を行う例について説明する。安定化部110は、注目画素における中間画素値が予め設定した最小値未満で、且つ近傍画素に0でない中間画素値を持つ画素が存在する場合、注目画素における中間画素値が前記予め設定した最小値以上となるようにする。具体的には、注目画素が持つ中間画素値か近傍画素が持つ中間画素値のうち値の大きな方の中間画素値に値の小さい方の中間画素値を合算する。そして、値の小さい方の中間画素値を0にする。ここで、合算後の中間画素値がなお前記予め設定した最小値未満である場合は、合算した中間画素値を前記予め設定した最小値に置換する。また、注目画素の左右に0でない中間画素値を持つ画素がある場合は、PWM回路の位相を制御し、パルスが連続するようにしても良い。一方、注目画素の中間画素値が予め設定した最小値未満で、且つ近傍画素に0でない中間画素値を持つ画素が存在しない場合は、注目画素の中間画素値を前記予め設定した最小値に置換するようにしても良い。   Here, an example will be described in which an operation for guaranteeing the minimum pulse width in a subsequent pulse width modulation circuit (hereinafter referred to as a PWM circuit) (not shown) is performed. When the intermediate pixel value in the target pixel is less than the preset minimum value and there is a pixel having an intermediate pixel value other than 0 in the neighboring pixels, the stabilizing unit 110 determines that the intermediate pixel value in the target pixel is the preset minimum value. Try to be greater than or equal to the value Specifically, the intermediate pixel value having the smaller value is added to the intermediate pixel value having the larger value among the intermediate pixel values of the target pixel or the intermediate pixel values of the neighboring pixels. Then, the intermediate pixel value having the smaller value is set to zero. Here, when the summed intermediate pixel value is still less than the preset minimum value, the summed intermediate pixel value is replaced with the preset minimum value. Further, when there are pixels having intermediate pixel values other than 0 on the left and right of the target pixel, the phase of the PWM circuit may be controlled so that the pulses are continuous. On the other hand, when the intermediate pixel value of the target pixel is less than the preset minimum value and there is no pixel having an intermediate pixel value other than 0 in the neighboring pixels, the intermediate pixel value of the target pixel is replaced with the preset minimum value. You may make it do.

図4を用いてここまでの処理過程を説明する。図4(a)は、入力画像データを示している。まず、エッジ検出部101によって、入力画像データに対してエッジ検出が実行され、図4(b)に示す判定データが得られる。図4(b)に示す判定データにおいて、エッジ部分として検出される画素は“1”が、エッジ部分として検出されなかった画素は“0”が格納されている。前述したように、図3は、スクリーン処理に用いられる閾値群を示している。図3に示す閾値群を用いて入力データに対してスクリーン処理を施すと、図4(c)に示すスクリーン処理データが得られる。図4(d)は選択データを示しており、画素毎にスクリーン画像データと、ガンマ変換データとのいずれかが判定データに応じて選択されている。図4(d)中の画素値187は、ガンマ変換データであり、入力データの96をガンマ変換した結果を表している。セル内合計算出部105で計算した図4(d)のセル内合計値は187×8+255×5=2771であり、セル内合計算出部106で計算した図4(a)のセル内合計値は96×21=2016である。次に、減算部107によって、これら二つのセル内合計値の差分を取る。次に、正規化部108によって、各画素の補正量を算出する。図4の例では、セル面積(セル内画素数)が32であり、セル内の白画素の画素数が11であり、セル内のエッジ部分の画素数が8である。従って、エッジ部分に対する補正量は(2016−2771)/(32−11)を計算して−35と算出出来る。また、エッジ隣接部分に対する補正量は(2016−2771)/(32−11−8)を計算して−58と算出出来る。この結果から、エッジ部分に対する補正量はエッジ隣接部分に対する補正量と比較して大きさ(絶対値)が小さくなっていることが分かる。こうして得られた補正量を、加算部109によって、図4(d)に示す選択データに加算して、図4(e)に示す中間データが得られる。その後、安定化部110によって、得られた中間データに対して安定化処理を施す。   The process so far will be described with reference to FIG. FIG. 4A shows input image data. First, edge detection is performed on the input image data by the edge detection unit 101, and determination data shown in FIG. 4B is obtained. In the determination data shown in FIG. 4B, “1” is stored for pixels detected as edge portions, and “0” is stored for pixels that are not detected as edge portions. As described above, FIG. 3 shows threshold groups used for screen processing. When screen processing is performed on the input data using the threshold group shown in FIG. 3, screen processing data shown in FIG. 4C is obtained. FIG. 4D shows selection data, and either screen image data or gamma conversion data is selected for each pixel according to the determination data. A pixel value 187 in FIG. 4D is gamma conversion data, and represents the result of gamma conversion of 96 of the input data. The in-cell total value of FIG. 4D calculated by the in-cell total calculation unit 105 is 187 × 8 + 255 × 5 = 22771, and the in-cell total value of FIG. 4A calculated by the in-cell total calculation unit 106 is 96 × 21 = 2016. Next, the subtraction unit 107 calculates the difference between these two in-cell total values. Next, the normalization unit 108 calculates a correction amount for each pixel. In the example of FIG. 4, the cell area (the number of pixels in the cell) is 32, the number of white pixels in the cell is 11, and the number of pixels in the edge portion in the cell is 8. Accordingly, the correction amount for the edge portion can be calculated as -35 by calculating (2016-2771) / (32-11). Further, the correction amount for the edge adjacent portion can be calculated as −58 by calculating (2016-2771) / (32-11-8). From this result, it can be seen that the correction amount for the edge portion is smaller in magnitude (absolute value) than the correction amount for the edge adjacent portion. The correction amount obtained in this way is added to the selection data shown in FIG. 4D by the adding unit 109 to obtain intermediate data shown in FIG. Thereafter, the stabilization unit 110 performs stabilization processing on the obtained intermediate data.

以上、実施例1では、正規化部108において補正量を決定するときに、エッジ部分における補正量をエッジ近傍の部分における補正量と比較して小さくするという構成について説明した。かかる構成により、エッジ部に関して選択部104で選択されたガンマ変換データによって表現されるエッジや線が補正によって途切れてしまうことを防ぎ、エッジ部分を線状に連続させることが出来る。よって、文字・線画の画質を向上させることが可能となる。   As described above, the first embodiment has described the configuration in which when the normalization unit 108 determines the correction amount, the correction amount at the edge portion is smaller than the correction amount at the portion near the edge. With this configuration, it is possible to prevent the edges and lines expressed by the gamma conversion data selected by the selection unit 104 with respect to the edge portions from being interrupted by the correction, and to make the edge portions continuous in a linear shape. Therefore, the image quality of characters / line drawings can be improved.

実施例2では、実施例1に比較してガンマ変換処理部102の無い構成について説明する。図2は、実施例2に係る画像処理装置の構成を示すブロック図である。実施例2が実施例1と異なる点は、ガンマ変換処理部102が無い点と、正規化部の動作が異なる点である(図1及び図2を参照)。図2において、実施例1と同じ動作をする構成要素は図1と同じ符号を付した。従って、以下では、実施例2と、実施例1との相違点についてのみ説明する。   In the second embodiment, a configuration without the gamma conversion processing unit 102 as compared with the first embodiment will be described. FIG. 2 is a block diagram illustrating the configuration of the image processing apparatus according to the second embodiment. The difference between the second embodiment and the first embodiment is that the gamma conversion processing unit 102 is not provided and the operation of the normalization unit is different (see FIGS. 1 and 2). In FIG. 2, the same reference numerals as those in FIG. Therefore, hereinafter, only differences between the second embodiment and the first embodiment will be described.

まず、ガンマ変換部が存在しないので、選択部104にはガンマ変換データではなく、入力画像データが入力される。選択部104については、取り扱うデータが異なるだけで、実行する処理は実施例1と同じである。具体的には、エッジ検出部101からの判定データにおいて注目画素が“1”である場合は、選択部104は、入力画像データにおける注目画素位置の画素値を選択して出力する。一方、エッジ検出部101からの判定データにおいて注目画素が“0”のときは、選択部104は、スクリーン処理データにおける注目画素位置の画素値を選択して出力する。   First, since there is no gamma conversion unit, input image data is input to the selection unit 104 instead of gamma conversion data. The selection unit 104 is the same as that of the first embodiment except that the data handled is different. Specifically, when the target pixel is “1” in the determination data from the edge detection unit 101, the selection unit 104 selects and outputs the pixel value of the target pixel position in the input image data. On the other hand, when the target pixel is “0” in the determination data from the edge detection unit 101, the selection unit 104 selects and outputs the pixel value of the target pixel position in the screen processing data.

正規化部208は、判定データ及び白画素判定データを参照し、判定データが“1”で注目画素がエッジ部分の画素であることを示している場合、差分データを、セル面積から白画素の画素数を減算した値を定数倍(M倍とする)した値で除算して補正量を算出する。ここでMは定数として予め決めておいても良いし、レジスタで設定するという構成にしても良い。良好な処理結果を得るためには、Mの値としておおよそ1.5以上且つ2以下の範囲内の一値を使用するのが良いだろう。一方、入力される判定データが“0”の場合は、差分データを、セル面積から白画素の画素数を減算した値で除算して補正量を算出する。これらを式で表すと以下のように記述出来る。
(i)判定データが“1”のとき(注目画素がエッジ部分の画素であるとき)
補正量=差分データ/((セル面積−白画素の画素数)×M)
(ii)判定データが“0”のとき(注目画素が非エッジ部分の画素であるとき)
補正量=差分データ/(セル面積−白画素の画素数)
このように実施例2においても実施例1と同様に、(i)の条件で求まる補正量は(ii)の条件で求まる補正量よりも大きさ(絶対値)が小さい。従って、実施例1と同じく補正によってエッジが途切れることを防ぐことが出来る。
The normalization unit 208 refers to the determination data and the white pixel determination data. When the determination data is “1” and the target pixel is the edge portion pixel, the normalization unit 208 calculates the difference data from the cell area to the white pixel. A correction amount is calculated by dividing a value obtained by subtracting the number of pixels by a value obtained by multiplying by a constant (M times). Here, M may be determined in advance as a constant or may be set by a register. In order to obtain a good processing result, it is better to use a value of about 1.5 or more and 2 or less as the value of M. On the other hand, when the input determination data is “0”, the correction amount is calculated by dividing the difference data by the value obtained by subtracting the number of white pixels from the cell area. These can be described as follows:
(I) When the determination data is “1” (when the target pixel is an edge pixel)
Correction amount = difference data / ((cell area−number of white pixels) × M)
(Ii) When the determination data is “0” (when the target pixel is a non-edge pixel)
Correction amount = difference data / (cell area−number of white pixels)
As described above, in the second embodiment, similarly to the first embodiment, the correction amount obtained under the condition (i) is smaller in magnitude (absolute value) than the correction amount obtained under the condition (ii). Therefore, the edge can be prevented from being interrupted by the correction as in the first embodiment.

図7を用いて具体例を説明する。実施例1と同様に、入力画像データを図4(a)に示すものとし、スクリーン処理部103で用いられる閾値群を図3に示すものとする。このとき、白画素検出部111の出力する判定データは図4(b)に、スクリーン処理データは図4(c)に示すものとなり、これらは実施例1と同じである。しかし、実施例2では、選択データとしてエッジ部分においてガンマ処理データではなく入力画像データが選択されるので、選択データは図7(a)に示すようになる。従って、セル内合計算出部105にて算出される値は、96×8+255×5=2043となる。入力画素データが“0”であるデータを除いたセル内画素の個数は実施例1と同じく21であるので、正規化部208において、エッジ部分に対する補正量は((2016−2043)/(21×1.5)を計算して0と算出される。ただし、M=1.5とした。一方、非エッジ部分に対する補正量は((2016−2043)/21を計算して−1と算出される。従って、実施例2においても、エッジ部分に対する補正量は、非エッジ部分に対する補正量と比較して大きさ(絶対値)が小さくなっていることが分かる。   A specific example will be described with reference to FIG. As in the first embodiment, the input image data is shown in FIG. 4A, and the threshold value group used in the screen processing unit 103 is shown in FIG. At this time, the determination data output by the white pixel detection unit 111 is as shown in FIG. 4B, and the screen processing data is as shown in FIG. 4C. These are the same as those in the first embodiment. However, in the second embodiment, input image data is selected as selection data instead of gamma processing data at the edge portion, and the selection data is as shown in FIG. Therefore, the value calculated by the in-cell total calculation unit 105 is 96 × 8 + 255 × 5 = 2043. Since the number of pixels in the cell excluding data whose input pixel data is “0” is 21 as in the first embodiment, the correction amount for the edge portion is ((2016-2043) / (21 X1.5) is calculated to be 0. However, M is set to 1.5, while the correction amount for the non-edge portion is calculated to be ((2016-2043) / 21 to -1. Therefore, also in Example 2, it can be seen that the correction amount for the edge portion is smaller in magnitude (absolute value) than the correction amount for the non-edge portion.

以上説明したように、実施例2では、選択部104でエッジ判定データに応じて入力画像データかスクリーン処理データのいずれかを選択して出力する。これにより、エッジ部分では入力画像データが選択される。そして、正規化部208において、前段での処理に応じた適切な補正データを生成する。かかる構成により、エッジ部分での連続した線の途切れを防止することが出来る。よって、文字・線画の画質を向上することが可能となる。   As described above, in the second embodiment, the selection unit 104 selects and outputs either input image data or screen processing data according to the edge determination data. Thereby, the input image data is selected at the edge portion. Then, the normalization unit 208 generates appropriate correction data according to the processing in the previous stage. With this configuration, it is possible to prevent discontinuity of continuous lines at the edge portion. Therefore, the image quality of characters / line drawings can be improved.

実施例3では、実施例1に記したエッジ部分を補正する構成と異なり、白画素境界を補正する構成について説明する。図5は、実施例3に係る画像処理装置の構成を示すブロック図である。実施例3が実施例1と異なる点は、エッジ検出部101の代わりに白画素境界検出部501が用いられている点と、正規化部の動作が異なる点である(図1及び図5を参照)。従って、以下では、実施例3と、実施例1との相違点、即ち、白画素境界検出部501及び正規化部508についてのみ説明を行う。   In the third embodiment, unlike the configuration for correcting the edge portion described in the first embodiment, a configuration for correcting a white pixel boundary will be described. FIG. 5 is a block diagram illustrating the configuration of the image processing apparatus according to the third embodiment. The third embodiment is different from the first embodiment in that the white pixel boundary detection unit 501 is used instead of the edge detection unit 101 and the operation of the normalization unit is different (see FIGS. 1 and 5). reference). Accordingly, only the differences between the third embodiment and the first embodiment, that is, the white pixel boundary detection unit 501 and the normalization unit 508 will be described below.

白画素境界検出部501は、注目画素が白画素境界の画素であるかを判定し、結果を判定データとして出力する。白画素境界とは、白画素を示す画素に隣接する画素を意味する。一例を挙げると、以下に記す方法で白画素境界を検出出来る。白画素境界検出部501は、閾値を持つ。注目画素が閾値を超える値を持ち、且つ、注目画素の上下左右に位置する4つの隣接画素の値と、閾値とを比較して、いずれかの隣接画素の値が閾値以下の場合に、判定データとして“1”を出力する。この条件を満たさない場合は、判定データとして“0”を出力する。ここで本実施例では、入力画像データにおいて画素値0が白画素であることを示す。この場合、閾値を0にすることにより、隣接画素が濃度値0となる場合のみ、判定データとして“1”を出力することができる。尚、閾値を予め記憶しておく構成でも良いし、レジスタ等の設定で決める構成にしても良い。   The white pixel boundary detection unit 501 determines whether the target pixel is a pixel on the white pixel boundary, and outputs the result as determination data. A white pixel boundary means a pixel adjacent to a pixel indicating a white pixel. As an example, a white pixel boundary can be detected by the method described below. The white pixel boundary detection unit 501 has a threshold value. Judgment is made when the pixel of interest has a value that exceeds the threshold value, and the values of four adjacent pixels positioned above, below, left, and right of the pixel of interest are compared with the threshold value, and the value of any adjacent pixel is equal to or less than the threshold “1” is output as data. If this condition is not satisfied, “0” is output as determination data. Here, in this embodiment, it is indicated that the pixel value 0 in the input image data is a white pixel. In this case, by setting the threshold value to 0, “1” can be output as determination data only when the adjacent pixel has a density value of 0. The threshold value may be stored in advance, or may be determined by setting a register or the like.

正規化部508が差分データを入力として1画素当たりの濃度補正量を求める点は、正規化部108と同じである。しかし、正規化部108が、補正量を算出するときに、注目画素がエッジ部分の画素であるか否かを考慮したのと異なり、本実施例における正規化部508は、補正量を算出するときに、注目画素が白画素境界の画素であるか否かを考慮する。また、判定データが“1”であることは、実施例1では注目画素がエッジ部分の画素であることを表していたが、実施例3では注目画素が白画素境界の画素であることを表している。これらを式で表すと以下のように記述できる。
(i)判定データが“1”のとき(注目画素が白画素境界の画素であるとき)
補正量=差分データ/(セル面積−白画素の画素数)
(ii)判定データが“0”で、且つ判定データが“1”の画素に隣接しているとき(注目画素が非白画素境界の画素であり、白画素境界の画素に隣接しているとき)
補正量=差分データ/(セル面積−白画素の画素数−白画素境界の画素数)
(iii)判定データが“0”で、且つ判定データが“1”の画素に隣接していないとき(注目画素が非白画素境界の画素であり、白画素境界の画素に隣接していないとき)
補正量=差分データ/(セル面積−白画素の画素数)
実施例3による効果について説明する。実施例1及び実施例2で説明したエッジ部分を判定する構成では、判定したエッジ部分において電子写真のプロセスにおける潜像のコントラストが確保出来ず、潜像が周囲のドットに引き寄せられエッジ部分が形成されにくくなる恐れがある。そこで、実施例3では、エッジ部分の代わりに潜像のコントラストがはっきりしている白画素境界を判定及び補正することで、ドットが途切れることを防ぐ。これにより、文字・線画の画質向上が可能となる。
The normalization unit 508 is the same as the normalization unit 108 in that the difference data is input to obtain the density correction amount per pixel. However, unlike the case where the normalization unit 108 considers whether or not the pixel of interest is an edge pixel when calculating the correction amount, the normalization unit 508 in this embodiment calculates the correction amount. Sometimes, it is considered whether or not the pixel of interest is a pixel at the white pixel boundary. In addition, the determination data of “1” indicates that the target pixel is a pixel at the edge portion in the first embodiment, but the target pixel is a pixel at a white pixel boundary in the third embodiment. ing. These can be described as follows:
(I) When the determination data is “1” (when the target pixel is a pixel on the white pixel boundary)
Correction amount = difference data / (cell area−number of white pixels)
(Ii) When the determination data is “0” and the determination data is adjacent to the pixel “1” (when the target pixel is a pixel on the non-white pixel boundary and adjacent to the pixel on the white pixel boundary) )
Correction amount = difference data / (cell area−number of pixels of white pixel−number of pixels of white pixel boundary)
(Iii) When the determination data is “0” and the determination data is not adjacent to a pixel of “1” (when the target pixel is a pixel at a non-white pixel boundary and is not adjacent to a pixel at a white pixel boundary) )
Correction amount = difference data / (cell area−number of white pixels)
The effect by Example 3 is demonstrated. In the configuration for determining the edge portion described in the first and second embodiments, the contrast of the latent image in the electrophotographic process cannot be secured at the determined edge portion, and the latent image is attracted to surrounding dots to form the edge portion. There is a risk that it will be difficult. Therefore, in the third embodiment, dots are prevented from being interrupted by determining and correcting a white pixel boundary where the contrast of the latent image is clear instead of the edge portion. As a result, the image quality of characters / line drawings can be improved.

実施例4では、実施例2に記したエッジ部分を補正する構成と異なり、白画素境界を補正する構成について説明する。図6は、実施例4に係る画像処理装置の構成を示すブロック図である。実施例4が実施例2と異なる点は、エッジ検出部101の代わりに白画素境界検出部501が用いられている点と、正規化部208の代わりに正規化部608が用いられている点である(図2及び図6を参照)。また、実施例4に係る白画素境界検出部501は、実施例3で説明した動作と同じ動作を実行する。従って、以下では、正規化部608についてのみ説明を行う。   In the fourth embodiment, unlike the configuration for correcting the edge portion described in the second embodiment, a configuration for correcting a white pixel boundary will be described. FIG. 6 is a block diagram illustrating the configuration of the image processing apparatus according to the fourth embodiment. The fourth embodiment differs from the second embodiment in that a white pixel boundary detection unit 501 is used instead of the edge detection unit 101, and a normalization unit 608 is used instead of the normalization unit 208. (See FIGS. 2 and 6). In addition, the white pixel boundary detection unit 501 according to the fourth embodiment performs the same operation as that described in the third embodiment. Accordingly, only the normalization unit 608 will be described below.

正規化部608は、差分データを入力として1画素当たりの濃度補正量を求める点は、正規化部108や正規化部208と同じである。しかし実施例4では、実施例3に示した正規化部508と同様に、正規化部608が補正データを生成する際に参照する判定データの意味が異なる。即ち、判定データが“1”であることは、実施例2では注目画素がエッジ部分の画素であることを表していたが、実施例4では注目画素が白画素境界の画素であることを表している。これらを式で表すと以下のように記述出来る。尚、式自体は実施例2で示したものと同様である。
(i)判定データが“1”のとき(注目画素が白画素境界の画素であるとき)
補正量=差分データ/((セル面積−白画素の画素数)×M)
(ii)判定データが“0”のとき(注目画素が非白画素境界の画素であるとき)
補正量=差分データ/(セル面積−白画素の画素数)
実施例4による効果は、実施例3に記したものと同様である。即ち、白画素境界では潜像のコントラストがはっきりしているため、白画素境界においてドットが途切れることを防ぐことが出来、文字・線画の画質向上が可能となる。
The normalization unit 608 is the same as the normalization unit 108 and the normalization unit 208 in that the density correction amount per pixel is obtained by inputting the difference data. However, in the fourth embodiment, like the normalization unit 508 shown in the third embodiment, the meaning of the determination data referred to when the normalization unit 608 generates correction data is different. That is, the determination data “1” indicates that the pixel of interest is an edge portion pixel in the second embodiment, but the pixel of interest is a white pixel boundary pixel in the fourth embodiment. ing. These can be described as follows: The formula itself is the same as that shown in the second embodiment.
(I) When the determination data is “1” (when the target pixel is a pixel on the white pixel boundary)
Correction amount = difference data / ((cell area−number of white pixels) × M)
(Ii) When the determination data is “0” (when the target pixel is a pixel at a non-white pixel boundary)
Correction amount = difference data / (cell area−number of white pixels)
The effect of the fourth embodiment is the same as that described in the third embodiment. That is, since the contrast of the latent image is clear at the white pixel boundary, it is possible to prevent the dots from being interrupted at the white pixel boundary, and to improve the image quality of characters and line drawings.

[その他の実施例]
前述の実施例では、選択部104は、画素毎にスクリーン処理画像データかガンマ変換処理データのいずれかを選択する構成とした。例えば、選択部104はスクリーン画像データをベースとし、判定データに応じて一部の画素をガンマ変換処理データの対応する画素値により上書きすることでも、同様の処理が可能である。
[Other Examples]
In the above-described embodiment, the selection unit 104 is configured to select either screen processing image data or gamma conversion processing data for each pixel. For example, the selection unit 104 can perform similar processing by using screen image data as a base and overwriting some pixels with corresponding pixel values of gamma conversion processing data according to the determination data.

本発明の目的は、前述した実施例の機能を実現するソフトウエアのプログラムコードを記録した記憶媒体を、システム又は装置に供給し、システム又は装置(具体的にはCPUやMPU)がプログラムコードを読み出し実行することによっても、達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the system or apparatus (specifically, CPU or MPU) stores the program code. This can also be achieved by executing read. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVD等を用いることが出来る。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, DVD, or the like is used. I can do it.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSが実際の処理の一部又は全部を行っても良い。OSの処理によって前述した実施例の機能が実現される場合も、本発明の範囲に含まれる。   In addition, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer performs one of the actual processing based on the instruction of the program code. Part or all may be performed. The case where the functions of the above-described embodiments are realized by the processing of the OS is also included in the scope of the present invention.

更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、処理が実行されても良い。また、機能拡張ボードや機能拡張ユニットに備わるCPUが実際の処理の一部又は全部を実行しても良く、機能拡張ボードや機能拡張ユニットに備わるCPUの実行処理によって前述した実施例の機能が実現される場合も、本発明の範囲に含まれる。   Furthermore, the program code read from the storage medium is written in the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, and then the process is executed based on the instruction of the program code. May be. In addition, the CPU provided in the function expansion board or function expansion unit may execute part or all of the actual processing, and the functions of the above-described embodiments are realized by the execution processing of the CPU provided in the function expansion board or function expansion unit. Such cases are also included in the scope of the present invention.

また、前述の実施例の機能を実現するためのプログラムコードを、1つのコンピュータ(CPU、MPU)で実行しても良いし、複数のコンピュータが協働することによって実行しても良い。更に、プログラムコードをコンピュータが実行しても良いし、プログラムコードの機能を実現するための回路等のハードウェアを設けても良い。または、プログラムコードの一部をハードウェアで実現し、残りの部分をコンピュータが実行しても良い。   Further, the program code for realizing the functions of the above-described embodiments may be executed by one computer (CPU, MPU) or may be executed by cooperation of a plurality of computers. Further, the program code may be executed by a computer, or hardware such as a circuit for realizing the function of the program code may be provided. Alternatively, a part of the program code may be realized by hardware and the remaining part may be executed by a computer.

Claims (13)

入力画像データにおいてエッジを構成する画素を検出し、注目画素がエッジ部分の画素であるか否かを示す判定データを出力するエッジ検出手段と、
前記入力画像データをガンマ変換処理するガンマ変換処理手段と、
前記入力画像データをスクリーン処理するスクリーン処理手段と、
前記判定データに応じて、画素毎にガンマ変換画像データまたはスクリーン画像データのうちいずれかを構成する画素値が決定されたデータを選択データとして出力する選択手段と、
前記スクリーン処理手段で用いられるセル毎の、前記選択データの総和を第1のセル内合計値として算出する第1のセル内合計算出手段と、
前記セル毎の前記入力画像データの総和を第2のセル内合計値として算出する第2のセル内合計算出手段と、
前記第1のセル内合計値と、前記第2のセル内合計値との差分を算出して差分データを出力する減算手段と、
前記差分データに基づいて画素毎の補正量を算出する正規化手段と
を備え、
前記正規化手段は、前記判定データに応じて、エッジ部分における補正量(絶対値)を非エッジ部分における補正量(絶対値)よりも小さくすることを特徴とする画像処理装置。
Edge detection means for detecting pixels constituting the edge in the input image data and outputting determination data indicating whether or not the target pixel is a pixel of the edge portion;
Gamma conversion processing means for performing gamma conversion processing on the input image data;
Screen processing means for screen-processing the input image data;
Selection means for outputting, as selection data, data in which a pixel value constituting either gamma conversion image data or screen image data is determined for each pixel according to the determination data;
First in-cell total calculation means for calculating the sum of the selection data for each cell used in the screen processing means as a first in-cell total value;
Second in-cell total calculation means for calculating the sum of the input image data for each cell as a second in-cell total value;
Subtraction means for calculating a difference between the first in-cell total value and the second in-cell total value and outputting difference data;
Normalization means for calculating a correction amount for each pixel based on the difference data,
The image processing apparatus according to claim 1, wherein the normalization unit makes a correction amount (absolute value) in an edge portion smaller than a correction amount (absolute value) in a non-edge portion according to the determination data.
前記正規化手段は、
注目画素がエッジ部分の画素である場合は、前記差分データを、セル面積(セル内の画素数)からセル内の白画素の画素数を減算した値で除算することで補正量を算出し、
注目画素が非エッジ部分の画素であり、エッジ部分の画素に隣接している場合は、前記差分データを、セル面積からセル内のエッジ部分の画素数及び白画素の画素数を減算した値で除算することで補正量を算出し、
注目画素が非エッジ部分の画素であり、エッジ部分の画素に隣接していない場合は、前記差分データを、セル面積からセル内の白画素の画素数を減算した値で除算することで補正量を算出することを特徴とする請求項1に記載の画像処理装置。
The normalizing means includes
If the pixel of interest is an edge pixel, the difference data is divided by a value obtained by subtracting the number of white pixels in the cell from the cell area (number of pixels in the cell), and a correction amount is calculated.
When the pixel of interest is a non-edge part pixel and is adjacent to the edge part pixel, the difference data is a value obtained by subtracting the number of pixels of the edge part and the number of white pixels from the cell area. Calculate the correction amount by dividing,
If the target pixel is a non-edge pixel and not adjacent to the edge pixel, the difference data is divided by the value obtained by subtracting the number of white pixels in the cell from the cell area. The image processing apparatus according to claim 1, wherein:
入力画像データからエッジを検出し、注目画素がエッジ部分の画素であるか否かを示す判定データを出力するエッジ検出手段と、
前記入力画像データをスクリーン処理するスクリーン処理手段と、
前記判定データに応じて、前記入力画像データと、スクリーン画像データとのいずれかを選択し、選択データとして出力する選択手段と、
前記スクリーン処理手段で用いられるセル毎の、前記選択データの総和を取って第1のセル内合計値を算出する第1のセル内合計算出手段と、
前記セル毎の前記入力画像データの総和を取って第2のセル内合計値を算出する第2のセル内合計算出手段と、
前記第1のセル内合計値と、前記第2のセル内合計値との差分を算出して差分データを出力する減算手段と、
前記差分データから画素毎の補正量を算出する正規化手段と
を備え、
前記正規化手段は、前記判定データに応じて、エッジ部分における補正量(絶対値)を非エッジ部分における補正量(絶対値)よりも小さくすることを特徴とする画像処理装置。
Edge detection means for detecting an edge from input image data and outputting determination data indicating whether the pixel of interest is a pixel of an edge portion;
Screen processing means for screen-processing the input image data;
According to the determination data, selecting means for selecting either the input image data or the screen image data and outputting as selection data;
First in-cell total calculating means for calculating the first in-cell total value by taking the sum of the selection data for each cell used in the screen processing means;
Second in-cell total calculation means for calculating a second in-cell total value by taking the sum of the input image data for each cell;
Subtraction means for calculating a difference between the first in-cell total value and the second in-cell total value and outputting difference data;
Normalization means for calculating a correction amount for each pixel from the difference data,
The image processing apparatus according to claim 1, wherein the normalization unit makes a correction amount (absolute value) in an edge portion smaller than a correction amount (absolute value) in a non-edge portion according to the determination data.
前記正規化手段は、
注目画素がエッジ部分の画素である場合は、前記差分データを、セル面積からセル内の白画素の画素数を減算した値の定数倍で除算することで補正量を算出し、
注目画素が非エッジ部分の画素である場合は、前記差分データを、セル面積からセル内の白画素の画素数を減算した値で除算することで補正量を算出することを特徴とする請求項3に記載の画像処理装置。
The normalizing means includes
When the target pixel is an edge portion pixel, the difference data is divided by a constant multiple of a value obtained by subtracting the number of white pixels in the cell from the cell area, thereby calculating a correction amount.
The correction amount is calculated by dividing the difference data by a value obtained by subtracting the number of white pixels in the cell from the cell area when the target pixel is a pixel in a non-edge portion. The image processing apparatus according to 3.
入力画像データから白画素境界を検出し、注目画素が白画素境界の画素であるか否かを示す判定データを出力する境界検出手段と、
前記入力画像データをガンマ変換処理するガンマ変換処理手段と、
前記入力画像データをスクリーン処理するスクリーン処理手段と、
前記判定データに応じて、ガンマ変換画像データと、スクリーン画像データとのいずれかを選択し、選択データとして出力する選択手段と、
前記スクリーン処理手段で用いられるセル毎の、前記選択データの総和を取って第1のセル内合計値を算出する第1のセル内合計算出手段と、
前記セル毎の前記入力画像データの総和を取って第2のセル内合計値を算出する第2のセル内合計算出手段と、
前記第1のセル内合計値と、前記第2のセル内合計値との差分を算出して差分データを出力する減算手段と、
前記差分データから画素毎の補正量を算出する正規化手段と
を備え、
前記正規化手段は、前記判定データに応じて、白画素境界における補正量(絶対値)を非白画素境界における補正量(絶対値)よりも小さくすることを特徴とする画像処理装置。
Boundary detection means for detecting a white pixel boundary from input image data and outputting determination data indicating whether or not the target pixel is a pixel at the white pixel boundary;
Gamma conversion processing means for performing gamma conversion processing on the input image data;
Screen processing means for screen-processing the input image data;
According to the determination data, selecting means for selecting either gamma-converted image data or screen image data, and outputting as selection data;
First in-cell total calculating means for calculating the first in-cell total value by taking the sum of the selection data for each cell used in the screen processing means;
Second in-cell total calculation means for calculating a second in-cell total value by taking the sum of the input image data for each cell;
Subtraction means for calculating a difference between the first in-cell total value and the second in-cell total value and outputting difference data;
Normalization means for calculating a correction amount for each pixel from the difference data,
The image processing apparatus according to claim 1, wherein the normalization unit makes a correction amount (absolute value) at a white pixel boundary smaller than a correction amount (absolute value) at a non-white pixel boundary according to the determination data.
前記正規化手段は
注目画素が白画素境界の画素である場合は、前記差分データを、セル面積(セル内の画素数)からセル内の白画素の画素数を減算した値で除算することで補正量を算出し、
注目画素が非白画素境界の画素であり、白画素境界の画素に隣接している場合は、前記差分データを、セル面積からセル内の白画素の画素数及び白画素境界の画素数を減算した値で除算することで補正量を算出し、
注目画素が非白画素境界の画素であり、白画素境界の画素に隣接していない場合は、前記差分データを、セル面積からセル内の白画素の画素数を減算した値で除算することで補正量を算出することを特徴とする請求項5に記載の画像処理装置。
When the pixel of interest is a pixel at a white pixel boundary, the normalizing means divides the difference data by a value obtained by subtracting the number of white pixels in the cell from the cell area (number of pixels in the cell). Calculate the correction amount,
If the pixel of interest is a non-white pixel boundary pixel and is adjacent to a white pixel boundary pixel, the difference data is subtracted from the cell area by the number of white pixels and the number of white pixel boundaries in the cell. The correction amount is calculated by dividing by the calculated value,
If the pixel of interest is a non-white pixel boundary pixel and not adjacent to a white pixel boundary pixel, the difference data is divided by the value obtained by subtracting the number of white pixels in the cell from the cell area. The image processing apparatus according to claim 5, wherein a correction amount is calculated.
入力画像データから白画素境界を検出し、注目画素が白画素境界の画素であるか否かを示す判定データを出力する境界検出手段と、
前記入力画像データをスクリーン処理するスクリーン処理手段と、
前記判定データに応じて、前記入力画像データと、スクリーン画像データとのいずれかを選択し、選択データとして出力する選択手段と、
前記スクリーン処理手段で用いられるセル毎の、前記選択データの総和を取って第1のセル内合計値を算出する第1のセル内合計算出手段と、
前記セル毎の前記入力画像データの総和を取って第2のセル内合計値を算出する第2のセル内合計算出手段と、
前記第1のセル内合計値と、前記第2のセル内合計値との差分を算出して差分データを出力する減算手段と、
前記差分データから画素毎の補正量を算出する正規化手段と
を備え、
前記正規化手段は、前記判定データに応じて、白画素境界における補正量(絶対値)を非白画素境界における補正量(絶対値)よりも小さくすることを特徴とする画像処理装置。
Boundary detection means for detecting a white pixel boundary from input image data and outputting determination data indicating whether or not the target pixel is a pixel at the white pixel boundary;
Screen processing means for screen-processing the input image data;
According to the determination data, selecting means for selecting either the input image data or the screen image data and outputting as selection data;
First in-cell total calculating means for calculating the first in-cell total value by taking the sum of the selection data for each cell used in the screen processing means;
Second in-cell total calculation means for calculating a second in-cell total value by taking the sum of the input image data for each cell;
Subtraction means for calculating a difference between the first in-cell total value and the second in-cell total value and outputting difference data;
Normalization means for calculating a correction amount for each pixel from the difference data,
The image processing apparatus according to claim 1, wherein the normalization unit makes a correction amount (absolute value) at a white pixel boundary smaller than a correction amount (absolute value) at a non-white pixel boundary according to the determination data.
前記正規化手段は、
注目画素が白画素境界の画素である場合は、前記差分データを、セル面積(セル内の画素数)からセル内の白画素の画素数を減算した値の定数倍で除算することで補正量を算出し、
注目画素が非白画素境界の画素である場合は、前記差分データを、セル面積からセル内の白画素の画素数を減算した値で除算することで補正量を算出することを特徴とする請求項7に記載の画像処理装置。
The normalizing means includes
When the target pixel is a pixel at the white pixel boundary, the correction amount is obtained by dividing the difference data by a constant multiple of a value obtained by subtracting the number of white pixels in the cell from the cell area (number of pixels in the cell). To calculate
When the target pixel is a pixel at a non-white pixel boundary, the correction amount is calculated by dividing the difference data by a value obtained by subtracting the number of white pixels in the cell from the cell area. Item 8. The image processing device according to Item 7.
入力画像データにおいてエッジを構成する画素を検出し、注目画素がエッジ部分の画素であるか否かを示す判定データを出力するエッジ検出ステップと、
前記入力画像データをガンマ変換処理するガンマ変換処理ステップと、
前記入力画像データをスクリーン処理するスクリーン処理ステップと、
前記判定データに応じて、画素毎にガンマ変換画像データまたはスクリーン画像データのうちいずれかを構成する画素値が決定されたデータを選択データとして出力する選択ステップと、
前記スクリーン処理ステップで用いられるセル毎の、前記選択データの総和を第1のセル内合計値として算出する第1のセル内合計算出ステップと、
前記セル毎の前記入力画像データの総和を第2のセル内合計値として算出する第2のセル内合計算出ステップと、
前記第1のセル内合計値と、前記第2のセル内合計値との差分を算出して差分データを出力する減算ステップと、
前記差分データに基づいて画素毎の補正量を算出する正規化ステップと
を備え、
前記正規化ステップにおいて、前記判定データに応じて、エッジ部分における補正量(絶対値)を非エッジ部分における補正量(絶対値)よりも小さくすることを特徴とする画像処理方法。
An edge detection step of detecting pixels constituting an edge in the input image data and outputting determination data indicating whether or not the target pixel is a pixel of an edge portion;
A gamma conversion processing step for gamma conversion processing the input image data;
A screen processing step of screen-processing the input image data;
A selection step of outputting, as selection data, data in which pixel values constituting either gamma conversion image data or screen image data are determined for each pixel according to the determination data;
A first in-cell total calculation step for calculating a sum of the selection data for each cell used in the screen processing step as a first in-cell total value;
A second in-cell total calculation step for calculating a sum of the input image data for each cell as a second in-cell total value;
A subtraction step of calculating a difference between the first in-cell total value and the second in-cell total value and outputting difference data;
A normalization step of calculating a correction amount for each pixel based on the difference data,
In the normalization step, the correction amount (absolute value) in the edge portion is made smaller than the correction amount (absolute value) in the non-edge portion according to the determination data.
入力画像データからエッジを検出し、注目画素がエッジ部分の画素であるか否かを示す判定データを出力するエッジ検出ステップと、
前記入力画像データをスクリーン処理するスクリーン処理ステップと、
前記判定データに応じて、前記入力画像データと、スクリーン画像データとのいずれかを選択し、選択データとして出力する選択ステップと、
前記スクリーン処理ステップで用いられるセル毎の、前記選択データの総和を取って第1のセル内合計値を算出する第1のセル内合計算出ステップと、
前記セル毎の前記入力画像データの総和を取って第2のセル内合計値を算出する第2のセル内合計算出ステップと、
前記第1のセル内合計と、前記第2のセル内合計値との差分を算出して差分データを出力する減算ステップと、
前記差分データから画素毎の補正量を算出する正規化ステップと
を備え、
前記正規化ステップにおいて、前記判定データに応じて、エッジ部分における補正量(絶対値)を非エッジ部分における補正量(絶対値)よりも小さくすることを特徴とする画像処理方法。
An edge detection step of detecting an edge from input image data and outputting determination data indicating whether or not the target pixel is a pixel of an edge portion;
A screen processing step of screen-processing the input image data;
A selection step of selecting either the input image data or the screen image data according to the determination data, and outputting as selection data;
A first in-cell total calculation step of calculating a first in-cell total value by taking the sum of the selection data for each cell used in the screen processing step;
A second in-cell total calculation step of calculating a second in-cell total value by taking the sum of the input image data for each cell;
A subtraction step of calculating a difference between the first in-cell total and the second in-cell total and outputting difference data;
A normalization step of calculating a correction amount for each pixel from the difference data,
In the normalization step, the correction amount (absolute value) in the edge portion is made smaller than the correction amount (absolute value) in the non-edge portion according to the determination data.
入力画像データから白画素境界を検出し、注目画素が白画素境界の画素であるか否かを示す判定データを出力する境界検出ステップと、
前記入力画像データをガンマ変換処理するガンマ変換処理ステップと、
前記入力画像データをスクリーン処理するスクリーン処理ステップと、
前記判定データに応じて、ガンマ変換画像データと、スクリーン画像データとのいずれかを選択し、選択データとして出力する選択ステップと、
前記スクリーン処理ステップで用いられるセル毎の、前記選択データの総和を取って第1のセル内合計値を算出する第1のセル内合計算出ステップと、
前記セル毎の前記入力画像データの総和を取って第2のセル内合計値を算出する第2のセル内合計算出ステップと、
前記第1のセル内合計値と、前記第2のセル内合計値との差分を算出して差分データを出力する減算ステップと、
前記差分データから画素毎の補正量を算出する正規化ステップと
を備え、
前記正規化ステップにおいて、前記判定データに応じて、白画素境界における補正量(絶対値)を非白画素境界における補正量(絶対値)よりも小さくすることを特徴とする画像処理方法。
A boundary detection step of detecting a white pixel boundary from the input image data and outputting determination data indicating whether or not the target pixel is a pixel of the white pixel boundary;
A gamma conversion processing step for gamma conversion processing the input image data;
A screen processing step of screen-processing the input image data;
A selection step of selecting either gamma-converted image data or screen image data according to the determination data and outputting as selection data;
A first in-cell total calculation step of calculating a first in-cell total value by taking the sum of the selection data for each cell used in the screen processing step;
A second in-cell total calculation step of calculating a second in-cell total value by taking the sum of the input image data for each cell;
A subtraction step of calculating a difference between the first in-cell total value and the second in-cell total value and outputting difference data;
A normalization step of calculating a correction amount for each pixel from the difference data,
In the normalization step, the correction amount (absolute value) at a white pixel boundary is made smaller than the correction amount (absolute value) at a non-white pixel boundary in accordance with the determination data.
入力画像データから白画素境界を検出し、注目画素が白画素境界の画素であるか否かを示す判定データを出力する境界検出ステップと、
前記入力画像データをスクリーン処理するスクリーン処理ステップと、
前記判定データに応じて、前記入力画像データと、スクリーン画像データとのいずれかを選択し、選択データとして出力する選択ステップと、
前記スクリーン処理ステップで用いられるセル毎の、前記選択データの総和を取って第1のセル内合計値を算出する第1のセル内合計算出ステップと、
前記セル毎の前記入力画像データの総和を取って第2のセル内合計値を算出する第2のセル内合計算出ステップと、
前記第1のセル内合計値と、前記第2のセル内合計値との差分を算出して差分データを出力する減算ステップと、
前記差分データから画素毎の補正量を算出する正規化ステップと
を備え、
前記正規化ステップにおいて、前記判定データに応じて、白画素境界における補正量(絶対値)を非白画素境界における補正量(絶対値)よりも小さくすることを特徴とする画像処理方法。
A boundary detection step of detecting a white pixel boundary from the input image data and outputting determination data indicating whether or not the target pixel is a pixel of the white pixel boundary;
A screen processing step of screen-processing the input image data;
A selection step of selecting either the input image data or the screen image data according to the determination data, and outputting as selection data;
A first in-cell total calculation step of calculating a first in-cell total value by taking the sum of the selection data for each cell used in the screen processing step;
A second in-cell total calculation step of calculating a second in-cell total value by taking the sum of the input image data for each cell;
A subtraction step of calculating a difference between the first in-cell total value and the second in-cell total value and outputting difference data;
A normalization step of calculating a correction amount for each pixel from the difference data,
In the normalization step, the correction amount (absolute value) at a white pixel boundary is made smaller than the correction amount (absolute value) at a non-white pixel boundary in accordance with the determination data.
コンピュータを請求項1乃至8のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 8.
JP2013233211A 2013-11-11 2013-11-11 Image processing device, image processing method, and program Pending JP2015095713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013233211A JP2015095713A (en) 2013-11-11 2013-11-11 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013233211A JP2015095713A (en) 2013-11-11 2013-11-11 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2015095713A true JP2015095713A (en) 2015-05-18

Family

ID=53197859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013233211A Pending JP2015095713A (en) 2013-11-11 2013-11-11 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2015095713A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020102766A (en) * 2018-12-21 2020-07-02 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020102766A (en) * 2018-12-21 2020-07-02 キヤノン株式会社 Image processing device, image processing method, and program
JP7250508B2 (en) 2018-12-21 2023-04-03 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
US9749496B2 (en) Performing halftone processing using intra-cell sum value differences applied so as to correct boundary pixels
JP3956887B2 (en) Image processing apparatus, image processing method, and image processing program
JP4217657B2 (en) Image processing method, program, storage medium, and apparatus
US8649065B2 (en) Image processing apparatus, image processing method, and halftone processing
JP5436624B2 (en) Image processing apparatus and control method thereof
US9922404B2 (en) Inpainting device and method using segmentation of reference region
US9456106B2 (en) Image processing apparatus and image processing method
JP2005354231A (en) Image processing apparatus, image processing method, image processing program, and storage medium
KR20170058856A (en) Image processing apparatus, method of controlling the same, and storage medium
US9191638B2 (en) Image processing apparatus, image processing method and storage medium
KR101330665B1 (en) Apparatus and method for revising halftoning image, image forming device using the same
CN108475418B (en) Image processing apparatus and recording medium
JP2006270897A (en) Image processing device, method and program
JP2015095713A (en) Image processing device, image processing method, and program
US9609171B2 (en) Applying luminance conversion processing in accordance with image attribute information to improve edge detection and image data correction for pseudo halftone processing
JP4232831B2 (en) Image processing apparatus, image processing method, and image processing program
CN108447037B (en) Method and device for enhancing dynamic range of image
JP6159162B2 (en) Image processing apparatus and method
JP2006262196A (en) Image processing apparatus, image processing method, and program
US9830692B2 (en) Method and device for processing image data based on characteristic values of pixel values of pixels
JP6226717B2 (en) Image processing apparatus and image processing method
JP2010026690A (en) Image processing device
JP2007172170A (en) Image processing circuit and image processing method
WO2022113910A1 (en) Image processing device, image processing method, and program
JPH11150659A (en) Method for processing image