JP5426953B2 - Image processing apparatus and method - Google Patents
Image processing apparatus and method Download PDFInfo
- Publication number
- JP5426953B2 JP5426953B2 JP2009168274A JP2009168274A JP5426953B2 JP 5426953 B2 JP5426953 B2 JP 5426953B2 JP 2009168274 A JP2009168274 A JP 2009168274A JP 2009168274 A JP2009168274 A JP 2009168274A JP 5426953 B2 JP5426953 B2 JP 5426953B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- luminance
- frequency component
- mtf
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 32
- 238000000034 method Methods 0.000 title description 33
- 238000012937 correction Methods 0.000 claims description 135
- 230000003287 optical effect Effects 0.000 claims description 15
- 238000012546 transfer Methods 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 230000010354 integration Effects 0.000 claims description 4
- 238000003672 processing method Methods 0.000 claims 2
- 230000015556 catabolic process Effects 0.000 description 21
- 238000006731 degradation reaction Methods 0.000 description 21
- 238000005259 measurement Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 13
- 230000006866 deterioration Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000011084 recovery Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000000740 bleeding effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
本発明は、画像出力装置に起因する画質劣化を補正する画像処理に関する。 The present invention relates to image processing for correcting image quality degradation caused by an image output apparatus.
プリンタなどの画像出力装置を用いて、ディジタル画像データが表す画像を出力する機会が増えた。一般に、画像出力機器の周波数特性によって画像の周波数特性が変調を受け、出力画像の画質は劣化する。画像出力機器の周波数特性は光学伝達関数(optical transfer function: OTF)の絶対値であるMTF(modulation transfer function)によって表される。 Opportunities to output an image represented by digital image data using an image output device such as a printer have increased. In general, the frequency characteristics of an image are modulated by the frequency characteristics of the image output device, and the image quality of the output image is degraded. The frequency characteristic of the image output device is represented by MTF (modulation transfer function) which is an absolute value of an optical transfer function (OTF).
MTFに起因する画質劣化を画像処理によって復元する復元処理が知られている。復元処理は、一般に、畳込積分による実空間でのフィルタリングによって画像信号を補正する。例えば、特許文献1は、注目画素と、その前後の画素のレベルの差から補正程度の強弱を制御し、注目画素を補正演算することにより、高周波数域における出力画像の画質劣化を低減する発明を開示する。 A restoration process is known in which image quality degradation caused by MTF is restored by image processing. In the restoration process, the image signal is generally corrected by filtering in real space by convolution integration. For example, Patent Document 1 is an invention that reduces image quality deterioration of an output image in a high-frequency region by controlling the level of correction based on a difference in level between a target pixel and the pixels before and after the target pixel and correcting the target pixel. Is disclosed.
また、MTFに起因する画質劣化は、画像内において一様ではないことが知られている。特許文献2は、MTFに起因する画質劣化が方向によって異なる、つまりMTFに異方性がある場合に、方向に応じて補正(以下、MTF補正)の程度を変える発明を開示する。特許文献3は、MTFに起因する画質劣化が位置によって異なる場合に、画素位置に応じてMTF補正の程度を動的に変更する発明を開示する。 In addition, it is known that image quality deterioration due to MTF is not uniform in an image. Patent Document 2 discloses an invention in which the degree of correction (hereinafter referred to as MTF correction) is changed in accordance with the direction when image quality degradation caused by MTF varies depending on the direction, that is, when the MTF has anisotropy. Patent Document 3 discloses an invention in which the degree of MTF correction is dynamically changed in accordance with the pixel position when image quality degradation caused by MTF varies depending on the position.
また、画像の種類によってフィルタ処理を変更し、補正の程度を調整する方法が知られている。特許文献4の発明は、文字や線画の品質を向上するために文字や線画にシャープネス強調処理を施し、写真などの階調画像には階調性を向上するために平滑化処理を施す。 There is also known a method of changing the filter processing depending on the type of image and adjusting the degree of correction. In the invention of Patent Document 4, sharpness enhancement processing is performed on characters and line drawings in order to improve the quality of characters and line drawings, and smoothing processing is performed on gradation images such as photographs in order to improve gradation characteristics.
しかし、MTFによる画質劣化の程度は、各画素の周波数成分ごとの振幅値や平均輝度値などの特徴量に依存して変化する場合がある。つまり、同じ装置を用いて出力した、同じ位置の画素であっても、輝度などの違いによりMTFが変化し、画質劣化の程度が異なる。 However, the degree of image quality degradation due to MTF may vary depending on the feature quantity such as the amplitude value and average luminance value for each frequency component of each pixel. That is, even for pixels at the same position output using the same device, the MTF changes due to differences in luminance and the like, and the degree of image quality deterioration differs.
図1、図2により輝度の違いによるMTFに起因する画質劣化の違いを説明する。図1は平均輝度値が等しく、輝度の振幅が異なる正弦波状の二つの輝度変化を示している。また、図2は輝度の振幅は等しく、平均輝度値が異なる正弦波状の二つの輝度変化を示している。プリンタなどの画像出力装置は、図1に示すような入力データの振幅が異なるとMTFが異なる場合があり、図1の例では振幅が大きい場合の劣化が小さい。また、図2に示すように入力データの平均輝度値が異なるとMTFが異なる場合があり、図2の例では平均輝度値が大きい場合の劣化が大きい。 A difference in image quality degradation caused by MTF due to a difference in luminance will be described with reference to FIGS. FIG. 1 shows two sinusoidal luminance changes with equal average luminance values and different luminance amplitudes. FIG. 2 shows two sine wave-like luminance changes having the same luminance amplitude and different average luminance values. An image output apparatus such as a printer may have a different MTF when the amplitude of the input data as shown in FIG. 1 is different. In the example of FIG. 1, the deterioration when the amplitude is large is small. Also, as shown in FIG. 2, the MTF may be different if the average luminance value of the input data is different. In the example of FIG. 2, the deterioration is large when the average luminance value is large.
図3により輝度の振幅や平均値などの特徴量よってMTFが異なることを説明する。図3に示すように、輝度の振幅や平均値などの特徴量に依存してMTFが異なり、画質劣化の程度も変化する。図3(a)は平均輝度値が等しく、振幅が異なる場合のMTFの一例を示し、図3(b)は振幅が等しく、平均輝度値が異なる場合のMTFの一例を示している。 It will be described with reference to FIG. 3 that the MTF varies depending on the feature quantity such as the luminance amplitude and the average value. As shown in FIG. 3, the MTF differs depending on the feature quantity such as the luminance amplitude and the average value, and the degree of image quality deterioration also changes. FIG. 3 (a) shows an example of the MTF when the average luminance values are the same and the amplitudes are different, and FIG. 3 (b) shows an example of the MTF when the amplitudes are the same and the average luminance values are different.
このように、特徴量に依存してMTFが変化する場合、従来のMTF補正では、特徴量に応じたMTF補正ができない問題がある。MTFに起因する画質劣化の程度が特徴量に依存して変化する例としては次のものが挙げられる。インクジェットプリンタにおいては、輝度変化によりシャドウ部のドット打ち込み量が変化し、ハイライト部へのドットゲインの影響量が変化することでハイライト部の濃度変化が生じ、MTFが変化する。 As described above, when the MTF changes depending on the feature amount, there is a problem that the conventional MTF correction cannot perform the MTF correction according to the feature amount. The following can be cited as an example in which the degree of image quality degradation caused by MTF changes depending on the feature amount. In an ink jet printer, the amount of dot shot in the shadow portion changes due to a change in luminance, and the influence amount of the dot gain on the highlight portion changes to cause a change in density in the highlight portion, thereby changing the MTF.
特許文献1の、注目画素と、その前後の画素のレベルの差からMTF補正の程度の強弱を制御する方法は、高周波数域における画質劣化を低減するため、画像出力装置のMTFによって全周波数域で生じる画質劣化を精度よく補正することができない。また、画像の種類によってフィルタ処理を変更する方法は、オリジナルを忠実に再現したい場合、適正なMTF補正の程度を提供することができない。 The method of controlling the strength of the degree of MTF correction based on the difference between the level of the pixel of interest and the pixels before and after it in Patent Document 1 is based on the MTF of the image output device in order to reduce image quality degradation in the high frequency range. It is impossible to accurately correct image quality degradation caused by. Also, the method of changing the filter processing depending on the type of image cannot provide an appropriate degree of MTF correction when the original is to be faithfully reproduced.
また、一般に、プリンタが出力した画像の高周波数域の細かい部分は、原画像に対して輝度が低下する。つまり、原画像と出力画像の間で輝度が変化し、画質劣化の一因になる。この輝度変化の要因は、プリンタによって様々である。 In general, the brightness of a fine portion in the high frequency range of the image output from the printer is lower than that of the original image. That is, the luminance changes between the original image and the output image, which contributes to image quality degradation. The factor of the luminance change varies depending on the printer.
例えば、インクジェットプリンタにおいては、インクが記録媒体に着弾した後に、インクの滲みが生じてドットが不要に拡がる。また、記録媒体内で光が散乱して、記録媒体からの反射光に不要な拡がりが生じる。前者はメカニカルドットゲインと呼ばれ、後者はオプティカルドットゲインと呼ばれるが、これら要因によって画像の輝度が変化する。 For example, in an ink jet printer, after ink has landed on a recording medium, ink bleeding occurs and dots are spread unnecessarily. Further, light is scattered in the recording medium, and unnecessary spread occurs in the reflected light from the recording medium. The former is called mechanical dot gain, and the latter is called optical dot gain. The luminance of the image changes due to these factors.
また、ディジタルフォトプリンタにおいては、感光材料を光ビームで露光して画像記録を行うが、光学的な誤差などに起因して、感光材料面における光ビームのスポットが適正スポットサイズより若干拡がり、画像の輝度が変化する。 In digital photo printers, the photosensitive material is exposed with a light beam to record an image. However, due to optical errors, the spot of the light beam on the photosensitive material surface is slightly larger than the appropriate spot size, and the image is recorded. Changes in brightness.
このような、画像出力装置の出力画像における輝度変化に対して、次のような輝度補正が知られている。
・補正量を算出し、入力画素値に補正量を加算する方法、
・出力前の画像データと、出力画像から読み取った画像データの差から作成したルックアップテーブル(LUT)によって出力前の画像データを変換処理する方法、
・実空間におけるフィルタリングによって画像信号を補正する方法。
The following luminance correction is known for such a luminance change in the output image of the image output apparatus.
A method of calculating the correction amount and adding the correction amount to the input pixel value;
A method of converting image data before output by a lookup table (LUT) created from the difference between the image data before output and the image data read from the output image,
A method of correcting an image signal by filtering in real space.
特許文献5の発明は、べた画像の階調パッチの濃度パターンを出力し、濃度パターンの読取結果と、所定の特性の差を表す補正データから補正テーブルを作成する。そして、入力値に対応する補正テーブルの補正値を、入力値に加算して濃度補正を行う。それにより、画像読取装置以外から取得した画像データに基づく画像を形成する場合も、濃度補正が可能になるとする。 The invention of Patent Document 5 outputs a density pattern of a gradation patch of a solid image, and creates a correction table from the density pattern reading result and correction data representing a difference between predetermined characteristics. Then, the correction value of the correction table corresponding to the input value is added to the input value to perform density correction. Accordingly, it is assumed that density correction can be performed even when an image based on image data acquired from other than the image reading apparatus is formed.
特許文献6の発明は、画像データの平均値、ハイライトポイントおよびシャドウポイントの信号値などを特徴量として補正量を算出する。そして、入力値に補正量を加算して濃度補正を行う。その際、画像が含む主要な被写体は画像データの変化が大きい領域を含み、画像データの変化が大きい領域は画像の観察者が注目する重要な情報を含むことが多い点を考慮する。つまり、画像データの変化が大きい領域において大きくなる高周波数成分、または、局所分散値に応じて重み付けを行った画像データの平均値を特徴量の一つに用いて濃度補正を行う。 The invention of Patent Document 6 calculates the correction amount using the average value of image data, the signal values of highlight points, shadow points, and the like as feature amounts. Then, density correction is performed by adding a correction amount to the input value. At this time, it is considered that the main subject included in the image includes a region where the change in the image data is large, and the region where the change in the image data is large often includes important information which is observed by the observer of the image. That is, density correction is performed by using, as one of the feature amounts, a high-frequency component that increases in a region where the change in image data is large, or an average value of image data weighted according to a local dispersion value.
しかし、出力画像の輝度変化の程度は、画素の周波数成分ごとの振幅値や平均輝度値などの特徴量に依存して変化する場合がある。 However, the degree of change in luminance of the output image may change depending on a feature quantity such as an amplitude value or an average luminance value for each frequency component of the pixel.
図11により正弦波チャートの一例を説明する。図11に示す三つの正弦波チャートは、所定の振幅値と平均輝度値を有し、それぞれ周波数が異なる。このような正弦波チャートを画像出力装置によって出力し、出力された正弦波チャートの平均輝度値をプロットすると図12に示すようなカーブが得られる。つまり、出力画像の平均輝度値は、周波数成分が高周波数域になるほど低下する。 An example of a sine wave chart will be described with reference to FIG. The three sine wave charts shown in FIG. 11 have predetermined amplitude values and average luminance values, and have different frequencies. When such a sine wave chart is output by the image output device and the average luminance value of the output sine wave chart is plotted, a curve as shown in FIG. 12 is obtained. That is, the average luminance value of the output image decreases as the frequency component becomes higher.
図13により正弦波チャートの一例を説明する。図13に示す二つの正弦波チャートは、所定の平均輝度値と周波数を有し、それぞれ振幅値が異なる。このような正弦波チャートを画像出力装置によって出力し、出力された正弦波チャートの平均輝度値をプロットすると図14に示すようなカーブが得られる。また、図15により正弦波チャートの一例を説明する。図15に示す二つの正弦波チャートは、所定の振幅値と周波数を有し、それぞれ平均輝度値が異なる。このような正弦波チャートを画像出力装置によって出力し、出力された正弦波チャートの平均輝度値をプロットすると図16に示すようなカーブが得られる。図14、図16に示すように、出力画像の平均輝度値の低下は、周波数成分ごとの振幅値、平均輝度値に応じて変化する。 An example of a sine wave chart will be described with reference to FIG. The two sine wave charts shown in FIG. 13 have a predetermined average luminance value and frequency, and have different amplitude values. When such a sine wave chart is output by the image output device and the average luminance value of the output sine wave chart is plotted, a curve as shown in FIG. 14 is obtained. An example of a sine wave chart will be described with reference to FIG. The two sine wave charts shown in FIG. 15 have predetermined amplitude values and frequencies, and have different average luminance values. When such a sine wave chart is output by the image output device and the average luminance value of the output sine wave chart is plotted, a curve as shown in FIG. 16 is obtained. As shown in FIGS. 14 and 16, the decrease in the average luminance value of the output image changes according to the amplitude value and the average luminance value for each frequency component.
このように、出力画像の輝度変化は、画像データの周波数特性、周波数成分ごとの振幅値、平均輝度値などの特徴量に依存する。言い換えれば、特徴量に応じて画質劣化の程度が変化する。特徴量に依存する輝度変化は、一般的な輝度補正方法では補正することができない。つまり、特許文献5の発明は、画像出力装置の濃度変化に基づく補正は可能であるが、周波数域ごとに異なる濃度変化を補正することができない。また、特許文献6の発明は、画像データの周波数成分を考慮するものの、画像出力装置の濃度変化は考慮せず、勿論、周波数成分ごとの振幅値、平均輝度値に応じた補正を考慮しない。 As described above, the luminance change of the output image depends on the characteristic amount such as the frequency characteristics of the image data, the amplitude value for each frequency component, and the average luminance value. In other words, the degree of image quality deterioration changes according to the feature amount. The luminance change depending on the feature amount cannot be corrected by a general luminance correction method. That is, the invention of Patent Document 5 can correct based on the density change of the image output device, but cannot correct the density change that differs for each frequency range. Further, although the invention of Patent Document 6 considers the frequency component of the image data, it does not consider the density change of the image output device, and of course does not consider the correction according to the amplitude value and the average luminance value for each frequency component.
本発明は、画素ごとに、画像の特徴量に依存して変化する光学伝達特性に起因する画質劣化を抑制することを目的とする。 It is an object of the present invention to suppress image quality degradation caused by optical transfer characteristics that change depending on the feature amount of an image for each pixel.
また、本発明は、画素ごとに、画像の特徴量に依存する出力画像の輝度変化に起因する画質劣化を抑制することを他の目的とする。 Another object of the present invention is to suppress image quality degradation caused by a change in luminance of an output image depending on a feature amount of an image for each pixel.
本発明は、前記の目的を達成する一手段として、以下の構成を備える。 The present invention has the following configuration as one means for achieving the above object.
本発明にかかる画像処理は、入力画像データが周波数成分に分解された画像データから、注目画素に対応する画素値を用いて、前記周波数成分ごとの画像の特徴量を算出し、画像出力装置の光学伝達関数を前記周波数成分ごとに記憶する記憶手段から、前記周波数成分ごとに、前記特徴量に応じた光学伝達関数を取得し、前記周波数成分ごとに取得した光学伝達関数から前記入力画像を補正する周波数空間の補正フィルタを作成し、前記周波数空間の補正フィルタを実空間の補正フィルタに変換し、前記実空間の補正フィルタを用いて、前記入力画像の画素ごとに補正を行い、前記補正後の画像を前記画像出力装置に出力することを特徴とする。 The image processing according to the present invention calculates the image feature amount for each frequency component from the image data obtained by decomposing the input image data into frequency components, using a pixel value corresponding to the pixel of interest . An optical transfer function corresponding to the feature amount is acquired for each frequency component from a storage unit that stores an optical transfer function for each frequency component, and the input image is corrected from the optical transfer function acquired for each frequency component. A correction filter for the frequency space to be generated, converting the correction filter for the frequency space into a correction filter for the real space, performing correction for each pixel of the input image using the correction filter for the real space, and after the correction This image is output to the image output device.
また、入力画像データが周波数成分に分解された画像データから、注目画素に対応する画素値を用いて、前記周波数成分ごとの画像の特徴量を算出し、画像出力装置による出力画像の輝度変化量を前記周波数成分ごとに記憶する記憶手段から、前記周波数成分ごとに、前記特徴量に応じた輝度変化量を取得し、前記取得した輝度変化量から輝度補正係数として輝度変化量を選択し、前記輝度補正係数を用いて、前記入力画像の画素ごとに輝度を補正し、前記補正後の画像を前記画像出力装置に出力することを特徴とする。 Further, the image feature amount for each frequency component is calculated from the image data obtained by decomposing the input image data into frequency components, using the pixel value corresponding to the pixel of interest, and the luminance change amount of the output image by the image output device For each frequency component, a luminance change amount corresponding to the feature amount is acquired for each frequency component, and a luminance change amount is selected as a luminance correction coefficient from the acquired luminance change amount, A luminance correction coefficient is used to correct the luminance for each pixel of the input image, and the corrected image is output to the image output device.
本発明によれば、画素ごとに、画像の特徴量に依存して変化する光学伝達特性に起因する画質劣化を抑制することができる。 According to the present invention, it is possible to suppress image quality degradation caused by optical transfer characteristics that change depending on the feature amount of an image for each pixel.
また、本発明によれば、画素ごとに、画像の特徴量に依存する出力画像の輝度変化に起因する画質劣化を抑制することができる。 Further, according to the present invention, it is possible to suppress image quality degradation caused by a change in luminance of the output image depending on the feature amount of the image for each pixel.
以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。 Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.
[装置の構成]
図4のブロック図により実施例1の画像処理装置の構成例を説明する。
[Device configuration]
A configuration example of the image processing apparatus according to the first embodiment will be described with reference to the block diagram of FIG.
画像処理装置100には、インクジェットプリンタまたは電子写真プリンタなどの画像出力装置103、および、画像を格納する画像記憶部102が接続される。なお、画像記憶部102は、ネットワークを介して接続されたサーバ装置でもよい。画像入力部101は、画像出力装置103によって出力すべき画像(以下、原画像)の画像データを画像記憶部102から入力する。 Connected to the image processing apparatus 100 are an image output apparatus 103 such as an ink jet printer or an electrophotographic printer, and an image storage unit 102 for storing images. The image storage unit 102 may be a server device connected via a network. The image input unit 101 inputs image data of an image to be output by the image output device 103 (hereinafter referred to as an original image) from the image storage unit 102.
特徴量算出部104は、原画像の注目画素の特徴量を算出するために次の構成を備える。周波数変換部105は、ウェーブレット変換などを用いて画像データを周波数成分に分解する。振幅取得部106は、周波数成分に分解された画像データから、注目画素に対応する画素値を用いて、周波数成分ごとの特徴量としての振幅値を取得する。平均輝度取得部107は、注目画素を含む、注目画素の近傍の所定の領域の画素値から、特徴量として平均輝度値を算出する。 The feature amount calculation unit 104 has the following configuration to calculate the feature amount of the target pixel of the original image. The frequency conversion unit 105 decomposes the image data into frequency components using wavelet conversion or the like. The amplitude acquisition unit 106 acquires an amplitude value as a feature amount for each frequency component from the image data decomposed into frequency components using a pixel value corresponding to the target pixel. The average luminance acquisition unit 107 calculates an average luminance value as a feature amount from pixel values in a predetermined area near the target pixel including the target pixel.
MTF記憶部108は、画像出力装置103の光学伝達関数(OTF)の絶対値であるMTFを示すデータ(以下、MTFデータ)を格納する。MTF取得部109は、注目画素の特徴量である振幅パラメータおよび平均輝度パラメータを入力し、注目画素の特徴量に対応するMTFデータをMTF記憶部108から取得する。補正フィルタ作成部110は、MTFデータから算出したMTF補正用のフィルタ係数を用いて周波数空間の補正フィルタを作成する。補正フィルタ変換部111は、周波数空間の補正フィルタを実空間の補正フィルタに変換する。 The MTF storage unit 108 stores data indicating the MTF that is the absolute value of the optical transfer function (OTF) of the image output device 103 (hereinafter referred to as MTF data). The MTF acquisition unit 109 receives the amplitude parameter and the average luminance parameter that are the feature amount of the target pixel, and acquires MTF data corresponding to the feature amount of the target pixel from the MTF storage unit 108. The correction filter creation unit 110 creates a frequency space correction filter using the MTF correction filter coefficient calculated from the MTF data. The correction filter conversion unit 111 converts the frequency space correction filter into a real space correction filter.
画像変換部112は、実空間の補正フィルタと、原画像の画像データを畳込積分する画像変換(以下、MTF補正)を行う。画像出力部113は、MTF補正された画像データを画像出力装置103に出力し、画像を印刷させる。 The image conversion unit 112 performs a real space correction filter and image conversion (hereinafter referred to as MTF correction) for convolution integration of the image data of the original image. The image output unit 113 outputs the MTF-corrected image data to the image output device 103 to print the image.
[画像処理]
図5のフローチャートによりMTF補正を説明する。
[Image processing]
The MTF correction will be described with reference to the flowchart of FIG.
画像入力部101は、原画像の画像データを入力する(S201)。特徴量算出部104は、入力画像の像データからMTF補正対象の画素(注目画素)を選択し(S202)、詳細は後述するが、注目画素の特徴量を算出する(S203)。MTF取得部109は、算出された特徴量(周波数成分ごとの振幅値と、平均輝度値)に応じた画像出力装置103の周波数成分ごとのMTFデータをMTF記憶部108から取得する(S204)。 The image input unit 101 inputs image data of the original image (S201). The feature amount calculation unit 104 selects the MTF correction target pixel (target pixel) from the image data of the input image (S202), and calculates the feature amount of the target pixel (details will be described later) (S203). The MTF acquisition unit 109 acquires, from the MTF storage unit 108, MTF data for each frequency component of the image output device 103 according to the calculated feature amount (amplitude value for each frequency component and average luminance value) (S204).
次に、補正フィルタ作成部110は、取得された周波数成分ごとのMTFデータからMTF補正用のフィルタ係数を算出し、周波数空間の補正フィルタを作成する(S205)。MTF補正用のフィルタ係数は、画像出力装置103のMTFによる出力画像の周波数特性の劣化を防ぐ(出力画像と原画像の周波数特性を一致させる)ために、画像出力装置103が出力する前の画像の周波数特性を補う係数である。 Next, the correction filter creation unit 110 calculates a filter coefficient for MTF correction from the acquired MTF data for each frequency component, and creates a correction filter for the frequency space (S205). The filter coefficient for MTF correction is an image before the image output device 103 outputs in order to prevent deterioration of the frequency characteristics of the output image due to the MTF of the image output device 103 (match the frequency characteristics of the output image and the original image). Is a coefficient to compensate for the frequency characteristics.
次に、補正フィルタ変換部111は、周波数空間の補正フィルタを逆フーリエ変換などによって実空間へ変換して、実空間の補正フィルタを生成する(S206)。画像変換部112は、実空間の補正フィルタと、注目画素の画像データを畳込積分して、注目画素をMTF補正する(S207)。 Next, the correction filter conversion unit 111 converts the correction filter in the frequency space into the real space by inverse Fourier transform or the like to generate a real space correction filter (S206). The image conversion unit 112 performs MTF correction on the target pixel by convolving and integrating the real space correction filter and the image data of the target pixel (S207).
次に、画像出力部113は、原画像の全画素に対するMTF補正が終了したか否かを判定し(S208)、未処理の画素があれば処理をステップS202に戻し、ステップS202からS207の処理を繰り返す。また、全画素のMTF補正が終了した場合は、図示しないメモリに蓄えた、MTF補正後の画像データを画像出力装置103に出力する(S209)。 Next, the image output unit 113 determines whether or not the MTF correction has been completed for all the pixels of the original image (S208), and if there is an unprocessed pixel, the process returns to step S202, and the processes of steps S202 to S207 are performed. repeat. When the MTF correction for all the pixels is completed, the image data after MTF correction stored in a memory (not shown) is output to the image output device 103 (S209).
●特徴量算出部
図6のフローチャートにより特徴量算出部104の処理(S203)の詳細を説明する。
Feature Quantity Calculation Unit Details of the process (S203) of the feature quantity calculation unit 104 will be described with reference to the flowchart of FIG.
平均輝度取得部107は、注目画素を含む所定の領域の複数の画素の値から特徴量として平均輝度値を算出する(S301)。周波数変換部105は、ウェーブレット変換などにより注目画素の画像データを周波数成分に分解する(S302)。振幅取得部106は、周波数成分に分解された画像データを用いて、注目画素に対応する画素値から、周波数成分ごとに特徴量として振幅値を算出する(S303)。 The average luminance acquisition unit 107 calculates an average luminance value as a feature amount from the values of a plurality of pixels in a predetermined region including the target pixel (S301). The frequency conversion unit 105 decomposes the image data of the target pixel into frequency components by wavelet conversion or the like (S302). The amplitude acquisition unit 106 calculates an amplitude value as a feature amount for each frequency component from the pixel value corresponding to the target pixel using the image data decomposed into frequency components (S303).
●MTF取得部
MTF記憶部108は、周波数成分ごとに、振幅値と輝度値の複数の組み合わせに対応するMTFデータを記憶する。従って、MTF取得部109は、特徴量算出部104が周波数成分ごとに算出した振幅値と平均輝度値に対応するMTFデータを取得して、全周波数成分のMTFデータを取得する。
● MTF acquisition department
The MTF storage unit 108 stores MTF data corresponding to a plurality of combinations of amplitude values and luminance values for each frequency component. Therefore, the MTF acquisition unit 109 acquires MTF data corresponding to the amplitude value and the average luminance value calculated for each frequency component by the feature amount calculation unit 104, and acquires MTF data of all frequency components.
●補正フィルタ作成部
画像出力装置103のMTFによる画質劣化は、周波数空間において、出力する画像データとMTFの乗算として下式によって表される。
G(u, v) = H(u, v)×F(u, v) …(1)
ここで、G(u, v)は出力画像(劣化画像)、
H(u, v)はMTF(劣化関数)、
F(u, v)は原画像、
(u, v)は空間周波数。
Correction Filter Creation Unit Image quality degradation due to MTF of the image output apparatus 103 is expressed by the following equation as multiplication of image data to be output and MTF in the frequency space.
G (u, v) = H (u, v) × F (u, v)… (1)
Where G (u, v) is the output image (degraded image),
H (u, v) is MTF (deterioration function),
F (u, v) is the original image,
(u, v) is the spatial frequency.
画質劣化を回復する方法として、回復フィルタを用いる画像回復方法が知られている。回復フィルタとして、劣化関数の逆フィルタやWienerフィルタなどがある。下式は、劣化関数H(u, v)の逆関数I(u, v)である逆フィルタを示す。
I(u, v) = 1/H(u, v) …(2)
As a method for recovering image quality deterioration, an image recovery method using a recovery filter is known. Examples of the recovery filter include an inverse filter of a degradation function and a Wiener filter. The following equation shows an inverse filter that is an inverse function I (u, v) of the degradation function H (u, v).
I (u, v) = 1 / H (u, v)… (2)
逆フィルタは、ノイズを考慮することができないため、ノイズが存在するとノイズ成分を強調してしまう。一方、Wienerフィルタは、ノイズを制御した回復フィルタである。
W(u, v) = Hc(u, v) / (|H(u, v)|22 + Γ) …(3)
ここで、W(u, v)はWienerフィルタ、
Hc(u, v)はH(u, v)の複素共役、
Гはノイズ成分を制御するパラメータ。
Since the inverse filter cannot take noise into consideration, noise components are emphasized when noise exists. On the other hand, the Wiener filter is a recovery filter that controls noise.
W (u, v) = Hc (u, v) / (| H (u, v) | 2 2 + Γ)… (3)
Where W (u, v) is the Wiener filter,
Hc (u, v) is the complex conjugate of H (u, v),
Г is a parameter that controls the noise component.
補正フィルタ作成部110は、劣化関数として特徴量に対応するMTFを用いて、回復フィルタとして逆フィルタまたはWienerフィルタを作成する。ただし、回復フィルタは、画質劣化を回復または抑制することができるものであれば、その形式は限定されない。 The correction filter creation unit 110 creates an inverse filter or a Wiener filter as a recovery filter using the MTF corresponding to the feature amount as the deterioration function. However, the form of the recovery filter is not limited as long as it can recover or suppress deterioration in image quality.
また、一次元のMTF補正用のフィルタ係数を用いて、二次元のMTF補正用のフィルタを作成する方法として次のものがあるが、それらに限定されるわけではない。
・一次元のフィルタ係数を原点中心に回転させる方法、
・例えば直交する二方向の一次元のフィルタ係数を用いて二方向の間を補間する方法、
・三方向以上の一次元のフィルタ係数を用いて複数方向の間を補間する方法。
Further, there are the following methods for creating a two-dimensional MTF correction filter using a one-dimensional MTF correction filter coefficient, but the present invention is not limited thereto.
・ A method to rotate the one-dimensional filter coefficient around the origin,
-For example, a method of interpolating between two directions using one-dimensional filter coefficients in two orthogonal directions,
A method of interpolating between a plurality of directions using one-dimensional filter coefficients of three or more directions.
●MTF補正
画像出力装置103のMTFによる画質劣化の程度が、画素の周波数成分ごとの振幅値や、平均輝度値などの特徴量に依存する場合、画素ごとに画質劣化の程度が異なり、補正の程度も画素ごとに変える必要がある。画素ごとに補正の程度を変えるには、実空間におけるフィルタリングが必要になり、補正フィルタ変換部111により周波数空間の補正フィルタを実空間の補正フィルタに変換する。
● MTF correction When the degree of image quality degradation due to MTF of the image output device 103 depends on the feature value such as the amplitude value and average luminance value for each frequency component of the pixel, the degree of image quality degradation differs for each pixel. It is necessary to change the degree for each pixel. In order to change the degree of correction for each pixel, filtering in the real space is required, and the correction filter conversion unit 111 converts the correction filter in the frequency space into a correction filter in the real space.
実空間におけるフィルタリングは、注目画像と補正フィルタとの畳込積分として表現される。具体的に、実空間におけるMTF補正による復元処理は、下式のようにモデル化される。画像変換部112は、下式によって、画像入力部101が入力した画像にMTF補正を施す。
g(x, y) = h(x,y)*f(x, y) …(4)
ここで、g(x, y)はMTF補正後の画像、
h(x, y)はMTF補正用の補正フィルタ、
f(x, y)はMTF補正前の画像、
*は畳込積分を表す。
The filtering in the real space is expressed as a convolution integral between the image of interest and the correction filter. Specifically, the restoration process by MTF correction in the real space is modeled as the following equation. The image conversion unit 112 performs MTF correction on the image input by the image input unit 101 according to the following equation.
g (x, y) = h (x, y) * f (x, y)… (4)
Where g (x, y) is the image after MTF correction,
h (x, y) is a correction filter for MTF correction,
f (x, y) is the image before MTF correction,
* Represents convolution integral.
以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。 The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.
図7のブロック図により実施例2の画像処理装置の構成例を説明する。 A configuration example of the image processing apparatus according to the second embodiment will be described with reference to the block diagram of FIG.
実施例2の画像処理装置100には、画像出力装置103が出力したMTF測定用のチャートの濃度分布を測定する測定部122が接続される。なお、測定部122として、スキャナやディジタルカメラなどを利用することができる。また、実施例2の画像処理装置100は、MTF算出部121を有する。MTF算出部121は、測定部122から入力した濃度分布から、画像出力装置103のMTFデータを算出し、算出したMTFデータをMTF記憶部108に格納する。 The image processing apparatus 100 according to the second embodiment is connected to a measurement unit 122 that measures the density distribution of the MTF measurement chart output from the image output apparatus 103. As the measurement unit 122, a scanner, a digital camera, or the like can be used. The image processing apparatus 100 according to the second embodiment includes an MTF calculation unit 121. The MTF calculation unit 121 calculates MTF data of the image output apparatus 103 from the density distribution input from the measurement unit 122, and stores the calculated MTF data in the MTF storage unit.
図8のフローチャートによりMTFデータの算出を説明する。 The calculation of MTF data will be described with reference to the flowchart of FIG.
画像出力部113は、図示しないメモリに格納されたMTF測定用のチャートの画像データを画像出力装置103に出力して、画像出力装置103に当該チャートを出力させる(S501)。MTF算出部121は、測定部122を制御して当該チャートを測定させ、測定結果の濃度分布データを入力する(S502)。そして、濃度分布データから画像出力装置103のMTFデータを算出し(S503)、算出したMTFデータをMTF記憶部108に格納する(S504)。 The image output unit 113 outputs the MTF measurement chart image data stored in a memory (not shown) to the image output apparatus 103, and causes the image output apparatus 103 to output the chart (S501). The MTF calculation unit 121 controls the measurement unit 122 to measure the chart, and inputs the concentration distribution data of the measurement result (S502). Then, MTF data of the image output device 103 is calculated from the density distribution data (S503), and the calculated MTF data is stored in the MTF storage unit 108 (S504).
●MTFの測定
画像出力装置103のMTFの測定には次の方法がある。(1)MTF測定用のチャートとして正弦波チャートを画像出力装置103に出力させ、正弦波チャートから読み取った最大濃度値と最小濃度値からMTFを算出する方法。(2)MTF測定用のチャートとして矩形波チャートを画像出力装置103に出力させる。そして、矩形波チャートから読み取った最大濃度値と最小濃度値からコントラスト伝達関数(contrast transfer function: CTF)を算出し、Coltmanの補正式を用いて、CFTをMTFに変換する方法。なお、MTFの測定方法はとくに限定されない。
Measurement of MTF There are the following methods for measuring the MTF of the image output apparatus 103. (1) A method in which a sine wave chart is output to the image output device 103 as a chart for MTF measurement, and the MTF is calculated from the maximum density value and the minimum density value read from the sine wave chart. (2) A rectangular wave chart is output to the image output device 103 as a chart for MTF measurement. Then, a contrast transfer function (CTF) is calculated from the maximum density value and the minimum density value read from the rectangular wave chart, and CFT is converted to MTF using Coltman's correction formula. The MTF measurement method is not particularly limited.
実施例2においては、正弦波チャートまたは矩形波チャートとして、複数の周波数パラメータ、振幅パラメータ、平均輝度パラメータを用いて作成したチャートを使用して、画像出力装置103のMTFを測定する。 In the second embodiment, the MTF of the image output device 103 is measured using a chart created using a plurality of frequency parameters, amplitude parameters, and average luminance parameters as a sine wave chart or a rectangular wave chart.
図9、図10によりMTF測定用のチャートの一例を説明する。図9に示すチャートは正弦波チャートであり、各周波数について平均輝度値が等しく、振幅値が異なる。従って、図9に示す正弦波チャートを使用すれば、振幅値の変化に対するMTFの変化が測定可能である。 An example of the MTF measurement chart will be described with reference to FIGS. The chart shown in FIG. 9 is a sine wave chart, and the average luminance value is equal and the amplitude value is different for each frequency. Therefore, if the sine wave chart shown in FIG. 9 is used, the change in MTF with respect to the change in amplitude value can be measured.
図10に示すチャートも正弦波チャートであり、各周波数について振幅値が等しく、平均輝度値が異なる。従って、図10に示す正弦波チャートを使用すれば、平均輝度値の変化に対するMTFの変化が測定可能である。 The chart shown in FIG. 10 is also a sine wave chart, in which the amplitude value is equal and the average luminance value is different for each frequency. Therefore, if the sine wave chart shown in FIG. 10 is used, the change in MTF with respect to the change in average luminance value can be measured.
MTF算出部121は、画像出力装置103が出力したMTF測定用のチャートを、スキャナやディジタルカメラなどの画像入力装置(測定部122)を用いてデータ化したチャート画像を入力する。そして、チャート画像の濃度分布(最大濃度値と最小濃度値)からMTFデータを算出する。その際、算出したMTFデータから画像入力装置のMTFをキャンセルすれば、画像出力装置103単体のMTFデータが得られる。 The MTF calculation unit 121 inputs a chart image obtained by converting the MTF measurement chart output from the image output device 103 into data using an image input device (measurement unit 122) such as a scanner or a digital camera. Then, MTF data is calculated from the density distribution (maximum density value and minimum density value) of the chart image. At that time, if the MTF of the image input device is canceled from the calculated MTF data, the MTF data of the image output device 103 alone can be obtained.
以下、本発明にかかる実施例3の画像処理を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一符号を付して、その詳細説明を省略する。 Hereinafter, image processing according to the third embodiment of the present invention will be described. Note that the same reference numerals in the third embodiment denote the same parts as in the first and second embodiments, and a detailed description thereof will be omitted.
[装置の構成]
図17のブロック図により実施例3の画像処理装置の構成例を説明する。
[Device configuration]
A configuration example of the image processing apparatus according to the third embodiment will be described with reference to the block diagram of FIG.
画像処理装置1100には、インクジェットプリンタまたは電子写真プリンタなどの画像出力装置1103、および、画像を格納する画像記憶部1102が接続される。なお、画像記憶部1102は、ネットワークを介して接続されたサーバ装置でもよい。画像入力部1101は、画像出力装置1103によって出力すべき画像(以下、原画像)の画像データを画像記憶部1102から入力する。 The image processing apparatus 1100 is connected to an image output apparatus 1103 such as an ink jet printer or an electrophotographic printer, and an image storage unit 1102 for storing images. Note that the image storage unit 1102 may be a server device connected via a network. The image input unit 1101 inputs image data of an image (hereinafter referred to as an original image) to be output by the image output device 1103 from the image storage unit 1102.
特徴量算出部1104は、出力すべき画像の注目画素の特徴量を算出するために次の構成を備える。周波数変換部1105は、ウェーブレット変換などを用いて画像データを周波数成分に分解する。振幅取得部1106は、周波数成分に分解された画像データから、注目画素に対応する画素値を用いて、周波数成分ごとの特徴量として振幅値を取得する。平均輝度取得部1107は、目画素を含む所定の画像領域の画素値から、特徴量として平均輝度値を算出する。 The feature amount calculation unit 1104 has the following configuration to calculate the feature amount of the target pixel of the image to be output. The frequency conversion unit 1105 decomposes the image data into frequency components using wavelet transform or the like. The amplitude acquisition unit 1106 acquires an amplitude value as a feature amount for each frequency component from the image data decomposed into frequency components using a pixel value corresponding to the target pixel. The average luminance acquisition unit 1107 calculates an average luminance value as a feature amount from the pixel value of a predetermined image area including the eye pixel.
輝度変化量記憶部1108は、画像の特徴量に応じた、画像出力装置1103の輝度変化量を周波数成分ごとに格納する。補正係数選択部1109は、注目画素の特徴量(振幅値と平均輝度値)を入力する。そして、輝度変化量記憶部1108に格納された周波数成分ごとの輝度変化量から注目画素に適用する輝度変化量を輝度補正係数として選択する。 The luminance change amount storage unit 1108 stores the luminance change amount of the image output device 1103 corresponding to the image feature amount for each frequency component. The correction coefficient selection unit 1109 inputs the feature amount (amplitude value and average luminance value) of the target pixel. Then, the luminance change amount to be applied to the target pixel is selected as the luminance correction coefficient from the luminance change amount for each frequency component stored in the luminance change amount storage unit 1108.
輝度補正部1112は、輝度補正係数を用いて、出力すべき画像の画像データを輝度補正する。画像出力部1113は、輝度補正された画像データを画像出力装置1103に出力し、画像を印刷させる。 The luminance correction unit 1112 corrects the luminance of the image data of the image to be output using the luminance correction coefficient. The image output unit 1113 outputs the brightness-corrected image data to the image output device 1103, and prints the image.
[画像処理]
図18のフローチャートにより輝度補正を説明する。
[Image processing]
The brightness correction will be described with reference to the flowchart of FIG.
画像入力部1101は、原画像の画像データを入力する(S1201)。特徴量算出部1104は、入力された画像データから輝度補正対象の画素(注目画素)を選択する(S1202)。周波数変換部1105は、ウェーブレット変換などの周波数成分に分解する手法により注目画素の画像データを周波数成分に分解する(S1203)。振幅取得部1106は、周波数成分に分解された画像データを用いて、注目画素に対応する画素値から、周波数成分ごとに特徴量として振幅値を算出する(S1204)。また、平均輝度取得部1107は、注目画素を含む所定の領域の複数の画素の値から特徴量として平均輝度値を算出する(S1205)。 The image input unit 1101 inputs image data of the original image (S1201). The feature amount calculation unit 1104 selects a luminance correction target pixel (target pixel) from the input image data (S1202). The frequency conversion unit 1105 decomposes the image data of the pixel of interest into frequency components by a method of decomposing into frequency components such as wavelet transform (S1203). The amplitude acquisition unit 1106 calculates an amplitude value as a feature amount for each frequency component from the pixel value corresponding to the target pixel using the image data decomposed into frequency components (S1204). Further, the average luminance acquisition unit 1107 calculates an average luminance value as a feature amount from the values of a plurality of pixels in a predetermined area including the target pixel (S1205).
次に、補正係数選択部1109は、算出された特徴量(周波数成分ごとの振幅値と、平均輝度値)に応じた画像出力装置103の周波数成分ごとの輝度変化量を輝度変化量記憶部1108から取得する(S1206)。そして、取得した周波数成分ごとの輝度変化量から、詳細は後述するが、注目画素の特徴量に対応する輝度補正係数として用いる輝度変化量を選択する(S1207)。 Next, the correction coefficient selection unit 1109 displays the luminance change amount for each frequency component of the image output device 103 according to the calculated feature amount (the amplitude value for each frequency component and the average luminance value) as the luminance change amount storage unit 1108. (S1206). Then, the luminance change amount used as the luminance correction coefficient corresponding to the feature amount of the target pixel is selected from the acquired luminance change amount for each frequency component (S1207).
次に、輝度補正部1112は、詳細は後述するが、輝度補正係数を用いて注目画素の画像データを輝度補正する(S1208)。画像出力部1113は、原画像の全画素に対する輝度補正が終了したか否かを判定し(S1209)、未処理の画素があれば処理をステップS1202に戻し、ステップS1202からS1208の処理を繰り返す。また、全画素の輝度補正が終了した場合は、図示しないメモリに蓄えた、輝度補正後の画像データを画像出力装置1103に出力する(S1210)。 Next, as will be described in detail later, the luminance correction unit 1112 corrects the luminance of the image data of the target pixel using the luminance correction coefficient (S1208). The image output unit 1113 determines whether or not luminance correction has been completed for all the pixels of the original image (S1209). If there is an unprocessed pixel, the process returns to step S1202, and the processes of steps S1202 to S1208 are repeated. When the luminance correction for all the pixels is completed, the image data after luminance correction stored in a memory (not shown) is output to the image output device 1103 (S1210).
●輝度変化量の取得
輝度変化量記憶部1108は、周波数成分ごとに、振幅値と輝度値の複数の組み合わせに対応する輝度変化量を記憶する。輝度変化量は、周波数、振幅値、および、輝度値を所定条件に設定した正弦波チャートを画像出力装置1103に出力させ、出力された正弦波チャートの平均輝度値と、出力前の正弦波チャートの平均輝度値の差から算出する。図19により輝度変化量記憶部1108が記憶する輝度変化量の一例を説明する。注目画素の特徴量は、周波数成分ごとに算出されるため、振幅値と平均輝度値に対応する輝度変化量を周波数成分ごとに取得することで、振幅値と平均輝度値に対応する輝度変化量を全周波数成分において取得することができる。
Acquisition of Luminance Change A luminance change storage unit 1108 stores a luminance change corresponding to a plurality of combinations of amplitude values and luminance values for each frequency component. The amount of change in luminance is a frequency, amplitude value, and a sine wave chart in which the luminance value is set to predetermined conditions. It is calculated from the difference of the average luminance value of. An example of the luminance change amount stored in the luminance change amount storage unit 1108 will be described with reference to FIG. Since the feature amount of the pixel of interest is calculated for each frequency component, the luminance change amount corresponding to the amplitude value and the average luminance value is obtained by acquiring the luminance change amount corresponding to the amplitude value and the average luminance value for each frequency component. Can be obtained for all frequency components.
●輝度変化量(輝度補正係数)の選択
補正係数選択部1109は、周波数成分ごとの特徴量に対応する輝度変化量を参照して、注目画素の、輝度変化後の輝度値と輝度変化前の平均輝度値の差が最小の輝度変化量を輝度補正係数として選択する。この差は、ある周波数、振幅値および平均輝度値の条件の下、平均輝度値から輝度変化量と平均輝度値の積を減算して計算する。ただし、輝度補正係数の選択または算出方法は、出力画像における輝度変化を補正する際に、出力画像の輝度値を原画像の輝度値に等しくするような輝度補正係数を算出することができれば、その方法は限定されない。
Selection of luminance change amount (luminance correction coefficient) The correction coefficient selection unit 1109 refers to the luminance change amount corresponding to the feature quantity for each frequency component, and the luminance value of the target pixel after the luminance change and before the luminance change The luminance change amount with the smallest difference in average luminance values is selected as the luminance correction coefficient. This difference is calculated by subtracting the product of the luminance change amount and the average luminance value from the average luminance value under the conditions of a certain frequency, amplitude value, and average luminance value. However, the method for selecting or calculating the luminance correction coefficient is that if the luminance correction coefficient that makes the luminance value of the output image equal to the luminance value of the original image can be calculated when correcting the luminance change in the output image, The method is not limited.
なお、注目画素の特徴量に対応する輝度変化量が、輝度変化量記憶部1108が記憶する離散的な輝度変化量に存在しない場合があり得る。その場合、補正係数選択部1109は、注目画素の特徴量に近い輝度変化量記憶部が記憶する特徴量の輝度変化量を用いて、注目画素の特徴量に対応する輝度変化量を補間演算する。 Note that there may be a case where the luminance change amount corresponding to the feature amount of the target pixel does not exist in the discrete luminance change amount stored in the luminance change amount storage unit 1108. In that case, the correction coefficient selection unit 1109 performs an interpolation operation on the luminance change amount corresponding to the feature amount of the target pixel using the luminance change amount of the feature amount stored in the luminance change amount storage unit close to the feature amount of the target pixel. .
●輝度補正
図20のフローチャートにより注目画素の輝度補正(S1208)の詳細を説明する。
Luminance Correction Details of the luminance correction (S1208) of the target pixel will be described with reference to the flowchart of FIG.
輝度補正部1112は、注目画素の画像データを入力し(S1301)、周波数成分ごとに選択された輝度補正係数を入力する(S1302)。そして、周波数成分ごとに、輝度補正係数と注目画素の平均輝度値の積を算出し、それら積の合計を補正値として、入力した注目画素の画像データに加算する(S1303)。そして、補正値を加算した画像データが画像データの範囲(例えば、8ビット画像の場合0〜255の範囲)を逸脱する場合は、注目画素の周辺の未処理画素に逸脱分の画像データを拡散する(S1304)。つまり、所定の領域内で輝度を保存するクリッピング処理を行う。 The luminance correction unit 1112 receives the image data of the target pixel (S1301), and inputs the luminance correction coefficient selected for each frequency component (S1302). Then, for each frequency component, the product of the luminance correction coefficient and the average luminance value of the target pixel is calculated, and the sum of these products is added as a correction value to the input image data of the target pixel (S1303). If the image data with the correction value added deviates from the range of the image data (for example, a range of 0 to 255 for an 8-bit image), the image data for the deviation is diffused to the unprocessed pixels around the target pixel. (S1304). That is, a clipping process for preserving luminance within a predetermined area is performed.
なお、輝度補正の方法は、画像の輝度を補正することができれば、その方法は限定されない。同様に、クリッピング処理は、画像データを画像データの範囲内に収めることができれば、その方法は限定されない。 The luminance correction method is not limited as long as the luminance of the image can be corrected. Similarly, the clipping process is not limited as long as the image data can be within the range of the image data.
このように、周波数成分ごとの特徴量に応じた輝度補正係数を使用して、画像出力装置の輝度変化特性に基づく輝度補正を画素ごとに適応的に行うことができる。 As described above, the luminance correction based on the luminance change characteristic of the image output apparatus can be adaptively performed for each pixel by using the luminance correction coefficient corresponding to the feature amount for each frequency component.
[変形例]
実施例1、2では、画像出力装置のMTFの変化に対応するMTF補正を説明した。また、実施例3では、出力画像の輝度変化に対応する輝度補正を説明した。これらMTF補正と輝度補正を同時に実行することができる。その場合、MTF補正用の補正フィルタを作成し、輝度補正係数を選択した後、補正フィルタの直流成分を輝度補正係数に基づき調整する。そして、調整後の補正フィルタを実空間に変換して畳込積分によりMTF補正と輝度補正を同時に注目画素の画像データに施す。その他の処理は、実施例1、3と略同様であり、詳細説明を省略する。
[Modification]
In the first and second embodiments, the MTF correction corresponding to the change in the MTF of the image output apparatus has been described. In the third embodiment, the luminance correction corresponding to the luminance change of the output image has been described. These MTF correction and luminance correction can be executed simultaneously. In that case, after creating a correction filter for MTF correction and selecting a luminance correction coefficient, the DC component of the correction filter is adjusted based on the luminance correction coefficient. Then, the adjusted correction filter is converted into a real space, and MTF correction and luminance correction are simultaneously performed on the image data of the target pixel by convolution integration. Other processes are substantially the same as those in the first and third embodiments, and detailed description thereof is omitted.
[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (9)
画像出力装置の光学伝達関数を前記周波数成分ごとに記憶する記憶手段から、前記周波数成分ごとに、前記特徴量に応じた光学伝達関数を取得する取得手段と、
前記周波数成分ごとに取得した光学伝達関数から前記入力画像を補正する周波数空間の補正フィルタを作成する作成手段と、
前記周波数空間の補正フィルタを実空間の補正フィルタに変換する変換手段と、
前記実空間の補正フィルタを用いて、前記入力画像の画素ごとに補正を行う補正手段と、
前記補正後の画像を前記画像出力装置に出力する出力手段とを有することを特徴とする画像処理装置。 Calculating means for calculating the feature amount of the image for each frequency component from the image data obtained by decomposing the input image data into frequency components, using a pixel value corresponding to the target pixel ;
Obtaining means for obtaining an optical transfer function corresponding to the feature amount for each frequency component from storage means for storing the optical transfer function of the image output device for each frequency component;
Creating means for creating a correction filter in a frequency space for correcting the input image from an optical transfer function acquired for each frequency component;
Converting means for converting the correction filter in the frequency space into a correction filter in the real space;
Correction means for performing correction for each pixel of the input image using the correction filter in the real space;
An image processing apparatus comprising: output means for outputting the corrected image to the image output apparatus.
画像出力装置の光学伝達関数を前記周波数成分ごとに記憶する記憶手段から、前記周波数成分ごとに、前記特徴量に応じた光学伝達関数を取得し、
前記周波数成分ごとに取得した光学伝達関数から前記入力画像を補正する周波数空間の補正フィルタを作成し、
前記周波数空間の補正フィルタを実空間の補正フィルタに変換し、
前記実空間の補正フィルタを用いて、前記入力画像の画素ごとに補正を行い、
前記補正後の画像を前記画像出力装置に出力することを特徴とする画像処理方法。 From the image data in which the input image data is decomposed into frequency components, using the pixel value corresponding to the target pixel , calculate the feature amount of the image for each frequency component,
From the storage means for storing the optical transfer function of the image output device for each frequency component, for each frequency component, obtain an optical transfer function according to the feature amount,
Create a frequency space correction filter that corrects the input image from the optical transfer function acquired for each frequency component,
Converting the frequency space correction filter into a real space correction filter;
Using the real space correction filter, correct each pixel of the input image,
An image processing method, comprising: outputting the corrected image to the image output device.
画像出力装置による出力画像の輝度変化量を前記周波数成分ごとに記憶する記憶手段から、前記周波数成分ごとに、前記特徴量に応じた輝度変化量を取得する取得手段と、
前記取得した輝度変化量から輝度補正係数として輝度変化量を選択する選択手段と、
前記輝度補正係数を用いて、前記入力画像の画素ごとに輝度を補正する補正手段と、
前記補正後の画像を前記画像出力装置に出力する出力手段とを有することを特徴とする画像処理装置。 Calculating means for calculating the feature amount of the image for each frequency component from the image data obtained by decomposing the input image data into frequency components, using a pixel value corresponding to the target pixel ;
An acquisition unit that acquires a luminance change amount corresponding to the feature amount for each frequency component from a storage unit that stores the luminance change amount of the output image by the image output device for each frequency component;
A selection means for selecting a luminance change amount as a luminance correction coefficient from the acquired luminance change amount;
Correction means for correcting the luminance for each pixel of the input image using the luminance correction coefficient;
An image processing apparatus comprising: output means for outputting the corrected image to the image output apparatus.
画像出力装置による出力画像の輝度変化量を前記周波数成分ごとに記憶する記憶手段から、前記周波数成分ごとに、前記特徴量に応じた輝度変化量を取得し、
前記取得した輝度変化量から輝度補正係数として輝度変化量を選択し、
前記輝度補正係数を用いて、前記入力画像の画素ごとに輝度を補正し、
前記補正後の画像を前記画像出力装置に出力することを特徴とする画像処理方法。 From the image data in which the input image data is decomposed into frequency components, using the pixel value corresponding to the target pixel , calculate the feature amount of the image for each frequency component,
From the storage means for storing the luminance change amount of the output image by the image output device for each frequency component, obtain the luminance change amount according to the feature amount for each frequency component,
Select a luminance change amount as a luminance correction coefficient from the acquired luminance change amount,
Using the brightness correction coefficient, correct the brightness for each pixel of the input image,
An image processing method, comprising: outputting the corrected image to the image output device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009168274A JP5426953B2 (en) | 2009-07-16 | 2009-07-16 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009168274A JP5426953B2 (en) | 2009-07-16 | 2009-07-16 | Image processing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011024049A JP2011024049A (en) | 2011-02-03 |
JP5426953B2 true JP5426953B2 (en) | 2014-02-26 |
Family
ID=43633706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009168274A Active JP5426953B2 (en) | 2009-07-16 | 2009-07-16 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5426953B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011024050A (en) * | 2009-07-16 | 2011-02-03 | Canon Inc | Image processing apparatus, and image processing method |
JP6532208B2 (en) * | 2014-10-07 | 2019-06-19 | キヤノン株式会社 | Concavo-convex forming apparatus, concavo-convex forming method and program |
JP6632222B2 (en) | 2015-05-29 | 2020-01-22 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP6703788B2 (en) | 2016-07-11 | 2020-06-03 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP6895821B2 (en) | 2017-06-28 | 2021-06-30 | キヤノン株式会社 | Image processing device and image processing method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1056570A (en) * | 1996-08-12 | 1998-02-24 | Fuji Xerox Co Ltd | Image processor |
-
2009
- 2009-07-16 JP JP2009168274A patent/JP5426953B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011024049A (en) | 2011-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5300595B2 (en) | Image processing apparatus and method, and computer program | |
JP4262557B2 (en) | Digital image sharpening method | |
KR102318488B1 (en) | Image processing apparatus and image processing method | |
US10958888B2 (en) | Image processing apparatus, image processing method and storage medium for storing program | |
JP5512522B2 (en) | Method, apparatus and computer program for adaptive correction of MTF | |
JP2000050081A (en) | Automatic tone control method by contrast gain control of edge | |
JP2007096509A (en) | Image processing apparatus and image processing method | |
JP5426953B2 (en) | Image processing apparatus and method | |
JP5539208B2 (en) | Method, apparatus and computer program for converting a digital color image | |
US11645774B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2002300402A (en) | Image processor, processing method and recording medium | |
JP6703788B2 (en) | Image processing apparatus and image processing method | |
JP5289222B2 (en) | Image processing apparatus and method | |
JP6632222B2 (en) | Image processing apparatus, image processing method, and program | |
Bonnier et al. | Measurement and compensation of printer modulation transfer function | |
JP4570534B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and computer program | |
JP4274426B2 (en) | Image processing method, apparatus, and program | |
JP2007215188A (en) | Image conversion method, converted image generating method, and image correction apparatus | |
JP2005275581A (en) | Image processing method and device, and program | |
JP2020088449A (en) | Image processing apparatus, image processing method, and program | |
JP4063971B2 (en) | Image processing method and apparatus | |
JP6164024B2 (en) | Image processing apparatus and program | |
JP2011024050A (en) | Image processing apparatus, and image processing method | |
JP2004326493A (en) | Device, method, recording medium and program for signal processing | |
JP4375223B2 (en) | Image processing apparatus, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130812 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131008 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131129 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5426953 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |