JP2011003048A - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP2011003048A JP2011003048A JP2009146035A JP2009146035A JP2011003048A JP 2011003048 A JP2011003048 A JP 2011003048A JP 2009146035 A JP2009146035 A JP 2009146035A JP 2009146035 A JP2009146035 A JP 2009146035A JP 2011003048 A JP2011003048 A JP 2011003048A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target image
- unit
- component
- processing target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009826 distribution Methods 0.000 claims abstract description 25
- 239000000284 extract Substances 0.000 claims abstract description 5
- 230000037303 wrinkles Effects 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 40
- 238000000605 extraction Methods 0.000 claims description 5
- 230000008030 elimination Effects 0.000 abstract 3
- 238000003379 elimination reaction Methods 0.000 abstract 3
- 238000006243 chemical reaction Methods 0.000 description 33
- 238000003384 imaging method Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000009499 grossing Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、画像処理技術に関し、特に画像の階調補正処理に関するものである。 The present invention relates to an image processing technique, and more particularly to an image gradation correction process.
従来、例えば特許文献1には、画像の階調補正処理に際して、以下の第1〜第3の処理を行う画像処理技術が記載されている。第1の処理では、入力画像データから非線形フィルタにより抽出したストラクチャ成分(画像内の物体の輪郭等に相当する成分)を、入力画像データから減算することによってテクスチャ成分(画像内の細部を構成する成分)を抽出する。また、第2の処理では、入力画像データから輝度のヒストグラムを取得し、取得したヒストグラムに基づいて生成した補正曲線に基づき前記ストラクチャ成分のコントラストを補正する。そして、第3の処理では、補正済のストラクチャ成分と予め増幅したテクスチャ成分とを加算することにより新たな画像データを生成する。 Conventionally, for example, Patent Document 1 describes an image processing technique for performing the following first to third processes in image gradation correction processing. In the first processing, a texture component (details in an image is formed by subtracting, from the input image data, a structure component (a component corresponding to the contour of an object in the image) extracted from the input image data by a nonlinear filter. Component). In the second process, a luminance histogram is acquired from the input image data, and the contrast of the structure component is corrected based on a correction curve generated based on the acquired histogram. In the third process, new image data is generated by adding the corrected structure component and the previously amplified texture component.
上記技術においては、画像全体のコントラストを向上させ、かつ画像内の細部を強調することが期待できる。また、前記ストラクチャ成分のコントラストが入力画像データにおける輝度のヒストグラムに応じた補正曲線を用いて補正されるため、補正後の画像データをコントラスト補正がより効果的に作用したものとすることができる。 In the above technique, it can be expected that the contrast of the entire image is improved and details in the image are enhanced. In addition, since the contrast of the structure component is corrected using a correction curve corresponding to a luminance histogram in the input image data, the corrected image data can be more effectively subjected to contrast correction.
しかしながら、特許文献1の技術では、画像全体のコントラストを効果的に補正し、かつ画像内の細部を強調することができたとしても、補正対象の画像内に霞が生じている部分が存在する場合には、霞が生じている部分については必ずしも良好な階調補正結果が得られるとは限らず、画像に対する階調補正効果が未だ十分とはいえない問題があった。 However, in the technique of Patent Document 1, even if the contrast of the entire image can be effectively corrected and the details in the image can be enhanced, there is a part in which wrinkles occur in the image to be corrected. In such a case, a satisfactory gradation correction result is not always obtained for a portion where wrinkles occur, and there is a problem that the gradation correction effect on the image is not yet sufficient.
なお、画像において霞が生じている部分とは、局所領域内における画素間の明るさレベルの差が小さいために、画像内で霞んだような状態が生じている部分ある。霞が生じている部分の例としては、例えば、風景を撮影した画像の遠景部分のように、光の乱反射に起因して白っぽく霞んだように見える部分や、水面やガラス表面を通して撮影した画像のように、光の反射に起因して白っぽく霞んだように見える部分である。 Note that the portion where the image is wrinkled is a portion where the image is wrinkled because the difference in brightness level between the pixels in the local region is small. Examples of wrinkled parts include parts that appear whitish due to diffuse reflection of light, such as distant parts of images taken of landscapes, and images taken through the water surface or glass surface. Thus, it is a part that looks whitish due to reflection of light.
本発明は、かかる従来の課題に鑑みてなされたものであり、撮像画像等の画像における階調補正に際し、画像内に霞が生じている部分にも良好な階調補正結果を得ることを目的とする。 The present invention has been made in view of such a conventional problem, and an object of the present invention is to obtain a favorable gradation correction result even in a portion where wrinkles occur in an image when performing gradation correction in an image such as a captured image. And
本発明の第1の観点に係る画像処理装置にあっては、処理対象画像から高周波成分を抽出する抽出手段と、処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得する取得手段と、前記抽出手段により抽出された高周波成分を前記取得手段により取得された霞度合情報により示される霞の程度に応じて調整する調整手段と、前記調整手段による調整後の高周波成分を処理対象画像に加算する加算手段とを備えたことを特徴とする。 In the image processing apparatus according to the first aspect of the present invention, an extraction unit that extracts a high-frequency component from the processing target image, and acquisition of the degree information indicating the degree of wrinkles of the stagnated portion in the processing target image Means for adjusting the high frequency component extracted by the extracting means according to the degree of wrinkle indicated by the degree information acquired by the acquiring means, and the high frequency component adjusted by the adjusting means to be processed And adding means for adding to the image.
本発明の第1の観点に係る画像処理プログラムにあっては、コンピュータに、処理対象画像から高周波成分を抽出する手順と、処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得する手順と、前記抽出手段により抽出された高周波成分を前記取得手段により取得された霞度合情報により示される霞の程度に応じて調整する手順と、前記調整手段による調整後の高周波成分を処理対象画像に加算する手順とを実行させることを特徴とする。 In the image processing program according to the first aspect of the present invention, the computer obtains a procedure for extracting a high-frequency component from the processing target image and the degree information indicating the level of wrinkles in the processing target image. A procedure for adjusting the high-frequency component extracted by the extracting means according to the degree of wrinkle indicated by the degree-of-degree information acquired by the acquiring means, and the high-frequency component adjusted by the adjusting means to be processed And a procedure of adding to the image.
本発明によれば、撮像画像等の画像における階調補正に際し、画像内に霞が生じている部分にも良好な階調補正結果を得ることが可能となる。 According to the present invention, it is possible to obtain an excellent gradation correction result even in a portion where wrinkles are generated in an image when performing gradation correction in an image such as a captured image.
以下、本発明を適用した実施形態について、図を参照しながら説明する。図1は、本発明の実施形態として例示するデジタルスチルカメラ(以下、単にデジタルカメラという。)1のハードウェア構成の概略を示すブロック図である。 Embodiments to which the present invention is applied will be described below with reference to the drawings. FIG. 1 is a block diagram showing an outline of a hardware configuration of a digital still camera (hereinafter simply referred to as a digital camera) 1 exemplified as an embodiment of the present invention.
図1に示したようにデジタルカメラ1は、被写体を撮像するためのCCD(Charge Coupled Device)2を有している。CCD2は、図示しない光学系によって被写体の光学像が結像される感光面に、ベイヤー配列等の特定の色配列を有する色フィルタが設けられた構造を備えている。CCD2は、水平/垂直ドライバ3から供給される水平、及び垂直転送用の駆動信号により駆動されることによって、被写体の光学像を電気信号に変換し、変換後の電気信号を撮像信号としてCDS(Correlated Double Sampling)回路、及びA/Dコンバータ(Analog-to-Digital converter)から構成されたCDS/AD回路4へ供給する。
As shown in FIG. 1, the digital camera 1 has a CCD (Charge Coupled Device) 2 for imaging a subject. The
水平/垂直ドライバ3は、TG(Timing Generator)5が生成したタイミング信号に基づき動作することによって前述した水平、及び垂直転送用の駆動信号を生成しCCD2を駆動する。また、TG5が生成したタイミング信号はCDS/AD回路4にも供給される。CDS/AD回路4は、TG5から供給されたタイミング信号に基づき動作することによって、CCD2が出力した撮像信号に含まれるノイズを除去するとともに、ノイズ除去後の撮像信号をデジタル信号に変換し、変換後のデジタル信号をDSP(Digital Signal Processor)6へ供給する。
The horizontal /
DSP6は、CDS/AD回路4から供給されたデジタル信号、すなわち単一の色情報のみを有する各画素のデータからなる画像データを処理するためのバッファ用のメモリ6aを備えた構成を有しており、以下に述べる一連の信号処理を行う。すなわちDSP6は、CDS/AD回路4から供給された画像データに対して、各画素の不足する色情報を各画素の周辺画素から補間することによって、画素毎にR(Red)、G(Green)、B(Blue)の色成分情報を有する画像データ、つまりRGBデータを生成するデモザイク(de-mosaic)処理を行う。
The DSP 6 has a configuration including a
また、DSP6は、デモザイク処理によって生成したRGBデータを画素毎の輝度成分(Y)、及び2つの色差成分(Cb、Cr)により表現される画像データ、つまりYUVデータに変換するYUV変換処理を行い、変換後のYUVデータに対してホワイトバランス調整処理や各種のフィルタ処理等を施す。さらに、DSP6は、上記の一連の信号処理に際し後述する階調補正処理を行う。 Further, the DSP 6 performs YUV conversion processing for converting RGB data generated by demosaic processing into image data expressed by a luminance component (Y) and two color difference components (Cb, Cr) for each pixel, that is, YUV data. The YUV data after conversion is subjected to white balance adjustment processing and various filter processing. Further, the DSP 6 performs gradation correction processing, which will be described later, in the series of signal processing described above.
そして、DSP6は、一連の信号処理を行った後のYUVデータを順次SDRAM(Synchronous dynamic random-access memory)7に供給する。SDRAM7は、DSP6から供給されたYUVデータを一時的に記憶する。 Then, the DSP 6 sequentially supplies YUV data after a series of signal processing to an SDRAM (Synchronous dynamic random-access memory) 7. The SDRAM 7 temporarily stores the YUV data supplied from the DSP 6.
さらに、DSP6は、デジタルカメラ1に動作モードとして記録モードが設定されている状態においては、SDRAM7に1フレーム分のYUVデータ(画像データ)が蓄積される毎に、SDRAM7に蓄積されている画像データを読み出し、読み出した画像データをLCD(Liquid Crystal Display)8に供給する。 Further, the DSP 6 stores the image data stored in the SDRAM 7 every time one frame of YUV data (image data) is stored in the SDRAM 7 in a state where the recording mode is set as the operation mode in the digital camera 1. And the read image data is supplied to an LCD (Liquid Crystal Display) 8.
LCD8は、図示しない液晶表示器と、液晶表示器を駆動する駆動回路等から構成され、DSP6から供給された画像データに基づく画像を液晶表示器の画面上にライブビュー画像として表示する。 The LCD 8 includes a liquid crystal display (not shown), a drive circuit that drives the liquid crystal display, and the like, and displays an image based on the image data supplied from the DSP 6 on the screen of the liquid crystal display as a live view image.
一方、前述したTG5及びDSP6はバス13を介してCPU(Central Processing Unit)9と接続されており、TG5及びDSP6の動作はCPU9によって制御されている。
On the other hand, the above-described
CPU9は、記憶内容が書き換え可能なEEPROM(Electric Erasable Programmable Read Only Memory)であるフラッシュメモリ10に記憶されているプログラムに従い動作することによってデジタルカメラ1の全体の動作を制御する。
The
また、CPU9は、デジタルカメラ1に動作モードとして記録モードが設定されている状態での撮影時には、SDRAM7に一時記憶された画像データをJPEG(Joint Photographic Expert Group)方式等の所定の圧縮方式により圧縮し、圧縮後の画像データを画像ファイルとして外部メモリ11に記録する。外部メモリ11は、図示しないカードインターフェイスを介してバス13に接続されたカメラ本体に着脱自在なメモリカードである。
Further, the
また、CPU9は、デジタルカメラ1に動作モードとして再生モードが設定されているときには、必要に応じて外部メモリ11から所定の画像ファイル(圧縮状態の画像データ)を読み出すとともに、読み出したデータを伸張してSDRAM7に展開する。さらにCPU9は、SDRAM7に展開したデータ(YUVデータ)を、DSP6を介してLCD8に供給することによりLCD8に記録画像を表示させる。
In addition, when the playback mode is set as the operation mode for the digital camera 1, the
バス13にはキー入力部12が接続されている。キー入力部12は、ユーザがデジタルカメラ1の操作に必要とする各種の操作キー、例えば電源キーやシャッターキー、記録モードや再生モードを設定するためのモード設定キー等によって構成されている。そして、CPU9は、キー入力部12における各々の操作キーの操作状態を逐次検出し、検出した操作状態に基づき判断したユーザの要求に従い種々の処理をプログラムに従い実行する。
A
図2は、デジタルカメラ1の構成を機能別に示した機能ブロック図である。図2に示したようにデジタルカメラ1は、主として撮像部51と、画像処理部52、制御部53、作業用メモリ54、プログラムメモリ55、画像記録部56、表示部57、操作部58によって構成されている。
FIG. 2 is a functional block diagram showing the configuration of the digital camera 1 by function. As shown in FIG. 2, the digital camera 1 mainly includes an
各々の機能ブロックは、後述するように図1に示した1又は複数のハードウェアによって実現される。すなわち撮像部51はCCD2と、水平/垂直ドライバ3、CDS/AD回路4、TG5によって実現され、被写体を撮像して撮像画像を取得する機能部分である。また、画像処理部52はDSP6によって実現され、撮像画像に前述した種々の画像処理を施す機能部分である。制御部53はCPU9によって実現される。また、作業用メモリ54はSDRAM7によって実現され、プログラムメモリ55はフラッシュメモリ10によって実現される。また、画像記録部56は外部メモリ11によって実現され、表示部57はLCD8によって実現され、操作部58は前述したキー入力部12によって実現される。
Each functional block is realized by one or a plurality of hardware shown in FIG. 1 as described later. In other words, the
図3は、画像処理部52の要部であって、画像処理部52が前述したデモザイク処理、及びYUV変換処理に際して、撮像画像(以下、処理対象画像という。)の階調を補正するための機能部分の詳細を示した機能ブロック図である。図3に示したように画像処理部52は、画像バッファ101と、ガンマ変換部102、明るさ分布域取得部103、補正特性生成部104、階調補正部105、YUV変換部106、εフィルタ107、コントラスト成分生成部108、コントラスト成分調整部109、輝度補正部110とから構成されている。
FIG. 3 is a main part of the
以下、図3に示した画像処理部52の各部について説明する。画像バッファ101は前述したメモリ6a(図1参照)によって実現される機能部分であり、処理対象画像の画像データであって、デモザイク処理により生成されたRGBデータ(RGB)を記憶する。なお、RGBデータにおけるR,G,Bの各色成分の画素値は「0〜255」の範囲である。
Hereinafter, each unit of the
ガンマ変換部102は、処理対象画像に対して全ての処理対象画像に共通する基本の階調補正処理を施す。すなわちガンマ変換部102は、画像バッファ101に記憶されたRGBデータを読み出し、デジタルカメラ1の諸特性に対応した所定のガンマ特性に従ったガンマ変換を行う。具体的に説明すると、ガンマ変換部102は、処理対象画像の表示に際し、処理対象画像に自然な階調を確保することを目的として予め決められている、例えば図4に示した入出力特性に従ってRGBデータの画素値を調整する。そして、ガンマ変換部102は、ガンマ変換後のRGBデータを階調補正部105に供給する。
The
一方、明るさ分布域取得部103は、画像バッファ101に記憶されたRGBデータを読み出し、全ての画素毎に、Rの画素値、Gの画素値、Bの画素値のうちの最小値(RGBmin)と、Rの画素値、Gの画素値、Bの画素値のうちの最大値(RGBmax)とを確認する。次に、明るさ分布域取得部103は、全画素における最小値(RGBmin)なかで最小の色成分値を処理対象画像における最小の明るさレベル(black_lev)として取得する。かつ明るさ分布域取得部103は、全画素における最大値(RGBmax)なかで最大の成分値を処理対象画像における最大の明るさレベル(white_lev)として取得する。そして、明るさ分布域取得部103は、上記の最小の明るさレベル(black_lev)と最大の明るさレベル(white_lev)とを、処理対象画像における明るさの分布域を示す分布域情報として補正特性生成部104とコントラスト成分調整部109と輝度補正部110とに供給する。
On the other hand, the brightness distribution
補正特性生成部104は生成手段を実現する機能部分である。補正特性生成部104は、明るさ分布域取得部103から供給された最小の明るさレベル(black_lev)と最大の明るさレベル(white_lev)とに基づき、処理対象画像に前述した基本の階調補正処理とは異なる処理対象画像に固有の階調補正処理を施すために使用する補正特性線を取得する。そして、補正特性生成部104は、取得した補正特性線を階調補正部105に供給する。
The correction
補正特性生成部104における補正特性線の生成手順を以下に述べる。すなわち補正特性生成部104は、図5(a)に示した第1の補正特性線を取得した後、取得した第1の補正特性線を調整することにより、図5(b)に示した第2の補正特性線を処理対象画像に固有の補正特性線として取得する。なお、図5において横軸は階調補正処理前の画素の明るさレベル(入力レベル)、縦軸は階調補正処理後の画素の明るさレベル(出力レベル)である。
A procedure for generating a correction characteristic line in the correction
図5(a)に示した第1の補正特性線は右上がりの直線であり、処理対象画像の各画素の明るさを各画素の明るさレベルに比例して増大させるものである。同時に、第1の補正特性線は、入力レベルにおける最小の明るさレベル(black_lev)を出力レベルにおける最小レベル「0」に変換し、かつ入力レベルにおける最大の明るさレベル(white_lev)を出力レベルにおける最大レベル「255」に変換するものである。つまり処理対象画像における明るさの分布幅を最大幅に拡げる補正特性線である。 The first correction characteristic line shown in FIG. 5A is a straight line that rises to the right, and increases the brightness of each pixel of the processing target image in proportion to the brightness level of each pixel. At the same time, the first correction characteristic line converts the minimum brightness level (black_lev) at the input level to the minimum level “0” at the output level, and the maximum brightness level (white_lev) at the input level at the output level. The maximum level is converted to “255”. That is, it is a correction characteristic line that expands the brightness distribution width in the processing target image to the maximum width.
また、図5(b)に示した第2の補正特性線は右上がりのS字曲線であり、補正特性生成部104は、以下の手順で図示した第2の補正特性線を取得する。まず補正特性生成部104は、処理対象画像における最小の明るさレベル(black_lev)と最大の明るさレベル(white_lev)との平均の明るさレベル(ave_lev)を計算する。さらに、補正特性生成部104は、中間の明るさレベル(ave_lev)と最大の明るさレベル(white_lev)との中間に位置する明側の明るさレベル(white side_lev)を計算する。
Further, the second correction characteristic line shown in FIG. 5B is a right-upward S-shaped curve, and the correction
次に、補正特性生成部104は、図5(a)の第1の補正特性線上において最小の明るさレベル(black_lev)に対応する点Aと、上記の明側の明るさレベル(white side_lev)に対応する点Bと、上記の最大の明るさレベル(white_lev)に対応する点Cの3点を特定する。
Next, the correction
しかる後、補正特性生成部104は、上記の3点A,B,Cを通り、かつ点Bを変曲点とするS字曲線を演算し、演算したS字曲線を第2の補正特性線として取得する。なお、補正特性生成部104は、S字曲線を上記の各点A,B,Cを周知のスプライン曲線補間法によって結ぶことにより演算する。
Thereafter, the correction
つまり補正特性生成部104は、処理対象画像に固有の補正特性線として、前述した明側の明るさレベル(white side_lev)を中心とした明側の特定区間Xの傾きが、特定区間Xよりも暗い区間、及び特定区間Xよりも明るい区間の傾きよりも大きい第2の補正特性線を取得する。
In other words, the correction
階調補正部105は補正手段を実現する機能部分である。階調補正部105は、ガンマ変換部102から供給されたガンマ変換後のRGBデータにおける全画素の色成分毎の画素値を、補正特性生成部104によって生成された第2の補正特性線に基づき補正する。すなわち階調補正部105は、ガンマ変換によって基本の階調補正処理が施された後の画像に対して、処理対象画像の内容が反映された処理対象画像に固有の階調補正処理をさらに施す。そして、階調補正部105は上記階調補正後のRGBデータをYUV変換部106へ供給する。
The
YUV変換部106は、前述した2段階の階調補正処理が施された後のRGBデータをYUVデータに変換するYUV変換処理を行い、変換後のYUVデータを輝度補正部110に供給する。また、YUV変換部106は、YUV変換処理により生成した各画素の輝度成分(Y(x,y))をεフィルタ107とコントラスト成分生成部108とに供給する。
The
εフィルタ107は、主として急峻な変化を伴う画像データに重畳された小幅振幅雑音(高周波成分)の除去、つまり画像の平滑化を目的として使用される画像フィルタであって、より詳しくは元画像におけるエッジの保持性能を有する平滑化フィルタである。εフィルタ107は、YUV変換部106から供給された輝度成分(Y(x,y))から、後述するフィルタ処理によって小幅振幅雑音(高周波成分)を除去することによって処理対象画像の大局輝度成分(低周波成分)を生成し、生成した大局輝度成分(y_low(x,y))をコントラスト成分生成部108に供給する。
The
ここでεフィルタ107におけるフィルタ処理について説明する。εフィルタ107は、各画素を注目画素として、縦横3画素分からなる画素領域(各注目画素を中心とする合計9個の画素領域)に着目する。つまり、注目画素とその周辺に位置する8個の周辺画素に着目する。そして、注目画素の画素値と各周辺画素の画素値との各差分値が、所定の閾値T(T=20)以下になるように、各周辺画素の画素値を調整する。さらに、注目画素の元の画素値と調整された各周辺画素の画素値とにそれぞれ所定の係数として1/9を乗じることにより得られる各画素値の総和を算出し、算出した画素値を注目画素の新たな画素値とする。なお、上記のフィルタ処理に際して、着目する画素領域の範囲、閾値Tの値、各画素の画素値に乗じる係数は適宜変更することができる。
Here, filter processing in the
コントラスト成分生成部108は、YUV変換部106、及びεフィルタ107と協働して抽出手段を実現する機能部分である。コントラスト成分生成部108は、YUV変換部106から供給された輝度成分(Y(x,y))と、εフィルタ107から供給された大局輝度成分(Y_low(x,y))とに基づき、下記の式(1)に従って、処理対象画像の高周波成分である霞除去用のコントラスト成分(Y_high(x,y))を取得する。
The contrast
Y_high(x,y)=Y(x,y)−Y_low(x,y) ・・・式(1)
但し、
Y(x,y) :入力Y成分(0〜255)
Y_low(x,y) :大局輝度成分(0〜255)
Y_high(x,y):霞除去用のコントラスト調整成分(−255〜255)
Y_high (x, y) = Y (x, y) −Y_low (x, y) (1)
However,
Y (x, y): input Y component (0 to 255)
Y_low (x, y): Overall luminance component (0 to 255)
Y_high (x, y): Contrast adjustment component for removing wrinkles (−255 to 255)
すなわちコントラスト成分生成部108は、元の輝度成分(Y(x,y))から大局輝度成分(Y_low(x,y))を減算することによって得られる高周波成分を霞除去用のコントラスト成分(Y_high(x,y))として取得する。そして、コントラスト成分生成部108は、取得したコントラスト成分(Y_hight(x,y))をコントラスト成分調整部109に供給する。
That is, the contrast
コントラスト成分調整部109は、明るさ分布域取得部103と協働して取得手段を実現する機能部分であり、同時に調整手段を実現するための機能部分である。コントラスト成分調整部109は、コントラスト成分生成部108から供給された霞除去用のコントラスト成分(Y_high(x,y))に対して後述する調整を行い、調整後のコントラスト成分(Y_high'(x,y))を輝度補正部110に供給する。
The contrast
コントラスト成分調整部109におけるコントラスト成分(Y_high(x,y))の具体的な調整内容を以下に説明する。コントラスト成分調整部109は、コントラスト成分(Y_high(x,y))の調整に際し、まず、処理対象画像に霞んだ部分が存在すると仮定した上での霞んだ部分における霞の程度(濃さ)の指標となる霞度合(K)を取得する。
Specific adjustment contents of the contrast component (Y_high (x, y)) in the contrast
すなわちコントラスト成分調整部109は、明るさ分布域取得部103から供給された最小の明るさレベル(black_lev)と最大の明るさレベル(white_lev)とに基づいて、霞度合(K)を下記式(2)に従い算出する。
That is, the contrast
K=(black_lev+(255−white_lev)) ・・・式(2)
但し、
K :霞度合(0〜255)
black_lev:処理対象画像の最小明るさレベル(0〜255)
white_lev:処理対象画像の最大明るさレベル(0〜255)
K = (black_lev + (255−white_lev)) (2)
However,
K: Degree degree (0-255)
black_lev: Minimum brightness level (0 to 255) of the processing target image
white_lev: Maximum brightness level of the processing target image (0 to 255)
つまり、コントラスト成分調整部109は、処理対象画像に霞んだ部分が存在すると仮定した上での霞んだ部分における霞の程度(濃さ)の指標となる霞度合(K)として、処理対象画像における明るさの分布幅と、表現可能な明るさの最大幅(0〜255)との差を示す値を取得する。
That is, the contrast
次に、コントラスト成分調整部109は、式(2)で算出した霞度合(K)をパラメータとする予め決められた所定の演算関数を用いてコントラスト強調レベル(adj_lev)を取得する。上記の演算関数は、霞度合(K)に比例してコントラスト強調レベル(adj_lev)が増大する特性を有する関数である。すなわち上記演算関数は、霞度合(K)に比例してコントラスト強調レベル(adj_lev)が、例えば図6に示したように「384〜255」の範囲で変化する関数である。なお、上記演算関数は、霞度合(K)に比例してコントラスト強調レベル(adj_lev)が増大する特性(右上がりの特性)を有するものであればよい。
Next, the contrast
次に、コントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))を、コントラスト強調レベル(adj_lev)と、YUV変換部106から供給された各画素の輝度成分(Y(x,y))とを用いて調整する。係る調整に際してコントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))が「0」以上であるか否かを確認する。
Next, the contrast
そして、コントラスト成分調整部109は、値が「0」以上である画素のコントラスト成分(Y_high(x,y))をハイライト強調用のコントラスト成分と判断し、かつ値が「0」未満である画素のコントラスト成分(Y_high(x,y))をシャドウ強調用のコントラスト成分と判断する。
Then, the contrast
しかる後、コントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))をハイライト強調用のコントラスト成分とシャドウ強調用のコントラスト成分とに分けて個別に調整することによってコントラスト成分(Y_high(x,y))の帯域幅を調整する。
Thereafter, the contrast
具体的に説明すると、コントラスト成分調整部109は、ハイライト強調用のコントラスト成分については下記式(3−1)に従い調整し、また、シャドウ強調用のコントラスト成分については下記式(3−2)に従い調整する。
More specifically, the contrast
Y(x,y) :入力Y成分(0〜255)
adj_lev :コントラスト強調レベル(384〜512)
Y_high(x,y) :霞除去用のコントラスト成分(−255〜255)
Y_high'(x,y):調整後のコントラスト成分
Y (x, y): input Y component (0 to 255)
adj_lev: Contrast enhancement level (384 to 512)
Y_high (x, y): Contrast component for removing wrinkles (−255 to 255)
Y_high ′ (x, y): Contrast component after adjustment
すなわちコントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))に、「(adj_lev−256)/256」からなる第1の調整係数と、「(256− Y(x,y))/256」からなるハイライト強調用の第2の調整係数、又は「Y(x,y)/256」からなるシャドウ強調用の第2の調整係数を乗じた値を調整後のコントラスト成分(Y_high'(x,y))として取得する。
That is, the contrast
ここで、第1の調整係数は、コントラスト強調レベル(adj_lev)、つまり処理対象画像における霞度合(K)に比例し、「0.5」〜「1」の範囲で変化する。したがって、調整後のコントラスト成分(Y'_high(x,y))は、霞度合(K)が小さいときほど小さく、逆に霞度合(K)が大きいときほど大きくなる。 Here, the first adjustment coefficient is proportional to the contrast enhancement level (adj_lev), that is, the degree (K) of the processing target image, and varies in the range of “0.5” to “1”. Therefore, the adjusted contrast component (Y′_high (x, y)) is smaller as the degree of brightness (K) is smaller, and conversely, it is larger as the degree of hue (K) is larger.
一方、霞除去用のコントラスト成分(Y_high(x,y))がハイライト強調用(値が「0」以上)であるときの第2の調整係数(以下、ハイライト強調用の第2の調整係数という。)は、元の輝度成分(Y(x,y))が大きいほど小さくなり、「1」〜「1/256」の範囲で変化する。したがって、霞除去用のコントラスト成分(Y_high(x,y))がハイライト強調用(値が「0」以上)のとき、調整後のコントラスト成分(Y'_high(x,y))は、例えば第1の調整係数が最大(「1」)であれば、「0」〜「256」のいずれかの値、つまり「0」又は正の値となる。また、調整後のコントラスト成分(Y'_high(x,y))も元の輝度成分(Y(x,y))が大きいほど小さくなる。 On the other hand, the second adjustment coefficient when the contrast component (Y_high (x, y)) for wrinkle removal is for highlight enhancement (value is “0” or more) (hereinafter, second adjustment for highlight enhancement). The coefficient is reduced as the original luminance component (Y (x, y)) increases, and changes in the range of “1” to “1/256”. Therefore, when the contrast component for removing wrinkles (Y_high (x, y)) is for highlight enhancement (value is “0” or more), the adjusted contrast component (Y′_high (x, y)) is, for example, If the first adjustment coefficient is the maximum (“1”), the value is any value from “0” to “256”, that is, “0” or a positive value. Also, the adjusted contrast component (Y′_high (x, y)) becomes smaller as the original luminance component (Y (x, y)) becomes larger.
また、霞除去用のコントラスト成分(Y_high(x,y))がシャドウ強調用(値が「0」未満)であるときの第2の調整係数(以下、シャドウ強調用の第2の調整係数という。)は、元の輝度成分(Y(x,y))が小さいほど小さくなり、「255/256」〜「0」の範囲で変化する。したがって、霞除去用のコントラスト成分(Y_high(x,y))がシャドウ強調用(値が「0」未満)のとき、調整後のコントラスト成分(Y'_high(x,y))は、例えば第1の調整係数が最大(「1」)であれば、「0」〜「−255」のいずれかの値、つまり「0」以下の値となる。また、調整後のコントラスト成分(Y'_high(x,y))も元の輝度成分(Y(x,y))が小さいほど小さくなる。 Also, a second adjustment coefficient when the contrast component for removing wrinkles (Y_high (x, y)) is for shadow enhancement (value is less than “0”) (hereinafter referred to as a second adjustment coefficient for shadow enhancement). .) Becomes smaller as the original luminance component (Y (x, y)) is smaller, and changes in the range of “255/256” to “0”. Therefore, when the contrast component (Y_high (x, y)) for removing wrinkles is for shadow enhancement (value is less than “0”), the adjusted contrast component (Y′_high (x, y)) is, for example, If the adjustment coefficient of 1 is the maximum (“1”), the value is any value from “0” to “−255”, that is, a value equal to or less than “0”. In addition, the adjusted contrast component (Y′_high (x, y)) becomes smaller as the original luminance component (Y (x, y)) becomes smaller.
輝度補正部110は加算手段を実現する機能部分であり、同時に調整手段の一部を実現するための機能部分である。輝度補正部110は、YUV変換部106から供給されたYUVデータの輝度成分(Y(x,y))に、コントラスト成分調整部109から供給された調整後のコントラスト成分(Y_high'(x,y))を、下記の式(4)に従って加算する輝度補正処理を施す。
The
Y(x,y) :入力Y成分(0〜255)
Y_high'(x,y):調整後のコントラスト成分
black_lev :処理対象画像の最小の明るさレベル(0〜255)
white_lev :処理対象画像の最大の明るさレベル(0〜255)
Y'(x,y) :輝度補正処理後のY成分(0〜255)
Y (x, y): input Y component (0 to 255)
Y_high ′ (x, y): Adjusted contrast component black_lev: Minimum brightness level (0 to 255) of the processing target image
white_lev: Maximum brightness level of the processing target image (0 to 255)
Y ′ (x, y): Y component (0 to 255) after luminance correction processing
すなわち、輝度補正部110は、元の輝度成分(Y(x,y))に対して調整後のコントラスト成分(Y_high'(x,y))を加算する際の加算量を、処理対象画像における明るさの分布域に応じて調整する。つまり輝度補正部110は、明るさの分布域が狭いときほど、元の輝度成分(Y(x,y))に対する調整後のコントラスト成分(Y_high'(x,y))の加算量を減少させる。また、輝度補正部110は輝度補正処理後のYUVデータを画像バッファ101に記憶する。これにより、画像処理部52における処理対象画像に対する階調補正処理が完了する。
That is, the
そして、画像処理部52は、以上説明したように図3の各部の動作による一連の補正処理によって処理対象画像の階調を補正した後、補正処理後のYUVデータを画像バッファ101にいったん記憶する。その後、画像処理部52は、画像バッファ101に記憶した補正処理後のYUVデータを読み出し、ホワイトバランス調整処理や各種のフィルタ処理等の他のデジタル信号処理を行う。
Then, as described above, the
図7は、画像処理部52の図3の各部による前述した一連の補正処理の内容をフローチャートとして示したものである。なお、各ステップの処理の詳細については既に述べた通りであるため説明を省略する。
FIG. 7 is a flowchart showing the contents of the series of correction processes described above by the respective units in FIG. 3 of the
図7に示したように、画像処理部52における補正処理においては、ガンマ変換部102が、画像バッファ101に記憶された処理対象画像のRGBデータにガンマ変換処理を施す(ステップS1)。次に、明るさ分布取得部103が、処理対象画像の最大及び最小の明るさレベルを取得する(ステップS2)。さらに、補正特性部104が、最大及び最小の明るさレベルに基づいて処理対象画像に固有の補正特性線(第2の補正特性線)を生成する(ステップS3)。しかる後、階調補正部105が、処理対象画像に固有の補正特性線に従ってガンマ変換後のRGBデータに階調補正処理を施す(ステップS4)。
As shown in FIG. 7, in the correction processing in the
引き続き、YUV変換部106が、階調補正処理後のRGBデータをYUVデータに変換する(ステップS5)。次に、εフィルタ107が、YUVデータから大局輝度成分を抽出する(ステップS6)。また、コントラスト成分生成部108が、YUVデータの輝度成分と低周波成分とに基づいて霞除去用のコントラスト成分を取得する(ステップS7)。引き続き、コントラスト成分調整部109が、処理対象画像の霞度合を取得し、取得した霞度合に比例したコントラスト強調レベルを取得する(ステップS8)。さらに、コントラスト成分調整部109が、コントラスト強調レベルとYUVデータの輝度成分とを用いて霞除去用のコントラスト成分を調整する(ステップS9)。
Subsequently, the
そして、輝度補正部110が、調整後のコントラスト成分をYUVデータの輝度成分に加算する輝度補正処理を行い(ステップS10)、輝度補正処理後のYUVデータを画像バッファ101に記憶する(ステップS11)。
Then, the
以上説明した画像処理部52における階調補正処理においては、階調補正部105が、ガンマ変換によって基本の階調補正処理が施された後の画像(RGBデータ)に対して、図5(b)の第2の補正特性線を用いて処理対象画像に固有の階調補正処理を施すため、処理後の画像に良好な階調を確保することができる。
In the gradation correction processing in the
しかも、第2の補正特性線は、処理対象画像における明るさの分布幅を単に拡げるものではなく、前述したように明側の明るさレベル(white side_lev)を中心とした明側の特定区間Xの傾きが、特定区間Xよりも暗い区間、及び特定区間Xよりも明るい区間の傾きよりも大きいものである。そして、上記の特定区間Xは、撮影された画像において一般に霞、つまり局所領域内における画素間の明るさレベルの差が小さいために、画像内で霞んだような状態が生じやすい(目立ちやすい)領域である。 In addition, the second correction characteristic line does not simply widen the brightness distribution width in the processing target image, and as described above, the bright specific section X centered on the bright side brightness level (white side_lev). Is greater than the slope of a section darker than the specific section X and a section brighter than the specific section X. The specific section X is generally wrinkled in the photographed image, that is, since the difference in brightness level between pixels in the local region is small, a state in which the image is wrinkled is likely to occur (easily noticeable). It is an area.
このため、階調補正部105によるRGBデータに対する階調補正処理においては、霞が生じやすい明るさ領域のコントラストを他の明るさ領域よりも高くすることによって、処理対象画像に霞が生じている部分が存在する場合には、霞が生じている部分の霞んだ状態を効果的に軽減したり、霞を除去したりすることができる。
For this reason, in the tone correction processing for RGB data by the
つまり例えばRGBデータに対する階調補正処理を、処理対象画像の輝度のヒストグラムに基づき生成した補正曲線を用いて行った場合には、霞が生じやすい(目立ちやすい)特定の明るさ領域の画像内に占める面積が異なると、それに伴い特定の明るさ領域に対する階調補正結果に違いが生じる。これに対して、階調補正部105においては、補正特性生成部104により生成される第2の補正特性線を用いるため、特定の明るさ領域に対して常に霞の除去に適した階調補正処理を行うことができる。
That is, for example, when gradation correction processing for RGB data is performed using a correction curve generated based on a luminance histogram of a processing target image, wrinkles are easily generated (conspicuous) in an image of a specific brightness region. If the occupied area is different, the gradation correction result for a specific brightness region is different accordingly. On the other hand, since the second correction characteristic line generated by the correction
したがって、画像処理部52による上述した階調補正処理においては、処理対象画像における霞が生じている部分についても良好な階調補正結果を得ることができる。
Therefore, in the above-described tone correction processing by the
さらに、画像処理部52による上述した階調補正処理においては、輝度補正部110が、YUV変換後のYUVデータに処理対象画像の高周波成分を調整した後のコントラスト成分(Y'_high(x,y))を足し込む輝度補正処理を行うことにより、以下述べる理由によって、階調補正処理後の画像にさらに良好な階調を確保することができる。
Further, in the above-described tone correction processing by the
すなわちYUVデータに足し込むコントラスト成分(Y'_high(x,y))の元となる調整前のコントラスト成分(Y_high(x,y))は、処理対象画像の輝度成分(Y(x,y))から大局輝度成分(Y_low(x,y))を減算することにより得られる処理対象画像の高周波成分である。 That is, the pre-adjustment contrast component (Y_high (x, y)) that is the basis of the contrast component (Y′_high (x, y)) to be added to the YUV data is the luminance component (Y (x, y)) of the processing target image. ) Is a high-frequency component of the processing target image obtained by subtracting the global luminance component (Y_low (x, y)) from.
ここで、処理対象画像内における局所的な明暗の境界付近の明領域側では、高周波成分(Y(x,y)−Y_low(x,y))が正の値となるため、調整前のコントラスト成分(Y_high(x,y))がハイライト強調用のコントラスト成分となり、調整後のコントラスト成分(Y'_high(x,y))も正の値(但し「0」を含む)となる。よって、輝度補正部110による輝度補正処理に伴い、処理対象画像内における局所的な明暗の境界付近の明領域側では、輝度補正部110による輝度補正処理に伴い画素の輝度が元の輝度よりも大きくなる。つまり明領域側の画素が輝度補正処理前よりも明るくなる。
Here, since the high-frequency component (Y (x, y) −Y_low (x, y)) is a positive value on the bright region side near the local light / dark boundary in the processing target image, the contrast before adjustment. The component (Y_high (x, y)) is a contrast component for highlight enhancement, and the adjusted contrast component (Y′_high (x, y)) is also a positive value (including “0”). Therefore, along with the luminance correction processing by the
一方、処理対象画像内における局所的な明暗の境界付近の暗領域側では、高周波成分(Y(x,y)−Y_low(x,y))が負の値となるため、調整前のコントラスト成分(Y_high(x,y))はシャドウ強調用のコントラスト成分となり、調整後のコントラスト成分(Y'_high(x,y))は負の値となる。よって、輝度補正部110による輝度補正処理に伴い、処理対象画像内における局所的な明暗の境界付近の暗領域側では、輝度補正部110による輝度補正処理に伴い画素の輝度が元輝度よりも小さくなる。つまり暗領域側の画素が輝度補正処理前よりも暗くなる。
On the other hand, since the high frequency component (Y (x, y) −Y_low (x, y)) is a negative value on the dark region side near the local light / dark boundary in the processing target image, the contrast component before adjustment (Y_high (x, y)) is a contrast component for shadow enhancement, and the adjusted contrast component (Y′_high (x, y)) is a negative value. Therefore, along with the luminance correction processing by the
したがって、輝度補正部110よる輝度補正処理後の画像においては、画像内における局所的な明暗の境界付近での輝度差(コントラスト)が、輝度補正処理前における明暗の輝度差(コントラスト)よりも大きくなる(コントラストが強調される)。この結果、輝度補正部110おける輝度補正処理によって処理対象画像の細部の階調を良好な状態に改善することができる。同時に、輝度補正部110による輝度補正処理では、画像内における局所的な明暗の境界付近での輝度差(コントラスト)を輝度補正処理前よりも大きくすることにより、階調補正部105における階調補正処理段階では改善できなかったような、処理対象画像における霞が生じている部分の霞んだ状態を改善することができる。
Therefore, in the image after the luminance correction processing by the
しかも、既説したようにコントラスト成分調整部109における調整後のコントラスト成分(Y'_high(x,y))は、霞度合(K)が小さいときほど小さく、逆に霞度合(K)が大きいときほど大きくなる。つまり、輝度補正部110おける輝度補正処理では、霞度合(K)に応じて調整前のコントラスト成分(Y_high(x,y))の帯域幅を調整することによって、画像内における局所的な明暗の境界付近でのコントラストの強調度合を処理対象画像における霞の程度(濃さ)に応じて制御する。
In addition, as already described, the contrast component (Y′_high (x, y)) after the adjustment in the contrast
したがって、輝度補正部110による輝度補正処理では、画像内における局所的な明暗の境界付近でのコントラストを過不足なく強調することができるため、階調補正部105での階調補正処理後にも残存している霞が生じている部分の霞んだ状態を確実に改善することができる。
Therefore, in the luminance correction processing by the
また、輝度補正部110による輝度補正処理では、例えば画像内における局所的な明暗の境界付近でのコントラストの強調度合を霞の程度(濃さ)に応じて制御しない場合に比べると、以下の効果が得られる。すなわち、コントラストの強調度合を霞の程度(濃さ)に応じて制御しない場合、階調補正部105におけるRGBデータに対する階調補正処理後にも残存している霞が生じている部分の霞んだ状態を確実に改善するためには、コントラストの強調度合、つまり輝度(Y)成分へのコントラスト成分の足し込み量)を多めに設定しておく必要がある。そのため、コントラストの強調度合を制御しない場合には、霞の程度が低い(霞が薄い)にもかかわらず不必要に過大なコントラスト強調を行うことにより、良好な階調補正結果が得られない場合がある。しかし、輝度補正部110による輝度補正処理では、コントラストの強調度合を処理対象画像から判断した霞の程度(濃さ)に応じて制御するため、霞の程度(濃さ)に関係なく、処理対象画像の細部の階調を常に良好な状態に改善することができる。
Further, in the luminance correction processing by the
さらに、既説したようにコントラスト成分調整部109における調整後のコントラスト成分(Y'_high(x,y))は、元の輝度成分(Y(x,y))の大きさに応じて増減する。すなわち、調整後のコントラスト成分(Y'_high(x,y))は、霞除去用のコントラスト成分(Y_high(x,y))がハイライト強調用であるときは、元の輝度成分(Y(x,y))が大きいほど小さくなり、また霞除去用のコントラスト成分(Y_high(x,y))がシャドウ強調用であるときは、元の輝度成分(Y(x,y))が小さいほど小さくなる。
Furthermore, as described above, the contrast component (Y′_high (x, y)) after adjustment in the contrast
したがって輝度補正部110おける輝度補正処理では、処理対象画像内における局所的な明暗の境界付近でのコントラストの強調度合を、元の輝度成分(Y(x,y))の大きさに応じて制御することにより、輝度補正処理に伴い処理対象画像における局所的な明暗の境界付近での明領域側に「白飛び」が生じたり、輝度補正処理に伴い処理対象画像における局所的な明暗の境界付近での暗領域側に「黒つぶれ」が生じたりすることを未然に防止することかできる。
Therefore, in the luminance correction processing in the
また、輝度補正部110おける輝度補正処理では、処理対象画像における明るさの分布域が狭いときほど、元の輝度成分(Y(x,y))に対する調整後のコントラスト成分(Y_high'(x,y))の加算量を減少させる。したがって、画像処理部52による階調補正処理においては、前述した効果に加えて以下の効果を得ることができる。
Further, in the brightness correction processing in the
すなわち階調補正部105におけるRGBデータに対する階調補正処理では、処理対象画像における明るさの分布域が狭い場合には、処理対象画像において霞が生じていた部分に対する霞除去効果が大きい。そのため、処理対象画像における明るさの分布域が狭い場合には、元の輝度成分(Y(x,y))に調整後のコントラスト成分(Y_high'(x,y))を過度に加算すると、輝度補正処理後の画像に良好な階調補正結果が得られなくなる。したがって、処理対象画像における明るさの分布域が狭いときほど、元の輝度成分(Y(x,y))に対する調整後のコントラスト成分(Y_high'(x,y))の加算量を減少させることにより、輝度補正処理後の画像に常に良好な階調補正結果を確保することができる。
That is, in the tone correction processing for RGB data in the
ここで、以上説明した本実施形態においては、画像処理部52が前述した階調補正部105を備え、輝度補正部110におけるYUVデータに対する輝度補正処理に先立ち、階調補正部105においてRGBデータに対する階調補正処理を行う構成とした。しかし、画像処理部52は、階調補正部105を廃止して輝度補正部110におけるYUVデータに対する輝度補正処理のみを行う構成としてもよい。画像処理部52は、輝度補正部110におけるYUVデータに対する輝度補正処理のみを行う構成であっても、階調補正処理後の画像に、処理対象画像における霞が生じている部分についても良好な階調補正結果を確保することができる。
Here, in the present embodiment described above, the
また、画像処理部52の構成は本発明の範囲内であれば適宜変更することができる。したがって、例えば画像処理部52は、前述したYUVデータに対する輝度補正処理と同様の処理を、YUVデータではなくRGBデータを対象として行う構成としてもよい。また、前述したRGBデータに対する輝度補正処理を、RGBデータではなくYUVデータを対象として行う構成としてもよい。
Further, the configuration of the
また、εフィルタ107は、輝度成分(Y(x,y))から大局輝度成分(y_low(x,y))を抽出できるものであればよく、他の平滑化フィルタに変更することができる。但し、処理対象画像から良好な状態の高周波成分が取得するためには、εフィルタ107に代わる平滑化フィルタは、画像内で輝度差が大きい部分に生じやすい大局輝度成分(y_low(x,y))のオーバーシュートやアンダーシュートが少ないエッジの保持性能を有するものを採用することが好ましい。エッジの保持性能を有する平滑化フィルタとしては、例えばバイラテラルフィルタ等の他の荷重平均値フィルタを使用することができる。
The
また、本実施形態のようにεフィルタ107を使用する場合、画像処理部52は、例えばεフィルタ107の前段に輝度成分(Y(x,y))を処理対象画像の画像サイズよりも小さな画像サイズの輝度成分(Y(x,y))に変換する縮小処理部を設け、かつεフィルタ107の後段に大局輝度成分(y_low(x,y))を処理対象画像の画像サイズの大局輝度成分(y_low(x,y))に変換する拡大部処理部を設けた構成としてもよい。係る構成を画像処理部52に採用すれば、εフィルタ103のフィルタ処理に要する時間を短縮することができる。
Further, when the
また、画像処理部52は、例えばコントラスト成分生成部108の後段に、霞除去用のコントラスト成分(Y_high(x,y))からノイズ成分を除去するためのローパスフィルタを設け、ノイズ成分を除去した後の霞除去用のコントラスト成分をコントラスト成分調整部109へ供給する構成としてもよい。
In addition, the
また、本発明の実施に際しては、例えばコントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))に、「(adj_lev−256)/256」からなる第1の調整係数のみを乗じた値を調整後のコントラスト成分(Y_high'(x,y))として取得する構成としてもよい。
In the implementation of the present invention, for example, the contrast
さらに、画像処理部52は、輝度補正部110における、元の輝度成分(Y(x,y))に対して調整後のコントラスト成分(Y_high'(x,y))を加算する際の加算量を処理対象画像の明るさの分布域に応じて調整する機能をコントラスト成分調整部109において実現する構成とすることもできる。
Further, the
すなわち、コントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))に前述した第1の調整係数と第2の調整係数、または第1の調整係数のみに加え、「(white_lev−black_lev)/256」からなる第3の調整係数を乗じる計算によって、調整後のコントラスト成分(Y_high'(x,y))を取得する構成とすることができる。コントラスト成分調整部109に係る構成を採用する場合、輝度補正部110は、単に調整後のコントラスト成分(Y_high'(x,y))を元の輝度成分(Y(x,y))に加算するだけの構成となる。
In other words, the contrast
また、ここでは本発明の実施形態として本発明の画像処理装置を含むデジタルカメラ1について説明したが、本発明は、デジタルカメラ1以外にも、例えば動画像の記録が可能な構成を備えた他の撮像装置にも適用することができる。本発明が適用可能な撮像装置には、前述したCCD以外にも、例えばMOS(Complementary Meta1 0xide Semiconductor)型の固体撮像素子を備えたデジタルカメラや、静止画像以外にも動画像を撮影することができるデジタルカメラ、さらには動画像の撮影を主たる機能とするデジタルビデオカメラ等の種々の撮像装置が含まれる。 Further, here, the digital camera 1 including the image processing apparatus of the present invention has been described as an embodiment of the present invention. However, the present invention is not limited to the digital camera 1 and has a configuration capable of recording moving images, for example. The present invention can also be applied to this imaging apparatus. In addition to the above-described CCD, the imaging apparatus to which the present invention can be applied is capable of capturing a moving image in addition to a digital camera equipped with, for example, a MOS (Complementary Meta10xide Semiconductor) type solid-state imaging device or a still image. Various imaging devices such as a digital camera capable of capturing a moving image and a digital video camera having a main function of capturing a moving image are included.
また、本発明は、撮像装置に限らず任意の記憶媒体に画像データとして記憶されている画像を処理対象として画像処理を行う構成を有するものであれば任意の画像処理装置にも適用することができる。任意の画像処理装置には、例えば画像データに基づく画像を印刷するプリンタも含まれる。 In addition, the present invention is not limited to an imaging apparatus, and can be applied to any image processing apparatus as long as it has a configuration for performing image processing on an image stored as image data in an arbitrary storage medium. it can. The arbitrary image processing apparatus includes a printer that prints an image based on image data, for example.
そして、本発明を任意の画像処理装置に適用する場合、図2に示した画像処理部52はASIC(Application Specified Integrated Circuit)、又は任意のコンピュータのCPUと、メモリ、メモリにロードされたプログラム等によっても実現することができる。
When the present invention is applied to an arbitrary image processing apparatus, the
1 デジタルカメラ
2 CCD
6 DSP
9 CPU
10 フラッシュメモリ
11 外部メモリ
51 撮像部
52 画像処理部
53 制御部
101 画像バッファ
102 ガンマ変換部
103 明るさ分布域取得部
104 補正特性生成部
105 階調補正部
106 YUV変換部
107 εフィルタ
108 コントラスト成分生成部
109 コントラスト成分調整部
110 輝度補正部
1
6 DSP
9 CPU
DESCRIPTION OF
Claims (9)
処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得する取得手段と、
前記抽出手段により抽出された高周波成分を前記取得手段により取得された霞度合情報により示される霞の程度に応じて調整する調整手段と、
前記調整手段による調整後の高周波成分を処理対象画像に加算する加算手段と
を備えたことを特徴とする画像処理装置。 Extraction means for extracting high-frequency components from the processing target image;
Acquisition means for acquiring the degree information indicating the degree of wrinkles of the stagnation part in the processing target image;
Adjusting means for adjusting the high frequency component extracted by the extracting means according to the degree of wrinkle indicated by the degree information acquired by the acquiring means;
An image processing apparatus comprising: addition means for adding a high-frequency component adjusted by the adjustment means to a processing target image.
ことを特徴とする請求項1記載の画像処理装置。 The image according to claim 1, wherein the acquisition unit acquires the degree information based on brightness information indicating minimum and maximum brightness among the brightness of each pixel in the processing target image. Processing equipment.
ことを特徴とする請求項2記載の画像処理装置。 The minimum and maximum brightness respectively indicated by the brightness information are maximum and minimum pixel values among pixel values for each of a plurality of color components in each of all pixels of the processing target image. The image processing apparatus according to claim 2.
ことを特徴とする請求項2又は3記載の画像処理装置。 The said acquisition means acquires the difference of the distribution width of the brightness in the process target image shown with the said brightness information, and the maximum width of the expressible brightness as said brightness degree information. Or the image processing apparatus of 3.
ことを特徴とする請求項1乃至5いずれか記載の画像処理装置。 The adjustment unit adds the high-frequency component extracted by the extraction unit to each pixel according to the brightness of the corresponding pixel of the processing target image in addition to the degree of wrinkle indicated by the degree information acquired by the acquisition unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is adjusted to the following.
前記生成手段により生成された補正曲線に従い処理対象画像の階調を補正する補正手段とを備え、
前記抽出手段は、前記補正手段による階調補正後の処理対象画像から高周波成分を抽出し、
前記取得手段は、前記補正手段による階調補正前の処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得し、
前記加算手段は、前記調整手段による調整後の高周波成分を、前記補正手段による階調補正後の処理対象画像に加算する
ことを特徴とする請求項1乃至6いずれか記載の画像処理装置。 Generating means for generating a correction curve corresponding to the processing target image based on brightness information indicating the minimum and maximum brightness among the brightness of each pixel in the processing target image;
Correction means for correcting the gradation of the processing target image according to the correction curve generated by the generation means,
The extraction unit extracts a high frequency component from the processing target image after the gradation correction by the correction unit,
The acquisition means acquires the degree information indicating the degree of wrinkles of the stagnation part in the processing target image before gradation correction by the correction means,
The image processing apparatus according to claim 1, wherein the adding unit adds the high-frequency component adjusted by the adjusting unit to a processing target image after gradation correction by the correcting unit.
ことを特徴とする請求項7記載の画像処理装置。 The adjusting means adds the high-frequency component extracted by the extracting means to each pixel in the processing target image before gradation correction by the correcting means, in addition to the degree of wrinkle indicated by the degree information acquired by the acquiring means. The image processing apparatus according to claim 7, wherein the image processing apparatus is adjusted in accordance with a distribution width of brightness.
処理対象画像から高周波成分を抽出する手順と、
処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得する手順と、
前記抽出手段により抽出された高周波成分を前記取得手段により取得された霞度合情報により示される霞の程度に応じて調整する手順と、
前記調整手段による調整後の高周波成分を処理対象画像に加算する手順と
を実行させることを特徴とする画像処理プログラム。 On the computer,
A procedure for extracting high-frequency components from the processing target image;
A procedure for obtaining the degree information indicating the degree of wrinkles of the stagnation part in the processing target image;
A procedure for adjusting the high-frequency component extracted by the extracting means according to the degree of wrinkle indicated by the degree information acquired by the acquiring means;
And a step of adding a high-frequency component adjusted by the adjusting means to a processing target image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009146035A JP5343726B2 (en) | 2009-06-19 | 2009-06-19 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009146035A JP5343726B2 (en) | 2009-06-19 | 2009-06-19 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011003048A true JP2011003048A (en) | 2011-01-06 |
JP5343726B2 JP5343726B2 (en) | 2013-11-13 |
Family
ID=43560949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009146035A Expired - Fee Related JP5343726B2 (en) | 2009-06-19 | 2009-06-19 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5343726B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221237A (en) * | 2011-04-08 | 2012-11-12 | Olympus Corp | Haze removal image processing system, haze removal image processing method and haze removal image processing program |
KR101292421B1 (en) * | 2011-08-05 | 2013-08-01 | 경희대학교 산학협력단 | Method for improving foggy image by unit image block |
WO2014077126A1 (en) * | 2012-11-13 | 2014-05-22 | 日本電気株式会社 | Image processing device, image processing method, and program |
JP2014135545A (en) * | 2013-01-08 | 2014-07-24 | Hitachi Ltd | Image pickup device, image pickup system, and image pickup method |
JP2014232938A (en) * | 2013-05-28 | 2014-12-11 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
WO2015075952A1 (en) * | 2013-11-25 | 2015-05-28 | 日本システムウエア株式会社 | Image processing device, image processing method, and control program |
JP2015211341A (en) * | 2014-04-25 | 2015-11-24 | キヤノン株式会社 | Image processing apparatus, imaging device, image processing method, and program |
JP2016015069A (en) * | 2014-07-03 | 2016-01-28 | セイコーエプソン株式会社 | Image processing device, image processing method and program |
US9317910B2 (en) | 2014-03-27 | 2016-04-19 | Hanwha Techwin Co., Ltd. | Defogging system and defogging method |
US9473692B2 (en) | 2014-04-03 | 2016-10-18 | Olympus Corporation | Image processing apparatus, imaging apparatus, and determination method for controlling light emission |
US9489591B2 (en) | 2014-07-25 | 2016-11-08 | Socionext, Inc. | Haze image discriminating apparatus and discriminating method |
KR20170044844A (en) * | 2015-10-16 | 2017-04-26 | 삼성전자주식회사 | Image haze removing device |
US9846925B2 (en) | 2015-05-08 | 2017-12-19 | Hanwha Techwin Co., Ltd. | Defog system and defog method |
JP2021113872A (en) * | 2020-01-17 | 2021-08-05 | アルパイン株式会社 | Image display device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06113308A (en) * | 1992-09-25 | 1994-04-22 | Daihatsu Motor Co Ltd | Picture processing method in on-vehicle image pickup device |
JPH11278182A (en) * | 1998-03-31 | 1999-10-12 | Nissan Motor Co Ltd | Fog status detection device for vehicle |
JP2001298621A (en) * | 2000-02-07 | 2001-10-26 | Sony Corp | Image processor and image processing method |
-
2009
- 2009-06-19 JP JP2009146035A patent/JP5343726B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06113308A (en) * | 1992-09-25 | 1994-04-22 | Daihatsu Motor Co Ltd | Picture processing method in on-vehicle image pickup device |
JPH11278182A (en) * | 1998-03-31 | 1999-10-12 | Nissan Motor Co Ltd | Fog status detection device for vehicle |
JP2001298621A (en) * | 2000-02-07 | 2001-10-26 | Sony Corp | Image processor and image processing method |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221237A (en) * | 2011-04-08 | 2012-11-12 | Olympus Corp | Haze removal image processing system, haze removal image processing method and haze removal image processing program |
KR101292421B1 (en) * | 2011-08-05 | 2013-08-01 | 경희대학교 산학협력단 | Method for improving foggy image by unit image block |
JPWO2014077126A1 (en) * | 2012-11-13 | 2017-01-05 | 日本電気株式会社 | Image processing apparatus, image processing method, and program |
WO2014077126A1 (en) * | 2012-11-13 | 2014-05-22 | 日本電気株式会社 | Image processing device, image processing method, and program |
US9621766B2 (en) | 2012-11-13 | 2017-04-11 | Nec Corporation | Image processing apparatus, image processing method, and program capable of performing high quality mist/fog correction |
JP2014135545A (en) * | 2013-01-08 | 2014-07-24 | Hitachi Ltd | Image pickup device, image pickup system, and image pickup method |
JP2014232938A (en) * | 2013-05-28 | 2014-12-11 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2015103001A (en) * | 2013-11-25 | 2015-06-04 | 日本システムウエア株式会社 | Image processing apparatus, image processing method, and control program |
WO2015075952A1 (en) * | 2013-11-25 | 2015-05-28 | 日本システムウエア株式会社 | Image processing device, image processing method, and control program |
US9639916B2 (en) | 2013-11-25 | 2017-05-02 | Nippon Systemware Co., Ltd. | Image processing device, and image processing method |
US9317910B2 (en) | 2014-03-27 | 2016-04-19 | Hanwha Techwin Co., Ltd. | Defogging system and defogging method |
US9473692B2 (en) | 2014-04-03 | 2016-10-18 | Olympus Corporation | Image processing apparatus, imaging apparatus, and determination method for controlling light emission |
JP2015211341A (en) * | 2014-04-25 | 2015-11-24 | キヤノン株式会社 | Image processing apparatus, imaging device, image processing method, and program |
JP2016015069A (en) * | 2014-07-03 | 2016-01-28 | セイコーエプソン株式会社 | Image processing device, image processing method and program |
US9489591B2 (en) | 2014-07-25 | 2016-11-08 | Socionext, Inc. | Haze image discriminating apparatus and discriminating method |
US9846925B2 (en) | 2015-05-08 | 2017-12-19 | Hanwha Techwin Co., Ltd. | Defog system and defog method |
KR20170044844A (en) * | 2015-10-16 | 2017-04-26 | 삼성전자주식회사 | Image haze removing device |
KR102461144B1 (en) | 2015-10-16 | 2022-10-31 | 삼성전자주식회사 | Image haze removing device |
JP2021113872A (en) * | 2020-01-17 | 2021-08-05 | アルパイン株式会社 | Image display device |
Also Published As
Publication number | Publication date |
---|---|
JP5343726B2 (en) | 2013-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5343726B2 (en) | Image processing apparatus and image processing program | |
JP4803284B2 (en) | Image processing apparatus and image processing program | |
JP5157753B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US8155441B2 (en) | Image processing apparatus, image processing method, and program for color fringing estimation and compensation | |
US20060215908A1 (en) | Image pickup apparatus and image processing method | |
JP2009153013A (en) | Imaging apparatus, color noise reduction method, and color noise reduction program | |
WO2008032517A1 (en) | Image processing device and image processing method, and image pickup device and image pickup method | |
JP4810473B2 (en) | Image processing apparatus and image processing program | |
JP5901667B2 (en) | Image processing apparatus and method, image processing program, and imaging apparatus | |
JP4900419B2 (en) | Image processing apparatus and image processing program | |
JPWO2006134923A1 (en) | Image processing apparatus, computer program product, and image processing method | |
JP5701640B2 (en) | Image processing device | |
JP2003304549A (en) | Camera and image signal processing system | |
JP4944061B2 (en) | Image processing apparatus and method, and program | |
JP5259616B2 (en) | Image processing system and image processing program | |
JP5932392B2 (en) | Image processing apparatus and image processing method | |
JP2015139082A (en) | Image processor, image processing method, program and electronic apparatus | |
JP2002288650A (en) | Image processing device, digital camera, image processing method and recording medium | |
JP2006333113A (en) | Imaging device | |
JP2012044560A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP2016040870A (en) | Image processing apparatus, image forming method and program | |
JP2004159087A (en) | Scanner system and image processing program | |
JPH11164309A (en) | Image signal processing method and electronic camera | |
JP5586031B2 (en) | Image processing system, image processing method, and image processing program | |
JP2020182163A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5343726 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |