JP2011003048A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP2011003048A
JP2011003048A JP2009146035A JP2009146035A JP2011003048A JP 2011003048 A JP2011003048 A JP 2011003048A JP 2009146035 A JP2009146035 A JP 2009146035A JP 2009146035 A JP2009146035 A JP 2009146035A JP 2011003048 A JP2011003048 A JP 2011003048A
Authority
JP
Japan
Prior art keywords
image
target image
unit
component
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009146035A
Other languages
Japanese (ja)
Other versions
JP5343726B2 (en
Inventor
Keiji Manabe
佳嗣 真鍋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009146035A priority Critical patent/JP5343726B2/en
Publication of JP2011003048A publication Critical patent/JP2011003048A/en
Application granted granted Critical
Publication of JP5343726B2 publication Critical patent/JP5343726B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a satisfactory gradation correction result, even for a section where haze occurs, in an image during gradation correction in the image, such as a picked-up image.
SOLUTION: An ε-filter 107 extracts a broad luminance component (Y_low) from a luminance component (Y) of an image to be processed. A contrast component generating section 108 subtracts the broad-luminance component (Y_low) from the luminance component (Y) and generates a contrast component (Y_high) for haze elimination, corresponding to a high-frequency component of the image to be processed. A contrast-component adjusting section 109 obtains a haze degree (degree of haze) in the image to be processed, on the basis of distribution area information (RGBmax and RGBmin) of the luminance of the image to be processed, and adjusts the contrast component (Y_high) for haze elimination, according to the obtained haze degree. By having A luminance correcting section 110 corrects the gradation of the image to be processed, and adding the adjusted contrast component (Y'_high) to the luminance component (Y) of the image to be processed. Gradation correction which is optimal for haze elimination in the image to be processing can be performed.
COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理技術に関し、特に画像の階調補正処理に関するものである。   The present invention relates to an image processing technique, and more particularly to an image gradation correction process.

従来、例えば特許文献1には、画像の階調補正処理に際して、以下の第1〜第3の処理を行う画像処理技術が記載されている。第1の処理では、入力画像データから非線形フィルタにより抽出したストラクチャ成分(画像内の物体の輪郭等に相当する成分)を、入力画像データから減算することによってテクスチャ成分(画像内の細部を構成する成分)を抽出する。また、第2の処理では、入力画像データから輝度のヒストグラムを取得し、取得したヒストグラムに基づいて生成した補正曲線に基づき前記ストラクチャ成分のコントラストを補正する。そして、第3の処理では、補正済のストラクチャ成分と予め増幅したテクスチャ成分とを加算することにより新たな画像データを生成する。   Conventionally, for example, Patent Document 1 describes an image processing technique for performing the following first to third processes in image gradation correction processing. In the first processing, a texture component (details in an image is formed by subtracting, from the input image data, a structure component (a component corresponding to the contour of an object in the image) extracted from the input image data by a nonlinear filter. Component). In the second process, a luminance histogram is acquired from the input image data, and the contrast of the structure component is corrected based on a correction curve generated based on the acquired histogram. In the third process, new image data is generated by adding the corrected structure component and the previously amplified texture component.

上記技術においては、画像全体のコントラストを向上させ、かつ画像内の細部を強調することが期待できる。また、前記ストラクチャ成分のコントラストが入力画像データにおける輝度のヒストグラムに応じた補正曲線を用いて補正されるため、補正後の画像データをコントラスト補正がより効果的に作用したものとすることができる。   In the above technique, it can be expected that the contrast of the entire image is improved and details in the image are enhanced. In addition, since the contrast of the structure component is corrected using a correction curve corresponding to a luminance histogram in the input image data, the corrected image data can be more effectively subjected to contrast correction.

特開2005−309945号公報JP 2005-309945 A

しかしながら、特許文献1の技術では、画像全体のコントラストを効果的に補正し、かつ画像内の細部を強調することができたとしても、補正対象の画像内に霞が生じている部分が存在する場合には、霞が生じている部分については必ずしも良好な階調補正結果が得られるとは限らず、画像に対する階調補正効果が未だ十分とはいえない問題があった。   However, in the technique of Patent Document 1, even if the contrast of the entire image can be effectively corrected and the details in the image can be enhanced, there is a part in which wrinkles occur in the image to be corrected. In such a case, a satisfactory gradation correction result is not always obtained for a portion where wrinkles occur, and there is a problem that the gradation correction effect on the image is not yet sufficient.

なお、画像において霞が生じている部分とは、局所領域内における画素間の明るさレベルの差が小さいために、画像内で霞んだような状態が生じている部分ある。霞が生じている部分の例としては、例えば、風景を撮影した画像の遠景部分のように、光の乱反射に起因して白っぽく霞んだように見える部分や、水面やガラス表面を通して撮影した画像のように、光の反射に起因して白っぽく霞んだように見える部分である。   Note that the portion where the image is wrinkled is a portion where the image is wrinkled because the difference in brightness level between the pixels in the local region is small. Examples of wrinkled parts include parts that appear whitish due to diffuse reflection of light, such as distant parts of images taken of landscapes, and images taken through the water surface or glass surface. Thus, it is a part that looks whitish due to reflection of light.

本発明は、かかる従来の課題に鑑みてなされたものであり、撮像画像等の画像における階調補正に際し、画像内に霞が生じている部分にも良好な階調補正結果を得ることを目的とする。   The present invention has been made in view of such a conventional problem, and an object of the present invention is to obtain a favorable gradation correction result even in a portion where wrinkles occur in an image when performing gradation correction in an image such as a captured image. And

本発明の第1の観点に係る画像処理装置にあっては、処理対象画像から高周波成分を抽出する抽出手段と、処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得する取得手段と、前記抽出手段により抽出された高周波成分を前記取得手段により取得された霞度合情報により示される霞の程度に応じて調整する調整手段と、前記調整手段による調整後の高周波成分を処理対象画像に加算する加算手段とを備えたことを特徴とする。   In the image processing apparatus according to the first aspect of the present invention, an extraction unit that extracts a high-frequency component from the processing target image, and acquisition of the degree information indicating the degree of wrinkles of the stagnated portion in the processing target image Means for adjusting the high frequency component extracted by the extracting means according to the degree of wrinkle indicated by the degree information acquired by the acquiring means, and the high frequency component adjusted by the adjusting means to be processed And adding means for adding to the image.

本発明の第1の観点に係る画像処理プログラムにあっては、コンピュータに、処理対象画像から高周波成分を抽出する手順と、処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得する手順と、前記抽出手段により抽出された高周波成分を前記取得手段により取得された霞度合情報により示される霞の程度に応じて調整する手順と、前記調整手段による調整後の高周波成分を処理対象画像に加算する手順とを実行させることを特徴とする。   In the image processing program according to the first aspect of the present invention, the computer obtains a procedure for extracting a high-frequency component from the processing target image and the degree information indicating the level of wrinkles in the processing target image. A procedure for adjusting the high-frequency component extracted by the extracting means according to the degree of wrinkle indicated by the degree-of-degree information acquired by the acquiring means, and the high-frequency component adjusted by the adjusting means to be processed And a procedure of adding to the image.

本発明によれば、撮像画像等の画像における階調補正に際し、画像内に霞が生じている部分にも良好な階調補正結果を得ることが可能となる。   According to the present invention, it is possible to obtain an excellent gradation correction result even in a portion where wrinkles are generated in an image when performing gradation correction in an image such as a captured image.

本発明を適用したデジタルスチルカメラのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the digital still camera to which this invention is applied. 本発明を適用したデジタルスチルカメラの機能ブロック図である。It is a functional block diagram of a digital still camera to which the present invention is applied. 画像処理部の要部を示す機能ブロック図である。It is a functional block diagram which shows the principal part of an image processing part. ガンマ変換部によるガンマ変換時のRGBデータの入出力特性を示す図である。It is a figure which shows the input / output characteristic of the RGB data at the time of the gamma conversion by a gamma conversion part. 補正特性生成部が取得する第1の補正特性線と第2の補正特性線を示す図である。It is a figure which shows the 1st correction characteristic line and 2nd correction characteristic line which a correction characteristic production | generation part acquires. 霞度合に対するコントラスト強調レベルの変化を示す特性図である。FIG. 10 is a characteristic diagram showing a change in contrast enhancement level with respect to the degree of brightness. 画像処理部における処理内容を示すフローチャートである。It is a flowchart which shows the processing content in an image process part.

以下、本発明を適用した実施形態について、図を参照しながら説明する。図1は、本発明の実施形態として例示するデジタルスチルカメラ(以下、単にデジタルカメラという。)1のハードウェア構成の概略を示すブロック図である。   Embodiments to which the present invention is applied will be described below with reference to the drawings. FIG. 1 is a block diagram showing an outline of a hardware configuration of a digital still camera (hereinafter simply referred to as a digital camera) 1 exemplified as an embodiment of the present invention.

図1に示したようにデジタルカメラ1は、被写体を撮像するためのCCD(Charge Coupled Device)2を有している。CCD2は、図示しない光学系によって被写体の光学像が結像される感光面に、ベイヤー配列等の特定の色配列を有する色フィルタが設けられた構造を備えている。CCD2は、水平/垂直ドライバ3から供給される水平、及び垂直転送用の駆動信号により駆動されることによって、被写体の光学像を電気信号に変換し、変換後の電気信号を撮像信号としてCDS(Correlated Double Sampling)回路、及びA/Dコンバータ(Analog-to-Digital converter)から構成されたCDS/AD回路4へ供給する。   As shown in FIG. 1, the digital camera 1 has a CCD (Charge Coupled Device) 2 for imaging a subject. The CCD 2 has a structure in which a color filter having a specific color arrangement such as a Bayer arrangement is provided on a photosensitive surface on which an optical image of a subject is formed by an optical system (not shown). The CCD 2 is driven by horizontal and vertical transfer drive signals supplied from the horizontal / vertical driver 3 to convert an optical image of a subject into an electric signal, and the converted electric signal is used as an imaging signal for CDS ( This is supplied to a CDS / AD circuit 4 composed of a Correlated Double Sampling) circuit and an A / D converter (Analog-to-Digital converter).

水平/垂直ドライバ3は、TG(Timing Generator)5が生成したタイミング信号に基づき動作することによって前述した水平、及び垂直転送用の駆動信号を生成しCCD2を駆動する。また、TG5が生成したタイミング信号はCDS/AD回路4にも供給される。CDS/AD回路4は、TG5から供給されたタイミング信号に基づき動作することによって、CCD2が出力した撮像信号に含まれるノイズを除去するとともに、ノイズ除去後の撮像信号をデジタル信号に変換し、変換後のデジタル信号をDSP(Digital Signal Processor)6へ供給する。   The horizontal / vertical driver 3 operates based on a timing signal generated by a TG (Timing Generator) 5 to generate the above-described horizontal and vertical transfer drive signals and drive the CCD 2. The timing signal generated by the TG 5 is also supplied to the CDS / AD circuit 4. The CDS / AD circuit 4 operates based on the timing signal supplied from the TG 5 to remove noise included in the imaging signal output from the CCD 2 and convert the imaging signal after noise removal into a digital signal. The later digital signal is supplied to a DSP (Digital Signal Processor) 6.

DSP6は、CDS/AD回路4から供給されたデジタル信号、すなわち単一の色情報のみを有する各画素のデータからなる画像データを処理するためのバッファ用のメモリ6aを備えた構成を有しており、以下に述べる一連の信号処理を行う。すなわちDSP6は、CDS/AD回路4から供給された画像データに対して、各画素の不足する色情報を各画素の周辺画素から補間することによって、画素毎にR(Red)、G(Green)、B(Blue)の色成分情報を有する画像データ、つまりRGBデータを生成するデモザイク(de-mosaic)処理を行う。   The DSP 6 has a configuration including a buffer memory 6a for processing a digital signal supplied from the CDS / AD circuit 4, that is, image data including data of each pixel having only single color information. The series of signal processing described below is performed. That is, the DSP 6 interpolates the color information that is insufficient for each pixel from the peripheral pixels of each pixel with respect to the image data supplied from the CDS / AD circuit 4, so that R (Red), G (Green) is obtained for each pixel. De-mosaic processing for generating image data having B (Blue) color component information, that is, RGB data, is performed.

また、DSP6は、デモザイク処理によって生成したRGBデータを画素毎の輝度成分(Y)、及び2つの色差成分(Cb、Cr)により表現される画像データ、つまりYUVデータに変換するYUV変換処理を行い、変換後のYUVデータに対してホワイトバランス調整処理や各種のフィルタ処理等を施す。さらに、DSP6は、上記の一連の信号処理に際し後述する階調補正処理を行う。   Further, the DSP 6 performs YUV conversion processing for converting RGB data generated by demosaic processing into image data expressed by a luminance component (Y) and two color difference components (Cb, Cr) for each pixel, that is, YUV data. The YUV data after conversion is subjected to white balance adjustment processing and various filter processing. Further, the DSP 6 performs gradation correction processing, which will be described later, in the series of signal processing described above.

そして、DSP6は、一連の信号処理を行った後のYUVデータを順次SDRAM(Synchronous dynamic random-access memory)7に供給する。SDRAM7は、DSP6から供給されたYUVデータを一時的に記憶する。   Then, the DSP 6 sequentially supplies YUV data after a series of signal processing to an SDRAM (Synchronous dynamic random-access memory) 7. The SDRAM 7 temporarily stores the YUV data supplied from the DSP 6.

さらに、DSP6は、デジタルカメラ1に動作モードとして記録モードが設定されている状態においては、SDRAM7に1フレーム分のYUVデータ(画像データ)が蓄積される毎に、SDRAM7に蓄積されている画像データを読み出し、読み出した画像データをLCD(Liquid Crystal Display)8に供給する。   Further, the DSP 6 stores the image data stored in the SDRAM 7 every time one frame of YUV data (image data) is stored in the SDRAM 7 in a state where the recording mode is set as the operation mode in the digital camera 1. And the read image data is supplied to an LCD (Liquid Crystal Display) 8.

LCD8は、図示しない液晶表示器と、液晶表示器を駆動する駆動回路等から構成され、DSP6から供給された画像データに基づく画像を液晶表示器の画面上にライブビュー画像として表示する。   The LCD 8 includes a liquid crystal display (not shown), a drive circuit that drives the liquid crystal display, and the like, and displays an image based on the image data supplied from the DSP 6 on the screen of the liquid crystal display as a live view image.

一方、前述したTG5及びDSP6はバス13を介してCPU(Central Processing Unit)9と接続されており、TG5及びDSP6の動作はCPU9によって制御されている。   On the other hand, the above-described TG 5 and DSP 6 are connected to a CPU (Central Processing Unit) 9 via a bus 13, and operations of the TG 5 and DSP 6 are controlled by the CPU 9.

CPU9は、記憶内容が書き換え可能なEEPROM(Electric Erasable Programmable Read Only Memory)であるフラッシュメモリ10に記憶されているプログラムに従い動作することによってデジタルカメラ1の全体の動作を制御する。   The CPU 9 controls the entire operation of the digital camera 1 by operating according to a program stored in a flash memory 10 which is an EEPROM (Electric Erasable Programmable Read Only Memory) whose rewritable contents are stored.

また、CPU9は、デジタルカメラ1に動作モードとして記録モードが設定されている状態での撮影時には、SDRAM7に一時記憶された画像データをJPEG(Joint Photographic Expert Group)方式等の所定の圧縮方式により圧縮し、圧縮後の画像データを画像ファイルとして外部メモリ11に記録する。外部メモリ11は、図示しないカードインターフェイスを介してバス13に接続されたカメラ本体に着脱自在なメモリカードである。   Further, the CPU 9 compresses the image data temporarily stored in the SDRAM 7 by a predetermined compression method such as a JPEG (Joint Photographic Expert Group) method at the time of shooting in a state where the recording mode is set as the operation mode in the digital camera 1. Then, the compressed image data is recorded in the external memory 11 as an image file. The external memory 11 is a memory card that is detachable from the camera body connected to the bus 13 via a card interface (not shown).

また、CPU9は、デジタルカメラ1に動作モードとして再生モードが設定されているときには、必要に応じて外部メモリ11から所定の画像ファイル(圧縮状態の画像データ)を読み出すとともに、読み出したデータを伸張してSDRAM7に展開する。さらにCPU9は、SDRAM7に展開したデータ(YUVデータ)を、DSP6を介してLCD8に供給することによりLCD8に記録画像を表示させる。   In addition, when the playback mode is set as the operation mode for the digital camera 1, the CPU 9 reads a predetermined image file (compressed image data) from the external memory 11 as necessary, and decompresses the read data. To SDRAM7. Further, the CPU 9 supplies the data (YUV data) developed on the SDRAM 7 to the LCD 8 via the DSP 6 so that the recorded image is displayed on the LCD 8.

バス13にはキー入力部12が接続されている。キー入力部12は、ユーザがデジタルカメラ1の操作に必要とする各種の操作キー、例えば電源キーやシャッターキー、記録モードや再生モードを設定するためのモード設定キー等によって構成されている。そして、CPU9は、キー入力部12における各々の操作キーの操作状態を逐次検出し、検出した操作状態に基づき判断したユーザの要求に従い種々の処理をプログラムに従い実行する。   A key input unit 12 is connected to the bus 13. The key input unit 12 includes various operation keys necessary for the user to operate the digital camera 1, such as a power key and a shutter key, a mode setting key for setting a recording mode and a reproduction mode, and the like. Then, the CPU 9 sequentially detects the operation state of each operation key in the key input unit 12, and executes various processes according to the program according to the user's request determined based on the detected operation state.

図2は、デジタルカメラ1の構成を機能別に示した機能ブロック図である。図2に示したようにデジタルカメラ1は、主として撮像部51と、画像処理部52、制御部53、作業用メモリ54、プログラムメモリ55、画像記録部56、表示部57、操作部58によって構成されている。   FIG. 2 is a functional block diagram showing the configuration of the digital camera 1 by function. As shown in FIG. 2, the digital camera 1 mainly includes an imaging unit 51, an image processing unit 52, a control unit 53, a work memory 54, a program memory 55, an image recording unit 56, a display unit 57, and an operation unit 58. Has been.

各々の機能ブロックは、後述するように図1に示した1又は複数のハードウェアによって実現される。すなわち撮像部51はCCD2と、水平/垂直ドライバ3、CDS/AD回路4、TG5によって実現され、被写体を撮像して撮像画像を取得する機能部分である。また、画像処理部52はDSP6によって実現され、撮像画像に前述した種々の画像処理を施す機能部分である。制御部53はCPU9によって実現される。また、作業用メモリ54はSDRAM7によって実現され、プログラムメモリ55はフラッシュメモリ10によって実現される。また、画像記録部56は外部メモリ11によって実現され、表示部57はLCD8によって実現され、操作部58は前述したキー入力部12によって実現される。   Each functional block is realized by one or a plurality of hardware shown in FIG. 1 as described later. In other words, the imaging unit 51 is realized by the CCD 2, the horizontal / vertical driver 3, the CDS / AD circuit 4, and the TG 5, and is a functional part that captures a subject and acquires a captured image. The image processing unit 52 is realized by the DSP 6 and is a functional part that performs the above-described various image processing on the captured image. The control unit 53 is realized by the CPU 9. The work memory 54 is realized by the SDRAM 7, and the program memory 55 is realized by the flash memory 10. The image recording unit 56 is realized by the external memory 11, the display unit 57 is realized by the LCD 8, and the operation unit 58 is realized by the key input unit 12 described above.

図3は、画像処理部52の要部であって、画像処理部52が前述したデモザイク処理、及びYUV変換処理に際して、撮像画像(以下、処理対象画像という。)の階調を補正するための機能部分の詳細を示した機能ブロック図である。図3に示したように画像処理部52は、画像バッファ101と、ガンマ変換部102、明るさ分布域取得部103、補正特性生成部104、階調補正部105、YUV変換部106、εフィルタ107、コントラスト成分生成部108、コントラスト成分調整部109、輝度補正部110とから構成されている。   FIG. 3 is a main part of the image processing unit 52, and the image processing unit 52 corrects the gradation of a captured image (hereinafter referred to as a processing target image) during the demosaic process and the YUV conversion process described above. It is the functional block diagram which showed the detail of the functional part. As shown in FIG. 3, the image processing unit 52 includes an image buffer 101, a gamma conversion unit 102, a brightness distribution area acquisition unit 103, a correction characteristic generation unit 104, a gradation correction unit 105, a YUV conversion unit 106, and an ε filter. 107, a contrast component generation unit 108, a contrast component adjustment unit 109, and a luminance correction unit 110.

以下、図3に示した画像処理部52の各部について説明する。画像バッファ101は前述したメモリ6a(図1参照)によって実現される機能部分であり、処理対象画像の画像データであって、デモザイク処理により生成されたRGBデータ(RGB)を記憶する。なお、RGBデータにおけるR,G,Bの各色成分の画素値は「0〜255」の範囲である。   Hereinafter, each unit of the image processing unit 52 illustrated in FIG. 3 will be described. The image buffer 101 is a functional part realized by the above-described memory 6a (see FIG. 1), and stores image data of an image to be processed and RGB data (RGB) generated by demosaic processing. The pixel values of the R, G, and B color components in the RGB data are in the range of “0 to 255”.

ガンマ変換部102は、処理対象画像に対して全ての処理対象画像に共通する基本の階調補正処理を施す。すなわちガンマ変換部102は、画像バッファ101に記憶されたRGBデータを読み出し、デジタルカメラ1の諸特性に対応した所定のガンマ特性に従ったガンマ変換を行う。具体的に説明すると、ガンマ変換部102は、処理対象画像の表示に際し、処理対象画像に自然な階調を確保することを目的として予め決められている、例えば図4に示した入出力特性に従ってRGBデータの画素値を調整する。そして、ガンマ変換部102は、ガンマ変換後のRGBデータを階調補正部105に供給する。   The gamma conversion unit 102 performs basic gradation correction processing common to all processing target images on the processing target image. That is, the gamma conversion unit 102 reads out the RGB data stored in the image buffer 101 and performs gamma conversion according to predetermined gamma characteristics corresponding to various characteristics of the digital camera 1. More specifically, the gamma conversion unit 102 is determined in advance for the purpose of securing a natural gradation in the processing target image when displaying the processing target image, for example, according to the input / output characteristics shown in FIG. The pixel value of RGB data is adjusted. Then, the gamma conversion unit 102 supplies the RGB data after the gamma conversion to the gradation correction unit 105.

一方、明るさ分布域取得部103は、画像バッファ101に記憶されたRGBデータを読み出し、全ての画素毎に、Rの画素値、Gの画素値、Bの画素値のうちの最小値(RGBmin)と、Rの画素値、Gの画素値、Bの画素値のうちの最大値(RGBmax)とを確認する。次に、明るさ分布域取得部103は、全画素における最小値(RGBmin)なかで最小の色成分値を処理対象画像における最小の明るさレベル(black_lev)として取得する。かつ明るさ分布域取得部103は、全画素における最大値(RGBmax)なかで最大の成分値を処理対象画像における最大の明るさレベル(white_lev)として取得する。そして、明るさ分布域取得部103は、上記の最小の明るさレベル(black_lev)と最大の明るさレベル(white_lev)とを、処理対象画像における明るさの分布域を示す分布域情報として補正特性生成部104とコントラスト成分調整部109と輝度補正部110とに供給する。   On the other hand, the brightness distribution area acquisition unit 103 reads out the RGB data stored in the image buffer 101 and, for every pixel, the minimum value (RGBmin) of the R pixel value, the G pixel value, and the B pixel value. ) And the maximum value (RGBmax) of the R pixel value, the G pixel value, and the B pixel value. Next, the brightness distribution area acquisition unit 103 acquires the minimum color component value among the minimum values (RGBmin) in all pixels as the minimum brightness level (black_lev) in the processing target image. In addition, the brightness distribution area acquisition unit 103 acquires the maximum component value among the maximum values (RGBmax) in all pixels as the maximum brightness level (white_lev) in the processing target image. Then, the brightness distribution area acquisition unit 103 corrects the minimum brightness level (black_lev) and the maximum brightness level (white_lev) as distribution area information indicating the brightness distribution area in the processing target image. This is supplied to the generation unit 104, the contrast component adjustment unit 109, and the luminance correction unit 110.

補正特性生成部104は生成手段を実現する機能部分である。補正特性生成部104は、明るさ分布域取得部103から供給された最小の明るさレベル(black_lev)と最大の明るさレベル(white_lev)とに基づき、処理対象画像に前述した基本の階調補正処理とは異なる処理対象画像に固有の階調補正処理を施すために使用する補正特性線を取得する。そして、補正特性生成部104は、取得した補正特性線を階調補正部105に供給する。   The correction characteristic generation unit 104 is a functional part that implements generation means. Based on the minimum brightness level (black_lev) and the maximum brightness level (white_lev) supplied from the brightness distribution area acquisition unit 103, the correction characteristic generation unit 104 performs the basic gradation correction described above on the processing target image. A correction characteristic line used to perform a tone correction process specific to a processing target image different from the process is acquired. Then, the correction characteristic generation unit 104 supplies the acquired correction characteristic line to the gradation correction unit 105.

補正特性生成部104における補正特性線の生成手順を以下に述べる。すなわち補正特性生成部104は、図5(a)に示した第1の補正特性線を取得した後、取得した第1の補正特性線を調整することにより、図5(b)に示した第2の補正特性線を処理対象画像に固有の補正特性線として取得する。なお、図5において横軸は階調補正処理前の画素の明るさレベル(入力レベル)、縦軸は階調補正処理後の画素の明るさレベル(出力レベル)である。   A procedure for generating a correction characteristic line in the correction characteristic generation unit 104 will be described below. That is, the correction characteristic generation unit 104 acquires the first correction characteristic line illustrated in FIG. 5A and then adjusts the acquired first correction characteristic line to thereby obtain the first correction characteristic line illustrated in FIG. 2 correction characteristic lines are acquired as correction characteristic lines unique to the processing target image. In FIG. 5, the horizontal axis represents the brightness level (input level) of the pixel before gradation correction processing, and the vertical axis represents the brightness level (output level) of the pixel after gradation correction processing.

図5(a)に示した第1の補正特性線は右上がりの直線であり、処理対象画像の各画素の明るさを各画素の明るさレベルに比例して増大させるものである。同時に、第1の補正特性線は、入力レベルにおける最小の明るさレベル(black_lev)を出力レベルにおける最小レベル「0」に変換し、かつ入力レベルにおける最大の明るさレベル(white_lev)を出力レベルにおける最大レベル「255」に変換するものである。つまり処理対象画像における明るさの分布幅を最大幅に拡げる補正特性線である。   The first correction characteristic line shown in FIG. 5A is a straight line that rises to the right, and increases the brightness of each pixel of the processing target image in proportion to the brightness level of each pixel. At the same time, the first correction characteristic line converts the minimum brightness level (black_lev) at the input level to the minimum level “0” at the output level, and the maximum brightness level (white_lev) at the input level at the output level. The maximum level is converted to “255”. That is, it is a correction characteristic line that expands the brightness distribution width in the processing target image to the maximum width.

また、図5(b)に示した第2の補正特性線は右上がりのS字曲線であり、補正特性生成部104は、以下の手順で図示した第2の補正特性線を取得する。まず補正特性生成部104は、処理対象画像における最小の明るさレベル(black_lev)と最大の明るさレベル(white_lev)との平均の明るさレベル(ave_lev)を計算する。さらに、補正特性生成部104は、中間の明るさレベル(ave_lev)と最大の明るさレベル(white_lev)との中間に位置する明側の明るさレベル(white side_lev)を計算する。   Further, the second correction characteristic line shown in FIG. 5B is a right-upward S-shaped curve, and the correction characteristic generation unit 104 acquires the second correction characteristic line illustrated in the following procedure. First, the correction characteristic generation unit 104 calculates an average brightness level (ave_lev) between the minimum brightness level (black_lev) and the maximum brightness level (white_lev) in the processing target image. Further, the correction characteristic generation unit 104 calculates a brightness level (white side_lev) on the bright side located between the intermediate brightness level (ave_lev) and the maximum brightness level (white_lev).

次に、補正特性生成部104は、図5(a)の第1の補正特性線上において最小の明るさレベル(black_lev)に対応する点Aと、上記の明側の明るさレベル(white side_lev)に対応する点Bと、上記の最大の明るさレベル(white_lev)に対応する点Cの3点を特定する。   Next, the correction characteristic generation unit 104 generates a point A corresponding to the minimum brightness level (black_lev) on the first correction characteristic line in FIG. 5A and the above-mentioned brightness level (white side_lev). 3 points are identified: a point B corresponding to 1 and a point C corresponding to the maximum brightness level (white_lev).

しかる後、補正特性生成部104は、上記の3点A,B,Cを通り、かつ点Bを変曲点とするS字曲線を演算し、演算したS字曲線を第2の補正特性線として取得する。なお、補正特性生成部104は、S字曲線を上記の各点A,B,Cを周知のスプライン曲線補間法によって結ぶことにより演算する。   Thereafter, the correction characteristic generation unit 104 calculates an S-shaped curve that passes through the three points A, B, and C and has the point B as an inflection point, and uses the calculated S-shaped curve as a second correction characteristic line. Get as. The correction characteristic generation unit 104 calculates an S-shaped curve by connecting the above points A, B, and C by a known spline curve interpolation method.

つまり補正特性生成部104は、処理対象画像に固有の補正特性線として、前述した明側の明るさレベル(white side_lev)を中心とした明側の特定区間Xの傾きが、特定区間Xよりも暗い区間、及び特定区間Xよりも明るい区間の傾きよりも大きい第2の補正特性線を取得する。   In other words, the correction characteristic generation unit 104 has a slope of the specific section X on the bright side centered on the above-described brightness level (white side_lev) as a correction characteristic line specific to the processing target image, rather than the specific section X. A second correction characteristic line larger than the gradient of the dark section and the section brighter than the specific section X is acquired.

階調補正部105は補正手段を実現する機能部分である。階調補正部105は、ガンマ変換部102から供給されたガンマ変換後のRGBデータにおける全画素の色成分毎の画素値を、補正特性生成部104によって生成された第2の補正特性線に基づき補正する。すなわち階調補正部105は、ガンマ変換によって基本の階調補正処理が施された後の画像に対して、処理対象画像の内容が反映された処理対象画像に固有の階調補正処理をさらに施す。そして、階調補正部105は上記階調補正後のRGBデータをYUV変換部106へ供給する。   The gradation correction unit 105 is a functional part that implements correction means. The tone correction unit 105 uses the second correction characteristic line generated by the correction characteristic generation unit 104 to calculate the pixel values for all color components of the RGB data after gamma conversion supplied from the gamma conversion unit 102 based on the second correction characteristic line. to correct. That is, the tone correction unit 105 further performs tone correction processing specific to the processing target image in which the content of the processing target image is reflected on the image after the basic tone correction processing is performed by gamma conversion. . Then, the gradation correction unit 105 supplies the RGB data after the gradation correction to the YUV conversion unit 106.

YUV変換部106は、前述した2段階の階調補正処理が施された後のRGBデータをYUVデータに変換するYUV変換処理を行い、変換後のYUVデータを輝度補正部110に供給する。また、YUV変換部106は、YUV変換処理により生成した各画素の輝度成分(Y(x,y))をεフィルタ107とコントラスト成分生成部108とに供給する。   The YUV conversion unit 106 performs YUV conversion processing for converting the RGB data after the above-described two-stage gradation correction processing into YUV data, and supplies the converted YUV data to the luminance correction unit 110. Further, the YUV conversion unit 106 supplies the luminance component (Y (x, y)) of each pixel generated by the YUV conversion process to the ε filter 107 and the contrast component generation unit 108.

εフィルタ107は、主として急峻な変化を伴う画像データに重畳された小幅振幅雑音(高周波成分)の除去、つまり画像の平滑化を目的として使用される画像フィルタであって、より詳しくは元画像におけるエッジの保持性能を有する平滑化フィルタである。εフィルタ107は、YUV変換部106から供給された輝度成分(Y(x,y))から、後述するフィルタ処理によって小幅振幅雑音(高周波成分)を除去することによって処理対象画像の大局輝度成分(低周波成分)を生成し、生成した大局輝度成分(y_low(x,y))をコントラスト成分生成部108に供給する。   The ε filter 107 is an image filter mainly used for the purpose of removing small amplitude noise (high frequency component) superimposed on image data with a steep change, that is, for smoothing the image. This is a smoothing filter having edge retention performance. The ε filter 107 removes small amplitude noise (high frequency component) from the luminance component (Y (x, y)) supplied from the YUV conversion unit 106 by a filter process described later to thereby obtain a general luminance component ( Low-frequency component), and the generated overall luminance component (y_low (x, y)) is supplied to the contrast component generation unit 108.

ここでεフィルタ107におけるフィルタ処理について説明する。εフィルタ107は、各画素を注目画素として、縦横3画素分からなる画素領域(各注目画素を中心とする合計9個の画素領域)に着目する。つまり、注目画素とその周辺に位置する8個の周辺画素に着目する。そして、注目画素の画素値と各周辺画素の画素値との各差分値が、所定の閾値T(T=20)以下になるように、各周辺画素の画素値を調整する。さらに、注目画素の元の画素値と調整された各周辺画素の画素値とにそれぞれ所定の係数として1/9を乗じることにより得られる各画素値の総和を算出し、算出した画素値を注目画素の新たな画素値とする。なお、上記のフィルタ処理に際して、着目する画素領域の範囲、閾値Tの値、各画素の画素値に乗じる係数は適宜変更することができる。   Here, filter processing in the ε filter 107 will be described. The ε filter 107 pays attention to a pixel area composed of three vertical and horizontal pixels with each pixel as a target pixel (a total of nine pixel areas centered on each target pixel). That is, attention is paid to the target pixel and eight peripheral pixels located in the vicinity thereof. Then, the pixel value of each peripheral pixel is adjusted such that each difference value between the pixel value of the target pixel and the pixel value of each peripheral pixel is equal to or less than a predetermined threshold T (T = 20). Further, the sum of each pixel value obtained by multiplying the original pixel value of the target pixel and the adjusted pixel value of each peripheral pixel by 1/9 as a predetermined coefficient is calculated. A new pixel value of the pixel is set. In the above filter processing, the range of the pixel region of interest, the value of the threshold T, and the coefficient by which the pixel value of each pixel is multiplied can be changed as appropriate.

コントラスト成分生成部108は、YUV変換部106、及びεフィルタ107と協働して抽出手段を実現する機能部分である。コントラスト成分生成部108は、YUV変換部106から供給された輝度成分(Y(x,y))と、εフィルタ107から供給された大局輝度成分(Y_low(x,y))とに基づき、下記の式(1)に従って、処理対象画像の高周波成分である霞除去用のコントラスト成分(Y_high(x,y))を取得する。   The contrast component generation unit 108 is a functional part that realizes an extraction unit in cooperation with the YUV conversion unit 106 and the ε filter 107. The contrast component generation unit 108 is based on the luminance component (Y (x, y)) supplied from the YUV conversion unit 106 and the general luminance component (Y_low (x, y)) supplied from the ε filter 107 as follows. The wrinkle removal contrast component (Y_high (x, y)), which is the high-frequency component of the processing target image, is acquired according to the equation (1).

Y_high(x,y)=Y(x,y)−Y_low(x,y) ・・・式(1)
但し、
Y(x,y) :入力Y成分(0〜255)
Y_low(x,y) :大局輝度成分(0〜255)
Y_high(x,y):霞除去用のコントラスト調整成分(−255〜255)
Y_high (x, y) = Y (x, y) −Y_low (x, y) (1)
However,
Y (x, y): input Y component (0 to 255)
Y_low (x, y): Overall luminance component (0 to 255)
Y_high (x, y): Contrast adjustment component for removing wrinkles (−255 to 255)

すなわちコントラスト成分生成部108は、元の輝度成分(Y(x,y))から大局輝度成分(Y_low(x,y))を減算することによって得られる高周波成分を霞除去用のコントラスト成分(Y_high(x,y))として取得する。そして、コントラスト成分生成部108は、取得したコントラスト成分(Y_hight(x,y))をコントラスト成分調整部109に供給する。   That is, the contrast component generation unit 108 subtracts the high-frequency component obtained by subtracting the general luminance component (Y_low (x, y)) from the original luminance component (Y (x, y)), and the contrast component (Y_high) for removing wrinkles. (X, y)). Then, the contrast component generation unit 108 supplies the acquired contrast component (Y_high (x, y)) to the contrast component adjustment unit 109.

コントラスト成分調整部109は、明るさ分布域取得部103と協働して取得手段を実現する機能部分であり、同時に調整手段を実現するための機能部分である。コントラスト成分調整部109は、コントラスト成分生成部108から供給された霞除去用のコントラスト成分(Y_high(x,y))に対して後述する調整を行い、調整後のコントラスト成分(Y_high'(x,y))を輝度補正部110に供給する。   The contrast component adjustment unit 109 is a functional part that realizes the acquisition unit in cooperation with the brightness distribution area acquisition unit 103, and is a functional part that simultaneously realizes the adjustment unit. The contrast component adjustment unit 109 performs adjustment described later on the wrinkle removal contrast component (Y_high (x, y)) supplied from the contrast component generation unit 108, and the adjusted contrast component (Y_high ′ (x, y, y)) is supplied to the luminance correction unit 110.

コントラスト成分調整部109におけるコントラスト成分(Y_high(x,y))の具体的な調整内容を以下に説明する。コントラスト成分調整部109は、コントラスト成分(Y_high(x,y))の調整に際し、まず、処理対象画像に霞んだ部分が存在すると仮定した上での霞んだ部分における霞の程度(濃さ)の指標となる霞度合(K)を取得する。   Specific adjustment contents of the contrast component (Y_high (x, y)) in the contrast component adjustment unit 109 will be described below. When adjusting the contrast component (Y_high (x, y)), the contrast component adjustment unit 109 first assumes the degree of darkness (darkness) in the blurred portion assuming that the blurred portion exists in the processing target image. Acquire the index (K) as an index.

すなわちコントラスト成分調整部109は、明るさ分布域取得部103から供給された最小の明るさレベル(black_lev)と最大の明るさレベル(white_lev)とに基づいて、霞度合(K)を下記式(2)に従い算出する。   That is, the contrast component adjustment unit 109 calculates the degree of degree (K) based on the minimum brightness level (black_lev) and the maximum brightness level (white_lev) supplied from the brightness distribution area acquisition unit 103 by the following formula ( Calculate according to 2).

K=(black_lev+(255−white_lev)) ・・・式(2)
但し、
K :霞度合(0〜255)
black_lev:処理対象画像の最小明るさレベル(0〜255)
white_lev:処理対象画像の最大明るさレベル(0〜255)
K = (black_lev + (255−white_lev)) (2)
However,
K: Degree degree (0-255)
black_lev: Minimum brightness level (0 to 255) of the processing target image
white_lev: Maximum brightness level of the processing target image (0 to 255)

つまり、コントラスト成分調整部109は、処理対象画像に霞んだ部分が存在すると仮定した上での霞んだ部分における霞の程度(濃さ)の指標となる霞度合(K)として、処理対象画像における明るさの分布幅と、表現可能な明るさの最大幅(0〜255)との差を示す値を取得する。   That is, the contrast component adjustment unit 109 assumes that there is a stagnation part in the processing target image, and uses the degree (K) as an index of the degree of stagnation (darkness) in the stagnation part. A value indicating the difference between the brightness distribution width and the maximum expressible brightness width (0 to 255) is acquired.

次に、コントラスト成分調整部109は、式(2)で算出した霞度合(K)をパラメータとする予め決められた所定の演算関数を用いてコントラスト強調レベル(adj_lev)を取得する。上記の演算関数は、霞度合(K)に比例してコントラスト強調レベル(adj_lev)が増大する特性を有する関数である。すなわち上記演算関数は、霞度合(K)に比例してコントラスト強調レベル(adj_lev)が、例えば図6に示したように「384〜255」の範囲で変化する関数である。なお、上記演算関数は、霞度合(K)に比例してコントラスト強調レベル(adj_lev)が増大する特性(右上がりの特性)を有するものであればよい。   Next, the contrast component adjustment unit 109 acquires the contrast enhancement level (adj_lev) using a predetermined arithmetic function that uses the degree of degree (K) calculated by Expression (2) as a parameter. The arithmetic function is a function having a characteristic that the contrast enhancement level (adj_lev) increases in proportion to the degree of power (K). That is, the arithmetic function is a function in which the contrast enhancement level (adj_lev) changes in a range of “384 to 255” as shown in FIG. 6 in proportion to the degree of brightness (K). The arithmetic function only needs to have a characteristic (a characteristic that rises to the right) in which the contrast enhancement level (adj_lev) increases in proportion to the degree of brightness (K).

次に、コントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))を、コントラスト強調レベル(adj_lev)と、YUV変換部106から供給された各画素の輝度成分(Y(x,y))とを用いて調整する。係る調整に際してコントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))が「0」以上であるか否かを確認する。   Next, the contrast component adjusting unit 109 converts the wrinkle removal contrast component (Y_high (x, y)), the contrast enhancement level (adj_lev), and the luminance component (Y ( x, y)). At the time of such adjustment, the contrast component adjustment unit 109 checks whether or not the wrinkle removal contrast component (Y_high (x, y)) is equal to or greater than “0”.

そして、コントラスト成分調整部109は、値が「0」以上である画素のコントラスト成分(Y_high(x,y))をハイライト強調用のコントラスト成分と判断し、かつ値が「0」未満である画素のコントラスト成分(Y_high(x,y))をシャドウ強調用のコントラスト成分と判断する。   Then, the contrast component adjustment unit 109 determines that the contrast component (Y_high (x, y)) of a pixel having a value of “0” or more is a highlight emphasis contrast component, and the value is less than “0”. The contrast component (Y_high (x, y)) of the pixel is determined as a contrast component for shadow enhancement.

しかる後、コントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))をハイライト強調用のコントラスト成分とシャドウ強調用のコントラスト成分とに分けて個別に調整することによってコントラスト成分(Y_high(x,y))の帯域幅を調整する。   Thereafter, the contrast component adjusting unit 109 separately adjusts the contrast component for removing wrinkles (Y_high (x, y)) into a contrast component for highlight emphasis and a contrast component for shadow emphasis. The bandwidth of the component (Y_high (x, y)) is adjusted.

具体的に説明すると、コントラスト成分調整部109は、ハイライト強調用のコントラスト成分については下記式(3−1)に従い調整し、また、シャドウ強調用のコントラスト成分については下記式(3−2)に従い調整する。   More specifically, the contrast component adjustment unit 109 adjusts the contrast component for highlight enhancement according to the following equation (3-1), and the contrast component for shadow enhancement includes the following equation (3-2). Adjust according to

Figure 2011003048
但し、
Y(x,y) :入力Y成分(0〜255)
adj_lev :コントラスト強調レベル(384〜512)
Y_high(x,y) :霞除去用のコントラスト成分(−255〜255)
Y_high'(x,y):調整後のコントラスト成分
Figure 2011003048
However,
Y (x, y): input Y component (0 to 255)
adj_lev: Contrast enhancement level (384 to 512)
Y_high (x, y): Contrast component for removing wrinkles (−255 to 255)
Y_high ′ (x, y): Contrast component after adjustment

すなわちコントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))に、「(adj_lev−256)/256」からなる第1の調整係数と、「(256− Y(x,y))/256」からなるハイライト強調用の第2の調整係数、又は「Y(x,y)/256」からなるシャドウ強調用の第2の調整係数を乗じた値を調整後のコントラスト成分(Y_high'(x,y))として取得する。   That is, the contrast component adjustment unit 109 adds the first adjustment coefficient composed of “(adj_lev−256) / 256” to the contrast component (Y_high (x, y)) for removing wrinkles, and “(256−Y (x, y)) / 256 ”highlight adjustment second adjustment coefficient or“ Y (x, y) / 256 ”shadow enhancement second adjustment coefficient multiplied by the contrast after adjustment Acquired as a component (Y_high ′ (x, y)).

ここで、第1の調整係数は、コントラスト強調レベル(adj_lev)、つまり処理対象画像における霞度合(K)に比例し、「0.5」〜「1」の範囲で変化する。したがって、調整後のコントラスト成分(Y'_high(x,y))は、霞度合(K)が小さいときほど小さく、逆に霞度合(K)が大きいときほど大きくなる。   Here, the first adjustment coefficient is proportional to the contrast enhancement level (adj_lev), that is, the degree (K) of the processing target image, and varies in the range of “0.5” to “1”. Therefore, the adjusted contrast component (Y′_high (x, y)) is smaller as the degree of brightness (K) is smaller, and conversely, it is larger as the degree of hue (K) is larger.

一方、霞除去用のコントラスト成分(Y_high(x,y))がハイライト強調用(値が「0」以上)であるときの第2の調整係数(以下、ハイライト強調用の第2の調整係数という。)は、元の輝度成分(Y(x,y))が大きいほど小さくなり、「1」〜「1/256」の範囲で変化する。したがって、霞除去用のコントラスト成分(Y_high(x,y))がハイライト強調用(値が「0」以上)のとき、調整後のコントラスト成分(Y'_high(x,y))は、例えば第1の調整係数が最大(「1」)であれば、「0」〜「256」のいずれかの値、つまり「0」又は正の値となる。また、調整後のコントラスト成分(Y'_high(x,y))も元の輝度成分(Y(x,y))が大きいほど小さくなる。   On the other hand, the second adjustment coefficient when the contrast component (Y_high (x, y)) for wrinkle removal is for highlight enhancement (value is “0” or more) (hereinafter, second adjustment for highlight enhancement). The coefficient is reduced as the original luminance component (Y (x, y)) increases, and changes in the range of “1” to “1/256”. Therefore, when the contrast component for removing wrinkles (Y_high (x, y)) is for highlight enhancement (value is “0” or more), the adjusted contrast component (Y′_high (x, y)) is, for example, If the first adjustment coefficient is the maximum (“1”), the value is any value from “0” to “256”, that is, “0” or a positive value. Also, the adjusted contrast component (Y′_high (x, y)) becomes smaller as the original luminance component (Y (x, y)) becomes larger.

また、霞除去用のコントラスト成分(Y_high(x,y))がシャドウ強調用(値が「0」未満)であるときの第2の調整係数(以下、シャドウ強調用の第2の調整係数という。)は、元の輝度成分(Y(x,y))が小さいほど小さくなり、「255/256」〜「0」の範囲で変化する。したがって、霞除去用のコントラスト成分(Y_high(x,y))がシャドウ強調用(値が「0」未満)のとき、調整後のコントラスト成分(Y'_high(x,y))は、例えば第1の調整係数が最大(「1」)であれば、「0」〜「−255」のいずれかの値、つまり「0」以下の値となる。また、調整後のコントラスト成分(Y'_high(x,y))も元の輝度成分(Y(x,y))が小さいほど小さくなる。   Also, a second adjustment coefficient when the contrast component for removing wrinkles (Y_high (x, y)) is for shadow enhancement (value is less than “0”) (hereinafter referred to as a second adjustment coefficient for shadow enhancement). .) Becomes smaller as the original luminance component (Y (x, y)) is smaller, and changes in the range of “255/256” to “0”. Therefore, when the contrast component (Y_high (x, y)) for removing wrinkles is for shadow enhancement (value is less than “0”), the adjusted contrast component (Y′_high (x, y)) is, for example, If the adjustment coefficient of 1 is the maximum (“1”), the value is any value from “0” to “−255”, that is, a value equal to or less than “0”. In addition, the adjusted contrast component (Y′_high (x, y)) becomes smaller as the original luminance component (Y (x, y)) becomes smaller.

輝度補正部110は加算手段を実現する機能部分であり、同時に調整手段の一部を実現するための機能部分である。輝度補正部110は、YUV変換部106から供給されたYUVデータの輝度成分(Y(x,y))に、コントラスト成分調整部109から供給された調整後のコントラスト成分(Y_high'(x,y))を、下記の式(4)に従って加算する輝度補正処理を施す。   The luminance correction unit 110 is a functional part that realizes the adding means, and at the same time, a functional part that realizes a part of the adjusting means. The luminance correction unit 110 adds the adjusted contrast component (Y_high ′ (x, y) supplied from the contrast component adjustment unit 109 to the luminance component (Y (x, y)) of the YUV data supplied from the YUV conversion unit 106. )) Is added according to the following formula (4).

Figure 2011003048
但し、
Y(x,y) :入力Y成分(0〜255)
Y_high'(x,y):調整後のコントラスト成分
black_lev :処理対象画像の最小の明るさレベル(0〜255)
white_lev :処理対象画像の最大の明るさレベル(0〜255)
Y'(x,y) :輝度補正処理後のY成分(0〜255)
Figure 2011003048
However,
Y (x, y): input Y component (0 to 255)
Y_high ′ (x, y): Adjusted contrast component black_lev: Minimum brightness level (0 to 255) of the processing target image
white_lev: Maximum brightness level of the processing target image (0 to 255)
Y ′ (x, y): Y component (0 to 255) after luminance correction processing

すなわち、輝度補正部110は、元の輝度成分(Y(x,y))に対して調整後のコントラスト成分(Y_high'(x,y))を加算する際の加算量を、処理対象画像における明るさの分布域に応じて調整する。つまり輝度補正部110は、明るさの分布域が狭いときほど、元の輝度成分(Y(x,y))に対する調整後のコントラスト成分(Y_high'(x,y))の加算量を減少させる。また、輝度補正部110は輝度補正処理後のYUVデータを画像バッファ101に記憶する。これにより、画像処理部52における処理対象画像に対する階調補正処理が完了する。   That is, the luminance correction unit 110 adds an addition amount when adding the adjusted contrast component (Y_high ′ (x, y)) to the original luminance component (Y (x, y)) in the processing target image. Adjust according to the brightness distribution range. That is, the luminance correction unit 110 decreases the amount of addition of the adjusted contrast component (Y_high ′ (x, y)) to the original luminance component (Y (x, y)) as the brightness distribution range is narrower. . In addition, the luminance correction unit 110 stores the YUV data after the luminance correction processing in the image buffer 101. Thereby, the gradation correction processing for the processing target image in the image processing unit 52 is completed.

そして、画像処理部52は、以上説明したように図3の各部の動作による一連の補正処理によって処理対象画像の階調を補正した後、補正処理後のYUVデータを画像バッファ101にいったん記憶する。その後、画像処理部52は、画像バッファ101に記憶した補正処理後のYUVデータを読み出し、ホワイトバランス調整処理や各種のフィルタ処理等の他のデジタル信号処理を行う。   Then, as described above, the image processing unit 52 corrects the gradation of the processing target image by a series of correction processing by the operation of each unit in FIG. 3, and then temporarily stores the corrected YUV data in the image buffer 101. . Thereafter, the image processing unit 52 reads the corrected YUV data stored in the image buffer 101, and performs other digital signal processing such as white balance adjustment processing and various filter processing.

図7は、画像処理部52の図3の各部による前述した一連の補正処理の内容をフローチャートとして示したものである。なお、各ステップの処理の詳細については既に述べた通りであるため説明を省略する。   FIG. 7 is a flowchart showing the contents of the series of correction processes described above by the respective units in FIG. 3 of the image processing unit 52. Note that the details of the processing of each step are as described above, and thus description thereof is omitted.

図7に示したように、画像処理部52における補正処理においては、ガンマ変換部102が、画像バッファ101に記憶された処理対象画像のRGBデータにガンマ変換処理を施す(ステップS1)。次に、明るさ分布取得部103が、処理対象画像の最大及び最小の明るさレベルを取得する(ステップS2)。さらに、補正特性部104が、最大及び最小の明るさレベルに基づいて処理対象画像に固有の補正特性線(第2の補正特性線)を生成する(ステップS3)。しかる後、階調補正部105が、処理対象画像に固有の補正特性線に従ってガンマ変換後のRGBデータに階調補正処理を施す(ステップS4)。   As shown in FIG. 7, in the correction processing in the image processing unit 52, the gamma conversion unit 102 performs gamma conversion processing on the RGB data of the processing target image stored in the image buffer 101 (step S1). Next, the brightness distribution acquisition unit 103 acquires the maximum and minimum brightness levels of the processing target image (step S2). Further, the correction characteristic unit 104 generates a correction characteristic line (second correction characteristic line) unique to the processing target image based on the maximum and minimum brightness levels (step S3). Thereafter, the gradation correction unit 105 performs gradation correction processing on the RGB data after the gamma conversion in accordance with the correction characteristic line specific to the processing target image (step S4).

引き続き、YUV変換部106が、階調補正処理後のRGBデータをYUVデータに変換する(ステップS5)。次に、εフィルタ107が、YUVデータから大局輝度成分を抽出する(ステップS6)。また、コントラスト成分生成部108が、YUVデータの輝度成分と低周波成分とに基づいて霞除去用のコントラスト成分を取得する(ステップS7)。引き続き、コントラスト成分調整部109が、処理対象画像の霞度合を取得し、取得した霞度合に比例したコントラスト強調レベルを取得する(ステップS8)。さらに、コントラスト成分調整部109が、コントラスト強調レベルとYUVデータの輝度成分とを用いて霞除去用のコントラスト成分を調整する(ステップS9)。   Subsequently, the YUV conversion unit 106 converts the RGB data after the gradation correction processing into YUV data (step S5). Next, the ε filter 107 extracts a general luminance component from the YUV data (step S6). Further, the contrast component generation unit 108 acquires a wrinkle removal contrast component based on the luminance component and the low frequency component of the YUV data (step S7). Subsequently, the contrast component adjustment unit 109 acquires the degree of the processing target image, and acquires a contrast enhancement level proportional to the acquired degree (step S8). Further, the contrast component adjustment unit 109 adjusts the contrast component for removing wrinkles using the contrast enhancement level and the luminance component of the YUV data (step S9).

そして、輝度補正部110が、調整後のコントラスト成分をYUVデータの輝度成分に加算する輝度補正処理を行い(ステップS10)、輝度補正処理後のYUVデータを画像バッファ101に記憶する(ステップS11)。   Then, the luminance correction unit 110 performs luminance correction processing for adding the adjusted contrast component to the luminance component of the YUV data (step S10), and stores the YUV data after the luminance correction processing in the image buffer 101 (step S11). .

以上説明した画像処理部52における階調補正処理においては、階調補正部105が、ガンマ変換によって基本の階調補正処理が施された後の画像(RGBデータ)に対して、図5(b)の第2の補正特性線を用いて処理対象画像に固有の階調補正処理を施すため、処理後の画像に良好な階調を確保することができる。   In the gradation correction processing in the image processing unit 52 described above, the gradation correction unit 105 performs an image (RGB data) on which the basic gradation correction processing has been performed by gamma conversion with respect to FIG. ), The tone correction process specific to the image to be processed is performed using the second correction characteristic line, so that a good tone can be secured in the processed image.

しかも、第2の補正特性線は、処理対象画像における明るさの分布幅を単に拡げるものではなく、前述したように明側の明るさレベル(white side_lev)を中心とした明側の特定区間Xの傾きが、特定区間Xよりも暗い区間、及び特定区間Xよりも明るい区間の傾きよりも大きいものである。そして、上記の特定区間Xは、撮影された画像において一般に霞、つまり局所領域内における画素間の明るさレベルの差が小さいために、画像内で霞んだような状態が生じやすい(目立ちやすい)領域である。   In addition, the second correction characteristic line does not simply widen the brightness distribution width in the processing target image, and as described above, the bright specific section X centered on the bright side brightness level (white side_lev). Is greater than the slope of a section darker than the specific section X and a section brighter than the specific section X. The specific section X is generally wrinkled in the photographed image, that is, since the difference in brightness level between pixels in the local region is small, a state in which the image is wrinkled is likely to occur (easily noticeable). It is an area.

このため、階調補正部105によるRGBデータに対する階調補正処理においては、霞が生じやすい明るさ領域のコントラストを他の明るさ領域よりも高くすることによって、処理対象画像に霞が生じている部分が存在する場合には、霞が生じている部分の霞んだ状態を効果的に軽減したり、霞を除去したりすることができる。   For this reason, in the tone correction processing for RGB data by the tone correction unit 105, wrinkles are generated in the processing target image by making the contrast of the brightness region where wrinkles easily occur higher than other brightness regions. When there is a portion, it is possible to effectively reduce the wrinkled state of the portion where wrinkles are generated or to remove the wrinkles.

つまり例えばRGBデータに対する階調補正処理を、処理対象画像の輝度のヒストグラムに基づき生成した補正曲線を用いて行った場合には、霞が生じやすい(目立ちやすい)特定の明るさ領域の画像内に占める面積が異なると、それに伴い特定の明るさ領域に対する階調補正結果に違いが生じる。これに対して、階調補正部105においては、補正特性生成部104により生成される第2の補正特性線を用いるため、特定の明るさ領域に対して常に霞の除去に適した階調補正処理を行うことができる。   That is, for example, when gradation correction processing for RGB data is performed using a correction curve generated based on a luminance histogram of a processing target image, wrinkles are easily generated (conspicuous) in an image of a specific brightness region. If the occupied area is different, the gradation correction result for a specific brightness region is different accordingly. On the other hand, since the second correction characteristic line generated by the correction characteristic generation unit 104 is used in the gradation correction unit 105, gradation correction is always suitable for removing wrinkles for a specific brightness region. Processing can be performed.

したがって、画像処理部52による上述した階調補正処理においては、処理対象画像における霞が生じている部分についても良好な階調補正結果を得ることができる。   Therefore, in the above-described tone correction processing by the image processing unit 52, a good tone correction result can be obtained even for a portion where wrinkles occur in the processing target image.

さらに、画像処理部52による上述した階調補正処理においては、輝度補正部110が、YUV変換後のYUVデータに処理対象画像の高周波成分を調整した後のコントラスト成分(Y'_high(x,y))を足し込む輝度補正処理を行うことにより、以下述べる理由によって、階調補正処理後の画像にさらに良好な階調を確保することができる。   Further, in the above-described tone correction processing by the image processing unit 52, the brightness correction unit 110 adjusts the high frequency component of the processing target image to the YUV data after YUV conversion (Y′_high (x, y )) Is added, it is possible to secure a better gradation in the image after the gradation correction process for the following reason.

すなわちYUVデータに足し込むコントラスト成分(Y'_high(x,y))の元となる調整前のコントラスト成分(Y_high(x,y))は、処理対象画像の輝度成分(Y(x,y))から大局輝度成分(Y_low(x,y))を減算することにより得られる処理対象画像の高周波成分である。   That is, the pre-adjustment contrast component (Y_high (x, y)) that is the basis of the contrast component (Y′_high (x, y)) to be added to the YUV data is the luminance component (Y (x, y)) of the processing target image. ) Is a high-frequency component of the processing target image obtained by subtracting the global luminance component (Y_low (x, y)) from.

ここで、処理対象画像内における局所的な明暗の境界付近の明領域側では、高周波成分(Y(x,y)−Y_low(x,y))が正の値となるため、調整前のコントラスト成分(Y_high(x,y))がハイライト強調用のコントラスト成分となり、調整後のコントラスト成分(Y'_high(x,y))も正の値(但し「0」を含む)となる。よって、輝度補正部110による輝度補正処理に伴い、処理対象画像内における局所的な明暗の境界付近の明領域側では、輝度補正部110による輝度補正処理に伴い画素の輝度が元の輝度よりも大きくなる。つまり明領域側の画素が輝度補正処理前よりも明るくなる。   Here, since the high-frequency component (Y (x, y) −Y_low (x, y)) is a positive value on the bright region side near the local light / dark boundary in the processing target image, the contrast before adjustment. The component (Y_high (x, y)) is a contrast component for highlight enhancement, and the adjusted contrast component (Y′_high (x, y)) is also a positive value (including “0”). Therefore, along with the luminance correction processing by the luminance correction unit 110, on the bright region side near the local light / dark boundary in the processing target image, the luminance of the pixels is higher than the original luminance by the luminance correction processing by the luminance correction unit 110. growing. That is, the pixels on the bright area side become brighter than before the luminance correction process.

一方、処理対象画像内における局所的な明暗の境界付近の暗領域側では、高周波成分(Y(x,y)−Y_low(x,y))が負の値となるため、調整前のコントラスト成分(Y_high(x,y))はシャドウ強調用のコントラスト成分となり、調整後のコントラスト成分(Y'_high(x,y))は負の値となる。よって、輝度補正部110による輝度補正処理に伴い、処理対象画像内における局所的な明暗の境界付近の暗領域側では、輝度補正部110による輝度補正処理に伴い画素の輝度が元輝度よりも小さくなる。つまり暗領域側の画素が輝度補正処理前よりも暗くなる。   On the other hand, since the high frequency component (Y (x, y) −Y_low (x, y)) is a negative value on the dark region side near the local light / dark boundary in the processing target image, the contrast component before adjustment (Y_high (x, y)) is a contrast component for shadow enhancement, and the adjusted contrast component (Y′_high (x, y)) is a negative value. Therefore, along with the luminance correction processing by the luminance correction unit 110, on the dark region side near the local light / dark boundary in the processing target image, the luminance of the pixel is smaller than the original luminance along with the luminance correction processing by the luminance correction unit 110. Become. That is, the pixels on the dark area side are darker than before the luminance correction process.

したがって、輝度補正部110よる輝度補正処理後の画像においては、画像内における局所的な明暗の境界付近での輝度差(コントラスト)が、輝度補正処理前における明暗の輝度差(コントラスト)よりも大きくなる(コントラストが強調される)。この結果、輝度補正部110おける輝度補正処理によって処理対象画像の細部の階調を良好な状態に改善することができる。同時に、輝度補正部110による輝度補正処理では、画像内における局所的な明暗の境界付近での輝度差(コントラスト)を輝度補正処理前よりも大きくすることにより、階調補正部105における階調補正処理段階では改善できなかったような、処理対象画像における霞が生じている部分の霞んだ状態を改善することができる。   Therefore, in the image after the luminance correction processing by the luminance correction unit 110, the luminance difference (contrast) in the vicinity of the local light / dark boundary in the image is larger than the luminance difference (contrast) between light and dark before the luminance correction processing. (Contrast is emphasized). As a result, the gradation of details of the processing target image can be improved to a good state by the luminance correction processing in the luminance correction unit 110. At the same time, in the luminance correction process by the luminance correction unit 110, the gradation correction in the gradation correction unit 105 is performed by increasing the luminance difference (contrast) in the vicinity of the local light / dark boundary in the image as compared with that before the luminance correction process. It is possible to improve a state in which a wrinkle is generated in a processing target image that cannot be improved in the processing stage.

しかも、既説したようにコントラスト成分調整部109における調整後のコントラスト成分(Y'_high(x,y))は、霞度合(K)が小さいときほど小さく、逆に霞度合(K)が大きいときほど大きくなる。つまり、輝度補正部110おける輝度補正処理では、霞度合(K)に応じて調整前のコントラスト成分(Y_high(x,y))の帯域幅を調整することによって、画像内における局所的な明暗の境界付近でのコントラストの強調度合を処理対象画像における霞の程度(濃さ)に応じて制御する。   In addition, as already described, the contrast component (Y′_high (x, y)) after the adjustment in the contrast component adjustment unit 109 is smaller as the degree (K) is smaller, and conversely, the degree (K) is larger. It gets bigger. In other words, in the luminance correction processing in the luminance correction unit 110, the local brightness / darkness in the image is adjusted by adjusting the bandwidth of the contrast component (Y_high (x, y)) before adjustment in accordance with the degree (K). The degree of contrast enhancement near the boundary is controlled in accordance with the degree (darkness) of wrinkles in the processing target image.

したがって、輝度補正部110による輝度補正処理では、画像内における局所的な明暗の境界付近でのコントラストを過不足なく強調することができるため、階調補正部105での階調補正処理後にも残存している霞が生じている部分の霞んだ状態を確実に改善することができる。   Therefore, in the luminance correction processing by the luminance correction unit 110, the contrast near the local light / dark boundary in the image can be emphasized without excess or deficiency, and therefore remains after the gradation correction processing by the gradation correction unit 105. It is possible to reliably improve the stagnation state of the part where the crease is occurring.

また、輝度補正部110による輝度補正処理では、例えば画像内における局所的な明暗の境界付近でのコントラストの強調度合を霞の程度(濃さ)に応じて制御しない場合に比べると、以下の効果が得られる。すなわち、コントラストの強調度合を霞の程度(濃さ)に応じて制御しない場合、階調補正部105におけるRGBデータに対する階調補正処理後にも残存している霞が生じている部分の霞んだ状態を確実に改善するためには、コントラストの強調度合、つまり輝度(Y)成分へのコントラスト成分の足し込み量)を多めに設定しておく必要がある。そのため、コントラストの強調度合を制御しない場合には、霞の程度が低い(霞が薄い)にもかかわらず不必要に過大なコントラスト強調を行うことにより、良好な階調補正結果が得られない場合がある。しかし、輝度補正部110による輝度補正処理では、コントラストの強調度合を処理対象画像から判断した霞の程度(濃さ)に応じて制御するため、霞の程度(濃さ)に関係なく、処理対象画像の細部の階調を常に良好な状態に改善することができる。   Further, in the luminance correction processing by the luminance correction unit 110, for example, the following effects are obtained as compared with the case where the degree of contrast enhancement in the vicinity of the local light / dark boundary in the image is not controlled according to the degree of haze (darkness). Is obtained. That is, when the degree of contrast enhancement is not controlled according to the degree (darkness) of the wrinkle, a state in which a portion where wrinkles remain after the gradation correction processing on the RGB data in the gradation correction unit 105 has occurred In order to improve the image quality without fail, it is necessary to set a greater degree of contrast enhancement, that is, the amount of addition of the contrast component to the luminance (Y) component. Therefore, when the degree of contrast enhancement is not controlled, a good tone correction result cannot be obtained by performing excessive contrast enhancement unnecessarily despite the low degree of wrinkles (thin wrinkles are thin) There is. However, in the luminance correction processing by the luminance correction unit 110, the degree of contrast enhancement is controlled according to the degree (darkness) of the wrinkles determined from the processing target image. The gradation of the details of the image can always be improved to a good state.

さらに、既説したようにコントラスト成分調整部109における調整後のコントラスト成分(Y'_high(x,y))は、元の輝度成分(Y(x,y))の大きさに応じて増減する。すなわち、調整後のコントラスト成分(Y'_high(x,y))は、霞除去用のコントラスト成分(Y_high(x,y))がハイライト強調用であるときは、元の輝度成分(Y(x,y))が大きいほど小さくなり、また霞除去用のコントラスト成分(Y_high(x,y))がシャドウ強調用であるときは、元の輝度成分(Y(x,y))が小さいほど小さくなる。   Furthermore, as described above, the contrast component (Y′_high (x, y)) after adjustment in the contrast component adjustment unit 109 increases or decreases according to the size of the original luminance component (Y (x, y)). . That is, the adjusted contrast component (Y′_high (x, y)) is the original luminance component (Y (Y ()) when the wrinkle removal contrast component (Y_high (x, y)) is for highlight enhancement. x, y)) is larger and smaller when the wrinkle removal contrast component (Y_high (x, y)) is for shadow enhancement, the smaller the original luminance component (Y (x, y)) is. Get smaller.

したがって輝度補正部110おける輝度補正処理では、処理対象画像内における局所的な明暗の境界付近でのコントラストの強調度合を、元の輝度成分(Y(x,y))の大きさに応じて制御することにより、輝度補正処理に伴い処理対象画像における局所的な明暗の境界付近での明領域側に「白飛び」が生じたり、輝度補正処理に伴い処理対象画像における局所的な明暗の境界付近での暗領域側に「黒つぶれ」が生じたりすることを未然に防止することかできる。   Therefore, in the luminance correction processing in the luminance correction unit 110, the degree of contrast enhancement near the local brightness boundary in the processing target image is controlled in accordance with the size of the original luminance component (Y (x, y)). As a result of the brightness correction process, “brightness” occurs on the bright region side near the local light / dark boundary in the processing target image, or near the local light / dark boundary in the processing target image accompanying the brightness correction process. It is possible to prevent the occurrence of “blackout” on the dark area side.

また、輝度補正部110おける輝度補正処理では、処理対象画像における明るさの分布域が狭いときほど、元の輝度成分(Y(x,y))に対する調整後のコントラスト成分(Y_high'(x,y))の加算量を減少させる。したがって、画像処理部52による階調補正処理においては、前述した効果に加えて以下の効果を得ることができる。   Further, in the brightness correction processing in the brightness correction unit 110, the narrower the brightness distribution area in the processing target image is, the smaller the contrast component (Y_high ′ (x, y, x) after adjustment with respect to the original brightness component (Y (x, y))). Reduce the amount of addition in y)). Therefore, in the gradation correction processing by the image processing unit 52, the following effects can be obtained in addition to the effects described above.

すなわち階調補正部105におけるRGBデータに対する階調補正処理では、処理対象画像における明るさの分布域が狭い場合には、処理対象画像において霞が生じていた部分に対する霞除去効果が大きい。そのため、処理対象画像における明るさの分布域が狭い場合には、元の輝度成分(Y(x,y))に調整後のコントラスト成分(Y_high'(x,y))を過度に加算すると、輝度補正処理後の画像に良好な階調補正結果が得られなくなる。したがって、処理対象画像における明るさの分布域が狭いときほど、元の輝度成分(Y(x,y))に対する調整後のコントラスト成分(Y_high'(x,y))の加算量を減少させることにより、輝度補正処理後の画像に常に良好な階調補正結果を確保することができる。   That is, in the tone correction processing for RGB data in the tone correction unit 105, when the brightness distribution area in the processing target image is narrow, the effect of removing wrinkles on the portion where wrinkles have occurred in the processing target image is large. Therefore, when the brightness distribution area in the processing target image is narrow, excessively adding the adjusted contrast component (Y_high ′ (x, y)) to the original luminance component (Y (x, y)), A good gradation correction result cannot be obtained for the image after the luminance correction processing. Therefore, as the brightness distribution area in the processing target image is narrower, the amount of addition of the adjusted contrast component (Y_high ′ (x, y)) to the original luminance component (Y (x, y)) is decreased. Thus, it is possible to always ensure a good gradation correction result in the image after the luminance correction processing.

ここで、以上説明した本実施形態においては、画像処理部52が前述した階調補正部105を備え、輝度補正部110におけるYUVデータに対する輝度補正処理に先立ち、階調補正部105においてRGBデータに対する階調補正処理を行う構成とした。しかし、画像処理部52は、階調補正部105を廃止して輝度補正部110におけるYUVデータに対する輝度補正処理のみを行う構成としてもよい。画像処理部52は、輝度補正部110におけるYUVデータに対する輝度補正処理のみを行う構成であっても、階調補正処理後の画像に、処理対象画像における霞が生じている部分についても良好な階調補正結果を確保することができる。   Here, in the present embodiment described above, the image processing unit 52 includes the above-described tone correction unit 105, and the tone correction unit 105 applies the RGB data to the RGB data prior to the luminance correction processing for the YUV data. The gradation correction processing is performed. However, the image processing unit 52 may be configured to perform only the luminance correction processing on the YUV data in the luminance correction unit 110 without the gradation correction unit 105. Even if the image processing unit 52 is configured to perform only the luminance correction processing on the YUV data in the luminance correction unit 110, the image after the gradation correction processing also has a good level even in a portion where wrinkles occur in the processing target image. The key correction result can be secured.

また、画像処理部52の構成は本発明の範囲内であれば適宜変更することができる。したがって、例えば画像処理部52は、前述したYUVデータに対する輝度補正処理と同様の処理を、YUVデータではなくRGBデータを対象として行う構成としてもよい。また、前述したRGBデータに対する輝度補正処理を、RGBデータではなくYUVデータを対象として行う構成としてもよい。   Further, the configuration of the image processing unit 52 can be appropriately changed within the scope of the present invention. Therefore, for example, the image processing unit 52 may be configured to perform the same process as the brightness correction process for the YUV data described above on the RGB data instead of the YUV data. Further, the luminance correction processing for the RGB data described above may be performed on YUV data instead of RGB data.

また、εフィルタ107は、輝度成分(Y(x,y))から大局輝度成分(y_low(x,y))を抽出できるものであればよく、他の平滑化フィルタに変更することができる。但し、処理対象画像から良好な状態の高周波成分が取得するためには、εフィルタ107に代わる平滑化フィルタは、画像内で輝度差が大きい部分に生じやすい大局輝度成分(y_low(x,y))のオーバーシュートやアンダーシュートが少ないエッジの保持性能を有するものを採用することが好ましい。エッジの保持性能を有する平滑化フィルタとしては、例えばバイラテラルフィルタ等の他の荷重平均値フィルタを使用することができる。   The ε filter 107 may be any filter that can extract the general luminance component (y_low (x, y)) from the luminance component (Y (x, y)), and can be changed to another smoothing filter. However, in order to obtain a high-frequency component in a good state from the processing target image, the smoothing filter in place of the ε filter 107 is a general luminance component (y_low (x, y)) that is likely to occur in a portion where the luminance difference is large in the image. It is preferable to employ an edge holding performance with little overshoot and undershoot. As a smoothing filter having edge retention performance, for example, another weight average filter such as a bilateral filter can be used.

また、本実施形態のようにεフィルタ107を使用する場合、画像処理部52は、例えばεフィルタ107の前段に輝度成分(Y(x,y))を処理対象画像の画像サイズよりも小さな画像サイズの輝度成分(Y(x,y))に変換する縮小処理部を設け、かつεフィルタ107の後段に大局輝度成分(y_low(x,y))を処理対象画像の画像サイズの大局輝度成分(y_low(x,y))に変換する拡大部処理部を設けた構成としてもよい。係る構成を画像処理部52に採用すれば、εフィルタ103のフィルタ処理に要する時間を短縮することができる。   Further, when the ε filter 107 is used as in the present embodiment, the image processing unit 52 is an image having a luminance component (Y (x, y)) smaller than the image size of the processing target image, for example, before the ε filter 107. A reduction processing unit for converting the luminance component (Y (x, y)) into the size, and the overall luminance component (y_low (x, y)) after the ε filter 107 as the image size of the processing target image It is good also as a structure which provided the expansion part process part converted into (y_low (x, y)). If such a configuration is adopted in the image processing unit 52, the time required for the filter processing of the ε filter 103 can be shortened.

また、画像処理部52は、例えばコントラスト成分生成部108の後段に、霞除去用のコントラスト成分(Y_high(x,y))からノイズ成分を除去するためのローパスフィルタを設け、ノイズ成分を除去した後の霞除去用のコントラスト成分をコントラスト成分調整部109へ供給する構成としてもよい。   In addition, the image processing unit 52 is provided with a low-pass filter for removing a noise component from the contrast component (Y_high (x, y)) for removing wrinkles, for example, subsequent to the contrast component generation unit 108 to remove the noise component. The contrast component for removing wrinkles later may be supplied to the contrast component adjustment unit 109.

また、本発明の実施に際しては、例えばコントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))に、「(adj_lev−256)/256」からなる第1の調整係数のみを乗じた値を調整後のコントラスト成分(Y_high'(x,y))として取得する構成としてもよい。   In the implementation of the present invention, for example, the contrast component adjustment unit 109 uses only the first adjustment coefficient composed of “(adj_lev−256) / 256” as the contrast component (Y_high (x, y)) for removing wrinkles. It is good also as a structure which acquires the value which multiplied by as a contrast component (Y_high '(x, y)) after adjustment.

さらに、画像処理部52は、輝度補正部110における、元の輝度成分(Y(x,y))に対して調整後のコントラスト成分(Y_high'(x,y))を加算する際の加算量を処理対象画像の明るさの分布域に応じて調整する機能をコントラスト成分調整部109において実現する構成とすることもできる。   Further, the image processing unit 52 adds the contrast component (Y_high ′ (x, y)) after adjustment to the original luminance component (Y (x, y)) in the luminance correction unit 110. It is also possible to adopt a configuration in which the contrast component adjustment unit 109 realizes a function of adjusting the image according to the brightness distribution range of the processing target image.

すなわち、コントラスト成分調整部109は、霞除去用のコントラスト成分(Y_high(x,y))に前述した第1の調整係数と第2の調整係数、または第1の調整係数のみに加え、「(white_lev−black_lev)/256」からなる第3の調整係数を乗じる計算によって、調整後のコントラスト成分(Y_high'(x,y))を取得する構成とすることができる。コントラスト成分調整部109に係る構成を採用する場合、輝度補正部110は、単に調整後のコントラスト成分(Y_high'(x,y))を元の輝度成分(Y(x,y))に加算するだけの構成となる。   In other words, the contrast component adjustment unit 109 adds the above-described first adjustment coefficient and second adjustment coefficient or only the first adjustment coefficient to the wrinkle removal contrast component (Y_high (x, y)), and “( The contrast component (Y_high ′ (x, y)) after the adjustment can be obtained by the multiplication by the third adjustment coefficient consisting of “white_lev−black_lev) / 256”. When the configuration related to the contrast component adjustment unit 109 is adopted, the luminance correction unit 110 simply adds the adjusted contrast component (Y_high ′ (x, y)) to the original luminance component (Y (x, y)). It becomes only composition.

また、ここでは本発明の実施形態として本発明の画像処理装置を含むデジタルカメラ1について説明したが、本発明は、デジタルカメラ1以外にも、例えば動画像の記録が可能な構成を備えた他の撮像装置にも適用することができる。本発明が適用可能な撮像装置には、前述したCCD以外にも、例えばMOS(Complementary Meta1 0xide Semiconductor)型の固体撮像素子を備えたデジタルカメラや、静止画像以外にも動画像を撮影することができるデジタルカメラ、さらには動画像の撮影を主たる機能とするデジタルビデオカメラ等の種々の撮像装置が含まれる。   Further, here, the digital camera 1 including the image processing apparatus of the present invention has been described as an embodiment of the present invention. However, the present invention is not limited to the digital camera 1 and has a configuration capable of recording moving images, for example. The present invention can also be applied to this imaging apparatus. In addition to the above-described CCD, the imaging apparatus to which the present invention can be applied is capable of capturing a moving image in addition to a digital camera equipped with, for example, a MOS (Complementary Meta10xide Semiconductor) type solid-state imaging device or a still image. Various imaging devices such as a digital camera capable of capturing a moving image and a digital video camera having a main function of capturing a moving image are included.

また、本発明は、撮像装置に限らず任意の記憶媒体に画像データとして記憶されている画像を処理対象として画像処理を行う構成を有するものであれば任意の画像処理装置にも適用することができる。任意の画像処理装置には、例えば画像データに基づく画像を印刷するプリンタも含まれる。   In addition, the present invention is not limited to an imaging apparatus, and can be applied to any image processing apparatus as long as it has a configuration for performing image processing on an image stored as image data in an arbitrary storage medium. it can. The arbitrary image processing apparatus includes a printer that prints an image based on image data, for example.

そして、本発明を任意の画像処理装置に適用する場合、図2に示した画像処理部52はASIC(Application Specified Integrated Circuit)、又は任意のコンピュータのCPUと、メモリ、メモリにロードされたプログラム等によっても実現することができる。   When the present invention is applied to an arbitrary image processing apparatus, the image processing unit 52 shown in FIG. 2 includes an ASIC (Application Specified Integrated Circuit), an arbitrary computer CPU, a memory, a program loaded in the memory, and the like. Can also be realized.

1 デジタルカメラ
2 CCD
6 DSP
9 CPU
10 フラッシュメモリ
11 外部メモリ
51 撮像部
52 画像処理部
53 制御部
101 画像バッファ
102 ガンマ変換部
103 明るさ分布域取得部
104 補正特性生成部
105 階調補正部
106 YUV変換部
107 εフィルタ
108 コントラスト成分生成部
109 コントラスト成分調整部
110 輝度補正部
1 Digital camera 2 CCD
6 DSP
9 CPU
DESCRIPTION OF SYMBOLS 10 Flash memory 11 External memory 51 Image pick-up part 52 Image processing part 53 Control part 101 Image buffer 102 Gamma conversion part 103 Brightness distribution area acquisition part 104 Correction characteristic generation part 105 Gradation correction part 106 YUV conversion part 107 ε filter 108 Contrast component Generation unit 109 Contrast component adjustment unit 110 Brightness correction unit

Claims (9)

処理対象画像から高周波成分を抽出する抽出手段と、
処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得する取得手段と、
前記抽出手段により抽出された高周波成分を前記取得手段により取得された霞度合情報により示される霞の程度に応じて調整する調整手段と、
前記調整手段による調整後の高周波成分を処理対象画像に加算する加算手段と
を備えたことを特徴とする画像処理装置。
Extraction means for extracting high-frequency components from the processing target image;
Acquisition means for acquiring the degree information indicating the degree of wrinkles of the stagnation part in the processing target image;
Adjusting means for adjusting the high frequency component extracted by the extracting means according to the degree of wrinkle indicated by the degree information acquired by the acquiring means;
An image processing apparatus comprising: addition means for adding a high-frequency component adjusted by the adjustment means to a processing target image.
前記取得手段は、処理対象画像における各画素の明るさのうちで最小及び最大の明るさをそれぞれ示す明るさ情報に基づいて前記霞度合情報を取得する
ことを特徴とする請求項1記載の画像処理装置。
The image according to claim 1, wherein the acquisition unit acquires the degree information based on brightness information indicating minimum and maximum brightness among the brightness of each pixel in the processing target image. Processing equipment.
前記明るさ情報によりそれぞれ示される前記最小及び最大の明るさは、処理対象画像の全画素の各々における複数の色成分毎の画素値のうちで最大及び最小の画素値である
ことを特徴とする請求項2記載の画像処理装置。
The minimum and maximum brightness respectively indicated by the brightness information are maximum and minimum pixel values among pixel values for each of a plurality of color components in each of all pixels of the processing target image. The image processing apparatus according to claim 2.
前記取得手段は、前記霞度合情報として、前記明るさ情報により示される処理対象画像における明るさの分布幅と表現可能な明るさの最大幅との差を取得する
ことを特徴とする請求項2又は3記載の画像処理装置。
The said acquisition means acquires the difference of the distribution width of the brightness in the process target image shown with the said brightness information, and the maximum width of the expressible brightness as said brightness degree information. Or the image processing apparatus of 3.
前記調整手段による高周波成分の調整は、高周波成分の帯域幅の調整であることを特徴とする請求項1乃至4いずれか記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the adjustment of the high frequency component by the adjusting unit is adjustment of a bandwidth of the high frequency component. 前記調整手段は、前記抽出手段により抽出された高周波成分を、前記取得手段により取得された霞度合情報により示される霞の程度に加え、処理対象画像の対応する画素の明るさに応じて画素毎に調整する
ことを特徴とする請求項1乃至5いずれか記載の画像処理装置。
The adjustment unit adds the high-frequency component extracted by the extraction unit to each pixel according to the brightness of the corresponding pixel of the processing target image in addition to the degree of wrinkle indicated by the degree information acquired by the acquisition unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is adjusted to the following.
処理対象画像における各画素の明るさのうちで最小及び最大の明るさをそれぞれ示す明るさ情報に基づき、処理対象画像に応じた補正曲線を生成する生成手段と、
前記生成手段により生成された補正曲線に従い処理対象画像の階調を補正する補正手段とを備え、
前記抽出手段は、前記補正手段による階調補正後の処理対象画像から高周波成分を抽出し、
前記取得手段は、前記補正手段による階調補正前の処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得し、
前記加算手段は、前記調整手段による調整後の高周波成分を、前記補正手段による階調補正後の処理対象画像に加算する
ことを特徴とする請求項1乃至6いずれか記載の画像処理装置。
Generating means for generating a correction curve corresponding to the processing target image based on brightness information indicating the minimum and maximum brightness among the brightness of each pixel in the processing target image;
Correction means for correcting the gradation of the processing target image according to the correction curve generated by the generation means,
The extraction unit extracts a high frequency component from the processing target image after the gradation correction by the correction unit,
The acquisition means acquires the degree information indicating the degree of wrinkles of the stagnation part in the processing target image before gradation correction by the correction means,
The image processing apparatus according to claim 1, wherein the adding unit adds the high-frequency component adjusted by the adjusting unit to a processing target image after gradation correction by the correcting unit.
前記調整手段は、前記抽出手段により抽出された高周波成分を、前記取得手段により取得された霞度合情報により示される霞の程度に加え、前記補正手段による階調補正前の処理対象画像における各画素の明るさの分布幅に応じて調整する
ことを特徴とする請求項7記載の画像処理装置。
The adjusting means adds the high-frequency component extracted by the extracting means to each pixel in the processing target image before gradation correction by the correcting means, in addition to the degree of wrinkle indicated by the degree information acquired by the acquiring means. The image processing apparatus according to claim 7, wherein the image processing apparatus is adjusted in accordance with a distribution width of brightness.
コンピュータに、
処理対象画像から高周波成分を抽出する手順と、
処理対象画像における霞んだ部分の霞の程度を示す霞度合情報を取得する手順と、
前記抽出手段により抽出された高周波成分を前記取得手段により取得された霞度合情報により示される霞の程度に応じて調整する手順と、
前記調整手段による調整後の高周波成分を処理対象画像に加算する手順と
を実行させることを特徴とする画像処理プログラム。
On the computer,
A procedure for extracting high-frequency components from the processing target image;
A procedure for obtaining the degree information indicating the degree of wrinkles of the stagnation part in the processing target image;
A procedure for adjusting the high-frequency component extracted by the extracting means according to the degree of wrinkle indicated by the degree information acquired by the acquiring means;
And a step of adding a high-frequency component adjusted by the adjusting means to a processing target image.
JP2009146035A 2009-06-19 2009-06-19 Image processing apparatus and image processing program Expired - Fee Related JP5343726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009146035A JP5343726B2 (en) 2009-06-19 2009-06-19 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009146035A JP5343726B2 (en) 2009-06-19 2009-06-19 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2011003048A true JP2011003048A (en) 2011-01-06
JP5343726B2 JP5343726B2 (en) 2013-11-13

Family

ID=43560949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009146035A Expired - Fee Related JP5343726B2 (en) 2009-06-19 2009-06-19 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5343726B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221237A (en) * 2011-04-08 2012-11-12 Olympus Corp Haze removal image processing system, haze removal image processing method and haze removal image processing program
KR101292421B1 (en) * 2011-08-05 2013-08-01 경희대학교 산학협력단 Method for improving foggy image by unit image block
WO2014077126A1 (en) * 2012-11-13 2014-05-22 日本電気株式会社 Image processing device, image processing method, and program
JP2014135545A (en) * 2013-01-08 2014-07-24 Hitachi Ltd Image pickup device, image pickup system, and image pickup method
JP2014232938A (en) * 2013-05-28 2014-12-11 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2015075952A1 (en) * 2013-11-25 2015-05-28 日本システムウエア株式会社 Image processing device, image processing method, and control program
JP2015211341A (en) * 2014-04-25 2015-11-24 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, and program
JP2016015069A (en) * 2014-07-03 2016-01-28 セイコーエプソン株式会社 Image processing device, image processing method and program
US9317910B2 (en) 2014-03-27 2016-04-19 Hanwha Techwin Co., Ltd. Defogging system and defogging method
US9473692B2 (en) 2014-04-03 2016-10-18 Olympus Corporation Image processing apparatus, imaging apparatus, and determination method for controlling light emission
US9489591B2 (en) 2014-07-25 2016-11-08 Socionext, Inc. Haze image discriminating apparatus and discriminating method
KR20170044844A (en) * 2015-10-16 2017-04-26 삼성전자주식회사 Image haze removing device
US9846925B2 (en) 2015-05-08 2017-12-19 Hanwha Techwin Co., Ltd. Defog system and defog method
JP2021113872A (en) * 2020-01-17 2021-08-05 アルパイン株式会社 Image display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06113308A (en) * 1992-09-25 1994-04-22 Daihatsu Motor Co Ltd Picture processing method in on-vehicle image pickup device
JPH11278182A (en) * 1998-03-31 1999-10-12 Nissan Motor Co Ltd Fog status detection device for vehicle
JP2001298621A (en) * 2000-02-07 2001-10-26 Sony Corp Image processor and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06113308A (en) * 1992-09-25 1994-04-22 Daihatsu Motor Co Ltd Picture processing method in on-vehicle image pickup device
JPH11278182A (en) * 1998-03-31 1999-10-12 Nissan Motor Co Ltd Fog status detection device for vehicle
JP2001298621A (en) * 2000-02-07 2001-10-26 Sony Corp Image processor and image processing method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221237A (en) * 2011-04-08 2012-11-12 Olympus Corp Haze removal image processing system, haze removal image processing method and haze removal image processing program
KR101292421B1 (en) * 2011-08-05 2013-08-01 경희대학교 산학협력단 Method for improving foggy image by unit image block
JPWO2014077126A1 (en) * 2012-11-13 2017-01-05 日本電気株式会社 Image processing apparatus, image processing method, and program
WO2014077126A1 (en) * 2012-11-13 2014-05-22 日本電気株式会社 Image processing device, image processing method, and program
US9621766B2 (en) 2012-11-13 2017-04-11 Nec Corporation Image processing apparatus, image processing method, and program capable of performing high quality mist/fog correction
JP2014135545A (en) * 2013-01-08 2014-07-24 Hitachi Ltd Image pickup device, image pickup system, and image pickup method
JP2014232938A (en) * 2013-05-28 2014-12-11 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2015103001A (en) * 2013-11-25 2015-06-04 日本システムウエア株式会社 Image processing apparatus, image processing method, and control program
WO2015075952A1 (en) * 2013-11-25 2015-05-28 日本システムウエア株式会社 Image processing device, image processing method, and control program
US9639916B2 (en) 2013-11-25 2017-05-02 Nippon Systemware Co., Ltd. Image processing device, and image processing method
US9317910B2 (en) 2014-03-27 2016-04-19 Hanwha Techwin Co., Ltd. Defogging system and defogging method
US9473692B2 (en) 2014-04-03 2016-10-18 Olympus Corporation Image processing apparatus, imaging apparatus, and determination method for controlling light emission
JP2015211341A (en) * 2014-04-25 2015-11-24 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, and program
JP2016015069A (en) * 2014-07-03 2016-01-28 セイコーエプソン株式会社 Image processing device, image processing method and program
US9489591B2 (en) 2014-07-25 2016-11-08 Socionext, Inc. Haze image discriminating apparatus and discriminating method
US9846925B2 (en) 2015-05-08 2017-12-19 Hanwha Techwin Co., Ltd. Defog system and defog method
KR20170044844A (en) * 2015-10-16 2017-04-26 삼성전자주식회사 Image haze removing device
KR102461144B1 (en) 2015-10-16 2022-10-31 삼성전자주식회사 Image haze removing device
JP2021113872A (en) * 2020-01-17 2021-08-05 アルパイン株式会社 Image display device

Also Published As

Publication number Publication date
JP5343726B2 (en) 2013-11-13

Similar Documents

Publication Publication Date Title
JP5343726B2 (en) Image processing apparatus and image processing program
JP4803284B2 (en) Image processing apparatus and image processing program
JP5157753B2 (en) Image processing apparatus, image processing method, and image processing program
US8155441B2 (en) Image processing apparatus, image processing method, and program for color fringing estimation and compensation
US20060215908A1 (en) Image pickup apparatus and image processing method
JP2009153013A (en) Imaging apparatus, color noise reduction method, and color noise reduction program
WO2008032517A1 (en) Image processing device and image processing method, and image pickup device and image pickup method
JP4810473B2 (en) Image processing apparatus and image processing program
JP5901667B2 (en) Image processing apparatus and method, image processing program, and imaging apparatus
JP4900419B2 (en) Image processing apparatus and image processing program
JPWO2006134923A1 (en) Image processing apparatus, computer program product, and image processing method
JP5701640B2 (en) Image processing device
JP2003304549A (en) Camera and image signal processing system
JP4944061B2 (en) Image processing apparatus and method, and program
JP5259616B2 (en) Image processing system and image processing program
JP5932392B2 (en) Image processing apparatus and image processing method
JP2015139082A (en) Image processor, image processing method, program and electronic apparatus
JP2002288650A (en) Image processing device, digital camera, image processing method and recording medium
JP2006333113A (en) Imaging device
JP2012044560A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2016040870A (en) Image processing apparatus, image forming method and program
JP2004159087A (en) Scanner system and image processing program
JPH11164309A (en) Image signal processing method and electronic camera
JP5586031B2 (en) Image processing system, image processing method, and image processing program
JP2020182163A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130729

R150 Certificate of patent or registration of utility model

Ref document number: 5343726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees