JP2019040382A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2019040382A
JP2019040382A JP2017161721A JP2017161721A JP2019040382A JP 2019040382 A JP2019040382 A JP 2019040382A JP 2017161721 A JP2017161721 A JP 2017161721A JP 2017161721 A JP2017161721 A JP 2017161721A JP 2019040382 A JP2019040382 A JP 2019040382A
Authority
JP
Japan
Prior art keywords
area
image
gradation
color temperature
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017161721A
Other languages
Japanese (ja)
Inventor
福井 貴明
Takaaki Fukui
貴明 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017161721A priority Critical patent/JP2019040382A/en
Publication of JP2019040382A publication Critical patent/JP2019040382A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To generate a desirable image with wide dynamic range and high contrast by reducing coloration generated at boundaries between areas in a scene photographed at different color temperature when correcting by setting gradation characteristic for each area.SOLUTION: An image processing device determines a subject area of an input image, and detects a first image recognition area and a second image recognition area other than the first image recognition area from the result of subject area determination, and determines first gradation correction amount on the basis of image evaluation values detected in the first image recognition area and the second image recognition area, then detects color temperature of the first image recognition area and the second image recognition area, further, calculates color temperature difference, and determines second gradation correction amount on the basis of gradation characteristic determined from the color temperature difference and the first gradation correction amount.SELECTED DRAWING: Figure 7

Description

本発明は、出力画像の階調補正を行う画像処理技術に関する。   The present invention relates to an image processing technique for correcting gradation of an output image.

従来から、ハイダイナミックレンジ合成(HDR)や覆い焼き等、ダイナミックレンジが拡大された入力信号に対して、階調圧縮を行って出力する処理がある。   Conventionally, there is a process of performing gradation compression on an input signal with an expanded dynamic range, such as high dynamic range synthesis (HDR) or dodging, and outputting the result.

特許文献1には、入力画像に対して被写体領域の判定を行い、被写体領域の判定結果を用いて被写体領域毎の代表輝度値とヒストグラムを算出し、代表輝度値から被写体領域毎の階調補正量を算出して、階調特性を決定する技術が提案されている。   In Patent Document 1, a subject area is determined for an input image, a representative luminance value and a histogram for each subject area are calculated using the determination result of the subject area, and gradation correction for each subject area is performed from the representative luminance value. A technique for calculating the amount and determining the gradation characteristic has been proposed.

特開2014−153959号公報JP 2014-153959 A

しかしながら、特許文献1では、背景領域と被写体領域とくに人物領域との間に色温度差分がある場合、被写体のエッジ部分に色つきが発生してしまうという問題点がある。   However, in Patent Document 1, there is a problem that coloring occurs in the edge portion of the subject when there is a color temperature difference between the background region and the subject region, particularly the person region.

特にストロボ発光時においては、被写体にストロボ光があたっている部分と背景部分のストロボが非照射領域において、色温度が異なる場合が多く、顕著に発生しやすい。   In particular, when strobe light is emitted, the color temperature of the portion where the subject is exposed to strobe light and the strobe of the background portion are often different in the non-irradiated region, and this is likely to occur remarkably.

上記の課題を解決するために、本発明に係る画像処理装置は、
画像の階調補正を行う画像処理装置であって、
入力画像に対して被写体領域の判定を行う被写体領域判定手段と、
前記被写体領域判定手段の結果から第1の画像認識領域と、
前記第1画像認識領域以外の第2の画像認識領域を検出する手段と、
前記第1の画像認識領域において前記画質評価値算出手段により検出された画像評価値および前記第2の画像認識領域において前記画質評価値算出手段により検出された画像評価値に基づいて第1の階調補正量を決定する第1の階調補正量決定手段と、
前記第1の画像認識領域およびに前記第2の画像認識領域の色温度を検出し、色温度差分を算出する色温度差分検出手段と、
前記色温度差分と前記第1の階調補正量決定手段によって決定された諧調特性に基づいて、第2の階調補正量を決定する第2の階調特性決定手段と、
を有し、
前記第2の階調補正量決定手段によって決定された諧調補正量に基づいて、前画像諧調補正を行う手段を有することを特徴とする。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
An image processing apparatus that performs gradation correction of an image,
Subject region determination means for determining a subject region for an input image;
From the result of the subject area determination means, a first image recognition area,
Means for detecting a second image recognition area other than the first image recognition area;
Based on the image evaluation value detected by the image quality evaluation value calculation means in the first image recognition area and the image evaluation value detected by the image quality evaluation value calculation means in the second image recognition area. First gradation correction amount determining means for determining a tone correction amount;
Color temperature difference detection means for detecting a color temperature of the first image recognition area and the second image recognition area and calculating a color temperature difference;
Second gradation characteristic determining means for determining a second gradation correction amount based on the color temperature difference and the gradation characteristic determined by the first gradation correction amount determining means;
Have
The image processing apparatus further comprises means for correcting the previous image gradation based on the gradation correction amount determined by the second gradation correction amount determining means.

本発明に係る画像処理装置によれば、各領域毎に諧調特性を設定して補正を行うにあたり、異なる色温度で撮影されたシーンにおいて、領域毎の境界部分で発生する色つきを低減させることにより、広ダイナミックレンジかつ高コントラストな好ましい画像を生成することができる。   According to the image processing apparatus of the present invention, in setting a gradation characteristic for each area and performing correction, in a scene shot at a different color temperature, the coloring generated at the boundary portion for each area is reduced. Thus, a preferable image having a wide dynamic range and high contrast can be generated.

本発明に係る実施形態の装置構成を示すブロック図The block diagram which shows the apparatus structure of embodiment which concerns on this invention. 画像処理部の構成の一部を示すブロック図Block diagram showing a part of the configuration of the image processing unit 露光量算出部の構成を示すブロック図Block diagram showing the configuration of the exposure calculation unit 階調補正量を算出する処理を示すフローチャートFlow chart showing processing for calculating gradation correction amount ゲイン処理部の構成を示すブロック図Block diagram showing the configuration of the gain processing unit 露光量算出処理を示すフローチャートFlow chart showing exposure calculation processing 画像処理部による階調処理を示すフローチャートFlow chart showing gradation processing by image processing unit 階調特性算出部による処理を示すフローチャートFlow chart showing processing by gradation characteristic calculation unit 領域間の輝度段差に加え目標露光量と露光量の決定方法を説明する図The figure explaining the target exposure amount and the determination method of the exposure amount in addition to the luminance step between regions 領域間の輝度段差の算出方法を説明する図The figure explaining the calculation method of the brightness | luminance level difference between area | regions 黒体放射軸上の色温度とWB評価値との関係を示した概念図Conceptual diagram showing the relationship between the color temperature on the blackbody radiation axis and the WB evaluation value 各領域で実現したい入出力特性を説明する図Diagram explaining input / output characteristics to be realized in each area HUMAN_POINT、BACK_POINT、SKY_POINTの算出方法を説明する図The figure explaining the calculation method of HUMAN_POINT, BACK_POINT, SKY_POINT 各領域で実現したい入出力特性と、ダイナミックレンジ優先とコントラスト優先の階調特性を説明する図Diagram explaining input / output characteristics to be realized in each area and dynamic range priority and contrast priority gradation characteristics 領域毎の階調補正量を適応する入力信号の範囲を説明する図The figure explaining the range of the input signal which adapts the gradation correction amount for every area 領域間の輝度段差を2種類の階調特性の加重加算係数に用いることにより得られる効果を説明する図The figure explaining the effect acquired by using the brightness | luminance level difference between area | regions as the weighted addition coefficient of two types of gradation characteristics 階調特性からゲインテーブルへの変換を説明する図The figure explaining the conversion from a gradation characteristic to a gain table γ特性による階調圧縮処理を説明する図The figure explaining the gradation compression processing by γ characteristics 第2の諧調補正量算出手段のフローを示したフローチャートThe flowchart which showed the flow of the 2nd gradation correction amount calculation means 顔サイズ・隣接ブロック、色温度差分による線形補間係数の例Example of linear interpolation coefficient based on face size, adjacent block, and color temperature difference 第2実施例におけるストロボ発光領域算出するための画像取得のタイミングを示したタイミングチャートTiming chart showing timing of image acquisition for calculating strobe light emission area in the second embodiment 第2実施例におけるストロボ発光領域の算出する例Example of calculating the strobe emission area in the second embodiment

以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   Hereinafter, embodiments for carrying out the present invention will be described in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

[実施例1]
以下、本発明の画像処理装置を、例えば、デジタルスチルカメラやデジタルビデオカメラ等に代表される撮像装置に適用した実施形態について説明する。図1を参照して、本発明に係る実施形態の撮像装置の構成及び機能の概略について説明する。
[Example 1]
Hereinafter, an embodiment in which the image processing apparatus of the present invention is applied to an imaging apparatus represented by, for example, a digital still camera or a digital video camera will be described. With reference to FIG. 1, an outline of a configuration and functions of an imaging apparatus according to an embodiment of the present invention will be described.

本実施形態は、画像領域の情報を用いて最適な階調処理を行う。なお、本実施形態は、本発明による効果が最も高い逆光時の人物シーンを想定し、人物が最も暗く、空が最も明るいシーンを想定した階調処理について説明する。ただし、本発明の技術思想は上記シーン以外にも適用可能であることは言うまでもない。   In the present embodiment, optimum gradation processing is performed using information on the image area. In the present embodiment, a gradation process is described assuming a scene of a backlit person scene having the highest effect of the present invention and assuming a scene where the person is darkest and the sky is brightest. However, it goes without saying that the technical idea of the present invention can be applied to other than the above scenes.

図1において、光学系101は、ズームレンズやフォーカスレンズから構成されるレンズ群、絞り調整装置、および、シャッタ装置を備えている。この光学系101は、撮像部102に結像される被写体像の倍率やピント位置、あるいは、入射光量を調整する。撮像部102は、光学系101を通過した被写体の光束を光電変換するCCDやCMOS等の光電変換素子からなるイメージセンサを含む。A/D変換部103は、撮像部102から入力された映像信号をデジタルの画像に変換する。   In FIG. 1, the optical system 101 includes a lens group including a zoom lens and a focus lens, a diaphragm adjusting device, and a shutter device. The optical system 101 adjusts the magnification, focus position, or incident light quantity of the subject image formed on the imaging unit 102. The imaging unit 102 includes an image sensor including a photoelectric conversion element such as a CCD or a CMOS that photoelectrically converts a light beam of a subject that has passed through the optical system 101. The A / D conversion unit 103 converts the video signal input from the imaging unit 102 into a digital image.

画像処理部104は、通常の信号処理に加えて、後述する階調処理を行う。画像処理部104はA/D変換部103から出力されたデジタル画像信号だけでなく、記録部110から読み出された画像データに対しても同様の画像処理を行うことができる。   The image processing unit 104 performs gradation processing described later in addition to normal signal processing. The image processing unit 104 can perform similar image processing not only on the digital image signal output from the A / D conversion unit 103 but also on the image data read from the recording unit 110.

露光量算出部105は、本実施形態の階調処理を行うために最適な入力画像を得るために、撮影時の露光量を算出する。露光量算出部105は、画像処理部104による処理結果を入力し、算出した露光量を露光量制御部106へ出力する。露光量算出部105の詳細については後述する。露光量制御部106は、露光量算出部105により算出された露光量に応じて、光学系101と撮像部102を制御して、絞り、シャッタスピード、撮像部102のアナログゲインを制御する。   The exposure amount calculation unit 105 calculates an exposure amount at the time of shooting in order to obtain an optimal input image for performing the gradation processing of the present embodiment. The exposure amount calculation unit 105 inputs the processing result obtained by the image processing unit 104 and outputs the calculated exposure amount to the exposure amount control unit 106. Details of the exposure amount calculation unit 105 will be described later. The exposure amount control unit 106 controls the optical system 101 and the imaging unit 102 according to the exposure amount calculated by the exposure amount calculation unit 105, and controls the aperture, shutter speed, and analog gain of the imaging unit 102.

システム制御部107は、本実施形態の装置全体の動作を統括して制御する。画像処理部104で処理された画像信号から得られる輝度値や操作部108から送信された指示信号に基づいて、光学系101や撮像部102の駆動制御も行う。表示部109は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイで構成され、撮像部102で生成された画像信号や、記録部110から読み出した画像データを表示する。   The system control unit 107 controls the overall operation of the apparatus according to the present embodiment. Based on the luminance value obtained from the image signal processed by the image processing unit 104 and the instruction signal transmitted from the operation unit 108, drive control of the optical system 101 and the imaging unit 102 is also performed. The display unit 109 is configured by a liquid crystal display or an organic EL (Electro Luminescence) display, and displays the image signal generated by the imaging unit 102 and the image data read from the recording unit 110.

記録部110は、画像データを記録する機能を有し、例えば、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた情報記録媒体を含んでも良いし、この情報記録媒体を着脱可能にしても良い。バス111は、画像処理部104、システム制御部107、表示部109、および、記録部110の間で画像信号や制御信号を伝送するための伝送路である。   The recording unit 110 has a function of recording image data, and may include, for example, an information recording medium using a package containing a rotating recording body such as a memory card on which a semiconductor memory is mounted or a magneto-optical disk. The information recording medium may be detachable. A bus 111 is a transmission path for transmitting image signals and control signals among the image processing unit 104, the system control unit 107, the display unit 109, and the recording unit 110.

次に、図3を参照して、露光量算出部105の構成及び機能について説明する。露光量算出部105は、階調処理を行うために最適な露光量で撮影された画像信号を得るために必要な露光量を算出する。本実施形態では、露光量の算出についても画像領域の情報を用いる。なお、以下では、露光量算出部105への入力情報として、図2に示す画像処理部104の領域別輝度値算出部203の出力結果を用いる。画像処理部104の構成及び機能については後述する。   Next, the configuration and function of the exposure amount calculation unit 105 will be described with reference to FIG. The exposure amount calculation unit 105 calculates an exposure amount necessary for obtaining an image signal photographed with an optimum exposure amount for performing gradation processing. In the present embodiment, image area information is also used for calculating the exposure amount. In the following, as the input information to the exposure amount calculation unit 105, the output result of the area-specific luminance value calculation unit 203 of the image processing unit 104 shown in FIG. 2 is used. The configuration and function of the image processing unit 104 will be described later.

露光量算出部105は、領域別輝度値算出部203の出力結果を入力して、主被写体出力輝度値算出部301と領域間輝度段差算出部302で処理を行った後、露光量決定部303で露光量を決定し、露光量制御部106へ出力する。   The exposure amount calculation unit 105 receives the output result of the region-specific luminance value calculation unit 203 and performs processing by the main subject output luminance value calculation unit 301 and the inter-region luminance level calculation unit 302, and then the exposure amount determination unit 303. Then, the exposure amount is determined and output to the exposure amount control unit 106.

図6は、露光量を算出するための画像信号を取得してから、露光量算出部105で露光量を算出するまでの処理を示し、S601からS603までが画像処理部104で行う処理、S604からS606までが露光量算出部105で行う処理である。なお、図6の処理は、システム制御部107が、不揮発性メモリに格納されたプログラムを、揮発性メモリのワークエリアに展開し、上記各部を制御することにより実現される。   FIG. 6 shows processing from acquisition of an image signal for calculating the exposure amount to calculation of the exposure amount by the exposure amount calculation unit 105. Processing from S601 to S603 is performed by the image processing unit 104, S604. The process from step S606 to step S606 is performed by the exposure amount calculation unit 105. 6 is realized by the system control unit 107 developing a program stored in the nonvolatile memory in the work area of the volatile memory and controlling the above-described units.

S601では、画像処理部104は、露光量を算出するために撮像部102により撮像された画像信号を取得する。S602では、画像処理部104は、S601で取得した画像信号から領域の認識を行う。本実施形態では、領域として、人物の顔領域、人物の顔以外の体領域、雲・太陽等を含む空領域、上記以外の領域を背景領域として合計4つの領域を認識する。図9(a)は、入力画像に対して領域認識を行った結果を例示している。領域の認識方法については、ニューラルネットワークによる学習データを用いた物体認識等、公知の方法で良い(特開2006−39666号公報)。また、領域の認識方法については、1画素毎ではなく、一定のサイズで区切られたブロック毎に認識する方法でもよい。   In step S601, the image processing unit 104 acquires an image signal captured by the imaging unit 102 in order to calculate an exposure amount. In step S602, the image processing unit 104 recognizes a region from the image signal acquired in step S601. In the present embodiment, a total of four areas are recognized as areas of a person's face area, a body area other than the person's face, a sky area including clouds and the sun, and other areas as background areas. FIG. 9A illustrates the result of area recognition performed on the input image. As the region recognition method, a known method such as object recognition using learning data by a neural network may be used (Japanese Patent Laid-Open No. 2006-39666). In addition, the region recognition method may be a method of recognizing every block divided by a certain size, not every pixel.

S603では、画像処理部104は、S602での領域認識結果を用いて、領域毎の代表輝度値を算出する。代表輝度値は、該当する領域内の輝度信号の平均値、もしくは座標に応じた重み付けによる加重平均値とする。代表輝度値を算出する領域として、人物の顔領域、空領域、人物の顔領域と空領域以外の背景領域の3つの領域を算出する。   In S603, the image processing unit 104 calculates a representative luminance value for each region using the region recognition result in S602. The representative luminance value is an average value of luminance signals in the corresponding area or a weighted average value by weighting according to coordinates. As areas for calculating the representative luminance values, three areas are calculated: a human face area, an empty area, a human face area, and a background area other than the empty area.

以下では、各領域の代表輝度値をそれぞれ、HUMAN_Y、BACK_Y、SKY_Yと呼ぶ。また、本実施形態では、人物の顔領域と空領域の各代表輝度値は、該当する領域内の輝度信号の平均値から算出し、背景領域の代表輝度値は、座標に応じた重み付けによる加重平均値から算出する。S604では、露光量算出部105は、S603で算出した各領域の代表輝度値を用いて領域間の輝度段差を算出する。以下、算出した主被写体である人物の顔領域の出力輝度値をHUMAN_OUT_Yとする。詳細は後述する。   Hereinafter, the representative luminance values of the respective regions are referred to as HUMAN_Y, BACK_Y, and SKY_Y, respectively. In this embodiment, the representative luminance values of the human face area and sky area are calculated from the average value of the luminance signals in the corresponding area, and the representative luminance value of the background area is weighted by weighting according to the coordinates. Calculate from the average value. In step S604, the exposure amount calculation unit 105 calculates a luminance step between regions using the representative luminance value of each region calculated in step S603. Hereinafter, the calculated output luminance value of the face area of the person who is the main subject is referred to as HUMAN_OUT_Y. Details will be described later.

S605では、露光量算出部105は、入力画像とS603で算出された各領域の代表輝度値を用いて主被写体の出力輝度値を算出する。以下、人物の顔領域と背景領域の輝度段差をΔHB、背景領域と空領域の輝度段差をΔBS、人物の顔領域と空領域の輝度段差をΔHSとする。   In S605, the exposure amount calculation unit 105 calculates the output luminance value of the main subject using the input image and the representative luminance value of each area calculated in S603. Hereinafter, it is assumed that the luminance step between the human face region and the background region is ΔHB, the luminance step between the background region and the sky region is ΔBS, and the luminance step between the human face region and the sky region is ΔHS.

S606では、露光量算出部105は、S604で算出した領域間の輝度段差ΔHB、ΔBS、ΔHSと、S605で算出した主被写体の出力輝度値HUMAN_OUT_Yを入力し、階調処理を行うために最適な画像を撮影するための露光量を決定する。詳細は後述する。   In step S606, the exposure amount calculation unit 105 receives the luminance steps ΔHB, ΔBS, and ΔHS between the areas calculated in step S604 and the output luminance value HUMAN_OUT_Y of the main subject calculated in step S605, and is optimal for performing gradation processing. An exposure amount for taking an image is determined. Details will be described later.

<輝度段差算出方法>
次に、S604の領域間の輝度段差の算出について図9(b)を用いて説明する。図9(b)は、入力画像の露光量を基準に各領域の目標露光量を例示している。目標露光量とは、算出対象の領域の代表輝度値を目標輝度値にするために、入力画像の露光量から何段オーバー、何段アンダーの露光量に設定すれば良いかを示すものである。
<Luminance level calculation method>
Next, the calculation of the luminance step between the areas in S604 will be described with reference to FIG. FIG. 9B illustrates the target exposure amount of each region based on the exposure amount of the input image. The target exposure amount indicates how many steps over and under the exposure amount should be set from the exposure amount of the input image in order to set the representative luminance value of the calculation target region to the target luminance value. .

露光量オーバーとは入力画像の露光量よりも大きくすること、露光量アンダーとは入力画像の露光量よりも小さくすることを示す。なお、目標輝度値は各領域によって予め決定された値である。   Overexposure means to make it larger than the exposure amount of the input image, and underexposure means to make it smaller than the exposure amount of the input image. The target luminance value is a value determined in advance by each area.

各領域の代表輝度値をHUMAN_Y、BACK_Y、SKY_Yとし、各領域の目標輝度値をHUMAN_ref_Y、BACK_ref_Y、SKY_ref_Yとする。各領域の目標露光量ΔBV_HUMAN_ref、ΔBV_BACK_ref、ΔBV_SKY_refは、式1によって算出される。   The representative luminance values of each area are HUMAN_Y, BACK_Y, and SKY_Y, and the target luminance values of each area are HUMAN_ref_Y, BACK_ref_Y, and SKY_ref_Y. The target exposure amounts ΔBV_HUMAN_ref, ΔBV_BACK_ref, and ΔBV_SKY_ref for each region are calculated by Equation 1.

ΔBV_HUMAN_ref=LOG2(HUMAN_ref_Y/HUMAN_Y)
ΔBV_BACK_ref=LOG2(BACK_ref_Y/BACK_Y)
ΔBV_SKY_ref=LOG2(SKY_ref_Y/SKY_Y)
・・・(1)
式1によって算出された各領域の目標露光量から各領域間の輝度段差を算出する。ΔHB、ΔBS、ΔHSはそれぞれ、式2から算出される。
ΔBV_HUMAN_ref = LOG2 (HUMAN_ref_Y / HUMAN_Y)
ΔBV_BACK_ref = LOG2 (BACK_ref_Y / BACK_Y)
ΔBV_SKY_ref = LOG2 (SKY_ref_Y / SKY_Y)
... (1)
A luminance level difference between the areas is calculated from the target exposure amount of each area calculated by Expression 1. ΔHB, ΔBS, and ΔHS are calculated from Equation 2, respectively.

ΔHB=ABS(ΔBV_HUMAN_ref−ΔBV_BACK_ref)
ΔBS=ABS(ΔBV_BACK _ref−ΔBV_SKY_ref)
ΔHS=ABS(ΔBV_HUMAN_ref−ΔBV_SKY_ref)
・・・(2)
式2によって算出された各領域間の輝度段差ΔHB、ΔBS、ΔHSは、S606の露光量を決定する処理で用いる。
ΔHB = ABS (ΔBV_HUMAN_ref−ΔBV_BACK_ref)
ΔBS = ABS (ΔBV_BACK_ref−ΔBV_SKY_ref)
ΔHS = ABS (ΔBV_HUMAN_ref−ΔBV_SKY_ref)
... (2)
The luminance steps ΔHB, ΔBS, and ΔHS between the areas calculated by Expression 2 are used in the process of determining the exposure amount in S606.

<目標輝度値算出方法>
次に、S605における主被写体の出力輝度値を算出方法について説明を行う。
<Target luminance value calculation method>
Next, a method for calculating the output luminance value of the main subject in S605 will be described.

主被写体の出力輝度値とは、前述の目標輝度値とは別であり、後の撮影画像で最終的に出力したい主被写体領域の輝度値を示す。本実施形態では、人物が含まれるシーンの場合、人物を主被写体として考えるため、人物の顔領域の出力輝度値を算出する。本実施形態では、出力輝度値の算出方法として、人物の顔領域のみの輝度値と画像全体の輝度値の関係を見て最終的な人物の顔領域の輝度値を決定する公知の方法を用いる(例えば、特許第4789776号公報)。   The output luminance value of the main subject is different from the above-described target luminance value, and indicates the luminance value of the main subject region that is finally desired to be output in a later captured image. In the present embodiment, in the case of a scene including a person, the output luminance value of the face area of the person is calculated in order to consider the person as the main subject. In this embodiment, as a method for calculating the output luminance value, a known method for determining the final luminance value of the human face region by using the relationship between the luminance value of only the human face region and the luminance value of the entire image is used. (For example, Japanese Patent No. 4778976).

なお、この方法に限らず、領域間の輝度段差を用いて、中間輝度に位置する被写体を基準にして、人物の顔領域の輝度値を決定する方法を用いても良い。また、人物の顔領域の目標輝度値をそのまま出力輝度値としても良い。   Note that the present invention is not limited to this method, and a method of determining the luminance value of the person's face region using a luminance step between the regions with reference to the subject located at the intermediate luminance may be used. Further, the target luminance value of the person's face area may be used as the output luminance value as it is.

<露光量決定方法>
次に、S606における主被写体の露出量の決定方法について図9(c)を用いて説明を行う。図9(c)は、入力画像信号の露光量に対する各領域の出力露光量を例示している。出力露光量とは、最終的に出力したい各領域の明るさを実現するために、入力画像の露光量に対し、何段オーバー、何段アンダーの露光量に設定すれば良いかを示したものである。人物の顔領域、背景領域、空領域の出力露光量をそれぞれ、ΔBV_HUMAN、ΔBV_BACK、ΔBV_SKYとすると、各領域の出力露光量は、式3から算出される。
<Exposure amount determination method>
Next, the method for determining the exposure amount of the main subject in S606 will be described with reference to FIG. FIG. 9C illustrates the output exposure amount of each region with respect to the exposure amount of the input image signal. The output exposure amount indicates how many steps over and under the exposure amount should be set with respect to the exposure amount of the input image in order to realize the brightness of each area to be finally output. It is. Assuming that the output exposure amounts of the human face region, background region, and sky region are ΔBV_HUMAN, ΔBV_BACK, and ΔBV_SKY, respectively, the output exposure amount of each region is calculated from Equation 3.

ΔBV_HUMAN=LOG2(HUMAN_OUT_Y/HUMAN_Y)
ΔBV_BACK=ΔBV_HUMAN−ΔHB/2
ΔBV_SKY=ΔBV_HUMAN−ΔHS/2
・・・(3)
式3のように、S605で算出した出力輝度値により決定された主被写体の露光量を基準に、S604で算出した領域間の輝度段差を1/2に縮めた段差を維持するように主被写体以外の領域の露光量を決定する。
ΔBV_HUMAN = LOG2 (HUMAN_OUT_Y / HUMAN_Y)
ΔBV_BACK = ΔBV_HUMAN−ΔHB / 2
ΔBV_SKY = ΔBV_HUMAN−ΔHS / 2
... (3)
As shown in Equation 3, the main subject is maintained so as to maintain the level difference between the areas calculated in S604 by ½, based on the exposure amount of the main object determined by the output luminance value calculated in S605. The exposure amount of the area other than is determined.

各領域の出力露光量のうち、最も露光量の小さい出力露光量を、階調処理を行うために最適な画像を撮影するための露光量として決定する。つまり、各領域のうち、最も露光量の小さい出力露光量である空領域のΔBV_SKYを撮影時の露光量として決定する。本実施形態では上述した方法により撮影時の露光量を決定するが、この方法に加え、主被写体の出力露光量に対してある一定の値までしか露光量を小さくできない等、露光量を小さくできる上限を設けて撮影時の露光量を決定しても良い。   The output exposure amount having the smallest exposure amount among the output exposure amounts of the respective regions is determined as the exposure amount for photographing the optimum image for performing the gradation processing. That is, among each region, ΔBV_SKY of the empty region that is the smallest output exposure amount is determined as the exposure amount at the time of photographing. In this embodiment, the exposure amount at the time of shooting is determined by the method described above. In addition to this method, the exposure amount can be reduced, for example, the exposure amount can be reduced only to a certain value with respect to the output exposure amount of the main subject. An upper limit may be provided to determine the exposure amount at the time of shooting.

以上のように、露光量算出部105は、入力画像を取得して最適な露光量を決定する。   As described above, the exposure amount calculation unit 105 acquires an input image and determines an optimum exposure amount.

<階調処理>
次に、図2及び図7を参照して、画像処理部104による階調処理について説明する。
<Tone processing>
Next, gradation processing by the image processing unit 104 will be described with reference to FIGS.

画像処理部104は、露光量算出部105によって決定された露光量で撮影した画像信号を入力して階調処理を行う。   The image processing unit 104 performs gradation processing by inputting an image signal photographed with the exposure amount determined by the exposure amount calculation unit 105.

なお、本実施形態の階調処理は、領域間の輝度段差を縮めるような階調特性を画像全体に適用する。また、主被写体領域を最優先とした上で、主被写体以外の領域をシーンに応じてバランス良く階調を割り当てることにより、人間の見た目通りのコントラストと明るさの出力画像を生成する。   Note that the gradation processing according to the present embodiment applies gradation characteristics that reduce a luminance step between regions to the entire image. In addition, the main subject area is given the highest priority, and an area other than the main subject is assigned with a well-balanced gradation in accordance with the scene, thereby generating an output image with contrast and brightness as seen by humans.

図2は、画像処理部104の構成の一部、図7は階調処理をそれぞれ示している。なお、図7の処理は、システム制御部107が、不揮発性メモリに格納されたプログラムを、揮発性メモリのワークエリアに展開し、上記画像処理部を制御することにより実現される。S701では、画像処理部104は、撮像部102により撮影された画像信号を取得する。S702では、画像処理部104は、S701で取得した画像信号に対し、領域の認識を行う。この領域認識処理については、前述したS602の処理と同様である。   FIG. 2 shows a part of the configuration of the image processing unit 104, and FIG. 7 shows gradation processing. 7 is realized by the system control unit 107 expanding the program stored in the nonvolatile memory in the work area of the volatile memory and controlling the image processing unit. In step S <b> 701, the image processing unit 104 acquires an image signal captured by the imaging unit 102. In step S702, the image processing unit 104 recognizes a region for the image signal acquired in step S701. This region recognition processing is the same as the processing in S602 described above.

S703では、画像処理部104は、S701で取得した画像信号を入力情報として、S702で認識された領域毎に代表輝度値を算出する。各領域の代表輝度値の算出方法については、前述したS603と同様である。S704では、画像処理部104は、S701で取得した画像信号を入力情報として、S702で認識された領域毎にヒストグラムを算出する。本実施形態では、輝度信号のヒストグラムを算出する。なお、ヒストグラムの算出対象の領域は、代表輝度値の算出と同様に、人物の顔領域、空領域、背景領域である。   In S703, the image processing unit 104 calculates a representative luminance value for each area recognized in S702, using the image signal acquired in S701 as input information. The calculation method of the representative luminance value of each area is the same as that in S603 described above. In step S704, the image processing unit 104 calculates a histogram for each area recognized in step S702, using the image signal acquired in step S701 as input information. In the present embodiment, a histogram of the luminance signal is calculated. The calculation target areas of the histogram are a human face area, a sky area, and a background area, as in the calculation of the representative luminance value.

S705では、画像処理部104は、領域毎に算出した代表輝度値を入力情報として、領域毎の第1の階調補正量を算出する。S706では、主被写体領域および背景領域に対して色温度の検出を行う。主被写体領域の色温度の検出方法は、顔検出結果で顔領域に対して色味の解析を行う。詳細は後述する。S707は主被写体領域と非主被写体領域の隣接の有無を判定する。判定方法は画像領域を複数のブロックに分割を行い、ブロック領域毎に領域の判別結果のラベリングを行い、隣接ブロックに主被写体領域と非主被写体領域のラベルが隣接しているブロック数を数えるなどをすればよい。   In step S <b> 705, the image processing unit 104 calculates a first gradation correction amount for each region using the representative luminance value calculated for each region as input information. In S706, the color temperature is detected for the main subject area and the background area. As a method of detecting the color temperature of the main subject area, the color of the face area is analyzed based on the face detection result. Details will be described later. In step S707, it is determined whether or not the main subject area and the non-main subject area are adjacent to each other. The determination method is to divide the image area into multiple blocks, label the area discrimination results for each block area, and count the number of blocks where the main subject area and non-main subject area labels are adjacent to adjacent blocks. Just do it.

S708では、画像処理部104は、S707で算出した領域毎の階調補正量と、S706で算出した色温度差分、S708で算出した領域隣接判定結果を用いて第2の諧調補正量を決定する。この階調補正量の算出方法については後述する。S709では、S704で算出した領域毎のヒストグラムおよび、S708で算出した第2の諧調補正量に基づいて諧調特性の算出を行う。詳細は後述する。   In S708, the image processing unit 104 determines the second gradation correction amount using the gradation correction amount for each region calculated in S707, the color temperature difference calculated in S706, and the region adjacency determination result calculated in S708. . A method for calculating the gradation correction amount will be described later. In step S709, tone characteristics are calculated based on the histogram for each region calculated in step S704 and the second tone correction amount calculated in step S708. Details will be described later.

なお、S708で算出する階調特性とは、図17(a)のように横軸を入力信号、縦軸を出力信号として、入力信号に応じた出力信号を表す入出力特性である。例えば、階調特性を変化させない場合は、点線で示したグラフとなり、入力信号と出力信号の値は等しくなる。なお、本実施形態では、図17(a)の入力信号や出力信号は輝度信号を示す。   Note that the gradation characteristic calculated in S708 is an input / output characteristic that represents an output signal corresponding to an input signal, with the horizontal axis representing the input signal and the vertical axis representing the output signal, as shown in FIG. For example, when the gradation characteristics are not changed, the graph is indicated by a dotted line, and the values of the input signal and the output signal are equal. In the present embodiment, the input signal and output signal in FIG. 17A indicate luminance signals.

S710では、画像処理部104は、S708で算出した階調特性を用いて、図17(b)のように横軸を入力信号、縦軸をゲインとした、入力信号に応じたゲインを示すゲインテーブルに変換する(ゲインテーブル変換処理)。本実施形態では、図17(b)の入力信号は輝度信号を示す。入力信号をx、階調特性により入力信号に応じた出力信号をyとすると、ゲインGainは、式4により算出される。   In S710, the image processing unit 104 uses the tone characteristics calculated in S708, and the gain indicating the gain according to the input signal with the horizontal axis as the input signal and the vertical axis as the gain as shown in FIG. 17B. Convert to a table (gain table conversion process). In the present embodiment, the input signal in FIG. 17B represents a luminance signal. When the input signal is x and the output signal corresponding to the input signal is represented by y according to the gradation characteristics, the gain Gain is calculated by Equation 4.

Gain=y/x ・・・(4)
S711では、画像処理部104は、S706で得たゲインテーブルを参照して撮影画像にゲインをかける処理を行う。
Gain = y / x (4)
In step S <b> 711, the image processing unit 104 refers to the gain table obtained in step S <b> 706 and performs a process of applying gain to the captured image.

ここで、図5を用いて、ゲイン処理部206によるゲイン処理について説明する。左上に位置する画素を(0,0)として、入力画像の画素位置を(x,y)で示した場合、入力信号Yin(x,y)から出力されるゲインをGain(x,y)として、S706で得たゲインテーブルをGainTbl関数として表すと、式10のようになる。   Here, gain processing by the gain processing unit 206 will be described with reference to FIG. When the pixel located at the upper left is (0, 0) and the pixel position of the input image is (x, y), the gain output from the input signal Yin (x, y) is Gain (x, y). When the gain table obtained in S706 is expressed as a GainTbl function, Equation 10 is obtained.

Gain(x,y)=GainTbl(Yin(x,y)) ・・・(5)
Gain(x,y)は入力画像の(x,y)に位置する画素に対応するゲインである。
Gain (x, y) = GainTbl (Yin (x, y)) (5)
Gain (x, y) is a gain corresponding to the pixel located at (x, y) of the input image.

ゲインを算出するための入力信号であるYinは、撮影された入力画像を用いて、ゲイン算出用画像生成部501で生成される。ゲイン算出用画像生成方法としては、コントラストを向上させるため、入力画像を輝度画像データに変換し、平均化処理を行う。輝度画像データを入力としてゲインを算出することにより、よりコントラストを向上させる効果が得られる。ゲイン変換部502は、ゲイン算出用画像生成部501で生成されたYin信号を用いて、式17ように、ゲイン信号に変換する処理を行う。   Yin, which is an input signal for calculating the gain, is generated by the gain calculation image generation unit 501 using the captured input image. As an image generation method for gain calculation, in order to improve contrast, an input image is converted into luminance image data and an averaging process is performed. By calculating the gain using the luminance image data as an input, an effect of further improving the contrast can be obtained. The gain converter 502 uses the Yin signal generated by the gain calculation image generator 501 to perform a process of converting into a gain signal as shown in Expression 17.

ゲイン乗算部503は、ゲイン変換部502で算出されたゲインを用いて入力画像信号に対し、ゲインを乗算する処理を行う。本実施形態では、撮影された入力画像から、既にデモザイキング処理を終えたR,G,B画像信号に対し、ゲインを乗算する処理を行う。ゲイン乗算前の(x,y)に位置する入力画像のR,G,B信号をそれぞれRin(x,y)、Gin(x,y)、Bin(x,y)とする。その場合、ゲイン乗算後のR,G,B信号Rout(x,y)、Gout(x,y)、Bout(x,y)は、式10のGainTbl関数を用いて、式6により算出することができる。   The gain multiplier 503 performs a process of multiplying the input image signal by the gain using the gain calculated by the gain converter 502. In the present embodiment, a process of multiplying an R, G, B image signal that has already undergone demosaicing processing from the captured input image by a gain is performed. The R, G, and B signals of the input image positioned at (x, y) before gain multiplication are Rin (x, y), Gin (x, y), and Bin (x, y), respectively. In that case, the R, G, B signals Rout (x, y), Gout (x, y), and Bout (x, y) after gain multiplication are calculated by Equation 6 using the GainTbl function of Equation 10. Can do.

Rout(x,y)=Rin(x,y)×GainTbl(Yin(x,y))
Gout(x,y)=Gin(x,y)×GainTbl(Yin(x,y))
Bout(x,y)=Rin(x,y)×GainTbl(Yin(x,y))
・・・(6)
式6のように、画素位置(x,y)であれば、R,G,Bの信号にかけるゲインは同じである。
Rout (x, y) = Rin (x, y) × GainTbl (Yin (x, y))
Gout (x, y) = Gin (x, y) × GainTbl (Yin (x, y))
Bout (x, y) = Rin (x, y) × GainTbl (Yin (x, y))
... (6)
As in Expression 6, if the pixel position is (x, y), the gain applied to the R, G, and B signals is the same.

なお、本実施形態ではRGB信号に対してゲイン処理を行ったが、YUV信号に対して上述したゲイン処理を行っても良い。   In the present embodiment, the gain processing is performed on the RGB signal, but the above-described gain processing may be performed on the YUV signal.

S712では、画像処理部104は、S711でゲイン処理を行ったR,G、Bのmビットの信号を表示部109の特性に合わせるため、γ特性で階調圧縮処理を行い、n(m≧n)ビットの信号を出力する。本実施形態では、このγ特性として、図18に示すように実線と点線で示した2種類の特性を用いる。点線で示したγ特性は、逆光時の人物の顔領域がフレアの影響等により低コントラストになってしまう対策として、低輝度部分のコントラストを向上するような特性になっている。点線で示したγ特性は、逆光時の人物シーンに対して用い、実線で示したγ特性は、逆光時の人物シーン以外で用いる。   In step S712, the image processing unit 104 performs gradation compression processing with the γ characteristic to match the R, G, and B m-bit signals that have been subjected to the gain processing in step S711 to the characteristics of the display unit 109, and n (m ≧ n) A bit signal is output. In this embodiment, as the γ characteristic, two types of characteristics indicated by a solid line and a dotted line are used as shown in FIG. The γ characteristic indicated by the dotted line is a characteristic that improves the contrast of the low-brightness part as a measure for reducing the contrast of the face area of the person in the backlight due to the influence of flare or the like. The γ characteristic indicated by the dotted line is used for a human scene at the time of backlighting, and the γ characteristic indicated by a solid line is used for other than the human scene at the time of backlighting.

尚、図7の階調処理において、図2に示す画像処理部104の各部は、領域検出部201および213がS702、領域別ヒストグラム算出部202がS704、領域別輝度値算出部203がS703の各処理を行う。   In the tone processing of FIG. 7, the image processing unit 104 shown in FIG. 2 includes the area detection units 201 and 213 in S702, the region-specific histogram calculation unit 202 in S704, and the region-specific luminance value calculation unit 203 in S703. Perform each process.

また、第1の階調補正量算出部208がS705、色温度検出部209および色温度差分検出部210がS706、領域隣接判定部212がS707の各処理を行う。そして、第2の諧調補正量算出部14がS708の処理を行う。階調特性算出部204がS709、ゲインテーブル算出部205がS710、ゲイン処理部206がS711、階調圧縮処理部207がS712の各処理を行う。   Also, the first gradation correction amount calculation unit 208 performs S705, the color temperature detection unit 209 and the color temperature difference detection unit 210 perform S706, and the area adjacency determination unit 212 performs S707. Then, the second gradation correction amount calculation unit 14 performs the process of S708. The gradation characteristic calculation unit 204 performs S709, the gain table calculation unit 205 performs S710, the gain processing unit 206 performs S711, and the gradation compression processing unit 207 performs S712.

<被写体領域色温度検出方法>
次に、S706で行う、主被写体領域および背景領域に対して色温度の検出についての説明をおこなう。
<Subject area color temperature detection method>
Next, the detection of the color temperature for the main subject area and the background area performed in S706 will be described.

本実施例では、主被写体領域の色温度の検出方法は顔検出結果で顔領域に対して色味の解析を行い、背景領域に対しては通常のオートホワイトバランス制御を用った結果で行う。   In this embodiment, the color temperature detection method for the main subject area is performed by analyzing the hue of the face area based on the face detection result, and using the result of normal auto white balance control for the background area. .

オートホワイトバランスの制御方法は、撮像した画像から白色と思われる部分を自動検出し、画面全体の各色成分の平均値からホワイトバランス係数を求め、算出したホワイトバランス係数を画面全体に適用することが一般的である。従来のオートホワイトバランス制御について説明する。撮像素子から出力された信号はA/D変換によってデジタル化され、複数のブロックに分割される。   The auto white balance control method can automatically detect white parts from the captured image, determine the white balance coefficient from the average value of each color component on the entire screen, and apply the calculated white balance coefficient to the entire screen. It is common. Conventional auto white balance control will be described. The signal output from the image sensor is digitized by A / D conversion and divided into a plurality of blocks.

各ブロックはRGBの色画素で構成されており、ブロック毎に、例えば以下の算出式により、色評価値(Cx[i]、Cy[i])を求める。   Each block is composed of RGB color pixels, and color evaluation values (Cx [i], Cy [i]) are obtained for each block, for example, by the following calculation formula.

Cx[i]=(R[i]−B[i])/Y[i]×1024
Cy[i]=(R[i]+B[i]−2G[i])/Y[i]×1024
・・・(7)
(ただし、iはブロックの番号、R[i],G[i],B[i]はブロックiに含まれるRGB画素の平均値、Y[i]=(R[i]+2G[i]+B[i]/4))
ブロックが白であると判定する。そして、そのブロックに含まれる色画素の積分値SumR、SumG、SumBを算出して、以下の式のようにホワイトバランス係数(WBCo_R,WBCo_G,WBCo_B)を算出する。
Cx [i] = (R [i] −B [i]) / Y [i] × 1024
Cy [i] = (R [i] + B [i] -2G [i]) / Y [i] × 1024
... (7)
(Where i is a block number, R [i], G [i], and B [i] are average values of RGB pixels included in the block i, Y [i] = (R [i] + 2G [i] + B [I] / 4))
Determine that the block is white. Then, integral values SumR, SumG, and SumB of the color pixels included in the block are calculated, and white balance coefficients (WBCo_R, WBCo_G, WBCo_B) are calculated as in the following equations.

WBCo_R=SumY×1024/sumR
WBCo_G=SumY×1024/sumG
・・・(8)
WBCo_B=SumY×1024/sumB
ただし、SumY=(sumR+2×sumG+SumB)/4
ホワイトバランス係数と色温度との関係は、あらかじめ黒体放射軸とWB係数との関係を算出しておき、WB係数から色温度の算出を行う。
WBCo_R = SumY × 1024 / sumR
WBCo_G = SumY × 1024 / sumG
... (8)
WBCo_B = SumY × 1024 / sumB
However, SumY = (sumR + 2 × sumG + SumB) / 4
Regarding the relationship between the white balance coefficient and the color temperature, the relationship between the black body radiation axis and the WB coefficient is calculated in advance, and the color temperature is calculated from the WB coefficient.

図11に示したグラフa)および表b)は、黒体放射軸(以降、白軸と称する)であり、色温度とCxCy値との関係を示したものである。あらかじめ黒体放射軸上の既知の色温度光源にてカメラで画像データを取得し、CxCyを算出することで色温度とCxCy値との対応関係を明確にすることができる。もちろん色温度方向だけではなく、前述の白色蛍光灯のグリーン方向やマゼンタ方向の光源に対しても同様にCxCy値との対応関係を明確にすることが可能である。   A graph a) and a table b) shown in FIG. 11 are black body radiation axes (hereinafter referred to as white axes), and show the relationship between the color temperature and the CxCy value. The correspondence between the color temperature and the CxCy value can be clarified by acquiring image data with a camera with a known color temperature light source on the blackbody radiation axis in advance and calculating CxCy. Of course, not only in the color temperature direction but also in the green direction and the magenta direction of the white fluorescent lamp described above, it is possible to clarify the correspondence relationship with the CxCy value.

また、前述したストロボの発光色温度に対応したCxCy値も取得しておくことで、ストロボの発光色温度がわかれば、そのストロボ光源に対するWB補正値を算出が可能である。また顔領域によるWB係数の算出方法は、特許5414216に詳しく開示されているためここでの説明は省略する。   Further, by acquiring the CxCy value corresponding to the above-described flash emission color temperature, if the flash emission color temperature is known, the WB correction value for the flash light source can be calculated. The method for calculating the WB coefficient based on the face area is disclosed in detail in Japanese Patent No.

また空領域においては、青味が強いため色温度が高いと判定される。空領域の色温度値をあらかじめ決定しておいてもよいし、被写体輝度(以下Bv値と記す)やブロック平均値に応じて色温度を決定しておいてもよい。後者の場合、ブロックごとのCxCy値は加算平均され、図11c)のようにBv値に応じて所定の範囲でクリップを実施することで色温度を決定してもよい。   In the sky region, the color temperature is determined to be high because the bluish color is strong. The color temperature value of the sky region may be determined in advance, or the color temperature may be determined in accordance with subject luminance (hereinafter referred to as Bv value) and block average value. In the latter case, the CxCy values for each block are averaged, and the color temperature may be determined by performing clipping in a predetermined range according to the Bv value as shown in FIG. 11c).

<第1の諧調補正量算出方法>
図4は第1の階調補正量算出処理を示している。なお、図4の処理は、システム制御部107が、不揮発性メモリに格納されたプログラムを、揮発性メモリのワークエリアに展開し、各部を制御することにより実現される。
<First Gradation Correction Amount Calculation Method>
FIG. 4 shows the first gradation correction amount calculation process. 4 is realized by the system control unit 107 developing a program stored in the nonvolatile memory in the work area of the volatile memory and controlling each unit.

S401では、画像処理部104は、領域毎に算出した代表輝度値を用いて領域間の輝度段差を算出する。輝度段差の算出方法については、図10(a)のように、S604の処理において露光量をゲイン量と置き換えれば良い。S402では、画像処理部104は、主被写体の出力輝度値を算出する。主被写体の出力輝度値とは、S605と同様に、最終的に出力したい主被写体領域の輝度値である。また、本実施形態では、前述と同様に人物の顔領域を主被写体領域とし、算出方法はS605の処理と同様である。   In step S <b> 401, the image processing unit 104 calculates a luminance step between regions using the representative luminance value calculated for each region. As for the method of calculating the luminance step, as shown in FIG. 10A, the exposure amount may be replaced with the gain amount in the process of S604. In S402, the image processing unit 104 calculates the output luminance value of the main subject. The output luminance value of the main subject is the luminance value of the main subject area to be finally output, as in S605. In the present embodiment, the person's face area is set as the main subject area as described above, and the calculation method is the same as that in step S605.

S403では、画像処理部104は、S401で算出した領域間の輝度段差と、S402で算出した主被写体の出力輝度値を入力情報として、各領域の第1の階調補正量を算出する。なお、第1の階調補正量とは、本実施形態では一律ゲイン量のことを示しており、対象の領域毎にかけたい一律ゲイン量を算出する。領域毎の階調補正量の算出方法については、図10(b)に示すように、S606において露光量を階調補正量に置き換えれば良い。   In S403, the image processing unit 104 calculates the first gradation correction amount of each region using the luminance step between the regions calculated in S401 and the output luminance value of the main subject calculated in S402 as input information. Note that the first tone correction amount indicates a uniform gain amount in the present embodiment, and the uniform gain amount desired to be applied to each target region is calculated. As for the calculation method of the gradation correction amount for each region, as shown in FIG. 10B, the exposure amount may be replaced with the gradation correction amount in S606.

各領域の第1の階調補正量の算出方法は、人物の顔領域のゲイン量、背景領域のゲイン量、空領域のゲイン量をそれぞれ、GAIN_HUMAN、GAIN_BACK、GAIN_SKYとすると、式4により算出される。なお、HUMAN_Yは人物の顔領域の代表輝度値、HUMAN_OUT_Yは主被写体である人物の顔領域の出力輝度値であり、ΔHBは人物の顔領域と背景領域間の輝度段差、ΔHSは人物の顔領域と空領域間の輝度段差である。   The calculation method of the first gradation correction amount of each area is calculated by Expression 4 when the gain amount of the human face area, the gain amount of the background area, and the gain amount of the sky area are GAIN_HUMAN, GAIN_BACK, and GAIN_SKY, respectively. The HUMAN_Y is the representative luminance value of the person's face area, HUMAN_OUT_Y is the output luminance value of the person's face area as the main subject, ΔHB is the luminance step between the person's face area and the background area, and ΔHS is the person's face area. And the luminance step between the sky regions.

GAIN_HUMAN=LOG2(HUMAN_OUT_Y/HUMAN_Y)
GAIN_BACK=GAIN_HUMAN−ΔHB/2
GAIN_SKY=GAIN_HUMAN−ΔHS/2
・・・(9)
GAIN_HUMAN = LOG2 (HUMAN_OUT_Y / HUMAN_Y)
GAIN_BACK = GAIN_HUMAN−ΔHB / 2
GAIN_SKY = GAIN_HUMAN−ΔHS / 2
... (9)

本実施形態では、0段未満のゲイン量では行わないため、式7でGAIN_HUMAN、GAIN_BACK、GAIN_SKYを算出した後、GAIN_HUMAN、GAIN_BACK、GAIN_SKYに負の値になっているものがあれば、0にクリップする。領域毎の第1の階調補正量を入出力特性で表すと、図12のようになる。入力信号をX、出力信号をYとすると、各領域で実現したい入出力特性は、式10により得られる。   In this embodiment, since the gain amount is not less than 0 stage, after calculating GAIN_HUMAN, GAIN_BACK, and GAIN_SKY with Expression 7, if GAIN_HUMAN, GAIN_BACK, and GAIN_SKY have negative values, clip to 0 To do. The first gradation correction amount for each region is represented by input / output characteristics as shown in FIG. Assuming that the input signal is X and the output signal is Y, the input / output characteristics to be realized in each region are obtained by Equation 10.

人物の顔領域の入出力特性 :Y=2(GAIN_HUMAN)×X
背景領域の入出力特性 :Y=2(GAIN_BACK)×X ・・・(10)
空領域の入出力特性 :Y=2(GAIN_SKY)×X
各領域の入出力特性が、それぞれ領域毎に適用する階調特性である。各領域の入出力特性の傾きが、各領域で実現したいコントラストであり、出力信号が各領域で実現したい明るさを示している。
Input / output characteristics of human face area: Y = 2 (GAIN_HUMAN) × X
Input / output characteristics of background area: Y = 2 (GAIN_BACK) × X (10)
Input / output characteristics of empty area: Y = 2 (GAIN_SKY) × X
The input / output characteristics of each area are gradation characteristics applied to each area. The slope of the input / output characteristics of each region is the contrast desired to be realized in each region, and the output signal represents the brightness desired to be realized in each region.

<第2の諧調補正量算出方法>
次に、S708における第2の諧調補正量算出方法について説明を行う。S708では、画像処理部104は、S705で算出した領域毎に算出した第1の階調補正量と、S706で算出した色温度差分およびS707で算出した隣接判定結果を入力して、第2の階調補正量を算出する。なお、人物の顔領域のゲイン量、背景領域のゲイン量、空領域のゲイン量をそれぞれ、GAIN_HUMAN_2、GAIN_BACK_2、GAIN_SKY_2とする。
<Second Gradation Correction Amount Calculation Method>
Next, the second gradation correction amount calculation method in S708 will be described. In step S708, the image processing unit 104 inputs the first gradation correction amount calculated for each region calculated in step S705, the color temperature difference calculated in step S706, and the adjacency determination result calculated in step S707. A gradation correction amount is calculated. Note that the gain amount of the human face region, the gain amount of the background region, and the gain amount of the sky region are GAIN_HUMAN_2, GAIN_BACK_2, and GAIN_SKY_2, respectively.

図19は、本実施例における、第2の諧調補正量算出手段のフローを示したフローチャートである。S901は、人物領域と背景領域が隣接しているか否かの判定を行う。隣接している場合、S902は人物領域と背景領域の色温度差分が所定の値以上大きいか判定を行う。S903は、顔領域が大きいか否かの判定を行う。   FIG. 19 is a flowchart showing the flow of the second gradation correction amount calculating means in the present embodiment. In step S901, it is determined whether the person area and the background area are adjacent to each other. If they are adjacent to each other, S902 determines whether the color temperature difference between the person area and the background area is greater than a predetermined value. In step S903, it is determined whether the face area is large.

S904において、S901−S903において色温度差分が大きく顔の大きさがあらかじめ設定した所定の値以上の場合には、
GAIN_HUMAN_2=GAIN_HUMAN
GAIN_BACK_2 =GAIN_HUMAN ・・・(11)
に設定をする。
In S904, if the color temperature difference is large in S901-S903 and the face size is greater than or equal to a predetermined value set in advance,
GAIN_HUMAN_2 = GAIN_HUMAN
GAIN_BACK_2 = GAIN_HUMAN (11)
Set to.

S905において、色温度差分が大きく、顔の大きさがあらかじめ設定した所定の値以下の場合には、
GAIN_HUMAN_2=GAIN_BACK
GAIN_BACK_2 =GAIN_BACK ・・・(12)
と設定を行う。
In S905, when the color temperature difference is large and the face size is equal to or smaller than a predetermined value set in advance,
GAIN_HUMAN_2 = 2 = GAIN_BACK
GAIN_BACK_2 = GAIN_BACK (12)
And set.

S901およびS902において、色温度差分が小さいまたは隣接領域がない場合には
GAIN_HUMAN_2=GAIN_HUMAN
GAIN_BACK_2 =GAIN_BACK ・・・(13)
と設定を行う。
If the color temperature difference is small or there is no adjacent area in S901 and S902, GAIN_HUMAN_2 = GAIN_HUMAN
GAIN_BACK_2 = GAIN_BACK (13)
And set.

またS901−S905のステップは下記の式で代用することも可能である。隣接の程度が所定の範囲で高くなるほど大きい値に決定される隣接度合い補間係数α[0−1]、色温度差分が所定の範囲まで大きくなるほど大きい値に決定される色温度差分線形補間係数β[0−1]、顔の大きさが所定の範囲で大きくなるほど大きい値に決定される顔サイズ線形補間係数をγ[0−1]として、人物用、背景用のゲインを下記のとおり決定してもよい。   Further, the steps of S901 to S905 can be substituted by the following equation. The adjacency degree interpolation coefficient α [0-1] determined to be larger as the degree of adjacency increases in a predetermined range, and the color temperature difference linear interpolation coefficient β determined to be larger as the color temperature difference increases to a predetermined range. [0-1] The face size linear interpolation coefficient, which is determined to increase as the face size increases within a predetermined range, is set to γ [0-1], and the gain for person and background is determined as follows. May be.

GAIN_HUMAN_2=
α×β×(γ×GAIN_HUMAN+(1−γ)×GAIN_BACK))+
(1−α×β)×(GAIN_HUMAN)
GAIN_BACK_2=
α×β×(γ×GAIN_HUMAN+(1−γ)×GAIN_BACK))+
(1−α×β)×(GAIN_BACK) ・・・(14)
GAIN_HUMAN_2 =
α × β × (γ × GAIN_HUMAN + (1-γ) × GAIN_BACK)) +
(1-α × β) × (GAIN_HUMAN)
GAIN_BACK_2 =
α × β × (γ × GAIN_HUMAN + (1-γ) × GAIN_BACK)) +
(1-α × β) × (GAIN_BACK) (14)

図21は、顔サイズ・隣接ブロック、色温度差分による線形補間係数の例である。S906では背景領域と空領域が隣接しているか判定を行う。S907では背景領域と空領域の色温度の差分が大きいかの判定を行う、S908では、色温度差分が大きく、かつ隣接している場合には、空領域のゲイン量を背景領域のゲイン量と同じ設定にする。   FIG. 21 is an example of a linear interpolation coefficient based on a face size / adjacent block and a color temperature difference. In S906, it is determined whether the background area is adjacent to the sky area. In S907, it is determined whether the difference in color temperature between the background area and the sky area is large. In S908, if the color temperature difference is large and adjacent, the gain amount in the sky area is set as the gain amount in the background area. Make the same setting.

GAIN_SKY_2=GAIN_BACK_2 ・・・(15)
もちろん式14と同様に、隣接の程度が所定の範囲で高くなるほど大きい値に決定される隣接度合い補間係数α[0−1]、色温度差分が所定の範囲まで大きくなるほど大きい値に決定される色温度差分線形補間係数β[0−1]として、空領域用のゲインを下記のとおり決定してもよい。
GAIN_SKY_2 = GAIN_BACK_2 (15)
Of course, as in Equation 14, the degree of adjacency interpolation coefficient α [0-1], which is determined to be larger as the degree of adjacency increases in a predetermined range, is determined to be a larger value as the color temperature difference increases to a predetermined range. The gain for the sky region may be determined as follows as the color temperature difference linear interpolation coefficient β [0-1].

GAIN_SKY_2=
α×β×(GAIN_SKY_2)+(1−α×β)×(GAIN_BACK)
・・・(16)
また、入力信号をX、出力信号をYとすると、各領域で実現したい入出力特性は、式17により得られる。
GAIN_SKY_2 =
α × β × (GAIN_SKY_2) + (1−α × β) × (GAIN_BACK)
... (16)
Further, when the input signal is X and the output signal is Y, the input / output characteristics to be realized in each region can be obtained by Expression 17.

人物の顔領域の入出力特性 :Y=2(GAIN_HUMAN_2)×X
背景領域の入出力特性 :Y=2(GAIN_BACK_2)×X ・・・(17)
空領域の入出力特性 :Y=2(GAIN_SKY_2)×X
Input / output characteristics of human face area: Y = 2 (GAIN_HUMAN_2) × X
Input / output characteristics of background area: Y = 2 (GAIN_BACK_2) × X (17)
Input / output characteristics of empty area: Y = 2 (GAIN_SKY_2) × X

<諧調特性算出方法>
次に、S709における諧調特性算出方法について説明を行う。図8を参照して、階調特性算出部204による階調特性算出処理に関し、領域毎の入出力特性を参考にして、画面一様に適用する階調特性を作成する処理について説明する。S804では、階調特性算出部204は、領域毎の輝度のヒストグラムを用いて、S708で算出した領域毎の第2の階調補正量を適用する入力信号の範囲を決定する。
<Method of calculating gradation characteristics>
Next, the gradation characteristic calculation method in S709 will be described. With reference to FIG. 8, a description will be given of processing for creating gradation characteristics to be applied uniformly on the screen with reference to input / output characteristics for each region, regarding gradation characteristic calculation processing by the gradation characteristic calculation unit 204. In step S804, the gradation characteristic calculation unit 204 determines a range of the input signal to which the second gradation correction amount for each region calculated in step S708 is applied, using the luminance histogram for each region.

図15に示した3つの入出力特性は、式17で示した各領域で実現したい入出力特性である。入出力特性の横軸のHUMAN_POINT、BACK_POINT、SKY_POINTが各領域の入出力特性を適用する入力信号の範囲を決定する指標となる。0からHUMAN_POINTまでの入力信号の範囲を(1)、0からBACK_POINTまでの入力信号の範囲を(2)、SKY_POINTから入力信号で表現できる最大値までの入力信号の範囲を(3)として示している。(1)は人物の顔領域の入出力特性を適用したい入力信号の範囲、(2)は背景領域の入出力特性を適用したい入力信号の範囲、(3)は空領域の入出力特性を適用したい入力信号の範囲をそれぞれ示している。   The three input / output characteristics shown in FIG. 15 are input / output characteristics that are desired to be realized in each region shown in Expression 17. HUMAN_POINT, BACK_POINT, and SKY_POINT on the horizontal axis of the input / output characteristics serve as an index for determining the range of the input signal to which the input / output characteristics of each area are applied. The input signal range from 0 to HUMAN_POINT is shown as (1), the input signal range from 0 to BACK_POINT is shown as (2), and the input signal range from SKY_POINT to the maximum value that can be expressed by the input signal is shown as (3). Yes. (1) is the input signal range to which the human face area input / output characteristics are to be applied, (2) is the input signal range to which the background area input / output characteristics are to be applied, (3) is the sky area input / output characteristics Each of the input signal ranges desired is shown.

HUMAN_POINT、BACK_POINT、SKY_POINTの算出方法について、図13を用いて説明する。HUMAN_POINT、BACK_POINT、SKY_POINTの算出は、図13(a)のように領域毎に算出した輝度のヒストグラムを用いる。HUMAN_POINTの算出は、人物の顔領域の輝度のヒストグラムを用い、BACK_POINTの算出は、背景領域の輝度のヒストグラム、SKY_POINT算出は、空領域の輝度ヒストグラムをそれぞれ用いる。   A method for calculating HUMAN_POINT, BACK_POINT, and SKY_POINT will be described with reference to FIG. The calculation of HUMAN_POINT, BACK_POINT, and SKY_POINT uses a luminance histogram calculated for each region as shown in FIG. The calculation of HUMAN_POINT uses the luminance histogram of the human face area, the calculation of BACK_POINT uses the luminance histogram of the background area, and the calculation of SKY_POINT uses the luminance histogram of the sky area.

各領域の輝度のヒストグラムを用いた、HUMAN_POINT、BACK_POINT、SKY_POINTの算出方法を例示しているのが図13(b)である。まず、HUMAN_POINTの算出について説明する。   FIG. 13B illustrates a method for calculating HUMAN_POINT, BACK_POINT, and SKY_POINT using the luminance histogram of each region. First, calculation of HUMAN_POINT will be described.

本実施形態では、人物の顔領域の輝度のヒストグラムに対し、最小の信号値から徐々に大きい信号値にかけて、頻数を加算していく。そして、加算値が所定の閾値以上になった時点で最後に頻数を加算した入力信号の値をHUMAN_POINTとする。なお、閾値をHUMAN_THとすると、式18により算出することができる。   In the present embodiment, the frequency is added to the luminance histogram of the human face area from the smallest signal value to the gradually larger signal value. Then, the value of the input signal obtained by adding the frequency at the end when the added value is equal to or greater than a predetermined threshold is defined as HUMAN_POINT. If the threshold is HUMAN_TH, it can be calculated by Equation 18.

HUMAN_TH=HUMAN_AREASUM×P_HUMAN ・・・(18)
(ただし、0.0<P_HUMAN≦1.0)
HUMAN_AREASUMは人物の顔領域と認識された画素の総数、P_HUMANは調整パラメータである。式18に示すように、頻数の加算値が、人物の顔領域の画素の総数に対し、所定の閾値(%)に達したかでHUMAN_POINTを決定している。
HUMAN_TH = HUMAN_AREASUM × P_HUMAN (18)
(However, 0.0 <P_HUMAN ≦ 1.0)
HUMAN_AREASUM is the total number of pixels recognized as a human face area, and P_HUMAN is an adjustment parameter. As shown in Expression 18, HUMAN_POINT is determined based on whether the addition value of the frequency reaches a predetermined threshold (%) with respect to the total number of pixels in the human face area.

次に、BACK_POINTの算出について説明する。本実施形態では、HUMAN_POINTと同様に、背景領域の輝度のヒストグラムに対し、最小の信号値から徐々に大きい信号値にかけて、頻数を加算していく。そして、加算値が所定の閾値以上になった時点で最後に頻数を加算した入力信号の値をBACK_POINTとする。閾値はHUMAN_THと同様の方法で設定する。   Next, calculation of BACK_POINT will be described. In the present embodiment, as with HUMAN_POINT, the frequency is added to the luminance histogram of the background area from the smallest signal value to the gradually larger signal value. Then, when the added value becomes equal to or greater than a predetermined threshold, the value of the input signal obtained by adding the frequency at the end is defined as BACK_POINT. The threshold is set by the same method as HUMAN_TH.

最後に、SKY_POINTの算出について説明する。本実施形態では、HUMAN_POINTやBACK_POINTとは反対に、空領域の輝度ヒストグラムに対し、空領域と認識された画素の総数から最小の信号値から徐々に大きい信号値にかけて、頻数を減算していく。そして、減算値が所定の閾値以下になった時点で、最後に頻数を減算した入力信号の値をSKY_POINTとする。閾値はHUMAN_THと同様の方法で設定する。   Finally, calculation of SKY_POINT will be described. In the present embodiment, contrary to HUMAN_POINT and BACK_POINT, the frequency is subtracted from the total number of pixels recognized as the sky area from the minimum signal value to the gradually larger signal value with respect to the brightness histogram of the sky area. . Then, when the subtraction value becomes equal to or less than a predetermined threshold value, the value of the input signal obtained by subtracting the frequent number at the end is defined as SKY_POINT. The threshold is set by the same method as HUMAN_TH.

このように、高輝度被写体である空領域、中間輝度被写体及び低輝度被写体である背景領域、人物の顔領域で、それぞれ算出方法が異なる。本実施形態では、空領域が最も明るく、人物の顔領域が最も暗いシーンについて説明したが、背景領域が最も高輝度被写体である場合はSKY_POINTと同じ算出方法を用い、空領域が中間輝度被写体である場合はBACK_POINTと同じ算出方法を用いる。   As described above, the calculation methods are different for the sky region that is a high-luminance subject, the background region that is a medium-luminance subject and the low-luminance subject, and the human face region. In this embodiment, the scene in which the sky area is the brightest and the human face area is the darkest has been described. However, when the background area is the brightest subject, the same calculation method as SKY_POINT is used. In some cases, the same calculation method as BACK_POINT is used.

S805とS806では、階調特性算出部204は、それぞれ別々の特徴を持った階調特性を作成する。S805およびS806は、S708で算出した領域毎の第2の階調補正量HUMAN_GAIN_2、BACK_GAIN_2、SKY_GAIN_2と、S804で算出した領域毎の階調補正量を適用する範囲の指標となるHUMAN_POINT、BACK_POINT、SKY_POINTを用いて、階調特性を作成する。   In S805 and S806, the gradation characteristic calculation unit 204 creates gradation characteristics having different characteristics. S805 and S806 are the second gradation correction amounts HUMAN_GAIN_2, BACK_GAIN_2, and SKY_GAIN_2 for each area calculated in S708, and HUMAN_POINT, BACK_POINT, and SKY_POINT that are indices of ranges to which the gradation correction amounts for each area calculated in S804 are applied. Is used to create gradation characteristics.

本実施形態では、別々の特徴を持った複数(2種類)の階調特性を作成し、作成した2つの階調特性を加重加算することにより最終的な階調特性の算出を行う。   In the present embodiment, a plurality of (two types) gradation characteristics having different characteristics are created, and the final gradation characteristics are calculated by weighted addition of the two created gradation characteristics.

図14(a)に示す3つの入出力特性は、式17で示した各領域で実現したい入出力特性である。入出力特性の横軸のHUMAN_POINT、BACK_POINT、SKY_POINTが各領域の入出力特性を適用する入力信号の範囲を決定する指標である。図14(a)に対し、本実施形態では、図14(b)に示したダイナミックレンジ優先と呼ぶ階調特性と、図14(c)に示したコントラスト優先と呼ぶ階調特性の2種類を作成する。   The three input / output characteristics shown in FIG. 14A are input / output characteristics that are desired to be realized in each region shown in Expression 17. HUMAN_POINT, BACK_POINT, and SKY_POINT on the horizontal axis of the input / output characteristics are indicators for determining the input signal range to which the input / output characteristics of each area are applied. In contrast to FIG. 14A, in this embodiment, there are two types of gradation characteristics called dynamic range priority shown in FIG. 14B and gradation characteristics called contrast priority shown in FIG. create.

S805とS806で作成する2種類の階調特性について、図14を用いて詳細に説明する。まず、図14(b)に示したダイナミックレンジ優先の階調特性について説明する。ダイナミックレンジ優先の階調特性の特徴は、図14(a)に示した人物の顔領域の入出力特性と、空領域の入出力特性の2つを取り入れている点である。図14(a)の特性に対し、人物の顔領域と、空領域の明るさとコントラストを実現する点が長所である。   The two types of gradation characteristics created in S805 and S806 will be described in detail with reference to FIG. First, the dynamic range priority gradation characteristic shown in FIG. 14B will be described. The characteristic of the gradation characteristics with priority on the dynamic range is that the input / output characteristics of the human face area and the input / output characteristics of the sky area shown in FIG. The characteristic of FIG. 14A is that the brightness and contrast of the human face area and the sky area are realized.

入力信号の0からHUMAN_POINTまでの低輝度側の区間は人物の顔領域の入出力特性になっており、反対に、SKY_POINTから入力信号で表現できる最大値までの高輝度側の区間は空領域の入出力特性となっている。HUMAN_POINTからSKY_POINTまでの中間輝度に位置する区間は、低輝度側の人物の顔領域の入出力特性と、高輝度側の空領域の入出力特性をつなげる形となっている。入力信号をX、出力信号をYとすると、ダイナミックレンジ優先の階調は、式19で表される。   The section on the low brightness side from 0 to HUMAN_POINT of the input signal has the input / output characteristics of the human face area. Conversely, the section on the high brightness side from SKY_POINT to the maximum value that can be represented by the input signal is an empty area. Input / output characteristics. The section located at the intermediate luminance from HUMAN_POINT to SKY_POINT connects the input / output characteristics of the human face area on the low luminance side and the input / output characteristics of the sky area on the high luminance side. If the input signal is X and the output signal is Y, the dynamic range priority gradation is expressed by Equation 19.

Y=2(GAIN_HUMAN_2)×X (0≦X<HUMAN_POINT)
Y=(2(GAIN_SKY_2)×SKY_POINT−2(GAIN_HUMAN_2)×HUMAN_POINT)×X/(SKY_POINT−HUMAN_POINT)+2(GAIN_HUMAN)×HUMAN_POINT (HUMAN_POINT≦X<SKY_POINT)
Y=2(GAIN_SKY_2)×X (SKY_POINT≦X)
・・・(19)
本実施形態では、高輝度側を飽和させるような入出力特性にしているが、図14(b)の点線かつ曲線の部分のように、高輝度側をできるだけ飽和させないような入出力特性にしても良い。なお、本実施形態は折れ線で入出力特性を作成しているが、折れ線を近似した曲線で入出力特性を作成しても良い。ダイナミックレンジ優先の階調特性はS805で作成される。
Y = 2 (GAIN_HUMAN_2) × X (0 ≦ X <HUMAN_POINT)
Y = (2 (GAIN_SKY_2) * SKY_POINT-2 (GAIN_HUMAN_2) * HUMAN_POINT) * X / (SKY_POINT-HUMAN_POINT) +2 (GAIN_HUMAN) * HUMAN_POINT <HUMINT_POINT <X
Y = 2 (GAIN_SKY_2) × X (SKY_POINT ≦ X)
... (19)
In the present embodiment, the input / output characteristics are such that the high luminance side is saturated, but the input / output characteristics are set so as not to saturate the high luminance side as much as possible, as shown by the dotted line and the curve in FIG. Also good. In the present embodiment, the input / output characteristics are created with a broken line, but the input / output characteristics may be created with a curve approximating the broken line. The dynamic range priority gradation characteristics are created in S805.

次に、図14(c)に示したコントラスト優先の階調特性について説明を行う。コントラスト優先の階調特性の特徴は、図14(a)に記載した人物の顔領域の入出力特性に加え、背景領域及び空領域の入出力特性の傾きのみを取り入れている点である。図14(a)の特性に対し、人物の顔領域は明るさとコントラスト、背景領域及び空領域はコントラストを実現する点が長所である。   Next, the contrast priority gradation characteristics shown in FIG. 14C will be described. A feature of the contrast-priority gradation characteristic is that only the slopes of the input / output characteristics of the background area and the sky area are incorporated in addition to the input / output characteristics of the human face area shown in FIG. The characteristic of FIG. 14A is that the face area of a person realizes brightness and contrast, and the background area and sky area realize contrast.

入力信号のうち、0からHUMAN_POINTまでの区間は人物の顔領域の入出力特性になっている点では、ダイナミックレンジ優先の階調特性と同等である。HUMAN_POINTからBACK_POINTの区間では背景領域の入出力特性のうち傾きのみを実現した特性となり、BACK_POINTから入力信号で表現できる最大値までの区間は、空領域の入出力特性のうち傾きのみ実現した特性となっている。入力信号をX、出力信号をYとすると、コントラスト優先の階調は、式20で表される。   Among the input signals, the section from 0 to HUMAN_POINT is equivalent to the dynamic range priority gradation characteristic in that the input / output characteristic of the human face area is used. In the section from HUMAN_POINT to BACK_POINT, only the slope of the input / output characteristics of the background area is realized. In the section from BACK_POINT to the maximum value that can be expressed by the input signal, only the slope of the input / output characteristics of the empty area is realized. It has become. When the input signal is X and the output signal is Y, the contrast priority gradation is expressed by Equation 20.

Y=2(GAIN_HUMAN_2)×X (0≦X<HUMAN_POINT)
Y=2(GAIN_BACK_2)×X+2(GAIN_HUMAN_2)×HUMAN_POINT
(HUMAN_POINT≦X<BACK_POINT)
Y=2(GAIN_SKY_2)×X+2(GAIN_BACK_2)×(BACK_POINT−HUMAN_POINT)+2(GAIN_HUMAN_2)×HUMAN_POINT
(BACK_POINT≦X)
・・・(20)
Y = 2 (GAIN_HUMAN_2) × X (0 ≦ X <HUMAN_POINT)
Y = 2 (GAIN_BACK_2) × X + 2 (GAIN_HUMAN_2) × HUMAN_POINT
(HUMAN_POINT ≦ X <BACK_POINT)
Y = 2 (GAIN_SKY_2) × X + 2 (GAIN_BACK_2) × (BACK_POINT−HUMAN_POINT) +2 (GAIN_HUMAN_2) × HUMAN_POINT
(BACK_POINT ≦ X)
... (20)

本実施形態では、高輝度側を飽和させるような入出力特性にしているが、図14(c)の点線かつ曲線の部分のように、高輝度側をできるだけ飽和させないような入出力特性にしても良い。なお、本実施形態は折れ線で入出力特性を作成しているが、折れ線を近似した曲線で入出力特性を作成しても良い。コントラスト優先の階調特性はS806で作成される。   In the present embodiment, the input / output characteristics are such that the high luminance side is saturated, but the input / output characteristics are set so as not to saturate the high luminance side as much as possible, as shown by the dotted line and the curve in FIG. Also good. In the present embodiment, the input / output characteristics are created with a broken line, but the input / output characteristics may be created with a curve approximating the broken line. The contrast priority gradation characteristics are created in S806.

以上、ダイナミックレンジ優先とコントラスト優先の2種類の階調特性について説明したが、2種類の階調特性の共通点としては、人物の顔領域の入出力特性についてはどちらも実現する点である。この理由としては、本実施形態で人物シーンにおいて人物の顔領域は主被写体領域であるため、階調特性として最優先に決定する必要があるからである。   Although the two types of gradation characteristics of dynamic range priority and contrast priority have been described above, the common point of the two types of gradation characteristics is that both of the input / output characteristics of the human face area are realized. This is because the person's face area in the person scene in this embodiment is the main subject area, and therefore it is necessary to determine the tone characteristics with the highest priority.

また、2つの階調特性の作成方法は領域が2つしかない場合にも同様である。例えば、人物と高輝度被写体である空しかいないシーンの場合は、図14の2つの階調特性に対し、BACK_POINT、BACK_GAINをそれぞれSKY_POINT、SKY_GAINに置き換える。   The method of creating two gradation characteristics is the same when there are only two regions. For example, in the case of a scene with only a sky, which is a person and a high-luminance subject, BACK_POINT and BACK_GAIN are replaced with SKY_POINT and SKY_GAIN, respectively, for the two gradation characteristics shown in FIG.

以上、S805とS806の処理によって、ダイナミックレンジ優先とコントラスト優先の2種類の優先度に応じた階調特性が作成される。作成された2種類の階調特性をS807で加重加算することにより撮影された画像の階調特性を決定する。   As described above, the gradation characteristics corresponding to the two types of priority, the dynamic range priority and the contrast priority, are created by the processing of S805 and S806. The created two types of gradation characteristics are weighted and added in S807 to determine the gradation characteristics of the captured image.

ここで、図16を参照してS807での階調特性の決定処理について詳細に説明する。ダイナミックレンジ優先とコントラスト優先の2種類の優先度に応じて階調特性を加重加算する方法として、本実施形態ではS801で算出した領域間の輝度段差を用いる(加重加算係数算出処理)。中間輝度に位置する被写体である背景領域を基準に、人物の顔領域と背景領域の輝度段差ΔHB、背景領域と空領域の輝度段差ΔBSを2種類の階調特性の加重加算係数として用いる。   Here, with reference to FIG. 16, the gradation characteristic determination processing in S807 will be described in detail. As a method of performing weighted addition of gradation characteristics according to two types of priority, dynamic range priority and contrast priority, in the present embodiment, the luminance step between regions calculated in S801 is used (weighted addition coefficient calculation processing). Based on the background area, which is a subject located at intermediate luminance, the luminance step ΔHB between the human face area and the background area, and the luminance difference ΔBS between the background area and the sky area are used as weighted addition coefficients for two types of gradation characteristics.

階調特性の入力信号をX、出力信号をYとしてダイナミックレンジ優先の階調特性とコントラスト優先の階調特性を、式21のように、それぞれDrange関数、Contrast関数で表すとする。   Assume that the input signal of the gradation characteristic is X and the output signal is Y, and the dynamic range priority gradation characteristic and the contrast priority gradation characteristic are expressed by a distance function and a contrast function, respectively, as shown in Equation 21.

Y=Drange(X)
Y=Contrast(X) ・・・(21)
Y = Drange (X)
Y = Contrast (X) (21)

式21に対し、加重加算した後の階調特性、つまり撮影された画像の階調特性をMIX_OUT関数で表すと、式15のようになる。 When the gradation characteristic after weighted addition, that is, the gradation characteristic of the photographed image is expressed by the MIX_OUT function, Expression 15 is obtained.

Y=MIX_OUT(X)
=(ΔHB×Drange(X)+ΔBS×Contrast(X))/(ΔHB+ΔBS) ・・・(22)
式22のように、人物の顔領域と背景領域の輝度段差ΔHB、背景領域と空領域の輝度段差ΔBSをそれぞれダイナミックレンジ優先、コントラスト優先の加重加算係数として用いている。
Y = MIX_OUT (X)
= (ΔHB × Drange (X) + ΔBS × Contrast (X)) / (ΔHB + ΔBS) (22)
As shown in Equation 22, the luminance step ΔHB between the human face region and the background region and the luminance step ΔBS between the background region and the sky region are used as weighted addition coefficients for dynamic range priority and contrast priority, respectively.

人物の顔領域と背景領域の輝度段差ΔHB、背景領域と空領域の輝度段差ΔBSを加重加算に用いることにより得られる効果について図16を用いて詳細に説明する。   The effect obtained by using the luminance step ΔHB between the human face region and the background region and the luminance step ΔBS between the background region and the sky region for weighted addition will be described in detail with reference to FIG.

図16(a)に示した3つの入出力特性は、式17で示した各領域で実現したい入出力特性である。図16(a)の3つの入出力特性は、領域間の輝度段差を用いて決定される。撮影したシーンに応じては領域間の輝度段差は変わるため、各領域で実現したい入出力特性もシーンに応じて変わる。図16(b)の左側に示したのは、人物の顔領域と背景領域の輝度段差ΔHBに対して、背景領域と空領域の輝度段差ΔBSが極端に小さいシーンにおいて、各領域で実現したい入出力特性である。式7により各領域で実現したい入出力特性の傾きが決まるため、背景領域の入出力特性は空領域の入出力特性に近づく傾向にある。   The three input / output characteristics shown in FIG. 16A are input / output characteristics that are desired to be realized in each region shown in Expression 17. The three input / output characteristics shown in FIG. 16A are determined using luminance steps between regions. Since the luminance level difference between areas varies depending on the photographed scene, the input / output characteristics to be realized in each area also vary depending on the scene. The left side of FIG. 16 (b) shows an input to be realized in each area in a scene where the luminance step ΔBS between the background region and the sky region is extremely small compared to the luminance step ΔHB between the human face region and the background region. Output characteristics. Since the slope of the input / output characteristics to be realized in each area is determined by Equation 7, the input / output characteristics of the background area tend to approach the input / output characteristics of the sky area.

上記の場合、図16(b)の右側に示したダイナミックレンジ優先の階調特性を階調処理に利用した方が背景領域の入出力特性を実現しやすい傾向にある。この理由は、輝度段差ΔBSが極端に小さい場合、SKY_POINT周辺やそれ以降に背景領域の入力信号が多く分布する傾向となり、SKY_POINT以降のダイナミックレンジ優先の階調特性に背景領域の多くの入力信号があてはまるためである。   In the above case, the input / output characteristics of the background area tend to be more easily realized when the dynamic range priority gradation characteristics shown on the right side of FIG. The reason for this is that when the luminance step ΔBS is extremely small, there is a tendency for many input signals in the background area to be distributed around and after SKY_POINT, and many input signals in the background area are in the dynamic range priority gradation characteristics after SKY_POINT. This is the case.

また、図16(b)とは反対に、図16(c)の左側に示したのは、人物の顔領域と背景領域の輝度段差ΔHBに対し、背景領域と空領域の輝度段差ΔBSが極端に大きいシーンにおいて、各領域で実現したい入出力特性である。式17により各領域で実現したい入出力特性の傾きが決まるため、背景領域の入出力特性は人物の顔領域の入出力特性に近づく傾向にある。   In contrast to FIG. 16B, the left side of FIG. 16C shows that the luminance step ΔBS between the background region and the sky region is extremely different from the luminance step ΔHB between the human face region and the background region. This is an input / output characteristic that is desired to be realized in each area in a large scene. Since the slope of the input / output characteristics desired to be realized in each area is determined by Equation 17, the input / output characteristics of the background area tend to approach the input / output characteristics of the human face area.

上記の場合、図16(c)の右側に示したコントラスト優先の階調特性を階調処理に利用した方が背景領域の実現したい入出力特性を実現しやすい傾向にある。輝度段差ΔHBに対し、輝度段差ΔBSが極端に大きい場合には、HUMAN_POINT周辺からBACK_POINTにかけて背景領域の入力信号が多く分布する傾向にあり、かつ人物の顔領域と背景領域の入出力特性は近い傾きとなる。これにより、BACK_POINT以下のコントラスト優先の階調特性に対し、背景領域で実現したい入出力特性が近づく傾向になる。   In the above case, the input / output characteristics desired to be realized in the background region tend to be more easily realized when the contrast-priority gradation characteristics shown on the right side of FIG. When the luminance step ΔBS is extremely large with respect to the luminance step ΔHB, there is a tendency that many input signals in the background region are distributed from around HUMAN_POINT to BACK_POINT, and the input / output characteristics of the human face region and the background region are close to each other. It becomes. As a result, the input / output characteristics desired to be realized in the background area tend to approach the contrast priority gradation characteristics of BACK_POINT or lower.

式17のように、人物の顔領域と背景領域の輝度段差ΔHB、背景領域と空領域の輝度段差ΔBSを加重加算に用いることにより3つの領域の実現したい入出力特性を用いて、撮影された画像に最適な階調特性を効率的に作成することができる。   As shown in Expression 17, the luminance difference ΔHB between the human face area and the background area and the luminance difference ΔBS between the background area and the sky area are used for weighted addition, and the three regions are photographed using the input / output characteristics desired to be realized. It is possible to efficiently create gradation characteristics optimal for an image.

本実施形態では、式22から領域間の輝度段差を用いて、撮影された画像の階調特性を作成したが、式23のように、加重加算係数をα、βとして、別の情報を用いて実現しても良い。領域間の面積の比率や、領域間の輝度段差に応じた値、また、シーンによらない固定値を与えても良い。   In the present embodiment, the gradation characteristic of the captured image is created using the luminance step between the areas from Expression 22, but as shown in Expression 23, different information is used with the weighted addition coefficients α and β. It may be realized. A value corresponding to the area ratio between regions, a luminance step between regions, or a fixed value independent of the scene may be given.

Y=MIX_OUT(X)
=(α×Drange(X)+β×Contrast(X))/(α+β)
・・・(23)
Y = MIX_OUT (X)
= (Α × Drange (X) + β × Contrast (X)) / (α + β)
(23)

例えば、背景領域の存在する面積が、空領域に比べて少ないシーンにおいては、空領域をより実現したい明るさ、コントラストに近づけた方が画像の見栄えが良い場合がある。反対に、空領域の存在する面積が、背景領域に比べ少ないシーンにおいて、背景領域を実現したいコントラストに近づけた方が画像の見栄えが良い場合がある。このような理由から、αを空領域の占める総画素数、βを背景領域の占める総画素数として、式23を適用して階調特性を作成しても良い。 For example, in a scene where the area where the background area exists is smaller than that of the sky area, the image may look better when the sky area is closer to the brightness and contrast desired to be realized. On the other hand, in a scene where the area where the sky region exists is smaller than that of the background region, there are cases where the image looks better when the background region is brought closer to the contrast desired to be realized. For this reason, gradation characteristics may be created by applying Equation 23, where α is the total number of pixels occupied by the sky region and β is the total number of pixels occupied by the background region.

また、被写体が2つしか存在しないシーンの場合には、領域間の輝度段差の値に応じて加重加算係数を算出し、2つの階調特性を加重加算した方が良い。この理由として、例えば人物と空のみのシーンであった場合、領域間の輝度段差が元々小さいシーンでは、広ダイナミックレンジよりも高コントラストを優先した方が画像の見栄えが良いからである。また、領域間の輝度段差が元々大きいシーンでは、コントラストよりもダイナミックレンジを優先した方が、画像の見栄えが良いからである。よって、式16の加重加算係数α、βを、式17によって算出する。Δは2つの領域間の輝度段差である。例えば、人物と空のみのシーンである場合は、人物の顔領域と空領域の輝度段差ΔHSの値が、Δの値となる。閾値TH1、TH2は、調整パラメータである。   Also, in the case of a scene where there are only two subjects, it is better to calculate a weighted addition coefficient according to the value of the luminance step between the areas and weighted and add the two gradation characteristics. This is because, for example, when the scene is only a person and the sky, in a scene where the luminance step between the areas is originally small, it is better to prioritize the high contrast than the wide dynamic range. In addition, in a scene where the luminance difference between regions is originally large, it is better to give priority to the dynamic range than the contrast so that the image looks better. Therefore, the weighted addition coefficients α and β in Expression 16 are calculated by Expression 17. Δ is a luminance step between the two regions. For example, in the case of a scene with only a person and the sky, the value of the luminance step ΔHS between the face area of the person and the sky area becomes the value of Δ. The thresholds TH1 and TH2 are adjustment parameters.

α=0.0、β=1.0 (TH1≧Δ)
α=1.0/(TH2−TH1)×(Δ−TH1)、β=1.0−α
(TH1≦Δ<TH2)
α=1.0、β=0.0 (Δ≦TH2) ・・・(24)
α = 0.0, β = 1.0 (TH1 ≧ Δ)
α = 1.0 / (TH2−TH1) × (Δ−TH1), β = 1.0−α
(TH1 ≦ Δ <TH2)
α = 1.0, β = 0.0 (Δ ≦ TH2) (24)

以上のように、式24の加重加算係数α、βは、本実施形態のやり方にとどまらず、様々な情報を用いて算出して良い。   As described above, the weighted addition coefficients α and β of Expression 24 are not limited to the method of the present embodiment, and may be calculated using various information.

上述した実施形態においては、本発明をデジタルビデオカメラなどの撮像装置に適用した場合を例にして説明したが、これに限られず、領域の情報を用いて階調処理を行う装置であれば、他の装置にも適用可能である。   In the above-described embodiment, the case where the present invention is applied to an imaging apparatus such as a digital video camera has been described as an example. However, the present invention is not limited thereto, and any apparatus that performs gradation processing using area information may be used. It can be applied to other devices.

なお、本発明は、以下の処理を実行することによっても実現される。即ち、本実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of this embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program. It is processing to do.

[実施例2]
続いて第2の実施例について説明する。第2実施例においては、本露光撮影時にストロボ発光した場合について説明を行う。本実施例において、第2の画像認識領域はストロボ照射領域である。
[Example 2]
Next, a second embodiment will be described. In the second embodiment, a case where strobe light is emitted during main exposure photography will be described. In the present embodiment, the second image recognition area is a strobe irradiation area.

図21はストロボ照射を伴う本画像撮影時において、ライブ画像と本発光画像の撮影するタイミングチャートである。ライブ画像と本発光の画像から領域ごとに積分を実施し、ライブ画像の積分値に対して露光量や感度の差分演算にて本露光にあわせるように演算をし、本露光とライブ画像の積分値の差分演算を行うことでストロボ照射量を取得できる。   FIG. 21 is a timing chart for capturing a live image and a main light emission image at the time of main image capturing with strobe irradiation. Integration is performed for each region from the live image and the main flash image, and the integral value of the live image is calculated to match the main exposure by calculating the difference in exposure amount and sensitivity. The strobe irradiation amount can be acquired by performing a value difference calculation.

図22はライブ画像と本露光画像からストロボ照射量と外光比率を生成するフローを示したブロック図である。   FIG. 22 is a block diagram showing a flow for generating the strobe irradiation amount and the external light ratio from the live image and the main exposure image.

領域ごと外光ストロボ光比率生成手段405でのブロック比率から、ストロボ光が所定の比率を超えた領域をストロボ照射領域とし、所定の値以下の比率で外光ブロック領域として外光ブロックとストロボ領域のブロックのラベリングが可能である。このストロボ照射領域を主被写体領域に、外光領域を非主被写体領域の第2の画像認識領域の設定を行う。   From the block ratio in the outside light strobe light ratio generation means 405 for each area, the area where the strobe light exceeds a predetermined ratio is set as a strobe irradiation area, and the outside light block and strobe area are set as outside light block areas at a ratio equal to or less than a predetermined value. Can be labeled. The second image recognition area is set such that the strobe irradiation area is the main subject area and the outside light area is the non-main subject area.

ストロボ領域の色温度算出手段は、第1実施例と同様にストロボ領域から色味の検出を行い色温度の検出を行う方法のほか、外光量域とストロボ領域の光量比および、ストロボの色温度とライブ撮影時の外光色温度から該当ブロックの色温度の差分を算出しても良い。また色温度差分算出手段は、隣接ブロック間の色温度差分を算出し、その色温度差分の最大値、平均値、中央値などを色温度差分値と設定してもよい。   As in the first embodiment, the strobe area color temperature calculating means detects the color temperature from the strobe area and detects the color temperature, the light quantity ratio between the external light area and the strobe area, and the strobe color temperature. The difference between the color temperatures of the corresponding blocks may be calculated from the ambient light color temperature during live shooting. The color temperature difference calculating means may calculate a color temperature difference between adjacent blocks and set a maximum value, an average value, a median value, etc. of the color temperature difference as the color temperature difference value.

101 光学系、102 撮像部、103 A/D変換部、104 画像処理部 DESCRIPTION OF SYMBOLS 101 Optical system, 102 Imaging part, 103 A / D conversion part, 104 Image processing part

Claims (6)

画像の階調補正を行う画像処理装置であって、
画像を入力する入力手段と、
入力画像に対して被写体領域の判定を行う被写体領域判定手段と、
前記被写体領域判定手段の結果から第1の画像認識領域を検出する第1の画像認識検出手段と、
前記第1画像認識領域以外の第2の画像認識領域を検出する第2の画像認識領域手段と、
前記第1および第2の画像認識領域において前記画質評価値算出手段により検出された画像評価値に基づいて、第1の階調補正量を決定する第1の階調補正量決定手段と、
前記第1の画像認識領域における色温度を検出する第1の色温度検出手段と、
前記第2の画像認識領域に対して色温度を検出する第2の色温度検出手段と、
前記第1の色温度と前記第2の色温度との差分を算出する色温度差分検出手段と、
前記色温度差分と前記第1の階調補正量決定手段によって決定された諧調特性に基づいて、第2の階調補正量を決定する第2の階調特性決定手段と、
を有し、
前記第2の階調補正量決定手段によって決定された諧調補正量に基づいて前画像諧調補正を行う手段を有することを特徴とする画像処理装置。
An image processing apparatus that performs gradation correction of an image,
An input means for inputting an image;
Subject region determination means for determining a subject region for an input image;
First image recognition detection means for detecting a first image recognition area from the result of the subject area determination means;
Second image recognition area means for detecting a second image recognition area other than the first image recognition area;
First gradation correction amount determining means for determining a first gradation correction amount based on the image evaluation value detected by the image quality evaluation value calculating means in the first and second image recognition regions;
First color temperature detecting means for detecting a color temperature in the first image recognition area;
Second color temperature detection means for detecting a color temperature for the second image recognition region;
A color temperature difference detecting means for calculating a difference between the first color temperature and the second color temperature;
Second gradation characteristic determining means for determining a second gradation correction amount based on the color temperature difference and the gradation characteristic determined by the first gradation correction amount determining means;
Have
An image processing apparatus comprising: means for performing a previous image gradation correction based on the gradation correction amount determined by the second gradation correction amount determination means.
前記第2の諧調特性補正量決定手段は、前記色温度差分が大きい場合には、第1の階調補正量決定手段で決定された諧調特性を比較し、諧調特性の差分が所定の範囲になるように諧調特性を決定することを特徴とする請求項1に記載の画像処理装置。 The second gradation characteristic correction amount determination means compares the gradation characteristics determined by the first gradation correction amount determination means when the color temperature difference is large, and the gradation characteristic difference falls within a predetermined range. The image processing apparatus according to claim 1, wherein the gradation characteristic is determined to be 前記第2の画像認識領域が第1の画像認識領域に隣接するか判定する隣接判定手段を有し、前記隣接判定手段によって隣接していると判定された場合に、第2の諧調補正量決定手段によって諧調補正量決定を行うことを特徴とする請求項1又は請求項2に記載の画像処理装置。 Adjacent determination means for determining whether the second image recognition area is adjacent to the first image recognition area, and determining the second gradation correction amount when the adjacent determination means determines that the second image recognition area is adjacent. The image processing apparatus according to claim 1, wherein the gradation correction amount is determined by a unit. 前記第1の画像領域認識手段は顔認識を行う人物領域判定手段であって、前記人物領域判定手段は識領域の顔の大きさを検出する顔検出手段を有し、第2の諧調特性補正量決定手段は、前記顔検出の顔の大きさが大きい場合には、顔領域から算出した補正量をもちいて補正量を決定することを特徴とする請求項3に記載の画像処理装置。 The first image area recognition means is a person area determination means for performing face recognition, and the person area determination means has face detection means for detecting the size of the face of the knowledge area, and the second tone characteristic correction The image processing apparatus according to claim 3, wherein the amount determining unit determines the correction amount using the correction amount calculated from the face area when the face size of the face detection is large. 前記第1の画像領域認識手段は顔認識を行う人物領域判定手段であって、前記人物領域判定手段は識領域の顔の大きさを検出する顔検出手段を有し、第2の諧調特性補正量決定手段は、前記顔検出の顔の大きさが小さい場合には、背景領域から算出した補正量をもちいて補正量を決定することを特徴とする請求項3に記載の画像処理装置。 The first image area recognition means is a person area determination means for performing face recognition, and the person area determination means has face detection means for detecting the size of the face of the knowledge area, and the second tone characteristic correction The image processing apparatus according to claim 3, wherein the amount determining unit determines the correction amount using the correction amount calculated from the background region when the face size of the face detection is small. ストロボ発光装置を有し、第1の画像認識領域は、ストロボ照射領域を判定する領域判定手段であることを特徴する請求項1乃至請求項5の何れか一項に記載の画像処理装置。 6. The image processing apparatus according to claim 1, further comprising a strobe light emitting device, wherein the first image recognition area is an area determination unit that determines a strobe irradiation area.
JP2017161721A 2017-08-25 2017-08-25 Image processing device Pending JP2019040382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017161721A JP2019040382A (en) 2017-08-25 2017-08-25 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017161721A JP2019040382A (en) 2017-08-25 2017-08-25 Image processing device

Publications (1)

Publication Number Publication Date
JP2019040382A true JP2019040382A (en) 2019-03-14

Family

ID=65726866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017161721A Pending JP2019040382A (en) 2017-08-25 2017-08-25 Image processing device

Country Status (1)

Country Link
JP (1) JP2019040382A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021162274A1 (en) * 2020-02-11 2021-08-19 삼성전자 주식회사 Electronic device for supporting image quality adjustment and method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021162274A1 (en) * 2020-02-11 2021-08-19 삼성전자 주식회사 Electronic device for supporting image quality adjustment and method therefor

Similar Documents

Publication Publication Date Title
CN110022469B (en) Image processing method, image processing device, storage medium and electronic equipment
JP6116272B2 (en) Image processing apparatus, image processing method, program, and storage medium
US9294695B2 (en) Image processing apparatus, image pickup apparatus, and storage medium for generating a color image
CN100377575C (en) Image processing method, image processing apparatus, and computer program used therewith
EP2426928B1 (en) Image processing apparatus, image processing method and program
JP5665436B2 (en) Image processing apparatus, image processing method, and program
RU2496250C1 (en) Image processing apparatus and method
US10091422B2 (en) Image processing device and recording medium
JP6083974B2 (en) Image processing apparatus, image processing method, and program
JP2012235377A (en) Image processing apparatus, image processing method, and program
WO2015119271A1 (en) Image processing device, imaging device, image processing method, computer-processable non-temporary storage medium
JP5804857B2 (en) Image processing apparatus, image processing method, and program
CN110047060B (en) Image processing method, image processing device, storage medium and electronic equipment
JP2023106486A (en) Imaging apparatus and a control method for the same, and program
KR20110125170A (en) Apparatus and method for auto adjusting brightness of image taking device
JP6423668B2 (en) Image processing apparatus, control method therefor, and program
JP5854716B2 (en) Image processing apparatus, image processing method, and program
JP2019040382A (en) Image processing device
JP6570311B2 (en) Image processing apparatus and image processing method
JP6554009B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND RECORDING MEDIUM
JP6386843B2 (en) Image processing apparatus, image processing method, program, and storage medium
US11696044B2 (en) Image capturing apparatus, control method, and storage medium
JP2019040381A (en) Image processing device
US20230370725A1 (en) Imaging apparatus and control method for imaging apparatus
JP6021885B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125