JP5929019B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5929019B2
JP5929019B2 JP2011146750A JP2011146750A JP5929019B2 JP 5929019 B2 JP5929019 B2 JP 5929019B2 JP 2011146750 A JP2011146750 A JP 2011146750A JP 2011146750 A JP2011146750 A JP 2011146750A JP 5929019 B2 JP5929019 B2 JP 5929019B2
Authority
JP
Japan
Prior art keywords
unit
value
exposure
correction amount
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011146750A
Other languages
Japanese (ja)
Other versions
JP2013016926A (en
JP2013016926A5 (en
Inventor
青柳 英彦
英彦 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011146750A priority Critical patent/JP5929019B2/en
Publication of JP2013016926A publication Critical patent/JP2013016926A/en
Publication of JP2013016926A5 publication Critical patent/JP2013016926A5/ja
Application granted granted Critical
Publication of JP5929019B2 publication Critical patent/JP5929019B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置に関する。 The present invention relates to an imaging equipment.

従来から、輝度差の大きなシーンの撮影において、露出を下げて明部のデータが飽和しないように撮影した上で、暗部のゲインを大きくして明るくする画像処理を施して、画像のダイナミックレンジを拡大する方法が知られている(例えば、特許文献1参照)。   Conventionally, when shooting a scene with a large luminance difference, the image was processed so that the data in the bright part was not saturated by lowering the exposure, and then the gain in the dark part was increased to make it brighter, thereby increasing the dynamic range of the image. A method of enlarging is known (see, for example, Patent Document 1).

特開2010−232711号公報JP 2010-232711 A

しかし、上記従来の技術では、逆光の人物のように顔が暗いときに露出を大きく下げると、撮影した画像の顔部分のデータのS/Nが劣化するために顔が検出できなくなる可能性がある。また、検出できたとしても顔部分のデータのゲインを大きくするとノイズが目立ってしまう可能性がある。   However, in the above conventional technique, if the exposure is greatly lowered when the face is dark like a backlit person, the S / N of the data of the face portion of the photographed image may deteriorate, and the face may not be detected. is there. Even if it can be detected, noise may become conspicuous if the gain of the face portion data is increased.

本発明の課題は、顔が暗い場合でも顔の検出が可能で、且つノイズが目立たないような画像を得ることのできる撮像装置を提供することにある。 An object of the present invention, face detection can be face even when dark, it is to provide an imaging equipment capable and noise of obtaining an image as inconspicuous.

本発明は、以下のような解決手段により前記課題を解決する。 The present invention is, that solve the problems by following such a solution.

本発明は、被写界を複数の領域に分割して測光する測光部と、前記測光部による測光結果に基づいて第1の露出値を演算する第1露出演算部と、前記測光結果に基づいて第1の露出値に対して被写体の明部を復元するための補正量を演算する補正量演算部と、前記測光結果に基づいて主要被写体を検出する主要被写体検出部と、前記主要被写体の輝度を演算する主要被写体輝度演算部と、前記主要被写体の輝度に基づいて前記補正量を制限する補正量制限部と、前記制限された補正量に基づいて前記第1の露出値を補正した第2の露出値を演算する第2露出演算部と、前記第2の露出値に基づいて被写体を撮像して画像データを生成する撮像部とを有し、前記補正量が制限値以上の場合、前記制限された補正量を前記制限値とし、前記制限値は、前記第1の露出値から顔のアンダー許容量を引いたものを、主要被写体の代表輝度から引いた値である撮像装置である。
また、本発明は、被写界を複数の領域に分割して測光する測光部による測光結果に基づいて第1露出値を演算する第1露出演算部と、前記測光結果に基づいて第1の露出値に対して被写体の明部を復元するための補正量を演算する第1演算部と、主要被写体の輝度に基づいて前記補正量を制限する制限値を演算する第2演算部と、前記制限値が前記補正量よりも小さいとき前記制限値を選択する選択部と、前記制限値が前記補正量よりも小さいとき前記選択部により選択された前記制限値に基づいて前記第1露出値を補正した第2露出値を演算する第2露出演算部と、前記第2露出値に基づいて被写体を撮像して画像データを生成する撮像部と、前記画像データの画像が明るくなるように階調を補正する画像処理部とを有し、前記制限値は、前記第1露出値から顔のアンダー許容量を引いたものを、前記主要被写体の輝度から引いた値である撮像装置である。
The present invention is based on a photometry unit that divides a subject field into a plurality of areas and performs photometry, a first exposure calculation unit that calculates a first exposure value based on a photometry result by the photometry unit, and the photometry result A correction amount calculation unit that calculates a correction amount for restoring the bright portion of the subject with respect to the first exposure value, a main subject detection unit that detects a main subject based on the photometric result, A main subject luminance calculation unit for calculating luminance; a correction amount limiting unit for limiting the correction amount based on the luminance of the main subject; and a first exposure value corrected for the first exposure value based on the limited correction amount. A second exposure calculation unit that calculates an exposure value of 2, and an imaging unit that images a subject based on the second exposure value and generates image data, and the correction amount is equal to or greater than a limit value, The limited correction amount is the limit value, and the limit value The minus under allowance of the face from the first exposure value, Ru imaging apparatus der a value obtained by subtracting from the representative luminance of the main object.
In addition, the present invention provides a first exposure calculation unit that calculates a first exposure value based on a photometry result obtained by a photometry unit that performs photometry by dividing an object scene into a plurality of areas, and a first exposure based on the photometry result. A first calculation unit that calculates a correction amount for restoring the bright portion of the subject with respect to the exposure value; a second calculation unit that calculates a limit value for limiting the correction amount based on the luminance of the main subject; A selection unit that selects the limit value when the limit value is smaller than the correction amount, and the first exposure value based on the limit value selected by the selection unit when the limit value is smaller than the correction amount. A second exposure calculation unit that calculates the corrected second exposure value, an imaging unit that captures an image of a subject based on the second exposure value and generates image data, and a gradation so that an image of the image data becomes brighter An image processing unit that corrects, and the limit value is The minus the under-capacity of the face from the serial first exposure value, the an image pickup apparatus which is a value obtained by subtracting from the luminance of the main object.

本発明によれば、顔が暗い場合でも顔の検出が可能で、且つノイズが目立たないような画像を得ることのできる撮像装置を提供することができる。

According to the present invention, can be detected face even when the face is dark, it is possible to provide an imaging equipment to and capable of noise to obtain an image as inconspicuous.

実施形態のカメラの構成を示す図である。It is a figure which shows the structure of the camera of embodiment. 実施形態のカメラの機能ブロック図であるIt is a functional block diagram of the camera of the embodiment 実施形態のカメラの基本動作を示すフローチャートである。It is a flowchart which shows the basic operation | movement of the camera of embodiment. ローパスフィルタの特性を示す図である。It is a figure which shows the characteristic of a low-pass filter. 明度向上量に対応するゲイン向上関数を例示した図である。It is the figure which illustrated the gain improvement function corresponding to the brightness improvement amount. 測光演算サブルーチンを示すフローチャートである。It is a flowchart which shows a photometry calculation subroutine. 第2撮像センサを示す図であり、(a)は第2撮像センサの画素配列の例、(b)は24領域に分割した画素、(c)は撮影シーンの例、(d)は顔の中心部分を示す図である。It is a figure which shows a 2nd image sensor, (a) is an example of the pixel arrangement | sequence of a 2nd image sensor, (b) is a pixel divided | segmented into 24 area | regions, (c) is an example of an imaging | photography scene, (d) is a face of a face. It is a figure which shows a center part. 露出制御値の具体的な算出方法を示すフローチャートである。It is a flowchart which shows the specific calculation method of an exposure control value. (a)は24分割されたそれぞれの領域の輝度値を示す図であり、(b)は24分割を4つずつまとめた例を示した図である。(A) is a figure which shows the luminance value of each area | region divided into 24, (b) is the figure which showed the example which put 24 divisions into 4 each. 仮ハイライト復元量の演算を示すフローチャートである。It is a flowchart which shows the calculation of temporary highlight restoration amount. 主要被写体の開領域の選択方法を示す図である。It is a figure which shows the selection method of the open area | region of a main to-be-photographed object. 主要被写体の分割例を示した図である。It is a figure showing an example of division of a main subject. 変数の場合の算出例を示す図である。It is a figure which shows the example of calculation in the case of a variable.

以下に本発明の実施形態を説明する。
図1は、本実施形態のカメラ100の構成を示す図である。
カメラ100はカメラ本体1と、レンズユニット2から構成される。ここで、レンズユニット2はカメラ本体1に対して交換可能に装着される。またレンズユニット2は撮影レンズ3と撮影レンズ3を駆動するモータ4およびレンズユニットの情報を記録したレンズ内メモリ18を含む。
Embodiments of the present invention will be described below.
FIG. 1 is a diagram illustrating a configuration of a camera 100 according to the present embodiment.
The camera 100 includes a camera body 1 and a lens unit 2. Here, the lens unit 2 is attached to the camera body 1 in a replaceable manner. The lens unit 2 includes a photographing lens 3, a motor 4 that drives the photographing lens 3, and an in-lens memory 18 that records information on the lens unit.

カメラ本体1は、メインミラー5と、サブミラー6と、フォーカルプレーンシャッター8と、被写体像を光電変換する第1撮像センサ9と、ファインダ光学系20と、被写体像を光電変換する第2撮像センサ16と、焦点検出ユニット7と、制御部10と、手振れセンサ17(例、角速度センサ)と表示ユニット19を有している。   The camera body 1 includes a main mirror 5, a sub mirror 6, a focal plane shutter 8, a first image sensor 9 that photoelectrically converts a subject image, a finder optical system 20, and a second image sensor 16 that photoelectrically converts the subject image. And a focus detection unit 7, a control unit 10, a camera shake sensor 17 (for example, an angular velocity sensor), and a display unit 19.

ここで第1撮像センサ9は高画質な静止画を生成するためのセンサである。また第2撮像センサ16は撮影シーンを解析して第1撮像センサ9の撮影及び画像処理条件を演算するためのセンサである。撮影シーンを解析するに十分な画素数を持つ。後述する図7(a)は第2撮像センサ16の画素配列の例である。   Here, the first imaging sensor 9 is a sensor for generating a high-quality still image. The second imaging sensor 16 is a sensor for analyzing a shooting scene and calculating shooting and image processing conditions of the first imaging sensor 9. It has enough pixels to analyze the shooting scene. FIG. 7A described later is an example of a pixel array of the second image sensor 16.

メインミラー5、サブミラー6、フォーカルプレーンシャッター8および第1撮像センサ9は、撮影レンズ3の光軸に沿って配置され、ファインダ光学系20はメインミラー5の上部領域に、焦点検出ユニット7はサブミラー6の下部領域に配置されている。   The main mirror 5, the sub mirror 6, the focal plane shutter 8, and the first image sensor 9 are arranged along the optical axis of the photographing lens 3, the finder optical system 20 is in the upper region of the main mirror 5, and the focus detection unit 7 is the sub mirror. 6 is arranged in the lower region.

ここで、撮影者がファインダ光学系20を通して被写界を観察する時、つまり静止画撮影およびライブビュー以外の時は、メインミラー5は、撮影レンズ3から第1撮像センサ9までの撮影光路と交差し、撮影レンズ3を通過した光束を上方に反射させてファインダ光学系20に導くようになっている(実線の位置)。
一方、ライブビュー時および静止画撮影時はメインミラー5は上方に跳ね上げられ、撮影レンズ3を通過した光束はフォーカルプレーンシャッター8および第1撮像センサ9に導かれ、第1撮像センサ9の画像信号に基づいて被写体の撮影画像データを生成することができる(点線の位置)。
Here, when the photographer observes the object scene through the finder optical system 20, that is, other than still image shooting and live view, the main mirror 5 has a shooting optical path from the shooting lens 3 to the first image sensor 9. The light beams that intersect and pass through the photographing lens 3 are reflected upward and guided to the finder optical system 20 (solid line position).
On the other hand, at the time of live view and still image shooting, the main mirror 5 is flipped upward, and the light flux that has passed through the shooting lens 3 is guided to the focal plane shutter 8 and the first image sensor 9, and the image of the first image sensor 9 Based on the signal, photographic image data of the subject can be generated (position of dotted line).

また、メインミラー5の中央部は光を透過するハーフミラーとなっていて、非撮影時のメインミラー5を透過した一部の光束はサブミラー6によって下方に反射され、焦点検出ユニット7に導かれるようになっている。   Further, the central portion of the main mirror 5 is a half mirror that transmits light, and a part of the light beam that has transmitted through the main mirror 5 during non-shooting is reflected downward by the sub mirror 6 and guided to the focus detection unit 7. It is like that.

ファインダ光学系20は、拡散スクリーン11と、コンデンサレンズ12と、ペンタプリズム13と、接眼レンズ14と、再結像レンズ15を有している。   The finder optical system 20 includes a diffusing screen 11, a condenser lens 12, a pentaprism 13, an eyepiece lens 14, and a re-imaging lens 15.

拡散スクリーン11はメインミラー5の上方に配置され、実線の位置でのメインミラー5が反射した光束を一旦結像させる。拡散スクリーン11で結像した光束はコンデンサレンズ12およびペンタプリズム13および接眼レンズ14を通過して撮影者の目に到達する。また、拡散スクリーン11によって拡散された光束の一部はコンデンサレンズ12およびペンタプリズム13および再結像レンズ15を通過して第2撮像センサ16に到達する。   The diffusing screen 11 is disposed above the main mirror 5 and once forms an image of the light beam reflected by the main mirror 5 at the position of the solid line. The light beam formed on the diffusion screen 11 passes through the condenser lens 12, the pentaprism 13, and the eyepiece lens 14 and reaches the eyes of the photographer. A part of the light beam diffused by the diffusing screen 11 passes through the condenser lens 12, the pentaprism 13, and the re-imaging lens 15 and reaches the second imaging sensor 16.

図2は、実施形態のカメラ100の機能ブロック図である。図2に示すように、カメラ100は、図1の構成に加えて、タイミングジェネレータ20、信号処理部21、A/D変換部22、バッファメモリ23、バス24、カードインターフェース25、圧縮伸長部26、画像表示部27の各部を備える。タイミングジェネレータ20は、第1撮像センサ9に出力パルスを供給する。また、第1撮像センサ9で生成される画像データは、信号処理部21(撮像感度に対応するゲイン調整部を含む)およびA/D変換部22を介して、バッファメモリ23に一時記憶される。バッファメモリ23は、バス24に接続される。このバス24には、カードインターフェース25、図1で説明した制御部10、圧縮伸長部26、および画像表示部27が接続される。カードインターフェース25は、着脱自在なメモリカード28と接続し、メモリカード28に画像データを記録する。   FIG. 2 is a functional block diagram of the camera 100 of the embodiment. As shown in FIG. 2, the camera 100 includes a timing generator 20, a signal processing unit 21, an A / D conversion unit 22, a buffer memory 23, a bus 24, a card interface 25, and a compression / decompression unit 26 in addition to the configuration of FIG. Each part of the image display unit 27 is provided. The timing generator 20 supplies output pulses to the first image sensor 9. Further, the image data generated by the first imaging sensor 9 is temporarily stored in the buffer memory 23 via the signal processing unit 21 (including a gain adjustment unit corresponding to the imaging sensitivity) and the A / D conversion unit 22. . The buffer memory 23 is connected to the bus 24. The bus 24 is connected to the card interface 25, the control unit 10, the compression / decompression unit 26, and the image display unit 27 described in FIG. The card interface 25 is connected to a removable memory card 28 and records image data on the memory card 28.

また、制御部10は、後述する露出値演算部10a、復元量演算部10b、主要被写体検出部10c、主要被写体輝度演算部10d、復元量制限部10eを備える。そして制御部10には、カメラ100のスイッチ群29(不図示のレリーズ釦などを含む)、タイミングジェネレータ20、および第2撮像センサ16が接続される。さらに、画像表示部27は、カメラ100の背面に設けられた表示ユニット19に画像などを表示する。   The control unit 10 includes an exposure value calculation unit 10a, a restoration amount calculation unit 10b, a main subject detection unit 10c, a main subject luminance calculation unit 10d, and a restoration amount limit unit 10e, which will be described later. The control unit 10 is connected to a switch group 29 (including a release button (not shown)) of the camera 100, a timing generator 20, and the second imaging sensor 16. Further, the image display unit 27 displays an image or the like on the display unit 19 provided on the back surface of the camera 100.

次に図3のフローチャートに基づいて動作を説明する。
不図示のレリーズボタンが半押しされると、制御部10はメインミラー5を実線の位置のままにしてステップ101の測光演算サブルーチンの動作を行って露出制御値BvCntl1を演算する。詳細は後述する。
Next, the operation will be described based on the flowchart of FIG.
When a release button (not shown) is half-pressed, the control unit 10 calculates the exposure control value BvCntl1 by performing the operation of the photometric calculation subroutine of step 101 while keeping the main mirror 5 at the position of the solid line. Details will be described later.

ステップ102において、レリーズボタンが全押しされたか否かを判定する。全押しされていなければステップ101へ戻り、全押しされていればステップ103へ進む。   In step 102, it is determined whether or not the release button has been fully pressed. If not fully depressed, the process returns to step 101. If fully depressed, the process proceeds to step 103.

ステップ103において、制御部10は、各部を制御し、ステップ101で行った測光演算の結果に基づいて、第1撮像センサ9により被写体像を撮像して画像データを生成する。そして、第1撮像センサ9により生成された画像データは、信号処理部21およびA/D変換部22を介して、バッファメモリ23に一時記憶される。   In step 103, the control unit 10 controls each unit, and based on the result of the photometric calculation performed in step 101, the first image sensor 9 captures a subject image and generates image data. The image data generated by the first imaging sensor 9 is temporarily stored in the buffer memory 23 via the signal processing unit 21 and the A / D conversion unit 22.

ステップ104において、制御部10は、バッファメモリ23から画像データを読み出し、顔検出を行う。顔検出の具体的な方法は公知技術と同様であるため説明を省略する。なお、検出対象の画像データに複数の人物が含まれる場合、制御部10は、それぞれの人物の顔検出を行う。   In step 104, the control unit 10 reads image data from the buffer memory 23 and performs face detection. Since the specific method of face detection is the same as that of the known technique, description thereof is omitted. When a plurality of persons are included in the detection target image data, the control unit 10 detects each person's face.

ステップ105において、制御部10は、ステップ104においてバッファメモリ23から読み出した画像データに対して、通常の画像処理を行う。通常の画像処理とは、ホワイトバランス調整、補間処理、色調補正処理、階調変換処理などである。各処理の具体的な方法は公知技術と同様であるため説明を省略する。   In step 105, the control unit 10 performs normal image processing on the image data read from the buffer memory 23 in step 104. Normal image processing includes white balance adjustment, interpolation processing, color tone correction processing, gradation conversion processing, and the like. Since the specific method of each process is the same as that of a well-known technique, description is abbreviate | omitted.

ステップ106において、制御部10は、階調圧縮モードであるか否かを判定する。そして、制御部10は、階調圧縮モードであると判定するとステップ107に進む。一方、階調圧縮モードでない(階調非圧縮モードである)と判定すると、制御部10は後述するステップ111に進む。   In step 106, the control unit 10 determines whether or not the gradation compression mode is set. If the control unit 10 determines that the tone compression mode is set, the process proceeds to step 107. On the other hand, if it is determined that the mode is not the gradation compression mode (the gradation non-compression mode), the control unit 10 proceeds to Step 111 described later.

ステップ107において、制御部10は、ステップ104においてバッファメモリ23から読み出した画像データから、ローパス画像を作成する。
制御部10は、次式を用いて、ステップ104においてバッファメモリ23から読み出した画像データからローパス画像Lyを作成する。
In step 107, the control unit 10 creates a low-pass image from the image data read from the buffer memory 23 in step 104.
The control unit 10 creates a low-pass image Ly from the image data read from the buffer memory 23 in step 104 using the following equation.

Figure 0005929019
Figure 0005929019

式1中のYは、注目画素の輝度値を示す。また、式1中のkr,kg,kbは所定の係数である。また、式2中のLpwは、注目画素周りのローパスフィルタであり、このローパスフィルタは、図4に示す特性を有する。このローパスフィルタは、半値幅(図4のd)が画像の短辺の1/100以上の広い幅のローパスフィルタである。   Y in Equation 1 indicates the luminance value of the target pixel. Further, kr, kg, and kb in Equation 1 are predetermined coefficients. Lpw in Equation 2 is a low-pass filter around the pixel of interest, and this low-pass filter has the characteristics shown in FIG. This low-pass filter is a wide-width low-pass filter whose half-value width (d in FIG. 4) is 1/100 or more of the short side of the image.

ステップ108において、制御部10は、明るさに関する評価値を算出する。制御部10は、まず、ステップ104で行った顔検出の結果に基づいて、顔領域の中心座標(Fx,Fy)を求める。ただし、ステップ104において複数の顔を検出した場合には、面積が最大の顔領域の中心座標を求める。   In step 108, the control unit 10 calculates an evaluation value related to brightness. First, the control unit 10 obtains the center coordinates (Fx, Fy) of the face area based on the result of the face detection performed in step 104. However, when a plurality of faces are detected in step 104, the center coordinates of the face area having the largest area are obtained.

次に、制御部10は、明るさに関する評価値として、顔の明度Yfを求める。顔の明度Yfは次式により求められる。   Next, the control unit 10 obtains a facial brightness Yf as an evaluation value related to brightness. The brightness Yf of the face is obtained by the following equation.

Yf=Ly[Fx,Fy]…(式3)
なお、ステップ104において複数の顔を検出した場合には、面積が最大の顔領域の中心座標を求める例を示したが、最も暗い顔領域の中心座標を求めても良い。このように、最も暗い顔領域に応じた処理を行うことにより、複数の顔の全てを好ましい明るさに表現することができる。
Yf = Ly [Fx, Fy] (Formula 3)
In the case where a plurality of faces are detected in step 104, the example of obtaining the center coordinates of the face area having the largest area has been shown. However, the center coordinates of the darkest face area may be obtained. In this way, by performing the processing according to the darkest face region, all of the plurality of faces can be expressed with a preferable brightness.

また、複数の顔のそれぞれについて明度Yfを求め、それぞれの顔領域の面積に応じた重み付けを行っても良い。
ステップ109において、制御部10は、暗部階調を補正する際の明度向上量を決定する。制御部10は、まず、表1に基づいて、ステップ108で求めた顔の明度Yfに応じた明度向上量候補fupを求める。
Alternatively, the brightness Yf may be obtained for each of a plurality of faces, and weighting may be performed according to the area of each face region.
In step 109, the control unit 10 determines the brightness improvement amount when correcting the dark part gradation. First, the control unit 10 obtains a brightness improvement amount candidate fup according to the face brightness Yf obtained in step 108 based on Table 1.

Figure 0005929019
Figure 0005929019

ただし、制御部10は、ステップ103で行った撮像時のISO感度に応じて、明度向上量候補fupを制限する。すなわち、制御部10は、表2に基づいて、求めた明度向上量候補fupを制限する。   However, the control unit 10 limits the brightness improvement amount candidate fup according to the ISO sensitivity at the time of imaging performed in step 103. That is, the control unit 10 restricts the obtained brightness improvement amount candidate fup based on Table 2.

Figure 0005929019
Figure 0005929019

次に、制御部10は、表3に基づいて、後述する図6のステップ206で求めたハイライト復元量HiRcvに応じた明度向上量候補Hupを求める。   Next, the control unit 10 obtains a brightness improvement amount candidate Hup according to the highlight restoration amount HiRcv obtained in step 206 of FIG.

Figure 0005929019
Figure 0005929019

そして、制御部10は、顔の明度Yfに応じた明度向上量候補fupと、ハイライト復元量HiRcvに応じた明度向上量候補Hupとを比較し、大きい方の値をハイライト復元量HiRcvに応じた明度向上量Gupとする。   Then, the control unit 10 compares the brightness enhancement amount candidate fup according to the face brightness Yf with the brightness enhancement amount candidate Hup according to the highlight restoration amount HiRcv, and the larger value is used as the highlight restoration amount HiRcv. The brightness improvement amount Gup is set accordingly.

ステップ110において、制御部10は、ステップ109で決定した明度向上量Gupにしたがって、ステップ105で通常の画像処理を施した画像データに対して階調圧縮処理を行う。   In step 110, the control unit 10 performs gradation compression processing on the image data that has been subjected to normal image processing in step 105 in accordance with the brightness enhancement amount Gup determined in step 109.

制御部10は、まず、ステップ109で決定した明度向上量Gupにしたがって、ゲイン向上関数fgを選択する。
図5は、明度向上量Gupに対応する階調圧縮のゲイン向上関数fgを示す図である。ゲイン向上関数fgは、画像の輝度Yに応じたゲインを有する。そして、輝度Yが小さいほど(処理画素を含む近傍範囲が暗いほど)、ゲイン向上関数fgは大きくなる。逆に、輝度Yが大きいほど(処理画素を含む近傍範囲が明るいほど)、ゲイン向上関数fgは1に近づく。
First, the control unit 10 selects the gain improvement function fg according to the lightness improvement amount Gup determined in step 109.
FIG. 5 is a diagram showing a gain enhancement function fg for gradation compression corresponding to the brightness enhancement amount Gup. The gain improvement function fg has a gain corresponding to the luminance Y of the image. And the gain improvement function fg becomes large, so that the brightness | luminance Y is small (the neighborhood range containing a process pixel is dark). Conversely, the gain improvement function fg approaches 1 as the luminance Y increases (the neighborhood range including the processing pixel is brighter).

制御部10は、上述した明度向上量Gupにしたがって、ゲイン向上関数fgを選択し、注目画素x、y付近の明度に応じて暗部領域を後述する方法でゲインアップする。   The control unit 10 selects the gain enhancement function fg according to the brightness enhancement amount Gup described above, and increases the gain of the dark area by a method described later according to the brightness near the target pixel x, y.

なお、図5には、明度向上量Gup=0,1,2,3のそれぞれに対応するゲイン向上関数fgを例示した。ゲイン向上関数fgは明度向上量Gupに応じて予め数本用意しても良いし、ゲインアップ量が最大のゲイン向上関数のみを用意し、ゲインアップ量が最大のゲイン向上関数fgとゲイン1との間を適宜補間して無段階としても良い。   FIG. 5 illustrates gain improvement functions fg corresponding to lightness improvement amounts Gup = 0, 1, 2, and 3, respectively. Several gain improvement functions fg may be prepared in advance according to the lightness improvement amount Gup, or only a gain improvement function having the maximum gain increase amount is prepared, and the gain improvement function fg and gain 1 having the maximum gain increase amount are prepared. It is also possible to interpolate between the steps to make it stepless.

また、ステップ106において階調圧縮モードでない(階調非圧縮モードである)と判定した際に、制御部10内の処理回路の構成上、階調圧縮処理をスキップできない場合には、図5のGup=0に示すゲイン向上関数fgを用いる。   Further, when it is determined in step 106 that the gradation compression mode is not set (the gradation non-compression mode is set), if the gradation compression process cannot be skipped due to the configuration of the processing circuit in the control unit 10, FIG. A gain improvement function fg shown in Gup = 0 is used.

各画素R[x,y],G[x,y],B[x,y]における階調圧縮演算は以下の式4から式6により行う。   The gradation compression calculation in each pixel R [x, y], G [x, y], B [x, y] is performed by the following equations 4 to 6.

Figure 0005929019
Figure 0005929019

式4から式6中のfgは、上述したゲイン向上関数fgに対応し、Lyは、ステップ107で説明したローパス画像に対応する。   Fg in Expression 4 to Expression 6 corresponds to the above-described gain improvement function fg, and Ly corresponds to the low-pass image described in Step 107.

ステップ111において、制御部10は、ステップ110で階調圧縮処理を施した画像データ、またはステップ105で通常の画像処理を施した画像データを、カードインターフェース25を介してメモリカード28に記録し、一連の処理を終了する。なお、画像データをメモリカード28に記録する前に、圧縮伸長部26を介して、必要に応じて画像圧縮処理(JPEG圧縮処理など)を施しても良い。   In step 111, the control unit 10 records the image data subjected to the gradation compression process in step 110 or the image data subjected to the normal image process in step 105 to the memory card 28 via the card interface 25, A series of processing ends. Note that before the image data is recorded on the memory card 28, an image compression process (such as a JPEG compression process) may be performed as necessary via the compression / decompression unit 26.

次に図6のフローチャートに基づいて測光演算サブルーチン(図3のステップ101)の動作を説明する。
まずステップ201において、制御部10は第2撮像センサ16を駆動して被写界のプレ画像を取得する。
Next, the operation of the photometric calculation subroutine (step 101 in FIG. 3) will be described based on the flowchart in FIG.
First, in step 201, the control unit 10 drives the second imaging sensor 16 to acquire a pre-image of the object scene.

ステップ202において、制御部10の露出値演算部10aは、撮影の為の仮露出制御値BvCntl0を算出する。具体的な算出方法は例えば、第2撮像センサ16の画素を図7(b)のように24領域に分割して各領域ごとの平均出力を求める。   In step 202, the exposure value calculation unit 10a of the control unit 10 calculates a temporary exposure control value BvCntl0 for shooting. As a specific calculation method, for example, the pixels of the second image sensor 16 are divided into 24 regions as shown in FIG. 7B, and an average output for each region is obtained.

その仮露出制御値BvCntl0の具体的な算出方法を、図8に示すフローチャートを用いて説明する。
まず、ステップ301において、制御部10は、第2撮像センサ16から24分割の測光結果を取得する。第2撮像センサ16は、入射した光を光電変換し、図9(a)に示すように、分割されたそれぞれの領域に対応する24分割の輝度値Bv[1,1]からBv[6,4]を出力する。
A specific method for calculating the temporary exposure control value BvCntl0 will be described with reference to the flowchart shown in FIG.
First, in step 301, the control unit 10 acquires a 24-division photometric result from the second imaging sensor 16. The second image sensor 16 photoelectrically converts the incident light and, as shown in FIG. 9A, the 24 divided luminance values Bv [1,1] to Bv [6, corresponding to the divided areas. 4] is output.

ステップ302において、制御部10は、ステップ301で取得した24分割の測光結果に基づいて、15分割の測光結果を取得する。制御部10は、ステップ301で取得した24分割の輝度値Bv[1,1]からBv[6,4]を4つずつまとめて、15分割の輝度値RBv[1]からRBv[15]を取得する。15分割の輝度値RBv[1]からRBv[15]は、以下の式7から式21により演算される。また、図9(b)に15分割の領域の一部(RBv[1],RBv[3],RBv[5],RBv[11],RBv[13],RBv[15])を例示する。   In step 302, the control unit 10 acquires a 15-division photometry result based on the 24-division photometry result acquired in step 301. The control unit 10 collects the four-divided luminance values Bv [1,1] to Bv [6,4] obtained in step 301 by four, and obtains the fifteen divided luminance values RBv [1] to RBv [15]. get. The 15-divided luminance values RBv [1] to RBv [15] are calculated by Equations 7 to 21 below. FIG. 9B illustrates a part of the 15 divided areas (RBv [1], RBv [3], RBv [5], RBv [11], RBv [13], RBv [15]).

RBv[1]=(Bv[1,1]+Bv[2,1]+Bv[1,2]+Bv[2,2])/4…(式7)
RBv[2]=(Bv[2,1]+Bv[3,1]+Bv[2,2]+Bv[3,2])/4…(式8)
RBv[3]=(Bv[3,1]+Bv[4,1]+Bv[3,2]+Bv[4,2])/4…(式9)
RBv[4]=(Bv[4,1]+Bv[5,1]+Bv[4,2]+Bv[5,2])/4…(式10)
RBv[5]=(Bv[5,1]+Bv[6,1]+Bv[5,2]+Bv[6,2])/4…(式11)
RBv[6]=(Bv[1,2]+Bv[2,2]+Bv[1,3]+Bv[2,3])/4…(式12)
RBv[7]=(Bv[2,2]+Bv[3,2]+Bv[2,3]+Bv[3,3])/4…(式13)
RBv[8]=(Bv[3,2]+Bv[4,2]+Bv[3,3]+Bv[4,3])/4…(式14)
RBv[9]=(Bv[4,2]+Bv[5,2]+Bv[4,3]+Bv[5,3])/4…(式15)
RBv[10]=(Bv[5,2]+Bv[6,2]+Bv[5,3]+Bv[6,3])/4…(式16)
RBv[11]=(Bv[1,3]+Bv[2,3]+Bv[1,4]+Bv[2,4])/4…(式17)
RBv[12]=(Bv[2,3]+Bv[3,3]+Bv[2,4]+Bv[3,4])/4…(式18)
RBv[13]=(Bv[3,3]+Bv[4,3]+Bv[3,4]+Bv[4,4])/4…(式19)
RBv[14]=(Bv[4,3]+Bv[5,3]+Bv[4,4]+Bv[5,4])/4…(式20)
RBv[15]=(Bv[5,3]+Bv[6,3]+Bv[5,4]+Bv[6,4])/4…(式21)
RBv [1] = (Bv [1,1] + Bv [2,1] + Bv [1,2] + Bv [2,2]) / 4 (Expression 7)
RBv [2] = (Bv [2,1] + Bv [3,1] + Bv [2,2] + Bv [3,2]) / 4 ... (Equation 8)
RBv [3] = (Bv [3,1] + Bv [4,1] + Bv [3,2] + Bv [4,2]) / 4 ... (Equation 9)
RBv [4] = (Bv [4,1] + Bv [5,1] + Bv [4,2] + Bv [5,2]) / 4 ... (Equation 10)
RBv [5] = (Bv [5,1] + Bv [6,1] + Bv [5,2] + Bv [6,2]) / 4 ... (Equation 11)
RBv [6] = (Bv [1,2] + Bv [2,2] + Bv [1,3] + Bv [2,3]) / 4 ... (Equation 12)
RBv [7] = (Bv [2,2] + Bv [3,2] + Bv [2,3] + Bv [3,3]) / 4 ... (Equation 13)
RBv [8] = (Bv [3,2] + Bv [4,2] + Bv [3,3] + Bv [4,3]) / 4 ... (Formula 14)
RBv [9] = (Bv [4,2] + Bv [5,2] + Bv [4,3] + Bv [5,3]) / 4 ... (Equation 15)
RBv [10] = (Bv [5,2] + Bv [6,2] + Bv [5,3] + Bv [6,3]) / 4 ... (Equation 16)
RBv [11] = (Bv [1,3] + Bv [2,3] + Bv [1,4] + Bv [2,4]) / 4 (Expression 17)
RBv [12] = (Bv [2,3] + Bv [3,3] + Bv [2,4] + Bv [3,4]) / 4 ... (Equation 18)
RBv [13] = (Bv [3,3] + Bv [4,3] + Bv [3,4] + Bv [4,4]) / 4 ... (Equation 19)
RBv [14] = (Bv [4,3] + Bv [5,3] + Bv [4,4] + Bv [5,4]) / 4 ... (Equation 20)
RBv [15] = (Bv [5,3] + Bv [6,3] + Bv [5,4] + Bv [6,4]) / 4 (Expression 21)

ステップ303において、制御部10は、ステップ301およびステップ302で取得した測光結果に基づいて、平均輝度値BvMean、15分割の輝度値RBvの最大輝度値BvMax15、最小輝度値BvMin15、中央部輝度値BvC、24分割の輝度値Bvの最大輝度値BvMax24を特徴量として演算する。各値は、以下の各式により求められる。   In step 303, the control unit 10 determines the average luminance value BvMean, the maximum luminance value BvMax15 of the luminance values RBv of 15 divisions, the minimum luminance value BvMin15, and the central luminance value BvC based on the photometric results obtained in steps 301 and 302. The maximum luminance value BvMax24 of the 24 divided luminance values Bv is calculated as the feature amount. Each value is obtained by the following equations.

Figure 0005929019
Figure 0005929019

BvMax15=MAX(RBv[1]~RBv[15])…(式23)
BvMin15=MIN(RBv[1]~RBv[15])…(式24)
BvC=RBv[8] …(式25)
BvMax24=MAX(Bv[1,1]~Bv[6,4])…(式26)
BvMax15 = MAX (RBv [1] to RBv [15]) (Equation 23)
BvMin15 = MIN (RBv [1] to RBv [15]) (Equation 24)
BvC = RBv [8] (Equation 25)
BvMax24 = MAX (Bv [1,1] to Bv [6,4]) (Equation 26)

ステップ304において、制御部10は、ステップ303で演算した各値に基づいて、仮露出制御値BvCntl0を演算する。仮露出制御値BvCntl0は、次式により求められる。   In step 304, the control unit 10 calculates a temporary exposure control value BvCntl0 based on each value calculated in step 303. The temporary exposure control value BvCntl0 is obtained by the following equation.

BvCntl0=k1・BvMean+k2・BvMax15+k3・BvMin15+k4・BvC+k5…(式27)
式27において、k1からk4は、各項の重みを示す係数である。また、k5は、定数項である。k1からk5は、平均輝度値BvMeanに応じた数であり、様々なサンプルシーンでより良い画像となるように予め決定される。k1からk5の例を以下の表4に示す。
BvCntl0 = k1, BvMean + k2, BvMax15 + k3, BvMin15 + k4, BvC + k5 (Equation 27)
In Equation 27, k1 to k4 are coefficients indicating the weight of each term. K5 is a constant term. k1 to k5 are numbers corresponding to the average luminance value BvMean, and are determined in advance so that a better image is obtained in various sample scenes. Examples of k1 to k5 are shown in Table 4 below.

Figure 0005929019
Figure 0005929019

図6に戻り、ステップ203において、制御部10の復元量演算部10bは、仮ハイライト復元量Pre_HiRcvを演算する。仮ハイライト復元量Pre_HiRcvの演算は図10のステップ401及び402に従って行う。
図10のステップ401において、制御部10は、ステップ304で演算した仮露出制御値BvCntl0と、24分割の輝度値Bvの最大輝度値BvMax24とを比較する。制御部10は、仮露出制御値BvCntl0と24分割の輝度値Bvの最大輝度値BvMax24との差が所定値thHiをこえる値dHiを、次式を用いて求める。
Returning to FIG. 6, in Step 203, the restoration amount calculation unit 10 b of the control unit 10 calculates the temporary highlight restoration amount Pre_HiRcv. The calculation of the temporary highlight restoration amount Pre_HiRcv is performed according to steps 401 and 402 in FIG.
In step 401 in FIG. 10, the control unit 10 compares the temporary exposure control value BvCntl0 calculated in step 304 with the maximum luminance value BvMax24 of the 24 divided luminance values Bv. The control unit 10 obtains a value dHi in which the difference between the temporary exposure control value BvCntl0 and the maximum luminance value BvMax24 of the 24 divided luminance values Bv exceeds a predetermined value thHi using the following equation.

dHi=BvMax24-BvCntl0-thHi…(式28)
式28において、所定値thHiは、画像のハイライト部分が飽和を起こすと推定される量で、例えば、2Evから3Ev程度である。この所定値thHiは、撮像センサである第1撮像センサ9の飽和レベルや、第2撮像センサ16の画素の大きさなどにより最適な値とする。
dHi = BvMax24-BvCntl0-thHi ... (Formula 28)
In Expression 28, the predetermined value thHi is an amount estimated to cause the highlight portion of the image to be saturated, and is, for example, about 2Ev to 3Ev. The predetermined value thHi is set to an optimum value depending on the saturation level of the first image sensor 9 which is an image sensor, the pixel size of the second image sensor 16, and the like.

ステップ402において、制御部10は、ステップ401における比較結果に基づいて、仮ハイライト復元量Pre_HiRcvを演算する。制御部10は、仮ハイライト復元量Pre_HiRcvを、次式を用いて求める。   In step 402, the control unit 10 calculates a temporary highlight restoration amount Pre_HiRcv based on the comparison result in step 401. The control unit 10 obtains the temporary highlight restoration amount Pre_HiRcv using the following equation.

Figure 0005929019
Figure 0005929019

式29に示すように、制御部10は、ステップ401で求めた、仮露出制御値BvCntl0と24分割の輝度値Bvの最大輝度値BvMax24との差が所定値thHiをこえる値dHiを、0から閾値thdHiの間へクリップして仮ハイライト復元量Pre_HiRcvとする。   As shown in Expression 29, the control unit 10 sets the value dHi obtained in step 401 from 0, where the difference between the temporary exposure control value BvCntl0 and the maximum luminance value BvMax24 of the 24 divided luminance values Bv exceeds the predetermined value thHi. Clip to the threshold value thdHi to set the temporary highlight restoration amount Pre_HiRcv.

式29において、閾値thdHiは撮像センサである第1撮像センサ9のダイナミックレンジの大きさに依存するハイライト復元可能な量を示す所定の閾値である。制御部10は、閾値thdHiを、撮影モードとISO感度とに応じて変更する。   In Expression 29, the threshold thdHi is a predetermined threshold indicating the amount of highlight restoration that depends on the dynamic range of the first image sensor 9 that is the image sensor. The control unit 10 changes the threshold thdHi according to the shooting mode and the ISO sensitivity.

制御部10は、表5に基づいて、撮影モードに応じた閾値thdHiを求めるとともに、表6に基づいて、ISO感度に応じた閾値thdHiを求める。そして、より大きい方の閾値thdHiを、上述した仮ハイライト復元量Pre_HiRcvの算出に用いる。   The control unit 10 obtains a threshold thdHi corresponding to the shooting mode based on Table 5 and obtains a threshold thdHi corresponding to ISO sensitivity based on Table 6. The larger threshold thdHi is used to calculate the temporary highlight restoration amount Pre_HiRcv described above.

Figure 0005929019
Figure 0005929019

Figure 0005929019
Figure 0005929019

主要被写体が人物であると推定可能な人物撮影モードが設定されている場合には、人物の顔部分が不要に暗く撮影されるのを避ける必要がある。そのため、人物撮影モードが設定されている場合には、表5に示すように、閾値thdHiの値を小さくする。   When a person shooting mode is set in which it can be estimated that the main subject is a person, it is necessary to avoid unnecessarily dark shooting of the face portion of the person. Therefore, when the person photographing mode is set, as shown in Table 5, the value of the threshold thdHi is decreased.

また、第1撮像センサ9が高ISO感度に設定されている場合には、ノイズが増加してダイナミックレンジが不足するおそれがある。そのため、第1撮像センサ9が高ISO感度に設定されている場合には、表6に示すように、閾値thdHiの値を小さくする。   Further, when the first image sensor 9 is set to high ISO sensitivity, there is a possibility that noise increases and the dynamic range is insufficient. Therefore, when the first imaging sensor 9 is set to high ISO sensitivity, as shown in Table 6, the value of the threshold thdHi is decreased.

さらに、撮像時のノイズ発生予想量を適宜検出し、検出結果に応じて、仮ハイライト復元量Pre_HiRcvに上限を設けたり、上述した閾値thdHiを小さくする構成としても良い。   Furthermore, a configuration may be adopted in which an expected amount of noise generation at the time of imaging is detected as appropriate, and an upper limit is set for the temporary highlight restoration amount Pre_HiRcv or the threshold thdHi described above is reduced according to the detection result.

図6に戻り、ステップ204において、制御部10の主要被写体検出部10cは、第2撮像センサの出力から主要被写体の検出を行う。例えば人物の顔検出である。具体的な方法は公知技術と同様なので説明を省略する。   Returning to FIG. 6, in step 204, the main subject detection unit 10 c of the control unit 10 detects the main subject from the output of the second imaging sensor. For example, human face detection. Since the specific method is the same as that of a known technique, the description is omitted.

ステップ205において、制御部10の復元量制限部10eは、ハイライト復元量の制限値Lmt_HiRcvを算出する。
Lmt_HiRcv=BvObj-(BvCntl0-BvSth)…(式30)
In step 205, the restoration amount restriction unit 10e of the control unit 10 calculates a highlight restoration amount restriction value Lmt_HiRcv.
Lmt_HiRcv = BvObj- (BvCntl0-BvSth) (Equation 30)

ここでBvObjは、ステップ204においてで検出した主要被写体の代表輝度値である。例えば図7(c)のようなシーンを撮影する場合、図7(d)の白抜き領域のように顔の中心部分の画素出力から輝度を求めることで背景の影響を受けないようにする。   Here, BvObj is the representative luminance value of the main subject detected in step 204. For example, when a scene as shown in FIG. 7C is photographed, the luminance is obtained from the pixel output at the center of the face as in the white area in FIG. 7D so as not to be affected by the background.

具体的な算出は、制御部10の主要被写体輝度演算部10dにより、以下のように行う。   The specific calculation is performed by the main subject luminance calculation unit 10d of the control unit 10 as follows.

(イ)主要被写体と背景との輝度が極端に異なる場合(例えば逆光や過順光のシーンなど)において、顔領域よりも広い領域(図11(a)、図11(b)の領域FA0)から代表輝度値BvObjを求めると、背景の影響を受けて適正な顔の輝度を求められないケースがある。 (A) When the luminance of the main subject and the background are extremely different (for example, a scene of backlight or excessively forward light), an area wider than the face area (area FA0 in FIGS. 11A and 11B) When the representative luminance value BvObj is obtained from the above, there are cases where the appropriate face luminance cannot be obtained due to the influence of the background.

そこで、制御部10は、人物の顔の輪郭に内接する領域(図11(a)に示す領域FA1)から代表輝度値BvObjを求めるようにしてもよい。あるいは、制御部10は、人物の顔の輪郭に外接する領域よりもサイズが小さい領域(図11(b)に示す領域FA2)から代表輝度値BvObjを求めるようにしてもよい。   Therefore, the control unit 10 may obtain the representative luminance value BvObj from an area inscribed in the outline of the person's face (area FA1 shown in FIG. 11A). Alternatively, the control unit 10 may obtain the representative luminance value BvObj from an area (area FA2 shown in FIG. 11B) whose size is smaller than the area circumscribing the outline of the person's face.

ここで、図11(b)では、領域FA2の重心が領域FA0の重心と重なって配置される例を示す。もっとも、髪の影響を受けにくくするために領域FA2の重心を領域FA0の重心よりも下側にずらしてもよい(この場合の図示は省略する)。また、図11(b)では、領域FA2のサイズが領域FA0の縦横1/2のサイズに設定された例を示す。もっとも、上記の領域FA2のサイズは背景の影響を受けない範囲で適宜設定できる。   Here, FIG. 11B shows an example in which the center of gravity of the area FA2 is arranged so as to overlap the center of gravity of the area FA0. However, the center of gravity of the area FA2 may be shifted below the center of gravity of the area FA0 in order to make it less susceptible to the influence of hair (illustration is omitted in this case). Further, FIG. 11B shows an example in which the size of the area FA2 is set to 1/2 the size of the area FA0. However, the size of the area FA2 can be appropriately set within a range not affected by the background.

(ロ)顔領域内の輝度差が大きい場合(例えば顔の半分に光が当たり、顔の半分が暗くなっている半逆光のシーンなど)には、顔領域の平均輝度値に基づいて代表輝度値BvObjを求めると、顔の明るい部分が白トビするおそれもある。そこで、制御部10は、主要被写体の顔を複数の領域に分割して測光し、複数の領域のそれぞれに対して得られる複数の測光値に基づいて代表輝度値BvObjを求めてもよい。 (B) When the luminance difference in the face area is large (for example, a half-backlit scene in which light is applied to half of the face and half of the face is dark), the representative luminance is based on the average luminance value of the face area. When the value BvObj is obtained, the bright part of the face may be overexposed. Therefore, the control unit 10 may measure the face of the main subject by dividing the face into a plurality of areas, and obtain the representative luminance value BvObj based on a plurality of photometric values obtained for each of the plurality of areas.

一例として、制御部10は、図12に示すように縦横に2×2となるように顔領域を4分割する。そして、制御部10は、以下の式(31)により各分割領域(FA41−FA44)の測光値のうちの最大値を代表輝度値BvObjとしてもよい。
BvObj=Max(BvFA41,BvFA42,BvFA43,BvFA44)…(式31)
ここで、本明細書において、「BvBVFA41-44」は、それぞれ顔領域の分割領域(BVFA41-44)の平均輝度値を示している。また、本明細書において、「Max(A,B)」は、A,Bのうちの最大値を返す関数を意味する。
As an example, the control unit 10 divides the face area into four so as to be 2 × 2 vertically and horizontally as shown in FIG. And the control part 10 is good also considering the maximum value among the photometry values of each division area (FA41-FA44) as a representative luminance value BvObj by the following formula | equation (31).
BvObj = Max (BvFA41, BvFA42, BvFA43, BvFA44) ... (Formula 31)
Here, in this specification, “BvBVFA41-44” indicates the average luminance value of the divided area (BVFA41-44) of the face area. In this specification, “Max (A, B)” means a function that returns the maximum value of A and B.

式30に戻り、BvSthは顔のアンダー許容量である。
BvSthは予め求めた固定値でも良いし、顔の大きさに依存した変数にしても良い。
変数の場合の算出例を図13を使って説明する。
BvSth=ObjUdLv2-(ObjUdLv2-ObjUdLv1)/(SthObjSz2-SthObjSz1)*(ObjSize-SthObjSz1)…(式32)
但し、BvSthはObjUdLv1〜ObjUdLv2の間で制限する。
BvSth<ObjUdLv1 の場合は BvSth=ObjUdLv1…(式33)
BvSth>ObjUdLv2 の場合は BvSth=ObjUdLv2…(式34)
Returning to Equation 30, BvSth is the permissible under face amount.
BvSth may be a fixed value obtained in advance or a variable depending on the size of the face.
A calculation example in the case of variables will be described with reference to FIG.
BvSth = ObjUdLv2- (ObjUdLv2-ObjUdLv1) / (SthObjSz2-SthObjSz1) * (ObjSize-SthObjSz1) (Equation 32)
However, BvSth is limited between ObjUdLv1 and ObjUdLv2.
If BvSth <ObjUdLv1, BvSth = ObjUdLv1 (Equation 33)
If BvSth> ObjUdLv2, BvSth = ObjUdLv2 (Formula 34)

ここで、ObjSizeは検出した顔の大きさ、SthObjSz1、SthObjSz2は顔の大きさの閾値、ObjUdLv1、ObjUdLv2は顔の画像出力アンダーレベル閾値である。
ステップ206において、制御部10の復元量制限部10eは復元量を制限してハイライト復元量HiRcvを算出する。
HiRcv=Pre_HiRcv…(式35)
但し、
HiRcv>Lmt_HiRcv の場合は HiRcv=Lmt_HiRcv…(式36)
ステップ207において、制御部10は次式から露出制御値BvCntl1を求める。
BvCntl1=BvCntl0+HiRcv…(式37)
Here, ObjSize is the detected face size, SthObjSz1 and SthObjSz2 are face size thresholds, and ObjUdLv1 and ObjUdLv2 are face image output underlevel threshold values.
In step 206, the restoration amount restriction unit 10e of the control unit 10 restricts the restoration amount and calculates the highlight restoration amount HiRcv.
HiRcv = Pre_HiRcv ... (Formula 35)
However,
If HiRcv> Lmt_HiRcv, then HiRcv = Lmt_HiRcv (Equation 36)
In step 207, the control unit 10 obtains an exposure control value BvCntl1 from the following equation.
BvCntl1 = BvCntl0 + HiRcv (Formula 37)

上記の実施例によれば、例えば人物が逆光の為に顔が暗い場合はBvObjが小さくなると、数式33よりLmt_HiRcvも小さくなり、式35および6よりHiRcvがLmt_HiRcvで制限され易くなる。制限された場合の式37は以下のように置き換えられる。
BvCntl1=BvObj+BvSth…(式38)
According to the above-described embodiment, for example, when the face is dark due to backlight, when BvObj becomes small, Lmt_HiRcv becomes smaller from Expression 33, and HiRcv becomes easier to be limited by Lmt_HiRcv from Expressions 35 and 6. Equation 37 in the restricted case is replaced as follows:
BvCntl1 = BvObj + BvSth ... (Formula 38)

つまり露出制御値BvCntl1は式38の右辺よりも大きな値を取り得ない。従ってステップ103で露出制御値BvCntl1に基づいて第1撮像センサによって撮像された画像データは顔部分の出力レベルが「基準露出レベルよりもBvSth分低いレベル」よりも低くなることがない。その為にステップ104で顔の画像レベルが低いために顔検出が出来なくなる事も無く、またステップ110の階調圧縮処理後の画像の顔部分にノイズが目立つ事も無くなる。   That is, the exposure control value BvCntl1 cannot take a value larger than the right side of Expression 38. Accordingly, the output level of the face portion of the image data captured by the first image sensor based on the exposure control value BvCntl1 in step 103 does not become lower than the “level lower by BvSth than the reference exposure level”. For this reason, the face image level in step 104 is low and face detection cannot be performed, and noise is not conspicuous in the face portion of the image after the gradation compression processing in step 110.

逆光人物シーンにおいて、顔が大きい場合はハイライト復元量が制限され易くなるので、人物の顔が暗くならずに済む。また顔が小さい場合、つまり写り込む背景が多い場合はハイライト復元量が制限されにくくなるので、背景のハイライト部分の飽和を抑える事が出来る。   In a backlit person scene, if the face is large, the amount of highlight restoration is likely to be limited, so that the face of the person does not have to be dark. In addition, when the face is small, that is, when there are many backgrounds to be reflected, the amount of highlight restoration is difficult to be limited, so that saturation of the highlight portion of the background can be suppressed.

上記の実施例では第1撮像センサ9とは異なる第2撮像センサ16の出力に基づいて露出制御値を求めたが、第1撮像センサ9の画像信号をファインダとするライブビュー・モードの場合は、上記第2撮像センサ16の出力の代わりに第1撮像センサの9出力を用いても構わない。   In the above embodiment, the exposure control value is obtained based on the output of the second image sensor 16 different from the first image sensor 9, but in the case of the live view mode in which the image signal of the first image sensor 9 is a finder. Instead of the output of the second image sensor 16, the 9 outputs of the first image sensor may be used.

また、上記実施例のObjSizeは検出された主要被写体の大きさを撮影画面の大きさで規格化しても良い。
ObjSize=ObjSize÷PicSize…(式39)
ここでPicSizeは第1撮像センサによる撮影画面の大きさである。例えば撮影画面の対角の長さでも良いし、短辺の長さでもよい。
Further, ObjSize in the above embodiment may normalize the size of the detected main subject by the size of the shooting screen.
ObjSize = ObjSize ÷ PicSize (Formula 39)
Here, PicSize is the size of the shooting screen by the first image sensor. For example, the diagonal length of the shooting screen may be used, or the length of the short side may be used.

主要被写体の大きさを規格化する事で第1撮像センサによる撮影画面の比率を4:3や16:9に切り替えたり、デジタルズームによって任意の領域を切出したりしても、撮影画面に占める主要被写体の大きさに対して主要被写体のアンダー許容量を約同じにして違和感の無い画像を得る事が出来る。また分割数の異なる第2撮像センサを備える複数の撮像装置の間でも主要被写体のアンダー許容量を同じにする事が出来る。   Even if the ratio of the shooting screen by the first image sensor is switched to 4: 3 or 16: 9 by standardizing the size of the main subject, or an arbitrary area is cut out by digital zoom, the main subject occupying the shooting screen By making the under allowance of the main subject about the same with respect to the size of the image, it is possible to obtain an image with no sense of incongruity. In addition, the under-allowance amount of the main subject can be made the same among a plurality of imaging devices including the second imaging sensors having different numbers of divisions.

(変形形態)
以上、説明した実施形態に限定されることなく、以下に示すような種々の変形や変更が可能であり、それらも本発明の範囲内である。例えば、上記の実施形態では、ローパス画像に基づいて部分的に階調補正を行うものであった、画面全体の階調補正を行うものであってもよい。
なお、実施形態及び変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。また、本発明は以上説明した実施形態によって限定されることはない。
(Deformation)
The present invention is not limited to the above-described embodiment, and various modifications and changes as described below are possible, and these are also within the scope of the present invention. For example, in the above-described embodiment, gradation correction may be performed on the entire screen, which is partly gradation correction based on a low-pass image.
In addition, although embodiment and a deformation | transformation form can also be used in combination as appropriate, detailed description is abbreviate | omitted. Further, the present invention is not limited to the embodiment described above.

1:カメラ本体、2:レンズユニット、3:撮影レンズ、9:第1撮像センサ、10:制御部、10a:露出値演算部、10b:復元量演算部、10c:主要被写体検出部、10d:主要被写体輝度演算部、10e:復元量制限部、16:第2撮像センサ、:、:、:、:Pre_HiRcv:仮ハイライト復元量、HiRcv:ハイライト復元量、BvCntl0:仮露出制限値、BvCntl1:露出制限値、BvObj:主要被写体の代表輝度値   1: camera body, 2: lens unit, 3: photographing lens, 9: first imaging sensor, 10: control unit, 10a: exposure value calculation unit, 10b: restoration amount calculation unit, 10c: main subject detection unit, 10d: Main subject luminance calculation unit, 10e: restoration amount restriction unit, 16: second imaging sensor, ::,:,:, Pre_HiRcv: provisional highlight restoration amount, HiRcv: highlight restoration amount, BvCntl0: provisional exposure restriction value, BvCntl1 : Exposure limit value, BvObj: Representative luminance value of main subject

Claims (3)

被写界を複数の領域に分割して測光する測光部と、
前記測光部による測光結果に基づいて第1の露出値を演算する第1露出演算部と、
前記測光結果に基づいて第1の露出値に対して被写体の明部を復元するための補正量を演算する補正量演算部と、
前記測光結果に基づいて主要被写体を検出する主要被写体検出部と、
前記主要被写体の輝度を演算する主要被写体輝度演算部と、
前記主要被写体の輝度に基づいて前記補正量を制限する補正量制限部と、
前記制限された補正量に基づいて前記第1の露出値を補正した第2の露出値を演算する第2露出演算部と、
前記第2の露出値に基づいて被写体を撮像して画像データを生成する撮像部とを有し、
前記補正量が制限値以上の場合、前記制限された補正量を前記制限値とし、
前記制限値は、前記第1の露出値から顔のアンダー許容量を引いたものを、主要被写体の代表輝度から引いた値である撮像装置。
A metering unit for metering the subject field into a plurality of areas;
A first exposure calculation unit that calculates a first exposure value based on a photometric result by the photometric unit;
A correction amount calculation unit for calculating a correction amount for restoring the bright portion of the subject with respect to the first exposure value based on the photometric result;
A main subject detection unit for detecting a main subject based on the photometric results;
A main subject luminance calculation unit for calculating the luminance of the main subject;
A correction amount limiting unit that limits the correction amount based on the luminance of the main subject;
A second exposure calculation unit that calculates a second exposure value obtained by correcting the first exposure value based on the limited correction amount;
An imaging unit that images the subject based on the second exposure value and generates image data;
If the correction amount is greater than or equal to a limit value, the limited correction amount is the limit value,
The image pickup apparatus, wherein the limit value is a value obtained by subtracting a face under allowance from the first exposure value and subtracting the representative luminance of a main subject.
請求項1に記載の撮影装置であって、
前記画像データの暗部を明るくするように階調を補正する画像処理部を有する撮像装置。
The imaging device according to claim 1,
An imaging apparatus having an image processing unit that corrects gradation so that a dark part of the image data is brightened.
被写界を複数の領域に分割して測光する測光部による測光結果に基づいて第1露出値を演算する第1露出演算部と、
前記測光結果に基づいて第1の露出値に対して被写体の明部を復元するための補正量を演算する第1演算部と、
主要被写体の輝度に基づいて前記補正量を制限する制限値を演算する第2演算部と、
前記制限値が前記補正量よりも小さいとき前記制限値を選択する選択部と、
前記制限値が前記補正量よりも小さいとき前記選択部により選択された前記制限値に基づいて前記第1露出値を補正した第2露出値を演算する第2露出演算部と、
前記第2露出値に基づいて被写体を撮像して画像データを生成する撮像部と、
前記画像データの画像が明るくなるように階調を補正する画像処理部とを有し、
前記制限値は、前記第1露出値から顔のアンダー許容量を引いたものを、前記主要被写体の輝度から引いた値である撮像装置。
A first exposure calculation unit that calculates a first exposure value based on a photometry result obtained by a photometry unit that divides the object field into a plurality of areas and performs photometry ;
A first calculation unit that calculates a correction amount for restoring a bright portion of the subject with respect to the first exposure value based on the photometric result ;
A second calculation unit for calculating a limit value for limiting the correction amount based on the luminance of the main subject ;
A selector for selecting said limit value when said limit value is smaller than the correction amount,
A second exposure calculation unit that calculates a second exposure value obtained by correcting the first exposure value based on the limit value selected by the selection unit when the limit value is smaller than the correction amount ;
An imaging unit that captures an image of a subject based on the second exposure value and generates image data;
An image processing unit that corrects gradation so that the image of the image data becomes brighter ,
The image pickup apparatus , wherein the limit value is a value obtained by subtracting a face under allowance from the first exposure value and subtracting the luminance of the main subject .
JP2011146750A 2011-06-30 2011-06-30 Imaging device Active JP5929019B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011146750A JP5929019B2 (en) 2011-06-30 2011-06-30 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011146750A JP5929019B2 (en) 2011-06-30 2011-06-30 Imaging device

Publications (3)

Publication Number Publication Date
JP2013016926A JP2013016926A (en) 2013-01-24
JP2013016926A5 JP2013016926A5 (en) 2014-08-14
JP5929019B2 true JP5929019B2 (en) 2016-06-01

Family

ID=47689184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011146750A Active JP5929019B2 (en) 2011-06-30 2011-06-30 Imaging device

Country Status (1)

Country Link
JP (1) JP5929019B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4289259B2 (en) * 2004-08-31 2009-07-01 カシオ計算機株式会社 Imaging apparatus and exposure control method
JP5292829B2 (en) * 2008-01-25 2013-09-18 株式会社ニコン Imaging device
JP2010072619A (en) * 2008-08-22 2010-04-02 Nikon Corp Exposure operation device and camera

Also Published As

Publication number Publication date
JP2013016926A (en) 2013-01-24

Similar Documents

Publication Publication Date Title
JP4678060B2 (en) Imaging apparatus and image processing program
JP5523143B2 (en) Imaging apparatus and automatic focusing method
JP5076716B2 (en) Imaging device
JP2001103366A (en) Camera
JP2010130231A (en) Imaging apparatus
JP2010072619A (en) Exposure operation device and camera
JP2011228807A (en) Image processing program, image processing apparatus, and image processing method
JP5076650B2 (en) Imaging apparatus and image processing program
JP2009284136A (en) Electronic camera
WO2019124289A1 (en) Device, control method, and storage medium
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
JP5245648B2 (en) Image processing apparatus and program
JP2018050149A (en) Image processing apparatus
JP4523629B2 (en) Imaging device
JP5849515B2 (en) Exposure calculation device and camera
JP5515852B2 (en) Imaging apparatus and image generation program
JP5929019B2 (en) Imaging device
JP5561389B2 (en) Image processing program, image processing apparatus, electronic camera, and image processing method
JP5772064B2 (en) Imaging apparatus and image generation program
JP6990988B2 (en) Control method of image pickup device and image sensor
JP2015037222A (en) Image processing apparatus, imaging apparatus, control method, and program
JP6554009B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND RECORDING MEDIUM
US8121473B2 (en) Imaging apparatus
WO2023042453A1 (en) Imaging device, image processing method, and program
JP5351663B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R150 Certificate of patent or registration of utility model

Ref document number: 5929019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250