JP2013040997A - Exposure calculation unit and camera - Google Patents

Exposure calculation unit and camera Download PDF

Info

Publication number
JP2013040997A
JP2013040997A JP2011176237A JP2011176237A JP2013040997A JP 2013040997 A JP2013040997 A JP 2013040997A JP 2011176237 A JP2011176237 A JP 2011176237A JP 2011176237 A JP2011176237 A JP 2011176237A JP 2013040997 A JP2013040997 A JP 2013040997A
Authority
JP
Japan
Prior art keywords
value
exposure
face
image
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011176237A
Other languages
Japanese (ja)
Other versions
JP5849515B2 (en
Inventor
Hidehiko Aoyanagi
英彦 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011176237A priority Critical patent/JP5849515B2/en
Publication of JP2013040997A publication Critical patent/JP2013040997A/en
Application granted granted Critical
Publication of JP5849515B2 publication Critical patent/JP5849515B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To stabilize exposure for a whole scene in a photographic mode in which a plurality of images to be watched as one scene are consecutively acquired.SOLUTION: An exposure calculation unit includes: a photometric section for obtaining a first photometric value by performing photometry of luminous flux from a subject, and also obtaining a second photometric value related to a part of the subject; a target setting section for setting a prescribed luminance value range based on the second photometric value as a target range of the first photometric value; a correction section for obtaining a third photometric value by correcting the first photometric value on the basis of the target range; and a calculation section for obtaining an exposure amount for the luminous flux from the subject on the basis of the third photometric value obtained by the correction section. The calculation section obtains the exposure amount on the basis of the first photometric value, in a first photographic mode in which a plurality of images to be watched as one scene are consecutively acquired, and obtains the exposure amount on the basis of the third photometric value, in a second photographic mode different from the first photographic mode.

Description

本発明は、露出演算装置およびカメラに関する。   The present invention relates to an exposure calculation device and a camera.

従来から、撮影画面内から主要被写体である人物の顔を検出するとともに、この顔の明るさに着目して露出制御を行うカメラが知られている。一例として、特許文献1には、顔の大きさに依存した許容幅を有する目標値に顔の露出が近づくように、画面全体の輝度分布から求めた露出値を補正する例が開示されている。   2. Description of the Related Art Conventionally, there has been known a camera that detects the face of a person as a main subject from a shooting screen and controls exposure by paying attention to the brightness of the face. As an example, Patent Document 1 discloses an example in which the exposure value obtained from the luminance distribution of the entire screen is corrected so that the exposure of the face approaches a target value having an allowable width depending on the size of the face. .

また、特許文献1には、複数の顔を検出した場合に、最も大きい顔を補正対象とする例と、各々の顔の明るさに各々の顔の大きさに応じた重みを乗算した重み付け平均値を補正対象とする例とが開示されている。   Patent Document 1 discloses an example in which the largest face is a correction target when a plurality of faces are detected, and a weighted average obtained by multiplying the brightness of each face by a weight corresponding to the size of each face. An example in which a value is a correction target is disclosed.

特開2010−72619号公報JP 2010-72619 A

ところで、複数の画像を連続的に取得する場合の露出演算では、背景の明るさが同じであっても人物の有無や人物の顔の大きさなどによって個々の静止画像で露出量が変わることがある。上記の場合、個々の静止画像としては最適な露出量が得られるものの、これらの静止画像を1シーンとして鑑賞する場合には個々の静止画像の露出量が異なるので、シーン全体では露出が不安定に見えてしまうおそれがある。   By the way, in the exposure calculation in the case of acquiring a plurality of images continuously, the exposure amount may change in each still image depending on the presence or absence of a person and the size of a person's face even if the brightness of the background is the same. is there. In the above case, the optimum exposure amount can be obtained for each still image, but when viewing these still images as one scene, the exposure amount of each still image is different, so the exposure is unstable in the entire scene. There is a risk of seeing.

本発明の一側面である露出演算装置は、測光部と、目標設定部と、補正部と、演算部とを備える。測光部は、被写体からの光束を測光して第1測光値を求めるとともに、前記被写体のうちの一部の被写体に関する第2測光値を求める。目標設定部は、第2測光値に基づく所定の輝度値の範囲を第1測光値の目標範囲として設定する。補正部は、第1測光値を目標範囲に基づいて補正して第3測光値を求める。演算部は、補正部による第3測光値に基づいて、被写体からの光束に対する露出量を求める。そして、演算部は、1シーンとして鑑賞される複数の画像を連続的に取得する第1撮影モードのときには第1測光値に基づいて露出量を求める。また、演算部は、第1撮影モードと異なる第2撮影モードのときには第3測光値に基づいて露出量を求める。   An exposure calculation apparatus according to one aspect of the present invention includes a photometry unit, a target setting unit, a correction unit, and a calculation unit. The photometric unit measures a light flux from the subject to obtain a first photometric value, and obtains a second photometric value for some of the subjects. The target setting unit sets a predetermined luminance value range based on the second photometric value as a target range of the first photometric value. The correcting unit corrects the first photometric value based on the target range to obtain a third photometric value. The calculation unit obtains an exposure amount for the light flux from the subject based on the third photometric value obtained by the correction unit. Then, the calculation unit obtains the exposure amount based on the first photometric value in the first shooting mode in which a plurality of images viewed as one scene are continuously acquired. Further, the calculation unit obtains the exposure amount based on the third photometric value in the second shooting mode different from the first shooting mode.

例えば、上記の第1撮影モードは、1シーンの期間において一定の時間間隔で取得された所定枚数の画像を動画として記録する撮影モードであってもよい。また、上記の第1撮影モードは、1シーンの期間において一定の時間間隔で取得された所定枚数の静止画像をそれぞれ個別に記録する撮影モードであってもよい。   For example, the first shooting mode may be a shooting mode in which a predetermined number of images acquired at a constant time interval in one scene period are recorded as a moving image. In addition, the first shooting mode may be a shooting mode in which a predetermined number of still images acquired at a constant time interval in one scene period are individually recorded.

なお、上記の露出演算装置を備えるカメラも、本発明の具体的態様として有効である。   A camera provided with the above exposure calculation device is also effective as a specific aspect of the present invention.

本発明によれば、1シーンとして鑑賞される複数の画像を連続的に取得する撮影モードでは、シーン全体で適正となる露出を得ることができる。   According to the present invention, in a shooting mode in which a plurality of images viewed as a scene are continuously acquired, it is possible to obtain an appropriate exposure for the entire scene.

一の実施形態における電子カメラの構成例を説明するブロック図1 is a block diagram illustrating a configuration example of an electronic camera according to an embodiment. 一の実施形態の電子カメラにおける撮影モードの動作例を示す流れ図6 is a flowchart illustrating an operation example of a shooting mode in the electronic camera of the embodiment. 撮影画面内におけるブロックの分割例を示す図The figure which shows the example of the division of the block in a photography screen 図2のS104でのBvObj[i]の値の求め方を模式的に示す図The figure which shows typically how to obtain | require the value of BvObj [i] in S104 of FIG. 顔領域に対して輝度値BvObj[i]を求める範囲の例を示す図The figure which shows the example of the range which calculates | requires luminance value BvObj [i] with respect to a face area | region. 顔領域の分割測光の例を示す図The figure which shows the example of the division | segmentation metering of a face area 複数の顔が検出された場合を示す図The figure which shows the case where a plurality of faces are detected 図2のS105における補正演算サブルーチン1での動作例を示す流れ図FIG. 2 is a flowchart showing an operation example of the correction calculation subroutine 1 in S105 of FIG. 図8のS205における補正演算サブルーチン2での動作例を示す流れ図FIG. 8 is a flowchart showing an operation example in the correction calculation subroutine 2 in S205 of FIG. 一の実施形態での目標範囲と露出量との関係を示す説明図Explanatory drawing which shows the relationship between the target range and exposure amount in one Embodiment 主要被写体が人物のときの重み付け係数WtWdの関数の一例を示す図The figure which shows an example of the function of the weighting coefficient WtWd when the main subject is a person. 主要被写体が人物のときの上限値および下限値を求める関数の一例を示す図The figure which shows an example of the function which calculates | requires the upper limit and lower limit when a main subject is a person 他の実施形態における電子カメラの構成例を説明する図The figure explaining the structural example of the electronic camera in other embodiment. 他の実施形態の電子カメラにおける撮影モードの動作の一例を示す流れ図Flowchart showing an example of the operation of the shooting mode in the electronic camera of another embodiment

<一の実施形態の説明>
図1は一の実施形態における電子カメラの構成例を説明するブロック図である。一の実施形態は、いわゆるレンズ一体型の電子カメラに露出演算装置を組み込んだ例を示している。
<Description of One Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an electronic camera according to an embodiment. One embodiment shows an example in which an exposure calculation device is incorporated in a so-called lens-integrated electronic camera.

一の実施形態の電子カメラは、撮像光学系11およびレンズ駆動部12と、絞り13および絞り駆動部14と、撮像素子15と、AFE16と、CPU17と、第1メモリ18と、記録I/F(インターフェース)19と、モニタ20と、レリーズ釦21および操作部材22と、第2メモリ23とを有している。ここで、レンズ駆動部12、絞り駆動部14、撮像素子15、AFE16、第1メモリ18、記録I/F19、モニタ20、レリーズ釦21、操作部材22および第2メモリ23は、それぞれCPU17に接続されている。   The electronic camera of one embodiment includes an imaging optical system 11 and a lens driving unit 12, an aperture 13 and an aperture driving unit 14, an imaging element 15, an AFE 16, a CPU 17, a first memory 18, and a recording I / F. (Interface) 19, monitor 20, release button 21 and operation member 22, and second memory 23. Here, the lens driving unit 12, the aperture driving unit 14, the imaging device 15, the AFE 16, the first memory 18, the recording I / F 19, the monitor 20, the release button 21, the operation member 22, and the second memory 23 are connected to the CPU 17, respectively. Has been.

撮像光学系11は、ズームレンズ、焦点調節のためのフォーカシングレンズを含む複数のレンズ群で構成されている。撮像光学系11のレンズ位置は、レンズ駆動部12によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。また、絞り13は、撮像素子15に入射する単位時間当たりの光量を調節する。この絞り13の開口量は、CPU17の指示に応じて絞り駆動部14が調整する。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens for focus adjustment. The lens position of the imaging optical system 11 is adjusted in the optical axis direction by the lens driving unit 12. For simplicity, the imaging optical system 11 is illustrated as a single lens in FIG. The diaphragm 13 adjusts the amount of light per unit time incident on the image sensor 15. The aperture of the aperture 13 is adjusted by the aperture drive unit 14 in accordance with an instruction from the CPU 17.

撮像素子15は、撮像光学系11および絞り13を通過した光束による被写体像を光電変換してアナログの画像信号を生成する。この撮像素子15の出力はAFE16に接続されている。なお、撮像素子15の電荷蓄積時間および信号読みだしは、いずれもCPU17によって制御される。   The image sensor 15 photoelectrically converts a subject image formed by a light beam that has passed through the imaging optical system 11 and the diaphragm 13 to generate an analog image signal. The output of the image sensor 15 is connected to the AFE 16. Note that the charge accumulation time and signal reading of the image sensor 15 are both controlled by the CPU 17.

ここで、電子カメラの撮影モードにおいて、撮像素子15はレリーズ釦21の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮影モードでの撮像素子15は、撮影待機時にも所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。ここで、時系列に取得されたスルー画像のデータは、モニタ20での動画像表示やCPU17による各種の演算処理に使用される。   Here, in the photographing mode of the electronic camera, the image sensor 15 captures a still image for recording (main image) in response to a full pressing operation of the release button 21. Further, the imaging element 15 in the shooting mode continuously takes images for observation (through images) at predetermined intervals even during standby for shooting. Here, the data of the through image acquired in time series is used for moving image display on the monitor 20 and various arithmetic processes by the CPU 17.

AFE16は、撮像素子15の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE16は、相関二重サンプリングや、画像信号の増幅や、画像信号のA/D変換を行う。このAFE16から出力される画像信号はCPU17に入力される。なお、CPU17は、AFE16において画像信号のゲインを調整することで、ISO感度に相当する撮像感度を調整できる。   The AFE 16 is an analog front end circuit that performs analog signal processing on the output of the image sensor 15. The AFE 16 performs correlated double sampling, image signal amplification, and image signal A / D conversion. The image signal output from the AFE 16 is input to the CPU 17. The CPU 17 can adjust the imaging sensitivity corresponding to the ISO sensitivity by adjusting the gain of the image signal in the AFE 16.

CPU17は、電子カメラの動作を統括的に制御するプロセッサである。このCPU17は、第2メモリ23に格納されたプログラムの実行により、画像処理部24、顔検出部25、焦点調節部26および露出演算部27として機能する。   The CPU 17 is a processor that comprehensively controls the operation of the electronic camera. The CPU 17 functions as an image processing unit 24, a face detection unit 25, a focus adjustment unit 26, and an exposure calculation unit 27 by executing a program stored in the second memory 23.

画像処理部24は、デジタルの画像信号に対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、画像処理部24は、スルー画像に解像度変換を施して、モニタ表示用のビュー画像を生成する。なお、画像処理部24は、入力された画像のデータに基づいて、ホワイトバランス調整で適用するホワイトバランス調整値を求めることもできる。   The image processing unit 24 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, etc.) on the digital image signal. The image processing unit 24 performs resolution conversion on the through image to generate a view image for monitor display. The image processing unit 24 can also obtain a white balance adjustment value to be applied in the white balance adjustment based on the input image data.

顔検出部25は、スルー画像のデータに顔検出処理を施して、撮影画面内の人物の顔領域を検出する。この顔検出処理は公知のアルゴリズムによって行われる。一例として、顔検出部25は、公知の特徴点抽出処理によって、眉,目,鼻,唇の各端点などの特徴点を画像から抽出するとともに、これらの特徴点に基づいて撮影画面内の顔領域の位置を特定する。あるいは、顔検出部25は、予め用意された顔画像と判定対象の画像との相関係数を求め、この相関係数が一定の閾値を超えるときに判定対象の画像を顔領域と判定してもよい。   The face detection unit 25 performs a face detection process on the live view image data to detect a human face area in the shooting screen. This face detection process is performed by a known algorithm. As an example, the face detection unit 25 extracts feature points such as eyebrow, eye, nose, and lip end points from an image by a known feature point extraction process, and based on these feature points, the face in the shooting screen is extracted. Identify the location of the region. Alternatively, the face detection unit 25 obtains a correlation coefficient between the face image prepared in advance and the determination target image, and determines that the determination target image is a face area when the correlation coefficient exceeds a certain threshold. Also good.

焦点調節部26は、スルー画像のデータを用いて、公知のコントラスト検出によるオートフォーカス(AF)制御を実行する。   The focus adjustment unit 26 performs autofocus (AF) control by known contrast detection using the through image data.

露出演算部27は、スルー画像のデータを用いて露出演算を実行するとともに、この露出演算によって求めた露出量に応じて電子カメラの露出制御を実行する。   The exposure calculation unit 27 performs exposure calculation using the through image data, and executes exposure control of the electronic camera according to the exposure amount obtained by the exposure calculation.

第1メモリ18は、画像処理部24による画像処理の前工程や後工程で画像のデータを一時的に記憶するバッファメモリである。この第1メモリ18は揮発性の記憶媒体であるSDRAMにより構成される。   The first memory 18 is a buffer memory that temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 24. The first memory 18 is constituted by an SDRAM which is a volatile storage medium.

記録I/F19には、不揮発性の記憶媒体28を接続するためのコネクタが形成されている。そして、記録I/F19は、コネクタに接続された記憶媒体28に対してデータの書き込み/読み込みを実行する。上記の記憶媒体28は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体28の一例としてメモリカードを図示する。   The recording I / F 19 is formed with a connector for connecting the nonvolatile storage medium 28. The recording I / F 19 executes data writing / reading with respect to the storage medium 28 connected to the connector. The storage medium 28 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 28.

モニタ20は、CPU17の指示に応じて各種画像を表示する。例えば、撮影モードでの撮影待機時において、モニタ20にはCPU17の制御により上記のビュー画像が動画表示される。   The monitor 20 displays various images according to instructions from the CPU 17. For example, at the time of shooting standby in the shooting mode, the view image is displayed as a moving image on the monitor 20 under the control of the CPU 17.

レリーズ釦21は、全押し操作による撮像動作開始の指示入力をユーザーから受け付ける。また、操作部材22は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦などで構成される。この操作部材22は、動作モードの切替操作などの各種入力をユーザーから受け付ける。   The release button 21 receives an instruction input for starting an imaging operation by a full press operation from the user. The operation member 22 includes, for example, a command dial, a cross-shaped cursor key, a determination button, and the like. The operation member 22 receives various inputs such as operation mode switching operations from the user.

第2メモリ23はフラッシュメモリ等の不揮発性の記憶媒体で構成される。この第2メモリ23には、CPU17によって実行されるプログラムが記憶される。なお、このプログラムによる撮影モードでの露出演算処理の例については後述する。   The second memory 23 is composed of a nonvolatile storage medium such as a flash memory. The second memory 23 stores a program executed by the CPU 17. An example of the exposure calculation process in the shooting mode by this program will be described later.

(撮影モードの動作例)
次に、図2の流れ図を参照しつつ、一の実施形態の電子カメラにおける撮影モードの動作例を説明する。この撮影モードの動作は、撮影モードの起動操作(例えば電源オン操作やモード切替操作など)をCPU17がユーザーから受け付けたときに開始される。なお、図2に示す撮影モードでは、人物の顔を主要被写体として露出制御を行う例を説明する。
(Operation example in shooting mode)
Next, an operation example of the shooting mode in the electronic camera of one embodiment will be described with reference to the flowchart of FIG. This shooting mode operation is started when the CPU 17 receives a shooting mode start operation (for example, a power-on operation or a mode switching operation) from the user. In the shooting mode shown in FIG. 2, an example in which exposure control is performed using a human face as a main subject will be described.

ステップS101:CPU17は、撮像素子15を駆動させてスルー画像を取得する。なお、画像処理部24は上記のスルー画像の出力を用いてホワイトバランス調整値を求めるとともに、焦点検出部45は上記のスルー画像の出力を用いてAF制御を実行する(図2の例では、ホワイトバランス調整値の演算やAF制御はバックグラウンドで実行されるものとして、詳細な説明は省略する)。   Step S101: The CPU 17 drives the image sensor 15 to acquire a through image. Note that the image processing unit 24 obtains a white balance adjustment value using the output of the through image, and the focus detection unit 45 performs AF control using the output of the through image (in the example of FIG. 2, The calculation of the white balance adjustment value and the AF control are executed in the background, and detailed description is omitted).

ステップS102:露出演算部27は、スルー画像(S101で取得したもの)の出力を用いて、撮影画面内に含まれる被写体の分割測光を実行する。そして、露出演算部27は、分割測光の結果に基づいて、撮影画面内での被写体の明るさを代表する値(仮の代表輝度値PreBvAns)を求める。   Step S102: The exposure calculation unit 27 uses the output of the through image (acquired in S101) to perform divided photometry of the subject included in the shooting screen. Then, the exposure calculation unit 27 obtains a value representative of the brightness of the subject in the shooting screen (temporary representative luminance value PreBvAns) based on the result of the division photometry.

一例として、S102での露出演算部27は、スルー画像の全体(撮影画面)を複数のブロックに分割する(なお、撮影画面内におけるブロックの分割例を図3に示す)。次に、露出演算部27は、1つのブロックに含まれる複数の画素の出力値(階調値)を平均化し、各ブロックにおいて平均輝度値をそれぞれ求める。そして、露出演算部27は、各ブロックからそれぞれ求めた複数の平均輝度値を用いて、仮の代表輝度値PreBvAnsを求める。なお、複数ブロックの平均輝度値から仮の代表輝度値PreBvAnsを求める演算は、例えば、特開2006−106617号公報などに開示された公知の手法によって行われる。   As an example, the exposure calculation unit 27 in S102 divides the entire through image (shooting screen) into a plurality of blocks (an example of block division in the shooting screen is shown in FIG. 3). Next, the exposure calculation unit 27 averages output values (gradation values) of a plurality of pixels included in one block, and obtains an average luminance value in each block. Then, the exposure calculation unit 27 obtains a temporary representative brightness value PreBvAns using a plurality of average brightness values obtained from each block. Note that the calculation for obtaining the temporary representative luminance value PreBvAns from the average luminance values of a plurality of blocks is performed by a known method disclosed in, for example, JP-A-2006-106617.

ステップS103:露出演算部27は、1シーンとして鑑賞される複数の画像を連続的に取得する第1撮影モードが選択されているか否かを判定する。上記要件を満たす場合(YES側)にはS107に処理が移行する。一方、上記要件を満たさない場合(第1撮影モードと異なる第2撮影モードの場合:NO側)にはS104に処理が移行する。   Step S103: The exposure calculation unit 27 determines whether or not the first shooting mode for continuously acquiring a plurality of images to be viewed as one scene is selected. If the above requirement is satisfied (YES side), the process proceeds to S107. On the other hand, if the above requirement is not satisfied (in the case of the second shooting mode different from the first shooting mode: NO side), the process proceeds to S104.

ここで、上記の第1撮影モードとしては、例えば、「ストップモーション撮影モード」、「インターバルタイマー撮影モード」が該当する。   Here, examples of the first shooting mode include “stop motion shooting mode” and “interval timer shooting mode”.

ストップモーション撮影モードは、1シーンの期間において一定の時間間隔で取得された所定枚数の画像を動画として記録する撮影モードである。ストップモーション撮影モードでのCPU17は、1シーン分の複数の静止画像を1つの動画像ファイルとして記録する。   The stop motion shooting mode is a shooting mode in which a predetermined number of images acquired at a constant time interval in one scene period are recorded as a moving image. The CPU 17 in the stop motion shooting mode records a plurality of still images for one scene as one moving image file.

インターバルタイマー撮影モードは、1シーンの期間において一定の時間間隔で取得された所定枚数の静止画像をそれぞれ個別に記録する撮影モードである。インターバルタイマー撮影モードでのCPU17は、1シーン分の複数の静止画像をそれぞれ個別に静止画像ファイルとして記録する。   The interval timer shooting mode is a shooting mode for individually recording a predetermined number of still images acquired at a fixed time interval in one scene period. The CPU 17 in the interval timer shooting mode individually records a plurality of still images for one scene as still image files.

ステップS104:顔検出部25は、スルー画像(S101で取得したもの)の出力を用いて、撮影画面内から人物の顔領域の位置を検出する。複数の顔が検出された場合、顔検出部25は、露出決定において重要度の高い順番に顔領域をナンバリングする。一例として、顔検出部25は、(I)顔領域の大きさ、(II)撮影画面の中心と顔領域との距離、(III)測距領域(AFエリア)と顔領域との距離、(IV)顔検出演算での信頼度、の各評価値を加算し、これらの評価値の総合評価で個々の顔領域の重要度を決定すればよい。   Step S104: The face detection unit 25 detects the position of the face area of the person from the shooting screen using the output of the through image (obtained in S101). When a plurality of faces are detected, the face detection unit 25 numbers the face areas in order of importance in exposure determination. As an example, the face detection unit 25 includes (I) the size of the face area, (II) the distance between the center of the shooting screen and the face area, (III) the distance between the distance measurement area (AF area) and the face area, ( IV) Each evaluation value of reliability in the face detection calculation is added, and the importance of each face area may be determined by comprehensive evaluation of these evaluation values.

このとき、上記(I)では顔領域が大きいほど、顔領域の重要度は高くなる。上記(II)では顔領域が撮影画面の中心から近いほど、顔領域の重要度は高くなる。上記(III)では測距領域から顔領域が近いほど、顔領域の重要度は高くなる。上記(IV)では、顔検出演算での信頼度が高いほど、顔領域の重要度は高くなる。   At this time, in (I) above, the greater the face area, the higher the importance of the face area. In (II) above, the closer the face area is to the center of the shooting screen, the higher the importance of the face area. In (III) above, the closer the face area is to the distance measurement area, the higher the importance of the face area. In the above (IV), the higher the reliability in the face detection calculation, the higher the importance of the face area.

そして、露出演算部27は、顔検出部25が検出した顔領域の位置に基づいて、撮影画面内の一部の被写体である主要被写体(顔)の輝度値BvObj[i]を求める。ここで、「i」は上記した重要度の高い順番にナンバリングされた顔の番号を示す引数である。なお、図7の例では、撮影画面内で複数の顔(2つ)が検出された場合において、個々の顔領域に対応する輝度値BvObj[i]がそれぞれ求められている。   Then, based on the position of the face area detected by the face detection unit 25, the exposure calculation unit 27 obtains the luminance value BvObj [i] of the main subject (face) that is a part of the subject in the shooting screen. Here, “i” is an argument indicating the number of the face numbered in the order of importance described above. In the example of FIG. 7, when a plurality of faces (two) are detected in the shooting screen, the luminance value BvObj [i] corresponding to each face area is obtained.

ここで、S104での露出演算部27は、撮影画面内から顔領域が検出された場合、例えば、以下の(イ)から(へ)のいずれかの手法で顔領域ごとに被写体の輝度値BvObj[i]をそれぞれ求める。   Here, when a face area is detected from the shooting screen, the exposure calculation unit 27 in S104, for example, the subject brightness value BvObj for each face area by any of the following methods (a) to (f): [I] is obtained respectively.

(イ)露出演算部27は、スルー画像のうちで顔領域に含まれる複数の画素をグループ化するとともに、このグループ化された複数の画素の平均輝度値を主要被写体の輝度値BvObj[i]とする(図4(a)参照)。   (A) The exposure calculation unit 27 groups a plurality of pixels included in the face area in the through image, and calculates an average luminance value of the grouped pixels as a main subject luminance value BvObj [i]. (See FIG. 4A).

(ロ)露出演算部27は、撮影画面を分割したブロック(S102)のうちで顔領域と重複するブロックを抽出し、この抽出したブロックの平均輝度値をさらに平均化して主要被写体の輝度値BvObj[i]を求めてもよい(図4(b)参照)。例えば、図4(b)の場合であれば、露出演算部27は、顔領域と重複する4つのブロックの平均輝度値から主要被写体の輝度値BvObj[i]を求める。   (B) The exposure calculation unit 27 extracts a block overlapping the face area from the blocks (S102) obtained by dividing the shooting screen, further averages the average luminance value of the extracted block, and obtains the luminance value BvObj of the main subject. [I] may be obtained (see FIG. 4B). For example, in the case of FIG. 4B, the exposure calculation unit 27 obtains the luminance value BvObj [i] of the main subject from the average luminance value of four blocks overlapping the face area.

(ハ)主要被写体と背景との輝度が極端に異なる場合(例えば逆光や過順光のシーンなど)において、顔領域よりも広い領域(図5(a)、図5(b)の領域FA0)から輝度値BvObj[i]を求めると、背景の影響を受けて適正な顔の輝度を求められないケースがある。   (C) When the luminance of the main subject and the background are extremely different (for example, a scene of backlight or excessive light), an area wider than the face area (area FA0 in FIGS. 5A and 5B) When the brightness value BvObj [i] is obtained from the above, there are cases where the appropriate face brightness cannot be obtained due to the influence of the background.

そこで、露出演算部27は、人物の顔の輪郭に内接する領域(図5(a)に示す領域FA1)から輝度値BvObj[i]を求めるようにしてもよい。あるいは、露出演算部27は、人物の顔の輪郭に外接する領域よりもサイズが小さい領域(図5(b)に示す領域FA2)から輝度値BvObj[i]を求めるようにしてもよい。   Therefore, the exposure calculation unit 27 may obtain the luminance value BvObj [i] from an area inscribed in the contour of the person's face (area FA1 shown in FIG. 5A). Alternatively, the exposure calculation unit 27 may obtain the luminance value BvObj [i] from an area (area FA2 shown in FIG. 5B) that is smaller than the area circumscribing the outline of the person's face.

ここで、図5(b)では、領域FA2の重心が領域FA0の重心と重なって配置される例を示す。もっとも、髪の影響を受けにくくするために領域FA2の重心を領域FA0の重心よりも下側にずらしてもよい(この場合の図示は省略する)。また、図5(b)では、領域FA2のサイズが領域FA0の縦横1/2のサイズに設定された例を示す。もっとも、上記の領域FA2のサイズは背景の影響を受けない範囲で適宜設定できる。   Here, FIG. 5B shows an example in which the center of gravity of the area FA2 is arranged so as to overlap the center of gravity of the area FA0. However, the center of gravity of the area FA2 may be shifted below the center of gravity of the area FA0 in order to make it less susceptible to the influence of hair (illustration is omitted in this case). FIG. 5B shows an example in which the size of the area FA2 is set to 1/2 the size of the area FA0. However, the size of the area FA2 can be appropriately set within a range not affected by the background.

(ニ)顔領域内の輝度差が大きい場合(例えば顔の半分に光が当たり、顔の半分が暗くなっている半逆光のシーンなど)には、顔領域の平均輝度値に基づいて輝度値BvObjを求めると、顔の明るい部分が白トビするおそれもある。そこで、露出演算部27は、主要被写体の顔を複数の領域に分割して測光し、複数の領域のそれぞれに対して得られる複数の測光値に基づいて輝度値BvObj[i]を求めてもよい。   (D) When the brightness difference in the face area is large (for example, a half-backlit scene in which light is applied to half of the face and half of the face is dark), the brightness value is based on the average brightness value of the face area. When BvObj is obtained, the bright part of the face may be overexposed. Therefore, the exposure calculation unit 27 performs photometry by dividing the face of the main subject into a plurality of areas, and obtains the luminance value BvObj [i] based on the plurality of photometric values obtained for each of the plurality of areas. Good.

一例として、露出演算部27は、図6に示すように縦横に2×2となるように顔領域を4分割する。そして、露出演算部27は、以下の式(1)により各分割領域(FA41−FA44)の測光値のうちの最大値を輝度値BvObjとしてもよい。
BvObj[i]=Max(BvFA41,BvFA42,BvFA43,BvFA44)…(1)
ここで、本明細書において、「BvFA41−44」は、それぞれ顔領域の分割領域(FA41−44)の平均輝度値を示している。また、本明細書において、「Max(A,B)」は、A,Bのうちの最大値を返す関数を意味する。
As an example, the exposure calculation unit 27 divides the face area into four so as to be 2 × 2 vertically and horizontally as shown in FIG. 6. And the exposure calculating part 27 is good also considering the maximum value among the photometry values of each division area (FA41-FA44) as the luminance value BvObj by the following formula | equation (1).
BvObj [i] = Max (BvFA41, BvFA42, BvFA43, BvFA44) (1)
Here, in this specification, “BvFA41-44” indicates an average luminance value of each divided area (FA41-44) of the face area. In this specification, “Max (A, B)” means a function that returns the maximum value of A and B.

(ホ)また、上記(ニ)の別例として、露出演算部27は、各領域(FA41−FA44)を縦横で4つにグループ化し、4つのグループのそれぞれで得た測光値のうちの最大値を輝度値BvObj[i]としてもよい。具体的には、露出演算部27は、以下の式(2)から式(6)の演算を順次行えばよい。
BvFaceUp=(BvFA41+BvFA42)/2…(2)
BvFaceDown=(BvFA43+BvFA44)/2…(3)
BvFaceLeft=(BvFA41+BvFA43)/2…(4)
BvFaceRight=(BvFA42+BvFA44)/2…(5)
BvObj[i]=Max(BvFaceUp,BvFaceDown,BvFaceLeft,BvFaceRight)…(6)
(ヘ)また、上記(ニ)の別例として、露出演算部27は、各領域の輝度値(BvFA41−44)を重み付け平均して輝度値BvObj[i]を求めてもよい。
(E) As another example of the above (d), the exposure calculation unit 27 groups each region (FA41-FA44) into four in the vertical and horizontal directions, and sets the maximum photometric value obtained in each of the four groups. The value may be the luminance value BvObj [i]. Specifically, the exposure calculation unit 27 may sequentially perform the calculations of the following formulas (2) to (6).
BvFaceUp = (BvFA41 + BvFA42) / 2 (2)
BvFaceDown = (BvFA43 + BvFA44) / 2 (3)
BvFaceLeft = (BvFA41 + BvFA43) / 2 (4)
BvFaceRight = (BvFA42 + BvFA44) / 2 (5)
BvObj [i] = Max (BvFaceUp, BvFaceDown, BvFaceLeft, BvFaceRight) (6)
(F) As another example of the above (d), the exposure calculation unit 27 may calculate the luminance value BvObj [i] by weighted averaging of the luminance values (BvFA41-44) of each region.

例えば、露出演算部27は、以下の式(7)において、BvFA41−44を大きい順にBvX[1]−BvX[4]として代入し、輝度値BvObj[i]を求めればよい。
BvObj[i]=Σ(BvX[j]×Wt[j])…(7)
ここで、上記の式(7)での「j」は1−4の整数をとるものとする。また、式(7)での「Σ()」は、変数jによる積和演算結果を返す関数である。また、式(7)の「Wt[j]」は所定の重み付け係数である。一例として、一の実施形態では、Wt[1]=0.6,Wt[2]=0.3,Wt[3]=0.1,Wt[4]=0に設定されるが、各重み付け係数は上記の例に限定されることはない。
For example, in the following formula (7), the exposure calculating unit 27 may substitute BvFA41-44 as BvX [1] -BvX [4] in descending order to obtain the luminance value BvObj [i].
BvObj [i] = Σ (BvX [j] × Wt [j]) (7)
Here, “j” in the above equation (7) takes an integer of 1-4. In addition, “Σ ()” in Expression (7) is a function that returns a product-sum operation result using the variable j. Further, “Wt [j]” in Expression (7) is a predetermined weighting coefficient. As an example, in one embodiment, Wt [1] = 0.6, Wt [2] = 0.3, Wt [3] = 0.1, Wt [4] = 0 are set. The coefficient is not limited to the above example.

なお、露出演算部27は、上記の式(7)において、BvFaceUp,BvFaceDown,BvFaceLeft,BvFaceRight(式(2)−(5)で求めた各グループの測光値)を大きい順にBvX[1]−BvX[4]として代入し、輝度値BvObj[i]を求めるようにしてもよい。   Note that the exposure calculation unit 27 calculates BvX [1] −BvX in the descending order of BvFaceUp, BvFaceDown, BvFaceLeft, BvFaceRight (photometric values of each group obtained by Expressions (2)-(5)) in the above expression (7). Substituting as [4], the luminance value BvObj [i] may be obtained.

ステップS105:露出演算部27は、補正演算サブルーチン1を実行する(補正演算サブルーチン1の内容については後述する)。この補正演算サブルーチン1では、主要被写体の輝度値BvObj[i](S104で求めたもの)に基づいて、露出演算部27が補正後の代表輝度値BvAnsを求める。   Step S105: The exposure calculation unit 27 executes the correction calculation subroutine 1 (the contents of the correction calculation subroutine 1 will be described later). In this correction calculation subroutine 1, the exposure calculation unit 27 calculates a corrected representative luminance value BvAns based on the luminance value BvObj [i] of the main subject (obtained in S104).

但し、顔領域が1つも検出されなかった場合、S105での露出演算部27は、仮の代表輝度値PreBvAnsを補正後の代表輝度値BvAnsとする(BvAns=PreBvAns)。   However, if no face area is detected, the exposure calculation unit 27 in S105 sets the temporary representative luminance value PreBvAns to the corrected representative luminance value BvAns (BvAns = PreBvAns).

ステップS106:露出演算部27は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行う。S106の処理後には、S108に処理が移行する。   Step S106: The exposure calculation unit 27 calculates an exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and controls exposure based on the exposure amount (parameters such as shutter speed and aperture value). Adjust). After the process of S106, the process proceeds to S108.

ステップS107:露出演算部27は、仮の代表輝度値PreBvAns(S102で求めたもの)から補正後の代表輝度値BvAnsを求める。
BvAns=PreBvAns …(8)
そして、S107での露出演算部27は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行う。
Step S107: The exposure calculation unit 27 obtains a corrected representative luminance value BvAns from the provisional representative luminance value PreBvAns (obtained in S102).
BvAns = PreBvAns (8)
Then, the exposure calculation unit 27 in S107 calculates an exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and performs exposure control (shutter time, aperture value, etc.) based on this exposure amount. Adjust each parameter).

ステップS108:CPU17は上記のスルー画像(S101で取得したもの)から生成したビュー画像をモニタ20に表示する。これにより、ユーザーは、モニタ20のビュー画像を参照して、撮影構図を決定するためのフレーミングを行うことができる。このとき、CPU17は、S104で検出し、補正演算サブルーチン1で選択された顔領域の位置を示す表示をビュー画像にオーバーレイさせてもよい(ビュー画像の表示例の図示は省略する)。   Step S108: The CPU 17 displays a view image generated from the above-described through image (obtained in S101) on the monitor 20. Accordingly, the user can perform framing for determining the shooting composition with reference to the view image on the monitor 20. At this time, the CPU 17 may overlay a display indicating the position of the face area detected in S104 and selected in the correction calculation subroutine 1 on the view image (illustration of a display example of the view image is omitted).

ステップS109:CPU17は、撮影開始タイミングか否かを判定する。例えば、第2撮影モードにおいて、撮影開始タイミングはレリーズ釦21が全押しされた時である。または第1撮影モードにおいて、撮影開始タイミングは、レリーズ釦21の全押しから所定期間または所定回数撮影動作を行うまでの期間の後、所定時間間隔毎を指す。   Step S109: The CPU 17 determines whether or not it is a shooting start timing. For example, in the second shooting mode, the shooting start timing is when the release button 21 is fully pressed. Alternatively, in the first shooting mode, the shooting start timing indicates every predetermined time interval after a period from when the release button 21 is fully pressed until a predetermined period or a predetermined number of shooting operations are performed.

上記要件を満たす場合(YES側)にはS110に処理が移行する。一方、上記要件を満たさない場合(NO側)には、CPU17はS101に戻って上記動作を繰り返す。S109でのNO側の場合には、CPU17はS106(またはS107)で求めた露出量に基づきスルー画像を撮像する。そして、モニタ20には、CPU17の制御によりビュー画像が動画表示されることとなる。   If the above requirement is satisfied (YES side), the process proceeds to S110. On the other hand, if the above requirement is not satisfied (NO side), the CPU 17 returns to S101 and repeats the above operation. In the case of the NO side in S109, the CPU 17 captures a through image based on the exposure amount obtained in S106 (or S107). The view image is displayed as a moving image on the monitor 20 under the control of the CPU 17.

ステップS110:CPU17は、S106(またはS107)で求めた露出量に基づいて、本画像の撮像処理を実行する。撮像素子15によって撮像された本画像のデータは、AFE16および画像処理部24で所定の処理が施された後に、記録I/F19を介して記憶媒体28に記録される。   Step S110: The CPU 17 executes a main image capturing process based on the exposure amount obtained in S106 (or S107). The data of the main image captured by the image sensor 15 is recorded in the storage medium 28 via the recording I / F 19 after being subjected to predetermined processing by the AFE 16 and the image processing unit 24.

ここで、ストップモーション撮影モードでは、CPU17の制御により、1シーン分の複数の静止画像が1つの動画像ファイルとして記録される。また、インターバルタイマー撮影モードでのCPU17は、1シーン分の複数の静止画像をそれぞれ個別に静止画像ファイルとして記録する。また、第2撮影モードの場合も、CPU17は複数の静止画像をそれぞれ個別に静止画像ファイルとして記録する。   Here, in the stop motion shooting mode, a plurality of still images for one scene are recorded as one moving image file under the control of the CPU 17. Further, the CPU 17 in the interval timer shooting mode individually records a plurality of still images for one scene as still image files. Also in the second shooting mode, the CPU 17 records a plurality of still images individually as still image files.

以上で、図2に示す撮影モードの動作例の説明を終了する。   The description of the operation example of the shooting mode illustrated in FIG.

(補正演算サブルーチン1の説明)
次に、図8の流れ図を参照しつつ、図2のS105における補正演算サブルーチンでの動作例を説明する。
(Description of correction calculation subroutine 1)
Next, an example of the operation in the correction calculation subroutine in S105 of FIG. 2 will be described with reference to the flowchart of FIG.

ステップS201:露出演算部27は、カメラの状態が所定の条件を満たすか否か判定する。上記要件を満たす場合(YES側)にはS202に処理が移行する。一方、上記要件を満たさない場合(NO側)にはS203に処理が移行する。   Step S201: The exposure calculation unit 27 determines whether or not the camera state satisfies a predetermined condition. If the above requirement is satisfied (YES side), the process proceeds to S202. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S203.

ここで、S201での露出演算部27は、例えば、以下の条件1〜3のいずれかを満たすか否かを判定する。   Here, the exposure calculation unit 27 in S201 determines whether or not any of the following conditions 1 to 3 is satisfied, for example.

(条件1)露出演算が繰り返し行われる状態(図2のステップ101〜109が繰り返し行われる状態)において、初回の露出演算である場合。つまり、比較すべき前回の代表輝度値が存在しない場合である。例えば、電源起動直後の場合や、公知の中央部重点測光やスポット測光から多分割測光モードへ測光モードを切り替えた直後の場合などが、条件1に該当する。   (Condition 1) In the state where the exposure calculation is repeatedly performed (the state where steps 101 to 109 in FIG. 2 are repeatedly performed), it is the first exposure calculation. That is, there is no previous representative luminance value to be compared. For example, the condition 1 corresponds to a case immediately after the power is turned on or a case immediately after switching the metering mode from the known center-weighted metering or spot metering to the multi-segment metering mode.

(条件2)前回の露出演算において顔が検出されなかった場合。つまり、後述する前回の代表輝度値PastBvが正しく算出されていない場合である。   (Condition 2) When no face is detected in the previous exposure calculation. That is, it is a case where the last representative luminance value PastBv described later is not correctly calculated.

(条件3)焦点調節部26が撮影画面内に複数の測距領域を持つときに、ユーザーによって任意の測距領域が手動で指定されている場合。つまり、ユーザーが意図を持ってある顔にピントを合わせようとしている場合である。上記の場合には、複数の顔のうちで指定された測距領域の顔が主要な顔であり、露出も主要な顔に基づいて決定されるべきである。よって、条件3の場合には、露出演算部27は後述の露出の安定化処理を行わずに、ユーザーの意図せぬ顔に露出を合わせ続けることを回避する。   (Condition 3) When the focus adjusting unit 26 has a plurality of distance measurement areas in the shooting screen, an arbitrary distance measurement area is manually designated by the user. That is, the user is trying to focus on a certain face. In the above case, the face of the distance measurement area designated among the plurality of faces is the main face, and the exposure should be determined based on the main face. Therefore, in the case of condition 3, the exposure calculation unit 27 avoids keeping the exposure on the face not intended by the user without performing the exposure stabilization process described later.

但し、測距領域が手動で指定されていてもフォーカシングレンズの駆動が禁止されている場合(フォーカスロック中)には、露出演算部27は露出を安定させるために条件3を満たさないものと判定する。   However, when the focusing lens is prohibited from being driven even when the distance measurement area is manually designated (during focus lock), the exposure calculation unit 27 determines that the condition 3 is not satisfied in order to stabilize the exposure. To do.

ステップS202:露出演算部27は、補正演算の対象となる顔の数を示す変数nの値を1にする(n=1)。つまり、S201の所定の条件を満たす場合には、複数の顔が検出されても重要度の最も高い1つの顔のみが補正演算の対象となる。なお、S202の処理後には、S204に処理が移行する。   Step S202: The exposure calculation unit 27 sets the value of a variable n indicating the number of faces to be subjected to correction calculation to 1 (n = 1). In other words, when the predetermined condition of S201 is satisfied, even if a plurality of faces are detected, only one face having the highest importance is subjected to correction calculation. Note that after the process of S202, the process proceeds to S204.

ステップS203:露出演算部27は、上記の変数nに補正対象となる顔の数を代入する。例えば、顔が5つ検出された場合、S203での露出演算部27は、n=5とすればよい。   Step S203: The exposure calculation unit 27 substitutes the number of faces to be corrected into the variable n. For example, when five faces are detected, the exposure calculation unit 27 in S203 may set n = 5.

また、補正演算の対象に重要度の低い顔を含めることは不適当である。そのため、撮影画面内で顔が複数検出された場合に、露出演算部27は、顔領域の重要度に応じて補正演算の対象となる顔の数を絞り込むようにしてもよい。例えば、露出演算部27は、変数nの値に上限値を設定し(例えばn=3など)、n以上の顔が検出された場合には重要度の高い順にn個まで補正演算の対象となる顔を決定すればよい。   In addition, it is inappropriate to include a face of low importance in the correction calculation target. For this reason, when a plurality of faces are detected in the shooting screen, the exposure calculation unit 27 may narrow down the number of faces to be subjected to correction calculation according to the importance of the face area. For example, the exposure calculation unit 27 sets an upper limit value for the value of the variable n (for example, n = 3), and when n or more faces are detected, up to n correction calculation targets in descending order of importance. What is necessary is just to determine the face.

ステップS204:露出演算部27は、変数iに1を代入して初期化する(i=1)。   Step S204: The exposure calculation unit 27 initializes by substituting 1 into the variable i (i = 1).

ステップS205:露出演算部27は、i番目の顔を補正対象として補正演算サブルーチン2を実行する(補正演算サブルーチン2の内容については後述する)。この補正演算サブルーチン2では、主要被写体の輝度値BvObj[i](S104で求めたもの)に基づいて、露出演算部27が補正対象の顔毎に輝度補正値dBvObj[i]を求める。   Step S205: The exposure calculation unit 27 executes the correction calculation subroutine 2 with the i-th face as a correction target (the contents of the correction calculation subroutine 2 will be described later). In this correction calculation subroutine 2, the exposure calculation unit 27 calculates a luminance correction value dBvObj [i] for each face to be corrected based on the luminance value BvObj [i] of the main subject (obtained in S104).

逆光や過順光などのように主要被写体と背景との輝度が極端に異なる場合、仮の代表輝度値PreBvAnsから直接に露出量を求めると、主要被写体の露出が暗すぎたり明るすぎたりする場合がある。そのため、一の実施形態では、輝度補正量dBvObj[i]によって、主要被写体と背景とのバランスが適正な露出量となるように輝度値を補正する。   When the brightness of the main subject and the background is extremely different, such as in backlighting or excessively forward light, the exposure of the main subject is too dark or too bright when the exposure amount is obtained directly from the temporary representative brightness value PreBvAns There is. Therefore, in one embodiment, the luminance value is corrected by the luminance correction amount dBvObj [i] so that the balance between the main subject and the background becomes an appropriate exposure amount.

ステップS206:露出演算部27は、i番目の顔に基づく仮の補正後代表輝度値TempBv[i]を次式に基づいて求める。
TempBv[i]=PreBvAns+dBvObj[i] …(9)
ステップS207:露出演算部27は、現在の変数iの値がnに等しいか(i=n)否かを判定する。i=nの場合は、全ての補正対象の顔についてS205の輝度補正量dBvObj[i]が求められている状態である。上記要件を満たす場合(YES側)にはS209に処理が移行する。一方、上記要件を満たさない場合(NO側)にはS208に処理が移行する。
Step S206: The exposure calculation unit 27 calculates a temporary corrected representative luminance value TempBv [i] based on the i-th face based on the following equation.
TempBv [i] = PreBvAns + dBvObj [i] (9)
Step S207: The exposure calculator 27 determines whether or not the current value of the variable i is equal to n (i = n). When i = n, the luminance correction amount dBvObj [i] in S205 is obtained for all the faces to be corrected. If the above requirement is satisfied (YES side), the process proceeds to S209. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S208.

ステップS208:露出演算部27は、iの値をインクリメントし(i=i+1)、ステップS205へ処理を戻す。S205からS208のループにより、全ての補正対象の顔について、仮の補正後代表輝度値TempBv[i]がそれぞれ求められる。   Step S208: The exposure calculation unit 27 increments the value of i (i = i + 1), and returns the process to step S205. Through the loop from S205 to S208, provisionally corrected representative luminance values TempBv [i] are obtained for all the faces to be corrected.

ステップS209:露出演算部27は、補正対象である顔の数nが1か(n=1)否かを判定する。上記要件を満たす場合(YES側)にはS210に処理が移行する。一方、上記要件を満たさない場合(NO側)にはS211に処理が移行する。   Step S209: The exposure calculation unit 27 determines whether or not the number n of faces to be corrected is 1 (n = 1). If the above requirement is satisfied (YES side), the process proceeds to S210. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S211.

ステップS210:露出演算部27は、露出演算で使用される顔番号を示す変数(選択顔番号Sel)に1を代入する。   Step S210: The exposure calculation unit 27 substitutes 1 for a variable (selected face number Sel) indicating a face number used in the exposure calculation.

ステップS211:露出演算部27は、全ての補正対象の顔についてABS(TempBv[i]−PastBv)を演算する。そして、露出演算部27は、ABS(TempBv[i]−PastBv)が最小値となるiを選択顔番号Selに代入する。なお、ABS(TempBv[i]−PastBv)の最小値をとるiが複数存在する場合は、iの値自体が最も小さくなる(つまり重要度がより高い)iをSelに代入すればよい。   Step S211: The exposure calculation unit 27 calculates ABS (TempBv [i] -PastBv) for all correction target faces. Then, the exposure calculation unit 27 substitutes i for which ABS (TempBv [i] −PastBv) is the minimum value into the selected face number Sel. In addition, when there are a plurality of i taking the minimum value of ABS (TempBv [i] −PastBv), it is sufficient to substitute i with the smallest i value (that is, higher importance) for Sel.

ここで、「ABS()」は()内の数値の絶対値を返す関数である。また、「PastBv」は前回の代表輝度値であって、その算出方法については後述する。   Here, “ABS ()” is a function that returns the absolute value of the numerical value in (). “PastBv” is the previous representative luminance value, and a calculation method thereof will be described later.

ステップS212:露出演算部27は、選択顔番号Selに対応する仮の補正後代表輝度値TempBv[i]を、補正後の代表輝度値BvAnsに代入する(BvAns=TempBv[Sel])。   Step S212: The exposure calculation unit 27 substitutes the provisional corrected representative luminance value TempBv [i] corresponding to the selected face number Sel into the corrected representative luminance value BvAns (BvAns = TempBv [Sel]).

ステップS213:露出演算部27は、代表輝度値BvAnsを前回の代表輝度値PastBvに代入して、PastBvを更新する(PastBv=BvAns)。これにより、繰り返し露出演算を行う場合において、次回の露出演算では今回の代表輝度値BvAnsを用いてS211の演算が行われることとなる。以上で、図8の流れ図の説明を終了する。   Step S213: The exposure calculation unit 27 assigns the representative luminance value BvAns to the previous representative luminance value PastBv, and updates PastBv (PastBv = BvAns). As a result, when the exposure calculation is repeatedly performed, the calculation of S211 is performed using the current representative luminance value BvAns in the next exposure calculation. Above, description of the flowchart of FIG. 8 is complete | finished.

(補正演算サブルーチン2の説明)
次に、図9の流れ図を参照しつつ、図8のS205における補正演算サブルーチン2での動作例を説明する。
(Description of correction calculation subroutine 2)
Next, an example of the operation in the correction calculation subroutine 2 in S205 of FIG. 8 will be described with reference to the flowchart of FIG.

ステップS301:露出演算部27は、主要被写体の輝度値BvObj(S104で求めたもの)を用いて、下式(10)により輝度目標値BvTrgtを求める。
BvTrgt=BvObj−OfsObj …(10)
ここで、本明細書において「OfsObj」は、主要被写体の種類ごとに予め設定されているオフセット値を意味する。このOfsObjの値は、本画像でのグレーレベルの出力値と、本画像において主要被写体の再現目標となる出力値との差分から求められる。
Step S301: The exposure calculation unit 27 uses the luminance value BvObj (obtained in S104) of the main subject to determine the luminance target value BvTrgt using the following equation (10).
BvTrgt = BvObj−OfsObj (10)
Here, “OfsObj” in this specification means an offset value set in advance for each type of main subject. The value of OfsObj is obtained from the difference between the output value of the gray level in the main image and the output value that is the reproduction target of the main subject in the main image.

カメラの自動露出演算においては、主要被写体と同じ輝度を有する無彩色の被写体を撮影する場合、原則として上記の無彩色の被写体が本画像にてグレーレベルで再現されるように露出量が演算される。一方、主要被写体の種類によっては、本画像での再現目標の出力値をグレーレベルからシフトさせた方が好ましい場合もある。一例として、主要被写体が人物の顔であれば、本画像での再現目標の出力値をグレーレベルよりもやや明るめの値にする方が好ましい画像となる。そのため、S301での露出演算部27は、OfsObjを用いて主要被写体の種類毎に輝度値の調整を行っている。   In automatic camera exposure calculation, when shooting an achromatic subject with the same brightness as the main subject, the exposure amount is calculated so that, as a general rule, the above-mentioned achromatic subject is reproduced at the gray level in the main image. The On the other hand, depending on the type of the main subject, it may be preferable to shift the output value of the reproduction target in the main image from the gray level. As an example, if the main subject is a human face, it is preferable to set the output value of the reproduction target in the main image to a value slightly brighter than the gray level. Therefore, the exposure calculation unit 27 in S301 adjusts the luminance value for each type of main subject using OfsObj.

以下、主要被写体が人物の顔である場合のOfsObjの演算例を説明する。なお、一の実施形態では、本画像の階調が8bit(出力値0〜255)であることを前提として説明を行う。   Hereinafter, an example of the calculation of OfsObj when the main subject is a person's face will be described. In the embodiment, the description will be made on the assumption that the gradation of the main image is 8 bits (output value 0 to 255).

この例では、グレーレベルの出力値を120とし、本画像での顔の再現目標の出力値を150とする。よって、この場合のOfsObjは、本画像において顔の出力値を120から150に明るくするための補正量となる。なお、露出演算では被写体の輝度値が小さくなるほどオーバー側の露出量となることから、上記の式(10)ではBvObjの値からOfsObjの値を減算して輝度値を小さくしている。   In this example, the output value of the gray level is 120, and the output value of the face reproduction target in the main image is 150. Therefore, OfsObj in this case is a correction amount for increasing the face output value from 120 to 150 in the main image. In the exposure calculation, as the subject brightness value decreases, the over exposure amount becomes. Therefore, in the above formula (10), the value of OfsObj is subtracted from the value of BvObj to reduce the brightness value.

また、本画像での出力値は、画像処理部24での階調変換処理によって、撮像素子15の出力レベルに対して非線形な状態に変換されている。したがって、露出演算部27は、本画像での出力値に逆階調変換処理を施した状態で出力値を比較することで、OfsObjの値を求めることができる。なお、人物の顔が主要被写体の場合でのOfsObjの値は、下式(11)によって求められる。
OfsObj=Log2(RvG(150)/RvG(120)) …(11)
ここで、本明細書において「Log2(A)」は、2を底とするAの対数を返す関数を意味する。また、本明細書において「RvG(B)」は、逆階調変換に相当する関数であって、本画像での出力値を示すBに対して階調変換前の入力値を返す関数を意味する。
Further, the output value in the main image is converted into a non-linear state with respect to the output level of the image sensor 15 by the gradation conversion processing in the image processing unit 24. Therefore, the exposure calculation unit 27 can obtain the value of OfsObj by comparing the output value in a state where the output value in the main image is subjected to the reverse gradation conversion process. The value of OfsObj when the person's face is the main subject is obtained by the following equation (11).
OfsObj = Log2 (RvG (150) / RvG (120)) (11)
In this specification, “Log2 (A)” means a function that returns the logarithm of A with 2 as the base. Further, in this specification, “RvG (B)” is a function corresponding to inverse gradation conversion, and means a function that returns an input value before gradation conversion with respect to B indicating an output value in the main image. To do.

なお、S301での他の例として、主要被写体が青空である場合のOfsObjの演算例を説明する。本画像での青空の再現目標の出力値を175とすると、この場合のOfsObjの値は、下式(12)で求めることができる。
OfsObj=Log2(RvG(175)/RvG(120)) …(12)
ステップS302:露出演算部27は、輝度目標値BvTrgt(S201で求めたもの)に基づいて、輝度値の目標範囲を設定する。具体的には、S302の露出演算部27は、下式(13)によって目標範囲の上限値BvUpperを求めるとともに、下式(14)によって目標範囲の下限値BvLowerを求める。
BvUpper=BvTrgt+BvSth1 …(13)
BvLower=BvTrgt+BvSth2 …(14)
ここで、「BvSth1」と「BvSth2」とは、それぞれ主要被写体の種類ごとに設定される値である。したがって、S302で設定される輝度値の目標範囲の幅は、主要被写体の種類に応じて変化しうる。
As another example in S301, a calculation example of OfsObj when the main subject is a blue sky will be described. If the output value of the blue sky reproduction target in the main image is 175, the value of OfsObj in this case can be obtained by the following equation (12).
OfsObj = Log2 (RvG (175) / RvG (120)) (12)
Step S302: The exposure calculation unit 27 sets a target range of luminance values based on the target luminance value BvTrgt (obtained in S201). Specifically, the exposure calculation unit 27 in S302 obtains the upper limit value BvUpper of the target range by the following equation (13) and obtains the lower limit value BvLower of the target range by the following equation (14).
BvUpper = BvTrgt + BvSth1 (13)
BvLower = BvTrgt + BvSth2 (14)
Here, “BvSth1” and “BvSth2” are values set for each type of main subject. Therefore, the width of the target range of the brightness value set in S302 can change according to the type of the main subject.

S302において、輝度値の目標範囲を設定するのは以下の理由による。主要被写体(人物の顔)と背景との輝度が極端に異なるシーン(例えば逆光や過順光の場合など)では、顔の輝度に基づいて露出量を決定すると、背景部分に白トビや黒つぶれが生じて撮影した画像の見映えが不自然となってしまう。   In S302, the target range of the luminance value is set for the following reason. In scenes where the brightness of the main subject (person's face) and the background are extremely different (for example, in the case of backlight or over-order light), if the exposure is determined based on the brightness of the face, Will appear and the image taken will be unnatural.

一方、上記のシーンでは、背景とのバランスを考慮して主要被写体の明るさを決定した方が画像全体としてはむしろ自然な露出になる。したがって、露出演算部27は、BvUpperおよびBvLowerによって目標とする輝度値に幅をもたせることで、輝度差の大きなシーンに対応できるようにしている。   On the other hand, in the above scene, it is rather natural exposure for the entire image when the brightness of the main subject is determined in consideration of the balance with the background. Therefore, the exposure calculation unit 27 can deal with a scene with a large luminance difference by giving a range to the target luminance value by BvUpper and BvLower.

例えば、逆光のシーンにおける本画像での人物の顔の出力値は110でもよい。そのため、人物の顔が主要被写体の場合でのBvSth1の値は下式(15)で求めることができる。同様に、過順光のシーンにおける人物の顔の出力値は180でもよい。そのため、人物の顔が主要被写体の場合でのBvSth2の値は、下式(16)で求めることができる。
BvSth1=Log2(RvG(150)/RvG(110)) …(15)
BvSth2=Log2(RvG(150)/RvG(180)) …(16)
ここで、図10を参照しつつ、目標範囲と露出量との関係について説明する。上記の式(15)で求めたBvSth1は、BvTrgtに対してプラスの補正値となって、BvUpperの値はBvTrgtよりも大きくなる。そして、BvUpperに基づいて露出量を求めると、BvTrgtに基づく露出量よりも露出がアンダー側になる。これにより、BvUpperに基づく露出量で本画像を撮影すると、本画像での顔の出力値は上記の再現目標よりも低い値となる。
For example, the output value of a human face in the main image in a backlight scene may be 110. Therefore, the value of BvSth1 when the person's face is the main subject can be obtained by the following equation (15). Similarly, the output value of a person's face in an over-order scene may be 180. Therefore, the value of BvSth2 in the case where the person's face is the main subject can be obtained by the following equation (16).
BvSth1 = Log2 (RvG (150) / RvG (110)) (15)
BvSth2 = Log2 (RvG (150) / RvG (180)) (16)
Here, the relationship between the target range and the exposure amount will be described with reference to FIG. BvSth1 obtained by the above equation (15) is a positive correction value with respect to BvTrgt, and the value of BvUpper is larger than BvTrgt. Then, when the exposure amount is obtained based on BvUpper, the exposure is underside than the exposure amount based on BvTrgt. As a result, when the main image is captured with the exposure amount based on BvUpper, the face output value in the main image is lower than the above reproduction target.

一方、上記の式(16)で求めたBvSth2は、BvTrgtに対してマイナスの補正値となって、BvLowerの値はBvTrgtよりも小さくなる。そして、BvLowerに基づいて露出量を求めると、BvTrgtに基づく露出量よりも露出がオーバー側になる。これにより、BvLowerに基づく露出量で本画像を撮影すると、本画像での顔の出力値は上記の再現目標よりも高い値となる。   On the other hand, BvSth2 obtained by the above equation (16) is a negative correction value with respect to BvTrgt, and the value of BvLower is smaller than BvTrgt. Then, when the exposure amount is obtained based on BvLower, the exposure is over the exposure amount based on BvTrgt. As a result, when the main image is captured with the exposure amount based on BvLower, the face output value in the main image is higher than the above reproduction target.

なお、S302での他の例として、主要被写体が青空である場合のBvSth1およびBvSth2の演算例を説明する。本画像で青空が再現目標である場合の出力値の幅を100〜200とすると、この場合のBvSth1の値は下式(17)で求めることができる。また、この場合のBvSth2の値は下式(18)で求めることができる。
BvSth1=Log2(RvG(175)/RvG(100)) …(17)
BvSth2=Log2(RvG(175)/RvG(200)) …(18)
ところで、上記の例では、逆光のシーンにおける本画像での人物の顔の出力は、背景とのバランスを考慮して110でもよいと説明した。しかし、撮影画面に対する人物の顔の面積比(人物の顔の大きさ)が大きい場合には、顔の明るさが本画像の明るさの印象を決めることとなる。逆に、撮影画面に対する人物の顔の面積比が小さい場合には、背景の明るさが本画像の明るさの印象を決めることとなる。そのため、露出演算部27は、撮影画面に対する主要被写体の面積比に応じて輝度値の目標範囲の幅を調整してもよい。この場合において、露出演算部27は、上記のBvSth1およびBvSth2にそれぞれ重み付けをした値(BvSth1’,BvSth2’)を以下の式(19)、式(20)で求める。そして、露出演算部27は、BvSth1’,BvSth2’を用いてBvUpperおよびBvLowerをそれぞれ求めればよい。
BvSth1’=BvSth1×WtWd …(19)
BvSth2’=BvSth2×WtWd …(20)
ここで、式(19)、式(20)の「WtWd」は、目標範囲の幅の重み付け係数を示している。上記の重み付け係数WtWdの値は、撮影画面に対する主要被写体の面積比に依存した関数により露出演算部27が決定する。この重み付け係数WtWdは、撮影画面に対する主要被写体の面積比が小さい場合には大きな値となり、撮影画面に対する主要被写体の面積比が大きい場合には小さな値となる。
As another example of S302, a calculation example of BvSth1 and BvSth2 when the main subject is a blue sky will be described. If the width of the output value when the blue sky is the reproduction target in the main image is 100 to 200, the value of BvSth1 in this case can be obtained by the following equation (17). Further, the value of BvSth2 in this case can be obtained by the following equation (18).
BvSth1 = Log2 (RvG (175) / RvG (100)) (17)
BvSth2 = Log2 (RvG (175) / RvG (200)) (18)
In the above example, it has been described that the output of the human face in the main image in a backlight scene may be 110 in consideration of the balance with the background. However, when the area ratio of the human face to the shooting screen (the size of the human face) is large, the brightness of the face determines the impression of the brightness of the main image. Conversely, when the area ratio of the person's face to the shooting screen is small, the brightness of the background determines the impression of the brightness of the main image. Therefore, the exposure calculation unit 27 may adjust the width of the target range of the luminance value according to the area ratio of the main subject to the shooting screen. In this case, the exposure calculation unit 27 obtains values (BvSth1 ′, BvSth2 ′) obtained by weighting the BvSth1 and BvSth2 by the following equations (19) and (20). Then, the exposure calculation unit 27 may obtain BvUpper and BvLower using BvSth1 ′ and BvSth2 ′.
BvSth1 ′ = BvSth1 × WtWd (19)
BvSth2 ′ = BvSth2 × WtWd (20)
Here, “WtWd” in Expression (19) and Expression (20) indicates a weighting coefficient for the width of the target range. The value of the weighting coefficient WtWd is determined by the exposure calculation unit 27 using a function depending on the area ratio of the main subject to the shooting screen. The weighting coefficient WtWd is a large value when the area ratio of the main subject to the shooting screen is small, and is a small value when the area ratio of the main subject to the shooting screen is large.

ここで、図11は、主要被写体が人物のときの重み付け係数WtWdの関数の一例を示している。図11の縦軸は、WtWdの値を示し、図11の横軸は撮影画面に対する主要被写体の面積比を示している。   Here, FIG. 11 shows an example of a function of the weighting coefficient WtWd when the main subject is a person. The vertical axis in FIG. 11 indicates the value of WtWd, and the horizontal axis in FIG. 11 indicates the area ratio of the main subject to the shooting screen.

図11の例では、上記の面積比が5%以下のときに、WtWdの値は1.0となる。また、上記の面積比が5%より大きく50%未満の範囲では、WtWdの値は面積比の大きさに比例して低下してゆく。そして、上記の面積比が50%以上のときに、WtWdの値は0.0となる。   In the example of FIG. 11, when the area ratio is 5% or less, the value of WtWd is 1.0. Further, in the range where the area ratio is greater than 5% and less than 50%, the value of WtWd decreases in proportion to the size of the area ratio. When the area ratio is 50% or more, the value of WtWd is 0.0.

すなわち、撮影画面に対する主要被写体の面積比が小さい場合には、BvSth1’およびBvSth2’の値は大きくなるので、輝度値の目標範囲の幅は大きくなる。一方、撮影画面に対する主要被写体の面積比が大きい場合には、BvSth1’およびBvSth2’の値は小さくなるので、輝度値の目標範囲の幅は小さくなる。   That is, when the area ratio of the main subject to the shooting screen is small, the values of BvSth1 'and BvSth2' are large, so the width of the target range of luminance values is large. On the other hand, when the area ratio of the main subject to the shooting screen is large, the values of BvSth1 'and BvSth2' are small, so the width of the target range of luminance values is small.

また、撮影画面内で複数の主要被写体が検出された場合には、露出演算部27は、複数の主要被写体のうちで最もサイズの大きな被写体に基づいて上記の面積比を決定し、BvSth1’およびBvSth2’を用いて輝度値の目標範囲の幅を求めてもよい。あるいは、露出演算部27は、複数の主要被写体の大きさを合計した値で上記の面積比を決定し、BvSth1’およびBvSth2’を用いて輝度値の目標範囲の幅を求めてもよい。なお、図9に示す重み付け係数WtWdの関数はあくまで一例であり、重み付け係数WtWdの関数を主要被写体の種類に応じて変更するようにしてもよい。   When a plurality of main subjects are detected in the shooting screen, the exposure calculation unit 27 determines the area ratio based on the subject having the largest size among the plurality of main subjects, and BvSth1 ′ and The width of the target range of luminance values may be obtained using BvSth2 ′. Alternatively, the exposure calculation unit 27 may determine the area ratio by a value obtained by summing the sizes of a plurality of main subjects, and obtain the width of the target range of luminance values using BvSth1 'and BvSth2'. Note that the function of the weighting coefficient WtWd shown in FIG. 9 is merely an example, and the function of the weighting coefficient WtWd may be changed according to the type of the main subject.

ステップS303:露出演算部27は、PreBvAnsがBvUpperよりも大きいか否かを判定する。上記要件を満たす場合(YES側)にはS307に処理が移行する。一方、上記要件を満たさない場合(NO側)にはS304に処理が移行する。   Step S303: The exposure calculation unit 27 determines whether PreBvAns is larger than BvUpper. If the above requirement is satisfied (YES side), the process proceeds to S307. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S304.

ステップS304:露出演算部27は、PreBvAnsがBvLowerよりも小さいか否かを判定する。上記要件を満たす場合(YES側)にはS306に処理が移行する。一方、上記要件を満たさない場合(NO側)にはS305に処理が移行する。   Step S304: The exposure calculation unit 27 determines whether PreBvAns is smaller than BvLower. If the above requirement is satisfied (YES side), the process proceeds to S306. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S305.

ステップS305:この場合は、仮の代表輝度値PreBvAnsから求めた露出量で本画像の撮影を行うと、本画像での顔の出力値は110から180の範囲に収まると予想できる。そのため、露出演算部27は、dBvOBjを求めるときの仮補正量dBvTrgtToAnsに「0」値を代入する。なお、S305の後にはS308へ処理が移行する。   Step S305: In this case, if the main image is shot with the exposure amount obtained from the provisional representative luminance value PreBvAns, it can be predicted that the face output value in the main image falls within the range of 110 to 180. Therefore, the exposure calculation unit 27 substitutes a “0” value for the provisional correction amount dBvTrgtToAns when determining dBvOBj. Note that the processing moves to S308 after S305.

ステップS306:この場合は、仮の代表輝度値PreBvAnsから求めた露出量で本画像の撮影を行うと、本画像での顔の出力値は180よりも高くなると予想できる。そのため、露出演算部27は、本画像での顔の出力値を180にするために、仮補正量dBvTrgtToAnsの値を下式(21)によって求める。
dBvTrgtToAns=BvLower−PreBvAns …(21)
このS306の場合のdBvTrgtToAnsは、輝度値を大きくする補正量に相当する。輝度値を大きくする方向に補正すると露出演算のときに露出量はアンダー側となるため、本画像では明るい顔が暗めに補正されることとなる。なお、S306の後にはS308へ処理が移行する。
Step S306: In this case, if the main image is taken with the exposure amount obtained from the provisional representative luminance value PreBvAns, it can be expected that the face output value in the main image will be higher than 180. Therefore, the exposure calculation unit 27 calculates the value of the temporary correction amount dBvTrgtToAns by the following equation (21) in order to set the face output value in the main image to 180.
dBvTrgtToAns = BvLower-PreBvAns (21)
DBvTrgtToAns in the case of S306 corresponds to a correction amount for increasing the luminance value. If the luminance value is corrected in the increasing direction, the exposure amount becomes underside during the exposure calculation, so that a bright face is corrected to be darker in the main image. Note that the process proceeds to S308 after S306.

ステップS307:この場合は、仮の代表輝度値PreBvAnsから求めた露出量で本画像の撮影を行うと、本画像での顔の出力値は110よりも低くなると予想できる。そのため、露出演算部27は、本画像での顔の出力値を110にするために、仮補正量dBvTrgtToAnsの値を下式(22)によって求める。
dBvTrgtToAns=BvUpper−PreBvAns …(22)
このS307の場合のdBvTrgtToAnsは、輝度値を小さくする補正量に相当する。輝度値を小さくする方向に補正すると露出演算のときに露出量はオーバー側となるため、本画像では暗めの顔が明るく補正されることとなる。
Step S307: In this case, if the main image is taken with the exposure amount obtained from the provisional representative luminance value PreBvAns, it can be expected that the face output value in the main image will be lower than 110. Therefore, the exposure calculation unit 27 calculates the value of the temporary correction amount dBvTrgtToAns by the following equation (22) in order to set the face output value in the main image to 110.
dBvTrgtToAns = BvUpper-PreBvAns (22)
DBvTrgtToAns in the case of S307 corresponds to a correction amount for reducing the luminance value. If the luminance value is corrected in the direction of decreasing the exposure value, the exposure amount is over during the exposure calculation, so that the dark face is corrected brightly in the main image.

ステップS308:露出演算部27は、仮補正量dBvTrgtToAns(S305、S306、S307のいずれかで求めたもの)を所定の制限値の範囲に制限して、輝度補正量dBvObj[i]を求める。例えば、S308での露出演算部27は、以下の式(23)によって輝度補正量dBvObj[i]を求める。
dBvObj[i]=Clip(dBvTrgtToAns) …(23)
ここで、式(23)の「Clip(A)」は、Aの値が制限値の範囲内にあるときにはAの値を返し、Aの値が制限値の範囲を超えるときには制限値を返す関数を意味する。なお、「Clip(A)」での制限値には上限値と下限値とを設定できる。この場合、「Clip(A)」でAの値が上限値を上回る場合は、入力されたAの値は上限値に置換される。また、「Clip(A)」でAの値が下限値を下回る場合は、入力されたAの値は下限値に置換される。
Step S308: The exposure calculation unit 27 obtains the luminance correction amount dBvObj [i] by limiting the temporary correction amount dBvTrgtToAns (obtained in any one of S305, S306, and S307) to a predetermined limit value range. For example, the exposure calculation unit 27 in S308 calculates the luminance correction amount dBvObj [i] by the following equation (23).
dBvObj [i] = Clip (dBvTrgtToAns) (23)
Here, “Clip (A)” in Expression (23) returns a value of A when the value of A is within the limit value range, and returns a limit value when the value of A exceeds the limit value range. Means. An upper limit value and a lower limit value can be set as the limit value in “Clip (A)”. In this case, when the value of A exceeds the upper limit value in “Clip (A)”, the input value of A is replaced with the upper limit value. Further, when the value of A is lower than the lower limit value in “Clip (A)”, the input value of A is replaced with the lower limit value.

S308においてdBvTrgtToAnsの値を制限するのは以下の理由による。主要被写体(人物の顔)と背景との輝度が極端に異なるシーンでは、本画像での顔の出力値を目標範囲の上限や下限に合わせても、なお背景部分に白トビや黒つぶれが生じる場合も起こりうる。そのため、S308での露出演算部27は、上記のケースを想定してdBvTrgtToAnsの値を所定の範囲内に制限している。   The reason for limiting the value of dBvTrgtToAns in S308 is as follows. In scenes where the brightness of the main subject (person's face) and the background are extremely different, even if the output value of the face in this image is adjusted to the upper or lower limit of the target range, white background or blackout occurs in the background portion. It can happen. Therefore, the exposure calculation unit 27 in S308 limits the value of dBvTrgtToAns within a predetermined range assuming the above case.

一例として、人物の顔が主要被写体の場合、露出演算部27は、制限値の範囲を露出値に換算して−1から+1.5の範囲に設定する。本画像の白トビした画素では被写体の情報が完全に失われる一方で、黒つぶれの画素ではゲインを上げることで残されている被写体の情報を読み取れる場合もある。そのため、黒つぶれをある程度許容しつつも白トビを極力避ける観点から、一の実施形態では制限値が上記の範囲に設定されている。   As an example, when a person's face is the main subject, the exposure calculation unit 27 converts the limit value range into an exposure value and sets the range from −1 to +1.5. The subject information is completely lost in the overexposed pixels of the main image, while the remaining subject information may be read by increasing the gain in the blackened pixels. Therefore, from the viewpoint of avoiding white stripes as much as possible while allowing blackening to some extent, in one embodiment, the limit value is set in the above range.

なお、露出演算部27は、上記の制限値の範囲を主要被写体の種類に応じて適宜調整してもよい。例えば、他の主要被写体の場合において、露出演算部27は、制限値の範囲を露出値に換算して−1から+1の範囲にしてもよく、あるいは−1から+2の範囲にしてもよい。   Note that the exposure calculation unit 27 may appropriately adjust the range of the limit value according to the type of the main subject. For example, in the case of another main subject, the exposure calculation unit 27 may convert the range of the limit value into the range of −1 to +1 or may be in the range of −1 to +2.

また、S308での露出演算部27は、撮影画面に対する主要被写体の面積比(人物の顔の大きさ)に応じて、上記の上限値および下限値をそれぞれ変動させてもよい。上記の上限値および下限値は、撮影画面に対する主要被写体の面積比に依存した関数により露出演算部27が決定する。   Further, the exposure calculation unit 27 in S308 may vary the upper limit value and the lower limit value according to the area ratio of the main subject to the shooting screen (the size of the person's face). The upper limit value and the lower limit value are determined by the exposure calculation unit 27 by a function depending on the area ratio of the main subject to the shooting screen.

一例として、露出演算部27は、主要被写体の面積比が大きいほど上限値を大きくし、かつ下限値は小さくする。これにより、撮影画面に対する主要被写体の面積比が大きいほど制限値の幅が広がるので、dBvTrgtToAnsの値には制限がかかりにくくなる。一方で、露出演算部27は、主要被写体の面積比が小さいほど上限値を小さくし、かつ下限値は大きくする。これにより、撮影画面に対する主要被写体の面積比が小さいほど制限値の幅が狭まるので、dBvTrgtToAnsの値には制限がかかりやすくなる。   As an example, the exposure calculation unit 27 increases the upper limit value and decreases the lower limit value as the area ratio of the main subject increases. As a result, the range of the limit value increases as the area ratio of the main subject to the shooting screen increases, so that the value of dBvTrgtToAns is less likely to be limited. On the other hand, the exposure calculation unit 27 decreases the upper limit value and increases the lower limit value as the area ratio of the main subject is smaller. As a result, the smaller the area ratio of the main subject to the shooting screen is, the narrower the limit value is, so that the value of dBvTrgtToAns is likely to be limited.

ここで、図12は、主要被写体が人物のときの上限値および下限値を求める関数の一例を示している。図12の縦軸は、露出値に換算された制限値を示し、図12の横軸は撮影画面に対する主要被写体の面積比を示している。   Here, FIG. 12 shows an example of a function for obtaining an upper limit value and a lower limit value when the main subject is a person. The vertical axis in FIG. 12 represents the limit value converted into the exposure value, and the horizontal axis in FIG. 12 represents the area ratio of the main subject to the shooting screen.

図12の例では、上記の面積比が5%以下のときに、上限値は1.5となり、下限値は−1.0となる。また、上記の面積比が5%より大きく50%未満の範囲では、上限値は面積比の大きさに比例して大きくなり、下限値は面積比の大きさに比例して小さくなる。そして、上記の面積比が50%以上のときに、上限値は5.0となり、下限値は−5.0となる。   In the example of FIG. 12, when the area ratio is 5% or less, the upper limit value is 1.5 and the lower limit value is −1.0. In the range where the area ratio is greater than 5% and less than 50%, the upper limit value increases in proportion to the size of the area ratio, and the lower limit value decreases in proportion to the size of the area ratio. And when said area ratio is 50% or more, an upper limit will be 5.0 and a lower limit will be -5.0.

ここで、上記の面積比が50%以上の場合(上限値=5.0、下限値=−5.0)には、露出演算部27が主要被写体に合わせて露出を最大5段分まで補正できる。そのため、この場合には、背景が白トビまたは黒つぶれする確率が高くなり、実質的に補正を制限しないケースと同様となる。   Here, when the area ratio is 50% or more (upper limit = 5.0, lower limit = −5.0), the exposure calculator 27 corrects the exposure to a maximum of five steps according to the main subject. it can. Therefore, in this case, the probability that the background is white or blacked out increases, and this is the same as the case where the correction is not substantially limited.

その後、露出演算部27は補正演算サブルーチン2を終了するとともに、図8に示すS206の処理に復帰する。以上で、図9の流れ図の説明を終了する。   Thereafter, the exposure calculation unit 27 ends the correction calculation subroutine 2 and returns to the process of S206 shown in FIG. Above, description of the flowchart of FIG. 9 is complete | finished.

一の実施形態の電子カメラでは、露出演算部27が、検出された複数の顔に基づいて、補正された仮の代表輝度値(TempBv[i])を複数算出する(S205〜S208)。そして、露出演算部27は、補正された仮の代表輝度値のうちで前回の代表輝度値(PastBv)に最も近い値を今回の代表輝度値(BvAns)に設定する(S212、S213)。   In the electronic camera of one embodiment, the exposure calculation unit 27 calculates a plurality of corrected temporary representative luminance values (TempBv [i]) based on the detected plurality of faces (S205 to S208). Then, the exposure calculation unit 27 sets a value closest to the previous representative luminance value (PastBv) among the corrected temporary representative luminance values as the current representative luminance value (BvAns) (S212, S213).

これにより、一の実施形態では、露出演算を繰り返し行うときに、主要被写体ではない人物の明るさの影響を受けて露出値が不安定になるおそれが低減する。例えば、主要被写体である人物の手前を別の人物が横切った状況では、主要被写体を撮影した前回の輝度代表値を基準として今回の代表輝度値が設定されるので、前回の撮影と今回の撮影との間で安定した露出を維持することができる。   Thereby, in one embodiment, when the exposure calculation is repeatedly performed, the possibility that the exposure value becomes unstable due to the influence of the brightness of a person who is not the main subject is reduced. For example, in a situation where another person crosses in front of the person who is the main subject, the current representative brightness value is set based on the previous representative brightness value of the main subject. It is possible to maintain a stable exposure.

一の実施形態の電子カメラでは、カメラの状態が所定の条件(条件1〜3)を満たす場合には、露出演算部27は前回の露出演算に基づく露出の安定化処理を行わない(S201、S202)。そのため、ユーザーの意図しない顔に露出を合わせ続けることが回避される。   In the electronic camera of one embodiment, when the camera state satisfies a predetermined condition (conditions 1 to 3), the exposure calculation unit 27 does not perform exposure stabilization processing based on the previous exposure calculation (S201, S202). Therefore, it is avoided that the exposure is continuously adjusted to the face not intended by the user.

また、一の実施形態の電子カメラでは、第1撮影モードが選択されている場合には、露出演算部27が、仮の代表輝度値PreBvAnsから補正後の代表輝度値BvAnsを求める(S103、S107)。   In the electronic camera of one embodiment, when the first shooting mode is selected, the exposure calculation unit 27 obtains a corrected representative luminance value BvAns from the temporary representative luminance value PreBvAns (S103, S107). ).

これにより、一の実施形態では、1シーンとして鑑賞される複数の画像を連続的に取得する第1撮影モードにおいて顔による輝度値の補正が行われなくなる。そのため、第1撮影モードでは、人物の有無や人物の顔の大きさなどによって露出が画像ごとに変動しにくくなり、シーン全体で適正となる露出を得ることができる。   Thereby, in one embodiment, the correction of the luminance value by the face is not performed in the first shooting mode in which a plurality of images that are viewed as one scene are continuously acquired. Therefore, in the first shooting mode, the exposure is less likely to fluctuate from image to image depending on the presence or absence of a person and the size of the person's face, and an appropriate exposure can be obtained for the entire scene.

なお、本実施形態では、第1撮影モードにおいて複数の画像を取得する間もステップS101からS109までの動作を繰り返し行っているが、消費電力を少なくするために、CPU17の不図示のタイマーが所定時刻になった時に図2の動作を開始するようにしても良い。   In the present embodiment, the operations from step S101 to S109 are repeated while acquiring a plurality of images in the first shooting mode. However, in order to reduce power consumption, a timer (not shown) of the CPU 17 is predetermined. The operation of FIG. 2 may be started when the time comes.

<他の実施形態の説明>
図13は、他の実施形態における電子カメラの構成例を説明する図である。他の実施形態は、レンズ交換が可能な一眼レフレックス型の電子カメラに露出演算装置を組み込んだ例を示している。
<Description of other embodiments>
FIG. 13 is a diagram illustrating an exemplary configuration of an electronic camera according to another embodiment. Another embodiment shows an example in which an exposure calculation device is incorporated in a single-lens reflex type electronic camera capable of exchanging lenses.

他の実施形態の電子カメラは、カメラ本体31と、撮像光学系を収納したレンズユニット32とを有している。ここで、カメラ本体31およびレンズユニット32には、一対のマウントがそれぞれ設けられている。レンズユニット32は、上記のマウントを介して、カメラ本体31に対して交換可能に接続される。また、上記のマウントにはそれぞれ電気接点が設けられており、カメラ本体31とレンズユニット32との接続時には両者の電気的な接続が確立する(図13でのマウントおよび電気接点の図示は省略する)。   An electronic camera according to another embodiment includes a camera body 31 and a lens unit 32 that houses an imaging optical system. Here, the camera body 31 and the lens unit 32 are each provided with a pair of mounts. The lens unit 32 is interchangeably connected to the camera body 31 via the mount. Each of the mounts is provided with an electrical contact, and electrical connection is established between the camera body 31 and the lens unit 32 (the illustration of the mount and the electrical contact in FIG. 13 is omitted). ).

レンズユニット32は、フォーカシングレンズ33およびレンズドライバ34と、絞り35および絞りドライバ36と、レンズ内メモリ37とを内蔵している。フォーカシングレンズ33は、カメラ本体31からの指示に応じて、レンズドライバ34によって駆動される。また、絞り35は、カメラ本体31からの指示に応じて絞りドライバ36によって駆動される。また、レンズ内メモリ37は、レンズユニット32の情報を記憶したメモリである。なお、レンズ内メモリ37に記憶されている情報は、カメラ本体31に出力される。   The lens unit 32 includes a focusing lens 33 and a lens driver 34, an aperture 35 and an aperture driver 36, and an in-lens memory 37. The focusing lens 33 is driven by a lens driver 34 in response to an instruction from the camera body 31. The diaphragm 35 is driven by a diaphragm driver 36 in response to an instruction from the camera body 31. The in-lens memory 37 is a memory that stores information on the lens unit 32. The information stored in the in-lens memory 37 is output to the camera body 31.

カメラ本体31は、メインミラー41と、メカニカルシャッタ42と、記録用撮像素子43と、サブミラー44と、焦点検出部45と、ファインダ光学系(51〜54)と、解析用撮像素子46と、マイコン47およびモニタ48とを有している。メインミラー41、メカニカルシャッタ42および記録用撮像素子43は、レンズユニット32の光軸に沿って配置される。メインミラー41の後方にはサブミラー44が配置される。また、カメラ本体31の上部にはファインダ光学系が配置されている。さらに、カメラ本体31の下部には焦点検出部45が配置されている。   The camera body 31 includes a main mirror 41, a mechanical shutter 42, a recording image sensor 43, a sub mirror 44, a focus detection unit 45, a finder optical system (51 to 54), an analysis image sensor 46, and a microcomputer. 47 and a monitor 48. The main mirror 41, the mechanical shutter 42, and the recording image sensor 43 are disposed along the optical axis of the lens unit 32. A sub mirror 44 is disposed behind the main mirror 41. A finder optical system is disposed on the upper part of the camera body 31. Further, a focus detection unit 45 is disposed below the camera body 31.

メインミラー41は、不図示の回動軸によって回動可能に軸支されており、観察状態と退避状態とを切り替え可能となっている。観察状態のメインミラー41は、メカニカルシャッタ42および記録用撮像素子43の前方で傾斜配置される。この観察状態のメインミラー41は、レンズユニット32を通過した光束を上方へ反射してファインダ光学系に導く。また、メインミラー41の中央部はハーフミラーとなっている。そして、メインミラー41を透過した一部の光束はサブミラー44によって下方に屈折されて焦点検出部45に導かれる。なお、焦点検出部45は、不図示のセパレータレンズで分割した被写体像の像ズレ量を検出し、この像ズレ量からフォーカシングレンズ33のデフォーカス量を求める。   The main mirror 41 is pivotally supported by a rotation shaft (not shown) and can be switched between an observation state and a retracted state. The main mirror 41 in the observation state is inclined and disposed in front of the mechanical shutter 42 and the recording image sensor 43. The main mirror 41 in the observation state reflects the light beam that has passed through the lens unit 32 upward and guides it to the finder optical system. The central portion of the main mirror 41 is a half mirror. A part of the light beam transmitted through the main mirror 41 is refracted downward by the sub mirror 44 and guided to the focus detection unit 45. The focus detection unit 45 detects an image shift amount of the subject image divided by a separator lens (not shown), and obtains a defocus amount of the focusing lens 33 from the image shift amount.

一方、退避状態のメインミラー41は、サブミラー44とともに上方に跳ね上げられて撮影光路から外れた位置にある。メインミラー41が退避状態にあるときは、レンズユニット32を通過した光束がメカニカルシャッタ42および記録用撮像素子43に導かれる。   On the other hand, the retracted main mirror 41 is flipped upward together with the sub mirror 44 and is at a position off the photographing optical path. When the main mirror 41 is in the retracted state, the light beam that has passed through the lens unit 32 is guided to the mechanical shutter 42 and the recording image sensor 43.

ファインダ光学系は、焦点板51と、コンデンサレンズ52と、ペンタプリズム53と、接眼レンズ54とを有している。焦点板51はメインミラー41の上方に位置し、観察状態のメインミラー41で反射された光束を一旦結像させる。焦点板51で結像した光束はコンデンサレンズ52およびペンタプリズム53を通過し、ペンタプリズム53の入射面に対して90°の角度を持った射出面から接眼レンズ54を介してユーザーの目に到達する。また、焦点板51で結像した光束の一部はコンデンサレンズ52およびペンタプリズム53を通過し、ペンタプリズム53の射出面近傍に配置された再結像レンズ55から解析用撮像素子46に入射する。   The finder optical system includes a focusing screen 51, a condenser lens 52, a pentaprism 53, and an eyepiece lens 54. The focusing screen 51 is positioned above the main mirror 41 and once forms an image of the light beam reflected by the main mirror 41 in the observation state. The light beam formed on the focusing screen 51 passes through the condenser lens 52 and the pentaprism 53, and reaches the user's eyes through the eyepiece 54 from the exit surface having an angle of 90 ° with respect to the incident surface of the pentaprism 53. To do. Further, a part of the light beam imaged by the focusing screen 51 passes through the condenser lens 52 and the pentaprism 53 and enters the analysis imaging element 46 from the reimaging lens 55 disposed in the vicinity of the exit surface of the pentaprism 53. .

ここで、他の実施形態の記録用撮像素子43は、メインミラー41が退避状態にあるときに、本画像やスルー画像の撮像を行う。また、解析用撮像素子46は、メインミラー41が観察状態にあるときにスルー画像の撮像を行う。なお、他の実施形態の解析用撮像素子46は、顔検出処理が可能な解像度でスルー画像を撮像することができる。   Here, the recording image sensor 43 of another embodiment captures the main image and the through image when the main mirror 41 is in the retracted state. The analysis image sensor 46 captures a through image when the main mirror 41 is in an observation state. Note that the analysis imaging element 46 of another embodiment can capture a through image with a resolution that allows face detection processing.

マイコン47は、電子カメラの各部の動作を統括的に制御するプロセッサである。このマイコン47は、記録用撮像素子43または解析用撮像素子46の出力に対して画像処理を施す。また、マイコン47は、上記の一の実施形態における顔検出部および露出演算部と同様の機能を果たす。また、モニタ48は、マイコン47の制御によって各種の画像を表示する。   The microcomputer 47 is a processor that comprehensively controls the operation of each unit of the electronic camera. The microcomputer 47 performs image processing on the output of the recording image sensor 43 or the analysis image sensor 46. Further, the microcomputer 47 performs the same function as the face detection unit and the exposure calculation unit in the one embodiment described above. The monitor 48 displays various images under the control of the microcomputer 47.

(他の実施形態における撮影モードの動作例)
次に、図14の流れ図を参照しつつ、他の実施形態の電子カメラにおける撮影モードの動作の一例を説明する。図14に示す撮影モードの動作は、レリーズ釦(図13では不図示)の半押し操作によるAF動作開始の指示に応じてマイコン47が開始する。なお、図14の流れ図の開始時にはメインミラー41は観察状態の位置にある。
(Operation example of shooting mode in other embodiment)
Next, an example of the operation of the shooting mode in the electronic camera of another embodiment will be described with reference to the flowchart of FIG. The operation in the shooting mode shown in FIG. 14 is started by the microcomputer 47 in response to an instruction to start the AF operation by half-pressing a release button (not shown in FIG. 13). It should be noted that the main mirror 41 is in the observation state at the start of the flowchart of FIG.

ステップS401:マイコン47は、解析用撮像素子46を駆動させて解析用画像を取得する。このとき、マイコン47は焦点検出部45の出力に基づいてAF制御を実行する。   Step S401: The microcomputer 47 drives the analysis imaging element 46 to acquire an analysis image. At this time, the microcomputer 47 executes AF control based on the output of the focus detection unit 45.

ステップS402:マイコン47は、解析用画像の出力を用いて、撮影画面内に含まれる被写体の分割測光を実行するとともに、仮の代表輝度値PreBvAnsを求める。なお、S402の処理は、図2のS102に対応するので重複説明は省略する。   Step S402: Using the output of the analysis image, the microcomputer 47 performs divided photometry of the subject included in the shooting screen and obtains a temporary representative luminance value PreBvAns. Note that the processing in S402 corresponds to S102 in FIG.

ステップS403:マイコン47は、第1撮影モード(ストップモーション撮影モード/インターバルタイマー撮影モード)が選択されているか否かを判定する。上記要件を満たす場合(YES側)にはS407に処理が移行する。一方、上記要件を満たさない場合(第2撮影モードの場合:NO側)にはS404に処理が移行する。   Step S403: The microcomputer 47 determines whether or not the first shooting mode (stop motion shooting mode / interval timer shooting mode) is selected. If the above requirement is satisfied (YES side), the process proceeds to S407. On the other hand, if the above requirement is not satisfied (in the case of the second shooting mode: NO side), the process proceeds to S404.

ステップS404:マイコン47は、解析用画像の出力を用いて、撮影画面内から人物の顔領域の位置を検出する。複数の顔が検出された場合、マイコン47は、顔の大きさなどに基づいて、露出決定において重要度の高い順番に顔領域をナンバリングする。   Step S404: The microcomputer 47 detects the position of the face area of the person from the shooting screen using the output of the analysis image. When a plurality of faces are detected, the microcomputer 47 numbers the face areas in order of importance in exposure determination based on the size of the face.

そして、マイコン47は、検出した顔領域の位置に基づいて、撮影画面内の一部の被写体である主要被写体(顔)の輝度値BvObj[i]を求める。なお、S404の処理は、図2のS104に対応するので重複説明は省略する。   Then, the microcomputer 47 obtains the luminance value BvObj [i] of the main subject (face), which is a part of the subject in the shooting screen, based on the detected position of the face area. Note that the processing in S404 corresponds to S104 in FIG.

ステップS405:マイコン47は、補正演算サブルーチン1(図8のS201からS213の処理)を実行して、補正後の代表輝度値BvAnsを求める。但し、顔が1つも検出されなかった場合、マイコン47は仮の代表輝度値PreBvAnsを補正後の代表輝度値BvAnsとする(BvAns=PreBvAns)。   Step S405: The microcomputer 47 executes the correction calculation subroutine 1 (the processing from S201 to S213 in FIG. 8) to obtain the corrected representative luminance value BvAns. However, if no face is detected, the microcomputer 47 sets the provisional representative luminance value PreBvAns to the corrected representative luminance value BvAns (BvAns = PreBvAns).

ステップS406:マイコン47は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行う。S406の処理後には、S408に処理が移行する。なお、S406の処理は、図2のS106に対応するので重複説明は省略する。   Step S406: The microcomputer 47 calculates an exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and controls exposure based on this exposure amount (adjusts each parameter such as shutter speed and aperture value). I do. After the process of S406, the process proceeds to S408. Note that the processing in S406 corresponds to S106 in FIG.

ステップS407:マイコン47は、仮の代表輝度値PreBvAnsから補正後の代表輝度値BvAnsを求める(BvAns=PreBvAns)。   Step S407: The microcomputer 47 obtains a corrected representative luminance value BvAns from the provisional representative luminance value PreBvAns (BvAns = PreBvAns).

そして、S407でのマイコン47は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行う。   The microcomputer 47 in S407 calculates the exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and controls exposure based on this exposure amount (the parameters such as the shutter speed and the aperture value). Adjust).

ステップS408:マイコン47は、撮影開始タイミングか否かを判定する。上記要件を満たす場合(YES側)にはS409に処理が移行する。一方、上記要件を満たさない場合(NO側)には、マイコン47はS401に戻って上記動作を繰り返す。   Step S408: The microcomputer 47 determines whether it is a photographing start timing. If the above requirement is satisfied (YES side), the process proceeds to S409. On the other hand, if the above requirement is not satisfied (NO side), the microcomputer 47 returns to S401 and repeats the above operation.

ステップS409:マイコン47は、メインミラー41を観察状態の位置から退避状態の位置に駆動させる。   Step S409: The microcomputer 47 drives the main mirror 41 from the observation state position to the retracted position.

ステップS410:マイコン47は、S406またはS407で求めた露出量に基づいて、本画像の撮像処理を実行する。記録用撮像素子43によって撮像された本画像のデータは、マイコン47で所定の画像処理が施された後に、不図示の記憶媒体に記録される。以上で、図14の流れ図の説明を終了する。この図14の例においても、上記の一の実施形態とほぼ同様の効果を得ることができる。   Step S410: The microcomputer 47 executes a main image capturing process based on the exposure amount obtained in S406 or S407. The data of the main image captured by the recording image sensor 43 is recorded in a storage medium (not shown) after predetermined image processing is performed by the microcomputer 47. Above, description of the flowchart of FIG. 14 is complete | finished. In the example of FIG. 14 as well, substantially the same effect as in the above-described one embodiment can be obtained.

<実施形態の補足事項>
(補足1)上記の各実施形態では、主要被写体が人物の顔である例を説明したが、顔以外の被写体を主要被写体とする場合にも本発明を適用できる。一例として、青空を主要被写体とする場合、露出演算部は、スルー画像や解析用画像での被写体の明るさや色情報、撮影画面での位置に着目して青空の領域を求め、この領域の輝度情報を用いて主要被写体の輝度値BvObjを求めればよい。また、露出演算部は、電子カメラのモード設定(例えば、ポートレートモードや風景モードなど)に主要被写体の種類を判定するようにしてもよい。
<Supplementary items of the embodiment>
(Supplement 1) In each of the above embodiments, the example in which the main subject is a person's face has been described. However, the present invention can also be applied to a case where a subject other than the face is the main subject. As an example, when the blue sky is the main subject, the exposure calculation unit obtains the blue sky region by paying attention to the brightness and color information of the subject in the through image and analysis image, and the position on the shooting screen, and the brightness of this region The luminance value BvObj of the main subject may be obtained using the information. Further, the exposure calculation unit may determine the type of the main subject in the mode setting (for example, portrait mode, landscape mode, etc.) of the electronic camera.

(補足2)上記の一の実施形態において、CPU17は、レリーズ釦21の半押し操作によるAF開始指示をトリガとして、図2に示す撮影モードの動作を開始させるようにしてもよい。また、上記の一の実施形態における撮影モードの動作時(図2)において、CPU17は、レリーズ釦21の全押し操作の前に半押し操作があった場合には、その時点で焦点調節状態と露出のパラメータを固定するとともに、以後の焦点調節制御と露出制御とを停止するようにしてもよい。   (Supplement 2) In the one embodiment described above, the CPU 17 may start the operation of the shooting mode shown in FIG. 2 by using an AF start instruction by half-pressing the release button 21 as a trigger. Further, in the shooting mode operation in the above-described one embodiment (FIG. 2), if there is a half-press operation before the release button 21 is fully pressed, the CPU 17 changes the focus adjustment state at that time. The exposure parameters may be fixed and the subsequent focus adjustment control and exposure control may be stopped.

(補足3)上記の他の実施形態では、露出演算装置が一眼レフレックス型の電子カメラに適用される例を説明したが、観測用撮像素子15を有する一眼レフレックス型の銀塩カメラにも適用できる。   (Supplement 3) In the other embodiment described above, an example in which the exposure calculation device is applied to a single-lens reflex type electronic camera has been described. However, a single-lens reflex type silver salt camera having an observation imaging device 15 is also described. Applicable.

(補足4)上記の各実施形態での撮像素子は、焦点検出用の受光素子が、本画像等を撮像するための受光素子と同一の受光面に配列されている構成であってもよい。この場合、焦点検出用の受光素子は、それぞれが位相差を有する第1信号列のパターンと第2信号列のパターンとを検出するように構成される。そして、これらのパターンの像ズレ量からカメラが撮像光学系の焦点調節状態を求めればよい(なお、この場合における撮像素子の構成例の図示は省略する)。   (Supplement 4) The image sensor in each of the above embodiments may have a configuration in which the light receiving elements for focus detection are arranged on the same light receiving surface as the light receiving elements for capturing the main image and the like. In this case, the light receiving element for focus detection is configured to detect a pattern of the first signal sequence and a pattern of the second signal sequence each having a phase difference. Then, the camera may determine the focus adjustment state of the image pickup optical system from the image shift amounts of these patterns (note that the configuration example of the image pickup element in this case is not shown).

(補足5)上記の各実施形態では、顔検出部や露出演算部をソフトウエア的に実現する例を説明したが、これらの構成はASICなどによってハードウエア的に実現しても勿論かまわない。   (Supplement 5) In each of the above embodiments, the example in which the face detection unit and the exposure calculation unit are realized by software has been described. However, these configurations may of course be realized by hardware by an ASIC or the like.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

13…絞り、15…撮像素子、16…AFE、17…CPU、24…画像処理部、25…顔検出部、27…露出演算部、31…カメラ本体、32…レンズユニット、35…絞り、42…メカニカルシャッタ、43…記録用撮像素子、46…解析用撮像素子、47…マイコン
DESCRIPTION OF SYMBOLS 13 ... Aperture, 15 ... Image sensor, 16 ... AFE, 17 ... CPU, 24 ... Image processing part, 25 ... Face detection part, 27 ... Exposure calculation part, 31 ... Camera body, 32 ... Lens unit, 35 ... Aperture, 42 ... Mechanical shutter, 43 ... Recording image sensor, 46 ... Analysis image sensor, 47 ... Microcomputer

Claims (4)

被写体からの光束を測光して第1測光値を求めるとともに、前記被写体のうちの一部の被写体に関する第2測光値を求める測光部と、
前記第2測光値に基づく所定の輝度値の範囲を前記第1測光値の目標範囲として設定する目標設定部と、
前記第1測光値を前記目標範囲に基づいて補正して第3測光値を求める補正部と、
前記補正部による前記第3測光値に基づいて、前記被写体からの光束に対する露出量を求める演算部と、を備え、
前記演算部は、1シーンとして鑑賞される複数の画像を連続的に取得する第1撮影モードのときには前記第1測光値に基づいて前記露出量を求め、前記第1撮影モードと異なる第2撮影モードのときには前記第3測光値に基づいて前記露出量を求める露出演算装置。
A photometric unit for measuring a light flux from a subject to obtain a first photometric value and obtaining a second photometric value for a part of the subjects;
A target setting unit that sets a range of a predetermined luminance value based on the second photometric value as a target range of the first photometric value;
A correction unit that corrects the first photometric value based on the target range to obtain a third photometric value;
A calculation unit that obtains an exposure amount for the light flux from the subject based on the third photometric value by the correction unit;
The calculation unit obtains the exposure amount based on the first photometric value in a first shooting mode in which a plurality of images viewed as one scene are continuously acquired, and a second shooting different from the first shooting mode. An exposure calculation device for obtaining the exposure amount based on the third photometric value in the mode.
請求項1に記載の露出演算装置において、
前記第1撮影モードは、1シーンの期間において一定の時間間隔で取得された所定枚数の画像を動画として記録する撮影モードである露出演算装置。
In the exposure calculation device according to claim 1,
The first photographing mode is an exposure calculation device that is a photographing mode in which a predetermined number of images acquired at a constant time interval in one scene period are recorded as a moving image.
請求項1に記載の露出演算装置において、
前記第1撮影モードは、1シーンの期間において一定の時間間隔で取得された所定枚数の静止画像をそれぞれ個別に記録する撮影モードである露出演算装置。
In the exposure calculation device according to claim 1,
The first photographing mode is an exposure calculation device that is a photographing mode for individually recording a predetermined number of still images acquired at a constant time interval in one scene period.
請求項1から請求項3のいずれか1項に記載の露出演算装置を備えたことを特徴とするカメラ。   The camera provided with the exposure calculating apparatus of any one of Claims 1-3.
JP2011176237A 2011-08-11 2011-08-11 Exposure calculation device and camera Active JP5849515B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011176237A JP5849515B2 (en) 2011-08-11 2011-08-11 Exposure calculation device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011176237A JP5849515B2 (en) 2011-08-11 2011-08-11 Exposure calculation device and camera

Publications (2)

Publication Number Publication Date
JP2013040997A true JP2013040997A (en) 2013-02-28
JP5849515B2 JP5849515B2 (en) 2016-01-27

Family

ID=47889476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011176237A Active JP5849515B2 (en) 2011-08-11 2011-08-11 Exposure calculation device and camera

Country Status (1)

Country Link
JP (1) JP5849515B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5549774B1 (en) * 2013-10-17 2014-07-16 富士ゼロックス株式会社 Image information processing apparatus, image forming apparatus, and program
JP2014235183A (en) * 2013-05-30 2014-12-15 株式会社ニコン Imaging device
JP2018098649A (en) * 2016-12-13 2018-06-21 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201873A (en) * 1995-01-23 1996-08-09 Olympus Optical Co Ltd Exposure determining apparatus for camera
JP2006229481A (en) * 2005-02-16 2006-08-31 Olympus Imaging Corp Digital camera
JP2009020327A (en) * 2007-07-12 2009-01-29 Casio Comput Co Ltd Imaging apparatus and its program
JP2009089357A (en) * 2007-09-13 2009-04-23 Panasonic Corp Imaging apparatus, imaging method, program, and integrated circuit
JP2009198956A (en) * 2008-02-25 2009-09-03 Casio Comput Co Ltd Imaging apparatus and program
JP2009251164A (en) * 2008-04-03 2009-10-29 Nikon Corp Exposure calculating device and imaging apparatus
JP2010072619A (en) * 2008-08-22 2010-04-02 Nikon Corp Exposure operation device and camera
JP2010232711A (en) * 2009-03-25 2010-10-14 Nikon Corp Image capturing apparatus and image processing program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201873A (en) * 1995-01-23 1996-08-09 Olympus Optical Co Ltd Exposure determining apparatus for camera
JP2006229481A (en) * 2005-02-16 2006-08-31 Olympus Imaging Corp Digital camera
JP2009020327A (en) * 2007-07-12 2009-01-29 Casio Comput Co Ltd Imaging apparatus and its program
JP2009089357A (en) * 2007-09-13 2009-04-23 Panasonic Corp Imaging apparatus, imaging method, program, and integrated circuit
JP2009198956A (en) * 2008-02-25 2009-09-03 Casio Comput Co Ltd Imaging apparatus and program
JP2009251164A (en) * 2008-04-03 2009-10-29 Nikon Corp Exposure calculating device and imaging apparatus
JP2010072619A (en) * 2008-08-22 2010-04-02 Nikon Corp Exposure operation device and camera
JP2010232711A (en) * 2009-03-25 2010-10-14 Nikon Corp Image capturing apparatus and image processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235183A (en) * 2013-05-30 2014-12-15 株式会社ニコン Imaging device
JP5549774B1 (en) * 2013-10-17 2014-07-16 富士ゼロックス株式会社 Image information processing apparatus, image forming apparatus, and program
JP2015080099A (en) * 2013-10-17 2015-04-23 富士ゼロックス株式会社 Image information processing device, image formation device, and program
JP2018098649A (en) * 2016-12-13 2018-06-21 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium

Also Published As

Publication number Publication date
JP5849515B2 (en) 2016-01-27

Similar Documents

Publication Publication Date Title
CN108683862B (en) Imaging control method, imaging control device, electronic equipment and computer-readable storage medium
US8106965B2 (en) Image capturing device which corrects a target luminance, based on which an exposure condition is determined
US8294795B2 (en) Image capturing apparatus and medium storing image processing program
JP2009139688A (en) Focus adjustment device and camera
US10298853B2 (en) Image processing apparatus, method of controlling image processing apparatus, and imaging apparatus
JP2006227613A (en) Camera exposure program combined with image stabilizing function
JP2010072619A (en) Exposure operation device and camera
JP2007221209A (en) Camera, imaging method, expose arithmetic unit and program
US9191573B2 (en) Image capturing apparatus for determining an exposure condition by calculating aphotmetric value for each object region and method of controlling the same
JP2015031743A (en) Exposure control device, control method for the same, and control program, and imaging device
JP5849515B2 (en) Exposure calculation device and camera
US20210158537A1 (en) Object tracking apparatus and control method thereof
JP2009027622A (en) Exposure amount calculation device, imaging apparatus and exposure amount calculation program
JP2012163679A (en) Imaging device, stroboscope control method, and stroboscope control program
JP2014197141A (en) Imaging apparatus
JP4879840B2 (en) Digital camera and control method thereof
JP2013040996A (en) Exposure calculation unit and camera
JP4789776B2 (en) Imaging apparatus and imaging method
JP2012063664A (en) Photometric device and electronic camera
JP5747595B2 (en) Exposure control device and camera
JP2013041059A (en) Exposure calculation unit and camera
JP2015167308A (en) Photometry method suitable for face detection autofocus control
JP2010271507A (en) Imaging device, exposure adjustment method, and program
JP6573382B2 (en) Imaging apparatus and photometric method
JP5245644B2 (en) Exposure calculator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151117

R150 Certificate of patent or registration of utility model

Ref document number: 5849515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250