JP2010072619A - Exposure operation device and camera - Google Patents

Exposure operation device and camera Download PDF

Info

Publication number
JP2010072619A
JP2010072619A JP2009074845A JP2009074845A JP2010072619A JP 2010072619 A JP2010072619 A JP 2010072619A JP 2009074845 A JP2009074845 A JP 2009074845A JP 2009074845 A JP2009074845 A JP 2009074845A JP 2010072619 A JP2010072619 A JP 2010072619A
Authority
JP
Japan
Prior art keywords
value
exposure calculation
subject
exposure
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009074845A
Other languages
Japanese (ja)
Inventor
Hidehiko Aoyanagi
英彦 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009074845A priority Critical patent/JP2010072619A/en
Publication of JP2010072619A publication Critical patent/JP2010072619A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of finding an exposure amount at which a main subject and a background are well-balanced in lightness in a scene having a large luminance difference between the main subject and background. <P>SOLUTION: An exposure operation device includes a photometry unit, a target setting unit, a correction unit, and an operation unit. The photometry unit measures luminous flux from a subject to find a first photometric value, and also finds a second photometric value associated with a part of the subject. The target setting unit sets a range of a predetermined luminance value based upon the second photometric value as a target range of the first photometric value. The correction unit corrects the first photometric value based upon the target range to find a third photometric value. The operation unit finds an exposure value for the luminous flux from the subject based upon the third photometric value obtained by the correction unit. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、露出演算装置およびカメラに関する。   The present invention relates to an exposure calculation device and a camera.

従来から、撮影画面内から主要被写体を検出するとともに、この主要被写体の明るさに着目して露出制御を行うカメラが知られている。一例として、特許文献1には、予備撮像によって撮影画面内での人物の顔の位置を検出し、顔の明るさが暗めとなる露出量で記録用画像の撮影を行なうとともに、記録用画像における顔および背景の明るさを階調変換処理で適正に調整するカメラの構成例が開示されている。   2. Description of the Related Art Conventionally, there is known a camera that detects a main subject from a shooting screen and controls exposure by paying attention to the brightness of the main subject. As an example, Patent Document 1 detects the position of a person's face in a shooting screen by preliminary imaging, and shoots a recording image with an exposure amount that darkens the brightness of the face. A configuration example of a camera that appropriately adjusts the brightness of the face and background by gradation conversion processing is disclosed.

特開2007−74328号公報JP 2007-74328 A

しかし、従来の技術では、例えば、暗い背景下の人物に照明が当たっている過順光のシーンなどにおいて主要被写体と背景との明るさがアンバランスとなり、画像全体としての見映えが悪くなる場合がある点で改善の余地があった。   However, with the conventional technology, for example, when the brightness of the main subject and the background becomes unbalanced in an over-order scene where a person on a dark background is illuminated, the overall image looks worse There was room for improvement in that.

そこで、本発明の目的は、主要被写体と背景との輝度差が大きなシーンにおいて、主要被写体および背景の明るさのバランスがとれた露出量を求めることのできる手段を提供することにある。   Therefore, an object of the present invention is to provide means capable of obtaining an exposure amount in which the brightness of the main subject and the background is balanced in a scene where the luminance difference between the main subject and the background is large.

一の態様の露出演算装置は、測光部と、目標設定部と、補正部と、演算部とを備える。測光部は、被写体からの光束を測光して第1測光値を求めるとともに、上記の被写体のうちの一部の被写体に関する第2測光値を求める。目標設定部は、第2測光値に基づく所定の輝度値の範囲を第1測光値の目標範囲として設定する。補正部は、第1測光値を目標範囲に基づいて補正して第3測光値を求める。演算部は、補正部による第3測光値に基づいて、被写体からの光束に対する露出量を求める。   An exposure calculation apparatus according to one aspect includes a photometry unit, a target setting unit, a correction unit, and a calculation unit. The photometry unit measures the light flux from the subject to obtain the first photometric value, and obtains the second photometric value for some of the subjects. The target setting unit sets a predetermined luminance value range based on the second photometric value as a target range of the first photometric value. The correcting unit corrects the first photometric value based on the target range to obtain a third photometric value. The calculation unit obtains an exposure amount for the light flux from the subject based on the third photometric value obtained by the correction unit.

上記の一の態様の露出演算装置は、被写体の像から一部の被写体の像を検出する被写体検出部をさらに備えていてもよい。また、目標設定部は、被写体検出部の検出結果に対する第2測光値に基づいて目標範囲を設定してもよい。   The exposure calculation apparatus according to the one aspect may further include a subject detection unit that detects a part of the subject image from the subject image. The target setting unit may set the target range based on the second photometric value for the detection result of the subject detection unit.

上記の一の態様において、測光部は、一部の被写体を複数の領域に分割して測光してもよい。また、測光部は、複数の領域のそれぞれに対して得られる複数の測光値に基づいて第2測光値を求めるようにしてもよい。このとき、測光部は、複数の測光値のうちの最大値に基づいて第2測光値を求めてもよい。また、測光部は、複数の領域をグループ化した複数のグループのそれぞれに対して複数の測光値を得るようにしてもよい。   In the one aspect described above, the photometry unit may measure light by dividing a part of a subject into a plurality of regions. Further, the photometry unit may obtain the second photometry value based on a plurality of photometry values obtained for each of the plurality of regions. At this time, the photometric unit may obtain the second photometric value based on the maximum value among the plurality of photometric values. The photometry unit may obtain a plurality of photometric values for each of a plurality of groups obtained by grouping a plurality of regions.

上記の一の態様において、目標設定部は、一部の被写体の種類に応じて、目標範囲を決定してもよい。   In the one aspect described above, the target setting unit may determine the target range according to the type of a part of the subject.

上記の一の態様において、目標設定部は、一部の被写体の大きさに応じて目標範囲を決定してもよい。また、目標設定部は、一部の被写体が複数存在するときに、一部の被写体のうちで最もサイズの大きな被写体に基づいて目標範囲を決定してもよい。また、目標設定部は、一部の被写体が複数存在するときに、各々の一部の被写体の大きさを合計した値に基づいて目標範囲を決定してもよい。   In the one aspect described above, the target setting unit may determine the target range according to the size of a part of the subject. The target setting unit may determine the target range based on a subject having the largest size among some subjects when a plurality of some subjects exist. The target setting unit may determine the target range based on a value obtained by summing the sizes of some of the subjects when there are a plurality of some subjects.

上記の一の態様において、補正部は、第3測光値と第1測光値との差を所定値で制限するようにしてもよい。このとき、補正部は、一部の被写体の種類に応じて、上記の所定値を決定するようにしてもよい。また、補正部は、一部の被写体の大きさに応じて所定値を決定してもよい。また、補正部は、一部の被写体が複数存在するときに、一部の被写体のうちで最もサイズの大きな被写体に基づいて所定値を決定してもよい。また、補正部は、一部の被写体が複数存在するときに、各々の一部の被写体の大きさを合計した値に基づいて所定値を決定してもよい。   In the one aspect described above, the correction unit may limit the difference between the third photometric value and the first photometric value by a predetermined value. At this time, the correction unit may determine the predetermined value according to the type of a part of the subject. Further, the correction unit may determine the predetermined value according to the size of a part of the subject. Further, the correction unit may determine the predetermined value based on a subject having the largest size among some subjects when there are a plurality of subjects. Further, the correction unit may determine the predetermined value based on a value obtained by summing up the sizes of some of the subjects when there are a plurality of some subjects.

上記の一の態様において、目標設定部は、一部の被写体が複数存在するときに、該複数の一部の被写体のうちで最もサイズが大きな被写体に対する測光値を第2測光値として、目標範囲を設定するようにしてもよい。   In the one aspect described above, the target setting unit, when there are a plurality of partial subjects, sets the photometric value for the subject with the largest size among the partial subjects as the second photometric value, and sets the target range May be set.

上記の一の態様において、目標設定部は、一部の被写体が複数存在するときに、各々の一部の被写体に対する測光値を被写体のサイズに応じて重み付け平均した値を第2測光値として、目標範囲を設定するようにしてもよい。   In the above aspect, when there are a plurality of some subjects, the target setting unit uses, as the second photometric value, a value obtained by weighted averaging the photometric values for each of the subjects according to the size of the subject. A target range may be set.

なお、上記の一の態様の露出演算装置を備えるカメラも、本発明の具体的態様として有効である。   Note that a camera including the exposure calculation device according to the one aspect described above is also effective as a specific aspect of the present invention.

本発明では、主要被写体と背景との輝度差が大きなシーンでも、主要被写体および背景の明るさのバランスがとれた露出量を求めることができる。   In the present invention, even in a scene where the luminance difference between the main subject and the background is large, an exposure amount in which the brightness of the main subject and the background is balanced can be obtained.

一の実施形態における電子カメラの構成例を説明するブロック図1 is a block diagram illustrating a configuration example of an electronic camera according to an embodiment. 一の実施形態の電子カメラにおける撮影モードの動作例を示す流れ図6 is a flowchart illustrating an operation example of a shooting mode in the electronic camera of the embodiment. 撮影画面内におけるブロックの分割例を示す図The figure which shows the example of the division of the block in a photography screen 図2のS103でのBvObjの値の求め方を模式的に示す図The figure which shows typically how to obtain | require the value of BvObj in S103 of FIG. 顔領域に対して代表輝度値BvObjを求める範囲の例を示す図The figure which shows the example of the range which calculates | requires representative luminance value BvObj with respect to a face area | region. 顔領域の分割測光の例を示す図The figure which shows the example of the division | segmentation metering of a face area 図2のS104における補正演算サブルーチンでの動作例を示す流れ図FIG. 2 is a flowchart showing an operation example of the correction calculation subroutine in S104 of FIG. 一の実施形態での目標範囲と露出量との関係を示す説明図Explanatory drawing which shows the relationship between the target range and exposure amount in one Embodiment 主要被写体が人物のときの重み付け係数WtWdの関数の一例を示す図The figure which shows an example of the function of the weighting coefficient WtWd when the main subject is a person. 主要被写体が人物のときの上限値および下限値を求める関数の一例を示す図The figure which shows an example of the function which calculates | requires the upper limit and lower limit when a main subject is a person 他の実施形態における電子カメラの構成例を説明する図The figure explaining the structural example of the electronic camera in other embodiment. 他の実施形態の電子カメラにおける撮影モードの動作の一例を示す流れ図Flowchart showing an example of the operation of the shooting mode in the electronic camera of another embodiment 他の実施形態の電子カメラにおける撮影モードの動作の別例を示す流れ図The flowchart which shows another example of operation | movement of the imaging | photography mode in the electronic camera of other embodiment.

<一の実施形態の説明>
図1は一の実施形態における電子カメラの構成例を説明するブロック図である。一の実施形態は、いわゆるレンズ一体型の電子カメラに露出演算装置を組み込んだ例を示している。
<Description of One Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an electronic camera according to an embodiment. One embodiment shows an example in which an exposure calculation device is incorporated in a so-called lens-integrated electronic camera.

一の実施形態の電子カメラは、撮像光学系11およびレンズ駆動部12と、絞り13および絞り駆動部14と、撮像素子15と、AFE16と、CPU17と、第1メモリ18と、記録I/F(インターフェース)19と、モニタ20と、レリーズ釦21および操作部材22と、第2メモリ23とを有している。ここで、レンズ駆動部12、絞り駆動部14、撮像素子15、AFE16、第1メモリ18、記録I/F19、モニタ20、レリーズ釦21、操作部材22および第2メモリ23は、それぞれCPU17に接続されている。   The electronic camera of one embodiment includes an imaging optical system 11 and a lens driving unit 12, an aperture 13 and an aperture driving unit 14, an imaging element 15, an AFE 16, a CPU 17, a first memory 18, and a recording I / F. (Interface) 19, monitor 20, release button 21 and operation member 22, and second memory 23. Here, the lens driving unit 12, the aperture driving unit 14, the imaging device 15, the AFE 16, the first memory 18, the recording I / F 19, the monitor 20, the release button 21, the operation member 22, and the second memory 23 are connected to the CPU 17, respectively. Has been.

撮像光学系11は、ズームレンズ、フォーカシングレンズを含む複数のレンズ群で構成されている。撮像光学系11のレンズ位置は、レンズ駆動部12によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。また、絞り13は、撮像素子15に入射する単位時間当たりの光量を調節する。この絞り13の開口量は、CPU17の指示に応じて絞り駆動部14が調整する。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens. The lens position of the imaging optical system 11 is adjusted in the optical axis direction by the lens driving unit 12. For simplicity, the imaging optical system 11 is illustrated as a single lens in FIG. The diaphragm 13 adjusts the amount of light per unit time incident on the image sensor 15. The aperture of the aperture 13 is adjusted by the aperture drive unit 14 in accordance with an instruction from the CPU 17.

撮像素子15は、撮像光学系11および絞り13を通過した光束による被写体像を光電変換してアナログの画像信号を生成する。この撮像素子15の出力はAFE16に接続されている。なお、撮像素子15の電荷蓄積時間および信号読みだしは、いずれもCPU17によって制御される。   The image sensor 15 photoelectrically converts a subject image formed by a light beam that has passed through the imaging optical system 11 and the diaphragm 13 to generate an analog image signal. The output of the image sensor 15 is connected to the AFE 16. Note that the charge accumulation time and signal reading of the image sensor 15 are both controlled by the CPU 17.

ここで、電子カメラの撮影モードにおいて、撮像素子15はレリーズ釦21の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮影モードでの撮像素子15は、撮影待機時にも所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。ここで、時系列に取得されたスルー画像のデータは、モニタ20での動画像表示やCPU17による各種の演算処理に使用される。   Here, in the photographing mode of the electronic camera, the image sensor 15 captures a still image for recording (main image) in response to a full pressing operation of the release button 21. Further, the imaging element 15 in the shooting mode continuously takes images for observation (through images) at predetermined intervals even during standby for shooting. Here, the data of the through image acquired in time series is used for moving image display on the monitor 20 and various arithmetic processes by the CPU 17.

AFE16は、撮像素子15の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE16は、相関二重サンプリングや、画像信号の増幅や、画像信号のA/D変換を行う。このAFE16から出力される画像信号はCPU17に入力される。なお、CPU17は、AFE16において画像信号のゲインを調整することで、ISO感度に相当する撮像感度を調整できる。   The AFE 16 is an analog front end circuit that performs analog signal processing on the output of the image sensor 15. The AFE 16 performs correlated double sampling, image signal amplification, and image signal A / D conversion. The image signal output from the AFE 16 is input to the CPU 17. The CPU 17 can adjust the imaging sensitivity corresponding to the ISO sensitivity by adjusting the gain of the image signal in the AFE 16.

CPU17は、電子カメラの動作を統括的に制御するプロセッサである。このCPU17は、第2メモリ23に格納されたプログラムの実行により、画像処理部24、顔検出部25、焦点調節部26および露出演算部27として機能する。   The CPU 17 is a processor that comprehensively controls the operation of the electronic camera. The CPU 17 functions as an image processing unit 24, a face detection unit 25, a focus adjustment unit 26, and an exposure calculation unit 27 by executing a program stored in the second memory 23.

画像処理部24は、デジタルの画像信号に対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、画像処理部24は、スルー画像に解像度変換を施して、モニタ表示用のビュー画像を生成する。なお、画像処理部24は、入力された画像のデータに基づいて、ホワイトバランス調整で適用するホワイトバランス調整値を求めることもできる。   The image processing unit 24 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, etc.) on the digital image signal. The image processing unit 24 performs resolution conversion on the through image to generate a view image for monitor display. The image processing unit 24 can also obtain a white balance adjustment value to be applied in the white balance adjustment based on the input image data.

顔検出部25は、スルー画像のデータに顔検出処理を施して、撮影画面内の人物の顔領域を検出する。この顔検出処理は公知のアルゴリズムによって行われる。一例として、顔検出部25は、公知の特徴点抽出処理によって、眉,目,鼻,唇の各端点などの特徴点を画像から抽出するとともに、これらの特徴点に基づいて撮影画面内の顔領域の位置を特定する。あるいは、顔検出部25は、予め用意された顔画像と判定対象の画像との相関係数を求め、この相関係数が一定の閾値を超えるときに判定対象の画像を顔領域と判定してもよい。   The face detection unit 25 performs a face detection process on the live view image data to detect a human face area in the shooting screen. This face detection process is performed by a known algorithm. As an example, the face detection unit 25 extracts feature points such as eyebrow, eye, nose, and lip end points from an image by a known feature point extraction process, and based on these feature points, the face in the shooting screen is extracted. Identify the location of the region. Alternatively, the face detection unit 25 obtains a correlation coefficient between the face image prepared in advance and the determination target image, and determines that the determination target image is a face area when the correlation coefficient exceeds a certain threshold. Also good.

焦点調節部26は、スルー画像のデータを用いて、公知のコントラスト検出によるオートフォーカス(AF)制御を実行する。   The focus adjustment unit 26 performs autofocus (AF) control by known contrast detection using the through image data.

露出演算部27は、スルー画像のデータを用いて露出演算を実行するとともに、この露出演算によって求めた露出量に応じて電子カメラの露出制御を実行する。   The exposure calculation unit 27 performs exposure calculation using the through image data, and executes exposure control of the electronic camera according to the exposure amount obtained by the exposure calculation.

第1メモリ18は、画像処理部24による画像処理の前工程や後工程で画像のデータを一時的に記憶するバッファメモリである。この第1メモリ18は揮発性の記憶媒体であるSDRAMにより構成される。   The first memory 18 is a buffer memory that temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 24. The first memory 18 is constituted by an SDRAM which is a volatile storage medium.

記録I/F19には、不揮発性の記憶媒体28を接続するためのコネクタが形成されている。そして、記録I/F19は、コネクタに接続された記憶媒体28に対してデータの書き込み/読み込みを実行する。上記の記憶媒体28は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体28の一例としてメモリカードを図示する。   The recording I / F 19 is formed with a connector for connecting the nonvolatile storage medium 28. The recording I / F 19 executes data writing / reading with respect to the storage medium 28 connected to the connector. The storage medium 28 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 28.

モニタ20は、CPU17の指示に応じて各種画像を表示する。例えば、撮影モードでの撮影待機時において、モニタ20にはCPU17の制御により上記のビュー画像が動画表示される。   The monitor 20 displays various images according to instructions from the CPU 17. For example, at the time of shooting standby in the shooting mode, the view image is displayed as a moving image on the monitor 20 under the control of the CPU 17.

レリーズ釦21は、全押し操作による撮像動作開始の指示入力をユーザーから受け付ける。また、操作部材22は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦などで構成される。この操作部材22は、電子カメラの動作モードの切替操作などの各種入力をユーザーから受け付ける。   The release button 21 receives an instruction input for starting an imaging operation by a full press operation from the user. The operation member 22 includes, for example, a command dial, a cross-shaped cursor key, a determination button, and the like. The operation member 22 receives various inputs such as an operation of switching the operation mode of the electronic camera from the user.

第2メモリ23はフラッシュメモリ等の不揮発性の記憶媒体で構成される。この第2メモリ23には、CPU17によって実行されるプログラムが記憶される。なお、このプログラムによる撮影モードでの露出演算処理の例については後述する。   The second memory 23 is composed of a nonvolatile storage medium such as a flash memory. The second memory 23 stores a program executed by the CPU 17. An example of the exposure calculation process in the shooting mode by this program will be described later.

(撮影モードの動作例)
次に、図2の流れ図を参照しつつ、一の実施形態の電子カメラにおける撮影モードの動作例を説明する。この撮影モードの動作は、撮影モードの起動操作(例えば電源オン操作やモード切替操作など)をCPU17がユーザーから受け付けたときに開始される。なお、図2に示す撮影モードでは、人物の顔を主要被写体として露出制御を行う例を説明する。
(Operation example in shooting mode)
Next, an operation example of the shooting mode in the electronic camera of one embodiment will be described with reference to the flowchart of FIG. This shooting mode operation is started when the CPU 17 receives a shooting mode start operation (for example, a power-on operation or a mode switching operation) from the user. In the shooting mode shown in FIG. 2, an example in which exposure control is performed using a human face as a main subject will be described.

ステップS101:CPU17は、撮像素子15を駆動させてスルー画像を取得する。なお、画像処理部24は上記のスルー画像の出力を用いてホワイトバランス調整値を求めるとともに、焦点検出部45は上記のスルー画像の出力を用いてAF制御を実行する(図2の例では、ホワイトバランス調整値の演算やAF制御はバックグラウンドで実行されるものとして、詳細な説明は省略する)。   Step S101: The CPU 17 drives the image sensor 15 to acquire a through image. Note that the image processing unit 24 obtains a white balance adjustment value using the output of the through image, and the focus detection unit 45 performs AF control using the output of the through image (in the example of FIG. 2, The calculation of the white balance adjustment value and the AF control are executed in the background, and detailed description is omitted).

ステップS102:露出演算部27は、スルー画像(S101で取得したもの)の出力を用いて、撮影画面内に含まれる被写体の分割測光を実行する。そして、露出演算部27は、分割測光の結果に基づいて、撮影画面内での被写体の明るさを代表する値(仮の代表輝度値PreBvAns)を求める。   Step S102: The exposure calculation unit 27 uses the output of the through image (acquired in S101) to perform divided photometry of the subject included in the shooting screen. Then, the exposure calculation unit 27 obtains a value representative of the brightness of the subject in the shooting screen (temporary representative luminance value PreBvAns) based on the result of the division photometry.

一例として、S102での露出演算部27は、スルー画像の全体(撮影画面)を複数のブロックに分割する(なお、撮影画面内におけるブロックの分割例を図3に示す)。次に、露出演算部27は、1つのブロックに含まれる複数の画素の出力値(階調値)を平均化し、各ブロックにおいて平均輝度値をそれぞれ求める。そして、露出演算部27は、各ブロックからそれぞれ求めた複数の平均輝度値を用いて、仮の代表輝度値PreBvAnsを求める。なお、複数ブロックの平均輝度値から仮の代表輝度値PreBvAnsを求める演算は、例えば、特開2006−106617号公報などに開示された公知の手法によって行われる。   As an example, the exposure calculation unit 27 in S102 divides the entire through image (shooting screen) into a plurality of blocks (an example of block division in the shooting screen is shown in FIG. 3). Next, the exposure calculation unit 27 averages output values (gradation values) of a plurality of pixels included in one block, and obtains an average luminance value in each block. Then, the exposure calculation unit 27 obtains a temporary representative brightness value PreBvAns using a plurality of average brightness values obtained from each block. Note that the calculation for obtaining the temporary representative luminance value PreBvAns from the average luminance values of a plurality of blocks is performed by a known method disclosed in, for example, JP-A-2006-106617.

ステップS103:顔検出部25は、スルー画像(S101で取得したもの)の出力を用いて、撮影画面内から人物の顔領域の位置を検出する。そして、露出演算部27は、顔検出部25が検出した顔領域の位置に基づいて、撮影画面内の一部の被写体である主要被写体(顔)の代表輝度値BvObjを求める。   Step S103: The face detection unit 25 detects the position of the face area of the person from the shooting screen using the output of the through image (obtained in S101). Then, based on the position of the face area detected by the face detection unit 25, the exposure calculation unit 27 obtains a representative luminance value BvObj of the main subject (face) that is a part of the subject in the shooting screen.

ここで、S103での露出演算部27は、撮影画面内から1つの顔領域のみが検出された場合、例えば、以下の(イ)から(へ)のいずれかの手法で主要被写体の代表輝度値BvObjを求める。   Here, when only one face area is detected from the shooting screen, the exposure calculation unit 27 in S103, for example, represents the representative luminance value of the main subject by any one of the following methods (a) to (f): BvObj is obtained.

(イ)露出演算部27は、スルー画像のうちで顔領域に含まれる複数の画素をグループ化するとともに、このグループ化された複数の画素の平均輝度値を主要被写体の代表輝度値BvObjとする(図4(a)参照)。   (A) The exposure calculation unit 27 groups a plurality of pixels included in the face area in the through image, and sets the average luminance value of the grouped pixels as the representative luminance value BvObj of the main subject. (See FIG. 4 (a)).

(ロ)露出演算部27は、撮影画面を分割したブロック(S102)のうちで顔領域と重複するブロックを抽出し、この抽出したブロックの平均輝度値をさらに平均化して主要被写体の代表輝度値BvObjを求めてもよい(図4(b)参照)。例えば、図4(b)の場合であれば、露出演算部27は、顔領域と重複する4つのブロックの平均輝度値から主要被写体の代表輝度値BvObjを求める。   (B) The exposure calculation unit 27 extracts a block overlapping the face area from the blocks (S102) obtained by dividing the shooting screen, further averages the average luminance value of the extracted block, and represents the representative luminance value of the main subject. BvObj may be obtained (see FIG. 4B). For example, in the case of FIG. 4B, the exposure calculation unit 27 obtains the representative luminance value BvObj of the main subject from the average luminance value of four blocks overlapping the face area.

(ハ)主要被写体と背景との輝度が極端に異なる場合(例えば逆光や過順光のシーンなど)において、顔領域よりも広い領域(図5(a)、図5(b)の領域FA0)から代表輝度値BvObjを求めると、背景の影響を受けて適正な顔の輝度を求められないケースがある。   (C) When the luminance of the main subject and the background are extremely different (for example, a scene of backlight or excessive light), an area wider than the face area (area FA0 in FIGS. 5A and 5B) When the representative luminance value BvObj is obtained from the above, there are cases where the appropriate face luminance cannot be obtained due to the influence of the background.

そこで、露出演算部27は、人物の顔の輪郭に内接する領域(図5(a)に示す領域FA1)から代表輝度値BvObjを求めるようにしてもよい。あるいは、露出演算部27は、人物の顔の輪郭に外接する領域よりもサイズが小さい領域(図5(b)に示す領域FA2)から代表輝度値BvObjを求めるようにしてもよい。   Therefore, the exposure calculation unit 27 may obtain the representative luminance value BvObj from an area inscribed in the outline of the person's face (area FA1 shown in FIG. 5A). Alternatively, the exposure calculation unit 27 may obtain the representative luminance value BvObj from an area (area FA2 shown in FIG. 5B) that is smaller than the area circumscribing the outline of the person's face.

ここで、図5(b)では、領域FA2の重心が領域FA0の重心と重なって配置される例を示す。もっとも、髪の影響を受けにくくするために領域FA2の重心を領域FA0の重心よりも下側にずらしてもよい(この場合の図示は省略する)。また、図5(b)では、領域FA2のサイズが領域FA0の縦横1/2のサイズに設定された例を示す。もっとも、上記の領域FA2のサイズは背景の影響を受けない範囲で適宜設定できる。   Here, FIG. 5B shows an example in which the center of gravity of the area FA2 is arranged so as to overlap the center of gravity of the area FA0. However, the center of gravity of the area FA2 may be shifted below the center of gravity of the area FA0 in order to make it less susceptible to the influence of hair (illustration is omitted in this case). FIG. 5B shows an example in which the size of the area FA2 is set to 1/2 the size of the area FA0. However, the size of the area FA2 can be appropriately set within a range not affected by the background.

(ニ)顔領域内の輝度差が大きい場合(例えば顔の半分に光が当たり、顔の半分が暗くなっている半逆光のシーンなど)には、顔領域の平均輝度値に基づいて代表輝度値BvObjを求めると、顔の明るい部分が白トビするおそれもある。そこで、露出演算部27は、主要被写体の顔を複数の領域に分割して測光し、複数の領域のそれぞれに対して得られる複数の測光値に基づいて代表輝度値BvObjを求めてもよい。   (D) When the luminance difference in the face area is large (for example, a half-backlit scene in which light is applied to half of the face and half of the face is dark), the representative luminance is based on the average luminance value of the face area. When the value BvObj is obtained, the bright part of the face may be overexposed. Therefore, the exposure calculation unit 27 may divide the face of the main subject into a plurality of areas and perform photometry, and obtain the representative luminance value BvObj based on a plurality of photometric values obtained for each of the plurality of areas.

一例として、露出演算部27は、図6に示すように縦横に2×2となるように顔領域を4分割する。そして、露出演算部27は、以下の式(1)により各分割領域(FA41−FA44)の測光値のうちの最大値を代表輝度値BvObjとしてもよい。
BvObj=Max(BvFA41,BvFA42,BvFA43,BvFA44)…(1)
ここで、本明細書において、「BvFA41−44」は、それぞれ顔領域の分割領域(FA41−44)の平均輝度値を示している。また、本明細書において、「Max(A,B)」は、A,Bのうちの最大値を返す関数を意味する。
As an example, the exposure calculation unit 27 divides the face area into four so as to be 2 × 2 vertically and horizontally as shown in FIG. 6. And the exposure calculating part 27 is good also considering the maximum value among the photometric values of each division area (FA41-FA44) as the representative luminance value BvObj by the following formula | equation (1).
BvObj = Max (BvFA41, BvFA42, BvFA43, BvFA44) (1)
Here, in this specification, “BvFA41-44” indicates an average luminance value of each divided area (FA41-44) of the face area. In this specification, “Max (A, B)” means a function that returns the maximum value of A and B.

(ホ)また、上記(ニ)の別例として、露出演算部27は、各領域(FA41−FA44)を縦横で4つにグループ化し、4つのグループのそれぞれで得た測光値のうちの最大値を代表輝度値BvObjとしてもよい。具体的には、露出演算部27は、以下の式(2)から式(6)の演算を順次行えばよい。
BvFaceUp=(BvFA41+BvFA42)/2…(2)
BvFaceDown=(BvFA43+BvFA44)/2…(3)
BvFaceLeft=(BvFA41+BvFA43)/2…(4)
BvFaceRight=(BvFA42+BvFA44)/2…(5)
BvObj=Max(BvFaceUp,BvFaceDown,BvFaceLeft,BvFaceRight)…(6)
(ヘ)また、上記(ニ)の別例として、露出演算部27は、各領域の輝度値(BvFA41−44)を重み付け平均して代表輝度値BvObjを求めてもよい。
(E) As another example of the above (d), the exposure calculation unit 27 groups each region (FA41-FA44) into four in the vertical and horizontal directions, and sets the maximum photometric value obtained in each of the four groups. The value may be the representative luminance value BvObj. Specifically, the exposure calculation unit 27 may sequentially perform the calculations of the following formulas (2) to (6).
BvFaceUp = (BvFA41 + BvFA42) / 2 (2)
BvFaceDown = (BvFA43 + BvFA44) / 2 (3)
BvFaceLeft = (BvFA41 + BvFA43) / 2 (4)
BvFaceRight = (BvFA42 + BvFA44) / 2 (5)
BvObj = Max (BvFaceUp, BvFaceDown, BvFaceLeft, BvFaceRight) (6)
(F) As another example of the above (d), the exposure calculation unit 27 may obtain a representative luminance value BvObj by weighted averaging of the luminance values (BvFA41-44) of each region.

例えば、露出演算部27は、以下の式(7)において、BvFA41−44を大きい順にBvX[1]−BvX[4]として代入し、代表輝度値BvObjを求めればよい。
BvObj=Σ(BvX[i]×Wt[i])…(7)
ここで、上記の式(7)での「i」は1−4の整数をとるものとする。また、式(7)での「Σ()」は、変数iによる積和演算結果を返す関数である。また、式(7)の「Wt[i]」は所定の重み付け係数である。一例として、一の実施形態では、Wt[1]=0.6,Wt[2]=0.3,Wt[3]=0.1,Wt[4]=0に設定されるが、各重み付け係数は上記の例に限定されることはない。
For example, in the following formula (7), the exposure calculating unit 27 may substitute BvFA41-44 as BvX [1] -BvX [4] in descending order to obtain the representative luminance value BvObj.
BvObj = Σ (BvX [i] × Wt [i]) (7)
Here, “i” in the above formula (7) takes an integer of 1-4. In addition, “Σ ()” in Expression (7) is a function that returns the product-sum operation result by the variable i. Further, “Wt [i]” in Expression (7) is a predetermined weighting coefficient. As an example, in one embodiment, Wt [1] = 0.6, Wt [2] = 0.3, Wt [3] = 0.1, Wt [4] = 0 are set. The coefficient is not limited to the above example.

なお、露出演算部27は、上記の式(7)において、BvFaceUp,BvFaceDown,BvFaceLeft,BvFaceRight(式(2)−(5)で求めた各グループの測光値)を大きい順にBvX[1]−BvX[4]として代入し、代表輝度値BvObjを求めるようにしてもよい。   Note that the exposure calculation unit 27 calculates BvX [1] −BvX in the descending order of BvFaceUp, BvFaceDown, BvFaceLeft, BvFaceRight (photometric values of each group determined by Expressions (2) to (5)) in the above expression (7). Substituting as [4], the representative luminance value BvObj may be obtained.

一方、S103での露出演算部27は、撮影画面内から複数の顔領域が検出された場合、例えば、以下の(ト)または(チ)の手法で主要被写体の代表輝度値BvObjを求める。   On the other hand, when a plurality of face regions are detected from the shooting screen, the exposure calculation unit 27 in S103 obtains the representative luminance value BvObj of the main subject by the following method (G) or (H), for example.

(ト)露出演算部27は、顔検出部25が検出した複数の顔領域のうちで最もサイズが大きなものを演算対象の顔領域に設定するとともに、この演算対象の顔領域について上記の(イ)から(へ)のいずれかの手法で主要被写体の代表輝度値BvObjを求める。一般的に、人物を撮影するシーンでは、主要被写体となる人物が最も大きくなるようにユーザーは撮影を行うからである。   (G) The exposure calculation unit 27 sets the largest face area of the plurality of face areas detected by the face detection unit 25 as the calculation target face area, and the above-described (I) ) To (f) to obtain the representative luminance value BvObj of the main subject. This is because, in general, in a scene where a person is photographed, the user performs photographing so that the person as the main subject becomes the largest.

(チ)まず、露出演算部27は、上記の(イ)から(へ)のいずれかの手法によって、各々の顔領域に対応する輝度値を求める。そして、露出演算部27は、顔領域ごとに求めた複数の輝度値を、各々の顔領域の大きさに応じて重み付け平均することで、最終的に主要被写体の代表輝度値BvObjを求める。この場合には、撮影画面内の複数の顔の輝度を考慮して露出制御を行うことが可能となる。   (H) First, the exposure calculation unit 27 obtains a luminance value corresponding to each face area by any one of the methods (A) to (F). Then, the exposure calculation unit 27 finally obtains the representative luminance value BvObj of the main subject by weighting and averaging the plurality of luminance values obtained for each face area in accordance with the size of each face area. In this case, exposure control can be performed in consideration of the brightness of a plurality of faces in the shooting screen.

ステップS104:露出演算部27は、補正演算サブルーチンを実行する(補正演算サブルーチンの内容については後述する)。この補正演算サブルーチンでは、主要被写体の代表輝度値BvObj(S103で求めたもの)に基づいて、露出演算部27が輝度補正量dBvObjを求める。   Step S104: The exposure calculation unit 27 executes a correction calculation subroutine (the details of the correction calculation subroutine will be described later). In this correction calculation subroutine, the exposure calculation unit 27 calculates a luminance correction amount dBvObj based on the representative luminance value BvObj of the main subject (obtained in S103).

逆光や過順光などのように主要被写体と背景との輝度が極端に異なる場合、仮の代表輝度値PreBvAnsから直接に露出量を求めると、主要被写体の露出が暗すぎたり明るすぎたりする場合がある。そのため、一の実施形態では、輝度補正量dBvObjによって、主要被写体と背景とのバランスが適正な露出量となるように輝度値を補正する。   When the brightness of the main subject and the background is extremely different, such as in backlighting or excessively forward light, the exposure of the main subject is too dark or too bright when the exposure amount is obtained directly from the temporary representative brightness value PreBvAns There is. Therefore, in one embodiment, the luminance value is corrected by the luminance correction amount dBvObj so that the balance between the main subject and the background becomes an appropriate exposure amount.

ステップS105:露出演算部27は、仮の代表輝度値PreBvAns(S102で求めたもの)と、輝度補正量dBvObj(S104で求めたもの)とを用いて、補正後の代表輝度値BvAnsを下式(8)により求める。
BvAns=PreBvAns+dBvObj …(8)
そして、S105での露出演算部27は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行なう。
Step S105: The exposure calculation unit 27 uses the provisional representative luminance value PreBvAns (obtained in S102) and the luminance correction amount dBvObj (obtained in S104) to calculate the corrected representative luminance value BvAns using the following formula. Obtained by (8).
BvAns = PreBvAns + dBvObj (8)
Then, the exposure calculation unit 27 in S105 calculates the exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and also performs exposure control (shutter time, aperture value, etc.) based on this exposure amount. Adjust each parameter).

ステップS106:CPU17は上記のスルー画像(S101で取得したもの)から生成したビュー画像をモニタ20に表示する。これにより、ユーザーは、モニタ20のビュー画像を参照して、撮影構図を決定するためのフレーミングを行うことができる。このとき、CPU17は、S103で検出した顔領域の位置を示す表示をビュー画像にオーバーレイさせてもよい(ビュー画像の表示例の図示は省略する)。   Step S106: The CPU 17 displays a view image generated from the above-described through image (obtained in S101) on the monitor 20. Accordingly, the user can perform framing for determining the shooting composition with reference to the view image on the monitor 20. At this time, the CPU 17 may overlay the display indicating the position of the face area detected in S103 on the view image (illustration of a display example of the view image is omitted).

ステップS107:CPU17は、レリーズ釦21が全押しされたか否かを判定する。上記要件を満たす場合(YES側)にはS108に移行する。一方、上記要件を満たさない場合(NO側)には、CPU17はS101に戻って上記動作を繰り返す。S107でのNO側の場合には、CPU17はS105で求めた露出量に基づきスルー画像を撮像する。そして、モニタ20には、CPU17の制御によりビュー画像が動画表示されることとなる。   Step S107: The CPU 17 determines whether or not the release button 21 is fully pressed. If the above requirement is satisfied (YES side), the process proceeds to S108. On the other hand, if the above requirement is not satisfied (NO side), the CPU 17 returns to S101 and repeats the above operation. In the case of NO in S107, the CPU 17 captures a through image based on the exposure amount obtained in S105. The view image is displayed as a moving image on the monitor 20 under the control of the CPU 17.

ステップS108:CPU17は、S105で求めた露出量に基づいて、本画像の撮像処理を実行する。撮像素子15によって撮像された本画像のデータは、AFE16および画像処理部24で所定の処理が施された後に、記録I/F19を介して記憶媒体28に記録される。以上で、図2に示す撮影モードの動作例の説明を終了する。   Step S108: The CPU 17 executes an image capturing process for the main image based on the exposure amount obtained in S105. The data of the main image captured by the image sensor 15 is recorded in the storage medium 28 via the recording I / F 19 after being subjected to predetermined processing by the AFE 16 and the image processing unit 24. The description of the operation example of the shooting mode illustrated in FIG.

(補正演算サブルーチンの説明)
次に、図7の流れ図を参照しつつ、図2のS104における補正演算サブルーチンでの動作例を説明する。
(Explanation of correction calculation subroutine)
Next, an operation example of the correction calculation subroutine in S104 of FIG. 2 will be described with reference to the flowchart of FIG.

ステップS201:露出演算部27は、主要被写体の代表輝度値BvObj(S103で求めたもの)を用いて、下式(9)により輝度目標値BvTrgtを求める。
BvTrgt=BvObj−OfsObj …(9)
ここで、本明細書において「OfsObj」は、主要被写体の種類ごとに予め設定されているオフセット値を意味する。このOfsObjの値は、本画像でのグレーレベルの出力値と、本画像において主要被写体の再現目標となる出力値との差分から求められる。
Step S201: The exposure calculation unit 27 uses the representative luminance value BvObj (obtained in S103) of the main subject to obtain the luminance target value BvTrgt by the following equation (9).
BvTrgt = BvObj−OfsObj (9)
Here, “OfsObj” in this specification means an offset value set in advance for each type of main subject. The value of OfsObj is obtained from the difference between the output value of the gray level in the main image and the output value that is the reproduction target of the main subject in the main image.

カメラの自動露出演算においては、主要被写体と同じ輝度を有する無彩色の被写体を撮影する場合、原則として上記の無彩色の被写体が本画像にてグレーレベルで再現されるように露出量が演算される。一方、主要被写体の種類によっては、本画像での再現目標の出力値をグレーレベルからシフトさせた方が好ましい場合もある。一例として、主要被写体が人物の顔であれば、本画像での再現目標の出力値をグレーレベルよりもやや明るめの値にする方が好ましい画像となる。そのため、S201での露出演算部27は、OfsObjを用いて主要被写体の種類毎に輝度値の調整を行っている。   In automatic camera exposure calculation, when shooting an achromatic subject with the same brightness as the main subject, the exposure amount is calculated so that, as a general rule, the above-mentioned achromatic subject is reproduced at the gray level in the main image. The On the other hand, depending on the type of the main subject, it may be preferable to shift the output value of the reproduction target in the main image from the gray level. As an example, if the main subject is a human face, it is preferable to set the output value of the reproduction target in the main image to a value slightly brighter than the gray level. Therefore, the exposure calculation unit 27 in S201 adjusts the luminance value for each type of main subject using OfsObj.

以下、主要被写体が人物の顔である場合のOfsObjの演算例を説明する。なお、一の実施形態では、本画像の階調が8bit(出力値0〜255)であることを前提として説明を行う。   Hereinafter, an example of the calculation of OfsObj when the main subject is a person's face will be described. In the embodiment, the description will be made on the assumption that the gradation of the main image is 8 bits (output value 0 to 255).

この例では、グレーレベルの出力値を120とし、本画像での顔の再現目標の出力値を150とする。よって、この場合のOfsObjは、本画像において顔の出力値を120から150に明るくするための補正量となる。なお、露出演算では被写体の輝度値が小さくなるほどオーバー側の露出量となることから、上記の式(9)ではBvObjの値からOfsObjの値を減算して輝度値を小さくしている。   In this example, the output value of the gray level is 120, and the output value of the face reproduction target in the main image is 150. Therefore, OfsObj in this case is a correction amount for increasing the face output value from 120 to 150 in the main image. In the exposure calculation, as the subject brightness value decreases, the exposure amount on the over side becomes. Therefore, in the above equation (9), the value of OfsObj is subtracted from the value of BvObj to reduce the brightness value.

また、本画像での出力値は、画像処理部24での階調変換処理によって、撮像素子15の出力レベルに対して非線形な状態に変換されている。したがって、露出演算部27は、本画像での出力値に逆階調変換処理を施した状態で出力値を比較することで、OfsObjの値を求めることができる。なお、人物の顔が主要被写体の場合のOfsObjの値は、下式(10)によって求められる。
OfsObj=Log2(RvG(150)/RvG(120)) …(10)
ここで、本明細書において「Log2(A)」は、2を底とするAの対数を返す関数を意味する。また、本明細書において「RvG(B)」は、逆階調変換に相当する関数であって、本画像での出力値を示すBに対して階調変換前の入力値を返す関数を意味する。
Further, the output value in the main image is converted into a non-linear state with respect to the output level of the image sensor 15 by the gradation conversion processing in the image processing unit 24. Therefore, the exposure calculation unit 27 can obtain the value of OfsObj by comparing the output value in a state where the output value in the main image is subjected to the reverse gradation conversion process. Note that the value of OfsObj when the human face is the main subject is obtained by the following equation (10).
OfsObj = Log2 (RvG (150) / RvG (120)) (10)
In this specification, “Log2 (A)” means a function that returns the logarithm of A with 2 as the base. Further, in this specification, “RvG (B)” is a function corresponding to inverse gradation conversion, and means a function that returns an input value before gradation conversion with respect to B indicating an output value in the main image. To do.

なお、S201での他の例として、主要被写体が青空である場合のOfsObjの演算例を説明する。本画像での青空の再現目標の出力値を175とすると、この場合のOfsObjの値は、下式(11)で求めることができる。
OfsObj=Log2(RvG(175)/RvG(120)) …(11)
ステップS202:露出演算部27は、輝度目標値BvTrgt(S201で求めたもの)に基づいて、輝度値の目標範囲を設定する。具体的には、S202の露出演算部27は、下式(12)によって目標範囲の上限値BvUpperを求めるとともに、下式(13)によって目標範囲の下限値BvLowerを求める。
BvUpper=BvTrgt+BvSth1 …(12)
BvLower=BvTrgt+BvSth2 …(13)
ここで、「BvSth1」と「BvSth2」とは、それぞれ主要被写体の種類ごとに設定される値である。したがって、S202で設定される輝度値の目標範囲の幅は、主要被写体の種類に応じて変化しうる。
As another example of S201, an example of the calculation of OfsObj when the main subject is a blue sky will be described. If the output value of the blue sky reproduction target in the main image is 175, the value of OfsObj in this case can be obtained by the following equation (11).
OfsObj = Log2 (RvG (175) / RvG (120)) (11)
Step S202: The exposure calculation unit 27 sets a target range of luminance values based on the target luminance value BvTrgt (obtained in S201). Specifically, the exposure calculation unit 27 in S202 calculates the upper limit value BvUpper of the target range by the following formula (12), and calculates the lower limit value BvLower of the target range by the following formula (13).
BvUpper = BvTrgt + BvSth1 (12)
BvLower = BvTrgt + BvSth2 (13)
Here, “BvSth1” and “BvSth2” are values set for each type of main subject. Therefore, the width of the target range of the brightness value set in S202 can change according to the type of the main subject.

S202において、輝度値の目標範囲を設定するのは以下の理由による。主要被写体(人物の顔)と背景との輝度が極端に異なるシーン(例えば逆光や過順光の場合など)では、顔の輝度に基づいて露出量を決定すると、背景部分に白トビや黒つぶれが生じて撮影した画像の見映えが不自然となってしまう。   In S202, the target range of the luminance value is set for the following reason. In scenes where the brightness of the main subject (person's face) and the background are extremely different (for example, in the case of backlight or over-order light), if the exposure is determined based on the brightness of the face, Will appear and the image taken will be unnatural.

一方、上記のシーンでは、背景とのバランスを考慮して主要被写体の明るさを決定した方が画像全体としてはむしろ自然な露出になる。したがって、露出演算部27は、BvUpperおよびBvLowerによって目標とする輝度値に幅をもたせることで、輝度差の大きなシーンに対応できるようにしている。   On the other hand, in the above scene, it is rather natural exposure for the entire image when the brightness of the main subject is determined in consideration of the balance with the background. Therefore, the exposure calculation unit 27 can deal with a scene with a large luminance difference by giving a range to the target luminance value by BvUpper and BvLower.

例えば、逆光のシーンにおける本画像での人物の顔の出力値は110でもよい。そのため、人物の顔が主要被写体の場合のBvSth1の値は下式(14)で求めることができる。同様に、過順光のシーンにおける人物の顔の出力値は180でもよい。そのため、人物の顔が主要被写体の場合のBvSth2の値は、下式(15)で求めることができる。
BvSth1=Log2(RvG(150)/RvG(110)) …(14)
BvSth2=Log2(RvG(150)/RvG(180)) …(15)
ここで、図8を参照しつつ、目標範囲と露出量との関係について説明する。上記の式(14)で求めたBvSth1は、BvTrgtに対してプラスの補正値となって、BvUpperの値はBvTrgtよりも大きくなる。そして、BvUpperに基づいて露出量を求めると、BvTrgtに基づく露出量よりも露出がアンダー側になる。これにより、BvUpperに基づく露出量で本画像を撮影すると、本画像での顔の出力値は上記の再現目標よりも低い値となる。
For example, the output value of a human face in the main image in a backlight scene may be 110. Therefore, the value of BvSth1 when the person's face is the main subject can be obtained by the following equation (14). Similarly, the output value of a person's face in an over-order scene may be 180. Therefore, the value of BvSth2 when the person's face is the main subject can be obtained by the following equation (15).
BvSth1 = Log2 (RvG (150) / RvG (110)) (14)
BvSth2 = Log2 (RvG (150) / RvG (180)) (15)
Here, the relationship between the target range and the exposure amount will be described with reference to FIG. BvSth1 obtained by the above equation (14) is a positive correction value with respect to BvTrgt, and the value of BvUpper is larger than BvTrgt. Then, when the exposure amount is obtained based on BvUpper, the exposure is underside than the exposure amount based on BvTrgt. As a result, when the main image is captured with the exposure amount based on BvUpper, the face output value in the main image is lower than the above reproduction target.

一方、上記の式(15)で求めたBvSth2は、BvTrgtに対してマイナスの補正値となって、BvLowerの値はBvTrgtよりも小さくなる。そして、BvLowerに基づいて露出量を求めると、BvTrgtに基づく露出量よりも露出がオーバー側になる。これにより、BvLowerに基づく露出量で本画像を撮影すると、本画像での顔の出力値は上記の再現目標よりも高い値となる。   On the other hand, BvSth2 obtained by the above equation (15) is a negative correction value with respect to BvTrgt, and the value of BvLower is smaller than BvTrgt. Then, when the exposure amount is obtained based on BvLower, the exposure is over the exposure amount based on BvTrgt. As a result, when the main image is captured with the exposure amount based on BvLower, the face output value in the main image is higher than the above reproduction target.

なお、S202での他の例として、主要被写体が青空である場合のBvSth1およびBvSth2の演算例を説明する。本画像での青空の再現目標の出力値の幅を100〜200とすると、この場合のBvSth1の値は下式(16)で求めることができる。また、この場合のBvSth2の値は下式(17)で求めることができる。
BvSth1=Log2(RvG(175)/RvG(100)) …(16)
BvSth2=Log2(RvG(175)/RvG(200)) …(17)
ところで、上記の例では、逆光のシーンにおける本画像での人物の顔の出力は、背景とのバランスを考慮して110でもよいと説明した。しかし、撮影画面に対する人物の顔の面積比(人物の顔の大きさ)が大きい場合には、顔の明るさが本画像の明るさの印象を決めることとなる。逆に、撮影画面に対する人物の顔の面積比が小さい場合には、背景の明るさが本画像の明るさの印象を決めることとなる。そのため、露出演算部27は、撮影画面に対する主要被写体の面積比に応じて輝度値の目標範囲の幅を調整してもよい。この場合において、露出演算部27は、上記のBvSth1およびBvSth2にそれぞれ重み付けをした値(BvSth1’,BvSth2’)を以下の式(18)、式(19)で求める。そして、露出演算部27は、BvSth1’,BvSth2’を用いてBvUpperおよびBvLowerをそれぞれ求めればよい。
BvSth1’=BvSth1×WtWd …(18)
BvSth2’=BvSth2×WtWd …(19)
ここで、式(18)、式(19)の「WtWd」は、目標範囲の幅の重み付け係数を示している。上記の重み付け係数WtWdの値は、撮影画面に対する主要被写体の面積比に依存した関数により露出演算部27が決定する。この重み付け係数WtWdは、撮影画面に対する主要被写体の面積比が小さい場合には大きな値となり、撮影画面に対する主要被写体の面積比が大きい場合には小さな値となる。
As another example in S202, a calculation example of BvSth1 and BvSth2 when the main subject is a blue sky will be described. Assuming that the output range of the blue sky reproduction target in the main image is 100 to 200, the value of BvSth1 in this case can be obtained by the following equation (16). Further, the value of BvSth2 in this case can be obtained by the following equation (17).
BvSth1 = Log2 (RvG (175) / RvG (100)) (16)
BvSth2 = Log2 (RvG (175) / RvG (200)) (17)
By the way, in the above example, it has been described that the output of the human face in the main image in the backlight scene may be 110 in consideration of the balance with the background. However, when the area ratio of the human face to the shooting screen (the size of the human face) is large, the brightness of the face determines the impression of the brightness of the main image. Conversely, when the area ratio of the person's face to the shooting screen is small, the brightness of the background determines the impression of the brightness of the main image. Therefore, the exposure calculation unit 27 may adjust the width of the target range of the luminance value according to the area ratio of the main subject to the shooting screen. In this case, the exposure calculation unit 27 obtains values (BvSth1 ′, BvSth2 ′) obtained by weighting the above BvSth1 and BvSth2 by the following equations (18) and (19). Then, the exposure calculation unit 27 may obtain BvUpper and BvLower using BvSth1 ′ and BvSth2 ′.
BvSth1 ′ = BvSth1 × WtWd (18)
BvSth2 ′ = BvSth2 × WtWd (19)
Here, “WtWd” in Expression (18) and Expression (19) indicates a weighting coefficient for the width of the target range. The value of the weighting coefficient WtWd is determined by the exposure calculation unit 27 using a function depending on the area ratio of the main subject to the shooting screen. The weighting coefficient WtWd is a large value when the area ratio of the main subject to the shooting screen is small, and is a small value when the area ratio of the main subject to the shooting screen is large.

ここで、図9は、主要被写体が人物のときの重み付け係数WtWdの関数の一例を示している。図9の縦軸は、WtWdの値を示し、図9の横軸は撮影画面に対する主要被写体の面積比を示している。   Here, FIG. 9 shows an example of a function of the weighting coefficient WtWd when the main subject is a person. The vertical axis in FIG. 9 indicates the value of WtWd, and the horizontal axis in FIG. 9 indicates the area ratio of the main subject to the shooting screen.

図9の例では、上記の面積比が5%以下のときに、WtWdの値は1.0となる。また、上記の面積比が5%より大きく50%未満の範囲では、WtWdの値は面積比の大きさに比例して低下してゆく。そして、上記の面積比が50%以上のときに、WtWdの値は0.0となる。   In the example of FIG. 9, when the area ratio is 5% or less, the value of WtWd is 1.0. Further, in the range where the area ratio is greater than 5% and less than 50%, the value of WtWd decreases in proportion to the size of the area ratio. When the area ratio is 50% or more, the value of WtWd is 0.0.

すなわち、撮影画面に対する主要被写体の面積比が小さい場合には、BvSth1’およびBvSth2’の値は大きくなるので、輝度値の目標範囲の幅は大きくなる。一方、撮影画面に対する主要被写体の面積比が大きい場合には、BvSth1’およびBvSth2’の値は小さくなるので、輝度値の目標範囲の幅は小さくなる。   That is, when the area ratio of the main subject to the shooting screen is small, the values of BvSth1 'and BvSth2' are large, so the width of the target range of luminance values is large. On the other hand, when the area ratio of the main subject to the shooting screen is large, the values of BvSth1 'and BvSth2' are small, so the width of the target range of luminance values is small.

また、撮影画面内で複数の主要被写体が検出された場合には、露出演算部27は、複数の主要被写体のうちで最もサイズの大きな被写体に基づいて上記の面積比を決定し、BvSth1’およびBvSth2’を用いて輝度値の目標範囲の幅を求めてもよい。あるいは、露出演算部27は、複数の主要被写体の大きさを合計した値で上記の面積比を決定し、BvSth1’およびBvSth2’を用いて輝度値の目標範囲の幅を求めてもよい。なお、図9に示す重み付け係数WtWdの関数はあくまで一例であり、重み付け係数WtWdの関数を主要被写体の種類に応じて変更するようにしてもよい。   When a plurality of main subjects are detected in the shooting screen, the exposure calculation unit 27 determines the area ratio based on the subject having the largest size among the plurality of main subjects, and BvSth1 ′ and The width of the target range of luminance values may be obtained using BvSth2 ′. Alternatively, the exposure calculation unit 27 may determine the area ratio by a value obtained by summing the sizes of a plurality of main subjects, and obtain the width of the target range of luminance values using BvSth1 'and BvSth2'. Note that the function of the weighting coefficient WtWd shown in FIG. 9 is merely an example, and the function of the weighting coefficient WtWd may be changed according to the type of the main subject.

ステップS203:露出演算部27は、PreBvAnsがBvUpperよりも大きいか否かを判定する。上記要件を満たす場合(YES側)にはS207に移行する。一方、上記要件を満たさない場合(NO側)にはS204に移行する。   Step S203: The exposure calculation unit 27 determines whether PreBvAns is larger than BvUpper. If the above requirement is satisfied (YES side), the process proceeds to S207. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S204.

ステップS204:露出演算部27は、PreBvAnsがBvLowerよりも小さいか否かを判定する。上記要件を満たす場合(YES側)にはS206に移行する。一方、上記要件を満たさない場合(NO側)にはS205に移行する。   Step S204: The exposure calculation unit 27 determines whether PreBvAns is smaller than BvLower. If the above requirement is satisfied (YES side), the process proceeds to S206. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S205.

ステップS205:この場合は、仮の代表輝度値PreBvAnsから求めた露出量で本画像の撮影を行うと、本画像での顔の出力値は110から180の範囲に収まると予想できる。そのため、露出演算部27は、dBvOBjを求めるときの仮補正量dBvTrgtToAnsに「0」値を代入する。なお、露出補正部27は、S205の後にS208へ処理を移行する。   Step S205: In this case, if the main image is shot with the exposure amount obtained from the provisional representative luminance value PreBvAns, it can be predicted that the face output value in the main image falls within the range of 110 to 180. Therefore, the exposure calculation unit 27 substitutes a “0” value for the provisional correction amount dBvTrgtToAns when determining dBvOBj. The exposure correction unit 27 moves the process to S208 after S205.

ステップS206:この場合は、仮の代表輝度値PreBvAnsから求めた露出量で本画像の撮影を行うと、本画像での顔の出力値は180よりも高くなると予想できる。そのため、露出演算部27は、本画像での顔の出力値を180にするために、仮補正量dBvTrgtToAnsの値を下式(20)によって求める。
dBvTrgtToAns=BvLower−PreBvAns …(20)
このS206の場合のdBvTrgtToAnsは、輝度値を大きくする補正量に相当する。輝度値を大きくする方向に補正すると露出演算のときに露出量はアンダー側となるため、本画像では明るい顔が暗めに補正されることとなる。なお、露出補正部は、S206の後にS208へ処理を移行する。
Step S206: In this case, if the main image is captured with the exposure amount obtained from the temporary representative luminance value PreBvAns, it can be predicted that the face output value in the main image will be higher than 180. Therefore, the exposure calculation unit 27 calculates the value of the provisional correction amount dBvTrgtToAns by the following equation (20) in order to set the face output value in the main image to 180.
dBvTrgtToAns = BvLower-PreBvAns (20)
DBvTrgtToAns in the case of S206 corresponds to a correction amount for increasing the luminance value. If the luminance value is corrected in the increasing direction, the exposure amount becomes underside during the exposure calculation, so that a bright face is corrected to be darker in the main image. The exposure correction unit shifts the process to S208 after S206.

ステップS207:この場合は、仮の代表輝度値PreBvAnsから求めた露出量で本画像の撮影を行うと、本画像での顔の出力値は110よりも低くなると予想できる。そのため、露出演算部27は、本画像での顔の出力値を110にするために、仮補正量dBvTrgtToAnsの値を下式(21)によって求める。
dBvTrgtToAns=BvUpper−PreBvAns …(21)
このS207の場合のdBvTrgtToAnsは、輝度値を小さくする補正量に相当する。輝度値を小さくする方向に補正すると露出演算のときに露出量はオーバー側となるため、本画像では暗めの顔が明るく補正されることとなる。
Step S207: In this case, if the main image is captured with the exposure amount obtained from the provisional representative luminance value PreBvAns, the face output value in the main image can be expected to be lower than 110. Therefore, the exposure calculation unit 27 calculates the value of the temporary correction amount dBvTrgtToAns by the following equation (21) in order to set the face output value in the main image to 110.
dBvTrgtToAns = BvUpper-PreBvAns (21)
The dBvTrgtToAns in the case of S207 corresponds to a correction amount for reducing the luminance value. If the luminance value is corrected in the direction of decreasing the exposure value, the exposure amount is over during the exposure calculation, so that the dark face is corrected brightly in the main image.

ステップS208:露出演算部27は、仮補正量dBvTrgtToAns(S205、S206、S207のいずれかで求めたもの)を所定の制限値の範囲に制限して、輝度補正量dBvObjを求める。例えば、S208での露出演算部27は、以下の式(22)によって輝度補正量dBvObjを求める。
dBvObj=Clip(dBvTrgtToAns) …(22)
ここで、式(13)の「Clip(A)」は、Aの値が制限値の範囲内にあるときにはAの値を返し、Aの値が制限値の範囲を超えるときには制限値を返す関数を意味する。なお、「Clip(A)」での制限値には上限値と下限値とを設定できる。この場合、「Clip(A)」でAの値が上限値を上回る場合は、入力されたAの値は上限値に置換される。また、「Clip(A)」でAの値が下限値を下回る場合は、入力されたAの値は下限値に置換される。
Step S208: The exposure calculation unit 27 limits the provisional correction amount dBvTrgtToAns (obtained in any one of S205, S206, and S207) to a predetermined limit value range, and obtains the luminance correction amount dBvObj. For example, the exposure calculation unit 27 in S208 obtains the luminance correction amount dBvObj by the following equation (22).
dBvObj = Clip (dBvTrgtToAns) (22)
Here, “Clip (A)” in Expression (13) returns a value of A when the value of A is within the limit value range, and returns a limit value when the value of A exceeds the limit value range. Means. An upper limit value and a lower limit value can be set as the limit value in “Clip (A)”. In this case, when the value of A exceeds the upper limit value in “Clip (A)”, the input value of A is replaced with the upper limit value. Further, when the value of A is lower than the lower limit value in “Clip (A)”, the input value of A is replaced with the lower limit value.

S208においてdBvTrgtToAnsの値を制限するのは以下の理由による。主要被写体(人物の顔)と背景との輝度が極端に異なるシーンでは、本画像での顔の出力値を目標範囲の上限や下限に合わせても、なお背景部分に白トビや黒つぶれが生じる場合も起こりうる。そのため、S208での露出演算部27は、上記のケースを想定してdBvTrgtToAnsの値を所定の範囲内に制限している。   The reason for limiting the value of dBvTrgtToAns in S208 is as follows. In scenes where the brightness of the main subject (person's face) and the background are extremely different, even if the output value of the face in this image is adjusted to the upper or lower limit of the target range, white background or blackout occurs in the background portion. It can happen. Therefore, the exposure calculation unit 27 in S208 limits the value of dBvTrgtToAns within a predetermined range assuming the above case.

一例として、人物の顔が主要被写体の場合、露出演算部27は、制限値の範囲を露出値に換算して−1から+1.5の範囲に設定する。本画像の白トビした画素では被写体の情報が完全に失われる一方で、黒つぶれの画素ではゲインを上げることで残されている被写体の情報を読み取れる場合もある。そのため、黒つぶれをある程度許容しつつも白トビを極力避ける観点から、一の実施形態では制限値が上記の範囲に設定されている。   As an example, when a person's face is the main subject, the exposure calculation unit 27 converts the limit value range into an exposure value and sets the range from −1 to +1.5. The subject information is completely lost in the overexposed pixels of the main image, while the remaining subject information may be read by increasing the gain in the blackened pixels. Therefore, from the viewpoint of avoiding white stripes as much as possible while allowing blackening to some extent, in one embodiment, the limit value is set in the above range.

なお、露出演算部27は、上記の制限値の範囲を主要被写体の種類に応じて適宜調整してもよい。例えば、他の主要被写体の場合において、露出演算部27は、制限値の範囲を露出値に換算して−1から+1の範囲にしてもよく、あるいは−1から+2の範囲にしてもよい。   Note that the exposure calculation unit 27 may appropriately adjust the range of the limit value according to the type of the main subject. For example, in the case of another main subject, the exposure calculation unit 27 may convert the range of the limit value into the range of −1 to +1 or may be in the range of −1 to +2.

また、S208での露出演算部27は、撮影画面に対する主要被写体の面積比(人物の顔の大きさ)に応じて、上記の上限値および下限値をそれぞれ変動させてもよい。上記の上限値および下限値は、撮影画面に対する主要被写体の面積比に依存した関数により露出演算部27が決定する。   Further, the exposure calculation unit 27 in S208 may vary the upper limit value and the lower limit value according to the area ratio of the main subject to the shooting screen (the size of the person's face). The upper limit value and the lower limit value are determined by the exposure calculation unit 27 by a function depending on the area ratio of the main subject to the shooting screen.

一例として、露出演算部27は、主要被写体の面積比が大きいほど上限値を大きくし、かつ下限値は小さくする。これにより、撮影画面に対する主要被写体の面積比が大きいほど制限値の幅が広がるので、dBvTrgtToAnsの値には制限がかかりにくくなる。一方で、露出演算部27は、主要被写体の面積比が小さいほど上限値を小さくし、かつ下限値は大きくする。これにより、撮影画面に対する主要被写体の面積比が小さいほど制限値の幅が狭まるので、dBvTrgtToAnsの値には制限がかかりやすくなる。   As an example, the exposure calculation unit 27 increases the upper limit value and decreases the lower limit value as the area ratio of the main subject increases. As a result, the range of the limit value increases as the area ratio of the main subject to the shooting screen increases, so that the value of dBvTrgtToAns is less likely to be limited. On the other hand, the exposure calculation unit 27 decreases the upper limit value and increases the lower limit value as the area ratio of the main subject is smaller. As a result, the smaller the area ratio of the main subject to the shooting screen is, the narrower the limit value is, so that the value of dBvTrgtToAns is likely to be limited.

ここで、図10は、主要被写体が人物のときの上限値および下限値を求める関数の一例を示している。図10の縦軸は、露出値に換算された制限値を示し、図10の横軸は撮影画面に対する主要被写体の面積比を示している。   Here, FIG. 10 shows an example of a function for obtaining an upper limit value and a lower limit value when the main subject is a person. The vertical axis in FIG. 10 represents the limit value converted into the exposure value, and the horizontal axis in FIG. 10 represents the area ratio of the main subject to the shooting screen.

図10の例では、上記の面積比が5%以下のときに、上限値は1.5となり、下限値は−1.0となる。また、上記の面積比が5%より大きく50%未満の範囲では、上限値は面積比の大きさに比例して大きくなり、下限値は面積比の大きさに比例して小さくなる。そして、上記の面積比が50%以上のときに、上限値は5.0となり、下限値は−5.0となる。   In the example of FIG. 10, when the area ratio is 5% or less, the upper limit value is 1.5 and the lower limit value is −1.0. In the range where the area ratio is greater than 5% and less than 50%, the upper limit value increases in proportion to the size of the area ratio, and the lower limit value decreases in proportion to the size of the area ratio. And when said area ratio is 50% or more, an upper limit will be 5.0 and a lower limit will be -5.0.

ここで、上記の面積比が50%以上の場合(上限値=5.0、下限値=−5.0)には、露出演算部27が主要被写体に合わせて露出を最大5段分まで補正できる。そのため、この場合には、背景が白トビまたは黒つぶれする確率が高くなり、実質的に補正を制限しないケースと同様となる。   Here, when the area ratio is 50% or more (upper limit = 5.0, lower limit = −5.0), the exposure calculator 27 corrects the exposure to a maximum of five steps according to the main subject. it can. Therefore, in this case, the probability that the background is white or blacked out increases, and this is the same as the case where the correction is not substantially limited.

また、撮影画面内で複数の主要被写体が検出された場合には、露出演算部27は、複数の主要被写体のうちで最もサイズの大きな被写体に基づいて上記の面積比を決定し、上記の上限値および下限値を求めてもよい。あるいは、露出演算部27は、複数の主要被写体の大きさを合計した値で上記の面積比を決定し、上記の上限値および下限値を求めてもよい。なお、図10に示す制限値の関数はあくまで一例であり、制限値の関数を主要被写体の種類に応じて変更するようにしてもよい。   When a plurality of main subjects are detected in the shooting screen, the exposure calculation unit 27 determines the area ratio based on the largest subject among the plurality of main subjects, and sets the upper limit A value and a lower limit value may be obtained. Alternatively, the exposure calculation unit 27 may determine the area ratio by a value obtained by summing the sizes of a plurality of main subjects, and obtain the upper limit value and the lower limit value. The limit value function shown in FIG. 10 is merely an example, and the limit value function may be changed according to the type of the main subject.

その後、露出演算部27は補正演算サブルーチンを終了するとともに、図2に示すS105の処理に復帰する。以上で、図7の流れ図の説明を終了する。   Thereafter, the exposure calculation unit 27 ends the correction calculation subroutine and returns to the process of S105 shown in FIG. Above, description of the flowchart of FIG. 7 is complete | finished.

一の実施形態では、露出演算部27が、主要被写体の代表輝度値BvObjを用いて、主要被写体の種類に応じた輝度値の目標範囲(BvUpper、BvLower)を設定する(S201,S202)。露出演算部27は、輝度値の目標範囲と仮の代表輝度値PreBvAnsとに基づいて、輝度補正量dBvObjを求める(S205からS208)。そして、露出演算部27は、輝度補正量dBvObjを反映した補正後の代表輝度値BvAnsを用いて露出量を演算する(S105)。   In one embodiment, the exposure calculation unit 27 uses the representative luminance value BvObj of the main subject to set a luminance value target range (BvUper, BvLower) according to the type of the main subject (S201, S202). The exposure calculation unit 27 obtains a luminance correction amount dBvObj based on the target range of luminance values and the provisional representative luminance value PreBvAns (S205 to S208). Then, the exposure calculation unit 27 calculates the exposure amount using the corrected representative luminance value BvAns reflecting the luminance correction amount dBvObj (S105).

これにより、一の実施形態の電子カメラでは、主要被写体と背景との輝度差の大きなシーンにおいても、主要被写体と背景との明るさのバランスがとれた好ましい露出量で撮影を行うことが可能となる。   As a result, the electronic camera of one embodiment can perform shooting with a preferable exposure amount in which the brightness of the main subject and the background is balanced even in a scene with a large luminance difference between the main subject and the background. Become.

<他の実施形態の説明>
図11は、他の実施形態における電子カメラの構成例を説明する図である。他の実施形態は、レンズ交換が可能な一眼レフレックス型の電子カメラに露出演算装置を組み込んだ例を示している。
<Description of other embodiments>
FIG. 11 is a diagram illustrating a configuration example of an electronic camera according to another embodiment. Another embodiment shows an example in which an exposure calculation device is incorporated in a single-lens reflex type electronic camera capable of exchanging lenses.

他の実施形態の電子カメラは、カメラ本体31と、撮像光学系を収納したレンズユニット32とを有している。ここで、カメラ本体31およびレンズユニット32には、一対のマウントがそれぞれ設けられている。レンズユニット32は、上記のマウントを介して、カメラ本体31に対して交換可能に接続される。また、上記のマウントにはそれぞれ電気接点が設けられており、カメラ本体31とレンズユニット32との接続時には両者の電気的な接続が確立する(図11でのマウントおよび電気接点の図示は省略する)。   An electronic camera according to another embodiment includes a camera body 31 and a lens unit 32 that houses an imaging optical system. Here, the camera body 31 and the lens unit 32 are each provided with a pair of mounts. The lens unit 32 is interchangeably connected to the camera body 31 via the mount. Each of the mounts is provided with an electrical contact, and electrical connection between the camera body 31 and the lens unit 32 is established (the illustration of the mount and the electrical contact in FIG. 11 is omitted). ).

レンズユニット32は、フォーカシングレンズ33およびレンズドライバ34と、絞り35および絞りドライバ36と、レンズ内メモリ37とを内蔵している。フォーカシングレンズ33は、カメラ本体31からの指示に応じて、レンズドライバ34によって駆動される。また、絞り35は、カメラ本体31からの指示に応じて絞りドライバ36によって駆動される。また、レンズ内メモリ37は、レンズユニット32の情報を記憶したメモリである。なお、レンズ内メモリ37に記憶されている情報は、カメラ本体31に出力される。   The lens unit 32 includes a focusing lens 33 and a lens driver 34, an aperture 35 and an aperture driver 36, and an in-lens memory 37. The focusing lens 33 is driven by a lens driver 34 in response to an instruction from the camera body 31. The diaphragm 35 is driven by a diaphragm driver 36 in response to an instruction from the camera body 31. The in-lens memory 37 is a memory that stores information on the lens unit 32. The information stored in the in-lens memory 37 is output to the camera body 31.

カメラ本体31は、メインミラー41と、メカニカルシャッタ42と、記録用撮像素子43と、サブミラー44と、焦点検出部45と、ファインダ光学系(51〜54)と、解析用撮像素子46と、マイコン47およびモニタ48とを有している。メインミラー41、メカニカルシャッタ42および記録用撮像素子43は、レンズユニット32の光軸に沿って配置される。メインミラー41の後方にはサブミラー44が配置される。また、カメラ本体31の上部にはファインダ光学系が配置されている。さらに、カメラ本体31の下部には焦点検出部45が配置されている。   The camera body 31 includes a main mirror 41, a mechanical shutter 42, a recording image sensor 43, a sub mirror 44, a focus detection unit 45, a finder optical system (51 to 54), an analysis image sensor 46, and a microcomputer. 47 and a monitor 48. The main mirror 41, the mechanical shutter 42, and the recording image sensor 43 are disposed along the optical axis of the lens unit 32. A sub mirror 44 is disposed behind the main mirror 41. A finder optical system is disposed on the upper part of the camera body 31. Further, a focus detection unit 45 is disposed below the camera body 31.

メインミラー41は、不図示の回動軸によって回動可能に軸支されており、観察状態と退避状態とを切り替え可能となっている。観察状態のメインミラー41は、メカニカルシャッタ42および記録用撮像素子43の前方で傾斜配置される。この観察状態のメインミラー41は、レンズユニット32を通過した光束を上方へ反射してファインダ光学系に導く。また、メインミラー41の中央部はハーフミラーとなっている。そして、メインミラー41を透過した一部の光束はサブミラー44によって下方に屈折されて焦点検出部45に導かれる。なお、焦点検出部45は、不図示のセパレータレンズで分割した被写体像の像ズレ量を検出し、この像ズレ量からフォーカシングレンズ33のデフォーカス量を求める。   The main mirror 41 is pivotally supported by a rotation shaft (not shown) and can be switched between an observation state and a retracted state. The main mirror 41 in the observation state is inclined and disposed in front of the mechanical shutter 42 and the recording image sensor 43. The main mirror 41 in the observation state reflects the light beam that has passed through the lens unit 32 upward and guides it to the finder optical system. The central portion of the main mirror 41 is a half mirror. A part of the light beam transmitted through the main mirror 41 is refracted downward by the sub mirror 44 and guided to the focus detection unit 45. The focus detection unit 45 detects an image shift amount of the subject image divided by a separator lens (not shown), and obtains a defocus amount of the focusing lens 33 from the image shift amount.

一方、退避状態のメインミラー41は、サブミラー44とともに上方に跳ね上げられて撮影光路から外れた位置にある。メインミラー41が退避状態にあるときは、レンズユニット32を通過した光束がメカニカルシャッタ42および記録用撮像素子43に導かれる。   On the other hand, the retracted main mirror 41 is flipped upward together with the sub mirror 44 and is at a position off the photographing optical path. When the main mirror 41 is in the retracted state, the light beam that has passed through the lens unit 32 is guided to the mechanical shutter 42 and the recording image sensor 43.

ファインダ光学系は、焦点板51と、コンデンサレンズ52と、ペンタプリズム53と、接眼レンズ54とを有している。焦点板51はメインミラー41の上方に位置し、観察状態のメインミラー41で反射された光束を一旦結像させる。焦点板51で結像した光束はコンデンサレンズ52およびペンタプリズム53を通過し、ペンタプリズム53の入射面に対して90°の角度を持った射出面から接眼レンズ54を介してユーザーの目に到達する。また、焦点板51で結像した光束の一部はコンデンサレンズ52およびペンタプリズム53を通過し、ペンタプリズム53の射出面近傍に配置された再結像レンズ55から解析用撮像素子46に入射する。   The finder optical system includes a focusing screen 51, a condenser lens 52, a pentaprism 53, and an eyepiece lens 54. The focusing screen 51 is positioned above the main mirror 41 and once forms an image of the light beam reflected by the main mirror 41 in the observation state. The light beam formed on the focusing screen 51 passes through the condenser lens 52 and the pentaprism 53, and reaches the user's eyes through the eyepiece 54 from the exit surface having an angle of 90 ° with respect to the incident surface of the pentaprism 53. To do. Further, a part of the light beam imaged by the focusing screen 51 passes through the condenser lens 52 and the pentaprism 53 and enters the analysis imaging element 46 from the reimaging lens 55 disposed in the vicinity of the exit surface of the pentaprism 53. .

ここで、他の実施形態の記録用撮像素子43は、メインミラー41が退避状態にあるときに、本画像やスルー画像の撮像を行う。また、解析用撮像素子46は、メインミラー41が観察状態にあるときにスルー画像の撮像を行う。なお、他の実施形態の解析用撮像素子46は、顔検出処理が可能な解像度でスルー画像を撮像することができる。   Here, the recording image sensor 43 of another embodiment captures the main image and the through image when the main mirror 41 is in the retracted state. The analysis image sensor 46 captures a through image when the main mirror 41 is in an observation state. Note that the analysis imaging element 46 of another embodiment can capture a through image with a resolution that allows face detection processing.

マイコン47は、電子カメラの各部の動作を統括的に制御するプロセッサである。このマイコン47は、記録用撮像素子43または解析用撮像素子46の出力に対して画像処理を施す。また、マイコン47は、上記の一の実施形態における顔検出部および露出演算部と同様の機能を果たす。また、モニタ48は、マイコン47の制御によって各種の画像を表示する。   The microcomputer 47 is a processor that comprehensively controls the operation of each unit of the electronic camera. The microcomputer 47 performs image processing on the output of the recording image sensor 43 or the analysis image sensor 46. Further, the microcomputer 47 performs the same function as the face detection unit and the exposure calculation unit in the one embodiment described above. The monitor 48 displays various images under the control of the microcomputer 47.

(他の実施形態における撮影モードの動作例1)
次に、図12の流れ図を参照しつつ、他の実施形態の電子カメラにおける撮影モードの動作の一例を説明する。図12に示す撮影モードの動作は、レリーズ釦(図11では不図示)の半押し操作によるAF動作開始の指示に応じてマイコン47が開始する。なお、図12の流れ図の開始のときにはメインミラー41は観察状態の位置にある。
(Operation example 1 of shooting mode in other embodiment)
Next, an example of the operation of the shooting mode in the electronic camera of another embodiment will be described with reference to the flowchart of FIG. The operation in the photographing mode shown in FIG. 12 is started by the microcomputer 47 in response to an instruction to start the AF operation by half-pressing a release button (not shown in FIG. 11). At the start of the flowchart of FIG. 12, the main mirror 41 is in the observation state position.

ステップS301:マイコン47は、解析用撮像素子46を駆動させてスルー画像を取得する。このとき、マイコン47は焦点検出部45の出力に基づいてAF制御を実行する。   Step S301: The microcomputer 47 drives the analysis image sensor 46 to acquire a through image. At this time, the microcomputer 47 executes AF control based on the output of the focus detection unit 45.

ステップS302:マイコン47は、スルー画像の出力を用いて、撮影画面内に含まれる被写体の分割測光を実行するとともに、仮の代表輝度値PreBvAnsを求める。なお、S302の処理は、図2のS102に対応するので重複説明は省略する。   Step S302: The microcomputer 47 uses the output of the through image to execute divided photometry of the subject included in the shooting screen, and obtains a temporary representative luminance value PreBvAns. Note that the processing in S302 corresponds to S102 in FIG.

ステップS303:マイコン47は、スルー画像の出力を用いて、撮影画面内から人物の顔領域の位置を検出するとともに、撮影画面内の一部の被写体である主要被写体(顔)の代表輝度値BvObjを求める。なお、S303の処理は、図2のS103に対応するので重複説明は省略する。   Step S303: The microcomputer 47 uses the output of the through image to detect the position of the face area of the person from the shooting screen, and represents the representative luminance value BvObj of the main subject (face) that is a part of the subject in the shooting screen. Ask for. Note that the processing in S303 corresponds to S103 in FIG.

ステップS304:マイコン47は、補正演算サブルーチン(図7のS201からS208の処理)を実行して、輝度補正量dBvObjを求める。   Step S304: The microcomputer 47 executes a correction calculation subroutine (the processing from S201 to S208 in FIG. 7) to obtain the luminance correction amount dBvObj.

ステップS305:マイコン47は、仮の代表輝度値PreBvAns(S302で求めたもの)と、輝度補正量dBvObj(S304で求めたもの)とを用いて、補正後の代表輝度値BvAnsを求める。   Step S305: The microcomputer 47 obtains the corrected representative luminance value BvAns using the temporary representative luminance value PreBvAns (obtained in S302) and the luminance correction amount dBvObj (obtained in S304).

そして、マイコン47は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行なう。なお、S305の処理は、図2のS105に対応するので重複説明は省略する。   The microcomputer 47 calculates an exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and performs exposure control (adjustment of parameters such as shutter speed and aperture value) based on the exposure amount. Do. Note that the processing in S305 corresponds to S105 in FIG.

ステップS306:マイコン47は、レリーズ釦が全押しされたか否かを判定する。上記要件を満たす場合(YES側)にはS308に移行する。一方、上記要件を満たさない場合(NO側)には、マイコン47はS301に戻って上記動作を繰り返す。   Step S306: The microcomputer 47 determines whether or not the release button has been fully pressed. If the above requirement is satisfied (YES side), the process proceeds to S308. On the other hand, if the above requirement is not satisfied (NO side), the microcomputer 47 returns to S301 and repeats the above operation.

ステップS307:マイコン47は、メインミラー41を観察状態の位置から退避状態の位置に駆動させる。   Step S307: The microcomputer 47 drives the main mirror 41 from the observation state position to the retracted position.

ステップS308:マイコン47は、S305で求めた露出量に基づいて、本画像の撮像処理を実行する。記録用撮像素子43によって撮像された本画像のデータは、マイコン47で所定の画像処理が施された後に、不図示の記憶媒体に記録される。以上で、図12の流れ図の説明を終了する。この図12の例においても、上記の一の実施形態とほぼ同様の効果を得ることができる。   Step S308: The microcomputer 47 executes a main image capturing process based on the exposure amount obtained in S305. The data of the main image captured by the recording image sensor 43 is recorded in a storage medium (not shown) after predetermined image processing is performed by the microcomputer 47. Above, description of the flowchart of FIG. 12 is complete | finished. In the example of FIG. 12 as well, substantially the same effect as the one embodiment described above can be obtained.

(他の実施形態における撮影モードの動作例2)
次に、図13の流れ図を参照しつつ、他の実施形態の電子カメラにおける撮影モードの動作の別例を説明する。図13は、記録用撮像素子43のスルー画像を用いてモニタ48にビュー画像を動画表示させる動作モード(ライブビュー撮影モード)での動作例を示している。
(Operation example 2 of shooting mode in other embodiment)
Next, another example of the shooting mode operation in the electronic camera of another embodiment will be described with reference to the flowchart of FIG. FIG. 13 shows an operation example in an operation mode (live view shooting mode) in which a view image is displayed as a moving image on the monitor 48 using a through image of the recording image sensor 43.

図13の動作は、ライブビュー撮影モードの起動操作(例えばモード切替操作など)をマイコン47が受け付けたときに開始される。なお、図13の流れ図の開始のときにはメインミラー41は観察状態の位置にある。   The operation in FIG. 13 is started when the microcomputer 47 receives a start operation (for example, a mode switching operation) in the live view shooting mode. Note that the main mirror 41 is in the observation state at the start of the flowchart of FIG.

ステップS401:マイコン47は、メインミラー41を観察状態の位置から退避状態の位置に駆動させる。   Step S401: The microcomputer 47 drives the main mirror 41 from the observation state position to the retracted position.

ステップS402:マイコン47は、記録用撮像素子43を駆動させてスルー画像を取得する。   Step S402: The microcomputer 47 drives the recording image sensor 43 to acquire a through image.

ステップS403:マイコン47は、スルー画像の出力を用いて、撮影画面内から人物の顔領域の位置を検出する。   Step S403: The microcomputer 47 detects the position of the face area of the person from the shooting screen using the through image output.

ステップS404:マイコン47は、スルー画像から生成したビュー画像をモニタ48に表示する。   Step S404: The microcomputer 47 displays the view image generated from the through image on the monitor 48.

ステップS405:マイコン47は、レリーズ釦が押圧されたか否かを判定する。上記要件を満たす場合(YES側)にはS406に移行する。一方、上記要件を満たさない場合(NO側)には、マイコン47はS402に戻って上記動作を繰り返す。   Step S405: The microcomputer 47 determines whether or not the release button has been pressed. If the above requirement is satisfied (YES side), the process proceeds to S406. On the other hand, if the above requirement is not satisfied (NO side), the microcomputer 47 returns to S402 and repeats the above operation.

ステップS406:マイコン47は、メインミラー41を退避状態の位置から観察状態の位置に駆動させる。なお、S406の時点で記録用撮像素子43はスルー画像を取得できなくなる。そのため、マイコン47は、ミラーダウンの直前に取得したビュー画像をモニタ48に継続的に表示するか、あるいはビュー画像のモニタ48への表示を一時的に停止させる。   Step S406: The microcomputer 47 drives the main mirror 41 from the retracted position to the observation position. Note that the recording image sensor 43 cannot acquire a through image at the time of S406. For this reason, the microcomputer 47 continuously displays the view image acquired immediately before the mirror down on the monitor 48 or temporarily stops the display of the view image on the monitor 48.

ステップS407:マイコン47は、解析用撮像素子46を駆動させて撮影画面内の分割測光を行う。そして、S407でのマイコン47は、分割測光の結果に基づいて、仮の代表輝度値PreBvAnsを求める。また、S407でのマイコン47は、顔領域の位置(S403で検出したもの)に基づいて、撮影画面内の一部の被写体である主要被写体(顔)の代表輝度値BvObjを求める。   Step S407: The microcomputer 47 drives the analysis image sensor 46 to perform divided photometry in the photographing screen. Then, the microcomputer 47 in S407 obtains a temporary representative luminance value PreBvAns based on the result of the divided photometry. Further, the microcomputer 47 in S407 obtains the representative luminance value BvObj of the main subject (face), which is a part of the subject in the shooting screen, based on the position of the face area (detected in S403).

なお、S407でのPreBvAnsの演算は、図2のS102での処理と同様に行われる。また、S407でのBvObjの演算は、図2のS103での処理とほぼ同様に行われる。そのため、これらの処理について重複説明は省略する。   Note that the calculation of PreBvAns in S407 is performed in the same manner as the processing in S102 of FIG. Further, the calculation of BvObj in S407 is performed in substantially the same manner as the processing in S103 of FIG. Therefore, a duplicate description of these processes is omitted.

ステップS408:マイコン47は、補正演算サブルーチン(図7のS201からS208の処理)を実行して、輝度補正量dBvObjを求める。   Step S408: The microcomputer 47 executes a correction calculation subroutine (the processing from S201 to S208 in FIG. 7) to obtain the luminance correction amount dBvObj.

ステップS409:マイコン47は、仮の代表輝度値PreBvAns(S407で求めたもの)と、輝度補正量dBvObj(S408で求めたもの)とを用いて、補正後の代表輝度値BvAnsを求める。   Step S409: The microcomputer 47 obtains the corrected representative luminance value BvAns using the provisional representative luminance value PreBvAns (obtained in S407) and the luminance correction amount dBvObj (obtained in S408).

そして、マイコン47は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行なう。なお、S409の処理は、図2のS105に対応するので重複説明は省略する。   The microcomputer 47 calculates an exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and performs exposure control (adjustment of parameters such as shutter speed and aperture value) based on the exposure amount. Do. Note that the processing in S409 corresponds to S105 in FIG.

ステップS410:マイコン47は、メインミラー41を観察状態の位置から退避状態の位置に駆動させる。   Step S410: The microcomputer 47 drives the main mirror 41 from the observation state position to the retracted position.

ステップS411:マイコン47は、S409で求めた露出量に基づいて、本画像の撮像処理を実行する。記録用撮像素子43によって撮像された本画像のデータは、マイコン47で所定の画像処理が施された後に、不図示の記憶媒体に記録される。以上で、図13の流れ図の説明を終了する。この図13の例においても、上記の一の実施形態とほぼ同様の効果を得ることができる。   Step S411: The microcomputer 47 executes a main image capturing process based on the exposure amount obtained in S409. The data of the main image captured by the recording image sensor 43 is recorded in a storage medium (not shown) after predetermined image processing is performed by the microcomputer 47. Above, description of the flowchart of FIG. 13 is complete | finished. In the example of FIG. 13 as well, substantially the same effect as in the above-described one embodiment can be obtained.

<実施形態の補足事項>
(1)上記の各実施形態では、主要被写体が人物の顔である例を説明したが、顔以外の被写体を主要被写体とする場合にも本発明を適用できる。一例として、青空を主要被写体とする場合、露出演算部は、スルー画像での被写体の明るさや色情報、撮影画面での位置に着目して青空の領域を求め、この領域の輝度情報を用いて主要被写体の代表輝度値BvObjを求めればよい。また、露出演算部は、電子カメラのモード設定(例えば、ポートレートモードや風景モードなど)に主要被写体の種類を判定するようにしてもよい。
<Supplementary items of the embodiment>
(1) In each of the above embodiments, the example in which the main subject is the face of a person has been described. However, the present invention can also be applied to a case where a subject other than the face is the main subject. As an example, when the blue sky is the main subject, the exposure calculation unit obtains the blue sky region by paying attention to the brightness and color information of the subject in the through image, and the position on the shooting screen, and uses the luminance information of this region. The representative luminance value BvObj of the main subject may be obtained. Further, the exposure calculation unit may determine the type of the main subject in the mode setting (for example, portrait mode, landscape mode, etc.) of the electronic camera.

(2)上記の一の実施形態において、CPU17は、レリーズ釦21の半押し操作によるAF開始指示をトリガとして、図2に示す撮影モードの動作を開始させるようにしてもよい。また、上記の一の実施形態における撮影モードの動作時(図2)において、CPU17は、レリーズ釦21の全押し操作の前に半押し操作があった場合には、その時点で焦点調節状態と露出のパラメータを固定するとともに、以後の焦点調節制御と露出制御とを停止するようにしてもよい。   (2) In the one embodiment described above, the CPU 17 may start the operation of the shooting mode shown in FIG. 2 by using an AF start instruction by half-pressing the release button 21 as a trigger. Further, in the shooting mode operation in the above-described one embodiment (FIG. 2), if there is a half-press operation before the release button 21 is fully pressed, the CPU 17 changes the focus adjustment state at that time. The exposure parameters may be fixed and the subsequent focus adjustment control and exposure control may be stopped.

(3)上記の他の実施形態では、露出演算装置が一眼レフレックス型の電子カメラに適用される例を説明したが、観測用撮像素子15を有する一眼レフレックス型の銀塩カメラにも適用できる。   (3) In the above-described other embodiments, the example in which the exposure calculation device is applied to a single-lens reflex type electronic camera has been described. However, the present invention is also applicable to a single-lens reflex type silver salt camera having an observation imaging device 15. it can.

(4)上記の各実施形態での撮像素子は、焦点検出用の受光素子が、本画像等を撮像するための受光素子と同一の受光面に配列されている構成であってもよい。この場合、焦点検出用の受光素子は、それぞれが位相差を有する第1信号列のパターンと第2信号列のパターンとを検出するように構成される。そして、これらのパターンの像ズレ量からカメラが撮像光学系の焦点調節状態を求めればよい(なお、この場合の撮像素子の構成例の図示は省略する)。   (4) The image sensor in each of the above embodiments may have a configuration in which the light receiving elements for focus detection are arranged on the same light receiving surface as the light receiving element for capturing the main image and the like. In this case, the light receiving element for focus detection is configured to detect a pattern of the first signal sequence and a pattern of the second signal sequence each having a phase difference. Then, the camera may determine the focus adjustment state of the image pickup optical system from the image shift amounts of these patterns (note that the configuration example of the image pickup device in this case is not shown).

(5)上記の各実施形態では、顔検出部や露出演算部をソフトウエア的に実現する例を説明したが、これらの構成はASICなどによってハードウエア的に実現しても勿論かまわない。   (5) In each of the above-described embodiments, the example in which the face detection unit and the exposure calculation unit are realized by software has been described. However, these configurations may be realized by hardware by an ASIC or the like.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

13…絞り、15…撮像素子、16…AFE、17…CPU、24…画像処理部、25…顔検出部、27…露出演算部、31…カメラ本体、32…レンズユニット、35…絞り、42…メカニカルシャッタ、43…記録用撮像素子、46…解析用撮像素子、47…マイコン DESCRIPTION OF SYMBOLS 13 ... Aperture, 15 ... Image sensor, 16 ... AFE, 17 ... CPU, 24 ... Image processing part, 25 ... Face detection part, 27 ... Exposure calculation part, 31 ... Camera body, 32 ... Lens unit, 35 ... Aperture, 42 ... Mechanical shutter, 43 ... Recording image sensor, 46 ... Analysis image sensor, 47 ... Microcomputer

Claims (17)

被写体からの光束を測光して第1測光値を求めるとともに、前記被写体のうちの一部の被写体に関する第2測光値を求める測光部と、
前記第2測光値に基づく所定の輝度値の範囲を前記第1測光値の目標範囲として設定する目標設定部と、
前記第1測光値を前記目標範囲に基づいて補正して第3測光値を求める補正部と、
前記補正部による前記第3測光値に基づいて、前記被写体からの光束に対する露出量を求める演算部と、
を備えたことを特徴とする露出演算装置。
A photometric unit for measuring a light flux from a subject to obtain a first photometric value and obtaining a second photometric value for a part of the subjects;
A target setting unit that sets a range of a predetermined luminance value based on the second photometric value as a target range of the first photometric value;
A correction unit that corrects the first photometric value based on the target range to obtain a third photometric value;
A calculation unit for obtaining an exposure amount of the light flux from the subject based on the third photometric value by the correction unit;
An exposure calculation device comprising:
請求項1に記載の露出演算装置において、
前記被写体の像から前記一部の被写体の像を検出する被写体検出部をさらに備え、
前記目標設定部は、前記被写体検出部の検出結果に対する前記第2測光値に基づいて前記目標範囲を設定することを特徴とする露出演算装置。
In the exposure calculation device according to claim 1,
A subject detection unit that detects an image of the part of the subject from the subject image;
The exposure calculation apparatus, wherein the target setting unit sets the target range based on the second photometric value for the detection result of the subject detection unit.
請求項1または請求項2に記載の露出演算装置において、
前記測光部は、前記一部の被写体を複数の領域に分割して測光し、前記複数の領域のそれぞれに対して得られる複数の測光値に基づいて前記第2測光値を求めることを特徴とする露出演算装置。
In the exposure calculation device according to claim 1 or 2,
The photometry unit divides the part of the subject into a plurality of areas, performs photometry, and obtains the second photometry value based on a plurality of photometry values obtained for each of the plurality of areas. Exposure calculation device.
請求項3に記載の露出演算装置において、
前記測光部は、前記複数の測光値のうちの最大値に基づいて前記第2測光値を求めることを特徴とする露出演算装置。
In the exposure calculation device according to claim 3,
The said photometry part calculates | requires a said 2nd photometric value based on the maximum value of these photometric values, The exposure calculating apparatus characterized by the above-mentioned.
請求項3または請求項4に記載の露出演算装置において、
前記測光部は、前記複数の領域をグループ化した複数のグループのそれぞれに対して前記複数の測光値を得ることを特徴とする露出演算装置。
In the exposure calculation device according to claim 3 or 4,
The exposure metering device, wherein the photometry unit obtains the plurality of photometry values for each of a plurality of groups obtained by grouping the plurality of regions.
請求項1から請求項5のいずれか1項に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体の種類に応じて、前記目標範囲を決定することを特徴とする露出演算装置。
In the exposure calculation apparatus according to any one of claims 1 to 5,
The exposure calculation apparatus according to claim 1, wherein the target setting unit determines the target range in accordance with a type of the subject.
請求項1から請求項6のいずれか1項に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体の大きさに応じて前記目標範囲を決定することを特徴とする露出演算装置。
In the exposure calculation device according to any one of claims 1 to 6,
The exposure calculation apparatus, wherein the target setting unit determines the target range according to the size of the part of the subject.
請求項7に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体が複数存在するときに、前記一部の被写体のうちで最もサイズの大きな被写体に基づいて前記目標範囲を決定することを特徴とする露出演算装置。
In the exposure calculation device according to claim 7,
The exposure calculation apparatus according to claim 1, wherein the target setting unit determines the target range based on a subject having the largest size among the some subjects when there are a plurality of the subjects.
請求項7に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体が複数存在するときに、各々の前記一部の被写体の大きさを合計した値に基づいて前記目標範囲を決定することを特徴とする露出演算装置。
In the exposure calculation device according to claim 7,
The target setting unit determines the target range based on a value obtained by summing the sizes of each of the partial subjects when there are a plurality of the partial subjects.
請求項1から請求項9のいずれか1項に記載の露出演算装置において、
前記補正部は、前記第3測光値と前記第1測光値との差を所定値で制限することを特徴とする露出演算装置。
In the exposure calculation device according to any one of claims 1 to 9,
The exposure calculation device, wherein the correction unit limits a difference between the third photometric value and the first photometric value by a predetermined value.
請求項10に記載の露出演算装置において、
前記補正部は、前記一部の被写体の種類に応じて、前記所定値を決定することを特徴とする露出演算装置。
In the exposure calculation device according to claim 10,
The exposure calculation apparatus according to claim 1, wherein the correction unit determines the predetermined value according to a type of the subject.
請求項10または請求項11に記載の露出演算装置において、
前記補正部は、前記一部の被写体の大きさに応じて前記所定値を決定することを特徴とする露出演算装置。
In the exposure calculation apparatus according to claim 10 or 11,
The exposure calculation device, wherein the correction unit determines the predetermined value according to the size of the part of the subject.
請求項12に記載の露出演算装置において、
前記補正部は、前記一部の被写体が複数存在するときに、前記一部の被写体のうちで最もサイズの大きな被写体に基づいて前記所定値を決定することを特徴とする露出演算装置。
In the exposure calculation device according to claim 12,
The exposure calculation apparatus according to claim 1, wherein the correction unit determines the predetermined value based on a subject having the largest size among the some subjects when there are a plurality of the subjects.
請求項12に記載の露出演算装置において、
前記補正部は、前記一部の被写体が複数存在するときに、各々の前記一部の被写体の大きさを合計した値に基づいて前記所定値を決定することを特徴とする露出演算装置。
In the exposure calculation device according to claim 12,
The exposure calculation apparatus, wherein the correction unit determines the predetermined value based on a value obtained by summing the sizes of the partial subjects when the partial subject is present in plural.
請求項1から請求項14のいずれか1項に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体が複数存在するときに、該複数の前記一部の被写体のうちで最もサイズが大きな被写体に対する測光値を前記第2測光値として、前記目標範囲を設定することを特徴とする露出演算装置。
In the exposure calculation apparatus according to any one of claims 1 to 14,
The target setting unit sets the target range by using, as the second photometric value, a photometric value for a subject having the largest size among the plurality of the partial subjects when there are a plurality of the partial subjects. An exposure calculation device.
請求項1から請求項15のいずれか1項に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体が複数存在するときに、各々の前記一部の被写体に対する測光値を被写体のサイズに応じて重み付け平均した値を前記第2測光値として、前記目標範囲を設定することを特徴とする露出演算装置。
In the exposure calculation device according to any one of claims 1 to 15,
The target setting unit, when there are a plurality of some of the subjects, sets a value obtained by weighting and averaging a photometric value for each of the some subjects according to the size of the subject as the second photometric value. An exposure calculation device characterized in that
請求項1から請求項16のいずれか1項に記載の露出演算装置を備えたことを特徴とするカメラ。   The camera provided with the exposure calculating apparatus of any one of Claims 1-16.
JP2009074845A 2008-08-22 2009-03-25 Exposure operation device and camera Pending JP2010072619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009074845A JP2010072619A (en) 2008-08-22 2009-03-25 Exposure operation device and camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008213721 2008-08-22
JP2009074845A JP2010072619A (en) 2008-08-22 2009-03-25 Exposure operation device and camera

Publications (1)

Publication Number Publication Date
JP2010072619A true JP2010072619A (en) 2010-04-02

Family

ID=42204406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009074845A Pending JP2010072619A (en) 2008-08-22 2009-03-25 Exposure operation device and camera

Country Status (1)

Country Link
JP (1) JP2010072619A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010175654A (en) * 2009-01-27 2010-08-12 Sony Corp Imaging apparatus and imaging method
JP2012237948A (en) * 2011-05-13 2012-12-06 Canon Inc Imaging apparatus and control method
JP2013016926A (en) * 2011-06-30 2013-01-24 Nikon Corp Imaging apparatus, imaging system, and imaging method
JP2013040997A (en) * 2011-08-11 2013-02-28 Nikon Corp Exposure calculation unit and camera
EP2981065A1 (en) * 2014-07-31 2016-02-03 Xiaomi Inc. Light metering method and device
JP2017011762A (en) * 2016-10-04 2017-01-12 オリンパス株式会社 Imaging device and imaging method
JP2017046072A (en) * 2015-08-24 2017-03-02 キヤノン株式会社 Image processing system and image processing method, program, and storage medium
US9674454B2 (en) 2014-07-31 2017-06-06 Xiaomi Inc. Light metering methods and devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107555A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic exposing method, and program making computer implement the same method
JP2006311311A (en) * 2005-04-28 2006-11-09 Fuji Photo Film Co Ltd Imaging apparatus and method
JP2007067934A (en) * 2005-08-31 2007-03-15 Canon Inc Imaging apparatus and its control method
JP2007201979A (en) * 2006-01-30 2007-08-09 Sony Corp Exposure control apparatus and imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107555A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic exposing method, and program making computer implement the same method
JP2006311311A (en) * 2005-04-28 2006-11-09 Fuji Photo Film Co Ltd Imaging apparatus and method
JP2007067934A (en) * 2005-08-31 2007-03-15 Canon Inc Imaging apparatus and its control method
JP2007201979A (en) * 2006-01-30 2007-08-09 Sony Corp Exposure control apparatus and imaging apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010175654A (en) * 2009-01-27 2010-08-12 Sony Corp Imaging apparatus and imaging method
US8279300B2 (en) 2009-01-27 2012-10-02 Sony Corporation Imaging device and imaging method
JP2012237948A (en) * 2011-05-13 2012-12-06 Canon Inc Imaging apparatus and control method
JP2013016926A (en) * 2011-06-30 2013-01-24 Nikon Corp Imaging apparatus, imaging system, and imaging method
JP2013040997A (en) * 2011-08-11 2013-02-28 Nikon Corp Exposure calculation unit and camera
EP2981065A1 (en) * 2014-07-31 2016-02-03 Xiaomi Inc. Light metering method and device
US9674454B2 (en) 2014-07-31 2017-06-06 Xiaomi Inc. Light metering methods and devices
JP2017046072A (en) * 2015-08-24 2017-03-02 キヤノン株式会社 Image processing system and image processing method, program, and storage medium
JP2017011762A (en) * 2016-10-04 2017-01-12 オリンパス株式会社 Imaging device and imaging method

Similar Documents

Publication Publication Date Title
JP7145208B2 (en) Method and Apparatus and Storage Medium for Dual Camera Based Imaging
JP5523143B2 (en) Imaging apparatus and automatic focusing method
JP5076716B2 (en) Imaging device
JP4687492B2 (en) Camera, imaging method, exposure calculation device, and program
JP5738080B2 (en) Imaging apparatus and control method thereof
JP4678060B2 (en) Imaging apparatus and image processing program
JP6046905B2 (en) Imaging apparatus, exposure control method, and program
JP2010072619A (en) Exposure operation device and camera
CN111434104B (en) Image processing apparatus, image capturing apparatus, image processing method, and recording medium
JP2015031743A (en) Exposure control device, control method for the same, and control program, and imaging device
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
JP2020017807A (en) Image processing apparatus, image processing method, and imaging apparatus
JP5849515B2 (en) Exposure calculation device and camera
JP2009017427A (en) Imaging device
JP2014197141A (en) Imaging apparatus
JP5747595B2 (en) Exposure control device and camera
JP5120414B2 (en) Electronic camera and image processing program
JP4789776B2 (en) Imaging apparatus and imaging method
JP2013041059A (en) Exposure calculation unit and camera
JP2013040996A (en) Exposure calculation unit and camera
JP6573382B2 (en) Imaging apparatus and photometric method
JP5245644B2 (en) Exposure calculator
JP2010271507A (en) Imaging device, exposure adjustment method, and program
JP6561432B2 (en) Exposure calculation device, exposure control device, and camera
JP5929019B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141118