JP2013041059A - Exposure calculation unit and camera - Google Patents

Exposure calculation unit and camera Download PDF

Info

Publication number
JP2013041059A
JP2013041059A JP2011177119A JP2011177119A JP2013041059A JP 2013041059 A JP2013041059 A JP 2013041059A JP 2011177119 A JP2011177119 A JP 2011177119A JP 2011177119 A JP2011177119 A JP 2011177119A JP 2013041059 A JP2013041059 A JP 2013041059A
Authority
JP
Japan
Prior art keywords
exposure calculation
value
photometric value
subject
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011177119A
Other languages
Japanese (ja)
Inventor
Hidehiko Aoyanagi
英彦 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011177119A priority Critical patent/JP2013041059A/en
Publication of JP2013041059A publication Critical patent/JP2013041059A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an exposure calculation unit capable of obtaining an appropriate exposure amount, and to provide a camera.SOLUTION: An exposure calculation unit 17 includes: a photometric section for obtaining a first photometric value PreBvAns by performing photometry of luminous flux from a subject, and also obtaining a second photometric value BvObj related to a part of the subject; a light emission section 30 for illuminating the subject; a target setting section 27 for setting a prescribed luminance value range BvLower-BvUpper based on the second photometric value BvObj as a target range of the first photometric value PreBvAns; a correction section 27 for obtaining a third photometric value BvAns by correcting the first photometric value PreBvAns on the basis of the target range and presence or absence of light emission of the light emission section 30; and a calculation section 27 for obtaining an exposure amount for the luminous flux from the subject on the basis of the third photometric value BvAns obtained by the correction section 27.

Description

本発明は、露出演算装置およびカメラに関する。   The present invention relates to an exposure calculation device and a camera.

従来から、撮影画面内から主要被写体である人物の顔を検出するとともに、この顔の明るさに着目して露出制御を行うカメラが知られている。一例として、特許文献1には、顔の露出が、顔の大きさに依存した許容幅を持った目標値に近づくように、画面全体の輝度分布から求めた露出値を補正する例が開示されている。   2. Description of the Related Art Conventionally, there has been known a camera that detects the face of a person as a main subject from a shooting screen and controls exposure by paying attention to the brightness of the face. As an example, Patent Document 1 discloses an example in which the exposure value obtained from the luminance distribution of the entire screen is corrected so that the exposure of the face approaches a target value having an allowable width depending on the size of the face. ing.

特開2010−72619号公報JP 2010-72619 A

しかし、従来の技術では、例えば逆光の場合は、顔が適正よりもやや暗く、かつ背景は明るく撮影されるので、この状態でストロボを発光させると顔も背景も明るくなって、露出オーバーな写真になってしまう。
そこで、本発明の目的は、主要被写体と背景との輝度差が大きなシーンにおいて、人物が逆光でも過順光でも、またストロボを使用しても、使用しなくても適正な露出量を求めることのできる手段を提供することにある。
However, with the conventional technology, for example, in the case of backlighting, the face is shot slightly darker than appropriate and the background is bright, so when the flash is fired in this state, both the face and the background become bright and the overexposed photo Become.
Accordingly, an object of the present invention is to obtain an appropriate exposure amount in a scene where the luminance difference between the main subject and the background is large, regardless of whether the person is backlit, over-ordered, or using a strobe. It is to provide means that can be used.

請求項1に記載の発明は、被写体からの光束を測光して第1測光値(PreBvAns)を求めるとともに、前記被写体のうちの一部の被写体に関する第2測光値(BvObj)を求める測光部(27,47)と、前記被写体を照明する発光部(30,60)と、前記第2測光値(BvObj)に基づく所定の輝度値の範囲(BvLower〜BvUpper)を前記第1測光値(PreBvAns)の目標範囲として設定する目標設定部(27,47)と、前記第1測光値(PreBvAns)を前記発光部(30,60)の発光の有無と、前記目標範囲に基づいて補正して第3測光値(BvAns)を求める補正部(27,47)と、前記補正部(27,47)による前記第3測光値(BvAns)に基づいて、前記被写体からの光束に対する露出量を求める演算部(27,47)と、を備えたことを特徴とする露出演算装置(17,47)である。
請求項2に記載の発明は、請求項1に記載の露出演算装置(17,47)において、前記第1測光値(PreBvAns)が前記第2測光値(BvObj)よりも大きい場合であって、かつ前記発光部(30,60)が発光しないとき、前記補正部(27,47)は、前記第3測光値(BvAns)を前記第1測光値(PreBvAns)よりも小さくすることを特徴とする露出演算装置(17,47)である。
請求項3に記載の発明は、請求項1に記載の露出演算装置(17,47)において、前記第1測光値(PreBvAns)が前記第2測光値(BvObj)よりも大きい場合であって、かつ前記発光部(30,60)が発光するとき、前記補正部(27,47)は、前記第3測光値(BvAns)を前記第1測光値(PreBvAns)に等しくすることを特徴とする露出演算装置(17,47)である。
請求項4に記載の発明は、請求項1から3のいずれか1項に記載の露出演算装置(17,47)において、前記第1測光値(PreBvAns)が前記第2測光値(BvObj)よりも小さい場合であって、前記発光部(30,60)が発光するとき、前記補正部(27,47)は、前記発光部(30,60)が発光しないときよりも、前記第3測光値(BvAns)と前記第1測光値(PreBvAns)との差の制限の範囲を広くすることを特徴とする露出演算装置(17,47)である。
請求項5に記載の発明は、請求項1から3のいずれか1項に記載の露出演算装置(17,47)において、前記第1測光値(PreBvAns)が前記第2測光値(BvObj)よりも小さい場合であって、かつ前記発光部(30,60)が発光するとき、前記補正部(27,47)は、前記第3測光値(BvAns)と前記第1測光値(PreBvAns)との差を制限しないことを特徴とする露出演算装置(17,47)である。
請求項6に記載の発明は、請求項1から5のいずれか1項に記載の露出演算装置(17,47)において、前記被写体の像から前記一部の被写体の像を検出する被写体検出部(25)をさらに備え、前記目標設定部(27,47)は、前記被写体検出部(25)の検出結果に対する前記第2測光値(BvObj)に基づいて前記目標範囲を設定することを特徴とする露出演算装置(17,47)である。
請求項7に記載の発明は、請求項1から6のいずれか1項に記載の露出演算装置(17,47)において、前記測光部(27,47)は、前記一部の被写体を複数の領域に分割して測光し、前記複数の領域のそれぞれに対して得られる複数の測光値に基づいて前記第2測光値(BvObj)を求めることを特徴とする露出演算装置(17,47)である。
請求項8に記載の発明は、請求項7に記載の露出演算装置(17,47)において、前記測光部(27,47)は、前記複数の測光値のうちの最大値に基づいて前記第2測光値(BvObj)を求めることを特徴とする露出演算装置(17,47)である。
請求項9に記載の発明は、請求項7または請求項8に記載の露出演算装置(17,47)において、前記測光部(27,47)は、前記複数の領域をグループ化した複数のグループのそれぞれに対して前記複数の測光値を得ることを特徴とする露出演算装置(17,47)である。
請求項10に記載の発明は、請求項1から請求項9のいずれか1項に記載の露出演算装置(17,47)において、前記目標設定部(27,47)は、前記一部の被写体の種類に応じて、前記目標範囲を決定することを特徴とする露出演算装置(17,47)である。
請求項11に記載の発明は、請求項1から請求項10のいずれか1項に記載の露出演算装置(17,47)において、前記目標設定部(27,47)は、前記一部の被写体の大きさに応じて前記目標範囲を決定することを特徴とする露出演算装置(17,47)である。
請求項12に記載の発明は、請求項11に記載の露出演算装置(17,47)において、前記目標設定部(27,47)は、前記一部の被写体が複数存在するときに、前記一部の被写体のうちで最もサイズの大きな被写体に基づいて前記目標範囲を決定することを特徴とする露出演算装置(17,47)である。
請求項13に記載の発明は、請求項11に記載の露出演算装置(17,47)において、前記目標設定部(27,47)は、前記一部の被写体が複数存在するときに、各々の前記一部の被写体の大きさを合計した値に基づいて前記目標範囲を決定することを特徴とする露出演算装置(17,47)である。
請求項14に記載の発明は、請求項1から13のいずれか1項に記載の露出演算装置(17,47)において、前記補正部(27,47)は、前記第3測光値(BvAns)と前記第1測光値(PreBvAns)との差を所定値で制限することを特徴とする露出演算装置(17,47)である。
請求項15に記載の発明は、請求項14に記載の露出演算装置(17,47)において、前記補正部(27,47)は、前記一部の被写体の種類に応じて、前記所定値を決定することを特徴とする露出演算装置(17,47)である。
請求項16に記載の発明は、請求項14または請求項15に記載の露出演算装置(17,47)において、前記補正部(27,47)は、前記一部の被写体の大きさに応じて前記所定値を決定することを特徴とする露出演算装置(17,47)である。
請求項17に記載の発明は、請求項16に記載の露出演算装置(17,47)において、前記補正部(27,47)は、前記一部の被写体が複数存在するときに、前記一部の被写体のうちで最もサイズの大きな被写体に基づいて前記所定値を決定することを特徴とする露出演算装置(17,47)である。
請求項18に記載の発明は、請求項16に記載の露出演算装置(17,47)において、前記補正部(27,47)は、前記一部の被写体が複数存在するときに、各々の前記一部の被写体の大きさを合計した値に基づいて前記所定値を決定することを特徴とする露出演算装置(17,47)である。
請求項19に記載の発明は、請求項1から請求項18のいずれか1項に記載の露出演算装置(17,47)において、前記目標設定部(27,47)は、前記一部の被写体が複数存在するときに、該複数の前記一部の被写体のうちで最もサイズが大きな被写体に対する測光値を前記第2測光値(BvObj)として、前記目標範囲を設定することを特徴とする露出演算装置(17,47)である。
請求項20に記載の発明は、請求項1から請求項19のいずれか1項に記載の露出演算装置(17,47)において、前記目標設定部(27,47)は、前記一部の被写体が複数存在するときに、各々の前記一部の被写体に対する測光値を被写体のサイズに応じて重み付け平均した値を前記第2測光値(BvObj)として、前記目標範囲を設定することを特徴とする露出演算装置(17,47)である。
請求項21に記載の発明は、請求項1から請求項20のいずれか1項に記載の露出演算装置(17,47)を備えたことを特徴とするカメラ(1,100)である。
According to the first aspect of the present invention, a first photometric value (PreBvAns) is obtained by measuring a light flux from a subject, and a second photometric value (BvObj) for a part of the subjects is obtained. 27, 47), a light emitting unit (30, 60) that illuminates the subject, and a predetermined luminance value range (BvLower to BvUpper) based on the second photometric value (BvObj), the first photometric value (PreBvAns) A target setting unit (27, 47) that is set as a target range, and a first photometric value (PreBvAns) that is corrected based on the presence or absence of light emission of the light emitting unit (30, 60) and the target range, A correction unit (27, 47) for obtaining a photometric value (BvAns), and a light flux from the subject based on the third photometric value (BvAns) by the correction unit (27, 47). Calculation unit for obtaining the exposure amount of the (27, 47), an exposure calculation apparatus characterized by comprising (17, 47).
The invention according to claim 2 is the case where the first photometric value (PreBvAns) is larger than the second photometric value (BvObj) in the exposure calculation device (17, 47) according to claim 1, When the light emitting unit (30, 60) does not emit light, the correction unit (27, 47) makes the third photometric value (BvAns) smaller than the first photometric value (PreBvAns). Exposure calculating device (17, 47).
The invention according to claim 3 is the case where the first photometric value (PreBvAns) is larger than the second photometric value (BvObj) in the exposure calculation device (17, 47) according to claim 1, When the light emitting unit (30, 60) emits light, the correction unit (27, 47) makes the third photometric value (BvAns) equal to the first photometric value (PreBvAns). Arithmetic unit (17, 47).
According to a fourth aspect of the present invention, in the exposure calculation device (17, 47) according to any one of the first to third aspects, the first photometric value (PreBvAns) is greater than the second photometric value (BvObj). And when the light emitting unit (30, 60) emits light, the correction unit (27, 47) causes the third photometric value to be larger than when the light emitting unit (30, 60) does not emit light. The exposure calculation device (17, 47) is characterized in that the range of restriction on the difference between (BvAns) and the first photometric value (PreBvAns) is widened.
According to a fifth aspect of the present invention, in the exposure calculation device (17, 47) according to any one of the first to third aspects, the first photometric value (PreBvAns) is greater than the second photometric value (BvObj). And when the light emitting unit (30, 60) emits light, the correction unit (27, 47) calculates the third photometric value (BvAns) and the first photometric value (PreBvAns). An exposure calculation device (17, 47) characterized by not limiting the difference.
According to a sixth aspect of the present invention, in the exposure calculation apparatus (17, 47) according to any one of the first to fifth aspects, a subject detection unit that detects the image of the part of the subject from the image of the subject. (25), wherein the target setting unit (27, 47) sets the target range based on the second photometric value (BvObj) for the detection result of the subject detection unit (25). Exposure calculating device (17, 47).
According to a seventh aspect of the present invention, in the exposure calculation device (17, 47) according to any one of the first to sixth aspects, the photometric unit (27, 47) is configured to apply the plurality of subjects to a plurality of subjects. An exposure calculation device (17, 47) characterized in that the second photometric value (BvObj) is obtained on the basis of a plurality of photometric values obtained for each of the plurality of regions by performing photometry in divided regions. is there.
According to an eighth aspect of the present invention, in the exposure calculation device (17, 47) according to the seventh aspect, the photometric unit (27, 47) is configured to perform the first measurement based on a maximum value among the plurality of photometric values. It is an exposure calculation device (17, 47) characterized by obtaining two photometric values (BvObj).
According to a ninth aspect of the present invention, in the exposure calculation device (17, 47) according to the seventh or eighth aspect, the photometry section (27, 47) includes a plurality of groups obtained by grouping the plurality of regions. The exposure calculation device (17, 47) is characterized in that the plurality of photometric values are obtained for each of the above.
According to a tenth aspect of the present invention, in the exposure calculation device (17, 47) according to any one of the first to ninth aspects, the target setting unit (27, 47) includes the part of the subject. The exposure calculation device (17, 47) is characterized in that the target range is determined in accordance with the type of the exposure calculation device.
An eleventh aspect of the present invention is the exposure calculation device (17, 47) according to any one of the first to tenth aspects, wherein the target setting unit (27, 47) The exposure calculation device (17, 47) is characterized in that the target range is determined in accordance with the size of the exposure calculation device.
According to a twelfth aspect of the present invention, in the exposure calculation device (17, 47) according to the eleventh aspect, the target setting unit (27, 47) is configured such that when the plurality of partial subjects exist, The exposure calculation device (17, 47) is characterized in that the target range is determined on the basis of a subject of the largest size among the subjects of the part.
According to a thirteenth aspect of the present invention, in the exposure calculation device (17, 47) according to the eleventh aspect, the target setting unit (27, 47) is configured such that when there are a plurality of the partial subjects, The exposure calculation device (17, 47), wherein the target range is determined based on a value obtained by summing up the sizes of the partial subjects.
According to a fourteenth aspect of the present invention, in the exposure calculation device (17, 47) according to any one of the first to thirteenth aspects, the correction unit (27, 47) includes the third photometric value (BvAns). And the first photometric value (PreBvAns) are limited by a predetermined value, the exposure calculation device (17, 47).
According to a fifteenth aspect of the present invention, in the exposure calculation device (17, 47) according to the fourteenth aspect, the correction unit (27, 47) sets the predetermined value according to the type of the subject. It is an exposure calculation device (17, 47) characterized by determining.
According to a sixteenth aspect of the present invention, in the exposure calculation device (17, 47) according to the fourteenth or fifteenth aspect, the correction unit (27, 47) is in accordance with the size of the part of the subject. An exposure calculation device (17, 47) characterized by determining the predetermined value.
According to a seventeenth aspect of the present invention, in the exposure calculation device (17, 47) according to the sixteenth aspect, the correction unit (27, 47) is configured such that when there are a plurality of the partial subjects, The exposure calculation device (17, 47) is characterized in that the predetermined value is determined based on a subject having the largest size among the subjects.
According to an eighteenth aspect of the present invention, in the exposure calculation device (17, 47) according to the sixteenth aspect, the correction unit (27, 47) is configured such that when there are a plurality of the partial subjects, The exposure calculation device (17, 47) is characterized in that the predetermined value is determined based on a value obtained by summing up the sizes of some subjects.
According to a nineteenth aspect of the present invention, in the exposure calculation device (17, 47) according to any one of the first to eighteenth aspects, the target setting unit (27, 47) includes the part of the subject. Exposure calculation, wherein the target range is set with the photometric value for the subject having the largest size among the plurality of partial subjects as the second photometric value (BvObj). Device (17, 47).
According to a twentieth aspect of the present invention, in the exposure calculation device (17, 47) according to any one of the first aspect to the nineteenth aspect, the target setting unit (27, 47) includes the part of the subject. The target range is set by using, as the second photometric value (BvObj), a value obtained by weighting and averaging the photometric values for each of the partial subjects according to the size of the subject. Exposure calculating device (17, 47).
According to a twenty-first aspect of the present invention, there is provided a camera (1,100) comprising the exposure calculation device (17, 47) according to any one of the first to twentieth aspects.

本発明では、主要被写体と背景との輝度差が大きなシーンにおいて、人物が逆光でも過順光でも、またストロボを使用しても、使用しなくても適正な露出量を求めることができる。   In the present invention, in a scene where the luminance difference between the main subject and the background is large, it is possible to obtain an appropriate exposure amount regardless of whether the person is backlit or over-ordered, uses a strobe or not.

一の実施形態における電子カメラの構成例を説明するブロック図である。It is a block diagram explaining the structural example of the electronic camera in one Embodiment. 一の実施形態の電子カメラにおける撮影モードの動作例を示す流れ図である。It is a flowchart which shows the operation example of the imaging | photography mode in the electronic camera of one Embodiment. 撮影画面内におけるブロックの分割例を示す図である。It is a figure which shows the example of a division | segmentation of the block in an imaging | photography screen. 図2のS103でのBvObjの値の求め方を模式的に示す図である。It is a figure which shows typically how to obtain | require the value of BvObj in S103 of FIG. 顔領域に対して代表輝度値BvObjを求める範囲の例を示す図である。It is a figure which shows the example of the range which calculates | requires representative luminance value BvObj with respect to a face area. 顔領域の分割測光の例を示す図である。It is a figure which shows the example of the division | segmentation photometry of a face area. 図2のS104における補正演算サブルーチンでの動作例を示す流れ図である。3 is a flowchart showing an operation example of a correction calculation subroutine in S104 of FIG. 一の実施形態での目標範囲と露出量との関係を示す説明図である。It is explanatory drawing which shows the relationship between the target range and exposure amount in one Embodiment. 主要被写体が人物のときの重み付け係数WtWdの関数の一例を示す図である。It is a figure which shows an example of the function of the weighting coefficient WtWd when a main subject is a person. 主要被写体が人物のときの上限値および下限値を求める関数の一例を示す図である。It is a figure which shows an example of the function which calculates | requires the upper limit and lower limit when a main subject is a person. 他の実施形態における電子カメラの構成例を説明する図である。It is a figure explaining the structural example of the electronic camera in other embodiment. 他の実施形態の電子カメラにおける撮影モードの動作の一例を示す流れ図である。It is a flowchart which shows an example of the operation | movement of the imaging | photography mode in the electronic camera of other embodiment. 他の実施形態の電子カメラにおける撮影モードの動作の別例を示す流れ図である。It is a flowchart which shows another example of operation | movement of the imaging | photography mode in the electronic camera of other embodiment.

<一の実施形態の説明>
図1は一の実施形態における電子カメラ1の構成例を説明するブロック図である。一の実施形態は、いわゆるレンズ一体型の電子カメラ1に露出演算装置を組み込んだ例を示している。
<Description of One Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an electronic camera 1 according to an embodiment. One embodiment shows an example in which an exposure calculation device is incorporated in a so-called lens-integrated electronic camera 1.

一の実施形態の電子カメラ1は、撮像光学系11およびレンズ駆動部12と、絞り13および絞り駆動部14と、撮像素子15と、AFE16と、CPU17と、第1メモリ18と、記録I/F(インターフェース)19と、モニタ20と、レリーズ釦21および操作部材22と、第2メモリ23と発光部30とを有している。ここで、レンズ駆動部12、絞り駆動部14、撮像素子15、AFE16、第1メモリ18、記録I/F19、モニタ20、レリーズ釦21、操作部材22、第2メモリ23および発光部30は、それぞれCPU17に接続されている。   The electronic camera 1 according to one embodiment includes an imaging optical system 11 and a lens driving unit 12, an aperture 13 and an aperture driving unit 14, an imaging element 15, an AFE 16, a CPU 17, a first memory 18, a recording I / O. An F (interface) 19, a monitor 20, a release button 21 and an operation member 22, a second memory 23, and a light emitting unit 30 are provided. Here, the lens driving unit 12, the aperture driving unit 14, the imaging device 15, the AFE 16, the first memory 18, the recording I / F 19, the monitor 20, the release button 21, the operation member 22, the second memory 23, and the light emitting unit 30 are Each is connected to the CPU 17.

撮像光学系11は、ズームレンズ、フォーカシングレンズを含む複数のレンズ群で構成されている。撮像光学系11のレンズ位置は、レンズ駆動部12によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。また、絞り13は、撮像素子15に入射する単位時間当たりの光量を調節する。この絞り13の開口量は、CPU17の指示に応じて絞り駆動部14が調整する。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens. The lens position of the imaging optical system 11 is adjusted in the optical axis direction by the lens driving unit 12. For simplicity, the imaging optical system 11 is illustrated as a single lens in FIG. The diaphragm 13 adjusts the amount of light per unit time incident on the image sensor 15. The aperture of the aperture 13 is adjusted by the aperture drive unit 14 in accordance with an instruction from the CPU 17.

撮像素子15は、撮像光学系11および絞り13を通過した光束による被写体像を光電変換してアナログの画像信号を生成する。この撮像素子15の出力はAFE16に接続されている。なお、撮像素子15の電荷蓄積時間および信号読みだしは、いずれもCPU17によって制御される。   The image sensor 15 photoelectrically converts a subject image formed by a light beam that has passed through the imaging optical system 11 and the diaphragm 13 to generate an analog image signal. The output of the image sensor 15 is connected to the AFE 16. Note that the charge accumulation time and signal reading of the image sensor 15 are both controlled by the CPU 17.

ここで、電子カメラ1の撮影モードにおいて、撮像素子15はレリーズ釦21の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮影モードでの撮像素子15は、撮影待機時にも所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。ここで、時系列に取得されたスルー画像のデータは、モニタ20での動画像表示やCPU17による各種の演算処理に使用される。   Here, in the shooting mode of the electronic camera 1, the image sensor 15 captures a still image for recording (main image) in response to the full pressing operation of the release button 21. Further, the imaging element 15 in the shooting mode continuously takes images for observation (through images) at predetermined intervals even during standby for shooting. Here, the data of the through image acquired in time series is used for moving image display on the monitor 20 and various arithmetic processes by the CPU 17.

AFE16は、撮像素子15の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE16は、相関二重サンプリングや、画像信号の増幅や、画像信号のA/D変換を行う。このAFE16から出力される画像信号はCPU17に入力される。なお、CPU17は、AFE16において画像信号のゲインを調整することで、ISO感度に相当する撮像感度を調整できる。   The AFE 16 is an analog front end circuit that performs analog signal processing on the output of the image sensor 15. The AFE 16 performs correlated double sampling, image signal amplification, and image signal A / D conversion. The image signal output from the AFE 16 is input to the CPU 17. The CPU 17 can adjust the imaging sensitivity corresponding to the ISO sensitivity by adjusting the gain of the image signal in the AFE 16.

CPU17は、電子カメラ1の動作を統括的に制御するプロセッサである。このCPU17は、第2メモリ23に格納されたプログラムの実行により、画像処理部24、顔検出部25、焦点調節部26、露出演算部27および発光制御部29として機能する。   The CPU 17 is a processor that comprehensively controls the operation of the electronic camera 1. The CPU 17 functions as an image processing unit 24, a face detection unit 25, a focus adjustment unit 26, an exposure calculation unit 27, and a light emission control unit 29 by executing a program stored in the second memory 23.

画像処理部24は、デジタルの画像信号に対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、画像処理部24は、スルー画像に解像度変換を施して、モニタ表示用のビュー画像を生成する。なお、画像処理部24は、入力された画像のデータに基づいて、ホワイトバランス調整で適用するホワイトバランス調整値を求めることもできる。   The image processing unit 24 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, etc.) on the digital image signal. The image processing unit 24 performs resolution conversion on the through image to generate a view image for monitor display. The image processing unit 24 can also obtain a white balance adjustment value to be applied in the white balance adjustment based on the input image data.

顔検出部25は、スルー画像のデータに顔検出処理を施して、撮影画面内の人物の顔領域を検出する。この顔検出処理は公知のアルゴリズムによって行われる。一例として、顔検出部25は、公知の特徴点抽出処理によって、眉,目,鼻,唇の各端点などの特徴点を画像から抽出するとともに、これらの特徴点に基づいて撮影画面内の顔領域の位置を特定する。あるいは、顔検出部25は、予め用意された顔画像と判定対象の画像との相関係数を求め、この相関係数が一定の閾値を超えるときに判定対象の画像を顔領域と判定してもよい。   The face detection unit 25 performs a face detection process on the live view image data to detect a human face area in the shooting screen. This face detection process is performed by a known algorithm. As an example, the face detection unit 25 extracts feature points such as eyebrow, eye, nose, and lip end points from an image by a known feature point extraction process, and based on these feature points, the face in the shooting screen is extracted. Identify the location of the region. Alternatively, the face detection unit 25 obtains a correlation coefficient between the face image prepared in advance and the determination target image, and determines that the determination target image is a face area when the correlation coefficient exceeds a certain threshold. Also good.

焦点調節部26は、スルー画像のデータを用いて、公知のコントラスト検出によるオートフォーカス(AF)制御を実行する。
露出演算部27は、スルー画像のデータを用いて露出演算を実行するとともに、この露出演算によって求めた露出量に応じて電子カメラ1の露出制御を実行する。
The focus adjustment unit 26 performs autofocus (AF) control by known contrast detection using the through image data.
The exposure calculation unit 27 executes exposure calculation using the live view image data, and executes exposure control of the electronic camera 1 according to the exposure amount obtained by the exposure calculation.

発光制御部29は、レリーズ釦21の全押し操作に応答して、発光部30に予備発光を行わせ、その反射光をモニターした撮像素子15のデータに基づいて本画像を撮像する際の発光(本発光)量を演算し、本画像を撮像する際に発光部30に本発光を行わせる。本発光量の演算は公知のアルゴリズムによって行われる。   The light emission control unit 29 causes the light emitting unit 30 to perform preliminary light emission in response to the full pressing operation of the release button 21 and emits light when the main image is captured based on the data of the image sensor 15 that monitors the reflected light. The amount of (main light emission) is calculated, and the main light emission is performed by the light emitting unit 30 when the main image is captured. The calculation of the light emission amount is performed by a known algorithm.

第1メモリ18は、画像処理部24による画像処理の前工程や後工程で画像のデータを一時的に記憶するバッファメモリである。この第1メモリ18は揮発性の記憶媒体であるSDRAMにより構成される。   The first memory 18 is a buffer memory that temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 24. The first memory 18 is constituted by an SDRAM which is a volatile storage medium.

記録I/F19には、不揮発性の記憶媒体28を接続するためのコネクタが形成されている。そして、記録I/F19は、コネクタに接続された記憶媒体28に対してデータの書き込み/読み込みを実行する。上記の記憶媒体28は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体28の一例としてメモリカードを図示する。   The recording I / F 19 is formed with a connector for connecting the nonvolatile storage medium 28. The recording I / F 19 executes data writing / reading with respect to the storage medium 28 connected to the connector. The storage medium 28 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 28.

モニタ20は、CPU17の指示に応じて各種画像を表示する。例えば、撮影モードでの撮影待機時において、モニタ20にはCPU17の制御により上記のビュー画像が動画表示される。   The monitor 20 displays various images according to instructions from the CPU 17. For example, at the time of shooting standby in the shooting mode, the view image is displayed as a moving image on the monitor 20 under the control of the CPU 17.

レリーズ釦21は、全押し操作による撮像動作開始の指示入力をユーザーから受け付ける。また、操作部材22は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦などで構成される。この操作部材22は、電子カメラ1の動作モードの切替操作などの各種入力をユーザーから受け付ける。   The release button 21 receives an instruction input for starting an imaging operation by a full press operation from the user. The operation member 22 includes, for example, a command dial, a cross-shaped cursor key, a determination button, and the like. The operation member 22 receives various inputs such as a switching operation of the operation mode of the electronic camera 1 from the user.

第2メモリ23はフラッシュメモリ等の不揮発性の記憶媒体で構成される。この第2メモリ23には、CPU17によって実行されるプログラムが記憶される。なお、このプログラムによる撮影モードでの露出演算処理の例については後述する。   The second memory 23 is composed of a nonvolatile storage medium such as a flash memory. The second memory 23 stores a program executed by the CPU 17. An example of the exposure calculation process in the shooting mode by this program will be described later.

(撮影モードの動作例)
次に、図2の流れ図を参照しつつ、一の実施形態の電子カメラ1における撮影モードの動作例を説明する。この撮影モードの動作は、撮影モードの起動操作(例えば電源オン操作やモード切替操作など)をCPU17がユーザーから受け付けたときに開始される。なお、図2に示す撮影モードでは、人物の顔を主要被写体として露出制御を行う例を説明する。
(Operation example in shooting mode)
Next, an operation example of the shooting mode in the electronic camera 1 according to the embodiment will be described with reference to the flowchart of FIG. This shooting mode operation is started when the CPU 17 receives a shooting mode start operation (for example, a power-on operation or a mode switching operation) from the user. In the shooting mode shown in FIG. 2, an example in which exposure control is performed using a human face as a main subject will be described.

ステップS101:CPU17は、撮像素子15を駆動させてスルー画像を取得する。なお、画像処理部24は上記のスルー画像の出力を用いてホワイトバランス調整値を求めるとともに、焦点検出部45は上記のスルー画像の出力を用いてAF制御を実行する(図2の例では、ホワイトバランス調整値の演算やAF制御はバックグラウンドで実行されるものとして、詳細な説明は省略する)。   Step S101: The CPU 17 drives the image sensor 15 to acquire a through image. Note that the image processing unit 24 obtains a white balance adjustment value using the output of the through image, and the focus detection unit 45 performs AF control using the output of the through image (in the example of FIG. 2, The calculation of the white balance adjustment value and the AF control are executed in the background, and detailed description is omitted).

ステップS102:露出演算部27は、スルー画像(S101で取得したもの)の出力を用いて、撮影画面内に含まれる被写体の分割測光を実行する。そして、露出演算部27は、分割測光の結果に基づいて、撮影画面内での被写体の明るさを代表する値(PreBvAns)を求める。
一例として、S102での露出演算部27は、スルー画像の全体(撮影画面)を複数のブロックに分割する(なお、撮影画面内におけるブロックの分割例を図3に示す)。次に、露出演算部27は、1つのブロックに含まれる複数の画素の出力値(階調値)を平均化し、各ブロックにおいて平均輝度値をそれぞれ求める。そして、露出演算部27は、各ブロックからそれぞれ求めた複数の平均輝度値を用いて、仮の代表輝度値PreBvAnsを求める。なお、複数ブロックの平均輝度値から仮の代表輝度値PreBvAnsを求める演算は、例えば、特開2006−106617号公報などに開示された公知の手法によって行われる。
Step S102: The exposure calculation unit 27 uses the output of the through image (acquired in S101) to perform divided photometry of the subject included in the shooting screen. Then, the exposure calculation unit 27 obtains a value (PreBvAns) representative of the brightness of the subject in the shooting screen based on the result of the division photometry.
As an example, the exposure calculation unit 27 in S102 divides the entire through image (shooting screen) into a plurality of blocks (an example of block division in the shooting screen is shown in FIG. 3). Next, the exposure calculation unit 27 averages output values (gradation values) of a plurality of pixels included in one block, and obtains an average luminance value in each block. Then, the exposure calculation unit 27 obtains a temporary representative brightness value PreBvAns using a plurality of average brightness values obtained from each block. Note that the calculation for obtaining the temporary representative luminance value PreBvAns from the average luminance values of a plurality of blocks is performed by a known method disclosed in, for example, JP-A-2006-106617.

ステップS103:顔検出部25は、スルー画像(S101で取得したもの)の出力を用いて、撮影画面内から人物の顔領域の位置を検出する。そして、露出演算部27は、顔検出部25が検出した顔領域の位置に基づいて、撮影画面内の一部の被写体である主要被写体(顔)の代表輝度値BvObjを求める。
ここで、S103での露出演算部27は、撮影画面内から1つの顔領域のみが検出された場合、例えば、以下の(イ)から(へ)のいずれかの手法で主要被写体の代表輝度値BvObjを求める。
Step S103: The face detection unit 25 detects the position of the face area of the person from the shooting screen using the output of the through image (obtained in S101). Then, based on the position of the face area detected by the face detection unit 25, the exposure calculation unit 27 obtains a representative luminance value BvObj of the main subject (face) that is a part of the subject in the shooting screen.
Here, when only one face area is detected from the shooting screen, the exposure calculation unit 27 in S103, for example, represents the representative luminance value of the main subject by any one of the following methods (a) to (f): BvObj is obtained.

(イ)露出演算部27は、スルー画像のうちで顔領域に含まれる複数の画素をグループ化するとともに、このグループ化された複数の画素の平均輝度値を主要被写体の代表輝度値BvObjとする(図4(a)参照)。   (A) The exposure calculation unit 27 groups a plurality of pixels included in the face area in the through image, and sets the average luminance value of the grouped pixels as the representative luminance value BvObj of the main subject. (See FIG. 4 (a)).

(ロ)露出演算部27は、撮影画面を分割したブロック(S102)のうちで顔領域と重複するブロックを抽出し、この抽出したブロックの平均輝度値をさらに平均化して主要被写体の代表輝度値BvObjを求めてもよい(図4(b)参照)。例えば、図4(b)の場合であれば、露出演算部27は、顔領域と重複する4つのブロックの平均輝度値から主要被写体の代表輝度値BvObjを求める。   (B) The exposure calculation unit 27 extracts a block overlapping the face area from the blocks (S102) obtained by dividing the shooting screen, further averages the average luminance value of the extracted block, and represents the representative luminance value of the main subject. BvObj may be obtained (see FIG. 4B). For example, in the case of FIG. 4B, the exposure calculation unit 27 obtains the representative luminance value BvObj of the main subject from the average luminance value of four blocks overlapping the face area.

(ハ)主要被写体と背景との輝度が極端に異なる場合(例えば逆光や過順光のシーンなど)において、顔領域よりも広い領域(図5(a)、図5(b)の領域FA0)から代表輝度値BvObjを求めると、背景の影響を受けて適正な顔の輝度を求められないケースがある。   (C) When the luminance of the main subject and the background are extremely different (for example, a scene of backlight or excessive light), an area wider than the face area (area FA0 in FIGS. 5A and 5B) When the representative luminance value BvObj is obtained from the above, there are cases where the appropriate face luminance cannot be obtained due to the influence of the background.

そこで、露出演算部27は、人物の顔の輪郭に内接する領域(図5(a)に示す領域FA1)から代表輝度値BvObjを求めるようにしてもよい。あるいは、露出演算部27は、人物の顔の輪郭に外接する領域よりもサイズが小さい領域(図5(b)に示す領域FA2)から代表輝度値BvObjを求めるようにしてもよい。   Therefore, the exposure calculation unit 27 may obtain the representative luminance value BvObj from an area inscribed in the outline of the person's face (area FA1 shown in FIG. 5A). Alternatively, the exposure calculation unit 27 may obtain the representative luminance value BvObj from an area (area FA2 shown in FIG. 5B) that is smaller than the area circumscribing the outline of the person's face.

ここで、図5(b)では、領域FA2の重心が領域FA0の重心と重なって配置される例を示す。もっとも、髪の影響を受けにくくするために領域FA2の重心を領域FA0の重心よりも下側にずらしてもよい(この場合の図示は省略する)。また、図5(b)では、領域FA2のサイズが領域FA0の縦横1/2のサイズに設定された例を示す。もっとも、上記の領域FA2のサイズは背景の影響を受けない範囲で適宜設定できる。   Here, FIG. 5B shows an example in which the center of gravity of the area FA2 is arranged so as to overlap the center of gravity of the area FA0. However, the center of gravity of the area FA2 may be shifted below the center of gravity of the area FA0 in order to make it less susceptible to the influence of hair (illustration is omitted in this case). FIG. 5B shows an example in which the size of the area FA2 is set to 1/2 the size of the area FA0. However, the size of the area FA2 can be appropriately set within a range not affected by the background.

(ニ)顔領域内の輝度差が大きい場合(例えば顔の半分に光が当たり、顔の半分が暗くなっている半逆光のシーンなど)には、顔領域の平均輝度値に基づいて代表輝度値BvObjを求めると、顔の明るい部分が白トビするおそれもある。そこで、露出演算部27は、主要被写体の顔を複数の領域に分割して測光し、複数の領域のそれぞれに対して得られる複数の測光値に基づいて代表輝度値BvObjを求めてもよい。   (D) When the luminance difference in the face area is large (for example, a half-backlit scene in which light is applied to half of the face and half of the face is dark), the representative luminance is based on the average luminance value of the face area. When the value BvObj is obtained, the bright part of the face may be overexposed. Therefore, the exposure calculation unit 27 may divide the face of the main subject into a plurality of areas and perform photometry, and obtain the representative luminance value BvObj based on a plurality of photometric values obtained for each of the plurality of areas.

一例として、露出演算部27は、図6に示すように縦横に2×2となるように顔領域を4分割する。そして、露出演算部27は、以下の式(1)により各分割領域(FA41−FA44)の測光値のうちの最大値を代表輝度値BvObjとしてもよい。
BvObj=Max(BvFA41,BvFA42,BvFA43,BvFA44)
…(1)
ここで、本明細書において、「BvFA41−44」は、それぞれ顔領域の分割領域(FA41−44)の平均輝度値を示している。また、本明細書において、「Max(A,B)」は、A,Bのうちの最大値を返す関数を意味する。
As an example, the exposure calculation unit 27 divides the face area into four so as to be 2 × 2 vertically and horizontally as shown in FIG. 6. And the exposure calculating part 27 is good also considering the maximum value among the photometric values of each division area (FA41-FA44) as the representative luminance value BvObj by the following formula | equation (1).
BvObj = Max (BvFA41, BvFA42, BvFA43, BvFA44)
... (1)
Here, in this specification, “BvFA41-44” indicates an average luminance value of each divided area (FA41-44) of the face area. In this specification, “Max (A, B)” means a function that returns the maximum value of A and B.

(ホ)また、上記(ニ)の別例として、露出演算部27は、各領域(FA41−FA44)を縦横で4つにグループ化し、4つのグループのそれぞれで得た測光値のうちの最大値を代表輝度値BvObjとしてもよい。具体的には、露出演算部27は、以下の式(2)から式(6)の演算を順次行えばよい。
BvFaceUp=(BvFA41+BvFA42)/2…(2)
BvFaceDown=(BvFA43+BvFA44)/2…(3)
BvFaceLeft=(BvFA41+BvFA43)/2…(4)
BvFaceRight=(BvFA42+BvFA44)/2…(5)
BvObj=Max(BvFaceUp,BvFaceDown,BvFaceLeft,BvFaceRight)…(6)
(E) As another example of the above (d), the exposure calculation unit 27 groups each region (FA41-FA44) into four in the vertical and horizontal directions, and sets the maximum photometric value obtained in each of the four groups. The value may be the representative luminance value BvObj. Specifically, the exposure calculation unit 27 may sequentially perform the calculations of the following formulas (2) to (6).
BvFaceUp = (BvFA41 + BvFA42) / 2 (2)
BvFaceDown = (BvFA43 + BvFA44) / 2 (3)
BvFaceLeft = (BvFA41 + BvFA43) / 2 (4)
BvFaceRight = (BvFA42 + BvFA44) / 2 (5)
BvObj = Max (BvFaceUp, BvFaceDown, BvFaceLeft, BvFaceRight) (6)

(へ)また、上記(ニ)の別例として、露出演算部27は、各領域の輝度値(BvFA41−44)を重み付け平均して代表輝度値BvObjを求めてもよい。   (F) As another example of the above (d), the exposure calculation unit 27 may obtain the representative luminance value BvObj by weighted averaging of the luminance values (BvFA41-44) of each region.

例えば、露出演算部27は、以下の式(7)において、BvFA41−44を大きい順にBvX[1]−BvX[4]として代入し、代表輝度値BvObjを求めればよい。
BvObj=Σ(BvX[i]×Wt[i])…(7)
For example, in the following formula (7), the exposure calculating unit 27 may substitute BvFA41-44 as BvX [1] -BvX [4] in descending order to obtain the representative luminance value BvObj.
BvObj = Σ (BvX [i] × Wt [i]) (7)

ここで、上記の式(7)での「i」は1−4の整数をとるものとする。また、式(7)での「Σ()」は、変数iによる積和演算結果を返す関数である。また、式(7)の「Wt[i]」は所定の重み付け係数である。一例として、一の実施形態では、Wt[1]=0.6,Wt[2]=0.3,Wt[3]=0.1,Wt[4]=0に設定されるが、各重み付け係数は上記の例に限定されることはない。   Here, “i” in the above formula (7) takes an integer of 1-4. In addition, “Σ ()” in Expression (7) is a function that returns the product-sum operation result by the variable i. Further, “Wt [i]” in Expression (7) is a predetermined weighting coefficient. As an example, in one embodiment, Wt [1] = 0.6, Wt [2] = 0.3, Wt [3] = 0.1, Wt [4] = 0 are set. The coefficient is not limited to the above example.

なお、露出演算部27は、上記の式(7)において、BvFaceUp,BvFaceDown,BvFaceLeft,BvFaceRight(式(2)−(5)で求めた各グループの測光値)を大きい順にBvX[1]−BvX[4]として代入し、代表輝度値BvObjを求めるようにしてもよい。   Note that the exposure calculation unit 27 calculates BvX [1] −BvX in the descending order of BvFaceUp, BvFaceDown, BvFaceLeft, BvFaceRight (photometric values of each group obtained by Expressions (2)-(5)) in the above expression (7). Substituting as [4], the representative luminance value BvObj may be obtained.

一方、S103での露出演算部27は、撮影画面内から複数の顔領域が検出された場合、例えば、以下の(ト)または(チ)の手法で主要被写体の代表輝度値BvObjを求める。   On the other hand, when a plurality of face regions are detected from the shooting screen, the exposure calculation unit 27 in S103 obtains the representative luminance value BvObj of the main subject by the following method (G) or (H), for example.

(ト)露出演算部27は、顔検出部25が検出した複数の顔領域のうちで最もサイズが大きなものを演算対象の顔領域に設定するとともに、この演算対象の顔領域について上記の(イ)から(へ)のいずれかの手法で主要被写体の代表輝度値BvObjを求める。一般的に、人物を撮影するシーンでは、主要被写体となる人物が最も大きくなるようにユーザーは撮影を行うからである。   (G) The exposure calculation unit 27 sets the largest face area of the plurality of face areas detected by the face detection unit 25 as the calculation target face area, and the above-described (I) ) To (f) to obtain the representative luminance value BvObj of the main subject. This is because, in general, in a scene where a person is photographed, the user performs photographing so that the person as the main subject becomes the largest.

(チ)まず、露出演算部27は、上記の(イ)から(へ)のいずれかの手法によって、各々の顔領域に対応する輝度値を求める。そして、露出演算部27は、顔領域ごとに求めた複数の輝度値を、各々の顔領域の大きさに応じて重み付け平均することで、最終的に主要被写体の代表輝度値BvObjを求める。この場合には、撮影画面内の複数の顔の輝度を考慮して露出制御を行うことが可能となる。   (H) First, the exposure calculation unit 27 obtains a luminance value corresponding to each face area by any one of the methods (A) to (F). Then, the exposure calculation unit 27 finally obtains the representative luminance value BvObj of the main subject by weighting and averaging the plurality of luminance values obtained for each face area in accordance with the size of each face area. In this case, exposure control can be performed in consideration of the brightness of a plurality of faces in the shooting screen.

ステップS104:露出演算部27は、補正演算サブルーチンを実行する(補正演算サブルーチンの内容については後述する)。この補正演算サブルーチンでは、主要被写体の代表輝度値BvObj(S103で求めたもの)に基づいて、露出演算部27が輝度補正量dBvObjを求める。   Step S104: The exposure calculation unit 27 executes a correction calculation subroutine (the details of the correction calculation subroutine will be described later). In this correction calculation subroutine, the exposure calculation unit 27 calculates a luminance correction amount dBvObj based on the representative luminance value BvObj of the main subject (obtained in S103).

逆光や過順光などのように主要被写体と背景との輝度が極端に異なる場合、仮の代表輝度値PreBvAnsから直接に露出量を求めると、主要被写体の露出が暗すぎたり明るすぎたりする場合がある。そのため、一の実施形態では、輝度補正量dBvObjによって、主要被写体と背景とのバランスが適正な露出量となるように輝度値を補正する。   When the brightness of the main subject and the background is extremely different, such as in backlighting or excessively forward light, the exposure of the main subject is too dark or too bright when the exposure amount is obtained directly from the temporary representative brightness value PreBvAns There is. Therefore, in one embodiment, the luminance value is corrected by the luminance correction amount dBvObj so that the balance between the main subject and the background becomes an appropriate exposure amount.

ステップS105:露出演算部27は、仮の代表輝度値PreBvAns(S102で求めたもの)と、輝度補正量dBvObj(S104で求めたもの)とを用いて、補正後の代表輝度値BvAnsを下式(8)により求める。
BvAns=PreBvAns+dBvObj…(8)
そして、S105での露出演算部27は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行なう。
Step S105: The exposure calculation unit 27 uses the provisional representative luminance value PreBvAns (obtained in S102) and the luminance correction amount dBvObj (obtained in S104) to calculate the corrected representative luminance value BvAns using the following formula. Obtained by (8).
BvAns = PreBvAns + dBvObj (8)
Then, the exposure calculation unit 27 in S105 calculates the exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and also performs exposure control (shutter time, aperture value, etc.) based on this exposure amount. Adjust each parameter).

ステップS106:CPU17は上記のスルー画像(S101で取得したもの)から生成したビュー画像をモニタ20に表示する。これにより、ユーザーは、モニタ20のビュー画像を参照して、撮影構図を決定するためのフレーミングを行うことができる。このとき、CPU17は、S103で検出した顔領域の位置を示す表示をビュー画像にオーバーレイさせてもよい(ビュー画像の表示例の図示は省略する)。   Step S106: The CPU 17 displays a view image generated from the above-described through image (obtained in S101) on the monitor 20. Accordingly, the user can perform framing for determining the shooting composition with reference to the view image on the monitor 20. At this time, the CPU 17 may overlay the display indicating the position of the face area detected in S103 on the view image (illustration of a display example of the view image is omitted).

ステップS107:CPU17は、レリーズ釦21が全押しされたか否かを判定する。上記要件を満たす場合(YES側)にはS108に移行する。一方、上記要件を満たさない場合(NO側)には、CPU17はS101に戻って上記動作を繰り返す。S107でのNO側の場合には、CPU17はS105で求めた露出量に基づきスルー画像を撮像する。そして、モニタ20には、CPU17の制御によりビュー画像が動画表示されることとなる。   Step S107: The CPU 17 determines whether or not the release button 21 is fully pressed. If the above requirement is satisfied (YES side), the process proceeds to S108. On the other hand, if the above requirement is not satisfied (NO side), the CPU 17 returns to S101 and repeats the above operation. In the case of NO in S107, the CPU 17 captures a through image based on the exposure amount obtained in S105. The view image is displayed as a moving image on the monitor 20 under the control of the CPU 17.

ステップS108:CPU17は、S105で求めた露出量に基づいて、本画像の撮像処理を実行する。撮像素子15によって撮像された本画像のデータは、AFE16および画像処理部24で所定の処理が施された後に、記録I/F19を介して記憶媒体28に記録される。以上で、図2に示す撮影モードの動作例の説明を終了する。   Step S108: The CPU 17 executes an image capturing process for the main image based on the exposure amount obtained in S105. The data of the main image captured by the image sensor 15 is recorded in the storage medium 28 via the recording I / F 19 after being subjected to predetermined processing by the AFE 16 and the image processing unit 24. The description of the operation example of the shooting mode illustrated in FIG.

(補正演算サブルーチンの説明)
次に、図7の流れ図を参照しつつ、図2のS104における補正演算サブルーチンでの動作例を説明する。
(Explanation of correction calculation subroutine)
Next, an operation example of the correction calculation subroutine in S104 of FIG. 2 will be described with reference to the flowchart of FIG.

ステップS201:露出演算部27は、主要被写体の代表輝度値BvObj(S103で求めたもの)を用いて、下式(9)により輝度目標値BvTrgtを求める。
BvTrgt=BvObj−OfsObj…(9)
ここで、本明細書において「OfsObj」は、主要被写体の種類ごとに予め設定されているオフセット値を意味する。このOfsObjの値は、本画像でのグレーレベルの出力値と、本画像において主要被写体の再現目標となる出力値との差分から求められる。
Step S201: The exposure calculation unit 27 uses the representative luminance value BvObj (obtained in S103) of the main subject to obtain the luminance target value BvTrgt by the following equation (9).
BvTrgt = BvObj−OfsObj (9)
Here, “OfsObj” in this specification means an offset value set in advance for each type of main subject. The value of OfsObj is obtained from the difference between the output value of the gray level in the main image and the output value that is the reproduction target of the main subject in the main image.

カメラの自動露出演算においては、主要被写体と同じ輝度を有する無彩色の被写体を撮影する場合、原則として上記の無彩色の被写体が本画像にてグレーレベルで再現されるように露出量が演算される。一方、主要被写体の種類によっては、本画像での再現目標の出力値をグレーレベルからシフトさせた方が好ましい場合もある。一例として、主要被写体が人物の顔であれば、本画像での再現目標の出力値をグレーレベルよりもやや明るめの値にする方が好ましい画像となる。そのため、S201での露出演算部27は、OfsObjを用いて主要被写体の種類毎に輝度値の調整を行っている。   In automatic camera exposure calculation, when shooting an achromatic subject with the same brightness as the main subject, the exposure amount is calculated so that, as a general rule, the above-mentioned achromatic subject is reproduced at the gray level in the main image. The On the other hand, depending on the type of the main subject, it may be preferable to shift the output value of the reproduction target in the main image from the gray level. As an example, if the main subject is a human face, it is preferable to set the output value of the reproduction target in the main image to a value slightly brighter than the gray level. Therefore, the exposure calculation unit 27 in S201 adjusts the luminance value for each type of main subject using OfsObj.

以下、主要被写体が人物の顔である場合のOfsObjの演算例を説明する。なお、一の実施形態では、本画像の階調が8bit(出力値0〜255)であることを前提として説明を行う。   Hereinafter, an example of the calculation of OfsObj when the main subject is a person's face will be described. In the embodiment, the description will be made on the assumption that the gradation of the main image is 8 bits (output value 0 to 255).

この例では、グレーレベルの出力値を120とし、本画像での顔の再現目標の出力値を150とする。よって、この場合のOfsObjは、本画像において顔の出力値を120から150に明るくするための補正量となる。なお、露出演算では被写体の輝度値が小さくなるほどオーバー側の露出量となることから、上記の式(9)ではBvObjの値からOfsObjの値を減算して輝度値を小さくしている。   In this example, the output value of the gray level is 120, and the output value of the face reproduction target in the main image is 150. Therefore, OfsObj in this case is a correction amount for increasing the face output value from 120 to 150 in the main image. In the exposure calculation, as the subject brightness value decreases, the exposure amount on the over side becomes. Therefore, in the above equation (9), the value of OfsObj is subtracted from the value of BvObj to reduce the brightness value.

また、本画像での出力値は、画像処理部24での階調変換処理によって、撮像素子15の出力レベルに対して非線形な状態に変換されている。したがって、露出演算部27は、本画像での出力値に逆階調変換処理を施した状態で出力値を比較することで、OfsObjの値を求めることができる。なお、人物の顔が主要被写体の場合のOfsObjの値は、下式(10)によって求められる。
OfsObj=Log2(RvG(150)/RvG(120))…(10)
ここで、本明細書において「Log2(A)」は、2を底とするAの対数を返す関数を意味する。また、本明細書において「RvG(B)」は、逆階調変換に相当する関数であって、本画像での出力値を示すBに対して階調変換前の入力値を返す関数を意味する。
Further, the output value in the main image is converted into a non-linear state with respect to the output level of the image sensor 15 by the gradation conversion processing in the image processing unit 24. Therefore, the exposure calculation unit 27 can obtain the value of OfsObj by comparing the output value in a state where the output value in the main image is subjected to the reverse gradation conversion process. Note that the value of OfsObj when the human face is the main subject is obtained by the following equation (10).
OfsObj = Log2 (RvG (150) / RvG (120)) (10)
In this specification, “Log2 (A)” means a function that returns the logarithm of A with 2 as the base. Further, in this specification, “RvG (B)” is a function corresponding to inverse gradation conversion, and means a function that returns an input value before gradation conversion with respect to B indicating an output value in the main image. To do.

なお、S201での他の例として、主要被写体が青空である場合のOfsObjの演算例を説明する。本画像での青空の再現目標の出力値を175とすると、この場合のOfsObjの値は、下式(11)で求めることができる。
OfsObj=Log2(RvG(175)/RvG(120))…(11)
As another example of S201, an example of the calculation of OfsObj when the main subject is a blue sky will be described. If the output value of the blue sky reproduction target in the main image is 175, the value of OfsObj in this case can be obtained by the following equation (11).
OfsObj = Log2 (RvG (175) / RvG (120)) (11)

ステップS202:露出演算部27は、輝度目標値BvTrgt(S201で求めたもの)に基づいて、輝度値の目標範囲を設定する。具体的には、S202の露出演算部27は、下式(12)によって目標範囲の上限値BvUpperを求めるとともに、下式(13)によって目標範囲の下限値BvLowerを求める。
BvUpper=BvTrgt+BvSth1…(12)
BvLower=BvTrgt+BvSth2…(13)
ここで、「BvSth1」と「BvSth2」とは、それぞれ主要被写体の種類ごとに設定される値である。したがって、S202で設定される輝度値の目標範囲の幅は、主要被写体の種類に応じて変化しうる。
Step S202: The exposure calculation unit 27 sets a target range of luminance values based on the target luminance value BvTrgt (obtained in S201). Specifically, the exposure calculation unit 27 in S202 calculates the upper limit value BvUpper of the target range by the following formula (12), and calculates the lower limit value BvLower of the target range by the following formula (13).
BvUpper = BvTrgt + BvSth1 (12)
BvLower = BvTrgt + BvSth2 (13)
Here, “BvSth1” and “BvSth2” are values set for each type of main subject. Therefore, the width of the target range of the brightness value set in S202 can change according to the type of the main subject.

S202において、輝度値の目標範囲を設定するのは以下の理由による。主要被写体(人物の顔)と背景との輝度が極端に異なるシーン(例えば逆光や過順光の場合など)では、顔の輝度に基づいて露出量を決定すると、背景部分に白トビや黒つぶれが生じて撮影した画像の見映えが不自然となってしまう。   In S202, the target range of the luminance value is set for the following reason. In scenes where the brightness of the main subject (person's face) and the background are extremely different (for example, in the case of backlight or over-order light), if the exposure is determined based on the brightness of the face, Will appear and the image taken will be unnatural.

一方、上記のシーンでは、背景とのバランスを考慮して主要被写体の明るさを決定した方が画像全体としてはむしろ自然な露出になる。したがって、露出演算部27は、BvUpperおよびBvLowerによって目標とする輝度値に幅をもたせることで、輝度差の大きなシーンに対応できるようにしている。   On the other hand, in the above scene, it is rather natural exposure for the entire image when the brightness of the main subject is determined in consideration of the balance with the background. Therefore, the exposure calculation unit 27 can deal with a scene with a large luminance difference by giving a range to the target luminance value by BvUpper and BvLower.

例えば、逆光のシーンにおける本画像での人物の顔の出力値は110でもよい。そのため、人物の顔が主要被写体の場合のBvSth1の値は下式(14)で求めることができる。同様に、過順光のシーンにおける人物の顔の出力値は180でもよい。そのため、人物の顔が主要被写体の場合のBvSth2の値は、下式(15)で求めることができる。
BvSth1=Log2(RvG(150)/RvG(110))…(14)
BvSth2=Log2(RvG(150)/RvG(180))…(15)
For example, the output value of a human face in the main image in a backlight scene may be 110. Therefore, the value of BvSth1 when the person's face is the main subject can be obtained by the following equation (14). Similarly, the output value of a person's face in an over-order scene may be 180. Therefore, the value of BvSth2 when the person's face is the main subject can be obtained by the following equation (15).
BvSth1 = Log2 (RvG (150) / RvG (110)) (14)
BvSth2 = Log2 (RvG (150) / RvG (180)) (15)

ここで、図8を参照しつつ、目標範囲と露出量との関係について説明する。上記の式(14)で求めたBvSth1は、BvTrgtに対してプラスの補正値となって、BvUpperの値はBvTrgtよりも大きくなる。そして、BvUpperに基づいて露出量を求めると、BvTrgtに基づく露出量よりも露出がアンダー側になる。これにより、BvUpperに基づく露出量で本画像を撮影すると、本画像での顔の出力値は上記の再現目標よりも低い値となる。   Here, the relationship between the target range and the exposure amount will be described with reference to FIG. BvSth1 obtained by the above equation (14) is a positive correction value with respect to BvTrgt, and the value of BvUpper is larger than BvTrgt. Then, when the exposure amount is obtained based on BvUpper, the exposure is underside than the exposure amount based on BvTrgt. As a result, when the main image is captured with the exposure amount based on BvUpper, the face output value in the main image is lower than the above reproduction target.

一方、上記の式(15)で求めたBvSth2は、BvTrgtに対してマイナスの補正値となって、BvLowerの値はBvTrgtよりも小さくなる。そして、BvLowerに基づいて露出量を求めると、BvTrgtに基づく露出量よりも露出がオーバー側になる。これにより、BvLowerに基づく露出量で本画像を撮影すると、本画像での顔の出力値は上記の再現目標よりも高い値となる。   On the other hand, BvSth2 obtained by the above equation (15) is a negative correction value with respect to BvTrgt, and the value of BvLower is smaller than BvTrgt. Then, when the exposure amount is obtained based on BvLower, the exposure is over the exposure amount based on BvTrgt. As a result, when the main image is captured with the exposure amount based on BvLower, the face output value in the main image is higher than the above reproduction target.

なお、S202での他の例として、主要被写体が青空である場合のBvSth1およびBvSth2の演算例を説明する。本画像での青空の再現目標の出力値の幅を100〜200とすると、この場合のBvSth1の値は下式(16)で求めることができる。また、この場合のBvSth2の値は下式(17)で求めることができる。
BvSth1=Log2(RvG(175)/RvG(100))…(16)
BvSth2=Log2(RvG(175)/RvG(200))…(17)
As another example in S202, a calculation example of BvSth1 and BvSth2 when the main subject is a blue sky will be described. Assuming that the output range of the blue sky reproduction target in the main image is 100 to 200, the value of BvSth1 in this case can be obtained by the following equation (16). Further, the value of BvSth2 in this case can be obtained by the following equation (17).
BvSth1 = Log2 (RvG (175) / RvG (100)) (16)
BvSth2 = Log2 (RvG (175) / RvG (200)) (17)

ところで、上記の例では、逆光のシーンにおける本画像での人物の顔の出力は、背景とのバランスを考慮して110でもよいと説明した。しかし、撮影画面に対する人物の顔の面積比(人物の顔の大きさ)が大きい場合には、顔の明るさが本画像の明るさの印象を決めることとなる。逆に、撮影画面に対する人物の顔の面積比が小さい場合には、背景の明るさが本画像の明るさの印象を決めることとなる。そのため、露出演算部27は、撮影画面に対する主要被写体の面積比に応じて輝度値の目標範囲の幅を調整してもよい。この場合において、露出演算部27は、上記のBvSth1およびBvSth2にそれぞれ重み付けをした値(BvSth1’,BvSth2’)を以下の式(18)、式(19)で求める。そして、露出演算部27は、BvSth1’,BvSth2’を用いてBvUpperおよびBvLowerをそれぞれ求めればよい。
BvSth1’=BvSth1×WtWd…(18)
BvSth2’=BvSth2×WtWd…(19)
In the above example, it has been described that the output of the human face in the main image in a backlight scene may be 110 in consideration of the balance with the background. However, when the area ratio of the human face to the shooting screen (the size of the human face) is large, the brightness of the face determines the impression of the brightness of the main image. Conversely, when the area ratio of the person's face to the shooting screen is small, the brightness of the background determines the impression of the brightness of the main image. Therefore, the exposure calculation unit 27 may adjust the width of the target range of the luminance value according to the area ratio of the main subject to the shooting screen. In this case, the exposure calculation unit 27 obtains values (BvSth1 ′, BvSth2 ′) obtained by weighting the above BvSth1 and BvSth2 by the following equations (18) and (19). Then, the exposure calculation unit 27 may obtain BvUpper and BvLower using BvSth1 ′ and BvSth2 ′.
BvSth1 ′ = BvSth1 × WtWd (18)
BvSth2 ′ = BvSth2 × WtWd (19)

ここで、式(18)、式(19)の「WtWd」は、目標範囲の幅の重み付け係数を示している。上記の重み付け係数WtWdの値は、撮影画面に対する主要被写体の面積比に依存した関数により露出演算部27が決定する。この重み付け係数WtWdは、撮影画面に対する主要被写体の面積比が小さい場合には大きな値となり、撮影画面に対する主要被写体の面積比が大きい場合には小さな値となる。   Here, “WtWd” in Expression (18) and Expression (19) indicates a weighting coefficient for the width of the target range. The value of the weighting coefficient WtWd is determined by the exposure calculation unit 27 using a function depending on the area ratio of the main subject to the shooting screen. The weighting coefficient WtWd is a large value when the area ratio of the main subject to the shooting screen is small, and is a small value when the area ratio of the main subject to the shooting screen is large.

ここで、図9は、主要被写体が人物のときの重み付け係数WtWdの関数の一例を示している。図9の縦軸は、WtWdの値を示し、図9の横軸は撮影画面に対する主要被写体の面積比を示している。   Here, FIG. 9 shows an example of a function of the weighting coefficient WtWd when the main subject is a person. The vertical axis in FIG. 9 indicates the value of WtWd, and the horizontal axis in FIG. 9 indicates the area ratio of the main subject to the shooting screen.

図9の例では、上記の面積比が5%以下のときに、WtWdの値は1.0となる。また、上記の面積比が5%より大きく50%未満の範囲では、WtWdの値は面積比の大きさに比例して低下してゆく。そして、上記の面積比が50%以上のときに、WtWdの値は0.0となる。   In the example of FIG. 9, when the area ratio is 5% or less, the value of WtWd is 1.0. Further, in the range where the area ratio is greater than 5% and less than 50%, the value of WtWd decreases in proportion to the size of the area ratio. When the area ratio is 50% or more, the value of WtWd is 0.0.

すなわち、撮影画面に対する主要被写体の面積比が小さい場合には、BvSth1’およびBvSth2’の値は大きくなるので、輝度値の目標範囲の幅は大きくなる。一方、撮影画面に対する主要被写体の面積比が大きい場合には、BvSth1’およびBvSth2’の値は小さくなるので、輝度値の目標範囲の幅は小さくなる。   That is, when the area ratio of the main subject to the shooting screen is small, the values of BvSth1 'and BvSth2' are large, so the width of the target range of luminance values is large. On the other hand, when the area ratio of the main subject to the shooting screen is large, the values of BvSth1 'and BvSth2' are small, so the width of the target range of luminance values is small.

また、撮影画面内で複数の主要被写体が検出された場合には、露出演算部27は、複数の主要被写体のうちで最もサイズの大きな被写体に基づいて上記の面積比を決定し、BvSth1’およびBvSth2’を用いて輝度値の目標範囲の幅を求めてもよい。あるいは、露出演算部27は、複数の主要被写体の大きさを合計した値で上記の面積比を決定し、BvSth1’およびBvSth2’を用いて輝度値の目標範囲の幅を求めてもよい。なお、図9に示す重み付け係数WtWdの関数はあくまで一例であり、重み付け係数WtWdの関数を主要被写体の種類に応じて変更するようにしてもよい。   When a plurality of main subjects are detected in the shooting screen, the exposure calculation unit 27 determines the area ratio based on the subject having the largest size among the plurality of main subjects, and BvSth1 ′ and The width of the target range of luminance values may be obtained using BvSth2 ′. Alternatively, the exposure calculation unit 27 may determine the area ratio by a value obtained by summing the sizes of a plurality of main subjects, and obtain the width of the target range of luminance values using BvSth1 'and BvSth2'. Note that the function of the weighting coefficient WtWd shown in FIG. 9 is merely an example, and the function of the weighting coefficient WtWd may be changed according to the type of the main subject.

ステップS203:露出演算部27は、PreBvAnsがBvUpperよりも大きいか否かを判定する。上記要件を満たす場合(YES側)にはS207に移行する。一方、上記要件を満たさない場合(NO側)にはS204に移行する。   Step S203: The exposure calculation unit 27 determines whether PreBvAns is larger than BvUpper. If the above requirement is satisfied (YES side), the process proceeds to S207. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S204.

ステップS204:露出演算部27は、PreBvAnsがBvLowerよりも小さいか否かを判定する。上記要件を満たす場合(YES側)にはS206に移行する。一方、上記要件を満たさない場合(NO側)にはS205に移行する。   Step S204: The exposure calculation unit 27 determines whether PreBvAns is smaller than BvLower. If the above requirement is satisfied (YES side), the process proceeds to S206. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S205.

ステップS205:この場合は、仮の代表輝度値PreBvAnsから求めた露出量で本画像の撮影を行うと、本画像での顔の出力値は110から180の範囲に収まると予想できる。そのため、露出演算部27は、dBvOBjを求めるときの仮補正量dBvTrgtToAnsに「0」値を代入する。なお、露出補正部27は、S205の後にS210へ処理を移行する。   Step S205: In this case, if the main image is shot with the exposure amount obtained from the provisional representative luminance value PreBvAns, it can be predicted that the face output value in the main image falls within the range of 110 to 180. Therefore, the exposure calculation unit 27 substitutes a “0” value for the provisional correction amount dBvTrgtToAns when determining dBvOBj. The exposure correction unit 27 moves the process to S210 after S205.

ステップS206:この場合は、仮の代表輝度値PreBvAnsから求めた露出量で本画像の撮影を行うと、本画像での顔の出力値は180よりも高くなると予想できる。そのため、露出演算部27は、本画像での顔の出力値を180にするために、仮補正量dBvTrgtToAnsの値を下式(20)によって求める。
dBvTrgtToAns=BvLower−PreBvAns…(20)
このS206の場合のdBvTrgtToAnsは、輝度値を大きくする補正量に相当する。輝度値を大きくする方向に補正すると露出演算のときに露出量はアンダー側となるため、本画像では明るい顔が暗めに補正されることとなる。なお、露出補正部は、S206の後にS209へ処理を移行する。
Step S206: In this case, if the main image is captured with the exposure amount obtained from the temporary representative luminance value PreBvAns, it can be predicted that the face output value in the main image will be higher than 180. Therefore, the exposure calculation unit 27 calculates the value of the provisional correction amount dBvTrgtToAns by the following equation (20) in order to set the face output value in the main image to 180.
dBvTrgtToAns = BvLower-PreBvAns (20)
DBvTrgtToAns in the case of S206 corresponds to a correction amount for increasing the luminance value. If the luminance value is corrected in the increasing direction, the exposure amount becomes underside during the exposure calculation, so that a bright face is corrected to be darker in the main image. The exposure correction unit proceeds to S209 after S206.

ステップS207:露出演算部27は、本画像撮影時に発光制御部29が発光部30を発光させるか否かを判定する。発光させる場合(YES側)にはS205に移行する。一方、発光させない場合(NO側)にはS208に移行する。   Step S207: The exposure calculation unit 27 determines whether or not the light emission control unit 29 causes the light emitting unit 30 to emit light when the main image is captured. When the light is emitted (YES side), the process proceeds to S205. On the other hand, when not emitting light (NO side), the process proceeds to S208.

本画像撮影時に発光制御部29が発光部30を発光させるか否かは、操作部材22によってユーザーが設定してもよいし、被写界の輝度情報と公知のアルゴリズムに基づいて露出演算部27が決定しても良い。   Whether or not the light emission control unit 29 causes the light emitting unit 30 to emit light at the time of actual image shooting may be set by the user by the operation member 22 or based on the luminance information of the object scene and a known algorithm, the exposure calculation unit 27. May be determined.

ステップS208:この場合は、仮の代表輝度値PreBvAnsから求めた露出量で本画像の撮影を行うと、本画像での顔の出力値は110よりも低くなると予想できる。そのため、露出演算部27は、本画像での顔の出力値を110にするために、仮補正量dBvTrgtToAnsの値を下式(21)によって求める。
dBvTrgtToAns=BvUpper−PreBvAns…(21)
このS208の場合のdBvTrgtToAnsは、輝度値を小さくする補正量に相当する。輝度値を小さくする方向に補正すると露出演算のときに露出量はオーバー側となるため、本画像では暗めの顔が明るく補正されることとなる。
Step S208: In this case, if the main image is captured with the exposure amount obtained from the temporary representative luminance value PreBvAns, it can be predicted that the face output value in the main image will be lower than 110. Therefore, the exposure calculation unit 27 calculates the value of the temporary correction amount dBvTrgtToAns by the following equation (21) in order to set the face output value in the main image to 110.
dBvTrgtToAns = BvUpper-PreBvAns (21)
DBvTrgtToAns in the case of S208 corresponds to a correction amount for reducing the luminance value. If the luminance value is corrected in the direction of decreasing the exposure value, the exposure amount is over during the exposure calculation, so that the dark face is corrected brightly in the main image.

ステップS209:露出演算部27は、本画像撮影時に発光制御部29が発光部30を発光させるか否かを判定する。発光させない場合(NO側)にはS210に移行し、発光させる場合(YES側)には、S211に移行する。
ステップS211:発光させる場合(YES側)、露出演算部27は、仮補正量dBvTrgtToAns(S206で求めたもの)を、下で述べるクリップ処理を行わずに輝度補正量dBvObjとし、補正演算サブルーチンを終了するとともに、図2に示すS105の処理に復帰する。
Step S209: The exposure calculation unit 27 determines whether or not the light emission control unit 29 causes the light emitting unit 30 to emit light when the main image is captured. When not emitting light (NO side), the process proceeds to S210, and when emitting light (YES side), the process proceeds to S211.
Step S211: When light is emitted (YES side), the exposure calculation unit 27 sets the provisional correction amount dBvTrgtToAns (obtained in S206) to the luminance correction amount dBvObj without performing the clip processing described below, and ends the correction calculation subroutine. At the same time, the process returns to S105 shown in FIG.

ステップS210:露出演算部27は、仮補正量dBvTrgtToAns(S205、S206、S208のいずれかで求めたもの)を所定の制限値の範囲に制限して、輝度補正量dBvObjを求める。例えば、S210での露出演算部27は、以下の式(22)によって輝度補正量dBvObjを求める。
dBvObj=Clip(dBvTrgtToAns)…(22)
Step S210: The exposure calculation unit 27 limits the provisional correction amount dBvTrgtToAns (obtained in any one of S205, S206, and S208) to a predetermined limit value range to obtain the luminance correction amount dBvObj. For example, the exposure calculation unit 27 in S210 calculates the luminance correction amount dBvObj by the following equation (22).
dBvObj = Clip (dBvTrgtToAns) (22)

ここで、式(13)の「Clip(A)」は、Aの値が制限値の範囲内にあるときにはAの値を返し、Aの値が制限値の範囲を超えるときには制限値を返す関数を意味する。なお、「Clip(A)」での制限値には上限値と下限値とを設定できる。この場合、「Clip(A)」でAの値が上限値を上回る場合は、入力されたAの値は上限値に置換される。また、「Clip(A)」でAの値が下限値を下回る場合は、入力されたAの値は下限値に置換される。   Here, “Clip (A)” in Expression (13) returns a value of A when the value of A is within the limit value range, and returns a limit value when the value of A exceeds the limit value range. Means. An upper limit value and a lower limit value can be set as the limit value in “Clip (A)”. In this case, when the value of A exceeds the upper limit value in “Clip (A)”, the input value of A is replaced with the upper limit value. Further, when the value of A is lower than the lower limit value in “Clip (A)”, the input value of A is replaced with the lower limit value.

S210においてdBvTrgtToAnsの値を制限するのは以下の理由による。主要被写体(人物の顔)と背景との輝度が極端に異なるシーンでは、本画像での顔の出力値を目標範囲の上限や下限に合わせても、なお背景部分に白トビや黒つぶれが生じる場合も起こりうる。そのため、S210での露出演算部27は、上記のケースを想定してdBvTrgtToAnsの値を所定の範囲内に制限している。   The reason for limiting the value of dBvTrgtToAns in S210 is as follows. In scenes where the brightness of the main subject (person's face) and the background are extremely different, even if the output value of the face in this image is adjusted to the upper or lower limit of the target range, white background or blackout occurs in the background portion. It can happen. Therefore, the exposure calculation unit 27 in S210 restricts the value of dBvTrgtToAns within a predetermined range assuming the above case.

一例として、人物の顔が主要被写体の場合、露出演算部27は、制限値の範囲を露出値に換算して−1から+1.5の範囲に設定する。本画像の白トビした画素では被写体の情報が完全に失われる一方で、黒つぶれの画素ではゲインを上げることで残されている被写体の情報を読み取れる場合もある。そのため、黒つぶれをある程度許容しつつも白トビを極力避ける観点から、一の実施形態では制限値が上記の範囲に設定されている。   As an example, when a person's face is the main subject, the exposure calculation unit 27 converts the limit value range into an exposure value and sets the range from −1 to +1.5. The subject information is completely lost in the overexposed pixels of the main image, while the remaining subject information may be read by increasing the gain in the blackened pixels. Therefore, from the viewpoint of avoiding white stripes as much as possible while allowing blackening to some extent, in one embodiment, the limit value is set in the above range.

なお、露出演算部27は、上記の制限値の範囲を主要被写体の種類に応じて適宜調整してもよい。例えば、他の主要被写体の場合において、露出演算部27は、制限値の範囲を露出値に換算して−1から+1の範囲にしてもよく、あるいは−1から+2の範囲にしてもよい。   Note that the exposure calculation unit 27 may appropriately adjust the range of the limit value according to the type of the main subject. For example, in the case of another main subject, the exposure calculation unit 27 may convert the range of the limit value into the range of −1 to +1 or may be in the range of −1 to +2.

また、S210での露出演算部27は、撮影画面に対する主要被写体の面積比(人物の顔の大きさ)に応じて、上記の上限値および下限値をそれぞれ変動させてもよい。上記の上限値および下限値は、撮影画面に対する主要被写体の面積比に依存した関数により露出演算部27が決定する。   In S210, the exposure calculation unit 27 may change the upper limit value and the lower limit value according to the area ratio of the main subject to the shooting screen (the size of the person's face). The upper limit value and the lower limit value are determined by the exposure calculation unit 27 by a function depending on the area ratio of the main subject to the shooting screen.

一例として、露出演算部27は、主要被写体の面積比が大きいほど上限値を大きくし、かつ下限値は小さくする。これにより、撮影画面に対する主要被写体の面積比が大きいほど制限値の幅が広がるので、dBvTrgtToAnsの値には制限がかかりにくくなる。一方で、露出演算部27は、主要被写体の面積比が小さいほど上限値を小さくし、かつ下限値は大きくする。これにより、撮影画面に対する主要被写体の面積比が小さいほど制限値の幅が狭まるので、dBvTrgtToAnsの値には制限がかかりやすくなる。   As an example, the exposure calculation unit 27 increases the upper limit value and decreases the lower limit value as the area ratio of the main subject increases. As a result, the range of the limit value increases as the area ratio of the main subject to the shooting screen increases, so that the value of dBvTrgtToAns is less likely to be limited. On the other hand, the exposure calculation unit 27 decreases the upper limit value and increases the lower limit value as the area ratio of the main subject is smaller. As a result, the smaller the area ratio of the main subject to the shooting screen is, the narrower the limit value is, so that the value of dBvTrgtToAns is likely to be limited.

ここで、図10は、主要被写体が人物のときの上限値および下限値を求める関数の一例を示している。図10の縦軸は、露出値に換算された制限値を示し、図10の横軸は撮影画面に対する主要被写体の面積比を示している。   Here, FIG. 10 shows an example of a function for obtaining an upper limit value and a lower limit value when the main subject is a person. The vertical axis in FIG. 10 represents the limit value converted into the exposure value, and the horizontal axis in FIG. 10 represents the area ratio of the main subject to the shooting screen.

図10の例では、上記の面積比が5%以下のときに、上限値は1.5となり、下限値は−1.0となる。また、上記の面積比が5%より大きく50%未満の範囲では、上限値は面積比の大きさに比例して大きくなり、下限値は面積比の大きさに比例して小さくなる。そして、上記の面積比が50%以上のときに、上限値は5.0となり、下限値は−5.0となる。   In the example of FIG. 10, when the area ratio is 5% or less, the upper limit value is 1.5 and the lower limit value is −1.0. In the range where the area ratio is greater than 5% and less than 50%, the upper limit value increases in proportion to the size of the area ratio, and the lower limit value decreases in proportion to the size of the area ratio. And when said area ratio is 50% or more, an upper limit will be 5.0 and a lower limit will be -5.0.

ここで、上記の面積比が50%以上の場合(上限値=5.0、下限値=−5.0)には、露出演算部27が主要被写体に合わせて露出を最大5段分まで補正できる。そのため、この場合には、背景が白トビまたは黒つぶれする確率が高くなり、実質的に補正を制限しないケースと同様となる。   Here, when the area ratio is 50% or more (upper limit = 5.0, lower limit = −5.0), the exposure calculator 27 corrects the exposure to a maximum of five steps according to the main subject. it can. Therefore, in this case, the probability that the background is white or blacked out increases, and this is the same as the case where the correction is not substantially limited.

また、撮影画面内で複数の主要被写体が検出された場合には、露出演算部27は、複数の主要被写体のうちで最もサイズの大きな被写体に基づいて上記の面積比を決定し、上記の上限値および下限値を求めてもよい。あるいは、露出演算部27は、複数の主要被写体の大きさを合計した値で上記の面積比を決定し、上記の上限値および下限値を求めてもよい。なお、図10に示す制限値の関数はあくまで一例であり、制限値の関数を主要被写体の種類に応じて変更するようにしてもよい。
その後、露出演算部27は補正演算サブルーチンを終了するとともに、図2に示すS105の処理に復帰する。以上で、図7の流れ図の説明を終了する。
When a plurality of main subjects are detected in the shooting screen, the exposure calculation unit 27 determines the area ratio based on the largest subject among the plurality of main subjects, and sets the upper limit A value and a lower limit value may be obtained. Alternatively, the exposure calculation unit 27 may determine the area ratio by a value obtained by summing the sizes of a plurality of main subjects, and obtain the upper limit value and the lower limit value. The limit value function shown in FIG. 10 is merely an example, and the limit value function may be changed according to the type of the main subject.
Thereafter, the exposure calculation unit 27 ends the correction calculation subroutine and returns to the process of S105 shown in FIG. Above, description of the flowchart of FIG. 7 is complete | finished.

一の実施形態では、露出演算部27が、主要被写体の代表輝度値BvObjを用いて、主要被写体の種類に応じた輝度値の目標範囲(BvUpper、BvLower)を設定する(S201,S202)。露出演算部27は、輝度値の目標範囲と仮の代表輝度値PreBvAnsとに基づいて、輝度補正量dBvObjを求める(S205からS210)。そして、露出演算部27は、輝度補正量dBvObjを反映した補正後の代表輝度値BvAnsを用いて露出量を演算する(S105)。   In one embodiment, the exposure calculation unit 27 uses the representative luminance value BvObj of the main subject to set a target range of luminance values (BvUper, BvLower) according to the type of the main subject (S201, S202). The exposure calculation unit 27 obtains the luminance correction amount dBvObj based on the target range of the luminance value and the temporary representative luminance value PreBvAns (S205 to S210). Then, the exposure calculation unit 27 calculates the exposure amount using the corrected representative luminance value BvAns reflecting the luminance correction amount dBvObj (S105).

これにより、一の実施形態の電子カメラ1では、主要被写体と背景との輝度差の大きなシーンにおいても、主要被写体と背景との明るさのバランスがとれた好ましい露出量で撮影を行うことが可能となる。   Thereby, in the electronic camera 1 according to the embodiment, even in a scene where the luminance difference between the main subject and the background is large, it is possible to perform photographing with a preferable exposure amount in which the brightness of the main subject and the background is balanced. It becomes.

また一の実施形態では、人物が逆光のシーンのようにステップS203の要件を満たす場合、かつ発光部30による発光を伴う撮影の場合に、露出演算部27はプラス露出補正を行わないので、従来のように露出を明るく補正した上で発光部30を発光させたために顔も背景も明るくなって、露出オーバーな写真になってしまうことを回避し、顔も背景も適正な明るさの画像を得る事が出来る。   In one embodiment, the exposure calculation unit 27 does not perform plus exposure correction when the person satisfies the requirements of step S203 as in a backlight scene and when shooting with light emission by the light emitting unit 30 is performed. As described above, the light emission unit 30 emits light after correcting the exposure to be bright, so that the face and the background become bright and an overexposed photo is avoided. I can get it.

また一の実施形態では、人物が過順光のシーンのようにステップS204の要件を満たす場合、かつ発光部30による発光を伴う撮影の場合に、露出演算部27はマイナス露出補正を制限しないので、従来のように顔の露出が明るめの状態に、更に発光部30による発光が重なる為に顔の露出オーバーな写真になってしまうことを回避し、顔が適正な明るさの画像を得る事が出来る。   In one embodiment, the exposure calculation unit 27 does not limit the minus exposure correction when the person satisfies the requirements of step S204 as in a scene with excessive light and when shooting with light emission by the light emitting unit 30 is performed. Therefore, it is possible to avoid an overexposed photograph of the face due to the fact that the face exposure is brighter than before and the light emitted by the light emitting unit 30 overlaps, and an image with an appropriate brightness of the face is obtained. I can do it.

<他の実施形態の説明>
図11は、他の実施形態における電子カメラ100の構成例を説明する図である。他の実施形態は、レンズ交換が可能な一眼レフレックス型の電子カメラ100に露出演算装置を組み込んだ例を示している。
<Description of other embodiments>
FIG. 11 is a diagram illustrating a configuration example of an electronic camera 100 according to another embodiment. Another embodiment shows an example in which an exposure calculation device is incorporated in a single-lens reflex electronic camera 100 capable of lens replacement.

他の実施形態の電子カメラ100は、カメラ本体31と、撮像光学系を収納したレンズユニット32と、発光ユニット60とを有している。ここで、カメラ本体31およびレンズユニット32には、一対のマウントがそれぞれ設けられている。レンズユニット32は、上記のマウントを介して、カメラ本体31に対して交換可能に接続される。また、上記のマウントにはそれぞれ電気接点が設けられており、カメラ本体31とレンズユニット32との接続時には両者の電気的な接続が確立する(図11でのマウントおよび電気接点の図示は省略する)。   An electronic camera 100 according to another embodiment includes a camera body 31, a lens unit 32 that houses an imaging optical system, and a light emitting unit 60. Here, the camera body 31 and the lens unit 32 are each provided with a pair of mounts. The lens unit 32 is interchangeably connected to the camera body 31 via the mount. Each of the mounts is provided with an electrical contact, and electrical connection between the camera body 31 and the lens unit 32 is established (the illustration of the mount and the electrical contact in FIG. 11 is omitted). ).

また、カメラ本体31および発光ユニット60には、一対の接続部がそれぞれ設けられている。発光ユニット60は、上記の接続部を介して、カメラ本体31に対して交換可能に接続される。また、上記の接続部にはそれぞれ電気接点が設けられており、カメラ本体31と発光ユニット60との接続時には両者の電気的な接続が確立する(図11での接続部および電気接点の図示は省略する)。   The camera body 31 and the light emitting unit 60 are each provided with a pair of connection portions. The light emitting unit 60 is exchangeably connected to the camera body 31 via the connection portion. Each of the connection portions is provided with an electrical contact, and electrical connection between the camera body 31 and the light emitting unit 60 is established (the connection portion and the electrical contact in FIG. 11 are illustrated). (Omitted).

レンズユニット32は、フォーカシングレンズ33およびレンズドライバ34と、絞り35および絞りドライバ36と、レンズ内メモリ37とを内蔵している。フォーカシングレンズ33は、カメラ本体31からの指示に応じて、レンズドライバ34によって駆動される。また、絞り35は、カメラ本体31からの指示に応じて絞りドライバ36によって駆動される。また、レンズ内メモリ37は、レンズユニット32の情報を記憶したメモリである。なお、レンズ内メモリ37に記憶されている情報は、カメラ本体31に出力される。   The lens unit 32 includes a focusing lens 33 and a lens driver 34, an aperture 35 and an aperture driver 36, and an in-lens memory 37. The focusing lens 33 is driven by a lens driver 34 in response to an instruction from the camera body 31. The diaphragm 35 is driven by a diaphragm driver 36 in response to an instruction from the camera body 31. The in-lens memory 37 is a memory that stores information on the lens unit 32. The information stored in the in-lens memory 37 is output to the camera body 31.

カメラ本体31は、メインミラー41と、メカニカルシャッタ42と、記録用撮像素子43と、サブミラー44と、焦点検出部45と、ファインダ光学系(51〜54)と、解析用撮像素子46と、マイコン47およびモニタ48とを有している。メインミラー41、メカニカルシャッタ42および記録用撮像素子43は、レンズユニット32の光軸に沿って配置される。メインミラー41の後方にはサブミラー44が配置される。また、カメラ本体31の上部にはファインダ光学系が配置されている。さらに、カメラ本体31の下部には焦点検出部45が配置されている。   The camera body 31 includes a main mirror 41, a mechanical shutter 42, a recording image sensor 43, a sub mirror 44, a focus detection unit 45, a finder optical system (51 to 54), an analysis image sensor 46, and a microcomputer. 47 and a monitor 48. The main mirror 41, the mechanical shutter 42, and the recording image sensor 43 are disposed along the optical axis of the lens unit 32. A sub mirror 44 is disposed behind the main mirror 41. A finder optical system is disposed on the upper part of the camera body 31. Further, a focus detection unit 45 is disposed below the camera body 31.

メインミラー41は、不図示の回動軸によって回動可能に軸支されており、観察状態と退避状態とを切り替え可能となっている。観察状態のメインミラー41は、メカニカルシャッタ42および記録用撮像素子43の前方で傾斜配置される。この観察状態のメインミラー41は、レンズユニット32を通過した光束を上方へ反射してファインダ光学系に導く。また、メインミラー41の中央部はハーフミラーとなっている。そして、メインミラー41を透過した一部の光束はサブミラー44によって下方に屈折されて焦点検出部45に導かれる。なお、焦点検出部45は、不図示のセパレータレンズで分割した被写体像の像ズレ量を検出し、この像ズレ量からフォーカシングレンズ33のデフォーカス量を求める。   The main mirror 41 is pivotally supported by a rotation shaft (not shown) and can be switched between an observation state and a retracted state. The main mirror 41 in the observation state is inclined and disposed in front of the mechanical shutter 42 and the recording image sensor 43. The main mirror 41 in the observation state reflects the light beam that has passed through the lens unit 32 upward and guides it to the finder optical system. The central portion of the main mirror 41 is a half mirror. A part of the light beam transmitted through the main mirror 41 is refracted downward by the sub mirror 44 and guided to the focus detection unit 45. The focus detection unit 45 detects an image shift amount of the subject image divided by a separator lens (not shown), and obtains a defocus amount of the focusing lens 33 from the image shift amount.

一方、退避状態のメインミラー41は、サブミラー44とともに上方に跳ね上げられて撮影光路から外れた位置にある。メインミラー41が退避状態にあるときは、レンズユニット32を通過した光束がメカニカルシャッタ42および記録用撮像素子43に導かれる。   On the other hand, the retracted main mirror 41 is flipped upward together with the sub mirror 44 and is at a position off the photographing optical path. When the main mirror 41 is in the retracted state, the light beam that has passed through the lens unit 32 is guided to the mechanical shutter 42 and the recording image sensor 43.

ファインダ光学系は、焦点板51と、コンデンサレンズ52と、ペンタプリズム53と、接眼レンズ54とを有している。焦点板51はメインミラー41の上方に位置し、観察状態のメインミラー41で反射された光束を一旦結像させる。焦点板51で結像した光束はコンデンサレンズ52およびペンタプリズム53を通過し、ペンタプリズム53の入射面に対して90°の角度を持った射出面から接眼レンズ54を介してユーザーの目に到達する。また、焦点板51で結像した光束の一部はコンデンサレンズ52およびペンタプリズム53を通過し、ペンタプリズム53の射出面近傍に配置された再結像レンズ55から解析用撮像素子46に入射する。   The finder optical system includes a focusing screen 51, a condenser lens 52, a pentaprism 53, and an eyepiece lens 54. The focusing screen 51 is positioned above the main mirror 41 and once forms an image of the light beam reflected by the main mirror 41 in the observation state. The light beam formed on the focusing screen 51 passes through the condenser lens 52 and the pentaprism 53, and reaches the user's eyes through the eyepiece 54 from the exit surface having an angle of 90 ° with respect to the incident surface of the pentaprism 53. To do. Further, a part of the light beam imaged by the focusing screen 51 passes through the condenser lens 52 and the pentaprism 53 and enters the analysis imaging element 46 from the reimaging lens 55 disposed in the vicinity of the exit surface of the pentaprism 53. .

ここで、他の実施形態の記録用撮像素子43は、メインミラー41が退避状態にあるときに、本画像やスルー画像の撮像を行う。また、解析用撮像素子46は、メインミラー41が観察状態にあるときにスルー画像の撮像を行う。なお、他の実施形態の解析用撮像素子46は、顔検出処理が可能な解像度でスルー画像を撮像することができる。   Here, the recording image sensor 43 of another embodiment captures the main image and the through image when the main mirror 41 is in the retracted state. The analysis image sensor 46 captures a through image when the main mirror 41 is in an observation state. Note that the analysis imaging element 46 of another embodiment can capture a through image with a resolution that allows face detection processing.

マイコン47は、電子カメラ100の各部の動作を統括的に制御するプロセッサである。このマイコン47は、記録用撮像素子43または解析用撮像素子46の出力に対して画像処理を施す。また、マイコン47は、上記の一の実施形態における顔検出部および露出演算部と同様の機能を果たす。また、モニタ48は、マイコン47の制御によって各種の画像を表示する。   The microcomputer 47 is a processor that comprehensively controls the operation of each unit of the electronic camera 100. The microcomputer 47 performs image processing on the output of the recording image sensor 43 or the analysis image sensor 46. Further, the microcomputer 47 performs the same function as the face detection unit and the exposure calculation unit in the one embodiment described above. The monitor 48 displays various images under the control of the microcomputer 47.

(他の実施形態における撮影モードの動作例1)
次に、図12の流れ図を参照しつつ、他の実施形態の電子カメラ100における撮影モードの動作の一例を説明する。図12に示す撮影モードの動作は、レリーズ釦(図11では不図示)の半押し操作によるAF動作開始の指示に応じてマイコン47が開始する。なお、図12の流れ図の開始のときにはメインミラー41は観察状態の位置にある。
(Operation example 1 of shooting mode in other embodiment)
Next, an example of the operation of the shooting mode in the electronic camera 100 of another embodiment will be described with reference to the flowchart of FIG. The operation in the photographing mode shown in FIG. 12 is started by the microcomputer 47 in response to an instruction to start the AF operation by half-pressing a release button (not shown in FIG. 11). At the start of the flowchart of FIG. 12, the main mirror 41 is in the observation state position.

ステップS301:マイコン47は、解析用撮像素子46を駆動させてスルー画像を取得する。このとき、マイコン47は焦点検出部45の出力に基づいてAF制御を実行する。   Step S301: The microcomputer 47 drives the analysis image sensor 46 to acquire a through image. At this time, the microcomputer 47 executes AF control based on the output of the focus detection unit 45.

ステップS302:マイコン47は、スルー画像の出力を用いて、撮影画面内に含まれる被写体の分割測光を実行するとともに、仮の代表輝度値PreBvAnsを求める。なお、S302の処理は、図2のS102に対応するので重複説明は省略する。   Step S302: The microcomputer 47 uses the output of the through image to execute divided photometry of the subject included in the shooting screen, and obtains a temporary representative luminance value PreBvAns. Note that the processing in S302 corresponds to S102 in FIG.

ステップS303:マイコン47は、スルー画像の出力を用いて、撮影画面内から人物の顔領域の位置を検出するとともに、撮影画面内の一部の被写体である主要被写体(顔)の代表輝度値BvObjを求める。なお、S303の処理は、図2のS103に対応するので重複説明は省略する。   Step S303: The microcomputer 47 uses the output of the through image to detect the position of the face area of the person from the shooting screen, and represents the representative luminance value BvObj of the main subject (face) that is a part of the subject in the shooting screen. Ask for. Note that the processing in S303 corresponds to S103 in FIG.

ステップS304:マイコン47は、補正演算サブルーチン(図7のS201からS210の処理)を実行して、輝度補正量dBvObjを求める。   Step S304: The microcomputer 47 executes a correction calculation subroutine (the processing from S201 to S210 in FIG. 7) to obtain the luminance correction amount dBvObj.

ステップS305:マイコン47は、仮の代表輝度値PreBvAns(S302で求めたもの)と、輝度補正量dBvObj(S304で求めたもの)とを用いて、補正後の代表輝度値BvAnsを求める。   Step S305: The microcomputer 47 obtains the corrected representative luminance value BvAns using the temporary representative luminance value PreBvAns (obtained in S302) and the luminance correction amount dBvObj (obtained in S304).

そして、マイコン47は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行なう。なお、S305の処理は、図2のS105に対応するので重複説明は省略する。   The microcomputer 47 calculates an exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and performs exposure control (adjustment of parameters such as shutter speed and aperture value) based on the exposure amount. Do. Note that the processing in S305 corresponds to S105 in FIG.

ステップS306:マイコン47は、レリーズ釦が全押しされたか否かを判定する。上記要件を満たす場合(YES側)にはS308に移行する。一方、上記要件を満たさない場合(NO側)には、マイコン47はS301に戻って上記動作を繰り返す。   Step S306: The microcomputer 47 determines whether or not the release button has been fully pressed. If the above requirement is satisfied (YES side), the process proceeds to S308. On the other hand, if the above requirement is not satisfied (NO side), the microcomputer 47 returns to S301 and repeats the above operation.

ステップS307:マイコン47は、メインミラー41を観察状態の位置から退避状態の位置に駆動させる。   Step S307: The microcomputer 47 drives the main mirror 41 from the observation state position to the retracted position.

ステップS308:マイコン47は、S305で求めた露出量に基づいて、本画像の撮像処理を実行する。記録用撮像素子43によって撮像された本画像のデータは、マイコン47で所定の画像処理が施された後に、不図示の記憶媒体に記録される。以上で、図12の流れ図の説明を終了する。この図12の例においても、上記の一の実施形態とほぼ同様の効果を得ることができる。   Step S308: The microcomputer 47 executes a main image capturing process based on the exposure amount obtained in S305. The data of the main image captured by the recording image sensor 43 is recorded in a storage medium (not shown) after predetermined image processing is performed by the microcomputer 47. Above, description of the flowchart of FIG. 12 is complete | finished. In the example of FIG. 12 as well, substantially the same effect as the one embodiment described above can be obtained.

(他の実施形態における撮影モードの動作例2)
次に、図13の流れ図を参照しつつ、他の実施形態の電子カメラ100における撮影モードの動作の別例を説明する。図13は、記録用撮像素子43のスルー画像を用いてモニタ48にビュー画像を動画表示させる動作モード(ライブビュー撮影モード)での動作例を示している。
(Operation example 2 of shooting mode in other embodiment)
Next, another example of the shooting mode operation in the electronic camera 100 of another embodiment will be described with reference to the flowchart of FIG. FIG. 13 shows an operation example in an operation mode (live view shooting mode) in which a view image is displayed as a moving image on the monitor 48 using a through image of the recording image sensor 43.

図13の動作は、ライブビュー撮影モードの起動操作(例えばモード切替操作など)をマイコン47が受け付けたときに開始される。なお、図13の流れ図の開始のときにはメインミラー41は観察状態の位置にある。   The operation in FIG. 13 is started when the microcomputer 47 receives a start operation (for example, a mode switching operation) in the live view shooting mode. Note that the main mirror 41 is in the observation state at the start of the flowchart of FIG.

ステップS401:マイコン47は、メインミラー41を観察状態の位置から退避状態の位置に駆動させる。   Step S401: The microcomputer 47 drives the main mirror 41 from the observation state position to the retracted position.

ステップS402:マイコン47は、記録用撮像素子43を駆動させてスルー画像を取得する。   Step S402: The microcomputer 47 drives the recording image sensor 43 to acquire a through image.

ステップS403:マイコン47は、スルー画像の出力を用いて、撮影画面内から人物の顔領域の位置を検出する。   Step S403: The microcomputer 47 detects the position of the face area of the person from the shooting screen using the through image output.

ステップS404:マイコン47は、スルー画像から生成したビュー画像をモニタ48に表示する。   Step S404: The microcomputer 47 displays the view image generated from the through image on the monitor 48.

ステップS405:マイコン47は、レリーズ釦が押圧されたか否かを判定する。上記要件を満たす場合(YES側)にはS406に移行する。一方、上記要件を満たさない場合(NO側)には、マイコン47はS402に戻って上記動作を繰り返す。   Step S405: The microcomputer 47 determines whether or not the release button has been pressed. If the above requirement is satisfied (YES side), the process proceeds to S406. On the other hand, if the above requirement is not satisfied (NO side), the microcomputer 47 returns to S402 and repeats the above operation.

ステップS406:マイコン47は、メインミラー41を退避状態の位置から観察状態の位置に駆動させる。なお、S406の時点で記録用撮像素子43はスルー画像を取得できなくなる。そのため、マイコン47は、ミラーダウンの直前に取得したビュー画像をモニタ48に継続的に表示するか、あるいはビュー画像のモニタ48への表示を一時的に停止させる。   Step S406: The microcomputer 47 drives the main mirror 41 from the retracted position to the observation position. Note that the recording image sensor 43 cannot acquire a through image at the time of S406. For this reason, the microcomputer 47 continuously displays the view image acquired immediately before the mirror down on the monitor 48 or temporarily stops the display of the view image on the monitor 48.

ステップS407:マイコン47は、解析用撮像素子46を駆動させて撮影画面内の分割測光を行う。そして、S407でのマイコン47は、分割測光の結果に基づいて、仮の代表輝度値PreBvAnsを求める。また、S407でのマイコン47は、顔領域の位置(S403で検出したもの)に基づいて、撮影画面内の一部の被写体である主要被写体(顔)の代表輝度値BvObjを求める。   Step S407: The microcomputer 47 drives the analysis image sensor 46 to perform divided photometry in the photographing screen. Then, the microcomputer 47 in S407 obtains a temporary representative luminance value PreBvAns based on the result of the divided photometry. Further, the microcomputer 47 in S407 obtains the representative luminance value BvObj of the main subject (face), which is a part of the subject in the shooting screen, based on the position of the face area (detected in S403).

なお、S407でのPreBvAnsの演算は、図2のS102での処理と同様に行われる。また、S407でのBvObjの演算は、図2のS103での処理とほぼ同様に行われる。そのため、これらの処理について重複説明は省略する。   Note that the calculation of PreBvAns in S407 is performed in the same manner as the processing in S102 of FIG. Further, the calculation of BvObj in S407 is performed in substantially the same manner as the processing in S103 of FIG. Therefore, a duplicate description of these processes is omitted.

ステップS408:マイコン47は、補正演算サブルーチン(図7のS201からS210の処理)を実行して、輝度補正量dBvObjを求める。   Step S408: The microcomputer 47 executes a correction calculation subroutine (the processing from S201 to S210 in FIG. 7) to obtain the luminance correction amount dBvObj.

ステップS409:マイコン47は、仮の代表輝度値PreBvAns(S407で求めたもの)と、輝度補正量dBvObj(S408で求めたもの)とを用いて、補正後の代表輝度値BvAnsを求める。   Step S409: The microcomputer 47 obtains the corrected representative luminance value BvAns using the provisional representative luminance value PreBvAns (obtained in S407) and the luminance correction amount dBvObj (obtained in S408).

そして、マイコン47は、補正後の代表輝度値BvAnsに基づいて公知の露出演算により露出量を演算するとともに、この露出量に基づいて露出制御(シャッタ秒時、絞り値などの各パラメータ調整)を行なう。なお、S409の処理は、図2のS105に対応するので重複説明は省略する。   The microcomputer 47 calculates an exposure amount by a known exposure calculation based on the corrected representative luminance value BvAns, and performs exposure control (adjustment of parameters such as shutter speed and aperture value) based on the exposure amount. Do. Note that the processing in S409 corresponds to S105 in FIG.

ステップS410:マイコン47は、メインミラー41を観察状態の位置から退避状態の位置に駆動させる。   Step S410: The microcomputer 47 drives the main mirror 41 from the observation state position to the retracted position.

ステップS411:マイコン47は、S409で求めた露出量に基づいて、本画像の撮像処理を実行する。記録用撮像素子43によって撮像された本画像のデータは、マイコン47で所定の画像処理が施された後に、不図示の記憶媒体に記録される。以上で、図13の流れ図の説明を終了する。この図13の例においても、上記の一の実施形態とほぼ同様の効果を得ることができる。   Step S411: The microcomputer 47 executes a main image capturing process based on the exposure amount obtained in S409. The data of the main image captured by the recording image sensor 43 is recorded in a storage medium (not shown) after predetermined image processing is performed by the microcomputer 47. Above, description of the flowchart of FIG. 13 is complete | finished. In the example of FIG. 13 as well, substantially the same effect as in the above-described one embodiment can be obtained.

<実施形態の補足事項>
(1)上記の各実施形態では、主要被写体が人物の顔である例を説明したが、顔以外の被写体を主要被写体とする場合にも本発明を適用できる。一例として、青空を主要被写体とする場合、露出演算部は、スルー画像での被写体の明るさや色情報、撮影画面での位置に着目して青空の領域を求め、この領域の輝度情報を用いて主要被写体の代表輝度値BvObjを求めればよい。また、露出演算部は、電子カメラ100のモード設定(例えば、ポートレートモードや風景モードなど)に主要被写体の種類を判定するようにしてもよい。
<Supplementary items of the embodiment>
(1) In each of the above embodiments, the example in which the main subject is the face of a person has been described. However, the present invention can also be applied to a case where a subject other than the face is the main subject. As an example, when the blue sky is the main subject, the exposure calculation unit obtains the blue sky region by paying attention to the brightness and color information of the subject in the through image, and the position on the shooting screen, and uses the luminance information of this region. The representative luminance value BvObj of the main subject may be obtained. The exposure calculation unit may determine the type of the main subject in the mode setting of the electronic camera 100 (for example, portrait mode, landscape mode, etc.).

(2)上記の一の実施形態において、CPU17は、レリーズ釦21の半押し操作によるAF開始指示をトリガとして、図2に示す撮影モードの動作を開始させるようにしてもよい。また、上記の一の実施形態における撮影モードの動作時(図2)において、CPU17は、レリーズ釦21の全押し操作の前に半押し操作があった場合には、その時点で焦点調節状態と露出のパラメータを固定するとともに、以後の焦点調節制御と露出制御とを停止するようにしてもよい。 (2) In the one embodiment described above, the CPU 17 may start the operation of the shooting mode shown in FIG. 2 by using an AF start instruction by half-pressing the release button 21 as a trigger. Further, in the shooting mode operation in the above-described one embodiment (FIG. 2), if there is a half-press operation before the release button 21 is fully pressed, the CPU 17 changes the focus adjustment state at that time. The exposure parameters may be fixed and the subsequent focus adjustment control and exposure control may be stopped.

(3)上記の他の実施形態では、露出演算装置が一眼レフレックス型の電子カメラ100に適用される例を説明したが、観測用撮像素子15を有する一眼レフレックス型の銀塩カメラにも適用できる。 (3) In the above-described other embodiments, the example in which the exposure calculation device is applied to the single-lens reflex type electronic camera 100 has been described. However, the single-lens reflex type silver salt camera including the observation imaging device 15 is also described. Applicable.

(4)上記の各実施形態での撮像素子は、焦点検出用の受光素子が、本画像等を撮像するための受光素子と同一の受光面に配列されている構成であってもよい。この場合、焦点検出用の受光素子は、それぞれが位相差を有する第1信号列のパターンと第2信号列のパターンとを検出するように構成される。そして、これらのパターンの像ズレ量からカメラが撮像光学系の焦点調節状態を求めればよい(なお、この場合の撮像素子の構成例の図示は省略する)。 (4) The image sensor in each of the above embodiments may have a configuration in which the light receiving elements for focus detection are arranged on the same light receiving surface as the light receiving element for capturing the main image and the like. In this case, the light receiving element for focus detection is configured to detect a pattern of the first signal sequence and a pattern of the second signal sequence each having a phase difference. Then, the camera may determine the focus adjustment state of the image pickup optical system from the image shift amounts of these patterns (note that the configuration example of the image pickup device in this case is not shown).

(5)上記の各実施形態では、顔検出部や露出演算部をソフトウエア的に実現する例を説明したが、これらの構成はASICなどによってハードウエア的に実現しても勿論かまわない。 (5) In each of the above-described embodiments, the example in which the face detection unit and the exposure calculation unit are realized by software has been described. However, these configurations may be realized by hardware by an ASIC or the like.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

1,100…カメラ、13…絞り、15…撮像素子、16…AFE、17…CPU、24…画像処理部、25…顔検出部、27…露出演算部、29…発行制御部、30…発行部、31…カメラ本体、32…レンズユニット、35…絞り、42…メカニカルシャッタ、43…記録用撮像素子、46…解析用撮像素子、47…マイコン   DESCRIPTION OF SYMBOLS 1,100 ... Camera, 13 ... Aperture, 15 ... Image sensor, 16 ... AFE, 17 ... CPU, 24 ... Image processing part, 25 ... Face detection part, 27 ... Exposure calculation part, 29 ... Issue control part, 30 ... Issue , 31 ... Camera body, 32 ... Lens unit, 35 ... Aperture, 42 ... Mechanical shutter, 43 ... Recording image sensor, 46 ... Analysis image sensor, 47 ... Microcomputer

Claims (21)

被写体からの光束を測光して第1測光値を求めるとともに、前記被写体のうちの一部の被写体に関する第2測光値を求める測光部と、
前記被写体を照明する発光部と、
前記第1測光値を前記発光部の発光の有無と、前記第2測光値に基づいて補正して第3測光値を求める補正部と、
前記補正部による前記第3測光値に基づいて、前記被写体からの光束に対する露出量を求める演算部と、
を備えたことを特徴とする露出演算装置。
A photometric unit for measuring a light flux from a subject to obtain a first photometric value and obtaining a second photometric value for a part of the subjects;
A light emitting unit for illuminating the subject;
A correction unit that obtains a third photometric value by correcting the first photometric value based on whether or not the light emitting unit emits light and the second photometric value;
A calculation unit for obtaining an exposure amount of the light flux from the subject based on the third photometric value by the correction unit;
An exposure calculation device comprising:
請求項1に記載の露出演算装置において、
前記第1測光値が前記第2測光値よりも大きい場合であって、かつ前記発光部が発光しないとき、前記補正部は、前記第3測光値を前記第1測光値よりも小さくすることを特徴とする露出演算装置。
In the exposure calculation device according to claim 1,
When the first photometric value is larger than the second photometric value and the light emitting unit does not emit light, the correction unit makes the third photometric value smaller than the first photometric value. A featured exposure calculation device.
請求項1に記載の露出演算装置において、
前記第1測光値が前記第2測光値よりも大きい場合であって、かつ前記発光部が発光するとき、前記補正部は、前記第3測光値を前記第1測光値に等しくすることを特徴とする露出演算装置。
In the exposure calculation device according to claim 1,
When the first photometric value is larger than the second photometric value and the light emitting unit emits light, the correction unit makes the third photometric value equal to the first photometric value. Exposure calculation device.
請求項1から3のいずれか1項に記載の露出演算装置において、
前記第1測光値が前記第2測光値よりも小さい場合であって、
前記発光部が発光するとき、前記補正部は、前記発光部が発光しないときよりも、
前記第3測光値と前記第1測光値との差の制限の範囲を広くすることを特徴とする露出演算装置。
In the exposure calculation apparatus according to any one of claims 1 to 3,
The first photometric value is smaller than the second photometric value,
When the light emitting unit emits light, the correction unit is more than when the light emitting unit does not emit light.
An exposure calculation device that widens the range of the difference between the third photometric value and the first photometric value.
請求項1から3のいずれか1項に記載の露出演算装置において、
前記第1測光値が前記第2測光値よりも小さい場合であって、かつ前記発光部が発光するとき、前記補正部は、前記第3測光値と前記第1測光値との差を制限しないことを特徴とする露出演算装置。
In the exposure calculation apparatus according to any one of claims 1 to 3,
When the first photometric value is smaller than the second photometric value and the light emitting unit emits light, the correction unit does not limit the difference between the third photometric value and the first photometric value. An exposure calculation device.
請求項1から5のいずれか1項に記載の露出演算装置において、
前記被写体の像から前記一部の被写体の像を検出する被写体検出部をさらに備え、
前記目標設定部は、前記被写体検出部の検出結果に対する前記第2測光値に基づいて前記目標範囲を設定することを特徴とする露出演算装置。
In the exposure calculation device according to any one of claims 1 to 5,
A subject detection unit that detects an image of the part of the subject from the subject image;
The exposure calculation apparatus, wherein the target setting unit sets the target range based on the second photometric value for the detection result of the subject detection unit.
請求項1から6のいずれか1項に記載の露出演算装置において、
前記測光部は、前記一部の被写体を複数の領域に分割して測光し、前記複数の領域のそれぞれに対して得られる複数の測光値に基づいて前記第2測光値を求めることを特徴とする露出演算装置。
In the exposure calculation device according to any one of claims 1 to 6,
The photometry unit divides the part of the subject into a plurality of areas, performs photometry, and obtains the second photometry value based on a plurality of photometry values obtained for each of the plurality of areas. Exposure calculation device.
請求項7に記載の露出演算装置において、
前記測光部は、前記複数の測光値のうちの最大値に基づいて前記第2測光値を求めることを特徴とする露出演算装置。
In the exposure calculation device according to claim 7,
The said photometry part calculates | requires a said 2nd photometric value based on the maximum value of these photometric values, The exposure calculating apparatus characterized by the above-mentioned.
請求項7または請求項8に記載の露出演算装置において、
前記測光部は、前記複数の領域をグループ化した複数のグループのそれぞれに対して前記複数の測光値を得ることを特徴とする露出演算装置。
In the exposure calculation device according to claim 7 or 8,
The exposure metering device, wherein the photometry unit obtains the plurality of photometry values for each of a plurality of groups obtained by grouping the plurality of regions.
請求項1から請求項9のいずれか1項に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体の種類に応じて、前記目標範囲を決定することを特徴とする露出演算装置。
In the exposure calculation device according to any one of claims 1 to 9,
The exposure calculation apparatus according to claim 1, wherein the target setting unit determines the target range in accordance with a type of the subject.
請求項1から請求項10のいずれか1項に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体の大きさに応じて前記目標範囲を決定することを特徴とする露出演算装置。
In the exposure calculation apparatus according to any one of claims 1 to 10,
The exposure calculation apparatus, wherein the target setting unit determines the target range according to the size of the part of the subject.
請求項11に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体が複数存在するときに、前記一部の被写体のうちで最もサイズの大きな被写体に基づいて前記目標範囲を決定することを特徴とする露出演算装置。
In the exposure calculation apparatus according to claim 11,
The exposure calculation apparatus according to claim 1, wherein the target setting unit determines the target range based on a subject having the largest size among the some subjects when there are a plurality of the subjects.
請求項11に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体が複数存在するときに、各々の前記一部の被写体の大きさを合計した値に基づいて前記目標範囲を決定することを特徴とする露出演算装置。
In the exposure calculation apparatus according to claim 11,
The target setting unit determines the target range based on a value obtained by summing the sizes of each of the partial subjects when there are a plurality of the partial subjects.
請求項1から13のいずれか1項に記載の露出演算装置において、
前記補正部は、前記第3測光値と前記第1測光値との差を所定値で制限することを特徴とする露出演算装置。
In the exposure calculation apparatus according to any one of claims 1 to 13,
The exposure calculation device, wherein the correction unit limits a difference between the third photometric value and the first photometric value by a predetermined value.
請求項14に記載の露出演算装置において、
前記補正部は、前記一部の被写体の種類に応じて、前記所定値を決定することを特徴とする露出演算装置。
The exposure calculation device according to claim 14, wherein
The exposure calculation apparatus according to claim 1, wherein the correction unit determines the predetermined value according to a type of the subject.
請求項14または請求項15に記載の露出演算装置において、
前記補正部は、前記一部の被写体の大きさに応じて前記所定値を決定することを特徴とする露出演算装置。
In the exposure calculation device according to claim 14 or 15,
The exposure calculation device, wherein the correction unit determines the predetermined value according to the size of the part of the subject.
請求項16に記載の露出演算装置において、
前記補正部は、前記一部の被写体が複数存在するときに、前記一部の被写体のうちで最もサイズの大きな被写体に基づいて前記所定値を決定することを特徴とする露出演算装置。
The exposure calculation device according to claim 16, wherein
The exposure calculation apparatus according to claim 1, wherein the correction unit determines the predetermined value based on a subject having the largest size among the some subjects when there are a plurality of the subjects.
請求項16に記載の露出演算装置において、
前記補正部は、前記一部の被写体が複数存在するときに、各々の前記一部の被写体の大きさを合計した値に基づいて前記所定値を決定することを特徴とする露出演算装置。
The exposure calculation device according to claim 16, wherein
The exposure calculation apparatus, wherein the correction unit determines the predetermined value based on a value obtained by summing the sizes of the partial subjects when the partial subject is present in plural.
請求項1から18のいずれか1項に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体が複数存在するときに、該複数の前記一部の被写体のうちで最もサイズが大きな被写体に対する測光値を前記第2測光値として、前記目標範囲を設定することを特徴とする露出演算装置。
In the exposure calculation apparatus according to any one of claims 1 to 18,
The target setting unit sets the target range by using, as the second photometric value, a photometric value for a subject having the largest size among the plurality of the partial subjects when there are a plurality of the partial subjects. An exposure calculation device.
請求項1から19のいずれか1項に記載の露出演算装置において、
前記目標設定部は、前記一部の被写体が複数存在するときに、各々の前記一部の被写体に対する測光値を被写体のサイズに応じて重み付け平均した値を前記第2測光値として、前記目標範囲を設定することを特徴とする露出演算装置。
In the exposure calculation device according to any one of claims 1 to 19,
The target setting unit, when there are a plurality of some of the subjects, sets a value obtained by weighting and averaging a photometric value for each of the some subjects according to the size of the subject as the second photometric value. An exposure calculation device characterized in that
請求項1から20のいずれか1項に記載の露出演算装置を備えたことを特徴とするカメラ。   A camera comprising the exposure calculation device according to any one of claims 1 to 20.
JP2011177119A 2011-08-12 2011-08-12 Exposure calculation unit and camera Withdrawn JP2013041059A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011177119A JP2013041059A (en) 2011-08-12 2011-08-12 Exposure calculation unit and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011177119A JP2013041059A (en) 2011-08-12 2011-08-12 Exposure calculation unit and camera

Publications (1)

Publication Number Publication Date
JP2013041059A true JP2013041059A (en) 2013-02-28

Family

ID=47889520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011177119A Withdrawn JP2013041059A (en) 2011-08-12 2011-08-12 Exposure calculation unit and camera

Country Status (1)

Country Link
JP (1) JP2013041059A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017011366A (en) * 2015-06-17 2017-01-12 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017011366A (en) * 2015-06-17 2017-01-12 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus

Similar Documents

Publication Publication Date Title
KR102306304B1 (en) Dual camera-based imaging method and device and storage medium
JP5096017B2 (en) Imaging device
CN107846556B (en) Imaging method, imaging device, mobile terminal and storage medium
US8294785B2 (en) Method for adjusting photosensitiveness of digital camera
JP2006227613A (en) Camera exposure program combined with image stabilizing function
JP2010072619A (en) Exposure operation device and camera
JP2010232711A (en) Image capturing apparatus and image processing program
JP6284408B2 (en) Image processing apparatus, imaging apparatus, determination method, driving method, imaging method, and program
JP2015031743A (en) Exposure control device, control method for the same, and control program, and imaging device
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
CN111434104A (en) Image processing device, imaging device, image processing method, and program
JP5849515B2 (en) Exposure calculation device and camera
JP2012163679A (en) Imaging device, stroboscope control method, and stroboscope control program
JP2013041059A (en) Exposure calculation unit and camera
JP2012063664A (en) Photometric device and electronic camera
JP5423140B2 (en) Photometric device and imaging device
JP4789776B2 (en) Imaging apparatus and imaging method
JP2013040996A (en) Exposure calculation unit and camera
JP2008199461A (en) Imaging apparatus
JP6573382B2 (en) Imaging apparatus and photometric method
JP2015167308A (en) Photometry method suitable for face detection autofocus control
JP2015114465A (en) Imaging device, control method therefor, and control program
JP2010271507A (en) Imaging device, exposure adjustment method, and program
JP2019110402A (en) Imaging apparatus, control method therefor, and program
JP5245644B2 (en) Exposure calculator

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104