JP4995133B2 - Imaging apparatus and control method - Google Patents

Imaging apparatus and control method Download PDF

Info

Publication number
JP4995133B2
JP4995133B2 JP2008092364A JP2008092364A JP4995133B2 JP 4995133 B2 JP4995133 B2 JP 4995133B2 JP 2008092364 A JP2008092364 A JP 2008092364A JP 2008092364 A JP2008092364 A JP 2008092364A JP 4995133 B2 JP4995133 B2 JP 4995133B2
Authority
JP
Japan
Prior art keywords
photometric
area
photometry
value
ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008092364A
Other languages
Japanese (ja)
Other versions
JP2009246773A (en
JP2009246773A5 (en
Inventor
敏文 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008092364A priority Critical patent/JP4995133B2/en
Priority to US12/414,062 priority patent/US7894715B2/en
Publication of JP2009246773A publication Critical patent/JP2009246773A/en
Publication of JP2009246773A5 publication Critical patent/JP2009246773A5/ja
Application granted granted Critical
Publication of JP4995133B2 publication Critical patent/JP4995133B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は、フラッシュ発光による撮影が可能な撮像装置及び制御方法に関する。 The present invention relates to an imaging apparatus and a control how that can be taken by the flash.

従来、撮像装置(カメラ、デジタルスチルカメラ)でフラッシュ撮影を行う際のフラッシュ発光制御に関する各種の技術が提案されているが、その中でも特に次の方式の提案が多い。露光動作に先立ってフラッシュのプリ発光(予備発光)を行い、プリ発光による被写体の反射光を撮像画面(ファインダまたはディスプレイにより観察される被写体画像)内の複数に分割された領域毎に測光して本発光量を決定する方式である。これは、分割された領域毎の測光結果により所定のアルゴリズムにより本発光量を決めることで、様々な撮影シーンに対して適切な発光量を決定できるからである。   Conventionally, various techniques relating to flash emission control when performing flash photography with an imaging device (camera, digital still camera) have been proposed. Prior to the exposure operation, flash pre-emission (preliminary emission) is performed, and the reflected light of the subject by pre-emission is measured for each of the divided areas in the imaging screen (subject image observed by the viewfinder or display). This is a method for determining the main light emission amount. This is because an appropriate light emission amount can be determined for various shooting scenes by determining the main light emission amount by a predetermined algorithm based on the photometric results for each divided area.

上記のフラッシュ発光制御に関しては、安定して適切な露光量が得られるように以下のような撮像方法が提案されている(例えば、特許文献1参照)。まず、プリ発光が行われる直前の各測光エリアの測光値P(i)と、プリ発光が行われている時の各測光エリアの測光値H(i)との比R(i)を、測光エリア毎に演算する。得られたR(i)の中で最大のものを基準値baseRとして抽出し、基準値baseRと各測光エリアのR(i)の値を比較して各測光エリアに対する重み付け係数W(i)を決定する。次に、重み付け係数W(i)に従って各測光エリアのプリ発光時の反射光量を重み付け平均して得られた重み付け平均結果により、本発光量を演算する。   Regarding the above flash emission control, the following imaging method has been proposed so that an appropriate exposure amount can be obtained stably (see, for example, Patent Document 1). First, the ratio R (i) between the photometric value P (i) of each photometric area immediately before the pre-flash is emitted and the photometric value H (i) of each photometric area when the pre-flash is executed is measured by Calculate for each area. The largest R (i) obtained is extracted as the reference value baseR, and the reference value baseR is compared with the value of R (i) of each photometric area to obtain the weighting coefficient W (i) for each photometric area. decide. Next, the actual light emission amount is calculated based on the weighted average result obtained by weighted averaging of the reflected light amount at the time of pre-emission in each photometry area according to the weighting coefficient W (i).

また、被写体の輝度が十分ではない場合でも人物顔領域を検出して良好な露出を得るために以下のような撮像方法が提案されている(例えば、特許文献2参照)。まず、プリ発光により撮像した画像を基に画像内に人物の顔領域が存在するかどうかを検出する。次に、検出された顔領域に応じて調光領域を決定し、この決定された調光領域によるプリ発光時の測光値に応じて本発光量を演算する。
特開2005−275265号公報 特開2005−184508号公報
Further, the following imaging method has been proposed in order to detect a human face region and obtain a good exposure even when the luminance of the subject is not sufficient (see, for example, Patent Document 2). First, it is detected whether or not a human face area exists in an image based on an image captured by pre-emission. Next, a light control area is determined according to the detected face area, and the main light emission amount is calculated according to a photometric value at the time of pre-emission in the determined light control area.
JP 2005-275265 A JP 2005-184508 A

特許文献1に記載の技術によれば、多くの撮影シーンで安定した露出が得られると共に、同一の撮影シーンを少しだけ構図の変更を行って撮影した場合でも露出の変化が少ない撮像結果が得られる。しかし、経験則的に各測光エリアのうち所定条件を満たすR(i)の中で最大のものを主被写体エリアと見なし、そのエリアの反射光量から基準値baseRを抽出している。そのため、撮像画面内で比較的近距離に存在するもの或いは反射率が高めのものに、重み付け係数W(i)が大きくなる傾向が高い。従って、もしも本当の主被写体が上記所定条件に当てはまっていなかった場合には、撮影者の期待通りの露出とならない場合がある。   According to the technique described in Patent Document 1, a stable exposure can be obtained in many shooting scenes, and an imaging result with little change in exposure can be obtained even when the same shooting scene is shot with a slight composition change. It is done. However, as a rule of thumb, among the photometric areas, the largest R (i) satisfying the predetermined condition is regarded as the main subject area, and the reference value baseR is extracted from the amount of reflected light in that area. For this reason, the weighting coefficient W (i) tends to increase when it is present at a relatively short distance in the imaging screen or when the reflectance is high. Therefore, if the real main subject does not meet the predetermined condition, the exposure may not be as expected by the photographer.

また、特許文献2に記載の技術によれば、主被写体が人物であり且つその人物の顔が確実に検出されている場合には、良好な露出となる可能性が高くなる。しかし、撮像画面に占める顔領域の大きさに対してプリ発光時の反射光の測光を行うセンサの分解能が十分でないような場合には、次の問題が発生する。顔領域だけを調光領域として本発光量を決定しようとしても、人物の背景など他の領域の影響を除外できなくなり露出が良好でなくなる場合がある。   Further, according to the technique described in Patent Document 2, when the main subject is a person and the face of the person is reliably detected, the possibility of good exposure increases. However, when the resolution of the sensor that measures the reflected light during pre-emission is not sufficient for the size of the face area occupied on the imaging screen, the following problem occurs. Even if it is attempted to determine the main light emission amount using only the face area as the light control area, the influence of other areas such as the background of the person cannot be excluded and the exposure may not be good.

本発明の目的は、撮影者の期待通りの露出となる確率をより高めることを可能とした撮像装置及び制御方法を提供することにある。 An object of the present invention is to provide a possibility as the imaging device and controls how that increase the probability of exposure as expected by the photographer.

上述の目的を達成するために、本発明にかかる撮像装置は、被写体に対して発光を行う発光手段を用いた撮影が可能な撮像装置であって、複数の測光領域を有し、各測光領域に対して測光を行う測光手段と、撮像して得られた画像信号に基づいて前記被写体の顔情報を取得する取得手段と、前記発光手段を発光させていないときに前記測光手段により測光して得られた第1の輝度値と、前記発光手段を発光させているときに前記測光手段により測光して得られた第2の輝度値との比を、前記複数の測光領域の各測光領域について演算する輝度比演算手段と、前記輝度比演算手段により演算された各測光領域における前記第1の輝度値と前記第2の輝度値との比の中から基準となる比の値を抽出する抽出手段と、前記抽出手段により前記基準となる比の値を抽出する対象となる対象測光領域を、前記取得手段により取得した前記顔情報に基づいて設定する設定手段と、前記対象測光領域以外の測光領域を含む複数の測光領域に対して前記抽出手段により抽出された前記基準となる比の値と前記輝度比演算手段により演算された比の値とを比較した結果に基づいて、前記測光手段により測光して得られた前記対象測光領域以外の測光領域を含む複数の測光領域の輝度値の重み付け演算を行う重み付け演算手段と、前記重み付け演算手段による重み付け演算の結果に基づいて、前記発光手段の本発光量を演算する発光量演算手段と、を備えることを特徴とする。 In order to achieve the above-described object, an imaging apparatus according to the present invention is an imaging apparatus capable of photographing using a light emitting unit that emits light to a subject, and has a plurality of photometric areas, and each photometric area A photometric unit that performs photometry on the subject, an acquisition unit that acquires face information of the subject based on an image signal obtained by imaging, and a photometric unit that performs photometry when the light emitting unit is not emitting light. The ratio between the obtained first luminance value and the second luminance value obtained by photometry by the photometry means when the light emitting means is emitting is calculated for each photometry area of the plurality of photometry areas. Extraction for extracting a ratio value serving as a reference from the ratio between the first luminance value and the second luminance value in each photometric area calculated by the luminance ratio calculating means Means and the reference by the extracting means The target metering area for which to extract the value of that ratio, and setting means for setting, based on the face information acquired by the acquisition unit to a plurality of photometric areas including metering area other than the target metering area based on the result of comparing the value of the calculated ratio by the value before Symbol luminance ratio calculating means of the ratio to be the reference extracted by the extraction means, said target photometric obtained by photometry by the photometric means A weighting calculation means for performing weighting calculation of luminance values of a plurality of photometry areas including a photometry area other than the area, and a light emission amount calculation for calculating a main light emission amount of the light emitting means based on a result of the weighting calculation by the weighting calculation means And means.

本発明によれば、撮影者の期待通りの露出となる確率をより高めることが可能となる。 According to the present invention, it becomes possible to increase the probability of exposure expected for shooting person.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔第1の実施の形態〕
図1は、本発明の第1の実施の形態に係る撮像装置としてのカメラ本体、交換レンズ、フラッシュ装置の内部構成を示す構成図である。
[First Embodiment]
FIG. 1 is a configuration diagram showing internal configurations of a camera body, an interchangeable lens, and a flash device as an imaging device according to a first embodiment of the present invention.

図1において、カメラは、レンズ交換が可能ないわゆる一眼レフタイプであり、カメラ本体1に対して交換レンズ2とフラッシュ装置3が着脱可能に構成されている。カメラ本体1は、メカニカルシャッタ(以下シャッタ)10、ローパスフィルタ11、撮像素子12、主ミラー13、第1の反射ミラー14、第2の反射ミラー16、赤外カットフィルタ17、絞り18を備えている。更に、カメラ本体1は、2次結像レンズ19、焦点検出用センサ20、ピント板21、ペンタプリズム22、接眼レンズ23、第3の反射ミラー24、集光レンズ25、測光用センサ26を備えている。   In FIG. 1, the camera is a so-called single-lens reflex type capable of exchanging lenses, and an interchangeable lens 2 and a flash device 3 are detachably attached to the camera body 1. The camera body 1 includes a mechanical shutter (hereinafter referred to as shutter) 10, a low-pass filter 11, an image sensor 12, a main mirror 13, a first reflection mirror 14, a second reflection mirror 16, an infrared cut filter 17, and a diaphragm 18. Yes. The camera body 1 further includes a secondary imaging lens 19, a focus detection sensor 20, a focus plate 21, a pentaprism 22, an eyepiece lens 23, a third reflection mirror 24, a condenser lens 25, and a photometric sensor 26. ing.

撮像素子12は、エリアの蓄積型光電変換素子(例えばCMOSやCCD)から構成されている。主ミラー13は、半透過性の主ミラーである。主ミラー13と第1の反射ミラー14は、ともに撮影時には駆動機構(不図示)により図示の位置から上方に跳ね上げられる。近軸的結像面15は、第1の反射ミラー14による撮像素子12の撮像面と共役な結像面を例示したものである。絞り18は、2つの開口部を有する。   The image sensor 12 is composed of an area storage type photoelectric conversion element (for example, CMOS or CCD). The main mirror 13 is a semi-transmissive main mirror. Both the main mirror 13 and the first reflecting mirror 14 are flipped upward from the illustrated position by a drive mechanism (not shown) during photographing. The paraxial imaging plane 15 exemplifies an imaging plane conjugate with the imaging plane of the imaging device 12 by the first reflection mirror 14. The diaphragm 18 has two openings.

焦点検出用センサ20は、エリアの蓄積型光電変換素子(例えばCMOSやCCD)から構成されており、図2に示すように2つのエリアにそれぞれ配置された受光センサ部20A、受光センサ部20Bを備えている。受光センサ部20A、受光センサ部20Bは、絞り18の2つの開口部にそれぞれ対応しており、多数の区画に分割されている。また、焦点検出用センサ20は、受光センサ部20A、受光センサ部20Bに加えて、信号蓄積部や信号処理用の周辺回路等が同一チップ上に集積回路として作り込まれている。   The focus detection sensor 20 is composed of area-storage photoelectric conversion elements (for example, CMOS or CCD), and includes a light receiving sensor unit 20A and a light receiving sensor unit 20B arranged in two areas as shown in FIG. I have. The light receiving sensor unit 20A and the light receiving sensor unit 20B correspond to the two openings of the diaphragm 18, respectively, and are divided into a number of sections. In addition to the light receiving sensor unit 20A and the light receiving sensor unit 20B, the focus detection sensor 20 includes a signal storage unit, a signal processing peripheral circuit, and the like as an integrated circuit on the same chip.

上記の第1の反射ミラー14から焦点検出用センサ20までの構成は、例えば特開平9−184965号公報に詳細に記載されているように、撮像画面内の任意の位置での像ずれ方式での焦点検出を可能とするものである。   The configuration from the first reflecting mirror 14 to the focus detection sensor 20 is an image shift method at an arbitrary position in the imaging screen, as described in detail in, for example, Japanese Patent Application Laid-Open No. 9-184965. This makes it possible to detect the focus.

測光用センサ26は、例えばシリコンフォトダイオード等の光電変換素子から構成されており、被写体の輝度に関する情報を得るためのセンサである。測光用センサ26は、図3に示すように格子状に複数に分割された受光センサ部26Aを備えており、撮像画面の略全体を視野としている。受光センサ部26Aは、本実施の形態では受光視野内が7列×5行の35分割されている。35分割された各受光部をPD1〜PD35と表記する。測光用センサ26は、受光センサ部26Aに加えて、信号増幅部や信号処理用の周辺回路等が同一チップ上に集積回路として作り込まれている。 The photometric sensor 26 is composed of a photoelectric conversion element such as a silicon photodiode, for example, and is a sensor for obtaining information related to the luminance of the subject. The photometric sensor 26 includes a light receiving sensor unit 26A divided into a plurality of grids as shown in FIG. In this embodiment, the light receiving sensor section 26A is divided into 35 columns of 7 columns × 5 rows in the light receiving field. The light receiving parts divided into 35 are denoted as PD1 to PD35. In the photometric sensor 26, in addition to the light receiving sensor portion 26A, a signal amplifying portion, a peripheral circuit for signal processing, and the like are built as an integrated circuit on the same chip.

上記のピント板21、ペンタプリズム22、接眼レンズ23によりファインダ光学系が構成される。測光用センサ26には、主ミラー13により反射されてピント板21により拡散された光線のうち光軸外の一部が入射する。   The focus plate 21, the pentaprism 22, and the eyepiece lens 23 constitute a finder optical system. Of the light beam reflected by the main mirror 13 and diffused by the focus plate 21, a part outside the optical axis is incident on the photometric sensor 26.

図4は、焦点検出用センサ20による撮像画面内の焦点検出位置と35分割された測光用センサ26との対応位置関係を示す図である。本実施の形態では、撮像画面内の例えば3つの焦点検出位置S0〜S2で焦点検出を行う。焦点検出位置S0は、測光用センサ26の受光部PD18に対応する。焦点検出位置S1は、測光用センサ26の受光部PD16に対応する。焦点検出位置S2は、測光用センサ26の受光部PD20に対応する。尚、測光用センサ26における受光センサ部26Aの分割数35と、3つの焦点検出位置S0〜S2は一例であり、これに限定されるものではない。   FIG. 4 is a diagram illustrating a corresponding positional relationship between the focus detection position in the imaging screen by the focus detection sensor 20 and the 35 photometric sensors 26 divided into 35 parts. In the present embodiment, focus detection is performed at, for example, three focus detection positions S0 to S2 in the imaging screen. The focus detection position S0 corresponds to the light receiving unit PD18 of the photometric sensor 26. The focus detection position S1 corresponds to the light receiving unit PD16 of the photometric sensor 26. The focus detection position S2 corresponds to the light receiving unit PD20 of the photometric sensor 26. The number of divisions 35 of the light receiving sensor unit 26A in the photometric sensor 26 and the three focus detection positions S0 to S2 are merely examples, and the present invention is not limited thereto.

図1の説明に戻る。カメラ本体1において、マウント部27は、カメラ本体1に交換レンズ2を取り付けるための部材である。接点部28は、カメラ本体1と交換レンズ2との間の情報通信に用いられる。接続部29は、カメラ本体1にフラッシュ装置3を取り付けるための部材である。   Returning to the description of FIG. In the camera body 1, the mount portion 27 is a member for attaching the interchangeable lens 2 to the camera body 1. The contact portion 28 is used for information communication between the camera body 1 and the interchangeable lens 2. The connection portion 29 is a member for attaching the flash device 3 to the camera body 1.

交換レンズ2は、撮影レンズを構成する光学レンズ30a〜30e、絞り31、カメラ本体1と情報通信を行うための接点部32、交換レンズ2をカメラ本体1に取り付けるためのマウント部33を備えている。フラッシュ装置3は、発光部(本例ではキセノン管)34、反射笠35、集光用のフレネルレンズ36、発光部34の発光量を検出する発光量センサ(モニタセンサ)37、フラッシュ装置3をカメラ本体1に取り付けるための取付部38を備えている。   The interchangeable lens 2 includes optical lenses 30 a to 30 e constituting a photographing lens, a diaphragm 31, a contact portion 32 for performing information communication with the camera body 1, and a mount portion 33 for attaching the interchangeable lens 2 to the camera body 1. Yes. The flash device 3 includes a light emitting unit (xenon tube in this example) 34, a reflective shade 35, a condensing Fresnel lens 36, a light emission amount sensor (monitor sensor) 37 that detects the light emission amount of the light emitting unit 34, and the flash device 3. An attachment portion 38 for attaching to the camera body 1 is provided.

図5は、カメラ本体、交換レンズ、フラッシュ装置の電気回路の構成例を示すブロック図である。   FIG. 5 is a block diagram illustrating a configuration example of an electric circuit of the camera body, the interchangeable lens, and the flash device.

図5において、カメラ本体1は、更に、制御部41、シャッタ駆動部42、信号処理回路43、記憶部44、第1のモータドライバ45、第1のモータ46、表示器47、レリーズスイッチ48、ライブビュー開始スイッチ49、記憶部50を備えている。   In FIG. 5, the camera body 1 further includes a control unit 41, a shutter drive unit 42, a signal processing circuit 43, a storage unit 44, a first motor driver 45, a first motor 46, a display 47, a release switch 48, A live view start switch 49 and a storage unit 50 are provided.

制御部41は、カメラ全体の制御を行う。制御部41は、A/Dコンバータ41a、タイマ41b、演算論理ユニット(ALU)41c、ROM41d、RAM41e、シリアル通信ポート(SPI)41f等を内蔵したワンチップマイクロコンピュータから構成されている。また、制御部41は、ROM41dに格納されたプログラムに基づき図6a、図6b、図7の各フローチャートに示す処理を実行する。ROM41dには、後述のLVL0決定用テーブル(図8)、W(i)値決定用テーブル(図10)が格納されている。 The control unit 4 1 controls the entire camera. The control unit 41 is composed of a one-chip microcomputer incorporating an A / D converter 41a, a timer 41b, an arithmetic logic unit (ALU) 41c, a ROM 41d, a RAM 41e, a serial communication port (SPI) 41f, and the like. Further, the control unit 41 executes the processes shown in the flowcharts of FIGS. 6a, 6b, and 7 based on the program stored in the ROM 41d. The ROM 41d stores a later-described LVL0 determination table (FIG. 8) and a W (i) value determination table (FIG. 10).

シャッタ10、撮像素子12、焦点検出用センサ20、測光用センサ26は、図1等に図示したものと同一である。焦点検出用センサ20及び測光用センサ26の出力信号は、制御部41のA/Dコンバータ41aの入力端子に入力される。シャッタ駆動部42は、制御部41の出力端子に接続されており、シャッタ10を駆動する。   The shutter 10, the image sensor 12, the focus detection sensor 20, and the photometry sensor 26 are the same as those illustrated in FIG. Output signals of the focus detection sensor 20 and the photometry sensor 26 are input to the input terminal of the A / D converter 41a of the control unit 41. The shutter drive unit 42 is connected to the output terminal of the control unit 41 and drives the shutter 10.

信号処理回路43は、制御部41の指示に従って撮像素子12を制御し、撮像素子12から出力される撮像信号をA/D変換しながら入力して信号処理を行い、画像信号を得る。また、信号処理回路43は、得られた画像信号から被写体(人間)の目・口といった特徴を抽出して人間の顔を検出し顔情報(顔位置情報、顔大きさ情報)として得る顔検出機能も有する。また、信号処理回路43は、得られた画像信号を記憶部50に記録するに際して圧縮等の必要な画像処理を行う。 The signal processing circuit 4 3 controls the imaging device 12 according to an instruction of the control section 41 performs signal processing an image signal output from the imaging device 12 to input while converting A / D, to obtain an image signal. Further, the signal processing circuit 43 extracts features such as the eyes and mouth of the subject (human) from the obtained image signal to detect a human face and obtain face information (face position information and face size information) as face information. It also has a function. Further, the signal processing circuit 43 performs necessary image processing such as compression when recording the obtained image signal in the storage unit 50.

記憶部44は、例えばDRAMとして構成されており、信号処理回路43が種々の信号処理を行う際のワーク用メモリとして使われたり、表示器47に画像を表示する際のVRAMとして使われたりする。第1のモータドライバ45は、制御部41の出力端子に接続されており、制御部41の制御に基づき主ミラー13及び第1の反射ミラー14のアップ/ダウンと、シャッタ10のチャージ(シャッタ10を初期位置に戻す動作)を行う。表示器47は、液晶パネルから構成されており、制御部41により点灯が制御されることで各種の撮像画像等を表示する。   The storage unit 44 is configured as a DRAM, for example, and is used as a work memory when the signal processing circuit 43 performs various signal processing or as a VRAM when displaying an image on the display unit 47. . The first motor driver 45 is connected to the output terminal of the control unit 41, and based on the control of the control unit 41, the main mirror 13 and the first reflection mirror 14 are up / down, and the shutter 10 is charged (shutter 10 To return to the initial position. The display 47 is composed of a liquid crystal panel, and displays various captured images and the like when the lighting is controlled by the control unit 41.

レリーズスイッチ48は、撮影の際に操作者により操作される。ライブビュー開始スイッチ49は、ライブビュー機能(撮像素子12により撮像されるスルー画像を表示器47にリアルタイムで表示しながら構図確認やピント合わせを行う機能)を開始させる際に操作される。記憶部50は、例えばフラッシュメモリまたは光ディスクとして構成されており、撮像された画像信号を記憶する。   The release switch 48 is operated by an operator at the time of shooting. The live view start switch 49 is operated when starting a live view function (a function for performing composition confirmation and focusing while displaying a through image captured by the image sensor 12 on the display 47 in real time). The storage unit 50 is configured as a flash memory or an optical disc, for example, and stores captured image signals.

接点部28は、交換レンズ2の接点部32と接触されるものであり、制御部41のシリアル通信ポート41fを経由する入出力信号が接続される。これにより、カメラ本体1と交換レンズ2との間の情報通信が可能となっている。接続部29は、フラッシュ装置3の接続部38と接続されるものであり、制御部41のシリアル通信ポート41fを経由する入出力信号が接続される。これにより、カメラ本体1とフラッシュ装置3との間の情報通信が可能となっている。   The contact portion 28 is in contact with the contact portion 32 of the interchangeable lens 2 and is connected with an input / output signal via the serial communication port 41 f of the control portion 41. Thereby, information communication between the camera body 1 and the interchangeable lens 2 is possible. The connection unit 29 is connected to the connection unit 38 of the flash device 3 and is connected to an input / output signal via the serial communication port 41 f of the control unit 41. Thereby, information communication between the camera body 1 and the flash device 3 is possible.

交換レンズ2は、更に、レンズ制御部51、第2のモータドライバ52、第2のモータ53、第3のモータドライバ54、第3のモータ55、距離エンコーダ56、ズームエンコーダ57を備えている。レンズ制御部51は、シリアル通信ポート(SPI)51a、演算論理ユニット(ALU)51b、ROM51c、RAM51d、タイマ51e等を内蔵したワンチップマイクロコンピュータから構成されている。   The interchangeable lens 2 further includes a lens control unit 51, a second motor driver 52, a second motor 53, a third motor driver 54, a third motor 55, a distance encoder 56, and a zoom encoder 57. The lens control unit 51 includes a one-chip microcomputer incorporating a serial communication port (SPI) 51a, an arithmetic logic unit (ALU) 51b, a ROM 51c, a RAM 51d, a timer 51e, and the like.

第2のモータドライバ52は、レンズ制御部51の出力端子に接続されており、レンズ制御部51の制御に基づき焦点調節を行うための第2のモータ53を駆動する。第3のモータドライバ54は、レンズ制御部51の出力端子に接続されており、レンズ制御部51の制御に基づき絞り31の制御を行うための第3のモータ55を駆動する。   The second motor driver 52 is connected to the output terminal of the lens control unit 51 and drives the second motor 53 for performing focus adjustment based on the control of the lens control unit 51. The third motor driver 54 is connected to the output terminal of the lens control unit 51, and drives a third motor 55 for controlling the diaphragm 31 based on the control of the lens control unit 51.

距離エンコーダ56は、レンズ制御部51の入力端子に接続されており、交換レンズ2内の焦点調節レンズの繰り出し量、即ち被写体距離に関する情報を測定する。ズームエンコーダ57は、レンズ制御部51の入力端子に接続されており、交換レンズ2がズームレンズである場合に撮影時の焦点距離情報を測定する。接点部32は、レンズ制御部51のシリアル通信ポート51aを経由する入出力信号が接続される。   The distance encoder 56 is connected to the input terminal of the lens control unit 51, and measures the amount of extension of the focus adjustment lens in the interchangeable lens 2, that is, information on the subject distance. The zoom encoder 57 is connected to the input terminal of the lens control unit 51 and measures focal length information at the time of shooting when the interchangeable lens 2 is a zoom lens. The contact unit 32 is connected to an input / output signal via the serial communication port 51 a of the lens control unit 51.

交換レンズ2がカメラ本体1に装着されると、それぞれの接点部32と接点部28とが接続される結果、交換レンズ2のレンズ制御部51は、カメラ本体1の制御部41とのデータ通信が可能となる。カメラ本体1の制御部41が必要とする情報は、レンズ制御部51から制御部41へデータ通信により出力される。前記情報には、焦点検出や露出演算を行うために必要なレンズ固有の光学的な情報、距離エンコーダ56で測定された被写体距離に関する情報、ズームエンコーダ57で測定された焦点距離情報を含む。   When the interchangeable lens 2 is attached to the camera body 1, the respective contact portions 32 and the contact portions 28 are connected. As a result, the lens control portion 51 of the interchangeable lens 2 performs data communication with the control portion 41 of the camera body 1. Is possible. Information required by the control unit 41 of the camera body 1 is output from the lens control unit 51 to the control unit 41 by data communication. The information includes optical information unique to the lens necessary for focus detection and exposure calculation, information on the subject distance measured by the distance encoder 56, and focal length information measured by the zoom encoder 57.

また、カメラ本体1の制御部41で処理された情報は、制御部41からレンズ制御部51へデータ通信により出力される。前記情報には、制御部41が焦点検出や露出演算を行った結果求められた焦点調節情報、絞り情報を含む。レンズ制御部51は、カメラ本体1の制御部41から出力された焦点調節情報に従って第2のモータドライバ52を制御し、絞り情報に従って第3のモータドライバ54を制御する。   Information processed by the control unit 41 of the camera body 1 is output from the control unit 41 to the lens control unit 51 by data communication. The information includes focus adjustment information and aperture information obtained as a result of the focus detection and exposure calculation performed by the control unit 41. The lens control unit 51 controls the second motor driver 52 according to the focus adjustment information output from the control unit 41 of the camera body 1 and controls the third motor driver 54 according to the aperture information.

フラッシュ装置3は、更に、フラッシュ制御部61、昇圧部62を備えている。発光部34及び発光量センサ37は、図1に図示したものと同一である。フラッシュ制御部61は、演算論理ユニット(ALU)、ROM、RAM、A/Dコンバータ、シリアル通信ポート(SPI)(以上不図示)等を内蔵したワンチップマイクロコンピュータから構成されている。昇圧部62は、発光部34の発光に必要な300V程度の高圧電圧を作りその高圧電圧を充電する機能を有する。   The flash device 3 further includes a flash controller 61 and a booster 62. The light emitting unit 34 and the light emission amount sensor 37 are the same as those illustrated in FIG. The flash control unit 61 is composed of a one-chip microcomputer incorporating an arithmetic logic unit (ALU), ROM, RAM, A / D converter, serial communication port (SPI) (not shown) and the like. The step-up unit 62 has a function of generating a high voltage of about 300 V necessary for light emission of the light emitting unit 34 and charging the high voltage.

フラッシュ装置3がカメラ本体1に装着されると、それぞれの接続部38と接続部29とが接続される結果、フラッシュ装置3のフラッシュ制御部61は、カメラ本体1の制御部41とのデータ通信が可能となる。フラッシュ制御部61は、カメラ本体1の制御部41からの通信内容に従って昇圧部62を制御することで発光部34の発光開始/発光停止を行うと共に、発光量センサ37の検出量をカメラ本体1の制御部41に対して出力する。   When the flash device 3 is attached to the camera body 1, the respective connection units 38 and 29 are connected. As a result, the flash control unit 61 of the flash device 3 performs data communication with the control unit 41 of the camera body 1. Is possible. The flash control unit 61 controls the boosting unit 62 according to the communication content from the control unit 41 of the camera body 1 to start / stop the light emission of the light emitting unit 34, and the detected amount of the light emission amount sensor 37 is set to the camera body 1. To the control unit 41.

次に、上記構成を有する本実施の形態のカメラの動作について図6a〜図10を参照しながら説明する。   Next, the operation of the camera of the present embodiment having the above configuration will be described with reference to FIGS.

図6a、図6bは、カメラにおける本発明に関わる具体的な動作シーケンスを示すフローチャートである。   6a and 6b are flowcharts showing a specific operation sequence related to the present invention in the camera.

図6a、図6bにおいて、カメラの電源スイッチ(不図示)が操作者によりオンされると、カメラ本体1の制御部41が動作可能となり本処理が開始される。   6a and 6b, when a power switch (not shown) of the camera is turned on by the operator, the control unit 41 of the camera body 1 becomes operable and this processing is started.

ステップS101において、制御部41は、フラッシュ装置3のフラッシュ制御部61と通信を行い、昇圧部62を動作させて発光部34(フラッシュ)の発光に十分な高圧電圧を発生するための充電を行うように指示する。   In step S101, the control unit 41 communicates with the flash control unit 61 of the flash device 3, operates the boosting unit 62, and performs charging to generate a high voltage sufficient for light emission of the light emitting unit 34 (flash). To instruct.

次にステップS102において、制御部41は、交換レンズ2のレンズ制御部51と通信を行い、測距や測光に必要な交換レンズ2を構成する各種レンズの情報を得る。   In step S102, the control unit 41 communicates with the lens control unit 51 of the interchangeable lens 2 to obtain information on various lenses constituting the interchangeable lens 2 necessary for distance measurement and photometry.

次にステップS103において、制御部41は、ライブビュー開始スイッチ(LVSW)49が操作者によりオンされているかどうかをチェックする。ライブビュー開始スイッチ49がオンされていない場合は、ステップS104へ進む。   In step S103, the control unit 41 checks whether the live view start switch (LVSW) 49 is turned on by the operator. If the live view start switch 49 is not turned on, the process proceeds to step S104.

次にステップS104において、制御部41は、前回の撮影時においてRAM41eに記憶された撮像画面における人物被写体の顔の位置の座標を示す顔位置情報及び人物被写体の顔の大きさを示す顔大きさ情報をクリアする。その理由は、顔位置情報及び顔大きさ情報はライブビュー開始スイッチ49がオンされてライブビュー動作が開始された場合に有効な情報となるが、そうでない場合は意味を持たないためである。   Next, in step S104, the control unit 41 detects face position information indicating the coordinates of the face position of the human subject on the imaging screen stored in the RAM 41e during the previous shooting, and a face size indicating the face size of the human subject. Clear information. The reason is that the face position information and the face size information are effective information when the live view start switch 49 is turned on and the live view operation is started, but otherwise, there is no meaning.

次にステップS105において、制御部41は、焦点検出用センサ20に対して制御信号を出力し、焦点検出用センサ20における焦点検出に伴う信号蓄積部に対する信号の蓄積を行う。制御部41は、信号の蓄積が終了すると、焦点検出用センサ20の信号蓄積部に蓄積された信号を読み出しながらA/D変換を行う。更に、制御部41は、A/D変換された各デジタルデータに対してシェーディング補正等の必要な各種のデータ補正を行う。   Next, in step S <b> 105, the control unit 41 outputs a control signal to the focus detection sensor 20, and accumulates signals in the signal accumulation unit associated with focus detection in the focus detection sensor 20. When the signal accumulation is completed, the control unit 41 performs A / D conversion while reading the signal accumulated in the signal accumulation unit of the focus detection sensor 20. Furthermore, the control unit 41 performs various necessary data corrections such as shading correction on each A / D converted digital data.

次にステップS106において、制御部41は、焦点検出を行うために必要なレンズ情報等をレンズ制御部51から入力し、レンズ情報と焦点検出用センサ20から得られているデジタルデータを基に撮像画面各部の焦点状態を演算する。更に、制御部41は、撮像画面内の焦点を合わせるべき領域を焦点検出位置S0〜S2(図4)の中から決定する。操作者により予め操作部材等により指定されている領域があるならばそれに従っても良い。制御部41は、決定された領域における焦点状態に従って合焦となるためのレンズ移動量を算出し、算出されたレンズ移動量をレンズ制御部51に出力する。   In step S106, the control unit 41 inputs lens information and the like necessary for focus detection from the lens control unit 51, and performs imaging based on the lens information and digital data obtained from the focus detection sensor 20. The focus state of each part of the screen is calculated. Further, the control unit 41 determines a region to be focused in the imaging screen from the focus detection positions S0 to S2 (FIG. 4). If there is an area designated in advance by an operator using an operation member or the like, the area may be followed. The control unit 41 calculates a lens movement amount for focusing according to the focus state in the determined area, and outputs the calculated lens movement amount to the lens control unit 51.

レンズ制御部51は、レンズ移動量に従って焦点調節用レンズを駆動するように第2のモータドライバ52に駆動信号を出力することで、第2のモータ53を駆動する。これにより、撮影レンズは被写体に対して合焦状態となる。焦点調節用レンズを駆動することで距離エンコーダ56により測定される情報が変化するので、各種レンズの情報の更新も行う。   The lens control unit 51 drives the second motor 53 by outputting a drive signal to the second motor driver 52 so as to drive the focus adjustment lens according to the lens movement amount. As a result, the photographing lens is brought into focus with respect to the subject. Since the information measured by the distance encoder 56 is changed by driving the focus adjustment lens, information on various lenses is also updated.

次にステップS107において、制御部41は、測光用センサ26から35分割された各受光部PD1〜PD35(図3)の信号を読み出しながらA/D変換を行い、撮像画面各部の輝度情報を入力する。更に、制御部41は、必要なレンズ情報等をレンズ制御部51から入力し、撮像画面各部の輝度情報の補正を行い、測光用センサ26の各受光部毎の被写体輝度情報を得る。   Next, in step S107, the control unit 41 performs A / D conversion while reading the signals of the light receiving units PD1 to PD35 (FIG. 3) divided into 35 from the photometric sensor 26, and inputs luminance information of each part of the imaging screen. To do. Further, the control unit 41 inputs necessary lens information and the like from the lens control unit 51, corrects luminance information of each part of the imaging screen, and obtains subject luminance information for each light receiving unit of the photometric sensor 26.

次にステップS108において、制御部41は、得られた測光用センサ26の各受光部毎の被写体輝度情報から、焦点検出用センサ20による焦点検出部分に対応した測光用センサ26の各受光部の輝度情報に重み付けを置いて撮像画面全体の輝度を算出する。制御部41は、このようにして算出された撮像画面全体の輝度情報に基づいて撮影に適する撮像素子12の電荷蓄積時間(即ちシャッタ速度)と絞り値を規定のプログラム線図(不図示)から決定し、表示器47に表示する。シャッタ速度または絞り値の一方が予めプリセットされている場合は、そのプリセット値と組み合わせて良好な露出となる他方の因子を決定する。   Next, in step S108, the control unit 41 uses the obtained subject luminance information for each light receiving unit of the photometric sensor 26 to determine each light receiving unit of the photometric sensor 26 corresponding to the focus detection portion by the focus detection sensor 20. The brightness of the entire imaging screen is calculated by weighting the brightness information. Based on the luminance information of the entire imaging screen calculated in this way, the control unit 41 determines the charge accumulation time (that is, shutter speed) and aperture value of the imaging device 12 suitable for imaging from a prescribed program diagram (not shown). It is determined and displayed on the display 47. When one of the shutter speed and the aperture value is preset in advance, the other factor that provides good exposure is determined in combination with the preset value.

尚、決定されたシャッタ速度と絞り値とのアペックス値に基づく露出値をEVTと呼ぶこととする。露出値EVTは下記の式で表される。   The exposure value based on the apex value between the determined shutter speed and aperture value is referred to as EVT. The exposure value EVT is expressed by the following formula.

EVT=Tv+Av
ここで、Tvはシャッタ速度のアペックス値、Avは絞り値のアペックス値である。
EVT = Tv + Av
Here, Tv is the apex value of the shutter speed, and Av is the apex value of the aperture value.

次にステップS109において、制御部41は、レリーズスイッチ48が操作者によりオンされるのを待つ。レリーズスイッチ48がオンされていない場合は、ステップS102に戻る。レリーズスイッチ48がオンされた場合は、ステップS117に進む。   Next, in step S109, the control unit 41 waits for the release switch 48 to be turned on by the operator. If the release switch 48 is not turned on, the process returns to step S102. If the release switch 48 is turned on, the process proceeds to step S117.

他方、上記ステップS103でライブビュー開始スイッチ49がオンされている場合は、ステップS110へ進む。ステップS110において、制御部41は、第1のモータドライバ45に制御信号を出力することで第1のモータ46を駆動し、主ミラー13及び第1の反射ミラー14を上方に跳ね上げる。   On the other hand, if the live view start switch 49 is turned on in step S103, the process proceeds to step S110. In step S <b> 110, the control unit 41 drives the first motor 46 by outputting a control signal to the first motor driver 45, and flips the main mirror 13 and the first reflection mirror 14 upward.

次にステップS111において、制御部41は、シャッタ駆動部42に対して制御信号を出力することでシャッタ10を開放状態とする。これにより、撮像素子12には撮影レンズからの光線が入射して撮像が可能となる。続いて、制御部41は、撮像素子12により撮像動作を行うように信号処理回路43に対して指示を出す。制御部41は、撮像動作が開始されると、得られた撮像画像を表示器47に表示するように制御する。こうしてライブビュー動作が開始される。   Next, in step S111, the control unit 41 outputs a control signal to the shutter drive unit 42 to open the shutter 10. As a result, a light beam from the photographing lens is incident on the image sensor 12 and imaging is possible. Subsequently, the control unit 41 instructs the signal processing circuit 43 to perform an imaging operation with the imaging element 12. When the imaging operation is started, the control unit 41 performs control so that the obtained captured image is displayed on the display unit 47. Thus, the live view operation is started.

次にステップS112において、制御部41は、表示器47に表示されるライブビュー画像の明るさや色合いが適切なものとなるように、撮像された画像データから露出(AE)制御やホワイトバランス(WB)制御のためのデータを入手する。更に、制御部41は、入手したデータを基に撮像素子12の電荷蓄積時間や色処理の補正を行う。露出制御用のデータからは本撮像時の露出値EVTも演算される。必要に応じてシャッタ速度や絞り値といった露出制御データもステップS108と同様に演算される。   Next, in step S112, the control unit 41 performs exposure (AE) control and white balance (WB) from the captured image data so that the brightness and color of the live view image displayed on the display device 47 are appropriate. ) Get control data. Further, the control unit 41 corrects the charge accumulation time and color processing of the image sensor 12 based on the obtained data. An exposure value EVT at the time of actual imaging is also calculated from the exposure control data. Exposure control data such as shutter speed and aperture value is calculated as necessary in the same manner as in step S108.

次にステップS113において、制御部41は、信号処理回路43により撮像画像から顔検出処理を行う。顔検出処理では、特開2005−184508号公報に記載されているように、画像データの中から目と口の特徴エッジを抽出して人物の顔位置を検知し、更に目と口を包含する輪郭を検出し、その重心位置を求めると共に輪郭内の領域の輝度を算出する。更に、算出された重心位置に基づいて撮像画面内の顔位置情報を求め、輪郭情報から顔大きさ情報を求める。   Next, in step S <b> 113, the control unit 41 performs face detection processing from the captured image by the signal processing circuit 43. In face detection processing, as described in Japanese Patent Application Laid-Open No. 2005-184508, feature edges of eyes and mouth are extracted from image data to detect the position of a person's face and further include eyes and mouth. The contour is detected, the position of the center of gravity is obtained, and the luminance of the region in the contour is calculated. Further, face position information in the imaging screen is obtained based on the calculated barycentric position, and face size information is obtained from the contour information.

次にステップS114において、制御部41は、信号処理回路43で求められた顔位置情報及び顔大きさ情報を入手し、RAM41eに格納する。尚、顔位置情報は、撮像画面内の例えば中央或いは左上端といった所定のポイントを原点としたx座標、y座標のようなもので良い。また、顔大きさ情報は、顔領域が広がる範囲を示すデータとして、顔位置情報を中心とした円の半径を表すデータ或いは正方形の一辺の長さデータといったもので良い。   Next, in step S114, the control unit 41 obtains the face position information and face size information obtained by the signal processing circuit 43, and stores them in the RAM 41e. The face position information may be x-coordinate and y-coordinate with the origin at a predetermined point such as the center or the upper left corner in the imaging screen. The face size information may be data indicating the radius of a circle centered on the face position information or length data of one side of the square as data indicating the range in which the face area extends.

次にステップS115において、制御部41は、レリーズスイッチ48が操作者によりオンされるのを待つ。レリーズスイッチ48がオンされていない場合は、ステップS112に戻り、ステップS112〜ステップS114の処理を繰り返す。レリーズスイッチ48がオンされている場合は、ステップS116に進む。   Next, in step S115, the control unit 41 waits for the release switch 48 to be turned on by the operator. If the release switch 48 is not turned on, the process returns to step S112, and the processes of steps S112 to S114 are repeated. If the release switch 48 is on, the process proceeds to step S116.

次にステップS116において、制御部41は、シャッタ駆動部42に対して制御信号を出力することでシャッタ10を閉じてライブビュー動作を終了する。続いて、制御部41は、第1のモータドライバ45に制御信号を出力することで第1のモータ46を駆動し、主ミラー13及び第1の反射ミラー14を跳ね上げ状態から一度ダウンさせると共にシャッタ10をチャージする。   Next, in step S116, the control unit 41 outputs a control signal to the shutter drive unit 42, thereby closing the shutter 10 and ending the live view operation. Subsequently, the control unit 41 drives the first motor 46 by outputting a control signal to the first motor driver 45, and once lowers the main mirror 13 and the first reflecting mirror 14 from the flip-up state. The shutter 10 is charged.

次にステップS117において、制御部41は、測光用センサ26から35分割された各受光部PD1〜PD35の信号を読み出しながらA/D変換を行い、撮像画面各部のプリ発光(予備発光)直前の輝度情報を入力する。ここで、測光用センサ26の各受光部毎のプリ発光直前の輝度情報(輝度値)をP(i)と呼ぶこととする。続いて、制御部41は、フラッシュ制御部61と通信を行い、発光部34(フラッシュ)のプリ発光を指示する。   Next, in step S117, the control unit 41 performs A / D conversion while reading the signals of the light receiving units PD1 to PD35 divided into 35 from the photometric sensor 26, and immediately before pre-emission (preliminary emission) of each part of the imaging screen. Enter brightness information. Here, the luminance information (luminance value) immediately before the pre-emission for each light receiving unit of the photometric sensor 26 is referred to as P (i). Subsequently, the control unit 41 communicates with the flash control unit 61 to instruct pre-emission of the light emitting unit 34 (flash).

これにより、フラッシュ制御部61は、発光量センサ37の出力信号に基づき発光部34が予め設定されたプリ発光量だけ発光するように発光部34を発光させる。このプリ発光が行われている間の被写体の輝度情報を得るために、制御部41は、測光用センサ26から35分割された各受光部PD1〜PD35の信号を読み出しながらA/D変換を行い、撮像画面各部のプリ発光時輝度情報を入力する。ここで、測光用センサ26の各受光部毎のプリ発光時の輝度情報(輝度値)をH(i)と呼ぶこととする。尚、ここでiは35分割された各受光部に対応した1〜35のことである。   Accordingly, the flash control unit 61 causes the light emitting unit 34 to emit light based on the output signal of the light emission amount sensor 37 so that the light emitting unit 34 emits light for a preset pre-emission amount. In order to obtain the luminance information of the subject during the pre-emission, the control unit 41 performs A / D conversion while reading the signals of the light receiving units PD1 to PD35 divided into 35 from the photometric sensor 26. The luminance information at the time of pre-emission of each part of the imaging screen is input. Here, luminance information (luminance value) at the time of pre-emission for each light receiving unit of the photometric sensor 26 is referred to as H (i). Here, i is 1 to 35 corresponding to each of the 35 light receiving portions.

次にステップS118において、制御部41は、発光部34(フラッシュ)の本発光量(本発光ゲイン)を決定する演算を行う。具体的な演算処理については図7のフローチャートを用いて後述する。   Next, in step S118, the control unit 41 performs a calculation to determine the main light emission amount (main light emission gain) of the light emitting unit 34 (flash). Specific calculation processing will be described later with reference to the flowchart of FIG.

次にステップS119において、制御部41は、第1のモータドライバ45に制御信号を出力することで第1のモータ46を駆動し、主ミラー13及び第1の反射ミラー14を上方に跳ね上げる。続いて、制御部41は、上記ステップS107にて演算された絞り値情報を交換レンズ2のレンズ制御部51に対して出力する。   Next, in step S119, the control unit 41 drives the first motor 46 by outputting a control signal to the first motor driver 45, and flips the main mirror 13 and the first reflection mirror 14 upward. Subsequently, the control unit 41 outputs the aperture value information calculated in step S <b> 107 to the lens control unit 51 of the interchangeable lens 2.

レンズ制御部51は、絞り値情報に従って絞り31を駆動するように第3のモータドライバ54に制御信号を出力することで第3のモータ55を駆動する。これにより、撮影レンズは絞り込み状態となる。   The lens control unit 51 drives the third motor 55 by outputting a control signal to the third motor driver 54 so as to drive the diaphragm 31 according to the diaphragm value information. As a result, the photographing lens is brought into a narrowed state.

次にステップS120において、制御部41は、シャッタ駆動部42に対して制御信号を出力することでシャッタ10を開放状態とする。これにより、撮像素子12には撮影レンズからの光線が入射して撮像が可能となる。続いて、制御部41は、上記ステップS107にて演算されたシャッタ時間に従って撮像素子12の電荷蓄積時間を設定して撮像素子12により撮像を行うように、信号処理回路43に対して指示を出す。また、制御部41は、撮像タイミングに同期してフラッシュ装置3のフラッシュ制御部61に対して発光部34(フラッシュ)の発光指示を与える。   In step S120, the control unit 41 outputs a control signal to the shutter driving unit 42 to open the shutter 10. As a result, a light beam from the photographing lens is incident on the image sensor 12 and imaging is possible. Subsequently, the control unit 41 instructs the signal processing circuit 43 to set the charge accumulation time of the image sensor 12 according to the shutter time calculated in step S <b> 107 and perform imaging by the image sensor 12. . In addition, the control unit 41 gives a light emission instruction of the light emitting unit 34 (flash) to the flash control unit 61 of the flash device 3 in synchronization with the imaging timing.

フラッシュ制御部61は、発光指示に従って、上記ステップS118にて演算された本発光量(本発光ゲイン)に対応する発光量となるように、発光量センサ37の出力信号に基づき発光部34を発光させる。これにより、フラッシュ発光を伴った撮像が行われる。撮像が終了すると、制御部41は、シャッタ駆動部42に対して制御信号を出力することでシャッタ10を遮光状態とする。これにより、撮像素子12に対する撮影レンズからの光線が遮断される。   The flash control unit 61 emits the light emitting unit 34 based on the output signal of the light emission amount sensor 37 so that the light emission amount corresponds to the main light emission amount (main light emission gain) calculated in step S118 according to the light emission instruction. Let Thereby, imaging with flash emission is performed. When the imaging is completed, the control unit 41 outputs a control signal to the shutter drive unit 42 to place the shutter 10 in a light-shielding state. Thereby, the light beam from the photographing lens with respect to the image sensor 12 is blocked.

次にステップS121において、制御部41は、交換レンズ2のレンズ制御部51に対して絞り31を開放するように情報を出力する。レンズ制御部51は、この情報に従って絞り31を駆動するように第3のモータドライバ54に制御信号を出力することで第3のモータ55を駆動する。これにより、撮影レンズは絞り開放状態となる。更に、制御部41は、第1のモータドライバ45に制御信号を出力することで第1のモータ46を駆動し、主ミラー13及び第1の反射ミラー14をダウンさせる。   Next, in step S <b> 121, the control unit 41 outputs information to the lens control unit 51 of the interchangeable lens 2 so as to open the diaphragm 31. The lens control unit 51 drives the third motor 55 by outputting a control signal to the third motor driver 54 so as to drive the diaphragm 31 according to this information. As a result, the photographing lens is in a fully open state. Furthermore, the control unit 41 drives the first motor 46 by outputting a control signal to the first motor driver 45, and lowers the main mirror 13 and the first reflection mirror 14.

次にステップS122において、制御部41は、撮像画像情報を撮像素子12からA/D変換しながら読み出し、必要な補正処理や補間処理を行うように信号処理回路43に対して指示を出す。   Next, in step S122, the control unit 41 reads the captured image information from the image sensor 12 while performing A / D conversion, and instructs the signal processing circuit 43 to perform necessary correction processing and interpolation processing.

次にステップS123において、制御部41は、信号処理回路43に対して指示を出して撮像画像情報に対してホワイトバランス調整を行う。具体的には、撮像画像情報において1画面内を複数に分割し、各領域毎の色差信号から被写体の白色領域を抽出する。更に、抽出された白色領域の信号に基づいて撮像画面全体の赤チャンネル及び青チャンネルのゲイン補正を行いホワイトバランス調整を行う。   Next, in step S123, the control unit 41 instructs the signal processing circuit 43 to perform white balance adjustment on the captured image information. Specifically, in the captured image information, one screen is divided into a plurality of areas, and the white area of the subject is extracted from the color difference signal for each area. Further, the white balance adjustment is performed by correcting the gain of the red channel and the blue channel of the entire imaging screen based on the extracted white region signal.

次にステップS124において、制御部41は、ホワイトバランス調整が行われた撮像画像情報を記録ファイルフォーマットに圧縮変換して記憶部44に記憶するように信号処理回路43に対して指示を出す。ステップS101〜124で一連の撮影シーケンスが終了する。   In step S <b> 124, the control unit 41 instructs the signal processing circuit 43 to compress and convert the captured image information subjected to white balance adjustment into a recording file format and store it in the storage unit 44. In steps S101 to S124, a series of shooting sequences is completed.

次に、上記図6bのステップS118で行う発光部34(フラッシュ)の本発光量(本発光ゲイン)を決定する演算処理について図7のフローチャートに従って説明する。   Next, calculation processing for determining the main light emission amount (main light emission gain) of the light emitting unit 34 (flash) performed in step S118 of FIG. 6B will be described with reference to the flowchart of FIG.

図7は、発光部の本発光量(本発光ゲイン)を決定する演算処理の詳細を示すフローチャートである。   FIG. 7 is a flowchart showing details of a calculation process for determining the main light emission amount (main light emission gain) of the light emitting unit.

図7において、ステップS151では、制御部41は、測光用センサ26の各測光エリア(測光領域)毎にプリ発光直前の輝度値P(i)とプリ発光時の輝度値H(i)とから、プリ発光時の反射光分のみの輝度値(被写体反射光量)D(i)を算出する。プリ発光直前の輝度値P(i)とプリ発光時の輝度値H(i)とはそれぞれ圧縮系での値であるため、下式で示すようにP(i)とH(i)とのべき乗をとって伸長させてから差分をとり、差分値を対数圧縮する演算を行う。   In FIG. 7, in step S151, the control unit 41 calculates the luminance value P (i) immediately before the pre-emission and the luminance value H (i) at the time of the pre-emission for each photometric area (photometric area) of the photometry sensor 26. Then, a luminance value (subject reflected light amount) D (i) for only the reflected light during pre-emission is calculated. Since the luminance value P (i) immediately before the pre-light emission and the luminance value H (i) at the time of the pre-light emission are values in the compression system, respectively, P (i) and H (i) The power is expanded by taking the power, and then the difference is taken and the difference value is logarithmically compressed.

D(i)=log(2H(i)−2P(i)
ここで、iは35分割された測光用センサ26の各受光部(測光エリア)に対応した1〜35のことである。
D (i) = log 2 (2 H (i) −2 P (i) )
Here, i is 1 to 35 corresponding to each light receiving portion (photometric area) of the photometric sensor 26 divided into 35.

次にステップS152において、制御部41は、測光用センサ26の各測光エリア毎にプリ発光直前の輝度値P(i)とプリ発光時の輝度値H(i)とから、下式で示すように輝度値の比R(i)を演算する。   Next, in step S152, the control unit 41 uses the luminance value P (i) immediately before the pre-light emission and the luminance value H (i) at the time of the pre-light emission for each photometry area of the photometry sensor 26 as shown in the following equation. The luminance value ratio R (i) is calculated.

R(i)=H(i)−P(i)
プリ発光直前の輝度値P(i)とプリ発光時の輝度値H(i)とはそれぞれ圧縮系での値であるため、この差分をとることは輝度値の比をとることと等価である。
R (i) = H (i) -P (i)
Since the luminance value P (i) immediately before the pre-emission and the luminance value H (i) at the time of the pre-emission are values in the compression system, taking this difference is equivalent to taking the ratio of the luminance values. .

輝度値の比を求める理由は、特開2005−275265号公報に記載されているように、35分割された測光用センサ26の各測光エリアにおいて輝度値の比の値が一致する測光エリアは被写体までの距離が一致する測光エリアとみなせることによる。   The reason for obtaining the ratio of the luminance values is that, as described in Japanese Patent Application Laid-Open No. 2005-275265, the photometric area in which the ratio of the luminance values matches in each photometric area of the photometric sensor 26 divided into 35 is the subject. This is because it can be regarded as a photometric area with the same distance.

次にステップS153において、制御部41は、被写体の距離に関する情報から下式で示すように所定値LVL0及びLVL1を演算する。LVL0は、上記ステップS102或いはステップS106にてレンズ制御部51から得られる距離エンコーダ56の情報(被写体までの物体距離に関する距離情報D)と、プリ発光時の発光光量に関する情報C2とから、次のように計算する。即ち、その距離における標準的な反射率の被写体の場合の反射輝度を考慮して計算する。   Next, in step S153, the control unit 41 calculates predetermined values LVL0 and LVL1 from the information regarding the distance of the subject as shown by the following equation. LVL0 is obtained from the information of the distance encoder 56 (distance information D related to the object distance to the subject) obtained from the lens control unit 51 in step S102 or step S106 and the information C2 related to the amount of emitted light during pre-emission. Calculate as follows. That is, the calculation is performed in consideration of the reflection luminance in the case of a subject having a standard reflectance at the distance.

LVL0は、距離情報Dでの標準的な反射率の被写体の反射輝度よりも少し高くなるように決める。これは、距離情報Dが実際は多少の誤差を持つことを考慮して、その誤差分の程度だけLVL0を高くしておき、実際の標準的な反射率の被写体におけるプリ発光時の反射光がLVL0よりも高くならないようにするためである。   LVL0 is determined to be slightly higher than the reflection luminance of the subject having the standard reflectance in the distance information D. In consideration of the fact that the distance information D actually has some errors, LVL0 is increased by an amount corresponding to the error, and the reflected light at the time of pre-emission in the subject having the actual standard reflectance is LVL0. This is to prevent the height from becoming higher.

LVL0=−log(D)×2+C2
一方、LVL1は、LVL0に対してC3を減じて決定される。C3は実際の標準的な反射率の被写体のプリ発光時の反射光がLVL1を下回らないように、距離情報Dの誤差等を考慮して決定される。
LVL0 = −log 2 (D) × 2 + C2
On the other hand, LVL1 is determined by subtracting C3 from LVL0. C3 is determined in consideration of an error of the distance information D and the like so that the reflected light at the time of pre-emission of the subject having an actual standard reflectance does not fall below LVL1.

LVL1=LVL0−C3
このように、距離情報Dから通常は被写体のプリ発光時の反射光は所定値LVL0とLVL1の間に入る前提で以下のフラッシュ本発光量を決定するための演算が行われる。
LVL1 = LVL0-C3
As described above, the following calculation for determining the flash main light emission amount is performed on the assumption that the reflected light during the pre-emission of the subject normally falls between the predetermined values LVL0 and LVL1 from the distance information D.

尚、レンズ交換可能な一眼レフタイプのカメラの場合には、カメラ本体に装着されたレンズによっては距離エンコーダ56を装備していないために距離情報Dは得られないといったこともある。ここで、その場合の所定値LVL0及びLVL1の算出方法を記す。   In the case of a single-lens reflex camera with interchangeable lenses, the distance information D may not be obtained because the distance encoder 56 is not provided depending on the lens attached to the camera body. Here, a calculation method of the predetermined values LVL0 and LVL1 in that case will be described.

まず、LVL0は撮影レンズの焦点距離情報に基づいて図8に示すLVL0決定用テーブル(table1)を参照して決定する。   First, LVL0 is determined with reference to the LVL0 determination table (table1) shown in FIG. 8 based on the focal length information of the taking lens.

LVL0=table1(f)
LVL0決定用テーブルは、撮影レンズの焦点距離(f)とLVL0との対応関係を示すテーブルである。
LVL0 = table1 (f)
The LVL0 determination table is a table showing the correspondence between the focal length (f) of the photographic lens and LVL0.

例えば撮影レンズの焦点距離(f)が28mmであれば(f<40mm)、0.5mの距離に標準的な反射率の被写体があった場合の反射輝度(0.5mにおける標準反射光)をLVL0とする。一般的に焦点距離28mmの撮影レンズを使って撮影を行う場合に、0.5mよりも近距離の被写体を撮影する頻度は極めて低いことから、殆どの場合に実際のプリ発光時の反射光量としてはLVL0よりも低くなる。   For example, if the focal length (f) of the photographic lens is 28 mm (f <40 mm), the reflection luminance (standard reflected light at 0.5 m) when a subject having a standard reflectance is located at a distance of 0.5 m. LVL0. In general, when photographing using a photographing lens having a focal length of 28 mm, the frequency of photographing a subject at a short distance of 0.5 m is extremely low. Becomes lower than LVL0.

以下同様に、焦点距離50mmの撮影レンズであれば0.8mの距離に標準的な反射率の被写体があった場合の反射輝度をLVL0とするという考え方で、図8のLVL0決定用テーブルは構成されている。撮影レンズの焦点距離に対してはある程度のステップで区切る方が合理的なので、LVL0決定用テーブルではそのように焦点距離を区切っている。   Similarly, the LVL0 determination table in FIG. 8 is configured based on the idea that the reflection luminance is LVL0 when an object with a standard reflectance is located at a distance of 0.8 m in the case of a photographing lens with a focal length of 50 mm. Has been. Since it is more reasonable to divide the focal length of the photographic lens in a certain amount of steps, the focal length is divided as such in the LVL0 determination table.

一方、距離情報Dが得られない場合のLVL1はLVL0からC1を減じて算出される。C1は経験則的に被写体からのプリ反射光量がLVL1よりも下回ることは無いように決められる。例えば焦点距離50mmの撮影レンズでフラッシュ撮影する場合に、被写体から6.4mより遠くに離れて撮影する確率は極めて低いとすれば、LVL0を決定する際の距離0.8mの場合に対して被写体からの反射光は6段低くなるのでC1は6とする。   On the other hand, LVL1 when distance information D is not obtained is calculated by subtracting C1 from LVL0. As a rule of thumb, C1 is determined so that the amount of pre-reflected light from the subject does not fall below LVL1. For example, when flash photography is performed with a photographing lens having a focal length of 50 mm, if the probability of photographing farther than 6.4 m from the subject is extremely low, the subject is compared to the case where the distance is 0.8 m when determining LVL0. Since the reflected light from the light source is 6 steps lower, C1 is set to 6.

LVL1=LVL0−C1
LVL0及びLVL1は共に圧縮系での値である。
LVL1 = LVL0-C1
Both LVL0 and LVL1 are values in the compression system.

次にステップS154において、制御部41は、信号処理回路43から顔位置情報及び顔大きさ情報が入手できているかどうかをチェックする。ライブビュー動作が開始されて上記ステップS114が実行されている場合は、顔位置情報及び顔大きさ情報が入手できている。そうでない場合は、上記ステップS114にて顔位置情報及び顔大きさ情報はクリアされているので、顔位置情報及び顔大きさ情報が入手できてはいないことになる。顔位置情報及び顔大きさ情報が入手できていない場合はステップS155へ進む。   In step S154, the control unit 41 checks whether face position information and face size information are available from the signal processing circuit 43. When the live view operation is started and step S114 is executed, face position information and face size information are available. If not, the face position information and the face size information are cleared in step S114, so that the face position information and the face size information are not available. If face position information and face size information are not available, the process proceeds to step S155.

次にステップS155において、制御部41は、後述する基準値BaseRを選択するための選択肢エリアを限定する係数K(i)を規定のデフォルト値に設定する。係数K(i)は、図9(a)に示すように測光用センサ26における35分割された各測光エリアに対してそれぞれ設定される。規定のデフォルト値とは、図9(b)に示すようにK(1)〜K(8)、K(14)、K(15)、K(21)、K(22)、K(28)、K(29)、K(35)の各値が0で、それ以外の各値は1である。   Next, in step S155, the control unit 41 sets a coefficient K (i) that limits an option area for selecting a reference value BaseR, which will be described later, to a specified default value. The coefficient K (i) is set for each of the 35 photometric areas divided by the photometric sensor 26 as shown in FIG. The specified default values are K (1) to K (8), K (14), K (15), K (21), K (22), K (28) as shown in FIG. , K (29), K (35) are 0, and the other values are 1.

他方、上記ステップS154にて顔位置情報及び顔大きさ情報が入手できている場合は、ステップS156へ進む。ステップS156において、制御部41は、基準値BaseRを選択するための選択肢エリアを限定する係数K(i)を、顔位置情報に応じて規定のデフォルト値から変更または該デフォルト値に設定する。   On the other hand, if face position information and face size information are available in step S154, the process proceeds to step S156. In step S156, the control unit 41 changes or sets a coefficient K (i) for limiting an option area for selecting the reference value BaseR from a specified default value according to face position information.

例えば、顔位置情報から図9(c)に示すように撮像画面中央付近に人物の顔が存在する場合には、係数K(i)は規定のデフォルト値のままである。顔位置情報から図9(d)に示すように撮像画面左端に寄った位置に人物の顔が存在する場合には、係数K(i)は規定のデフォルト値に対してK(8)、K(15)、K(22)、K(29)の4箇所の値を0から1に変更する。   For example, when a human face exists near the center of the imaging screen as shown in FIG. 9C from the face position information, the coefficient K (i) remains at the default value. As shown in FIG. 9D from the face position information, when a person's face exists at a position close to the left end of the imaging screen, the coefficient K (i) is K (8), K (15) Four values of K (22) and K (29) are changed from 0 to 1.

図示してはいないが、同様に、顔位置情報から撮像画面右端に寄った位置に人物の顔が存在する場合には、係数K(i)は規定のデフォルト値に対してK(14)、K(21)、K(28)、K(35)の4箇所の値を0から1に変更する。顔位置情報から撮像画面上部に寄った位置に人物の顔が存在する場合には、係数K(i)は規定のデフォルト値に対してK(2)〜K(6)の5箇所の値を0から1に変更する。   Although not shown, similarly, when a human face is present at a position near the right end of the imaging screen from the face position information, the coefficient K (i) is K (14) with respect to a specified default value. The values at four locations K (21), K (28), and K (35) are changed from 0 to 1. When a person's face is present at a position close to the upper part of the imaging screen from the face position information, the coefficient K (i) has five values K (2) to K (6) with respect to the specified default value. Change from 0 to 1.

即ち、制御部41は、基準値BaseR(基準となる比の値)を抽出する際に抽出対象となる測光領域を限定する係数を、信号処理回路43により得た顔位置情報・顔大きさ情報(顔情報)に応じて設定する。   That is, the control unit 41 obtains the coefficient for limiting the photometric area to be extracted when extracting the reference value BaseR (reference ratio value), the face position information / face size information obtained by the signal processing circuit 43. Set according to (Face Information).

尚、図9(f)に示すように顔大きさ情報がかなり大きい値を示していて撮像画面ほぼ全域が人物の顔であるような場合は、顔位置情報に従って撮像画面端部の係数K(i)の値を変更しても本発光量の演算結果に対して大きな意味を持たなくなる。これは、結果的に撮像画面中央付近の測光用センサ26の測光領域の多数のセンサ部に顔領域がかかるためである。よって、顔大きさ情報が所定以上大きい場合には、係数K(i)は図9(a)に示した規定のデフォルト値のままとしても良い。   As shown in FIG. 9F, when the face size information shows a considerably large value and almost the entire area of the imaging screen is a person's face, the coefficient K ( Even if the value of i) is changed, the calculation result of the actual light emission amount has no significant meaning. This is because, as a result, the face area covers many sensor portions in the photometry area of the photometry sensor 26 near the center of the imaging screen. Therefore, when the face size information is larger than a predetermined value, the coefficient K (i) may be kept at the default value shown in FIG.

次にステップS157において、制御部41は、測光用センサ26における35分割された測光エリアで係数K(i)が1となっている測光エリアの中から、輝度値D(i)が所定値LVL0とLVL1との間に入っている領域を抽出する。これにより、ガラス等の鏡面物体からの正反射により輝度値D(i)が異常に高くなっている測光エリアや、発光部34のフラッシュ光が届かないくらいに距離が離れていて輝度値D(i)が非常に低くなっている測光エリアが除外される。その結果、主被写体が存在しそうな測光エリアが抽出される。   Next, in step S157, the control unit 41 sets the luminance value D (i) to the predetermined value LVL0 from the photometric areas in which the coefficient K (i) is 1 in the 35 photometric areas divided by the photometric sensor 26. And an area between LVL1 and LVL1 are extracted. Accordingly, the luminance value D (i) is abnormally high due to specular reflection from a specular object such as glass, or the luminance value D (i) is so far away that the flash light of the light emitting unit 34 does not reach. Photometric areas where i) is very low are excluded. As a result, a photometric area where the main subject is likely to exist is extracted.

尚、プリ発光時の輝度値H(i)の値は輝度値D(i)の値と大きく変わらないことが多いので(プリ発光直前の輝度値P(i)が小さい場合が多いので)、該ステップS157では輝度値D(i)の代わりにプリ発光時の輝度値H(i)を使用してもよい。   Note that the value of the luminance value H (i) at the time of pre-light emission is not much different from the value of the luminance value D (i) (because the luminance value P (i) immediately before the pre-light emission is often small), In step S157, the luminance value H (i) at the time of pre-emission may be used instead of the luminance value D (i).

尚、係数K(i)が1の測光エリアのみから抽出を行っているので、通常、K(i)が規定のデフォルト値のままである条件では撮像画面の上端や左右端といった主被写体を配置しそうにない測光エリアは、やはり抽出対象から除外される。顔位置情報に応じて係数K(i)が0から1に変更された測光エリアは、人物の顔という主被写体が存在する可能性がある領域として抽出の候補に変更されていることになる。   Since the extraction is performed only from the photometric area having the coefficient K (i) of 1, the main subject such as the upper end and the left and right ends of the imaging screen is normally arranged under the condition that K (i) remains at the specified default value. Metering areas that are not likely are also excluded from extraction targets. The photometric area in which the coefficient K (i) is changed from 0 to 1 according to the face position information is changed to an extraction candidate as an area where a main subject called a human face may exist.

次にステップS158において、制御部41は、抽出された測光エリアの中で一番近距離にある被写体が主被写体である可能性が高いので、次のように基準エリアを選択する。即ち、上述したプリ発光直前(予備発光動作の前)の輝度値P(i)(第1の輝度値)と、プリ発光時(予備発光動作中)の輝度値H(i)(第2の輝度値)との比R(i)が最大値となっている測光エリアを基準エリアとして選択する。その基準エリアにおけるR(i)の値を基準値BaseR(基準となる比の値)と呼び、基準値BaseRとR(i)の値が同一の値を示している測光エリアを主被写体エリアとする。   Next, in step S158, the control unit 41 selects the reference area as follows because the subject closest to the extracted photometric area is likely to be the main subject. That is, the luminance value P (i) (first luminance value) immediately before the pre-light emission (before the preliminary light emission operation) and the luminance value H (i) (second luminance) at the time of pre-light emission (during the preliminary light emission operation). The photometric area where the ratio R (i) to the luminance value is the maximum value is selected as the reference area. The value of R (i) in the reference area is referred to as a reference value BaseR (reference ratio value), and a photometric area in which the values of the reference values BaseR and R (i) indicate the same value is referred to as a main subject area. To do.

次にステップS159において、制御部41は、測光用センサ26におけるi=1〜35の全ての測光エリアにおいて下式で示すように輝度値の比R(i)と基準値BaseRとの差RR(i)を算出する。   Next, in step S159, the control unit 41 determines the difference RR () between the ratio R (i) of the luminance value and the reference value BaseR as shown in the following formula in all photometric areas of i = 1 to 35 in the photometric sensor 26. i) is calculated.

RR(i)=baseR−R(i)
輝度値の比R(i)と基準値BaseRとは共に圧縮系での値なので、RR(i)は基準エリアのR(i)とその他の測光エリアのR(i)との比を算出していることになる。RR(i)の値が小さくなる測光エリアというのは、主被写体エリアであると想定し基準値BaseRとなった測光エリアの被写体と略等価な距離に被写体が存在する測光エリアである。
RR (i) = baseR−R (i)
Since both the luminance value ratio R (i) and the reference value BaseR are values in the compression system, RR (i) calculates the ratio of R (i) in the reference area and R (i) in the other photometric areas. Will be. The photometric area in which the value of RR (i) is small is a photometric area in which the subject exists at a distance approximately equivalent to the subject in the photometric area that is assumed to be the main subject area and has the reference value BaseR.

一方、RR(i)の値が正の方向に大きくなる測光エリアというのは、主被写体エリアであると想定し基準値BaseRとなった測光エリアの被写体よりも遠くに離れていた被写体が存在していると見なせる測光エリアである。逆に、RR(i)の値が負の方向に大きくなる測光エリアというのは、主被写体エリアであると想定し基準値BaseRとなった測光エリアの被写体よりも近くにあると見なせる測光エリアである。   On the other hand, the photometric area where the value of RR (i) increases in the positive direction is assumed to be the main subject area, and there is a subject that is farther away than the subject in the photometric area that has the reference value BaseR. This is a photometric area that can be regarded as Conversely, the photometric area in which the value of RR (i) increases in the negative direction is a photometric area that is assumed to be the main subject area and can be regarded as being closer to the subject in the photometric area having the reference value BaseR. is there.

即ち、こうした測光エリアは、被写体において主被写体以外に手前に障害物が存在する測光エリアや、ガラス等の鏡面による正反射が発生して異常に高い反射光量が得られた測光エリアであると考えられる。   That is, such a photometric area is considered to be a photometric area in which an object has an obstacle in front of it other than the main subject, or a photometric area in which specular reflection by a mirror surface such as glass occurs and an abnormally high amount of reflected light is obtained. It is done.

次にステップS160において、制御部41は、測光用センサ26におけるi=1〜35の全ての測光エリアにおいて算出されたRR(i)に応じて重み付け係数W(i)を決定する。具体的には、各測光エリアのRR(i)の値より図10に示すW(i)値決定用テーブル(table2)を参照して下式で示すようにW(i)を求める。   Next, in step S160, the control unit 41 determines the weighting coefficient W (i) according to RR (i) calculated in all photometry areas of i = 1 to 35 in the photometry sensor 26. Specifically, W (i) is obtained from the value of RR (i) in each photometric area with reference to the W (i) value determination table (table2) shown in FIG.

W(i)=table2(RR(i))
W(i)値決定用テーブルは、RR(i)とW(i)との対応関係を示すテーブルである。
W (i) = table2 (RR (i))
The W (i) value determination table is a table showing the correspondence between RR (i) and W (i).

W(i)値決定用テーブルによれば、RR(i)の値が基準値BaseRとなった測光エリアが重み付け上の最大値12がW(i)として与えられる。RR(i)の値が基準値BaseRと同一またはごく近い値となった測光エリアほどW(i)は高い値が与えられる。このような領域は主被写体領域または主被写体とほぼ同一距離の被写体とみなしているからである。RR(i)値の絶対値が0から大きくなるに従ってその測光エリアに与えられる重み付け係数W(i)は徐々に小さくなる。これは、主被写体であると仮定した測光エリアの被写体とは異なる被写体領域である可能性が高くなるからである。   According to the W (i) value determination table, the photometric area in which the value of RR (i) becomes the reference value BaseR is given the maximum value 12 on weighting as W (i). A photometric area in which the value of RR (i) is the same as or very close to the reference value BaseR is given a higher value for W (i). This is because such a region is regarded as a main subject region or a subject having substantially the same distance as the main subject. As the absolute value of the RR (i) value increases from 0, the weighting coefficient W (i) given to the photometric area gradually decreases. This is because there is a high possibility that the subject area is different from the subject in the photometry area assumed to be the main subject.

このように、各測光エリア毎に存在する被写体までの距離に応じて重み付け係数を与えて次ステップ以降による本発光量演算を行う。これにより、撮影毎に撮像画面内での主被写体位置が移動している場合や同一シーンを少しだけ構図を変えて撮影した場合などにおいても、略同様な本発光量を演算できるため、1枚毎に異なる露出結果になることを防止することができる。   In this way, the main light emission amount calculation is performed in the subsequent steps by giving a weighting coefficient according to the distance to the subject existing in each photometric area. As a result, even when the main subject position in the imaging screen is moved every time shooting is performed, or when the same scene is shot with a slightly different composition, the same amount of main light emission can be calculated. It is possible to prevent different exposure results from being obtained.

尚、上記ステップS155或いはステップS156で、K(i)の値が0とされて基準値BaseRを選択する選択肢からは外された測光エリアにおいても、RR(i)の値が基準値BaseRに近い値であれば重み付け係数W(i)は大きなものが与えられる。本実施の形態のこの点が、特開2005−184508号公報に記載されているように顔領域を検出し、検出された顔領域を調光領域に設定して本発光量を演算する手法とは異なる点である。   Note that the value of RR (i) is close to the reference value BaseR even in the photometric area where the value of K (i) is set to 0 and the reference value BaseR is not selected in step S155 or step S156. If it is a value, a large weighting coefficient W (i) is given. This point of the present embodiment is a method for detecting a face area as described in Japanese Patent Laid-Open No. 2005-184508, and setting the detected face area as a dimming area and calculating a main light emission amount. Is different.

次にステップS161において、制御部41は、下式で示すように測光用センサ26におけるi=1〜35の全ての測光エリアの被写体の反射光の重み付け演算を行う。   Next, in step S161, the control unit 41 performs a weighting calculation of the reflected light of the subject in all photometry areas of i = 1 to 35 in the photometry sensor 26 as shown by the following equation.

AVE=Σ(D(i)×W(i))/ΣW(i)
この重み付け演算により、主被写体エリアと見なした測光エリアと同一距離の被写体であると想定される測光エリアほど重み付けが大きくなった撮像画面全体の反射光の平均値AVEが算出される。
AVE = Σ (D (i) × W (i)) / ΣW (i)
By this weighting calculation, the average value AVE of the reflected light of the entire imaging screen in which the weighting is larger in the photometric area that is assumed to be the subject having the same distance as the photometric area regarded as the main subject area is calculated.

次にステップS162において、制御部41は、上記ステップS108或いはステップS112で決定されているシャッタ速度と絞り値とのアペックス値に基づく露出値EVTと、ステップS161で演算したAVEから、本発光の発光量Gを演算する。   Next, in step S162, the control unit 41 emits the main light emission from the exposure value EVT based on the apex value between the shutter speed and the aperture value determined in step S108 or step S112 and the AVE calculated in step S161. The amount G is calculated.

G=EVT−AVE
即ち、制御部41は、係数に応じて抽出された基準値BaseR(基準となる比の値)と、測光用センサ26の各測光領域のプリ発光直前の輝度値とプリ発光時の輝度値との比の値とを比較し、比較結果に基づき露光動作時の発光部34の発光量を演算する。
G = EVT-AVE
That is, the control unit 41 determines the reference value BaseR (reference ratio value) extracted according to the coefficient, the luminance value immediately before the pre-light emission and the luminance value at the time of the pre-light emission in each photometric area of the photometric sensor 26. And the light emission amount of the light emitting unit 34 during the exposure operation is calculated based on the comparison result.

本発光の発光量Gは、プリ発光時のフラッシュ発光量に対する本発光の相対値となる。発光量Gの値は、カメラ本体1の制御部41から通信によりフラッシュ装置3のフラッシュ制御部61に送信される。これにより、ステップS120にて発光量Gに従った発光量にて本発光が行われることで所望のフラッシュ撮像が行われる。   The light emission amount G of the main light emission is a relative value of the main light emission with respect to the flash light emission amount at the time of the pre-light emission. The value of the light emission amount G is transmitted from the control unit 41 of the camera body 1 to the flash control unit 61 of the flash device 3 by communication. Thereby, desired flash imaging is performed by performing the main light emission with the light emission amount according to the light emission amount G in step S120.

〔第2の実施の形態〕
本発明の第2の実施の形態は、上記第1の実施の形態に対して、下記の点において相違する。本実施の形態のその他の要素は、上記第1の実施の形態(図1〜図5)の対応するものと同一なので説明を省略する。
[Second Embodiment]
The second embodiment of the present invention differs from the first embodiment in the following points. Since the other elements of the present embodiment are the same as the corresponding ones of the first embodiment (FIGS. 1 to 5), description thereof will be omitted.

上記第1の実施の形態では、基準値BaseRを選択するための選択肢エリアを限定する係数K(i)を顔位置情報や顔大きさ情報が入手できていない状態では、図9(b)に示すデフォルト値に設定した。また、顔位置情報や顔大きさ情報が入手できている状態では、デフォルト値のうち一部を変更した。これに対し、本実施の形態では以下のような設定を行う。   In the first embodiment, the coefficient K (i) for limiting the option area for selecting the reference value BaseR is shown in FIG. 9B when the face position information and face size information are not available. Set to the default value shown. In addition, when face position information and face size information are available, some of the default values are changed. In contrast, in the present embodiment, the following settings are made.

図11(a)〜図11(e)は、本実施の形態に係る基準値BaseRを選択するための選択肢エリアを限定する係数K(i)の設定組み合わせテーブルの例を示す図である。   FIG. 11A to FIG. 11E are diagrams showing examples of setting combination tables of coefficients K (i) that limit option areas for selecting the reference value BaseR according to the present embodiment.

図11(a)〜図11(e)において、係数K(i)は、図11(a)のテーブルでは、K(1)〜K(8)、K(14)、K(15)、K(21)、K(22)、K(28)、K(29)、K(35)の各値が0で、それ以外の各値は1である。係数K(i)は、図11(b)のテーブルでは、K(1)〜K(7)、K(13)、K(14)、K(20)、K(21)、K(27)、K(28)、K(34)、K(35)の各値が0で、それ以外の各値は1である。 11 (a) to 11 (e), the coefficient K (i) is K (1) to K (8), K (14), K (15), K in the table of FIG. 11 (a). Each value of (21), K (22), K (28), K (29), K (35) is 0, and each other value is 1. The coefficient K (i) is K (1) to K (7), K (13), K (14), K (20), K (21), K (27) in the table of FIG. , K (28), K (34), K (35) are 0, and the other values are 1.

係数K(i)は、図11(c)のテーブルでは、K(1)〜K(9)、K(15)、K(16)、K(22)、K(23)、K(29)、K(30)の各値が0で、それ以外の各値は1である。係数K(i)は、図11(d)のテーブルでは、K(1)、K(7)、K(8)、K(14)、K(15)、K(21)、K(22)、K(28)〜K(35)の各値が0で、それ以外の各値は1である。係数K(i)は、図11(e)のテーブルでは、K(1)、K(7)、K(29)、K(35)の各値が0で、それ以外の各値は1である。 The coefficient K (i) is K (1) to K (9), K (15), K (16), K (22), K (23), K (29) in the table of FIG. , K (30) is 0, and all other values are 1. The coefficient K (i) is K (1), K (7), K (8), K (14), K (15), K (21), K (22) in the table of FIG. , K (28) to K (35) are 0, and the other values are 1. In the table of FIG. 11E, the coefficient K (i) is 0 for each value of K (1), K (7), K (29), K (35), and 1 for the other values. is there.

上述した5種類の係数K(i)の設定組み合わせテーブル(係数値テーブル)には、測光エリア(測光領域)を限定する係数が各測光エリア毎(各測光領域毎)に予め設定されている。制御部41は、5種類の係数K(i)の設定組み合わせテーブルから適する係数を顔情報(顔位置情報、顔大きさ情報)に基づいて選択する。   In the setting combination table (coefficient value table) of the five types of coefficients K (i) described above, coefficients that limit the photometric area (photometric area) are set in advance for each photometric area (each photometric area). The control unit 41 selects a suitable coefficient from the set combination table of the five types of coefficients K (i) based on face information (face position information and face size information).

上記図7のステップS155では顔位置情報及び顔大きさ情報がクリアされているので、標準的なK(i)値のテーブルである図11(a)のテーブルを選択する。また、ステップS156では入力されている顔位置情報が撮像画面左端寄りを示す情報であれば、図11(b)のテーブルを選択する。入力されている顔位置情報が撮像画面右端寄りを示す情報であれば、図11(c)のテーブルを選択する。 Since the face position information and the face size information are cleared in step S155 of FIG. 7, the table of FIG. 11A which is a standard K (i) value table is selected. In step S156, if the input face position information is information indicating the left end of the imaging screen, the table in FIG. 11B is selected. If the input face position information is information indicating the right end of the imaging screen, the table in FIG. 11C is selected.

入力されている顔位置情報が撮像画面上端寄りを示す情報であれば、図11(d)のテーブルを選択する。入力されている顔位置情報が撮像画面中央付近或いは撮像画面下端寄りを示す情報であれば、図11(a)のテーブルを選択する。また、入力されている顔大きさ情報が所定以上大きい場合には、顔位置情報に因らずに図11(e)のテーブルを選択する。その他の構成やフローチャートは全て上記第1の実施の形態にて説明したものを適用できる。 If the input face position information is information indicating the upper end of the imaging screen, the table in FIG. 11D is selected. If the input face position information is information indicating the vicinity of the center of the imaging screen or the bottom of the imaging screen, the table of FIG. 11A is selected. If the input face size information is larger than a predetermined value, the table shown in FIG. 11E is selected regardless of the face position information. All other configurations and flowcharts can be applied to those described in the first embodiment.

尚、係数K(i)の設定組み合わせテーブルの数を5としたのはあくまで一例であり、これに限定されるものではない。顔位置情報と顔大きさ情報との組み合わせにより選択肢をマトリクス的に切り替える構成とすることも可能である。   Note that the number of setting combination tables for the coefficient K (i) is set to 5 as an example, and the present invention is not limited to this. It is also possible to adopt a configuration in which options are switched in a matrix manner by a combination of face position information and face size information.

以上説明したように第1及び第2の実施の形態によれば、以下のような制御を行うことで各種の効果を奏することができる。カメラ本体1の制御部41は、露光動作に先立ち被写体に向けてフラッシュ装置3の発光部34のプリ発光(予備発光)動作を指示する。プリ発光直前の第1のタイミングとプリ発光動作中の第2のタイミングとのそれぞれにおいて、測光用センサ26により複数の測光エリアの被写体輝度を測光する。また、制御部41は、露光動作に先立ち人物の顔情報(顔位置情報、顔大きさ情報)を信号処理回路43から入力する。   As described above, according to the first and second embodiments, various effects can be achieved by performing the following control. The control unit 41 of the camera body 1 instructs a pre-light emission (preliminary light emission) operation of the light emitting unit 34 of the flash device 3 toward the subject prior to the exposure operation. At each of the first timing immediately before the pre-light emission and the second timing during the pre-light emission operation, the photometric sensor 26 measures the subject luminance in the plurality of photometry areas. Further, the control unit 41 inputs face information (face position information, face size information) of a person from the signal processing circuit 43 prior to the exposure operation.

制御部41は、第1のタイミングで測光した第1の測光情報(プリ発光直前の輝度値)P(i)と、第2のタイミングで測光した第2の測光情報(プリ発光動作中の輝度値)H(i)との比R(i)を、各測光エリアについて演算する。次に、制御部41は、各測光エリアにおける比R(i)の中から基準BaseR(基準となる比の値)を抽出する。   The control unit 41 uses the first photometric information (luminance value immediately before the pre-emission) P (i) measured at the first timing and the second photometric information (the luminance during the pre-emission operation) measured at the second timing. Value) Ratio R (i) with H (i) is calculated for each photometric area. Next, the control unit 41 extracts a reference BaseR (reference ratio value) from the ratio R (i) in each photometric area.

次に、制御部41は、基準BaseRを抽出する際に抽出対称となる測光エリアを限定する係数K(i)を、人物の顔情報に応じて設定する。次に、制御部41は、係数K(i)の値に応じて、基準BaseRと各測光エリアの比の値R(i)とを比較し、比較した結果に基づいて露光動作時のフラッシュ装置3の発光部34発光量を演算する。   Next, the control unit 41 sets a coefficient K (i) that limits a photometric area that is symmetrically extracted when extracting the reference BaseR according to the face information of the person. Next, the control unit 41 compares the reference BaseR with the ratio value R (i) of each photometric area according to the value of the coefficient K (i), and the flash device during the exposure operation based on the comparison result. The light emission amount of the three light emitting units 34 is calculated.

上記のように、主被写体(人物の顔)が撮像画面の中央付近にある場合と撮像画面の周辺付近にある場合とで、基準値BaseRを抽出する測光エリアに適切な限定をかける(測光エリアを絞り込む)。これにより、撮影者の期待通りの露出となる確率をより高めることが可能となる。   As described above, appropriate limitation is applied to the photometric area from which the reference value BaseR is extracted (the photometric area) depending on whether the main subject (person's face) is near the center of the imaging screen or near the periphery of the imaging screen. Narrow down). This makes it possible to further increase the probability that the exposure will be as expected by the photographer.

上記第1及び第2の実施の形態に記載の何れの構成例においても、顔位置情報が入手できていない撮影状況では、基準値BaseRを選択するための選択肢エリア(測光エリア)を限定する係数K(i)を次のように設定している。即ち、図9(b)或いは図11(a)に示したような通常は主被写体が存在する確率がごく低い撮像画面周辺部領域において係数K(i)を0とする。   In any of the configuration examples described in the first and second embodiments, a coefficient that limits an option area (photometric area) for selecting the reference value BaseR in a shooting situation where face position information is not available K (i) is set as follows. That is, the coefficient K (i) is set to 0 in the peripheral area of the imaging screen where the probability of the presence of the main subject is usually very low as shown in FIG. 9B or 11A.

従って、撮像画面周辺部に撮影意図とあまり関係なく入ってしまった物体が存在する領域を基準値BaseRの領域として選択してしまいフラッシュ発光レベルが不適切になる可能性を低くすることが可能となる。これにより、撮影者の意図する主被写体領域を抽出する精度、即ち、撮影者の期待通りの露出となる確率をより高めることが可能となる。   Therefore, it is possible to reduce the possibility that the flash emission level becomes inappropriate because an area where an object that has entered the periphery of the imaging screen is not related to the shooting intention is selected as the reference value BaseR area. Become. As a result, the accuracy of extracting the main subject area intended by the photographer, that is, the probability of the exposure as expected by the photographer can be further increased.

一方、顔位置情報が入手できている撮影状況では、顔位置情報に応じて図9(e)或いは図11(b)〜(d)に示したような係数K(i)に変更する。そして、主被写体である可能性が極めて高い人物の顔を含む領域のK(i)値を1にすることで、撮像画面周辺部領域であっても基準値BaseRの選択肢エリアとする。人物の顔が存在しない周辺部領域のK(i)値は0のままである。   On the other hand, in a shooting situation in which face position information is available, the coefficient K (i) as shown in FIG. 9 (e) or FIGS. 11 (b) to 11 (d) is changed according to the face position information. Then, by setting the K (i) value of the area including the face of the person who is very likely to be the main subject to 1, the area of the peripheral area of the imaging screen is set as the selection area of the reference value BaseR. The K (i) value of the peripheral area where no human face exists remains 0.

従って、上記と同様に、撮像画面周辺部に撮影意図とあまり関係なく入ってしまった物体が存在する領域を基準値BaseRの領域として選択してしまいフラッシュ発光レベルが不適切になる可能性を低くすることが可能となる。これにより、撮影者の意図する主被写体領域を抽出する精度、即ち、撮影者の期待通りの露出となる確率をより高めることが可能となる。   Therefore, similarly to the above, it is less likely that the area where the object that has entered the periphery of the imaging screen is not related to the shooting intention is selected as the reference value BaseR area and the flash emission level becomes inappropriate. It becomes possible to do. As a result, the accuracy of extracting the main subject area intended by the photographer, that is, the probability of the exposure as expected by the photographer can be further increased.

また、特開2005−275265号公報と同様に、主被写体領域及びそれと等価な距離にある領域に対して高い重み付けをおいて本発光量を決定したフラッシュ発光による撮像が可能となる。これにより、同じような撮影シーンでの被写体の移動や構図を変更した時にフラッシュ発光量が変化して撮像結果の露出がばらつくことを抑止する効果を維持することが可能となる。   Similarly to Japanese Patent Application Laid-Open No. 2005-275265, it is possible to perform imaging by flash light emission in which the main light emission amount is determined with high weighting on the main subject region and a region at an equivalent distance. As a result, it is possible to maintain the effect of preventing the exposure of the imaging result from varying due to the flash emission amount changing when the subject moves or changes the composition in the same shooting scene.

〔他の実施の形態〕
上記第1及び第2の実施の形態では、本発明の顔情報として顔位置情報と顔大きさ情報を用いる場合を例に挙げたが、これに限定されるものではない。本発明は顔情報として顔位置情報のみを用いる場合にも適用可能である。
[Other Embodiments]
In the first and second embodiments, the case where the face position information and the face size information are used as the face information of the present invention has been described as an example. However, the present invention is not limited to this. The present invention is also applicable when only face position information is used as face information.

また、本発明の目的は、以下の処理を実行することによって達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。   The object of the present invention is achieved by executing the following processing. That is, a storage medium in which a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is stored in the storage medium. This is the process of reading the code.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、次のものを用いることができる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROM等である。または、プログラムコードをネットワークを介してダウンロードしてもよい。   Moreover, the following can be used as a storage medium for supplying the program code. For example, floppy (registered trademark) disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic tape, nonvolatile memory card, ROM or the like. Alternatively, the program code may be downloaded via a network.

また、コンピュータが読み出したプログラムコードを実行することにより、上記実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   Further, the present invention includes a case where the function of the above-described embodiment is realized by executing the program code read by the computer. In addition, an OS (operating system) running on the computer performs part or all of the actual processing based on an instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.

更に、前述した実施形態の機能が以下の処理によって実現される場合も本発明に含まれる。即ち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う場合である。   Furthermore, a case where the functions of the above-described embodiment are realized by the following processing is also included in the present invention. That is, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

本発明の第1の実施の形態に係る撮像装置としてのカメラ本体、交換レンズ、フラッシュ装置の内部構成を示す構成図である。It is a block diagram which shows the internal structure of the camera main body, interchangeable lens, and flash apparatus as an imaging device which concerns on the 1st Embodiment of this invention. カメラの焦点検出用センサの構成例を示す図である。It is a figure which shows the structural example of the sensor for focus detection of a camera. カメラの測光用センサの構成例を示す図である。It is a figure which shows the structural example of the sensor for photometry of a camera. 焦点検出用センサによる撮像画面内の焦点検出位置と35分割された測光用センサとの対応位置関係を示す図である。It is a figure which shows the corresponding positional relationship of the focus detection position in the imaging screen by a focus detection sensor, and the sensor for photometry divided into 35. カメラ本体、交換レンズ、フラッシュ装置の電気回路の構成例を示すブロック図である。It is a block diagram which shows the structural example of the electric circuit of a camera main body, an interchangeable lens, and a flash apparatus. カメラにおける本発明に関わる具体的な動作シーケンスを示すフローチャートである。It is a flowchart which shows the specific operation | movement sequence in connection with this invention in a camera. カメラにおける本発明に関わる具体的な動作シーケンスを示すフローチャートである。It is a flowchart which shows the specific operation | movement sequence in connection with this invention in a camera. 発光部の本発光量(本発光ゲイン)を決定する演算処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the arithmetic processing which determines the main light emission amount (main light emission gain) of a light emission part. LVL0決定用テーブルの例を示す図である。It is a figure which shows the example of the table for LVL0 determination. (a)〜(f)は、K(i)値を示す図である。(A)-(f) is a figure which shows K (i) value. W(i)値決定用テーブルの例を示す図である。It is a figure which shows the example of the table for W (i) value determination. (a)〜(e)は、本発明の第2の実施の形態に係る基準値BaseRを選択するための選択肢エリアを限定する係数K(i)の設定組み合わせテーブルの例を示す図である。(A)-(e) is a figure which shows the example of the setting combination table of the coefficient K (i) which limits the choice area for selecting the reference value BaseR which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 カメラ本体
2 交換レンズ
3 フラッシュ装置
12 撮像素子
20 焦点検出用センサ
26 測光用センサ
34 発光部
37 発光量センサ
41 制御部
43 信号処理回路
61 制御部
DESCRIPTION OF SYMBOLS 1 Camera main body 2 Interchangeable lens 3 Flash apparatus 12 Image pick-up element 20 Focus detection sensor 26 Photometric sensor 34 Light emission part 37 Light emission amount sensor 41 Control part 43 Signal processing circuit 61 Control part

Claims (5)

被写体に対して発光を行う発光手段を用いた撮影が可能な撮像装置であって、
複数の測光領域を有し、各測光領域に対して測光を行う測光手段と、
撮像して得られた画像信号に基づいて前記被写体の顔情報を取得する取得手段と、
前記発光手段を発光させていないときに前記測光手段により測光して得られた第1の輝度値と、前記発光手段を発光させているときに前記測光手段により測光して得られた第2の輝度値との比を、前記複数の測光領域の各測光領域について演算する輝度比演算手段と、
前記輝度比演算手段により演算された各測光領域における前記第1の輝度値と前記第2の輝度値との比の中から基準となる比の値を抽出する抽出手段と、
前記抽出手段により前記基準となる比の値を抽出する対象となる対象測光領域を、前記取得手段により取得した前記顔情報に基づいて設定する設定手段と、
前記対象測光領域以外の測光領域を含む複数の測光領域に対して前記抽出手段により抽出された前記基準となる比の値と前記輝度比演算手段により演算された比の値とを比較した結果に基づいて、前記測光手段により測光して得られた前記対象測光領域以外の測光領域を含む複数の測光領域の輝度値の重み付け演算を行う重み付け演算手段と、
前記重み付け演算手段による重み付け演算の結果に基づいて、前記発光手段の本発光量を演算する発光量演算手段と、
を備えることを特徴とする撮像装置。
An imaging apparatus capable of photographing using a light emitting means for emitting light to a subject,
A photometric means having a plurality of photometric areas and performing photometry on each photometric area;
Acquisition means for acquiring face information of the subject based on an image signal obtained by imaging;
A first luminance value obtained by photometry by the photometry means when the light emission means is not lit, and a second luminance value obtained by photometry by the photometry means when the light emission means is lit. A luminance ratio calculating means for calculating a ratio with a luminance value for each photometric area of the plurality of photometric areas ;
Extraction means for extracting a ratio value serving as a reference from the ratio between the first luminance value and the second luminance value in each photometric area calculated by the luminance ratio calculating means;
A setting unit configured to set a target photometric area to be a target for extracting the reference ratio value by the extracting unit based on the face information acquired by the acquiring unit;
Result of the comparison between the values of the ratio computed by the reference a ratio of the value before Symbol luminance ratio calculating unit extracted by said extraction means to a plurality of photometric areas including metering area other than the target metering area A weighting calculation means for performing weighting calculation of luminance values of a plurality of photometry areas including a photometry area other than the target photometry area obtained by photometry by the photometry means,
A light emission amount calculating means for calculating a main light emission amount of the light emitting means based on a result of the weighting calculation by the weight calculating means;
An imaging apparatus comprising:
前記設定手段は、前記取得手段が前記顔情報を取得できない場合、予め決められた測光領域を前記対象測光領域に設定することを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the setting unit sets a predetermined photometric area as the target photometric area when the acquiring unit cannot acquire the face information. 前記顔情報は、前記撮像装置の撮像画面における被写体に含まれる人物の顔の位置を示す顔位置情報を含むことを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the face information includes face position information indicating a position of a person's face included in a subject on an imaging screen of the imaging apparatus. 前記顔情報は、前記撮像装置の撮像画面における被写体に含まれる人物の顔の位置を示す顔位置情報と、人物の顔の大きさを示す顔大きさ情報とを含むことを特徴とする請求項1または2に記載の撮像装置。   The face information includes face position information indicating a position of a face of a person included in a subject on an image pickup screen of the image pickup apparatus, and face size information indicating a size of the face of the person. The imaging apparatus according to 1 or 2. 被写体に対して発光を行う発光手段を用いた撮影が可能な撮像装置の制御方法であって、
複数の測光領域を有し、各測光領域に対して測光を行う測光ステップと、
撮像して得られた画像信号に基づいて前記被写体の顔情報を取得する取得ステップと、
前記発光手段を発光させていないときに前記測光ステップにより測光して得られた第1の輝度値と、前記発光手段を発光させているときに前記測光ステップにより測光して得られた第2の輝度値との比を、前記複数の測光領域の各測光領域について演算する輝度比演算ステップと、
前記輝度比演算ステップにより演算された各測光領域における前記第1の輝度値と前記第2の輝度値との比の中から基準となる比の値を抽出する抽出ステップと、
前記抽出ステップにより前記基準となる比の値を抽出する対象となる対象測光領域を、前記取得ステップにより取得した前記顔情報に基づいて設定する設定ステップと、
前記対象測光領域以外の測光領域を含む複数の測光領域に対して前記抽出ステップにより抽出された前記基準となる比の値と前記輝度比演算ステップにより演算された比の値とを比較した結果に基づいて、前記測光ステップにより測光して得られた前記対象測光領域以外の測光領域を含む複数の測光領域の輝度値の重み付け演算を行う重み付け演算ステップと、
前記重み付け演算ステップによる重み付け演算の結果に基づいて、前記発光手段の本発光量を演算する発光量演算ステップと、
を有することを特徴とする制御方法。
A method for controlling an imaging apparatus capable of photographing using a light emitting means for emitting light to a subject,
A photometric step having a plurality of photometric areas and performing photometry on each photometric area;
An acquisition step of acquiring face information of the subject based on an image signal obtained by imaging;
A first luminance value obtained by photometry in the photometry step when the light emitting means is not emitting light, and a second luminance value obtained by photometry in the photometry step when the light emitting means is emitted. A luminance ratio calculating step of calculating a ratio with a luminance value for each photometric area of the plurality of photometric areas ;
An extraction step of extracting a reference ratio value from a ratio between the first luminance value and the second luminance value in each photometric area calculated in the luminance ratio calculating step;
A setting step of setting a target photometry area to be a target for extracting the reference ratio value by the extraction step based on the face information acquired by the acquisition step;
Result of the comparison between the value of the ratio calculated by the value before Symbol luminance ratio calculating step of the ratio to be the reference extracted by the extraction step for a plurality of photometric areas including metering area other than the target metering area A weighting calculation step for performing a weighting calculation of luminance values of a plurality of photometric areas including a photometric area other than the target photometric area obtained by photometry in the photometric step,
A light emission amount calculating step for calculating a main light emission amount of the light emitting means based on a result of the weighting calculation by the weighting calculation step;
A control method characterized by comprising:
JP2008092364A 2008-03-31 2008-03-31 Imaging apparatus and control method Expired - Fee Related JP4995133B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008092364A JP4995133B2 (en) 2008-03-31 2008-03-31 Imaging apparatus and control method
US12/414,062 US7894715B2 (en) 2008-03-31 2009-03-30 Image pickup apparatus, camera system, and control method for image pickup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008092364A JP4995133B2 (en) 2008-03-31 2008-03-31 Imaging apparatus and control method

Publications (3)

Publication Number Publication Date
JP2009246773A JP2009246773A (en) 2009-10-22
JP2009246773A5 JP2009246773A5 (en) 2011-03-17
JP4995133B2 true JP4995133B2 (en) 2012-08-08

Family

ID=41308193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008092364A Expired - Fee Related JP4995133B2 (en) 2008-03-31 2008-03-31 Imaging apparatus and control method

Country Status (1)

Country Link
JP (1) JP4995133B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7242247B2 (en) * 2018-10-31 2023-03-20 キヤノン株式会社 IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4110109B2 (en) * 2004-03-26 2008-07-02 キヤノン株式会社 Imaging apparatus and imaging control method
JP4040613B2 (en) * 2004-08-31 2008-01-30 キヤノン株式会社 Imaging device
JP4422667B2 (en) * 2005-10-18 2010-02-24 富士フイルム株式会社 Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JP2009246773A (en) 2009-10-22

Similar Documents

Publication Publication Date Title
US7894715B2 (en) Image pickup apparatus, camera system, and control method for image pickup apparatus
JP5451316B2 (en) Imaging apparatus and light emission control method
EP2431806B1 (en) Imaging apparatus and method for controlling the same
JP6046905B2 (en) Imaging apparatus, exposure control method, and program
US8831414B2 (en) Imaging apparatus, light emitting device, imaging system, and control method
US10063795B2 (en) Image capturing apparatus, method for controlling the same, and storage medium
JP4931250B2 (en) Imaging apparatus and control method
JP6336337B2 (en) Imaging apparatus, control method therefor, program, and storage medium
US9268196B2 (en) Image capture apparatus, light emitting device, and and light emission amount calculation method
JP2009088800A (en) Color imaging device
JP4995133B2 (en) Imaging apparatus and control method
JP2005192139A (en) Imaging apparatus and system
JP6742733B2 (en) Imaging device, control method thereof, and control program
US10873707B2 (en) Image pickup apparatus and method, for ensuring correct color temperature based on first or second preliminary light emission of a flash device
JP4593900B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4512173B2 (en) Ranging device
JP6398315B2 (en) Imaging device
JP6890932B2 (en) Imaging device and control method
JP2006243189A (en) Camera
JP2006017854A (en) Imaging apparatus and flash light emitting device
US20210116678A1 (en) Imaging device, imaging device control method, and processing device
JP6388391B2 (en) Backlight discrimination device, control method thereof, control program, and imaging device
JP2020136966A (en) Imaging apparatus, control method of the same, and program
JPH09203927A (en) Camera
KR20120130051A (en) Imaging apparatus, light emitting device, imaging system, and control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120509

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4995133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees