JP6727920B2 - Imaging device and control method - Google Patents

Imaging device and control method Download PDF

Info

Publication number
JP6727920B2
JP6727920B2 JP2016098987A JP2016098987A JP6727920B2 JP 6727920 B2 JP6727920 B2 JP 6727920B2 JP 2016098987 A JP2016098987 A JP 2016098987A JP 2016098987 A JP2016098987 A JP 2016098987A JP 6727920 B2 JP6727920 B2 JP 6727920B2
Authority
JP
Japan
Prior art keywords
brightness
image pickup
body portion
pickup apparatus
movable portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016098987A
Other languages
Japanese (ja)
Other versions
JP2017208664A (en
Inventor
陽介 峰
陽介 峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016098987A priority Critical patent/JP6727920B2/en
Publication of JP2017208664A publication Critical patent/JP2017208664A/en
Application granted granted Critical
Publication of JP6727920B2 publication Critical patent/JP6727920B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影時に用いる照明装置の発光制御に関する。 The present invention relates to light emission control of a lighting device used during photography.

従来から、撮影時に照明装置を用いる場合に、撮影(露光)に先立って照明装置をプリ発光させ、プリ発光の被写体反射光の測光値に基づいて撮影時の発光(メイン発光)の発光強度や発光時間を制御する手法が知られている。また、顔検出により検出された顔領域が良好な明るさとなるようにメイン発光の発光強度や発光時間を制御する手法も知られている。特許文献1では、フラッシュの発光量の決定における顔の考慮度合いをデジタルカメラや被写体の動きに基づいて決定する技術が提案されている。 Conventionally, when an illuminating device is used during shooting, the illuminating device is pre-flashed prior to shooting (exposure), and the light emission intensity of the flash (main flash) during shooting is determined based on the photometric value of the pre-emission subject reflected light. A method of controlling the light emission time is known. A method is also known in which the emission intensity of main emission and the emission time are controlled so that the face area detected by face detection has good brightness. Patent Document 1 proposes a technique for determining the degree of consideration of a face in determining the flash emission amount based on the movement of a digital camera or a subject.

特開2008−104156号公報JP, 2008-104156, A

しかしながら、特許文献1に記載された技術は、フラッシュの発光量の決定における顔の考慮度合いを大きくしたい場合でも考慮度合いが小さくなってしまう場合がある。 However, in the technique described in Patent Document 1, even if it is desired to increase the degree of consideration of the face in determining the flash emission amount, the degree of consideration may be reduced.

そこで本発明は、顔検出により検出された顔領域に対して良好な発光量を決定できるようにすることを目的とする。 Therefore, an object of the present invention is to make it possible to determine a favorable light emission amount for a face area detected by face detection.

上記目的を達成するために、本発明に係る撮像装置では、照明装置を用いた撮影が可能な撮像装置であって、前記照明装置をプリ発光させる前に取得した画像を用いて顔検出を行う顔検出手段と、前記照明装置をプリ発光させたときに被写体で反射されるプリ発光の反射成分に対応した反射輝度を算出する輝度算出手段と、前記輝度算出手段により算出された、前記顔検出手段により検出された顔領域に対応する領域における前記反射輝度が所定の輝度範囲内か否かを判別する判別手段と、前記判別手段により前記反射輝度が前記所定の輝度範囲内と判別された領域の重み付けを他の領域の重み付けよりも大きくして、前記照明装置の発光量を決定する決定手段と、を有し、前記判別手段は、前記照明装置の状態に応じて前記所定の輝度範囲を変更することを特徴とする。 In order to achieve the above-mentioned object, the image pickup apparatus according to the present invention is an image pickup apparatus capable of photographing using an illuminating device, and performs face detection using an image acquired before pre-lighting the illuminating device. Face detection means, brightness calculation means for calculating the reflection brightness corresponding to the reflection component of the pre-emission reflected by the subject when the lighting device is pre-lighted, and the face detection calculated by the brightness calculation means Discriminating means for discriminating whether or not the reflected luminance in the area corresponding to the face area detected by the means is within a predetermined luminance range; and an area in which the reflected luminance is discriminated by the judging means within the predetermined luminance range. And a determination unit that determines the amount of light emitted from the lighting device by setting the weighting of the lighting device greater than the weighting of other regions, and the determination unit determines the predetermined luminance range according to the state of the lighting device. It is characterized by changing.

本発明によれば、顔検出により検出された顔領域に対して良好な発光量を決定することができる。 According to the present invention, it is possible to determine a favorable light emission amount for a face area detected by face detection.

本発明の実施の形態に関わる撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device concerning embodiment of this invention. 本発明の形態に係る撮像装置における撮像処理を説明するための図である。It is a figure for demonstrating the imaging process in the imaging device which concerns on the form of this invention. 本発明の形態に係る撮像装置における発光量決定処理を説明するための図である。It is a figure for demonstrating the light emission amount determination process in the imaging device which concerns on the form of this invention. 本発明の形態に係る撮像装置における照明装置の状態に応じた輝度範囲を説明するための図である。It is a figure for demonstrating the brightness range according to the state of the illuminating device in the imaging device which concerns on the form of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本実施形態に係るカメラシステムの概略構成図である。本実施形態に係るカメラシステムは、撮像装置であるカメラ本体100と、カメラ本体100に着脱可能なレンズユニット200と、カメラ本体100に着脱可能な照明装置であるストロボ装置300を含む。 FIG. 1 is a schematic configuration diagram of a camera system according to the present embodiment. The camera system according to the present embodiment includes a camera body 100 that is an imaging device, a lens unit 200 that is attachable to and detachable from the camera body 100, and a strobe device 300 that is an illumination device that is attachable to and detachable from the camera body 100.

まず、カメラ本体100の構成について説明する。カメラCPU(以下、CPUとする)101は、カメラ本体100の各部を制御する。メモリ102は、CPU101に接続されているRAMやROM等のメモリであり、CPU101はメモリ102に記憶された各種プログラムにしたがって様々な処理を行う。 First, the configuration of the camera body 100 will be described. A camera CPU (hereinafter referred to as CPU) 101 controls each unit of the camera body 100. The memory 102 is a memory such as a RAM or a ROM connected to the CPU 101, and the CPU 101 performs various processes according to various programs stored in the memory 102.

撮像素子103は、赤外カットフィルタやローパスフィルタ等を含むCCD、CMOS等の撮像素子であり、レンズユニット200を介して入射した光束を光電変換して画像信号を出力する。 The image pickup device 103 is an image pickup device such as a CCD or a CMOS including an infrared cut filter, a low pass filter, etc., and photoelectrically converts a light flux incident via the lens unit 200 to output an image signal.

シャッター104は、レンズユニット200を介して入射した光束から撮像素子103を遮光する遮光状態、及び、レンズユニット200を介して入射した光束を撮像素子103に導く退避状態となるように走行する。 The shutter 104 travels so as to be in a light-shielding state in which the image pickup element 103 is shielded from a light flux incident via the lens unit 200 and a retracted state in which the light flux incident via the lens unit 200 is guided to the image pickup element 103.

ハーフミラー105は、レンズユニット200を介して入射した光束を撮像素子103へ導く位置(ミラーアップ状態)と測光センサ107へ導く位置(ミラーダウン状態)とに移動可能である。すなわち、ハーフミラー105は、撮像素子103へ導く状態と測光センサ107へ導く状態とに、レンズユニット200を介して入射した光束の光路変更を行う。また、測光センサ107へ導く位置にある場合には、レンズユニット200を介して入射した光束をピント板106に結像させる。 The half mirror 105 is movable to a position (a mirror-up state) in which a light beam incident through the lens unit 200 is guided to the image sensor 103 and a position (a mirror-down state) to guide the light beam to the photometric sensor 107. That is, the half mirror 105 changes the optical path of the light flux incident through the lens unit 200, depending on whether it is guided to the image sensor 103 or to the photometric sensor 107. Further, when it is at the position where it is guided to the photometric sensor 107, the light flux incident through the lens unit 200 is imaged on the focusing plate 106.

測光センサ(AEセンサ)107は、CCD、CMOS等の入射光量に応じた電荷を蓄積する電荷蓄積型撮像素子を使用する。CPU101は、出力される画像信号に基づいて、測光だけでなく被写体の顔検出や被写体追尾、光源検知、フリッカー検出などを行うことができる。ペンタプリズム108は、ハーフミラー105で反射されたレンズユニット200を介して入射した光束を測光センサ107及び光学ファインダ109に導く。 As the photometric sensor (AE sensor) 107, a charge storage type image pickup element such as CCD, CMOS or the like for accumulating charges according to the amount of incident light is used. Based on the output image signal, the CPU 101 can perform not only photometry, but also subject face detection, subject tracking, light source detection, flicker detection, and the like. The pentaprism 108 guides the light flux incident on the half mirror 105 through the lens unit 200 to the photometric sensor 107 and the optical finder 109.

AFミラー110は、レンズユニット200を介して入射しハーフミラー105を通過した光束の一部を、AF制御のために焦点検出を行う焦点検出回路(AF回路)111に導く。 The AF mirror 110 guides a part of the light flux that has entered through the lens unit 200 and passed through the half mirror 105 to a focus detection circuit (AF circuit) 111 that performs focus detection for AF control.

次に、レンズユニット200の構成について説明する。レンズCPU201(以下、LCPUとする)は、レンズユニット200の各部、例えば、フォーカスレンズ、ズームレンズ、絞りの駆動部などを制御するものであって、レンズに関する情報をCPU101に送信する。レンズに関する情報には、フォーカスレンズ位置に対応する合焦位置情報やズームレンズ位置に対応する焦点距離情報といった被写体距離に関する情報等が含まれる。 Next, the configuration of the lens unit 200 will be described. A lens CPU 201 (hereinafter, referred to as LCPU) controls each unit of the lens unit 200, for example, a focus lens, a zoom lens, a diaphragm driving unit, and the like, and transmits information about the lens to the CPU 101. The information regarding the lens includes information regarding the subject distance such as focus position information corresponding to the focus lens position and focal length information corresponding to the zoom lens position.

次に、ストロボ装置300の構成について説明する。ストロボ装置300は、カメラ本体100に着脱可能に装着される本体部300aと、本体部300aに対して上下方向及び左右方向に回動可能に保持される可動部300bで構成されている。なお、本実施形態では、本体部300aにおける可動部300bと連結される側を上側、図1における光学ファインダ109側から見た左右をそれぞれ左側、右側とする。 Next, the configuration of the flash device 300 will be described. The strobe device 300 includes a main body portion 300a that is detachably attached to the camera main body 100, and a movable portion 300b that is rotatably held in the vertical and horizontal directions with respect to the main body portion 300a. In the present embodiment, the side of the main body 300a connected to the movable portion 300b is the upper side, and the left and right sides viewed from the optical finder 109 side in FIG. 1 are the left side and the right side, respectively.

ストロボCPU(以下、SCPUとする)301は、ストロボ装置300の各部を制御する。SCPU301は、例えばCPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/D、D/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。 A strobe CPU (hereinafter referred to as SCPU) 301 controls each unit of the strobe device 300. The SCPU 301 has a microcomputer built-in one-chip IC circuit configuration including, for example, a CPU, a ROM, a RAM, an input/output control circuit (I/O control circuit), a multiplexer, a timer circuit, an EEPROM, an A/D, and a D/A converter. There is.

発光制御回路302は、電池電圧を昇圧し後述する放電管305を点灯させるための昇圧回路や発光の開始及び停止を制御する電流制御回路等が含まれている。なお、昇圧回路や電流制御回路は公知の回路でよく、詳細な説明は省略する。 The light emission control circuit 302 includes a booster circuit for boosting the battery voltage to light the discharge tube 305, which will be described later, and a current control circuit for controlling the start and stop of light emission. Note that the booster circuit and the current control circuit may be known circuits, and detailed description thereof will be omitted.

光学パネル等を含むズーム光学系303は、放電管305との相対位置を変更可能に保持されていて、放電管305とズーム光学系303との相対位置を変更することにより、ストロボ装置300のガイドナンバー及び照射範囲を変化させることができる。反射傘304は、放電管305から発せられる光を反射させてズーム光学系303の光学パネルの方向へ導く。ストロボ装置300の発光部は、主に、放電管305、反射傘304、ズーム光学系303で構成されていて、発光部の照射範囲は、ズーム光学系303の移動により変化し、発光部の照射方向は可動部300bの回動により変化する。なお、光源は放電管305の代わりにLEDなどを用いてもよい。 The zoom optical system 303 including an optical panel and the like is held so that the relative position between the discharge tube 305 and the discharge tube 305 can be changed. By changing the relative position between the discharge tube 305 and the zoom optical system 303, the guide of the strobe device 300 can be obtained. The number and irradiation range can be changed. The reflector 304 reflects the light emitted from the discharge tube 305 and guides it toward the optical panel of the zoom optical system 303. The light emitting section of the flash device 300 is mainly composed of a discharge tube 305, a reflector 304, and a zoom optical system 303, and the irradiation range of the light emitting section is changed by the movement of the zoom optical system 303, and the light emitting section is irradiated. The direction is changed by the rotation of the movable part 300b. As the light source, an LED or the like may be used instead of the discharge tube 305.

次に、図2に示すフローチャートを参照して、カメラ本体100の動作を説明する。なお、ここでは、カメラ本体100の電源がオンされ、撮像スタンバイの状態にあるものとする。 Next, the operation of the camera body 100 will be described with reference to the flowchart shown in FIG. Here, it is assumed that the camera body 100 is powered on and is in a standby state for image capturing.

ステップS101で、CPU101は、カメラ本体100に設けられたシャッタスイッチの第一ストローク(以下SW1と呼ぶ)がオンかオフか判別し、オンならステップS102に移行し、オフならステップS101を繰り返す。ステップS102で、CPU101は、測光センサ107を駆動し、出力される画像信号(以下、画像とする)に基づいて測光演算、顔検出演算、被写体追尾演算、光源検知演算、フリッカー検出演算等を行う。そして、CPU101は、各演算結果をメモリ102に記憶させる。 In step S101, the CPU 101 determines whether the first stroke (hereinafter, referred to as SW1) of the shutter switch provided in the camera body 100 is on or off. If it is on, the process proceeds to step S102, and if it is off, step S101 is repeated. In step S102, the CPU 101 drives the photometric sensor 107 and performs photometric calculation, face detection calculation, subject tracking calculation, light source detection calculation, flicker detection calculation, etc. based on the output image signal (hereinafter referred to as image). .. Then, the CPU 101 stores each calculation result in the memory 102.

ステップS103で、CPU101は、焦点検出回路111を用いて位相差方式のAF(オートフォーカス)処理を行う。例えば、ステップS102で顔検出演算を行い検出された顔領域に対応する測距点のデフォーカス量を検出する。そして、CPU101は、LCPU201により検出したデフォーカス量に応じたレンズ駆動量を送信し、LPU201は受信したレンズ駆動量に基づいてフォーカスレンズを駆動させる。 In step S103, the CPU 101 uses the focus detection circuit 111 to perform a phase-difference AF (autofocus) process. For example, in step S102, face detection calculation is performed to detect the defocus amount of the focus detection point corresponding to the detected face area. Then, the CPU 101 transmits the lens drive amount according to the defocus amount detected by the LCPU 201, and the LPU 201 drives the focus lens based on the received lens drive amount.

ステップS104で、CPU101は、シャッタスイッチの第二ストローク(以下SW2と呼ぶ)がオンかオフか判別し、オンならステップS105に移行し、オフならステップS101に移行する。ステップS105で、CPU101は、測光センサ107とストロボ装置300を駆動し、プリ発光前の測光(非発光時測光)およびプリ発光中の測光(プリ発光時測光)を行い、本撮影時の発光量(本発光量)を決定する。なお、ステップS105の詳細は後述する。 In step S104, the CPU 101 determines whether the second stroke of the shutter switch (hereinafter referred to as SW2) is on or off. If it is on, the process proceeds to step S105, and if it is off, the process proceeds to step S101. In step S105, the CPU 101 drives the photometric sensor 107 and the strobe device 300 to perform photometry before pre-flash (non-flash photometry) and pre-flash photometry (pre-flash photometry) to determine the amount of light emission during actual shooting. Determine the (main light emission amount). The details of step S105 will be described later.

ステップS106で、CPU101は、ステップS102の測光演算において決定した露出制御値(シャッタスピード、絞り値、撮影感度)、及び、ステップS105で決定した本発光量に基づいて本撮影(本露光)を行う。 In step S106, the CPU 101 performs main shooting (main exposure) based on the exposure control value (shutter speed, aperture value, shooting sensitivity) determined in the photometric calculation of step S102 and the main light emission amount determined in step S105. ..

図3は、図2のステップS105で実行される発光量決定処理の詳細を示すフローチャートである。 FIG. 3 is a flowchart showing details of the light emission amount determination processing executed in step S105 of FIG.

ステップS201で、CPU101は、測光センサ107を駆動しプリ発光前の画像信号(以下、非発光画像とする)を取得する。さらに、CPU101は、得られた非発光画像をメモリ102に記憶させる。 In step S201, the CPU 101 drives the photometric sensor 107 to acquire an image signal before pre-emission (hereinafter referred to as a non-emission image). Further, the CPU 101 stores the obtained non-emission image in the memory 102.

ステップS202で、CPU101は、SCPU301にプリ発光指示を送信してストロボ装置300にプリ発光させるとともに、プリ発光に合わせて測光センサ107を駆動してプリ発光時の画像信号(以下、プリ発光画像とする)を取得する。さらに、CPU101は、得られたプリ発光画像をメモリ102に記憶させる。 In step S202, the CPU 101 transmits a pre-flash instruction to the SCPU 301 to cause the strobe device 300 to pre-flash, and drives the photometric sensor 107 in accordance with the pre-flash to drive an image signal at the time of pre-flash (hereinafter referred to as a pre-flash image. Get). Further, the CPU 101 stores the obtained pre-emission image in the memory 102.

ステップS203で、CPU101は、プリ発光画像から非発光画像を減算し、プリ発光の反射成分を示す画像信号(以下、プリ発光反射画像)を生成する。さらに、CPU101は、プリ発光反射画像をメモリ102に記憶させる。 In step S203, the CPU 101 subtracts the non-emission image from the pre-emission image to generate an image signal indicating a reflection component of the pre-emission (hereinafter referred to as a pre-emission reflection image). Further, the CPU 101 stores the pre-emission reflection image in the memory 102.

ステップS204で、CPU101は、ステップS203で生成したプリ発光反射画像を用いてプリ発光反射輝度演算を行い、プリ発光反射輝度AVEを算出する。例えば、調光モードが中央重点調光モードであれば、画像を複数の測光エリアに分割して測光エリアごとに輝度を算出し、画像の中央付近の測光エリアに対する重み付け係数を画像の周辺付近に対する重み付け係数よりも大きくして加重平均する。また、特徴領域検出機能を有する場合、特徴領域検出機能を用いる撮像モードでは特徴領域に対応する測光エリアに対する重み付け係数を他の測光エリアに対する重み付け係数よりも大きくした加重平均する。その他、輝度算出時の加重平均の重み付け係数の決定方法は適宜設定すればよい。 In step S204, the CPU 101 performs pre-emission reflection luminance calculation using the pre-emission reflection image generated in step S203 to calculate the pre-emission reflection luminance AVE. For example, if the light control mode is the center-weighted light control mode, the image is divided into a plurality of light measurement areas, the brightness is calculated for each light measurement area, and the weighting coefficient for the light measurement area near the center of the image is calculated for the periphery of the image. The weighted average is made larger than the weighting coefficient. Further, in the case of having the characteristic region detecting function, in the imaging mode using the characteristic region detecting function, the weighted average is set so that the weighting coefficient for the photometric area corresponding to the characteristic region is larger than the weighting coefficients for the other photometric areas. In addition, the method for determining the weighted average weighting coefficient at the time of brightness calculation may be appropriately set.

ステップS205で、CPU101は、ステップS102で取得した画像もしくはステップS201で取得した非発光画像における人物被写体の顔領域情報(画像内の座標、及び顔領域の大きさW[n])を取得する。ここで、ステップS102で取得した画像における人物被写体の顔情報を取得する場合には、メモリ102に記憶された演算結果を読み出せばよい。また、ステップS201で取得した非発光画像における人物被写体の顔情報を取得する場合には、本ステップでCPU101が顔検出演算を行えばよい。なお、顔検出演算の方法については、公知の方法を用いればよく詳細な説明は省略する。 In step S205, the CPU 101 acquires face area information (coordinates in the image and size W[n] of the face area) of the human subject in the image acquired in step S102 or the non-emission image acquired in step S201. Here, in order to acquire the face information of the human subject in the image acquired in step S102, the calculation result stored in the memory 102 may be read. Further, when acquiring the face information of the human subject in the non-emission image acquired in step S201, the CPU 101 may perform the face detection calculation in this step. A known method may be used for the face detection calculation method, and detailed description thereof will be omitted.

ステップS206で、CPU101は、ステップS203で生成したプリ発光反射画像に対して、ステップS205で取得した顔領域情報が示す領域内の輝度(以下、顔領域反射輝度とする)F[n]を算出する。ここでは、ステップS205で取得した顔領域情報が示すn人分の顔領域反射輝度Fが算出される。 In step S206, the CPU 101 calculates the luminance (hereinafter, referred to as face area reflection luminance) F[n] in the area indicated by the face area information acquired in step S205 for the pre-emission reflection image generated in step S203. To do. Here, the face area reflection brightness F for n persons indicated by the face area information acquired in step S205 is calculated.

ステップS207で、CPU101は、ステップS205で取得した顔領域情報が示す領域がプリ発光時においても実際の人物の顔領域か否かを判定するための輝度範囲を設定する。そして、CPU101は、設定した輝度範囲内となる顔領域反射輝度F[n]を用いて平均顔領域反射輝度FAVEを算出する。輝度範囲の設定及び平均顔領域反射輝度FAVEの算出方法については後述する。 In step S207, the CPU 101 sets a brightness range for determining whether or not the area indicated by the face area information acquired in step S205 is an actual person's face area even during pre-emission. Then, the CPU 101 calculates the average face area reflection brightness FAVE using the face area reflection brightness F[n] that is within the set brightness range. The method of setting the brightness range and calculating the average face area reflection brightness FAVE will be described later.

ステップS208で、CPU101は、平均顔領域反射輝度FAVEによる補正値FCを式(1)により算出する。
FC=(FAVE−AVE)×0.5・・・(1)
In step S208, the CPU 101 calculates the correction value FC based on the average face area reflection brightness FAVE by the expression (1).
FC=(FAVE-AVE)×0.5...(1)

ステップS209で、CPU101は、ステップS204で算出されたプリ発光反射輝度AVEとステップS208で算出されたFCとの和と、目標輝度値Ytとの差分DFを式(2)により算出する。ここで、目標輝度値Ytは本撮影時に目標する輝度値である。
DF=(AVE+FC)−Yt・・・(2)
In step S209, the CPU 101 calculates the difference DF between the target brightness value Yt and the sum of the pre-emission reflection brightness AVE calculated in step S204 and FC calculated in step S208, according to equation (2). Here, the target brightness value Yt is a target brightness value at the time of actual shooting.
DF=(AVE+FC)-Yt... (2)

この差分DFとプリ発光時の発光量から、CPU101は、本発光時の発光量(本発光量)FLASHを式(3)により決定する。
FLASH=(プリ発光時の発光量)−DF・・・(3)
From the difference DF and the light emission amount during the pre-light emission, the CPU 101 determines the light emission amount during the main light emission (main light emission amount) FLASH by the formula (3).
FLASH=(emission amount during pre-emission)-DF...(3)

式(1)、(2)、(3)により、本発光量を決定する際に、顔領域反射輝度F[n]が設定した所定の輝度範囲内となる領域の重み付けが他の領域の重み付けよりも大きくなる。 When determining the main light emission amount by the formulas (1), (2), and (3), the weighting of the area within the predetermined brightness range set by the face area reflection brightness F[n] is performed by the weighting of other areas. Will be larger than.

この本発光時の発光量FLASHをCPU101はSCPU301に送信する。 The CPU 101 transmits the light emission amount FLASH during the main light emission to the SCPU 301.

以上がステップS105で実行される発光量決定処理である。 The above is the light emission amount determination processing executed in step S105.

次に、ステップS207で実行される輝度範囲の設定及び平均顔領域反射輝度FAVEの算出方法について説明する。 Next, the method of setting the brightness range and calculating the average face area reflection brightness FAVE executed in step S207 will be described.

輝度範囲の設定は、顔領域情報から算出した被写体距離Df、もしくはレンズユニット200から受信した被写体距離に関する情報に基づく距離情報Dのどちらかを用いる手法がある。 There is a method of setting the brightness range using either the subject distance Df calculated from the face area information or the distance information D based on the subject distance information received from the lens unit 200.

まず、顔領域情報を用いて輝度範囲を設定し、平均顔領域反射輝度FAVEを算出する手法を説明する。 First, a method of setting the brightness range using the face area information and calculating the average face area reflection brightness FAVE will be described.

CPU101は、ステップS205で取得した顔領域の大きさW[n]とLCPU201から受信した焦点距離情報とに基づき、被写体までの物体距離Dfを算出する。 The CPU 101 calculates the object distance Df to the subject based on the size W[n] of the face area acquired in step S205 and the focal length information received from the LCPU 201.

ここで、焦点距離情報をFL、顔領域の大きさをWf[n]とし、実際の人物の顔の大きさなどで決定される変換係数をK1とすると、被写体距離Dfは式(4)により算出される。
Df[n]=FL×K1÷Wf[n]・・・(4)
Here, if the focal length information is FL, the size of the face area is Wf[n], and the conversion coefficient determined by the actual size of the face of the person is K1, the subject distance Df can be calculated by equation (4). It is calculated.
Df[n]=FL×K1÷Wf[n] (4)

実際の人物の顔の大きさには年齢や個人差などはあるが、実際の人物の顔の大きさ(幅)は、標準サイズの150mmを前提で変換係数K1を決定する。 Although the actual size of the person's face varies with age and individual differences, the conversion factor K1 is determined for the actual size of the person's face (width) assuming the standard size of 150 mm.

次に、CPU101は、被写体距離Dfと、プリ発光時の発光量に関する情報C1とから、その距離における標準的な反射率(18%)の被写体の場合の反射輝度LVL1を式(5)により算出する。
LVL1[n]=−log(Df[n])×2+C1・・・(5)
Next, the CPU 101 calculates the reflection luminance LVL1 in the case of the subject having the standard reflectance (18%) at that distance from the subject distance Df and the information C1 regarding the light emission amount at the time of the pre-light emission by the formula (5). To do.
LVL1[n]=−log 2 (Df[n])×2+C1 (5)

ここで、実際の顔の反射率は人種、性別や年齢で個人差があるが、約7%〜46%である。つまり、LVL1[n]に対してAPEX値で±約1.4段の幅を持つ。 Here, the actual reflectance of the face is about 7% to 46%, although there are individual differences depending on race, sex, and age. That is, it has a width of ±1.4 steps in APEX value with respect to LVL1[n].

また、実際の顔サイズは人種、性別や年齢で個人差があるが、約120mm〜185mmである。つまり、標準サイズの150mmのLVLに対して、APEX値で±約0.6段変化する。 The actual face size is about 120 mm to 185 mm, although there are individual differences depending on race, sex, and age. That is, with respect to the standard size LVL of 150 mm, the APEX value changes ±0.6 steps.

つまり、標準反射率18%、標準サイズ150mmの反射輝度LVL1[n]に対して、実際の顔の反射輝度はLVL1[n]±2.0段の範囲に入ると想定されるため、CPU101は、顔領域ごとにLVL1[n]±2.0段を標準の輝度範囲に設定する。 That is, it is assumed that the actual reflection luminance of the face is within the range of LVL1[n]±2.0 steps with respect to the reflection luminance LVL1[n] of the standard reflectance of 18% and the standard size of 150 mm. , LVL1[n]±2.0 steps is set as a standard brightness range for each face area.

ところが、標準の輝度範囲では、ストロボ装置300の状態によっては実際の顔の反射輝度であっても輝度範囲内とならない場合がある。そこで、本実施形態では、CPU101は、SCPU301からストロボ装置300の状態に関する情報を受信し、ストロボ装置300の状態に応じて輝度範囲を変更する。ストロボ装置300の状態に関する情報とは、ストロボ装置300の可動部300bの本体部300aに対する回動状態を示す情報、ストロボ多灯システムに用いられているか否かを示す情報、光学アクセサリを装着しているか否かを示す情報などを含む。 However, in the standard brightness range, the reflected brightness of the actual face may not be within the brightness range depending on the state of the strobe device 300. Therefore, in the present embodiment, the CPU 101 receives information regarding the state of the strobe device 300 from the SCPU 301 and changes the brightness range according to the state of the strobe device 300. The information on the state of the strobe device 300 is information indicating the rotating state of the movable part 300b of the strobe device 300 with respect to the main body part 300a, information indicating whether or not the strobe device 300 is used in a strobe multi-lamp system, and mounting an optical accessory. It includes information indicating whether or not there is an item.

図4は、ストロボ装置300の状態に応じた輝度範囲を示した図である。なお、図4の縦軸の1メモリがAPEX値の1段に相当する。 FIG. 4 is a diagram showing a brightness range according to the state of the flash device 300. Note that one memory on the vertical axis of FIG. 4 corresponds to one stage of the APEX value.

図4(a)に示すように、通常時は、標準の輝度範囲である、LVL1に対して±2.0段の範囲を、輝度範囲に設定する。ここで、通常時とはどのような状態かを説明する。まず、ストロボ装置300の可動部300bの本体部300aに対する上下方向、左右方向の回動角度が0°(正位置)である。さらに、ストロボ多灯システムに用いていない。さらに、可動部300bの光学パネル前方にカラーフィルタやバウンスアダプタなどの光学アクセサリを付けていない。以上のように、ストロボ装置300の可動部300bを本体部300aに対して正位置から回動させず、光学アクセサリを装着せずに単独でストロボ装置300を用いる状態を通常時とする。 As shown in FIG. 4A, in the normal time, the standard brightness range, which is ±2.0 steps with respect to LVL1, is set as the brightness range. Here, what kind of state the normal time is will be described. First, the rotation angle of the movable portion 300b of the strobe device 300 in the vertical direction and the horizontal direction with respect to the main body portion 300a is 0° (normal position). In addition, it is not used in a multi-strobe system. Furthermore, optical accessories such as a color filter and a bounce adapter are not attached to the front of the optical panel of the movable portion 300b. As described above, the normal state is a state in which the movable portion 300b of the strobe device 300 is not rotated from the normal position with respect to the main body portion 300a, and the strobe device 300 is used alone without mounting an optical accessory.

図4(b)に示すように、ストロボ装置300の可動部300bを本体部300aに対して正位置から回動させて用いるバウンス撮影時は通常時と輝度範囲を異ならせる。バウンス撮影は、天井や壁等に向けて発光し、天井や壁で反射した間接光を被写体に照射する撮影方法である。バウンス撮影に用いる天井や壁の距離や反射率が不明のため、実際にストロボ装置300が発光した発光量に対して被写体に届く光量がどの程度低下するのか不明である。そのため、バウンス撮影時は、通常時に対して輝度範囲の下限側を広げる。通常時に対して輝度範囲の下限側を広げるというのは、通常時よりも輝度範囲の下限値を低い値にすることや輝度範囲の下限値を設けないことを含む。なお、発光量決定処理の前に天井や壁等に向けて発光し、そのときの被写体輝度を算出するなどしてバウンス撮影時の光量低下の程度を推定するのであれば、図4(c)に示すように推定した光量低下の程度に合わせて輝度範囲を通常時からオフセットすればよい。図4(c)は、通常時に対して光量低下が5段である例を示している。このように、バウンス撮影時の光量低下がどの程度か推定可能な構成であれば、通常時に対して輝度範囲の下限値だけでなく上限値も異ならせる。 As shown in FIG. 4B, during bounce photography in which the movable portion 300b of the strobe device 300 is rotated from the normal position with respect to the main body portion 300a, the brightness range is made different from that in the normal state. Bounce shooting is a shooting method in which light is emitted toward a ceiling or a wall and the subject is irradiated with indirect light reflected by the ceiling or the wall. Since the distance and reflectance of the ceiling or wall used for bounce shooting are unknown, it is unknown how much the amount of light that reaches the subject will actually decrease with respect to the amount of light emitted by the strobe device 300. Therefore, during bounce shooting, the lower limit side of the brightness range is widened compared to the normal time. Increasing the lower limit of the brightness range with respect to the normal time includes making the lower limit value of the brightness range lower than that of the normal time and not providing the lower limit value of the brightness range. If light emission toward the ceiling or a wall is performed before the light emission amount determination processing and the subject brightness at that time is calculated to estimate the degree of light amount reduction during bounce shooting, FIG. As shown in, the luminance range may be offset from the normal time according to the estimated degree of decrease in light amount. FIG. 4C shows an example in which the reduction in the light amount is five steps as compared with the normal time. As described above, as long as it is possible to estimate how much the amount of light decrease during bounce shooting can be estimated, not only the lower limit value of the luminance range but also the upper limit value of the luminance range is made different from the normal state.

図4(d)に示すように、ストロボ多灯システムに用いる時は通常時と輝度範囲を異ならせる。ストロボ多灯システムは、無線通信などで複数のストロボ装置を同時に発光させるシステムである。こうしたストロボ多灯システムでは、撮像装置に装着されたストロボ装置以外の他のストロボ装置を撮像装置から離れた任意の位置に配置して用いるため、実際にストロボ装置300が発光した発光量に対して被写体に届く光量がどの程度増加するのか不明である。そのため、ストロボ多灯システムに用いる時は、通常時に対して輝度範囲の上限側の範囲を広げる。通常時に対して輝度範囲の上限側を広げるというのは、通常時よりも輝度範囲の上限値を高い値にすることや輝度範囲の上限値を設けないことを含む。 As shown in FIG. 4D, when used in a strobe multi-flash system, the brightness range is made different from that in normal time. The strobe multi-flash system is a system in which a plurality of strobe devices simultaneously emit light by wireless communication or the like. In such a strobe multi-light system, since a strobe device other than the strobe device mounted on the image pickup device is arranged and used at an arbitrary position apart from the image pickup device, the strobe device 300 actually emits light. It is unknown how much the amount of light reaching the subject will increase. Therefore, when used in a strobe multi-flash system, the upper limit side of the luminance range is widened as compared with the normal state. Increasing the upper limit of the brightness range from the normal time includes making the upper limit value of the brightness range higher than that of the normal time and not providing the upper limit value of the brightness range.

なお、バウンス撮影時と同様に、発光量決定処理の前に、複数のストロボ装置で同時に発光し、そのときの被写体輝度を算出するなどして光量増加がどの程度か推定するのであれば、推定した光量増加の程度に合わせて輝度範囲を通常時からオフセットすればよい。 As in the case of bounce shooting, if you want to estimate the amount of light increase by flashing simultaneously with multiple flash units and calculating the subject brightness at that time before the flash output determination process, estimate The brightness range may be offset from the normal time according to the degree of increase in the amount of light.

図4(e)に示すように、カラーフィルタやバウンスアダプタなどの光学アクセサリを装着している時は、光学アクセサリの影響で光量が低下するため、通常時に対して輝度範囲の下限側を広げる。通常時に対して輝度範囲の下限側を広げるというのは、通常時よりも輝度範囲の下限値を低い値にすることや輝度範囲の下限値を設けないことを含む。なお、光学アクセサリの減光特性がわかっていれば、光学アクセサリにより光量低下の程度に合わせて輝度範囲をオフセットすればよい。光学アクセサリの減光特性は、予めストロボ装置300に記憶されていればストロボ装置300から光学アクセサリの減光特性に関する情報を受信して輝度範囲の設定に用いればよい。あるいは、発光量決定処理の前に、光学アクセサリを装着したストロボ装置で発光し、そのときの被写体輝度を算出するなどして光量低下の程度を推定してもよい。以上がストロボ装置300の状態に応じた輝度範囲の例である。 As shown in FIG. 4E, when an optical accessory such as a color filter or a bounce adapter is attached, the amount of light decreases due to the influence of the optical accessory, so the lower limit side of the brightness range is widened compared to the normal time. Increasing the lower limit of the brightness range with respect to the normal time includes making the lower limit value of the brightness range lower than that of the normal time and not providing the lower limit value of the brightness range. If the dimming characteristic of the optical accessory is known, the brightness range may be offset by the optical accessory according to the degree of decrease in the light amount. If the dimming characteristic of the optical accessory is stored in the strobe device 300 in advance, information about the dimming characteristic of the optical accessory may be received from the strobe device 300 and used for setting the brightness range. Alternatively, before the light emission amount determination processing, the degree of decrease in the light amount may be estimated by emitting light with a strobe device equipped with an optical accessory and calculating the subject brightness at that time. The above is an example of the luminance range according to the state of the flash device 300.

輝度範囲の設定後、CPU101は、各顔領域反射輝度F[n]が、ストロボ装置300の状態に応じた輝度範囲内となるか否かを判別し、輝度範囲内となった顔領域反射輝度のみを用いた平均顔反射輝度FAVEを算出する。言い換えれば、ストロボ装置300をプリ発光させたときに被写体で反射されるプリ発光の反射成分に対応した、検出された顔領域に対応する領域における反射輝度が、所定の輝度範囲内か否かを判別し、輝度範囲内と判別された領域の平均輝度を算出する。 After setting the brightness range, the CPU 101 determines whether each face area reflection brightness F[n] is within the brightness range according to the state of the flash device 300, and the face area reflection brightness within the brightness range is determined. The average face reflection brightness FAVE using only the above is calculated. In other words, it is determined whether or not the reflection brightness in the area corresponding to the detected face area, which corresponds to the reflection component of the pre-emission reflected by the subject when the strobe device 300 is pre-emitted, is within a predetermined brightness range. The average brightness of the areas determined to be within the brightness range is calculated.

次に、レンズユニット200から受信した被写体距離に関する情報に基づく距離情報Dを用いて輝度範囲の設定し、平均顔領域反射輝度FAVEを算出する手法を説明する。 Next, a method of setting the brightness range using the distance information D based on the information about the subject distance received from the lens unit 200 and calculating the average face area reflection brightness FAVE will be described.

CPU101は、距離情報Dと、プリ発光時の発光量に関する情報C1とから、その距離における標準的な反射率(18%)の被写体の場合の反射輝度LVL2を式(6)により算出する。
LVL2=−log(D)×2+C1・・・(6)
The CPU 101 calculates the reflection luminance LVL2 for the subject having the standard reflectance (18%) at that distance from the distance information D and the information C1 regarding the amount of light emission at the time of pre-emission according to the equation (6).
LVL2=−log 2 (D)×2+C1 (6)

上述したように、実際の顔の反射率は約7%〜46%である。つまり、LVL2に対してAPEX値で±約1.4段の幅を持つ。 As mentioned above, the actual facial reflectance is about 7% to 46%. That is, it has a width of ±1.4 steps in APEX value with respect to LVL2.

つまり、標準反射率18%の反射輝度LVL2に対して、実際の顔の反射輝度はLVL2±1.4段に入ると想定されるため、CPU101は、LVL2±1.4段を標準の輝度範囲に設定する。こちらの算出方法を用いた場合は、顔領域ごとに輝度範囲を設定するのではなく、すべての顔領域に対して共通の輝度範囲を設定する。 That is, since it is assumed that the actual reflection brightness of the face falls within LVL2±1.4 steps with respect to the reflection brightness LVL2 having the standard reflectance of 18%, the CPU 101 sets the LVL2±1.4 steps to the standard brightness range. Set to. When this calculation method is used, a brightness range is not set for each face area, but a common brightness range is set for all face areas.

なお、こちらの算出方法を用いた場合も、前述したように、CPU101は、SCPU301からストロボ装置300の状態に関する情報を受信し、ストロボ装置300の状態に応じて輝度範囲を変更する。 Even when this calculation method is used, as described above, the CPU 101 receives information regarding the state of the strobe device 300 from the SCPU 301 and changes the brightness range according to the state of the strobe device 300.

輝度範囲の設定後、CPU101は、各顔領域反射輝度F[n]が、ストロボ装置300の状態に応じた輝度範囲内となるか否かを判別し、輝度範囲内となった顔領域反射輝度のみを用いた平均顔反射輝度FAVEを算出する。 After setting the brightness range, the CPU 101 determines whether each face area reflection brightness F[n] is within the brightness range according to the state of the flash device 300, and the face area reflection brightness within the brightness range is determined. The average face reflection brightness FAVE using only the above is calculated.

以上のように、本実施形態では、プリ発光前に取得した画像を用いた顔検出演算で検出された顔検出領域に、プリ発光時も顔領域が存在するか否かを判別するために、プリ発光の反射成分と閾値(輝度範囲の上限値及び下限値)とを比較している。この反射成分と閾値との比較によって、顔領域ではない領域(高反射物や被写体が存在しない領域)が顔領域とみなされることが軽減でき、顔検出により検出された顔に対して良好な発光量を演算することができる。さらに、照明装置の状態に応じて閾値を変更しているので、顔検出により検出された顔に対して制度よく良好な発光量を演算することができる。 As described above, in the present embodiment, in the face detection area detected by the face detection calculation using the image acquired before the pre-emission, in order to determine whether or not the face area is present even during the pre-emission, The reflection component of the pre-emission and the threshold value (the upper limit value and the lower limit value of the brightness range) are compared. By comparing this reflection component with the threshold value, it is possible to reduce that the area other than the face area (the area where there are no high-reflecting objects or subjects) is regarded as the face area, and it is possible to obtain good light emission for the face detected by the face detection. The quantity can be calculated. Further, since the threshold value is changed according to the state of the lighting device, it is possible to accurately calculate a favorable light emission amount for the face detected by the face detection.

なお、本実施形態では、プリ発光前に取得した画像を用いた顔検出演算で検出された顔検出領域のうちプリ発光時も顔領域が存在するとみなしてよい領域を判別し、判別結果に基づいて式(1)、(2)、(3)を用いて本発光量を決定している。しかしながら、プリ発光前に取得した画像を用いた顔検出演算で検出された顔検出領域のうちプリ発光時も顔領域が存在するとみなしてよい領域を判別する以外の本発光量の決定処理は、上記の処理に限定されない。例えば、平均顔領域反射輝度FAVEと目標輝度値Ytとの差分DF´を算出し、差分DF´とプリ発光時の発光量から本発光量を決定してもよい。あるいは、平均顔領域反射輝度FAVEを算出せず、判別された領域の重み付けを他の領域よりも大きくした加重平均演算を行いプリ発光反射輝度AVEを算出し、プリ発光反射輝度AVEと目標輝度値Ytとの差分DF´´に基づいて本発光量を決定してもよい。 It should be noted that in the present embodiment, among the face detection areas detected by the face detection calculation using the image acquired before the pre-emission, the area that may be considered to have the face area even during the pre-emission is determined, and based on the determination result. Equation (1), (2), and (3) are used to determine the main light emission amount. However, in the face detection area detected by the face detection calculation using the image acquired before the pre-emission, the main light emission amount determination process other than the area in which the face area may be considered to exist even during the pre-emission is determined. The processing is not limited to the above. For example, the difference DF′ between the average face area reflection brightness FAVE and the target brightness value Yt may be calculated, and the main light emission amount may be determined from the difference DF′ and the light emission amount at the time of pre-light emission. Alternatively, the pre-emission reflection brightness AVE and the target brightness value are calculated by calculating the pre-emission reflection brightness AVE without performing the calculation of the average face area reflection brightness FAVE and performing the weighted average calculation in which the determined area is weighted more than other areas. The main light emission amount may be determined based on the difference DF″ from Yt.

また、本実施形態では、プリ発光画像から非発光画像を減算し生成されたプリ発光反射画像を用いてプリ発光反射輝度AVEを算出しているが、プリ発光画像と非発光画像とで輝度を算出し、それぞれの輝度を減算してプリ発光反射輝度AVEを算出してもよい。 Further, in the present embodiment, the pre-emission reflection brightness AVE is calculated using the pre-emission reflection image generated by subtracting the non-emission image from the pre-emission image. However, the brightness is calculated between the pre-emission image and the non-emission image. The pre-emission reflection brightness AVE may be calculated by subtracting the calculated brightnesses.

また、本実施形態では、プリ発光画像から非発光画像を減算して生成されたプリ発光反射画像を用いてプリ発光反射輝度AVEを算出しているが、環境光の影響を無視するのであれば、プリ発光画像を用いて算出した輝度をプリ発光反射輝度AVEとしてもよい。 Further, in the present embodiment, the pre-emission reflection brightness AVE is calculated using the pre-emission reflection image generated by subtracting the non-emission image from the pre-emission image, but if the influence of the ambient light is ignored. The luminance calculated using the pre-emission image may be used as the pre-emission reflection luminance AVE.

また、本実施形態では、AEセンサ107で取得した画像に基づいて本発光量を決定しているが、顔検出に用いる画像を含む本発光量の決定に用いる画像の少なくとも一部に、撮像素子103で取得した画像を用いてもよい。 Further, in the present embodiment, the main light emission amount is determined based on the image acquired by the AE sensor 107. However, at least a part of the image used for determining the main light emission amount including the image used for face detection has an imaging element. You may use the image acquired by 103.

また、本実施形態では、カメラ本体100に装着されたストロボ装置300の本発光量を決定する例を説明したが、撮像装置に内蔵された照明装置の本発光量を上記の決定方法にしたがって決定してもよい。 Further, in the present embodiment, an example in which the main light emission amount of the strobe device 300 attached to the camera body 100 is determined, but the main light emission amount of the illumination device incorporated in the imaging device is determined according to the above determination method. You may.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist thereof.

100 カメラ本体
101 CPU
102 メモリ
103 撮像素子
107 測光センサ
111 AFセンサ
200 レンズユニット
201 LCPU
300 ストロボ装置
301 SCPU
100 camera body 101 CPU
102 memory 103 image sensor 107 photometric sensor 111 AF sensor 200 lens unit 201 LCPU
300 Strobe device 301 SCPU

Claims (19)

照明装置を用いた撮影が可能な撮像装置であって、
前記照明装置をプリ発光させる前に取得した画像を用いて顔検出を行う顔検出手段と、
前記照明装置をプリ発光させたときに被写体で反射されるプリ発光の反射成分に対応した反射輝度を算出する輝度算出手段と、
前記輝度算出手段により算出された、前記顔検出手段により検出された顔領域に対応する領域における前記反射輝度が所定の輝度範囲内か否かを判別する判別手段と、
前記判別手段により前記反射輝度が前記所定の輝度範囲内と判別された領域の重み付けを他の領域の重み付けよりも大きくして、前記照明装置の発光量を決定する決定手段と、
を有し、
前記判別手段は、前記照明装置の状態に応じて前記所定の輝度範囲を変更することを特徴とする撮像装置。
An imaging device capable of photographing using an illumination device,
Face detection means for performing face detection using an image acquired before pre-lighting the lighting device,
Luminance calculation means for calculating the reflection luminance corresponding to the reflection component of the pre-emission reflected by the subject when the illuminating device is pre-emitted,
A determining unit that determines whether or not the reflected brightness in a region corresponding to the face region detected by the face detecting unit, which is calculated by the brightness calculating unit, is within a predetermined brightness range;
Determining means for determining the amount of light emitted from the lighting device by increasing the weighting of the area in which the reflection luminance is determined to be within the predetermined luminance range by the determining means as compared with the weighting of other areas,
Have
The image pickup apparatus, wherein the determination unit changes the predetermined brightness range according to a state of the illumination device.
前記判別手段は、前記照明装置から受信した前記照明装置の状態に関する情報に基づいて、前記所定の輝度範囲を変更することを特徴とする請求項1に記載の撮像装置。 The image pickup apparatus according to claim 1, wherein the determination unit changes the predetermined luminance range based on information about a state of the lighting device received from the lighting device. 前記判別手段は、光部を備えた可動部と本体部とを有する前記照明装置における前記可動部の前記本体部に対する回動状態に応じて、前記所定の輝度範囲を変更することを特徴とする請求項1または2に記載の撮像装置。 It said discriminating means includes a feature that in accordance with the rotation state with respect to the main body portion of the movable portion in the illumination device having a movable portion and a body portion having a light emission unit, changes the predetermined luminance range The imaging device according to claim 1 or 2. 前記判別手段は、光部を備えた可動部と本体部とを有する前記照明装置における前記可動部の前記本体部に対する回動状態に応じて、前記所定の輝度範囲の下限値を変更することを特徴とする請求項3に記載の撮像装置。 Said discriminating means, in accordance with the rotation state with respect to the main body portion of the movable portion in the illumination device having a movable portion and a body portion having a light emission portion, by changing the lower limit of the predetermined luminance range The image pickup apparatus according to claim 3, wherein: 前記判別手段は、前記可動部が前記本体部に対して正位置にあるときよりも、前記可動部が前記本体部に対して回動しているときのほうが前記下限値を低い値にすることを特徴とする請求項4に記載の撮像装置。 The determining means sets the lower limit value to a lower value when the movable portion is rotating with respect to the body portion than when the movable portion is in the normal position with respect to the body portion. The image pickup apparatus according to claim 4, wherein. 前記判別手段は、光部を備えた可動部と本体部とを有する前記照明装置における前記可動部の前記本体部に対する回動状態に応じて、前記所定の輝度範囲の上限値を変更することを特徴とする請求項3ないし5のいずれか1項に記載の撮像装置。 Said discriminating means, in accordance with the rotation state with respect to the main body portion of the movable portion in the illumination device having a movable portion and a body portion having a light emission portion, by changing the upper limit value of the predetermined luminance range The image pickup apparatus according to claim 3, wherein the image pickup apparatus is an image pickup apparatus. 前記判別手段は、前記可動部が前記本体部に対して正位置にあるときよりも、前記可動部が前記本体部に対して回動しているときのほうが前記上限値を低い値にすることを特徴とする請求項6に記載の撮像装置。 The determining means sets the upper limit value to a lower value when the movable portion is rotating with respect to the body portion than when the movable portion is in the normal position with respect to the body portion. The image pickup apparatus according to claim 6, wherein. 前記判別手段は、前記可動部が前記本体部に対して正位置にあるときよりも、前記可動部が前記本体部に対して回動しているときのほうが前記所定の輝度範囲を下方にオフセットすることを特徴とする請求項3に記載の撮像装置。 The discriminating means offsets the predetermined luminance range downward when the movable portion is rotating with respect to the body portion, rather than when the movable portion is in the normal position with respect to the body portion. The imaging device according to claim 3, wherein 前記判別手段は、前記可動部が前記本体部に対して正位置にあるときは前記下限値を設け、前記可動部が前記本体部に対して回動しているときは前記下限値を設けないことを特徴とする請求項4に記載の撮像装置。 The discriminating means provides the lower limit value when the movable portion is in the normal position with respect to the main body portion, and does not provide the lower limit value when the movable portion is rotating with respect to the main body portion. The image pickup apparatus according to claim 4, wherein 前記判別手段は、前記照明装置がストロボ多灯システムに用いられるか否かに応じて、前記所定の輝度範囲を変更することを特徴とする請求項1または2に記載の撮像装置。 The image pickup apparatus according to claim 1, wherein the determination unit changes the predetermined luminance range according to whether or not the illumination device is used in a strobe multi-flash system. 前記判別手段は、前記照明装置がストロボ多灯システムに用いられるか否かに応じて、前記所定の輝度範囲の上限値を変更することを特徴とする請求項10に記載の撮像装置。 The image pickup apparatus according to claim 10, wherein the determination unit changes an upper limit value of the predetermined brightness range according to whether or not the illumination device is used in a strobe multi-flash system. 前記判別手段は、前記照明装置がストロボ多灯システムに用いないときよりも、前記照明装置がストロボ多灯システムに用いられるときのほうが前記上限値を高い値にすることを特徴とする請求項11に記載の撮像装置。 12. The determination means sets the upper limit value to a higher value when the lighting device is used in the strobe multi-flash system than when the lighting device is not used in the strobe multi-flash system. The imaging device according to. 前記判別手段は、前記照明装置が光学アクセサリを装着しているか否かに応じて、前記所定の輝度範囲を変更することを特徴とする請求項1または2に記載の撮像装置。 The image pickup apparatus according to claim 1, wherein the determination unit changes the predetermined luminance range according to whether or not the illumination device is equipped with an optical accessory. 前記判別手段は、前記照明装置が光学アクセサリを装着しているか否かに応じて、前記所定の輝度範囲の下限値を変更することを特徴とする請求項13に記載の撮像装置。 14. The image pickup apparatus according to claim 13, wherein the determination unit changes the lower limit value of the predetermined brightness range according to whether or not the illumination device is equipped with an optical accessory. 前記判別手段は、前記照明装置が光学アクセサリを装着していないときよりも、前記照明装置が光学アクセサリを装着しているときのほうが前記下限値を低い値にすることを特徴とする請求項14に記載の撮像装置。 15. The determination means sets the lower limit value to a lower value when the lighting device is equipped with an optical accessory than when the lighting device is not equipped with an optical accessory. The imaging device according to. 前記判別手段は、前記照明装置が光学アクセサリを装着しているか否かに応じて、前記所定の輝度範囲の上限値を変更することを特徴とする請求項13ないし15のいずれか1項に記載の撮像装置。 The said discrimination|determination means changes the upper limit of the said predetermined|prescribed brightness|luminance range according to whether the said illuminating device is equipped with the optical accessory, The any one of Claim 13 thru|or 15 characterized by the above-mentioned. Imaging device. 前記判別手段は、前記照明装置が光学アクセサリを装着していないときよりも、前記照明装置が光学アクセサリを装着しているときのほうが前記上限値を低い値にすることを特徴とする請求項16に記載の撮像装置。 17. The determination unit sets the upper limit value to a lower value when the lighting device is equipped with an optical accessory than when the lighting device is not equipped with an optical accessory. The imaging device according to. 前記判別手段は、前記照明装置が光学アクセサリを装着していないときよりも、前記照明装置が光学アクセサリを装着しているときのほうが前記所定の輝度範囲を下方にオフセットすることを特徴とする請求項13に記載の撮像装置。 The discriminating means offsets the predetermined luminance range downward when the illumination device is equipped with an optical accessory rather than when the illumination device is not equipped with an optical accessory. Item 14. The imaging device according to item 13. 照明装置を用いた撮影が可能な撮像装置の制御方法であって、
前記照明装置をプリ発光させる前に取得した画像を用いて顔検出を行う顔検出ステップと、
前記照明装置をプリ発光させたときに被写体で反射されるプリ発光の反射成分に対応した反射輝度を算出する輝度算出ステップと、
前記輝度算出ステップで算出された、前記顔検出ステップで検出された顔領域に対応する領域における前記反射輝度が所定の輝度範囲内か否かを判別する判別ステップと、
前記判別ステップで前記反射輝度が前記所定の輝度範囲内と判別された領域の重み付けを他の領域の重み付けよりも大きくして、前記照明装置の発光量を決定する決定ステップと、を有し、
前記判別ステップは、前記照明装置の状態に応じて前記所定の輝度範囲を変更することを特徴とする制御方法。
A method for controlling an imaging device capable of shooting using an illumination device, comprising:
A face detection step of performing face detection using an image acquired before pre-lighting the lighting device;
A brightness calculation step of calculating a reflection brightness corresponding to a reflection component of pre-emission reflected by the subject when the illumination device is pre-emitted;
A determining step of determining whether or not the reflected brightness in the area corresponding to the face area detected in the face detecting step, which is calculated in the brightness calculating step, is within a predetermined brightness range;
A determination step of determining the light emission amount of the lighting device by increasing the weighting of the area determined to have the reflected luminance within the predetermined luminance range in the determination step as compared with the weighting of other areas,
The control method, wherein the determining step changes the predetermined brightness range according to a state of the lighting device.
JP2016098987A 2016-05-17 2016-05-17 Imaging device and control method Active JP6727920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016098987A JP6727920B2 (en) 2016-05-17 2016-05-17 Imaging device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016098987A JP6727920B2 (en) 2016-05-17 2016-05-17 Imaging device and control method

Publications (2)

Publication Number Publication Date
JP2017208664A JP2017208664A (en) 2017-11-24
JP6727920B2 true JP6727920B2 (en) 2020-07-22

Family

ID=60415583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016098987A Active JP6727920B2 (en) 2016-05-17 2016-05-17 Imaging device and control method

Country Status (1)

Country Link
JP (1) JP6727920B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7129196B2 (en) 2018-04-04 2022-09-01 キヤノン株式会社 IMAGING DEVICE, CONTROL METHOD AND PROGRAM THEREOF
JP2021033163A (en) * 2019-08-28 2021-03-01 キヤノン株式会社 Imaging device and control method of the same
JP7441862B2 (en) 2020-01-09 2024-03-01 シャープ株式会社 Light emitting device and facial beauty device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012155149A (en) * 2011-01-26 2012-08-16 Canon Inc Imaging apparatus and method for controlling the same
JP5885416B2 (en) * 2011-07-14 2016-03-15 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2015032894A (en) * 2013-07-31 2015-02-16 キヤノン株式会社 Light emission control method of illumination device, and imaging apparatus
JP2015075628A (en) * 2013-10-09 2015-04-20 株式会社ニコン Light emission control device and imaging device
JP6467190B2 (en) * 2014-10-20 2019-02-06 キヤノン株式会社 EXPOSURE CONTROL DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM

Also Published As

Publication number Publication date
JP2017208664A (en) 2017-11-24

Similar Documents

Publication Publication Date Title
JP4110109B2 (en) Imaging apparatus and imaging control method
JP2004234009A (en) Device and method for controlling red-eye stroboscopic mode
JP2004258430A (en) Stroboscopic photography system
JP6727920B2 (en) Imaging device and control method
JP2017187575A (en) Imaging system, light-emitting device, light-emitting control method, and program
CN109327688B (en) Image pickup apparatus, control method thereof, and light emission control apparatus
JP2012220787A (en) Imaging apparatus and camera system
JP5332304B2 (en) Camera and flash method
JP4407163B2 (en) Camera system
JP4838517B2 (en) Illumination photographing apparatus and photographing apparatus
JP2001222048A (en) Camera
JP3860037B2 (en) Camera with flash device
JP2004264783A (en) Camera and electronic camera
JP2015191000A (en) Imaging device, flash device and flash photographing system
JP6398315B2 (en) Imaging device
JP7158880B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND CONTROL PROGRAM
JP4754745B2 (en) Camera with strobe device
JP3706659B2 (en) Camera system
JP6890932B2 (en) Imaging device and control method
JP2006243189A (en) Camera
JP3635500B2 (en) Camera focusing device and camera capable of underwater photography
JP2020173374A (en) Image capturing device
JP6611520B2 (en) Imaging device, control method thereof, and control program
JP3831422B2 (en) Camera with dimmer
JP2003066504A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200701

R151 Written notification of patent or utility model registration

Ref document number: 6727920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151