JP2016090990A - Imaging system, illumination device, and method for controlling the same - Google Patents

Imaging system, illumination device, and method for controlling the same Download PDF

Info

Publication number
JP2016090990A
JP2016090990A JP2014229340A JP2014229340A JP2016090990A JP 2016090990 A JP2016090990 A JP 2016090990A JP 2014229340 A JP2014229340 A JP 2014229340A JP 2014229340 A JP2014229340 A JP 2014229340A JP 2016090990 A JP2016090990 A JP 2016090990A
Authority
JP
Japan
Prior art keywords
optical member
angle
unit
use position
movable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014229340A
Other languages
Japanese (ja)
Inventor
裕 山元
Yutaka Yamamoto
裕 山元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014229340A priority Critical patent/JP2016090990A/en
Publication of JP2016090990A publication Critical patent/JP2016090990A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To control the operation of an illumination device, according to the state of an optical member.SOLUTION: An imaging system including the illumination device capable of changing the radiation direction of light by automatically driving a movable part including a light-emitting part and an imaging apparatus, includes the optical member which is movable between a use position where the optical member is projected from the inside of the movable part, to be illuminated with the light radiated from the light-emitting part and a non-use position where the optical member is stored inside the movable part, not to be illuminated with the light radiated from the light-emitting part, optical member detection means which detects whether or not the optical member is in the use position, face detection means which detects a face, and drive control means which controls the drive of the movable part, according to the detection results of the optical member detection means and the face detection means.SELECTED DRAWING: Figure 2

Description

本発明は、照明装置を発光させた発光撮影制御に関するものである。   The present invention relates to light emission photographing control in which a lighting device emits light.

従来、照明装置の光を天井等に向けて照射して天井等からの拡散反射光を被写体に照射する発光撮影(以下、バウンス発光撮影と称す)が知られている。バウンス発光撮影によれば、照明装置の光を間接的に被写体に照射することができるため、柔らかい光で被写体を照明することができる。   2. Description of the Related Art Conventionally, flash photography (hereinafter referred to as bounce flash photography) is known in which light from an illumination device is directed toward a ceiling or the like and a subject is irradiated with diffusely reflected light from the ceiling or the like. According to the bounce flash photography, the subject can be indirectly irradiated with the light from the illumination device, so that the subject can be illuminated with soft light.

さらに、バウンス発光撮影における最適な照射方向を自動的に決定する技術も提案されている。特許文献1では、発光部と被写体との間の距離情報と、発光部と反射体との間の距離情報に基づき、バウンス照射角度を演算し、演算された照射角度に基づいて自動的に発光部を駆動させる技術が開示されている。   Furthermore, a technique for automatically determining the optimum irradiation direction in bounce flash photography has been proposed. In Patent Document 1, a bounce irradiation angle is calculated based on distance information between a light emitting unit and a subject and distance information between a light emitting unit and a reflector, and light is automatically emitted based on the calculated irradiation angle. A technique for driving the unit is disclosed.

特開2013−178354号公報JP 2013-178354 A

ここで、一般的に、照明装置には、人物の目に光を写し込ませるキャッチライト撮影に用いるパネル状の光学部材(所謂キャッチライトシート)が設けられている。上述した光学部材は、照明装置の内部に収納された位置(以下、非使用位置と称す)と照明装置の内部から突出した位置(以下、使用位置と称す)の間を移動することができる。そして、当該光学部材が使用位置に位置している状態(使用時)でも、バウンス発光撮影を行うこともできる。   Here, generally, the illumination device is provided with a panel-like optical member (so-called catchlight sheet) used for catchlight photography in which light is projected into a human eye. The optical member described above can move between a position housed inside the lighting device (hereinafter referred to as a non-use position) and a position protruding from the inside of the lighting device (hereinafter referred to as a use position). Even when the optical member is in the use position (when in use), bounce flash photography can be performed.

しかしながら、特許文献1には、前述した光学部材が使用位置に位置している状態で、発光部を演算された照射角度に基づいて発光部を駆動させることについては言及されていない。   However, Patent Document 1 does not mention driving the light emitting unit based on the calculated irradiation angle while the optical member described above is located at the use position.

本発明の目的は、光学部材の状態に応じて照明装置の動作を制御できるようにすることである。   The objective of this invention is enabling it to control operation | movement of an illuminating device according to the state of an optical member.

上記目的を達成するための本発明の撮像システムは、発光部を備えた可動部を自動的に駆動させることで光の照射方向を変更させる照明装置と、撮像装置とを含む撮像システムであって、前記可動部の内部から突出させることで前記発光部から照射された光によって照明される使用位置と、前記可動部の内部に収納させることで前記発光部から照射された光に照明されない非使用位置との間を移動することができる光学部材と、前記光学部材が前記使用位置にあるか否かを検出する光学部材検出手段と、顔を検出する顔検出手段と、前記光学部材検出手段と前記顔検出手段の検出結果に応じて前記可動部の駆動を制御する駆動制御手段と、を有することを特徴とする。   In order to achieve the above object, an imaging system of the present invention is an imaging system including an illuminating device that changes a light irradiation direction by automatically driving a movable portion including a light emitting portion, and an imaging device. The use position illuminated by the light emitted from the light emitting part by projecting from the inside of the movable part, and the non-use not illuminated by the light emitted from the light emitting part by storing in the movable part An optical member capable of moving between positions, an optical member detection means for detecting whether or not the optical member is in the use position, a face detection means for detecting a face, and the optical member detection means, Drive control means for controlling the drive of the movable part according to the detection result of the face detection means.

本発明によれば、光学部材の状態に応じて照明装置の動作を制御することができる。   According to the present invention, the operation of the illumination device can be controlled according to the state of the optical member.

本発明の実施形態に係る撮像装置であるデジタルカメラ100の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of a digital camera 100 that is an imaging apparatus according to an embodiment of the present invention. 本発明の実施形態に係る照明装置である外部ストロボ120の構成例を示すブロック図である。It is a block diagram which shows the structural example of the external strobe 120 which is an illuminating device which concerns on embodiment of this invention. 本発明の実施形態に係る照明装置である外部ストロボ120の本体部120aのピッチ方向の傾き角度とロール方向の傾き角度を例示的に説明する図である。It is a figure explaining illustratively the inclination angle of the pitch direction of the main-body part 120a of the external strobe 120 which is an illuminating device which concerns on embodiment of this invention, and the inclination angle of a roll direction. 本発明の実施形態に係る照明装置である可動部120bの駆動角度を例示的に説明する図である。It is a figure explaining driving angle of movable part 120b which is an illuminating device concerning an embodiment of the present invention exemplarily. 本発明の実施形態に係る照明装置である外部ストロボ120のキャッチライトシート212が非使用位置に位置する状態と使用位置に位置する状態とを例示的に説明する図である。It is a figure explaining the state in which the catchlight sheet | seat 212 of the external strobe 120 which is an illuminating device which concerns on embodiment of this invention is located in a non-use position, and the state located in a use position. 本発明の実施形態に係る照明装置である外部ストロボ120のキャッチライトシート212が使用位置に位置している状態のバウンス発光撮影について例示的に説明する図である。It is a figure explaining illustratively bounce light emission photography in the state where catchlight sheet 212 of external strobe 120 which is an illuminating device concerning an embodiment of the present invention is located in a use position. 本発明の実施形態に係る撮像装置であるデジタルカメラ100のバウンス発光撮影制御を示すフローチャートである。It is a flowchart which shows the bounce light emission imaging | photography control of the digital camera 100 which is an imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る照明装置である外部ストロボ120について、キャッチライトシート212が非使用位置に位置している状態のバウンス発光撮影制御を示すフローチャートである。It is a flowchart which shows the bounce light emission imaging | photography control of the state which the catchlight sheet | seat 212 is located in a non-use position about the external strobe 120 which is an illuminating device which concerns on embodiment of this invention. 本発明の実施形態に係る照明装置である外部ストロボ120のキャッチライトシート212が使用位置に位置している状態であって、撮影対象の被写体に顔が含まれない場合のバウンス発光撮影制御を示すフローチャートである。The bounce flash photographing control in the case where the catchlight sheet 212 of the external strobe 120 which is the illumination device according to the embodiment of the present invention is located at the use position and the subject to be photographed does not include a face is shown. It is a flowchart. 本発明の実施形態に係る照明装置である外部ストロボ120について、キャッチライトシート212が使用位置に位置している状態であって、撮影対象の被写体に顔が含まれる場合のバウンス発光撮影制御を示すフローチャートである。Bounce flash photographing control in the state where the catchlight sheet 212 is located at the use position and the subject to be photographed includes a face with respect to the external strobe 120 that is the illumination device according to the embodiment of the present invention. It is a flowchart. 本発明の実施形態に係る照明装置である外部ストロボ120の可動部120bの駆動制御を示すフローチャートである。It is a flowchart which shows the drive control of the movable part 120b of the external strobe 120 which is an illuminating device which concerns on embodiment of this invention. 本発明の実施形態に係る照明装置である外部ストロボ120の最適な照明方向について例示的に説明する図である。It is a figure explaining illustratively about the optimal illumination direction of the external strobe 120 which is an illuminating device which concerns on embodiment of this invention.

(撮像装置の構成例)
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
(Configuration example of imaging device)
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

まず、本実施形態に係る撮像装置であるデジタルカメラ(以下、単にカメラと称す)100の構成について図1を参照して説明する。図1は、本発明の実施形態に係る撮像装置であるカメラ100の構成例を示すブロック図である。   First, the configuration of a digital camera (hereinafter simply referred to as a camera) 100 that is an imaging apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration example of a camera 100 that is an imaging apparatus according to an embodiment of the present invention.

カメラMPU101は、カメラ100全体の動作を制御するためのマイクロコントローラである。撮像素子102は、被写体からの反射光を電気信号に変換するCCDやCMOS等の撮像素子である。タイミング信号発生回路103は、撮像素子102を動作させるために必要なタイミング信号を発生する。A/D変換器104は、撮像素子102から読み出されたアナログ画像データをデジタル画像データに変換する。メモリコントローラ105は、メモリの読み書きやバッファメモリ106のリフレッシュ動作などを制御する。画像表示部107は、バッファメモリ106に格納された画像データを表示する。インターフェース108は、メモリカードやハードディスクなどの記録媒体109との接続のためのインターフェースである。モーター制御部110は、カメラMPU101からの信号に従って不図示のモーターを制御することにより、レンズユニット300を介して入射した光束の光路を変更するために不図示のミラーをアップ・ダウンさせる。ミラーがアップしている場合、レンズユニット300を介して入射した光束は撮像素子102等に導かれ、ミラーがダウンしている場合、レンズユニット300を介して入射した光束は測光センサ113等に導かれる。   The camera MPU 101 is a microcontroller for controlling the operation of the entire camera 100. The image sensor 102 is an image sensor such as a CCD or CMOS that converts reflected light from a subject into an electrical signal. The timing signal generation circuit 103 generates a timing signal necessary for operating the image sensor 102. The A / D converter 104 converts analog image data read from the image sensor 102 into digital image data. The memory controller 105 controls reading / writing of the memory, refresh operation of the buffer memory 106, and the like. The image display unit 107 displays the image data stored in the buffer memory 106. The interface 108 is an interface for connection with a recording medium 109 such as a memory card or a hard disk. The motor control unit 110 controls a motor (not shown) in accordance with a signal from the camera MPU 101 to raise and lower a mirror (not shown) in order to change the optical path of the light beam incident through the lens unit 300. When the mirror is up, the light beam incident through the lens unit 300 is guided to the image sensor 102 and the like, and when the mirror is down, the light beam incident through the lens unit 300 is guided to the photometric sensor 113 and the like. It is burned.

シャッター制御部111は、カメラMPU101からの信号に従って、撮像素子102の前方に配置され撮像素子102を遮光状態と露光状態とに切り換える不図示のシャッターを制御する。   The shutter control unit 111 controls a shutter (not shown) that is disposed in front of the image sensor 102 and switches the image sensor 102 between a light shielding state and an exposure state in accordance with a signal from the camera MPU 101.

測光部112は、撮影画面内を複数のエリアに分割した測光センサ113の出力に基づいて各エリアの測光結果である測光値をカメラMPU101に出力する。カメラMPU101は各エリアの測光値に基づいて、撮影時の露出制御値であるAV(絞り値)、TV(シャッタースピード)、ISO(撮影感度)を決定するための露出演算を行う。   The photometric unit 112 outputs a photometric value, which is a photometric result of each area, to the camera MPU 101 based on the output of the photometric sensor 113 that divides the imaging screen into a plurality of areas. The camera MPU 101 performs an exposure calculation for determining AV (aperture value), TV (shutter speed), and ISO (photographing sensitivity) that are exposure control values at the time of photographing based on the photometric value of each area.

また、カメラMPU101は、内蔵ストロボ119または外部ストロボ120にて被写体へ向けて予備(プリ)発光したときに測光部112から出力される測光値に基づいて、発光撮影時の内蔵ストロボ119あるいは外部ストロボ120の発光量の演算も行う。   In addition, the camera MPU 101 uses the built-in flash 119 or the external strobe during flash photography based on the photometric value output from the photometry unit 112 when the built-in strobe 119 or the external strobe 120 emits preliminary (pre) light toward the subject. The calculation of 120 light emission amounts is also performed.

さらに、カメラMPU101は、測光部112からの出力に基づいて、被写体に含まれる顔(または顔領域)を検出する顔検出手段である。なお、本実施形態では、測光センサ113で得られた測光結果に基づいて、被写体に含まれる顔を検出するが、これに限定されるものではない。例えば、被写体に含まれる目や鼻、口等の顔の特徴部を抽出することで被写体に含まれる顔を検出するなど、顔の検出手法については公知の方法であればどのようなものを採用してもよい。また、本実施形態では、カメラ100側で被写体に含まれる顔を検出するような構成であるが、これに限定されるものではない。例えば、後述する外部ストロボ120に撮像素子を設けて、ストロボMPU201が当該撮像素子からの出力に基づいて、被写体に含まれる顔を検出するような構成であってもよい。   Furthermore, the camera MPU 101 is a face detection unit that detects a face (or face area) included in the subject based on an output from the photometry unit 112. In the present embodiment, the face included in the subject is detected based on the photometric result obtained by the photometric sensor 113, but the present invention is not limited to this. For example, any known method can be used for detecting a face, such as detecting a face included in the subject by extracting facial features such as eyes, nose and mouth included in the subject. May be. In the present embodiment, the camera 100 side detects a face included in the subject, but the present invention is not limited to this. For example, an image sensor may be provided in an external strobe 120 described later, and the strobe MPU 201 may detect a face included in the subject based on the output from the image sensor.

レンズ制御部114は、カメラMPU101からの信号に従って不図示のレンズ駆動モーター及び絞り駆動モーターを制御することによりレンズユニット300の焦点調節と絞り調節を行っている。なお、本実施形態のカメラ100は、カメラ本体とレンズユニット300とが一体的に設けられているような構成であるが、カメラ本体とレンズユニットとが別々に設けられている、所謂レンズ交換式のデジタルカメラであってもよい。   The lens control unit 114 performs focus adjustment and aperture adjustment of the lens unit 300 by controlling a lens drive motor and an aperture drive motor (not shown) according to a signal from the camera MPU 101. The camera 100 of the present embodiment has a configuration in which the camera body and the lens unit 300 are integrally provided, but a so-called lens interchangeable type in which the camera body and the lens unit are separately provided. It may be a digital camera.

焦点検出部115は、撮影画面内に複数の測距点を備えた焦点検出センサの出力に基づいて各測距点のデフォーカス量をカメラMPU101に出力する。カメラMPU101は、焦点検出部115から出力されたデフォーカス量に基づいて、レンズ制御部114に指示して焦点調節動作を実行させる。   The focus detection unit 115 outputs the defocus amount of each distance measuring point to the camera MPU 101 based on the output of the focus detection sensor having a plurality of distance measuring points in the shooting screen. The camera MPU 101 instructs the lens control unit 114 to execute a focus adjustment operation based on the defocus amount output from the focus detection unit 115.

姿勢検出部116は、加速度センサなどからなり、重力方向に対するカメラ100の姿勢を検出することができる。なお、カメラ100の姿勢を検出することが出来る構成であれば、姿勢検出部116としてどのようなものを採用してもよい。   The posture detection unit 116 includes an acceleration sensor or the like, and can detect the posture of the camera 100 with respect to the direction of gravity. As long as the posture of the camera 100 can be detected, any posture detecting unit 116 may be adopted.

操作部117は、電源スイッチや撮影準備動作や撮影動作の開始指示を受け付けるレリーズボタンを含んでいる。レリーズボタンの第1ストローク(半押し)でSW1がONになると、カメラMPU101は焦点検出動作や測光動作などの撮影準備動作を開始させる。また、レリーズボタンの第2ストローク(全押し)でSW2がONになると、カメラMPU101は撮影動作を開始させる。   The operation unit 117 includes a power button, a release button for accepting a shooting preparation operation and a shooting operation start instruction. When SW1 is turned ON by the first stroke (half-press) of the release button, the camera MPU 101 starts a shooting preparation operation such as a focus detection operation or a photometry operation. Further, when SW2 is turned ON by the second stroke (full press) of the release button, the camera MPU 101 starts the photographing operation.

また、操作部117は、バウンス発光撮影における最適な照射方向(角度)を自動的に決定する機能(以下、オートバウンスと称する)を実行するか否かを切り換えるオートバウンススイッチを含んでいる。なお、当該オートバウンスを実行するか否かの切り替えは、前述したレリーズボタンの押圧操作に応じて実行されるような構成であってもよい。   The operation unit 117 also includes an auto bounce switch that switches whether to execute a function (hereinafter referred to as auto bounce) that automatically determines an optimal irradiation direction (angle) in bounce flash photography. It should be noted that the switching whether or not to execute the auto bounce may be performed in response to the above-described pressing operation of the release button.

発光制御部118は、内蔵ストロボ119を使用する際に、カメラMPU101からの信号に従ってプリ発光や本発光などの発光パターンの制御や発光量の制御を行う。   When the built-in strobe 119 is used, the light emission control unit 118 controls the light emission pattern such as pre-light emission and main light emission and the light emission amount according to the signal from the camera MPU 101.

また、発光制御部118は、カメラMPU101からの信号に応じた制御を内蔵ストロボ119と外部ストロボ120のどちらに適用するかの切り替え制御も行っている。また、発光制御部118を介してカメラMPU101と外部ストロボ120との通信が行われる。   The light emission control unit 118 also performs switching control as to whether the control according to the signal from the camera MPU 101 is applied to the built-in strobe 119 or the external strobe 120. In addition, communication between the camera MPU 101 and the external strobe 120 is performed via the light emission control unit 118.

本実施形態では、図7〜図11に示すようにカメラ100と外部ストロボ120とを含む撮像システムにおいて、カメラMPU101からの信号に応じた制御を外部ストロボ120に適用する場合をについて説明する。   In the present embodiment, a case where control according to a signal from the camera MPU 101 is applied to the external strobe 120 in an imaging system including the camera 100 and the external strobe 120 as shown in FIGS. 7 to 11 will be described.

(照明装置の構成例)
次に、照明装置である外部ストロボ120の構成について、図2を参照して説明する。図2は、本発明の実施形態に係る照明装置である外部ストロボ120の構成例を示すブロック図である。
(Configuration example of lighting device)
Next, the configuration of the external strobe 120, which is a lighting device, will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration example of the external strobe 120 that is the illumination device according to the embodiment of the present invention.

外部ストロボ120は、カメラ100に装着される本体部120aと、本体部120aに対して上下(垂直)および左右(水平)方向に回動可能に保持される可動部120bとからなる。なお、可動部120bを本体部120aに対して上下及び左右方向に回動可能に保持する機構は公知の機構を用いればよい。例えば、特開昭63−204238号公報や特開2011−137960号公報に記載された機構を用いればよい。   The external strobe 120 includes a main body portion 120a attached to the camera 100, and a movable portion 120b that is rotatably held in the vertical (vertical) and right / left (horizontal) directions with respect to the main body portion 120a. A known mechanism may be used as a mechanism for holding the movable portion 120b so as to be rotatable in the vertical and horizontal directions with respect to the main body portion 120a. For example, a mechanism described in Japanese Patent Application Laid-Open Nos. 63-204238 and 2011-137960 may be used.

本体部120aは、ストロボMPU201、駆動制御部202、ストロボ姿勢検出部203、照射方向演算部204、ストロボ操作部205、接続部206などを有している。一方、可動部120bは、充電部207、発光部208(照射面209を含む)、ストロボ測光部210、ストロボ角度検出部211、キャッチライトシート212(反射面213を含む)、取り出し検出部214などを有している。   The main body 120a includes a strobe MPU 201, a drive control unit 202, a strobe posture detection unit 203, an irradiation direction calculation unit 204, a strobe operation unit 205, a connection unit 206, and the like. On the other hand, the movable unit 120b includes a charging unit 207, a light emitting unit 208 (including the irradiation surface 209), a strobe photometry unit 210, a strobe angle detection unit 211, a catchlight sheet 212 (including the reflection surface 213), an extraction detection unit 214, and the like. have.

ストロボMPU201は、充電シーケンス、発光制御シーケンス、オートバウンスシーケンスなど外部ストロボ120全体の動作を制御するためのマイクロコントローラである。   The strobe MPU 201 is a microcontroller for controlling the entire operation of the external strobe 120 such as a charging sequence, a light emission control sequence, and an auto bounce sequence.

駆動制御部(駆動制御手段)202は、ストロボMPU201からの信号に従って不図示のモーターを制御することにより、可動部120bを本体部120aに対して上下及び左右方向に駆動(回動)させる。なお、本実施形態では、可動部120bを自動的に駆動(回動)させることで、バウンス発光撮影における光の照射方向を自動的に変更することが出来る。この詳細については後述する。   The drive control unit (drive control means) 202 drives (rotates) the movable unit 120b in the vertical and horizontal directions with respect to the main body 120a by controlling a motor (not shown) according to a signal from the strobe MPU 201. In the present embodiment, the light irradiation direction in the bounce flash photography can be automatically changed by automatically driving (turning) the movable portion 120b. Details of this will be described later.

また、駆動制御部202は、後述するストロボ角度検出部211によって取得した本体部120aに対する可動部120bの基準位置からの駆動量などの情報をストロボMPU201へ出力する。なお、外部ストロボ120の可動部120bの基準位置については後述する。   Further, the drive control unit 202 outputs information such as a drive amount from the reference position of the movable unit 120b with respect to the main body unit 120a acquired by a strobe angle detection unit 211 described later to the strobe MPU 201. The reference position of the movable part 120b of the external strobe 120 will be described later.

ストロボ姿勢検出部203は、不図示の加速度センサなどによって構成され、本体部120aの姿勢に関する情報を検出する傾き検出手段である。ストロボ姿勢検出部203は本体部120aの姿勢に関する情報として、例えば、接続部206を重力方向側に向けた状態の外部ストロボ120の位置(正位置)を基準にした、重力方向に対する本体部120aの長手方向の傾き角度を出力する。具体的にストロボ姿勢検出部203は、図3(a)、(b)に図示するように、正位置に位置する本体部120a(図3の実線部)と、傾いた位置の本体部120a(図3の二点鎖線部)とがなす角度(以下、傾き角度)を検出する。図3は、本発明の実施形態に係る照明装置である外部ストロボ120の本体部120aのピッチ方向の傾き角度γとロール方向の傾き角度ηを例示的に説明する図である。なお、図3において実線部で示す外部ストロボ120は、本体部120aが正位置に位置し、可動部120bが基準位置に位置する状態を示している。   The strobe posture detection unit 203 includes an acceleration sensor (not shown) and the like, and is an inclination detection unit that detects information related to the posture of the main body 120a. The strobe posture detection unit 203 is, for example, information on the posture of the main body unit 120a. For example, the strobe posture detection unit 203 has the main unit 120a with respect to the gravitational direction with reference to the position (positive position) of the external strobe 120 with the connection unit 206 facing the gravity direction. Outputs the tilt angle in the longitudinal direction. Specifically, as shown in FIGS. 3A and 3B, the strobe posture detection unit 203 includes a main body 120a located at the normal position (solid line portion in FIG. 3), and a main body 120a at an inclined position ( An angle formed by the two-dot chain line portion in FIG. 3 (hereinafter, an inclination angle) is detected. FIG. 3 is a diagram for exemplifying the pitch direction inclination angle γ and the roll direction inclination angle η of the main body 120a of the external strobe 120 which is the illumination apparatus according to the embodiment of the present invention. Note that the external strobe 120 indicated by a solid line in FIG. 3 shows a state in which the main body 120a is located at the normal position and the movable part 120b is located at the reference position.

図3に図示するように、本体部120aの接続部206が重力方向側に位置している場合において、可動部120bを水平方向(左右方向)に駆動(回動)させるための軸をY軸(第1の軸)とする。また、可動部120bを垂直方向(上下方向)に駆動(回動)させるための軸をX軸(第2の軸)とする。さらに、可動部120bの長手方向の中心軸をZ軸とする。上述したX軸、Y軸、Z軸は互いに直交している。   As shown in FIG. 3, when the connecting portion 206 of the main body 120a is located on the gravity direction side, the axis for driving (turning) the movable portion 120b in the horizontal direction (left-right direction) is the Y axis. (First axis). In addition, an axis for driving (turning) the movable portion 120b in the vertical direction (vertical direction) is defined as an X axis (second axis). Further, the central axis in the longitudinal direction of the movable part 120b is taken as the Z axis. The above-described X axis, Y axis, and Z axis are orthogonal to each other.

ストロボ姿勢検出部203は、正位置にある状態の本体部120aの姿勢(図3の実線部)と、傾いた状態の本体部120aの姿勢(図3の二点鎖線部)とがなすピッチ方向の傾き角度γ、ロール方向の傾き角度ηを検出する。なお、本実施形態では、ピッチ方向の傾き角度γおよびロール方向の傾き角度ηは、図3で時計方向の回転角度をプラス、反時計方向の回転角度をマイナスとする。   The strobe posture detection unit 203 is a pitch direction formed by the posture of the main body 120a in the normal position (solid line portion in FIG. 3) and the posture of the main body 120a in the inclined state (two-dot chain line portion in FIG. 3). The tilt angle γ and the tilt angle η in the roll direction are detected. In this embodiment, the tilt angle γ in the pitch direction and the tilt angle η in the roll direction are positive in the clockwise direction and negative in the counterclockwise direction in FIG.

照射方向演算部204は、ストロボ姿勢検出部203で取得した情報と後述するストロボ測光部210で取得した情報とに基づいて、バウンス発光撮影における最適な照射方向を演算する。照射方向の演算処理の詳細については後述する。   The irradiation direction calculation unit 204 calculates an optimal irradiation direction in bounce flash photography based on information acquired by the strobe posture detection unit 203 and information acquired by a strobe photometry unit 210 described later. Details of the calculation process of the irradiation direction will be described later.

ストロボ操作部205は、電源スイッチやオートバウンスを実行するか否かを切り換えるオートバウンススイッチを含んでいる。また、ストロボ操作部205は、オートバウンススイッチによりオートバウンスを実行する設定がなされている状態において、オートバウンスの開始指示を行うためのオートバウンスボタンを含んでいる。なお、カメラ100の操作部117のオートバウンススイッチと外部ストロボ120のストロボ操作部205のオートバウンススイッチとで異なる設定がなされている場合、どちらかの設定を優先するようにすればよい。あるいは、カメラ100の操作部117のオートバウンススイッチによる設定と外部ストロボ120のストロボ操作部205のオートバウンススイッチによる設定とが連動するようにすればよい。すなわち、一方のオートバウンススイッチの設定を変更すると他方のオートバウンススイッチの設定も自動的に変更されるようにすればよい。   The strobe operation unit 205 includes a power switch and an auto bounce switch that switches whether to execute auto bounce. In addition, the strobe operation unit 205 includes an auto bounce button for instructing to start auto bounce in a state where auto bounce is set by the auto bounce switch. If different settings are made for the auto bounce switch of the operation unit 117 of the camera 100 and the auto bounce switch of the strobe operation unit 205 of the external strobe 120, either setting may be prioritized. Alternatively, the setting by the auto bounce switch of the operation unit 117 of the camera 100 and the setting by the auto bounce switch of the strobe operation unit 205 of the external strobe 120 may be linked. That is, when the setting of one auto bounce switch is changed, the setting of the other auto bounce switch may be automatically changed.

接続部206は、撮像装置に取り付けるための取り付け部及び撮像装置との通信接点が設けられた接点部などが設けられていて、ストロボMPU201は、接続部206の接点部を介して撮像装置との通信を行う。   The connection unit 206 is provided with an attachment unit for attachment to the imaging device, a contact unit provided with a communication contact with the imaging device, and the strobe MPU 201 is connected to the imaging device via the contact unit of the connection unit 206. Communicate.

充電部207は、後述する発光部208を発光させるためのエネルギーを蓄積するコンデンサと、コンデンサを充電するための昇圧回路などを有していて、ストロボMPU201からの充電指示信号に基づいて、コンデンサの充電制御を行う。また、充電部207は、コンデンサの充電電圧を測定し、ストロボMPU201に測定結果を出力する。   The charging unit 207 includes a capacitor that accumulates energy for causing the light emitting unit 208 described later to emit light, a booster circuit for charging the capacitor, and the like. Based on a charging instruction signal from the flash MPU 201, the charging unit 207 Perform charging control. Charging unit 207 measures the charging voltage of the capacitor and outputs the measurement result to strobe MPU 201.

発光部208は、閃光放電管やLEDなどを光源とし、光源の前方に樹脂などで形成された照射面(図5で後述)209を備え、ストロボMPU201からの発光信号に基づいて光源を発光させる。   The light emitting unit 208 uses a flash discharge tube or LED as a light source, and includes an irradiation surface (described later in FIG. 5) 209 formed of resin or the like in front of the light source, and emits the light source based on the light emission signal from the strobe MPU 201. .

ストロボ測光部210は、受光センサの受光面が発光部208の照射方向と同じ方向を向くように設けられていて、受光センサにより受光した光束に応じた信号をストロボMPU201に出力する。そして、ストロボMPU201は、発光部208を発光させたときに照射対象で反射された反射光束を受光したストロボ測光部210から出力される信号に基づいて、発光部208の光学系の照射面から照射対象までの距離を算出する。なお、受光センサの向きや位置は上記の例に限定されず、入射面が発光部208の照射方向と同じ方向を向くように設けられた光ファイバー等の導光部材を介して照射対象からの反射光束を受光する構成であってもよい。   The strobe photometry unit 210 is provided so that the light receiving surface of the light receiving sensor faces the same direction as the irradiation direction of the light emitting unit 208, and outputs a signal corresponding to the light beam received by the light receiving sensor to the strobe MPU 201. The strobe MPU 201 emits light from the irradiation surface of the optical system of the light emitting unit 208 based on a signal output from the strobe photometry unit 210 that receives the reflected light beam reflected by the irradiation target when the light emitting unit 208 emits light. Calculate the distance to the target. The direction and position of the light receiving sensor are not limited to the above example, and reflection from the irradiation target is performed via a light guide member such as an optical fiber provided so that the incident surface faces the same direction as the irradiation direction of the light emitting unit 208. The structure which receives a light beam may be sufficient.

ストロボ角度検出部211は、本体部120aに対する可動部120aの傾きに関する情報を検出する可動部角度検出手段である。本実施形態のストロボ角度検出部211は、可動部120aが基準位置にある状態を基準(傾きなし)として、本体部120aに対する可動部120bの相対的な角度(以下、駆動角度と称す)を検出する。そして、ストロボ角度検出部211は、検出した駆動角度を本体部120aに対する可動部120aの傾きとしてストロボMPU201に出力する。   The strobe angle detection unit 211 is a movable part angle detection unit that detects information related to the inclination of the movable part 120a with respect to the main body part 120a. The strobe angle detection unit 211 according to the present embodiment detects a relative angle (hereinafter referred to as a drive angle) of the movable unit 120b with respect to the main body unit 120a on the basis of the state where the movable unit 120a is at the reference position (no tilt). To do. Then, the strobe angle detection unit 211 outputs the detected drive angle to the strobe MPU 201 as the inclination of the movable unit 120a with respect to the main body unit 120a.

なお、本実施形態のストロボ角度検出部211は、位相パターンが設けられた基板と当該基板上を摺動する接点ブラシによって構成されるエンコーダであるが、これに限定されるものではない。ストロボ角度検出部211としては、本体部120aに対する可動部120bの角度を検出できる構成であればどのようなものを採用してもよい。また、ストロボ角度検出部211は、本体部120aに設けられているような構成であってもよい。   The strobe angle detection unit 211 of the present embodiment is an encoder that includes a substrate provided with a phase pattern and a contact brush that slides on the substrate, but is not limited to this. As the strobe angle detection unit 211, any configuration may be adopted as long as it can detect the angle of the movable unit 120 b with respect to the main body unit 120 a. The strobe angle detection unit 211 may be configured to be provided in the main body 120a.

図4を参照して、本実施形態で検出する可動部120bの駆動角度について説明する。図4は、本発明の実施形態に係る照明装置である可動部120bの駆動角度を例示的に説明する図である。図4(c)が外部ストロボ120を撮影者側から見た場合の投影図であって、図4(a)が図4(c)の上面図、図4(b)が図4(c)の左側面図をそれぞれ示している。なお、図4において実線で図示する可動部120bの位置が基準位置であって、この状態で、発光部208の照射面209と本体部120aの正面部120cとが同一の方向を向いた状態となる。さらに、カメラ100に外部ストロボ120が取り付けられている状態では、可動部120bが基準位置に位置する状態で、発光部208の照射面209とカメラ100の撮影方向とが一致する。なお、可動部120bが基準位置に位置する状態において、可動部120bのZ軸とカメラ100の撮影光軸とが交差しない状態となる。   With reference to FIG. 4, the drive angle of the movable part 120b detected in the present embodiment will be described. FIG. 4 is a diagram for exemplarily explaining the drive angle of the movable portion 120b which is the illumination device according to the embodiment of the present invention. 4C is a projection view when the external strobe 120 is viewed from the photographer side. FIG. 4A is a top view of FIG. 4C, and FIG. 4B is FIG. The left side views are respectively shown. In addition, the position of the movable part 120b illustrated by the solid line in FIG. 4 is the reference position, and in this state, the irradiation surface 209 of the light emitting part 208 and the front part 120c of the main body part 120a are directed in the same direction. Become. Further, in a state where the external strobe 120 is attached to the camera 100, the irradiation surface 209 of the light emitting unit 208 and the shooting direction of the camera 100 coincide with the movable unit 120b positioned at the reference position. In the state where the movable unit 120b is located at the reference position, the Z-axis of the movable unit 120b and the photographing optical axis of the camera 100 do not intersect.

本実施形態では、可動部120bが基準位置に位置する状態の可動部120bの角度が、水平(左右)方向および垂直(上下)方向の両方で0°である。また、図4に図示するように、可動部120bの水平方向の角度は、可動部120bの照射面209が撮影者から見て左を向く方向をマイナス、右を向く方向をプラスとする。また、可動部120bの垂直方向の角度は、可動部120bの長手方向の中心軸がカメラ100の撮影光軸から離れる方向をプラスとする。そして、本実施形態における外部ストロボ120の可動部120bの可動範囲は、水平方向において−180°〜+180°(照射面209が撮影者側に向く方向が±180°)、垂直方向において0〜+120°とする。なお、可動部120bの可動範囲は上述したものに限定されず、どのような範囲に可動部120bを回動できるような構成であってもよい。また、上述した可動部120bの可動範囲は、可動部120bの駆動に制限を設けない場合の範囲であって、キャッチライトシート212の使用状況や撮影対象の被写体に顔が含まれるか否かに応じて、当該可動範囲は変化する。この詳細については後述する。   In the present embodiment, the angle of the movable part 120b in a state where the movable part 120b is located at the reference position is 0 ° in both the horizontal (left and right) direction and the vertical (up and down) direction. As shown in FIG. 4, the horizontal angle of the movable part 120b is negative when the irradiation surface 209 of the movable part 120b faces the left when viewed from the photographer, and positive when it faces the right. The vertical angle of the movable part 120b is positive when the longitudinal center axis of the movable part 120b is away from the photographing optical axis of the camera 100. The movable range of the movable portion 120b of the external strobe 120 in this embodiment is −180 ° to + 180 ° in the horizontal direction (the direction in which the irradiation surface 209 faces the photographer is ± 180 °), and 0 to +120 in the vertical direction. °. Note that the movable range of the movable portion 120b is not limited to the above-described range, and may be configured such that the movable portion 120b can be rotated to any range. Further, the movable range of the movable part 120b described above is a range when there is no restriction on the drive of the movable part 120b, and whether the catchlight sheet 212 is used or whether the subject to be photographed includes a face. Accordingly, the movable range changes. Details of this will be described later.

図4(a)、(b)に図示するように、本実施形態のストロボ角度検出部211は前述した駆動角度として、本体部120aに対する可動部120bのY軸周りの回転角度である水平駆動角度θ、およびX軸周りの回転角度である垂直駆動角度θを検出する。なお、可動部120bが基準位置にある状態で、可動部120bの水平駆動角度θ=0°、垂直駆動角度θ=0°である。 As shown in FIGS. 4A and 4B, the strobe angle detection unit 211 of the present embodiment has the horizontal drive angle that is the rotation angle around the Y axis of the movable unit 120b with respect to the main body 120a as the drive angle described above. θ A and a vertical drive angle θ B which is a rotation angle around the X axis are detected. Note that the horizontal drive angle θ A = 0 ° and the vertical drive angle θ B = 0 ° of the movable portion 120b in a state where the movable portion 120b is at the reference position.

なお、キャッチライトシート212が使用位置に位置する状態であって、可動部120bが基準位置に位置する状態における、キャッチライトシート212の反射面213と水平な方向(第1の方向)の回転角度が水平駆動角度θである。また、キャッチライトシート212が使用位置に位置する状態であって、可動部120bが基準位置に位置する状態における、キャッチライトシート212の反射面213と垂直な方向(第2の方向)の回転角度が垂直駆動角度θである。上述した第1の方向は、可動部120bが基準位置に位置する状態の、可動部120bのX軸上またはZ軸上の方向である。また、第2の方向は、可動部120bが基準位置に位置する状態の、可動部120bのY軸上の方向である。 Note that the rotation angle of the catchlight sheet 212 in the horizontal direction (first direction) in a state where the catchlight sheet 212 is located at the use position and the movable portion 120b is located at the reference position. is horizontal drive angle theta a. The rotation angle in the direction (second direction) perpendicular to the reflection surface 213 of the catchlight sheet 212 when the catchlight sheet 212 is located at the use position and the movable portion 120b is located at the reference position. Is the vertical drive angle θ B. The first direction described above is a direction on the X axis or the Z axis of the movable portion 120b in a state where the movable portion 120b is located at the reference position. Further, the second direction is a direction on the Y axis of the movable part 120b in a state where the movable part 120b is located at the reference position.

キャッチライトシート212は、図5(b)に図示するように、発光部208から照射される光を光学的な作用面である反射面213によって反射させて人物の目に光を写し込ませるキャッチライト効果を得ることができるパネル状の光学部材である。図5は、本発明の実施形態に係る照明装置である外部ストロボ120のキャッチライトシート212が非使用位置に位置する状態と使用位置に位置する状態とを例示的に説明する図である。   As shown in FIG. 5B, the catch light sheet 212 reflects light emitted from the light emitting unit 208 by a reflection surface 213 that is an optical working surface, and reflects light into the eyes of a person. A panel-like optical member capable of obtaining a light effect. FIG. 5 is a diagram for exemplarily explaining a state where the catchlight sheet 212 of the external strobe 120 which is the illumination device according to the embodiment of the present invention is located at the non-use position and a state where it is located at the use position.

本実施形態のキャッチライトシート212は、発光部208の上部に出し入れ可能に設けられており、撮影者の操作に応じて、使用位置と非使用位置との間を移動することができる。なお、非使用位置とは、図5(a)に図示するように、キャッチライトシート212が可動部120bの内部に収納された位置である。この状態で、反射面213の大部分が可動部120bの内部に収納されるため、発光部208を発光させたとしても、発光部208から照射された照射光によってキャッチライトシート212が照明されることはない。すなわち、キャッチライトシート212が非使用位置に位置する場合は、発光部208から照射された照射光が反射面213に反射しない。また、使用位置とは、図5(b)に図示するように、キャッチライトシート212が可動部120bの内部から突出された位置である。なお、当該使用位置は、少なくとも前述した非使用位置よりも可動部120bの外形から突出した位置であって、反射面213が発光部208の照射面209から離間して配される位置である。この状態で、反射面213の大部分が可動部120bの内部から突出されるため、発光部208を発光させることで、発光部208から照射された照射光によってキャッチライトシート212が照明される。すなわち、キャッチライトシート212が使用位置に位置する場合は、発光部208から照射された照射光が反射面213に反射する。   The catchlight sheet 212 of the present embodiment is provided so as to be able to be put in and out of the light emitting unit 208, and can move between a use position and a non-use position in accordance with a photographer's operation. The non-use position is a position where the catchlight sheet 212 is accommodated in the movable portion 120b as shown in FIG. In this state, most of the reflective surface 213 is housed inside the movable portion 120b, so that even if the light emitting portion 208 is caused to emit light, the catchlight sheet 212 is illuminated by the irradiation light emitted from the light emitting portion 208. There is nothing. That is, when the catchlight sheet 212 is located at the non-use position, the irradiation light emitted from the light emitting unit 208 is not reflected on the reflection surface 213. The use position is a position where the catchlight sheet 212 protrudes from the inside of the movable portion 120b as shown in FIG. Note that the use position is a position that protrudes from the outer shape of the movable part 120b more than at least the non-use position described above, and is a position where the reflective surface 213 is spaced apart from the irradiation surface 209 of the light emitting unit 208. In this state, most of the reflection surface 213 protrudes from the inside of the movable portion 120b. Therefore, the catchlight sheet 212 is illuminated by the irradiation light emitted from the light emitting portion 208 by causing the light emitting portion 208 to emit light. That is, when the catchlight sheet 212 is located at the use position, the irradiation light emitted from the light emitting unit 208 is reflected on the reflection surface 213.

取り出し検出部214は、キャッチライトシート212の状態を検出する検出スイッチである。本実施形態では、ストロボMPU(光学部材検出手段)201が、取り出し検出部214からの出力に基づいて、キャッチライトシート212が使用位置にあるか否かを検出する。   The take-out detection unit 214 is a detection switch that detects the state of the catchlight sheet 212. In the present embodiment, the strobe MPU (optical member detection means) 201 detects whether or not the catchlight sheet 212 is in the use position based on the output from the take-out detection unit 214.

なお、取り出し検出部214は、キャッチライトシート212が非使用位置に位置する状態でキャッチライトシート212と接触し、使用位置に位置する状態で接触が解除される接触タイプの検出スイッチであるが、これに限定されるものではない。例えば、取り出し検出部214が非接触タイプの検出センサなどであってもよい。また、取り出し検出部214は、キャッチライトシート212が使用位置に位置する状態で、キャッチライトシート212と接触するタイプの検出スイッチであってもよい。さらに、本実施形態では、ストロボMPU(光学部材検出手段)201が、取り出し検出部214からの出力に基づいてキャッチライトシート212が使用位置に位置するか否かを検出するような構成であったが、これに限定されるものではない。例えば、ストロボMPU201が、取り出し検出部214の出力に基づいて、キャッチライトシート212が非使用位置に位置するか否かを検出するような構成であってもよい。   The take-out detection unit 214 is a contact type detection switch that comes into contact with the catchlight sheet 212 in a state where the catchlight sheet 212 is located at the non-use position, and is released when the catchlight sheet 212 is located at the use position. It is not limited to this. For example, the take-out detection unit 214 may be a non-contact type detection sensor. Further, the take-out detection unit 214 may be a detection switch of a type that contacts the catchlight sheet 212 in a state where the catchlight sheet 212 is located at the use position. Further, in the present embodiment, the strobe MPU (optical member detection means) 201 detects whether or not the catchlight sheet 212 is located at the use position based on the output from the take-out detection unit 214. However, the present invention is not limited to this. For example, the strobe MPU 201 may be configured to detect whether or not the catchlight sheet 212 is located at a non-use position based on the output of the take-out detection unit 214.

以下、図6を参照して、本実施形態におけるキャッチライトシート212使用時のバウンス発光撮影について説明する。図6は、本発明の実施形態に係る照明装置である外部ストロボ120のキャッチライトシート212が使用位置に位置している状態のバウンス発光撮影について例示的に説明する図である。図6(a)は、キャッチライトシート212の反射面213が撮影対象の被写体である人物P側を向いている状態を示している。なお、図6(a)は、カメラ100および外部ストロボ120の本体部120aが正位置にあって、可動部120bの垂直駆動角度θが+90°、可動部120bの垂直駆動角度θが略0°である状態を示している。また、図6(b)は、キャッチライトシート212の反射面213が撮影対象の被写体である人物P側とは反対側を向いている状態を示している。すなわち、キャッチライトシート212の反射面213は、カメラ100の撮影方向とは反対側を向いている状態を示している。そして、図6(b)は、カメラ100および外部ストロボ120の本体部120aが正位置にあって、可動部120bの垂直駆動角度θが+90°、可動部120bの垂直駆動角度θが略±180°である状態を示している。 Hereinafter, with reference to FIG. 6, bounce flash photography when using the catchlight sheet 212 in the present embodiment will be described. FIG. 6 is a diagram for exemplarily explaining bounce flash photography in a state where the catchlight sheet 212 of the external strobe 120 which is the illumination device according to the embodiment of the present invention is located at the use position. FIG. 6A shows a state where the reflection surface 213 of the catchlight sheet 212 faces the person P that is the subject to be photographed. In FIG. 6A, the main body 120a of the camera 100 and the external strobe 120 is in the normal position, the vertical drive angle θ B of the movable part 120b is + 90 °, and the vertical drive angle θ A of the movable part 120b is approximately. A state of 0 ° is shown. FIG. 6B shows a state in which the reflection surface 213 of the catchlight sheet 212 faces the side opposite to the person P that is the subject to be photographed. That is, the reflection surface 213 of the catchlight sheet 212 shows a state facing the opposite side to the shooting direction of the camera 100. In FIG. 6B, the camera 100 and the main body 120a of the external strobe 120 are in the normal position, the vertical drive angle θ B of the movable part 120b is + 90 °, and the vertical drive angle θ A of the movable part 120b is approximately. A state of ± 180 ° is shown.

図6(a)に図示するように、外部ストロボ120は、反射面213が人物P側を向き、発光部208が反射面213よりも人物P側に位置する場合に発光部208を発光させることで、反射面213で反射した反射光Rを人物P側に向かわせることができる。また、照射面209から照射された照射光Sは、天井に反射し、当該反射した光の一部を人物Pに向かわせることができる。すなわち、反射面213が人物側(撮影方向側)を向いている場合であって、発光部208が反射面213よりも人物側(撮影方向側)に位置する場合に、バウンス発光撮影による効果とキャッチライト効果の双方を奏することができる。   As shown in FIG. 6A, the external strobe 120 causes the light emitting unit 208 to emit light when the reflecting surface 213 faces the person P side and the light emitting unit 208 is located on the person P side with respect to the reflecting surface 213. Thus, the reflected light R reflected by the reflecting surface 213 can be directed to the person P side. Moreover, the irradiation light S irradiated from the irradiation surface 209 can be reflected by the ceiling, and a part of the reflected light can be directed to the person P. That is, when the reflecting surface 213 faces the person side (shooting direction side) and the light emitting unit 208 is located on the person side (shooting direction side) with respect to the reflecting surface 213, the effect of the bounce flash shooting is obtained. Both catch light effects can be achieved.

しかしながら、図6(b)に図示するように、外部ストロボ120は、反射面213が人物P側とは反対側を向き、反射面213が発光部208よりも人物P側に位置する場合、反射面213で反射した反射光Rが人物P側とは反対側に向かってしまう。すなわち、反射面213が人物P側(撮影方向側)とは反対側を向き、反射面213が発光部208よりも人物P側(撮影方向側)に位置する場合は、反射光Rが人物Pに届かないので、キャッチライト効果を奏することができない。さらに、この場合は、照射光Sの一部がキャッチライトシート212に遮られてしまうことで、人物Pにキャッチライトシート212の影が写り込んでしまうことがある。すなわち、反射面213が人物P側(撮影方向側)とは反対側を向いている場合であって、反射面213が発光部208よりも人物P側(撮影方向側)に位置する場合は、撮影者の意図しない照明がされた画像が取得されてしまう場合がある。   However, as illustrated in FIG. 6B, the external strobe 120 reflects when the reflective surface 213 faces away from the person P side and the reflective surface 213 is positioned on the person P side relative to the light emitting unit 208. The reflected light R reflected by the surface 213 is directed toward the side opposite to the person P side. That is, when the reflection surface 213 faces away from the person P side (shooting direction side) and the reflection surface 213 is located on the person P side (shooting direction side) with respect to the light emitting unit 208, the reflected light R is reflected on the person P. The catchlight effect cannot be achieved. Furthermore, in this case, the shadow of the catchlight sheet 212 may be reflected on the person P because a part of the irradiation light S is blocked by the catchlight sheet 212. That is, when the reflective surface 213 is facing away from the person P side (photographing direction side) and the reflective surface 213 is located closer to the person P side (photographing direction side) than the light emitting unit 208, In some cases, an image that is illuminated unintended by the photographer is acquired.

また、撮影対象の被写体に顔が含まれている場合(図6(c))と、撮影対象の被写体に顔が含まれていない場合(図6(d))とでは、発光部208の最適な照射方向は異なる。   In addition, when the subject to be photographed includes a face (FIG. 6C) and when the subject to be photographed does not include a face (FIG. 6D), the light emitting unit 208 is optimal. Different irradiation directions are different.

図6(c)に図示するように顔を含む被写体である人物Pを撮影する場合は、少なくとも、発光部208を発光させた際に、反射光Rが人物Pに向かうように可動部120bの照射方向(角度)を設定することが望ましい。例えば、図6(c)に図示するように、可動部120bの垂直駆動角度θ=+90°、水平駆動角度θ=±30°に設定して発光部208を発光すれば、反射面213で反射した反射光Rを人物P側に向かわせることができる。これに対して、図6(d)に図示するように被写体O(鉢植え)を撮影する場合は、可動部120bの照射方向(角度)を、反射光Rが被写体Oに向かう方向に設定する必要はない。この場合、図6(d)に図示するように、可動部120bの垂直駆動角度θ=+90°、水平駆動角度θ=±90°に設定して発光部208を発光すれば、キャッチライトシート212によって、発光部208から照射された照射光Sが遮らなれることはない。したがって、発光部208から照射された照射光Sの一部がキャッチライトシート212に遮られることを防止することができる。そして、被写体Oにキャッチライトシート212の影が写り込んでしまうことを抑制することができる。 As shown in FIG. 6C, when photographing a person P that is a subject including a face, at least when the light emitting unit 208 emits light, the reflected light R is directed toward the person P so that the reflected light R is directed toward the person P. It is desirable to set the irradiation direction (angle). For example, as illustrated in FIG. 6C, when the light emitting unit 208 emits light by setting the vertical driving angle θ B = + 90 ° and the horizontal driving angle θ A = ± 30 ° of the movable unit 120 b , the reflecting surface 213. The reflected light R reflected by can be directed toward the person P. On the other hand, when photographing the subject O (potted plant) as shown in FIG. 6D, it is necessary to set the irradiation direction (angle) of the movable portion 120b to the direction in which the reflected light R is directed toward the subject O. There is no. In this case, as shown in FIG. 6D, if the light emitting unit 208 emits light by setting the vertical driving angle θ B = + 90 ° and the horizontal driving angle θ A = ± 90 ° of the movable unit 120b, The sheet 212 does not block the irradiation light S irradiated from the light emitting unit 208. Therefore, it is possible to prevent a part of the irradiation light S emitted from the light emitting unit 208 from being blocked by the catchlight sheet 212. Then, the shadow of the catchlight sheet 212 can be prevented from appearing on the subject O.

以上説明したように、キャッチライトシート212を使用しているか否か、および撮影対象の被写体に顔が含まれているか否かに応じて、可動部120bの最適な駆動角度は異なる。そこで、本実施形態では、キャッチライトシート212が使用されているか否かに関する情報と、撮影対象の被写体に顔が含まれているか否かに応じて、可動部120bの駆動角度を制御する。   As described above, the optimum driving angle of the movable portion 120b differs depending on whether the catchlight sheet 212 is used and whether the subject to be photographed includes a face. Therefore, in the present embodiment, the drive angle of the movable unit 120b is controlled according to information regarding whether or not the catchlight sheet 212 is used and whether or not the subject to be imaged includes a face.

(撮像装置側のバウンス発光撮影制御)
次に、本実施形態の撮像システムにおけるカメラ100と外部ストロボ120の各種処理について、図7〜11を参照して説明する。図7は、本発明の実施形態に係る撮像装置であるカメラ100のバウンス発光撮影制御を示すフローチャートである。
(Bounce flash shooting control on the imaging device side)
Next, various processes of the camera 100 and the external strobe 120 in the imaging system of the present embodiment will be described with reference to FIGS. FIG. 7 is a flowchart showing the bounce flash photographing control of the camera 100 which is the imaging apparatus according to the embodiment of the present invention.

まず、カメラ100の処理について説明する。操作部117に含まれる電源スイッチがONされてカメラ100のカメラMPU101が動作可能となると、カメラMPU101は、図7に示すフローチャートを開始させる。   First, processing of the camera 100 will be described. When the power switch included in the operation unit 117 is turned on and the camera MPU 101 of the camera 100 becomes operable, the camera MPU 101 starts the flowchart shown in FIG.

ステップS701でカメラMPU101は、操作部117への操作によりSW1がONであるか否かを判別し、ONの場合はステップS702へ移行し、OFFの場合はステップS701を繰り返す。   In step S701, the camera MPU 101 determines whether SW1 is ON by operating the operation unit 117. If ON, the process proceeds to step S702, and if OFF, step S701 is repeated.

ステップS702でカメラMPU101は、レンズ制御部114に指示して焦点調節動作(AF)を実行させ、測光部112に指示して測光を実行させる。また、カメラMPU101は、測光を行い取得した測光値に基づいて露出演算を行い撮影時の露出制御値を決定する。ここでは、発光撮影用の露出制御値と非発光撮影用の露出制御値とを、それぞれカメラMPU101のメモリに予め記憶されたプログラム線図に従って決定する。   In step S702, the camera MPU 101 instructs the lens control unit 114 to execute a focus adjustment operation (AF), and instructs the photometry unit 112 to execute photometry. In addition, the camera MPU 101 performs exposure calculation based on a photometric value obtained by performing photometry, and determines an exposure control value at the time of shooting. Here, the exposure control value for light emission photography and the exposure control value for non-light emission photography are each determined according to a program diagram stored in advance in the memory of the camera MPU 101.

ステップS703でカメラMPU101は、測光部112からの出力に基づいて、被写体に含まれる顔を検出し、検出結果をカメラMPU101の内部メモリに一時記憶する。   In step S703, the camera MPU 101 detects a face included in the subject based on the output from the photometry unit 112, and temporarily stores the detection result in the internal memory of the camera MPU 101.

ステップS704でカメラMPU101は、発光制御部118に指示して、外部ストロボ120に対して、オートバウンス動作の実行指示を送信させる。なお、内蔵ストロボ119によるオートバウンス動作が可能な場合は、カメラMPU101によって、内蔵ストロボ119に対してオートバウンス動作の実行指示を送信させるような構成であってもよい。   In step S <b> 704, the camera MPU 101 instructs the light emission control unit 118 to transmit an execution instruction for an auto bounce operation to the external strobe 120. When the auto bounce operation by the built-in strobe 119 is possible, the camera MPU 101 may transmit an execution instruction for the auto bounce operation to the built-in strobe 119.

ステップS705でカメラMPU101は、外部ストロボ120側からのオートバウンス動作の終了通知を受信したか否かを判定する。後述する外部ストロボ120側の可動部120bの駆動制御を示す図11のステップS1105にてストロボMPU201から送信される終了通知を受信していれば、ステップS706へ移行し、受信していなければステップS704に戻る。なお、カメラ100に外部ストロボ120からオートバウンス動作の終了通知が送信されるのは、後述する図8のステップS811、S826、S836における処理のみである。この点については後述する。   In step S705, the camera MPU 101 determines whether or not an auto bounce operation end notification is received from the external strobe 120 side. If an end notification transmitted from the flash MPU 201 in step S1105 of FIG. 11 showing drive control of the movable unit 120b on the external strobe 120 described later is received, the process proceeds to step S706, and if not received, step S704 is performed. Return to. Note that the auto bounce operation end notification is transmitted from the external strobe 120 to the camera 100 only in steps S811, S826, and S836 of FIG. This point will be described later.

ステップS706でカメラMPU101は、操作部117への操作によりSW2がONであるか否かを判別し、ONの場合はステップS708へ移行し、OFFの場合はステップS707に移行する。   In step S706, the camera MPU 101 determines whether SW2 is ON by operating the operation unit 117. If ON, the process proceeds to step S708. If OFF, the process proceeds to step S707.

ステップS707でカメラMPU101は、操作部117への操作によりSW1がONであるか否かを判別し、ONの場合はステップS706に戻り、OFFの場合はステップS701に戻る。   In step S707, the camera MPU 101 determines whether SW1 is ON by operating the operation unit 117. If ON, the process returns to step S706, and if OFF, the process returns to step S701.

ステップS708にてカメラMPU101は、バウンス発光撮影を行う。発光撮影の手順として、まずカメラMPU101は、所定の発光量でプリ発光を行うように発光制御部118に指示して、外部ストロボ120に対してプリ発光の実行指示を送信させる。なお、当該プリ発光は、本発光量を演算するためのプリ発光であって、可動部120bの駆動角度を決定するための天井や正面に向けたプリ発光とは異なる。   In step S708, the camera MPU 101 performs bounce flash shooting. As a procedure for flash photography, first, the camera MPU 101 instructs the flash control unit 118 to perform pre-flash at a predetermined flash level, and causes the external strobe 120 to transmit a pre-flash execution instruction. The pre-emission is pre-emission for calculating the main emission amount, and is different from the pre-emission toward the ceiling or the front for determining the driving angle of the movable part 120b.

プリ発光の実行指示に従って外部ストロボ120がプリ発光を行うのに合わせて、カメラMPU101は、測光部112に指示してプリ発光時測光を実行させ、取得した測光値(プリ発光時測光値)に基づいて本発光量の演算を行う。次に、カメラMPU101は、演算した本発光量で本発光を行うように発光制御部118に指示して、外部ストロボ120に対して本発光の実行指示を送信させる。そして、本発光の実行指示に従って外部ストロボ120が本発光を行うのに合わせて、カメラMPU101は、ステップS702で決定した露出制御値を用いて撮像素子102を露光させる。このようにしてバウンス発光撮影が行われる。そして、カメラMPU101は、バウンス発光撮影によって取得された画像データに対して前述した種々の処理が施した後に、画像表示部107に表示、記録媒体109に記録してカメラ100側のバウンス発光撮影動作を終了する。以上が、本実施形態に係るカメラ100側のバウンス発光撮影制御である。   As the external flash 120 performs pre-flash according to the pre-flash execution instruction, the camera MPU 101 instructs the photometry unit 112 to execute pre-flash photometry, and sets the acquired photometry value (pre-flash photometry value). Based on this, the light emission amount is calculated. Next, the camera MPU 101 instructs the light emission control unit 118 to perform main light emission with the calculated main light emission amount, and causes the external strobe 120 to transmit a main light emission execution instruction. The camera MPU 101 exposes the image sensor 102 using the exposure control value determined in step S702 as the external flash 120 performs the main flash according to the main flash execution instruction. In this way, bounce flash photography is performed. The camera MPU 101 performs the above-described various processing on the image data acquired by the bounce flash shooting, displays the image data on the image display unit 107, records it on the recording medium 109, and performs the bounce flash shooting operation on the camera 100 side. Exit. The above is the bounce flash photographing control on the camera 100 side according to the present embodiment.

(照明装置側のバウンス発光撮影制御)
次に、図8〜12を参照して外部ストロボ120側における各種の処理を説明する。図8は、本発明の実施形態に係る照明装置である外部ストロボ120について、キャッチライトシート212が非使用位置に位置している状態のバウンス発光撮影制御を示すフローチャートである。なお、以下の説明は、カメラ100及び外部ストロボ120がともに電源オンされていて、オートバウンススイッチによりオートバウンスを実行する設定がなされている場合を想定している。
(Bounce flash photography control on the lighting device side)
Next, various processes on the external strobe 120 side will be described with reference to FIGS. FIG. 8 is a flowchart showing the bounce flash photographing control in a state where the catchlight sheet 212 is located at the non-use position for the external strobe 120 that is the illumination device according to the embodiment of the present invention. In the following description, it is assumed that both the camera 100 and the external strobe 120 are powered on, and the auto bounce switch is set to execute auto bounce.

ステップS801でストロボ姿勢検出部203は、本体部120aの姿勢に関する情報を取得する。具体的には、ステップS801でストロボ姿勢検出部203は、本体部120aのピッチ方向の傾き角度γ、ロール方向の傾き角度ηを検出し、検出結果をストロボMPU201の内蔵メモリに記録する。なお、以降は、外部ストロボ120の本体部120aが傾いていない場合について説明する。すなわち、ステップS801において、ピッチ方向の傾き角度γ=0°、ロール方向の傾き角度η=0°が検出された場合について説明する。なお、本体部120aが傾いている場合の説明は後述する。   In step S801, the strobe posture detection unit 203 acquires information related to the posture of the main body 120a. Specifically, in step S801, the strobe posture detecting unit 203 detects the tilt angle γ in the pitch direction and the tilt angle η in the roll direction of the main body 120a, and records the detection results in the built-in memory of the strobe MPU 201. Hereinafter, a case where the main body 120a of the external strobe 120 is not tilted will be described. That is, the case where the pitch direction inclination angle γ = 0 ° and the roll direction inclination angle η = 0 ° are detected in step S801 will be described. In addition, the case where the main-body part 120a inclines is mentioned later.

ステップS802でストロボMPU201は、カメラ100からのオートバウンス動作の実行指示を受信したか否かを判別する。カメラ100側の各種処理を示す図7のステップS704で発光制御部118から送信される実行指示を受信していれば、ステップS803へ移行し、受信していなければステップS801に戻る。   In step S <b> 802, the flash MPU 201 determines whether an instruction to execute an auto bounce operation from the camera 100 has been received. If the execution instruction transmitted from the light emission control unit 118 is received in step S704 of FIG. 7 showing various processes on the camera 100 side, the process proceeds to step S803, and if not received, the process returns to step S801.

ステップS803でストロボMPU201は、ストロボ角度検出部211からの出力に基づいて、可動部120bの水平駆動角度θと垂直駆動角度θを検出する。 In step S803, the strobe MPU 201 detects the horizontal drive angle θ A and the vertical drive angle θ B of the movable unit 120b based on the output from the strobe angle detection unit 211.

ステップS804でストロボMPU(光学部材検出手段)201は、取り出し検出部214の出力に基づいて、キャッチライトシート212が使用位置に位置しているか(取り出されているか)否かを検出する。そして、ステップS805でストロボMPU201は、ステップS804の検出結果に基づいて、キャッチライトシート212が使用位置に位置しているか否かを判定する。ステップS805でストロボMPU201によって、キャッチライトシート212が使用位置に位置していないと判定された場合はステップS806へ移行する。ステップS805でストロボMPU201によって、キャッチライトシート212が使用位置に位置していると判定された場合は後述する図9のステップS814へと進む。   In step S804, the strobe MPU (optical member detection means) 201 detects whether or not the catchlight sheet 212 is located at the use position (taken out) based on the output of the takeout detection unit 214. In step S805, the flash MPU 201 determines whether the catchlight sheet 212 is located at the use position based on the detection result in step S804. If the strobe MPU 201 determines in step S805 that the catchlight sheet 212 is not in the use position, the process proceeds to step S806. If the strobe MPU 201 determines in step S805 that the catchlight sheet 212 is located at the use position, the process proceeds to step S814 in FIG.

ステップS806でストロボMPU(設定手段)201は、照射方向演算部204に指示して、天井方向へ向けた可動部120bの駆動角度を制御するための目標値(以下、目標角度と称す)として、水平方向目標角度θ、垂直方向目標角度θを設定する。本実施形態では、可動部120bを駆動させるごとに当該目標角度を設定する。例えば、本実施形態では、1度の連続したバウンス発光撮影において、天井方向、正面方向、算出した最適な照射方向のそれぞれに対応する可動部120bの駆動制御ごとに目標角度を設定する。なお、ステップS806では、天井方向に向けた可動部120bの駆動制御用の目標角度が設定される。 In step S806, the strobe MPU (setting unit) 201 instructs the irradiation direction calculation unit 204 to set a target value (hereinafter referred to as a target angle) for controlling the driving angle of the movable unit 120b toward the ceiling. A horizontal direction target angle θ X and a vertical direction target angle θ Y are set. In the present embodiment, the target angle is set every time the movable portion 120b is driven. For example, in this embodiment, the target angle is set for each drive control of the movable portion 120b corresponding to each of the ceiling direction, the front direction, and the calculated optimum irradiation direction in one continuous bounce flash photography. In step S806, a target angle for drive control of the movable part 120b facing the ceiling direction is set.

なお、本実施形態では、ストロボMPU(設定手段)201は、キャッチライトシート212が使用位置に位置しているか否かに関する情報と、撮影対象の被写体に顔が含まれているか否かに関する情報に応じて上述した目標角度を設定する。   In this embodiment, the strobe MPU (setting unit) 201 includes information regarding whether or not the catchlight sheet 212 is located at the use position and information regarding whether or not the subject to be imaged includes a face. Accordingly, the target angle described above is set.

ステップS806では、キャッチライトシート212が非使用位置にある状態なので、発光部208のプリ発光による照射光がキャッチライトシート212に遮られることはない。したがって、ステップS806でストロボMPU201は、目標角度として、可動部120bの水平方向(第1の方向)の駆動角度を変更させず、垂直方向(第2の方向)の駆動角度のみを変更させるような値を設定する。本実施形態では、ステップS806でストロボMPU201は、θ=θ、θ=+90°を設定する。なお、本実施形態では、天井方向へのプリ発光時の目標角度をθ=+90°に設定するような構成であるが、これに限定されるものではなく、天井方向に向けてプリ発光ができるような角度であれば、どの様な値を設定してもよい。 In step S806, since the catchlight sheet 212 is in the non-use position, the light emitted by the pre-emission of the light emitting unit 208 is not blocked by the catchlight sheet 212. Accordingly, in step S806, the strobe MPU 201 does not change the driving angle in the horizontal direction (first direction) of the movable part 120b as the target angle, but changes only the driving angle in the vertical direction (second direction). Set the value. In this embodiment, the strobe MPU 201 sets θ X = θ A and θ Y = + 90 ° in step S806. In the present embodiment, the target angle at the time of pre-emission in the ceiling direction is set to θ Y = + 90 °, but is not limited to this, and pre-emission is performed toward the ceiling direction. Any value can be set as long as the angle can be set.

なお、前述したステップS801において、本体部120aの傾きが検出された場合は、検出した傾き角度を加味して、可動部120bの目標角度を設定する。例えば、ステップS801においてピッチ方向の傾き角度γ=+10°、ロール方向の傾き角度η=0°が検出された場合であって、ステップS803で水平方向角度θ=+180°、垂直方向角度θ=+70°を検出した場合について説明する。この場合、ステップS806でストロボMPU201は、上述の検出結果に基づいて水平駆動角度θ=+180°、垂直方向目標角度をθ=+80°に設定する。すなわち、本体部120aの傾き角度を考慮して可動部120bの目標角度を補正する。なお、上述した場合は、可動部120bを垂直方向に+10°だけ駆動させれば、垂直駆動角度=目標角度となる。 In step S801 described above, when the tilt of the main body 120a is detected, the target angle of the movable portion 120b is set in consideration of the detected tilt angle. For example, in step S801, the pitch direction inclination angle γ = + 10 ° and the roll direction inclination angle η = 0 ° are detected. In step S803, the horizontal direction angle θ A = + 180 °, and the vertical direction angle θ B. A case where + 70 ° is detected will be described. In this case, the strobe MPU 201 sets the horizontal drive angle θ A = + 180 ° and the vertical target angle to θ Y = + 80 ° based on the above detection result in step S806. That is, the target angle of the movable part 120b is corrected in consideration of the inclination angle of the main body part 120a. In the case described above, if the movable part 120b is driven in the vertical direction by + 10 °, the vertical drive angle = the target angle.

以下のステップS807〜S811では、バウンス発光撮影に最適な照射方向を決定して、決定した照射方向となるように可動部120bを駆動させるオートバウンス動作を行う。ステップS807でストロボMPU201は、駆動制御部202に指示して、ステップS806で設定した目標角度となるように可動部120bを駆動させる。この詳細については図11を参照して説明する。   In the following steps S807 to S811, an optimum irradiation direction for bounce flash photography is determined, and an auto bounce operation is performed to drive the movable portion 120b so as to be the determined irradiation direction. In step S807, the strobe MPU 201 instructs the drive control unit 202 to drive the movable unit 120b so that the target angle set in step S806 is obtained. This will be described in detail with reference to FIG.

図11は、本発明の実施形態に係る照明装置である外部ストロボ120の可動部120bの駆動制御を示すフローチャートである。ステップS1101でストロボMPU201は、駆動制御部202に指示して、不図示のモーターを制御し、可動部120bの駆動を開始させる。   FIG. 11 is a flowchart showing drive control of the movable portion 120b of the external strobe 120 that is the illumination device according to the embodiment of the present invention. In step S1101, the strobe MPU 201 instructs the drive control unit 202 to control a motor (not shown) to start driving the movable unit 120b.

ステップS1102でストロボMPU201は、ストロボ角度検出部211に指示し、現在の可動部120bの水平駆動角度θと垂直駆動角度θを検出させる。そして、ストロボMPU201は、検出した水平駆動角度θと目標角度θX、垂直駆動角度θと目標角度θとを比較して、両者が一致しているか否かを判定する。ストロボMPU201によって可動部120bの現在角度が目標角度と一致していると判定された場合はステップS1103に移行し、一致していないと判定された場合はステップS1102を繰り返す。 Strobe MPU201 In step S1102 instructs the flash angle detector 211, thereby detecting the horizontal driving angle theta A vertical driving angle theta B of the current of the movable portion 120b. Then, the strobe MPU 201 compares the detected horizontal drive angle θ A with the target angle θ X, the vertical drive angle θ B and the target angle θ Y, and determines whether or not they match. If the strobe MPU 201 determines that the current angle of the movable unit 120b matches the target angle, the process proceeds to step S1103, and if it does not match, step S1102 is repeated.

ステップS1103でストロボMPU201は、駆動制御部202に指示して、不図示のモーターを制御し、可動部120bの駆動を終了させる。   In step S1103, the stroboscopic MPU 201 instructs the drive control unit 202 to control a motor (not shown) and finishes driving the movable unit 120b.

ステップS1104でストロボMPU201は、プリ発光を行うように発光部208に指示する。そして、ストロボMPU201は、ストロボ測光部210に指示してプリ発光時測光を実行させ、得られた測光値(プリ発光時測光値)に基づいて、発光部208の照射面209から天井までの距離を算出する。照射面209から天井までの距離は、例えば、所定の反射率の照射対象が所定の距離にある場合のプリ発光時測光値を仮定して、仮定したプリ発光時測光値と実際のプリ発光時測光値との差分から照射対象の実際の距離を算出する方法を用いればよい。このとき、ストロボ測光部210で受光する光束は、発光部208から照射され照射対象で反射された光束であるため、ストロボ測光部210で受光する光束の光路長と発光部208の照射面209から天井までの距離の2倍とは一致しない。しかしながら、ストロボ測光部210の受光センサと発光部208の照射面209との位置の差異が、バウンス発光撮影における照射方向の決定に与える影響は小さい。したがって、本実施形態では、ストロボ測光部210の受光センサと発光部208の照射面209との位置が略等しいものとして演算する。   In step S1104, the flash MPU 201 instructs the light emitting unit 208 to perform pre-flash. Then, the flash MPU 201 instructs the flash metering unit 210 to perform pre-flash photometry, and based on the obtained photometric value (pre-flash photometric value), the distance from the irradiation surface 209 of the light emitting unit 208 to the ceiling Is calculated. As for the distance from the irradiation surface 209 to the ceiling, for example, assuming a pre-light-emission photometric value when an irradiation target having a predetermined reflectance is at a predetermined distance, the assumed pre-emission photometric value and the actual pre-emission time A method of calculating the actual distance of the irradiation target from the difference from the photometric value may be used. At this time, since the light beam received by the strobe photometry unit 210 is a light beam emitted from the light emitting unit 208 and reflected by the irradiation target, the optical path length of the light beam received by the strobe photometry unit 210 and the irradiation surface 209 of the light emitting unit 208 It does not match twice the distance to the ceiling. However, the difference in position between the light receiving sensor of the flash metering unit 210 and the irradiation surface 209 of the light emitting unit 208 has little influence on the determination of the irradiation direction in bounce flash photography. Therefore, in the present embodiment, calculation is performed assuming that the positions of the light receiving sensor of the strobe photometry unit 210 and the irradiation surface 209 of the light emitting unit 208 are substantially equal.

なお、ステップS1104は、天井方向および後述する正面方向へのプリ発光時の可動部120bの駆動制御でのみ実施する。すなわち、可動部120bの発光部208の最適な照射方向を決定する場合の可動部120bの駆動制御では、ステップS1104の処理は行わない。   Note that step S1104 is performed only by driving control of the movable portion 120b during pre-light emission in the ceiling direction and in the front direction described later. That is, in the drive control of the movable part 120b when determining the optimum irradiation direction of the light emitting part 208 of the movable part 120b, the process of step S1104 is not performed.

ステップS1105でストロボMPU201は、現在の可動部120bの駆動制御が可動部120bの発光部208の最適な照射方向を決定するための制御である場合に、カメラ100にオートバウンス終了通知を送信する。以上が本実施形態の可動部120bの駆動制御である。   In step S1105, the flash MPU 201 transmits an auto bounce end notification to the camera 100 when the current drive control of the movable unit 120b is control for determining the optimal irradiation direction of the light emitting unit 208 of the movable unit 120b. The above is drive control of the movable part 120b of this embodiment.

図8に戻る。ステップS808でストロボMPU201は、照射方向演算部204に指示して、正面方向に向けた可動部120bの水平方向目標角度θ=0°、垂直方向目標角度θ=0°を設定する。なお、ステップS808で設定する目標角度は、カメラ100の撮影方向に位置する被写体までの測距を行えるような角度であれば、上述した角度にものに限定されるものではなく、どのような角度を設定してもよい。 Returning to FIG. In step S808, the flash MPU 201 instructs the irradiation direction calculation unit 204 to set the horizontal target angle θ X = 0 ° and the vertical target angle θ Y = 0 ° of the movable unit 120b facing the front direction. Note that the target angle set in step S808 is not limited to the angle described above as long as it can measure the distance to the subject located in the shooting direction of the camera 100. May be set.

ステップS809でストロボMPU201は、駆動制御部202に指示して、ステップS808で設定した目標角度となるように可動部120bを駆動させる。可動部120bの駆動制御方法は前述したステップS807の駆動制御と略同一なので、説明は省略する。   In step S809, the flash MPU 201 instructs the drive control unit 202 to drive the movable unit 120b so that the target angle set in step S808 is reached. Since the drive control method of the movable part 120b is substantially the same as the drive control in step S807 described above, description thereof is omitted.

ステップS810でストロボMPU201は、照射方向演算部204に指示して、バウンス発光撮影に最適な照射方向となる目標角度を算出させる。照射方向演算部204は、本体部120aの姿勢に関する情報、発光部208の照射面209から天井までの距離に関する情報と発光部208の照射面209から被写体までの距離に関する情報とに基づいて、バウンス発光撮影に最適な照射方向を算出する。照射方向の決定方法としては、例えば、発光部208の照射面209から天井までの距離をd、照射面209から被写体までの距離をD、最適な照射方向となる本体部120aに対する可動部120bの目標角度をθとして、以下の式(1)にて決定する。
θ=tan−1(2d/D) (1)
In step S810, the flash MPU 201 instructs the irradiation direction calculation unit 204 to calculate a target angle that is the optimal irradiation direction for bounce flash photography. The irradiation direction calculation unit 204 bounces based on information on the posture of the main body 120a, information on the distance from the irradiation surface 209 of the light emitting unit 208 to the ceiling, and information on the distance from the irradiation surface 209 of the light emitting unit 208 to the subject. Calculate the irradiation direction optimal for flash photography. As a method of determining the irradiation direction, for example, the distance from the irradiation surface 209 to the ceiling of the light emitting unit 208 is d, the distance from the irradiation surface 209 to the subject is D, and the movable unit 120b with respect to the main body 120a having the optimal irradiation direction is used. The target angle is set as θ and is determined by the following equation (1).
θ = tan −1 (2d / D) (1)

なお、上記の式(1)で求められる目標角度は、本体部120aが傾いていない(正位置にある)場合の角度であるので、本体部120aが傾いている場合は、その傾き角度に応じて最適な照射方向となる目標角度を設定する。   In addition, since the target angle calculated | required by said Formula (1) is an angle when the main-body part 120a is not inclined (it exists in a normal position), when the main-body part 120a is inclined, according to the inclination angle. Set the target angle that is the optimal irradiation direction.

また、図12(a)に図示するように、被写体が人物である場合は、発光部208から照射され被写体に入射する光の入射角度αに応じて、人物に影が出てしまう場合がある。そこで、本実施形態では、図12(b)に図示するように、式(1)で得られる目標角度θを、以下の式(2)に示すように任意の補正角度βで補正する。
θ=tan−1(2h/d)+β (2)
Further, as illustrated in FIG. 12A, when the subject is a person, a shadow may appear on the person according to the incident angle α of the light emitted from the light emitting unit 208 and incident on the subject. . Therefore, in the present embodiment, as shown in FIG. 12B, the target angle θ obtained by the equation (1) is corrected by an arbitrary correction angle β as shown by the following equation (2).
θ = tan −1 (2h / d) + β (2)

なお、補正角度βは距離に応じた値を予めストロボMPU201の内蔵メモリに記録しておき、先に算出した発光部208の照射面209から被写体までの距離に応じて設定する。この構成によって、被写体に影が出てしまうことを抑制することができる。なお、図12は、本発明の実施形態に係る照明装置である外部ストロボ120の最適な照明方向について例示的に説明する図である。   As the correction angle β, a value corresponding to the distance is recorded in advance in the built-in memory of the flash MPU 201, and is set according to the previously calculated distance from the irradiation surface 209 of the light emitting unit 208 to the subject. With this configuration, it is possible to suppress a shadow from appearing on the subject. FIG. 12 is a diagram for exemplarily explaining an optimal illumination direction of the external strobe 120 which is the illumination apparatus according to the embodiment of the present invention.

図8に戻り、ステップS811でストロボMPU201は、駆動制御部202に指示して、ステップS810で決定した目標角度となるように可動部120bを駆動させる。可動部120bの駆動制御方法は前述したステップS807の駆動制御と略同一なので、説明は省略する。なお、前述したように、ステップS811の駆動制御においては、ストロボMPU201がカメラ100にオートバウンス終了通知を送信する。   Returning to FIG. 8, in step S811, the strobe MPU 201 instructs the drive control unit 202 to drive the movable unit 120b so that the target angle determined in step S810 is obtained. Since the drive control method of the movable part 120b is substantially the same as the drive control in step S807 described above, description thereof is omitted. As described above, in the drive control in step S811, the strobe MPU 201 transmits an auto bounce end notification to the camera 100.

ステップS812でストロボMPU201は、カメラ100からの発光動作の実行指示を受信したか否かを判定する。具体的には、ストロボMPU201は、前述のステップS708にて発光制御部118から送信される(プリ発光または本発光の)発光動作の実行指示を受信していれば、ステップS813へ移行し、受信していなければステップS812を繰り返す。   In step S812, the flash MPU 201 determines whether or not an instruction to perform a light emission operation from the camera 100 has been received. Specifically, if the flash MPU 201 has received the execution instruction of the light emission operation (pre-flash or main flash) transmitted from the light emission control unit 118 in step S708 described above, the process proceeds to step S813. If not, step S812 is repeated.

ステップS813でストロボMPU201は、発光部208に指示して、カメラ100から指示された発光パターン及び発光量に基づいて、プリ発光または本発光を行わせる。そして、ステップS814でストロボMPU201は、カメラ100から指示された発光パターンが本発光であるか否かを判定し、当該判定の結果がプリ発光であった(本発光でなかった)場合、引き続き本発光を行うためにステップS812に戻る。一方、ストロボMPU201が、カメラ100から指示された発光パターンが本発光であった(プリ発光でなかった)場合、バウンス発光撮影を行うための外部ストロボ120側の各種処理を終了する。   In step S813, the flash MPU 201 instructs the light emitting unit 208 to perform pre-light emission or main light emission based on the light emission pattern and light emission amount instructed from the camera 100. In step S814, the flash MPU 201 determines whether or not the light emission pattern instructed from the camera 100 is the main light emission. If the result of the determination is the pre-light emission (not the main light emission), the main light emission is continued. The process returns to step S812 to perform light emission. On the other hand, when the flash pattern instructed from the camera 100 is main flash (not pre-flash), the flash MPU 201 ends various processes on the external flash 120 for performing bounce flash shooting.

次に、キャッチライトシート212が使用位置に位置している状態であって、撮影対象の被写体に顔が含まれていない場合の外部ストロボ120側のバウンス発光撮影制御について図9を参照して説明する。図9は、本発明の実施形態に係る照明装置である外部ストロボ120のキャッチライトシート212が使用位置に位置している状態であって、撮影対象の被写体に顔が含まれない場合のバウンス発光撮影制御を示すフローチャートである。   Next, bounce flash shooting control on the external strobe 120 side when the catchlight sheet 212 is in the use position and the subject to be shot does not include a face will be described with reference to FIG. To do. FIG. 9 is a state in which the catchlight sheet 212 of the external strobe 120 that is the illumination device according to the embodiment of the present invention is in the use position, and the bounce light emission when the subject to be imaged does not include a face. It is a flowchart which shows imaging | photography control.

図9に図示するように、キャッチライトシート212が使用位置に位置している(キャッチライトシート212使用時)と判定された場合、ステップS815でストロボMPU201は、カメラ100側から顔検出処理の検出結果に関する情報を取得する。   As shown in FIG. 9, when it is determined that the catchlight sheet 212 is located at the use position (when the catchlight sheet 212 is used), the strobe MPU 201 detects the face detection process from the camera 100 side in step S815. Get information about results.

次に、ステップS816でストロボMPU201は、ステップS814で取得した顔検出処理の検出結果に関す情報に基づいて、撮影対象の被写体に顔が含まれているか否かを判定する。ステップS816において撮影対象の被写体に顔が含まれていないと判定された場合はステップS817に移行し、顔が含まれていると判定された場合は後述するステップS827に移行する。   Next, in step S816, the flash MPU 201 determines whether the subject to be imaged includes a face based on the information regarding the detection result of the face detection process acquired in step S814. If it is determined in step S816 that the subject to be imaged does not include a face, the process proceeds to step S817. If it is determined that a face is included, the process proceeds to step S827 described later.

ステップS817でストロボMPU201は、ステップS803で検出した可動部120bの水平駆動角度θが、−90°〜+90°の範囲以内であるか否かを判定する。ステップS817で、可動部120bの水平駆動角度θが、−90°〜+90°の範囲以内であると(−90°≦θ≦+90°)判定された場合はステップS818に移行する。 In step S817, the flash MPU 201 determines whether or not the horizontal drive angle θ A of the movable unit 120b detected in step S803 is within a range of −90 ° to + 90 °. In step S817, the horizontal drive angle theta A of the movable portion 120b is to be within the range of -90 ° ~ + 90 ° (-90 ° ≦ θ A ≦ + 90 °) when it is determined so and the process moves to step S818.

ステップS818でストロボMPU201は、ステップS803で検出した可動部120bの水平駆動角度θが、−90°より小さいか否かを判定する(−90°>θ)。 In step S818, the flash MPU 201 determines whether or not the horizontal drive angle θ A of the movable part 120b detected in step S803 is smaller than −90 ° (−90 °> θ A ).

ステップS818で、ステップS803で検出した可動部120bの水平駆動角度θが−90°より小さくないと判定された場合、ステップS819へ移行する。この場合、先のステップS817の判定に基づいて、可動部120bの水平駆動角度θが+90°より大きいと判定できる。したがって、ステップS819でストロボMPU201は、可動部120bの目標角度をθ=+90°、θ=+90°に設定する。 In step S818, if the horizontal drive angle theta A of the movable portion 120b detected in step S803 is determined to not less than -90 °, the process proceeds to step S819. In this case, based on the judgment of the previous step S817, it can be determined that the horizontal drive angle theta A of the movable portion 120b is + 90 ° greater. Accordingly, in step S819, the strobe MPU 201 sets the target angles of the movable part 120b to θ X = + 90 ° and θ Y = + 90 °.

また、ステップS818で、可動部120bの現在の水平駆動角度θが−90°より小さいと判定された場合、ステップS820へ移行する。この場合、先のステップS817の判定に基づいて、可動部120bの水平駆動角度θが−90°より小さいと判定できる。したがって、ステップS820でストロボMPU201は、可動部120bの目標角度をθ=−90°、θ=+90°に設定する。 Further, in step S818, if the current horizontal drive angle theta A of the movable portion 120b is determined to -90 ° smaller, the process proceeds to step S820. In this case, based on the judgment of the previous step S817, the horizontal drive angle theta A of the movable portion 120b can be determined as -90 ° smaller. Accordingly, in step S820, the strobe MPU 201 sets the target angles of the movable part 120b to θ X = −90 ° and θ Y = + 90 °.

さらに、ステップS817で、可動部120bの現在の水平駆動角度θが−90°〜+90°の範囲以内であると判定された場合、ステップS821へ移行する。そして、ステップS821でストロボMPU201は、可動部120bの目標角度をθ=θ、θ=+90°に設定する。 Further, in step S817, if the current horizontal drive angle theta A of the movable portion 120b is determined to be within the range of -90 ° ~ + 90 °, the process proceeds to step S821. In step S821, the strobe MPU 201 sets the target angles of the movable unit 120b to θ X = θ A and θ Y = + 90 °.

以上説明したように、撮影対象の被写体に顔が含まれない場合、ステップS803で検出した可動部120bの角度に拘わらず、可動部120bの水平方向の目標角度を−90°〜+90°の範囲以内(第2の範囲以内)に設定する。言い換えると、キャッチライトシート212が使用位置に位置している場合は、第1の方向における、設定可能な水平方向目標角度θの範囲を、可動部120bが基準位置にある状態の角度と直交する角度の範囲内に設定する。 As described above, when the subject to be imaged does not include a face, the horizontal target angle of the movable unit 120b is in the range of −90 ° to + 90 ° regardless of the angle of the movable unit 120b detected in step S803. Within (second range). In other words, if the catch light sheet 212 is positioned in the use position, in a first direction, a range of configurable horizontal target angle theta X, perpendicular to the angle of the movable portion 120b is at the reference position Set within the range of angles to be used.

この構成によって、バウンス発光撮影制御中に、操作部117への操作によりSW2がONされたことに応じて被写体を撮像する場合であっても、キャッチライトシート212によって、発光部208からの照射光が遮られることを防止することができる。したがって、バウンス発光撮影制御中に、操作部117への操作によりSW2がONされたことに応じて被写体を撮像する場合であっても、被写体に影が映り込むことを抑制することができる。   With this configuration, even when the subject is imaged in response to the SW2 being turned on by operating the operation unit 117 during the bounce flash photographing control, the light emitted from the light emitting unit 208 is emitted by the catchlight sheet 212. Can be prevented from being blocked. Therefore, even when the subject is imaged in response to the SW2 being turned on by an operation on the operation unit 117 during the bounce flash photographing control, it is possible to suppress a shadow from appearing on the subject.

なお、本実施形態では、撮影対象の被写体に顔が含まれない場合の可動部120bの水平方向の目標角度θの設定可能な範囲(第2の範囲)を−90°〜+90°としたが、これに限定されるものではない。可動部120bの水平方向の目標角度θの設定可能な範囲は、−90°〜+90°とは異なる範囲であってもよい。さらに、ストロボMPU201が、撮影画角や被写体までの距離などに応じて、可動部120bの水平方向の目標角度θの設定可能な範囲を自由に設定できる構成であってもよい。 In the present embodiment, the settable range of the horizontal direction of the target angle theta X of the movable portion 120b of the case where the object to be imaged does not include a face (the second range) and -90 ° ~ + 90 ° However, the present invention is not limited to this. Setting range in the horizontal direction of the target angle theta X of the movable portion 120b may be different from the range from -90 ° ~ + 90 °. Furthermore, the strobe MPU201 is, depending on the distance to the shooting angle and subject, the settable range of the horizontal direction of the target angle theta X of the movable portion 120b may be configured to be freely set.

また、ステップS819〜S821の処理においても、前述したステップS806の処理と同様に、本体部120aの傾きが検出された場合は、検出した傾き角度を加味して、可動部120bの目標角度を補正(設定)する。   Also, in the processes of steps S819 to S821, similarly to the process of step S806 described above, when the inclination of the main body 120a is detected, the target angle of the movable part 120b is corrected in consideration of the detected inclination angle. (Set).

ステップS822〜S824の処理は前述したステップS807〜S809の処理と同様なので説明は省略する。ステップS825でストロボMPU201は、照射方向演算部204に指示して、バウンス発光撮影に最適な照射方向となる目標角度を算出させる。なお、バウンス発光撮影に最適な照射方向となる目標角度は、前述したステップS810と同様に式(1)又は式(2)に基づいて算出する。   Since the processing of steps S822 to S824 is the same as the processing of steps S807 to S809 described above, description thereof is omitted. In step S825, the flash MPU 201 instructs the irradiation direction calculation unit 204 to calculate a target angle that is the optimal irradiation direction for bounce flash photography. Note that the target angle that is the optimum irradiation direction for the bounce flash photography is calculated based on the formula (1) or the formula (2) as in step S810 described above.

ここで、前述したステップS810とは異なり、ステップS825でストロボMPU201は、可動部120bの水平方向(第1の方向)の目標角度の設定可能な範囲を、−90°≦θ≦+90°(第2の範囲)に設定する。すなわち、算出した可動部120bのバウンス発光撮影に最適な照射方向となる目標角度は、少なくとも、上述した設定可能な範囲を超えないように設定される。この構成によって、キャッチライトシート212の使用時に(使用位置に位置している状態で)、発光部208から照射された照射光がキャッチライトシート212に遮られることを防止することができる。したがって、撮影対象の被写体にキャッチライトシート212の影が写り込んでしまうことを抑制することができる。 Here, unlike step S810 described above, in step S825, the strobe MPU 201 sets the settable range of the target angle in the horizontal direction (first direction) of the movable portion 120b to −90 ° ≦ θ X ≦ + 90 ° ( 2nd range). That is, the calculated target angle that is the optimum irradiation direction for the bounce flash photography of the movable part 120b is set so as not to exceed at least the settable range described above. With this configuration, it is possible to prevent the catch light sheet 212 from blocking the irradiation light emitted from the light emitting unit 208 when the catch light sheet 212 is used (in a state where the catch light sheet 212 is located at the use position). Therefore, it is possible to suppress the shadow of the catchlight sheet 212 from appearing on the subject to be photographed.

ステップS826でストロボMPU201は、駆動制御部202に指示して、ステップS825で決定した設定可能な範囲以内の目標角度となるように可動部120bを駆動させる。ステップS826のその他の動作は前述したステップS811と同様の処理を行うので説明は省略する。なお、ステップS826においても、前述したステップS811と同様にカメラ100側にオートバウンス終了通知が送信される。   In step S826, the flash MPU 201 instructs the drive control unit 202 to drive the movable unit 120b so that the target angle is within the settable range determined in step S825. Other operations in step S826 are the same as those in step S811 described above, and a description thereof will be omitted. Note that also in step S826, an auto bounce end notification is transmitted to the camera 100 side as in step S811 described above.

次に、キャッチライトシート212が使用位置に位置している状態であって、撮影対象の被写体に顔が含まれている場合の外部ストロボ120側のバウンス発光撮影制御について図10を参照して説明する。図10は、本発明の実施形態に係る照明装置である外部ストロボ120について、キャッチライトシート212が使用位置に位置している状態であって、撮影対象の被写体に顔が含まれる場合のバウンス発光撮影制御を示すフローチャートである。   Next, bounce flash shooting control on the external strobe 120 side when the catchlight sheet 212 is in the use position and the subject to be shot includes a face will be described with reference to FIG. To do. FIG. 10 shows bounce light emission when the catchlight sheet 212 is in the use position and the subject to be photographed includes a face in the external strobe 120 that is the lighting device according to the embodiment of the present invention. It is a flowchart which shows imaging | photography control.

図10に図示するように、ステップS827でストロボMPU201は、ステップS803で検出した可動部120bの水平駆動角度θが、−30°〜+30°の範囲以内であるか否かを判定する。ステップS827で、可動部120bの水平駆動角度θが、−30°〜+30°の範囲以内であると(−30°≦θ≦+30°)判定された場合はステップS828に移行する。 As shown in FIG. 10, in step S827, the flash MPU 201 determines whether or not the horizontal drive angle θ A of the movable part 120b detected in step S803 is within a range of −30 ° to + 30 °. In step S827, the horizontal drive angle theta A of the movable portion 120b is to be within the range of -30 ° ~ + 30 ° (-30 ° ≦ θ A ≦ + 30 °) when it is determined so and the process moves to step S828.

次に、ステップS828でストロボMPU201は、ステップS803で検出した可動部120bの水平駆動角度θが、−30°より小さいか否かを判定する(−30°>θ)。 Next, in step S828, the strobe MPU 201 determines whether or not the horizontal drive angle θ A of the movable part 120b detected in step S803 is smaller than −30 ° (−30 °> θ A ).

ステップS828で、ステップS803で検出した可動部120bの水平駆動角度θが−30°より小さくないと判定された場合、ステップS829へ移行する。この場合、先のステップS827の判定に基づいて、可動部120bの水平駆動角度θが+30°より大きいと判定できる。したがって、ステップS829でストロボMPU201は、可動部120bの目標角度をθ=+30°、θ=+90°に設定する。 In step S828, if the horizontal drive angle theta A of the movable portion 120b detected in step S803 is determined to not less than -30 °, the process proceeds to step S829. In this case, based on the judgment of the previous step S827, it can be determined that the horizontal drive angle theta A of the movable portion 120b is + 30 ° greater. Accordingly, in step S829, the strobe MPU 201 sets the target angles of the movable part 120b to θ X = + 30 ° and θ Y = + 90 °.

また、ステップS828で、可動部120bの現在の水平駆動角度θが−30°より小さいと判定された場合、ステップS830へ移行する。この場合、先のステップS827の判定に基づいて、可動部120bの水平駆動角度θが−30°より小さいと判定できる。したがって、ステップS830でストロボMPU201は、可動部120bの目標角度をθ=−30°、θ=+90°に設定する。 Further, in step S828, if the current horizontal drive angle theta A of the movable portion 120b is determined to -30 ° smaller, the process proceeds to step S830. In this case, based on the judgment of the previous step S827, the horizontal drive angle theta A of the movable portion 120b can be determined as -30 ° smaller. Accordingly, in step S830, the strobe MPU 201 sets the target angles of the movable part 120b to θ X = −30 ° and θ Y = + 90 °.

さらに、ステップS827で、可動部120bの現在の水平駆動角度θが−30°〜+30°の範囲以内であると判定された場合、ステップS831へ移行する。そして、ステップS831でストロボMPU201は、可動部120bの目標角度をθ=θ、θ=+90°に設定する。 Further, in step S827, if the current horizontal drive angle theta A of the movable portion 120b is determined to be within the range of -30 ° ~ + 30 °, the process proceeds to step S831. In step S831, the strobe MPU 201 sets the target angles of the movable unit 120b to θ X = θ A and θ Y = + 90 °.

以上説明したように、撮影対象の被写体に顔が含まれる場合はステップS803で検出した可動部120bの角度に拘わらず、可動部120bの水平方向の目標角度の設定可能な範囲を−30°〜+30°の範囲以内(第1の範囲以内)に設定する。この構成によって、バウンス発光撮影制御中に、操作部117への操作によりSW2がONされたことに応じて被写体を撮像する場合であっても、キャッチライトシート212によって、発光部208からの照射光が遮らなれることを抑制できる。さらに、バウンス発光撮影制御中に、操作部117への操作によりSW2がONされたことに応じて被写体を撮像する場合であっても、反射面213からの反射光を検出された顔に向けて照明させることができる。したがって、バウンス発光撮影制御中に、操作部117への操作によりSW2がONされたことに応じて被写体を撮像する場合であっても、キャッチライト効果を奏しつつ、被写体に影が写り込むことを抑制することができる。   As described above, when the subject to be photographed includes a face, regardless of the angle of the movable part 120b detected in step S803, the settable range of the target angle in the horizontal direction of the movable part 120b is -30 ° to Set within the range of + 30 ° (within the first range). With this configuration, even when the subject is imaged in response to the SW2 being turned on by operating the operation unit 117 during the bounce flash photographing control, the light emitted from the light emitting unit 208 is emitted by the catchlight sheet 212. Can be prevented from being blocked. Further, even when the subject is imaged in response to the SW2 being turned on by operating the operation unit 117 during the bounce flash photographing control, the reflected light from the reflecting surface 213 is directed toward the detected face. Can be illuminated. Therefore, even when the subject is imaged in response to the SW2 being turned on by operating the operation unit 117 during the bounce flash shooting control, a shadow is reflected on the subject while producing the catchlight effect. Can be suppressed.

なお、本実施形態では、撮影対象の被写体に顔が含まれる場合の可動部120bの水平方向(第1の方向)の目標角度θの設定可能な範囲(第1の範囲)を−30°〜+30°としたが、これに限定されるものではない。可動部120bの水平方向(第1の方向)の目標角度θの設定可能な範囲は、−30°〜+30°とは異なる範囲であってもよい。さらに、ストロボMPU201が、撮影画角や被写体までの距離などに応じて、可動部120bの水平方向の目標角度θの設定可能な範囲を自由に設定できる構成であってもよい。本実施形態では、少なくとも、第1の範囲<第2の範囲であればよい。 In the present embodiment, -30 ° horizontal movable portion 120b settable range of the target angle theta X (first direction) (first range) when a face is included in the object to be imaged Although it was set to ˜ + 30 °, it is not limited to this. Settable range of the target angle theta X in the horizontal direction of the movable portion 120b (first direction) may be different from the range from -30 ° ~ + 30 °. Furthermore, the strobe MPU201 is, depending on the distance to the shooting angle and subject, the settable range of the horizontal direction of the target angle theta X of the movable portion 120b may be configured to be freely set. In the present embodiment, it is sufficient that at least the first range <the second range.

また、ステップS829〜S831の処理においても、前述したステップS806の処理と同様に、本体部120aの傾きが検出された場合は、検出した傾き角度を加味して、可動部120bの目標角度を設定する。   Also, in the processes of steps S829 to S831, similarly to the process of step S806 described above, when the inclination of the main body 120a is detected, the target angle of the movable part 120b is set in consideration of the detected inclination angle. To do.

ステップS832〜S834の処理は前述したステップS807〜S809の処理と同様なので説明は省略する。ステップS835でストロボMPU201は、照射方向演算部204に指示して、バウンス発光撮影に最適な照射方向となる目標角度を算出させる。なお、バウンス発光撮影に最適な照射方向となる目標角度は、前述したステップS810と同様に式(1)又は式(2)に基づいて算出する。   Since the processing in steps S832 to S834 is the same as the processing in steps S807 to S809 described above, description thereof will be omitted. In step S835, the flash MPU 201 instructs the irradiation direction calculation unit 204 to calculate a target angle that is the optimal irradiation direction for bounce flash photography. Note that the target angle that is the optimum irradiation direction for the bounce flash photography is calculated based on the formula (1) or the formula (2) as in step S810 described above.

ここで、前述したステップS810とは異なり、ステップS835でストロボMPU201は、可動部120bの設定可能な目標角度の範囲を、−30°≦θ≦+30°、0°≦θ≦+120°に設定する。すなわち、算出した可動部120bのバウンス発光撮影に最適な照射方向となる目標角度は、少なくとも、上述した設定可能な範囲を超えないように設定される。この構成によって、キャッチライトシート212の使用時に、発光部208から照射された照射光がキャッチライトシート212に遮られることを抑制することができる。また、キャッチライトシート212の反射面213で反射させた反射光を被写体に向けて照明させることができる。したがって、キャッチライト効果を奏しつつ、撮影対象の被写体にキャッチライトシート212の影が写り込んでしまうことを抑制することができる。 Here, unlike step S810 described above, in step S835, the strobe MPU 201 sets the range of the target angle that can be set for the movable portion 120b to −30 ° ≦ θ X ≦ + 30 °, 0 ° ≦ θ Y ≦ + 120 °. Set. That is, the calculated target angle that is the optimum irradiation direction for the bounce flash photography of the movable part 120b is set so as not to exceed at least the settable range described above. With this configuration, it is possible to suppress the irradiation light emitted from the light emitting unit 208 from being blocked by the catchlight sheet 212 when the catchlight sheet 212 is used. Further, the reflected light reflected by the reflecting surface 213 of the catchlight sheet 212 can be illuminated toward the subject. Therefore, it is possible to suppress the shadow of the catchlight sheet 212 from appearing on the subject to be photographed while exhibiting the catchlight effect.

なお、キャッチライトシート212によるキャッチライト効果をより正確に奏するために、上述した可動部120bの垂直方向の目標角度の設定可能な範囲をより狭くするような構成であってもよい。具体的には、発光部208から照射された光が反射面213に反射して被写体を照明することができるような角度として、可動部120bの垂直方向の目標角度の設定可能範囲を、+60°≦θ≦+120°などに設定する。この構成であれば、発光部208を発光させた際に、キャッチライトシート212の反射面213で反射させた反射光が、人物の顔以外を照明することを抑制することができる。 In addition, in order to show the catchlight effect by the catchlight sheet 212 more accurately, a configuration in which the settable range of the target angle in the vertical direction of the movable portion 120b described above may be narrower may be used. Specifically, the settable range of the target angle in the vertical direction of the movable unit 120b is set to + 60 ° as an angle at which the light emitted from the light emitting unit 208 can be reflected on the reflecting surface 213 to illuminate the subject. ≦ θ Y ≦ + 120 ° or the like is set. If it is this structure, when the light emission part 208 is light-emitted, it can suppress that the reflected light reflected by the reflective surface 213 of the catchlight sheet 212 illuminates other than a person's face.

また、キャッチライトシート212によるキャッチライト効果をさらに正確に奏するために、設定された水平方向(第1の方向)の目標角度に基づいて、垂直方向(第2の方向)の目標角度を設定するような構成であってもよい。例えば、θ=0°の場合、ストロボMPU201は、設定可能なθの範囲を0°〜120°に設定する。そして、θ=+30°の場合、ストロボMPU201は、設定可能なθの範囲を0°〜90°に設定する。すなわち、可動部120bの水平方向の目標角度が基準位置に近く、キャッチライト効果を奏し易い角度であれば、設定可能な可動部120bの垂直方向の範囲を比較的大きい範囲に設定する。また、可動部120bの水平方向の目標角度が基準位置から離れており、キャッチライト効果を奏し難い角度であれば、設定可能な可動部120bの垂直方向の範囲を比較的小さい範囲に設定する。 Further, in order to achieve the catchlight effect by the catchlight sheet 212 more accurately, the target angle in the vertical direction (second direction) is set based on the set target angle in the horizontal direction (first direction). Such a configuration may be adopted. For example, when θ X = 0 °, the flash MPU 201 sets a settable θ Y range from 0 ° to 120 °. When θ X = + 30 °, the flash MPU 201 sets the settable θ Y range to 0 ° to 90 °. That is, if the horizontal target angle of the movable part 120b is close to the reference position and the catchlight effect is easily achieved, the settable vertical range of the movable part 120b is set to a relatively large range. Further, if the target angle in the horizontal direction of the movable part 120b is far from the reference position and the catchlight effect is difficult to achieve, the settable vertical range of the movable part 120b is set to a relatively small range.

ステップS836でストロボMPU201は、駆動制御部202に指示して、ステップS835で決定した設定可能な範囲以内の目標角度となるように可動部120bを駆動させる。ステップS836のその他の動作は前述したステップS811と同様の処理を行うので説明は省略する。なお、ステップS836においても、前述したステップS811と同様にカメラ100側にオートバウンス終了通知が送信される。以上が、本実施形態に係る外部ストロボ120側のバウンス発光撮影制御である。   In step S836, the flash MPU 201 instructs the drive control unit 202 to drive the movable unit 120b so that the target angle is within the settable range determined in step S835. The other operations in step S836 perform the same processing as in step S811, and will not be described. In step S836, an auto bounce end notification is transmitted to the camera 100 side as in step S811 described above. The above is the bounce flash photographing control on the external strobe 120 side according to the present embodiment.

以上説明したように、本実施形態では、キャッチライトシート212が使用位置に位置している状態で外部ストロボ120の可動部120bを駆動させる場合に、被写体に顔が含まれているか否かに応じて可動部120bの駆動を制御するような構成である。具体的には、キャッチライトシート212が使用位置に位置している状態で、撮影対象の被写体に顔が含まれている場合と含まれていない場合とで、可動部120bの目標角度として設定可能な範囲を変更する。そして、当該目標角度に基づいて可動部120bの駆動を制御する。   As described above, in the present embodiment, when the movable portion 120b of the external strobe 120 is driven in a state where the catchlight sheet 212 is in the use position, whether or not the subject includes a face is determined. Thus, the driving of the movable part 120b is controlled. Specifically, it can be set as the target angle of the movable portion 120b depending on whether the face to be photographed is included or not when the catch light sheet 212 is in the use position. Change the range. And the drive of the movable part 120b is controlled based on the said target angle.

この構成によって、キャッチライトシート212が使用位置に位置している状態であって被写体に顔が含まれている場合、および被写体に顔が含まれていない場合の双方で、それぞれで最適な位置に可動部120bを駆動させることができる。したがって、本実施形態の外部ストロボ120および外部ストロボを含む撮像システムでは、キャッチライトシート212の状態に応じて外部ストロボ120の動作を制御することができる。   With this configuration, when the catchlight sheet 212 is in the use position and the subject includes a face and when the subject does not include a face, the catchlight sheet 212 is in an optimum position. The movable part 120b can be driven. Therefore, in the imaging system including the external strobe 120 and the external strobe of the present embodiment, the operation of the external strobe 120 can be controlled according to the state of the catchlight sheet 212.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲以内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

前述した実施形態では、可動部120bの駆動制御として、外部ストロボ120のストロボ姿勢検出部203およびストロボ測光部210で取得した情報に基づいて可動部120bの照射方向を決定するような構成であるが、これに限定されるものではない。例えば、カメラ100の測光部112、レンズ制御部114、姿勢検出部116などで取得した情報に基づいて、可動部120bの照射方向を決定するような構成であってもよい。具体的には、姿勢検出部116によって検出されたカメラ100の姿勢に基づいて、可動部120bの目標角度を補正するような構成であってもよい。この場合、カメラ100が横位置にあるのか縦位置にあるのかを検出し、ストロボMPU201が当該検出結果に基づいて可動部120bの目標角度を設定する。   In the above-described embodiment, the drive control of the movable unit 120b is configured such that the irradiation direction of the movable unit 120b is determined based on information acquired by the strobe posture detection unit 203 and the strobe photometry unit 210 of the external strobe 120. However, the present invention is not limited to this. For example, the irradiation direction of the movable unit 120b may be determined based on information acquired by the photometry unit 112, the lens control unit 114, the posture detection unit 116, and the like of the camera 100. Specifically, the target angle of the movable unit 120b may be corrected based on the posture of the camera 100 detected by the posture detection unit 116. In this case, it is detected whether the camera 100 is in the horizontal position or the vertical position, and the strobe MPU 201 sets the target angle of the movable unit 120b based on the detection result.

また、前述した実施形態では、操作部117のレリーズボタンの第1ストロークでSW1がオンされたことに応じてオートバウンス発光撮影に係る処理を開始するような構成であるが、これに限定されるものではない。例えば、外部ストロボ120のストロボ操作部205に設けられたオートバウンスボタンの押圧に応じて、オートバウンス発光撮影に係る処理を開始するような構成であってもよい。   In the above-described embodiment, the process related to the auto bounce flash photographing is started in response to the SW1 being turned on by the first stroke of the release button of the operation unit 117. However, the present invention is not limited to this. It is not a thing. For example, the configuration may be such that processing related to auto bounce flash photography is started in response to pressing of an auto bounce button provided on the strobe operation unit 205 of the external strobe 120.

また、前述した実施形態では、照射光の照射方向を自動的に変更することができる照明装置として外部ストロボ120を採用した場合について説明したが、これに限定されるものではない。例えば、カメラ100に設けられた内蔵ストロボ119が、照射光の照射方向を自動的に変更することができるような構成であってもよい。この場合、上述した外部ストロボ120に関わる各種の制御は、カメラ100のカメラMPU101などによって実行される構成であればよい。   In the above-described embodiment, the case where the external strobe 120 is employed as the illumination device that can automatically change the irradiation direction of the irradiation light has been described. However, the present invention is not limited to this. For example, the built-in flash 119 provided in the camera 100 may be configured to automatically change the irradiation direction of the irradiation light. In this case, the various controls related to the external strobe 120 described above may be configured to be executed by the camera MPU 101 of the camera 100 or the like.

また、前述したステップS806、S819〜S821、S829〜S831でストロボMPU201は、可動部120bの垂直方向の目標角度を+90°に設定するような構成について説明したが、これに限定されるものではない。上述した各ステップで設定する可動部120bの垂直方向の目標角度は、発光部208をプリ発光させて、バウンス発光撮影のバウンスの対象となる対象物までの距離情報を正確に取得できるような角度であればどのようなものを採用してもよい。   Moreover, although the strobe MPU 201 has described the configuration in which the strobe MPU 201 sets the vertical target angle of the movable portion 120b to + 90 ° in steps S806, S819 to S821, and S829 to S831, the present invention is not limited to this. . The target angle in the vertical direction of the movable unit 120b set in each step described above is an angle at which the light emitting unit 208 is pre-flashed and the distance information to the target object to be bounced by bounce flash photography can be accurately acquired. Any one may be adopted as long as it is.

さらに、前述した実施形態では、外部ストロボ120側のバウンス発光撮影処理では、天井方向への可動部120bの駆動制御の後に、正面方向への可動部120bの駆動制御を行うような構成であったが、これに限定されるものではない。例えば、正面方向への可動部120bの駆動制御を行った後に、天井方向への可動部120bの駆動制御を行うような構成であってもよい。すなわち、バウンス発光撮影に最適な照射方向を設定する1つの連続した処理の中における距離情報を取得するためのプリ発光の順序としては、正面方向へのプリ発光をおこなった後に天井方向へのプリ発光をおこなうような構成であってもよい。   Further, in the above-described embodiment, the bounce flash photographing process on the external strobe 120 side is configured to perform drive control of the movable part 120b in the front direction after drive control of the movable part 120b in the ceiling direction. However, the present invention is not limited to this. For example, the drive control of the movable part 120b in the ceiling direction may be performed after the drive control of the movable part 120b in the front direction is performed. In other words, the pre-light emission order for acquiring distance information in one continuous process for setting the optimum irradiation direction for bounce flash photography is the pre-light emission in the front direction and the pre-light emission in the ceiling direction. It may be configured to emit light.

この構成であれば正面方向への可動部120bの駆動制御によって、可動部120bの駆動角度がθ=0°、θ=0°に制御された状態で、天井方向への可動部120bの駆動制御を開始することができる。この場合、天井方向への可動部120bの駆動制御中に、キャッチライトシート212が発光部208よりも被写体側に位置することがない。したがって、天井方向への可動部120bの駆動制御において可動部120bの目標角度を制御することなく、キャッチライトシート212によって発光部208から照射される照射光が遮られることを抑制することができる。 With this configuration, the drive angle of the movable part 120b in the front direction is controlled by θ A = 0 ° and θ B = 0 ° by the drive control of the movable part 120b in the front direction, and the movable part 120b in the ceiling direction is controlled. Drive control can be started. In this case, the catchlight sheet 212 is not positioned closer to the subject than the light emitting unit 208 during the drive control of the movable unit 120b in the ceiling direction. Therefore, it is possible to suppress the irradiation light emitted from the light emitting unit 208 from being blocked by the catchlight sheet 212 without controlling the target angle of the movable unit 120b in the drive control of the movable unit 120b in the ceiling direction.

なお、前述した実施形態では、外部ストロボ120の可動部120bの駆動可能な角度の範囲を水平方向に−180°〜+180°(すなわち360°)、垂直方向に0°〜+120°としている。しかしながら、可動部120bの垂直方向の角度の駆動可能な範囲が0°〜+180°の外部ストロボを採用するような構成であってもよい。この場合、ステップS825で垂直方向の目標角度にも設定可能な所定の範囲を設けることが望ましい。例えば、上述したような駆動可能な範囲が設定されている外部ストロボを使用する場合は、ステップS825でストロボMPU201は、可動部120bの設定可能な目標角度の範囲を、−90°≦θ≦+90°、0°≦θ≦+120°に設定する。この構成であれば、発光部208からの照射光を、天井などのバウンス対象物に向けて正確に照射させることができる。 In the above-described embodiment, the range of the driveable angle of the movable portion 120b of the external strobe 120 is set to −180 ° to + 180 ° (that is, 360 °) in the horizontal direction and 0 ° to + 120 ° in the vertical direction. However, a configuration may be adopted in which an external strobe with a movable range of the vertical angle of the movable portion 120b in the range of 0 ° to + 180 ° is employed. In this case, it is desirable to provide a predetermined range that can also be set for the target angle in the vertical direction in step S825. For example, when using an external strobe set with a drivable range as described above, the strobe MPU 201 sets the range of the target angle that can be set for the movable portion 120b to −90 ° ≦ θ X ≦ at step S825. Set + 90 °, 0 ° ≦ θ Y ≦ + 120 °. If it is this structure, the irradiation light from the light emission part 208 can be accurately irradiated toward bounce target objects, such as a ceiling.

また、前述した実施形態では、キャッチライトシート212が使用位置に位置している状態の可動部120bの設定可能な水平方向の目標角度の範囲を、−90°〜+90°、または−30°〜+30°に設定する構成であったがこれに限定されるものではない。撮影対象に顔が含まれていない場合は、少なくとも、発光部208から照射された光がキャッチライトシート212に遮られないように可動部120bの水平方向の目標角度の範囲を設定すればよい。また、撮影対象に顔が含まれている場合は、少なくとも、発光部208から照射された光がキャッチライトシート212に遮られず、反射面213で反射した光が顔を照明出来るように可動部120bの水平方向の目標角度の範囲を設定すればよい。   In the embodiment described above, the range of the target angle in the horizontal direction that can be set for the movable portion 120b in a state where the catchlight sheet 212 is located at the use position is −90 ° to + 90 °, or −30 ° to Although the configuration is set to + 30 °, it is not limited to this. When a face is not included in the shooting target, at least the target angle range in the horizontal direction of the movable part 120b may be set so that the light emitted from the light emitting part 208 is not blocked by the catchlight sheet 212. In addition, when a face is included in the shooting target, at least the light emitted from the light emitting unit 208 is not blocked by the catchlight sheet 212, and the movable part can illuminate the face with the light reflected by the reflecting surface 213. What is necessary is just to set the range of the target angle of 120b of the horizontal direction.

また、前述した実施形態では、キャッチライトシート212が使用位置に位置する状態で、天井方向の距離情報を取得する際の可動部120bの駆動制御において目標角度を制限するような構成であったが、これに限定されるものではない。天井方向に向けた可動部120bの駆動制御では、目標角度を制限しないような構成であってもよい。すなわち、バウンス発光撮影制御における、最適な照射方向に向けた可動部120bの駆動制御(ステップS811、S826、S836)においてのみ、可動部120bの目標角度を制限するような構成であってもよい。   In the above-described embodiment, the target angle is limited in the drive control of the movable portion 120b when the distance information in the ceiling direction is acquired in a state where the catchlight sheet 212 is located at the use position. However, the present invention is not limited to this. The drive control of the movable part 120b directed toward the ceiling may be configured such that the target angle is not limited. That is, the target angle of the movable part 120b may be limited only in the drive control (steps S811, S826, and S836) of the movable part 120b toward the optimal irradiation direction in the bounce flash photography control.

なお、前述した実施形態では、カメラMPU101を含むカメラ100の制御部と、ストロボMPU201を含む外部ストロボ120の制御部とが連携して動作することで、上述した各制御を実行するような構成であったが、これに限定されるものではない。例えば、前述した図7〜図11のフローに従ったプログラムを予めカメラMPU101のメモリなどに格納しておき、当該プログラムをカメラMPU101やストロボMPU201などが実行することで、上述した各制御を実行するような構成であってもよい。また、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。また、プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記録媒体でもあってもよい。   In the above-described embodiment, the control unit of the camera 100 including the camera MPU 101 and the control unit of the external strobe 120 including the strobe MPU 201 operate in cooperation with each other to execute each control described above. However, the present invention is not limited to this. For example, a program according to the flow of FIGS. 7 to 11 described above is stored in the memory of the camera MPU 101 in advance, and the program is executed by the camera MPU 101, the flash MPU 201, or the like, thereby executing each control described above. Such a configuration may be adopted. Moreover, as long as it has the function of a program, it does not ask | require the form of programs, such as an object code, the program run by an interpreter, and the script data supplied to OS. The recording medium for supplying the program may be, for example, a magnetic recording medium such as a hard disk or a magnetic tape, or an optical / magneto-optical recording medium.

また、前述した実施形態では、本発明を実施する撮像システムの撮像装置の一例として、カメラ100について説明したが、これに限定されるものではない。例えば、本発明を実施する撮像装置の撮像装置としては、デジタルビデオカメラやスマートフォンなどの可搬型デバイスなど、種々の撮像装置に適用することが可能である。   In the above-described embodiment, the camera 100 has been described as an example of the imaging apparatus of the imaging system that implements the present invention. However, the present invention is not limited to this. For example, the imaging device of the imaging device that implements the present invention can be applied to various imaging devices such as a portable device such as a digital video camera or a smartphone.

(その他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
In addition, the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by executing processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 カメラMPU
116 姿勢検出部
120 外部ストロボ
120a 本体部
120b 可動部
201 ストロボMPU
202 駆動制御部
208 発光部
209 照射面
212 キャッチライトシート
213 反射面
101 Camera MPU
116 Attitude detection unit 120 External strobe 120 a Main unit 120 b Movable unit 201 Strobe MPU
202 Drive control unit 208 Light emitting unit 209 Irradiation surface 212 Catch light sheet 213 Reflection surface

Claims (17)

発光部を備えた可動部を自動的に駆動させることで光の照射方向を変更させる照明装置と、撮像装置とを含む撮像システムであって、
前記可動部の内部から突出させることで前記発光部から照射された光によって照明される使用位置と、前記可動部の内部に収納させることで前記発光部から照射された光に照明されない非使用位置との間を移動することができる光学部材と、
前記光学部材が前記使用位置に位置している否かを検出する光学部材検出手段と、
顔を検出する顔検出手段と、
前記光学部材検出手段と前記顔検出手段の検出結果に応じて前記可動部の駆動を制御する駆動制御手段と、を有することを特徴とする撮像システム。
An imaging system including an illumination device that automatically changes a light irradiation direction by automatically driving a movable unit including a light emitting unit, and an imaging device,
A use position illuminated by light emitted from the light emitting part by protruding from the inside of the movable part, and a non-use position not illuminated by light emitted from the light emitting part by storing in the movable part. An optical member capable of moving between
Optical member detection means for detecting whether or not the optical member is located at the use position;
Face detection means for detecting a face;
An imaging system comprising: the optical member detection unit; and a drive control unit that controls the driving of the movable part in accordance with a detection result of the face detection unit.
前記可動部を駆動させる角度の目標値である目標角度を、前記光学部材検出手段と前記顔検出手段の検出結果に応じて設定する設定手段を有し、
前記駆動制御手段は、前記目標角度に基づいて前記可動部の駆動を制御することを特徴とする請求項1に記載の撮像システム。
A setting unit that sets a target angle, which is a target value of an angle for driving the movable part, according to detection results of the optical member detection unit and the face detection unit;
The imaging system according to claim 1, wherein the drive control unit controls driving of the movable unit based on the target angle.
前記光学部材は、前記使用位置に位置している状態で、前記発光部の照射面から離間して配される光学的な作用面を備え、
前記照明装置は、前記可動部を回動可能に保持する本体部を有し、
前記可動部が前記発光部の前記照射面が前記本体部の正面部と同一の方向を向いている位置を基準位置とし、前記光学部材が前記使用位置に位置していて前記可動部が前記基準位置に位置している状態での前記光学部材の前記光学的な作用面と水平な方向を第1の方向とし、前記光学部材の前記光学的な作用面と垂直な方向を第2の方向とすると、
前記設定手段は、前記光学部材検出手段によって前記光学部材が前記使用位置に位置していると検出された場合に、前記目標角度のうちの前記第1の方向の角度を、前記基準位置における前記可動部の角度と直交する角度の範囲内に設定することを特徴とする請求項2に記載の撮像システム。
The optical member is provided with an optical working surface disposed away from the irradiation surface of the light emitting unit in a state of being located at the use position,
The lighting device has a main body that rotatably holds the movable part,
The position where the movable part is facing the same direction as the front part of the main body part is the reference position, the optical member is located at the use position, and the movable part is the reference part. A direction parallel to the optical working surface of the optical member in a state of being positioned is a first direction, and a direction perpendicular to the optical working surface of the optical member is a second direction. Then
When the optical member detection unit detects that the optical member is located at the use position, the setting unit calculates an angle in the first direction among the target angles at the reference position. The imaging system according to claim 2, wherein the imaging system is set within an angle range orthogonal to the angle of the movable part.
前記設定手段は、前記光学部材検出手段によって前記光学部材が前記使用位置に位置していると検出された場合に、前記顔検出手段によって顔が検出されているか否かに応じて、前記目標角度のうちの前記第1の方向の角度の設定可能な範囲を異ならせることを特徴とする請求項3に記載の撮像システム。   When the optical member detecting unit detects that the optical member is located at the use position, the setting unit determines whether the face is detected by the face detecting unit or not. The imaging system according to claim 3, wherein a settable range of the angle in the first direction is made different. 前記設定手段は、前記光学部材検出手段によって前記光学部材が前記使用位置に位置していると検出された場合であって、前記顔検出手段によって顔が検出された場合に、前記目標角度のうちの前記第1の方向の角度の設定可能な範囲を第1の範囲以内に設定し、前記顔検出手段によって顔が検出されていない場合に、前記目標角度のうちの前記第1の方向の角度の設定可能な範囲を前記第1の範囲よりも大きい第2の範囲以内に設定することを特徴とする請求項4に記載の撮像システム。   The setting means is the case where the optical member detecting means detects that the optical member is located at the use position, and when the face is detected by the face detecting means, When the settable range of the angle in the first direction is set within the first range, and the face is not detected by the face detecting means, the angle in the first direction among the target angles The imaging system according to claim 4, wherein the settable range is set within a second range larger than the first range. 前記設定手段は、前記光学部材検出手段によって前記光学部材が前記使用位置に位置していると検出された場合であって、前記顔検出手段によって顔が検出された場合に、前記目標角度のうちの前記第2の方向の角度の設定可能な範囲を、前記目標角度のうちの前記第1の方向の角度に応じて設定することを特徴とする請求項5に記載の撮像システム。   The setting means is the case where the optical member detecting means detects that the optical member is located at the use position, and when the face is detected by the face detecting means, The imaging system according to claim 5, wherein a settable range of the angle in the second direction is set according to an angle in the first direction among the target angles. 前記照明装置が前記撮像装置に取り付けられている状態において、前記可動部が前記基準位置に位置する状態に対する前記本体部の傾きを検出する姿勢検出手段を有し、
前記設定手段は、前記姿勢検出手段によって前記本体部の傾きが検出された場合に、当該本体部の傾きに基づいて前記目標角度を補正することを特徴とする請求項3乃至6の何れか一項に記載の撮像システム。
In a state where the illumination device is attached to the imaging device, the movable unit has posture detection means for detecting an inclination of the main body with respect to a state where the movable unit is located at the reference position.
The said setting means correct | amends the said target angle based on the inclination of the said main-body part, when the inclination of the said main-body part is detected by the said attitude | position detection means. The imaging system according to item.
前記設定手段は、前記発光部による前記第1の方向に向けた第1のプリ発光によって取得した前記第1の方向の距離情報と、前記第1のプリ発光よりも後の前記第2の方向に向けた前記発光部による第2のプリ発光によって取得した前記第2の方向の距離情報とに基づいて前記目標角度を設定することを特徴とする請求項3乃至7の何れか一項に記載の撮像システム。   The setting means includes the distance information of the first direction acquired by the first pre-light emission toward the first direction by the light-emitting unit, and the second direction after the first pre-light emission. The target angle is set based on the distance information in the second direction acquired by the second pre-light emission by the light emitting unit toward the light source. Imaging system. 前記光学部材は、発光部から照射された光を反射させるパネル状の部材であることを特徴とする請求項1乃至8の何れか一項に記載の撮像システム。   The imaging system according to claim 1, wherein the optical member is a panel-like member that reflects light emitted from a light emitting unit. 発光部を備えた可動部を自動的に駆動させることで光の照射方向を変更させ、撮像装置に取り付けることができる照明装置であって、
前記可動部の内部から突出させることで前記発光部から照射された光によって照明される使用位置と、前記可動部の内部に収納させることで前記発光部から照射された光に照明されない非使用位置との間を移動することができる光学部材と、
前記光学部材が前記使用位置にあるか否かを検出する光学部材検出手段と、
前記光学部材検出手段の検出結果と撮影対象の被写体に顔が含まれているか否かに関する情報とに基づいて、前記可動部の駆動を制御する駆動制御手段と、を有することを特徴とする照明装置。
An illumination device that can be attached to an imaging device by automatically changing a light irradiation direction by automatically driving a movable portion including a light emitting unit,
A use position illuminated by light emitted from the light emitting part by protruding from the inside of the movable part, and a non-use position not illuminated by light emitted from the light emitting part by storing in the movable part. An optical member capable of moving between
Optical member detection means for detecting whether or not the optical member is in the use position;
Drive control means for controlling the drive of the movable part based on the detection result of the optical member detection means and information on whether or not the subject to be imaged includes a face. apparatus.
前記可動部の駆動させる角度の目標値である目標角度を、前記光学部材検出手段の検出結果と撮影対象の被写体に顔が含まれているか否かに関する情報とに基づいて設定する設定手段を有し、
前記駆動制御手段は、前記目標角度に基づいて前記可動部の駆動を制御することを特徴とする請求項10に記載の照明装置。
A setting unit configured to set a target angle, which is a target value of an angle to be driven by the movable unit, based on a detection result of the optical member detection unit and information on whether or not a subject to be photographed includes a face. And
The lighting device according to claim 10, wherein the drive control unit controls driving of the movable portion based on the target angle.
前記光学部材は、前記使用位置に位置している状態で、前記発光部の照射面から離間して配される光学的な作用面を備え、
前記照明装置は、前記可動部を回動可能に保持する本体部を有し、
前記可動部が前記発光部の前記照射面が前記本体部の正面部と同一の方向を向いている位置を基準位置とし、前記光学部材が前記使用位置に位置していて前記可動部が前記基準位置に位置している状態での前記光学部材の前記光学的な作用面と水平な方向を第1の方向とし、前記光学部材の前記光学的な作用面と垂直な方向を第2の方向とすると、
前記設定手段は、前記光学部材検出手段によって前記光学部材が前記使用位置に位置していると検出された場合に、前記目標角度のうちの前記第1の方向の角度を、前記基準位置における前記可動部の角度と直交する角度の範囲内に設定することを特徴とする請求項11に記載の照明装置。
The optical member is provided with an optical working surface disposed away from the irradiation surface of the light emitting unit in a state of being located at the use position,
The lighting device has a main body that rotatably holds the movable part,
The position where the movable part is facing the same direction as the front part of the main body part is the reference position, the optical member is located at the use position, and the movable part is the reference part. A direction parallel to the optical working surface of the optical member in a state of being positioned is a first direction, and a direction perpendicular to the optical working surface of the optical member is a second direction. Then
When the optical member detection unit detects that the optical member is located at the use position, the setting unit calculates an angle in the first direction among the target angles at the reference position. The illuminating device according to claim 11, wherein the illuminating device is set within an angle range orthogonal to the angle of the movable portion.
前記設定手段は、前記光学部材検出手段によって前記光学部材が前記使用位置に位置していると検出された場合であって、撮影対象の被写体に顔が含まれている場合に、前記目標角度のうちの前記第1の方向の角度の設定可能な範囲を第1の範囲以内に設定し、撮影対象の被写体に顔が含まれていない場合に、前記目標角度のうちの前記第1の方向の角度の設定可能な範囲を前記第1の範囲よりも大きい第2の範囲以内に設定することを特徴とする請求項12に記載の照明装置。   The setting unit is configured to detect the target angle when the optical member detection unit detects that the optical member is located at the use position and the subject to be photographed includes a face. When the settable range of the angle in the first direction is set within the first range, and the subject to be imaged does not include a face, the range of the first direction out of the target angles The lighting device according to claim 12, wherein a range in which an angle can be set is set within a second range that is larger than the first range. 前記設定手段は、前記光学部材検出手段によって前記光学部材が前記使用位置に位置していると検出された場合であって撮影対象の被写体に顔が含まれている場合に、前記目標角度のうちの前記第2の方向の角度の設定可能な範囲を、前記目標角度のうちの前記第1の方向の角度に応じて設定することを特徴とする請求項13に記載の照明装置。   When the optical member detecting unit detects that the optical member is located at the use position and the subject to be photographed includes a face, the setting unit includes the target angle. The lighting device according to claim 13, wherein a settable range of the angle in the second direction is set according to the angle in the first direction among the target angles. 前記設定手段は、前記可動部が前記基準位置に位置する状態に対して前記本体部が傾いている場合に、当該本体部の傾きに基づいて前記目標角度を補正することを特徴とする請求項12乃至14の何れか一項に記載の照明装置。   The said setting means correct | amends the said target angle based on the inclination of the said main-body part, when the said main-body part inclines with respect to the state in which the said movable part is located in the said reference position. The illumination device according to any one of 12 to 14. 前記光学部材は、発光部から照射された光を反射させるパネル状の光学部材であることを特徴とする請求項10乃至15の何れか一項に記載の照明装置。   The lighting device according to any one of claims 10 to 15, wherein the optical member is a panel-like optical member that reflects light emitted from a light emitting unit. 発光部を備えた可動部を自動的に駆動させることで光の照射方向を変更させ、撮像装置に取り付けることができる照明装置の制御方法であって、
前記可動部の内部から突出させることで前記発光部から照射された光によって照明される使用位置と、前記可動部の内部に収納させることで前記発光部から照射された光に照明されない非使用位置との間を移動することができる光学部材と、
前記光学部材が前記使用位置にあるか否かを検出する光学部材検出工程と、
前記光学部材検出工程による検出結果と撮影対象の被写体に顔が含まれているか否かに関する情報とに基づいて、前記可動部の駆動を制御する駆動制御工程と、を有することを特徴とする照明装置の制御方法。
A method of controlling an illumination device that can be attached to an imaging device by changing the direction of light irradiation by automatically driving a movable portion including a light emitting unit,
A use position illuminated by light emitted from the light emitting part by protruding from the inside of the movable part, and a non-use position not illuminated by light emitted from the light emitting part by storing in the movable part. An optical member capable of moving between
An optical member detection step of detecting whether or not the optical member is in the use position;
A drive control step of controlling the drive of the movable part based on the detection result of the optical member detection step and information on whether or not the subject to be photographed includes a face. Control method of the device.
JP2014229340A 2014-11-11 2014-11-11 Imaging system, illumination device, and method for controlling the same Pending JP2016090990A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014229340A JP2016090990A (en) 2014-11-11 2014-11-11 Imaging system, illumination device, and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014229340A JP2016090990A (en) 2014-11-11 2014-11-11 Imaging system, illumination device, and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2016090990A true JP2016090990A (en) 2016-05-23

Family

ID=56017922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014229340A Pending JP2016090990A (en) 2014-11-11 2014-11-11 Imaging system, illumination device, and method for controlling the same

Country Status (1)

Country Link
JP (1) JP2016090990A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081123A (en) * 2016-11-14 2018-05-24 キヤノン株式会社 Lighting device, control method therefor, and imaging system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081123A (en) * 2016-11-14 2018-05-24 キヤノン株式会社 Lighting device, control method therefor, and imaging system

Similar Documents

Publication Publication Date Title
JP6168870B2 (en) Imaging apparatus, camera system, and control method
JP6494410B2 (en) Lighting device and control method
JP6719947B2 (en) Imaging system, light emitting device, light emission control method, and program
JP6351302B2 (en) Imaging device, imaging system, light emitting device, and focus detection method
JP6512768B2 (en) Lighting device, imaging device and camera system
US9716818B2 (en) Illumination apparatus having first case and second case rotatable relative to first case, and imaging apparatus having detachable illumination apparatus
JP2016090990A (en) Imaging system, illumination device, and method for controlling the same
CN108810365B (en) Lighting apparatus capable of determining irradiation direction of flash and control method thereof
JP6486040B2 (en) Imaging system, illumination device, and control method
JP6184188B2 (en) Imaging apparatus, illumination apparatus, camera system, and control method
JP6584129B2 (en) Lighting device
JP6779753B2 (en) Imaging system, imaging device, and its control method
JP6584128B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP6932539B2 (en) Imaging system, lighting device and its control method and program
JP6562791B2 (en) Imaging device, control method thereof, and program
JP2016090989A (en) Illumination device and method for controlling the same
JP6643376B2 (en) Illumination device and control method thereof
JP6671932B2 (en) Light emitting device and control method thereof
JP6489925B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP6815826B2 (en) Imaging device, imaging system and automatic irradiation direction control method
JP2016109824A (en) Imaging system, illumination device and imaging device, and control method of the same
JP2020173391A (en) Illumination device and posture control method thereof and an imaging system
JP2020177049A (en) Lighting device, control method therefor, and imaging system
JP2019148636A (en) Illumination device, imaging apparatus, control method of illumination device, and program
JP2020056853A (en) Illumination device