JP2016212228A - Illumination device - Google Patents

Illumination device Download PDF

Info

Publication number
JP2016212228A
JP2016212228A JP2015095238A JP2015095238A JP2016212228A JP 2016212228 A JP2016212228 A JP 2016212228A JP 2015095238 A JP2015095238 A JP 2015095238A JP 2015095238 A JP2015095238 A JP 2015095238A JP 2016212228 A JP2016212228 A JP 2016212228A
Authority
JP
Japan
Prior art keywords
detection sensor
strobe
unit
main body
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015095238A
Other languages
Japanese (ja)
Other versions
JP2016212228A5 (en
JP6584129B2 (en
Inventor
裕 山元
Yutaka Yamamoto
裕 山元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015095238A priority Critical patent/JP6584129B2/en
Priority to US15/143,063 priority patent/US9716818B2/en
Priority to CN201610296898.0A priority patent/CN106131378B/en
Publication of JP2016212228A publication Critical patent/JP2016212228A/en
Publication of JP2016212228A5 publication Critical patent/JP2016212228A5/ja
Application granted granted Critical
Publication of JP6584129B2 publication Critical patent/JP6584129B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce a situation where a user is irradiated with light from an illumination device.SOLUTION: An illumination device comprises: a body part that is removably attached to an imaging device; a movable part that can be rotated with respect to the body part; a light emitting part that is provided in the movable part; driving means that rotates the movable part; a detection sensor for detecting an object within a detection range; and setting means that sets a limit angle limiting a rotation angle when the driving means rotates the movable part according to a result of detection from the detection sensor. The detection sensor is arranged on a surface of the body part on the opposite side of a surface on a subject side while the body part is attached to the imaging device.SELECTED DRAWING: Figure 3

Description

本発明は、照明装置に関するものである。   The present invention relates to a lighting device.

従来、照明装置の光を天井等に向けて照射して天井等からの拡散反射光を被写体に照射する発光撮影(以下、バウンス発光撮影とする)が知られている。バウンス発光撮影によれば、照明装置の光を直接的ではなく間接的に被写体に照射することができるため、柔らかい光での描写が可能となる。   2. Description of the Related Art Conventionally, flash photography (hereinafter referred to as bounce flash photography) is known in which light from a lighting device is irradiated toward a ceiling or the like and a subject is irradiated with diffuse reflected light from the ceiling or the like. According to the bounce flash photography, the subject can be irradiated with light from the illumination device indirectly instead of directly, so that it is possible to depict with soft light.

さらに、バウンス発光撮影における最適な照射方向を自動的に決定する技術も提案されている。特許文献1では、発光部の回動角度を自動で変更可能なストロボ装置において、回動角度を発光部が被写体側を向く角度ではなくユーザ側を向く角度にして反射体に発光部の光を照射させる技術が提案されている。   Furthermore, a technique for automatically determining the optimum irradiation direction in bounce flash photography has been proposed. In Patent Document 1, in a strobe device capable of automatically changing the rotation angle of the light emitting unit, the light of the light emitting unit is directed to the reflector by setting the rotation angle to the user side instead of the angle at which the light emitting unit faces the subject side. Techniques for irradiation have been proposed.

特開2011―170014号公報JP 2011-170014 A

しかしながら、特許文献1に記載された技術は、発光部の回動角度をユーザ側を向く角度にして反射体に発光部の光を照射させることが可能だが、ユーザに発光部の光が照射されてしまう場合について考慮されていない。   However, the technique described in Patent Document 1 can irradiate the light of the light emitting unit on the reflector with the rotation angle of the light emitting unit facing the user, but the user is irradiated with the light of the light emitting unit. Is not taken into account.

そこで、本発明は、照明装置からの光がユーザに照射されることを低減できるようにすることを目的とする。   In view of the above, an object of the present invention is to enable a user to be prevented from being irradiated with light from a lighting device.

上記の目標を達成するために、本発明に係る照明装置は、撮像装置に着脱可能に装着される本体部と、前記本体部に対して回動可能な可動部と、前記可動部に設けられた発光部と、前記可動部を回動させる駆動手段と、検知範囲内にある物体を検知するための検知センサと、前記検知センサの検知結果に応じて、前記駆動手段により前記可動部を回動させるときの回動角度を制限する制限角度を設定する設定手段と、を有し、前記検知センサは、前記本体部を撮像装置に装着している状態にて、前記本体部における被写体側の面とは反対側の面に配置されていることを特徴とする。   In order to achieve the above-described goal, an illumination device according to the present invention is provided in a main body portion that is detachably attached to an imaging device, a movable portion that is rotatable with respect to the main body portion, and the movable portion. A light emitting unit, a driving unit for rotating the movable unit, a detection sensor for detecting an object in a detection range, and the movable unit rotating the movable unit according to a detection result of the detection sensor. Setting means for setting a limit angle for limiting a rotation angle when moving the image sensor, and the detection sensor is mounted on an imaging device in a state where the main body is mounted on an imaging device. It arrange | positions on the surface on the opposite side to a surface, It is characterized by the above-mentioned.

本発明によれば、照明装置からの光がユーザに照射されることを低減することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can reduce that the light from an illuminating device is irradiated to a user.

実施形態に係る照明装置を示す図である。It is a figure which shows the illuminating device which concerns on embodiment. 実施形態に係る照明装置の構成を示すブロック図である。It is a block diagram which shows the structure of the illuminating device which concerns on embodiment. 実施形態に係る照明装置の近接検知センサの検知範囲を示す図である。It is a figure which shows the detection range of the proximity detection sensor of the illuminating device which concerns on embodiment. 照明装置と撮像装置を用いてバウンス発光撮影を行っている状態を示す図である。It is a figure which shows the state which is performing bounce light emission imaging | photography using an illuminating device and an imaging device. 実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on embodiment. 実施形態に係る照明装置の姿勢と近接検知センサの検知範囲との関係を示す図である。It is a figure which shows the relationship between the attitude | position of the illuminating device which concerns on embodiment, and the detection range of a proximity detection sensor. 実施形態に係る照明装置に対するユーザの操作を示す図である。It is a figure which shows a user's operation with respect to the illuminating device which concerns on embodiment. 実施形態に係る撮像装置のバウンス発光撮影に関する動作を示す図である。It is a figure which shows the operation | movement regarding the bounce light emission imaging | photography of the imaging device which concerns on embodiment. 実施形態に係る照明装置のバウンス発光撮影に関する動作を示す図である。It is a figure which shows the operation | movement regarding the bounce light emission imaging | photography of the illuminating device which concerns on embodiment. 照明装置の変形例1を示す図である。It is a figure which shows the modification 1 of an illuminating device. 照明装置の変形例2を示す図である。It is a figure which shows the modification 2 of an illuminating device.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

まず、本実施形態に係る照明装置である、撮像装置に着脱可能な外付けストロボ(以下、ストロボ装置とする)について、図1、2、3、4を用いて説明する。なお、図1と図2とで同じものについては同じ符号にしている。また、図1のx軸、y軸、z軸は互いに直交している。図1、2は、本実施形態に係るストロボ装置の構成を説明する図であり、図3は、本実施形態に係るストロボ装置による近接物を検知可能な範囲を示す図であり、図4は、照明装置を撮像装置に装着させてバウンス発光撮影を行っている状態を示す図である。   First, an external strobe (hereinafter referred to as a strobe device) that can be attached to and detached from an imaging device, which is an illumination device according to the present embodiment, will be described with reference to FIGS. 1 and 2 are denoted by the same reference numerals. Further, the x-axis, y-axis, and z-axis in FIG. 1 are orthogonal to each other. 1 and 2 are diagrams illustrating the configuration of the strobe device according to the present embodiment. FIG. 3 is a diagram illustrating a range in which a proximity object can be detected by the strobe device according to the present embodiment. It is a figure which shows the state which has attached the illuminating device to the imaging device and is performing bounce light emission imaging | photography.

本実施形態のストロボ装置200は、撮像装置に着脱可能に装着されるストロボ本体部201、バウンス機構部202、ストロボ本体部201に対して回動可能な可動部であるストロボヘッド部203で構成されている。   A strobe device 200 according to the present embodiment includes a strobe body unit 201 that is detachably attached to an imaging device, a bounce mechanism unit 202, and a strobe head unit 203 that is a movable unit that is rotatable with respect to the strobe body unit 201. ing.

ストロボ本体部201には、後述のストロボの全体を制御するマイクロコントローラ(ストロボMPU)204や、不図示の電池、電源供給回路などを有している。   The strobe body unit 201 includes a microcontroller (strobe MPU) 204 that controls the entire strobe described later, a battery (not shown), a power supply circuit, and the like.

また、ストロボ本体部201は、図1(a)に示すように、一部が本体部操作面201aとなっている。本体部操作面201aは、図4に示すようにストロボ装置200をカメラ100に取り付けた際に、ユーザ側に位置するように設けられている。そして、後述のオートバウンス駆動開始ボタン213や近接検知センサ212、その他の各種操作部材・表示部材が設けられている。   Further, as shown in FIG. 1A, a part of the strobe main body 201 is a main body operation surface 201a. The main body operation surface 201a is provided so as to be positioned on the user side when the strobe device 200 is attached to the camera 100 as shown in FIG. In addition, an auto bounce drive start button 213, a proximity detection sensor 212, and other various operation members and display members, which will be described later, are provided.

また、ストロボ本体部201は、図1(a)に示すように、撮像装置のアクセサリシューにストロボ本体部201を装着するためのカメラ接続部207が設けられている。カメラ接続部207が有する電気接点と撮像装置のアクセサリシューが有する電気接点とが接触することで、ストロボ装置200はカメラ接続部207を介して撮像装置と通信することが可能になる。なお、本実施形態では、ストロボ本体部201におけるカメラ接続部207が設けられている面を下面、本体部操作面201aを背面とする。言い換えると、本体部操作面201aは、ストロボ本体部201を撮像装置に装着している状態にて、ストロボ本体部201における被写体側の面とは反対側の面である。   Further, as shown in FIG. 1A, the strobe main body unit 201 is provided with a camera connection unit 207 for attaching the strobe main body unit 201 to an accessory shoe of the imaging apparatus. When the electrical contact of the camera connection unit 207 comes into contact with the electrical contact of the accessory shoe of the imaging device, the strobe device 200 can communicate with the imaging device via the camera connection unit 207. In the present embodiment, the surface of the strobe main body 201 where the camera connection unit 207 is provided is the lower surface, and the main body operation surface 201a is the rear surface. In other words, the main body unit operation surface 201a is a surface opposite to the subject side surface of the strobe main body 201 in a state where the strobe main body 201 is mounted on the imaging apparatus.

バウンス機構部202には、発光部205を発光させるためのエネルギーを充電するメインコンデンサ214、バウンス駆動モータ215a、215b、ヘッド角度検出部206などを有している。   The bounce mechanism unit 202 includes a main capacitor 214 that charges energy for causing the light emitting unit 205 to emit light, bounce drive motors 215a and 215b, a head angle detection unit 206, and the like.

バウンス機構部202は、図1(a)に示す状態においてY軸と平行な軸Aを回動中心にして、ストロボ本体部201に対して相対的に回動可能なようにストロボ本体部201に連結されている。そして、バウンス機構部202はユーザによる手動の回動操作やバウンス駆動モータ215aによって回動される。前述したように、ストロボ本体部201のカメラ接続部207が設けられている側の面を下面、本体部操作面201aを背面とすると、バウンス機構部202はストロボ本体部201に対して相対的に左右方向に回動可能である。   In the state shown in FIG. 1A, the bounce mechanism 202 is attached to the flash body 201 so as to be rotatable relative to the flash body 201 around an axis A parallel to the Y axis. It is connected. The bounce mechanism 202 is rotated by a manual rotation operation by the user or a bounce drive motor 215a. As described above, when the surface of the strobe main body 201 on the side where the camera connection unit 207 is provided is the lower surface and the main body operation surface 201a is the rear surface, the bounce mechanism 202 is relative to the strobe main body 201. It can be rotated in the left-right direction.

ストロボヘッド部203は、発光撮影時などに発光させる発光部205や、発光部205の光を照射された物体からの反射光を測定する測距用測光部208を有している。発光部205は、ストロボMPU204からの発光信号に従って、ストロボ光を発光する不図示のストロボ発光回路を備えている。また、発光部205は、発光に必要な光源(例えば、キセノン管等の放電管)、反射傘、フレネルレンズ等を備えている。なお、光源は、キセノン管等の放電管に限定されず、LEDであってもよく、LEDを光源に用いる構成であれば、メインコンデンサ214のような大型なコンデンサは不要である。   The strobe head unit 203 includes a light emitting unit 205 that emits light during flash photography and the like, and a distance measuring photometric unit 208 that measures reflected light from an object irradiated with light from the light emitting unit 205. The light emitting unit 205 includes a strobe light emitting circuit (not shown) that emits strobe light in accordance with a light emission signal from the strobe MPU 204. The light emitting unit 205 includes a light source (for example, a discharge tube such as a xenon tube) necessary for light emission, a reflector, a Fresnel lens, and the like. The light source is not limited to a discharge tube such as a xenon tube, and may be an LED. If the LED is used as a light source, a large capacitor such as the main capacitor 214 is unnecessary.

ストロボヘッド部203は、図1(a)に示す状態においてZ軸と平行な軸Bを回動中心にして、バウンス機構部202に対して相対的に回動可能なようにバウンス機構部202に連結されている。そして、ストロボヘッド部203はユーザによる手動の回動操作やバウンス駆動モータ215bによって回動される。前述したように、ストロボ本体部201のカメラ接続部207が設けられている側の面を下面、本体部操作面201aを背面とすると、ストロボヘッド部203はバウンス機構部202に対して相対的に上下方向に回動可能である。以上のことから、ストロボヘッド部203は、ストロボ本体部201に対して相対的に左右方向及び上下方向に回動可能であると言える。なお、図1(a)に示すような、軸AがY軸に平行であり軸BがZ軸に平行な状態をストロボヘッド部203の基準位置とすると、基準位置において発光部205から照射される光の中心軸(発光部205からの光の照射方向の中心)はX軸と平行になる。また、本実施形態では、ストロボヘッド部203は、ストロボ本体部201に対して基準位置から右方向に180度、左方向に180度、上方向に120度、下方向に0度の範囲で回動可能であるとする。   In the state shown in FIG. 1A, the strobe head unit 203 is arranged on the bounce mechanism unit 202 so as to be rotatable relative to the bounce mechanism unit 202 about the axis B parallel to the Z axis. It is connected. The strobe head unit 203 is rotated by a manual rotation operation by the user or a bounce drive motor 215b. As described above, when the surface of the strobe main body 201 on the side where the camera connection unit 207 is provided is the lower surface and the main body operation surface 201a is the rear surface, the strobe head unit 203 is relative to the bounce mechanism unit 202. It can be rotated in the vertical direction. From the above, it can be said that the strobe head unit 203 is rotatable in the left-right direction and the up-down direction relative to the strobe body unit 201. As shown in FIG. 1A, when the reference position of the strobe head unit 203 is such that the axis A is parallel to the Y axis and the axis B is parallel to the Z axis, the light emitting unit 205 emits light at the reference position. The central axis of the light (the center in the direction of light irradiation from the light emitting unit 205) is parallel to the X axis. In the present embodiment, the strobe head unit 203 rotates within a range of 180 degrees from the reference position to the right, 180 degrees to the left, 120 degrees to the top, and 0 degrees to the bottom with respect to the strobe body section 201. It is assumed that it can move.

ヘッド角度検出部206は、位相パターンを有する基板と接点ブラシで構成される回動角度検出センサで、ストロボ本体部201に対するストロボヘッド部203の相対的な回動角度を検出し、ストロボMPU204に出力する。   The head angle detection unit 206 is a rotation angle detection sensor composed of a substrate having a phase pattern and a contact brush. The head angle detection unit 206 detects a relative rotation angle of the strobe head unit 203 with respect to the strobe body unit 201 and outputs the detected rotation angle to the strobe MPU 204. To do.

測距用測光部208は、発光部205の光を照射された物体からの反射光を測距用測光部208が有する受光センサで測定し、測定結果をストロボMPU204に出力する。測距用測光部208の受光センサは、発光部205の光を照射された物体からの反射光を測定しやすい位置(例えばストロボヘッド部203の先端部)に、発光部205からの光の照射方向に受光面が向くように設けられている。   The distance measuring photometry unit 208 measures the reflected light from the object irradiated with the light from the light emitting unit 205 by the light receiving sensor of the distance measuring photometry unit 208 and outputs the measurement result to the flash MPU 204. The light receiving sensor of the ranging photometry unit 208 irradiates light from the light emitting unit 205 at a position where the reflected light from the object irradiated with the light from the light emitting unit 205 can be easily measured (for example, the tip of the strobe head unit 203). It is provided so that the light receiving surface faces in the direction.

ストロボMPU204は、測距用測光部208の測定結果に基づいて、発光部205の光を照射された物体の距離を算出する。例えば、基準距離に位置する基準反射率の物体に対して基準発光量で発光部205の光を照射させたときに測距用測光部208で測定される測定結果を予め実験などで求めてストロボMPU204が内蔵するメモリに記憶させておく。そして、ストロボMPU204は、実際の発光部205の発光量と実際に測距用測光部208で測定された測定結果とに基づいて、物体が基準反射率であった場合に位置する距離を算出する。このように算出された距離を発光部205の光を照射された物体の距離とすることで、測距用測光部208の測定結果に基づいて、発光部205の光を照射された物体の距離を算出することができる。なお、距離の算出方法はここで説明した方法に限定されず、例えば三角測距法やレーザー距離測定法など公知の別の方法を用いても構わない。   The strobe MPU 204 calculates the distance of the object irradiated with the light from the light emitting unit 205 based on the measurement result of the distance measuring photometry unit 208. For example, the measurement result measured by the distance measuring photometry unit 208 when the light of the light emitting unit 205 is irradiated with the reference light emission amount to the object having the reference reflectivity located at the reference distance is obtained in advance by an experiment or the like to obtain the strobe. The data is stored in a memory built in the MPU 204. Then, the strobe MPU 204 calculates the distance at which the object is located when the object has the reference reflectance based on the actual light emission amount of the light emitting unit 205 and the measurement result actually measured by the distance measuring photometry unit 208. . The distance calculated in this way is used as the distance of the object irradiated with the light from the light emitting unit 205, so that the distance of the object irradiated with the light from the light emitting unit 205 based on the measurement result of the photometry unit 208 for distance measurement. Can be calculated. The distance calculation method is not limited to the method described here, and other known methods such as a triangulation method and a laser distance measurement method may be used.

このようにして測距用測光部208の測定結果に基づいて算出された物体の距離は、バウンス角度演算部211でのオートバウンス駆動制御時のストロボヘッド部203の角度決定に用いられる。例えば、ストロボMPU204によって測距用測光部208を用いて被写体の距離を算出するとともにバウンス発光撮影時に発光部205からの光を反射させる反射体の距離を算出する。そして、バウンス角度演算部211は、算出された被写体の距離と反射体の距離とに基づいて、バウンス発光撮影に最適なストロボヘッド部203の角度(発光部205からの光の照射方向)を決定する。ここで、被写体の距離をD、反射体の距離をd、最適な照射方向となるストロボヘッド部203の基準位置からの回動角度をθとして、以下の式(1)にて決定する。
θ=tan−1(2d/D) ・・・(1)
The object distance calculated based on the measurement result of the distance measuring photometry unit 208 in this way is used to determine the angle of the strobe head unit 203 during auto bounce drive control in the bounce angle calculation unit 211. For example, the strobe MPU 204 calculates the distance of the subject using the distance measuring photometry unit 208 and calculates the distance of the reflector that reflects the light from the light emitting unit 205 during bounce flash photography. Then, the bounce angle calculation unit 211 determines the angle of the strobe head unit 203 (light irradiation direction from the light emitting unit 205) that is optimal for bounce flash photography based on the calculated subject distance and reflector distance. To do. Here, the distance of the subject is D, the distance of the reflector is d, and the rotation angle from the reference position of the strobe head unit 203 that is the optimum irradiation direction is θ, which is determined by the following equation (1).
θ = tan −1 (2d / D) (1)

なお、ストロボヘッド部203の角度の決定方法はここで説明した方法に限定されず、公知の別の方法を用いても構わない。   Note that the method of determining the angle of the strobe head unit 203 is not limited to the method described here, and another known method may be used.

バウンス駆動制御部209は、ストロボMPU204からの信号に従って、バウンス駆動モータ215a、215bを制御することにより、ストロボヘッド部203をストロボ本体部201に対して左右方向や上下方向に回動させる。   The bounce drive control unit 209 controls the bounce drive motors 215a and 215b according to the signal from the strobe MPU 204 to rotate the strobe head unit 203 in the left and right direction and the up and down direction with respect to the strobe body unit 201.

近接検知センサ212は、公知の赤外線センサや超音波距離センサなどの、所定の検知範囲内にある物体を検知するセンサであり、図1(a)、(b)に示すように、ストロボ本体部201の本体部操作面201aの左右方向の中心に配置される。また、近接検知センサ212は、カメラ接続部207の上方であって、本体部操作面201aに設けられた各種操作部材や表示部材近傍の下方に配置される。すなわち、近接検知センサ212は、ストロボ本体部201を撮像装置に装着している状態にて、ストロボ本体部201における被写体側の面とは反対側の面に配置されている。また、近接検知センサ212は、ストロボ本体部201における近接検知センサ212が設けられている側から見て、ストロボ本体部201の左右方向の中心に配置されている。また、近接検知センサ212は、カメラ接続部207よりもストロボヘッド部203に近い位置に配置されている。   The proximity detection sensor 212 is a sensor that detects an object within a predetermined detection range, such as a known infrared sensor or an ultrasonic distance sensor. As shown in FIGS. The main body unit operation surface 201 a is disposed at the center in the left-right direction. Further, the proximity detection sensor 212 is disposed above the camera connection unit 207 and below various operation members and display members provided on the main body unit operation surface 201a. That is, the proximity detection sensor 212 is disposed on the surface of the strobe body 201 opposite to the subject side in a state where the strobe body 201 is mounted on the imaging apparatus. Further, the proximity detection sensor 212 is disposed at the center in the left-right direction of the strobe body 201 when viewed from the side where the proximity detection sensor 212 is provided in the strobe body 201. Further, the proximity detection sensor 212 is disposed at a position closer to the strobe head unit 203 than the camera connection unit 207.

近接検知センサ212は、物体を検知した場合は「近接物あり」を示す検知結果をストロボMPU204に出力する。なお、近接検知センサ212は、物体を検知していない場合に「近接物なし」を示す検知結果をストロボMPU204に出力してもよい。   When the proximity detection sensor 212 detects an object, the proximity detection sensor 212 outputs a detection result indicating “there is a proximity object” to the flash MPU 204. The proximity detection sensor 212 may output a detection result indicating “no proximity object” to the flash MPU 204 when no object is detected.

また、近接検知センサ212には、図3に示すように検知範囲212aがあり、近接検知センサ212の位置からの所定方向の距離が所定値未満の範囲を検知範囲212aとする。ただし、検知範囲が広すぎるとユーザがカメラ100のファインダから顔を離している状態でもユーザの顔を検知してしまうので、例えば近接検知センサ212の位置から10cmくらいまでを検知範囲とするのが好ましい。また、検知範囲212aの中心は、本体部操作面201aに対して下方に傾いている。具体的には、ストロボヘッド部203がストロボ本体部201に対して基準位置にある状態において発光部205から照射される光の中心軸と平行で近接検知センサ212を通る軸Oに対して角度αだけ検知範囲212aの中心が下方に傾けて設定されている。   Further, the proximity detection sensor 212 has a detection range 212a as shown in FIG. 3, and a range in which the distance in the predetermined direction from the position of the proximity detection sensor 212 is less than a predetermined value is set as the detection range 212a. However, if the detection range is too wide, the user's face is detected even when the user is away from the viewfinder of the camera 100. Therefore, for example, the detection range is about 10 cm from the position of the proximity detection sensor 212. preferable. The center of the detection range 212a is inclined downward with respect to the main body operation surface 201a. Specifically, the angle α with respect to the axis O passing through the proximity detection sensor 212 in parallel with the central axis of the light emitted from the light emitting unit 205 when the strobe head unit 203 is at the reference position with respect to the strobe body unit 201. Only the center of the detection range 212a is set to be inclined downward.

このように検知範囲212aを下方に傾けることにより、ユーザがカメラ100のファインダを覗き込んでいるときにユーザを検知範囲に入りやすくしている。なお、近接検知センサ212の傾き角度αは、検知範囲212aの範囲や、カメラ100からの近接検知センサ212の距離を考慮して、5度以上45度以下の角度で設定されることが望ましい。そうすることで、ユーザがカメラ100を構える姿勢(ストロボ装置200の姿勢)によらず、ユーザがカメラ100のファインダを覗き込んでいるときにユーザを精度よく検知することができる。   Thus, by tilting the detection range 212a downward, the user can easily enter the detection range when the user is looking into the viewfinder of the camera 100. The inclination angle α of the proximity detection sensor 212 is preferably set at an angle of 5 degrees or more and 45 degrees or less in consideration of the range of the detection range 212a and the distance of the proximity detection sensor 212 from the camera 100. By doing so, the user can be accurately detected when the user is looking into the viewfinder of the camera 100 regardless of the posture in which the user holds the camera 100 (the posture of the strobe device 200).

なお、上記では、近接検知センサ212は所定の検知範囲内にある物体を検知するためのセンサと説明しているが、物体までの距離を測定するセンサも、測定した距離から物体が所定の検知範囲内にあるか否かがわかるので、近接検知センサ212に含まれる。このような物体までの距離を測定するセンサの場合、センサの測定結果(センサの出力)に基づいてストロボMPU204が「近接物あり」か「近接物なし」を判定すればよい。   In the above description, the proximity detection sensor 212 is described as a sensor for detecting an object within a predetermined detection range, but the sensor for measuring the distance to the object also detects the object from the measured distance. Since it is known whether or not it is within the range, it is included in the proximity detection sensor 212. In the case of a sensor that measures the distance to such an object, the strobe MPU 204 may determine whether there is a proximity object or no proximity object based on the sensor measurement result (sensor output).

オートバウンス駆動開始ボタン213は、バウンス発光撮影に適したストロボヘッド部203の角度(発光部205からの光の照射方向)を決定するための動作(以下、オートバウンス動作とする)を開始させるためにユーザによって操作される。   The auto bounce drive start button 213 starts an operation (hereinafter referred to as an auto bounce operation) for determining an angle of the strobe head unit 203 (light irradiation direction from the light emitting unit 205) suitable for bounce flash photography. Operated by the user.

次に、本実施形態に係る撮像装置であるカメラ100について、図5を用いて説明する。   Next, the camera 100 that is the imaging apparatus according to the present embodiment will be described with reference to FIG.

マイクロコントローラ(以下カメラMPU)101は、撮影シーケンスなどカメラ100全体を制御する。   A microcontroller (hereinafter referred to as camera MPU) 101 controls the entire camera 100 such as a shooting sequence.

撮像素子103は、被写体からの光を光電変換して電荷を蓄積するCCDやCMOS等の撮像素子である。タイミング信号発生回路102は、撮像素子103を動作させるために必要なタイミング信号を発生する。A/D変換器104は、撮像素子103から読み出されたアナログ画像データをデジタル画像データに変換する。メモリコントローラ105は、メモリの読み書きやバッファメモリ106のリフレッシュ動作などを制御するためのコントローラである。   The image sensor 103 is an image sensor such as a CCD or CMOS that photoelectrically converts light from a subject and accumulates electric charges. The timing signal generation circuit 102 generates a timing signal necessary for operating the image sensor 103. The A / D converter 104 converts analog image data read from the image sensor 103 into digital image data. The memory controller 105 is a controller for controlling reading / writing of the memory, refresh operation of the buffer memory 106, and the like.

画像表示部107は、バッファメモリに蓄えられた画像データ、記憶媒体109に記録された画像データ、メニュー画面などを表示する液晶パネルや有機ELパネルであり、カメラ100の背面に設けられている。また、画像表示部107は、撮像素子103で連続的に撮像して得られた撮像画像を逐次表示する機能、いわゆるライブビュー機能も実行可能である。インターフェース108は、記録媒体との接続のためのインターフェースであり、記憶媒体109は、メモリカードやハードディスクなどの画像データが記録可能な記憶媒体である。   The image display unit 107 is a liquid crystal panel or an organic EL panel that displays image data stored in the buffer memory, image data recorded in the storage medium 109, a menu screen, and the like, and is provided on the back surface of the camera 100. The image display unit 107 can also execute a function of sequentially displaying captured images obtained by continuously capturing images with the image sensor 103, a so-called live view function. The interface 108 is an interface for connection with a recording medium, and the storage medium 109 is a storage medium capable of recording image data such as a memory card or a hard disk.

モータ制御部110は、カメラMPU101からの信号に従って不図示のモータを制御することにより、不図示のミラーのアップ・ダウンを行わせる。シャッター制御部111は、カメラMPU101からの信号に従って、不図示のメカニカルシャッターを走行させる。測光部112は、複数の測光エリア毎に測光センサ113で測光を行い得られた測光結果をカメラMPU101に出力する。カメラMPU101はこの輝度信号を不図示のA/D変換器により変換を行い、露出制御のためのAV(絞り値)、TV(シャッタースピード)、ISO(撮像素子の感度)等の露出制御値の演算を行う。また測光部112は同様に、内蔵ストロボ119、または着脱可能なストロボ装置200にて被写体へ向けて予備(プリ)発光した時の輝度信号をカメラMPU101に出力し、撮影時の発光量の演算も行う。   The motor control unit 110 controls a motor (not shown) according to a signal from the camera MPU 101, thereby causing the mirror (not shown) to be raised and lowered. The shutter control unit 111 causes a mechanical shutter (not shown) to travel according to a signal from the camera MPU 101. The photometric unit 112 outputs the photometric result obtained by performing photometry with the photometric sensor 113 for each of a plurality of photometric areas to the camera MPU 101. The camera MPU 101 converts this luminance signal by an A / D converter (not shown), and sets exposure control values such as AV (aperture value), TV (shutter speed), ISO (image sensor sensitivity) for exposure control. Perform the operation. Similarly, the photometry unit 112 outputs a luminance signal when the pre-flash is emitted toward the subject with the built-in flash 119 or the detachable flash device 200 to the camera MPU 101, and calculates the light emission amount at the time of shooting. Do.

レンズ制御部114は、不図示のレンズマウント接点を介して接続された撮影レンズのレンズMPUと通信し、撮影レンズ内のレンズ駆動モータ及びレンズ絞りモータを動作させ、撮影レンズの焦点調節と絞りを制御している。115は焦点検出部で、従来の位相差検出方式等を用いて、AF(オートフォーカス)のための被写体に対するデフォーカス量を検出する機能を有する。なお、撮影レンズが取り外しできないレンズ内蔵型の撮像装置でもよい。   The lens control unit 114 communicates with the lens MPU of the photographic lens connected via a lens mount contact (not shown), operates the lens drive motor and the lens aperture motor in the photographic lens, and adjusts the focus and aperture of the photographic lens. I have control. A focus detection unit 115 has a function of detecting a defocus amount with respect to a subject for AF (autofocus) using a conventional phase difference detection method or the like. It should be noted that an imaging device with a built-in lens in which the taking lens cannot be removed may be used.

姿勢検出部116は、ジャイロセンサなどを用いて撮影光軸を中心とした回転方向に対するカメラ100の傾きを検出する。スイッチ操作部117は、第1ストロークでSW1がONとなり、SW1がONとなったことを検知することでカメラMPU101はAFおよび測光を開始させる。また、スイッチ操作部117は、第2ストロークでSW2がONとなり、SW2がONとなったことを検知することでカメラMPU101は撮影を開始させる。   The posture detection unit 116 detects the tilt of the camera 100 with respect to the rotation direction around the photographing optical axis using a gyro sensor or the like. When the switch operation unit 117 detects that SW1 is turned on in the first stroke and SW1 is turned on, the camera MPU 101 starts AF and photometry. Further, the switch operation unit 117 detects that the SW2 is turned on in the second stroke and the SW2 is turned on, so that the camera MPU 101 starts photographing.

ストロボ制御部118は、カメラMPU101からの信号に従って内蔵ストロボ119または着脱可能なストロボ装置200の制御を行う。また、カメラMPU101は、内蔵ストロボ119や着脱可能なストロボ装置200との通信はストロボ制御部118を介して行う。なお、ストロボ制御部118には、前述したストロボ装置200のカメラ接続部207と接続可能なアクセサリシューが含まれている。カメラ接続部207と接続可能なアクセサリシューは、カメラ100の上面に設けられている。   The strobe control unit 118 controls the built-in strobe 119 or the detachable strobe device 200 in accordance with a signal from the camera MPU 101. The camera MPU 101 communicates with the built-in strobe 119 and the removable strobe device 200 via the strobe control unit 118. The strobe control unit 118 includes an accessory shoe that can be connected to the camera connection unit 207 of the strobe device 200 described above. An accessory shoe that can be connected to the camera connection unit 207 is provided on the upper surface of the camera 100.

ファインダ120は、撮影レンズを通って入射し不図示のミラーにより反射された被写体像を観察するための被写体観察部であり、ファインダ120を覗くことで構図を確認することができる。ファインダ120は、ユーザが撮影する姿勢において覗きやすいように、カメラ100の背面の上部に設けられている。本実施形態では、カメラ100のアクセサリシュー及びファインダ120は、カメラ100の左右方向における中心に設けられているものとする。なお、ファインダ120は、不図示のミラーにより反射された被写体像を観察するいわゆる光学ファインダではなく、撮像素子103あるいは撮像素子103とは別に設けられた撮像素子で撮影して得られた画像を観察するいわゆる電子ファインダであってもよい。   The finder 120 is a subject observing unit for observing a subject image incident through the taking lens and reflected by a mirror (not shown), and the composition can be confirmed by looking through the finder 120. The viewfinder 120 is provided in the upper part of the back surface of the camera 100 so that the user can easily peep in the posture for photographing. In the present embodiment, it is assumed that the accessory shoe and finder 120 of the camera 100 are provided at the center of the camera 100 in the left-right direction. Note that the finder 120 is not a so-called optical finder for observing a subject image reflected by a mirror (not shown), but observes an image obtained by photographing with an image sensor 103 or an image sensor provided separately from the image sensor 103. A so-called electronic finder may be used.

次に、ストロボ装置200の姿勢と近接検知センサ212の検知範囲212aとの関係について図6を用いて説明する。図6(a)は、検知範囲212aを傾けずにカメラ100の上下方向を重力方向と平行にした状態の検知範囲212aとユーザの位置関係を示す図である。図6(b)は、検知範囲212aを傾けずにカメラ100の上下方向を重力方向と直交させた状態の検知範囲212aとユーザの位置関係を示す図である。図6(c)は、検知範囲212aを傾けてカメラ100の上下方向を重力方向と平行にした状態の検知範囲212aとユーザの位置関係を示す図である。図6(d)は、検知範囲212aを傾けてカメラ100の上下方向を重力方向と直交させた状態の検知範囲212aとユーザの位置関係を示す図である。以下では、上下方向を重力方向と平行にした状態のカメラ100の姿勢を正位置、上下方向を重力方向と直交させた状態のカメラ100の姿勢を縦位置とする。   Next, the relationship between the posture of the strobe device 200 and the detection range 212a of the proximity detection sensor 212 will be described with reference to FIG. FIG. 6A is a diagram illustrating the positional relationship between the detection range 212a and the user in a state where the vertical direction of the camera 100 is parallel to the direction of gravity without tilting the detection range 212a. FIG. 6B is a diagram illustrating a positional relationship between the detection range 212a and the user in a state where the vertical direction of the camera 100 is orthogonal to the gravity direction without tilting the detection range 212a. FIG. 6C is a diagram illustrating a positional relationship between the detection range 212a and the user in a state where the detection range 212a is inclined and the vertical direction of the camera 100 is parallel to the gravity direction. FIG. 6D is a diagram illustrating a positional relationship between the detection range 212a and the user in a state where the detection range 212a is tilted and the vertical direction of the camera 100 is orthogonal to the direction of gravity. Hereinafter, the posture of the camera 100 in a state where the vertical direction is parallel to the gravity direction is a normal position, and the posture of the camera 100 in a state where the vertical direction is orthogonal to the gravity direction is a vertical position.

図6(a)に示すように正位置の状態では、ユーザPがファインダ120を覗くとユーザが検知範囲212aに入るため、ストロボ装置200の近傍にいるユーザを検知することができる。一方、図6(b)に示すように縦位置の状態では、ユーザPがファインダ120を覗くとユーザが検知範囲212aの中心から外れるため、ストロボ装置200の近傍にいるユーザを検知できない場合がある。   As shown in FIG. 6A, in the normal position state, when the user P looks into the viewfinder 120, the user enters the detection range 212a, so that the user in the vicinity of the strobe device 200 can be detected. On the other hand, in the vertical position as shown in FIG. 6B, when the user P looks into the viewfinder 120, the user is out of the center of the detection range 212 a, and thus a user in the vicinity of the strobe device 200 may not be detected. .

これらに対して、検知範囲212aを下方に傾けると、図6(c)、(d)に示すように正位置でも縦位置でも、ユーザPがファインダ120を覗くとユーザが検知範囲212aの中心に入る。そのため、ストロボ装置200の近傍にいるユーザを精度よく検知することができる。   On the other hand, when the detection range 212a is tilted downward, as shown in FIGS. 6C and 6D, when the user P looks into the viewfinder 120 in the normal position or the vertical position, the user is centered on the detection range 212a. enter. Therefore, a user in the vicinity of the flash device 200 can be detected with high accuracy.

次に、ストロボ装置200に対するユーザの操作について図7を用いて説明する。   Next, a user operation on the strobe device 200 will be described with reference to FIG.

前述したように、ストロボ装置200の背面には、オートバウンス駆動開始ボタン213などの各種操作部材や表示部材が設けられている。   As described above, various operation members and display members such as the auto bounce drive start button 213 are provided on the back surface of the strobe device 200.

そのため、ユーザがオートバウンス駆動開始ボタン213を操作するときに、ユーザの手が検知範囲212aに入ってしまうと、ライブビュー撮影状態であっても、ユーザがファインダ120を覗いているファインダ撮影状態と誤検知してしまう可能性がある。そこで図7(a)、(b)に示すように、ユーザがオートバウンス駆動開始ボタン213を操作するときに、ユーザの手が検知範囲212aに入りにくい位置に、オートバウンス駆動開始ボタン213を配置することが望ましい。   Therefore, when the user operates the auto bounce drive start button 213, if the user's hand enters the detection range 212a, the viewfinder shooting state in which the user is looking into the viewfinder 120 even in the live view shooting state. There is a possibility of false detection. Therefore, as shown in FIGS. 7A and 7B, when the user operates the auto bounce drive start button 213, the auto bounce drive start button 213 is arranged at a position where the user's hand is difficult to enter the detection range 212a. It is desirable to do.

図7(a)では、オートバウンス駆動開始ボタン213を、本体部操作面201a内で、ユーザから見て近接検知センサ212から左上の方向に離れた位置に配置している。そうすることで、ユーザがカメラ100の右側面近傍に設けられたグリップ部分を右手で持ちながら、手が検知範囲212aに入ることなく左手で容易にオートバウンス駆動開始ボタン213を操作することができる。   In FIG. 7A, the auto bounce drive start button 213 is disposed in a position away from the proximity detection sensor 212 in the upper left direction when viewed from the user in the main body operation surface 201a. By doing so, the user can easily operate the auto bounce drive start button 213 with the left hand without the hand entering the detection range 212a while holding the grip portion provided in the vicinity of the right side of the camera 100 with the right hand. .

また、図7(b)では、オートバウンス駆動開始ボタン213をストロボ本体部201の左側面に配置している。図7(b)に示す位置でも図7(a)に示す位置と同様に、ユーザがカメラ100の右側面近傍に設けられたグリップ部分を右手で持ちながら、手が検知範囲212aに入ることなく左手で容易にオートバウンス駆動開始ボタン213を操作することができる。すなわち、近接検知センサ212は、ストロボ本体部201における近接検知センサ212が設けられている側から見て、ストロボ本体部201におけるオートバウンス駆動開始ボタン213が設けられている位置よりも右側の位置に配置されている。また、近接検知センサ212は、ストロボ本体部201における近接検知センサ212が設けられている側から見て、ストロボ本体部201におけるオートバウンス駆動開始ボタン213が設けられている位置よりも下側の位置に配置されている。   In FIG. 7B, the auto bounce drive start button 213 is arranged on the left side surface of the strobe main body 201. 7B, similarly to the position shown in FIG. 7A, the user does not enter the detection range 212a while holding the grip portion provided near the right side surface of the camera 100 with the right hand. The auto bounce drive start button 213 can be easily operated with the left hand. That is, the proximity detection sensor 212 is located at a position on the right side of the strobe body 201 where the auto bounce drive start button 213 is provided as viewed from the side where the proximity detection sensor 212 is provided. Has been placed. Further, the proximity detection sensor 212 is a position below the position where the auto bounce drive start button 213 is provided in the strobe body 201 as viewed from the side where the proximity detection sensor 212 is provided in the strobe body 201. Is arranged.

なお、本実施形態では、オートバウンス駆動開始ボタン213の配置例を説明したが、近接検知センサ212の検知結果に基づいて制御される動作に対応する操作部材について、同様の考え方に基づいて配置すれば、誤動作を防止することができる。   In this embodiment, the arrangement example of the auto bounce drive start button 213 has been described. However, the operation member corresponding to the operation controlled based on the detection result of the proximity detection sensor 212 is arranged based on the same concept. Malfunction can be prevented.

次に、バウンス発光撮影に関する動作について図8、9を用いて説明する。   Next, operations related to bounce flash photography will be described with reference to FIGS.

図8は、カメラ100の動作フローチャートを示しており、図9は、ストロボ装置200の動作フローチャートを示している。   FIG. 8 shows an operation flowchart of the camera 100, and FIG. 9 shows an operation flowchart of the strobe device 200.

まず、バウンス発光撮影に関するカメラ100の動作を図8を用いて説明する。図8は、カメラ100の動作モードが撮影モードに設定されている状態にて繰り返し実行される。また、カメラ100は、アクセサリシューによってストロボ装置200と接続されているものとする。   First, the operation of the camera 100 related to bounce flash photography will be described with reference to FIG. FIG. 8 is repeatedly executed in a state where the operation mode of the camera 100 is set to the shooting mode. The camera 100 is connected to the strobe device 200 by an accessory shoe.

ステップS101にて、カメラMPU101はスイッチ操作部117のSW1の状態検知を行い、ONの場合はステップS102へ移行し、OFFの場合はSW1の状態検知を継続する。   In step S101, the camera MPU 101 detects the state of SW1 of the switch operation unit 117. If it is ON, the process proceeds to step S102, and if it is OFF, SW1 state detection is continued.

ステップS102にて、カメラMPU101は、焦点検出部115及びレンズ制御部114を制御してAF処理(オートフォーカス処理)を行わせる。   In step S102, the camera MPU 101 controls the focus detection unit 115 and the lens control unit 114 to perform AF processing (autofocus processing).

ステップS103にて、カメラMPU101は、測光部112を制御して測光処理を行う。また、カメラMPU101は、測光部112の測光結果に基づいて、露出制御のためのAV(絞り値)、TV(シャッタースピード)、ISO(撮像素子の感度)等の露出制御値の演算を行う。   In step S103, the camera MPU 101 controls the photometry unit 112 to perform photometry processing. The camera MPU 101 also calculates exposure control values such as AV (aperture value), TV (shutter speed), and ISO (image sensor sensitivity) for exposure control based on the photometric result of the photometric unit 112.

ステップS104にて、カメラMPU101は、ストロボ制御部118を介してストロボ装置200に対してオートバウンス動作の開始指示を送信する。   In step S104, the camera MPU 101 transmits an auto bounce operation start instruction to the flash device 200 via the flash control unit 118.

ステップS105にて、カメラMPU101は、ストロボ装置200からのオートバウンス動作の終了通知のチェックを行う。終了通知を取得していれば、オートバウンス終了としてステップS106へ移行し、取得してなければ終了通知のチェックを継続する。   In step S105, the camera MPU 101 checks for an end notification of the auto bounce operation from the strobe device 200. If the end notification has been acquired, the process proceeds to step S106 as the end of auto bounce, and if not acquired, the end notification is continuously checked.

ステップS106にて、カメラMPU101は、スイッチ操作部117のSW2の状態検知を行い、ONの場合はステップS108へ移行し、OFFの場合はステップS107へ移行する。   In step S106, the camera MPU 101 detects the state of SW2 of the switch operation unit 117. If it is ON, the process proceeds to step S108, and if it is OFF, the process proceeds to step S107.

ステップS107にて、カメラMPU101は、ステップS101と同様にSW1の状態検知を行い、ONの場合はステップS106へ移行し、OFFの場合はステップS101へ移行する。   In step S107, the camera MPU 101 detects the state of SW1 in the same manner as in step S101. If it is ON, the process proceeds to step S106. If it is OFF, the process proceeds to step S101.

ステップS108にて、カメラMPU101は、予備発光処理を行う。予備発光処理として、まず、カメラMPU101は、ストロボ制御部118に対して予備発光を指示する。ストロボ制御部118は、ストロボ装置200に対して所定光量での予備発光の指示を送信し、ストロボ装置200で予備発光が開始される。カメラMPU101はこの予備発光した時の測光部112で得られた測光値に基づいて撮影時の発光量を算出する。   In step S108, the camera MPU 101 performs a preliminary light emission process. As the preliminary light emission processing, first, the camera MPU 101 instructs the flash control unit 118 to perform preliminary light emission. The strobe control unit 118 transmits an instruction for preliminary light emission with a predetermined light amount to the strobe device 200, and preliminary light emission is started in the strobe device 200. The camera MPU 101 calculates the light emission amount at the time of photographing based on the photometric value obtained by the photometric unit 112 when the preliminary light emission is performed.

次にステップS109にて、カメラMPU101は、モータ制御部110を制御して、不図示のミラーをアップさせる。ミラーをアップさせることで、撮影レンズを通ってきた光束がミラーに反射されず撮像素子103へと導かれる。   In step S109, the camera MPU 101 controls the motor control unit 110 to raise a mirror (not shown). By raising the mirror, the light beam that has passed through the photographing lens is guided to the image sensor 103 without being reflected by the mirror.

ステップS110にて、カメラMPU101は、撮像素子103での電荷の蓄積を開始させる。なお、この時点では、撮像素子103は不図示のメカニカルシャッターにより遮光されているので、電荷の蓄積を開始していても蓄積される電荷は無視できるレベルである。   In step S <b> 110, the camera MPU 101 starts charge accumulation in the image sensor 103. At this point, since the image sensor 103 is shielded from light by a mechanical shutter (not shown), the accumulated charge is at a level that can be ignored even if the accumulation of the charge is started.

ステップS111にて、カメラMPU101は、シャッター制御部111を制御して、不図示のメカニカルシャッターを走行させて撮像素子103が露光された状態にする。露光された状態の撮像素子103は、入射した光量に応じた電荷を蓄積する。   In step S111, the camera MPU 101 controls the shutter control unit 111 to drive a mechanical shutter (not shown) so that the image sensor 103 is exposed. The image sensor 103 in an exposed state accumulates electric charge according to the amount of incident light.

ステップS112にて、カメラMPU101は、本発光処理を行う。本発光処理として、カメラMPU101は、ストロボ制御部118に対してステップS108で算出された発光量での本発光を指示する。ストロボ制御部118は、ストロボ装置200に対して算出された発光量での本発光指示を送信し、ストロボ装置200で本発光が開始される。なお、このとき、発光撮影用にステップS103で演算された露出制御値を用いて露出制御を行う。   In step S112, the camera MPU 101 performs a main light emission process. As the main light emission processing, the camera MPU 101 instructs the flash control unit 118 to perform main light emission with the light emission amount calculated in step S108. The strobe control unit 118 transmits a main light emission instruction with the calculated light emission amount to the strobe device 200, and the main light emission is started in the strobe device 200. At this time, exposure control is performed using the exposure control value calculated in step S103 for flash photography.

ステップS113にて、カメラMPU101は、シャッター制御部111を制御して、不図示のメカニカルシャッターを走行させて撮像素子103が遮光された状態にする。   In step S113, the camera MPU 101 controls the shutter control unit 111 to run a mechanical shutter (not shown) so that the image sensor 103 is shielded from light.

ステップS114にて、カメラMPU101は、撮像素子103での電荷の蓄積を終了させる。以上のように、撮像素子103で電荷の蓄積を行う期間は、撮像素子103が露光されている期間よりも長い期間となるが、前述したように、遮光された状態の撮像素子103で蓄積される電荷を無視できるレベルである。そのため、撮像素子103が露光されている期間を電荷蓄積期間としてもよく、撮像素子103が露光されている期間の長さ(露光時間)を電荷蓄積時間としてもよい。   In step S <b> 114, the camera MPU 101 ends the charge accumulation in the image sensor 103. As described above, the charge accumulation period in the image sensor 103 is longer than the period in which the image sensor 103 is exposed. However, as described above, the charge is accumulated in the light-shielded image sensor 103. This level is negligible. Therefore, the period during which the image sensor 103 is exposed may be defined as the charge accumulation period, and the length of the period during which the image sensor 103 is exposed (exposure time) may be defined as the charge accumulation period.

ステップS115にて、カメラMPU101は、モータ制御部110を制御して、不図示のミラーをダウンさせる。ミラーをダウンさせることで、撮影レンズを通ってきた光束がミラーに反射されて撮像素子103へと導かれず、ファインダ120へと導かれる。   In step S115, the camera MPU 101 controls the motor control unit 110 to lower a mirror (not shown). By lowering the mirror, the light beam that has passed through the photographing lens is reflected by the mirror and is not guided to the image sensor 103 but is guided to the viewfinder 120.

ステップS116にて、カメラMPU101は、撮像素子103から読み出されたアナログ画像データをA/D変換器104にデジタル画像データに変換させ、デジタル画像データをバッファメモリ106に一時記憶させる。全てのデジタル画像データがバッファメモリ106に記憶されると、カメラMPU101は、デジタル画像データに対して所定の現像処理を施し、画像データを作成する。   In step S <b> 116, the camera MPU 101 causes the A / D converter 104 to convert the analog image data read from the image sensor 103 into digital image data, and temporarily stores the digital image data in the buffer memory 106. When all the digital image data is stored in the buffer memory 106, the camera MPU 101 performs a predetermined development process on the digital image data to create image data.

ステップS117にて、カメラMPU101は、作成した画像データを記憶媒体I/F108を介して記憶媒体109に画像ファイルとして記録させ、一連の撮影処理を終了する。   In step S117, the camera MPU 101 records the created image data as an image file in the storage medium 109 via the storage medium I / F 108, and ends a series of shooting processes.

なお、ライブビュー機能を実行している場合は、ミラーはアップした状態なのでステップS109は省略される。さらに、シャッターも撮像素子103が露光された状態となっているので、ステップS111も省略される。また、発光撮影後にライブビュー機能を再開する場合は、ステップS113やステップS115を省略してもよい。   If the live view function is being executed, step S109 is omitted because the mirror is up. Furthermore, since the image pickup element 103 is also exposed in the shutter, step S111 is also omitted. Further, when the live view function is resumed after the flash photography, step S113 and step S115 may be omitted.

次に、バウンス発光撮影に関するストロボ装置200の動作について図9を用いて説明する。   Next, the operation of the strobe device 200 related to bounce flash photography will be described with reference to FIG.

ステップS201にて、ストロボMPU204は、カメラ100からのオートバウンス動作の開始指示のチェックを行う。図8のステップS104でカメラ100から送信される開始指示を取得していれば、ステップS202に移行し、取得していなければステップS201へと戻りオートバウンス動作の開始指示のチェックを継続する。   In step S201, the flash MPU 204 checks an auto bounce operation start instruction from the camera 100. If the start instruction transmitted from the camera 100 is acquired in step S104 of FIG. 8, the process proceeds to step S202. If not acquired, the process returns to step S201 to continue checking the start instruction of the auto bounce operation.

ステップS202にて、ストロボMPU204は、ヘッド角度検出部206により検出された、左右方向と上下方向のストロボヘッド部203の相対的な回動角度を取得する。この回動角度の検出結果は、カメラ100からのオートバウンス動作の開始指示を受信する直前の結果でも、カメラ100からのオートバウンス動作の開始指示を受信した後に新たに検出を行い得られた結果でもよい。   In step S202, the strobe MPU 204 acquires the relative rotation angles of the strobe head unit 203 in the left-right direction and the up-down direction detected by the head angle detection unit 206. The result of detection of the rotation angle is a result obtained by performing a new detection after receiving an instruction to start an auto bounce operation from the camera 100, even immediately before receiving an instruction to start an auto bounce operation from the camera 100. But you can.

ステップS203にて、ストロボMPU204は、近接検知センサ212の検知結果を取得する。この近接検知センサ212の検知結果は、カメラ100からのオートバウンス動作の開始指示を受信する直前の結果でも、カメラ100からのオートバウンス動作の開始指示を受信した後に新たに検知を行い得られた結果でもよい。   In step S203, the flash MPU 204 acquires the detection result of the proximity detection sensor 212. The detection result of the proximity detection sensor 212 can be newly detected after receiving the start instruction of the auto bounce operation from the camera 100, even the result immediately before receiving the start instruction of the auto bounce operation from the camera 100. The result may be acceptable.

ステップS204では、ストロボMPU204は、近接検知センサ212の検知結果に基づいて、ストロボヘッド部203を自動的に回動させるときの回動角度を制限する制限角度を設定する。   In step S <b> 204, the strobe MPU 204 sets a limit angle for limiting a rotation angle when the strobe head unit 203 is automatically rotated based on the detection result of the proximity detection sensor 212.

例えば、近接検知センサ212の検知結果が「近接物あり」を示す場合は、検知結果が「近接物あり」を示さない場合よりも、近接検知センサ212の近傍にユーザが存在する可能性が高い。そのため、検知結果が「近接物あり」を示す場合に、ストロボヘッド部203をストロボ装置200の背面側に大きく回動させると、発光部205からの光がストロボ装置200の背面側の近くにいるユーザに照射される可能性がある。そこで、検知結果が「近接物あり」を示す場合は、検知結果が「近接物あり」を示さない場合よりも制限角度を小さくし、ストロボ装置200の背面側に発光部205からの光が照射されにくくする。このように近接検知センサ212の検知結果に応じてストロボヘッド部203を自動的に回動させるときの回動角度を制限する制限角度を変更することで、照明装置からの光がユーザに照射されることを低減できる。   For example, when the detection result of the proximity detection sensor 212 indicates “there is a proximity object”, the user is more likely to be near the proximity detection sensor 212 than when the detection result does not indicate “there is a proximity object”. . For this reason, when the detection result indicates “There is a proximity object”, if the strobe head unit 203 is largely rotated to the back side of the strobe device 200, the light from the light emitting unit 205 is near the back side of the strobe device 200. The user may be irradiated. Therefore, when the detection result indicates “there is an adjacent object”, the limit angle is made smaller than when the detection result does not indicate “the adjacent object”, and light from the light emitting unit 205 is irradiated to the back side of the strobe device 200. Make it harder to be done. In this way, by changing the limit angle that limits the rotation angle when the strobe head unit 203 is automatically rotated according to the detection result of the proximity detection sensor 212, the light from the illumination device is irradiated to the user. Can be reduced.

また、別の制限角度の設定方法も考えられる。例えば、本実施形態のような近接検知センサ212の配置であれば、近接検知センサ212の検知結果が「近接物あり」を示す場合は、ユーザがカメラ100のファインダ120を覗いている可能性が高い。一方、近接検知センサ212の検知結果が「近接物あり」を示さない場合は、ユーザがカメラ100のファインダ120を覗いていないと考えられる。ユーザがカメラ100のファインダ120を覗いている場合のほうが、覗いていない場合よりも、ストロボヘッド部203をストロボ装置200の背面側に大きく回動させたときに、発光部205からの光がユーザに照射される可能性が低い。なぜなら、図6に示すように、ユーザがカメラ100のファインダ120を覗いている場合、ストロボヘッド部203をストロボ装置200の背面側に大きく回動させたとしても、ストロボヘッド部203がユーザと対向しないからである。   Another method of setting a limit angle is also conceivable. For example, in the case of the arrangement of the proximity detection sensor 212 as in the present embodiment, if the detection result of the proximity detection sensor 212 indicates “There is a proximity object”, the user may be looking into the finder 120 of the camera 100. high. On the other hand, when the detection result of the proximity detection sensor 212 does not indicate “there is a proximity object”, it is considered that the user has not looked into the finder 120 of the camera 100. When the user is looking through the viewfinder 120 of the camera 100, when the strobe head unit 203 is rotated to the back side of the strobe device 200, the light from the light emitting unit 205 is reflected by the user. Is less likely to be irradiated. This is because, as shown in FIG. 6, when the user is looking through the viewfinder 120 of the camera 100, the strobe head unit 203 faces the user even if the strobe head unit 203 is largely rotated to the back side of the strobe device 200. Because it does not.

そこで、検知結果が「近接物あり」を示さない場合は、検知結果が「近接物あり」を示す場合よりも制限角度を小さくし、ストロボ装置200の背面側に発光部205からの光が照射されにくくする。   Therefore, when the detection result does not indicate “there is an adjacent object”, the limit angle is made smaller than when the detection result indicates “there is an adjacent object”, and light from the light emitting unit 205 is irradiated on the back side of the strobe device 200. Make it harder to be done.

なお、検知結果が「近接物あり」を示す場合と「近接物あり」を示さない場合のうち、制限角度を大きくするほうはステップS204で制限角度を設定しなくてもよい。例えば、メカ構成により上方向に120度の範囲で回動可能である場合、ステップS204で電気的に制限角度を120度に設定しなくても、上方向の回動角度は120度に予め制限されているため、ステップS204は不要である。   Note that, in the case where the detection result indicates “with proximity object” and when “without proximity object” is not indicated, the restriction angle need not be set in step S204 to increase the restriction angle. For example, if it is possible to rotate in the range of 120 degrees upward due to the mechanical configuration, the upward rotation angle is limited to 120 degrees in advance even if the limit angle is not electrically set to 120 degrees in step S204. Therefore, step S204 is unnecessary.

以上のように、いずれの設定方法であっても、近接検知センサ212の検知結果に応じてストロボヘッド部203を自動的に回動させるときの回動角度を制限する制限角度を変更することで、照明装置からの光がユーザに照射されることを低減できる。   As described above, in any setting method, by changing the limit angle that limits the rotation angle when the strobe head unit 203 is automatically rotated according to the detection result of the proximity detection sensor 212. The light from the illumination device can be reduced from being irradiated to the user.

ステップS205にて、ストロボMPU204は、バウンス駆動制御部209に指示して、発光部205からの光の照射方向が重力方向と逆方向(天井方向)となるようにストロボヘッド部203を移動させる。   In step S205, the stroboscopic MPU 204 instructs the bounce drive control unit 209 to move the stroboscopic head unit 203 so that the irradiation direction of light from the light emitting unit 205 is opposite to the direction of gravity (ceiling direction).

そして、ストロボMPU204は、発光部205から光を照射させ、発光部205の光を照射させたときに測距用測光部208で測定される測定結果に基づいて、発光部205の光を照射された物体の距離を算出する。その後、ストロボMPU204は、カメラ100に発光部205の光を照射された物体の距離を算出する一連の動作が終了したことを示す終了通知をカメラ100に送信する。   The strobe MPU 204 is irradiated with light from the light emitting unit 205 based on a measurement result measured by the distance measuring photometry unit 208 when the light emitted from the light emitting unit 205 is irradiated. The distance of the selected object is calculated. Thereafter, the flash MPU 204 transmits to the camera 100 an end notification indicating that a series of operations for calculating the distance of the object irradiated with the light from the light emitting unit 205 has ended.

ステップS206にて、ストロボMPU204は、ストロボMPU204は、バウンス駆動制御部209に指示して、発光部205からの光の照射方向が撮影方向(正面方向)となるようにストロボヘッド部203を移動させる。なお、本実施形態では、ストロボヘッド部203の位置が基準位置にある場合に照射方向が撮影方向となる構成としている。そこで、ストロボMPU204は、ストロボ本体部201の姿勢に関する情報及び現在のストロボヘッド部203の位置に基づいて、照射方向を正面方向に向けるために必要なストロボヘッド部203の移動量を算出する。ストロボ本体部201の姿勢に関する情報は、姿勢検出部116の検出結果である。   In step S206, the stroboscopic MPU 204 instructs the bounce drive control unit 209 to move the stroboscopic head unit 203 so that the light irradiation direction from the light emitting unit 205 becomes the photographing direction (front direction). . In the present embodiment, when the position of the strobe head unit 203 is at the reference position, the irradiation direction is the shooting direction. Therefore, the strobe MPU 204 calculates the amount of movement of the strobe head unit 203 necessary to turn the irradiation direction to the front direction based on the information regarding the posture of the strobe body unit 201 and the current position of the strobe head unit 203. Information regarding the posture of the strobe body 201 is a detection result of the posture detector 116.

そして、ストロボMPU204は、発光部205から光を照射させ、発光部205の光を照射させたときに測距用測光部208で測定される測定結果に基づいて、発光部205の光を照射された物体の距離を算出する。その後、ストロボMPU204は、カメラ100に発光部205の光を照射された物体の距離を算出する一連の動作が終了したことを示す終了通知をカメラ100に送信する。   The strobe MPU 204 is irradiated with light from the light emitting unit 205 based on a measurement result measured by the distance measuring photometry unit 208 when the light emitted from the light emitting unit 205 is irradiated. The distance of the selected object is calculated. Thereafter, the flash MPU 204 transmits to the camera 100 an end notification indicating that a series of operations for calculating the distance of the object irradiated with the light from the light emitting unit 205 has ended.

ステップS207にて、ストロボMPU204は、バウンス角度演算部211に指示して、バウンス発光撮影に適したストロボヘッド部203の角度、つまりバウンス発光撮影用のストロボヘッド部203の角度(発光部205からの光の照射方向)を決定させる。バウンス角度演算部211は、ステップS204で設定された制限角度と、ステップS205、S206で得られた2つの方向の物体の距離とに基づいて、バウンス発光撮影用のストロボヘッド部203の角度を決定する。   In step S207, the flash MPU 204 instructs the bounce angle calculation unit 211 to determine the angle of the strobe head unit 203 suitable for bounce flash shooting, that is, the angle of the strobe head unit 203 for bounce flash shooting (from the flash unit 205). (Light irradiation direction) is determined. The bounce angle calculation unit 211 determines the angle of the strobe head unit 203 for bounce flash photography based on the limit angle set in step S204 and the distance between the objects in the two directions obtained in steps S205 and S206. To do.

このステップS207では、バウンス角度演算部211は、ステップS204で設定された制限角度を超えない範囲で、バウンス発光撮影用のストロボヘッド部203の角度を決定する。例えば、ステップS205、S206で得られた2つの距離に基づいて前述の式(1)により決定された角度が上方向に100度となる場合、ステップS204で設定された上方向の制限角度が90度であれば、ストロボヘッド部203の角度を90度に決定する。また、前述したようにステップS204で制限角度が設定されていない場合、メカ構成で制限される回動可能な範囲内でストロボヘッド部203の角度を決定する。   In step S207, the bounce angle calculation unit 211 determines the angle of the bounce light emission photographing strobe head unit 203 within a range that does not exceed the limit angle set in step S204. For example, when the angle determined by the above equation (1) based on the two distances obtained in steps S205 and S206 is 100 degrees in the upward direction, the upward limit angle set in step S204 is 90 degrees. If it is degrees, the angle of the strobe head unit 203 is determined to be 90 degrees. Further, as described above, when the limit angle is not set in step S204, the angle of the strobe head unit 203 is determined within a rotatable range limited by the mechanical configuration.

ステップS208にて、ストロボMPU204は、バウンス駆動制御部209に指示して、ストロボヘッド部203の角度がステップS207で決定した角度となるようにストロボヘッド部203を移動させる。その後、ストロボMPU204は、ステップS207で決定した角度となるようにストロボヘッド部203を移動させたことを示す終了通知をカメラ100に送信する。   In step S208, the strobe MPU 204 instructs the bounce drive control unit 209 to move the strobe head unit 203 so that the angle of the strobe head unit 203 becomes the angle determined in step S207. Thereafter, the flash MPU 204 transmits an end notification indicating that the flash head unit 203 has been moved to the angle determined in step S207 to the camera 100.

ステップS209にて、ストロボMPU204は、カメラ100からの発光指示のチェックを行う。カメラ100からの発光指示(予備発光指示または本発光指示)と当該発光時の発光量を取得していればステップS210へ移行し、取得していなければ発光指示のチェックを継続する。   In step S209, the flash MPU 204 checks a light emission instruction from the camera 100. If the light emission instruction (preliminary light emission instruction or main light emission instruction) from the camera 100 and the light emission amount at the time of the light emission are acquired, the process proceeds to step S210, and if not acquired, the light emission instruction is continuously checked.

ステップS210にて、ストロボMPU204は、指示された発光のパターン(予備発光または本発光)と当該発光量に基づいて発光部205を発光させる。   In step S210, the flash MPU 204 causes the light emitting unit 205 to emit light based on the instructed light emission pattern (preliminary light emission or main light emission) and the light emission amount.

ステップS211にて、ストロボMPU204は、ステップS209でチェックした発光指示が予備発光指示だった場合はステップS209へ戻り、ステップS209でチェックした発光指示が本発光指示だった場合はバウンス発光撮影に関する処理を終了する。   In step S211, the flash MPU 204 returns to step S209 if the light emission instruction checked in step S209 is a preliminary light emission instruction. If the light emission instruction checked in step S209 is a main light emission instruction, the flash MPU 204 performs processing related to bounce flash photography. finish.

以上のように、本実施形態では、ストロボ装置200の背面に近接検知センサ212を設け、近接検知センサ212の検知結果に応じてストロボヘッド部203を自動的に回動させるときの回動角度を制限する制限角度を変更している。そのため、照明装置からの光がユーザに照射されることを低減できる。また、近接検知センサ212の検知範囲を下方に傾けている。そのため、ストロボ装置200の使用時の姿勢によらず、近接検知センサ212によりカメラ100のファインダ120を覗くユーザを精度よく検知することができ、照明装置からの光がユーザに照射されることをより低減できる。   As described above, in this embodiment, the proximity detection sensor 212 is provided on the back of the flash device 200, and the rotation angle when the flash head unit 203 is automatically rotated according to the detection result of the proximity detection sensor 212 is set. The restriction angle to be restricted is changed. Therefore, it can reduce that the light from an illuminating device is irradiated to a user. Further, the detection range of the proximity detection sensor 212 is tilted downward. Therefore, the user who looks into the finder 120 of the camera 100 can be accurately detected by the proximity detection sensor 212 regardless of the posture at the time of using the strobe device 200, and the light from the illumination device is more radiated to the user. Can be reduced.

以下、図10を用いて、照明装置であるストロボ装置の変形例1について説明する。なお、以下の変形例1の説明では、上記の実施形態と異なる部分について詳細に説明し、上記の実施形態と同様の部分の説明については省略する。   Hereinafter, a first modification of the strobe device as the illumination device will be described with reference to FIG. Note that, in the following description of the first modification, portions different from the above embodiment will be described in detail, and descriptions of portions similar to the above embodiment will be omitted.

図10に示す変形例1では、ストロボ本体部201の本体部操作面201aの中で、カメラ接続部207の上方近傍で、かつ、ユーザから見て本体部操作面201aの中心から左側に所定の距離だけずれた位置に近接検知センサ212が配置される。   In the first modification shown in FIG. 10, a predetermined value is provided on the left side from the center of the main body operation surface 201 a in the vicinity of the upper portion of the camera connection unit 207 in the main body operation surface 201 a of the strobe main body 201. The proximity detection sensor 212 is arranged at a position shifted by the distance.

図3などを用いて説明したストロボ装置200では、近接検知センサ212は、カメラ接続部207の上方近傍で、かつ、本体部操作面201aの左右方向の中心に配置される。しかしながら、近接検知センサ212の検知範囲212aが撮影者Pを十分に検知できる範囲となるのであれば、図10に示すように左右方向にずらした位置に近接検知センサ212を配置してもよい。このように近接検知センサ212の配置に自由度を持たせることで、ストロボ装置200を小型化する上でより有利な配置とすることができる。   In the strobe device 200 described with reference to FIG. 3 and the like, the proximity detection sensor 212 is disposed near the upper part of the camera connection unit 207 and at the center in the left-right direction of the main body unit operation surface 201a. However, if the detection range 212a of the proximity detection sensor 212 is a range in which the photographer P can be sufficiently detected, the proximity detection sensor 212 may be disposed at a position shifted in the left-right direction as shown in FIG. In this way, by providing a degree of freedom in the arrangement of the proximity detection sensor 212, it is possible to make the arrangement more advantageous in reducing the size of the strobe device 200.

また、変形例1では、本体部操作面201aの中心から左側に所定の距離だけずれた位置に近接検知センサ212を配置したが、本体部操作面201aの中心から右側に所定の距離だけずれた位置に近接検知センサ212を配置してもよい。   Further, in the first modification, the proximity detection sensor 212 is disposed at a position shifted by a predetermined distance to the left from the center of the main body operation surface 201a. However, the proximity detection sensor 212 is shifted by a predetermined distance from the center of the main body operation surface 201a to the right. You may arrange | position the proximity detection sensor 212 in a position.

また、装着することが想定されるカメラのデザインなどを考慮して近接検知センサ212の配置を決定してもよい。例えば、カメラのアクセサリシューがカメラの背面側から見て撮影光軸よりも左側にずれている場合、このカメラのアクセサリシューに装着されたストロボ装置の位置も撮影光軸よりも左側にずれることになる。このような構成のカメラのファインダをユーザが覗くときには、右目で覗くよりも左目で覗いたほうがユーザの顔の位置と撮影光軸とのずれは小さく、ユーザがカメラを構えやすい。そのため、このような構成のカメラに装着されることを想定すると、本体部操作面201aの中心から左側にずれた位置に近接検知センサ212を配置するよりも左側にずれた位置に近接検知センサ212を配置するほうがユーザを精度よく検知することができる。あるいは、背面側から見たアクセサリシューの位置とファインダの位置とがずれているカメラに装着することが想定される場合、アクセサリシューの位置とファインダの位置の関係を考慮して近接検知センサ212の配置を決定してもよい。当該アクセサリシューに装着されたときに本体部操作面201aの中心からファインダに近い側にずれた位置に近接検知センサ212を配置したほうが、近接検知センサ212の検知範囲212aにファインダを覗いているユーザが入りやすい。   Further, the arrangement of the proximity detection sensor 212 may be determined in consideration of the design of the camera assumed to be mounted. For example, if the accessory shoe of the camera is shifted to the left of the shooting optical axis when viewed from the back side of the camera, the position of the strobe device attached to the accessory shoe of the camera is also shifted to the left of the shooting optical axis. Become. When the user looks into the viewfinder of the camera having such a configuration, the difference between the position of the user's face and the photographing optical axis is smaller when looking through the left eye than when looking through the right eye, and the user can easily hold the camera. Therefore, assuming that the camera is mounted on the camera having such a configuration, the proximity detection sensor 212 is located at a position shifted to the left rather than the proximity detection sensor 212 is disposed at a position shifted to the left from the center of the main body operation surface 201a. It is possible to detect the user more accurately by arranging the. Alternatively, when the camera is assumed to be attached to a camera in which the position of the accessory shoe and the position of the finder viewed from the rear side are shifted, the proximity detection sensor 212 is considered in consideration of the relationship between the position of the accessory shoe and the position of the finder. The arrangement may be determined. A user who looks into the detection range 212a of the proximity detection sensor 212 when the proximity detection sensor 212 is disposed at a position shifted from the center of the main body operation surface 201a to the side closer to the viewfinder when the accessory shoe is attached. Is easy to enter.

以上のように、近接検知センサ212の配置は、本体部操作面201aの左右方向の中心に限定されない。   As described above, the arrangement of the proximity detection sensor 212 is not limited to the center in the left-right direction of the main body unit operation surface 201a.

以下、図11を用いて、照明装置であるストロボ装置の変形例2について説明する。なお、以下の変形例2の説明では、上記の実施形態と異なる部分について詳細に説明し、第1の実施形態と同様の部分の説明については省略する。   Hereinafter, a second modification of the strobe device as the illumination device will be described with reference to FIG. Note that, in the following description of Modification Example 2, portions different from the above embodiment will be described in detail, and descriptions of portions similar to those of the first embodiment will be omitted.

図11に示す変形例2では、ストロボ本体部201の本体部操作面201aの中で、カメラ接続部207の上方近傍で、かつ、本体部操作面201aの中心を挟むように左右両側に近接検知センサ312、412が配置される。   In Modification 2 shown in FIG. 11, proximity detection is performed on both the left and right sides of the main body operation surface 201a of the strobe main body 201 in the vicinity of the upper part of the camera connection unit 207 and the center of the main body operation surface 201a. Sensors 312 and 412 are arranged.

変形例2のように複数の近接検知センサを設けることで検知可能な範囲が広くなり、ファインダ120を覗くユーザを精度よく検知することができる。なお、変形例2における近接検知センサ312、412は近接検知センサ212と同様のものでよい。また、変形例2では、近接検知センサを2つ設ける構成を近接検知センサを複数設ける構成例として説明したが、近接検知センサを3つ以上設ける構成でもよい。   By providing a plurality of proximity detection sensors as in Modification 2, the detectable range is widened, and a user looking through the finder 120 can be detected with high accuracy. Note that the proximity detection sensors 312 and 412 in Modification 2 may be the same as the proximity detection sensor 212. In the second modification, a configuration in which two proximity detection sensors are provided is described as a configuration example in which a plurality of proximity detection sensors are provided. However, a configuration in which three or more proximity detection sensors are provided may be used.

なお、上記の実施形態や変形例1、2でストロボ装置200で実行している処理をカメラ100で実行し、カメラ100でストロボ装置200に各種制御を行うようにしてもよい。例えば、発光部205の光を照射された物体からの反射光を測光部112が有する測光センサ113で測定して、測定結果に基づいてカメラMPU101で距離を算出する。そして、カメラMPU101でバウンス発光撮影に最適なストロボヘッド部203の角度を決定し、決定した角度となるようにカメラ100からストロボ装置200に指示を送信する。また、近接検知センサ212の検知結果をストロボ装置200から受け取り、受け取った情報に基づいてカメラMPU101で制限角度を設定する。設定した制限角度の範囲内でストロボヘッド部203を回動させるようにカメラ100からストロボ装置200に指示を送信する。すなわち、カメラ100が、近接検知センサ212の検知結果に応じてストロボヘッド部203を自動的に回動させるときの回動角度を制限する制限角度を変更するようにしてもよい。   It should be noted that the processing executed by the strobe device 200 in the above-described embodiment and modification examples 1 and 2 may be executed by the camera 100, and various controls may be performed on the strobe device 200 by the camera 100. For example, reflected light from an object irradiated with light from the light emitting unit 205 is measured by the photometric sensor 113 included in the photometric unit 112, and the distance is calculated by the camera MPU 101 based on the measurement result. Then, the camera MPU 101 determines the angle of the strobe head unit 203 that is optimal for bounce flash photography, and transmits an instruction from the camera 100 to the strobe device 200 so that the determined angle is obtained. Further, the detection result of the proximity detection sensor 212 is received from the strobe device 200, and the limit angle is set by the camera MPU 101 based on the received information. An instruction is transmitted from the camera 100 to the strobe device 200 so that the strobe head unit 203 is rotated within the set limit angle range. That is, the limit angle that limits the rotation angle when the camera 100 automatically rotates the strobe head unit 203 according to the detection result of the proximity detection sensor 212 may be changed.

また、上記の実施形態や変形例1、2では、発光部からの光の照射方向を照明装置の上下方向及び左右方向に変更可能な照明装置の例を説明したが、上下方向と左右方向のいずれか一方のみに変更可能な照明装置であってもよい。   Further, in the above-described embodiment and Modifications 1 and 2, the example of the lighting device that can change the irradiation direction of the light from the light emitting unit to the vertical direction and the horizontal direction of the lighting device has been described. It may be a lighting device that can be changed to only one of them.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

100 カメラ
101 カメラMPU
200 ストロボ装置
201 ストロボ本体部
201a 本体部操作面
202 バウンス機構部
203 ストロボヘッド部
204 ストロボMPU
207 カメラ接続部
212 近接検知センサ
213 オートバウンス駆動開始ボタン
100 camera 101 camera MPU
200 Strobe Device 201 Strobe Main Unit 201a Main Unit Operation Surface 202 Bounce Mechanism Unit 203 Strobe Head Unit 204 Strobe MPU
207 Camera connection 212 Proximity detection sensor 213 Auto bounce drive start button

Claims (10)

撮像装置に着脱可能に装着される本体部と、
前記本体部に対して回動可能な可動部と、
前記可動部に設けられた発光部と、
前記可動部を回動させる駆動手段と、
検知範囲内にある物体を検知するための検知センサと、
前記検知センサの出力に応じて、前記駆動手段により前記可動部を回動させるときの回動角度を制限する制限角度を設定する設定手段と、を有し、
前記検知センサは、前記本体部を撮像装置に装着している状態にて、前記本体部における被写体側の面とは反対側の面に配置されていることを特徴とする照明装置。
A main body detachably mounted on the imaging device;
A movable part rotatable with respect to the main body part;
A light emitting part provided in the movable part;
Driving means for rotating the movable part;
A detection sensor for detecting an object within the detection range;
Setting means for setting a limit angle for limiting a rotation angle when the movable unit is rotated by the driving unit according to the output of the detection sensor;
The illumination device, wherein the detection sensor is disposed on a surface of the main body that is opposite to a surface on the subject side in a state where the main body is mounted on the imaging apparatus.
前記本体部の下面に設けられていて、当該本体部を撮像装置に装着するための接続部を有し、
前記検知センサは、前記検知範囲の中心が下方に傾いていることを特徴とする請求項1に記載の照明装置。
Provided on the lower surface of the main body, and having a connecting portion for mounting the main body on the imaging device;
The lighting device according to claim 1, wherein the detection sensor has a center of the detection range inclined downward.
前記検知センサは、前記検知範囲の中心が下方に5度以上45度以下の角度で傾いていることを特徴とする請求項2に記載の照明装置。   The illumination device according to claim 2, wherein the detection sensor is tilted at an angle of 5 degrees or more and 45 degrees or less in the center of the detection range. 前記検知センサは、当該検知センサからの所定方向の距離が所定値未満の範囲を前記検知範囲とすることを特徴とする請求項1ないし3のいずれか1項に記載の照明装置。   The lighting device according to any one of claims 1 to 3, wherein the detection sensor has a range in which a distance in a predetermined direction from the detection sensor is less than a predetermined value as the detection range. 前記検知センサは、前記接続部よりも前記可動部に近い位置に配置されていることを特徴とする請求項2または3に記載の照明装置。   The lighting device according to claim 2, wherein the detection sensor is disposed at a position closer to the movable portion than the connection portion. 前記駆動手段により前記可動部を回動させる指示を行うための操作部を有し、
前記検知センサは、前記本体部における前記検知センサが設けられている側から見て、前記本体部における前記操作部が設けられている位置よりも右側の位置に配置されていることを特徴とする請求項1ないし5のいずれか1項に記載の照明装置。
An operation unit for giving an instruction to rotate the movable unit by the driving unit;
The detection sensor is arranged at a position on the right side of the main body portion where the operation portion is provided as viewed from the side where the detection sensor is provided. The lighting device according to any one of claims 1 to 5.
前記検知センサは、前記本体部における前記検知センサが設けられている側から見て、前記本体部における前記操作部が設けられている位置よりも下側の位置に配置されていることを特徴とする請求項6に記載の照明装置。   The detection sensor is disposed at a position below the position where the operation unit is provided in the main body as viewed from the side where the detection sensor is provided in the main body. The lighting device according to claim 6. 前記検知センサは、前記本体部における前記検知センサが設けられている側から見て、前記本体部の左右方向の中心に配置されていることを特徴とする請求項1ないし7のいずれか1項に記載の照明装置。   The said detection sensor is arrange | positioned at the center of the left-right direction of the said main-body part seeing from the side in which the said detection sensor is provided in the said main-body part, The any one of Claim 1 thru | or 7 characterized by the above-mentioned. The lighting device described in 1. 前記検知センサは、前記本体部における前記検知センサが設けられている側から見て、前記本体部の左右方向の中心から左右いずれかにずれた位置に配置されていることを特徴とする請求項1ないし7のいずれか1項に記載の照明装置。   The said detection sensor is arrange | positioned in the position shifted | deviated to either the right or left from the center of the left-right direction of the said main-body part seeing from the side in which the said detection sensor is provided in the said main-body part. The lighting device according to any one of 1 to 7. 前記検知センサは複数あって、
複数の前記検知センサは、前記本体部における前記検知センサが設けられている側から見て、前記本体部の左右方向の中心を挟むように配置されていることを特徴とすることを特徴とする請求項1ないし7のいずれか1項に記載の照明装置。
There are a plurality of detection sensors,
The plurality of detection sensors are arranged so as to sandwich the center in the left-right direction of the main body as viewed from the side of the main body where the detection sensor is provided. The lighting device according to any one of claims 1 to 7.
JP2015095238A 2015-05-07 2015-05-07 Lighting device Expired - Fee Related JP6584129B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015095238A JP6584129B2 (en) 2015-05-07 2015-05-07 Lighting device
US15/143,063 US9716818B2 (en) 2015-05-07 2016-04-29 Illumination apparatus having first case and second case rotatable relative to first case, and imaging apparatus having detachable illumination apparatus
CN201610296898.0A CN106131378B (en) 2015-05-07 2016-05-06 Lighting device and photographic device with dismountable lighting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015095238A JP6584129B2 (en) 2015-05-07 2015-05-07 Lighting device

Publications (3)

Publication Number Publication Date
JP2016212228A true JP2016212228A (en) 2016-12-15
JP2016212228A5 JP2016212228A5 (en) 2018-06-14
JP6584129B2 JP6584129B2 (en) 2019-10-02

Family

ID=57551102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015095238A Expired - Fee Related JP6584129B2 (en) 2015-05-07 2015-05-07 Lighting device

Country Status (1)

Country Link
JP (1) JP6584129B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113906341A (en) * 2020-04-09 2022-01-07 佳能株式会社 Electronic device and accessory
US11796898B2 (en) 2020-04-09 2023-10-24 Canon Kabushiki Kaisha Electronic apparatus and accessory

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170014A (en) * 2010-02-17 2011-09-01 Panasonic Corp Stroboscopic device
WO2014030329A1 (en) * 2012-08-23 2014-02-27 パナソニック株式会社 Strobe device and imaging device provided with strobe device
JP2015004908A (en) * 2013-06-24 2015-01-08 キヤノン株式会社 Luminaire and control method
WO2015025485A1 (en) * 2013-08-19 2015-02-26 パナソニックIpマネジメント株式会社 Imaging device and strobe device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170014A (en) * 2010-02-17 2011-09-01 Panasonic Corp Stroboscopic device
WO2014030329A1 (en) * 2012-08-23 2014-02-27 パナソニック株式会社 Strobe device and imaging device provided with strobe device
JP2015004908A (en) * 2013-06-24 2015-01-08 キヤノン株式会社 Luminaire and control method
WO2015025485A1 (en) * 2013-08-19 2015-02-26 パナソニックIpマネジメント株式会社 Imaging device and strobe device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113906341A (en) * 2020-04-09 2022-01-07 佳能株式会社 Electronic device and accessory
US11796898B2 (en) 2020-04-09 2023-10-24 Canon Kabushiki Kaisha Electronic apparatus and accessory
CN113906341B (en) * 2020-04-09 2024-01-09 佳能株式会社 Electronic device and accessory
US11886099B2 (en) 2020-04-09 2024-01-30 Canon Kabushiki Kaisha Electronic apparatus and accessory

Also Published As

Publication number Publication date
JP6584129B2 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
JP6494410B2 (en) Lighting device and control method
JP6168870B2 (en) Imaging apparatus, camera system, and control method
JP2007065081A (en) Flash unit and imaging device
JP2013178354A (en) Stroboscopic device and imaging apparatus including stroboscopic device
JP6719947B2 (en) Imaging system, light emitting device, light emission control method, and program
JP5494178B2 (en) Lighting device and camera
JP6512768B2 (en) Lighting device, imaging device and camera system
JP6584129B2 (en) Lighting device
JP2018010246A (en) Illuminating device, imaging apparatus, and control method
CN108810365B (en) Lighting apparatus capable of determining irradiation direction of flash and control method thereof
JP6486040B2 (en) Imaging system, illumination device, and control method
JP6184188B2 (en) Imaging apparatus, illumination apparatus, camera system, and control method
JP6584130B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP6584128B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP6685970B2 (en) Lighting device, imaging device, and control method
JP6643376B2 (en) Illumination device and control method thereof
JP6702729B2 (en) Light emission control device, control method thereof, control program, and imaging device
JP2019148636A (en) Illumination device, imaging apparatus, control method of illumination device, and program
JP2020173391A (en) Illumination device and posture control method thereof and an imaging system
JP2007121427A (en) Camera
JP2020056853A (en) Illumination device
JP2016080741A (en) Imaging device
JP2016109824A (en) Imaging system, illumination device and imaging device, and control method of the same
JP2020177049A (en) Lighting device, control method therefor, and imaging system
JP2021140067A (en) Imaging device, imaging system, imaging device control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190903

R151 Written notification of patent or utility model registration

Ref document number: 6584129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees