JP6598649B2 - LIGHT EMITTING DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE - Google Patents

LIGHT EMITTING DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE Download PDF

Info

Publication number
JP6598649B2
JP6598649B2 JP2015223951A JP2015223951A JP6598649B2 JP 6598649 B2 JP6598649 B2 JP 6598649B2 JP 2015223951 A JP2015223951 A JP 2015223951A JP 2015223951 A JP2015223951 A JP 2015223951A JP 6598649 B2 JP6598649 B2 JP 6598649B2
Authority
JP
Japan
Prior art keywords
bounce
subject
light emitting
emitting device
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015223951A
Other languages
Japanese (ja)
Other versions
JP2017090807A (en
JP2017090807A5 (en
Inventor
祥 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015223951A priority Critical patent/JP6598649B2/en
Publication of JP2017090807A publication Critical patent/JP2017090807A/en
Publication of JP2017090807A5 publication Critical patent/JP2017090807A5/en
Application granted granted Critical
Publication of JP6598649B2 publication Critical patent/JP6598649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、発光装置、その制御方法、および撮像装置に関し、特に、撮影の際に壁などのバウンス面に光を反射させて被写体を照明する発光装置に関する。 The present invention relates to a light emitting device, a control method, Oyo relates Beauty imaging device, in particular, to a light emitting apparatus for illuminating an object by reflecting light to bounce surface such as a wall during shooting.

従来、発光装置(以下ストロボと呼ぶ)からの光をバウンス面(反射面)で反射させて当該反射光で被写体を照明し被写体の撮影を行うバウンス撮影が知られている。このようなバウンス撮影において、反射面として壁を用いることがあり、また、ユーザの選択によって反射面を決定するようにした撮像装置がある(特許文献1参照)。   2. Description of the Related Art Conventionally, bounce shooting is known in which light from a light emitting device (hereinafter referred to as a strobe) is reflected by a bounce surface (reflection surface) and the subject is illuminated with the reflected light to shoot the subject. In such bounce shooting, there is a case where a wall is used as a reflection surface, and there is an image pickup apparatus in which the reflection surface is determined by user selection (see Patent Document 1).

特開2009−163179号公報JP 2009-163179 A

ところが、上述の特許文献1においては、ユーザが反射面を選択するようにしているものの、人物である被写体の顔の向きが考慮されていない。   However, in the above-mentioned Patent Document 1, although the user selects the reflecting surface, the orientation of the face of the subject that is a person is not taken into consideration.

図19は、壁を反射面としてバウンス撮影する際の被写体の状態を説明するための図である。そして、図19(a)は壁の一方を反射面した場合を示す図であり、図19(b)は壁の他方を反射面した場合を示す図である。   FIG. 19 is a diagram for explaining a state of a subject when bounce shooting is performed with a wall as a reflecting surface. FIG. 19A is a diagram illustrating a case where one of the walls is a reflective surface, and FIG. 19B is a diagram illustrating a case where the other wall is a reflective surface.

特許文献1に記載のように、反射面を選択する際に、ユーザが意識せずに反射面を選択すると、反射面と被写体の顔の向きとが一致せずに、ストロボ発光の際に被写体の顔に影が生じてしまうことがある。   As described in Patent Document 1, when a reflecting surface is selected without the user's consciousness when selecting a reflecting surface, the reflecting surface does not match the orientation of the subject's face, and the subject is emitted during strobe light emission. Shadows may appear on your face.

図19(a)に示すように、被写体の顔の向きが左側であるにも拘らず、右側(つまり、反対側)の壁を反射面として選択すると、ストロボ発光の際に被写体の顔に影が生じて顔が暗くなってしまう。一方、図19(b)に示すように、被写体の顔の向きが左側である場合に、左側(つまり、同一側)の壁を反射面として選択すれば、ストロボ発光の際に被写体の顔に影が生ず顔が明るくなる。   As shown in FIG. 19A, if the right side wall (ie, the opposite side) is selected as the reflecting surface even though the face direction of the subject is the left side, the shadow is not reflected on the face of the subject during the flash emission. Occurs and the face becomes dark. On the other hand, as shown in FIG. 19 (b), when the face direction of the subject is the left side, if the left side wall (that is, the same side) is selected as the reflecting surface, Shadows do not appear and the face becomes brighter.

さらには、自動的に反射面を選択する場合、反射面として天井および左右の壁などの全てを探索するとなると、バウンス撮影の際の最適なバウンス角度を決定するまでにストロボのヘッドを駆動するための電力が多量に消費されるばかりでなく駆動に要する時間が増加する。   Furthermore, when the reflective surface is automatically selected, if all of the ceiling and the left and right walls are searched for as the reflective surface, the strobe head is driven until the optimum bounce angle for bounce shooting is determined. As a result, not only a large amount of power is consumed, but also the time required for driving increases.

そこで、本発明の目的は、被写体の顔の向きに応じて最適なバウンス撮影を行うことができる反射面を選択することができる発光装置、その制御方法、および撮像装置を提供することにある。 An object of the present invention, the light emitting device capable of selecting a reflective surface can be optimally bounce flash according to the orientation of the face of the subject, a control method, providing and imaging device It is in.

上記の目的を達成するため、本発明による発光装置は、撮像装置によって被写体を撮影する際に光を照射する発光手段を有する発光装置であって、前記発光手段から発光された光をバウンス面で反射させて前記被写体を照明して撮影を行うバウンス撮影の際、前記撮像装置から送られ撮影の際の前記被写体の向きを示す向き情報に基づいて前記バウンス撮影を行う際のバウンス面の方向を決定する決定手段と、前記決定手段で決定されたバウンス面の方向に存在するバウンス面と前記撮像装置との距離に応じて前記バウンス撮影を行う際の前記発光手段の角度をバウンス角度として求めて、当該バウンス角度に前記発光手段を制御する制御手段と、を有することを特徴とする。 In order to achieve the above object, a light emitting device according to the present invention is a light emitting device having light emitting means for irradiating light when a subject is photographed by an imaging device, and the light emitted from the light emitting means is reflected on a bounce surface. When bounce shooting is performed to reflect and illuminate the subject, the direction of the bounce surface when the bounce shot is performed based on orientation information sent from the imaging device and indicating the orientation of the subject at the time of shooting. And determining the angle of the light emitting means when performing the bounce shooting according to the distance between the bounce surface existing in the direction of the bounce surface determined by the determination unit and the imaging device, as a bounce angle. And a control means for controlling the light emitting means at the bounce angle.

本発明による制御方法は、撮像装置によって被写体を撮影する際に光を照射する発光手段を有する発光装置の制御方法であって、前記発光手段から発光された光をバウンス面で反射させて前記被写体を照明して撮影を行うバウンス撮影の際、前記撮像装置から送られ撮影の際の前記被写体の向きを示す向き情報に基づいて前記バウンス撮影を行う際のバウンス面の方向を決定する決定ステップと、前記決定ステップで決定されたバウンス面の方向に存在するバウンス面と前記撮像装置との距離に応じて前記バウンス撮影を行う際の前記発光手段の角度をバウンス角度として求めて、当該バウンス角度に前記発光手段を制御する制御ステップと、を有することを特徴とする。 The control method according to the present invention is a method for controlling a light emitting device having light emitting means for irradiating light when photographing an object with an imaging device, wherein the light emitted from the light emitting means is reflected by a bounce surface and the subject. Determining a direction of a bounce surface when performing the bounce shooting based on orientation information sent from the imaging device and indicating the direction of the subject at the time of shooting when bounce shooting is performed by illuminating Determining the angle of the light emitting means when performing the bounce shooting according to the distance between the bounce surface existing in the direction of the bounce surface determined in the determining step and the imaging device as the bounce angle, And a control step for controlling the light emitting means.

本発明によれば、被写体の顔の向きに応じてバウンス撮影の際のバウンス面を決定するようにしたので、常に最適なバウンス撮影を行うことができる。   According to the present invention, since the bounce plane at the time of bounce shooting is determined in accordance with the orientation of the face of the subject, optimal bounce shooting can always be performed.

本発明の実施の形態による撮像装置の一例についてその構成を発光装置が装着された状態で示すブロック図である。It is a block diagram which shows the structure about an example of the imaging device by embodiment of this invention in the state with which the light-emitting device was mounted | worn. 垂直バウンス方向用のモーターに設けられたエンコーダについて説明するための図である。It is a figure for demonstrating the encoder provided in the motor for vertical bounce directions. エンコーダの電気回路を示す図である。It is a figure which shows the electric circuit of an encoder. 垂直バウンス方向に関してバウンス角度を変化させた状態を説明するための図であり、(a)はバウンス角の第1の例を示す図、(b)はバウンス角の第2の例を示す図、(c)はバウンス角の第3の例を示す図、(d)はバウンス角の第4の例を示す図である。It is a figure for demonstrating the state which changed the bounce angle regarding the vertical bounce direction, (a) is a figure which shows the 1st example of a bounce angle, (b) is a figure which shows the 2nd example of a bounce angle, (C) is a figure which shows the 3rd example of a bounce angle, (d) is a figure which shows the 4th example of a bounce angle. 図1に示すカメラで用いられるエンコーダによって検出されるバウンス角度の一例を示す図である。It is a figure which shows an example of the bounce angle detected by the encoder used with the camera shown in FIG. 図1に示すカメラにおいてバウンス撮影の際の反射面の決定処理を説明するためのフローチャートである。6 is a flowchart for explaining a reflection surface determination process at the time of bounce shooting in the camera shown in FIG. 1. 画像における顔領域の特定を説明するための図であり、(a)は測光回路で得られた画像を示す図、(b)は顔領域を示す図である。It is a figure for demonstrating specification of the face area | region in an image, (a) is a figure which shows the image obtained with the photometry circuit, (b) is a figure which shows a face area | region. 図7(b)に示す顔領域において顔の向きの判定を説明するための図であり、 (a)は左向きの顔を示す図、(b)は右向きの顔を示す図である。8A and 8B are diagrams for explaining the determination of the face orientation in the face area shown in FIG. 7B, where FIG. 7A is a diagram showing a left-facing face, and FIG. 7B is a diagram showing a right-facing face. 被写体間の距離の判定を説明するための図であり、(a)は被写体間の距離が近い例を示す図、(b)は被写体間の距離が遠い例を示す図である。It is a figure for demonstrating the determination of the distance between subjects, (a) is a figure which shows the example where the distance between subjects is near, (b) is a figure which shows the example where the distance between subjects is far. カメラから被写体までの距離を説明するための図であり、(a)は複数の被写体についてその距離が同程度である状態を示す図、(b)は複数の被写体についてその距離が異なる状態を示す図である。It is a figure for demonstrating the distance from a camera to a to-be-photographed object, (a) is a figure which shows the state where the distance is the same about several subjects, (b) shows the state from which the distance differs about several subjects. FIG. 複数の被写体が列をなす被写体列において被写体列の向きの判定を説明するための図であり、(a)は右向きの例を示す図、(b)は左向きの例を示す図である。It is a figure for demonstrating determination of the direction of a to-be-photographed object row | line | column in the to-be-photographed object row | line | column which a some subject forms a line, (a) is a figure which shows the example facing right, (b) is a figure which shows the example facing left. デジタル信号処理回路からカメラマイコンに送られる画像解析結果の一例を示す図である。It is a figure which shows an example of the image analysis result sent to a camera microcomputer from a digital signal processing circuit. デジタル信号処理回路からカメラマイコンに送られる画像解析結果の他の例を示す図であり、(a)は被写体が一人である場合の例を示す図、(b)は被写体が二人である場合の一例を示す図、(c)は被写体が二人である場合の他の例を示す図である。It is a figure which shows the other example of the image analysis result sent to a camera microcomputer from a digital signal processing circuit, (a) is a figure which shows an example in case an object is one person, (b) is a case where an object is two persons FIG. 6C is a diagram illustrating another example in which there are two subjects. 図1に示すカメラマイコンで行われる反射面決定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the reflective surface determination process performed with the camera microcomputer shown in FIG. 図1に示す表示部に表示される警告を説明するための図であり、(a)は第1の警告を示す図、(b)は第2の警告を示す図、(c)は第3の警告を示す図、(d)は第4の警告を示す図である。It is a figure for demonstrating the warning displayed on the display part shown in FIG. 1, (a) is a figure which shows 1st warning, (b) is a figure which shows 2nd warning, (c) is 3rd. (D) is a figure which shows the 4th warning. 図1に示すストロボで行われるオートバウンス処理を説明するためのフローチャートである。It is a flowchart for demonstrating the auto bounce process performed with the strobe shown in FIG. 図1に示すストロボで行われるオートバウンス撮影を説明するためのフローチャートである。2 is a flowchart for explaining auto bounce shooting performed with the flash shown in FIG. 1. 図1に示すカメラマイコンで行われる天井バウンス不可の際の被写体向き判定処理を説明するためのフローチャートである。7 is a flowchart for explaining subject orientation determination processing when ceiling bounce is impossible performed by the camera microcomputer shown in FIG. 1. 壁を反射面としてバウンス撮影する際の被写体の状態を説明するための図であり、(a)は壁の一方を反射面した場合を示す図、(b)は壁の他方を反射面した場合を示す図である。It is a figure for demonstrating the state of the to-be-photographed object at the time of bounce imaging | photography with a wall as a reflective surface, (a) is a figure which shows the case where one side of a wall is reflected, (b) is the case where the other side of a wall is reflected FIG.

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態による撮像装置の一例についてその構成を発光装置が装着された状態で示すブロック図である。   FIG. 1 is a block diagram showing the configuration of an example of an imaging device according to an embodiment of the present invention in a state where a light emitting device is mounted.

図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)100であり、当該カメラ100には交換可能な撮影レンズユニット(以下単に撮影レンズと呼ぶ)200が装着されている。さらに、カメラ100には着脱可能な発光装置(以下単にストロボと呼ぶ)300が取り付けられている。   The illustrated imaging device is, for example, a digital camera (hereinafter simply referred to as a camera) 100, and a replaceable photographing lens unit (hereinafter simply referred to as a photographing lens) 200 is attached to the camera 100. Furthermore, a detachable light emitting device (hereinafter simply referred to as a strobe) 300 is attached to the camera 100.

カメラ100には、マイクロコンピュータ(CCPU:以下カメラマイコンと呼ぶ)101が備えられており、カメラマイコン101はカメラ100全体の制御を司る。カメラマイコン101は、例えば、CPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマ回路、EEPROM(電気的にデータを消去・書き込み可能なROM)、A/Dコンバータ、およびD/Aコンバータなどを有するマイコン内蔵ワンチップIC回路である。そして、カメラマイコン101は、プログラム(つまり、ソフトウェア)によってカメラ100、撮影レンズ200、およびストロボ300の制御を行うとともに、各種の条件判定を行う。   The camera 100 is provided with a microcomputer (CCPU: hereinafter referred to as camera microcomputer) 101, and the camera microcomputer 101 controls the entire camera 100. The camera microcomputer 101 includes, for example, a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM (ROM capable of electrically erasing and writing data), an A / D converter, And a microcomputer built-in one-chip IC circuit having a D / A converter and the like. Then, the camera microcomputer 101 controls the camera 100, the photographing lens 200, and the strobe 300 according to a program (that is, software) and performs various condition determinations.

撮像素子102は赤外カットフィルタおよびローパスフィルタなどを備えるCCD又はCMOSセンサである。そして、撮像素子102には後述するレンズ群202を介して光学像(被写体像)が結像して、撮像素子102は光学像に応じた電気信号(アナログ信号)を出力する。   The image sensor 102 is a CCD or CMOS sensor including an infrared cut filter and a low-pass filter. An optical image (subject image) is formed on the image sensor 102 via a lens group 202 described later, and the image sensor 102 outputs an electrical signal (analog signal) corresponding to the optical image.

シャッター103は非撮影の際には撮像素子102を遮光して、撮影露光の際にはシャッター幕を開いて撮像素子102に光学像を導く。主ミラー(ハーフミラー)104は非撮影の際にはレンズ群202を介して入射する光を反射してピント板105に結像させる。撮影者はピント板105に投影された像を光学ファインダー(図示せず)によって目視で確認する。   The shutter 103 shields the image sensor 102 during non-photographing, and opens a shutter curtain during photographing exposure to guide an optical image to the image sensor 102. The main mirror (half mirror) 104 reflects light incident through the lens group 202 and forms an image on the focus plate 105 when not photographing. The photographer visually confirms the image projected on the focus plate 105 with an optical viewfinder (not shown).

測光回路(AE)106は測光センサを備えており、ここでは、測光センサとして複数の画素を備えるCCD又はCMOSセンサなどの撮像素子が用いられる。記録用画像の取得前に、測光回路106において得た画像を後縦するデジタル信号処理回路111によって解析して被写体の顔の向きなどを検出する。なお、測光センサにはペンタプリズム114を介してピント板105に結像した被写体像が入射する。   The photometric circuit (AE) 106 includes a photometric sensor. Here, an image sensor such as a CCD or CMOS sensor including a plurality of pixels is used as the photometric sensor. Before the recording image is acquired, the image obtained by the photometry circuit 106 is analyzed by the digital signal processing circuit 111 that runs vertically to detect the orientation of the face of the subject. Note that a subject image formed on the focusing plate 105 enters the photometric sensor via the pentaprism 114.

焦点検出回路(AF)107は測距センサを備えており、当該測距センサは複数点を測距ポイントとして、カメラ100から被写体までの距離を測距する。なお、測光センサは複数の領域に分割されており、当該領域には測距ポイントが含まれている。   The focus detection circuit (AF) 107 includes a distance measuring sensor, and the distance measuring sensor measures the distance from the camera 100 to the subject using a plurality of distance measuring points. The photometric sensor is divided into a plurality of areas, and the areas include distance measuring points.

ゲイン切り換え回路108は撮像素子102の出力である電気信号を増幅するゲインを切換えするための回路である。ゲイン切り換え回路108は、カメラマイコン101の制御下で撮影の条件および撮影者の指示などに応じてゲイン切り換えを行う。A/D変換器109は撮像素子102の出力である電気信号をデジタル信号に変換する。タイミングジェネレータ(TG)110は撮像素子102の出力である電気信号とA/D変換器109によるA/D変換のタイミングとを同期させる。   The gain switching circuit 108 is a circuit for switching the gain for amplifying the electric signal that is the output of the image sensor 102. The gain switching circuit 108 performs gain switching under the control of the camera microcomputer 101 in accordance with shooting conditions and a photographer's instruction. The A / D converter 109 converts the electrical signal that is the output of the image sensor 102 into a digital signal. A timing generator (TG) 110 synchronizes the electrical signal that is the output of the image sensor 102 and the timing of A / D conversion by the A / D converter 109.

デジタル信号処理回路(単に信号処理部ともいう)111はA/D変換器109の出力であるデジタル信号について所定の現像パラメータに応じて画像処理を行って画像データを生成する。なお、ここでは、処理画像に用いられるメモリなどは省略されている。   A digital signal processing circuit (also simply referred to as a signal processing unit) 111 performs image processing on a digital signal output from the A / D converter 109 according to a predetermined development parameter to generate image data. Here, the memory used for the processed image is omitted.

インタフェース用信号ライン(SC)はカメラ100と撮影レンズ200およびストロボ300とのインタフェースである。例えば、カメラマイコン101をホストとして、カメラ100、撮影レンズ200、およびストロボ300はデータの交換およびコマンドの伝達を相互に行う。つまり、SCは、カメラ100とストロボマイコン310との通信クロック端子を備え、カメラマイコン101とストロボマイコン310との間で通信を行うことができる。同様に、SCはレンズマイコン201からカメラマイコン101にデータを送信する端子を有し、カメラマイコン101とレンズマイコン201との間で通信を行うことができる。   An interface signal line (SC) is an interface between the camera 100, the photographing lens 200 and the strobe 300. For example, with the camera microcomputer 101 as a host, the camera 100, the photographing lens 200, and the strobe 300 mutually exchange data and transmit commands. That is, the SC includes a communication clock terminal between the camera 100 and the flash microcomputer 310, and can perform communication between the camera microcomputer 101 and the flash microcomputer 310. Similarly, the SC has a terminal for transmitting data from the lens microcomputer 201 to the camera microcomputer 101, and can communicate between the camera microcomputer 101 and the lens microcomputer 201.

入力部112は、制御系スイッチおよびボタンなどを有し、撮影者は入力部112によって撮像素子102のゲインの設定、そして、カメラ100の各種設定などを行うことができる。表示部113には設定されたカメラの撮影モード、その他の撮影情報などが表示される。なお、表示部113は、例えば、液晶表示装置および発光素子などを有している。   The input unit 112 includes control system switches, buttons, and the like, and the photographer can perform gain settings of the image sensor 102 and various settings of the camera 100 by the input unit 112. The display unit 113 displays the set shooting mode of the camera, other shooting information, and the like. Note that the display unit 113 includes, for example, a liquid crystal display device and a light emitting element.

ペンタプリズム114はピント板105に結像した被写体像を測光回路106に備えられた測光センサに導くとともに光学ファインダーに導く。サブミラー115は主ミラー104を透過した光を焦点検出回路107に備えられた測距センサへ導く。姿勢検知センサ160は、例えば、3軸の加速度センサである。カメラマイコン101は姿勢検知センサ160の検知出力に応じて、カメラ100の姿勢が重力方向および光軸方向に関してどのような状態(つまり、姿勢)であるかを判定する。   The pentaprism 114 guides the subject image formed on the focusing screen 105 to a photometric sensor provided in the photometry circuit 106 and also to an optical viewfinder. The sub mirror 115 guides the light transmitted through the main mirror 104 to a distance measuring sensor provided in the focus detection circuit 107. The posture detection sensor 160 is, for example, a triaxial acceleration sensor. In response to the detection output of the posture detection sensor 160, the camera microcomputer 101 determines what state (that is, the posture) the posture of the camera 100 is in the gravity direction and the optical axis direction.

撮影レンズ200は、マイクロコンピュータ(LPU:レンズマイコン)201を有している。レンズマイコン201は撮影レンズ200全体の制御を司る。レンズマイコン201は、例えば、CPU、ROM、RAM、入出力制御回路、マルチプレクサ、タイマ回路、EEPROM、A/Dコンバータ、およびD/Aコンバータを有するマイコン内蔵ワンチップIC回路である。そして、レンズマイコン201はプログラムによって撮影レンズ200を制御するとともに、各種の条件判定を行う。   The photographing lens 200 has a microcomputer (LPU: lens microcomputer) 201. The lens microcomputer 201 controls the entire photographing lens 200. The lens microcomputer 201 is a one-chip IC circuit with a built-in microcomputer having, for example, a CPU, ROM, RAM, input / output control circuit, multiplexer, timer circuit, EEPROM, A / D converter, and D / A converter. The lens microcomputer 201 controls the photographing lens 200 by a program and performs various condition determinations.

撮影レンズ200は複数枚のレンズを有するレンズ群202を備えている。レンズ駆動部203はレンズ群202において焦点位置合わせ用光学系を光軸に沿って移動させる。カメラマイコン101は焦点検出回路107の検出出力に基づいて、レンズ群202を駆動する際の駆動量を算出して、レンズマイコン201に送る。   The photographing lens 200 includes a lens group 202 having a plurality of lenses. The lens driving unit 203 moves the optical system for focusing in the lens group 202 along the optical axis. Based on the detection output of the focus detection circuit 107, the camera microcomputer 101 calculates a drive amount for driving the lens group 202 and sends it to the lens microcomputer 201.

エンコーダ204はレンズ群202を駆動した際、レンズ群202の位置を検出するためのものである。レンズマイコン201は、カメラマイコン101で算出された駆動量に応じてレンズ駆動部203を制御する。そして、レンズマイコン201はエンコーダ204の出力が示す位置を参照してレンズ群202を合焦位置に位置づける。   The encoder 204 is for detecting the position of the lens group 202 when the lens group 202 is driven. The lens microcomputer 201 controls the lens driving unit 203 according to the driving amount calculated by the camera microcomputer 101. Then, the lens microcomputer 201 refers to the position indicated by the output of the encoder 204 and positions the lens group 202 at the in-focus position.

絞り制御回路206は、レンズマイコン201の制御下で絞り205を制御する。なお、レンズ群202は焦点距離が単焦点のレンズであっても、ズームレンズのように焦点距離が可変なレンズであってもよい。   A diaphragm control circuit 206 controls the diaphragm 205 under the control of the lens microcomputer 201. The lens group 202 may be a lens having a single focal length or a lens having a variable focal length such as a zoom lens.

ストロボ300は、マイクロコンピュータ(FPU:ストロボマイコン)310を備えており、ストロボマイコン310はストロボ300全体の制御を司る。ストロボマイコン310は、例えば、CPU、ROM、RAM、入出力制御回路、マルチプレクサ、タイマ回路、EEPROM、A/D、およびD/Aコンバータを有するマイコン内蔵ワンチップIC回路である。ストロボマイコン310はプログラムに応じてストロボ300を制御するとともに、各種の条件判定を行う。   The strobe 300 includes a microcomputer (FPU: strobe microcomputer) 310, and the strobe microcomputer 310 controls the entire strobe 300. The strobe microcomputer 310 is a one-chip IC circuit with a built-in microcomputer having, for example, a CPU, ROM, RAM, input / output control circuit, multiplexer, timer circuit, EEPROM, A / D, and D / A converter. The stroboscopic microcomputer 310 controls the stroboscope 300 according to a program and performs various condition determinations.

電池301はストロボの電源(VBAT)であり、昇圧回路302は電池301の電圧を数百Vに昇圧する。昇圧回路302においては、例えば、メインコンデンサ(図示せず)に発光のためのエネルギーを蓄積する。メインコンデンサに充電された電荷に起因する電圧は電圧検出回路によって分圧され、当該分圧された電圧はストロボマイコン310のA/D変換端子に入力される。   The battery 301 is a strobe power supply (VBAT), and the booster circuit 302 boosts the voltage of the battery 301 to several hundred volts. In the booster circuit 302, for example, energy for light emission is stored in a main capacitor (not shown). The voltage resulting from the charge charged in the main capacitor is divided by the voltage detection circuit, and the divided voltage is input to the A / D conversion terminal of the flash microcomputer 310.

放電管307は、トリガー回路306から印加される数KVのパルス電圧を受けてメインコンデンサに充電されたエネルギーによって励起して発光する。そして、放電管307の光は被写体に照射される。なお、発光制御回路308はトリガー回路306を制御するとともに、放電管307の発光開始および発光停止を制御する。   The discharge tube 307 receives a pulse voltage of several KV applied from the trigger circuit 306 and is excited by the energy charged in the main capacitor to emit light. The light from the discharge tube 307 is irradiated to the subject. The light emission control circuit 308 controls the trigger circuit 306 and controls the start and stop of light emission of the discharge tube 307.

フォトダイオード323は放電管307から光を受光して、その発光量に応じた検知出力(電流)を出力する。フォトダイオード323は直接又はグラスファイバーなどを介して放電管307の光を受光する。積分回路309はフォトダイオード323の出力である電流を積分する。そして、積分回路309の出力(積分出力)コンパレータ312の非反転入力端子およびストロボマイコン310のA/Dコンバータ端子に入力される。   The photodiode 323 receives light from the discharge tube 307 and outputs a detection output (current) corresponding to the light emission amount. The photodiode 323 receives light from the discharge tube 307 directly or through glass fiber. The integration circuit 309 integrates the current that is the output of the photodiode 323. Then, the output (integration output) of the integration circuit 309 is input to the non-inverting input terminal of the comparator 312 and the A / D converter terminal of the strobe microcomputer 310.

コンパレータ312の非反転入力端子はストロボマイコン310のD/Aコンバータ出力端子に接続され、コンパレータ312の出力端子はANDゲート311の入力端子の一方に接続される。ANDゲート311の入力端子の他方はストロボマイコン310の発光制御端子と接続され、ANDゲート311の出力端子は発光制御回路308に接続される。   The non-inverting input terminal of the comparator 312 is connected to the D / A converter output terminal of the flash microcomputer 310, and the output terminal of the comparator 312 is connected to one of the input terminals of the AND gate 311. The other input terminal of the AND gate 311 is connected to the light emission control terminal of the flash microcomputer 310, and the output terminal of the AND gate 311 is connected to the light emission control circuit 308.

ストロボ300には、反射傘315およびズーム光学系316を有しており、ズーム光学系316はパネルなどを備えており、ストロボ300による光の照射角を変更する。反射傘315とズーム光学系316との距離を所定の位置に変更することによって、被写体に対する照射ガイドナンバーおよび配光を変化させることができる。   The strobe 300 includes a reflector 315 and a zoom optical system 316. The zoom optical system 316 includes a panel or the like, and changes the light irradiation angle of the strobe 300. By changing the distance between the reflector 315 and the zoom optical system 316 to a predetermined position, the irradiation guide number and light distribution for the subject can be changed.

ズーム駆動部313はモータードライバー回路およびモーターなどを備え、ズーム光学系316を移動する。ズーム駆動部313はストロボマイコン310のズーム制御端子から受けた信号に応じた駆動量(ズーム駆動量)に基づいてズーム光学系316を駆動する。なお、レンズマイコン201からカメラマイコン101に焦点距離を示す焦点距離情報が送られる。そして、カメラマイコン101は当該焦点距離情報をストロボマイコン310に送る。ストロボマイコン310は焦点距離情報に応じてズーム駆動量を求める。   The zoom drive unit 313 includes a motor driver circuit and a motor, and moves the zoom optical system 316. The zoom drive unit 313 drives the zoom optical system 316 based on the drive amount (zoom drive amount) corresponding to the signal received from the zoom control terminal of the flash microcomputer 310. Note that focal length information indicating the focal length is sent from the lens microcomputer 201 to the camera microcomputer 101. Then, the camera microcomputer 101 sends the focal length information to the strobe microcomputer 310. The stroboscopic microcomputer 310 obtains the zoom drive amount according to the focal length information.

位置検出部314は、ズーム光学系316のズーム位置を検出するエンコーダであり、ストロボマイコン310の位置信号端子にズーム位置を示すズーム位置情報を送る。そして、ストロボマイコン310はズーム位置情報に応じてズーム駆動部313を制御してズーム光学系316を駆動する。   The position detection unit 314 is an encoder that detects the zoom position of the zoom optical system 316, and sends zoom position information indicating the zoom position to the position signal terminal of the flash microcomputer 310. Then, the flash microcomputer 310 controls the zoom drive unit 313 according to the zoom position information to drive the zoom optical system 316.

ストロボ300は、バウンス角度が可変の主発光部350を有している。バウンス駆動部351はモータードライバー回路およびモーターなどを備えており、バウンス部350を移動する。ストロボマイコン310はバウンス制御端子によってバウンス駆動部351を制御しバウンス部350を駆動する。   The strobe 300 has a main light emitting unit 350 whose bounce angle is variable. The bounce drive unit 351 includes a motor driver circuit and a motor, and moves the bounce unit 350. The stroboscopic microcomputer 310 controls the bounce driving unit 351 by the bounce control terminal and drives the bounce unit 350.

位置検出部352はバウンス部350のバウンス位置を検出するためのエンコーダである。ストロボマイコン310は位置信号端子によって位置検出部351の出力を受けて、位置検出部351の検出結果に応じてバウンス駆動部351を制御してバウンス部350を駆動する。   The position detection unit 352 is an encoder for detecting the bounce position of the bounce unit 350. The stroboscopic microcomputer 310 receives the output of the position detection unit 351 through the position signal terminal and controls the bounce drive unit 351 according to the detection result of the position detection unit 351 to drive the bounce unit 350.

図示の例では、垂直バウンス方向および水平バウンス方向に対応してそれぞれエンコーダを備えている。ここでは、垂直バウンス方向にバウンス部350を駆動するモーターに備えられたエンコーダを例に挙げてについて説明する。   In the illustrated example, encoders are provided corresponding to the vertical bounce direction and the horizontal bounce direction, respectively. Here, an encoder provided in a motor that drives the bounce unit 350 in the vertical bounce direction will be described as an example.

図2は垂直バウンス方向用のモーターに設けられたエンコーダについて説明するための図である。また、図3はエンコーダの電気回路を示す図である。   FIG. 2 is a diagram for explaining an encoder provided in a motor for a vertical bounce direction. FIG. 3 is a diagram showing an electric circuit of the encoder.

図2および図3を参照して、基板上にパターン401、402、および403を形成して、これらパターンをグランドGNDに結線する。摺動部切片405、406、および407はそれぞれ信号bit3、bit2、およびbitに配線して、マイコンの信号入力部に結線する。信号bit3、bit2、およびbit1はそれぞれ抵抗を介して電源VDDに接続される。   Referring to FIGS. 2 and 3, patterns 401, 402, and 403 are formed on a substrate, and these patterns are connected to ground GND. The sliding section segments 405, 406, and 407 are wired to the signal bit3, bit2, and bit, respectively, and connected to the signal input section of the microcomputer. Signals bit3, bit2, and bit1 are each connected to the power supply VDD via a resistor.

摺動部405、406、および407がパターン401、402、および403に接している際に、信号bit3、bit2、およびbit1はローレベル(Lo)となる。一方、摺動部405、406、および407がパターン401、402、および403から離れると、信号bit3、bit2、およびbit1はハイレベル(Hi)となる。   When the sliding portions 405, 406, and 407 are in contact with the patterns 401, 402, and 403, the signals bit3, bit2, and bit1 are at a low level (Lo). On the other hand, when the sliding portions 405, 406, and 407 are separated from the patterns 401, 402, and 403, the signals bit3, bit2, and bit1 are at a high level (Hi).

このように、機械的な角度の変化に応じて、各摺動部に対応する信号bit3、bit2、およびbit1は異なるので、信号bit3、bit2、およびbit1の組み合わせによって角度を得ることができる。そして、エンコーダの出力信号の組み合わせに応じて、バウンスの角度を検出することができる。   As described above, the signals bit3, bit2, and bit1 corresponding to the sliding portions differ according to the change in the mechanical angle, so that the angle can be obtained by combining the signals bit3, bit2, and bit1. The bounce angle can be detected in accordance with the combination of encoder output signals.

図4は垂直バウンス方向に関してバウンス角度を変化させた状態を説明するための図である。そして、図4(a)はバウンス角の第1の例を示す図であり、図4(b)はバウンス角の第2の例を示す図である。また、図4(c)はバウンス角の第3の例を示す図であり、図4(d)はバウンス角の第4の例を示す図である。   FIG. 4 is a diagram for explaining a state in which the bounce angle is changed with respect to the vertical bounce direction. FIG. 4A is a diagram illustrating a first example of the bounce angle, and FIG. 4B is a diagram illustrating a second example of the bounce angle. FIG. 4C is a diagram illustrating a third example of the bounce angle, and FIG. 4D is a diagram illustrating a fourth example of the bounce angle.

図4(a)に示す例では、カメラ100および撮影レンズ200の光軸方向に対してバウンス部350が略水平になっている状態が示されており、この状態をバウンス角度0度とする。図4(b)に示す例では、カメラ100および撮影レンズ200の光軸方向に対してバウンス部350が角度60度になっている状態が示されており、この状態をバウンス角度60度とする。   In the example shown in FIG. 4A, a state in which the bounce unit 350 is substantially horizontal with respect to the optical axis direction of the camera 100 and the photographing lens 200 is shown, and this state is assumed to have a bounce angle of 0 degree. In the example shown in FIG. 4B, a state in which the bounce unit 350 is at an angle of 60 degrees with respect to the optical axis direction of the camera 100 and the photographing lens 200 is shown, and this state is set as a bounce angle of 60 degrees. .

図4(c)に示す例では、カメラ100およびレンズ200の光軸方向に対してバウンス部350が角度75度になっている状態が示されており、この状態をバウンス角度75度とする。図4(d)に示す例では、カメラ100およびレンズ200の光軸方向に対してバウンス部350が角度90度になっている状態が示されており、この状態をバウンス角度90度とする。   In the example shown in FIG. 4C, a state in which the bounce unit 350 is at an angle of 75 degrees with respect to the optical axis direction of the camera 100 and the lens 200 is shown, and this state is assumed to be a bounce angle of 75 degrees. In the example shown in FIG. 4D, a state in which the bounce unit 350 is at an angle of 90 degrees with respect to the optical axis direction of the camera 100 and the lens 200 is shown, and this state is assumed to be a bounce angle of 90 degrees.

図4(a)に示すバウンス角度0度の場合には、エンコーダにおいて(bit3,bit2,bit1)=(0,0,0)となる。図4(b)に示すバウンス角度60度の場合には、エンコーダにおいて(bit3,bit2,bit1)=(0,0,1)となる。また、図4(c)に示すバウンス角度75度の場合には、エンコーダにおいて(bit3,bit2,bit1)=(0,1,1)となる。そして、図4(d)に示すバウンス角度90度の場合、エンコーダにおいて(bit3,bit2,bit1)=(1,1,1)となる。   In the case of the bounce angle of 0 degree shown in FIG. 4A, (bit3, bit2, bit1) = (0, 0, 0) in the encoder. In the case of the bounce angle of 60 degrees shown in FIG. 4B, (bit3, bit2, bit1) = (0, 0, 1) in the encoder. In the case of the bounce angle of 75 degrees shown in FIG. 4C, (bit3, bit2, bit1) = (0, 1, 1) in the encoder. In the case of the bounce angle of 90 degrees shown in FIG. 4D, (bit3, bit2, bit1) = (1, 1, 1) in the encoder.

図5は、図1に示すカメラで用いられるエンコーダによって検出されるバウンス角度の一例を示す図である。   FIG. 5 is a diagram showing an example of a bounce angle detected by an encoder used in the camera shown in FIG.

図2および図3に示す例では、信号bit1〜bit3を用いて、バウンス角度を検出するようにしたが、図5に示す例では、さらに信号bit4を用いて、バウンス角度0度から90度までについて10度刻み(一部について5度)においてバウンス角度をすることができるエンコーダを用いる。また、水平バウンス方向についても、同様にしてバウンス角度−90度から90度まで検出可能なエンコーダを用いる。   In the example shown in FIGS. 2 and 3, the bounce angle is detected using the signals bit1 to bit3. However, in the example shown in FIG. 5, the bounce angle is further set to 0 to 90 degrees using the signal bit4. An encoder capable of bounce angle in 10 degree increments (5 degrees for some) is used. Similarly, for the horizontal bounce direction, an encoder capable of detecting a bounce angle of −90 degrees to 90 degrees is used.

ここで、負のバウンス角度は正面から右側に回転した場合の角度を示し、正のバウンス角度は正面から左側に回転した場合の角度を示す。   Here, the negative bounce angle indicates an angle when rotating from the front to the right, and the positive bounce angle indicates an angle when rotating from the front to the left.

再び図1を参照して、各種入力部(入力インタフェース)320は、例えば、ストロボ300の側面などにスイッチとして設置されており、手動によって撮影者がズームに関するズーム情報を入力する。表示部321にはストロボ300の状態が表示される。バウンス回路322はスイッチなどを備えてストロボ300のバウンス状態を検知する。積分回路323はフォトダイオードの出力である電流を積分する。距離計392はストロボ300から反射面(バウンス面)までの距離を測定する。距離計392として、例えば、レーザ光を用いた光学距離計を用いれば、数mm単位の精度で距離を検出することができる。但し、光学距離計を用いると、ストロボ300が大型化するので、小型化のため受光素子を用いて、ストロボ300の発光による反射光を受光して、反射光に応じて距離を測定するようにしてもよい。   Referring to FIG. 1 again, various input units (input interfaces) 320 are installed as switches on the side surface of the strobe 300, for example, and the photographer manually inputs zoom information regarding zoom. The display unit 321 displays the state of the strobe 300. The bounce circuit 322 includes a switch and detects the bounce state of the strobe 300. The integrating circuit 323 integrates the current that is the output of the photodiode. The distance meter 392 measures the distance from the strobe 300 to the reflecting surface (bounce surface). For example, if an optical distance meter using laser light is used as the distance meter 392, the distance can be detected with an accuracy of several millimeters. However, if the optical distance meter is used, the strobe 300 becomes larger, so that for the purpose of downsizing, the light receiving element is used to receive the reflected light by the light emission of the strobe 300, and the distance is measured according to the reflected light. May be.

図6は、図1に示すカメラにおいてバウンス撮影の際の反射面の決定処理を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、カメラマイコン101の制御下で行われる。   FIG. 6 is a flowchart for explaining a reflection surface determination process at the time of bounce shooting in the camera shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the camera microcomputer 101.

電源スイッチ(図示せず)のオンによってカメラマイコン101が動作可能となると、カメラマイコン101は、カメラマイコン101のメモリおよびポートを初期化する。そして、カメラマイコン101は入力部112から入力されたスイッチの状態および予め設定された入力情報を読み込んで、シャッタースピードの決定方法および絞りの決定方法などの撮影モードの設定を行う。   When the camera microcomputer 101 becomes operable by turning on a power switch (not shown), the camera microcomputer 101 initializes the memory and port of the camera microcomputer 101. Then, the camera microcomputer 101 reads the state of the switch input from the input unit 112 and preset input information, and sets the shooting mode such as a shutter speed determination method and an aperture determination method.

シャッターボタン(図示せず)の半押し状態によってオンとなる第1のスイッチSW1がオンとなると(ステップS101)、カメラマイコン101は測光回路106によって被写体の向きを判定するための画像を取得する(ステップS102)。   When the first switch SW1 that is turned on by a half-pressed state of a shutter button (not shown) is turned on (step S101), the camera microcomputer 101 acquires an image for determining the orientation of the subject by the photometric circuit 106 (step S101). Step S102).

続いて、カメラマイコン101はデジタル信号処理回路111によって測光回路106で得た画像を解析して被写体の顔の向きおよび被写体の数などを得る(ステップS103:被写体向き判定)。   Subsequently, the camera microcomputer 101 analyzes the image obtained by the photometry circuit 106 by the digital signal processing circuit 111 to obtain the face orientation of the subject, the number of subjects, and the like (step S103: subject orientation determination).

ここで、デジタル信号処理回路111による画像の解析について説明する。   Here, the analysis of the image by the digital signal processing circuit 111 will be described.

図7は、画像における顔領域の特定を説明するための図である。そして、図7(a)は測光回路で得られた画像を示す図であり、図7(b)は顔領域を示す図である。   FIG. 7 is a diagram for explaining identification of a face area in an image. FIG. 7A shows an image obtained by the photometry circuit, and FIG. 7B shows a face area.

デジタル信号処理回路111は測光回路106で得た画像(図7(a))において肌色の領域から顔領域を特定する(図7(b)参照)。そして、デジタル信号処理回路111は当該特定結果に応じて被写体の顔の数を判別する。   The digital signal processing circuit 111 specifies a face area from the skin color area in the image (FIG. 7A) obtained by the photometry circuit 106 (see FIG. 7B). Then, the digital signal processing circuit 111 determines the number of faces of the subject according to the identification result.

図8は、図7(b)に示す顔領域において顔の向きの判定を説明するための図である。そして、図8(a)は左向きの顔を示す図であり、図8(b)は右向きの顔を示す図である。   FIG. 8 is a diagram for explaining determination of the face orientation in the face area shown in FIG. FIG. 8A is a diagram showing a face facing left, and FIG. 8B is a diagram showing a face facing right.

デジタル信号処理回路111は、図7(b)に示す顔領域を示す画像において、肌色の領域(つまり、顔領域)において眼の左右の幅および眉間の幅から顔の向きを判定する。図8において、顔領域について撮影者から見て左眼から左端までの幅をa、眉間の幅をb、右眼から右端までの幅をcとした場合、a>cであれば顔は左向きであると判定する。また、a<cであれば顔は右向きである判定する。壁を反射面としてバウンス撮影を行う際には、顔の正面から反射光を当てることが望ましいので、顔の向きを判定するようにしている。   In the image showing the face area shown in FIG. 7B, the digital signal processing circuit 111 determines the face direction from the left and right widths of the eyes and the width between the eyebrows in the skin color area (that is, the face area). In FIG. 8, when the width of the face region from the left eye to the left end when viewed from the photographer is a, the width between the eyebrows is b, and the width from the right eye to the right end is c, the face is left if a> c. It is determined that If a <c, the face is determined to face right. When performing bounce shooting with a wall as a reflecting surface, it is desirable to apply reflected light from the front of the face, so the orientation of the face is determined.

また、画像において、被写体間の距離が近いか又は遠いかについて顔領域の画素数と顔領域間の画素数との比率によって判定される。   In the image, whether the distance between the subjects is near or far is determined by the ratio of the number of pixels in the face area and the number of pixels between the face areas.

図9は被写体間の距離の判定を説明するための図である。そして、図9(a)は被写体間の距離が近い例を示す図であり、図9(b)は被写体間の距離が遠い例を示す図である。   FIG. 9 is a diagram for explaining the determination of the distance between the subjects. FIG. 9A is a diagram illustrating an example in which the distance between subjects is short, and FIG. 9B is a diagram illustrating an example in which the distance between subjects is long.

いま、左側に位置する被写体(左側被写体)において顔領域の幅の画素数をdとし、右側に位置する被写体(右側被写体)において顔領域の幅の画素数をfとする。また、左側被写体と右側被写体との間の画素数をeとする。e>3×d又はe>3×fであれば、デジタル信号処理回路111は被写体間の距離は遠いと判定する。   Now, let d be the number of pixels in the width of the face area in the subject located on the left side (left subject), and let f be the number of pixels in the width of the face area in the subject located on the right side (right subject). Also, e is the number of pixels between the left subject and the right subject. If e> 3 × d or e> 3 × f, the digital signal processing circuit 111 determines that the distance between the subjects is long.

被写体間の距離が遠い場合には、複数の被写体の顔の向きが同一方向であっても、反射面からの距離は異なり、良好なバウンス撮影を行うことができないことがある。このため、被写体間の距離を判定して、バウンス撮影の際に用いることにする。   When the distance between the subjects is long, even if the faces of a plurality of subjects are in the same direction, the distance from the reflecting surface is different, and good bounce shooting may not be performed. For this reason, the distance between subjects is determined and used for bounce shooting.

図10は、カメラから被写体までの距離を説明するための図である。そして、図10(a)は複数の被写体についてその距離が同程度である状態を示す図であり、図10(b)は複数の被写体についてその距離が異なる状態を示す図である。   FIG. 10 is a diagram for explaining the distance from the camera to the subject. FIG. 10A is a diagram showing a state in which the distances are the same for a plurality of subjects, and FIG. 10B is a diagram showing a state in which the distances are different for a plurality of subjects.

カメラと各被写体との距離については、顔領域の幅の画素数の比率で判定される。いま、左側被写体において顔領域の幅の画素数をdとし、右側被写体の顔領域の幅の画素数をfとすると、デジタル信号処理回路111は、画素数dと画素数fとの比率が2未満であるとその距離は同程度であると判定する。一方、デジタル信号処理回路111は、画素数dと画素数fとの比率が2以上であるとその距離は異なる(離れている)と判定する。   The distance between the camera and each subject is determined by the ratio of the number of pixels in the width of the face area. Now, assuming that the number of pixels of the width of the face area in the left subject is d and the number of pixels of the width of the face area of the right subject is f, the digital signal processing circuit 111 has a ratio of the number of pixels d to the number of pixels f of 2. If it is less than the distance, the distance is determined to be the same. On the other hand, the digital signal processing circuit 111 determines that the distance is different (separated) when the ratio between the pixel number d and the pixel number f is 2 or more.

図11は複数の被写体が列をなす被写体列において被写体列の向きの判定を説明するための図である。そして、図11(a)は右向きの例を示す図であり、図11(b)は左向きの例を示す図である。   FIG. 11 is a diagram for explaining determination of the direction of a subject row in a subject row in which a plurality of subjects form a row. FIG. 11A is a diagram illustrating an example facing right, and FIG. 11B is a diagram illustrating an example facing left.

被写体列の向きを判定する際には、デジタル信号処理回路111は画像の顔領域の幅の画素数を比較して右側の顔領域が大きければ、被写体列が左向きである判定する。また、デジタル信号処理回路111は左側の顔領域が大きければ、被写体列が右向きであると判定する。被写体間の距離が近くてカメラから被写体までの距離に差異がある場合においても、カメラに近い被写体に生じる影がカメラから遠い被写体にかからない状態であれば、良好なバウンス撮影を行うことができることになる。   When determining the orientation of the subject row, the digital signal processing circuit 111 compares the number of pixels of the width of the face region of the image and determines that the subject row is facing left if the right face region is large. Also, if the left face area is large, the digital signal processing circuit 111 determines that the subject row is facing right. Even when the distance between subjects is close and there is a difference in the distance from the camera to the subject, it is possible to perform good bounce shooting as long as the shadow generated on the subject close to the camera does not affect the subject far from the camera. Become.

上述のようにして行われたデジタル信号処理回路111による画像解析結果はカメラマイコン101に送られる。   The image analysis result by the digital signal processing circuit 111 performed as described above is sent to the camera microcomputer 101.

図12はデジタル信号処理回路からカメラマイコンに送られる画像解析結果の一例を示す図である。   FIG. 12 is a diagram showing an example of an image analysis result sent from the digital signal processing circuit to the camera microcomputer.

また、図13はデジタル信号処理回路からカメラマイコンに送られる画像解析結果の他の例を示す図である。そして、図13(a)は被写体が一人である場合の例を示す図であり、図13(b)は被写体が二人である場合の一例を示す図である。また、図13(c)は被写体が二人である場合の他の例を示す図である。   FIG. 13 is a diagram showing another example of the image analysis result sent from the digital signal processing circuit to the camera microcomputer. FIG. 13A is a diagram illustrating an example when the subject is one person, and FIG. 13B is a diagram illustrating an example when the subject is two persons. FIG. 13C is a diagram showing another example in which there are two subjects.

図12および図13を参照して、画像解析結果には、顔の数、顔の向き、被写体間の距離、カメラからの距離、および被写体列の向きが含まれている。なお、被写体が一人の場合には、画像解析結果には、被写体間の距離、カメラからの距離、および被写体列の向きは存在しない。   Referring to FIGS. 12 and 13, the image analysis result includes the number of faces, the face orientation, the distance between subjects, the distance from the camera, and the orientation of the subject row. When there is only one subject, the distance between subjects, the distance from the camera, and the direction of the subject row do not exist in the image analysis result.

再び図6を参照して、カメラマイコン101は画像解析結果に基づいてバウンス撮影の際に用いる反射面(バウンス面)を決定する。   Referring to FIG. 6 again, the camera microcomputer 101 determines a reflection surface (bounce surface) to be used for bounce shooting based on the image analysis result.

図14は、図1に示すカメラマイコンで行われる反射面決定処理を説明するためのフローチャートである。   FIG. 14 is a flowchart for explaining a reflection surface determination process performed by the camera microcomputer shown in FIG.

反射面決定処理を開始すると、カメラマイコン101は画像解析結果を参照して顔領域が検出されたか否かを判定する(ステップS201)。顔領域が検出されないと(ステップS201において、NO)、カメラマイコン101は反射面を「天井」と決定する(ステップS202)。そして、カメラマイコン101は反射面決定処理を終了する。   When the reflection surface determination process is started, the camera microcomputer 101 refers to the image analysis result to determine whether or not a face area has been detected (step S201). If the face area is not detected (NO in step S201), the camera microcomputer 101 determines that the reflecting surface is “ceiling” (step S202). Then, the camera microcomputer 101 ends the reflection surface determination process.

一方、顔領域が検出されると(ステップS201において、YES)、カメラマイコン101は画像解析結果を参照して複数の顔領域が検出されたか否かを判定する(ステップS203)。顔領域が1つであると(ステップS203において、NO)、カメラマイコン101は画像解析結果を参照して顔領域が右向きであるか否かを判定する(ステップS204)。   On the other hand, when a face area is detected (YES in step S201), the camera microcomputer 101 determines whether a plurality of face areas have been detected with reference to the image analysis result (step S203). If there is only one face area (NO in step S203), the camera microcomputer 101 determines whether the face area is facing right with reference to the image analysis result (step S204).

顔領域が右向きであると(ステップS204において、YES)、カメラマイコン101は反射面を「右」の壁と決定する(ステップS205)。そして、カメラマイコン101は反射面決定処理を終了する。一方、顔領域が右向きでないと(ステップS204において、NO)、カメラマイコン101は反射面を「左」の壁と決定する(ステップS206)。そして、カメラマイコン101は反射面決定処理を終了する。   If the face area is facing right (YES in step S204), the camera microcomputer 101 determines that the reflecting surface is the “right” wall (step S205). Then, the camera microcomputer 101 ends the reflection surface determination process. On the other hand, if the face area is not facing to the right (NO in step S204), the camera microcomputer 101 determines that the reflecting surface is the “left” wall (step S206). Then, the camera microcomputer 101 ends the reflection surface determination process.

顔領域が複数あると(ステップS203において、YES)、カメラマイコン101は画像解析結果を参照して、複数の被写体の向きが一致しているか否かを判定する(ステップS207)。複数の被写体の向きが一致していないと(ステップS207において、NO)、カメラマイコン101は反射面を「天井」と決定する(ステップS208)。そして、カメラマイコン101は反射面決定処理を終了する。   If there are a plurality of face regions (YES in step S203), the camera microcomputer 101 refers to the image analysis result to determine whether or not the directions of the plurality of subjects match (step S207). If the directions of the plurality of subjects do not match (NO in step S207), the camera microcomputer 101 determines that the reflecting surface is “ceiling” (step S208). Then, the camera microcomputer 101 ends the reflection surface determination process.

複数の被写体の向きが一致していると(ステップS207において、YES)、カメラマイコン101は画像解析結果を参照して、複数の被写体間の距離が近いか否かを判定する(ステップS210)。被写体間の距離が遠いと(ステップS209において、NO)、カメラマイコン101はステップS208の処理に進む。   If the directions of the plurality of subjects match (YES in step S207), the camera microcomputer 101 refers to the image analysis result to determine whether or not the distances between the plurality of subjects are close (step S210). If the distance between the subjects is long (NO in step S209), the camera microcomputer 101 proceeds to the process of step S208.

被写体間の距離が近いと(ステップS209において、YES)、カメラマイコン101は画像解析結果を参照して、複数の被写体についてカメラからの距離が同程度であるか否かを判定する(ステップS210)。カメラからの距離が同程度であると(ステップS210において、YES)、カメラマイコン101はステップS204の処理に戻って、被写体向きに応じて反射面を決定する。   When the distance between the subjects is short (YES in step S209), the camera microcomputer 101 refers to the image analysis result and determines whether or not the distance from the camera is the same for a plurality of subjects (step S210). . If the distance from the camera is approximately the same (YES in step S210), the camera microcomputer 101 returns to the process of step S204 and determines the reflecting surface according to the subject direction.

カメラからの距離が同程度でないと(ステップS210において、NO)、カメラマイコン101は画像解析結果を参照して、複数の被写体の向きと被写体列の向きとが一致しているか否かを判定する(ステップS212)。複数の被写体の向きと被写体列の向きとが一致していると(ステップS212において、YES)、カメラマイコン101はステップS204の処理に戻って、被写体向きに応じて反射面を決定する。   If the distance from the camera is not the same (NO in step S210), the camera microcomputer 101 refers to the image analysis result to determine whether or not the orientations of the plurality of subjects match the orientations of the subject rows. (Step S212). If the direction of the plurality of subjects coincides with the direction of the subject row (YES in step S212), the camera microcomputer 101 returns to the process of step S204 and determines the reflecting surface according to the subject direction.

一方、複数の被写体の向きと被写体列の向きとが一致していないと(ステップS212において、NO)、カメラマイコン101は被写体の向きの変更又は整列を促す表示を表示部113に表示する(ステップS214)。   On the other hand, if the orientations of the plurality of subjects do not match the orientations of the subject rows (NO in step S212), the camera microcomputer 101 displays a display for prompting the change or alignment of the subject orientations on the display unit 113 (step S212). S214).

図15は、図1に示す表示部に表示される警告を説明するための図である。そして、図15(a)は第1の警告を示す図であり、図15(b)は第2の警告を示す図である。また、図15(c)は第3の警告を示す図であり、図15(d)は第4の警告を示す図である。   FIG. 15 is a diagram for explaining a warning displayed on the display unit shown in FIG. 1. FIG. 15A shows the first warning, and FIG. 15B shows the second warning. FIG. 15C is a diagram showing a third warning, and FIG. 15D is a diagram showing a fourth warning.

ステップS214の処理においては、カメラマイコン101は、例えば、図15(a)に示すように、表示部113に「顔の向きを反対側に変更するか被写体を整列させてください」という文言を表示する。   In the process of step S214, for example, as shown in FIG. 15A, the camera microcomputer 101 displays the word “Please change the face direction to the opposite side or align the subject” on the display unit 113. To do.

次に、カメラマイコン101は第1のスイッチSW1がオンであるか否かを判定する(ステップS215)。第1のスイッチSW1がオフであると(ステップS215において、NO)、カメラマイコン101はステップS208の処理に進んで「天井」を反射面として決定する。一方、第1のスイッチSW1がオンであると(ステップS215において、YES)、カメラマイコン101は、図6に示すステップS102の処理に戻る。   Next, the camera microcomputer 101 determines whether or not the first switch SW1 is on (step S215). If the first switch SW1 is off (NO in step S215), the camera microcomputer 101 proceeds to the process of step S208 and determines “ceiling” as the reflecting surface. On the other hand, when first switch SW1 is on (YES in step S215), camera microcomputer 101 returns to the process in step S102 shown in FIG.

再び図6を参照して、上述のようにして、反射面決定を行った後、カメラマイコン101はストロボマイコン310にステップS104の処理で決定した反射面および被写体距離などを示すバウンス情報に送信する(ステップS105)。そして、カメラマイコン101は反射面決定処理を終了する。   Referring to FIG. 6 again, after determining the reflecting surface as described above, the camera microcomputer 101 transmits to the flash microcomputer 310 bounce information indicating the reflecting surface and subject distance determined in the process of step S104. (Step S105). Then, the camera microcomputer 101 ends the reflection surface determination process.

図16は、図1に示すストロボで行われるオートバウンス処理を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、ストロボマイコン210の制御下で行われる。   FIG. 16 is a flowchart for explaining the auto bounce process performed by the strobe shown in FIG. The processing according to the flowchart shown in the figure is performed under the control of the flash microcomputer 210.

まず、ストロボマイコン310はカメラマイコン101から反射面および被写体距離などを示すバウンス情報を受信する(ステップS301)。そして、ストロボマイコン310は、ユーザから入力部320の操作によってオートバウンス指示があると(ステップS302)、後述するバウンス撮影を行う。その後、ストロボマイコン310はオートバウンス処理を終了する。   First, the flash microcomputer 310 receives bounce information indicating the reflection surface, subject distance, and the like from the camera microcomputer 101 (step S301). Then, when there is an auto bounce instruction by the operation of the input unit 320 from the user (step S302), the flash microcomputer 310 performs bounce shooting described later. Thereafter, the flash microcomputer 310 ends the auto bounce process.

図17は、図1に示すストロボで行われるオートバウンス撮影を説明するためのフローチャートである。   FIG. 17 is a flowchart for explaining auto-bounce shooting performed by the flash shown in FIG.

オートバウンス撮影を開始すると、ストロボマイコン310は、カメラマイコン101から送られたバウンス情報が示す反射面までの距離を測定する(ステップS401)。ここでは、反射面が左の壁である場合には、ストロボマイコン310は水平バウンス角度を90度とし、垂直バウンス角度を0度としてバウンス駆動部351によってバウンス部を駆動する。一方、反射面が右の壁である場合には、ストロボマイコン310は水平バウンス角度を−90度とし、垂直バウンス角度を0度としてバウンス駆動部351によってバウンス部を移動させる。また、反射面が天井である場合には、ストロボマイコン310は水平バウンス角度を0度とし、垂直バウンス角度を90度としてバウンス駆動部351によってバウンス部を移動させる。   When auto bounce shooting is started, the flash microcomputer 310 measures the distance to the reflecting surface indicated by the bounce information sent from the camera microcomputer 101 (step S401). Here, when the reflecting surface is the left wall, the stroboscopic microcomputer 310 drives the bounce unit by the bounce drive unit 351 with the horizontal bounce angle set to 90 degrees and the vertical bounce angle set to 0 degrees. On the other hand, when the reflecting surface is the right wall, the stroboscopic microcomputer 310 moves the bounce unit by the bounce drive unit 351 with the horizontal bounce angle set to -90 degrees and the vertical bounce angle set to 0 degrees. When the reflecting surface is a ceiling, the stroboscopic microcomputer 310 sets the horizontal bounce angle to 0 degrees and the vertical bounce angle to 90 degrees, and moves the bounce section by the bounce drive section 351.

上述のようにして、バウンス部を駆動した後、ストロボマイコン310は距離計392によって反射面までの距離を測定する。   After driving the bounce unit as described above, the stroboscopic microcomputer 310 measures the distance to the reflecting surface by the distance meter 392.

続いて、ストロボマイコン310は、測定の結果得られた反射面の距離に基づいてバウンス撮影が可能であるか否かを判定する(ステップS402)。ここでは、反射面の距離が予め設定された距離未満(例えば、5m未満)であれば、ストロボマイコン310はバウンス撮影が可能であると判定する。一方、反射面の距離が予め定められた距離以上であると、ストロボマイコン310はバウンス撮影が不可であると判定する。   Subsequently, the stroboscopic microcomputer 310 determines whether or not bounce shooting is possible based on the distance of the reflection surface obtained as a result of the measurement (step S402). Here, if the distance of the reflecting surface is less than a preset distance (for example, less than 5 m), the flash microcomputer 310 determines that bounce shooting is possible. On the other hand, if the distance between the reflecting surfaces is equal to or greater than a predetermined distance, the flash microcomputer 310 determines that bounce shooting is not possible.

バウンス撮影が可能であると(ステップS402において、YES)、ストロボマイコン310は反射面の距離と被写体距離とに基づいてバウンス撮影のためのバウンス角度を求める。ここでは、ストロボマイコン310は、バウンス角度をストロボ光が反射面に当たる点である反射点と被写体とを結んだ角度が45度となる角度とする。そして、ストロボマイコン310は、当該バウンス角度に基づいてバウンス駆動部351によってバウンス部を駆動する(ステップS403:ヘッド角度移動)。   If bounce shooting is possible (YES in step S402), the flash microcomputer 310 obtains a bounce angle for bounce shooting based on the distance of the reflecting surface and the subject distance. Here, the stroboscopic microcomputer 310 sets the bounce angle to an angle at which the angle between the reflection point, which is the point where the stroboscopic light strikes the reflection surface, and the subject is 45 degrees. Then, the flash microcomputer 310 drives the bounce unit by the bounce drive unit 351 based on the bounce angle (step S403: head angle movement).

バウンス部の移動が完了すると、ストロボマイコン310は、カメラマイコン101にストロボ300がバウンス撮影可能な状態となった旨を通知する。当該通知を受けると、カメラマイコン101はユーザによって第2のスイッチSW2がオンされたか否かを判定する。そして、第2のスイッチSW2がオンされると、カメラマイコン101はその旨をストロボマイコン310に通知する。   When the movement of the bounce unit is completed, the flash microcomputer 310 notifies the camera microcomputer 101 that the flash 300 is ready for bounce shooting. Upon receiving the notification, the camera microcomputer 101 determines whether or not the second switch SW2 is turned on by the user. When the second switch SW2 is turned on, the camera microcomputer 101 notifies the strobe microcomputer 310 to that effect.

これによって、ストロボマイコン310はストロボ発光を行い、カメラマイコン101は記録用画像の撮影を行う(ステップS405)。そして、オートバウンス撮影処理は終了する。   Thereby, the flash microcomputer 310 emits flash light, and the camera microcomputer 101 captures a recording image (step S405). Then, the auto bounce shooting process ends.

バウンス撮影が不可であると(ステップS402において、NO)、ストロボマイコン310はバウンス撮影不可と判定した反射面が左又は右の壁であるか否かを判定する(ステップS406)。反射面が左又は右の壁であると(ステップS406において、YES)、ストロボマイコン310は反射面である左右の壁を変更する(ステップS407)。つまり、ストロボマイコン310は反射面が左の壁である場合には反射面を右の壁に変更する。一方、ストロボマイコン310は反射面が右の壁である場合には反射面を左の壁に変更する。   If bounce shooting is not possible (NO in step S402), the flash microcomputer 310 determines whether or not the reflecting surface determined to be bounce shooting impossible is the left or right wall (step S406). If the reflecting surface is the left or right wall (YES in step S406), the flash microcomputer 310 changes the left and right walls that are the reflecting surface (step S407). That is, the flash microcomputer 310 changes the reflection surface to the right wall when the reflection surface is the left wall. On the other hand, when the reflecting surface is the right wall, the flash microcomputer 310 changes the reflecting surface to the left wall.

次に、ストロボマイコン310は、変更後の反射面まで距離を測定する(ステップS408)。ステップS408に係る処理は、ステップS401の処理と同様の処理である。そして、ストロボマイコン310は、ステップS408の処理で得られた反射面の距離に基づいてバウンス撮影が可能であるか否かを判定する(ステップS409)。ここでは、反射面の距離が予め設定された距離(例えば、5m)未満であれば、ストロボマイコン310はバウンス撮影が可能であると判定する。   Next, the flash microcomputer 310 measures the distance to the changed reflecting surface (step S408). The process related to step S408 is the same process as the process of step S401. Then, the flash microcomputer 310 determines whether or not bounce shooting is possible based on the distance of the reflecting surface obtained in step S408 (step S409). Here, if the distance of the reflecting surface is less than a preset distance (for example, 5 m), the flash microcomputer 310 determines that bounce shooting is possible.

バウンス撮影可能であると(ステップS409において、YES)、ストロボマイコン310はカメラマイコン101にバウンス撮影可能な反射面の向きを示す向き情報を送る。向き情報を受けると、カメラマイコン101は被写体の向きとバウンス撮影可能な反射面の向きとが一致していない場合には(不一致の場合)、カメラ表示部113に「顔の向きを反対に変更してください」という文言を表示する(ステップS410:図15(b)参照)。これによって、カメラマイコン101は、顔を反対に向ければ所望のバウンス撮影が可能な旨をユーザに知らせる。   If the bounce shooting is possible (YES in step S409), the flash microcomputer 310 sends direction information indicating the direction of the reflecting surface that can be bounced to the camera microcomputer 101. Upon receiving the direction information, the camera microcomputer 101 changes the face direction to the camera display unit 113 if the direction of the subject does not match the direction of the reflection surface that can be bounced (if they do not match). Please display "(step S410: see FIG. 15B). As a result, the camera microcomputer 101 informs the user that desired bounce shooting is possible if the face is turned in the opposite direction.

続いて、カメラマイコン101は、ユーザによって第1のスイッチSW1がオンとされたか否かを判定する(ステップS411)。第1のスイッチSW1がオフであると(ステップS411において、NO)、カメラマイコン101は待機する。   Subsequently, the camera microcomputer 101 determines whether or not the first switch SW1 is turned on by the user (step S411). If first switch SW1 is off (NO in step S411), camera microcomputer 101 stands by.

一方、第1のスイッチSW1がオンとなると(ステップS411において、YES)、カメラマイコン101は、バウンス撮影前に測光回路106によって被写体向き判定用の画像をする(ステップS412)。カメラマイコン101はデジタル信号処理回路111によって被写体向き判定用の画像を解析して被写体の顔の向きを調べる。そして、カメラマイコン101は被写体の顔の向きが左右逆に変更されたか否かを判定する(ステップS413)。つまり、カメラマイコン101は顔の向きが変更されたか否かを判定する。   On the other hand, when the first switch SW1 is turned on (YES in step S411), the camera microcomputer 101 makes an image for subject orientation determination by the photometry circuit 106 before bounce shooting (step S412). The camera microcomputer 101 analyzes the subject orientation determination image by the digital signal processing circuit 111 to check the orientation of the subject's face. Then, the camera microcomputer 101 determines whether or not the orientation of the subject's face has been changed to the left and right (step S413). That is, the camera microcomputer 101 determines whether the face orientation has been changed.

顔の向きが変更されていないと(ステップS413において、NO)、カメラマイコン101はステップS411の処理に戻る。一方、顔の向きが変更されると(ステップS413において、YES)、カメラマイコン101はカメラ表示部113に表示の警告を消す(ステップS414)。そして、カメラマイコン101がその旨をストロボマイコン310に通知すると、ストロボマイコン310はステップS403の処理を行う。   If the face orientation has not been changed (NO in step S413), the camera microcomputer 101 returns to the process in step S411. On the other hand, when the face orientation is changed (YES in step S413), the camera microcomputer 101 turns off the display warning on the camera display unit 113 (step S414). When the camera microcomputer 101 notifies the strobe microcomputer 310 to that effect, the strobe microcomputer 310 performs the process of step S403.

バウンス撮影が不可であると(ステップS409において、NO)、ストロボマイコン310は反射面として天井を用いることが不可(NG)であるか否かを判定する(ステップS415)。天井を反射面として用いてバウンス撮影を行うか否かの判定が行われて既に不可とされていないと(ステップS415において、NO)、ストロボマイコン310は反射面を天井に変更する(ステップS416)。   If bounce shooting is not possible (NO in step S409), strobe microcomputer 310 determines whether or not it is impossible to use the ceiling as a reflecting surface (NG) (step S415). If it is determined that bounce shooting is to be performed using the ceiling as the reflecting surface and it has not been disabled (NO in step S415), the flash microcomputer 310 changes the reflecting surface to the ceiling (step S416). .

続いて、ストロボマイコン310は、変更後の反射面である天井までの距離を測定する(ステップS417)。ステップS417に係る処理は、ステップS401の処理と同様にして行われる。   Subsequently, the flash microcomputer 310 measures the distance to the ceiling, which is the reflection surface after the change (step S417). The process related to step S417 is performed in the same manner as the process of step S401.

次に、ストロボマイコン310は反射面(ここでは、天井)の距離に基づいてバウンス撮影が可能であるか否かを判定する(ステップS418)。ここでは、反射面の距離が予め設定された距離(例えば、5m)未満であれば、ストロボマイコン310はバウンス撮影が可能であると判定する。   Next, the flash microcomputer 310 determines whether bounce shooting is possible based on the distance of the reflecting surface (here, the ceiling) (step S418). Here, if the distance of the reflecting surface is less than a preset distance (for example, 5 m), the flash microcomputer 310 determines that bounce shooting is possible.

バウンス撮影が可能であると(ステップS418において、YES)、ストロボマイコン310は、カメラマイコン101にバウンス撮影可能な反射面が天井である旨を通知する。これによって、カメラマイコン101はカメラ表示部113に「天井バウンスに切り替えます」の文言を表示する(ステップS419:図15(c)参照)。そして、カメラマイコン101への通知の後、ストロボマイコン310はステップS403の処理を行う。   When the bounce shooting is possible (YES in step S418), the flash microcomputer 310 notifies the camera microcomputer 101 that the reflection surface capable of bounce shooting is the ceiling. As a result, the camera microcomputer 101 displays the word “switch to ceiling bounce” on the camera display unit 113 (step S419: see FIG. 15C). After the notification to the camera microcomputer 101, the flash microcomputer 310 performs the process of step S403.

バウンス撮影が不可であると(ステップS418において、NO)、ストロボマイコン310はバウンス撮影が不可であると決定する(ステップS420)。そして、ストロボマイコン310はその旨カメラマイコン101に通知する。当該通知を受けると、カメラマイコン101はカメラ表示部113に「正面に切り替えます」の文言を表示する(ステップS421:図15(d)参照)。カメラマイコン101への通知の後、ストロボマイコン310はステップS403の処理に進み、正面照射を行うためバウンス部を正面に向ける。   If bounce shooting is not possible (NO in step S418), strobe microcomputer 310 determines that bounce shooting is not possible (step S420). Then, the flash microcomputer 310 notifies the camera microcomputer 101 to that effect. Upon receiving the notification, the camera microcomputer 101 displays the word “switch to the front” on the camera display unit 113 (step S421: see FIG. 15D). After the notification to the camera microcomputer 101, the flash microcomputer 310 proceeds to the process of step S403, and turns the bounce part to the front to perform front irradiation.

なお、天井を反射面として用いてバウンス撮影を行うか否かの判定が行われて既に不可とされていると(ステップS415において、YES)、ストロボマイコン310はステップS420の処理に進む。   If determination is made as to whether or not to perform bounce shooting using the ceiling as the reflecting surface and it is already impossible (YES in step S415), strobe microcomputer 310 proceeds to the process of step S420.

ステップS406において、反射面が左および右の壁でないと(ステップS406において、NO)、つまり、バウンス撮影が不可とされた反射面が天井であると、ストロボマイコン310は、カメラマイコン101に天井を反射面とするバウンス撮影が不可である旨を通知する(ステップS422)。これによって、後述するように、カメラマイコン101は天井を反射面として用いたバウンス撮影が不可である際の被写体向き判定を行う。そして、オートバウンス撮影は終了する。   In step S406, if the reflecting surface is not the left and right walls (NO in step S406), that is, if the reflecting surface that cannot be bounced is the ceiling, the flash microcomputer 310 causes the camera microcomputer 101 to face the ceiling. It is notified that bounce shooting as a reflecting surface is impossible (step S422). As a result, as will be described later, the camera microcomputer 101 performs subject direction determination when bounce shooting using the ceiling as a reflecting surface is impossible. Then, the auto bounce shooting ends.

図18は、図1に示すカメラマイコンで行われる天井バウンス不可の際の被写体向き判定処理を説明するためのフローチャートである。   FIG. 18 is a flowchart for explaining subject orientation determination processing when ceiling bounce is impossible performed by the camera microcomputer shown in FIG.

被写体向き判定処理を開始すると、カメラマイコン101は、ステップS103の処理で得た画像解析結果に基づいて被写体において顔領域が検出されたか否かを判定する(ステップS601)。顔領域が検出されないと(ステップS601において、NO)、カメラマイコン101は反射面を「正面」とする(ステップS602)。そして、カメラマイコン101は被写体向き判定処理を終了して、図6に示すステップS105の処理に移行する。   When the subject orientation determination process is started, the camera microcomputer 101 determines whether a face area is detected in the subject based on the image analysis result obtained in the process of step S103 (step S601). If the face area is not detected (NO in step S601), the camera microcomputer 101 sets the reflection surface to “front” (step S602). Then, the camera microcomputer 101 ends the subject orientation determination process and proceeds to the process of step S105 shown in FIG.

顔領域が検出されると(ステップS601において、YES)、カメラマイコン101は画像解析結果において顔領域が複数あるか否かを判定する(ステップS603)。顔領域が1つであると(ステップS603において、NO)、カメラマイコン101は画像解析結果において顔領域が右向きであるか否かを判定する(ステップS604)。顔領域が右向きであると(ステップS604において、YES)、カメラマイコン101は反射面を「右」の壁とする(ステップS605)。そして、カメラマイコン101は被写体向き判定処理を終了して、図6に示すステップS105の処理に移行する。   When a face area is detected (YES in step S601), the camera microcomputer 101 determines whether there are a plurality of face areas in the image analysis result (step S603). If there is only one face area (NO in step S603), the camera microcomputer 101 determines whether the face area is facing right in the image analysis result (step S604). If the face area is facing right (YES in step S604), the camera microcomputer 101 sets the reflecting surface to the “right” wall (step S605). Then, the camera microcomputer 101 ends the subject orientation determination process and proceeds to the process of step S105 shown in FIG.

顔領域が右向きでないと(ステップS604において、NO)、つまり、顔領域の向きが左向きであると、カメラマイコン101は反射面を「左」の壁とする(ステップS606)。そして、カメラマイコン101は被写体向き判定処理を終了して、図6に示すステップS105の処理に移行する。   If the face area is not facing right (NO in step S604), that is, if the face area is facing left, the camera microcomputer 101 sets the reflecting surface to the “left” wall (step S606). Then, the camera microcomputer 101 ends the subject orientation determination process and proceeds to the process of step S105 shown in FIG.

顔領域が複数あると(ステップS603において、YES)、カメラマイコン101は画像解析結果において複数の顔領域の向きが一致しているか否かを判定する(ステップS607)。複数の顔領域の向きが一致していると(ステップS607において、YES)、カメラマイコン101はステップS604の処理に戻って、その向きは右向きであるか否かを判定する。   If there are a plurality of face areas (YES in step S603), the camera microcomputer 101 determines whether or not the orientations of the plurality of face areas match in the image analysis result (step S607). If the orientations of the plurality of face areas match (YES in step S607), the camera microcomputer 101 returns to the process of step S604 and determines whether or not the orientation is rightward.

複数の顔領域の向きが一致していないと(ステップS607において、NO)、カメラマイコン101は画像解析結果において複数の顔領域の向きの多数を調べる多数決処理を行う(ステップS608)。そして、カメラマイコン101は多数決結果によって右向きが多いか否かを判定する(ステップS609)。   If the orientations of the plurality of face areas do not match (NO in step S607), the camera microcomputer 101 performs a majority process for examining the majority of the orientations of the plurality of face areas in the image analysis result (step S608). Then, the camera microcomputer 101 determines whether there is much rightward based on the majority result (step S609).

右向きの顔領域が多いと(ステップS609において、YES)、カメラマイコン101は反射面を「右」の壁とする(ステップS610)。そして、カメラマイコン101は被写体向き判定処理を終了して、図6に示すステップS105の処理に移行する。一方、左向きの顔領域が多いと(ステップS609において、NO)、カメラマイコン101は反射面を「左」の壁とする(ステップS612)。そして、カメラマイコン101は被写体向き判定処理を終了して、図6に示すステップS105の処理に移行する。   If there are many face areas facing right (YES in step S609), the camera microcomputer 101 sets the reflecting surface to the “right” wall (step S610). Then, the camera microcomputer 101 ends the subject orientation determination process and proceeds to the process of step S105 shown in FIG. On the other hand, if there are many face areas facing left (NO in step S609), the camera microcomputer 101 sets the reflection surface to the “left” wall (step S612). Then, the camera microcomputer 101 ends the subject orientation determination process and proceeds to the process of step S105 shown in FIG.

このように、本発明の実施の形態では、被写体(つまり、顔)の向きを判定してバウンス撮影を行う反射面を決定する。これによって、良好にバウンス撮影を行うための反射面(バウンス面)を自動的に選択することができる。   As described above, in the embodiment of the present invention, the direction of the subject (that is, the face) is determined to determine the reflection surface on which the bounce shooting is performed. This makes it possible to automatically select a reflection surface (bounce surface) for good bounce shooting.

さらに、本発明の実施の形態では、左右の壁および天井の全てについて反射面として用いることが可能か否かを調べて反射面を決定しておらず、この結果、バウンス角度を決定するまでの時間および電力を低減することができる。また、顔の向きに対応する反射面が存在せず、その反対側に反射面が存在する場合には、顔の向きを変更するように促すようにしたので、常にバウンス撮影を行うことができる。   Furthermore, in the embodiment of the present invention, the reflection surface is not determined by examining whether or not the left and right walls and ceiling can be used as the reflection surface, and as a result, the bounce angle is determined. Time and power can be reduced. In addition, when there is no reflecting surface corresponding to the face direction and there is a reflecting surface on the opposite side, it is urged to change the face direction, so bounce shooting can always be performed. .

なお、上述の実施の形態では、カメラが画像解析結果に基づいて反射面の決定を行うようにしたが、当該画像解析結果をストロボマイコンに送ってストロボマイコンが反射面の決定を行うようにしてもよい。さらには、顔の向きから決定した反射面を用いてバウンス撮影を行うことができない場合、警告を表示することに加えて、警告を音又はバウンス部の動きで知らせるようにしてもよい。また、警告表示についてカメラ表示部ではなくストロボ表示部に表示させてもよい。   In the above-described embodiment, the camera determines the reflection surface based on the image analysis result. However, the image analysis result is sent to the strobe microcomputer so that the strobe microcomputer determines the reflection surface. Also good. Further, when bounce shooting cannot be performed using the reflecting surface determined from the face orientation, the warning may be notified by sound or movement of the bounce unit in addition to displaying the warning. The warning display may be displayed not on the camera display unit but on the strobe display unit.

また、優先的な被写体(つまり、顔)が存在する場合には、複数の被写体が存在する場合であっても被写体が1つの場合の処理に進んで、優先的な被写体の向きに基づいて反射面を決定するようにしてもよい。そして、本発明の実施の形態では、測光回路106の出力に応じて被写体の向きを判定するようにしたが、ライブビューの際に得られる画像に応じて被写体向きを判定するようにしてもよく、記録用画像の解析結果に応じて被写体向きを判定するようにしてもよい。   In addition, when there is a priority subject (that is, a face), even if there are a plurality of subjects, the process proceeds to a case where there is one subject, and reflection is performed based on the orientation of the priority subject. The surface may be determined. In the embodiment of the present invention, the direction of the subject is determined according to the output of the photometry circuit 106, but the direction of the subject may be determined according to an image obtained during live view. The orientation of the subject may be determined according to the analysis result of the recording image.

上述の説明から明らかなように、図1に示す例では、ストロボマイコン310が決定手段および制御手段と機能する。また、ストロボマイコン310は判定手段および報知手段として機能する。さらに、カメラマイコン101および測光回路106は取得手段として機能し、カメラマイコン101およびデジタル信号処理回路111は検出手段として機能する。そして、カメラマイコン101は通知手段として機能する。   As is clear from the above description, in the example shown in FIG. 1, the strobe microcomputer 310 functions as a determination unit and a control unit. The strobe microcomputer 310 functions as a determination unit and a notification unit. Further, the camera microcomputer 101 and the photometry circuit 106 function as acquisition means, and the camera microcomputer 101 and the digital signal processing circuit 111 function as detection means. The camera microcomputer 101 functions as a notification unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を発光装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを発光装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and the control method may be executed by the light emitting device. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the light emitting device. The control program is recorded on a computer-readable recording medium, for example.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 カメラ
101 カメラマイコン
106 測光回路
107 焦点検出回路
111 デジタル信号処理部(デジタル信号処理回路)
200 撮影レンズ
201 レンズマイコン
300 ストロボ
310 ストロボマイコン
351 バウンス駆動部
DESCRIPTION OF SYMBOLS 100 Camera 101 Camera microcomputer 106 Photometry circuit 107 Focus detection circuit 111 Digital signal processing part (digital signal processing circuit)
200 Shooting Lens 201 Lens Microcomputer 300 Strobe 310 Strobe Microcomputer 351 Bounce Drive Unit

Claims (20)

撮像装置によって被写体を撮影する際に光を照射する発光手段を有する発光装置であって、
前記発光手段から発光された光をバウンス面で反射させて前記被写体を照明して撮影を行うバウンス撮影の際、前記撮像装置から送られ撮影の際の前記被写体の向きを示す向き情報に基づいて前記バウンス撮影を行う際のバウンス面の方向を決定する決定手段と、
前記決定手段で決定されたバウンス面の方向に存在するバウンス面と前記撮像装置との距離に応じて前記バウンス撮影を行う際の前記発光手段の角度をバウンス角度として求めて、当該バウンス角度に前記発光手段を制御する制御手段と、
を有することを特徴とする発光装置。
A light emitting device having light emitting means for irradiating light when photographing an object with an imaging device;
Based on the orientation information sent from the imaging device and indicating the orientation of the subject at the time of the bounce shooting in which the light emitted from the light emitting means is reflected by a bounce surface to illuminate the subject and shoot. Determining means for determining a direction of a bounce surface when performing the bounce shooting;
The angle of the light emitting means when performing the bounce shooting is determined as a bounce angle according to the distance between the bounce surface existing in the direction of the bounce surface determined by the determination means and the imaging device, and the bounce angle is calculated based on the bounce angle. Control means for controlling the light emitting means;
A light emitting device comprising:
前記決定手段は、前記バウンス撮影の前に前記撮像装置から送られた画像において前記被写体の向きを検出して前記向き情報を得ることを特徴とする請求項1に記載の発光装置。   The light-emitting device according to claim 1, wherein the determination unit detects the orientation of the subject in an image sent from the imaging device before the bounce shooting and obtains the orientation information. 前記撮像装置には、前記バウンス撮影の前に前記向き情報を得るための画像を取得する取得手段と、
前記取得手段で得られた画像において前記被写体の向きを検出して前記向き情報を得る検出手段と、
前記向き情報を前記発光装置に送る通知手段とが備えられていることを特徴とする請求項1に記載の発光装置。
In the imaging device, acquisition means for acquiring an image for obtaining the orientation information before the bounce shooting,
Detecting means for detecting the orientation of the subject in the image obtained by the obtaining means to obtain the orientation information;
The light emitting device according to claim 1, further comprising notification means for sending the orientation information to the light emitting device.
前記決定手段によって決定されたバウンス面の方向に前記バウンス撮影に用いるバウンス面が存在するか否かを判定する判定手段と、
前記判定手段によってバウンス面が存在しないと判定された場合、前記バウンス撮影の際に用いるバウンス面が存在しない旨を前記撮像装置に報知する報知手段とを有することを特徴とする請求項1乃至3のいずれか1項に記載の発光装置。
Determining means for determining whether or not there is a bounce surface used for the bounce shooting in the direction of the bounce surface determined by the determining means;
4. The apparatus according to claim 1, further comprising an informing unit that informs the imaging apparatus that there is no bounce surface used in the bounce shooting when the determination unit determines that there is no bounce surface. The light emitting device according to any one of the above.
前記決定手段によって決定されたバウンス面の方向に前記バウンス撮影に用いるバウンス面が存在するか否かを判定する判定手段と、
前記判定手段によってバウンス面が存在しないと判定された場合、前記バウンス撮影の際に用いるバウンス面が存在しない旨をユーザに警告する警告手段とを有することを特徴とする請求項1乃至3のいずれか1項に記載の発光装置。
Determining means for determining whether or not there is a bounce surface used for the bounce shooting in the direction of the bounce surface determined by the determining means;
4. The apparatus according to claim 1, further comprising a warning unit that warns a user that there is no bounce surface used for the bounce shooting when the determination unit determines that the bounce surface does not exist. The light emitting device according to claim 1.
前記決定手段によって決定されたバウンス面の方向に前記バウンス撮影に用いるバウンス面が存在するか否かを判定する第1の判定手段と、
前記第1の判定手段によってバウンス面が存在しないと判定された場合、前記決定手段によって決定されたバウンス面の方向を除く方向にバウンス面が存在するか否かを判定する第2の判定手段と、
前記第2の判定手段によってバウンス面が存在すると判定されると、当該バウンス面の方向に応じて前記被写体の向きを変更する旨を前記撮像装置に報知する報知手段とを有することを特徴とする請求項1乃至3のいずれか1項に記載の発光装置。
First determination means for determining whether or not there is a bounce surface used for the bounce shooting in the direction of the bounce surface determined by the determination means;
Second determination means for determining whether or not a bounce surface exists in a direction other than the direction of the bounce surface determined by the determination means when the first determination means determines that no bounce surface exists; ,
And a notifying unit for notifying the imaging apparatus that the direction of the subject is changed according to the direction of the bounce surface when the second determination unit determines that the bounce surface exists. The light-emitting device according to claim 1.
前記決定手段によって決定されたバウンス面の方向に前記バウンス撮影に用いるバウンス面が存在するか否かを判定する第1の判定手段と、
前記第1の判定手段によってバウンス面が存在しないと判定された場合、前記決定手段によって決定されたバウンス面の方向を除く方向にバウンス面が存在するか否かを判定する第2の判定手段と、
前記第2の判定手段によってバウンス面が存在すると判定されると、当該バウンス面の方向に応じて前記被写体の向きを変更する旨をユーザに警告する警告手段とを有することを特徴とする請求項1乃至3のいずれか1項に記載の発光装置。
First determination means for determining whether or not there is a bounce surface used for the bounce shooting in the direction of the bounce surface determined by the determination means;
Second determination means for determining whether or not a bounce surface exists in a direction other than the direction of the bounce surface determined by the determination means when the first determination means determines that no bounce surface exists; ,
And a warning unit that warns a user that the direction of the subject is to be changed according to the direction of the bounce surface when the second determination unit determines that a bounce surface is present. The light emitting device according to any one of 1 to 3.
前記第1の判定手段および第2の判定手段の各々はバウンス面として用いる壁が存在するか否かを判定しており、
前記第2の判定手段によってバウンス面として用いる壁が存在しないと判定されると、前記決定手段は、天井までの距離が予め定められた距離未満であると前記天井を前記バウンス撮影に用いるバウンス面として決定することを特徴とする請求項6又は7に記載の発光装置。
Each of the first determination means and the second determination means determines whether there is a wall used as a bounce surface,
If it is determined by the second determination means that there is no wall to be used as a bounce surface, the determination means uses the ceiling as a bounce surface when the distance to the ceiling is less than a predetermined distance. The light-emitting device according to claim 6, wherein the light-emitting device is determined as follows.
前記天井までの距離が前記予め定められた距離以上であると、前記制御手段は前記被写体の正面から光を照射する正面照射に切り替えることを特徴とする請求項8記載の発光装置。   9. The light emitting device according to claim 8, wherein when the distance to the ceiling is equal to or greater than the predetermined distance, the control unit switches to front irradiation that irradiates light from the front of the subject. 前記被写体が複数である場合に、前記決定手段は前記向き情報に基づいて前記被写体の顔の向きが一致していると、前記顔の向きにある壁を前記バウンス撮影の際のバウンス面と決定し、前記被写体の向きが不一致であると天井を前記バウンス撮影の際のバウンス面と決定することを特徴とする請求項1に記載の発光装置。   In the case where there are a plurality of subjects, the determination unit determines a wall in the face direction as a bounce surface at the time of the bounce shooting when the orientation of the face of the subject matches based on the orientation information. The light-emitting device according to claim 1, wherein if the direction of the subject is inconsistent, the ceiling is determined as a bounce surface for the bounce shooting. 前記決定手段は、前記被写体の顔の向きが一致している場合であっても複数の被写体の間の距離が所定の距離以上であると前記天井を前記バウンス撮影の際のバウンス面として決定することを特徴とする請求項10に記載の発光装置。   The determining means determines the ceiling as a bounce surface at the time of the bounce shooting when the distance between a plurality of subjects is equal to or greater than a predetermined distance even when the orientations of the faces of the subjects are the same. The light emitting device according to claim 10. 前記決定手段は、前記被写体の顔の向きが一致し、複数の被写体の間の距離が所定の距離未満であって、かつ前記複数の被写体の各々と前記撮像装置との距離が所定の範囲にあると前記被写体の向きに存在する壁をバウンス撮影の際のバウンス面として決定することを特徴とする請求項10に記載の発光装置。   The determining means has the face orientation of the subject coincident, the distance between the plurality of subjects is less than a predetermined distance, and the distance between each of the plurality of subjects and the imaging device is within a predetermined range. The light-emitting device according to claim 10, wherein a wall existing in a direction of the subject is determined as a bounce surface in bounce shooting. 前記決定手段は、前記被写体の向き向きが一致し、複数の被写体の間の距離が所定の距離未満であって、かつ前記複数の被写体の各々と前記撮像装置との距離が所定の範囲にないと、前記複数の被写体を被写体列として当該被写体列の向きと前記被写体の向きとが一致している場合には、前記被写体列の向きに存在する壁を前記バウンス撮影の際のバウンス面と決定することを特徴とする請求項10に記載の発光装置。   The determining means is configured so that the orientation directions of the subjects are the same, the distance between the plurality of subjects is less than a predetermined distance, and the distance between each of the plurality of subjects and the imaging device is not within a predetermined range. When a plurality of subjects are used as subject rows, and the direction of the subject row and the direction of the subject coincide with each other, a wall existing in the direction of the subject row is determined as a bounce plane at the time of the bounce shooting. The light emitting device according to claim 10. 前記被写体列の向きと前記被写体の向きとが一致していない場合には、前記撮像装置にその旨を報知する報知手段を有することを特徴とする請求項13に記載の発光装置。   The light emitting device according to claim 13, further comprising a notifying unit that notifies the imaging device when the orientation of the subject row does not match the orientation of the subject. 前記被写体列の向きと前記被写体の向きとが一致していない場合には、その旨をユーザに警告する警告手段を有することを特徴とする請求項13に記載の発光装置。   14. The light emitting device according to claim 13, further comprising warning means for warning a user when the direction of the subject row does not match the direction of the subject. 前記被写体が複数である場合に、前記決定手段は前記向き情報に基づいて前記被写体の向きのうち最も多い向きの方向に存在するバウンス面を前記バウンス撮影の際のバウンス面と決定することを特徴とする請求項1に記載の発光装置。   In the case where there are a plurality of subjects, the determining means determines a bounce surface existing in the direction of the largest number of orientations of the subject as a bounce surface at the time of the bounce shooting based on the orientation information. The light-emitting device according to claim 1. 前記複数の被写体において優先する被写体が存在すると、前記決定手段は前記優先する被写体の向きの方向に存在するバウンス面を前記バウンス撮影の際のバウンス面と決定することを特徴とする請求項1に記載の発光装置。   The said determination means determines the bounce surface which exists in the direction of the direction of the said priority subject as the bounce surface at the time of the said bounce imaging | photography, when the to-be-priorized subject exists in these several subjects. The light emitting device described. 被写体を撮影する際に発光装置によって光を照射して前記被写体を撮影する撮像装置であって、
前記発光装置から発光された光をバウンス面で反射させて前記被写体を照明して撮影を行うバウンス撮影の際、撮影前に前記被写体の向きを検出するための画像を得て、当該画像において前記被写体の向きを検出して向き情報を得る検出手段と、
前記向き情報に基づいて前記バウンス撮影を行う際のバウンス面の方向を決定する決定手段と、
前記決定手段で決定されたバウンス面の方向を示す情報を前記発光装置に送る送信手段と、
を有することを特徴とする撮像装置。
An imaging apparatus for capturing the subject by irradiating light by the light emitting device when photographing an object,
At the time of bounce shooting in which the light emitted from the light emitting device is reflected by a bounce surface to illuminate the subject and photographed, an image for detecting the orientation of the subject is obtained before photographing, Detecting means for detecting the orientation of the subject to obtain orientation information;
Determining means for determining a direction of a bounce surface when performing the bounce shooting based on the orientation information;
Transmitting means for sending information indicating the direction of the bounce surface determined by the determining means to the light emitting device;
An imaging device comprising:
前記発光装置では、前記バウンス面の方向に存在するバウンス面と前記撮像装置との距離に応じて前記バウンス撮影を行う際の前記発光手段の角度をバウンス角度として求めて、当該バウンス角度に前記発光手段を制御することを特徴とする請求項18に記載の撮像装置。   In the light emitting device, an angle of the light emitting means when performing the bounce photographing is determined as a bounce angle according to a distance between the bounce surface existing in the direction of the bounce surface and the imaging device, and the light emission is performed at the bounce angle. The image pickup apparatus according to claim 18, wherein the means is controlled. 撮像装置によって被写体を撮影する際に光を照射する発光手段を有する発光装置の制御方法であって、
前記発光手段から発光された光をバウンス面で反射させて前記被写体を照明して撮影を行うバウンス撮影の際、前記撮像装置から送られ撮影の際の前記被写体の向きを示す向き情報に基づいて前記バウンス撮影を行う際のバウンス面の方向を決定する決定ステップと、
前記決定ステップで決定されたバウンス面の方向に存在するバウンス面と前記撮像装置との距離に応じて前記バウンス撮影を行う際の前記発光手段の角度をバウンス角度として求めて、当該バウンス角度に前記発光手段を制御する制御ステップと、
を有することを特徴とする制御方法。
A method of controlling a light emitting device having light emitting means for irradiating light when photographing an object with an imaging device,
Based on the orientation information sent from the imaging device and indicating the orientation of the subject at the time of the bounce shooting in which the light emitted from the light emitting means is reflected by a bounce surface to illuminate the subject and shoot. A determination step of determining a direction of a bounce surface when performing the bounce shooting;
The bounce angle is obtained as the bounce angle when the bounce photographing is performed according to the distance between the bounce surface existing in the direction of the bounce surface determined in the determination step and the imaging device, and the bounce angle is set to the bounce angle. A control step for controlling the light emitting means;
A control method characterized by comprising:
JP2015223951A 2015-11-16 2015-11-16 LIGHT EMITTING DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE Expired - Fee Related JP6598649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015223951A JP6598649B2 (en) 2015-11-16 2015-11-16 LIGHT EMITTING DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015223951A JP6598649B2 (en) 2015-11-16 2015-11-16 LIGHT EMITTING DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE

Publications (3)

Publication Number Publication Date
JP2017090807A JP2017090807A (en) 2017-05-25
JP2017090807A5 JP2017090807A5 (en) 2018-12-27
JP6598649B2 true JP6598649B2 (en) 2019-10-30

Family

ID=58770746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015223951A Expired - Fee Related JP6598649B2 (en) 2015-11-16 2015-11-16 LIGHT EMITTING DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE

Country Status (1)

Country Link
JP (1) JP6598649B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7291492B2 (en) * 2019-01-30 2023-06-15 パナソニックIpマネジメント株式会社 Strobe device and imaging device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157004A (en) * 2007-12-26 2009-07-16 Sanyo Electric Co Ltd Imaging apparatus
JP2012178666A (en) * 2011-02-25 2012-09-13 Nikon Corp Imaging apparatus
JP2014038268A (en) * 2012-08-20 2014-02-27 Panasonic Corp Stroboscopic device and imaging apparatus
JP6132661B2 (en) * 2013-05-28 2017-05-24 キヤノン株式会社 Imaging device, illumination device, and control method

Also Published As

Publication number Publication date
JP2017090807A (en) 2017-05-25

Similar Documents

Publication Publication Date Title
US7684691B2 (en) Image capture apparatus and control method thereof
JP5494178B2 (en) Lighting device and camera
JP2016212226A (en) Illumination device and control method
US10721416B2 (en) Imaging device
JP6226581B2 (en) Lighting device and control method thereof
JP6598649B2 (en) LIGHT EMITTING DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
US9716818B2 (en) Illumination apparatus having first case and second case rotatable relative to first case, and imaging apparatus having detachable illumination apparatus
JP7129196B2 (en) IMAGING DEVICE, CONTROL METHOD AND PROGRAM THEREOF
JP5063184B2 (en) IMAGING DEVICE, LIGHT EMITTING DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP2010107862A (en) Af-bracket photographic method and device
JP6584128B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP6132661B2 (en) Imaging device, illumination device, and control method
JP2010134091A (en) Stroboscopic device, imaging apparatus, and camera system
JP5183188B2 (en) Imaging device and strobe device
JP6532203B2 (en) Imaging system, lighting device and control method
JP6685732B2 (en) Illumination device, imaging system, control method thereof, and program
JP6873779B2 (en) Imaging device, its control method, and control program
JP2005115161A (en) Electronic flash device, control method for electronic flash device and camera system
JP2019095807A (en) Focus detection device and imaging apparatus
JP6489925B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP2016109824A (en) Imaging system, illumination device and imaging device, and control method of the same
JP2009122523A (en) Flash light device
JP2018081121A (en) Imaging system and control method thereof
JP2019086685A (en) Illumination device, control method therefor, control program, and imaging apparatus
JP2009003261A (en) Focus adjustment device, imaging device and focus adjustment method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R151 Written notification of patent or utility model registration

Ref document number: 6598649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees