JP6685732B2 - Illumination device, imaging system, control method thereof, and program - Google Patents

Illumination device, imaging system, control method thereof, and program Download PDF

Info

Publication number
JP6685732B2
JP6685732B2 JP2016007130A JP2016007130A JP6685732B2 JP 6685732 B2 JP6685732 B2 JP 6685732B2 JP 2016007130 A JP2016007130 A JP 2016007130A JP 2016007130 A JP2016007130 A JP 2016007130A JP 6685732 B2 JP6685732 B2 JP 6685732B2
Authority
JP
Japan
Prior art keywords
light
light emitting
emitting unit
information
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016007130A
Other languages
Japanese (ja)
Other versions
JP2017129623A (en
Inventor
慶一郎 齊藤
慶一郎 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016007130A priority Critical patent/JP6685732B2/en
Publication of JP2017129623A publication Critical patent/JP2017129623A/en
Application granted granted Critical
Publication of JP6685732B2 publication Critical patent/JP6685732B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、配光角を変更可能な照明装置、照明装置を備える撮像システムとその制御方法及びプログラムに関する。   The present invention relates to a lighting device capable of changing a light distribution angle, an imaging system including the lighting device, a control method thereof, and a program.

撮像装置と照明装置を有する撮像システムを用いた撮影手法の1つとして、照明装置の光を天井や壁等の反射体に向けて照射し、反射体からの拡散反射光を被写体に照射して撮影を行う発光撮影(以下「バウンス発光撮影」という)がある。バウンス発光撮影では、照明装置の光を間接的に被写体に照射することができるため、柔らかい光での描写が可能となる。このようなバウンス発光撮影に関して、照明装置からの光の照射方向等を距離検出手段や姿勢検出手段の検出結果を用いて照明装置の内部で演算し、照明装置内の駆動部によって自動的に調整する自動化技術が知られている。   As one of imaging methods using an imaging system having an imaging device and a lighting device, the light of the lighting device is directed toward a reflector such as a ceiling or a wall, and diffuse reflected light from the reflector is applied to a subject. There is flash photography for shooting (hereinafter referred to as "bounce flash photography"). In bounce flash photography, the light of the illumination device can be indirectly radiated to the subject, so that it is possible to draw with soft light. Regarding such bounce flash photography, the irradiation direction of the light from the lighting device is calculated inside the lighting device using the detection results of the distance detection means and the posture detection means, and is automatically adjusted by the drive unit in the lighting device. There is a known automated technology.

バウンス発光撮影の自動化技術において高精度な演算結果を得るためには、被写体及び反射体に対する測距時の検出精度を高める必要がある。しかし、従来の反射光検出手段を用いた測距では、測距用発光の配光角が撮影レンズ焦点距離に対応した配光角又は本撮影時の本発光の配光角で固定されていた。そのため、画角周辺の測距ができず、或いは、ガイドナンバーが小さくなることで、測距結果にばらつきが発生しやすくなっており、特に、被写体に対する測距では、画角内の被写体位置によって測距結果のばらつき大きくなるという問題があった。このような問題を解決する技術として、反射光検出手段を用いた測距時に、被写体の反射率に応じて測距結果を補正することにより測距精度を向上させたバウンス撮影装置が提案されている(特許文献1参照)。   In order to obtain a highly accurate calculation result in the bounce flash photography automation technology, it is necessary to increase the detection accuracy when measuring the distance to the subject and the reflector. However, in the distance measurement using the conventional reflected light detection means, the light distribution angle of the light emission for distance measurement is fixed at the light distribution angle corresponding to the focal length of the photographing lens or the light distribution angle of the main light emission at the time of actual photographing. . Therefore, it is not possible to measure the distance around the angle of view, or the guide number becomes smaller, which tends to cause variations in the distance measurement results. There is a problem in that variations in distance measurement results become large. As a technique for solving such a problem, there has been proposed a bounce photographing device in which the distance measurement accuracy is improved by correcting the distance measurement result according to the reflectance of the subject at the time of distance measurement using the reflected light detection means. (See Patent Document 1).

特開2015‐004933号公報JP, 2015-004933, A

しかしながら、上記特許文献1に開示された技術は、被写体に測距用の発光が正しく照射されていることを前提として補正を行うため、次のような問題がある。図15は、従来の測距用発光の問題を模式的に説明する図である。図15(a)は、測距用発光範囲が被写体からずれている様子を示している。このような状況は、例えば、撮影レンズの焦点距離が広角で照明装置の配光角が狭い望遠であるような、撮影画角と測距用配光角とがずれているときに生じ得る。この場合、被写体には測距のための光があたっていないため、正しい補正を行うことができず、高精度な測距結果を得ることができない。一方、図15(b)は、測距用発光範囲が撮影画角をカバーしているが、被写体に対して不要に広い測距用発光範囲が設定されている様子を示している。この場合、照明装置のガイドナンバーが低下して光量不足が生じることで、測距可能な距離レンジが短くなる。そのため、被写体との距離が離れるにしたがって、高精度な測距結果を得ることができなくなる。   However, the technique disclosed in Patent Document 1 has the following problem because the correction is performed on the assumption that the light emission for distance measurement is correctly emitted to the subject. FIG. 15 is a diagram schematically illustrating a problem of conventional light emission for distance measurement. FIG. 15A shows a state in which the distance measurement light emitting range is displaced from the subject. Such a situation may occur, for example, when the photographing field angle and the distance measuring light distribution angle are deviated from each other, such as when the photographing lens has a wide focal length and the illumination device has a narrow light distribution angle in the telephoto mode. In this case, since the subject is not exposed to the light for distance measurement, correct correction cannot be performed and a highly accurate distance measurement result cannot be obtained. On the other hand, FIG. 15B shows a state in which the range-finding emission range covers the shooting angle of view, but an unnecessarily wide range-finding emission range is set for the subject. In this case, the guide number of the illuminating device is reduced and the amount of light is insufficient, so that the distance range in which distance measurement is possible becomes short. Therefore, as the distance to the subject increases, it becomes impossible to obtain a highly accurate distance measurement result.

本発明は、被写体と反射体の測距時の発光及び撮像時の本発光を適切に制御することが可能な照明装置を提供することを目的とする。   It is an object of the present invention to provide an illuminating device capable of appropriately controlling light emission during distance measurement of a subject and a reflector and main light emission during image pickup.

本発明に係る撮像システムは、レンズ鏡筒、撮像装置および照明装置を備える撮像システムであって、前記照明装置は、照射する光の照射方向と配光角をそれぞれ変更可能に構成された発光部と、被写体の距離に関する情報と、反射体の距離に関する情報とを、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときの反射光に基づき検出する検出手段と、を有し、前記照明装置と前記撮像装置の少なくとも一方は、前記発光部での光の照射方向と配光角を制御する制御手段を有し、前記制御手段は、前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記レンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記バウンス撮影の本撮影での前記発光部の配光角を前記第1の情報とは異なる第2の情報に基づいて決定し、前記被写体の距離に関する情報を検出した後に前記反射体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記本撮影の前記発光部の配光角と同じ角度に制御することを特徴とする。 An image pickup system according to the present invention is an image pickup system including a lens barrel, an image pickup device, and a lighting device, wherein the lighting device is configured to be able to change an irradiation direction and a light distribution angle of light to be irradiated. And a detection unit that detects information about the distance to the subject and information about the distance to the reflector based on reflected light when light is emitted from the light emitting unit to the subject and the reflector, respectively. At least one of the illumination device and the imaging device has a control unit that controls a light irradiation direction and a light distribution angle in the light emitting unit, and the control unit emits light from the light emitting unit to the reflector. The light distribution angle of the light emitting unit when detecting the information about the distance of the subject when performing the bounce photographing for photographing the subject by irradiating the subject with the reflected light from the reflector is Determined based on the first information based on the focal length of's barrel, determined based on a different second information from said bounce flash of the first information light distribution angle of the light emitting portion of the present shooting However, the light distribution angle of the light emitting unit when detecting the information regarding the distance of the reflector when detecting the information regarding the distance of the reflector after detecting the information regarding the distance of the subject, It is characterized by controlling to the same angle as the light distribution angle of the light emitting portion .

本発明によれば、被写体と反射体の測距時の発光及び本撮影時の本発光を適切に制御することが可能となって、高品位な撮影画像を得ることができるようになる。   According to the present invention, it is possible to appropriately control the light emission during distance measurement of the subject and the reflector and the main light emission during main shooting, and it is possible to obtain a high-quality shot image.

本発明の実施形態に係る撮像システムの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of an imaging system concerning an embodiment of the present invention. 図1に示す撮像システムの概略構成を示す断面図である。FIG. 2 is a cross-sectional view showing a schematic configuration of the image pickup system shown in FIG. 1. 図1に示す撮像システムを構成するストロボ装置の概略構成を示す斜視図及び断面図である。FIG. 2 is a perspective view and a cross-sectional view showing a schematic configuration of a strobe device that constitutes the imaging system shown in FIG. 1. 図1に示す撮像システムによるオートバウンス発光撮影でのストロボ装置の第1実施形態に係る駆動制御の流れを示すフローチャートである。3 is a flowchart showing a flow of drive control according to the first embodiment of the strobe device in auto-bounce flash photography by the imaging system shown in FIG. 1. ポートレート写真撮影シーンの第1の例及び第2の例を示す図である。It is a figure which shows the 1st example and 2nd example of a portrait photography scene. バウンス角度が最適となるようなストロボ装置の可動部の駆動量を演算する方法を説明する模式図である。It is a schematic diagram explaining the method of calculating the drive amount of the movable part of the strobe device which makes the bounce angle optimal. ストロボ装置が水平軸及び鉛直軸のそれぞれに対して傾いている状態を示す図である。It is a figure which shows the state which the strobe device inclines with respect to each of a horizontal axis and a vertical axis. 図4のステップS413の処理のフローチャートである。It is a flowchart of the process of step S413 of FIG. 図4のステップS419の処理のフローチャートである。7 is a flowchart of the process of step S419 of FIG. 図9のステップS904で設定される天井距離検出用プリ発光時の配光角を説明する図である。It is a figure explaining the light distribution angle at the time of the pre-light emission for ceiling distance detection set by step S904 of FIG. 図4のステップS427の処理のフローチャートである。6 is a flowchart of the process of step S427 of FIG. 図1に示す撮像システムによるオートバウンス発光撮影でのストロボ装置の第2実施形態に係る駆動制御の流れを示すフローチャートである。7 is a flowchart showing a flow of drive control according to a second embodiment of a strobe device in auto-bounce flash photography by the imaging system shown in FIG. 1. 図12のステップS1213の処理のフローチャートである。13 is a flowchart of the process of step S1213 of FIG. 図12のステップS1219の処理のフローチャートである。It is a flowchart of the process of step S1219 of FIG. 従来の測距用発光の問題を模式的に説明する図である。It is a figure which illustrates typically the problem of the conventional light emission for distance measurement.

以下に、本発明の実施形態について、添付図面を参照して詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

<撮像システムの構成>
図1は、本発明の実施形態に係る撮像システム10の概略構成を示すブロック図である。図2は、撮像システム10の概略構成を示す断面図である。なお、図1と図2において、同一の要素については同じ符号を付している。撮像システム10は、撮像装置であるカメラ本体100と、カメラ本体100に装着されたレンズ鏡筒200と、カメラ本体100に装着された照明装置であるストロボ装置300とを有する。ストロボ装置300はカメラ本体100に対して着脱自在であり、レンズ鏡筒200はカメラ本体100に固定(一体化)されていてもよいし、カメラ本体100に対して着脱自在であってもよい。
<Structure of imaging system>
FIG. 1 is a block diagram showing a schematic configuration of an imaging system 10 according to the embodiment of the present invention. FIG. 2 is a cross-sectional view showing a schematic configuration of the imaging system 10. 1 and 2, the same elements are denoted by the same reference numerals. The imaging system 10 includes a camera body 100 that is an imaging device, a lens barrel 200 that is mounted on the camera body 100, and a strobe device 300 that is an illumination device mounted on the camera body 100. The strobe device 300 is detachable from the camera body 100, and the lens barrel 200 may be fixed (integrated) to the camera body 100, or may be detachable from the camera body 100.

カメラ本体100は、カメラマイコン101(以下「CCPU101」と記す)、撮像素子102、シャッタ103、主ミラー104、ピント板105、測光回路106、焦点検出回路107、ゲイン切替回路108及びA/D変換器109を備える。また、カメラ本体100は、タイミングジェネレータ(TG)110信号処理回路111、入力部112、表示部113、ペンタプリズム114、サブミラー115、通信ラインLC、通信ラインSC、端子120、端子130及び姿勢検出回路140を備える。   The camera body 100 includes a camera microcomputer 101 (hereinafter referred to as “CCPU 101”), an image sensor 102, a shutter 103, a main mirror 104, a focus plate 105, a photometric circuit 106, a focus detection circuit 107, a gain switching circuit 108, and an A / D conversion. The container 109 is provided. The camera body 100 also includes a timing generator (TG) 110 signal processing circuit 111, an input unit 112, a display unit 113, a pentaprism 114, a sub-mirror 115, a communication line LC, a communication line SC, a terminal 120, a terminal 130, and an attitude detection circuit. 140 is provided.

CCPU101は、各種のソフトウェア(プログラムコード)を実行することにより、カメラ本体100の各部の動作を制御するマイクロコンピュータである。CCPU101は、例えば、CPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/Dコンバータ及びD/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。CCPU101は、CPUがROMに格納された所定のプログラムコードをRAMに展開することにより、カメラ本体100を制御するための各種の判定処理や演算処理を行う。撮像素子102は、赤外カットフィルタやローパスフィルタ等を含むCCDセンサ或いはCMOSセンサ等の撮像素子である。レンズ鏡筒200を通過した被写体からの光束は、撮像素子102に被写体像として結像する。シャッタ103は、撮像素子102を遮光する状態と撮像素子102を露光する状態との間で遷移可能に構成されている。主ミラー104は、ハーフミラーであり、レンズ鏡筒200を通して入射する光の一部を反射してピント板105に結像させる位置と、レンズ鏡筒200から撮像素子102へ至る撮影光路内から退避する位置との間で遷移可能に構成されている。ピント板105には、被写体像が結像される。ユーザ(撮影者)は、ピント板105に結像された被写体像を、不図示の光学ファインダを介して確認することができる。   The CCPU 101 is a microcomputer that controls the operation of each unit of the camera body 100 by executing various software (program codes). The CCPU 101 has a microcomputer built-in one-chip IC circuit configuration including, for example, a CPU, a ROM, a RAM, an input / output control circuit (I / O control circuit), a multiplexer, a timer circuit, an EEPROM, an A / D converter, a D / A converter, and the like. Has become. The CCPU 101 performs various determination processing and arithmetic processing for controlling the camera body 100 by the CPU expanding a predetermined program code stored in the ROM into the RAM. The image pickup device 102 is an image pickup device such as a CCD sensor or a CMOS sensor including an infrared cut filter, a low pass filter, or the like. The light flux from the subject that has passed through the lens barrel 200 forms an image of the subject on the image sensor 102. The shutter 103 is configured to be able to transit between a state where the image sensor 102 is shielded from light and a state where the image sensor 102 is exposed. The main mirror 104 is a half mirror, and a position where a part of the light incident through the lens barrel 200 is reflected to form an image on the focusing plate 105, and the main mirror 104 is retracted from the shooting optical path from the lens barrel 200 to the image sensor 102. It is configured to be able to transition to and from the position where A subject image is formed on the focusing plate 105. The user (photographer) can confirm the subject image formed on the focusing plate 105 via an optical viewfinder (not shown).

測光回路106は、回路内に測光センサを備えており、被写体に対して設定された1又は複数の領域で測光を行うことにより露出情報を出力する。なお、測光回路106内の測光センサは、ペンタプリズム114を介してピント板105に結像された被写体像を見込んでいる。焦点検出回路107は、回路内に複数点の測距ポイントを有する測距センサを備えており、各測距点のデフォーカス量等の焦点情報を出力する。ゲイン切替回路108は、撮像素子102から出力される信号を増幅させる。CCPU101は、撮影条件やユーザの操作等に応じて、ゲイン切替回路108において信号に掛けるゲインを切り替える。A/D変換器109は、ゲイン切替回路108から出力されるアナログ信号をデジタル信号に変換することにより、画像データを生成する。タイミングジェネレータ110は、撮像素子102から信号出力タイミング(ゲイン切替回路108からA/D変換器109への増幅信号の入力タイミング)とA/D変換器109でのA/D変換のタイミングとを同期させる。   The photometric circuit 106 includes a photometric sensor in the circuit, and outputs exposure information by performing photometry in one or a plurality of areas set for the subject. The photometric sensor in the photometric circuit 106 expects the subject image formed on the focusing plate 105 via the pentaprism 114. The focus detection circuit 107 includes a distance measuring sensor having a plurality of distance measuring points in the circuit, and outputs focus information such as the defocus amount of each distance measuring point. The gain switching circuit 108 amplifies the signal output from the image sensor 102. The CCPU 101 switches the gain applied to the signal in the gain switching circuit 108 according to the shooting conditions, the user's operation, and the like. The A / D converter 109 generates image data by converting the analog signal output from the gain switching circuit 108 into a digital signal. The timing generator 110 synchronizes the signal output timing from the image sensor 102 (the input timing of the amplified signal from the gain switching circuit 108 to the A / D converter 109) and the A / D conversion timing in the A / D converter 109. Let

信号処理回路111は、A/D変換器109から出力されるデジタル信号からなる画像データに対して所定の信号処理を行う。入力部112は、電源スイッチ、レリーズスイッチ、設定ボタン等の操作部を含み、CCPU101は、入力部112に対する操作に応じた入力部112からの指示に基づいて各種の処理を実行する。例えば、レリーズスイッチが1段階操作(半押し)されると、CCPU101はAF(オートフォーカス)、AE(自動露出)等の撮影準備動作を実行する。また、レリーズスイッチが2段階操作(全押し)されると、CCPU101は撮像素子102に対する露光から、生成された画像データの保存までの一連の撮影動作を実行する。また、設定ボタンの操作により、ストロボ装置300の各種設定を行うことができる。ここで、ストロボ装置300とカメラ本体100との間で無線通信が可能な場合は、カメラ本体100にストロボ装置300が直接装着されていなくても、装着された場合と同様にストロボ装置300の各種の設定を行うことができる。   The signal processing circuit 111 performs predetermined signal processing on the image data composed of digital signals output from the A / D converter 109. The input unit 112 includes operation units such as a power switch, a release switch, and a setting button, and the CCPU 101 executes various processes based on an instruction from the input unit 112 according to an operation on the input unit 112. For example, when the release switch is operated by one step (half-press), the CCPU 101 executes a shooting preparation operation such as AF (auto focus) and AE (auto exposure). When the release switch is operated in two steps (fully pressed), the CCPU 101 executes a series of shooting operations from exposure of the image sensor 102 to storage of the generated image data. Further, various settings of the flash device 300 can be performed by operating the setting button. Here, when wireless communication is possible between the strobe device 300 and the camera body 100, even if the strobe device 300 is not directly attached to the camera body 100, various types of strobe device 300 are mounted in the same manner as when the strobe device 300 is attached. Can be set.

表示部113は、液晶装置や発光素子によって構成されており、カメラ本体100に対して設定された撮影モードやその他の撮影情報を表示し、液晶装置には、撮影中の被写体像や撮影画像の再生表示等も可能である。ペンタプリズム114は、ピント板105の被写体像を測光回路106内の測光センサ及び不図示の光学ファインダに導く。サブミラー115は、レンズ群202より入射して主ミラー104を透過した光を焦点検出回路107の測距センサへ導く。   The display unit 113 includes a liquid crystal device and a light emitting element, and displays a shooting mode set for the camera body 100 and other shooting information. The liquid crystal device displays a subject image and a shot image during shooting. Reproduction display and the like are also possible. The pentaprism 114 guides the subject image on the focusing plate 105 to a photometric sensor in the photometric circuit 106 and an optical finder (not shown). The sub mirror 115 guides the light that has entered from the lens group 202 and transmitted through the main mirror 104 to the distance measuring sensor of the focus detection circuit 107.

通信ラインLCは、カメラ本体100とレンズ鏡筒200を通信可能に接続するインタフェースの信号ラインであり、通信ラインSCは、カメラ本体100とストロボ装置300を通信可能に接続するインタフェースの信号ラインである。撮像システム10は、通信ラインLC,SCを用いた通信の一例として3端子式のシリアル通信を行うための端子120,130を備え、CCPU101をホストとしたデータ交換やコマンド伝達等の情報通信を行う。端子120は、SCLK_L端子、MOSI_L端子、MISO_L端子及びGND端子を含む。SCLK_L端子は、カメラ本体100とレンズ鏡筒200の間の通信の同期をとるための端子である。MOSI_L端子は、カメラ本体100からレンズ鏡筒200へデータを送信するための端子である。MISO_L端子は、レンズ鏡筒200からカメラ本体100へデータを送信するための端子である。GND端子は、カメラ本体100とレンズ鏡筒200を接続して、これらをグラウンド電位に落とす。端子130は、SCLK_S端子、MOSI_S端子、MISO_S端子及びGND端子を含む。SCLK_S端子は、カメラ本体100とストロボ装置300の間の通信の同期をとるための端子である。MOSI_S端子は、カメラ本体100からストロボ装置300へデータを送信するための端子である。MISO_S端子は、カメラ本体100とストロボ装置300を接続して、これらをグラウンド電位に落とす。   The communication line LC is a signal line of an interface that communicatively connects the camera body 100 and the lens barrel 200, and the communication line SC is a signal line of an interface that communicatively connects the camera body 100 and the strobe device 300. . The imaging system 10 includes terminals 120 and 130 for performing three-terminal serial communication as an example of communication using the communication lines LC and SC, and performs information communication such as data exchange and command transmission using the CCPU 101 as a host. . The terminal 120 includes an SCLK_L terminal, a MOSI_L terminal, a MISO_L terminal, and a GND terminal. The SCLK_L terminal is a terminal for synchronizing communication between the camera body 100 and the lens barrel 200. The MOSI_L terminal is a terminal for transmitting data from the camera body 100 to the lens barrel 200. The MISO_L terminal is a terminal for transmitting data from the lens barrel 200 to the camera body 100. The GND terminal connects the camera body 100 and the lens barrel 200 to drop them to the ground potential. The terminal 130 includes an SCLK_S terminal, a MOSI_S terminal, a MISO_S terminal, and a GND terminal. The SCLK_S terminal is a terminal for synchronizing communication between the camera body 100 and the flash device 300. The MOSI_S terminal is a terminal for transmitting data from the camera body 100 to the flash device 300. The MISO_S terminal connects the camera body 100 and the strobe device 300 and drops them to the ground potential.

姿勢検出回路140は、カメラ本体100の姿勢差を検出する回路であり、水平方向の姿勢差を検出する姿勢H検出部140a、鉛直方向の姿勢差を検出する姿勢V検出部140b及び前後方向(Z方向)の姿勢差を検出する姿勢Z検出部140cを有する。姿勢検出回路140には、例えば、角速度センサやジャイロセンサが用いられる。姿勢検出回路140により検出された各方向の姿勢差に関する姿勢情報は、CCPU101に供給される。   The posture detection circuit 140 is a circuit that detects a posture difference of the camera body 100, and includes a posture H detection unit 140a that detects a horizontal posture difference, a posture V detection unit 140b that detects a vertical posture difference, and a front-back direction ( It has a posture Z detection unit 140c that detects a posture difference in the Z direction). For the attitude detection circuit 140, for example, an angular velocity sensor or a gyro sensor is used. The posture information regarding the posture difference in each direction detected by the posture detection circuit 140 is supplied to the CCPU 101.

レンズ鏡筒200は、レンズマイコン201(以下「LPU201」という)、レンズ群202、レンズ駆動部203、エンコーダ204、絞り205及び絞り制御回路206を備える。LPU201は、レンズ鏡筒200の各部を制御するマイクロコンピュータである。LPU201は、例えば、CPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/Dコンバータ及びD/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。   The lens barrel 200 includes a lens microcomputer 201 (hereinafter referred to as “LPU 201”), a lens group 202, a lens driving unit 203, an encoder 204, a diaphragm 205, and a diaphragm control circuit 206. The LPU 201 is a microcomputer that controls each unit of the lens barrel 200. The LPU 201 has a microcomputer built-in one-chip IC circuit configuration including, for example, a CPU, a ROM, a RAM, an input / output control circuit (I / O control circuit), a multiplexer, a timer circuit, an EEPROM, an A / D converter, a D / A converter, and the like. Has become.

レンズ群202は、フォーカスレンズやズームレンズ等を含む複数枚のレンズで構成されている。なお、レンズ群202には、ズームレンズは含まれなくてもよい。レンズ駆動部203は、レンズ群202に含まれるレンズを光軸方向に駆動する。レンズ群202の駆動量は、カメラ本体100に設けられた焦点検出回路107の出力に基づいてCCPU101により演算され、算出された駆動量がCCPU101からLPU201へ送信される。エンコーダ204は、レンズ群202の位置を検出し、駆動情報をLPU201へ出力する。エンコーダ204からの駆動情報はLPU201を介してCCPU101へ送信され、CCPU101で算出された駆動量分だけレンズ駆動部203がレンズ群202を駆動することにより焦点調節が行われる。絞り205は、レンズ鏡筒200内を通過する光量を調節する。絞り制御回路206は、LPU201の制御下で、絞り205を駆動する。   The lens group 202 is composed of a plurality of lenses including a focus lens and a zoom lens. The lens group 202 may not include the zoom lens. The lens driving unit 203 drives the lenses included in the lens group 202 in the optical axis direction. The drive amount of the lens group 202 is calculated by the CCPU 101 based on the output of the focus detection circuit 107 provided in the camera body 100, and the calculated drive amount is transmitted from the CCPU 101 to the LPU 201. The encoder 204 detects the position of the lens group 202 and outputs drive information to the LPU 201. The drive information from the encoder 204 is transmitted to the CCPU 101 via the LPU 201, and the lens drive unit 203 drives the lens group 202 by the drive amount calculated by the CCPU 101 to perform focus adjustment. The diaphragm 205 adjusts the amount of light that passes through the lens barrel 200. The aperture control circuit 206 drives the aperture 205 under the control of the LPU 201.

ストロボ装置300は、大略的に、カメラ本体100に対して着脱可能な本体部300aと、本体部300aに対して上下方向及び左右方向に回転可能に保持された可動部300bから構成されている。なお、上下方向は、レンズ鏡筒200の光軸と直交する方向であり、カメラ本体100を正姿勢で構えたときの鉛直方向と略平行な方向である。左右方向は、レンズ鏡筒200の光軸及びカメラ本体100を正姿勢で構えたときの鉛直方向の両方向と略直交する方向である。   The strobe device 300 is roughly composed of a main body portion 300a that can be attached to and detached from the camera main body 100, and a movable portion 300b that is rotatably held in the vertical and horizontal directions with respect to the main body portion 300a. The up-down direction is a direction orthogonal to the optical axis of the lens barrel 200, and is a direction substantially parallel to the vertical direction when the camera body 100 is held in a normal posture. The left-right direction is a direction substantially orthogonal to both the optical axis of the lens barrel 200 and the vertical direction when the camera body 100 is held in a normal posture.

ストロボ装置300は、電池301、昇圧回路ブロック302、トリガ回路303、発光制御回路304、放電管305、反射傘306、ストロボ光学系307、反射光検出部308、積分回路309及びANDゲート311を備える。また、ストロボ装置300は、ストロボマイコン310(以下「FPU310」という)、入力部312、表示部313、フォトダイオード314、コンパレータ315、光学系駆動回路330、バウンス回路340及び姿勢検出回路360を備える。   The strobe device 300 includes a battery 301, a booster circuit block 302, a trigger circuit 303, a light emission control circuit 304, a discharge tube 305, a reflector 306, a strobe optical system 307, a reflected light detector 308, an integrating circuit 309, and an AND gate 311. . The strobe device 300 also includes a strobe microcomputer 310 (hereinafter referred to as “FPU 310”), an input unit 312, a display unit 313, a photodiode 314, a comparator 315, an optical system drive circuit 330, a bounce circuit 340, and a posture detection circuit 360.

FPU310は、ストロボ装置300の各部を制御するマイクロコンピュータである。FPU310は、例えばCPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/Dコンバータ及びD/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。電池301は、ストロボ装置300の電源(VBAT)として機能する。昇圧回路ブロック302は、昇圧部302a、抵抗302b,302c及びメインコンデンサ302dを有する。昇圧部302aは、電池301の電圧を数百Vに昇圧し、これによりメインコンデンサ302dに発光のための電気エネルギが充電される。メインコンデンサ302dの充電電圧は、抵抗302b,302cにより分圧され、分圧された電圧はFPU310のA/D変換端子に入力される。トリガ回路303は、放電管305を励起するためのパルス電圧を放電管305に印加する。発光制御回路304は、放電管305の発光の開始及び停止を制御する。放電管305は、トリガ回路303から印加される数KVのパルス電圧を受けて励起し、メインコンデンサ302dに充電された電気エネルギを用いて発光する。   The FPU 310 is a microcomputer that controls each unit of the flash device 300. The FPU 310 has a microcomputer built-in one-chip IC circuit configuration including, for example, a CPU, a ROM, a RAM, an input / output control circuit (I / O control circuit), a multiplexer, a timer circuit, an EEPROM, an A / D converter, a D / A converter, and the like. ing. The battery 301 functions as a power source (VBAT) of the flash device 300. The booster circuit block 302 includes a booster unit 302a, resistors 302b and 302c, and a main capacitor 302d. The booster 302a boosts the voltage of the battery 301 to several hundreds of volts, and the main capacitor 302d is charged with electric energy for light emission. The charging voltage of the main capacitor 302d is divided by the resistors 302b and 302c, and the divided voltage is input to the A / D conversion terminal of the FPU 310. The trigger circuit 303 applies a pulse voltage for exciting the discharge tube 305 to the discharge tube 305. The light emission control circuit 304 controls start and stop of light emission of the discharge tube 305. The discharge tube 305 is excited by receiving a pulse voltage of several KV applied from the trigger circuit 303, and emits light using the electric energy charged in the main capacitor 302d.

積分回路309は、フォトダイオード314の受光電流を積分し、積分結果をコンパレータ315の反転入力端子とFPU310のA/Dコンバータ端子に入力する。コンパレータ315の非反転入力端子は、FPU310内のD/Aコンバータ端子に接続され、コンパレータ315の出力はANDゲート311の入力端子に接続される。ANDゲート311の他方の入力端子は、FPU310の発光制御端子と接続され、ANDゲート311の出力は発光制御回路304へ入力される。フォトダイオード314は、直接又はグラスファイバ等を介して、放電管305から発せられる光を受光するセンサである。反射傘306は、放電管305から発せられる光を反射させて所定の方向へ導く。ストロボ光学系307は、光学パネル等を含み、放電管305との相対位置を変更可能に保持されている。放電管305とストロボ光学系307の相対位置を変更することにより、ストロボ装置300のガイドナンバーと配光角をそれぞれ所定の範囲で変化させることができる。ストロボ装置300の発光部は、主に、放電管305、反射傘306、ストロボ光学系307で構成されており、発光部の配光角はストロボ光学系307の駆動により変化し、発光部の照射方向は可動部300bの回転により変化する。なお、発光部の配光角を変化させる方法は、放電管305とストロボ光学系307の相対位置を変更させる方法に限定されず、例えば、反射傘306の形状を変更させる方法やストロボ光学系307の光学特性を変更させる方法等でもよい。   The integrating circuit 309 integrates the received light current of the photodiode 314 and inputs the integration result to the inverting input terminal of the comparator 315 and the A / D converter terminal of the FPU 310. The non-inverting input terminal of the comparator 315 is connected to the D / A converter terminal in the FPU 310, and the output of the comparator 315 is connected to the input terminal of the AND gate 311. The other input terminal of the AND gate 311 is connected to the light emission control terminal of the FPU 310, and the output of the AND gate 311 is input to the light emission control circuit 304. The photodiode 314 is a sensor that receives the light emitted from the discharge tube 305 directly or via a glass fiber or the like. The reflector 306 reflects the light emitted from the discharge tube 305 and guides it in a predetermined direction. The strobe optical system 307 includes an optical panel and the like, and is held so that the relative position to the discharge tube 305 can be changed. By changing the relative positions of the discharge tube 305 and the strobe optical system 307, the guide number and the light distribution angle of the strobe device 300 can be changed within respective predetermined ranges. The light emitting portion of the strobe device 300 is mainly composed of a discharge tube 305, a reflector 306, and a strobe optical system 307. The light distribution angle of the light emitting portion is changed by driving the strobe optical system 307, and the light emitting portion is irradiated. The direction changes depending on the rotation of the movable portion 300b. The method of changing the light distribution angle of the light emitting unit is not limited to the method of changing the relative position between the discharge tube 305 and the strobe optical system 307. For example, the method of changing the shape of the reflector 306 or the strobe optical system 307 is used. A method of changing the optical characteristics of the above may be used.

反射光検出部308は、放電管305から発せられる光が被写体や天井等の反射体から反射される光量を検出する。反射光検出部308が検出した反射光量に基づいてFPU310が演算を行うことにより、被写体や反射体までの距離を算出することができるようになっている。入力部312は、電源スイッチ、ストロボ装置300の動作モードを設定するモード設定スイッチ、オートバウンス駆動を実行させるオートバウンス開始ボタン、各種のパラメータを設定する設定ボタン等の操作部を含む。FPU310は、入力部312に対する操作に応じた入力部312からの指示に基づいて各種の処理を実行する。なお、本実施形態では、撮像システム10で行われる自動化されたバウンス発光撮影をオートバウンス発光撮影と称呼する。また、オートバウンス駆動とは、オートバウンス発光撮影を実行するための可動部300bの回転駆動することを指す。   The reflected light detection unit 308 detects the amount of light emitted from the discharge tube 305 and reflected from a reflector such as a subject or a ceiling. The FPU 310 performs an operation based on the amount of reflected light detected by the reflected light detector 308 so that the distance to the subject or the reflector can be calculated. The input unit 312 includes an operation unit such as a power switch, a mode setting switch for setting the operation mode of the strobe device 300, an auto bounce start button for executing auto bounce driving, and a setting button for setting various parameters. The FPU 310 executes various processes based on an instruction from the input unit 312 according to an operation on the input unit 312. In this embodiment, the automated bounce flash photography performed by the imaging system 10 is referred to as auto bounce flash photography. Further, the auto-bounce drive means the rotational drive of the movable unit 300b for executing the auto-bounce flash photography.

表示部313は、液晶装置や発光素子を有し、ストロボ装置300の各種の設定情報や動作状態を表示する。光学系駆動回路330は、位置検出部330aと光学系駆動部330bを有する。位置検出部330aは、放電管305とストロボ光学系307の相対位置に関する情報を不図示のエンコーダ等により検出する。光学系駆動部330bは、ストロボ光学系307を駆動するためのモータ等を含む。FPU310は、CCPU101を介してLPU201から出力される焦点距離情報を取得し、取得した焦点距離情報に基づいてストロボ光学系307の駆動量を演算する。   The display unit 313 has a liquid crystal device and a light emitting element, and displays various setting information and operating states of the flash device 300. The optical system drive circuit 330 has a position detection unit 330a and an optical system drive unit 330b. The position detector 330a detects information about the relative position of the discharge tube 305 and the strobe optical system 307 by an encoder (not shown) or the like. The optical system driving section 330b includes a motor and the like for driving the strobe optical system 307. The FPU 310 acquires focal length information output from the LPU 201 via the CCPU 101, and calculates the drive amount of the strobe optical system 307 based on the acquired focal length information.

バウンス回路340は、第1のバウンス角度検出回路340a、第2のバウンス角度検出回路340c、第1のバウンス駆動回路340b及び第2のバウンス駆動回路340dから構成される。図3(a)は、ストロボ装置300の概略構成を、可動部300bの一部を除去した状態で示す斜視図である。図3(b)は、ストロボ装置300の概略構成を示す断面図である。第1のバウンス角度検出回路340a(バウンスH検出回路)は、可動部300bの左右方向の駆動量を検出する。第2のバウンス角度検出回路340c(バウンスV検出回路)は、可動部300bの上下方向の駆動量を検出する。これらの駆動量の検出には、ロータリエンコーダやアブソリュートエンコーダが用いられる。第1のバウンス駆動回路340b(バウンスH駆動回路)は、可動部300bの左右方向の駆動を行う。第2のバウンス駆動回路340d(バウンスV駆動回路)は、可動部300bの上下方向の駆動を行う。これらの駆動には、公知のモータ等が用いられる。   The bounce circuit 340 includes a first bounce angle detection circuit 340a, a second bounce angle detection circuit 340c, a first bounce drive circuit 340b, and a second bounce drive circuit 340d. FIG. 3A is a perspective view showing a schematic configuration of the strobe device 300 with a part of the movable portion 300b removed. FIG. 3B is a sectional view showing a schematic configuration of the strobe device 300. The first bounce angle detection circuit 340a (bounce H detection circuit) detects the lateral drive amount of the movable portion 300b. The second bounce angle detection circuit 340c (bounce V detection circuit) detects the vertical drive amount of the movable portion 300b. A rotary encoder or an absolute encoder is used to detect these drive amounts. The first bounce drive circuit 340b (bounce H drive circuit) drives the movable portion 300b in the left-right direction. The second bounce drive circuit 340d (bounce V drive circuit) drives the movable portion 300b in the vertical direction. A known motor or the like is used for driving these.

姿勢検出回路360は、ストロボ装置300の姿勢差を検出する回路であり、水平方向の姿勢差を検出する姿勢H検出部360a、鉛直方向の姿勢差を検出する姿勢V検出部360b及び前後方向(Z方向)の姿勢差を検出する姿勢Z検出部360cを有する。姿勢検出回路360には、例えば、角速度センサやジャイロセンサが用いられる。姿勢検出回路360により検出された各方向の姿勢差に関する姿勢情報は、FPU310に供給される。   The posture detection circuit 360 is a circuit that detects a posture difference of the strobe device 300, and includes a posture H detection unit 360a that detects a horizontal posture difference, a posture V detection unit 360b that detects a vertical posture difference, and a front-back direction ( A posture Z detection unit 360c that detects a posture difference in the Z direction) is included. For the attitude detection circuit 360, for example, an angular velocity sensor or a gyro sensor is used. The posture information regarding the posture difference in each direction detected by the posture detection circuit 360 is supplied to the FPU 310.

上述の通りに構成された撮像システム10では、CCPU101、LPU201及びFPU310が協働して撮像システム10を構成する各部の制御を行うことにより、撮像システム10全体の円滑な動作が実現される。   In the imaging system 10 configured as described above, the CCPU 101, the LPU 201, and the FPU 310 cooperate with each other to control each unit that configures the imaging system 10, whereby a smooth operation of the entire imaging system 10 is realized.

<ストロボ装置の第1実施形態に係る駆動制御方法>
次に、撮像システム10によりオートバウンス発光撮影を実行する場合のストロボ装置300の第1実施形態に係る駆動制御方法について説明する。図4は、オートバウンス発光撮影でのストロボ装置300の第1実施形態に係る駆動制御の流れを示すフローチャートである。図4に示す各処理は、FPU310が所定のプログラムコードを実行してストロボ装置300の各部の動作を制御することにより実現される。図4のフローチャートは、入力部312に含まれる電源スイッチがオンされ、ストロボ装置300のFPU310が動作可能となることによって開始される。なお、以下の説明において、ストロボ装置300のストロボ光の発光面を起点として、被写体までの距離を「被写体距離」といい、反射体の一例として取り上げる天井までの距離を「天井距離」ということとする。
<Drive Control Method According to First Embodiment of Strobe Device>
Next, a drive control method according to the first embodiment of the flash device 300 in the case of executing the auto bounce flash photography by the imaging system 10 will be described. FIG. 4 is a flowchart showing the flow of drive control according to the first embodiment of the flash device 300 in auto-bounce flash photography. Each process shown in FIG. 4 is realized by the FPU 310 executing a predetermined program code to control the operation of each unit of the flash device 300. The flowchart of FIG. 4 starts when the power switch included in the input unit 312 is turned on and the FPU 310 of the strobe device 300 becomes operable. In the following description, the distance to the subject from the strobe light emitting surface of the strobe device 300 as a starting point is referred to as the “subject distance”, and the distance to the ceiling taken as an example of the reflector is referred to as the “ceiling distance”. To do.

ステップS401においてFPU310は、自身のメモリやポートを初期化し、入力部312に含まれるスイッチの状態や予め設定された入力情報を読み込んで、発光量の決定方法や発光タイミング等の様々な発光モードの設定を行う。ステップS402においてFPU310は、昇圧回路ブロック302の動作を開始させ、メインコンデンサ302dを充電する。このとき、電池301の電圧が低い等の理由によりバウンス回路340とストロボ光学系307を同時に駆動することができないと判断されることがある。この場合、FPU310は、測距用発光の配光角を本撮影を行う際の発光(本発光)での配光角(以下「本発光配光角」という)と同じ角度に固定する「配光固定モード」へ切り替え、その情報をFPU310内のRAMに格納する。一方、バウンス回路340とストロボ光学系307の同時駆動が可能な場合、FPU310は、測距用発光の配光角と本発光配光角を別々に設定可能な「配光可変モード」へ切り替え、その情報をFPU310内のRAMに格納する。   In step S401, the FPU 310 initializes its own memory and port, reads the states of the switches included in the input unit 312 and preset input information, and determines various emission modes such as the emission amount determination method and emission timing. Make settings. In step S402, the FPU 310 starts the operation of the booster circuit block 302 and charges the main capacitor 302d. At this time, it may be determined that the bounce circuit 340 and the strobe optical system 307 cannot be simultaneously driven because the voltage of the battery 301 is low. In this case, the FPU 310 fixes the light distribution angle of the distance measurement light emission to the same angle as the light distribution angle (hereinafter referred to as “main light emission light distribution angle”) for light emission (main light emission) when performing main shooting. The optical fixed mode is switched to and the information is stored in the RAM in the FPU 310. On the other hand, when the bounce circuit 340 and the strobe optical system 307 can be simultaneously driven, the FPU 310 switches to the “light distribution variable mode” in which the light distribution angle for distance measurement light emission and the main light emission light distribution angle can be separately set, The information is stored in the RAM in the FPU 310.

ステップS403においてFPU310は、CCPU101から通信ラインSCを介して取得したレンズ鏡筒200の焦点距離情報(第1の情報)をFPU310内のRAMに格納する。なお、FPU310は、これ以前に焦点距離情報をRAMに格納していた場合には、新たな焦点距離情報にデータを更新する。ステップS404においてFPU310は、ストロボ光の配光角がステップS403において取得した焦点距離情報に応じた範囲となるように、光学系駆動回路330によりストロボ光学系307を駆動する。なお、ストロボ光学系307を駆動するとは、ストロボ装置300の配光角を変化させるために、放電管305に対するストロボ光学系307の位置を変更することを指し、以下でも同様の意味で用いる。   In step S403, the FPU 310 stores the focal length information (first information) of the lens barrel 200 acquired from the CCPU 101 via the communication line SC in the RAM in the FPU 310. Note that the FPU 310 updates the data with new focal length information when the focal length information was stored in the RAM before this. In step S404, the FPU 310 drives the strobe optical system 307 by the optical system driving circuit 330 so that the light distribution angle of the strobe light falls within the range according to the focal length information acquired in step S403. Driving the strobe optical system 307 refers to changing the position of the strobe optical system 307 with respect to the discharge tube 305 in order to change the light distribution angle of the strobe device 300, and will be used in the same meaning below.

ところで、ステップS402において「配光固定モード」が設定された場合には、FPU310は、光学系駆動回路330によりストロボ光学系307を本発光配光角へ駆動する。また、焦点距離情報に対応した配光角(以下「焦点距離配光角」という)と本発光配光角とが同じ場合等のストロボ光学系307を駆動する必要がない場合には、ステップS404は省略される。   By the way, when the “light distribution fixed mode” is set in step S402, the FPU 310 drives the strobe optical system 307 to the main light emission distribution angle by the optical system driving circuit 330. If it is not necessary to drive the stroboscopic optical system 307 when the light distribution angle corresponding to the focal length information (hereinafter referred to as “focal length light distribution angle”) is the same as the main light emission distribution angle, step S404. Is omitted.

ステップS405においてFPU310は、入力部312を通して設定された発光モードに関する情報と取得した焦点距離情報に関する情報等を表示部313に表示する。ステップS406においてFPU310は、ストロボ装置300に設定されている発光モードがオートバウンスモードであるか否かを確認する。FPU310は、オートバウンスモードである場合(S406でYES)、処理をステップS407へ進め、オートバウンスモードでない(通常の発光モードである)場合(S406でNO)、処理をステップS430へ進める。なお、発光モードの設定は、入力部312から行うことができるが、CCPU101及び通信ラインSCを介して入力部112から行うこともできる。   In step S405, the FPU 310 displays on the display unit 313 information about the light emission mode set through the input unit 312, information about the acquired focal length information, and the like. In step S406, the FPU 310 confirms whether the flash mode set in the flash device 300 is the auto bounce mode. If the FPU 310 is in the auto bounce mode (YES in S406), the process proceeds to step S407, and if it is not in the auto bounce mode (normal emission mode) (NO in S406), the process proceeds to step S430. The light emission mode can be set from the input unit 312, but can also be set from the input unit 112 via the CCPU 101 and the communication line SC.

ステップS407においてFPU310は、メインコンデンサ302dに充電が完了しているか否かを判定する。FPU310は、充電が完了した場合(S407でYES)、処理をステップS408へ進め、充電が完了していない場合(S407でNO)、ステップS407の判定を繰り返す。なお、ここでは、電池の容量不足等によって充電が完了できない場合の処理については触れていないが、この場合、FPU310は、エラーが生じたことを表示部313に表示して、本処理を終了させる。   In step S407, the FPU 310 determines whether or not the main capacitor 302d has been charged. If the charging is completed (YES in S407), the FPU 310 advances the process to step S408. If the charging is not completed (NO in S407), the determination of step S407 is repeated. It should be noted that although the processing when charging cannot be completed due to insufficient battery capacity or the like is not mentioned here, in this case, the FPU 310 displays on the display unit 313 that an error has occurred, and terminates this processing. .

ステップS408においてFPU310は、オートバウンス開始ボタンがオンとなったか否かを判定する。FPU310は、オートバウンス開始ボタンがオンとなった場合(S408でYES)、処理をステップS409へ進め、オートバウンス開始ボタンがオンとなっていない(オフ状態である)場合、処理をステップS433へ進める。なお、前述の通り、オートバウンス開始ボタンは入力部312に割り当てられている。但し、これに限らず、入力部112にオートバウンス開始ボタンを設け、このオートバウンス開始ボタンのオン/オフがCCPU101及び通信ラインSCを介してFPU310によって判定可能な構成であってもよい。   In step S408, the FPU 310 determines whether the auto bounce start button is turned on. If the auto-bounce start button is turned on (YES in S408), FPU 310 advances the process to step S409, and if the auto-bounce start button is not turned on (in the off state), advances the process to step S433. . As described above, the auto bounce start button is assigned to the input unit 312. However, the configuration is not limited to this, and the input unit 112 may be provided with an auto bounce start button, and ON / OFF of the auto bounce start button may be determined by the FPU 310 via the CCPU 101 and the communication line SC.

ステップS409においてFPU310は、オートバウンス駆動状態であることをCCPU101へ通信ラインSCを介して送信する。なお、図4に示す「ST→C通信」は、ストロボ装置300からカメラ本体100(FPU310からCCPU101)への通信を指し、「C→ST通信」は、CCPU101からFPU310への通信を指す。   In step S409, the FPU 310 transmits the fact that it is in the auto bounce drive state to the CCPU 101 via the communication line SC. Note that “ST → C communication” shown in FIG. 4 refers to communication from the strobe device 300 to the camera body 100 (FPU 310 to CCPU 101), and “C → ST communication” refers to communication from the CCPU 101 to the FPU 310.

ステップS410においてFPU310は、天井距離に関する情報を検出するためのプリ発光(以下「天井距離検出用プリ発光」という)の方向を決定するため、姿勢検出回路360の検出結果に基づき、本体部300aの姿勢が横位置撮影状態か否かを判定する。この判定では、FPU310は、姿勢検出回路360の検出結果をFPU310内のRAMに格納し、所定の傾き角度範囲内か否かを判定することにより、横位置撮影状態か縦位置撮影状態かを判定する。FPU310は、横位置撮影状態である場合(S410でYES)、処理をステップS411へ進め、縦位置撮影状態である場合(S410でNO)、処理をステップS412へ進める。なお、ステップS410は、姿勢検出回路360による検出結果に代えて、姿勢検出回路140による検出結果を用いて行われてもよい。   In step S410, the FPU 310 determines the direction of pre-light emission for detecting information about the ceiling distance (hereinafter referred to as "pre-light emission for ceiling distance detection"). Therefore, based on the detection result of the attitude detection circuit 360, It is determined whether or not the posture is in the lateral position photographing state. In this determination, the FPU 310 stores the detection result of the attitude detection circuit 360 in the RAM in the FPU 310, and determines whether it is within a predetermined tilt angle range, thereby determining whether it is in the horizontal position shooting state or the vertical position shooting state. To do. The FPU 310 advances the processing to step S411 if it is in the horizontal position imaging state (YES in S410), and advances the processing to step S412 if it is in the vertical position imaging state (NO in S410). Note that step S410 may be performed using the detection result of the attitude detection circuit 140 instead of the detection result of the attitude detection circuit 360.

ステップS411においてFPU310は、天井距離検出用プリ発光を行うための方向制御として横位置角度制御を適用することを示す情報をFPU310内のRAMに格納する。被写体の距離に関する情報を検出するためのプリ発光(以下「被写体距離検出用プリ発光」という)後に、天井距離検出用プリ発光が行われる。天井距離検出用プリ発光は、横位置角度制御が適用された場合、第2のバウンス駆動回路340dを駆動させてストロボ装置300の上方へ向けて発光する制御となる。ステップS412においてFPU310は、天井距離検出用プリ発光を行うための方向制御として縦位置角度制御を適用することを示す情報をFPU310内のRAMに格納する。被写体距離検出用プリ発光後に行われる天井距離検出用プリ発光は、縦位置角度制御が適用された場合には、第1のバウンス駆動回路340bを駆動させてストロボ装置300の左右方向へ向けて発光する制御となる。この場合も、姿勢検出回路360の検出結果に基づいて、発光方向は上方へ向くように決定される。   In step S411, the FPU 310 stores, in the RAM in the FPU 310, information indicating that the lateral position angle control is applied as the direction control for performing the ceiling distance detection pre-light emission. Pre-light emission for detecting information about the distance to the subject (hereinafter referred to as “pre-light emission for subject distance detection”) is followed by pre-light emission for ceiling distance detection. When the lateral position angle control is applied, the ceiling distance detection pre-light emission is a control that drives the second bounce drive circuit 340d to emit light toward the upper side of the flash device 300. In step S412, FPU 310 stores information indicating that vertical position angle control is applied as direction control for performing pre-light emission for ceiling distance detection, in RAM in FPU 310. Pre-light emission for ceiling distance detection performed after pre-light emission for subject distance detection, when the vertical position angle control is applied, drives the first bounce drive circuit 340b to emit light in the left-right direction of the strobe device 300. Control. Also in this case, the light emission direction is determined to be upward based on the detection result of the attitude detection circuit 360.

ステップS411,S412の終了後のステップS413においてFPU310は、可動部300bを正面方向(被写体を向く方向)へ向けるようにバウンス回路340を駆動させる。また、FPU310は、バウンス回路340の駆動に合わせて、被写体距離検出用プリ発光時の配光角へストロボ光学系307を駆動する。なお、ステップS413でのストロボ光学系307の駆動の詳細については後述する。ステップS414においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの角度検出結果をFPU310内のRAMに格納し、角度検出結果に基づき可動部300bが正面方向を向いているか否かを判定する。FPU310は、可動部300bが正面方向を向いている場合(S414でYES)、処理をステップS415へ進め、可動部300bが正面方向を向いていない場合(S414でNO)、処理をステップS416へ進める。   In step S413 after completion of steps S411 and S412, the FPU 310 drives the bounce circuit 340 so that the movable portion 300b faces the front direction (direction toward the subject). Further, the FPU 310 drives the strobe optical system 307 to the light distribution angle at the time of pre-light emission for subject distance detection in synchronization with the driving of the bounce circuit 340. The details of driving the strobe optical system 307 in step S413 will be described later. In step S414, the FPU 310 stores the angle detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c in the RAM of the FPU 310, and the movable unit 300b faces the front direction based on the angle detection result. It is determined whether or not there is. FPU310 advances a process to step S415, when the movable part 300b faces the front direction (YES in S414), and advances a process to step S416 when the movable part 300b does not face the front direction (NO in S414). .

ステップS415においてFPU310は、ステップS413でのストロボ光学系307の駆動後の配光角で被写体距離検出用プリ発光を行い、被写体からの反射光を反射光検出部308で検出し、その検出光量に基づいて被写体の距離に関する情報を演算する。FPU310は、算出した被写体の距離に関する情報をFPU310内のRAMに格納し、その後、処理をステップS419へ進める。一方、ステップS416においてFPU310は、バウンス駆動を正常に行うことができないことに基づくオートバウンス終了指示をCCPU101から通信ラインSCを介して取得したか否かを判定する。FPU310は、オートバウンス終了指示を取得した場合(S416でYES)、本処理を終了させて処理をステップS402へ戻し、オートバウンス終了指示を取得できない場合(S416でNO)、処理をステップS417へ進める。なお、図4のフローチャートにおいて、「リターン」とは、処理をステップS402へ戻すことを指す。   In step S415, the FPU 310 performs pre-light emission for subject distance detection at the light distribution angle after driving the strobe optical system 307 in step S413, detects reflected light from the subject in the reflected light detection unit 308, and determines the detected light amount. Based on this, information regarding the distance to the subject is calculated. The FPU 310 stores information regarding the calculated subject distance in the RAM in the FPU 310, and then advances the process to step S419. On the other hand, in step S416, the FPU 310 determines whether or not the auto-bounce end instruction based on the fact that the bounce drive cannot be normally performed is acquired from the CCPU 101 via the communication line SC. If the FPU 310 has acquired the auto-bounce end instruction (YES in S416), the process is terminated and the process returns to step S402. If the auto-bounce end instruction cannot be acquired (NO in S416), the process proceeds to step S417. . In the flowchart of FIG. 4, “return” means returning the process to step S402.

ステップS417においてFPU310は、所定の時間内でバウンス駆動が完了しているか否かを判定する。FPU310は、タイムアウトしている(所定の時間内でバウンス駆動が完了していない)場合(S417でYES)、処理をステップS418へ進め、タイムアウトしていない場合(S417でNO)、処理をステップS414へ戻す。ステップS418においてFPU310は、オートバウンス駆動がエラー状態であることをCCPU101へ通信ラインSCを介して送信し、その後、処理をステップS402へ戻す。   In step S417, the FPU 310 determines whether the bounce drive is completed within a predetermined time. If the FPU 310 has timed out (the bounce drive has not been completed within the predetermined time) (YES in S417), the process proceeds to step S418, and if the time has not timed out (NO in S417), the process proceeds to step S414. Return to. In step S418, the FPU 310 transmits that the auto bounce drive is in an error state to the CCPU 101 via the communication line SC, and then returns the process to step S402.

ステップS419においてFPU310は、可動部300bを天井方向へ向けるようにバウンス回路340を駆動させ、バウンス回路340の駆動に合わせて、天井距離検出用プリ発光での配光角となるようにストロボ光学系307を駆動する。なお、被写体に向けてカメラ本体100を構えた状態での天井の方向は、予めユーザによって設定され、FPU310内のRAMに記憶されている。また、ステップS419でのストロボ光学系307の駆動の詳細については後述する。   In step S419, the FPU 310 drives the bounce circuit 340 so that the movable portion 300b is directed toward the ceiling, and the strobe optical system is set so that the light distribution angle in the pre-light emission for ceiling distance detection is adjusted according to the driving of the bounce circuit 340. 307 is driven. The direction of the ceiling when the camera body 100 is held toward the subject is preset by the user and stored in the RAM in the FPU 310. The details of driving the strobe optical system 307 in step S419 will be described later.

続いて、ステップS420においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの角度検出結果をFPU310内のRAMに格納し、角度検出結果に基づき可動部300bが天井方向を向いているか否かを判定する。FPU310は、可動部300bが天井方向を向いている場合(S420でYES)、処理をステップS421へ進め、可動部300bが天井方向を向いていない場合(S420でNO)、処理をステップS422へ進める。   Subsequently, in step S420, the FPU 310 stores the angle detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c in the RAM of the FPU 310, and the movable unit 300b moves toward the ceiling based on the angle detection result. To determine whether or not. FPU310 advances a process to step S421, when the movable part 300b faces the ceiling direction (YES in S420), and advances a process to step S422 when the movable part 300b does not face the ceiling direction (NO in S420). .

ステップS421においてFPU310は、ステップS419でのストロボ光学系307の駆動後の配光角で天井距離検出用プリ発光を行い、天井からの反射光を反射光検出部308で検出し、その検出光量に基づいて天井距離に関する情報を演算する。FPU310は、算出した天井距離に関する情報をFPU310内のRAMに格納し、その後、処理をステップS425へ進める。なお、ステップS402で配光可変モードが設定されているが、ステップS419でバウンス回路340とストロボ光学系307を同時駆動することができない場合は、ステップS421での配光角を被写体距離検出用プリ発光時と同じ配光角としてもよい。   In step S421, the FPU 310 performs pre-light emission for ceiling distance detection at the light distribution angle after driving the strobe optical system 307 in step S419, detects reflected light from the ceiling by the reflected light detection unit 308, and determines the detected light amount. Based on this, information about the ceiling distance is calculated. The FPU 310 stores information regarding the calculated ceiling distance in the RAM in the FPU 310, and then advances the process to step S425. If the light distribution variable mode is set in step S402, but the bounce circuit 340 and the strobe optical system 307 cannot be simultaneously driven in step S419, the light distribution angle in step S421 is set to the object distance detection pre-measurement. The light distribution angle may be the same as that during light emission.

一方、ステップS422においてFPU310は、バウンス駆動を正常に行うことができないことに基づくオートバウンス終了指示をCCPU101から通信ラインSCを介して取得したか否かを判定する。FPU310は、オートバウンス終了指示を取得した場合(S422でYES)、本処理を終了させて処理をステップS402へ戻し、オートバウンス終了指示を取得できない場合(S422でNO)、処理をステップS423へ進める。ステップS423においてFPU310は、所定の時間内でバウンス駆動が完了しているか否かを判定する。FPU310は、タイムアウトしている(所定の時間内でバウンス駆動が完了していない)場合(S423でYES)、処理をステップS424へ進め、タイムアウトしていない場合(S423でNO)、処理をステップS420へ戻す。ステップS424においてFPU310は、オートバウンス駆動がエラー状態であることをCCPU101へ通信ラインSCを介して送信し、その後、処理をステップS402へ戻す。   On the other hand, in step S422, the FPU 310 determines whether or not the auto-bounce end instruction based on the fact that the bounce drive cannot be normally performed is acquired from the CCPU 101 via the communication line SC. If the FPU 310 has acquired the auto-bounce end instruction (YES in S422), the process is terminated and the process returns to step S402. If the auto-bounce end instruction cannot be acquired (NO in S422), the process proceeds to step S423. . In step S423, the FPU 310 determines whether the bounce drive is completed within a predetermined time. If the FPU 310 has timed out (the bounce drive has not been completed within the predetermined time) (YES in S423), the process proceeds to step S424, and if the time has not expired (NO in S423), the process proceeds to step S420. Return to. In step S424, the FPU 310 transmits that the auto bounce drive is in an error state to the CCPU 101 via the communication line SC, and then returns the process to step S402.

ステップS425においてFPU310は、ステップS410の姿勢検出結果、ステップS415で算出した被写体の距離に関する情報及びステップS421で算出した天井距離に関する情報に基づき、最適バウンス角度を演算する。最適バウンス角度は、本撮影での天井に対する光の照射角度である。ここで、ポートレート写真を撮影した際の影が自然な感じとなる最適バウンス角度を算出する方法について説明する。   In step S425, the FPU 310 calculates the optimum bounce angle based on the posture detection result of step S410, the information about the subject distance calculated at step S415 and the information about the ceiling distance calculated at step S421. The optimum bounce angle is the light irradiation angle to the ceiling in the actual shooting. Here, a method of calculating the optimal bounce angle that gives a natural shadow to a portrait photograph will be described.

図5(a)は、ポートレート写真撮影シーンの第1の例を示す図であり、図5(b)は、ポートレート写真撮影シーンの第2の例を示す図である。図5(a)に示す第1の例のように可動部300bのバウンス角度を45度のような比較的小さい値に設定した場合、被写体から見た拡散反射光はトップライトのように照射されるため、顎等の影が大きく且つ濃く出やすくなる。これに対して、図5(b)に示す第2の例のように可動部300bのバウンス角度を90度のような比較的大きな値に設定した場合、被写体から見た反射面は被写体から遠く離れるため、拡散反射光は浅い角度で被写体に入射する。これにより、影が小さく且つ薄くなることで、自然な雰囲気となりやすい。   FIG. 5A is a diagram showing a first example of a portrait photography scene, and FIG. 5B is a diagram showing a second example of a portrait photography scene. When the bounce angle of the movable portion 300b is set to a relatively small value such as 45 degrees as in the first example shown in FIG. 5A, the diffuse reflection light seen from the subject is emitted like a top light. Therefore, the shadow of the chin and the like becomes large and becomes dark easily. On the other hand, when the bounce angle of the movable part 300b is set to a relatively large value such as 90 degrees as in the second example shown in FIG. 5B, the reflecting surface seen from the subject is far from the subject. Since they are separated, the diffuse reflected light is incident on the subject at a shallow angle. As a result, the shadow is small and thin, which tends to create a natural atmosphere.

撮影画像(写真)の雰囲気は被写体距離や反射体の反射面までの距離(以下「反射体距離」という)である天井距離によって変化するが、一般的に、被写体とユーザが比較的近距離にある状態で撮影が行われた場合にトップライトのような照射になりやすい。そのため、オートバウンス駆動を行う際に、被写体への入射角を小さくするために可動部300bをユーザ側に駆動する場合もある。被写体へ照射される拡散反射光の最適入射角を実験的に求めておき、ステップS425では、バウンス角度が最適となるように(最適入射角が得られるように)、可動部300bの駆動量が演算される。   The atmosphere of the captured image (photograph) changes depending on the subject distance and the ceiling distance, which is the distance to the reflecting surface of the reflector (hereinafter referred to as the "reflector distance"), but generally, the subject and the user are relatively close to each other. When shooting is performed in a certain state, it is likely to be irradiation like a top light. Therefore, when performing automatic bounce driving, the movable portion 300b may be driven toward the user side in order to reduce the angle of incidence on the subject. The optimum incident angle of the diffusely reflected light with which the subject is irradiated is experimentally obtained, and in step S425, the drive amount of the movable portion 300b is set so that the bounce angle becomes optimum (the optimum incident angle is obtained). Is calculated.

図6は、バウンス角度が最適となるような可動部300bの駆動量を演算する方法を説明する模式図である。図6(a)は、被写体とユーザとが比較的離れた距離にある場合を示しており、図6(b)は被写体とユーザとが比較的近い距離にある場合を示している。ストロボ装置300のストロボ光の発光面を起点とした被写体までの距離(被写体距離)をx、ストロボ装置300のストロボ光の発光面を起点とした天井距離をyとする。被写体から天井反射面からの鉛直線上との交点までの距離をx、この交点からストロボ装置300の発光面までの距離をxとすると、x=x+x、の関係が成り立つ。また、被写体へ入射する拡散反射光と水平線とがなす最適入射角度をθ、ストロボ装置300の発光面からの照射方向と水平線とがなす最適バウンス角度をθとする。この場合、被写体と天井反射面と上記交点からなる三角形から、距離xは下記式1により求めることができる。また、ストロボ装置300の発光面と天井反射面と上記交点からなる三角形と式(1)から最適バウンス角度θは下記式2により求めることができる。 FIG. 6 is a schematic diagram for explaining a method of calculating the drive amount of the movable portion 300b that optimizes the bounce angle. FIG. 6A shows the case where the subject and the user are relatively distant from each other, and FIG. 6B shows the case where the subject and the user are relatively close to each other. The distance (subject distance) to the subject from the strobe light emitting surface of the strobe device 300 as a starting point is x, and the ceiling distance from the strobe light emitting surface of the strobe device 300 as a starting point is y. X 1 a distance from the subject to the point of intersection between the vertical line from the ceiling reflecting surface, and the distance to the light emitting surface of the flash device 300 from the intersection point to x 2, x = x 1 + x 2, the relation holds. Further, the optimum incident angle formed by the diffuse reflected light incident on the subject and the horizontal line is θ 1 , and the optimum bounce angle formed by the irradiation direction from the light emitting surface of the strobe device 300 and the horizontal line is θ 2 . In this case, the distance x 2 can be obtained from the following equation 1 from the triangle formed by the subject, the ceiling reflecting surface, and the intersection. Further, the optimum bounce angle θ 2 can be obtained by the following equation 2 from the triangle formed by the light emitting surface of the strobe device 300, the ceiling reflecting surface, and the above intersection and equation (1).

上記式2により、被写体への最適入射角度θを実現するための可動部300bの最適バウンス角度θを決定することができる。上記式2では、最適入射角度θは予め設定された定数となるため、距離x,yを反射光検出部308によりステップS415,S421で検出することにより、可動部300bの最適バウンス角度θを算出することができる。例えば、図6(a)において、最適入射角度θが30度、被写体距離xが3m、天井距離yが1.4mである場合には、最適バウンス角度θは約68度に設定すればよい。また、図6(b)において、最適入射角度θが30度、被写体距離xが2m、天井距離yが1.4mである場合には、上記式1は負の値となる。そのため、上記式2の左辺は180+θとなり、その結果、最適バウンス角度θは約107(=180+θ)度に設定すればよいことがわかる。なお、このような手法に限らず、他の公知の手法によって最適バウンス角度θを求めてもよい。 The above equation 2 makes it possible to determine the optimum bounce angle θ 2 of the movable portion 300b for realizing the optimum incident angle θ 1 on the subject. In the above formula 2, since the optimum incident angle θ 1 is a preset constant, the optimum bounce angle θ 2 of the movable part 300b is detected by detecting the distances x and y by the reflected light detection unit 308 in steps S415 and S421. Can be calculated. For example, in FIG. 6A, when the optimum incident angle θ 1 is 30, the subject distance x is 3 m, and the ceiling distance y is 1.4 m, the optimum bounce angle θ 2 is set to about 68 degrees. Good. Further, in FIG. 6B, when the optimum incident angle θ 1 is 30 degrees, the subject distance x is 2 m, and the ceiling distance y is 1.4 m, the above expression 1 has a negative value. Therefore, the left side of the above equation 2 is 180 + θ 2 , and as a result, it is understood that the optimum bounce angle θ 2 should be set to about 107 (= 180 + θ 2 ) degrees. Note that the optimum bounce angle θ 2 may be obtained not only by such a method but also by another known method.

FPU310は、ステップS425で最適バウンス角度を演算した後、算出した最適バウンス角度をFPU310内のRAMに格納し、処理をステップS426へ進める。ステップS426においてFPU310は、ステップS425で算出した最適バウンス角度と第1のバウンス角度検出回路340a及び第2のバウンス角度検出回路340cの検出結果に基づいて、実際の可動部300bの駆動量を演算する。   The FPU 310 calculates the optimum bounce angle in step S425, stores the calculated optimum bounce angle in the RAM in the FPU 310, and advances the process to step S426. In step S426, the FPU 310 calculates the actual drive amount of the movable portion 300b based on the optimum bounce angle calculated in step S425 and the detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c. .

このとき、ストロボ装置300の姿勢が水平方向や鉛直方向に対して傾いている場合がある。図7(a)は、ストロボ装置300が水平軸Zに対して角度γだけ傾いている状態を示す図であり、図7(b)は、鉛直軸Xに対して角度ηだけ傾いている状態を示す図である。FPU310は、姿勢補正が必要と判断された場合に、姿勢検出回路360の各軸の傾き角度(γ、η)を検出し、演算したバウンス駆動量に傾き角度を打ち消す補正駆動量を演算し、算出した補正駆動量でバウンス駆動量を補正する。このとき、姿勢検出回路360の検出結果に代えて、姿勢検出回路140の検出結果を用いてもよい。FPU310は、バウンス駆動量を演算した後、算出した値をFPU310内のRAMに格納し、処理をステップS427へ進める。   At this time, the attitude of the strobe device 300 may be inclined with respect to the horizontal direction or the vertical direction. FIG. 7A is a diagram showing a state in which the strobe device 300 is tilted by an angle γ with respect to the horizontal axis Z, and FIG. 7B is a state in which it is tilted by an angle η with respect to the vertical axis X. FIG. When it is determined that the attitude correction is necessary, the FPU 310 detects the tilt angle (γ, η) of each axis of the attitude detection circuit 360, and calculates the correction drive amount that cancels the tilt angle to the calculated bounce drive amount, The bounce drive amount is corrected with the calculated correction drive amount. At this time, the detection result of the attitude detection circuit 140 may be used instead of the detection result of the attitude detection circuit 360. The FPU 310 calculates the bounce drive amount, stores the calculated value in the RAM in the FPU 310, and advances the process to step S427.

ステップS427においてFPU310は、ステップS426での演算結果に基づき、バウンス回路340を駆動制御して可動部300bを駆動させると共に、バウンス回路340の駆動に合わせて、本発光での配光角へストロボ光学系307を駆動する。なお、ここでのストロボ光学系307の駆動の詳細については後述する。続くステップS428においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの検出結果に基づき、ステップS427で駆動させた可動部300bがステップS426で演算位置まで駆動されたか否かを判定する。FPU310は、可動部300bが演算位置まで駆動された場合(S428でYES)、処理をステップS430へ進め、可動部300bが演算位置まで駆動されていない場合(S428でYES)、処理をステップS429へ進める。   In step S427, the FPU 310 drives and controls the bounce circuit 340 to drive the movable portion 300b based on the calculation result in step S426, and at the same time as the bounce circuit 340 is driven, the FPU 310 strobes the light distribution angle in the main light emission. Drive system 307. The details of driving the strobe optical system 307 here will be described later. In the following step S428, the FPU 310 determines whether or not the movable part 300b driven in step S427 has been driven to the calculation position in step S426 based on the detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c. To determine. FPU310 advances a process to step S430, when the movable part 300b is driven to the calculation position (YES in S428), and advances a process to step S429 when the movable part 300b is not driven to the calculation position (YES in S428). Proceed.

ステップS429においてFPU310は、所定時間が経過したか否か(タイムアウトしたか否か)を判定する。FPU310は、可動部300b駆動が完了せずに所定時間が経過した(タイムアウトした)場合(S429でYES)、処理をステップS430へ進め、タイムアウトしていない場合(S429でNO)、処理をステップS428へ戻す。ステップS430においてFPU310は、メインコンデンサ302dの充電電圧が所定値以上か否か(充電が完了したか否か)を判定する。FPU310は、充電が完了した場合(S430でYES)、処理をステップS432へ進め、充電が完了していない場合(S430でNO)、処理をステップS431へ進める。ステップS431においてFPU310は、再度、昇圧回路ブロック302を動作開始させてメインコンデンサ302dの充電を行い、その後、処理をステップS432へ進める。   In step S429, the FPU 310 determines whether or not a predetermined time has elapsed (whether or not it has timed out). FPU310 advances a process to step S430, when predetermined time passed (timed out), without driving of the movable part 300b being completed (YES in S429), and when not timed out (NO in S429), the process of step S428. Return to. In step S430, the FPU 310 determines whether the charging voltage of the main capacitor 302d is equal to or higher than a predetermined value (whether charging is completed). If charging is completed (YES in S430), FPU 310 advances the process to step S432, and if charging is not completed (NO in S430), advances the process to step S431. In step S431, the FPU 310 restarts the operation of the booster circuit block 302 to charge the main capacitor 302d, and then advances the process to step S432.

ステップS432においてFPU310は、充電完了信号をCCPU101へ送信する。そして、ステップS433においてFPU310は、発光命令としてCCPU101から発光開始信号を受信したか否かを判定する。FPU310は、発光開始信号を受信した場合(S433でYES)、処理をステップS434へ進め、発光開始信号を受信していない場合(S433でNO)、処理をステップS402へ戻す。ステップS434においてFPU310は、受信した発光開始信号にしたがって発光制御回路304に発光指示を行い、発光制御回路304は放電管305を発光させる。その後、FPU310は、処理をステップS402へ戻す。なお、ステップS434においてFPU310は、調光用プリ発光と本発光のような一連の発光については、各発光が終了してもステップS402へ戻さずに、一連の発光が終了した後に処理をステップS402へ戻す。   In step S432, the FPU 310 transmits a charge completion signal to the CCPU 101. Then, in step S433, the FPU 310 determines whether or not a light emission start signal has been received from the CCPU 101 as a light emission command. When FPU 310 receives the light emission start signal (YES in S433), the process proceeds to step S434, and when the light emission start signal is not received (NO in S433), the process returns to step S402. In step S434, the FPU 310 instructs the light emission control circuit 304 to emit light in accordance with the received light emission start signal, and the light emission control circuit 304 causes the discharge tube 305 to emit light. After that, the FPU 310 returns the process to step S402. Note that in step S434, the FPU 310 does not return to step S402 even after each light emission ends for a series of light emission such as pre-light emission for dimming and main light emission, and performs processing after the end of a series of light emission in step S402. Return to.

ステップS413の詳細について説明する。図8は、ステップS413の処理のフローチャートである。ステップS801においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S801でYES)、処理をステップS802へ進め、配光可変モードでない(配光固定モードである)場合(S801でNO)、処理をステップS804へ進める。   Details of step S413 will be described. FIG. 8 is a flowchart of the process of step S413. In step S801, the FPU 310 determines whether the light distribution variable mode is set. If the light distribution variable mode is set (YES in S801), the FPU 310 advances the process to step S802, and if the light distribution variable mode is not set (light distribution fixed mode) (NO in S801), the process advances to step S804.

ここで、被写体距離検出用プリ発光時の配光角は、ステップS403で格納した焦点距離配光角で発光を行うことが望ましい。これは、焦点距離配光角で発光を行うことにより、画角全体をカバーすることができるため、被写体が画角内のどこに位置したとしても測距が可能となるからである。そこで、ステップS802においてFPU310は、ストロボ光学系307を焦点距離配光角へ駆動するか否かを確認する。FPU310は、ストロボ光学系307を焦点距離配光角へ駆動する場合(S802でYES)、本処理を抜けてステップS414へ処理を進める。一方、FPU310は、ユーザによる設定等に基づきストロボ光学系307を焦点距離配光角へ駆動しない場合(S802でNO)、処理をステップS803へ進める。   Here, it is desirable that the light distribution angle at the time of pre-light emission for subject distance detection be the light emission angle with the focal length light distribution angle stored in step S403. This is because the entire angle of view can be covered by emitting light at the focal length light distribution angle, so that distance measurement is possible regardless of where the subject is located within the angle of view. Therefore, in step S802, the FPU 310 confirms whether to drive the strobe optical system 307 to the focal length light distribution angle. When driving the strobe optical system 307 to the focal length light distribution angle (YES in S802), the FPU 310 exits this process and advances the process to step S414. On the other hand, if the FPU 310 does not drive the strobe optical system 307 to the focal length light distribution angle based on the setting made by the user (NO in S802), the process proceeds to step S803.

ステップS803においてFPU310は、焦点距離情報に基づき算出したAF可能エリアをカバーする配光角(以下「AFエリア配光角」という)へストロボ光学系307を駆動し、その後、本処理を抜けてステップS414へ処理を進める。ステップS804においてFPU310は、ステップS402で配光固定モードに切り替えた情報に基づき、本発光配光角にストロボ光学系307を駆動し、その後、本処理を抜けてステップS414へ処理を進める。   In step S803, the FPU 310 drives the strobe optical system 307 to a light distribution angle that covers the AF possible area calculated based on the focal length information (hereinafter referred to as “AF area light distribution angle”), and then exits this processing and proceeds to step The process proceeds to S414. In step S804, the FPU 310 drives the strobe optical system 307 at the main light emission distribution angle based on the information switched to the fixed light distribution mode in step S402, and then exits this process and advances the process to step S414.

ステップS419の詳細について説明する。図9は、ステップS419の処理のフローチャートである。ステップS901においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S901でYES)、処理をステップS902へ進め、配光可変モードでない(配光固定モードである)場合(S901でNO)、処理をステップS905へ進める。   Details of step S419 will be described. FIG. 9 is a flowchart of the process of step S419. In step S901, the FPU 310 determines whether or not the light distribution variable mode is set. FPU310 advances a process to step S902, when it is light distribution variable mode (it is YES at S901), and when it is not light distribution variable mode (it is light distribution fixed mode) (it is NO at S901), it advances a process to step S905.

ここで、天井距離検出用プリ発光時の配光角は、本発光時と同じ配光角で発光を行うことが望ましい。これにより、天井距離検出用プリ発光と本発光の間でストロボ光学系307を駆動する必要がなくなり、バウンス駆動中にストロボ光学系307の駆動を終了させることが可能になることで、測距時間の短縮を図ることができる。よって、ステップS902においてFPU310は、天井距離に関する情報の検出を本発光配光角で行うか否かを確認する。FPU310は、本発光配光角で天井距離に関する情報を検出する場合(S902でYES)、処理をステップS903へ進める。一方、FPU310は、バウンス回路340によるバウンス駆動時間がストロボ光学系307の駆動時間よりも短くなる場合には、本発光配光角で天井距離に関する情報を検出せずに(S902でNO)、処理をステップS904へ進める。   Here, it is desirable that the light distribution angle during the pre-light emission for ceiling distance detection is the same as that during the main light emission. This eliminates the need to drive the strobe optical system 307 between the pre-light emission for ceiling distance detection and the main light emission, and it becomes possible to end the drive of the strobe optical system 307 during the bounce drive. Can be shortened. Therefore, in step S902, the FPU 310 confirms whether to detect the information about the ceiling distance at the main light emission distribution angle. FPU310 advances a process to step S903, when detecting the information regarding a ceiling distance with a main light emission light distribution angle (YES in S902). On the other hand, when the bounce driving time by the bounce circuit 340 is shorter than the driving time of the strobe optical system 307, the FPU 310 does not detect the information about the ceiling distance at the main light emission distribution angle (NO in S902), and the process is performed. To Step S904.

ステップS903においてFPU310は、本発光配光角にストロボ光学系307を駆動する。ステップS904においてFPU310は、被写体距離検出用プリ発光時の配光角と本発光配光角の中間域の配光角(中間配光角)へストロボ光学系307を駆動する。つまり、バウンス回路340が駆動中の間のみストロボ光学系307を本発光配光角へ向けて駆動する。これにより、被写体距離検出用プリ発光時の配光角と本発光配光角に挟まれた角度範囲でストロボ光学系307を停止させたときの配光角で発光部を発光させることになる。図10は、ステップS904で設定される天井距離検出用プリ発光時の配光角を説明する図である。図10(a)は、被写体距離検出用プリ発光時の配光角が本発光配光角以上の場合を示しており、図10(b)は、被写体距離検出用プリ発光時の配光角が本発光配光角以下の場合を示している。ステップS904では、天井距離検出用プリ発光時の配光角は、図10(a),(b)に示す斜線部内の1値の角度に設定される。これにより、ストロボ光学系307の駆動速度が遅い場合であっても、効率的に適切な位置へストロボ光学系307を駆動することができる。ステップS905においてFPU310は、ストロボ光学系307の駆動を行わない。これは、ステップS402で配光固定モードに切り替えられて、ステップS804で既にストロボ光学系307は本発光配光角になっているからである。FPU310は、ステップS903〜905の後、本処理を抜けてステップS420へ処理を進める。   In step S903, the FPU 310 drives the strobe optical system 307 at the main light emission distribution angle. In step S904, the FPU 310 drives the strobe optical system 307 to a light distribution angle (intermediate light distribution angle) in an intermediate region between the light distribution angle at the time of pre-light emission for subject distance detection and the main light emission distribution angle. That is, the strobe optical system 307 is driven toward the main light emission distribution angle only while the bounce circuit 340 is being driven. As a result, the light emitting section is caused to emit light at the light distribution angle when the strobe optical system 307 is stopped within an angle range between the light distribution angle at the time of pre-light emission for subject distance detection and the main light emission light distribution angle. FIG. 10 is a diagram illustrating a light distribution angle at the time of pre-light emission for ceiling distance detection set in step S904. FIG. 10A shows a case where the light distribution angle during pre-emission for subject distance detection is equal to or larger than the main light emission distribution angle, and FIG. 10B shows a light distribution angle during pre-emission for subject distance detection. Indicates the case where the distribution angle is less than the main light emission distribution angle. In step S904, the light distribution angle at the time of pre-light emission for ceiling distance detection is set to a one-valued angle in the shaded area shown in FIGS. Thereby, even if the driving speed of the strobe optical system 307 is slow, the strobe optical system 307 can be efficiently driven to an appropriate position. In step S905, the FPU 310 does not drive the strobe optical system 307. This is because the light distribution fixed mode is switched to in step S402, and the strobe optical system 307 has already reached the main light emission light distribution angle in step S804. After steps S903 to 905, the FPU 310 exits this process and advances the process to step S420.

ステップS427の詳細について説明する。図11は、ステップS427の処理のフローチャートである。ステップS1101においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S1101でYES)、処理をステップS1102へ進め、配光可変モードでない(配光固定モードである)場合(S1101でNO)、処理をステップS1204へ進める。   Details of step S427 will be described. FIG. 11 is a flowchart of the process of step S427. In step S1101, the FPU 310 determines whether or not the light distribution variable mode is set. If the light distribution variable mode is set (YES in S1101), the FPU 310 advances the process to step S1102. If the light distribution variable mode is not set (light distribution fixed mode) (NO in S1101), the process proceeds to step S1204.

ここで、本発光配光角は、ステップS403で格納した焦点距離情報とは無関係に決定することができる。本発光配光角には、ガイドナンバーと照射範囲とのバランスがよいものが適しており、よって、設定可能角度範囲(第2の情報)の中心値付近の配光角とするのが望ましい。一方、ユーザによって本発光配光角が所定の角度(第2の情報)に設定されている場合もある。そこで、ステップS1102においてFPU310は、現在の配光角が本発光配光角か否かを判定する。FPU310は、現在の配光角が本発光配光角である場合(S1102でYES)、本処理を抜けてステップS428へ処理を進め、現在の配光角が本発光配光角でない場合(S1102でNO)、処理をステップS1103へ進める。   Here, the main light emission distribution angle can be determined regardless of the focal length information stored in step S403. It is preferable that the main emission light distribution angle has a good balance between the guide number and the irradiation range. Therefore, it is desirable to set the light distribution angle near the center value of the settable angle range (second information). On the other hand, the main emission light distribution angle may be set to a predetermined angle (second information) by the user. Therefore, in step S1102, the FPU 310 determines whether the current light distribution angle is the main emission light distribution angle. When the current light distribution angle is the main light emission light distribution angle (YES in S1102), the FPU 310 advances the process to step S428, and when the current light distribution angle is not the main light emission light distribution angle (S1102). NO), and the process proceeds to step S1103.

ステップS1103においてFPU310は、本発光配光角になるようにストロボ光学系307を駆動する。また、ステップS1104においてFPU310は、ステップS402で配光固定モードに切り替えられて、ステップS804で既にストロボ光学系307は本発光配光角になっているため、ストロボ光学系307の駆動を行わない。FPU310は、ステップS1103,S1104の後、本処理を抜けてステップS428へ処理を進める。   In step S1103, the FPU 310 drives the strobe optical system 307 so that the main light emission distribution angle is achieved. Further, in step S1104, the FPU 310 does not drive the strobe optical system 307 because it is switched to the fixed light distribution mode in step S402 and the strobe optical system 307 has already reached the main light emission distribution angle in step S804. After steps S1103 and S1104, the FPU 310 exits this process and advances the process to step S428.

以上の通りにストロボ装置300を制御することにより、撮影画角の周辺部を測距することができなくなるのを防ぎながら、測距レンジが短くなりすぎることを防ぐことができる。これにより、被写体と反射体の測距時の発光及び本発光を適切に自動制御することが可能となる。なお、上記説明では、FPU310がストロボ装置300の光の照射方向と配光角を自動制御するものとして説明したが、ストロボ装置300の光の照射方向と配光角とがカメラ本体100のCCPU101によって制御可能な構成となっていてもよい。   By controlling the strobe device 300 as described above, it is possible to prevent the distance measurement range from becoming too short, while preventing the distance measurement in the peripheral portion of the shooting field angle from being impossible. As a result, it is possible to appropriately and automatically control the light emission and the main light emission during distance measurement between the subject and the reflector. In the above description, the FPU 310 automatically controls the light irradiation direction and the light distribution angle of the strobe device 300, but the light irradiation direction and the light distribution angle of the strobe device 300 are determined by the CCPU 101 of the camera body 100. It may have a controllable structure.

<ストロボ装置300の第2実施形態に係る駆動制御方法>
次に、撮像システム10によりオートバウンス発光撮影を実行する場合のストロボ装置300の第2実施形態に係る駆動制御方法について説明する。上記第1実施形態は、被写体の距離に関する情報の検出後に反射体の反射面までの距離(以下「反射体距離」という)である天井距離に関する情報の検出を行うフローとなっていた。これに対して、第2実施形態は、反射体距離に関する情報の検出後に被写体距離に関する情報の検出を行うフローとなっている。この場合、第1実施形態と比べると、バウンス駆動量が多くなる可能性が大きくなって駆動時間が長くなる場合もある反面、バウンス駆動時間を利用して反射体距離に関する情報を検出するための配光角の自由度を高めることができる利点がある。
<Drive Control Method According to Second Embodiment of Strobe Device 300>
Next, a drive control method according to the second embodiment of the flash device 300 when the auto-bounce flash photography is executed by the imaging system 10 will be described. The first embodiment has a flow of detecting the information about the ceiling distance, which is the distance to the reflecting surface of the reflector (hereinafter referred to as “reflector distance”), after detecting the information about the distance to the subject. On the other hand, the second embodiment has a flow of detecting information on the subject distance after detecting information on the reflector distance. In this case, compared to the first embodiment, there is a possibility that the bounce drive amount may increase and the drive time may increase, but on the other hand, the bounce drive time is used to detect information regarding the reflector distance. There is an advantage that the degree of freedom of the light distribution angle can be increased.

図12は、オートバウンス発光撮影でのストロボ装置300の第2実施形態に係る駆動制御の流れを示すフローチャートである。図12に示す各処理は、FPU310が所定のプログラムコードを実行してストロボ装置300の各部の動作を制御することにより実現される。なお、図12のフローチャートにある各種の処理のうち、図4のフローチャートにある処理と同じ処理については、その旨を記して、ここでの説明を省略する。   FIG. 12 is a flowchart showing the flow of drive control according to the second embodiment of the flash device 300 in auto-bounce flash photography. Each process illustrated in FIG. 12 is realized by the FPU 310 executing a predetermined program code to control the operation of each unit of the flash device 300. Of the various processes in the flowchart of FIG. 12, the same processes as those in the flowchart of FIG. 4 will be noted and their description will be omitted.

ステップS1201〜S1212の各処理はステップS401〜S412の各処理と同じであるため、ここでの説明を省略する。ステップS1213においてFPU310は、可動部300bを天井方向へ向けるようにバウンス回路340を駆動させる。また、FPU310は、バウンス回路340の駆動に合わせて、天井距離検出用プリ発光の配光角へストロボ光学系307を駆動する。なお、ステップS1213でのストロボ光学系307の駆動の詳細については後述する。   Since each processing of steps S1201 to S1212 is the same as each processing of steps S401 to S412, description thereof will be omitted here. In step S1213, the FPU 310 drives the bounce circuit 340 so that the movable portion 300b faces the ceiling. Further, the FPU 310 drives the strobe optical system 307 to the light distribution angle of the pre-emission for ceiling distance detection in synchronization with the driving of the bounce circuit 340. The details of driving the strobe optical system 307 in step S1213 will be described later.

続くステップS1214においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの角度検出結果をFPU310内のRAMに格納し、角度検出結果に基づき可動部300bが天井方向を向いているか否かを判定する。FPU310は、可動部300bが天井方向を向いている場合(S1214でYES)、処理をステップS1215へ進め、可動部300bが天井方向を向いていない場合(S1214でNO)、処理をステップS1216へ進める。なお、ステップS1216〜S1218の各処理は、ステップS422〜S424の各処理と同じであるため、ここでの説明を省略する。   In subsequent step S1214, FPU 310 stores the angle detection results of first bounce angle detection circuit 340a and second bounce angle detection circuit 340c in RAM in FPU 310, and based on the angle detection results, movable unit 300b faces the ceiling. Is determined. FPU310 advances a process to step S1215, when the movable part 300b faces the ceiling direction (YES in S1214), and advances a process to step S1216 when the movable part 300b does not face the ceiling direction (NO in S1214). . Since each processing of steps S1216 to S1218 is the same as each processing of steps S422 to S424, description thereof will be omitted here.

ステップS1215においてFPU310は、天井距離検出用プリ発光を行い、天井からの反射光を反射光検出部308で検出し、その検出光量に基づいて天井距離に関する情報を演算する。FPU310は、算出した天井距離に関する情報をFPU310内のRAMに格納し、その後、処理をステップS1219へ進める。ステップS1219においてFPU310は、可動部300bを正面方向へ向けるようにバウンス回路340を駆動させる。また、FPU310は、バウンス回路340の駆動に合わせ、被写体距離検出用プリ発光の配光角へストロボ光学系307を駆動する。なお、ステップS1219でのストロボ光学系307の駆動の詳細については後述する。   In step S1215, the FPU 310 performs pre-light emission for ceiling distance detection, the reflected light from the ceiling is detected by the reflected light detection unit 308, and information regarding the ceiling distance is calculated based on the detected light amount. The FPU 310 stores information regarding the calculated ceiling distance in the RAM in the FPU 310, and then advances the process to step S1219. In step S1219, the FPU 310 drives the bounce circuit 340 so that the movable portion 300b faces the front direction. In addition, the FPU 310 drives the strobe optical system 307 to the light distribution angle of the pre-emission for subject distance detection in synchronization with the driving of the bounce circuit 340. Details of driving the strobe optical system 307 in step S1219 will be described later.

ステップS1220においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの角度検出結果をFPU310内のRAMに格納し、角度検出結果に基づき可動部300bが正面方向を向いているか否かを判定する。FPU310は、可動部300bが正面方向を向いている場合(S1220でYES)、処理をステップS1221へ進め、可動部300bが正面方向を向いていない場合(S1220でNO)、処理をステップS1222へ進める。なお、ステップS1222〜S1224の各処理は、ステップS416〜S418の各処理と同じであるため、ここでの説明を省略する。   In step S1220, the FPU 310 stores the angle detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c in the RAM of the FPU 310, and the movable unit 300b faces the front direction based on the angle detection result. It is determined whether or not there is. FPU310 advances a process to step S1221 when the movable part 300b faces the front direction (YES in S1220), and advances a process to step S1222 when the movable part 300b does not face the front direction (NO in S1220). . Since each processing of steps S1222 to S1224 is the same as each processing of steps S416 to S418, the description thereof is omitted here.

ステップS1221においてFPU310は、被写体距離検出用プリ発光を行い、被写体からの反射光を反射光検出部308で検出し、その検出光量に基づいて被写体の距離に関する情報を演算する。FPU310は、算出した被写体の距離に関する情報をFPU310内のRAMに格納し、その後、処理をステップS1225へ進める。ステップS1225〜S1234の各処理は、ステップS425〜S434の各処理と同じであるため、ここでの説明を省略する。   In step S1221, the FPU 310 performs pre-light emission for subject distance detection, detects reflected light from the subject by the reflected light detection unit 308, and calculates information regarding the subject distance based on the detected light amount. The FPU 310 stores the calculated information regarding the distance to the subject in the RAM in the FPU 310, and then advances the process to step S1225. Since each process of steps S1225-S1234 is the same as each process of steps S425-S434, the description thereof is omitted here.

ステップS1213の詳細について説明する。図13は、ステップS1213の処理のフローチャートである。ステップS1301においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S1301でYES)、処理をステップS1302へ進め、配光可変モードでない(配光固定モードである)場合(S1301でNO)、処理をステップS1305へ進める。ステップS1302においてFPU310は、被写体距離検出用プリ発光の配光角が本発光配光角以下か否かを判定する。FPU310は、被写体距離検出用プリ発光の配光角が本発光配光角以下の場合(S1302でYES)、処理をステップS1303へ進める。一方、FPU310は、被写体距離検出用プリ発光の配光角が本発光配光角より大きい場合(S1302でNO)、処理をステップS1304へ進める。   Details of step S1213 will be described. FIG. 13 is a flowchart of the process of step S1213. In step S1301, the FPU 310 determines whether or not the light distribution variable mode is set. When the light distribution variable mode is set (YES in S1301), the FPU 310 advances the process to step S1302, and when the light distribution variable mode is not set (light distribution fixed mode) (NO in S1301), the process advances to step S1305. In step S1302, the FPU 310 determines whether or not the light distribution angle of the pre-light emission for subject distance detection is less than or equal to the main light emission light distribution angle. If the light distribution angle of the pre-light emission for subject distance detection is equal to or less than the main light emission light distribution angle (YES in S1302), FPU 310 advances the process to step S1303. On the other hand, when the light distribution angle of the pre-light emission for subject distance detection is larger than the main light emission light distribution angle (NO in S1302), the FPU 310 advances the process to step S1304.

ステップS1303においてFPU310は、天井距離検出用プリ発光の配光角が焦点距離配光角となるようにストロボ光学系307を駆動する。これにより、ステップS1219では被写体距離検出用プリ発光の配光角と同じ配光角となるため、ストロボ光学系307の駆動を省略することができる。ステップS1304にてストロボマイコン310は、本発光配光角又はそれより望遠側の配光角となるようにストロボ光学系307を駆動する。この場合の配光角には、本発光時の配光角を使用してもよいし、ユーザが本発光配光角より望遠側の配光角において設定した1値の配光角を用いてもよい。このように、より望遠側で天井距離検出用プリ発光を行うことにより、ガイドナンバーを上げて測距を行うことができるため、天井が高い場合に測距レンジを広げることができる。ステップS1305においてFPU310は、ステップS1202で配光固定モードに切り替えた情報に基づき、本発光配光角にストロボ光学系307を駆動する。FPU310は、ステップS1303〜S1305の後、本処理を抜けてステップS1214へ処理を進める。   In step S1303, the FPU 310 drives the strobe optical system 307 so that the light distribution angle of the ceiling distance detection pre-emission becomes the focal length light distribution angle. As a result, in step S1219, the light distribution angle becomes the same as the light distribution angle of the pre-emission light for subject distance detection, so that driving of the strobe optical system 307 can be omitted. In step S1304, the flash microcomputer 310 drives the flash optical system 307 so that the main light emission light distribution angle or the light distribution angle on the telephoto side is obtained. As the light distribution angle in this case, the light distribution angle at the time of main light emission may be used, or a 1-value light distribution angle set by the user at the telephoto side light distribution angle from the main light emission distribution angle may be used. Good. In this way, by performing the ceiling-distance-detecting pre-light emission on the more telephoto side, it is possible to increase the guide number and perform distance measurement, so that the distance measurement range can be widened when the ceiling is high. In step S1305, the FPU 310 drives the strobe optical system 307 at the main light emission light distribution angle based on the information switched to the light distribution fixed mode in step S1202. After steps S1303 to S1305, the FPU 310 exits this process and advances the process to step S1214.

ステップS1219の詳細について説明する。図14は、ステップS1219の処理のフローチャートである。ステップS1401においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S1401でYES)、処理をステップS1402へ進め、配光可変モードでない(配光固定モードである)場合(S1401でNO)、処理をステップS1405へ進める。ステップS1402においてFPU310は、被写体の距離に関する情報の検出を焦点距離配光角で行うか否かを確認する。FPU310は、焦点距離配光角で被写体の距離に関する情報を検出する場合(S1402でYES)、処理をステップS1403へ処理を進める。一方、FPU310は、ユーザによる設定等に基づき焦点距離配光角で被写体の距離に関する情報を検出しない場合(S1402でNO)、処理をステップS1404へ進める。   Details of step S1219 will be described. FIG. 14 is a flowchart of the process of step S1219. In step S1401, the FPU 310 determines whether the light distribution variable mode is set. The FPU 310 advances the process to step S1402 if the light distribution variable mode is set (YES in S1401), and advances the process to step S1405 if it is not the light distribution variable mode (light distribution fixed mode) (NO in S1401). In step S1402, the FPU 310 confirms whether to detect the information about the distance to the subject at the focal length light distribution angle. FPU310 advances a process to step S1403, when detecting the information regarding the distance of a to-be-photographed object by a focal length light distribution angle (it is YES at S1402). On the other hand, if the FPU 310 does not detect the information regarding the distance to the subject in the focal length light distribution angle based on the setting by the user (NO in S1402), the process proceeds to step S1404.

ステップS1403においてFPU310は、被写体距離検出用プリ発光の配光角が焦点距離配光角となるようにストロボ光学系307を駆動する。なお、ステップS1303で既にストロボ光学系307が焦点距離配光角となっている場合には、ステップS1403は省略される。ステップS1404においてFPU310は、AFエリア配光角へストロボ光学系307を駆動する。ステップS1405においてFPU310は、ステップS1202で配光固定モードに切り替えられると共にステップS1305で既にストロボ光学系307が本発光配光角となっているため、ストロボ光学系307の駆動を行わない。FPU310は、ステップS1403〜S1405の後、本処理を抜けてステップS1214へ処理を進める。   In step S1403, the FPU 310 drives the strobe optical system 307 so that the light distribution angle of the pre-light emission for subject distance detection becomes the focal length light distribution angle. If the strobe optical system 307 has already reached the focal length light distribution angle in step S1303, step S1403 is omitted. In step S1404, the FPU 310 drives the strobe optical system 307 to the AF area light distribution angle. In step S1405, the FPU 310 does not drive the strobe optical system 307 because it is switched to the fixed light distribution mode in step S1202 and the strobe optical system 307 has already reached the main light emission distribution angle in step S1305. After steps S1403 to S1405, the FPU 310 exits this process and advances the process to step S1214.

このように本実施形態では、被写体の距離に関する情報の検出に先んじて反射体距離(天井距離)に関する情報の検出を行うことにより、バウンス駆動量は多くなるが、その駆動時間を利用して、より広範囲でストロボ光学系307を駆動することができる。これにより、反射体の距離に関する情報を検出する際の配光角の自由度を高めることができる。また、本実施形態は、オートバウンス駆動が十分に速い場合に有効である。なお、より短い時間でオートバウンス駆動を行いたい場合は、第1実施形態での駆動制御を用いることが望ましい。   As described above, in the present embodiment, by detecting the information about the reflector distance (ceiling distance) prior to the detection of the information about the distance to the subject, the bounce drive amount increases, but by using the drive time, The strobe optical system 307 can be driven in a wider range. This can increase the degree of freedom of the light distribution angle when detecting the information about the distance of the reflector. Further, the present embodiment is effective when the auto bounce drive is sufficiently fast. In addition, when it is desired to perform the auto-bounce drive in a shorter time, it is desirable to use the drive control in the first embodiment.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、図4及び図12の各フローチャートの各処理は、不都合のない範囲であれば、異なる順序で実行されてもよい。また、本実施形態では、バウンス撮影時の反射体に天井を適用して説明したが、反射体は天井に限られるものではなく、ユーザが意図する方向へ反射光を照射することが可能な壁やパーティション、幕等の反射体に変更が可能である。   Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist thereof. For example, the processes of the flowcharts of FIGS. 4 and 12 may be executed in different orders as long as there is no problem. Further, in the present embodiment, the ceiling is applied to the reflector at the time of bounce shooting, but the reflector is not limited to the ceiling, and a wall capable of irradiating the reflected light in the direction intended by the user. It is possible to change it to a reflector such as a partition or curtain.

本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

10 撮像システム
100 カメラ本体
101 CCPU(カメラマイコン)
102 撮像素子
107 焦点検出回路
140 姿勢検出回路
200 レンズ鏡筒
300 ストロボ装置
305 放電管
307 ストロボ光学系
308 反射光検出部
310 FPU(ストロボマイコン)
330 光学系駆動回路
340 バウンス回路
360 姿勢検出回路
10 Imaging system 100 Camera body 101 CCPU (camera microcomputer)
102 Image sensor 107 Focus detection circuit 140 Posture detection circuit 200 Lens barrel 300 Strobe device 305 Discharge tube 307 Strobe optical system 308 Reflected light detection unit 310 FPU (strobe microcomputer)
330 Optical system drive circuit 340 Bounce circuit 360 Attitude detection circuit

Claims (14)

レンズ鏡筒、撮像装置および照明装置を備える撮像システムであって、
前記照明装置は、
照射する光の照射方向と配光角をそれぞれ変更可能に構成された発光部と、
被写体の距離に関する情報と、反射体の距離に関する情報とを、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときの反射光に基づき検出する検出手段と、を有し、
前記照明装置と前記撮像装置の少なくとも一方は、前記発光部での光の照射方向と配光角を制御する制御手段を有し、
前記制御手段は、前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記レンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記バウンス撮影の本撮影での前記発光部の配光角を前記第1の情報とは異なる第2の情報に基づいて決定し、
前記被写体の距離に関する情報を検出した後に前記反射体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記本撮影の前記発光部の配光角と同じ角度に制御することを特徴とする撮像システム。
An imaging system including a lens barrel, an imaging device, and a lighting device,
The lighting device is
A light emitting unit configured to change the irradiation direction and the light distribution angle of the light to be irradiated,
Information regarding the distance of the subject, and information regarding the distance of the reflector, and a detecting unit that detects based on the reflected light when the light is emitted from the light emitting unit to the subject and the reflector, respectively.
At least one of the illumination device and the imaging device has a control unit that controls a light irradiation direction and a light distribution angle of the light emitting unit,
The control means relates to the distance of the subject when performing bounce photography for photographing the subject by irradiating the reflector with light from the light emitting unit and irradiating the subject with light reflected from the reflector. The light distribution angle of the light emitting unit at the time of detecting information is determined based on the first information based on the focal length of the lens barrel, and the light distribution angle of the light emitting unit in the main shooting of the bounce shooting is set to the above. Make a decision based on second information that is different from the first information ,
The light distribution angle of the light emitting unit when detecting the information regarding the distance of the reflector when the information regarding the distance of the reflector is detected after detecting the information regarding the distance of the subject, An imaging system characterized by controlling the light distribution angle to the same angle .
前記第2の情報は、前記発光部において設定可能な配光角の角度範囲またはユーザにより設定された角度のいずれかであることを特徴とする請求項1に記載の撮像システム。   The imaging system according to claim 1, wherein the second information is either an angle range of a light distribution angle that can be set in the light emitting unit or an angle set by a user. 前記発光部の姿勢を検出する姿勢検出手段を備え、
前記制御手段は、前記姿勢検出手段の検出結果に基づき前記発光部からの光の照射方向を制御することを特徴とする請求項1又は2に記載の撮像システム。
An attitude detecting means for detecting the attitude of the light emitting unit,
The image pickup system according to claim 1, wherein the control unit controls an irradiation direction of light from the light emitting unit based on a detection result of the posture detection unit.
前記制御手段は、前記発光部からの光の照射方向を前記被写体に向かう方向から前記反射体へ向かう方向へ変更するように前記発光部を駆動する間だけ、前記発光部の配光角を変更するよう制御することを特徴とする請求項1乃至3のいずれか1項に記載の撮像システム。 The control unit changes the light distribution angle of the light emitting unit only while driving the light emitting unit so as to change the irradiation direction of the light from the light emitting unit from the direction toward the subject to the direction toward the reflector. The imaging system according to any one of claims 1 to 3, wherein the imaging system is controlled to operate. 前記制御手段は、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記レンズ鏡筒の焦点距離情報に対応する配光角に制御することを特徴とする請求項1乃至のいずれか1項に記載の撮像システム。 The control unit controls the light distribution angle of the light emitting unit when detecting information about the distance to the subject to a light distribution angle corresponding to focal length information of the lens barrel. The imaging system according to any one of 4 above. 前記制御手段は、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を、前記撮像装置により前記被写体に対するオートフォーカスが可能なエリアをカバーする配光角に制御することを特徴とする請求項1乃至のいずれか1項に記載の撮像システム。 The control unit controls a light distribution angle of the light emitting unit when detecting information regarding a distance to the subject to a light distribution angle that covers an area where the imaging device can autofocus the subject. The imaging system according to any one of claims 1 to 4 . 前記制御手段は、前記発光部からの光の照射方向の変更と前記発光部の配光角の変更を同時に行うことができない場合、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記本撮影で前記発光部の配光角と同じ角度に設定することを特徴とする請求項1乃至のいずれか1項に記載の撮像システム。 When the control unit cannot change the irradiation direction of the light from the light emitting unit and the light distribution angle of the light emitting unit at the same time, the control unit does not distribute the light emitting unit when detecting information about the distance to the subject. the imaging system according to any one of claims 1 to 6, characterized in that setting the optical angular at the same angle as the light distribution angle of the light emitting portion in the main photographing. レンズ鏡筒、撮像装置および照明装置を備える撮像システムであって、An imaging system including a lens barrel, an imaging device, and a lighting device,
前記照明装置は、The lighting device is
照射する光の照射方向と配光角をそれぞれ変更可能に構成された発光部と、A light emitting unit configured to change the irradiation direction and the light distribution angle of the light to be irradiated,
被写体の距離に関する情報と、反射体の距離に関する情報とを、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときの反射光に基づき検出する検出手段と、を有し、Information regarding the distance of the subject, and information regarding the distance of the reflector, and a detecting unit that detects based on the reflected light when the light is emitted from the light emitting unit to the subject and the reflector, respectively.
前記照明装置と前記撮像装置の少なくとも一方は、前記発光部での光の照射方向と配光角を制御する制御手段を有し、At least one of the illumination device and the imaging device has a control unit that controls a light irradiation direction and a light distribution angle of the light emitting unit,
前記制御手段は、前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記レンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記バウンス撮影の本撮影での前記発光部の配光角を前記第1の情報とは異なる第2の情報に基づいて決定し、前記反射体の距離に関する情報を検出した後に前記被写体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記本撮影での前記発光部の配光角または前記本撮影での前記発光部の配光角よりも望遠側の配光角に制御することを特徴とする撮像システム。The control means relates to the distance of the subject when performing bounce photography for photographing the subject by irradiating the reflector with light from the light emitting unit and irradiating the subject with light reflected from the reflector. The light distribution angle of the light emitting unit at the time of detecting information is determined based on the first information based on the focal length of the lens barrel, and the light distribution angle of the light emitting unit in the main shooting of the bounce shooting is set to the above. When determining information based on the second information different from the first information and detecting information regarding the distance of the subject after detecting information regarding the distance of the reflector, The light distribution angle of the light emitting unit is controlled to a light distribution angle of the light emitting unit in the main shooting or a light distribution angle on the telephoto side of the light distribution angle of the light emitting unit in the main shooting. Imaging system.
レンズ鏡筒、撮像装置および照明装置を備え、前記照明装置の発光部から反射体へ光を照射したときの前記反射体からの反射光を被写体に照射して前記被写体を撮影するバウンス撮影を行う際の前記発光部からの光の照射方向と配光角を自動制御する撮像システムの制御方法であって、
前記発光部からの光の照射方向が前記被写体に向くように前記発光部を駆動し、前記被写体の距離に関する情報を検出するために前記発光部を発光させる際の配光角を前記レンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、該決定された配光角で前記発光部から前記被写体に対して光を照射したときの反射光に基づき前記被写体の距離に関する情報を検出するステップと、
前記発光部からの光の照射方向が前記反射体へ向くように前記発光部を駆動し、前記反射体の距離に関する情報を前記第1の情報とは異なる第2の情報または前記第1の情報に基づいて決定し、該決定された配光角で前記発光部から前記反射体に対して光を照射したときの反射光に基づき前記反射体の距離に関する情報を検出するステップと、
前記被写体の距離に関する情報と前記反射体の距離に関する情報とに基づいて前記バウンス撮影の本撮影を行う際の前記発光部からの前記反射体に対する光の照射角度を決定するステップと、
前記発光部からの光が前記照射角度で前記反射体へ照射されるように前記発光部を駆動し、前記第2の情報に基づいて前記本撮影での前記発光部の配光角を決定し、前記被写体の距離に関する情報を検出した後に前記反射体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記本撮影の前記発光部の配光角と同じ角度に制御するステップと、を有することを特徴とする撮像システムの制御方法。
The lens barrel, the imaging device, and the illuminating device are provided, and when the light is emitted from the light emitting unit of the illuminating device to the reflector, reflected light from the reflector is applied to the subject to perform bounce photography for photographing the subject. A method of controlling an imaging system for automatically controlling the irradiation direction and the light distribution angle of light from the light emitting unit at the time of,
The irradiation direction of light from the light emitting portion to drive the light emitting portion so as to face to said object, said lens barrel light distribution angle at the time of emitting the light emitting portion to detect the information about the distance of the object Information based on the first information based on the focal length of the subject, and information about the distance to the subject is detected based on reflected light when light is emitted from the light emitting unit to the subject at the determined light distribution angle. Steps to
The irradiation direction of light from the light emitting portion of the emitting portion is driven so as to face to the reflector, the second information or the first information different from the reflector distance the information about the first information A step of detecting information regarding the distance of the reflector based on the reflected light when the light is emitted from the light emitting unit to the reflector at the determined light distribution angle,
Determining the irradiation angle of the light from the light emitting unit to the reflector when performing the main shooting of the bounce shooting based on information about the distance to the subject and information about the distance to the reflector,
The light emitting unit is driven so that the light from the light emitting unit is irradiated to the reflector at the irradiation angle, and the light distribution angle of the light emitting unit in the main photographing is determined based on the second information. When detecting information about the distance of the reflector after detecting information about the distance of the subject, the light distribution angle of the light emitting unit at the time of detecting information about the distance of the reflector is defined as the light emission angle of the main photographing. Controlling the same angle as the light distribution angle of the unit .
レンズ鏡筒、撮像装置および照明装置を備え、前記照明装置の発光部から反射体へ光を照射したときの前記反射体からの反射光を被写体に照射して前記被写体を撮影するバウンス撮影を行う際の前記発光部からの光の照射方向と配光角を自動制御する撮像システムの制御方法であって、The lens barrel, the imaging device, and the illuminating device are provided, and when the light is emitted from the light emitting unit of the illuminating device to the reflector, reflected light from the reflector is applied to the subject to perform bounce photography for photographing the subject. A method of controlling an imaging system for automatically controlling the irradiation direction and the light distribution angle of light from the light emitting unit at the time of,
前記発光部からの光の照射方向が前記被写体に向くように前記発光部を駆動し、前記被写体の距離に関する情報を検出するために前記発光部を発光させる際の配光角を前記レンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、該決定された配光角で前記発光部から前記被写体に対して光を照射したときの反射光に基づき前記被写体の距離に関する情報を検出するステップと、The light distribution part is driven so that the direction of irradiation of light from the light emitting part is directed to the subject, and the light distribution angle when the light emitting part is made to emit light in order to detect information regarding the distance to the subject is defined by the lens barrel. Information based on the first information based on the focal length of the subject, and information about the distance to the subject is detected based on reflected light when light is emitted from the light emitting unit to the subject at the determined light distribution angle. Steps to
前記発光部からの光の照射方向が前記反射体へ向くように前記発光部を駆動し、前記反射体の距離に関する情報を前記第1の情報とは異なる第2の情報または前記第1の情報に基づいて決定し、該決定された配光角で前記発光部から前記反射体に対して光を照射したときの反射光に基づき前記反射体の距離に関する情報を検出するステップと、The light emitting unit is driven so that the irradiation direction of the light from the light emitting unit is directed to the reflector, and information about the distance of the reflector is the second information or the first information different from the first information. A step of detecting information regarding the distance of the reflector based on the reflected light when the light is emitted from the light emitting unit to the reflector at the determined light distribution angle,
前記被写体の距離に関する情報と前記反射体の距離に関する情報とに基づいて前記バウンス撮影の本撮影を行う際の前記発光部からの前記反射体に対する光の照射角度を決定するステップと、Determining the irradiation angle of the light from the light emitting unit to the reflector when performing the main shooting of the bounce shooting based on information about the distance to the subject and information about the distance to the reflector,
前記発光部からの光が前記照射角度で前記反射体へ照射されるように前記発光部を駆動し、前記第2の情報に基づいて前記本撮影での前記発光部の配光角を決定し、前記反射体の距離に関する情報を検出した後に前記被写体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記本撮影での前記発光部の配光角または前記本撮影での前記発光部の配光角よりも望遠側の配光角に制御するステップと、を有することを特徴とする撮像システムの制御方法。The light emitting unit is driven so that the light from the light emitting unit is irradiated to the reflector at the irradiation angle, and the light distribution angle of the light emitting unit in the main photographing is determined based on the second information. , The light distribution angle of the light emitting unit when detecting the information regarding the distance of the reflector when detecting the information regarding the distance of the subject after detecting the information regarding the distance of the reflector, Controlling the light distribution angle of the light emitting unit or the light distribution angle on the telephoto side of the light distribution angle of the light emitting unit in the main photographing.
光の照射方向と配光角が変更可能に構成された発光部と、前記発光部から照射した光の反射光を検出するセンサとを有する照明装置を制御するコンピュータを、
被写体の距離に関する情報および反射体の距離に関する情報を、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときに前記センサが検出する反射光に基づき検出する検出手段と、
前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮像装置で撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記撮像装置が有するレンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記バウンス撮影の本撮影での前記発光部の配光角を前記第1の情報とは異なる第2の情報に基づいて決定し、前記被写体の距離に関する情報を検出した後に前記反射体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記本撮影の前記発光部の配光角と同じ角度に制御する制御手段として機能させることを特徴とするプログラム。
A computer for controlling an illumination device having a light emitting unit configured to change a light irradiation direction and a light distribution angle, and a sensor for detecting reflected light of light emitted from the light emitting unit,
Detecting means for detecting information on the distance to the subject and information on the distance to the reflector based on the reflected light detected by the sensor when the light is emitted from the light emitting unit to the subject and the reflector, respectively.
When performing bounce photography in which the imaging device captures the subject by irradiating the subject with light reflected from the reflector by irradiating the reflector with light from the light emitting unit, information about the distance to the subject is displayed. The light distribution angle of the light emitting unit at the time of detection is determined based on the first information based on the focal length of the lens barrel of the imaging device, and the light distribution angle of the light emitting unit in the main shooting of the bounce shooting is determined. Is detected based on second information different from the first information, and information regarding the distance of the reflector is detected when information regarding the distance of the reflector is detected after detecting information regarding the distance of the subject. A program causing a light distribution angle of the light emitting unit to be controlled to be the same as a light distribution angle of the light emitting unit in the main photographing .
光の照射方向と配光角が変更可能に構成された発光部と、前記発光部から照射した光の反射光を検出するセンサとを有する照明装置を制御するコンピュータを、A computer for controlling an illumination device having a light emitting unit configured to change a light irradiation direction and a light distribution angle, and a sensor for detecting reflected light of light emitted from the light emitting unit,
被写体の距離に関する情報および反射体の距離に関する情報を、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときに前記センサが検出する反射光に基づき検出する検出手段と、Detecting means for detecting information on the distance to the subject and information on the distance to the reflector based on the reflected light detected by the sensor when the light is emitted from the light emitting unit to the subject and the reflector, respectively.
前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮像装置で撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記撮像装置が有するレンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記バウンス撮影の本撮影での前記発光部の配光角を前記第1の情報とは異なる第2の情報に基づいて決定し、前記反射体の距離に関する情報を検出した後に前記被写体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記本撮影での前記発光部の配光角または前記本撮影での前記発光部の配光角よりも望遠側の配光角に制御する制御手段として機能させることを特徴とするプログラム。When performing bounce photography in which the imaging device captures the subject by irradiating the subject with light reflected from the reflector by irradiating the reflector with light from the light emitting unit, information about the distance to the subject is displayed. The light distribution angle of the light emitting unit at the time of detection is determined based on the first information based on the focal length of the lens barrel of the imaging device, and the light distribution angle of the light emitting unit in the main shooting of the bounce shooting is determined. Is detected based on second information different from the first information, and the information on the distance of the reflector is detected when the information on the distance of the object is detected after detecting the information on the distance of the reflector. Control means for controlling the light distribution angle of the light emitting unit at the time of performing the light distribution angle of the light emitting unit in the main shooting or a light distribution angle on the telephoto side of the light distribution angle of the light emitting unit in the main shooting. Specially designed to function as Programs that.
照射する光の照射方向と配光角をそれぞれ変更可能に構成された発光部と、
被写体の距離に関する情報と、反射体の距離に関する情報とを、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときの反射光に基づき検出する検出手段と、
前記発光部での光の照射方向と配光角を制御する制御手段と、を備える照明装置であって、
前記制御手段は、前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮像装置により撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記撮像装置が備えるレンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記被写体の距離に関する情報を検出した後に前記反射体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、本撮影の前記発光部の配光角と同じ角度に制御することを特徴とする照明装置。
A light emitting unit configured to change the irradiation direction and the light distribution angle of the light to be irradiated,
A detection unit that detects information about the distance to the subject and information about the distance to the reflector based on reflected light when light is emitted from the light emitting unit to the subject and the reflector, respectively.
A lighting device comprising: a control unit that controls a light irradiation direction and a light distribution angle of the light emitting unit,
The control means illuminates the reflector from the light emitting unit and irradiates the subject with light reflected by the reflector to perform bounce photography in which the subject is photographed by an imaging device. After determining the light distribution angle of the light emitting unit when detecting the information regarding the distance of the object based on the first information based on the focal length of the lens barrel included in the imaging device , and after detecting the information regarding the distance of the subject. When the information regarding the distance of the reflector is detected, the light distribution angle of the light emitting unit when detecting the information regarding the distance of the reflector is controlled to be the same angle as the light distribution angle of the light emitting unit in the main photographing. Lighting device.
照射する光の照射方向と配光角をそれぞれ変更可能に構成された発光部と、A light emitting unit configured to change the irradiation direction and the light distribution angle of the light to be irradiated,
被写体の距離に関する情報と、反射体の距離に関する情報とを、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときの反射光に基づき検出する検出手段と、A detection unit that detects information about the distance to the subject and information about the distance to the reflector based on reflected light when light is emitted from the light emitting unit to the subject and the reflector, respectively.
前記発光部での光の照射方向と配光角を制御する制御手段と、を備える照明装置であって、A lighting device comprising: a control unit that controls a light irradiation direction and a light distribution angle of the light emitting unit,
前記制御手段は、前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮像装置により撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記撮像装置が備えるレンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記反射体の距離に関する情報を検出した後に前記被写体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、本撮影での前記発光部の配光角または前記本撮影での前記発光部の配光角よりも望遠側の配光角に制御することを特徴とする照明装置。The control means illuminates the reflector from the light emitting unit and irradiates the subject with light reflected by the reflector to perform bounce photography in which the subject is photographed by an imaging device. The light distribution angle of the light emitting unit when detecting the information regarding the distance is determined based on the first information based on the focal length of the lens barrel included in the imaging device, and the information regarding the distance of the reflector is detected. The light distribution angle of the light emitting unit at the time of detecting the information about the distance of the reflector when the information about the distance of the subject is subsequently detected is the light distribution angle of the light emitting unit at the main shooting or the light distribution angle at the main shooting. An illuminating device characterized by controlling to a light distribution angle on a telephoto side with respect to a light distribution angle of the light emitting section.
JP2016007130A 2016-01-18 2016-01-18 Illumination device, imaging system, control method thereof, and program Active JP6685732B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016007130A JP6685732B2 (en) 2016-01-18 2016-01-18 Illumination device, imaging system, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016007130A JP6685732B2 (en) 2016-01-18 2016-01-18 Illumination device, imaging system, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2017129623A JP2017129623A (en) 2017-07-27
JP6685732B2 true JP6685732B2 (en) 2020-04-22

Family

ID=59396678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016007130A Active JP6685732B2 (en) 2016-01-18 2016-01-18 Illumination device, imaging system, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6685732B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6715224B2 (en) * 2017-10-06 2020-07-01 パナソニック フォト・ライティング 株式会社 Lighting device and imaging device

Also Published As

Publication number Publication date
JP2017129623A (en) 2017-07-27

Similar Documents

Publication Publication Date Title
JP5268438B2 (en) Strobe device, imaging device, and control method thereof
JP5494178B2 (en) Lighting device and camera
JP6573367B2 (en) Imaging device, control method thereof, and control program
JP6827694B2 (en) Light emission control device, its control method, control program, and image pickup device
JP2015004932A (en) Camera system, imaging device, luminaire and control method
US9716818B2 (en) Illumination apparatus having first case and second case rotatable relative to first case, and imaging apparatus having detachable illumination apparatus
JP6685732B2 (en) Illumination device, imaging system, control method thereof, and program
JP2015219325A (en) Stroboscope control system and stroboscope control method
JP6188444B2 (en) Camera system, imaging apparatus, and control method
CN111323992B (en) Photographing system, illumination apparatus, and control method for setting light emission amount of flash
JP6584128B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP6552170B2 (en) Imaging system, illumination device, and control method
JP2009122523A (en) Flash light device
JP6971710B2 (en) Lighting equipment, its control method, control program, and lighting system, as well as imaging equipment.
JP6489925B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP5183188B2 (en) Imaging device and strobe device
JP6851790B2 (en) Lighting device and its control method and imaging system
JP2018081121A (en) Imaging system and control method thereof
JP6650666B2 (en) Imaging system, lighting device, and control method
JP2021063858A (en) Imaging system and method for controlling the same
JP6873779B2 (en) Imaging device, its control method, and control program
JP2019086685A (en) Illumination device, control method therefor, control program, and imaging apparatus
JP2016057499A (en) Imaging system, illumination device, and control method
JP6529233B2 (en) Imaging system, lighting device and control method
JP2020091393A (en) Illumination device and imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200401

R151 Written notification of patent or utility model registration

Ref document number: 6685732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151