JP2017129623A - Illumination device, imaging system and control method of the same, as well as program thereof - Google Patents

Illumination device, imaging system and control method of the same, as well as program thereof Download PDF

Info

Publication number
JP2017129623A
JP2017129623A JP2016007130A JP2016007130A JP2017129623A JP 2017129623 A JP2017129623 A JP 2017129623A JP 2016007130 A JP2016007130 A JP 2016007130A JP 2016007130 A JP2016007130 A JP 2016007130A JP 2017129623 A JP2017129623 A JP 2017129623A
Authority
JP
Japan
Prior art keywords
light
emitting unit
information
light emitting
distribution angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016007130A
Other languages
Japanese (ja)
Other versions
JP6685732B2 (en
Inventor
慶一郎 齊藤
Keiichiro Saito
慶一郎 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016007130A priority Critical patent/JP6685732B2/en
Publication of JP2017129623A publication Critical patent/JP2017129623A/en
Application granted granted Critical
Publication of JP6685732B2 publication Critical patent/JP6685732B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To properly suppress light emission upon range-finding subjects and reflectors and main light emission upon shooting.SOLUTION: A strobo device 300 includes: a light emitting unit that is configured to enable an irradiation direction and light distribution angle of light to be applied to be changed, respectively; and an FPU 310 that detects, by a reflection light detection unit 308, reflection light when a subject and reflector are irradiated with the light from the light emitting unit, respectively, and obtains information on a distance about the subject and information on a distance about the reflector. The FPU 310 is configured to decide a light distribution angle of the light emitting unit for detecting the information about the distance of the subject upon bounce shooting on the basis of focal length information of a lens barrel 200 provided in a camera main body 100, and decide a light distribution angle of the light emitting unit upon main shooting of the bounce shooting on the basis of information different from the focal length information. Further, the FPU 310 is configured to decide a light distribution angle of the light emitting unit upon detecting the information about the distance of the reflector on the basis of the focal length information or the information to be used in deciding the light distribution angle upon the main shooting.SELECTED DRAWING: Figure 4

Description

本発明は、配光角を変更可能な照明装置、照明装置を備える撮像システムとその制御方法及びプログラムに関する。   The present invention relates to a lighting device capable of changing a light distribution angle, an imaging system including the lighting device, a control method thereof, and a program.

撮像装置と照明装置を有する撮像システムを用いた撮影手法の1つとして、照明装置の光を天井や壁等の反射体に向けて照射し、反射体からの拡散反射光を被写体に照射して撮影を行う発光撮影(以下「バウンス発光撮影」という)がある。バウンス発光撮影では、照明装置の光を間接的に被写体に照射することができるため、柔らかい光での描写が可能となる。このようなバウンス発光撮影に関して、照明装置からの光の照射方向等を距離検出手段や姿勢検出手段の検出結果を用いて照明装置の内部で演算し、照明装置内の駆動部によって自動的に調整する自動化技術が知られている。   As one imaging method using an imaging system having an imaging device and an illumination device, light from the illumination device is irradiated toward a reflector such as a ceiling or a wall, and diffused reflected light from the reflector is irradiated onto a subject. There is flash photography that performs photography (hereinafter referred to as “bounce flash photography”). In bounce flash photography, the subject can be indirectly irradiated with light from the illuminating device, so that it is possible to depict with soft light. With regard to such bounce flash photography, the light irradiation direction from the lighting device is calculated inside the lighting device using the detection results of the distance detection means and posture detection means, and is automatically adjusted by the drive unit in the lighting device. Automation technology to do is known.

バウンス発光撮影の自動化技術において高精度な演算結果を得るためには、被写体及び反射体に対する測距時の検出精度を高める必要がある。しかし、従来の反射光検出手段を用いた測距では、測距用発光の配光角が撮影レンズ焦点距離に対応した配光角又は本撮影時の本発光の配光角で固定されていた。そのため、画角周辺の測距ができず、或いは、ガイドナンバーが小さくなることで、測距結果にばらつきが発生しやすくなっており、特に、被写体に対する測距では、画角内の被写体位置によって測距結果のばらつき大きくなるという問題があった。このような問題を解決する技術として、反射光検出手段を用いた測距時に、被写体の反射率に応じて測距結果を補正することにより測距精度を向上させたバウンス撮影装置が提案されている(特許文献1参照)。   In order to obtain a highly accurate calculation result in the automatic technology for bounce flash photography, it is necessary to improve the detection accuracy during distance measurement for the subject and the reflector. However, in the distance measurement using the conventional reflected light detection means, the light distribution angle of the distance measurement light emission is fixed at the light distribution angle corresponding to the focal length of the photographing lens or the light distribution angle of the main light emission at the time of actual photographing. . For this reason, distance measurement cannot be performed around the angle of view, or the guide number becomes smaller, and the result of distance measurement tends to vary. There was a problem that the dispersion of the distance measurement results became large. As a technique for solving such a problem, a bounce photographing apparatus has been proposed in which distance measurement accuracy is improved by correcting a distance measurement result according to the reflectance of a subject during distance measurement using reflected light detection means. (See Patent Document 1).

特開2015‐004933号公報JP 2015-004933 A

しかしながら、上記特許文献1に開示された技術は、被写体に測距用の発光が正しく照射されていることを前提として補正を行うため、次のような問題がある。図15は、従来の測距用発光の問題を模式的に説明する図である。図15(a)は、測距用発光範囲が被写体からずれている様子を示している。このような状況は、例えば、撮影レンズの焦点距離が広角で照明装置の配光角が狭い望遠であるような、撮影画角と測距用配光角とがずれているときに生じ得る。この場合、被写体には測距のための光があたっていないため、正しい補正を行うことができず、高精度な測距結果を得ることができない。一方、図15(b)は、測距用発光範囲が撮影画角をカバーしているが、被写体に対して不要に広い測距用発光範囲が設定されている様子を示している。この場合、照明装置のガイドナンバーが低下して光量不足が生じることで、測距可能な距離レンジが短くなる。そのため、被写体との距離が離れるにしたがって、高精度な測距結果を得ることができなくなる。   However, since the technique disclosed in Patent Document 1 performs correction on the premise that light emission for distance measurement is correctly irradiated on the subject, there is the following problem. FIG. 15 is a diagram schematically illustrating a problem of conventional distance measurement light emission. FIG. 15A shows a state where the light emission range for distance measurement is shifted from the subject. Such a situation can occur, for example, when the field angle of view and the light distribution angle for distance measurement are shifted such that the focal length of the photographing lens is wide and the light distribution angle of the illumination device is narrow. In this case, since the subject does not receive light for distance measurement, correct correction cannot be performed and a high-precision distance measurement result cannot be obtained. On the other hand, FIG. 15B shows a state in which the distance measurement emission range covers the shooting angle of view, but an unnecessarily wide distance measurement emission range is set for the subject. In this case, the guide number of the illuminating device is lowered to cause a shortage of light quantity, so that the distance range that can be measured is shortened. Therefore, it becomes impossible to obtain a highly accurate distance measurement result as the distance from the subject increases.

本発明は、被写体と反射体の測距時の発光及び撮像時の本発光を適切に制御することが可能な照明装置を提供することを目的とする。   An object of the present invention is to provide an illumination device capable of appropriately controlling light emission during distance measurement between a subject and a reflector and main light emission during imaging.

本発明に係る撮像システムは、レンズ鏡筒、撮像装置および照明装置を備える撮像システムであって、前記照明装置は、照射する光の照射方向と配光角をそれぞれ変更可能に構成された発光部と、被写体の距離に関する情報と、反射体の距離に関する情報とを、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときの反射光に基づき検出する検出手段と、を有し、前記照明装置と前記撮像装置の少なくとも一方は、前記発光部での光の照射方向と配光角を制御する制御手段を有し、前記制御手段は、前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記レンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記バウンス撮影の本撮影での前記発光部の配光角を前記第1の情報とは異なる第2の情報に基づいて決定し、前記反射体の距離に関する情報を検出する際の前記発光部の配光角を前記第1の情報または前記第2の情報に基づいて決定することを特徴とする。   An imaging system according to the present invention is an imaging system including a lens barrel, an imaging device, and an illumination device, and the illumination device is configured to be capable of changing an irradiation direction and a light distribution angle of light to be emitted. Detecting means for detecting information on the distance of the subject and information on the distance of the reflector based on reflected light when light is emitted from the light emitting unit to the subject and the reflector, respectively. At least one of the illumination device and the imaging device has a control unit that controls a light irradiation direction and a light distribution angle in the light emitting unit, and the control unit irradiates light from the light emitting unit to the reflector. Then, when performing bounce shooting for shooting the subject by irradiating the subject with the reflected light from the reflector, the light distribution angle of the light emitting unit when detecting information on the distance of the subject is set to the label. And determining the light distribution angle of the light emitting unit in the actual shooting of the bounce shooting based on the second information different from the first information. And the light distribution angle of the said light emission part at the time of detecting the information regarding the distance of the said reflector is determined based on the said 1st information or the said 2nd information.

本発明によれば、被写体と反射体の測距時の発光及び本撮影時の本発光を適切に制御することが可能となって、高品位な撮影画像を得ることができるようになる。   According to the present invention, it is possible to appropriately control the light emission during distance measurement between the subject and the reflector and the main light emission during main photographing, and a high-quality photographed image can be obtained.

本発明の実施形態に係る撮像システムの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging system according to an embodiment of the present invention. 図1に示す撮像システムの概略構成を示す断面図である。It is sectional drawing which shows schematic structure of the imaging system shown in FIG. 図1に示す撮像システムを構成するストロボ装置の概略構成を示す斜視図及び断面図である。FIG. 2 is a perspective view and a cross-sectional view illustrating a schematic configuration of a strobe device configuring the imaging system illustrated in FIG. 1. 図1に示す撮像システムによるオートバウンス発光撮影でのストロボ装置の第1実施形態に係る駆動制御の流れを示すフローチャートである。4 is a flowchart showing a flow of drive control according to the first embodiment of the strobe device in auto bounce flash photography by the imaging system shown in FIG. 1. ポートレート写真撮影シーンの第1の例及び第2の例を示す図である。It is a figure which shows the 1st example and 2nd example of a portrait photography scene. バウンス角度が最適となるようなストロボ装置の可動部の駆動量を演算する方法を説明する模式図である。It is a schematic diagram explaining the method of calculating the drive amount of the movable part of a strobe device with the optimal bounce angle. ストロボ装置が水平軸及び鉛直軸のそれぞれに対して傾いている状態を示す図である。It is a figure which shows the state which the strobe device inclines with respect to each of a horizontal axis and a vertical axis. 図4のステップS413の処理のフローチャートである。It is a flowchart of the process of step S413 of FIG. 図4のステップS419の処理のフローチャートである。It is a flowchart of the process of step S419 of FIG. 図9のステップS904で設定される天井距離検出用プリ発光時の配光角を説明する図である。It is a figure explaining the light distribution angle at the time of the pre light emission for ceiling distance detection set by step S904 of FIG. 図4のステップS427の処理のフローチャートである。It is a flowchart of the process of step S427 of FIG. 図1に示す撮像システムによるオートバウンス発光撮影でのストロボ装置の第2実施形態に係る駆動制御の流れを示すフローチャートである。It is a flowchart which shows the flow of the drive control which concerns on 2nd Embodiment of the flash device in the auto bounce flash photography by the imaging system shown in FIG. 図12のステップS1213の処理のフローチャートである。It is a flowchart of the process of step S1213 of FIG. 図12のステップS1219の処理のフローチャートである。It is a flowchart of the process of step S1219 of FIG. 従来の測距用発光の問題を模式的に説明する図である。It is a figure which illustrates typically the problem of the light emission for conventional ranging.

以下に、本発明の実施形態について、添付図面を参照して詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

<撮像システムの構成>
図1は、本発明の実施形態に係る撮像システム10の概略構成を示すブロック図である。図2は、撮像システム10の概略構成を示す断面図である。なお、図1と図2において、同一の要素については同じ符号を付している。撮像システム10は、撮像装置であるカメラ本体100と、カメラ本体100に装着されたレンズ鏡筒200と、カメラ本体100に装着された照明装置であるストロボ装置300とを有する。ストロボ装置300はカメラ本体100に対して着脱自在であり、レンズ鏡筒200はカメラ本体100に固定(一体化)されていてもよいし、カメラ本体100に対して着脱自在であってもよい。
<Configuration of imaging system>
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging system 10 according to an embodiment of the present invention. FIG. 2 is a cross-sectional view illustrating a schematic configuration of the imaging system 10. In FIG. 1 and FIG. 2, the same elements are denoted by the same reference numerals. The imaging system 10 includes a camera body 100 that is an imaging device, a lens barrel 200 that is attached to the camera body 100, and a strobe device 300 that is an illumination device attached to the camera body 100. The strobe device 300 is detachable from the camera body 100, and the lens barrel 200 may be fixed (integrated) to the camera body 100, or may be detachable from the camera body 100.

カメラ本体100は、カメラマイコン101(以下「CCPU101」と記す)、撮像素子102、シャッタ103、主ミラー104、ピント板105、測光回路106、焦点検出回路107、ゲイン切替回路108及びA/D変換器109を備える。また、カメラ本体100は、タイミングジェネレータ(TG)110信号処理回路111、入力部112、表示部113、ペンタプリズム114、サブミラー115、通信ラインLC、通信ラインSC、端子120、端子130及び姿勢検出回路140を備える。   The camera body 100 includes a camera microcomputer 101 (hereinafter referred to as “CCPU101”), an image sensor 102, a shutter 103, a main mirror 104, a focus plate 105, a photometric circuit 106, a focus detection circuit 107, a gain switching circuit 108, and an A / D conversion. A vessel 109 is provided. The camera body 100 includes a timing generator (TG) 110 signal processing circuit 111, an input unit 112, a display unit 113, a pentaprism 114, a sub mirror 115, a communication line LC, a communication line SC, a terminal 120, a terminal 130, and an attitude detection circuit. 140.

CCPU101は、各種のソフトウェア(プログラムコード)を実行することにより、カメラ本体100の各部の動作を制御するマイクロコンピュータである。CCPU101は、例えば、CPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/Dコンバータ及びD/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。CCPU101は、CPUがROMに格納された所定のプログラムコードをRAMに展開することにより、カメラ本体100を制御するための各種の判定処理や演算処理を行う。撮像素子102は、赤外カットフィルタやローパスフィルタ等を含むCCDセンサ或いはCMOSセンサ等の撮像素子である。レンズ鏡筒200を通過した被写体からの光束は、撮像素子102に被写体像として結像する。シャッタ103は、撮像素子102を遮光する状態と撮像素子102を露光する状態との間で遷移可能に構成されている。主ミラー104は、ハーフミラーであり、レンズ鏡筒200を通して入射する光の一部を反射してピント板105に結像させる位置と、レンズ鏡筒200から撮像素子102へ至る撮影光路内から退避する位置との間で遷移可能に構成されている。ピント板105には、被写体像が結像される。ユーザ(撮影者)は、ピント板105に結像された被写体像を、不図示の光学ファインダを介して確認することができる。   The CCPU 101 is a microcomputer that controls the operation of each unit of the camera body 100 by executing various software (program codes). The CCPU 101 includes a one-chip IC circuit configuration with a built-in microcomputer including, for example, a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM, A / D converter, D / A converter, and the like. It has become. The CCPU 101 performs various determination processes and arithmetic processes for controlling the camera body 100 by developing predetermined program codes stored in the ROM in the RAM. The image sensor 102 is an image sensor such as a CCD sensor or a CMOS sensor including an infrared cut filter and a low-pass filter. The light flux from the subject that has passed through the lens barrel 200 forms an image of the subject on the image sensor 102. The shutter 103 is configured to be able to transition between a state where the image sensor 102 is shielded from light and a state where the image sensor 102 is exposed. The main mirror 104 is a half mirror, and is retracted from a position where a part of light incident through the lens barrel 200 is reflected to form an image on the focus plate 105 and a photographing optical path from the lens barrel 200 to the image sensor 102. It is configured to be capable of transitioning to and from the position to be performed. A subject image is formed on the focus plate 105. The user (photographer) can check the subject image formed on the focus plate 105 via an optical finder (not shown).

測光回路106は、回路内に測光センサを備えており、被写体に対して設定された1又は複数の領域で測光を行うことにより露出情報を出力する。なお、測光回路106内の測光センサは、ペンタプリズム114を介してピント板105に結像された被写体像を見込んでいる。焦点検出回路107は、回路内に複数点の測距ポイントを有する測距センサを備えており、各測距点のデフォーカス量等の焦点情報を出力する。ゲイン切替回路108は、撮像素子102から出力される信号を増幅させる。CCPU101は、撮影条件やユーザの操作等に応じて、ゲイン切替回路108において信号に掛けるゲインを切り替える。A/D変換器109は、ゲイン切替回路108から出力されるアナログ信号をデジタル信号に変換することにより、画像データを生成する。タイミングジェネレータ110は、撮像素子102から信号出力タイミング(ゲイン切替回路108からA/D変換器109への増幅信号の入力タイミング)とA/D変換器109でのA/D変換のタイミングとを同期させる。   The photometric circuit 106 includes a photometric sensor in the circuit, and outputs exposure information by performing photometry in one or a plurality of areas set for the subject. Note that the photometry sensor in the photometry circuit 106 expects a subject image formed on the focusing screen 105 via the pentaprism 114. The focus detection circuit 107 includes a distance measuring sensor having a plurality of distance measuring points in the circuit, and outputs focus information such as a defocus amount of each distance measuring point. The gain switching circuit 108 amplifies the signal output from the image sensor 102. The CCPU 101 switches the gain to be applied to the signal in the gain switching circuit 108 in accordance with the shooting condition, user operation, and the like. The A / D converter 109 converts the analog signal output from the gain switching circuit 108 into a digital signal, thereby generating image data. The timing generator 110 synchronizes the signal output timing from the image sensor 102 (the input timing of the amplified signal from the gain switching circuit 108 to the A / D converter 109) and the A / D conversion timing in the A / D converter 109. Let

信号処理回路111は、A/D変換器109から出力されるデジタル信号からなる画像データに対して所定の信号処理を行う。入力部112は、電源スイッチ、レリーズスイッチ、設定ボタン等の操作部を含み、CCPU101は、入力部112に対する操作に応じた入力部112からの指示に基づいて各種の処理を実行する。例えば、レリーズスイッチが1段階操作(半押し)されると、CCPU101はAF(オートフォーカス)、AE(自動露出)等の撮影準備動作を実行する。また、レリーズスイッチが2段階操作(全押し)されると、CCPU101は撮像素子102に対する露光から、生成された画像データの保存までの一連の撮影動作を実行する。また、設定ボタンの操作により、ストロボ装置300の各種設定を行うことができる。ここで、ストロボ装置300とカメラ本体100との間で無線通信が可能な場合は、カメラ本体100にストロボ装置300が直接装着されていなくても、装着された場合と同様にストロボ装置300の各種の設定を行うことができる。   The signal processing circuit 111 performs predetermined signal processing on image data composed of digital signals output from the A / D converter 109. The input unit 112 includes operation units such as a power switch, a release switch, and a setting button. The CCPU 101 executes various processes based on instructions from the input unit 112 according to operations on the input unit 112. For example, when the release switch is operated in one step (half-pressed), the CCPU 101 executes a shooting preparation operation such as AF (autofocus) and AE (automatic exposure). When the release switch is operated in two steps (fully pressed), the CCPU 101 executes a series of shooting operations from exposure to the image sensor 102 to storage of the generated image data. Various settings of the strobe device 300 can be performed by operating the setting buttons. Here, when wireless communication is possible between the strobe device 300 and the camera body 100, various types of the strobe device 300 may be provided as in the case where the strobe device 300 is not directly attached to the camera body 100. Can be set.

表示部113は、液晶装置や発光素子によって構成されており、カメラ本体100に対して設定された撮影モードやその他の撮影情報を表示し、液晶装置には、撮影中の被写体像や撮影画像の再生表示等も可能である。ペンタプリズム114は、ピント板105の被写体像を測光回路106内の測光センサ及び不図示の光学ファインダに導く。サブミラー115は、レンズ群202より入射して主ミラー104を透過した光を焦点検出回路107の測距センサへ導く。   The display unit 113 includes a liquid crystal device and a light emitting element, and displays a shooting mode set for the camera body 100 and other shooting information. The liquid crystal device displays a subject image and a shot image being shot. Playback display and the like are also possible. The pentaprism 114 guides the subject image on the focusing screen 105 to a photometric sensor in the photometric circuit 106 and an optical viewfinder (not shown). The sub mirror 115 guides the light incident from the lens group 202 and transmitted through the main mirror 104 to the distance measuring sensor of the focus detection circuit 107.

通信ラインLCは、カメラ本体100とレンズ鏡筒200を通信可能に接続するインタフェースの信号ラインであり、通信ラインSCは、カメラ本体100とストロボ装置300を通信可能に接続するインタフェースの信号ラインである。撮像システム10は、通信ラインLC,SCを用いた通信の一例として3端子式のシリアル通信を行うための端子120,130を備え、CCPU101をホストとしたデータ交換やコマンド伝達等の情報通信を行う。端子120は、SCLK_L端子、MOSI_L端子、MISO_L端子及びGND端子を含む。SCLK_L端子は、カメラ本体100とレンズ鏡筒200の間の通信の同期をとるための端子である。MOSI_L端子は、カメラ本体100からレンズ鏡筒200へデータを送信するための端子である。MISO_L端子は、レンズ鏡筒200からカメラ本体100へデータを送信するための端子である。GND端子は、カメラ本体100とレンズ鏡筒200を接続して、これらをグラウンド電位に落とす。端子130は、SCLK_S端子、MOSI_S端子、MISO_S端子及びGND端子を含む。SCLK_S端子は、カメラ本体100とストロボ装置300の間の通信の同期をとるための端子である。MOSI_S端子は、カメラ本体100からストロボ装置300へデータを送信するための端子である。MISO_S端子は、カメラ本体100とストロボ装置300を接続して、これらをグラウンド電位に落とす。   The communication line LC is an interface signal line that connects the camera body 100 and the lens barrel 200 so that they can communicate with each other. The communication line SC is an interface signal line that connects the camera body 100 and the strobe device 300 so that they can communicate with each other. . The imaging system 10 includes terminals 120 and 130 for performing three-terminal serial communication as an example of communication using the communication lines LC and SC, and performs information communication such as data exchange and command transmission using the CCPU 101 as a host. . The terminal 120 includes an SCLK_L terminal, a MOSI_L terminal, a MISO_L terminal, and a GND terminal. The SCLK_L terminal is a terminal for synchronizing communication between the camera body 100 and the lens barrel 200. The MOSI_L terminal is a terminal for transmitting data from the camera body 100 to the lens barrel 200. The MISO_L terminal is a terminal for transmitting data from the lens barrel 200 to the camera body 100. The GND terminal connects the camera body 100 and the lens barrel 200 and drops them to the ground potential. The terminal 130 includes an SCLK_S terminal, a MOSI_S terminal, a MISO_S terminal, and a GND terminal. The SCLK_S terminal is a terminal for synchronizing communication between the camera body 100 and the flash device 300. The MOSI_S terminal is a terminal for transmitting data from the camera body 100 to the strobe device 300. The MISO_S terminal connects the camera body 100 and the strobe device 300 and drops them to the ground potential.

姿勢検出回路140は、カメラ本体100の姿勢差を検出する回路であり、水平方向の姿勢差を検出する姿勢H検出部140a、鉛直方向の姿勢差を検出する姿勢V検出部140b及び前後方向(Z方向)の姿勢差を検出する姿勢Z検出部140cを有する。姿勢検出回路140には、例えば、角速度センサやジャイロセンサが用いられる。姿勢検出回路140により検出された各方向の姿勢差に関する姿勢情報は、CCPU101に供給される。   The posture detection circuit 140 is a circuit that detects a posture difference of the camera body 100, and includes a posture H detection unit 140a that detects a posture difference in the horizontal direction, a posture V detection unit 140b that detects a posture difference in the vertical direction, and a front-rear direction ( A posture Z detection unit 140c that detects a posture difference in the Z direction) is included. For the posture detection circuit 140, for example, an angular velocity sensor or a gyro sensor is used. Posture information regarding the posture difference in each direction detected by the posture detection circuit 140 is supplied to the CCPU 101.

レンズ鏡筒200は、レンズマイコン201(以下「LPU201」という)、レンズ群202、レンズ駆動部203、エンコーダ204、絞り205及び絞り制御回路206を備える。LPU201は、レンズ鏡筒200の各部を制御するマイクロコンピュータである。LPU201は、例えば、CPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/Dコンバータ及びD/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。   The lens barrel 200 includes a lens microcomputer 201 (hereinafter referred to as “LPU 201”), a lens group 202, a lens driving unit 203, an encoder 204, an aperture 205, and an aperture control circuit 206. The LPU 201 is a microcomputer that controls each part of the lens barrel 200. The LPU 201 includes, for example, a one-chip IC circuit configuration with a built-in microcomputer including a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM, A / D converter, D / A converter, and the like. It has become.

レンズ群202は、フォーカスレンズやズームレンズ等を含む複数枚のレンズで構成されている。なお、レンズ群202には、ズームレンズは含まれなくてもよい。レンズ駆動部203は、レンズ群202に含まれるレンズを光軸方向に駆動する。レンズ群202の駆動量は、カメラ本体100に設けられた焦点検出回路107の出力に基づいてCCPU101により演算され、算出された駆動量がCCPU101からLPU201へ送信される。エンコーダ204は、レンズ群202の位置を検出し、駆動情報をLPU201へ出力する。エンコーダ204からの駆動情報はLPU201を介してCCPU101へ送信され、CCPU101で算出された駆動量分だけレンズ駆動部203がレンズ群202を駆動することにより焦点調節が行われる。絞り205は、レンズ鏡筒200内を通過する光量を調節する。絞り制御回路206は、LPU201の制御下で、絞り205を駆動する。   The lens group 202 includes a plurality of lenses including a focus lens and a zoom lens. The lens group 202 may not include a zoom lens. The lens driving unit 203 drives the lenses included in the lens group 202 in the optical axis direction. The driving amount of the lens group 202 is calculated by the CCPU 101 based on the output of the focus detection circuit 107 provided in the camera body 100, and the calculated driving amount is transmitted from the CCPU 101 to the LPU 201. The encoder 204 detects the position of the lens group 202 and outputs drive information to the LPU 201. The drive information from the encoder 204 is transmitted to the CCPU 101 via the LPU 201, and the lens drive unit 203 drives the lens group 202 by the drive amount calculated by the CCPU 101, thereby performing focus adjustment. The diaphragm 205 adjusts the amount of light passing through the lens barrel 200. A diaphragm control circuit 206 drives the diaphragm 205 under the control of the LPU 201.

ストロボ装置300は、大略的に、カメラ本体100に対して着脱可能な本体部300aと、本体部300aに対して上下方向及び左右方向に回転可能に保持された可動部300bから構成されている。なお、上下方向は、レンズ鏡筒200の光軸と直交する方向であり、カメラ本体100を正姿勢で構えたときの鉛直方向と略平行な方向である。左右方向は、レンズ鏡筒200の光軸及びカメラ本体100を正姿勢で構えたときの鉛直方向の両方向と略直交する方向である。   The strobe device 300 generally includes a main body portion 300a that can be attached to and detached from the camera main body 100, and a movable portion 300b that is held so as to be rotatable in the vertical and horizontal directions with respect to the main body portion 300a. Note that the vertical direction is a direction orthogonal to the optical axis of the lens barrel 200 and is substantially parallel to the vertical direction when the camera body 100 is held in a normal posture. The left-right direction is a direction substantially orthogonal to both the optical axis of the lens barrel 200 and the vertical direction when the camera body 100 is held in a normal posture.

ストロボ装置300は、電池301、昇圧回路ブロック302、トリガ回路303、発光制御回路304、放電管305、反射傘306、ストロボ光学系307、反射光検出部308、積分回路309及びANDゲート311を備える。また、ストロボ装置300は、ストロボマイコン310(以下「FPU310」という)、入力部312、表示部313、フォトダイオード314、コンパレータ315、光学系駆動回路330、バウンス回路340及び姿勢検出回路360を備える。   The strobe device 300 includes a battery 301, a booster circuit block 302, a trigger circuit 303, a light emission control circuit 304, a discharge tube 305, a reflector 306, a strobe optical system 307, a reflected light detection unit 308, an integration circuit 309, and an AND gate 311. . The strobe device 300 includes a strobe microcomputer 310 (hereinafter referred to as “FPU 310”), an input unit 312, a display unit 313, a photodiode 314, a comparator 315, an optical system drive circuit 330, a bounce circuit 340, and an attitude detection circuit 360.

FPU310は、ストロボ装置300の各部を制御するマイクロコンピュータである。FPU310は、例えばCPU、ROM、RAM、入出力制御回路(I/Oコントロール回路)、マルチプレクサ、タイマー回路、EEPROM、A/Dコンバータ及びD/Aコンバータ等を含むマイコン内蔵ワンチップIC回路構成となっている。電池301は、ストロボ装置300の電源(VBAT)として機能する。昇圧回路ブロック302は、昇圧部302a、抵抗302b,302c及びメインコンデンサ302dを有する。昇圧部302aは、電池301の電圧を数百Vに昇圧し、これによりメインコンデンサ302dに発光のための電気エネルギが充電される。メインコンデンサ302dの充電電圧は、抵抗302b,302cにより分圧され、分圧された電圧はFPU310のA/D変換端子に入力される。トリガ回路303は、放電管305を励起するためのパルス電圧を放電管305に印加する。発光制御回路304は、放電管305の発光の開始及び停止を制御する。放電管305は、トリガ回路303から印加される数KVのパルス電圧を受けて励起し、メインコンデンサ302dに充電された電気エネルギを用いて発光する。   The FPU 310 is a microcomputer that controls each part of the strobe device 300. The FPU 310 has a microcomputer built-in one-chip IC circuit configuration including, for example, a CPU, ROM, RAM, input / output control circuit (I / O control circuit), multiplexer, timer circuit, EEPROM, A / D converter, D / A converter, and the like. ing. The battery 301 functions as a power source (VBAT) for the strobe device 300. The booster circuit block 302 includes a booster 302a, resistors 302b and 302c, and a main capacitor 302d. The booster 302a boosts the voltage of the battery 301 to several hundred volts, thereby charging the main capacitor 302d with electric energy for light emission. The charging voltage of the main capacitor 302d is divided by the resistors 302b and 302c, and the divided voltage is input to the A / D conversion terminal of the FPU 310. The trigger circuit 303 applies a pulse voltage for exciting the discharge tube 305 to the discharge tube 305. The light emission control circuit 304 controls the start and stop of light emission of the discharge tube 305. The discharge tube 305 is excited by receiving a pulse voltage of several KV applied from the trigger circuit 303, and emits light using the electric energy charged in the main capacitor 302d.

積分回路309は、フォトダイオード314の受光電流を積分し、積分結果をコンパレータ315の反転入力端子とFPU310のA/Dコンバータ端子に入力する。コンパレータ315の非反転入力端子は、FPU310内のD/Aコンバータ端子に接続され、コンパレータ315の出力はANDゲート311の入力端子に接続される。ANDゲート311の他方の入力端子は、FPU310の発光制御端子と接続され、ANDゲート311の出力は発光制御回路304へ入力される。フォトダイオード314は、直接又はグラスファイバ等を介して、放電管305から発せられる光を受光するセンサである。反射傘306は、放電管305から発せられる光を反射させて所定の方向へ導く。ストロボ光学系307は、光学パネル等を含み、放電管305との相対位置を変更可能に保持されている。放電管305とストロボ光学系307の相対位置を変更することにより、ストロボ装置300のガイドナンバーと配光角をそれぞれ所定の範囲で変化させることができる。ストロボ装置300の発光部は、主に、放電管305、反射傘306、ストロボ光学系307で構成されており、発光部の配光角はストロボ光学系307の駆動により変化し、発光部の照射方向は可動部300bの回転により変化する。なお、発光部の配光角を変化させる方法は、放電管305とストロボ光学系307の相対位置を変更させる方法に限定されず、例えば、反射傘306の形状を変更させる方法やストロボ光学系307の光学特性を変更させる方法等でもよい。   The integration circuit 309 integrates the light reception current of the photodiode 314 and inputs the integration result to the inverting input terminal of the comparator 315 and the A / D converter terminal of the FPU 310. The non-inverting input terminal of the comparator 315 is connected to the D / A converter terminal in the FPU 310, and the output of the comparator 315 is connected to the input terminal of the AND gate 311. The other input terminal of the AND gate 311 is connected to the light emission control terminal of the FPU 310, and the output of the AND gate 311 is input to the light emission control circuit 304. The photodiode 314 is a sensor that receives light emitted from the discharge tube 305 directly or via a glass fiber or the like. The reflector 306 reflects the light emitted from the discharge tube 305 and guides it in a predetermined direction. The strobe optical system 307 includes an optical panel or the like, and is held so that the relative position with respect to the discharge tube 305 can be changed. By changing the relative position of the discharge tube 305 and the strobe optical system 307, the guide number and the light distribution angle of the strobe device 300 can be changed within a predetermined range. The light emitting unit of the strobe device 300 is mainly composed of a discharge tube 305, a reflector 306, and a strobe optical system 307. The light distribution angle of the light emitting unit is changed by driving the strobe optical system 307, and irradiation of the light emitting unit is performed. The direction changes with the rotation of the movable part 300b. The method of changing the light distribution angle of the light emitting unit is not limited to the method of changing the relative position between the discharge tube 305 and the strobe optical system 307. For example, the method of changing the shape of the reflector 306 or the strobe optical system 307 is used. A method of changing the optical characteristics of the above may be used.

反射光検出部308は、放電管305から発せられる光が被写体や天井等の反射体から反射される光量を検出する。反射光検出部308が検出した反射光量に基づいてFPU310が演算を行うことにより、被写体や反射体までの距離を算出することができるようになっている。入力部312は、電源スイッチ、ストロボ装置300の動作モードを設定するモード設定スイッチ、オートバウンス駆動を実行させるオートバウンス開始ボタン、各種のパラメータを設定する設定ボタン等の操作部を含む。FPU310は、入力部312に対する操作に応じた入力部312からの指示に基づいて各種の処理を実行する。なお、本実施形態では、撮像システム10で行われる自動化されたバウンス発光撮影をオートバウンス発光撮影と称呼する。また、オートバウンス駆動とは、オートバウンス発光撮影を実行するための可動部300bの回転駆動することを指す。   The reflected light detection unit 308 detects the amount of light that is emitted from the discharge tube 305 and reflected from a reflector such as a subject or a ceiling. The FPU 310 performs a calculation based on the amount of reflected light detected by the reflected light detection unit 308, so that the distance to the subject or the reflector can be calculated. The input unit 312 includes operation units such as a power switch, a mode setting switch for setting the operation mode of the strobe device 300, an auto bounce start button for executing auto bounce driving, and setting buttons for setting various parameters. The FPU 310 executes various processes based on instructions from the input unit 312 according to operations on the input unit 312. In the present embodiment, automated bounce flash photography performed by the imaging system 10 is referred to as auto bounce flash photography. In addition, the auto bounce drive refers to rotationally driving the movable part 300b for executing auto bounce flash photography.

表示部313は、液晶装置や発光素子を有し、ストロボ装置300の各種の設定情報や動作状態を表示する。光学系駆動回路330は、位置検出部330aと光学系駆動部330bを有する。位置検出部330aは、放電管305とストロボ光学系307の相対位置に関する情報を不図示のエンコーダ等により検出する。光学系駆動部330bは、ストロボ光学系307を駆動するためのモータ等を含む。FPU310は、CCPU101を介してLPU201から出力される焦点距離情報を取得し、取得した焦点距離情報に基づいてストロボ光学系307の駆動量を演算する。   The display unit 313 includes a liquid crystal device and a light emitting element, and displays various setting information and operation states of the strobe device 300. The optical system drive circuit 330 includes a position detection unit 330a and an optical system drive unit 330b. The position detector 330a detects information related to the relative positions of the discharge tube 305 and the strobe optical system 307 by an encoder (not shown) or the like. The optical system driving unit 330b includes a motor or the like for driving the strobe optical system 307. The FPU 310 acquires the focal length information output from the LPU 201 via the CCPU 101, and calculates the drive amount of the strobe optical system 307 based on the acquired focal length information.

バウンス回路340は、第1のバウンス角度検出回路340a、第2のバウンス角度検出回路340c、第1のバウンス駆動回路340b及び第2のバウンス駆動回路340dから構成される。図3(a)は、ストロボ装置300の概略構成を、可動部300bの一部を除去した状態で示す斜視図である。図3(b)は、ストロボ装置300の概略構成を示す断面図である。第1のバウンス角度検出回路340a(バウンスH検出回路)は、可動部300bの左右方向の駆動量を検出する。第2のバウンス角度検出回路340c(バウンスV検出回路)は、可動部300bの上下方向の駆動量を検出する。これらの駆動量の検出には、ロータリエンコーダやアブソリュートエンコーダが用いられる。第1のバウンス駆動回路340b(バウンスH駆動回路)は、可動部300bの左右方向の駆動を行う。第2のバウンス駆動回路340d(バウンスV駆動回路)は、可動部300bの上下方向の駆動を行う。これらの駆動には、公知のモータ等が用いられる。   The bounce circuit 340 includes a first bounce angle detection circuit 340a, a second bounce angle detection circuit 340c, a first bounce drive circuit 340b, and a second bounce drive circuit 340d. FIG. 3A is a perspective view showing a schematic configuration of the strobe device 300 with a part of the movable portion 300b removed. FIG. 3B is a cross-sectional view illustrating a schematic configuration of the strobe device 300. The first bounce angle detection circuit 340a (bounce H detection circuit) detects the drive amount of the movable unit 300b in the left-right direction. The second bounce angle detection circuit 340c (bounce V detection circuit) detects the driving amount of the movable unit 300b in the vertical direction. A rotary encoder or an absolute encoder is used to detect these drive amounts. The first bounce drive circuit 340b (bounce H drive circuit) drives the movable portion 300b in the left-right direction. The second bounce drive circuit 340d (bounce V drive circuit) drives the movable portion 300b in the vertical direction. A known motor or the like is used for these drives.

姿勢検出回路360は、ストロボ装置300の姿勢差を検出する回路であり、水平方向の姿勢差を検出する姿勢H検出部360a、鉛直方向の姿勢差を検出する姿勢V検出部360b及び前後方向(Z方向)の姿勢差を検出する姿勢Z検出部360cを有する。姿勢検出回路360には、例えば、角速度センサやジャイロセンサが用いられる。姿勢検出回路360により検出された各方向の姿勢差に関する姿勢情報は、FPU310に供給される。   The posture detection circuit 360 is a circuit that detects a posture difference of the strobe device 300, and includes a posture H detection unit 360a that detects a posture difference in the horizontal direction, a posture V detection unit 360b that detects a posture difference in the vertical direction, and a front-rear direction ( A posture Z detection unit 360c that detects a posture difference in the Z direction) is provided. For the posture detection circuit 360, for example, an angular velocity sensor or a gyro sensor is used. Posture information regarding the posture difference in each direction detected by the posture detection circuit 360 is supplied to the FPU 310.

上述の通りに構成された撮像システム10では、CCPU101、LPU201及びFPU310が協働して撮像システム10を構成する各部の制御を行うことにより、撮像システム10全体の円滑な動作が実現される。   In the imaging system 10 configured as described above, the CCPU 101, the LPU 201, and the FPU 310 cooperate to control each part of the imaging system 10, thereby realizing a smooth operation of the entire imaging system 10.

<ストロボ装置の第1実施形態に係る駆動制御方法>
次に、撮像システム10によりオートバウンス発光撮影を実行する場合のストロボ装置300の第1実施形態に係る駆動制御方法について説明する。図4は、オートバウンス発光撮影でのストロボ装置300の第1実施形態に係る駆動制御の流れを示すフローチャートである。図4に示す各処理は、FPU310が所定のプログラムコードを実行してストロボ装置300の各部の動作を制御することにより実現される。図4のフローチャートは、入力部312に含まれる電源スイッチがオンされ、ストロボ装置300のFPU310が動作可能となることによって開始される。なお、以下の説明において、ストロボ装置300のストロボ光の発光面を起点として、被写体までの距離を「被写体距離」といい、反射体の一例として取り上げる天井までの距離を「天井距離」ということとする。
<Drive Control Method According to First Embodiment of Strobe Device>
Next, a drive control method according to the first embodiment of the strobe device 300 when auto-bounce flash photography is performed by the imaging system 10 will be described. FIG. 4 is a flowchart showing a flow of drive control according to the first embodiment of the strobe device 300 in auto bounce flash photography. Each process illustrated in FIG. 4 is realized by the FPU 310 executing a predetermined program code to control the operation of each unit of the strobe device 300. The flowchart of FIG. 4 is started when the power switch included in the input unit 312 is turned on and the FPU 310 of the strobe device 300 becomes operable. In the following description, the distance to the subject is referred to as the “subject distance” starting from the strobe light emitting surface of the strobe device 300, and the distance to the ceiling taken as an example of the reflector is referred to as the “ceiling distance”. To do.

ステップS401においてFPU310は、自身のメモリやポートを初期化し、入力部312に含まれるスイッチの状態や予め設定された入力情報を読み込んで、発光量の決定方法や発光タイミング等の様々な発光モードの設定を行う。ステップS402においてFPU310は、昇圧回路ブロック302の動作を開始させ、メインコンデンサ302dを充電する。このとき、電池301の電圧が低い等の理由によりバウンス回路340とストロボ光学系307を同時に駆動することができないと判断されることがある。この場合、FPU310は、測距用発光の配光角を本撮影を行う際の発光(本発光)での配光角(以下「本発光配光角」という)と同じ角度に固定する「配光固定モード」へ切り替え、その情報をFPU310内のRAMに格納する。一方、バウンス回路340とストロボ光学系307の同時駆動が可能な場合、FPU310は、測距用発光の配光角と本発光配光角を別々に設定可能な「配光可変モード」へ切り替え、その情報をFPU310内のRAMに格納する。   In step S401, the FPU 310 initializes its own memory and port, reads the state of the switch included in the input unit 312 and preset input information, and performs various light emission modes such as a method for determining the light emission amount and light emission timing. Set up. In step S402, the FPU 310 starts the operation of the booster circuit block 302 and charges the main capacitor 302d. At this time, it may be determined that the bounce circuit 340 and the strobe optical system 307 cannot be driven simultaneously because the voltage of the battery 301 is low. In this case, the FPU 310 fixes the light distribution angle of the distance measurement light emission to the same angle as the light distribution angle (hereinafter referred to as “main light emission angle”) in the light emission (main light emission) at the time of actual photographing. The mode is switched to “optical fixed mode”, and the information is stored in the RAM in the FPU 310. On the other hand, when the bounce circuit 340 and the strobe optical system 307 can be driven simultaneously, the FPU 310 switches to a “light distribution variable mode” in which the light distribution angle for distance measurement and the main light distribution angle can be set separately. The information is stored in the RAM in the FPU 310.

ステップS403においてFPU310は、CCPU101から通信ラインSCを介して取得したレンズ鏡筒200の焦点距離情報(第1の情報)をFPU310内のRAMに格納する。なお、FPU310は、これ以前に焦点距離情報をRAMに格納していた場合には、新たな焦点距離情報にデータを更新する。ステップS404においてFPU310は、ストロボ光の配光角がステップS403において取得した焦点距離情報に応じた範囲となるように、光学系駆動回路330によりストロボ光学系307を駆動する。なお、ストロボ光学系307を駆動するとは、ストロボ装置300の配光角を変化させるために、放電管305に対するストロボ光学系307の位置を変更することを指し、以下でも同様の意味で用いる。   In step S <b> 403, the FPU 310 stores the focal length information (first information) of the lens barrel 200 acquired from the CCPU 101 via the communication line SC in the RAM in the FPU 310. Note that if the focal length information has been previously stored in the RAM, the FPU 310 updates the data to new focal length information. In step S404, the FPU 310 drives the strobe optical system 307 by the optical system drive circuit 330 so that the light distribution angle of the strobe light is in a range corresponding to the focal length information acquired in step S403. Driving the strobe optical system 307 means changing the position of the strobe optical system 307 with respect to the discharge tube 305 in order to change the light distribution angle of the strobe device 300, and the same meaning is used hereinafter.

ところで、ステップS402において「配光固定モード」が設定された場合には、FPU310は、光学系駆動回路330によりストロボ光学系307を本発光配光角へ駆動する。また、焦点距離情報に対応した配光角(以下「焦点距離配光角」という)と本発光配光角とが同じ場合等のストロボ光学系307を駆動する必要がない場合には、ステップS404は省略される。   By the way, when the “light distribution fixed mode” is set in step S402, the FPU 310 drives the strobe optical system 307 to the main light distribution angle by the optical system driving circuit 330. If it is not necessary to drive the strobe optical system 307 when the light distribution angle corresponding to the focal length information (hereinafter referred to as “focal length light distribution angle”) and the main light emission light distribution angle are the same, step S404 is required. Is omitted.

ステップS405においてFPU310は、入力部312を通して設定された発光モードに関する情報と取得した焦点距離情報に関する情報等を表示部313に表示する。ステップS406においてFPU310は、ストロボ装置300に設定されている発光モードがオートバウンスモードであるか否かを確認する。FPU310は、オートバウンスモードである場合(S406でYES)、処理をステップS407へ進め、オートバウンスモードでない(通常の発光モードである)場合(S406でNO)、処理をステップS430へ進める。なお、発光モードの設定は、入力部312から行うことができるが、CCPU101及び通信ラインSCを介して入力部112から行うこともできる。   In step S <b> 405, the FPU 310 displays information related to the light emission mode set via the input unit 312, information related to the acquired focal length information, and the like on the display unit 313. In step S406, the FPU 310 checks whether or not the light emission mode set in the flash device 300 is the auto bounce mode. If the FPU 310 is in the auto bounce mode (YES in S406), the process proceeds to step S407. If the FPU 310 is not in the auto bounce mode (normal light emission mode) (NO in S406), the process proceeds to step S430. The light emission mode can be set from the input unit 312, but can also be set from the input unit 112 via the CCPU 101 and the communication line SC.

ステップS407においてFPU310は、メインコンデンサ302dに充電が完了しているか否かを判定する。FPU310は、充電が完了した場合(S407でYES)、処理をステップS408へ進め、充電が完了していない場合(S407でNO)、ステップS407の判定を繰り返す。なお、ここでは、電池の容量不足等によって充電が完了できない場合の処理については触れていないが、この場合、FPU310は、エラーが生じたことを表示部313に表示して、本処理を終了させる。   In step S407, the FPU 310 determines whether or not the main capacitor 302d has been charged. If the charging is completed (YES in S407), the FPU 310 advances the process to step S408. If the charging is not completed (NO in S407), the FPU 310 repeats the determination in step S407. Note that the processing when charging cannot be completed due to insufficient battery capacity or the like is not described here, but in this case, the FPU 310 displays an error on the display unit 313 and ends the processing. .

ステップS408においてFPU310は、オートバウンス開始ボタンがオンとなったか否かを判定する。FPU310は、オートバウンス開始ボタンがオンとなった場合(S408でYES)、処理をステップS409へ進め、オートバウンス開始ボタンがオンとなっていない(オフ状態である)場合、処理をステップS433へ進める。なお、前述の通り、オートバウンス開始ボタンは入力部312に割り当てられている。但し、これに限らず、入力部112にオートバウンス開始ボタンを設け、このオートバウンス開始ボタンのオン/オフがCCPU101及び通信ラインSCを介してFPU310によって判定可能な構成であってもよい。   In step S408, the FPU 310 determines whether or not the auto bounce start button has been turned on. If the auto bounce start button is turned on (YES in S408), the FPU 310 advances the process to step S409. If the auto bounce start button is not turned on (is in the off state), the FPU 310 advances the process to step S433. . As described above, the auto bounce start button is assigned to the input unit 312. However, the present invention is not limited to this, and an auto bounce start button may be provided in the input unit 112, and on / off of the auto bounce start button may be determined by the FPU 310 via the CCPU 101 and the communication line SC.

ステップS409においてFPU310は、オートバウンス駆動状態であることをCCPU101へ通信ラインSCを介して送信する。なお、図4に示す「ST→C通信」は、ストロボ装置300からカメラ本体100(FPU310からCCPU101)への通信を指し、「C→ST通信」は、CCPU101からFPU310への通信を指す。   In step S409, the FPU 310 transmits an auto bounce drive state to the CCPU 101 via the communication line SC. Note that “ST → C communication” shown in FIG. 4 indicates communication from the strobe device 300 to the camera body 100 (FPU 310 to CCPU 101), and “C → ST communication” indicates communication from the CCPU 101 to the FPU 310.

ステップS410においてFPU310は、天井距離に関する情報を検出するためのプリ発光(以下「天井距離検出用プリ発光」という)の方向を決定するため、姿勢検出回路360の検出結果に基づき、本体部300aの姿勢が横位置撮影状態か否かを判定する。この判定では、FPU310は、姿勢検出回路360の検出結果をFPU310内のRAMに格納し、所定の傾き角度範囲内か否かを判定することにより、横位置撮影状態か縦位置撮影状態かを判定する。FPU310は、横位置撮影状態である場合(S410でYES)、処理をステップS411へ進め、縦位置撮影状態である場合(S410でNO)、処理をステップS412へ進める。なお、ステップS410は、姿勢検出回路360による検出結果に代えて、姿勢検出回路140による検出結果を用いて行われてもよい。   In step S410, the FPU 310 determines the direction of pre-emission for detecting information related to the ceiling distance (hereinafter referred to as “pre-emission for ceiling distance detection”), based on the detection result of the posture detection circuit 360. It is determined whether or not the posture is in the horizontal position shooting state. In this determination, the FPU 310 stores the detection result of the posture detection circuit 360 in the RAM in the FPU 310 and determines whether it is within a predetermined tilt angle range, thereby determining whether it is in the horizontal position shooting state or the vertical position shooting state. To do. If the FPU 310 is in the horizontal position shooting state (YES in S410), the process proceeds to step S411. If the FPU 310 is in the vertical position shooting state (NO in S410), the process proceeds to step S412. Note that step S410 may be performed using the detection result by the posture detection circuit 140 instead of the detection result by the posture detection circuit 360.

ステップS411においてFPU310は、天井距離検出用プリ発光を行うための方向制御として横位置角度制御を適用することを示す情報をFPU310内のRAMに格納する。被写体の距離に関する情報を検出するためのプリ発光(以下「被写体距離検出用プリ発光」という)後に、天井距離検出用プリ発光が行われる。天井距離検出用プリ発光は、横位置角度制御が適用された場合、第2のバウンス駆動回路340dを駆動させてストロボ装置300の上方へ向けて発光する制御となる。ステップS412においてFPU310は、天井距離検出用プリ発光を行うための方向制御として縦位置角度制御を適用することを示す情報をFPU310内のRAMに格納する。被写体距離検出用プリ発光後に行われる天井距離検出用プリ発光は、縦位置角度制御が適用された場合には、第1のバウンス駆動回路340bを駆動させてストロボ装置300の左右方向へ向けて発光する制御となる。この場合も、姿勢検出回路360の検出結果に基づいて、発光方向は上方へ向くように決定される。   In step S411, the FPU 310 stores, in the RAM in the FPU 310, information indicating that the lateral position angle control is applied as the direction control for performing the ceiling-distance detection pre-light emission. After pre-emission for detecting information related to the subject distance (hereinafter referred to as “sub-object distance detection pre-emission”), ceiling distance detection pre-emission is performed. When the lateral position angle control is applied, the ceiling-distance detection pre-light emission is controlled such that the second bounce drive circuit 340d is driven to emit light upward of the strobe device 300. In step S412, the FPU 310 stores in the RAM in the FPU 310 information indicating that vertical position angle control is applied as direction control for performing ceiling-distance detection pre-emission. When the vertical position angle control is applied, the ceiling distance detection pre-light emission performed after the subject distance detection pre-light emission drives the first bounce drive circuit 340b to emit light toward the left and right directions of the strobe device 300. Control. Also in this case, based on the detection result of the posture detection circuit 360, the light emission direction is determined to face upward.

ステップS411,S412の終了後のステップS413においてFPU310は、可動部300bを正面方向(被写体を向く方向)へ向けるようにバウンス回路340を駆動させる。また、FPU310は、バウンス回路340の駆動に合わせて、被写体距離検出用プリ発光時の配光角へストロボ光学系307を駆動する。なお、ステップS413でのストロボ光学系307の駆動の詳細については後述する。ステップS414においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの角度検出結果をFPU310内のRAMに格納し、角度検出結果に基づき可動部300bが正面方向を向いているか否かを判定する。FPU310は、可動部300bが正面方向を向いている場合(S414でYES)、処理をステップS415へ進め、可動部300bが正面方向を向いていない場合(S414でNO)、処理をステップS416へ進める。   In step S413 after the completion of steps S411 and S412, the FPU 310 drives the bounce circuit 340 so that the movable part 300b is directed in the front direction (the direction facing the subject). Further, the FPU 310 drives the strobe optical system 307 to a light distribution angle at the time of pre-light emission for subject distance detection in accordance with the driving of the bounce circuit 340. Details of driving the strobe optical system 307 in step S413 will be described later. In step S414, the FPU 310 stores the angle detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c in the RAM in the FPU 310, and the movable unit 300b faces the front direction based on the angle detection result. It is determined whether or not. The FPU 310 advances the process to step S415 when the movable part 300b faces the front direction (YES in S414), and advances the process to step S416 when the movable part 300b does not face the front direction (NO in S414). .

ステップS415においてFPU310は、ステップS413でのストロボ光学系307の駆動後の配光角で被写体距離検出用プリ発光を行い、被写体からの反射光を反射光検出部308で検出し、その検出光量に基づいて被写体の距離に関する情報を演算する。FPU310は、算出した被写体の距離に関する情報をFPU310内のRAMに格納し、その後、処理をステップS419へ進める。一方、ステップS416においてFPU310は、バウンス駆動を正常に行うことができないことに基づくオートバウンス終了指示をCCPU101から通信ラインSCを介して取得したか否かを判定する。FPU310は、オートバウンス終了指示を取得した場合(S416でYES)、本処理を終了させて処理をステップS402へ戻し、オートバウンス終了指示を取得できない場合(S416でNO)、処理をステップS417へ進める。なお、図4のフローチャートにおいて、「リターン」とは、処理をステップS402へ戻すことを指す。   In step S415, the FPU 310 performs pre-light emission for subject distance detection at the light distribution angle after driving the strobe optical system 307 in step S413, and the reflected light detection unit 308 detects reflected light from the subject, and the detected light amount Based on this, information on the distance of the subject is calculated. The FPU 310 stores information regarding the calculated subject distance in the RAM in the FPU 310, and then the process proceeds to step S419. On the other hand, in step S416, the FPU 310 determines whether or not an auto bounce end instruction based on the fact that the bounce drive cannot be normally performed is obtained from the CCPU 101 via the communication line SC. If the FPU 310 has acquired an auto bounce end instruction (YES in S416), the FPU 310 ends this process and returns the process to step S402. If the FPU 310 cannot acquire an auto bounce end instruction (NO in S416), the process proceeds to step S417. . In the flowchart of FIG. 4, “return” refers to returning the process to step S <b> 402.

ステップS417においてFPU310は、所定の時間内でバウンス駆動が完了しているか否かを判定する。FPU310は、タイムアウトしている(所定の時間内でバウンス駆動が完了していない)場合(S417でYES)、処理をステップS418へ進め、タイムアウトしていない場合(S417でNO)、処理をステップS414へ戻す。ステップS418においてFPU310は、オートバウンス駆動がエラー状態であることをCCPU101へ通信ラインSCを介して送信し、その後、処理をステップS402へ戻す。   In step S417, the FPU 310 determines whether or not the bounce drive is completed within a predetermined time. If the FPU 310 has timed out (the bounce drive has not been completed within a predetermined time) (YES in S417), the process proceeds to step S418. If the FPU 310 has not timed out (NO in S417), the process proceeds to step S414. Return to. In step S418, the FPU 310 transmits that the auto bounce drive is in an error state to the CCPU 101 via the communication line SC, and then returns the process to step S402.

ステップS419においてFPU310は、可動部300bを天井方向へ向けるようにバウンス回路340を駆動させ、バウンス回路340の駆動に合わせて、天井距離検出用プリ発光での配光角となるようにストロボ光学系307を駆動する。なお、被写体に向けてカメラ本体100を構えた状態での天井の方向は、予めユーザによって設定され、FPU310内のRAMに記憶されている。また、ステップS419でのストロボ光学系307の駆動の詳細については後述する。   In step S419, the FPU 310 drives the bounce circuit 340 so that the movable part 300b is directed toward the ceiling, and the strobe optical system is adjusted so that the light distribution angle in the pre-light emission for ceiling distance detection is adjusted in accordance with the drive of the bounce circuit 340. 307 is driven. Note that the direction of the ceiling when the camera body 100 is held toward the subject is set in advance by the user and stored in the RAM in the FPU 310. Details of driving the strobe optical system 307 in step S419 will be described later.

続いて、ステップS420においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの角度検出結果をFPU310内のRAMに格納し、角度検出結果に基づき可動部300bが天井方向を向いているか否かを判定する。FPU310は、可動部300bが天井方向を向いている場合(S420でYES)、処理をステップS421へ進め、可動部300bが天井方向を向いていない場合(S420でNO)、処理をステップS422へ進める。   Subsequently, in step S420, the FPU 310 stores the angle detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c in the RAM in the FPU 310, and the movable unit 300b moves to the ceiling direction based on the angle detection result. It is determined whether or not it is facing. The FPU 310 advances the process to step S421 when the movable part 300b faces the ceiling direction (YES in S420), and advances the process to step S422 when the movable part 300b does not face the ceiling direction (NO in S420). .

ステップS421においてFPU310は、ステップS419でのストロボ光学系307の駆動後の配光角で天井距離検出用プリ発光を行い、天井からの反射光を反射光検出部308で検出し、その検出光量に基づいて天井距離に関する情報を演算する。FPU310は、算出した天井距離に関する情報をFPU310内のRAMに格納し、その後、処理をステップS425へ進める。なお、ステップS402で配光可変モードが設定されているが、ステップS419でバウンス回路340とストロボ光学系307を同時駆動することができない場合は、ステップS421での配光角を被写体距離検出用プリ発光時と同じ配光角としてもよい。   In step S421, the FPU 310 performs pre-light emission for ceiling distance detection at the light distribution angle after driving the strobe optical system 307 in step S419, and the reflected light from the ceiling is detected by the reflected light detection unit 308, and the detected light amount is determined. Based on this, information on the ceiling distance is calculated. The FPU 310 stores the information regarding the calculated ceiling distance in the RAM in the FPU 310, and then advances the process to step S425. If the variable light distribution mode is set in step S402, but the bounce circuit 340 and the strobe optical system 307 cannot be driven simultaneously in step S419, the light distribution angle in step S421 is used as the subject distance detection pre-set. The same light distribution angle as that during light emission may be used.

一方、ステップS422においてFPU310は、バウンス駆動を正常に行うことができないことに基づくオートバウンス終了指示をCCPU101から通信ラインSCを介して取得したか否かを判定する。FPU310は、オートバウンス終了指示を取得した場合(S422でYES)、本処理を終了させて処理をステップS402へ戻し、オートバウンス終了指示を取得できない場合(S422でNO)、処理をステップS423へ進める。ステップS423においてFPU310は、所定の時間内でバウンス駆動が完了しているか否かを判定する。FPU310は、タイムアウトしている(所定の時間内でバウンス駆動が完了していない)場合(S423でYES)、処理をステップS424へ進め、タイムアウトしていない場合(S423でNO)、処理をステップS420へ戻す。ステップS424においてFPU310は、オートバウンス駆動がエラー状態であることをCCPU101へ通信ラインSCを介して送信し、その後、処理をステップS402へ戻す。   On the other hand, in step S422, the FPU 310 determines whether or not an auto bounce end instruction based on the fact that the bounce drive cannot be performed normally is obtained from the CCPU 101 via the communication line SC. If the FPU 310 has acquired an auto bounce end instruction (YES in S422), the FPU 310 ends this process and returns the process to step S402. If the FPU 310 cannot acquire an auto bounce end instruction (NO in S422), the process proceeds to step S423. . In step S423, the FPU 310 determines whether or not the bounce drive is completed within a predetermined time. If the FPU 310 has timed out (the bounce drive has not been completed within a predetermined time) (YES in S423), the process proceeds to step S424. If the FPU 310 has not timed out (NO in S423), the process proceeds to step S420. Return to. In step S424, the FPU 310 transmits that the auto bounce drive is in an error state to the CCPU 101 via the communication line SC, and then returns the process to step S402.

ステップS425においてFPU310は、ステップS410の姿勢検出結果、ステップS415で算出した被写体の距離に関する情報及びステップS421で算出した天井距離に関する情報に基づき、最適バウンス角度を演算する。最適バウンス角度は、本撮影での天井に対する光の照射角度である。ここで、ポートレート写真を撮影した際の影が自然な感じとなる最適バウンス角度を算出する方法について説明する。   In step S425, the FPU 310 calculates the optimum bounce angle based on the attitude detection result in step S410, the information on the subject distance calculated in step S415, and the information on the ceiling distance calculated in step S421. The optimum bounce angle is the light irradiation angle with respect to the ceiling in the actual photographing. Here, a method for calculating an optimum bounce angle at which a shadow when a portrait photograph is taken has a natural feeling will be described.

図5(a)は、ポートレート写真撮影シーンの第1の例を示す図であり、図5(b)は、ポートレート写真撮影シーンの第2の例を示す図である。図5(a)に示す第1の例のように可動部300bのバウンス角度を45度のような比較的小さい値に設定した場合、被写体から見た拡散反射光はトップライトのように照射されるため、顎等の影が大きく且つ濃く出やすくなる。これに対して、図5(b)に示す第2の例のように可動部300bのバウンス角度を90度のような比較的大きな値に設定した場合、被写体から見た反射面は被写体から遠く離れるため、拡散反射光は浅い角度で被写体に入射する。これにより、影が小さく且つ薄くなることで、自然な雰囲気となりやすい。   FIG. 5A is a diagram showing a first example of a portrait photography scene, and FIG. 5B is a diagram showing a second example of a portrait photography scene. When the bounce angle of the movable part 300b is set to a relatively small value such as 45 degrees as in the first example shown in FIG. 5A, the diffuse reflected light viewed from the subject is irradiated like a top light. Therefore, the shadow of the jaw and the like is large and dark. On the other hand, when the bounce angle of the movable part 300b is set to a relatively large value such as 90 degrees as in the second example shown in FIG. 5B, the reflection surface viewed from the subject is far from the subject. Because of the separation, the diffuse reflected light enters the subject at a shallow angle. As a result, the shadow becomes small and thin, and a natural atmosphere tends to be obtained.

撮影画像(写真)の雰囲気は被写体距離や反射体の反射面までの距離(以下「反射体距離」という)である天井距離によって変化するが、一般的に、被写体とユーザが比較的近距離にある状態で撮影が行われた場合にトップライトのような照射になりやすい。そのため、オートバウンス駆動を行う際に、被写体への入射角を小さくするために可動部300bをユーザ側に駆動する場合もある。被写体へ照射される拡散反射光の最適入射角を実験的に求めておき、ステップS425では、バウンス角度が最適となるように(最適入射角が得られるように)、可動部300bの駆動量が演算される。   The atmosphere of the photographed image (photograph) changes depending on the subject distance and the ceiling distance that is the distance to the reflecting surface of the reflector (hereinafter referred to as “reflector distance”), but in general, the subject and the user are relatively close to each other. When shooting is performed in a certain state, it tends to be irradiated like a top light. Therefore, when auto bounce driving is performed, the movable unit 300b may be driven to the user side in order to reduce the incident angle to the subject. The optimum incident angle of the diffusely reflected light applied to the subject is experimentally obtained. In step S425, the driving amount of the movable unit 300b is set so that the bounce angle is optimum (so that the optimum incident angle is obtained). Calculated.

図6は、バウンス角度が最適となるような可動部300bの駆動量を演算する方法を説明する模式図である。図6(a)は、被写体とユーザとが比較的離れた距離にある場合を示しており、図6(b)は被写体とユーザとが比較的近い距離にある場合を示している。ストロボ装置300のストロボ光の発光面を起点とした被写体までの距離(被写体距離)をx、ストロボ装置300のストロボ光の発光面を起点とした天井距離をyとする。被写体から天井反射面からの鉛直線上との交点までの距離をx、この交点からストロボ装置300の発光面までの距離をxとすると、x=x+x、の関係が成り立つ。また、被写体へ入射する拡散反射光と水平線とがなす最適入射角度をθ、ストロボ装置300の発光面からの照射方向と水平線とがなす最適バウンス角度をθとする。この場合、被写体と天井反射面と上記交点からなる三角形から、距離xは下記式1により求めることができる。また、ストロボ装置300の発光面と天井反射面と上記交点からなる三角形と式(1)から最適バウンス角度θは下記式2により求めることができる。 FIG. 6 is a schematic diagram for explaining a method of calculating the drive amount of the movable part 300b so that the bounce angle is optimal. FIG. 6A shows a case where the subject and the user are at a relatively distance from each other, and FIG. 6B shows a case where the subject and the user are at a relatively close distance. The distance to the subject (subject distance) starting from the strobe light emitting surface of the strobe device 300 is x, and the ceiling distance starting from the strobe light emitting surface of the strobe device 300 is y. X 1 a distance from the subject to the point of intersection between the vertical line from the ceiling reflecting surface, and the distance to the light emitting surface of the flash device 300 from the intersection point to x 2, x = x 1 + x 2, the relation holds. In addition, the optimum incident angle formed by the diffusely reflected light incident on the subject and the horizontal line is θ 1 , and the optimum bounce angle formed by the irradiation direction from the light emitting surface of the strobe device 300 and the horizontal line is θ 2 . In this case, a triangle consisting of the object and the ceiling reflecting surface and the intersection point, the distance x 2 can be obtained by the following formula 1. Further, the optimum bounce angle θ 2 can be obtained by the following formula 2 from the light emitting surface of the strobe device 300, the ceiling reflecting surface, and the triangle formed by the intersection and the formula (1).

上記式2により、被写体への最適入射角度θを実現するための可動部300bの最適バウンス角度θを決定することができる。上記式2では、最適入射角度θは予め設定された定数となるため、距離x,yを反射光検出部308によりステップS415,S421で検出することにより、可動部300bの最適バウンス角度θを算出することができる。例えば、図6(a)において、最適入射角度θが30度、被写体距離xが3m、天井距離yが1.4mである場合には、最適バウンス角度θは約68度に設定すればよい。また、図6(b)において、最適入射角度θが30度、被写体距離xが2m、天井距離yが1.4mである場合には、上記式1は負の値となる。そのため、上記式2の左辺は180+θとなり、その結果、最適バウンス角度θは約107(=180+θ)度に設定すればよいことがわかる。なお、このような手法に限らず、他の公知の手法によって最適バウンス角度θを求めてもよい。 The above equation 2, it is possible to determine the optimum Bounce angle theta 2 of the movable portion 300b for realizing the optimum incidence angle theta 1 to the subject. In the above formula 2, the optimum incident angle θ 1 is a preset constant. Therefore, the optimum bounce angle θ 2 of the movable part 300 b is detected by detecting the distances x and y by the reflected light detection unit 308 in steps S 415 and S 421. Can be calculated. For example, in FIG. 6A, when the optimum incident angle θ 1 is 30 degrees, the subject distance x is 3 m, and the ceiling distance y is 1.4 m, the optimum bounce angle θ 2 can be set to about 68 degrees. Good. In FIG. 6B, when the optimum incident angle θ 1 is 30 degrees, the subject distance x is 2 m, and the ceiling distance y is 1.4 m, the above equation 1 is a negative value. Therefore, the left side of Equation 2 is 180 + θ 2 , and as a result, it can be seen that the optimum bounce angle θ 2 may be set to about 107 (= 180 + θ 2 ) degrees. Note that the optimum bounce angle θ 2 may be obtained not only by such a method but also by other known methods.

FPU310は、ステップS425で最適バウンス角度を演算した後、算出した最適バウンス角度をFPU310内のRAMに格納し、処理をステップS426へ進める。ステップS426においてFPU310は、ステップS425で算出した最適バウンス角度と第1のバウンス角度検出回路340a及び第2のバウンス角度検出回路340cの検出結果に基づいて、実際の可動部300bの駆動量を演算する。   After calculating the optimum bounce angle in step S425, the FPU 310 stores the calculated optimum bounce angle in the RAM in the FPU 310, and advances the process to step S426. In step S426, the FPU 310 calculates the actual driving amount of the movable unit 300b based on the optimum bounce angle calculated in step S425 and the detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c. .

このとき、ストロボ装置300の姿勢が水平方向や鉛直方向に対して傾いている場合がある。図7(a)は、ストロボ装置300が水平軸Zに対して角度γだけ傾いている状態を示す図であり、図7(b)は、鉛直軸Xに対して角度ηだけ傾いている状態を示す図である。FPU310は、姿勢補正が必要と判断された場合に、姿勢検出回路360の各軸の傾き角度(γ、η)を検出し、演算したバウンス駆動量に傾き角度を打ち消す補正駆動量を演算し、算出した補正駆動量でバウンス駆動量を補正する。このとき、姿勢検出回路360の検出結果に代えて、姿勢検出回路140の検出結果を用いてもよい。FPU310は、バウンス駆動量を演算した後、算出した値をFPU310内のRAMに格納し、処理をステップS427へ進める。   At this time, the posture of the strobe device 300 may be inclined with respect to the horizontal direction or the vertical direction. 7A is a view showing a state in which the strobe device 300 is inclined by an angle γ with respect to the horizontal axis Z, and FIG. 7B is a state in which the strobe device 300 is inclined by an angle η with respect to the vertical axis X. FIG. When it is determined that posture correction is necessary, the FPU 310 detects the tilt angle (γ, η) of each axis of the posture detection circuit 360, calculates a correction drive amount that cancels the tilt angle to the calculated bounce drive amount, The bounce drive amount is corrected with the calculated correction drive amount. At this time, instead of the detection result of the posture detection circuit 360, the detection result of the posture detection circuit 140 may be used. After calculating the bounce drive amount, the FPU 310 stores the calculated value in the RAM in the FPU 310, and the process proceeds to step S427.

ステップS427においてFPU310は、ステップS426での演算結果に基づき、バウンス回路340を駆動制御して可動部300bを駆動させると共に、バウンス回路340の駆動に合わせて、本発光での配光角へストロボ光学系307を駆動する。なお、ここでのストロボ光学系307の駆動の詳細については後述する。続くステップS428においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの検出結果に基づき、ステップS427で駆動させた可動部300bがステップS426で演算位置まで駆動されたか否かを判定する。FPU310は、可動部300bが演算位置まで駆動された場合(S428でYES)、処理をステップS430へ進め、可動部300bが演算位置まで駆動されていない場合(S428でYES)、処理をステップS429へ進める。   In step S427, based on the calculation result in step S426, the FPU 310 drives and controls the bounce circuit 340 to drive the movable unit 300b, and in accordance with the drive of the bounce circuit 340, strobe optics to the light distribution angle in the main emission. The system 307 is driven. The details of driving the strobe optical system 307 will be described later. In subsequent step S428, FPU 310 determines whether or not movable unit 300b driven in step S427 is driven to the calculation position in step S426 based on the detection results of first bounce angle detection circuit 340a and second bounce angle detection circuit 340c. Determine whether. When the movable unit 300b is driven to the calculation position (YES in S428), the FPU 310 advances the process to step S430. When the movable unit 300b is not driven to the calculation position (YES in S428), the process proceeds to step S429. Proceed.

ステップS429においてFPU310は、所定時間が経過したか否か(タイムアウトしたか否か)を判定する。FPU310は、可動部300b駆動が完了せずに所定時間が経過した(タイムアウトした)場合(S429でYES)、処理をステップS430へ進め、タイムアウトしていない場合(S429でNO)、処理をステップS428へ戻す。ステップS430においてFPU310は、メインコンデンサ302dの充電電圧が所定値以上か否か(充電が完了したか否か)を判定する。FPU310は、充電が完了した場合(S430でYES)、処理をステップS432へ進め、充電が完了していない場合(S430でNO)、処理をステップS431へ進める。ステップS431においてFPU310は、再度、昇圧回路ブロック302を動作開始させてメインコンデンサ302dの充電を行い、その後、処理をステップS432へ進める。   In step S429, the FPU 310 determines whether a predetermined time has elapsed (whether it has timed out). The FPU 310 advances the process to step S430 if the predetermined time has elapsed (timeout) without completing the driving of the movable part 300b (YES in S429), and if the time has not timed out (NO in S429), the process proceeds to step S428. Return to. In step S430, the FPU 310 determines whether the charging voltage of the main capacitor 302d is equal to or higher than a predetermined value (whether charging is completed). If the charging is completed (YES in S430), the FPU 310 advances the process to step S432. If the charging is not completed (NO in S430), the FPU 310 advances the process to step S431. In step S431, the FPU 310 starts the operation of the booster circuit block 302 again to charge the main capacitor 302d, and then proceeds to step S432.

ステップS432においてFPU310は、充電完了信号をCCPU101へ送信する。そして、ステップS433においてFPU310は、発光命令としてCCPU101から発光開始信号を受信したか否かを判定する。FPU310は、発光開始信号を受信した場合(S433でYES)、処理をステップS434へ進め、発光開始信号を受信していない場合(S433でNO)、処理をステップS402へ戻す。ステップS434においてFPU310は、受信した発光開始信号にしたがって発光制御回路304に発光指示を行い、発光制御回路304は放電管305を発光させる。その後、FPU310は、処理をステップS402へ戻す。なお、ステップS434においてFPU310は、調光用プリ発光と本発光のような一連の発光については、各発光が終了してもステップS402へ戻さずに、一連の発光が終了した後に処理をステップS402へ戻す。   In step S432, the FPU 310 transmits a charge completion signal to the CCPU 101. In step S433, the FPU 310 determines whether a light emission start signal is received from the CCPU 101 as a light emission command. If the FPU 310 has received the light emission start signal (YES in S433), the process proceeds to step S434. If the FPU 310 has not received the light emission start signal (NO in S433), the process returns to step S402. In step S434, the FPU 310 instructs the light emission control circuit 304 to emit light according to the received light emission start signal, and the light emission control circuit 304 causes the discharge tube 305 to emit light. Thereafter, the FPU 310 returns the process to step S402. Note that in step S434, the FPU 310 does not return to step S402 for each series of light emission such as dimming pre-light emission and main light emission, but does not return to step S402, but performs processing after the series of light emission ends. Return to.

ステップS413の詳細について説明する。図8は、ステップS413の処理のフローチャートである。ステップS801においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S801でYES)、処理をステップS802へ進め、配光可変モードでない(配光固定モードである)場合(S801でNO)、処理をステップS804へ進める。   Details of step S413 will be described. FIG. 8 is a flowchart of the process in step S413. In step S801, the FPU 310 determines whether the light distribution variable mode is set. If the FPU 310 is in the variable light distribution mode (YES in S801), the process proceeds to step S802. If the FPU 310 is not in the variable light distribution mode (in the fixed light distribution mode) (NO in S801), the process proceeds to step S804.

ここで、被写体距離検出用プリ発光時の配光角は、ステップS403で格納した焦点距離配光角で発光を行うことが望ましい。これは、焦点距離配光角で発光を行うことにより、画角全体をカバーすることができるため、被写体が画角内のどこに位置したとしても測距が可能となるからである。そこで、ステップS802においてFPU310は、ストロボ光学系307を焦点距離配光角へ駆動するか否かを確認する。FPU310は、ストロボ光学系307を焦点距離配光角へ駆動する場合(S802でYES)、本処理を抜けてステップS414へ処理を進める。一方、FPU310は、ユーザによる設定等に基づきストロボ光学系307を焦点距離配光角へ駆動しない場合(S802でNO)、処理をステップS803へ進める。   Here, it is desirable to emit light at the focal length light distribution angle stored in step S403 as the light distribution angle at the time of pre-light emission for subject distance detection. This is because the entire field angle can be covered by emitting light at the focal length light distribution angle, so that the distance can be measured regardless of the position of the subject within the field angle. Therefore, in step S802, the FPU 310 checks whether or not to drive the strobe optical system 307 to the focal length light distribution angle. When the FPU 310 drives the strobe optical system 307 to the focal length light distribution angle (YES in S802), the FPU 310 exits this process and proceeds to step S414. On the other hand, if the FPU 310 does not drive the strobe optical system 307 to the focal length light distribution angle based on the setting by the user or the like (NO in S802), the process proceeds to step S803.

ステップS803においてFPU310は、焦点距離情報に基づき算出したAF可能エリアをカバーする配光角(以下「AFエリア配光角」という)へストロボ光学系307を駆動し、その後、本処理を抜けてステップS414へ処理を進める。ステップS804においてFPU310は、ステップS402で配光固定モードに切り替えた情報に基づき、本発光配光角にストロボ光学系307を駆動し、その後、本処理を抜けてステップS414へ処理を進める。   In step S803, the FPU 310 drives the strobe optical system 307 to a light distribution angle that covers the AF-enabled area calculated based on the focal length information (hereinafter referred to as “AF area light distribution angle”). The process proceeds to S414. In step S804, the FPU 310 drives the strobe optical system 307 to the main light emission angle based on the information switched to the light distribution fixed mode in step S402, and then exits this process and proceeds to step S414.

ステップS419の詳細について説明する。図9は、ステップS419の処理のフローチャートである。ステップS901においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S901でYES)、処理をステップS902へ進め、配光可変モードでない(配光固定モードである)場合(S901でNO)、処理をステップS905へ進める。   Details of step S419 will be described. FIG. 9 is a flowchart of the process in step S419. In step S901, the FPU 310 determines whether or not the light distribution variable mode is set. If the FPU 310 is in the variable light distribution mode (YES in S901), the process proceeds to step S902. If the FPU 310 is not in the variable light distribution mode (in the fixed light distribution mode) (NO in S901), the process proceeds to step S905.

ここで、天井距離検出用プリ発光時の配光角は、本発光時と同じ配光角で発光を行うことが望ましい。これにより、天井距離検出用プリ発光と本発光の間でストロボ光学系307を駆動する必要がなくなり、バウンス駆動中にストロボ光学系307の駆動を終了させることが可能になることで、測距時間の短縮を図ることができる。よって、ステップS902においてFPU310は、天井距離に関する情報の検出を本発光配光角で行うか否かを確認する。FPU310は、本発光配光角で天井距離に関する情報を検出する場合(S902でYES)、処理をステップS903へ進める。一方、FPU310は、バウンス回路340によるバウンス駆動時間がストロボ光学系307の駆動時間よりも短くなる場合には、本発光配光角で天井距離に関する情報を検出せずに(S902でNO)、処理をステップS904へ進める。   Here, it is desirable that the light distribution angle at the time of the pre-light emission for detecting the ceiling distance be emitted with the same light distribution angle as that at the time of the main light emission. Accordingly, it is not necessary to drive the strobe optical system 307 between the pre-light emission for ceiling distance detection and the main light emission, and it becomes possible to finish driving the strobe optical system 307 during the bounce drive, thereby measuring the distance measurement time. Can be shortened. Therefore, in step S902, the FPU 310 confirms whether or not to detect information related to the ceiling distance at the main light emission angle. When the FPU 310 detects information related to the ceiling distance with the main light emission distribution angle (YES in S902), the process proceeds to step S903. On the other hand, when the bounce drive time by the bounce circuit 340 is shorter than the drive time of the strobe optical system 307, the FPU 310 does not detect information on the ceiling distance at the main light emission angle (NO in S902). Advances to step S904.

ステップS903においてFPU310は、本発光配光角にストロボ光学系307を駆動する。ステップS904においてFPU310は、被写体距離検出用プリ発光時の配光角と本発光配光角の中間域の配光角(中間配光角)へストロボ光学系307を駆動する。つまり、バウンス回路340が駆動中の間のみストロボ光学系307を本発光配光角へ向けて駆動する。これにより、被写体距離検出用プリ発光時の配光角と本発光配光角に挟まれた角度範囲でストロボ光学系307を停止させたときの配光角で発光部を発光させることになる。図10は、ステップS904で設定される天井距離検出用プリ発光時の配光角を説明する図である。図10(a)は、被写体距離検出用プリ発光時の配光角が本発光配光角以上の場合を示しており、図10(b)は、被写体距離検出用プリ発光時の配光角が本発光配光角以下の場合を示している。ステップS904では、天井距離検出用プリ発光時の配光角は、図10(a),(b)に示す斜線部内の1値の角度に設定される。これにより、ストロボ光学系307の駆動速度が遅い場合であっても、効率的に適切な位置へストロボ光学系307を駆動することができる。ステップS905においてFPU310は、ストロボ光学系307の駆動を行わない。これは、ステップS402で配光固定モードに切り替えられて、ステップS804で既にストロボ光学系307は本発光配光角になっているからである。FPU310は、ステップS903〜905の後、本処理を抜けてステップS420へ処理を進める。   In step S903, the FPU 310 drives the strobe optical system 307 to the main light emission distribution angle. In step S904, the FPU 310 drives the strobe optical system 307 to a light distribution angle (intermediate light distribution angle) between the light distribution angle during pre-light emission for subject distance detection and the main light distribution angle. That is, the strobe optical system 307 is driven toward the main light distribution angle only while the bounce circuit 340 is being driven. As a result, the light emitting unit emits light at the light distribution angle when the strobe optical system 307 is stopped within the angle range between the light distribution angle during the pre-light emission for subject distance detection and the main light distribution angle. FIG. 10 is a diagram for explaining a light distribution angle at the time of pre-light emission for ceiling distance detection set in step S904. FIG. 10A shows a case where the light distribution angle during pre-light emission for subject distance detection is greater than or equal to the main light distribution angle, and FIG. 10B shows the light distribution angle during pre-light emission for subject distance detection. Indicates a case where the light emission angle is less than the main light distribution angle. In step S904, the light distribution angle at the time of the pre-light emission for detecting the ceiling distance is set to a one-valued angle within the hatched portion shown in FIGS. 10 (a) and 10 (b). Thereby, even if the drive speed of the strobe optical system 307 is slow, the strobe optical system 307 can be efficiently driven to an appropriate position. In step S905, the FPU 310 does not drive the strobe optical system 307. This is because the light distribution fixed mode is switched in step S402 and the strobe optical system 307 has already reached the main light distribution angle in step S804. After steps S903 to 905, the FPU 310 exits this process and proceeds to step S420.

ステップS427の詳細について説明する。図11は、ステップS427の処理のフローチャートである。ステップS1101においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S1101でYES)、処理をステップS1102へ進め、配光可変モードでない(配光固定モードである)場合(S1101でNO)、処理をステップS1204へ進める。   Details of step S427 will be described. FIG. 11 is a flowchart of the process of step S427. In step S1101, the FPU 310 determines whether or not the light distribution variable mode is set. If the FPU 310 is in the light distribution variable mode (YES in S1101), the process proceeds to step S1102, and if it is not the light distribution variable mode (is in the light distribution fixed mode) (NO in S1101), the process proceeds to step S1204.

ここで、本発光配光角は、ステップS403で格納した焦点距離情報とは無関係に決定することができる。本発光配光角には、ガイドナンバーと照射範囲とのバランスがよいものが適しており、よって、設定可能角度範囲(第2の情報)の中心値付近の配光角とするのが望ましい。一方、ユーザによって本発光配光角が所定の角度(第2の情報)に設定されている場合もある。そこで、ステップS1102においてFPU310は、現在の配光角が本発光配光角か否かを判定する。FPU310は、現在の配光角が本発光配光角である場合(S1102でYES)、本処理を抜けてステップS428へ処理を進め、現在の配光角が本発光配光角でない場合(S1102でNO)、処理をステップS1103へ進める。   Here, the main light emission distribution angle can be determined regardless of the focal length information stored in step S403. As the main light distribution angle, one having a good balance between the guide number and the irradiation range is suitable. Therefore, it is desirable to set the light distribution angle near the center value of the settable angle range (second information). On the other hand, the main light distribution angle may be set to a predetermined angle (second information) by the user. Therefore, in step S1102, the FPU 310 determines whether or not the current light distribution angle is the main light emission light distribution angle. If the current light distribution angle is the main light distribution angle (YES in S1102), the FPU 310 exits this process and proceeds to step S428, and if the current light distribution angle is not the main light distribution angle (S1102). NO), the process proceeds to step S1103.

ステップS1103においてFPU310は、本発光配光角になるようにストロボ光学系307を駆動する。また、ステップS1104においてFPU310は、ステップS402で配光固定モードに切り替えられて、ステップS804で既にストロボ光学系307は本発光配光角になっているため、ストロボ光学系307の駆動を行わない。FPU310は、ステップS1103,S1104の後、本処理を抜けてステップS428へ処理を進める。   In step S1103, the FPU 310 drives the strobe optical system 307 so that the main light emission distribution angle is obtained. In step S1104, the FPU 310 is switched to the light distribution fixed mode in step S402, and since the strobe optical system 307 has already reached the main light distribution angle in step S804, the strobe optical system 307 is not driven. After steps S1103 and S1104, the FPU 310 exits this process and proceeds to step S428.

以上の通りにストロボ装置300を制御することにより、撮影画角の周辺部を測距することができなくなるのを防ぎながら、測距レンジが短くなりすぎることを防ぐことができる。これにより、被写体と反射体の測距時の発光及び本発光を適切に自動制御することが可能となる。なお、上記説明では、FPU310がストロボ装置300の光の照射方向と配光角を自動制御するものとして説明したが、ストロボ装置300の光の照射方向と配光角とがカメラ本体100のCCPU101によって制御可能な構成となっていてもよい。   By controlling the flash device 300 as described above, it is possible to prevent the distance measurement range from becoming too short while preventing the peripheral portion of the shooting angle of view from being unable to be measured. As a result, it is possible to appropriately automatically control light emission and main light emission during distance measurement between the subject and the reflector. In the above description, it has been described that the FPU 310 automatically controls the light irradiation direction and light distribution angle of the strobe device 300, but the light irradiation direction and light distribution angle of the strobe device 300 are determined by the CCPU 101 of the camera body 100. It may be configured to be controllable.

<ストロボ装置300の第2実施形態に係る駆動制御方法>
次に、撮像システム10によりオートバウンス発光撮影を実行する場合のストロボ装置300の第2実施形態に係る駆動制御方法について説明する。上記第1実施形態は、被写体の距離に関する情報の検出後に反射体の反射面までの距離(以下「反射体距離」という)である天井距離に関する情報の検出を行うフローとなっていた。これに対して、第2実施形態は、反射体距離に関する情報の検出後に被写体距離に関する情報の検出を行うフローとなっている。この場合、第1実施形態と比べると、バウンス駆動量が多くなる可能性が大きくなって駆動時間が長くなる場合もある反面、バウンス駆動時間を利用して反射体距離に関する情報を検出するための配光角の自由度を高めることができる利点がある。
<Drive Control Method According to Second Embodiment of Strobe Device 300>
Next, a drive control method according to the second embodiment of the strobe device 300 when auto-bounce flash photography is performed by the imaging system 10 will be described. The first embodiment is a flow for detecting information on the ceiling distance, which is the distance to the reflecting surface of the reflector (hereinafter referred to as “reflector distance”) after detecting the information on the distance of the subject. On the other hand, the second embodiment is a flow for detecting information on the subject distance after detecting information on the reflector distance. In this case, as compared with the first embodiment, there is a possibility that the bounce drive amount increases and the drive time may be longer. However, for detecting information on the reflector distance using the bounce drive time. There is an advantage that the degree of freedom of the light distribution angle can be increased.

図12は、オートバウンス発光撮影でのストロボ装置300の第2実施形態に係る駆動制御の流れを示すフローチャートである。図12に示す各処理は、FPU310が所定のプログラムコードを実行してストロボ装置300の各部の動作を制御することにより実現される。なお、図12のフローチャートにある各種の処理のうち、図4のフローチャートにある処理と同じ処理については、その旨を記して、ここでの説明を省略する。   FIG. 12 is a flowchart showing a flow of drive control according to the second embodiment of the strobe device 300 in auto bounce flash photography. Each process shown in FIG. 12 is realized by the FPU 310 executing a predetermined program code to control the operation of each unit of the strobe device 300. Of the various types of processing shown in the flowchart of FIG. 12, the same processing as that shown in the flowchart of FIG. 4 is described as such and description thereof is omitted here.

ステップS1201〜S1212の各処理はステップS401〜S412の各処理と同じであるため、ここでの説明を省略する。ステップS1213においてFPU310は、可動部300bを天井方向へ向けるようにバウンス回路340を駆動させる。また、FPU310は、バウンス回路340の駆動に合わせて、天井距離検出用プリ発光の配光角へストロボ光学系307を駆動する。なお、ステップS1213でのストロボ光学系307の駆動の詳細については後述する。   Since each process of step S1201 to S1212 is the same as each process of step S401 to S412, description here is abbreviate | omitted. In step S1213, the FPU 310 drives the bounce circuit 340 so that the movable part 300b is directed toward the ceiling. Further, the FPU 310 drives the strobe optical system 307 to the light distribution angle of the pre-light emission for ceiling distance detection in accordance with the driving of the bounce circuit 340. Details of driving the strobe optical system 307 in step S1213 will be described later.

続くステップS1214においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの角度検出結果をFPU310内のRAMに格納し、角度検出結果に基づき可動部300bが天井方向を向いているか否かを判定する。FPU310は、可動部300bが天井方向を向いている場合(S1214でYES)、処理をステップS1215へ進め、可動部300bが天井方向を向いていない場合(S1214でNO)、処理をステップS1216へ進める。なお、ステップS1216〜S1218の各処理は、ステップS422〜S424の各処理と同じであるため、ここでの説明を省略する。   In subsequent step S1214, the FPU 310 stores the angle detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c in the RAM in the FPU 310, and the movable unit 300b faces the ceiling direction based on the angle detection result. It is determined whether or not. When the movable unit 300b faces the ceiling direction (YES in S1214), the FPU 310 advances the process to step S1215. When the movable unit 300b does not face the ceiling direction (NO in S1214), the FPU 310 advances the process to step S1216. . Note that the processes in steps S1216 to S1218 are the same as the processes in steps S422 to S424, and thus the description thereof is omitted here.

ステップS1215においてFPU310は、天井距離検出用プリ発光を行い、天井からの反射光を反射光検出部308で検出し、その検出光量に基づいて天井距離に関する情報を演算する。FPU310は、算出した天井距離に関する情報をFPU310内のRAMに格納し、その後、処理をステップS1219へ進める。ステップS1219においてFPU310は、可動部300bを正面方向へ向けるようにバウンス回路340を駆動させる。また、FPU310は、バウンス回路340の駆動に合わせ、被写体距離検出用プリ発光の配光角へストロボ光学系307を駆動する。なお、ステップS1219でのストロボ光学系307の駆動の詳細については後述する。   In step S1215, the FPU 310 performs ceiling-distance detection pre-light emission, the reflected light from the ceiling is detected by the reflected light detection unit 308, and information on the ceiling distance is calculated based on the detected light amount. The FPU 310 stores the information regarding the calculated ceiling distance in the RAM in the FPU 310, and then advances the process to step S1219. In step S1219, the FPU 310 drives the bounce circuit 340 so that the movable part 300b is directed in the front direction. Further, the FPU 310 drives the strobe optical system 307 to the light distribution angle of the pre-light emission for subject distance detection in accordance with the driving of the bounce circuit 340. Details of driving the strobe optical system 307 in step S1219 will be described later.

ステップS1220においてFPU310は、第1のバウンス角度検出回路340aと第2のバウンス角度検出回路340cの角度検出結果をFPU310内のRAMに格納し、角度検出結果に基づき可動部300bが正面方向を向いているか否かを判定する。FPU310は、可動部300bが正面方向を向いている場合(S1220でYES)、処理をステップS1221へ進め、可動部300bが正面方向を向いていない場合(S1220でNO)、処理をステップS1222へ進める。なお、ステップS1222〜S1224の各処理は、ステップS416〜S418の各処理と同じであるため、ここでの説明を省略する。   In step S1220, the FPU 310 stores the angle detection results of the first bounce angle detection circuit 340a and the second bounce angle detection circuit 340c in the RAM in the FPU 310, and the movable unit 300b faces the front direction based on the angle detection result. It is determined whether or not. The FPU 310 advances the process to step S1221 when the movable part 300b faces the front direction (YES in S1220), and advances the process to step S1222 when the movable part 300b does not face the front direction (NO in S1220). . In addition, since each process of step S1222-S1224 is the same as each process of step S416-S418, description here is abbreviate | omitted.

ステップS1221においてFPU310は、被写体距離検出用プリ発光を行い、被写体からの反射光を反射光検出部308で検出し、その検出光量に基づいて被写体の距離に関する情報を演算する。FPU310は、算出した被写体の距離に関する情報をFPU310内のRAMに格納し、その後、処理をステップS1225へ進める。ステップS1225〜S1234の各処理は、ステップS425〜S434の各処理と同じであるため、ここでの説明を省略する。   In step S1221, the FPU 310 performs pre-light emission for subject distance detection, the reflected light from the subject is detected by the reflected light detection unit 308, and information on the subject distance is calculated based on the detected light amount. The FPU 310 stores information on the calculated subject distance in the RAM in the FPU 310, and then the process proceeds to step S1225. Since each process of step S1225-S1234 is the same as each process of step S425-S434, description here is abbreviate | omitted.

ステップS1213の詳細について説明する。図13は、ステップS1213の処理のフローチャートである。ステップS1301においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S1301でYES)、処理をステップS1302へ進め、配光可変モードでない(配光固定モードである)場合(S1301でNO)、処理をステップS1305へ進める。ステップS1302においてFPU310は、被写体距離検出用プリ発光の配光角が本発光配光角以下か否かを判定する。FPU310は、被写体距離検出用プリ発光の配光角が本発光配光角以下の場合(S1302でYES)、処理をステップS1303へ進める。一方、FPU310は、被写体距離検出用プリ発光の配光角が本発光配光角より大きい場合(S1302でNO)、処理をステップS1304へ進める。   Details of step S1213 will be described. FIG. 13 is a flowchart of the process in step S1213. In step S1301, the FPU 310 determines whether or not the light distribution variable mode is set. If the FPU 310 is in the variable light distribution mode (YES in S1301), the process proceeds to step S1302. If the FPU 310 is not in the variable light distribution mode (in the fixed light distribution mode) (NO in S1301), the process proceeds to step S1305. In step S1302, the FPU 310 determines whether or not the light distribution angle of the pre-light emission for subject distance detection is equal to or smaller than the main light distribution angle. When the light distribution angle of the pre-light emission for subject distance detection is equal to or smaller than the main light distribution angle (YES in S1302), the FPU 310 advances the process to step S1303. On the other hand, if the light distribution angle of the pre-light emission for subject distance detection is larger than the main light distribution angle (NO in S1302), the FPU 310 advances the process to step S1304.

ステップS1303においてFPU310は、天井距離検出用プリ発光の配光角が焦点距離配光角となるようにストロボ光学系307を駆動する。これにより、ステップS1219では被写体距離検出用プリ発光の配光角と同じ配光角となるため、ストロボ光学系307の駆動を省略することができる。ステップS1304にてストロボマイコン310は、本発光配光角又はそれより望遠側の配光角となるようにストロボ光学系307を駆動する。この場合の配光角には、本発光時の配光角を使用してもよいし、ユーザが本発光配光角より望遠側の配光角において設定した1値の配光角を用いてもよい。このように、より望遠側で天井距離検出用プリ発光を行うことにより、ガイドナンバーを上げて測距を行うことができるため、天井が高い場合に測距レンジを広げることができる。ステップS1305においてFPU310は、ステップS1202で配光固定モードに切り替えた情報に基づき、本発光配光角にストロボ光学系307を駆動する。FPU310は、ステップS1303〜S1305の後、本処理を抜けてステップS1214へ処理を進める。   In step S <b> 1303, the FPU 310 drives the strobe optical system 307 so that the light distribution angle of the pre-light emission for ceiling distance detection becomes the focal length light distribution angle. As a result, in step S1219, the light distribution angle is the same as the light distribution angle of the pre-light emission for subject distance detection, so that the driving of the strobe optical system 307 can be omitted. In step S1304, the stroboscopic microcomputer 310 drives the stroboscopic optical system 307 so that the main light distribution angle or the light distribution angle closer to the telephoto side is obtained. As the light distribution angle in this case, the light distribution angle at the time of the main light emission may be used, or a single value light distribution angle set by the user at the light distribution angle on the telephoto side from the main light emission light distribution angle is used. Also good. As described above, by performing pre-light emission for detecting the ceiling distance on the telephoto side, the distance can be measured by increasing the guide number, so that the distance measurement range can be widened when the ceiling is high. In step S1305, the FPU 310 drives the strobe optical system 307 to the main light distribution angle based on the information switched to the light distribution fixed mode in step S1202. After steps S1303 to S1305, the FPU 310 exits this process and proceeds to step S1214.

ステップS1219の詳細について説明する。図14は、ステップS1219の処理のフローチャートである。ステップS1401においてFPU310は、配光可変モードか否かを判定する。FPU310は、配光可変モードである場合(S1401でYES)、処理をステップS1402へ進め、配光可変モードでない(配光固定モードである)場合(S1401でNO)、処理をステップS1405へ進める。ステップS1402においてFPU310は、被写体の距離に関する情報の検出を焦点距離配光角で行うか否かを確認する。FPU310は、焦点距離配光角で被写体の距離に関する情報を検出する場合(S1402でYES)、処理をステップS1403へ処理を進める。一方、FPU310は、ユーザによる設定等に基づき焦点距離配光角で被写体の距離に関する情報を検出しない場合(S1402でNO)、処理をステップS1404へ進める。   Details of step S1219 will be described. FIG. 14 is a flowchart of the process in step S1219. In step S1401, the FPU 310 determines whether or not the light distribution variable mode is set. If the FPU 310 is in the variable light distribution mode (YES in S1401), the process proceeds to step S1402. If the FPU 310 is not in the variable light distribution mode (in the fixed light distribution mode) (NO in S1401), the process proceeds to step S1405. In step S <b> 1402, the FPU 310 confirms whether or not to detect information related to the distance of the subject with the focal length light distribution angle. When the FPU 310 detects information related to the distance of the subject using the focal length light distribution angle (YES in S1402), the process proceeds to step S1403. On the other hand, if the FPU 310 does not detect information regarding the distance of the subject at the focal length light distribution angle based on the setting by the user or the like (NO in S1402), the process proceeds to step S1404.

ステップS1403においてFPU310は、被写体距離検出用プリ発光の配光角が焦点距離配光角となるようにストロボ光学系307を駆動する。なお、ステップS1303で既にストロボ光学系307が焦点距離配光角となっている場合には、ステップS1403は省略される。ステップS1404においてFPU310は、AFエリア配光角へストロボ光学系307を駆動する。ステップS1405においてFPU310は、ステップS1202で配光固定モードに切り替えられると共にステップS1305で既にストロボ光学系307が本発光配光角となっているため、ストロボ光学系307の駆動を行わない。FPU310は、ステップS1403〜S1405の後、本処理を抜けてステップS1214へ処理を進める。   In step S1403, the FPU 310 drives the strobe optical system 307 so that the light distribution angle of the pre-light emission for subject distance detection becomes the focal length light distribution angle. Note that if the strobe optical system 307 already has a focal length light distribution angle in step S1303, step S1403 is omitted. In step S1404, the FPU 310 drives the strobe optical system 307 to the AF area light distribution angle. In step S1405, the FPU 310 is switched to the light distribution fixed mode in step S1202, and since the strobe optical system 307 has already reached the main light distribution angle in step S1305, the strobe optical system 307 is not driven. After steps S1403 to S1405, the FPU 310 exits this process and proceeds to step S1214.

このように本実施形態では、被写体の距離に関する情報の検出に先んじて反射体距離(天井距離)に関する情報の検出を行うことにより、バウンス駆動量は多くなるが、その駆動時間を利用して、より広範囲でストロボ光学系307を駆動することができる。これにより、反射体の距離に関する情報を検出する際の配光角の自由度を高めることができる。また、本実施形態は、オートバウンス駆動が十分に速い場合に有効である。なお、より短い時間でオートバウンス駆動を行いたい場合は、第1実施形態での駆動制御を用いることが望ましい。   As described above, in the present embodiment, the bounce drive amount increases by detecting the information on the reflector distance (ceiling distance) prior to the detection of the information on the distance of the subject, but using the drive time, The strobe optical system 307 can be driven in a wider range. Thereby, the freedom degree of the light distribution angle at the time of detecting the information regarding the distance of a reflector can be raised. Further, this embodiment is effective when the auto bounce driving is sufficiently fast. If it is desired to perform auto bounce drive in a shorter time, it is desirable to use the drive control in the first embodiment.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、図4及び図12の各フローチャートの各処理は、不都合のない範囲であれば、異なる順序で実行されてもよい。また、本実施形態では、バウンス撮影時の反射体に天井を適用して説明したが、反射体は天井に限られるものではなく、ユーザが意図する方向へ反射光を照射することが可能な壁やパーティション、幕等の反射体に変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, the processes in the flowcharts of FIGS. 4 and 12 may be executed in different orders as long as there is no inconvenience. In the present embodiment, the ceiling is applied to the reflector at the time of bounce shooting, but the reflector is not limited to the ceiling, and a wall that can irradiate reflected light in the direction intended by the user. It can be changed to a reflector such as a partition or curtain.

本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

10 撮像システム
100 カメラ本体
101 CCPU(カメラマイコン)
102 撮像素子
107 焦点検出回路
140 姿勢検出回路
200 レンズ鏡筒
300 ストロボ装置
305 放電管
307 ストロボ光学系
308 反射光検出部
310 FPU(ストロボマイコン)
330 光学系駆動回路
340 バウンス回路
360 姿勢検出回路
DESCRIPTION OF SYMBOLS 10 Imaging system 100 Camera body 101 CCPU (camera microcomputer)
DESCRIPTION OF SYMBOLS 102 Image pick-up element 107 Focus detection circuit 140 Attitude detection circuit 200 Lens barrel 300 Strobe apparatus 305 Discharge tube 307 Strobe optical system 308 Reflected light detection part 310 FPU (strobe microcomputer)
330 Optical system drive circuit 340 Bounce circuit 360 Attitude detection circuit

Claims (13)

レンズ鏡筒、撮像装置および照明装置を備える撮像システムであって、
前記照明装置は、
照射する光の照射方向と配光角をそれぞれ変更可能に構成された発光部と、
被写体の距離に関する情報と、反射体の距離に関する情報とを、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときの反射光に基づき検出する検出手段と、を有し、
前記照明装置と前記撮像装置の少なくとも一方は、前記発光部での光の照射方向と配光角を制御する制御手段を有し、
前記制御手段は、前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記レンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記バウンス撮影の本撮影での前記発光部の配光角を前記第1の情報とは異なる第2の情報に基づいて決定し、前記反射体の距離に関する情報を検出する際の前記発光部の配光角を前記第1の情報または前記第2の情報に基づいて決定することを特徴とする撮像システム。
An imaging system including a lens barrel, an imaging device, and an illumination device,
The lighting device includes:
A light emitting unit configured to change the irradiation direction and the light distribution angle of the light to be irradiated;
Detecting means for detecting information on the distance of the subject and information on the distance of the reflector based on reflected light when light is emitted from the light emitting unit to the subject and the reflector, respectively.
At least one of the illuminating device and the imaging device has a control unit that controls an irradiation direction and a light distribution angle of light in the light emitting unit,
The control means relates to a distance of the subject when performing bounce photography in which the subject is illuminated by irradiating light from the light emitting unit to the reflector and irradiating the subject with reflected light from the reflector. A light distribution angle of the light emitting unit when detecting information is determined based on first information based on a focal length of the lens barrel, and a light distribution angle of the light emitting unit in the main shooting of the bounce shooting is Based on the second information different from the first information, the light distribution angle of the light emitting unit when detecting information on the distance of the reflector is based on the first information or the second information. An imaging system characterized by being determined.
前記第2の情報は、前記発光部において設定可能な配光角の角度範囲またはユーザにより設定された角度のいずれかであることを特徴とする請求項1に記載の撮像システム。   The imaging system according to claim 1, wherein the second information is either an angle range of a light distribution angle that can be set in the light emitting unit or an angle set by a user. 前記発光部の姿勢を検出する姿勢検出手段を備え、
前記制御手段は、前記姿勢検出手段の検出結果に基づき前記発光部からの光の照射方向を制御することを特徴とする請求項1又は2に記載の撮像システム。
A posture detecting means for detecting the posture of the light emitting unit;
The imaging system according to claim 1, wherein the control unit controls an irradiation direction of light from the light emitting unit based on a detection result of the posture detection unit.
前記制御手段は、前記被写体の距離に関する情報を検出した後に前記反射体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記レンズ鏡筒の焦点距離に対応する配光角と前記本撮影の際の配光角との間の1値の角度に制御することを特徴とする請求項1乃至3のいずれか1項に記載の撮像システム。   The control means detects a light distribution angle of the light emitting unit when detecting information about the distance of the reflector when detecting information about the distance of the reflector after detecting information about the distance of the subject. 4. The control according to claim 1, wherein the angle is controlled to a single value between a light distribution angle corresponding to a focal length of a lens barrel and a light distribution angle in the main photographing. Imaging system. 前記制御手段は、前記発光部からの光の照射方向を前記被写体に向かう方向から前記反射体へ向かう方向へ変更するように前記発光部を駆動する間だけ、前記発光部の配光角を変更するよう制御することを特徴とする請求項4に記載の撮像システム。   The control means changes the light distribution angle of the light emitting unit only while driving the light emitting unit so as to change the direction of light emitted from the light emitting unit from the direction toward the subject to the direction toward the reflector. The imaging system according to claim 4, wherein the imaging system is controlled to perform. 前記制御手段は、前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記本撮影の前記発光部の配光角と同じ角度に制御することを特徴とする請求項4又は5に記載の撮像システム。   The said control means controls the light distribution angle of the said light emission part at the time of detecting the information regarding the distance of the said reflector to the same angle as the light distribution angle of the said light emission part of the said imaging | photography. The imaging system according to 4 or 5. 前記制御手段は、前記反射体の距離に関する情報を検出した後に前記被写体の距離に関する情報を検出する場合の前記反射体の距離に関する情報を検出する際の前記発光部の配光角を、前記本撮影での前記発光部の配光角または前記本撮影での前記発光部の配光角よりも望遠側の配光角に制御することを特徴とする請求項1乃至3のいずれか1項に記載の撮像システム。   The control means is configured to determine a light distribution angle of the light emitting unit when detecting information about the distance of the reflector when detecting information about the distance of the subject after detecting information about the distance of the reflector. 4. The light distribution angle of the light emitting unit in photographing or the light distribution angle on the telephoto side with respect to the light distribution angle of the light emitting unit in the main photographing is controlled according to any one of claims 1 to 3. The imaging system described. 前記制御手段は、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記レンズ鏡筒の焦点距離情報に対応する配光角に制御することを特徴とする請求項1乃至7のいずれか1項に記載の撮像システム。   The control unit controls a light distribution angle of the light emitting unit when detecting information on the distance of the subject to a light distribution angle corresponding to focal length information of the lens barrel. 8. The imaging system according to any one of items 7. 前記制御手段は、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を、前記撮像装置により前記被写体に対するオートフォーカスが可能なエリアをカバーする配光角に制御することを特徴とする請求項1乃至7のいずれか1項に記載の撮像システム。   The control means controls the light distribution angle of the light emitting unit when detecting information related to the distance of the subject to a light distribution angle that covers an area in which the imaging device can autofocus the subject. The imaging system according to any one of claims 1 to 7. 前記制御手段は、前記発光部からの光の照射方向の変更と前記発光部の配光角の変更を同時に行うことができない場合、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記本撮影で前記発光部の配光角と同じ角度に設定することを特徴とする請求項1乃至9のいずれか1項に記載の撮像システム。   When the control unit cannot simultaneously change the irradiation direction of the light from the light emitting unit and change the light distribution angle of the light emitting unit, the control unit arranges the light emitting unit when detecting information about the distance of the subject. The imaging system according to claim 1, wherein a light angle is set to the same angle as a light distribution angle of the light emitting unit in the main photographing. レンズ鏡筒、撮像装置および照明装置を備え、前記照明装置の発光部から反射体へ光を照射したときの前記反射体からの反射光を被写体に照射して前記被写体を撮影するバウンス撮影を行う際の前記発光部からの光の照射方向と配光角を自動制御する撮像システムの制御方法であって、
前記発光部からの光の照射方向が前記被写体に向くように前記発光部を駆動し、被写体の距離に関する情報を検出するために前記発光部を発光させる際の配光角を前記レンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、該決定された配光角で前記発光部から前記被写体に対して光を照射したときの反射光に基づき前記被写体の距離に関する情報を検出するステップと、
前記発光部からの光の照射方向が前記反射体へ向くように前記発光部を駆動し、反射体の距離に関する情報を前記第1の情報とは異なる第2の情報または前記第1の情報に基づいて決定し、該決定された配光角で前記発光部から前記反射体に対して光を照射したときの反射光に基づき前記反射体の距離に関する情報を検出するステップと、
前記被写体の距離に関する情報と前記反射体の距離に関する情報とに基づいて前記バウンス撮影の本撮影を行う際の前記発光部からの前記反射体に対する光の照射角度を決定するステップと、
前記発光部からの光が前記照射角度で前記反射体へ照射されるように前記発光部を駆動し、前記第2の情報に基づいて前記本撮影での前記発光部の配光角を決定し、該決定された配光角で前記発光部から前記反射体に対して光を照射して前記本撮影を行うステップと、を有することを特徴とする撮像システムの制御方法。
A lens barrel, an imaging device, and an illuminating device are provided, and bounce photographing is performed for photographing the subject by irradiating the subject with reflected light from the reflector when light is emitted from the light emitting unit of the illuminating device to the reflector. A control method of an imaging system for automatically controlling the direction and light distribution angle of light from the light emitting unit at the time,
The light emitting unit is driven so that the direction of light emitted from the light emitting unit is directed toward the subject, and the light distribution angle when the light emitting unit emits light in order to detect information on the distance of the subject is determined by the lens barrel. Based on the first information based on the focal distance, information on the distance of the subject is detected based on the reflected light when the subject is irradiated with light at the determined light distribution angle. Steps,
The light emitting unit is driven so that the light irradiation direction from the light emitting unit is directed to the reflector, and the information regarding the distance of the reflector is changed to the second information different from the first information or the first information. Determining based on reflected light when the light is emitted from the light emitting unit to the reflector at the determined light distribution angle, and detecting information related to the distance of the reflector;
Determining an irradiation angle of light to the reflector from the light emitting unit when performing the main shooting of the bounce shooting based on information on the distance of the subject and information on the distance of the reflector;
The light emitting unit is driven so that light from the light emitting unit is irradiated to the reflector at the irradiation angle, and a light distribution angle of the light emitting unit in the main photographing is determined based on the second information. And a step of irradiating light from the light emitting unit to the reflector at the determined light distribution angle to perform the main photographing.
光の照射方向と配光角が変更可能に構成された発光部と、前記発光部から照射した光の反射光を検出するセンサとを有する照明装置を制御するコンピュータを、
被写体の距離に関する情報および反射体の距離に関する情報を、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときに前記センサが検出する反射光に基づき検出する検出手段と、
前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮像装置で撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記撮像装置が有するレンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記バウンス撮影の本撮影での前記発光部の配光角を前記第1の情報とは異なる第2の情報に基づいて決定し、前記反射体の距離に関する情報を検出する際の前記発光部の配光角を前記第1の情報または前記第2の情報に基づいて決定するように、前記発光部での光の配光角を制御する制御手段として機能させることを特徴とするプログラム。
A computer that controls a lighting device including a light emitting unit configured to change a light irradiation direction and a light distribution angle, and a sensor that detects reflected light of light emitted from the light emitting unit;
Detecting means for detecting information on the distance of the object and information on the distance of the reflector based on reflected light detected by the sensor when light is emitted from the light emitting unit to the object and the reflector, respectively.
Information on the distance of the subject is obtained when performing bounce photography in which the subject is illuminated with an imaging device by irradiating the subject with light from the light emitting unit and irradiating the subject with reflected light from the reflector. A light distribution angle of the light emitting unit at the time of detection is determined based on first information based on a focal length of a lens barrel included in the imaging device, and a light distribution angle of the light emitting unit in the main shooting of the bounce shooting Is determined based on second information different from the first information, and the light distribution angle of the light emitting unit when detecting information on the distance of the reflector is determined by the first information or the second information. A program that functions as a control unit that controls a light distribution angle of light in the light emitting unit so as to be determined based on the above.
照射する光の照射方向と配光角をそれぞれ変更可能に構成された発光部と、
被写体の距離に関する情報と、反射体の距離に関する情報とを、前記発光部から光を前記被写体と前記反射体へそれぞれ照射したときの反射光に基づき検出する検出手段と、
前記発光部での光の照射方向と配光角を制御する制御手段と、を備える照明装置であって、
前記制御手段は、前記発光部から前記反射体へ光を照射して前記反射体からの反射光を前記被写体に照射することにより前記被写体を撮像装置により撮影するバウンス撮影を行う際に、前記被写体の距離に関する情報を検出する際の前記発光部の配光角を前記撮像装置が備えるレンズ鏡筒の焦点距離に基づく第1の情報に基づいて決定し、前記バウンス撮影の本撮影での前記発光部の配光角を前記第1の情報とは異なる第2の情報に基づいて決定し、前記反射体の距離に関する情報を検出する際の前記発光部の配光角を前記第1の情報または前記第2の情報に基づいて決定することを特徴とする照明装置。
A light emitting unit configured to change the irradiation direction and the light distribution angle of the light to be irradiated;
Detection means for detecting information on the distance of the subject and information on the distance of the reflector based on reflected light when light is emitted from the light emitting unit to the subject and the reflector, respectively.
A lighting device comprising: a control means for controlling a light irradiation direction and a light distribution angle in the light emitting unit;
The control unit is configured to perform bounce shooting in which the subject is captured by an imaging device by irradiating the subject with light from the light emitting unit and irradiating the subject with reflected light from the reflector. A light distribution angle of the light emitting unit when detecting information on the distance of the light source is determined based on first information based on a focal length of a lens barrel included in the imaging device, and the light emission in the main photographing of the bounce photographing Determining the light distribution angle of the light emitting unit based on second information different from the first information, and determining the light distribution angle of the light emitting unit when detecting information on the distance of the reflector. The lighting device is determined based on the second information.
JP2016007130A 2016-01-18 2016-01-18 Illumination device, imaging system, control method thereof, and program Active JP6685732B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016007130A JP6685732B2 (en) 2016-01-18 2016-01-18 Illumination device, imaging system, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016007130A JP6685732B2 (en) 2016-01-18 2016-01-18 Illumination device, imaging system, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2017129623A true JP2017129623A (en) 2017-07-27
JP6685732B2 JP6685732B2 (en) 2020-04-22

Family

ID=59396678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016007130A Active JP6685732B2 (en) 2016-01-18 2016-01-18 Illumination device, imaging system, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6685732B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111095099A (en) * 2017-10-06 2020-05-01 松下照相·照明股份有限公司 Illumination device and imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111095099A (en) * 2017-10-06 2020-05-01 松下照相·照明股份有限公司 Illumination device and imaging device

Also Published As

Publication number Publication date
JP6685732B2 (en) 2020-04-22

Similar Documents

Publication Publication Date Title
JP5268438B2 (en) Strobe device, imaging device, and control method thereof
JP5494178B2 (en) Lighting device and camera
JP6573367B2 (en) Imaging device, control method thereof, and control program
JP6827694B2 (en) Light emission control device, its control method, control program, and image pickup device
JP2015004932A (en) Camera system, imaging device, luminaire and control method
US9716818B2 (en) Illumination apparatus having first case and second case rotatable relative to first case, and imaging apparatus having detachable illumination apparatus
JP2015219325A (en) Stroboscope control system and stroboscope control method
JP6685732B2 (en) Illumination device, imaging system, control method thereof, and program
JP6584128B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP6552170B2 (en) Imaging system, illumination device, and control method
JP6188444B2 (en) Camera system, imaging apparatus, and control method
JP5183188B2 (en) Imaging device and strobe device
JP2018081121A (en) Imaging system and control method thereof
JP6489925B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP2010134091A (en) Stroboscopic device, imaging apparatus, and camera system
CN111323992B (en) Photographing system, illumination apparatus, and control method for setting light emission amount of flash
JP6611419B2 (en) Imaging system, illumination device, and control method
JP2009122523A (en) Flash light device
JP6650666B2 (en) Imaging system, lighting device, and control method
JP2021063858A (en) Imaging system and method for controlling the same
JP6851790B2 (en) Lighting device and its control method and imaging system
JP2019086685A (en) Illumination device, control method therefor, control program, and imaging apparatus
JP2020034815A (en) Flash device and camera system
JP2020091393A (en) Illumination device and imaging system
JP2011059328A (en) Imaging system, imaging apparatus, and light emitting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200401

R151 Written notification of patent or utility model registration

Ref document number: 6685732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151