JP2018165769A - Imaging device, method for controlling the same, and control program - Google Patents
Imaging device, method for controlling the same, and control program Download PDFInfo
- Publication number
- JP2018165769A JP2018165769A JP2017062925A JP2017062925A JP2018165769A JP 2018165769 A JP2018165769 A JP 2018165769A JP 2017062925 A JP2017062925 A JP 2017062925A JP 2017062925 A JP2017062925 A JP 2017062925A JP 2018165769 A JP2018165769 A JP 2018165769A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- subject
- control unit
- imaging device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Stroboscope Apparatuses (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、光を被写体に照射して撮像を行う際の光の照射方向の制御に関する。 The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly to control of an irradiation direction of light when imaging is performed by irradiating a subject with light.
一般に、照明装置から光を天井などの反射体に向けて照射し、反射体からの拡散反射光を被写体に照射して撮影を行う所謂バウンス発光撮影が知られている。当該バウンス発光撮影では、照明装置からの光を間接的に被写体に照射することができるので、柔らかい光で描写を行うことができる。 In general, so-called bounce flash photography is known, in which light is emitted from a lighting device toward a reflector such as a ceiling, and a subject is irradiated with diffusely reflected light from the reflector. In the bounce flash photography, light from the illumination device can be indirectly irradiated onto the subject, so that it is possible to draw with soft light.
このようなバウンス発光撮影において、撮像装置から被写体までの距離と反射体までの距離とに基づいて照明装置の照射角度(以下バウンス角と呼ぶ)を求めるようにしたものがある(特許文献1参照)。 In such bounce flash photography, there is an apparatus in which an illumination angle of an illumination device (hereinafter referred to as a bounce angle) is obtained based on a distance from an imaging device to a subject and a distance from a reflector (see Patent Document 1). ).
さらに、自然光における輝度値と照明装置をプリ発光させた際の輝度値との差分輝度値とに基づいて被写体までの距離を求めるようにした撮像装置がある(特許文献2参照)。 Furthermore, there is an imaging apparatus that obtains a distance to a subject based on a difference luminance value between a luminance value in natural light and a luminance value obtained when a lighting device is pre-lighted (see Patent Document 2).
ところが、特許文献1に記載の撮像装置においては、LEDによってスポット光を投光してその反射光をポジションセンサデバイス(PSD)で受光することによって被写体までの距離を得ている。このため、次のような問題点がある。 However, in the imaging apparatus described in Patent Document 1, spot light is projected by an LED, and the reflected light is received by a position sensor device (PSD) to obtain a distance to a subject. For this reason, there are the following problems.
図9は、従来の撮像装置における被写体距離の算出を説明するための図である。そして、図9(a)は被写体が撮影画面の中央に位置する状態を示す図であり、図9(b)は被写体が撮影画面の中央から外れて位置する状態を示す図である。 FIG. 9 is a diagram for explaining the calculation of the subject distance in the conventional imaging apparatus. FIG. 9A is a diagram illustrating a state where the subject is positioned at the center of the shooting screen, and FIG. 9B is a diagram illustrating a state where the subject is positioned away from the center of the shooting screen.
図9(a)に示すように、撮影画面には複数の測距点1〜3が設定され、ここでは、PSDにおける受光範囲(つまり、測距可能範囲)が撮影画面の中央付近のみである。つまり、PSDの受光範囲は測距点2を含む中央領域にある。この場合に、被写体が撮影画面の中央に存在すれば被写体は受光範囲に位置し、被写体までの距離を求めることができる。
As shown in FIG. 9A, a plurality of distance measuring points 1 to 3 are set on the shooting screen, and here, the light receiving range in PSD (that is, the distance measurement possible range) is only near the center of the shooting screen. . That is, the light receiving range of PSD is in the central region including the
一方、図9(b)に示すように、被写体が撮影画面の中央から外れて存在する場合には、被写体は受光範囲から外れてしまう。この結果、被写体が撮影画面の中央から外れて存在すると、その距離を得たい被写体とは異なる対象(例えば、被写体の背後にある壁)との距離を求めることになってしまう。よって、バウンス撮影の際の最適バウンス角(光照射角度又は光照射方向)を求めることができない。 On the other hand, as shown in FIG. 9B, when the subject exists out of the center of the shooting screen, the subject falls out of the light receiving range. As a result, if the subject exists off the center of the shooting screen, the distance to the subject (for example, a wall behind the subject) that is different from the subject for which the distance is desired is obtained. Therefore, the optimum bounce angle (light irradiation angle or light irradiation direction) at the time of bounce shooting cannot be obtained.
そこで、本発明は、被写体の位置に拘わらず、バウンス撮影の際の光照射方向(バウンス角度)を精度よく求めることができる撮像装置、その制御方法、および制御プログラムを提供することにある。 Therefore, the present invention provides an imaging apparatus capable of accurately obtaining the light irradiation direction (bounce angle) at the time of bounce shooting regardless of the position of the subject, a control method thereof, and a control program.
上記の目的を達成するため、本発明による撮像装置は、被写体を照明する際の光の照射角度が可変な照明装置と、前記被写体を撮像して画像を得る撮像装置本体とを有する撮像装置であって、前記照明装置には、前記撮像装置から測距対象までの距離を測距する第1の測距手段が備えられ、前記撮像装置本体には、前記撮像装置から前記測距対象までの距離を測距する第2の測距手段と、前記測距対象を光の反射物として当該反射物および前記撮像装置の距離である第1の距離と、前記測距対象を前記被写体として該被写体および前記撮像装置の距離である第2の距離とに基づいて前記照明装置における光の照射角度を決定して撮像を行う際、撮影画面における前記被写体の位置と前記撮影画面において予め定められた位置とに応じて前記第1の測距手段および前記第2の測距手段のいずれを用いて前記第2の距離の測距を行うかを判定する判定手段と、が備えられていることを特徴とする。 In order to achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus having an illuminating device in which a light irradiation angle when illuminating a subject is variable, and an imaging device main body that captures the subject and obtains an image. The illumination device includes a first distance measuring unit that measures a distance from the imaging device to the distance measurement target, and the imaging device body includes the imaging device from the imaging device to the distance measurement target. A second distance measuring means for measuring a distance; a first distance which is a distance between the reflecting object and the imaging device; and the subject as the subject. When the imaging is performed by determining the light irradiation angle in the illumination device based on the second distance that is the distance of the imaging device, the position of the subject on the shooting screen and the position determined in advance on the shooting screen And according to the above Determination means for determining measuring a distance of the second distance by using any of the distance measuring means and the second distance measuring means, characterized in that is provided.
本発明によれば、撮影画面における被写体の位置に拘わらず、バウンス撮影の際の光照射角度を精度よく求めることができる。 According to the present invention, the light irradiation angle at the bounce shooting can be obtained with high accuracy regardless of the position of the subject on the shooting screen.
以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。 Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1は、本発明の実施の形態による撮像装置の一例を照明装置とともに示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram illustrating an example of an imaging device according to an embodiment of the present invention together with an illumination device.
図示の撮像装置は、所謂一眼レフデジタルカメラ(以下単にカメラと呼ぶ)であり、カメラ本体100にはレンズユニット200が着脱可能に取り付けられている。さらに、カメラ本体100には、光の照射角度が可変な照明装置(以下ストロボと呼ぶ)300が着脱可能に取り付けられている。
The illustrated imaging apparatus is a so-called single-lens reflex digital camera (hereinafter simply referred to as a camera), and a
カメラ本体100には、主ミラー101が備えられており、主ミラー101はカメラの動作状態に応じて回動制御される。例えば、被写体をファインダで観測する際には、主ミラー101は撮影光路(一点鎖線で示す)に斜めに挿入され、レンズユニット200を通過した光学像をファインダ光学系に導く。
The
一方、撮影の際には、主ミラー101は撮影光路から退避し、これによって、レンズユニット200を通過した光学像は撮像素子103に結像する。図示の例では、主ミラー101を撮影光路上に配置した際の位置101を実線で示し、主ミラー101を撮影光路から退避した際の位置101’を点線で示す。
On the other hand, at the time of shooting, the
シャッタ102は、主ミラー101の後段に位置し、レンズユニット200を通過した光学像を撮像素子103に入射する際の制御に用いられる。通常、シャッタ102は閉じた状態であり、撮影の際に開いた状態に制御される。
The
なお、シャッタ102は、カメラ制御部105によってシャッタ制御部115を介して制御される。
The
撮像素子103は、光学像に応じた画像信号を出力する。撮像素子103として、例えば、CMOSセンサ又はCCDセンサが用いられる。カメラ制御部105はタイミングジェネレータ(TG)116を駆動制御して、TG116の出力であるタイミング信号に基づいて撮像素子103を駆動して光学像を光電変換によってアナログ信号(画像信号)に変換する。
The
アナログ信号処理部104は、撮像素子103の出力であるアナログ信号をサンプルホールドした後、アナログゲインを付加してA/D変換によってデジタル信号に変換する。カメラ制御部105は、アナログ信号処理部104の出力であるデジタル信号について所定のデジタル信号処理を施してメモリ制御部120によって画像データとしてメモリ121に保存する。
The analog
具体的には、カメラ制御部105では、デジタルゲイン部106によってデジタル信号にデジタルゲインを付加する。画像処理部107は、デジタルゲイン部106の出力に対して所定のデジタル信号処理、例えば、画素補間処理および色変換処理を施して画像データを生成する。
Specifically, the
画像表示部119は、例えば、カメラ本体100の背面に配置されたLCDなどのモニタであり、画像表示部119には画像および撮影情報が表示される。
The
操作部122は、撮影者の指示を受け付けるための入力部である。操作部122には、例えば、AF(オートフォーカス)指示ボタン、撮影指示ボタン、オートバウンス指示ボタン、およびAE(自動露出)指示ボタンなどの各種操作ボタンが備えられている。そして、操作部122は撮影者による入力操作をカメラ制御部105に送る。
The
ピント板109は、レンズユニット200の一次結像面に配置されており、入射面にはフレネルレンズ(集光レンズ)が備えられている。そして、ピント板109は、射出面に光学像(ファインダ像)を結像する。ペンタプリズム110はファインダ光路を変更するものであり、ピント板109の射出面に結像した光学像を正立正像に補正する。
The
撮影者はファインダを覗く際、接眼レンズ111によって撮影者の目に合わせて視度を調節することができる。測光センサ112は、撮像領域を分割した各領域に対応するフォトダイオード(PD)を備えており、ピント板109の射出面に結像した光学像における領域毎の輝度を測光処理部113に出力する。
When the photographer looks into the viewfinder, the diopter can be adjusted by the
AFセンサ117は、例えば、像面位相差方式によって得られたデフォーカス量をカメラ制御部105に出力する。カメラ制御部105は当該デフォーカス量に基づいてレンズ駆動量を決定する。そして、カメラ制御部105は通信端子118を介してレンズ駆動量に応じてレンズユニット200を駆動制御する。
For example, the
なお、カメラ制御部105は、CPU、ROM、およびRAMなどを備えるマイクロコンピュータである。CPUはROMに保存されたプログラムを実行してカメラ全体の制御を行う。
The
レンズユニット200は、撮影レンズ201を有しており、撮影レンズ201は、例えば、合焦用レンズおよびズームレンズを備えるレンズ群である。そして、撮影レンズ201は光学像(被写体像)をカメラ本体100に入射する。レンズユニット200は絞り202を有しており、絞り202の開口径を調節することによって撮影の際の光量調節を行う。
The
レンズ制御部205は絞り駆動部204を制御して絞り202の開口径を制御する。フォーカス駆動部203は、レンズ制御部205の制御下で、撮影レンズ201の位置を光軸に沿って変位させて焦点を合わせる。
The lens control unit 205 controls the aperture driving unit 204 to control the aperture diameter of the
レンズ制御部205は、レンズユニット200全体の制御を司る。さらに、レンズ制御部205は、レンズ位置取得部207で得られた撮影レンズ201の位置に基づいて、撮影レンズ201のズーム位置(焦点距離情報)および合焦位置までの距離情報を得る。
The lens control unit 205 controls the
通信端子206はレンズユニット200がカメラ本体100と通信を行うための端子である。また、通信端子118はカメラ本体100がレンズユニット200と通信を行うための端子である。そして、レンズユニット200がカメラ本体100に装着されると、通信端子118および206が接続される。つまり、レンズユニット200は、通信端子206および118を介してカメラ制御部105と通信を行う。
The
前述のように、ストロボ300はカメラ本体100に着脱可能であり、本体部およびヘッド部を備えている。本体部にはフラッシュ制御部301が備えられており、フラッシュ制御部301は、例えば、発光制御およびヘッド部の角度制御を行う。
As described above, the
ヘッド部には発光部302が備えられており、発光部302は、フラッシュ制御部301の発光指示に従って発光する。測距用測光部303は発光部302の発光によって測距対象(被写体)から反射した光を受光してその受光量を計測する。そして、測距用測光部303は当該受光量をフラッシュ制御部301に出力する。そして、フラッシュ制御部301は受光量に基づいてカメラから測距対象までの距離を測距距離として求める。
The head unit is provided with a
ヘッド駆動制御部304は、フラッシュ制御部301の制御下でヘッド部を本体部に対して水平および垂直方向に駆動して光の照射角度を制御する。さらに、ヘッド駆動制御部304はヘッド部の駆動量を得て、当該駆動量に応じてヘッド部の本体部に対する相対位置をフラッシュ制御部301に出力する。
The head
なお、ヘッド部を駆動することによって、発光部302および測距用測光部303を測距対象の方向に正対させる。
By driving the head unit, the
姿勢検出部305は重力方向を基準としてレンズユニット200の光軸を中心とする回転方向に対する本体部の傾きを検出する。バウンス角度演算部306は、フラッシュ制御部301の制御下で、姿勢検出部305で検出された傾きを参照し、測距用測光部303において得られた受光量および測距距離に基づいて最適なバウンス角度を求める。
The
操作部307は、殺意者の操作を受け付ける入力部である。操作部307には、例えば、発光モード設定ボタン、オートバウンス指示ボタン、および各種操作ボタンが備えられている。操作部307は撮影者による入力操作をフラッシュ制御部301に出力する。
The
カメラ接続部308は、ストロボ300とカメラ本体100との接続部である。フラッシュ制御部301はカメラ接続部207およびストロボ接続部114を介してカメラ制御部105と通信する。
The
ここで、測光センサ112を用いた顔検出動作について説明する。なお、ここでは、測光センサ112では、例えば、縦640画素×横480画素(約30万画素)のデジタル信号が読み出されるものとする。
Here, a face detection operation using the
測光処理部113は測光センサ112の出力であるデジタル信号に対してガンマ変換および色変換処理などを行って、輝度信号および色信号を得る。測光処理部113は輝度信号に基づいて、目、鼻、および口のパターンに基づいて被写界に人物が含まれているか否かを判定する。さらに、測光処理部113は、被写体が人物である場合にはその顔領域に係る座標情報を求める顔検出を行う。
The
図2は、図1に示すカメラ本体100とストロボ300とを接続した際の接点の一例を示す図である。つまり、図2には、カメラ接続部307およびストロボ接続部114を接続する際の接点が示されている。
FIG. 2 is a diagram illustrating an example of contacts when the
カメラ接続部307には、接点Sout、Sin、およびSclkが備えられている。接点Soutはクロック同期通信によるストロボ300のデータ出力端子であり、接点Sinはクロック同期通信によるデータ入力端子である。また、接点Sclkはクロック同期信号の出力端子である。
The
ストロボ接続部114には、接点Cout、Cin、およびCclkが備えられている。接点Coutはクロック同期通信によるカメラ本体100のデータ出力端子であり、接点Cinがクロック同期通信によるデータ入力端子である。また、接点Cclkはクロック同期信号の出力端子である。
The
図3は、図2に示すストロボ接続部の接点における信号波形の一例を示す図である。 FIG. 3 is a diagram showing an example of signal waveforms at the contacts of the strobe connection unit shown in FIG.
接点Cclkの出力であるクロック同期信号の立ち上がりに同期して、カメラ本体100は接点Cinから入力されるデータを受信する。また、接点Cclkの出力であるクロック同期信号の立ち上がりに同期して、カメラ本体100は接点Coutからストロボ300にデータを送信する。
The
Cclk端子の出力であるクロック同期信号が所定の期間Loレベルとなる区間は、カメラ本体100が接点CclkのレベルLoレベルとして、カメラ本体100の処理を待つ(Busy)状態を示す。カメラ本体100は通信処理が終了すると、端子CclkのレベルをHiレベルとする。
The section in which the clock synchronization signal, which is the output of the Cclk terminal, is at the Lo level for a predetermined period indicates a state in which the
なお、図3においては、カメラ本体100はストロボ300から32HEXで示すデータを受信する状態が示されている。
FIG. 3 shows a state in which the
図4は、図1に示すカメラ本体100からストロボ300に送信される通信コマンドの一例を示す図である。
FIG. 4 is a diagram illustrating an example of a communication command transmitted from the camera
図示の例では、カメラ本体100から出力されるデータ量はコマンドに応じて予め設定されている。ここでは、カメラ本体100からコマンド10Hがストロボ300に送信されると、ストロボ300は「発光モード情報要求」と認識する。そして、ストロボ300はカメラ本体100に送る2バイト目の送信データにおいてストロボ300が発光可能なモードを送信する。
In the illustrated example, the amount of data output from the
カメラ本体100からコマンド22Hがストロボ300に送信されると、ストロボ300は「正面駆動命令」と認識する。そして、ストロボ300ではヘッド部を正面(被写体)方向に向ける制御が行われる。さらに、カメラ本体100から続いて送られる2バイト目の情報(“1”の場合は「測距動作する」、“0”の場合は「測距動作しない」)に応じて、ストロボ300では正面(被写体)測距動作を行う。
When the
なお、正面(被写体)測距においては、正面(被写体)の自然光における輝度値とストロボ300をプリ発光させた際の輝度値とを得る。そして、その差分輝度値を測距用測光部303によって求めて差分輝度値に基づいて正面測距が行われる。当該正面測距については特許文献2に記載されているので、ここでは説明を省略する。
In front (subject) distance measurement, the luminance value in natural light of the front (subject) and the luminance value when the
カメラ本体100からコマンド24Hがストロボ300に送信されると、ストロボ300は「天井駆動命令」と認識する。そして、ストロボ300ではヘッド部を建物の天井方向に向ける制御が行われる。さらに、カメラ本体100から続いて送られる2バイト目の情報(“1”の場合は「測距動作する」、“0”の場合は「測距動作しない」)に応じて、ストロボ300では天井測距動作を行う。
When the
なお、天井測距動作においても、天井の自然光における輝度値とストロボ300をプリ発光させた際の輝度値とを得る。そして、その差分輝度値を測距用測光部303によって求めて差分輝度値に基づいて天井測距が行われる。当該天井測距についても特許文献2に記載されているので、ここでは説明を省略する。
In the ceiling ranging operation, the brightness value in the natural light on the ceiling and the brightness value when the
カメラ本体100からコマンド26Hがストロボ300に送信されると、ストロボ300は「一括駆動命令」と認識する。一括駆動命令を受けると、ストロボ300ではヘッド部を被写体方向に向ける駆動および被写体測距を行う。続いて、ストロボ300ではヘッド部を天井方向に向ける駆動および天井測距を行う。そして、これら測距結果に基づいて、ストロボ300では最適バウンス角度を求めて当該バウンス角度にヘッド部を駆動する。
When the
コマンド12Hはストロボ300の発光モードを変更するための発光モード設定であり、このコマンドの2バイト目において、カメラ本体100では設定したい発光モードを設定してストロボ300に送信する。これによって、ストロボ300の発光モードが変更される。
The
なお、図4に示す通信コマンドには、その他のコマンドがあるが、ここでは説明を省略する。 Although there are other commands in the communication commands shown in FIG. 4, description thereof is omitted here.
図5は、図1に示すカメラ本体の動作を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、カメラ制御部105の制御下で行われる。
FIG. 5 is a flowchart for explaining the operation of the camera body shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the
カメラ本体100の動作が開始すると、カメラ制御部105は、測光センサ112による定常測光を終了する(ステップS105)。
When the operation of the
なお、定常測光とは測光センサ112による測光によって自然光による輝度値(定常輝度値)を得るための測光である。そして、カメラ制御部105は、当該定常輝度値に基づいて撮影の際のシャッタ速度および絞り値を更新する。
The steady metering is a metering for obtaining a luminance value (steady luminance value) by natural light by metering by the
続いて、カメラ制御部105は被写体が撮影画面の中央部に存在するか否かを判定する(ステップS101)。なお、前述のように、被写体の位置は顔検知によって得られた顔位置に応じて決定される。また、顔検知情報は測光センサ112の出力に基づいて求められる。
Subsequently, the
被写体が中央部に存在しないと(ステップS101において、NO)、カメラ制御部105はストロボ300に正面駆動命令(測距動作なし)のコマンドを送信する(ステップS102)。これによって、フラッシュ制御部301はヘッド部を駆動制御してヘッド部を正面(被写体)方向に向ける。
If the subject does not exist in the center (NO in step S101), the
カメラ制御部105はストロボ300に駆動状態取得要求のコマンドを送信して、ストロボ正面駆動終了待ちとなる(ステップS103)。駆動状態取得要求を受けると、フラッシュ制御部301はカメラ制御部105にヘッド部を駆動中であるかなどを示す駆動状態情報を送信する。カメラ制御部105は駆動状態取得要求を定期的にフラッシュ制御部301に送って、ヘッド部の駆動が完了したか否かを監視する。
The
正面駆動が完了した旨の駆動状態情報を受けると、カメラ制御部105はフラッシュ制御部301にプリ発光量設定のコマンドを送信する(ステップS104)。さらに、カメラ制御部105は当該コマンドに続いて実際に発光させる発光量を送る。
Upon receiving the driving state information indicating that the front driving is completed, the
続いて、カメラ制御部105はフラッシュ制御部301に発光許可命令のコマンドを送信する(ステップS105)。そして、カメラ制御部105は当該コマンドに続いて発光許可情報(“0”なら発光不許可、“1”なら発光許可)を“発光許可”として送信する。これによって、カメラ制御部105はストロボ300に発光許可を通知する。
Subsequently, the
次に、カメラ制御部105はフラッシュ制御部301に発光指示を行う(ステップS106)。ここでは、カメラ制御部105は、図2に示すCclk端子をLowレベルとしてフラッシュ制御部301に発光指示を行う。当該発光指示に同期して、カメラ制御部105は測光センサ112による測光を行って、ストロボ300をプリ発光させた際の輝度値(正面プリ発光輝度値)を得る。
Next, the
続いて、カメラ制御部105は、当該正面プリ発光輝度値と前述の定常輝度値とに基づいてカメラから被写体までの距離である被写体距離を求める(ステップS107)。そして、カメラ制御部105はフラッシュ制御部301に天井駆動命令のコマンドを送信する(ステップS108)。これによって、フラッシュ制御部301はヘッド部を駆動制御してヘッド部を天井方向に向ける。さらに、カメラ制御部105は当該コマンドに続いて“測距命令する”情報を設定して送信する(ステップS109)。
Subsequently, the
これによって、フラッシュ制御部301は天井駆動が完了するとプリ発光を行って、測距用測光部303によって当該プリ発光による輝度値を天井プリ発光輝度値として得る。フラッシュ制御部301は天井プリ発光輝度値と予め取得した定常輝度値とに基づいてカメラから天井(反射物)までの距離である天井距離を求める。
Thus, the
カメラ制御部105はフラッシュ制御部301に駆動状態取得要求のコマンドを送信して、天井駆動終了待ちとなる(ステップS109)。駆動状態取得要求を受けると、フラッシュ制御部301はカメラ制御部105にヘッド部を駆動中であるかなどを示す駆動状態情報を送信する。カメラ制御部105は駆動状態取得要求を定期的にフラッシュ制御部301に送って、ヘッド部の駆動が完了したか否かを監視する。
The
ヘッド部の駆動が完了すると、カメラ制御部103は前述の被写体距離をフラッシュ制御部301に送信する(ステップS110)。そして、カメラ制御部105はフラッシュ制御部301にバウンス角駆動命令のコマンドを送信する(ステップS111)。これによって、フラッシュ制御部301は、バウンス角度演算部306を用いて被写体距離および天井距離に基づいて最適バウンス角を求め、当該バウンス角にヘッド部を駆動する。
When the driving of the head unit is completed, the
なお、最適バウンス角を求める際の手法については、前述の特許文献1に記載されているので、ここでは説明を省略する。 In addition, since the method for obtaining the optimum bounce angle is described in the above-mentioned Patent Document 1, description thereof is omitted here.
カメラ制御部105はフラッシュ制御部301に駆動状態取得要求のコマンドを送信して、バウンス角駆動完了待ちとなる(ステップS112)。駆動状態取得要求を受けると、フラッシュ制御部301はカメラ制御部105にヘッド部を駆動中であるかなどを示す駆動状態情報を送信する。カメラ制御部105は駆動状態取得要求を定期的にフラッシュ制御部301に送って、ヘッド部の駆動が完了したか否かを監視する。
The
ヘッド部の駆動が完了した後、カメラ制御部105は測光センサ122による定常測光を開始する(ステップS113)。これによって、カメラ制御部105は、得られた定常輝度値に基づいて撮影の際のシャッタ速度および絞り値を更新する。そして、カメラ制御部105はカメラ本体の動作を終了する。
After the driving of the head unit is completed, the
被写体が中央部に存在すると(ステップS101において、YES)、カメラ制御部105はフラッシュ制御部301に一括駆動命令のコマンドを送信する。これによって、フラッシュ制御部301は測距用測光部303によって正面(被写体)測距および天井測距を行う。
If the subject exists in the center (YES in step S101), the
さらに、フラッシュ制御部301は正面(被写体)測距および天井測距で得た測距結果に基づいて最適バウンス角を求めて当該最適バウンス角にヘッド部を駆動する。なお、一括駆動命令による動作については後述する。
Further, the
一括駆動が完了すると、つまり、フラッシュ制御部301から一括駆動完了の旨を受けると、カメラ制御部105はステップS113の処理に進む。
When the collective driving is completed, that is, when the collective driving completion is received from the
図6は、図1に示すストロボの動作を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、フラッシュ制御部301の制御下で行われる。
FIG. 6 is a flowchart for explaining the operation of the strobe shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the
ストロボ300の動作を開始すると、フラッシュ制御部301はカメラ制御部105からコマンドを受信したか否かを判定する(ステップS201)。カメラ制御部105からコマンドを受信しないと(ステップS201において、NO)、フラッシュ制御部301は待機する。
When the operation of the
カメラ制御部105からコマンドを受信すると(ステップS201において、YES)、フラッシュ制御部301は当該コマンドが正面駆動命令であるか否かを判定する(ステップS202)。コマンドが正面駆動命令であると(ステップS202において、YES)、フラッシュ制御部301はベッド部を正面駆動する(ステップS203)。つまり、フラッシュ制御部301はヘッド部を駆動制御してヘッド部を正面(被写体)に向ける。
When a command is received from the camera control unit 105 (YES in step S201), the
続いて、フラッシュ制御部301は正面駆動命令に続いて測距駆動命令を受信したか否かを判定する(ステップS204)。測距命令を受信しないと(ステップS204において、NO)、フラッシュ制御部301はストロボ動作を終了する。
Subsequently, the
一方、測距命令を受信すると(ステップS204において、YES)、フラッシュ制御部301は測距を行う(ステップS205)。なお、前述のように、正面駆動の際には、フラッシュ制御部301はカメラ制御部105からプリ発光命令を受けてプリ発光を行う。
On the other hand, when a ranging command is received (YES in step S204), the
コマンドが正面駆動命令でないと(ステップS202において、NO)、フラッシュ制御部301はコマンドが天井駆動命令であるか否かを判定する(ステップS206)。コマンドが天井駆動命令であると(ステップS206において、YES)、フラッシュ制御部301はベッド部を天井駆動する(ステップS207)。つまり、フラッシュ制御部301はヘッド部を駆動制御してヘッド部を天井に向ける。その後、フラッシュ制御部301はステップS205の処理に進む。
If the command is not a front drive command (NO in step S202), the
天井駆動の際には、フラッシュ制御部301はプリ発光を行って、測距用測光部303によって正面プリ発光輝度値を得る。そして、フラッシュ制御部301は正面プリ発光輝度値と定常輝度値に基づいて天井距離を求める。そして、フラッシュ制御部301はストロボ動作を終了する。
When the ceiling is driven, the
コマンドが天井駆動命令でないと(ステップS206において、NO)、フラッシュ制御部301はコマンドが一括駆動命令であるか否かを判定する(ステップS208)。コマンドが一括駆動命令であると(ステップS208において、YES)、フラッシュ制御部301はまずヘッド部を正面駆動する(ステップS209)。そして、フラッシュ制御部301は正面測距を行う(ステップS210)。
If the command is not a ceiling drive command (NO in step S206), the
ここでは、フラッシュ制御部301はプリ発光を行って、測距用測光部303によって正面プリ発光輝度値を得る。その後、フラッシュ制御部301は正面プリ発光輝度値と定常輝度値とに基づいて被写体距離を求める。
Here, the
続いて、フラッシュ制御部301はヘッド部を天井駆動する(ステップS211)。そして、フラッシュ制御部301は天井測距を行う(ステップS212)。ここでは、フラッシュ制御部301はプリ発光を行って、測距用測光部303によって天井プリ発光輝度値を得る。その後、フラッシュ制御部301は天井プリ発光輝度値と定常輝度値とに基づいて天井距離を求める。
Subsequently, the
次に、フラッシュ制御部301はバウンス角度演算部306によって被写体距離および天井距離に基づいて最適バウンス角を求める。そして、フラッシュ制御部301はヘッド部を駆動してヘッド部の角度を当該最適バウンス角とする(ステップS213)。その後、フラッシュ制御部301はストロボ動作を終了する。
Next, the
コマンドが一括駆動命令でないと(ステップS208において、NO)、フラッシュ制御部301は、ステップS201で受信したコマンドがバウンス角駆動命令であるか否かを判定する(ステップS214)。コマンドがバウンス角駆動命令であると(ステップS214において、YES)、フラッシュ制御部301は、バウンス角度演算部306によって被写体距離および天井距離に基づいて最適バウンス角を求める。
If the command is not a batch drive command (NO in step S208), the
なお、ここでは、被写体距離として、正面駆動命令の際の測距によって得られた被写体距離又は前述のステップS110においてカメラ制御部105から送られた被写体距離が用いられる。また、天井距離として天井駆動命令の際の測距によって得られた天井距離が用いられる。そして、フラッシュ制御部301はヘッド部を駆動してヘッド部の角度を当該最適バウンス角とする(ステップS215)。その後、フラッシュ制御部301はストロボ動作を終了する。
Here, as the subject distance, the subject distance obtained by the distance measurement at the time of the front drive command or the subject distance sent from the
コマンドがバウンス角駆動命令でないと(ステップS214において、NO)、フラッシュ制御部301はステップS201において受信したコマンドの内容に応じた処理を行う(ステップS216)。そして、フラッシュ制御部301はストロボ動作を終了する。
If the command is not a bounce angle drive command (NO in step S214), the
図7は図1に示すストロボにおいて正面駆動命令を受けた際の測距を詳細に説明するためのフローチャートである。なお、図7においては、一括駆動命令を受信しない場合に正面駆動命令を受信した際の処理が示されている。 FIG. 7 is a flowchart for explaining in detail the distance measurement when the strobe shown in FIG. 1 receives a front drive command. FIG. 7 shows a process when a front drive command is received when a collective drive command is not received.
まず、フラッシュ制御部301はカメラ制御部105から一括駆動命令を受信したか否かを判定する(ステップS401)。一括駆動命令を受信すると(ステップS401において、YES)、フラッシュ制御部301は図6で説明した一括駆動を行う(ステップS417)。そして、フラッシュ制御部301はストロボ動作を終了する。
First, the
一括駆動命令を受信しないと(ステップS401において、NO)、フラッシュ制御部301は正面駆動命令を受信したか否かを判定する(ステップS402)。正面駆動命令を受信しないと(ステップS402において、NO)、フラッシュ制御部301はストロボ動作を終了する。
If the collective drive command is not received (NO in step S401), the
正面駆動命令を受信すると(ステップS402において、YES)、フラッシュ制御部301は前述したようにヘッド部を正面駆動する(ステップS403)。そして、フラッシュ制御部301はカメラ制御部105からのストロボ発光量の受信を待つ(ステップS404)。
When the front drive command is received (YES in step S402), the
ストロボ発光量を受信すると、フラッシュ制御部301は当該ストロボ発光量を設定する(ステップS405)。そして、フラッシュ制御部301はカメラ制御部105からの発光許可の受信を待つ(ステップS406)。
When receiving the flash emission amount, the
発光許可を受信すると、フラッシュ制御部301は当該発光許可に応じて発光許可設定を行う(ステップS407)。そして、フラッシュ制御部301はカメラ制御部105からのストロボ発光信号の受信を待つ(ステップS408)。
Upon receiving the light emission permission, the
ストロボ発光信号を受信すると、フラッシュ制御部301は発光信号に応じて、設定したストロボ発光量で発光(プリ発光)を行う(ステップS409)。そして、フラッシュ制御部301はカメラ制御部105からの天井駆動命令を待つ(ステップS410)。
When the flash light emission signal is received, the
なお、前述のように、天井駆動命令には、“測距動作する”又は“測距動作しない”の情報が含まれている。図示の例では、天井駆動命令には、“測距動作する”の情報が含まれているものとする。 As described above, the ceiling drive command includes information on “ranging operation” or “no ranging operation”. In the example shown in the figure, it is assumed that the ceiling drive command includes information on “ranging”.
天井駆動命令を受信すると、フラッシュ制御部301は天井駆動命令に応じてヘッド部を駆動して、ヘッド部を天井に向ける(ステップS411)。そして、フラッシュ制御部301は、前述のようにして、天井測距を行う(ステップS412)。その後、フラッシュ制御部301はカメラ制御部105からの被写体距離の受信を待つ(ステップS413)。
When the ceiling drive command is received, the
被写体距離を受信すると、フラッシュ制御部301は当該被写体距離を内蔵メモリに記憶する(ステップS414)。そして、フラッシュ制御部301はカメラ制御部105からのバウンス角駆動命令の受信を待つ(ステップS415)。
When the subject distance is received, the
バウンス角駆動命令を受信すると、フラッシュ制御部301はバウンス角度演算部306によって被写体距離および天井測距によって得られた天井距離に基づいて、最適バウンス角を求める。そして、フラッシュ制御部301は当該最適バウンス角に応じてヘッド部を駆動する。その後、フラッシュ制御部301はストロボ動作を終了する。
When the bounce angle drive command is received, the
上述のように、本発明の第1の実施形態では、被写体距離を測定する際、カメラ制御部105は被写体の顔の位置に応じて測光センサ112を用いて測定するか又は測距用測光部303を用いて測定するかを決定する。
As described above, in the first embodiment of the present invention, when measuring the subject distance, the
例えば、顔の位置から被写体が撮影画面の中央付近にいない場合には、カメラ本体100に備えられた測光センサ112を用いて被写体の測距を行う。測光センサ112は撮影画面全体に亘って測光可能であるので、被写体が撮影画面の中央付近にいない場合であっても精度よく被写体距離を求めることができる。
For example, when the subject is not near the center of the shooting screen from the position of the face, the subject is measured using the
顔の位置から被写体が中央付近にいる場合には、ストロボ300に備えられた測距用測光部303を用いて被写体の測距を行う。このため、ストロボ300とカメラ本体100との同期処理を少なくして高速に被写体の測距を行うことができる。
When the subject is near the center from the face position, the subject is measured using the distance measuring
[第2の実施形態]
次に、本発明の第2の実施形態によるカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は図1に示すカメラと同様である。また、ストロボ300の動作は図6および図7で説明した動作と同様である。
[Second Embodiment]
Next, an example of a camera according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIG. The operation of the
図8は、本発明の第2の実施形態によるカメラにおいてカメラ本体の動作についてその一例を説明するためのフローチャートである。なお、図示のフローチャートにおいて、図5に示すフローチャートのステップと同一のステップについては同一の参照符号を付して説明を省略する。 FIG. 8 is a flowchart for explaining an example of the operation of the camera body in the camera according to the second embodiment of the present invention. In the illustrated flowchart, the same steps as those in the flowchart shown in FIG. 5 are denoted by the same reference numerals, and the description thereof is omitted.
ステップS115の処理を行った後、カメラ制御部105は、カメラ本体100に設定されたAFの測距点が撮影画面の中央付近にあるか否かを判定する(ステップS301)。AFの測距点が撮影画面の中央付近である場合には(ステップS301において、YES)、カメラ制御部105はステップS114の処理に進んで、フラッシュ制御部301に一括駆動命令を送る。
After performing the process of step S115, the
一方、AFの測距点が撮影画面の中央付近にない場合には(ステップS301において、NO)、カメラ制御部105はステップS102の処理に進んで、フラッシュ制御部301に正面駆動命令を送る。
On the other hand, when the AF distance measuring point is not near the center of the shooting screen (NO in step S301), the
なお、AFの測距点は、例えば、ユーザによって予め選択されるか又はAF動作を行った際に決定した被写体の位置である。 The AF distance measuring point is, for example, the position of the subject that is selected in advance by the user or determined when the AF operation is performed.
このように、本発明の第2の実施形態では、被写体距離を測定する際、かめら本体100に設定されたAFの測距点に応じて測光センサ112を用いて測定するか又は測距用測光部303を用いて測定するかを決定する。
As described above, in the second embodiment of the present invention, when the subject distance is measured, the subject distance is measured using the
例えば、AFの測距点が撮影画面の中央付近にいない場合には、カメラ本体100に備えられた測光センサ112を用いて被写体の測距を行う。測光センサ112は撮影画面全体に亘って測光可能であるので、測距点が撮影画面の中央付近にいない場合であっても精度よく被写体距離を求めることができる。
For example, when the AF ranging point is not near the center of the shooting screen, the subject is measured using the
AFの測距点が撮影画面の中央付近にある場合には、ストロボ300に備えられた測距用測光部303を用いて被写体の測距を行う。このため、ストロボ300とカメラ本体100との同期処理を少なくして高速に被写体の測距を行うことができる。
When the AF ranging point is near the center of the shooting screen, the subject is measured using the ranging
なお、上述の実施の形態では、被写体距離をカメラ本体100で求めるようにしたが、カメラ本体100で得られた測光結果をストロボ300に送信して、ストロボ300において被写体距離を求めるようにしてもよい。
In the above-described embodiment, the subject distance is obtained by the
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also included in this invention. .
例えば、上記の実施の形態の機能を制御方法として、この制御方法をカメラ本体(撮像装置本体)およびストロボに実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムをカメラ本体およびストロボが備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the camera body (imaging apparatus body) and the strobe. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the camera body and the strobe. The control program is recorded on a computer-readable recording medium, for example.
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 カメラ本体(撮像装置本体)
105 カメラ制御部
200 レンズユニット
205 レンズ制御部
300 照明装置(ストロボ)
301 フラッシュ制御部
302 発光部
303 測距用測光部
304 ヘッド駆動制御部
306 バウンス角度演算部
100 Camera body (Imaging device body)
105
301
Claims (11)
前記照明装置には、前記撮像装置から測距対象までの距離を測距する第1の測距手段が備えられ、
前記撮像装置本体には、前記撮像装置から前記測距対象までの距離を測距する第2の測距手段と、
前記測距対象を光の反射物として当該反射物および前記撮像装置の距離である第1の距離と、前記測距対象を前記被写体として該被写体および前記撮像装置の距離である第2の距離とに基づいて前記照明装置における光の照射角度を決定して撮像を行う際、撮影画面における前記被写体の位置と前記撮影画面において予め定められた位置とに応じて前記第1の測距手段および前記第2の測距手段のいずれを用いて前記第2の距離の測距を行うかを判定する判定手段と、が備えられていることを特徴とする撮像装置。 An imaging device having an illumination device that can vary an irradiation angle of light when illuminating a subject, and an imaging device body that captures the subject and obtains an image,
The illumination device includes a first distance measuring unit that measures a distance from the imaging device to a distance measurement target,
The imaging apparatus main body includes a second distance measuring unit that measures a distance from the imaging apparatus to the distance measuring object;
A first distance that is a distance between the reflecting object and the imaging device when the distance measurement target is a light reflection object, and a second distance that is a distance between the subject and the imaging device when the distance measurement target is the subject. When the image is picked up by determining the light irradiation angle in the illumination device based on the first distance measuring means and the position determined in advance according to the position of the subject on the shooting screen and the position predetermined on the shooting screen An image pickup apparatus comprising: a determination unit that determines which of the second distance measurement units is used to measure the second distance.
前記照明装置は、前記撮像装置から測距対象までの距離を測距する第1の測距ステップを有し、
前記撮像装置本体は、前記撮像装置から前記測距対象までの距離を測距する第2の測距ステップと、
前記測距対象を光の反射物として当該反射物および前記撮像装置の距離である第1の距離と、前記測距対象を前記被写体として該被写体および前記撮像装置の距離である第2の距離とに基づいて前記照明装置における光の照射角度を決定して撮像を行う際、撮影画面における前記被写体の位置と前記撮影画面において予め定められた位置とに応じて前記第1の測距ステップおよび前記第2の測距ステップのいずれを用いて前記第2の距離の測距を行うかを判定する判定ステップと、を有することを特徴とする制御方法。 An imaging apparatus control method comprising: an illuminating device having a variable light irradiation angle when illuminating a subject; and an imaging device body that captures the subject and obtains an image.
The illumination device has a first distance measuring step for measuring a distance from the imaging device to a distance measuring object,
The imaging apparatus body includes a second ranging step for measuring a distance from the imaging apparatus to the ranging object;
A first distance that is a distance between the reflecting object and the imaging device when the distance measurement target is a light reflection object, and a second distance that is a distance between the subject and the imaging device when the distance measurement target is the subject. When performing imaging by determining the light irradiation angle in the illumination device based on the first distance measurement step and the first distance measurement step according to the position of the subject on the shooting screen and a predetermined position on the shooting screen And a determination step for determining which of the second distance measurement steps is used to measure the second distance.
前記照明装置に備えられたコンピュータに、前記撮像装置から測距対象までの距離を測距する第1の測距ステップを実行させ、
前記撮像装置本体に備えられたコンピュータに、前記撮像装置から前記測距対象までの距離を測距する第2の測距ステップと、
前記測距対象を光の反射物として当該反射物および前記撮像装置の距離である第1の距離と、前記測距対象を前記被写体として該被写体および前記撮像装置の距離である第2の距離とに基づいて前記照明装置における光の照射角度を決定して撮像を行う際、撮影画面における前記被写体の位置と前記撮影画面において予め定められた位置とに応じて前記第1の測距ステップおよび前記第2の測距ステップのいずれを用いて前記第2の距離の測距を行うかを判定する判定ステップと、実行させることを特徴とする制御プログラム。 A control program used in an imaging device having an illumination device that can vary an irradiation angle of light when illuminating a subject, and an imaging device body that captures the subject and obtains an image,
Causing a computer provided in the illumination device to execute a first distance measuring step for measuring a distance from the imaging device to a distance measuring object;
A second distance measuring step for measuring a distance from the image capturing apparatus to the distance measuring object on a computer provided in the image capturing apparatus main body;
A first distance that is a distance between the reflecting object and the imaging device when the distance measurement target is a light reflection object, and a second distance that is a distance between the subject and the imaging device when the distance measurement target is the subject. When performing imaging by determining the light irradiation angle in the illumination device based on the first distance measurement step and the first distance measurement step according to the position of the subject on the shooting screen and a predetermined position on the shooting screen A determination program for determining which of the second distance measurement steps is used to measure the second distance, and a control program to be executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017062925A JP6873779B2 (en) | 2017-03-28 | 2017-03-28 | Imaging device, its control method, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017062925A JP6873779B2 (en) | 2017-03-28 | 2017-03-28 | Imaging device, its control method, and control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018165769A true JP2018165769A (en) | 2018-10-25 |
JP6873779B2 JP6873779B2 (en) | 2021-05-19 |
Family
ID=63922644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017062925A Active JP6873779B2 (en) | 2017-03-28 | 2017-03-28 | Imaging device, its control method, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6873779B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04340527A (en) * | 1991-05-16 | 1992-11-26 | Minolta Camera Co Ltd | Camera capable of bounce flash photographing |
JP2013178354A (en) * | 2012-02-28 | 2013-09-09 | Panasonic Corp | Stroboscopic device and imaging apparatus including stroboscopic device |
JP2016057498A (en) * | 2014-09-10 | 2016-04-21 | キヤノン株式会社 | Imaging system, illuminating device, and control method |
JP2016061802A (en) * | 2014-09-12 | 2016-04-25 | キヤノン株式会社 | Imaging system, illumination device, and control method |
JP2016122210A (en) * | 2016-02-17 | 2016-07-07 | 株式会社ニコン | Focus detection device and imaging device |
JP2016212230A (en) * | 2015-05-07 | 2016-12-15 | キヤノン株式会社 | Illumination device, imaging device, imaging system, and control method of the same |
-
2017
- 2017-03-28 JP JP2017062925A patent/JP6873779B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04340527A (en) * | 1991-05-16 | 1992-11-26 | Minolta Camera Co Ltd | Camera capable of bounce flash photographing |
JP2013178354A (en) * | 2012-02-28 | 2013-09-09 | Panasonic Corp | Stroboscopic device and imaging apparatus including stroboscopic device |
JP2016057498A (en) * | 2014-09-10 | 2016-04-21 | キヤノン株式会社 | Imaging system, illuminating device, and control method |
JP2016061802A (en) * | 2014-09-12 | 2016-04-25 | キヤノン株式会社 | Imaging system, illumination device, and control method |
JP2016212230A (en) * | 2015-05-07 | 2016-12-15 | キヤノン株式会社 | Illumination device, imaging device, imaging system, and control method of the same |
JP2016122210A (en) * | 2016-02-17 | 2016-07-07 | 株式会社ニコン | Focus detection device and imaging device |
Also Published As
Publication number | Publication date |
---|---|
JP6873779B2 (en) | 2021-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5268438B2 (en) | Strobe device, imaging device, and control method thereof | |
JP5597078B2 (en) | Imaging apparatus and control method thereof | |
US9992425B2 (en) | Image pickup system that performs light emission control, light emission device, light emission control method, and storage medium | |
JP5494178B2 (en) | Lighting device and camera | |
JP2001272591A (en) | Electronic still camera | |
JP2014137482A (en) | Photographing device and photographing illumination device | |
JP2016038522A (en) | Illumination device, imaging device and camera system | |
JP2000275512A (en) | Camera | |
JP6873779B2 (en) | Imaging device, its control method, and control program | |
JP2019020508A (en) | Imaging apparatus, method for controlling the same, and control program | |
CN108712617B (en) | Image pickup apparatus that performs reflected flash shooting, control method thereof, and storage medium | |
JP2018006802A (en) | Imaging apparatus, control method therefor, and program | |
JP6532203B2 (en) | Imaging system, lighting device and control method | |
JP6584128B2 (en) | LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF | |
JP2019139031A (en) | Imaging apparatus and method for controlling the same | |
JP2019144478A (en) | Lighting device, imaging system, method for controlling lighting device, and program | |
JP2018081121A (en) | Imaging system and control method thereof | |
JP2013066051A (en) | Photographing device | |
JP2019148636A (en) | Illumination device, imaging apparatus, control method of illumination device, and program | |
JP2017215514A (en) | Luminaire, control method and control program thereof, and imaging device | |
JP2017138346A (en) | Imaging device | |
JP6611520B2 (en) | Imaging device, control method thereof, and control program | |
JP2021152575A (en) | Light emission control device and light emission control method | |
JP6890932B2 (en) | Imaging device and control method | |
JP6489925B2 (en) | LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210421 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6873779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |