JP2018165769A - Imaging device, method for controlling the same, and control program - Google Patents

Imaging device, method for controlling the same, and control program Download PDF

Info

Publication number
JP2018165769A
JP2018165769A JP2017062925A JP2017062925A JP2018165769A JP 2018165769 A JP2018165769 A JP 2018165769A JP 2017062925 A JP2017062925 A JP 2017062925A JP 2017062925 A JP2017062925 A JP 2017062925A JP 2018165769 A JP2018165769 A JP 2018165769A
Authority
JP
Japan
Prior art keywords
distance
subject
control unit
imaging device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017062925A
Other languages
Japanese (ja)
Other versions
JP6873779B2 (en
Inventor
拓良 森田
Hiroyoshi Morita
拓良 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017062925A priority Critical patent/JP6873779B2/en
Publication of JP2018165769A publication Critical patent/JP2018165769A/en
Application granted granted Critical
Publication of JP6873779B2 publication Critical patent/JP6873779B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately obtain a light irradiation angle during bounce photography irrespective of a position of a subject in a photographing screen.SOLUTION: A strobe light 300 has a first distance measuring part that measures a distance from a camera to a distance measurement object, and a camera body 100 has a second distance measuring hand part that measures the distance from the camera to the distance measurement object. When picking up an image while determining a light irradiation angle of the strobe light on the basis of a first distance that is the distance from the camera to the ceiling, the ceiling as the distance measurement object, and a second distance that is the distance from the camera to a subject, the subject as the distance measurement object, the camera body determines whether the first distance measuring part or the second distance measuring part is used to measure the second distance according to a position of the subject on a photographing screen and a predetermined position on the photographing screen.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、光を被写体に照射して撮像を行う際の光の照射方向の制御に関する。   The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly to control of an irradiation direction of light when imaging is performed by irradiating a subject with light.

一般に、照明装置から光を天井などの反射体に向けて照射し、反射体からの拡散反射光を被写体に照射して撮影を行う所謂バウンス発光撮影が知られている。当該バウンス発光撮影では、照明装置からの光を間接的に被写体に照射することができるので、柔らかい光で描写を行うことができる。   In general, so-called bounce flash photography is known, in which light is emitted from a lighting device toward a reflector such as a ceiling, and a subject is irradiated with diffusely reflected light from the reflector. In the bounce flash photography, light from the illumination device can be indirectly irradiated onto the subject, so that it is possible to draw with soft light.

このようなバウンス発光撮影において、撮像装置から被写体までの距離と反射体までの距離とに基づいて照明装置の照射角度(以下バウンス角と呼ぶ)を求めるようにしたものがある(特許文献1参照)。   In such bounce flash photography, there is an apparatus in which an illumination angle of an illumination device (hereinafter referred to as a bounce angle) is obtained based on a distance from an imaging device to a subject and a distance from a reflector (see Patent Document 1). ).

さらに、自然光における輝度値と照明装置をプリ発光させた際の輝度値との差分輝度値とに基づいて被写体までの距離を求めるようにした撮像装置がある(特許文献2参照)。   Furthermore, there is an imaging apparatus that obtains a distance to a subject based on a difference luminance value between a luminance value in natural light and a luminance value obtained when a lighting device is pre-lighted (see Patent Document 2).

特開平4−340527号公報JP-A-4-340527 特開平8−262528号公報JP-A-8-262528

ところが、特許文献1に記載の撮像装置においては、LEDによってスポット光を投光してその反射光をポジションセンサデバイス(PSD)で受光することによって被写体までの距離を得ている。このため、次のような問題点がある。   However, in the imaging apparatus described in Patent Document 1, spot light is projected by an LED, and the reflected light is received by a position sensor device (PSD) to obtain a distance to a subject. For this reason, there are the following problems.

図9は、従来の撮像装置における被写体距離の算出を説明するための図である。そして、図9(a)は被写体が撮影画面の中央に位置する状態を示す図であり、図9(b)は被写体が撮影画面の中央から外れて位置する状態を示す図である。   FIG. 9 is a diagram for explaining the calculation of the subject distance in the conventional imaging apparatus. FIG. 9A is a diagram illustrating a state where the subject is positioned at the center of the shooting screen, and FIG. 9B is a diagram illustrating a state where the subject is positioned away from the center of the shooting screen.

図9(a)に示すように、撮影画面には複数の測距点1〜3が設定され、ここでは、PSDにおける受光範囲(つまり、測距可能範囲)が撮影画面の中央付近のみである。つまり、PSDの受光範囲は測距点2を含む中央領域にある。この場合に、被写体が撮影画面の中央に存在すれば被写体は受光範囲に位置し、被写体までの距離を求めることができる。   As shown in FIG. 9A, a plurality of distance measuring points 1 to 3 are set on the shooting screen, and here, the light receiving range in PSD (that is, the distance measurement possible range) is only near the center of the shooting screen. . That is, the light receiving range of PSD is in the central region including the distance measuring point 2. In this case, if the subject exists in the center of the shooting screen, the subject is located in the light receiving range, and the distance to the subject can be obtained.

一方、図9(b)に示すように、被写体が撮影画面の中央から外れて存在する場合には、被写体は受光範囲から外れてしまう。この結果、被写体が撮影画面の中央から外れて存在すると、その距離を得たい被写体とは異なる対象(例えば、被写体の背後にある壁)との距離を求めることになってしまう。よって、バウンス撮影の際の最適バウンス角(光照射角度又は光照射方向)を求めることができない。   On the other hand, as shown in FIG. 9B, when the subject exists out of the center of the shooting screen, the subject falls out of the light receiving range. As a result, if the subject exists off the center of the shooting screen, the distance to the subject (for example, a wall behind the subject) that is different from the subject for which the distance is desired is obtained. Therefore, the optimum bounce angle (light irradiation angle or light irradiation direction) at the time of bounce shooting cannot be obtained.

そこで、本発明は、被写体の位置に拘わらず、バウンス撮影の際の光照射方向(バウンス角度)を精度よく求めることができる撮像装置、その制御方法、および制御プログラムを提供することにある。   Therefore, the present invention provides an imaging apparatus capable of accurately obtaining the light irradiation direction (bounce angle) at the time of bounce shooting regardless of the position of the subject, a control method thereof, and a control program.

上記の目的を達成するため、本発明による撮像装置は、被写体を照明する際の光の照射角度が可変な照明装置と、前記被写体を撮像して画像を得る撮像装置本体とを有する撮像装置であって、前記照明装置には、前記撮像装置から測距対象までの距離を測距する第1の測距手段が備えられ、前記撮像装置本体には、前記撮像装置から前記測距対象までの距離を測距する第2の測距手段と、前記測距対象を光の反射物として当該反射物および前記撮像装置の距離である第1の距離と、前記測距対象を前記被写体として該被写体および前記撮像装置の距離である第2の距離とに基づいて前記照明装置における光の照射角度を決定して撮像を行う際、撮影画面における前記被写体の位置と前記撮影画面において予め定められた位置とに応じて前記第1の測距手段および前記第2の測距手段のいずれを用いて前記第2の距離の測距を行うかを判定する判定手段と、が備えられていることを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus having an illuminating device in which a light irradiation angle when illuminating a subject is variable, and an imaging device main body that captures the subject and obtains an image. The illumination device includes a first distance measuring unit that measures a distance from the imaging device to the distance measurement target, and the imaging device body includes the imaging device from the imaging device to the distance measurement target. A second distance measuring means for measuring a distance; a first distance which is a distance between the reflecting object and the imaging device; and the subject as the subject. When the imaging is performed by determining the light irradiation angle in the illumination device based on the second distance that is the distance of the imaging device, the position of the subject on the shooting screen and the position determined in advance on the shooting screen And according to the above Determination means for determining measuring a distance of the second distance by using any of the distance measuring means and the second distance measuring means, characterized in that is provided.

本発明によれば、撮影画面における被写体の位置に拘わらず、バウンス撮影の際の光照射角度を精度よく求めることができる。   According to the present invention, the light irradiation angle at the bounce shooting can be obtained with high accuracy regardless of the position of the subject on the shooting screen.

本発明の実施の形態による撮像装置の一例を照明装置とともに示すブロック図である。It is a block diagram which shows an example of the imaging device by embodiment of this invention with an illuminating device. 図1に示すカメラ本体とストロボとを接続した際の接点の一例を示す図である。It is a figure which shows an example of the contact at the time of connecting the camera main body and strobe shown in FIG. 図2に示すストロボ接続部の接点における信号波形の一例を示す図である。It is a figure which shows an example of the signal waveform in the contact of the strobe connection part shown in FIG. 図1に示すカメラ本体からストロボに送信される通信コマンドの一例を示す図である。It is a figure which shows an example of the communication command transmitted to a strobe from the camera main body shown in FIG. 図1に示すカメラ本体の動作を説明するためのフローチャートである。3 is a flowchart for explaining the operation of the camera body shown in FIG. 1. 図1に示すストロボの動作を説明するためのフローチャートである。2 is a flowchart for explaining the operation of the strobe shown in FIG. 1. 図1に示すストロボにおいて正面駆動命令を受けた際の測距を詳細に説明するためのフローチャートである。2 is a flowchart for explaining in detail distance measurement when a front drive command is received in the strobe shown in FIG. 1. 本発明の第2の実施形態によるカメラにおいてカメラ本体の動作についてその一例を説明するためのフローチャートである。It is a flowchart for demonstrating the example about operation | movement of a camera main body in the camera by the 2nd Embodiment of this invention. 従来の撮像装置における被写体距離の算出を説明するための図である。It is a figure for demonstrating calculation of the object distance in the conventional imaging device.

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の実施の形態による撮像装置の一例を照明装置とともに示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram illustrating an example of an imaging device according to an embodiment of the present invention together with an illumination device.

図示の撮像装置は、所謂一眼レフデジタルカメラ(以下単にカメラと呼ぶ)であり、カメラ本体100にはレンズユニット200が着脱可能に取り付けられている。さらに、カメラ本体100には、光の照射角度が可変な照明装置(以下ストロボと呼ぶ)300が着脱可能に取り付けられている。   The illustrated imaging apparatus is a so-called single-lens reflex digital camera (hereinafter simply referred to as a camera), and a lens unit 200 is detachably attached to the camera body 100. Furthermore, an illumination device (hereinafter referred to as a strobe) 300 having a variable light irradiation angle is detachably attached to the camera body 100.

カメラ本体100には、主ミラー101が備えられており、主ミラー101はカメラの動作状態に応じて回動制御される。例えば、被写体をファインダで観測する際には、主ミラー101は撮影光路(一点鎖線で示す)に斜めに挿入され、レンズユニット200を通過した光学像をファインダ光学系に導く。   The camera body 100 is provided with a main mirror 101, and the main mirror 101 is controlled to rotate according to the operating state of the camera. For example, when observing a subject with a finder, the main mirror 101 is inserted obliquely into a photographing optical path (indicated by a one-dot chain line) and guides an optical image that has passed through the lens unit 200 to a finder optical system.

一方、撮影の際には、主ミラー101は撮影光路から退避し、これによって、レンズユニット200を通過した光学像は撮像素子103に結像する。図示の例では、主ミラー101を撮影光路上に配置した際の位置101を実線で示し、主ミラー101を撮影光路から退避した際の位置101’を点線で示す。   On the other hand, at the time of shooting, the main mirror 101 is retracted from the shooting optical path, whereby an optical image that has passed through the lens unit 200 is formed on the image sensor 103. In the illustrated example, the position 101 when the main mirror 101 is arranged on the photographing optical path is indicated by a solid line, and the position 101 'when the main mirror 101 is retracted from the photographing optical path is indicated by a dotted line.

シャッタ102は、主ミラー101の後段に位置し、レンズユニット200を通過した光学像を撮像素子103に入射する際の制御に用いられる。通常、シャッタ102は閉じた状態であり、撮影の際に開いた状態に制御される。   The shutter 102 is positioned after the main mirror 101 and is used for control when an optical image that has passed through the lens unit 200 is incident on the image sensor 103. Normally, the shutter 102 is in a closed state, and is controlled to be in an open state at the time of shooting.

なお、シャッタ102は、カメラ制御部105によってシャッタ制御部115を介して制御される。   The shutter 102 is controlled by the camera control unit 105 via the shutter control unit 115.

撮像素子103は、光学像に応じた画像信号を出力する。撮像素子103として、例えば、CMOSセンサ又はCCDセンサが用いられる。カメラ制御部105はタイミングジェネレータ(TG)116を駆動制御して、TG116の出力であるタイミング信号に基づいて撮像素子103を駆動して光学像を光電変換によってアナログ信号(画像信号)に変換する。   The image sensor 103 outputs an image signal corresponding to the optical image. As the image sensor 103, for example, a CMOS sensor or a CCD sensor is used. The camera control unit 105 drives and controls a timing generator (TG) 116, drives the image sensor 103 based on a timing signal that is an output of the TG 116, and converts an optical image into an analog signal (image signal) by photoelectric conversion.

アナログ信号処理部104は、撮像素子103の出力であるアナログ信号をサンプルホールドした後、アナログゲインを付加してA/D変換によってデジタル信号に変換する。カメラ制御部105は、アナログ信号処理部104の出力であるデジタル信号について所定のデジタル信号処理を施してメモリ制御部120によって画像データとしてメモリ121に保存する。   The analog signal processing unit 104 samples and holds an analog signal output from the image sensor 103, adds an analog gain, and converts the analog signal into a digital signal by A / D conversion. The camera control unit 105 performs predetermined digital signal processing on the digital signal output from the analog signal processing unit 104 and stores the digital signal in the memory 121 as image data by the memory control unit 120.

具体的には、カメラ制御部105では、デジタルゲイン部106によってデジタル信号にデジタルゲインを付加する。画像処理部107は、デジタルゲイン部106の出力に対して所定のデジタル信号処理、例えば、画素補間処理および色変換処理を施して画像データを生成する。   Specifically, the camera control unit 105 adds a digital gain to the digital signal by the digital gain unit 106. The image processing unit 107 performs predetermined digital signal processing such as pixel interpolation processing and color conversion processing on the output of the digital gain unit 106 to generate image data.

画像表示部119は、例えば、カメラ本体100の背面に配置されたLCDなどのモニタであり、画像表示部119には画像および撮影情報が表示される。   The image display unit 119 is, for example, a monitor such as an LCD disposed on the back surface of the camera body 100, and the image display unit 119 displays images and shooting information.

操作部122は、撮影者の指示を受け付けるための入力部である。操作部122には、例えば、AF(オートフォーカス)指示ボタン、撮影指示ボタン、オートバウンス指示ボタン、およびAE(自動露出)指示ボタンなどの各種操作ボタンが備えられている。そして、操作部122は撮影者による入力操作をカメラ制御部105に送る。   The operation unit 122 is an input unit for receiving a photographer's instruction. The operation unit 122 includes various operation buttons such as an AF (autofocus) instruction button, a shooting instruction button, an auto bounce instruction button, and an AE (automatic exposure) instruction button. Then, the operation unit 122 sends an input operation by the photographer to the camera control unit 105.

ピント板109は、レンズユニット200の一次結像面に配置されており、入射面にはフレネルレンズ(集光レンズ)が備えられている。そして、ピント板109は、射出面に光学像(ファインダ像)を結像する。ペンタプリズム110はファインダ光路を変更するものであり、ピント板109の射出面に結像した光学像を正立正像に補正する。   The focus plate 109 is disposed on the primary imaging surface of the lens unit 200, and a Fresnel lens (condenser lens) is provided on the incident surface. The focus plate 109 forms an optical image (finder image) on the exit surface. The pentaprism 110 changes the finder optical path, and corrects the optical image formed on the exit surface of the focusing plate 109 to an erect image.

撮影者はファインダを覗く際、接眼レンズ111によって撮影者の目に合わせて視度を調節することができる。測光センサ112は、撮像領域を分割した各領域に対応するフォトダイオード(PD)を備えており、ピント板109の射出面に結像した光学像における領域毎の輝度を測光処理部113に出力する。   When the photographer looks into the viewfinder, the diopter can be adjusted by the eyepiece 111 according to the eyes of the photographer. The photometric sensor 112 includes a photodiode (PD) corresponding to each region obtained by dividing the imaging region, and outputs the luminance for each region in the optical image formed on the exit surface of the focus plate 109 to the photometric processing unit 113. .

AFセンサ117は、例えば、像面位相差方式によって得られたデフォーカス量をカメラ制御部105に出力する。カメラ制御部105は当該デフォーカス量に基づいてレンズ駆動量を決定する。そして、カメラ制御部105は通信端子118を介してレンズ駆動量に応じてレンズユニット200を駆動制御する。   For example, the AF sensor 117 outputs the defocus amount obtained by the image plane phase difference method to the camera control unit 105. The camera control unit 105 determines the lens driving amount based on the defocus amount. The camera control unit 105 drives and controls the lens unit 200 according to the lens driving amount via the communication terminal 118.

なお、カメラ制御部105は、CPU、ROM、およびRAMなどを備えるマイクロコンピュータである。CPUはROMに保存されたプログラムを実行してカメラ全体の制御を行う。   The camera control unit 105 is a microcomputer that includes a CPU, a ROM, a RAM, and the like. The CPU executes a program stored in the ROM to control the entire camera.

レンズユニット200は、撮影レンズ201を有しており、撮影レンズ201は、例えば、合焦用レンズおよびズームレンズを備えるレンズ群である。そして、撮影レンズ201は光学像(被写体像)をカメラ本体100に入射する。レンズユニット200は絞り202を有しており、絞り202の開口径を調節することによって撮影の際の光量調節を行う。   The lens unit 200 includes a photographing lens 201. The photographing lens 201 is a lens group including, for example, a focusing lens and a zoom lens. The taking lens 201 makes an optical image (subject image) incident on the camera body 100. The lens unit 200 has a diaphragm 202 and adjusts the amount of light during photographing by adjusting the aperture diameter of the diaphragm 202.

レンズ制御部205は絞り駆動部204を制御して絞り202の開口径を制御する。フォーカス駆動部203は、レンズ制御部205の制御下で、撮影レンズ201の位置を光軸に沿って変位させて焦点を合わせる。   The lens control unit 205 controls the aperture driving unit 204 to control the aperture diameter of the aperture 202. The focus driving unit 203 adjusts the focus by displacing the position of the photographing lens 201 along the optical axis under the control of the lens control unit 205.

レンズ制御部205は、レンズユニット200全体の制御を司る。さらに、レンズ制御部205は、レンズ位置取得部207で得られた撮影レンズ201の位置に基づいて、撮影レンズ201のズーム位置(焦点距離情報)および合焦位置までの距離情報を得る。   The lens control unit 205 controls the entire lens unit 200. Further, the lens control unit 205 obtains the zoom position (focal length information) and distance information to the in-focus position of the photographing lens 201 based on the position of the photographing lens 201 obtained by the lens position acquisition unit 207.

通信端子206はレンズユニット200がカメラ本体100と通信を行うための端子である。また、通信端子118はカメラ本体100がレンズユニット200と通信を行うための端子である。そして、レンズユニット200がカメラ本体100に装着されると、通信端子118および206が接続される。つまり、レンズユニット200は、通信端子206および118を介してカメラ制御部105と通信を行う。   The communication terminal 206 is a terminal for the lens unit 200 to communicate with the camera body 100. The communication terminal 118 is a terminal for the camera body 100 to communicate with the lens unit 200. When the lens unit 200 is attached to the camera body 100, the communication terminals 118 and 206 are connected. That is, the lens unit 200 communicates with the camera control unit 105 via the communication terminals 206 and 118.

前述のように、ストロボ300はカメラ本体100に着脱可能であり、本体部およびヘッド部を備えている。本体部にはフラッシュ制御部301が備えられており、フラッシュ制御部301は、例えば、発光制御およびヘッド部の角度制御を行う。   As described above, the strobe 300 can be attached to and detached from the camera main body 100 and includes a main body portion and a head portion. The main body unit includes a flash control unit 301. The flash control unit 301 performs, for example, light emission control and head unit angle control.

ヘッド部には発光部302が備えられており、発光部302は、フラッシュ制御部301の発光指示に従って発光する。測距用測光部303は発光部302の発光によって測距対象(被写体)から反射した光を受光してその受光量を計測する。そして、測距用測光部303は当該受光量をフラッシュ制御部301に出力する。そして、フラッシュ制御部301は受光量に基づいてカメラから測距対象までの距離を測距距離として求める。   The head unit is provided with a light emitting unit 302, and the light emitting unit 302 emits light according to a light emission instruction from the flash control unit 301. The photometry unit 303 for distance measurement receives light reflected from the distance measurement object (subject) by the light emission of the light emitting unit 302 and measures the amount of received light. Then, the photometry unit 303 for distance measurement outputs the received light amount to the flash control unit 301. Then, the flash control unit 301 obtains the distance from the camera to the distance measurement object as the distance measurement distance based on the amount of received light.

ヘッド駆動制御部304は、フラッシュ制御部301の制御下でヘッド部を本体部に対して水平および垂直方向に駆動して光の照射角度を制御する。さらに、ヘッド駆動制御部304はヘッド部の駆動量を得て、当該駆動量に応じてヘッド部の本体部に対する相対位置をフラッシュ制御部301に出力する。   The head drive control unit 304 controls the light irradiation angle by driving the head unit in the horizontal and vertical directions with respect to the main body unit under the control of the flash control unit 301. Further, the head drive control unit 304 obtains the drive amount of the head unit, and outputs the relative position of the head unit to the main body unit to the flash control unit 301 according to the drive amount.

なお、ヘッド部を駆動することによって、発光部302および測距用測光部303を測距対象の方向に正対させる。   By driving the head unit, the light emitting unit 302 and the distance measuring photometric unit 303 face each other in the direction of the distance measuring target.

姿勢検出部305は重力方向を基準としてレンズユニット200の光軸を中心とする回転方向に対する本体部の傾きを検出する。バウンス角度演算部306は、フラッシュ制御部301の制御下で、姿勢検出部305で検出された傾きを参照し、測距用測光部303において得られた受光量および測距距離に基づいて最適なバウンス角度を求める。   The posture detection unit 305 detects the inclination of the main body unit with respect to the rotation direction around the optical axis of the lens unit 200 with reference to the direction of gravity. The bounce angle calculation unit 306 refers to the inclination detected by the posture detection unit 305 under the control of the flash control unit 301, and is optimal based on the received light amount and the distance measurement distance obtained by the distance measurement photometry unit 303. Find the bounce angle.

操作部307は、殺意者の操作を受け付ける入力部である。操作部307には、例えば、発光モード設定ボタン、オートバウンス指示ボタン、および各種操作ボタンが備えられている。操作部307は撮影者による入力操作をフラッシュ制御部301に出力する。   The operation unit 307 is an input unit that receives a murderer's operation. The operation unit 307 includes, for example, a light emission mode setting button, an auto bounce instruction button, and various operation buttons. The operation unit 307 outputs an input operation by the photographer to the flash control unit 301.

カメラ接続部308は、ストロボ300とカメラ本体100との接続部である。フラッシュ制御部301はカメラ接続部207およびストロボ接続部114を介してカメラ制御部105と通信する。   The camera connection unit 308 is a connection unit between the strobe 300 and the camera body 100. The flash control unit 301 communicates with the camera control unit 105 via the camera connection unit 207 and the strobe connection unit 114.

ここで、測光センサ112を用いた顔検出動作について説明する。なお、ここでは、測光センサ112では、例えば、縦640画素×横480画素(約30万画素)のデジタル信号が読み出されるものとする。   Here, a face detection operation using the photometric sensor 112 will be described. Here, it is assumed that the photometric sensor 112 reads, for example, a digital signal of 640 vertical pixels × 480 horizontal pixels (approximately 300,000 pixels).

測光処理部113は測光センサ112の出力であるデジタル信号に対してガンマ変換および色変換処理などを行って、輝度信号および色信号を得る。測光処理部113は輝度信号に基づいて、目、鼻、および口のパターンに基づいて被写界に人物が含まれているか否かを判定する。さらに、測光処理部113は、被写体が人物である場合にはその顔領域に係る座標情報を求める顔検出を行う。   The photometric processing unit 113 performs gamma conversion and color conversion processing on the digital signal output from the photometric sensor 112 to obtain a luminance signal and a color signal. Based on the luminance signal, the photometric processing unit 113 determines whether or not a person is included in the scene based on the eye, nose, and mouth patterns. Further, when the subject is a person, the photometry processing unit 113 performs face detection for obtaining coordinate information related to the face area.

図2は、図1に示すカメラ本体100とストロボ300とを接続した際の接点の一例を示す図である。つまり、図2には、カメラ接続部307およびストロボ接続部114を接続する際の接点が示されている。   FIG. 2 is a diagram illustrating an example of contacts when the camera body 100 and the strobe 300 shown in FIG. 1 are connected. That is, FIG. 2 shows a contact point when connecting the camera connection unit 307 and the strobe connection unit 114.

カメラ接続部307には、接点Sout、Sin、およびSclkが備えられている。接点Soutはクロック同期通信によるストロボ300のデータ出力端子であり、接点Sinはクロック同期通信によるデータ入力端子である。また、接点Sclkはクロック同期信号の出力端子である。   The camera connection unit 307 is provided with contacts Sout, Sin, and Sclk. The contact Sout is a data output terminal of the strobe 300 using clock synchronous communication, and the contact Sin is a data input terminal using clock synchronous communication. The contact Sclk is an output terminal for a clock synchronization signal.

ストロボ接続部114には、接点Cout、Cin、およびCclkが備えられている。接点Coutはクロック同期通信によるカメラ本体100のデータ出力端子であり、接点Cinがクロック同期通信によるデータ入力端子である。また、接点Cclkはクロック同期信号の出力端子である。   The strobe connection unit 114 includes contacts Cout, Cin, and Cclk. The contact Cout is a data output terminal of the camera body 100 by clock synchronous communication, and the contact Cin is a data input terminal by clock synchronous communication. The contact Cclk is an output terminal for a clock synchronization signal.

図3は、図2に示すストロボ接続部の接点における信号波形の一例を示す図である。   FIG. 3 is a diagram showing an example of signal waveforms at the contacts of the strobe connection unit shown in FIG.

接点Cclkの出力であるクロック同期信号の立ち上がりに同期して、カメラ本体100は接点Cinから入力されるデータを受信する。また、接点Cclkの出力であるクロック同期信号の立ち上がりに同期して、カメラ本体100は接点Coutからストロボ300にデータを送信する。   The camera body 100 receives data input from the contact Cin in synchronization with the rise of the clock synchronization signal that is the output of the contact Cclk. The camera body 100 transmits data from the contact Cout to the strobe 300 in synchronization with the rising edge of the clock synchronization signal that is the output of the contact Cclk.

Cclk端子の出力であるクロック同期信号が所定の期間Loレベルとなる区間は、カメラ本体100が接点CclkのレベルLoレベルとして、カメラ本体100の処理を待つ(Busy)状態を示す。カメラ本体100は通信処理が終了すると、端子CclkのレベルをHiレベルとする。   The section in which the clock synchronization signal, which is the output of the Cclk terminal, is at the Lo level for a predetermined period indicates a state in which the camera body 100 sets the level Lo level of the contact Cclk to wait for processing of the camera body 100 (Busy). When the communication process ends, the camera body 100 sets the level of the terminal Cclk to the Hi level.

なお、図3においては、カメラ本体100はストロボ300から32HEXで示すデータを受信する状態が示されている。   FIG. 3 shows a state in which the camera body 100 receives data indicated by 32HEX from the strobe 300.

図4は、図1に示すカメラ本体100からストロボ300に送信される通信コマンドの一例を示す図である。   FIG. 4 is a diagram illustrating an example of a communication command transmitted from the camera main body 100 illustrated in FIG. 1 to the strobe 300.

図示の例では、カメラ本体100から出力されるデータ量はコマンドに応じて予め設定されている。ここでは、カメラ本体100からコマンド10Hがストロボ300に送信されると、ストロボ300は「発光モード情報要求」と認識する。そして、ストロボ300はカメラ本体100に送る2バイト目の送信データにおいてストロボ300が発光可能なモードを送信する。   In the illustrated example, the amount of data output from the camera body 100 is preset according to the command. Here, when the command 10H is transmitted from the camera body 100 to the strobe 300, the strobe 300 recognizes a “flash mode information request”. Then, the strobe 300 transmits a mode in which the strobe 300 can emit light in the second byte of transmission data sent to the camera body 100.

カメラ本体100からコマンド22Hがストロボ300に送信されると、ストロボ300は「正面駆動命令」と認識する。そして、ストロボ300ではヘッド部を正面(被写体)方向に向ける制御が行われる。さらに、カメラ本体100から続いて送られる2バイト目の情報(“1”の場合は「測距動作する」、“0”の場合は「測距動作しない」)に応じて、ストロボ300では正面(被写体)測距動作を行う。   When the command 22H is transmitted from the camera body 100 to the strobe 300, the strobe 300 recognizes a “front drive command”. The strobe 300 controls the head portion to face the front (subject). Further, the strobe 300 is operated in front according to the second byte information sent from the camera body 100 (“1” means “ranging operation”, “0” means “no ranging operation”). (Subject) Performs a distance measurement operation.

なお、正面(被写体)測距においては、正面(被写体)の自然光における輝度値とストロボ300をプリ発光させた際の輝度値とを得る。そして、その差分輝度値を測距用測光部303によって求めて差分輝度値に基づいて正面測距が行われる。当該正面測距については特許文献2に記載されているので、ここでは説明を省略する。   In front (subject) distance measurement, the luminance value in natural light of the front (subject) and the luminance value when the strobe 300 is pre-flashed are obtained. Then, the difference luminance value is obtained by the ranging photometry unit 303, and the front distance measurement is performed based on the difference luminance value. Since the front distance measurement is described in Patent Document 2, description thereof is omitted here.

カメラ本体100からコマンド24Hがストロボ300に送信されると、ストロボ300は「天井駆動命令」と認識する。そして、ストロボ300ではヘッド部を建物の天井方向に向ける制御が行われる。さらに、カメラ本体100から続いて送られる2バイト目の情報(“1”の場合は「測距動作する」、“0”の場合は「測距動作しない」)に応じて、ストロボ300では天井測距動作を行う。   When the command 24H is transmitted from the camera body 100 to the strobe 300, the strobe 300 recognizes a “ceiling drive command”. The strobe 300 controls the head portion toward the ceiling of the building. Further, the strobe 300 responds to the second byte information sent from the camera body 100 (“1” means “ranging operation”, “0” means “no ranging operation”). Performs ranging operation.

なお、天井測距動作においても、天井の自然光における輝度値とストロボ300をプリ発光させた際の輝度値とを得る。そして、その差分輝度値を測距用測光部303によって求めて差分輝度値に基づいて天井測距が行われる。当該天井測距についても特許文献2に記載されているので、ここでは説明を省略する。   In the ceiling ranging operation, the brightness value in the natural light on the ceiling and the brightness value when the strobe 300 is pre-flashed are obtained. Then, the differential luminance value is obtained by the ranging photometry unit 303, and ceiling ranging is performed based on the differential luminance value. Since the ceiling distance measurement is also described in Patent Document 2, description thereof is omitted here.

カメラ本体100からコマンド26Hがストロボ300に送信されると、ストロボ300は「一括駆動命令」と認識する。一括駆動命令を受けると、ストロボ300ではヘッド部を被写体方向に向ける駆動および被写体測距を行う。続いて、ストロボ300ではヘッド部を天井方向に向ける駆動および天井測距を行う。そして、これら測距結果に基づいて、ストロボ300では最適バウンス角度を求めて当該バウンス角度にヘッド部を駆動する。   When the command 26H is transmitted from the camera body 100 to the strobe 300, the strobe 300 recognizes a “collective drive command”. When receiving the collective driving command, the strobe 300 performs driving for directing the head portion toward the subject and subject ranging. Subsequently, the strobe 300 performs drive and ceiling distance measurement with the head portion directed toward the ceiling. Then, based on these distance measurement results, the strobe 300 obtains the optimum bounce angle and drives the head unit to the bounce angle.

コマンド12Hはストロボ300の発光モードを変更するための発光モード設定であり、このコマンドの2バイト目において、カメラ本体100では設定したい発光モードを設定してストロボ300に送信する。これによって、ストロボ300の発光モードが変更される。   The command 12H is a flash mode setting for changing the flash mode of the strobe 300. In the second byte of this command, the camera body 100 sets a flash mode to be set and transmits it to the strobe 300. As a result, the flash mode of the strobe 300 is changed.

なお、図4に示す通信コマンドには、その他のコマンドがあるが、ここでは説明を省略する。   Although there are other commands in the communication commands shown in FIG. 4, description thereof is omitted here.

図5は、図1に示すカメラ本体の動作を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、カメラ制御部105の制御下で行われる。   FIG. 5 is a flowchart for explaining the operation of the camera body shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the camera control unit 105.

カメラ本体100の動作が開始すると、カメラ制御部105は、測光センサ112による定常測光を終了する(ステップS105)。   When the operation of the camera body 100 starts, the camera control unit 105 ends the regular photometry by the photometric sensor 112 (step S105).

なお、定常測光とは測光センサ112による測光によって自然光による輝度値(定常輝度値)を得るための測光である。そして、カメラ制御部105は、当該定常輝度値に基づいて撮影の際のシャッタ速度および絞り値を更新する。   The steady metering is a metering for obtaining a luminance value (steady luminance value) by natural light by metering by the photometric sensor 112. Then, the camera control unit 105 updates the shutter speed and the aperture value at the time of shooting based on the steady luminance value.

続いて、カメラ制御部105は被写体が撮影画面の中央部に存在するか否かを判定する(ステップS101)。なお、前述のように、被写体の位置は顔検知によって得られた顔位置に応じて決定される。また、顔検知情報は測光センサ112の出力に基づいて求められる。   Subsequently, the camera control unit 105 determines whether or not the subject exists in the center of the shooting screen (step S101). As described above, the position of the subject is determined according to the face position obtained by the face detection. Further, the face detection information is obtained based on the output of the photometric sensor 112.

被写体が中央部に存在しないと(ステップS101において、NO)、カメラ制御部105はストロボ300に正面駆動命令(測距動作なし)のコマンドを送信する(ステップS102)。これによって、フラッシュ制御部301はヘッド部を駆動制御してヘッド部を正面(被写体)方向に向ける。   If the subject does not exist in the center (NO in step S101), the camera control unit 105 transmits a front drive command (no ranging operation) command to the strobe 300 (step S102). Accordingly, the flash control unit 301 controls the drive of the head unit so that the head unit is directed in the front (subject) direction.

カメラ制御部105はストロボ300に駆動状態取得要求のコマンドを送信して、ストロボ正面駆動終了待ちとなる(ステップS103)。駆動状態取得要求を受けると、フラッシュ制御部301はカメラ制御部105にヘッド部を駆動中であるかなどを示す駆動状態情報を送信する。カメラ制御部105は駆動状態取得要求を定期的にフラッシュ制御部301に送って、ヘッド部の駆動が完了したか否かを監視する。   The camera control unit 105 transmits a drive state acquisition request command to the strobe 300 and waits for the end of strobe front drive (step S103). Upon receiving the driving state acquisition request, the flash control unit 301 transmits driving state information indicating whether the head unit is being driven to the camera control unit 105. The camera control unit 105 periodically sends a drive state acquisition request to the flash control unit 301 to monitor whether the driving of the head unit is completed.

正面駆動が完了した旨の駆動状態情報を受けると、カメラ制御部105はフラッシュ制御部301にプリ発光量設定のコマンドを送信する(ステップS104)。さらに、カメラ制御部105は当該コマンドに続いて実際に発光させる発光量を送る。   Upon receiving the driving state information indicating that the front driving is completed, the camera control unit 105 transmits a pre-emission amount setting command to the flash control unit 301 (step S104). Further, the camera control unit 105 sends the amount of light to be actually emitted following the command.

続いて、カメラ制御部105はフラッシュ制御部301に発光許可命令のコマンドを送信する(ステップS105)。そして、カメラ制御部105は当該コマンドに続いて発光許可情報(“0”なら発光不許可、“1”なら発光許可)を“発光許可”として送信する。これによって、カメラ制御部105はストロボ300に発光許可を通知する。   Subsequently, the camera control unit 105 transmits a command of a light emission permission command to the flash control unit 301 (step S105). Then, the camera control unit 105 transmits the light emission permission information (“0” for light emission disapproval, “1” for light emission permission) as “light emission permission” following the command. As a result, the camera control unit 105 notifies the flash unit 300 of permission to emit light.

次に、カメラ制御部105はフラッシュ制御部301に発光指示を行う(ステップS106)。ここでは、カメラ制御部105は、図2に示すCclk端子をLowレベルとしてフラッシュ制御部301に発光指示を行う。当該発光指示に同期して、カメラ制御部105は測光センサ112による測光を行って、ストロボ300をプリ発光させた際の輝度値(正面プリ発光輝度値)を得る。   Next, the camera control unit 105 instructs the flash control unit 301 to emit light (step S106). Here, the camera control unit 105 instructs the flash control unit 301 to emit light with the Cclk terminal shown in FIG. In synchronization with the light emission instruction, the camera control unit 105 performs photometry with the photometric sensor 112 to obtain a luminance value (front pre-emission luminance value) when the strobe 300 is pre-flashed.

続いて、カメラ制御部105は、当該正面プリ発光輝度値と前述の定常輝度値とに基づいてカメラから被写体までの距離である被写体距離を求める(ステップS107)。そして、カメラ制御部105はフラッシュ制御部301に天井駆動命令のコマンドを送信する(ステップS108)。これによって、フラッシュ制御部301はヘッド部を駆動制御してヘッド部を天井方向に向ける。さらに、カメラ制御部105は当該コマンドに続いて“測距命令する”情報を設定して送信する(ステップS109)。   Subsequently, the camera control unit 105 obtains a subject distance that is a distance from the camera to the subject based on the front pre-light emission luminance value and the above-described steady luminance value (step S107). Then, the camera control unit 105 transmits a ceiling drive command command to the flash control unit 301 (step S108). As a result, the flash control unit 301 drives and controls the head unit to direct the head unit toward the ceiling. Further, the camera control unit 105 sets and transmits information “command to measure distance” following the command (step S109).

これによって、フラッシュ制御部301は天井駆動が完了するとプリ発光を行って、測距用測光部303によって当該プリ発光による輝度値を天井プリ発光輝度値として得る。フラッシュ制御部301は天井プリ発光輝度値と予め取得した定常輝度値とに基づいてカメラから天井(反射物)までの距離である天井距離を求める。   Thus, the flash control unit 301 performs pre-emission when the ceiling driving is completed, and the distance measurement photometry unit 303 obtains the luminance value by the pre-emission as the ceiling pre-emission luminance value. The flash control unit 301 obtains a ceiling distance, which is a distance from the camera to the ceiling (reflecting object), based on the ceiling pre-light emission luminance value and the steady luminance value acquired in advance.

カメラ制御部105はフラッシュ制御部301に駆動状態取得要求のコマンドを送信して、天井駆動終了待ちとなる(ステップS109)。駆動状態取得要求を受けると、フラッシュ制御部301はカメラ制御部105にヘッド部を駆動中であるかなどを示す駆動状態情報を送信する。カメラ制御部105は駆動状態取得要求を定期的にフラッシュ制御部301に送って、ヘッド部の駆動が完了したか否かを監視する。   The camera control unit 105 transmits a drive state acquisition request command to the flash control unit 301 and waits for the ceiling drive to end (step S109). Upon receiving the driving state acquisition request, the flash control unit 301 transmits driving state information indicating whether the head unit is being driven to the camera control unit 105. The camera control unit 105 periodically sends a drive state acquisition request to the flash control unit 301 to monitor whether the driving of the head unit is completed.

ヘッド部の駆動が完了すると、カメラ制御部103は前述の被写体距離をフラッシュ制御部301に送信する(ステップS110)。そして、カメラ制御部105はフラッシュ制御部301にバウンス角駆動命令のコマンドを送信する(ステップS111)。これによって、フラッシュ制御部301は、バウンス角度演算部306を用いて被写体距離および天井距離に基づいて最適バウンス角を求め、当該バウンス角にヘッド部を駆動する。   When the driving of the head unit is completed, the camera control unit 103 transmits the above-described subject distance to the flash control unit 301 (step S110). Then, the camera control unit 105 transmits a bounce angle drive command command to the flash control unit 301 (step S111). Accordingly, the flash control unit 301 uses the bounce angle calculation unit 306 to obtain the optimum bounce angle based on the subject distance and the ceiling distance, and drives the head unit to the bounce angle.

なお、最適バウンス角を求める際の手法については、前述の特許文献1に記載されているので、ここでは説明を省略する。   In addition, since the method for obtaining the optimum bounce angle is described in the above-mentioned Patent Document 1, description thereof is omitted here.

カメラ制御部105はフラッシュ制御部301に駆動状態取得要求のコマンドを送信して、バウンス角駆動完了待ちとなる(ステップS112)。駆動状態取得要求を受けると、フラッシュ制御部301はカメラ制御部105にヘッド部を駆動中であるかなどを示す駆動状態情報を送信する。カメラ制御部105は駆動状態取得要求を定期的にフラッシュ制御部301に送って、ヘッド部の駆動が完了したか否かを監視する。   The camera control unit 105 transmits a drive state acquisition request command to the flash control unit 301 and waits for bounce angle drive completion (step S112). Upon receiving the driving state acquisition request, the flash control unit 301 transmits driving state information indicating whether the head unit is being driven to the camera control unit 105. The camera control unit 105 periodically sends a drive state acquisition request to the flash control unit 301 to monitor whether the driving of the head unit is completed.

ヘッド部の駆動が完了した後、カメラ制御部105は測光センサ122による定常測光を開始する(ステップS113)。これによって、カメラ制御部105は、得られた定常輝度値に基づいて撮影の際のシャッタ速度および絞り値を更新する。そして、カメラ制御部105はカメラ本体の動作を終了する。   After the driving of the head unit is completed, the camera control unit 105 starts steady photometry with the photometric sensor 122 (step S113). Thereby, the camera control unit 105 updates the shutter speed and the aperture value at the time of shooting based on the obtained steady luminance value. Then, the camera control unit 105 ends the operation of the camera body.

被写体が中央部に存在すると(ステップS101において、YES)、カメラ制御部105はフラッシュ制御部301に一括駆動命令のコマンドを送信する。これによって、フラッシュ制御部301は測距用測光部303によって正面(被写体)測距および天井測距を行う。   If the subject exists in the center (YES in step S101), the camera control unit 105 transmits a batch drive command command to the flash control unit 301. Accordingly, the flash control unit 301 performs front (subject) distance measurement and ceiling distance measurement by the distance measurement light measurement unit 303.

さらに、フラッシュ制御部301は正面(被写体)測距および天井測距で得た測距結果に基づいて最適バウンス角を求めて当該最適バウンス角にヘッド部を駆動する。なお、一括駆動命令による動作については後述する。   Further, the flash control unit 301 obtains the optimum bounce angle based on the distance measurement results obtained by the front (subject) distance measurement and the ceiling distance measurement, and drives the head unit to the optimum bounce angle. The operation based on the collective drive command will be described later.

一括駆動が完了すると、つまり、フラッシュ制御部301から一括駆動完了の旨を受けると、カメラ制御部105はステップS113の処理に進む。   When the collective driving is completed, that is, when the collective driving completion is received from the flash control unit 301, the camera control unit 105 proceeds to the process of step S113.

図6は、図1に示すストロボの動作を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、フラッシュ制御部301の制御下で行われる。   FIG. 6 is a flowchart for explaining the operation of the strobe shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the flash control unit 301.

ストロボ300の動作を開始すると、フラッシュ制御部301はカメラ制御部105からコマンドを受信したか否かを判定する(ステップS201)。カメラ制御部105からコマンドを受信しないと(ステップS201において、NO)、フラッシュ制御部301は待機する。   When the operation of the strobe 300 is started, the flash control unit 301 determines whether or not a command is received from the camera control unit 105 (step S201). If no command is received from the camera control unit 105 (NO in step S201), the flash control unit 301 stands by.

カメラ制御部105からコマンドを受信すると(ステップS201において、YES)、フラッシュ制御部301は当該コマンドが正面駆動命令であるか否かを判定する(ステップS202)。コマンドが正面駆動命令であると(ステップS202において、YES)、フラッシュ制御部301はベッド部を正面駆動する(ステップS203)。つまり、フラッシュ制御部301はヘッド部を駆動制御してヘッド部を正面(被写体)に向ける。   When a command is received from the camera control unit 105 (YES in step S201), the flash control unit 301 determines whether or not the command is a front drive command (step S202). If the command is a front drive command (YES in step S202), the flash control unit 301 drives the bed unit in front (step S203). That is, the flash control unit 301 controls the drive of the head unit so that the head unit faces the front (subject).

続いて、フラッシュ制御部301は正面駆動命令に続いて測距駆動命令を受信したか否かを判定する(ステップS204)。測距命令を受信しないと(ステップS204において、NO)、フラッシュ制御部301はストロボ動作を終了する。   Subsequently, the flash control unit 301 determines whether or not a ranging driving command is received following the front driving command (step S204). If no distance measurement command is received (NO in step S204), flash control unit 301 ends the strobe operation.

一方、測距命令を受信すると(ステップS204において、YES)、フラッシュ制御部301は測距を行う(ステップS205)。なお、前述のように、正面駆動の際には、フラッシュ制御部301はカメラ制御部105からプリ発光命令を受けてプリ発光を行う。   On the other hand, when a ranging command is received (YES in step S204), the flash control unit 301 performs ranging (step S205). Note that, as described above, the flash control unit 301 receives a pre-emission command from the camera control unit 105 and performs pre-emission during front driving.

コマンドが正面駆動命令でないと(ステップS202において、NO)、フラッシュ制御部301はコマンドが天井駆動命令であるか否かを判定する(ステップS206)。コマンドが天井駆動命令であると(ステップS206において、YES)、フラッシュ制御部301はベッド部を天井駆動する(ステップS207)。つまり、フラッシュ制御部301はヘッド部を駆動制御してヘッド部を天井に向ける。その後、フラッシュ制御部301はステップS205の処理に進む。   If the command is not a front drive command (NO in step S202), the flash control unit 301 determines whether the command is a ceiling drive command (step S206). If the command is a ceiling drive command (YES in step S206), flash control unit 301 drives the bed unit to the ceiling (step S207). That is, the flash control unit 301 drives and controls the head unit so that the head unit is directed to the ceiling. Thereafter, the flash control unit 301 proceeds to the process of step S205.

天井駆動の際には、フラッシュ制御部301はプリ発光を行って、測距用測光部303によって正面プリ発光輝度値を得る。そして、フラッシュ制御部301は正面プリ発光輝度値と定常輝度値に基づいて天井距離を求める。そして、フラッシュ制御部301はストロボ動作を終了する。   When the ceiling is driven, the flash control unit 301 performs pre-light emission, and the distance measurement photometry unit 303 obtains a front pre-light emission luminance value. Then, the flash control unit 301 obtains the ceiling distance based on the front pre-light emission luminance value and the steady luminance value. Then, the flash control unit 301 ends the strobe operation.

コマンドが天井駆動命令でないと(ステップS206において、NO)、フラッシュ制御部301はコマンドが一括駆動命令であるか否かを判定する(ステップS208)。コマンドが一括駆動命令であると(ステップS208において、YES)、フラッシュ制御部301はまずヘッド部を正面駆動する(ステップS209)。そして、フラッシュ制御部301は正面測距を行う(ステップS210)。   If the command is not a ceiling drive command (NO in step S206), the flash control unit 301 determines whether the command is a batch drive command (step S208). If the command is a batch drive command (YES in step S208), the flash control unit 301 first drives the head unit in front (step S209). Then, the flash control unit 301 performs front ranging (step S210).

ここでは、フラッシュ制御部301はプリ発光を行って、測距用測光部303によって正面プリ発光輝度値を得る。その後、フラッシュ制御部301は正面プリ発光輝度値と定常輝度値とに基づいて被写体距離を求める。   Here, the flash control unit 301 performs pre-emission, and the distance measurement photometry unit 303 obtains a front pre-emission luminance value. Thereafter, the flash control unit 301 obtains the subject distance based on the front pre-light emission luminance value and the steady luminance value.

続いて、フラッシュ制御部301はヘッド部を天井駆動する(ステップS211)。そして、フラッシュ制御部301は天井測距を行う(ステップS212)。ここでは、フラッシュ制御部301はプリ発光を行って、測距用測光部303によって天井プリ発光輝度値を得る。その後、フラッシュ制御部301は天井プリ発光輝度値と定常輝度値とに基づいて天井距離を求める。   Subsequently, the flash control unit 301 drives the head unit on the ceiling (step S211). Then, the flash control unit 301 performs ceiling distance measurement (step S212). Here, the flash control unit 301 performs pre-light emission, and the distance measurement photometry unit 303 obtains a ceiling pre-light emission luminance value. Thereafter, the flash control unit 301 obtains the ceiling distance based on the ceiling pre-light emission luminance value and the steady luminance value.

次に、フラッシュ制御部301はバウンス角度演算部306によって被写体距離および天井距離に基づいて最適バウンス角を求める。そして、フラッシュ制御部301はヘッド部を駆動してヘッド部の角度を当該最適バウンス角とする(ステップS213)。その後、フラッシュ制御部301はストロボ動作を終了する。   Next, the flash control unit 301 uses the bounce angle calculation unit 306 to obtain an optimum bounce angle based on the subject distance and the ceiling distance. Then, the flash control unit 301 drives the head unit to set the angle of the head unit to the optimum bounce angle (step S213). Thereafter, the flash control unit 301 ends the strobe operation.

コマンドが一括駆動命令でないと(ステップS208において、NO)、フラッシュ制御部301は、ステップS201で受信したコマンドがバウンス角駆動命令であるか否かを判定する(ステップS214)。コマンドがバウンス角駆動命令であると(ステップS214において、YES)、フラッシュ制御部301は、バウンス角度演算部306によって被写体距離および天井距離に基づいて最適バウンス角を求める。   If the command is not a batch drive command (NO in step S208), the flash control unit 301 determines whether or not the command received in step S201 is a bounce angle drive command (step S214). If the command is a bounce angle drive command (YES in step S214), flash controller 301 uses bounce angle calculator 306 to determine the optimum bounce angle based on the subject distance and ceiling distance.

なお、ここでは、被写体距離として、正面駆動命令の際の測距によって得られた被写体距離又は前述のステップS110においてカメラ制御部105から送られた被写体距離が用いられる。また、天井距離として天井駆動命令の際の測距によって得られた天井距離が用いられる。そして、フラッシュ制御部301はヘッド部を駆動してヘッド部の角度を当該最適バウンス角とする(ステップS215)。その後、フラッシュ制御部301はストロボ動作を終了する。   Here, as the subject distance, the subject distance obtained by the distance measurement at the time of the front drive command or the subject distance sent from the camera control unit 105 in step S110 described above is used. Further, the ceiling distance obtained by the distance measurement at the time of the ceiling drive command is used as the ceiling distance. Then, the flash control unit 301 drives the head unit to set the angle of the head unit to the optimum bounce angle (step S215). Thereafter, the flash control unit 301 ends the strobe operation.

コマンドがバウンス角駆動命令でないと(ステップS214において、NO)、フラッシュ制御部301はステップS201において受信したコマンドの内容に応じた処理を行う(ステップS216)。そして、フラッシュ制御部301はストロボ動作を終了する。   If the command is not a bounce angle drive command (NO in step S214), the flash control unit 301 performs processing according to the content of the command received in step S201 (step S216). Then, the flash control unit 301 ends the strobe operation.

図7は図1に示すストロボにおいて正面駆動命令を受けた際の測距を詳細に説明するためのフローチャートである。なお、図7においては、一括駆動命令を受信しない場合に正面駆動命令を受信した際の処理が示されている。   FIG. 7 is a flowchart for explaining in detail the distance measurement when the strobe shown in FIG. 1 receives a front drive command. FIG. 7 shows a process when a front drive command is received when a collective drive command is not received.

まず、フラッシュ制御部301はカメラ制御部105から一括駆動命令を受信したか否かを判定する(ステップS401)。一括駆動命令を受信すると(ステップS401において、YES)、フラッシュ制御部301は図6で説明した一括駆動を行う(ステップS417)。そして、フラッシュ制御部301はストロボ動作を終了する。   First, the flash control unit 301 determines whether a batch drive command has been received from the camera control unit 105 (step S401). When the batch drive command is received (YES in step S401), the flash control unit 301 performs the batch drive described in FIG. 6 (step S417). Then, the flash control unit 301 ends the strobe operation.

一括駆動命令を受信しないと(ステップS401において、NO)、フラッシュ制御部301は正面駆動命令を受信したか否かを判定する(ステップS402)。正面駆動命令を受信しないと(ステップS402において、NO)、フラッシュ制御部301はストロボ動作を終了する。   If the collective drive command is not received (NO in step S401), the flash control unit 301 determines whether or not a front drive command is received (step S402). If the front drive command is not received (NO in step S402), flash control unit 301 ends the strobe operation.

正面駆動命令を受信すると(ステップS402において、YES)、フラッシュ制御部301は前述したようにヘッド部を正面駆動する(ステップS403)。そして、フラッシュ制御部301はカメラ制御部105からのストロボ発光量の受信を待つ(ステップS404)。   When the front drive command is received (YES in step S402), the flash control unit 301 drives the head unit in front as described above (step S403). Then, the flash control unit 301 waits for reception of the strobe emission amount from the camera control unit 105 (step S404).

ストロボ発光量を受信すると、フラッシュ制御部301は当該ストロボ発光量を設定する(ステップS405)。そして、フラッシュ制御部301はカメラ制御部105からの発光許可の受信を待つ(ステップS406)。   When receiving the flash emission amount, the flash control unit 301 sets the flash emission amount (step S405). Then, the flash control unit 301 waits for reception of light emission permission from the camera control unit 105 (step S406).

発光許可を受信すると、フラッシュ制御部301は当該発光許可に応じて発光許可設定を行う(ステップS407)。そして、フラッシュ制御部301はカメラ制御部105からのストロボ発光信号の受信を待つ(ステップS408)。   Upon receiving the light emission permission, the flash control unit 301 performs light emission permission setting according to the light emission permission (step S407). Then, the flash control unit 301 waits for reception of a strobe light emission signal from the camera control unit 105 (step S408).

ストロボ発光信号を受信すると、フラッシュ制御部301は発光信号に応じて、設定したストロボ発光量で発光(プリ発光)を行う(ステップS409)。そして、フラッシュ制御部301はカメラ制御部105からの天井駆動命令を待つ(ステップS410)。   When the flash light emission signal is received, the flash control unit 301 performs light emission (pre-light emission) with the set flash light emission amount according to the light emission signal (step S409). Then, the flash control unit 301 waits for a ceiling drive command from the camera control unit 105 (step S410).

なお、前述のように、天井駆動命令には、“測距動作する”又は“測距動作しない”の情報が含まれている。図示の例では、天井駆動命令には、“測距動作する”の情報が含まれているものとする。   As described above, the ceiling drive command includes information on “ranging operation” or “no ranging operation”. In the example shown in the figure, it is assumed that the ceiling drive command includes information on “ranging”.

天井駆動命令を受信すると、フラッシュ制御部301は天井駆動命令に応じてヘッド部を駆動して、ヘッド部を天井に向ける(ステップS411)。そして、フラッシュ制御部301は、前述のようにして、天井測距を行う(ステップS412)。その後、フラッシュ制御部301はカメラ制御部105からの被写体距離の受信を待つ(ステップS413)。   When the ceiling drive command is received, the flash control unit 301 drives the head unit according to the ceiling drive command, and directs the head unit to the ceiling (step S411). Then, the flash control unit 301 performs ceiling distance measurement as described above (step S412). Thereafter, the flash control unit 301 waits for reception of the subject distance from the camera control unit 105 (step S413).

被写体距離を受信すると、フラッシュ制御部301は当該被写体距離を内蔵メモリに記憶する(ステップS414)。そして、フラッシュ制御部301はカメラ制御部105からのバウンス角駆動命令の受信を待つ(ステップS415)。   When the subject distance is received, the flash control unit 301 stores the subject distance in the built-in memory (step S414). Then, the flash control unit 301 waits for reception of a bounce angle drive command from the camera control unit 105 (step S415).

バウンス角駆動命令を受信すると、フラッシュ制御部301はバウンス角度演算部306によって被写体距離および天井測距によって得られた天井距離に基づいて、最適バウンス角を求める。そして、フラッシュ制御部301は当該最適バウンス角に応じてヘッド部を駆動する。その後、フラッシュ制御部301はストロボ動作を終了する。   When the bounce angle drive command is received, the flash control unit 301 obtains the optimum bounce angle based on the subject distance and the ceiling distance obtained by the ceiling distance measurement by the bounce angle calculation unit 306. Then, the flash control unit 301 drives the head unit according to the optimum bounce angle. Thereafter, the flash control unit 301 ends the strobe operation.

上述のように、本発明の第1の実施形態では、被写体距離を測定する際、カメラ制御部105は被写体の顔の位置に応じて測光センサ112を用いて測定するか又は測距用測光部303を用いて測定するかを決定する。   As described above, in the first embodiment of the present invention, when measuring the subject distance, the camera control unit 105 measures using the photometric sensor 112 according to the position of the face of the subject, or the distance measuring photometric unit. 303 is used to determine whether to measure.

例えば、顔の位置から被写体が撮影画面の中央付近にいない場合には、カメラ本体100に備えられた測光センサ112を用いて被写体の測距を行う。測光センサ112は撮影画面全体に亘って測光可能であるので、被写体が撮影画面の中央付近にいない場合であっても精度よく被写体距離を求めることができる。   For example, when the subject is not near the center of the shooting screen from the position of the face, the subject is measured using the photometric sensor 112 provided in the camera body 100. Since the photometric sensor 112 can perform photometry over the entire shooting screen, the subject distance can be accurately obtained even when the subject is not near the center of the shooting screen.

顔の位置から被写体が中央付近にいる場合には、ストロボ300に備えられた測距用測光部303を用いて被写体の測距を行う。このため、ストロボ300とカメラ本体100との同期処理を少なくして高速に被写体の測距を行うことができる。   When the subject is near the center from the face position, the subject is measured using the distance measuring photometric unit 303 provided in the strobe 300. For this reason, it is possible to perform distance measurement of the subject at high speed by reducing synchronization processing between the flash 300 and the camera body 100.

[第2の実施形態]
次に、本発明の第2の実施形態によるカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は図1に示すカメラと同様である。また、ストロボ300の動作は図6および図7で説明した動作と同様である。
[Second Embodiment]
Next, an example of a camera according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIG. The operation of the strobe 300 is the same as that described with reference to FIGS.

図8は、本発明の第2の実施形態によるカメラにおいてカメラ本体の動作についてその一例を説明するためのフローチャートである。なお、図示のフローチャートにおいて、図5に示すフローチャートのステップと同一のステップについては同一の参照符号を付して説明を省略する。   FIG. 8 is a flowchart for explaining an example of the operation of the camera body in the camera according to the second embodiment of the present invention. In the illustrated flowchart, the same steps as those in the flowchart shown in FIG. 5 are denoted by the same reference numerals, and the description thereof is omitted.

ステップS115の処理を行った後、カメラ制御部105は、カメラ本体100に設定されたAFの測距点が撮影画面の中央付近にあるか否かを判定する(ステップS301)。AFの測距点が撮影画面の中央付近である場合には(ステップS301において、YES)、カメラ制御部105はステップS114の処理に進んで、フラッシュ制御部301に一括駆動命令を送る。   After performing the process of step S115, the camera control unit 105 determines whether or not the AF distance measurement point set in the camera body 100 is near the center of the shooting screen (step S301). If the AF distance measuring point is near the center of the shooting screen (YES in step S301), the camera control unit 105 proceeds to the process of step S114 and sends a batch drive command to the flash control unit 301.

一方、AFの測距点が撮影画面の中央付近にない場合には(ステップS301において、NO)、カメラ制御部105はステップS102の処理に進んで、フラッシュ制御部301に正面駆動命令を送る。   On the other hand, when the AF distance measuring point is not near the center of the shooting screen (NO in step S301), the camera control unit 105 proceeds to the process of step S102 and sends a front drive command to the flash control unit 301.

なお、AFの測距点は、例えば、ユーザによって予め選択されるか又はAF動作を行った際に決定した被写体の位置である。   The AF distance measuring point is, for example, the position of the subject that is selected in advance by the user or determined when the AF operation is performed.

このように、本発明の第2の実施形態では、被写体距離を測定する際、かめら本体100に設定されたAFの測距点に応じて測光センサ112を用いて測定するか又は測距用測光部303を用いて測定するかを決定する。   As described above, in the second embodiment of the present invention, when the subject distance is measured, the subject distance is measured using the photometric sensor 112 according to the AF distance measuring point set in the main body 100 or for distance measurement. It is determined whether to use the photometric unit 303 for measurement.

例えば、AFの測距点が撮影画面の中央付近にいない場合には、カメラ本体100に備えられた測光センサ112を用いて被写体の測距を行う。測光センサ112は撮影画面全体に亘って測光可能であるので、測距点が撮影画面の中央付近にいない場合であっても精度よく被写体距離を求めることができる。   For example, when the AF ranging point is not near the center of the shooting screen, the subject is measured using the photometric sensor 112 provided in the camera body 100. Since the photometric sensor 112 can perform photometry over the entire shooting screen, the subject distance can be obtained accurately even when the distance measuring point is not near the center of the shooting screen.

AFの測距点が撮影画面の中央付近にある場合には、ストロボ300に備えられた測距用測光部303を用いて被写体の測距を行う。このため、ストロボ300とカメラ本体100との同期処理を少なくして高速に被写体の測距を行うことができる。   When the AF ranging point is near the center of the shooting screen, the subject is measured using the ranging photometry unit 303 provided in the strobe 300. For this reason, it is possible to perform distance measurement of the subject at high speed by reducing synchronization processing between the flash 300 and the camera body 100.

なお、上述の実施の形態では、被写体距離をカメラ本体100で求めるようにしたが、カメラ本体100で得られた測光結果をストロボ300に送信して、ストロボ300において被写体距離を求めるようにしてもよい。   In the above-described embodiment, the subject distance is obtained by the camera body 100, but the photometric result obtained by the camera body 100 may be transmitted to the strobe 300 so that the subject distance is obtained by the strobe 300. Good.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also included in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法をカメラ本体(撮像装置本体)およびストロボに実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムをカメラ本体およびストロボが備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the camera body (imaging apparatus body) and the strobe. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the camera body and the strobe. The control program is recorded on a computer-readable recording medium, for example.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 カメラ本体(撮像装置本体)
105 カメラ制御部
200 レンズユニット
205 レンズ制御部
300 照明装置(ストロボ)
301 フラッシュ制御部
302 発光部
303 測距用測光部
304 ヘッド駆動制御部
306 バウンス角度演算部
100 Camera body (Imaging device body)
105 Camera Control Unit 200 Lens Unit 205 Lens Control Unit 300 Illumination Device (Strobe)
301 Flash Control Unit 302 Light Emitting Unit 303 Distance Metering Unit 304 Head Drive Control Unit 306 Bounce Angle Calculation Unit

Claims (11)

被写体を照明する際の光の照射角度が可変な照明装置と、前記被写体を撮像して画像を得る撮像装置本体とを有する撮像装置であって、
前記照明装置には、前記撮像装置から測距対象までの距離を測距する第1の測距手段が備えられ、
前記撮像装置本体には、前記撮像装置から前記測距対象までの距離を測距する第2の測距手段と、
前記測距対象を光の反射物として当該反射物および前記撮像装置の距離である第1の距離と、前記測距対象を前記被写体として該被写体および前記撮像装置の距離である第2の距離とに基づいて前記照明装置における光の照射角度を決定して撮像を行う際、撮影画面における前記被写体の位置と前記撮影画面において予め定められた位置とに応じて前記第1の測距手段および前記第2の測距手段のいずれを用いて前記第2の距離の測距を行うかを判定する判定手段と、が備えられていることを特徴とする撮像装置。
An imaging device having an illumination device that can vary an irradiation angle of light when illuminating a subject, and an imaging device body that captures the subject and obtains an image,
The illumination device includes a first distance measuring unit that measures a distance from the imaging device to a distance measurement target,
The imaging apparatus main body includes a second distance measuring unit that measures a distance from the imaging apparatus to the distance measuring object;
A first distance that is a distance between the reflecting object and the imaging device when the distance measurement target is a light reflection object, and a second distance that is a distance between the subject and the imaging device when the distance measurement target is the subject. When the image is picked up by determining the light irradiation angle in the illumination device based on the first distance measuring means and the position determined in advance according to the position of the subject on the shooting screen and the position predetermined on the shooting screen An image pickup apparatus comprising: a determination unit that determines which of the second distance measurement units is used to measure the second distance.
前記第1の距離は前記第1の測距手段によって行われることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the first distance is performed by the first distance measuring unit. 前記判定手段は、前記撮影画面における被写体の位置が前記予め定められた位置から外れている場合に前記第2の測距手段によって前記第2の距離を測距すると判定することを特徴とする請求項1又は2に記載の撮像装置。   The determination means determines that the second distance measurement means measures the second distance when the position of the subject on the shooting screen is out of the predetermined position. Item 3. The imaging device according to Item 1 or 2. 前記照明装置には、前記第2の測距手段によって測距された第2の距離を前記撮像装置本体から受けて、前記第1の測距手段によって測距された第1の距離と前記第2の距離とに基づいて前記照射角度を制御する制御手段が備えられていることを特徴とする請求項3に記載の撮像装置。   The illumination device receives a second distance measured by the second distance measuring means from the imaging device main body, and the first distance measured by the first distance measuring means and the first distance measured by the first distance measuring means. The imaging apparatus according to claim 3, further comprising a control unit that controls the irradiation angle based on a distance of 2. 前記判定手段は、前記撮影画面における被写体の位置が前記予め定められた位置にある場合に前記第1の測距手段によって前記第2の距離を測距すると判定し、前記照明装置に前記第1の距離および前記第2の距離を測距する旨の一括駆動命令を送信することを特徴とする請求項4に記載の撮像装置。   The determining means determines that the second distance is measured by the first distance measuring means when the position of the subject on the shooting screen is at the predetermined position, and the lighting device is configured to measure the first distance. The image pickup apparatus according to claim 4, wherein a collective driving command for measuring the distance and the second distance is transmitted. 前記制御手段は、前記一括駆動命令を受けると前記第1の測距手段によって得られた前記第1の距離および前記第2の距離に基づいて前記照射角度を制御することを特徴とする請求項5に記載の撮像装置。   The control means controls the irradiation angle based on the first distance and the second distance obtained by the first distance measuring means when receiving the collective driving command. 5. The imaging device according to 5. 前記撮像装置本体には、前記撮影画面における前記被写体の位置を検出する検出手段が備えられていることを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。   The imaging apparatus according to any one of claims 1 to 6, wherein the imaging apparatus main body includes detection means for detecting a position of the subject on the shooting screen. 前記予め定められた位置は前記撮影画面の中央部であることを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the predetermined position is a central portion of the shooting screen. 前記反射物は建物の天井であることを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the reflector is a ceiling of a building. 被写体を照明する際の光の照射角度が可変な照明装置と、前記被写体を撮像して画像を得る撮像装置本体とを有する撮像装置の制御方法であって、
前記照明装置は、前記撮像装置から測距対象までの距離を測距する第1の測距ステップを有し、
前記撮像装置本体は、前記撮像装置から前記測距対象までの距離を測距する第2の測距ステップと、
前記測距対象を光の反射物として当該反射物および前記撮像装置の距離である第1の距離と、前記測距対象を前記被写体として該被写体および前記撮像装置の距離である第2の距離とに基づいて前記照明装置における光の照射角度を決定して撮像を行う際、撮影画面における前記被写体の位置と前記撮影画面において予め定められた位置とに応じて前記第1の測距ステップおよび前記第2の測距ステップのいずれを用いて前記第2の距離の測距を行うかを判定する判定ステップと、を有することを特徴とする制御方法。
An imaging apparatus control method comprising: an illuminating device having a variable light irradiation angle when illuminating a subject; and an imaging device body that captures the subject and obtains an image.
The illumination device has a first distance measuring step for measuring a distance from the imaging device to a distance measuring object,
The imaging apparatus body includes a second ranging step for measuring a distance from the imaging apparatus to the ranging object;
A first distance that is a distance between the reflecting object and the imaging device when the distance measurement target is a light reflection object, and a second distance that is a distance between the subject and the imaging device when the distance measurement target is the subject. When performing imaging by determining the light irradiation angle in the illumination device based on the first distance measurement step and the first distance measurement step according to the position of the subject on the shooting screen and a predetermined position on the shooting screen And a determination step for determining which of the second distance measurement steps is used to measure the second distance.
被写体を照明する際の光の照射角度が可変な照明装置と、前記被写体を撮像して画像を得る撮像装置本体とを有する撮像装置で用いられる制御プログラムであって、
前記照明装置に備えられたコンピュータに、前記撮像装置から測距対象までの距離を測距する第1の測距ステップを実行させ、
前記撮像装置本体に備えられたコンピュータに、前記撮像装置から前記測距対象までの距離を測距する第2の測距ステップと、
前記測距対象を光の反射物として当該反射物および前記撮像装置の距離である第1の距離と、前記測距対象を前記被写体として該被写体および前記撮像装置の距離である第2の距離とに基づいて前記照明装置における光の照射角度を決定して撮像を行う際、撮影画面における前記被写体の位置と前記撮影画面において予め定められた位置とに応じて前記第1の測距ステップおよび前記第2の測距ステップのいずれを用いて前記第2の距離の測距を行うかを判定する判定ステップと、実行させることを特徴とする制御プログラム。
A control program used in an imaging device having an illumination device that can vary an irradiation angle of light when illuminating a subject, and an imaging device body that captures the subject and obtains an image,
Causing a computer provided in the illumination device to execute a first distance measuring step for measuring a distance from the imaging device to a distance measuring object;
A second distance measuring step for measuring a distance from the image capturing apparatus to the distance measuring object on a computer provided in the image capturing apparatus main body;
A first distance that is a distance between the reflecting object and the imaging device when the distance measurement target is a light reflection object, and a second distance that is a distance between the subject and the imaging device when the distance measurement target is the subject. When performing imaging by determining the light irradiation angle in the illumination device based on the first distance measurement step and the first distance measurement step according to the position of the subject on the shooting screen and a predetermined position on the shooting screen A determination program for determining which of the second distance measurement steps is used to measure the second distance, and a control program to be executed.
JP2017062925A 2017-03-28 2017-03-28 Imaging device, its control method, and control program Active JP6873779B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017062925A JP6873779B2 (en) 2017-03-28 2017-03-28 Imaging device, its control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017062925A JP6873779B2 (en) 2017-03-28 2017-03-28 Imaging device, its control method, and control program

Publications (2)

Publication Number Publication Date
JP2018165769A true JP2018165769A (en) 2018-10-25
JP6873779B2 JP6873779B2 (en) 2021-05-19

Family

ID=63922644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017062925A Active JP6873779B2 (en) 2017-03-28 2017-03-28 Imaging device, its control method, and control program

Country Status (1)

Country Link
JP (1) JP6873779B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04340527A (en) * 1991-05-16 1992-11-26 Minolta Camera Co Ltd Camera capable of bounce flash photographing
JP2013178354A (en) * 2012-02-28 2013-09-09 Panasonic Corp Stroboscopic device and imaging apparatus including stroboscopic device
JP2016057498A (en) * 2014-09-10 2016-04-21 キヤノン株式会社 Imaging system, illuminating device, and control method
JP2016061802A (en) * 2014-09-12 2016-04-25 キヤノン株式会社 Imaging system, illumination device, and control method
JP2016122210A (en) * 2016-02-17 2016-07-07 株式会社ニコン Focus detection device and imaging device
JP2016212230A (en) * 2015-05-07 2016-12-15 キヤノン株式会社 Illumination device, imaging device, imaging system, and control method of the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04340527A (en) * 1991-05-16 1992-11-26 Minolta Camera Co Ltd Camera capable of bounce flash photographing
JP2013178354A (en) * 2012-02-28 2013-09-09 Panasonic Corp Stroboscopic device and imaging apparatus including stroboscopic device
JP2016057498A (en) * 2014-09-10 2016-04-21 キヤノン株式会社 Imaging system, illuminating device, and control method
JP2016061802A (en) * 2014-09-12 2016-04-25 キヤノン株式会社 Imaging system, illumination device, and control method
JP2016212230A (en) * 2015-05-07 2016-12-15 キヤノン株式会社 Illumination device, imaging device, imaging system, and control method of the same
JP2016122210A (en) * 2016-02-17 2016-07-07 株式会社ニコン Focus detection device and imaging device

Also Published As

Publication number Publication date
JP6873779B2 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
JP5268438B2 (en) Strobe device, imaging device, and control method thereof
JP5597078B2 (en) Imaging apparatus and control method thereof
US9992425B2 (en) Image pickup system that performs light emission control, light emission device, light emission control method, and storage medium
JP5494178B2 (en) Lighting device and camera
JP2001272591A (en) Electronic still camera
JP2014137482A (en) Photographing device and photographing illumination device
JP2016038522A (en) Illumination device, imaging device and camera system
JP2000275512A (en) Camera
JP6873779B2 (en) Imaging device, its control method, and control program
JP2019020508A (en) Imaging apparatus, method for controlling the same, and control program
CN108712617B (en) Image pickup apparatus that performs reflected flash shooting, control method thereof, and storage medium
JP2018006802A (en) Imaging apparatus, control method therefor, and program
JP6532203B2 (en) Imaging system, lighting device and control method
JP6584128B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF
JP2019139031A (en) Imaging apparatus and method for controlling the same
JP2019144478A (en) Lighting device, imaging system, method for controlling lighting device, and program
JP2018081121A (en) Imaging system and control method thereof
JP2013066051A (en) Photographing device
JP2019148636A (en) Illumination device, imaging apparatus, control method of illumination device, and program
JP2017215514A (en) Luminaire, control method and control program thereof, and imaging device
JP2017138346A (en) Imaging device
JP6611520B2 (en) Imaging device, control method thereof, and control program
JP2021152575A (en) Light emission control device and light emission control method
JP6890932B2 (en) Imaging device and control method
JP6489925B2 (en) LIGHTING DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND CONTROL METHOD THEREOF

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210421

R151 Written notification of patent or utility model registration

Ref document number: 6873779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151