JP2017215529A - Imaging apparatus and control method - Google Patents

Imaging apparatus and control method Download PDF

Info

Publication number
JP2017215529A
JP2017215529A JP2016110347A JP2016110347A JP2017215529A JP 2017215529 A JP2017215529 A JP 2017215529A JP 2016110347 A JP2016110347 A JP 2016110347A JP 2016110347 A JP2016110347 A JP 2016110347A JP 2017215529 A JP2017215529 A JP 2017215529A
Authority
JP
Japan
Prior art keywords
photometric
light
area
imaging
microcomputer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016110347A
Other languages
Japanese (ja)
Other versions
JP6890932B2 (en
Inventor
敏文 大澤
Toshifumi Osawa
敏文 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016110347A priority Critical patent/JP6890932B2/en
Publication of JP2017215529A publication Critical patent/JP2017215529A/en
Application granted granted Critical
Publication of JP6890932B2 publication Critical patent/JP6890932B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of accurately calculating light amount change characteristics of light from a light metering object depending on imaging circumstances.SOLUTION: The imaging apparatus includes: photometric means for obtaining photometric values in each of plural photometric areas in an imaging area; setting means that sets weighting to each photometric value in the plural photometric areas obtained by using the photometric means; and calculation means that calculates light amount change characteristics of the light metering object of the photometric means based on the brightness value based on each of photometric values in the plural photometric areas and the weighting set by the setting means. The setting means sets the weighting depending on the imaging circumstances.SELECTED DRAWING: Figure 6

Description

本発明は、撮像装置に関し、特に測光対象からの光の光量変化特性を算出する技術に関するものである。   The present invention relates to an imaging apparatus, and more particularly to a technique for calculating a light quantity change characteristic of light from a photometric object.

近年、デジタルカメラや携帯電話などの撮像装置の高感度化が進んでいる。そのため、室内のような比較的暗い環境下においても、シャッタースピードを高速にした(露光時間を短くした)撮影により、ブレを抑えた明るい画像を取得することが可能になってきている。   In recent years, the sensitivity of imaging devices such as digital cameras and mobile phones has been increasing. For this reason, even in a relatively dark environment such as a room, it has become possible to acquire a bright image with reduced blur by shooting with a high shutter speed (short exposure time).

また、室内光源として普及している蛍光灯は商用電源周波数の影響により、周期的に照明光がゆらぐ現象であるフリッカーが生じる。このようなフリッカーが生じる光源(以下、フリッカー光源とする)下でシャッタースピードを高速にした撮影を行うと、1つの画像内で露出ムラや色ムラが発生したり、連続して撮影した複数の画像間で露出や色温度のばらつきが発生したりする場合がある。   In addition, fluorescent lamps that are widely used as indoor light sources cause flicker, which is a phenomenon in which illumination light periodically fluctuates due to the influence of the commercial power supply frequency. When shooting with such a flickering light source (hereinafter referred to as a flicker light source) at a high shutter speed, exposure unevenness or color unevenness occurs in one image, or a plurality of images shot continuously. Variations in exposure and color temperature may occur between images.

このような問題に対して、特許文献1では、照明光のフリッカーの状態を検出し、露光時間の中心が照明光の光量が極大値を示すタイミングと略一致するように撮像タイミングを調節する技術が提案されている。   In order to solve such a problem, Patent Document 1 detects a flicker state of illumination light, and adjusts the imaging timing so that the center of the exposure time substantially coincides with the timing at which the amount of illumination light exhibits a maximum value. Has been proposed.

特開2006−222935号公報JP 2006-222935 A

しかしながら、特許文献1では、自然光と人工光とがミックスされた環境のような撮像領域の一部のみに露出ムラが生じる場合について考慮されていない。自然光と人工光とがミックスされた環境の場合、撮像領域全体を評価すると自然光の影響により人工光が照射されている領域の光量変化特性を精度よく算出することは困難である。   However, Patent Document 1 does not consider the case where exposure unevenness occurs only in a part of the imaging region such as an environment where natural light and artificial light are mixed. In an environment where natural light and artificial light are mixed, it is difficult to accurately calculate the light amount change characteristics of the region irradiated with artificial light due to the influence of natural light when the entire imaging region is evaluated.

そこで、本発明は、撮影環境に応じて測光対象からの光の光量変化特性を精度よく算出することができるようにすることを目的とする。   In view of the above, an object of the present invention is to make it possible to accurately calculate a light amount change characteristic of light from a photometric object in accordance with a photographing environment.

上記目的を達成するために、本発明に係る撮像装置は、撮像領域内の複数の測光エリアそれぞれの測光値を得るための測光手段と、前記測光手段を用いて得られた前記複数の測光エリアそれぞれの測光値に対する重み付けを設定する設定手段と、前記複数の測光エリアそれぞれの測光値と前記設定手段により設定された重み付けとに基づく輝度値に基づいて、前記測光手段の測光対象の光量変化特性を算出手段と、を有し、前記設定手段は、撮影環境に応じて重み付けを設定することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes a photometric unit for obtaining a photometric value of each of a plurality of photometric areas in an imaging region, and the plurality of photometric areas obtained by using the photometric unit. Based on a luminance value based on a setting means for setting a weight for each photometric value, and a photometric value for each of the plurality of photometric areas and a weight set by the setting means, a light quantity change characteristic of the photometric object of the photometric means Calculating means, wherein the setting means sets weighting according to the shooting environment.

本発明によれば、撮影環境に応じて測光対象からの光の光量変化特性を精度よく算出することができる。   According to the present invention, it is possible to accurately calculate the light quantity change characteristic of light from a photometric object in accordance with the shooting environment.

本発明の実施形態に係る撮像システムの概略図である。1 is a schematic diagram of an imaging system according to an embodiment of the present invention. 焦点検出用センサーの構成例を示す図である。It is a figure which shows the structural example of the sensor for focus detection. 測光用センサーの測光エリアと焦点検出用センサーの焦点検出位置との関係を示す図である。It is a figure which shows the relationship between the photometry area of the sensor for photometry, and the focus detection position of the sensor for focus detection. 本発明の実施形態に係る撮像システムのブロック図である。1 is a block diagram of an imaging system according to an embodiment of the present invention. 本発明の第1の実施形態に係る撮像システムの発光撮影に関する動作を示す図である。It is a figure which shows the operation | movement regarding the light emission imaging | photography of the imaging system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るフリッカー検知処理を示す図である。It is a figure which shows the flicker detection process which concerns on the 1st Embodiment of this invention. 撮影環境に応じたフリッカー検知用被写体輝度値を算出するときの各測光エリアの重み付けを示す図である。It is a figure which shows the weighting of each photometry area when calculating the to-be-photographed object brightness | luminance value according to imaging | photography environment. 本発明の第2の実施形態に係る撮像システムの発光撮影に関する動作を示す図である。It is a figure which shows the operation | movement regarding the light emission imaging | photography of the imaging system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係るフリッカー検知処理を示す図である。It is a figure which shows the flicker detection process which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係るフリッカー検知処理を示す図である。It is a figure which shows the flicker detection process which concerns on the 3rd Embodiment of this invention.

以下に、本発明の好ましい実施の形態を、以下の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the following drawings.

(第1の実施形態)
図1は、本発明の実施形態に係る撮像システムの概略図であり、図1の撮像システムは、撮像装置であるカメラ本体1、カメラ本体1の着脱可能な交換レンズである交換レンズ2、カメラ1に着脱可能な照明装置であるフラッシュ3を有している。
(First embodiment)
FIG. 1 is a schematic diagram of an imaging system according to an embodiment of the present invention. The imaging system of FIG. 1 includes a camera body 1 that is an imaging device, an interchangeable lens 2 that is an interchangeable lens that can be attached to and detached from the camera body 1, and a camera. 1 has a flash 3 which is a detachable illumination device.

カメラ本体1において、10はメカニカルシャッター、11は光学ロウパスフィルター、12は例えばCMOSやCCDといったエリア蓄積型光電変換素子からなる撮像素子である。メカニカルシャッター10を光路から退避させることで撮像素子12が露光される。   In the camera body 1, 10 is a mechanical shutter, 11 is an optical low-pass filter, and 12 is an image sensor made up of an area storage type photoelectric conversion element such as a CMOS or CCD. The image sensor 12 is exposed by retracting the mechanical shutter 10 from the optical path.

13は半透過性の主ミラー、14は第1の反射ミラーで、主ミラー13と第1の反射ミラー14はともに撮影時には上部に跳ね上がり光路から退避する。   Reference numeral 13 denotes a semi-transparent main mirror, and reference numeral 14 denotes a first reflecting mirror. Both the main mirror 13 and the first reflecting mirror 14 jump upward to be withdrawn from the optical path during photographing.

15は第1の反射ミラー14による撮像素子12の撮像面と共役な近軸的結像面、16は第2の反射ミラー、17は赤外カットフィルター、18は2つの開口部を有する絞り、19は2次結像レンズ、20は焦点検出用センサー(AFセンサー)である。焦点検出用センサー20は、例えばCMOS等のエリアの蓄積型光電変換素子からなる。図2は、焦点検出用センサー20の構成例を示す図であり、図2に示すように絞り18の2つの開口部に対応して多数分割された受光センサー部が20Aと20Bとの2対のエリアの構成になっている。また、受光センサー部20Aと20Bに加えて、信号蓄積部や信号処理用の周辺回路などが同一チップ上に集積回路として実装されている。第1の反射ミラー14から焦点検出用センサー20までの構成は、撮像領域内の複数の位置での位相差検出方式での焦点検出を可能とするものである。   15 is a paraxial imaging plane conjugate with the imaging surface of the imaging device 12 by the first reflecting mirror 14, 16 is a second reflecting mirror, 17 is an infrared cut filter, 18 is a diaphragm having two openings, Reference numeral 19 denotes a secondary imaging lens, and 20 denotes a focus detection sensor (AF sensor). The focus detection sensor 20 is composed of an accumulation type photoelectric conversion element in an area such as a CMOS. FIG. 2 is a diagram illustrating a configuration example of the focus detection sensor 20. As illustrated in FIG. 2, two pairs of light receiving sensor units 20 </ b> A and 20 </ b> B are divided into a plurality of light receiving sensor units corresponding to the two openings of the diaphragm 18. It is the composition of the area. In addition to the light receiving sensor units 20A and 20B, a signal storage unit, a signal processing peripheral circuit, and the like are mounted as an integrated circuit on the same chip. The configuration from the first reflection mirror 14 to the focus detection sensor 20 enables focus detection by a phase difference detection method at a plurality of positions in the imaging region.

21は拡散性を有するピント板、22はペンタプリズム、23は接眼レンズ、24は第3の反射ミラー、25は集光レンズ、26は被写体の輝度に関する情報を得るための測光用センサー(AEセンサー)である。ピント板21、ペンタプリズム22、接眼レンズ23によってファインダー光学系が構成される。測光用センサー26には、主ミラー13によって反射されてピント板21によって拡散された光線のうち光軸外の一部が入射する。   21 is a focusing plate having diffusivity, 22 is a pentaprism, 23 is an eyepiece lens, 24 is a third reflecting mirror, 25 is a condensing lens, and 26 is a photometric sensor (AE sensor) for obtaining information on the luminance of the subject. ). The focus plate 21, the pentaprism 22 and the eyepiece lens 23 constitute a finder optical system. Of the light beam reflected by the main mirror 13 and diffused by the focus plate 21, part of the light metering sensor 26 is incident outside the optical axis.

測光用センサー26は、例えばCMOS等のエリアの蓄積型光電変換素子からなる。図3(a)は測光用センサー26の構成例を示す図であり、図3(a)に示すように、受光領域内を複数分割した領域(測光エリア)毎に被写体の輝度情報や色情報を出力できる。複数分割した領域について本例では7列×5行の35分割とし、35分割された各分割領域をPD1〜PD35と呼ぶこととする。なお、図示していないがPD1〜PD35の各分割領域はさらに細かな受光部画素に分割し、各画素には一定の配列でカラーフィルタが設けられる。このような構成の測光用センサー26の出力情報に基づき、被写体検知情報を得ることができる。被写体検知情報とは測光用センサー26の細かな受光部画素出力に基づく人物の顔検出情報であったり、測光用センサー26の色検出情報に基づく主被写体の色情報であったりする。図3(b)は、測光用センサー26の測光エリアと焦点検出用センサー20の焦点検出位置との関係を示す図である。本例では焦点検出用センサー20による撮像領域内の焦点検出位置をFA10からFA26までの11ポイントとする例で、それぞれの焦点検出位置は測光用センサー26による測光エリアのPD10からPD26部分に合致するものとしている。   The photometric sensor 26 is composed of an accumulation type photoelectric conversion element in an area such as a CMOS. FIG. 3A is a diagram showing a configuration example of the photometric sensor 26. As shown in FIG. 3A, the luminance information and color information of the subject for each area (photometric area) obtained by dividing the light receiving area into a plurality of areas. Can be output. In this example, a plurality of divided areas are divided into 35 rows of 7 columns × 5 rows, and the 35 divided areas are referred to as PD1 to PD35. Although not shown, each divided region of PD1 to PD35 is further divided into light receiving unit pixels, and each pixel is provided with a color filter in a fixed arrangement. Subject detection information can be obtained based on the output information of the photometric sensor 26 having such a configuration. The subject detection information may be human face detection information based on the detailed light receiving unit pixel output of the photometry sensor 26 or main subject color information based on the color detection information of the photometry sensor 26. FIG. 3B is a diagram showing the relationship between the photometry area of the photometry sensor 26 and the focus detection position of the focus detection sensor 20. In this example, the focus detection position in the imaging region by the focus detection sensor 20 is 11 points from FA10 to FA26, and each focus detection position matches the PD10 to PD26 portion of the photometry area by the photometry sensor 26. It is supposed to be.

27は交換レンズ2を取り付けるマウント部、28は交換レンズ2と情報通信を行うための接点部、29はフラッシュ3を取り付けられる接続部である。   Reference numeral 27 denotes a mount portion for attaching the interchangeable lens 2, 28 denotes a contact portion for performing information communication with the interchangeable lens 2, and 29 denotes a connection portion to which the flash 3 is attached.

交換レンズ2において、30a〜30eは撮影レンズを構成する各光学レンズ、31は絞り、32はカメラ本体1と情報通信を行うための接点部、33はカメラ本体1に取り付けられるためのマウント部である。   In the interchangeable lens 2, 30 a to 30 e are optical lenses constituting the photographing lens, 31 is a diaphragm, 32 is a contact portion for performing information communication with the camera body 1, and 33 is a mount portion for being attached to the camera body 1. is there.

フラッシュ3において、34は光源であるキセノン管、35は光源が発する光を所定方向に反射させる反射部材、36はキセノン管34からの光及び反射部材35で反射された光を集光するフレネルレンズである。また、37はキセノン管34の発光量をモニターするためのモニターセンサー、38はカメラ本体1にフラッシュ3を取り付けるための取り付け部である。   In the flash 3, 34 is a xenon tube as a light source, 35 is a reflecting member that reflects light emitted from the light source in a predetermined direction, and 36 is a Fresnel lens that collects light from the xenon tube 34 and light reflected by the reflecting member 35. It is. Reference numeral 37 denotes a monitor sensor for monitoring the light emission amount of the xenon tube 34, and 38 denotes an attachment portion for attaching the flash 3 to the camera body 1.

図4は、図1に示した撮像システムのブロック図であり、図1と同様の部分は図1と同じ符号にしている。   4 is a block diagram of the imaging system shown in FIG. 1, and the same reference numerals as those in FIG.

カメラ本体1において、41は例えば内部にALU、ROM、RAMやA/Dコンバータ、タイマー、シリアル通信ポート(SPI)等を内蔵したワンチップマイクロコンピュータ(マイコン)でありカメラ撮像システムの全体制御を行う。   In the camera body 1, for example, 41 is a one-chip microcomputer (microcomputer) incorporating an ALU, ROM, RAM, A / D converter, timer, serial communication port (SPI), etc., and performs overall control of the camera imaging system. .

焦点検出用センサー20及び測光用センサー26の出力信号は、マイコン41のA/Dコンバータ入力端子に接続される。42は測光用センサー26の蓄積や読み出しを制御するためのタイミング信号等を生成するタイミングジェネレータである。   Output signals of the focus detection sensor 20 and the photometry sensor 26 are connected to an A / D converter input terminal of the microcomputer 41. A timing generator 42 generates a timing signal for controlling accumulation and reading of the photometric sensor 26.

43は信号処理回路であり、マイコン41の指示に従って撮像素子12を制御して撮像素子12が出力する撮像信号をA/D変換しながら入力して信号処理を行い、画像信号を得る。また、得られた画像信号を記録するにあたって、圧縮等の必要な画像処理を行う。44はDRAM等のメモリであり、信号処理回路43が種々の信号処理を行う際のワーク用メモリとして使われたり、後述する表示器45に画像を表示する際のVRAMとして使われたりする。45は液晶パネル等で構成されて各種撮影情報や撮像画像を表示する表示部であり、マイコン41からの指示により点灯制御される。46はフラッシュメモリ又は光ディスク等による記憶手段であり、撮像された画像信号を信号処理回路43から入力されて記憶する。   A signal processing circuit 43 controls the image sensor 12 according to an instruction from the microcomputer 41 and inputs an image signal output from the image sensor 12 while performing A / D conversion to obtain an image signal. Further, when recording the obtained image signal, necessary image processing such as compression is performed. Reference numeral 44 denotes a memory such as a DRAM, which is used as a work memory when the signal processing circuit 43 performs various signal processing, or used as a VRAM when displaying an image on the display unit 45 described later. Reference numeral 45 denotes a display unit that is configured by a liquid crystal panel or the like and displays various types of shooting information and captured images, and lighting control is performed according to instructions from the microcomputer 41. Reference numeral 46 denotes a storage means such as a flash memory or an optical disk, which stores a captured image signal inputted from the signal processing circuit 43.

47は第1のモータドライバであり、マイコン41の出力端子に接続されて制御されて、主ミラー13及び第1の反射ミラー14のアップ・ダウンやメカニカルシャッター10のチャージを行うための第1のモータ48を駆動する。49は撮影開始を指示するためのレリーズスイッチである。   A first motor driver 47 is connected to and controlled by the output terminal of the microcomputer 41 to control the first mirror 13 and the first reflecting mirror 14 up and down and to charge the mechanical shutter 10. The motor 48 is driven. Reference numeral 49 denotes a release switch for instructing start of photographing.

28は交換レンズ2との接点部であり、マイコン41のシリアル通信ポートの入出力信号が接続される。29はフラッシュ3との接続部であり、フラッシュ3と通信が可能なようにマイコン41のシリアル通信ポートの入出力信号が接続される。50はシャッター駆動手段でありマイコン41の出力端子に接続されてメカニカルシャッター10を駆動する。   Reference numeral 28 denotes a contact portion with the interchangeable lens 2 to which an input / output signal of a serial communication port of the microcomputer 41 is connected. Reference numeral 29 denotes a connection portion with the flash 3, and an input / output signal of a serial communication port of the microcomputer 41 is connected so that communication with the flash 3 is possible. Reference numeral 50 denotes shutter driving means which is connected to the output terminal of the microcomputer 41 and drives the mechanical shutter 10.

交換レンズ2において、51は例えば内部にALU、ROM、RAMやタイマー、シリアル通信ポート(SPI)等を内蔵したワンチップマイクロコンピュータによるレンズマイコンである。   In the interchangeable lens 2, reference numeral 51 denotes a lens microcomputer by a one-chip microcomputer that contains, for example, an ALU, ROM, RAM, timer, serial communication port (SPI), and the like.

52は第2のモータドライバであり、レンズマイコン51の出力端子に接続されて制御され、焦点調節を行うための第2のモータ53を駆動する。54は第3のモータドライバであり、レンズマイコン51の出力端子に接続されて制御され、絞り31の制御を行うための第3のモータ55を駆動する。56は焦点調節レンズ(フォーカスレンズ)の繰り出し量すなわち被写体距離に関する情報を得るための距離エンコーダーであり、レンズマイコン51の入力端子に接続される。57は交換レンズ2がズームレンズである場合に撮影時の焦点距離情報を得るためのズームエンコーダーであり、レンズマイコン51の入力端子に接続される。32はカメラ本体1との接点部であり、レンズマイコン51のシリアル通信ポートの入出力信号が接続される。   A second motor driver 52 is connected to and controlled by the output terminal of the lens microcomputer 51 and drives a second motor 53 for adjusting the focus. A third motor driver 54 is connected to and controlled by the output terminal of the lens microcomputer 51 and drives a third motor 55 for controlling the diaphragm 31. Reference numeral 56 denotes a distance encoder for obtaining information related to the extension amount of the focus adjustment lens (focus lens), that is, subject distance, and is connected to the input terminal of the lens microcomputer 51. Reference numeral 57 denotes a zoom encoder for obtaining focal length information at the time of photographing when the interchangeable lens 2 is a zoom lens, and is connected to an input terminal of the lens microcomputer 51. Reference numeral 32 denotes a contact portion with the camera body 1 to which an input / output signal of a serial communication port of the lens microcomputer 51 is connected.

交換レンズ2がカメラ本体1に装着されると、接点部28、32が互いに接続されてレンズマイコン51はカメラ本体1のマイコン41とのデータ通信が可能となる。カメラ本体1のマイコン41が焦点検出や露出演算を行うために必要なレンズ固有の光学的な情報は、レンズマイコン51からカメラ本体1のマイコン41へとデータ通信によって出力される。また、距離エンコーダー56あるいはズームエンコーダー57に基づいた被写体距離に関する情報または焦点距離情報は、レンズマイコン51からカメラ本体1のマイコン41へとデータ通信によって出力される。また、カメラ本体1のマイコン41が焦点検出や露出演算を行った結果求められた焦点調節情報や絞り情報はカメラ本体1のマイコン41からレンズマイコン51へとデータ通信によって出力される。そして、レンズマイコン51は焦点調節情報に従って第2のモータドライバ52を制御し、絞り情報に従って第3のモータドライバ54を制御する。   When the interchangeable lens 2 is attached to the camera body 1, the contact portions 28 and 32 are connected to each other, and the lens microcomputer 51 can perform data communication with the microcomputer 41 of the camera body 1. The lens-specific optical information necessary for the microcomputer 41 of the camera body 1 to perform focus detection and exposure calculation is output from the lens microcomputer 51 to the microcomputer 41 of the camera body 1 by data communication. Further, information on the subject distance or focal length information based on the distance encoder 56 or the zoom encoder 57 is output from the lens microcomputer 51 to the microcomputer 41 of the camera body 1 by data communication. Further, focus adjustment information and aperture information obtained as a result of the focus detection and exposure calculation performed by the microcomputer 41 of the camera body 1 are output from the microcomputer 41 of the camera body 1 to the lens microcomputer 51 by data communication. The lens microcomputer 51 controls the second motor driver 52 in accordance with the focus adjustment information, and controls the third motor driver 54 in accordance with the aperture information.

フラッシュ3において、61は例えば内部にALU、ROM、RAMやA/Dコンバータ、タイマー、シリアル通信ポート(SPI)等を内蔵したワンチップマイクロコンピュータによるフラッシュマイコンである。62はコンデンサを含み、キセノン管34の発光に必要な300V程度の高圧電圧を作りその高圧電圧をコンデンサに充電する機能を有する昇圧部である。   In the flash 3, 61 is a flash microcomputer by a one-chip microcomputer having an ALU, ROM, RAM, A / D converter, timer, serial communication port (SPI) and the like built therein. A booster 62 includes a capacitor and has a function of generating a high voltage of about 300 V necessary for light emission of the xenon tube 34 and charging the high voltage to the capacitor.

フラッシュ3がカメラ本体1に装着されると、接続部38、29が互いに接続されてフラッシュマイコン61はカメラ本体1のマイコン41とのデータ通信が可能となる。フラッシュマイコン61はカメラ本体1のマイコン41からの通信内容に従って昇圧部62を制御してキセノン管34の発光開始や発光停止を行うとともに、モニターセンサー37の検出量をカメラ本体1のマイコン41に対して出力する。   When the flash 3 is attached to the camera body 1, the connecting portions 38 and 29 are connected to each other, and the flash microcomputer 61 can perform data communication with the microcomputer 41 of the camera body 1. The flash microcomputer 61 controls the booster 62 in accordance with the communication contents from the microcomputer 41 of the camera body 1 to start and stop the light emission of the xenon tube 34, and the detected amount of the monitor sensor 37 to the microcomputer 41 of the camera body 1. Output.

次に、本実施形態の撮像システムの発光撮影に関する動作を図5を用いて説明する。図5は、本実施形態の撮像システムの発光撮影に関する動作を示す図であり、カメラ本体1が有する不図示の電源スイッチがオンされてマイコン41が動作可能となると、図5に示す動作が開始される。   Next, an operation related to light emission photography of the imaging system of the present embodiment will be described with reference to FIG. FIG. 5 is a diagram showing operations related to light emission photography of the imaging system of the present embodiment. When a power switch (not shown) included in the camera body 1 is turned on and the microcomputer 41 becomes operable, the operation shown in FIG. 5 starts. Is done.

ステップS101でマイコン41は、フラッシュマイコン61に通信して、昇圧部62を動作させてフラッシュ3の発光に十分となるようコンデンサに充電するように指示する。   In step S <b> 101, the microcomputer 41 communicates with the flash microcomputer 61 to operate the booster 62 and instruct the capacitor to be charged so that it is sufficient for the flash 3 to emit light.

ステップS102でマイコン41は、レンズマイコン51と通信を行ない測距や測光に必要な各種レンズ情報を得る。   In step S102, the microcomputer 41 communicates with the lens microcomputer 51 to obtain various lens information necessary for distance measurement and photometry.

ステップS103でマイコン41は、焦点検出用センサー20に対して制御信号を出力する。そして、マイコン41は、焦点検出用センサー20の信号蓄積が終了すると焦点検出用センサー20に蓄積された信号を読み出してA/D変換を行い、読み込まれた各デジタルデータに対してシェーディング等の必要な各種のデータ補正を行う。   In step S <b> 103, the microcomputer 41 outputs a control signal to the focus detection sensor 20. When the signal accumulation of the focus detection sensor 20 is completed, the microcomputer 41 reads out the signal accumulated in the focus detection sensor 20, performs A / D conversion, and needs shading or the like for each read digital data. Various data corrections are performed.

ステップS104でマイコン41は、ステップS102で得たレンズ情報とステップS103で得たデジタルデータに基づいて撮像領域内の各焦点検出位置の焦点状態を演算し、撮像領域内の焦点を合わせるべき領域(合焦対象領域)を決定する。なお、合焦対象領域は、あらかじめカメラ本体1が有する不図示の操作部材などにより指定されている領域があるならばその指定にしたがってもよい。   In step S104, the microcomputer 41 calculates the focus state of each focus detection position in the imaging region based on the lens information obtained in step S102 and the digital data obtained in step S103, and a region in the imaging region to be focused ( A focus target area) is determined. The focus target area may be specified according to an area designated in advance by an operation member (not shown) included in the camera body 1.

そして、マイコン41は、決定された合焦対象領域における焦点状態に従って合焦となるためのレンズ移動量を算出し、算出されたレンズ移動量をレンズマイコン51に出力する。レンズマイコン51は、マイコン41から取得したレンズ移動量に基づいて焦点調節用レンズを駆動するように第2のモータドライバ52に信号出力して、第2のモータ53を駆動する。これにより決定された合焦対象領域の被写体に対して合焦状態となる。ここで、焦点調節用レンズを駆動することで距離エンコーダー56の情報が変化するので、マイコン41はレンズマイコン51と通信を行い、各種レンズ情報の更新も行う。また、マイコン41は、合焦対象領域の被写体に対して合焦状態となった後に、再度焦点検出用センサー20の信号蓄積と信号読み出し及び撮像領域内の各焦点検出位置の焦点状態を演算する。   Then, the microcomputer 41 calculates a lens movement amount for focusing according to the focus state in the determined focus target area, and outputs the calculated lens movement amount to the lens microcomputer 51. The lens microcomputer 51 drives the second motor 53 by outputting a signal to the second motor driver 52 so as to drive the focus adjustment lens based on the lens movement amount acquired from the microcomputer 41. As a result, the subject in the focus target area determined is brought into focus. Here, since the information of the distance encoder 56 is changed by driving the focus adjustment lens, the microcomputer 41 communicates with the lens microcomputer 51 and updates various lens information. Further, the microcomputer 41 calculates the focus state of each focus detection position in the imaging region again after the signal in the focus detection sensor 20 is accumulated and read out after the subject in the focus target region is brought into focus. .

ステップS105でマイコン41は、タイミングジェネレータ42を制御して測光用センサー26の所定の蓄積制御及び信号読み出し制御を行う。ここでは、被写体検知処理と撮影時露出を決定するための露出演算用の第1の測光情報と、測光対象の光量変化特性(光量変化周期および位相)を算出するための第2の測光情報とが得られるように制御する。   In step S105, the microcomputer 41 controls the timing generator 42 to perform predetermined accumulation control and signal readout control of the photometric sensor 26. Here, first photometric information for exposure calculation for determining subject detection processing and exposure at the time of photographing, and second photometric information for calculating a light quantity change characteristic (light quantity change period and phase) of a photometric object, Control to obtain

第2の測光情報を得るためには、例えば、想定される光量変化周期よりも十分に短い間隔での蓄積制御及び信号読み出し制御を複数回繰り返し行う。マイコン41は、測光用センサー26から複数回の蓄積信号を順次読み出し、A/D変換を行いRAMに格納する。   In order to obtain the second photometric information, for example, accumulation control and signal readout control at intervals sufficiently shorter than an assumed light amount change cycle are repeated a plurality of times. The microcomputer 41 sequentially reads the accumulated signal from the photometric sensor 26 a plurality of times, performs A / D conversion, and stores it in the RAM.

なお、第1の測光情報を得るための蓄積と第2の測光情報を得るための蓄積とは各々独立に行う例も考えられるし、第2の測光情報を得るための蓄積から得た測光情報を加算して第1の測光情報を得るための蓄積情報とすることも可能である。   Note that an example in which the accumulation for obtaining the first photometric information and the accumulation for obtaining the second photometric information are performed independently is conceivable, and the photometric information obtained from the accumulation for obtaining the second photometric information is conceivable. It is also possible to add to the stored information for obtaining the first photometric information.

ステップS106でマイコン41は、RAMに格納された第1の測光情報に基づいて被写体検知処理と露出演算処理を行う。被写体検知処理は、人物の顔検出や被写体の色検出などであり、例えば、連写撮影時にはこれらの情報を次回の焦点検出時にフィードバックして同じ被写体にピントを合わせられるようにすることも可能である。   In step S106, the microcomputer 41 performs subject detection processing and exposure calculation processing based on the first photometric information stored in the RAM. Subject detection processing includes human face detection and subject color detection.For example, during continuous shooting, this information can be fed back at the next focus detection so that the same subject can be focused. is there.

露出演算処理は、例えば、第1の測光情報から35分割された測光エリアそれぞれの測光値を算出し、被写体検知情報やステップS104で決定された合焦対象領域の情報などに基づいて測光エリアごとの重み付け係数を算出する。そして、測光エリアごとの測光値に各々の重み付けをして加重平均するといった周知の方法で被写体輝度を算出する。被写体輝度が算出されたら、その輝度に対して適切な撮影を行うことができるシャッター速度、絞り値、撮影感度などの露出条件を決定する。   In the exposure calculation process, for example, the photometric value of each photometric area divided into 35 from the first photometric information is calculated, and for each photometric area based on the subject detection information, the information on the focus target area determined in step S104, and the like. The weighting coefficient is calculated. Then, the subject luminance is calculated by a well-known method such as weighting and averaging each photometric value for each photometric area. Once the subject brightness is calculated, exposure conditions such as a shutter speed, an aperture value, and shooting sensitivity that can perform appropriate shooting for the brightness are determined.

ステップS107でマイコン41は、第2の測光情報に基づいて、測光対象の光量変化特性を算出する。以下では、測光対象の光量変化特性を算出することをフリッカー検知と呼ぶこととする。ステップS107で実行するフリッカー検知処理の詳細については後述する。   In step S107, the microcomputer 41 calculates the light amount change characteristic of the photometric target based on the second photometric information. Hereinafter, calculating the light amount change characteristic of the photometric object is referred to as flicker detection. Details of the flicker detection process executed in step S107 will be described later.

ステップS108でマイコン41は、レリーズスイッチ49がオンされるのを待つ。オンされていなければステップS101へ移行し、レリーズスイッチ49がオンされていればステップS109へ移行する。   In step S108, the microcomputer 41 waits for the release switch 49 to be turned on. If it is not turned on, the process proceeds to step S101, and if the release switch 49 is turned on, the process proceeds to step S109.

ステップS109でマイコン41は、フラッシュマイコン61にフラッシュ3の予備発光を指示する。マイコン41からの指示にしたがってフラッシュマイコン61は、モニターセンサー37の出力信号に基づきキセノン管34が予め定められた予備発光量だけ発光するようにキセノン管34を発光させる。この予備発光が行われている間の被写体の測光情報(予備発光時測光情報)を得るために、マイコン41はタイミングジェネレータ42を制御して測光用センサー26による所定の蓄積制御及び信号読み出し制御を行う。マイコン41は、測光用センサー26の信号蓄積が終了すると測光用センサー26に蓄積された信号を読み出してA/D変換を行いRAMに格納する。マイコン41は、RAMに格納された測光用センサー26の蓄積信号情報に基づいて、周知の方法でフラッシュ3の本発光量を決定する演算を行う。   In step S109, the microcomputer 41 instructs the flash microcomputer 61 to perform preliminary light emission of the flash 3. In accordance with an instruction from the microcomputer 41, the flash microcomputer 61 causes the xenon tube 34 to emit light based on the output signal of the monitor sensor 37 so that the xenon tube 34 emits a predetermined amount of preliminary light emission. In order to obtain subject photometric information (preliminary light metering information) during the preliminary light emission, the microcomputer 41 controls the timing generator 42 to perform predetermined accumulation control and signal readout control by the photometric sensor 26. Do. When the signal accumulation of the photometric sensor 26 is completed, the microcomputer 41 reads the signal accumulated in the photometric sensor 26, performs A / D conversion, and stores it in the RAM. The microcomputer 41 performs a calculation for determining the main light emission amount of the flash 3 by a known method based on the accumulated signal information of the photometric sensor 26 stored in the RAM.

ステップS110でマイコン41は、第1のモータドライバ47に制御信号を出力して、第1のモータ48を駆動して主ミラー13及び第1の反射ミラー14を跳ね上げる。続いて、マイコン41は、ステップS106で演算された絞り値情報をレンズマイコン51に出力する。この情報にしたがってレンズマイコン51は、絞り31を駆動するように第3のモータドライバ54に信号出力して、第3のモータ55を駆動する。   In step S110, the microcomputer 41 outputs a control signal to the first motor driver 47, drives the first motor 48, and raises the main mirror 13 and the first reflecting mirror 14. Subsequently, the microcomputer 41 outputs the aperture value information calculated in step S <b> 106 to the lens microcomputer 51. In accordance with this information, the lens microcomputer 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55.

ステップS111でマイコン41は、ステップS107のフリッカー検知によりフリッカーが検知されている(測光対象の光量が所定の周期で変化している)場合に、露光タイミング調整を行う。露光タイミング調整では、フリッカー光源の光量変化の影響で画像内で露出ムラや色ムラが生じたり、連続して撮影した複数の画像間で露出や色温度のばらつきが生じないように、フリッカー光源の光量変化における所定の位相に露光タイミングを合わせる。例えば、フリッカー光源の光量変化のうちピークとなる位相の近傍は光量変化の度合いが最も小さい。そこで、本実施形態では、フリッカー光源の光量変化におけるピークタイミングに露光タイミングを合わせる。フリッカー光源の光量変化におけるピークタイミングに露光タイミングを合わせる方法は、例えば、特開2015−210283号公報に記載された方法などの公知の方法を用いればよく、詳細な説明は省略する。   In step S111, the microcomputer 41 adjusts the exposure timing when flicker is detected by the flicker detection in step S107 (the amount of light to be measured changes at a predetermined cycle). In the exposure timing adjustment, the flicker light source is controlled so that exposure unevenness and color unevenness do not occur in the image due to the change in the light amount of the flicker light source, and exposure and color temperature variations do not occur between multiple images taken continuously. The exposure timing is adjusted to a predetermined phase in the light quantity change. For example, the amount of light quantity change is the smallest in the vicinity of the peak phase among the light quantity changes of the flicker light source. Therefore, in the present embodiment, the exposure timing is adjusted to the peak timing in the light amount change of the flicker light source. As a method for adjusting the exposure timing to the peak timing in the light amount change of the flicker light source, for example, a known method such as a method described in Japanese Patent Application Laid-Open No. 2015-210283 may be used, and detailed description thereof is omitted.

ステップS112でマイコン41は、シャッター駆動手段50に対して信号出力を行い、メカニカルシャッター10を開放状態とする。これにより撮像素子12に交換レンズ2を透過した光が入射する状態(露光状態)となる。マイコン41は、ステップS106で演算されたシャッター速度に応じた蓄積時間と所定の撮像感度にしたがった読み出しゲインとに撮像素子12が設定されて信号蓄積が行われるように信号処理回路43に対して指示を出す。また、発光撮影するために露光タイミングに同期してフラッシュ3が本発光するようにフラッシュマイコン61にフラッシュ3の本発光指示を出力する。フラッシュマイコン61は、マイコン41からの本発光指示にしたがって、ステップS109で演算された本発光量に対応する発光量となるようにモニターセンサー37の出力信号に基づきキセノン管34を発光させる。以上のようにして、フラッシュ3の発光が伴う撮像が実行される。   In step S <b> 112, the microcomputer 41 outputs a signal to the shutter driving unit 50 to open the mechanical shutter 10. As a result, the image sensor 12 enters a state (exposure state) where light transmitted through the interchangeable lens 2 enters. The microcomputer 41 sets the image sensor 12 to the signal processing circuit 43 so that the signal is accumulated with the accumulation time corresponding to the shutter speed calculated in step S106 and the read gain according to the predetermined imaging sensitivity. Give instructions. Further, in order to perform flash photography, a flash 3 main flash instruction is output to the flash microcomputer 61 so that the flash 3 performs main flash in synchronization with the exposure timing. In accordance with the main light emission instruction from the microcomputer 41, the flash microcomputer 61 causes the xenon tube 34 to emit light based on the output signal of the monitor sensor 37 so that the light emission amount corresponds to the main light emission amount calculated in step S109. As described above, imaging accompanied by light emission of the flash 3 is executed.

ステップS106で演算されたシャッター速度に応じた蓄積時間が経過すると、マイコン41は、シャッター駆動手段50に対して信号出力を行い、メカニカルシャッター10を遮光状態とする。これにより撮像素子12に対する交換レンズ2を透過した光が遮断される。   When the accumulation time corresponding to the shutter speed calculated in step S106 elapses, the microcomputer 41 outputs a signal to the shutter driving unit 50 to put the mechanical shutter 10 in a light shielding state. As a result, the light transmitted through the interchangeable lens 2 with respect to the image sensor 12 is blocked.

ステップS113でマイコン41は、レンズマイコン51に絞り31を開放するように情報を出力する。このマイコン4からの情報にしたがってレンズマイコン51は、絞り31を駆動するように第3のモータドライバ54に信号出力して、第3のモータ55を駆動する。さらに、マイコン41は、第1のモータドライバ47に制御信号を出力して、第1のモータ48を駆動して主ミラー13及び第1の反射ミラー14をダウンさせる。   In step S <b> 113, the microcomputer 41 outputs information to the lens microcomputer 51 so as to open the diaphragm 31. In accordance with the information from the microcomputer 4, the lens microcomputer 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31 and drives the third motor 55. Further, the microcomputer 41 outputs a control signal to the first motor driver 47 and drives the first motor 48 to bring down the main mirror 13 and the first reflecting mirror 14.

ステップS114でマイコン41は、撮像画像情報を撮像素子12からA/D変換しながら読み出して、必要な補正処理や補間処理を行うように信号処理回路43に対して指示を出す。   In step S114, the microcomputer 41 reads the captured image information from the image sensor 12 while performing A / D conversion, and instructs the signal processing circuit 43 to perform necessary correction processing and interpolation processing.

ステップS115でマイコン41は、信号処理回路43に対して指示を出して撮像画像情報に対してホワイトバランス調整を行う。具体的には、撮像画像情報に基づく画像を複数領域に分割し、各領域毎の色差信号より被写体の白色領域を抽出する。さらに抽出された領域の信号に基づいて画像全体の赤チャンネル及び青チャンネルのゲイン補正を行いホワイトバランス調整を行う。   In step S115, the microcomputer 41 instructs the signal processing circuit 43 to perform white balance adjustment on the captured image information. Specifically, the image based on the captured image information is divided into a plurality of areas, and the white area of the subject is extracted from the color difference signal for each area. Further, the white balance adjustment is performed by correcting the gain of the red channel and the blue channel of the entire image based on the signal of the extracted region.

ステップS116でマイコン41は、ホワイトバランス調整が行われた撮像画像情報を記録ファイルフォーマットに圧縮変換して記憶手段46に記憶するように信号処理回路43に対して指示を出す。以上が発光撮影に関する一連の動作である。   In step S 116, the microcomputer 41 instructs the signal processing circuit 43 to compress and convert the captured image information subjected to white balance adjustment into a recording file format and store it in the storage unit 46. The above is a series of operations related to flash photography.

次に、ステップS107のフリッカー検知処理に関する動作について図6及び図7を用いて説明する。図6は、フリッカー検知処理に関する動作を示す図であり、図7は、撮影環境に応じたフリッカー検知用被写体輝度値を算出するときの各測光エリアの重み付けを示す図である。   Next, the operation relating to the flicker detection process in step S107 will be described with reference to FIGS. FIG. 6 is a diagram illustrating an operation related to flicker detection processing, and FIG. 7 is a diagram illustrating weighting of each photometric area when calculating a flicker detection subject luminance value corresponding to a shooting environment.

ステップS151でマイコン41は、ステップS104で合焦対象領域の被写体に対して合焦状態となった後に再度演算した、撮像領域内の各焦点検出位置の焦点状態に基づいて、主被写体領域と主被写体よりは遠方にあると見なせる背景領域とを判別する。主被写体領域とは、合焦対象領域の被写体に対応する領域であり、主被写体領域の判別にはステップS106の被写体検知処理の検知結果を加味してもよい。   In step S151, the microcomputer 41 calculates the main subject region and the main subject region based on the focus state of each focus detection position in the imaging region, which is calculated again after the subject in the focus target region is brought into focus in step S104. A background area that can be considered far away from the subject is determined. The main subject region is a region corresponding to the subject in the focus target region, and the detection result of the subject detection process in step S106 may be taken into account in determining the main subject region.

ステップS152でマイコン41は、ステップS106で算出した被写体輝度値に基づいて、日中の屋外等の高輝度環境での撮影と見なせるような被写体輝度の大きさであるか否かを判定する。具体的には、例えば、ステップS106で算出した被写体輝度値が、あらかじめ設定された第1の閾値以上か否かを判定する。なお、ステップS106で算出した被写体輝度値とステップS106で決定した露出条件とに基づいて判定してもよい。被写体輝度値が第1の閾値未満の場合はステップS153へ移行し、被写体輝度値が第1の閾値以上の場合はステップS156へ移行する。   In step S152, the microcomputer 41 determines based on the subject brightness value calculated in step S106 whether the subject brightness is large enough to be regarded as shooting in a high brightness environment such as outdoors during the daytime. Specifically, for example, it is determined whether or not the subject luminance value calculated in step S106 is equal to or greater than a first threshold value set in advance. The determination may be made based on the subject luminance value calculated in step S106 and the exposure condition determined in step S106. If the subject brightness value is less than the first threshold value, the process proceeds to step S153, and if the subject brightness value is greater than or equal to the first threshold value, the process proceeds to step S156.

ステップS153でマイコン41は、ステップS106で算出した被写体輝度値に基づいて、比較的明るい屋内等の中輝度環境での撮影と見なせるような被写体輝度の大きさであるか否かを判定する。具体的には、例えば、ステップS106で算出した被写体輝度値が、あらかじめ設定された第2の閾値以上か否かを判定する。第2の閾値は第1の閾値よりも小さい値である。なお、ステップS106で算出した被写体輝度値とステップS106で決定した露出条件とに基づいて判定してもよい。被写体輝度値が第2の閾値未満の場合はステップS154へ移行し、被写体輝度値が第2の閾値以上の場合はステップS155へ移行する。   In step S153, the microcomputer 41 determines based on the subject brightness value calculated in step S106 whether the subject brightness is large enough to be regarded as shooting in a relatively bright medium brightness environment such as indoors. Specifically, for example, it is determined whether or not the subject luminance value calculated in step S106 is equal to or greater than a second threshold value set in advance. The second threshold value is smaller than the first threshold value. The determination may be made based on the subject luminance value calculated in step S106 and the exposure condition determined in step S106. When the subject brightness value is less than the second threshold value, the process proceeds to step S154, and when the subject brightness value is equal to or greater than the second threshold value, the process proceeds to step S155.

S154へ移行する場合は、夜の屋外など低輝度環境での撮影と見なせる。低輝度環境で発光撮影を行うと、図7(a)に示すようにフラッシュ3の光が届いた主被写体は明るく、フラッシュ3の光が届かない背景は暗くなる。このように、低輝度環境で発光撮影を行うときは、環境光の光源がフリッカー光源であっても画像に影響を与えるは極めて少ないため、フリッカー検知の検知領域を主被写体と背景とで区別しない。そこで、ステップS154でマイコン41は、図7(b)に示すように35分割された測光エリアそれぞれの重み付けを等しくして、単純平均してフリッカー検知用の被写体輝度値を算出する。そして、複数の第2の測光情報に基づく複数のフリッカー検知用の被写体輝度値を比較して、測光対象の光量変化周期を算出する。さらに、複数のフリッカー検知用の被写体輝度値の変化傾向から測光対象の光量変化における光量のピークタイミングを算出する。なお、測光対象の光量変化周期やピークタイミングの算出方法は、例えば、特開2015−210283号公報に記載された方法などの公知の方法を用いればよく、詳細な説明は省略する。   In the case of shifting to S154, it can be regarded as shooting in a low brightness environment such as outdoors at night. When flash photography is performed in a low-luminance environment, as shown in FIG. 7A, the main subject that the light from the flash 3 reaches is bright, and the background that the light from the flash 3 does not reaches is dark. In this way, when performing flash photography in a low-brightness environment, even if the ambient light source is a flicker light source, there is very little effect on the image, so the detection area for flicker detection is not distinguished between the main subject and the background. . Therefore, in step S154, the microcomputer 41 calculates the subject luminance value for flicker detection by equalizing the weights of the 35 photometry areas divided as shown in FIG. Then, a plurality of flicker detection subject luminance values based on a plurality of second photometric information are compared to calculate a light amount change period of the photometric target. Furthermore, the peak timing of the light quantity in the change in the light quantity of the photometric target is calculated from the change tendency of the subject luminance values for detecting a plurality of flickers. Note that a known method such as the method described in Japanese Patent Laid-Open No. 2015-210283 may be used as a method for calculating the light amount change period and peak timing of the photometric target, and detailed description thereof will be omitted.

中輝度環境で発光撮影を行うと、図7(c)に示すようにフラッシュ3の光が届いた被写体が明るくなる点は低輝度環境と同じであるが、フラッシュ3の光が届かない背景は環境光によりある程度の明るさとなる。このような中輝度環境では、フラッシュ3の光が届く被写体には環境光も届くが、フラッシュ3の光に比べて環境光は被写体に届く光量が小さいため、環境光の光源がフリッカー光源であっても被写体に与える影響は小さい。一方、フラッシュ3の光が届かない背景は環境光の光源がフリッカー光源であると影響が大きい。そのため、ステップS155でマイコン41は、フリッカー検知時には背景領域を重視し、図7(d)に示すように主被写体領域の測光エリアよりも背景領域の測光エリアの重み付けを大きくして、加重平均してフリッカー検知用の被写体輝度値を算出する。測光対象の光量変化における光量のピークタイミングを算出方法についてはステップS154と同じため説明は省略する。   When flash photography is performed in a medium luminance environment, as shown in FIG. 7C, the subject to which the light from the flash 3 reaches is bright as in the low luminance environment. However, the background where the light from the flash 3 does not reach is as follows. It becomes a certain level of brightness due to ambient light. In such a medium luminance environment, the ambient light reaches the subject to which the light from the flash 3 reaches, but the amount of ambient light that reaches the subject is smaller than the light from the flash 3, so the light source of the environmental light is the flicker light source. However, the effect on the subject is small. On the other hand, the background where the light from the flash 3 does not reach is greatly affected if the light source of the ambient light is a flicker light source. Therefore, in step S155, the microcomputer 41 attaches importance to the background area when flicker is detected, and the weighting of the photometry area in the background area is made larger than the photometry area in the main subject area as shown in FIG. The subject luminance value for flicker detection is calculated. The method for calculating the peak timing of the light amount in the change in the amount of light to be measured is the same as that in step S154, and the description thereof is omitted.

高輝度環境で発光撮影を行うと、図7(e)に示すようにフラッシュ3の光が届いた被写体が明るくなる点は低輝度環境や中輝度環境と同じであるが、フラッシュ3の光が届かない背景も環境光により一様な明るさとなる。このような高輝度環境では、フラッシュ3の光が届く被写体には環境光も届き、フラッシュ3の光に比べて環境光は被写体に届く光量が大きい。そのため、環境光の光源がフリッカー光源であればフラッシュ3の光が届く被写体に与える影響は大きい。フラッシュ3の光が届かない背景は、環境光の光源がフリッカー光源であると、中輝度環境よりも多くの環境光が届くためさらに影響が大きい。しかしながら、撮影者がきれいに撮りたいのは背景よりも主被写体である。そのため、ステップS156でマイコン41は、フリッカー検知時には主被写体領域を重視し、図7(f)に示すように主被写体領域の測光エリアを背景領域の測光エリアの重み付けよりも大きくして、加重平均してフリッカー検知用の被写体輝度値を算出する。測光対象の光量変化における光量のピークタイミングを算出方法についてはステップS154と同じため説明は省略する。   When flash photography is performed in a high-luminance environment, the subject to which the light from the flash 3 reaches is bright as shown in FIG. 7E, which is the same as in the low-luminance environment and the medium-luminance environment. The unreachable background also has a uniform brightness due to ambient light. In such a high brightness environment, the ambient light reaches the subject to which the light of the flash 3 reaches, and the amount of ambient light reaching the subject is larger than the light of the flash 3. Therefore, if the light source of the ambient light is a flicker light source, the influence on the subject to which the light of the flash 3 reaches is large. If the light source of the ambient light is a flicker light source, the influence of the background light from which the light of the flash 3 does not reach is greater because the ambient light reaches more than the medium luminance environment. However, what the photographer wants to take beautifully is the main subject rather than the background. Therefore, in step S156, the microcomputer 41 places importance on the main subject area when flicker is detected, and sets the metering area of the main subject area to be larger than the weighting of the metering area of the background area as shown in FIG. Thus, the subject brightness value for flicker detection is calculated. The method for calculating the peak timing of the light amount in the change in the amount of light to be measured is the same as that in step S154, and the description thereof is omitted.

以上のように、撮影環境に応じてフリッカー検知用の被写体輝度値を算出するときの各測光エリアに対する重み付けを設定することで、撮影環境に応じて測光対象からの光の光量変化特性を精度よく算出することができる。なお、撮影環境に応じて各測光エリアに対する重み付けを設定する例を図7を用いて説明したが、重み付けの値は図7に示した値に限定されない。例えば、図7(d)や図7(f)において重み付けの値が「1」になっている領域の重み付けの値を「0」としてもよい。重み付けの値を「0」にするということは、フリッカー検知用の被写体輝度値を算出するときにその測光エリアの測光値を用いないことを意味する。すなわち、フリッカー検知用の被写体輝度値を算出するときの各測光エリアに対する重み付けを設定することは、フリッカー検知用の被写体輝度値を算出するときに用いる測光エリアを選択することも含む。   As described above, by setting the weighting for each photometry area when calculating the subject brightness value for flicker detection according to the shooting environment, the light quantity change characteristic of the light from the photometry target can be accurately determined according to the shooting environment. Can be calculated. In addition, although the example which sets weighting with respect to each photometry area according to imaging | photography environment was demonstrated using FIG. 7, the value of weighting is not limited to the value shown in FIG. For example, the weighting value of the area where the weighting value is “1” in FIG. 7D or FIG. 7F may be “0”. Setting the weighting value to “0” means that the photometric value of the photometric area is not used when calculating the subject luminance value for flicker detection. That is, setting the weighting for each photometric area when calculating the subject luminance value for flicker detection includes selecting the photometric area to be used when calculating the subject luminance value for flicker detection.

(第2の実施形態)
第1の実施形態では、フリッカー検知用の被写体輝度値を算出するときの各測光エリアに対する重み付けを設定するために、焦点状態情報を用いて主被写体領域と背景領域とを判別する例を説明した。第2の実施形態では、焦点状態情報を用いる方法とは異なる方法で主被写体領域と背景領域とを判別する例を説明する。なお、本実施形態の撮像システムは第1の実施形態の撮像システムと同様であるため詳細な説明は省略する。
(Second Embodiment)
In the first embodiment, an example has been described in which the main subject region and the background region are discriminated using the focus state information in order to set the weighting for each photometric area when calculating the subject luminance value for flicker detection. . In the second embodiment, an example will be described in which the main subject region and the background region are determined by a method different from the method using the focus state information. Note that the imaging system of the present embodiment is the same as the imaging system of the first embodiment, and thus detailed description thereof is omitted.

本実施形態の撮像システムの発光撮影に関する動作を図8を用いて説明する。図8は、本実施形態の撮像システムの発光撮影に関する動作を示す図であり、カメラ本体1が有する不図示の電源スイッチがオンされてマイコン41が動作可能となると、図8に示す動作が開始される。   The operation related to the flash photography of the imaging system of this embodiment will be described with reference to FIG. FIG. 8 is a diagram illustrating an operation related to light emission photographing of the imaging system of the present embodiment. When a power switch (not shown) included in the camera body 1 is turned on and the microcomputer 41 becomes operable, the operation illustrated in FIG. 8 starts. Is done.

ステップS201〜S206は、図5のステップS101〜S106と同様であるため説明は省略する。   Steps S201 to S206 are the same as steps S101 to S106 in FIG.

ステップS206で被写体検知処理と露出演算処理を行った後、ステップS207でマイコン41は、レリーズスイッチ49がオンされるのを待つ。ステップS207〜S209は、図5のステップS108〜S110と同様であるため説明は省略する。   After performing subject detection processing and exposure calculation processing in step S206, the microcomputer 41 waits for the release switch 49 to be turned on in step S207. Steps S207 to S209 are the same as steps S108 to S110 in FIG.

その後、ステップS210でマイコン41は、フリッカー検知処理を行う。ステップS210で実行するフリッカー検知処理の詳細については後述する。   Thereafter, in step S210, the microcomputer 41 performs flicker detection processing. Details of the flicker detection process executed in step S210 will be described later.

ステップS211〜S216は、図5のステップS111〜S116と同様であるため説明は省略する。   Steps S211 to S216 are the same as steps S111 to S116 in FIG.

次に、ステップS210のフリッカー検知処理に関する動作について図9を用いて説明する。図9は、フリッカー検知処理に関する動作を示す図であり、図6と比較してステップS251が図6のステップS151と異なる。   Next, the operation relating to the flicker detection process in step S210 will be described with reference to FIG. FIG. 9 is a diagram illustrating an operation related to flicker detection processing, and step S251 is different from step S151 in FIG. 6 in comparison with FIG.

ステップS251でマイコン41は、ステップS208で得た予備発光が行われている間の被写体の測光情報に基づいて、主被写体領域と背景領域を判別する。例えば、予備発光が行われている間の被写体の測光情報に基づいて、各測光エリアのうち測光値が所定値を超える領域は予備発光が届いた領域と判断して主被写体領域とし、その他の領域を背景領域とする。ここで、予備発光が行われている間の被写体の測光情報と予備発光が行われていないときの被写体の測光情報との差分を用いると、予備発光の反射光成分を抽出できるので、予備発光の直前か直後に被写体の測光情報を取得してもよい。   In step S251, the microcomputer 41 determines the main subject area and the background area based on the photometric information of the subject obtained during the preliminary light emission obtained in step S208. For example, based on the photometric information of the subject during the preliminary light emission, the area where the photometric value exceeds a predetermined value in each photometric area is determined as the area where the preliminary light emission has arrived, and is set as the main subject area. Let the region be the background region. Here, by using the difference between the photometric information of the subject during the preliminary light emission and the photometric information of the subject when the preliminary light emission is not performed, the reflected light component of the preliminary light emission can be extracted. The photometric information of the subject may be acquired immediately before or after.

続くステップS252〜S256は図5のステップS152〜S156と同様であるため説明は省略する。   The subsequent steps S252 to S256 are the same as steps S152 to S156 of FIG.

以上のように、本実施形態では、予備発光が行われている間の被写体の測光情報に基づいて主被写体領域と背景領域を判別するため、焦点状態が得られない領域に対しても、主被写体領域と背景領域を判別することができる。   As described above, in the present embodiment, the main subject region and the background region are determined based on the photometric information of the subject during the preliminary light emission, and thus the main subject region and the background region are distinguished from each other even in the region where the focus state cannot be obtained. A subject area and a background area can be discriminated.

また、実際に予備発光を行い、予備発光によって明るくなった領域を主被写体とするため、焦点状態に関する情報の精度によらず主被写体領域と背景領域を判別することができる。   In addition, since the preliminary light emission is actually performed and an area brightened by the preliminary light emission is used as the main subject, the main subject region and the background region can be distinguished regardless of the accuracy of the information regarding the focus state.

(第3の実施形態)
本実施形態は、フリッカー検知用の被写体輝度値を算出するときの各測光エリアに対する重み付けの設定方法が第1の実施形態及び第2の実施形態とは異なる。なお、本実施形態の撮像システムは第1の実施形態の撮像システムと同様であるため詳細な説明は省略する。また、本実施形態の撮像システムの発光撮影に関する動作は、第2の実施形態とフリッカー検知用の被写体輝度値を算出するときの各測光エリアに対する重み付けの設定方法が異なるだけであり、フリッカー検知処理に関する動作以外の説明は省略する。
(Third embodiment)
This embodiment is different from the first embodiment and the second embodiment in the weighting setting method for each photometric area when calculating the subject luminance value for flicker detection. Note that the imaging system of the present embodiment is the same as the imaging system of the first embodiment, and thus detailed description thereof is omitted. The operation related to the flash photography of the imaging system of the present embodiment is different from the second embodiment only in the weighting setting method for each photometric area when calculating the subject luminance value for flicker detection. Descriptions other than the operations related to are omitted.

本実施形態のフリッカー検知処理に関する動作について図10を用いて説明する。図10は、フリッカー検知処理に関する動作を示す図であり、図9と比較して環境光寄与率を算出するステップ(ステップS352)が追加されている。   Operations related to the flicker detection processing of the present embodiment will be described with reference to FIG. FIG. 10 is a diagram illustrating an operation related to the flicker detection process, and a step (step S352) of calculating the ambient light contribution rate is added as compared with FIG.

ステップS351でマイコン41は、ステップS208で得た予備発光が行われている間の被写体の測光情報に基づいて、主被写体領域と背景領域を判別する。   In step S351, the microcomputer 41 determines the main subject region and the background region based on the photometric information of the subject during the preliminary light emission obtained in step S208.

ステップS352でマイコン41は、ステップS206で決定した撮影時の露出条件(シャッター速度、絞り値、撮影感度)から求められる被写体輝度値に対してステップS206で演算した被写体輝度値を減算して環境光寄与率を判定する。   In step S352, the microcomputer 41 subtracts the subject luminance value calculated in step S206 from the subject luminance value obtained from the exposure condition (shutter speed, aperture value, photographing sensitivity) determined in step S206. Determine the contribution rate.

撮影時の露出条件から求められる被写体輝度値に対してステップS206で演算した被写体輝度値を減算した結果(減算結果)が小さい場合は、フラッシュ3を発光させずに環境光のみで撮影しても主被写体がほぼ適正な明るさで撮影されることになる。例えば、日中の屋外で明るい撮影環境だが主被写体である人物の目にキャッチライトを入れるためにフラッシュ3を発光する場合などが該当する。本実施形態では、減算結果が第1の閾値未満であれば環境光寄与率大のシーンとする。   If the result of subtracting the subject brightness value calculated in step S206 from the subject brightness value obtained from the exposure conditions at the time of shooting is small (subtraction result), the flash 3 is not fired and only the ambient light is used for shooting. The main subject is photographed with almost appropriate brightness. For example, it corresponds to a case where the flash 3 is emitted in order to put a catchlight in the eyes of a person who is a main subject in a bright shooting environment outdoors during the daytime. In this embodiment, if the subtraction result is less than the first threshold value, the scene has a large environmental light contribution rate.

一方、減算結果が大きい場合は、フラッシュ3を発光させずに環境光のみで撮影すると主被写体が暗く撮影されることになる。本実施形態では、減算結果が第1の閾値よりも大きい第2の閾値以上であれば環境光寄与率小のシーンとし、減算結果が第1の閾値以上で第2の閾値未満であれば環境光寄与率中のシーンとする。なお、上記のように環境光寄与率を分類するのではなく、具体的な値として求めてもよい。例えば、減算結果の逆数を環境光寄与率と定義すると、環境光寄与率を具体的な値とすることができ、このようにして求めた環境光寄与率を閾値と比較してもよい。   On the other hand, when the subtraction result is large, the main subject is photographed darkly when photographing with only ambient light without causing the flash 3 to emit light. In this embodiment, if the subtraction result is greater than or equal to the second threshold value that is greater than the first threshold value, the scene has a low environmental light contribution rate, and if the subtraction result is greater than or equal to the first threshold value and less than the second threshold value, the environment. The scene is in the light contribution ratio. Note that the ambient light contribution ratio may be obtained as a specific value instead of being classified as described above. For example, if the reciprocal of the subtraction result is defined as the ambient light contribution rate, the ambient light contribution rate can be set to a specific value, and the ambient light contribution rate thus obtained may be compared with a threshold value.

ステップS353でマイコン41は、環境光寄与率が大か否かを判定し、環境光寄与率が大でなければステップS354へ移行し、環境光寄与率が大であればステップS357へ移行する。   In step S353, the microcomputer 41 determines whether or not the environmental light contribution rate is large. If the environmental light contribution rate is not large, the microcomputer 41 proceeds to step S354. If the environmental light contribution rate is large, the microcomputer 41 proceeds to step S357.

ステップS354でマイコン41は、環境光寄与率が中か否かを判定し、環境光寄与率が中でなければステップS355へ移行し、環境光寄与率が中であればステップS356へ移行する。   In step S354, the microcomputer 41 determines whether the environmental light contribution rate is medium. If the environmental light contribution rate is not medium, the microcomputer 41 proceeds to step S355. If the environmental light contribution rate is medium, the microcomputer 41 proceeds to step S356.

ステップS355〜S357は図5のステップS154〜S156と同様であるため説明は省略する。   Steps S355 to S357 are the same as steps S154 to S156 in FIG.

以上のように、本実施形態では、環境光寄与率に応じてフリッカー検知用の被写体輝度値を算出するときの各測光エリアに対する重み付けを変更することで、フリッカー光源が影響する度合いに応じて各測光エリアに対する重み付けを変更することができる。そのため、環境に応じて測光対象からの光の光量変化特性を精度よく算出することができる。   As described above, in the present embodiment, the weighting for each photometric area when calculating the subject luminance value for flicker detection is changed according to the ambient light contribution rate, thereby changing each weight according to the degree of influence of the flicker light source. The weighting for the photometric area can be changed. Therefore, it is possible to accurately calculate the light quantity change characteristic of light from the photometric object according to the environment.

なお、本実施形態では、第2の実施形態と同様な方法で主被写体領域と背景領域とを判別しているが、第1の実施形態と同様な方法で主被写体領域と背景領域とを判別してもよい。   In this embodiment, the main subject area and the background area are discriminated by the same method as in the second embodiment, but the main subject area and the background area are discriminated by the same method as in the first embodiment. May be.

また、上記の3つの実施形態では、フリッカー検知用の被写体輝度値を算出するときの各測光エリアに対する重み付けを3つのパターンで変更する例を説明したが、被写体輝度や環境光寄与率に応じて4つ以上のパターンで変更するようにしてもよい。あるいは、3つのパターンのうちの2つのパターン(例えば、単純平均と背景重視、背景重視と主被写体重視など)のどちらかを被写体輝度や環境光寄与率に応じて選択するようにしてもよい。   In the above-described three embodiments, the example in which the weighting for each photometric area when calculating the subject luminance value for flicker detection is changed in three patterns has been described, but depending on the subject luminance and the ambient light contribution ratio You may make it change with four or more patterns. Alternatively, two of the three patterns (for example, simple average and background emphasis, background emphasis and main subject emphasis, etc.) may be selected according to subject brightness and ambient light contribution rate.

また、上記の3つの実施形態では、撮像装置に照明装置が装着された撮像システムを例にして説明したが、撮像装置が照明装置を内蔵していても構わない。   In the above-described three embodiments, the imaging system in which the illumination device is mounted on the imaging device has been described as an example. However, the imaging device may include the illumination device.

また、上記の3つの実施形態では、測光用センサー26を用いて得た測光情報に基づいて測光対象の光量変化特性を算出しているが、撮像素子12を駆動させて得た測光情報に基づいて測光対象の光量変化特性を算出してもよい。被写体輝度値の演算や環境光寄与率の決定においても撮像素子12を駆動させて得た測光情報を用いてもよい。   In the above three embodiments, the light quantity change characteristic of the photometric object is calculated based on the photometric information obtained using the photometric sensor 26, but based on the photometric information obtained by driving the image sensor 12. Thus, the light quantity change characteristic of the photometric object may be calculated. Photometric information obtained by driving the image sensor 12 may also be used in the calculation of the subject luminance value and the determination of the ambient light contribution rate.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1 カメラ本体
2 交換レンズ
3 フラッシュ
20 焦点検出用センサー
26 測光用センサー
41 マイコン
51 レンズマイコン
61 フラッシュマイコン
DESCRIPTION OF SYMBOLS 1 Camera body 2 Interchangeable lens 3 Flash 20 Focus detection sensor 26 Photometric sensor 41 Microcomputer 51 Lens microcomputer 61 Flash microcomputer

Claims (8)

撮像領域内の複数の測光エリアそれぞれの測光値を得るための測光手段と、
前記測光手段を用いて得られた前記複数の測光エリアそれぞれの測光値に対する重み付けを設定する設定手段と、
前記複数の測光エリアそれぞれの測光値と前記設定手段により設定された重み付けとに基づく輝度値に基づいて、前記測光手段の測光対象の光量変化特性を算出手段と、を有し、
前記設定手段は、撮影環境に応じて重み付けを設定することを特徴とする撮像装置。
A photometric means for obtaining a photometric value of each of a plurality of photometric areas in the imaging area;
Setting means for setting weights for the photometric values of the plurality of photometric areas obtained using the photometric means;
Based on a luminance value based on a photometric value of each of the plurality of photometric areas and a weight set by the setting unit, a light amount change characteristic of a photometric target of the photometric unit, and a calculation unit,
The imaging device according to claim 1, wherein the setting means sets a weight according to a shooting environment.
前記設定手段は、撮影環境の明るさに応じて重み付けを設定することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the setting unit sets weighting according to brightness of a shooting environment. 前記設定手段は、環境光寄与率に応じて重み付けを設定することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the setting unit sets weighting according to an environmental light contribution rate. 撮像領域内の主被写体領域と背景領域とを判別する判別手段を有し、
前記設定手段は、撮影環境に応じて前記主被写体領域の測光値に対する重み付けを前記背景領域に対する重み付けよりも大きくするか否かを変更することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
Having a discriminating means for discriminating between the main subject area and the background area in the imaging area;
4. The apparatus according to claim 1, wherein the setting unit changes whether or not the weighting for the photometric value of the main subject area is larger than the weighting for the background area according to a shooting environment. The imaging device described in 1.
撮像領域内の主被写体領域と背景領域とを判別する判別手段を有し、
前記設定手段は、撮影環境の明るさが明るい場合は暗い場合よりも、前記主被写体の測光値に対する重み付けを大きくすることを特徴とする請求項2に記載の撮像装置。
Having a discriminating means for discriminating between the main subject area and the background area in the imaging area;
The imaging apparatus according to claim 2, wherein the setting unit increases the weighting of the photometric value of the main subject when the brightness of the shooting environment is brighter than when the brightness is dark.
撮像領域内の主被写体領域と背景領域とを判別する判別手段を有し、
前記設定手段は、環境光寄与率が大きい場合は小さい場合よりも、前記主被写体の測光値に対する重み付けを大きくすることを特徴とする請求項3に記載の撮像装置。
Having a discriminating means for discriminating between the main subject area and the background area in the imaging area;
The imaging apparatus according to claim 3, wherein the setting unit increases the weighting for the photometric value of the main subject when the ambient light contribution ratio is large, compared to when the ambient light contribution ratio is small.
前記判別手段は、撮像領域内の各焦点検出位置の焦点状態に基づいて、前記主被写体領域と前記背景領域とを判別することを特徴とする請求項4乃至6のいずれか1項に記載の撮像装置。   7. The determination unit according to claim 4, wherein the determination unit determines the main subject region and the background region based on a focus state of each focus detection position in the imaging region. Imaging device. 撮像領域内の複数の測光エリアそれぞれの測光値を得る測光ステップと、
前記測光ステップで得られた前記複数の測光エリアそれぞれの測光値に対する重み付けを設定する設定ステップと、
前記複数の測光エリアそれぞれの測光値と前記設定ステップで設定された重み付けとに基づく輝度値に基づいて、前記測光ステップでの測光対象の光量変化特性を算出ステップと、を有し、
前記設定ステップは、撮影環境に応じて重み付けを設定することを特徴とする撮像装置の制御方法。
A photometric step for obtaining a photometric value of each of a plurality of photometric areas in the imaging region;
A setting step for setting weights for the photometric values of the plurality of photometric areas obtained in the photometric step;
Based on a luminance value based on a photometric value of each of the plurality of photometric areas and a weight set in the setting step, and calculating a light quantity change characteristic of a photometric object in the photometric step,
The method of controlling an imaging apparatus, wherein the setting step sets weighting according to a shooting environment.
JP2016110347A 2016-06-01 2016-06-01 Imaging device and control method Active JP6890932B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016110347A JP6890932B2 (en) 2016-06-01 2016-06-01 Imaging device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110347A JP6890932B2 (en) 2016-06-01 2016-06-01 Imaging device and control method

Publications (2)

Publication Number Publication Date
JP2017215529A true JP2017215529A (en) 2017-12-07
JP6890932B2 JP6890932B2 (en) 2021-06-18

Family

ID=60576935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110347A Active JP6890932B2 (en) 2016-06-01 2016-06-01 Imaging device and control method

Country Status (1)

Country Link
JP (1) JP6890932B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013076951A (en) * 2011-09-30 2013-04-25 Canon Inc Imaging apparatus and control method for the same
JP2016034094A (en) * 2014-07-31 2016-03-10 ソニー株式会社 Image processing system, image processing method, program and image sensor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013076951A (en) * 2011-09-30 2013-04-25 Canon Inc Imaging apparatus and control method for the same
JP2016034094A (en) * 2014-07-31 2016-03-10 ソニー株式会社 Image processing system, image processing method, program and image sensor

Also Published As

Publication number Publication date
JP6890932B2 (en) 2021-06-18

Similar Documents

Publication Publication Date Title
JP6108946B2 (en) Imaging apparatus, control method, program, and storage medium
JP6296697B2 (en) Imaging apparatus, control method, program, and storage medium
JP5597078B2 (en) Imaging apparatus and control method thereof
JP6303304B2 (en) camera
JP5489591B2 (en) Imaging apparatus and control method thereof
JP2013214878A (en) Imaging apparatus, exposure control method, and program
US10212344B2 (en) Image capturing device and control method capable of adjusting exposure timing based on detected light quantity change characteristic
JP2012155149A (en) Imaging apparatus and method for controlling the same
JP6742733B2 (en) Imaging device, control method thereof, and control program
JP2004004449A (en) Exposure control system for camera
JP2005192139A (en) Imaging apparatus and system
JP6456038B2 (en) Electronic device, light amount change characteristic calculation method, program, and storage medium
JP6388392B2 (en) Scene discrimination device, control method thereof, control program, and imaging device
JP6890932B2 (en) Imaging device and control method
JP2015225256A (en) Imaging device
JP2018093527A (en) Imaging device, control method, program, and storage medium
JP7327945B2 (en) IMAGING DEVICE, CONTROL METHOD AND PROGRAM THEREOF
JP7070558B2 (en) Imaging device, control method and processing device of imaging device
JP6351778B2 (en) Imaging apparatus, control method, program, and storage medium
JP2006017854A (en) Imaging apparatus and flash light emitting device
JP2022168738A (en) Imaging device and control method thereof, program, storage medium
JP2017138346A (en) Imaging device
JP6478493B2 (en) Imaging apparatus, control method, program, and storage medium
JP2016039579A (en) Imaging device, control method, program and storage medium
JP2021152575A (en) Light emission control device and light emission control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210526

R151 Written notification of patent or utility model registration

Ref document number: 6890932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151