JP2014127770A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2014127770A
JP2014127770A JP2012281604A JP2012281604A JP2014127770A JP 2014127770 A JP2014127770 A JP 2014127770A JP 2012281604 A JP2012281604 A JP 2012281604A JP 2012281604 A JP2012281604 A JP 2012281604A JP 2014127770 A JP2014127770 A JP 2014127770A
Authority
JP
Japan
Prior art keywords
light emission
preliminary light
photometric
preliminary
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012281604A
Other languages
Japanese (ja)
Inventor
Manabu Yamada
学 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Priority to JP2012281604A priority Critical patent/JP2014127770A/en
Publication of JP2014127770A publication Critical patent/JP2014127770A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus of a simple configuration using a CMOS sensor, which renders a main subject appropriately bright when light for preliminary light emission is not contributed for the entire frame.SOLUTION: An imaging apparatus comprises an imager of a rolling shutter system, preliminary light emitting means, preliminary light emission photometric means, and photometric area determination means. The preliminary light emission photometric means measures an amount of exposure during preliminary exposure. The photometric area determination means determines a photometric area where a photometric operation is performed by using the preliminary light emission photometric means on the basis of a pick-up image being monitored. If a shutter speed for the exposure frame of the imager is higher than a strobe synchronization speed and preliminary light emission is not contributed for the photometric area determined by the photometric area determination means when the preliminary light emitting means is carried out, the shutter speed for the exposure frame during the preliminary light emission is decreased, a diaphragm corresponding to the number of steps for decreasing the shutter speed is narrowed, and then preliminary light emission is carried out. Thus, light is preliminarily emitted to the photometric area.

Description

本発明は、撮像装置に関し、より詳しくは、予備発光によって静止画撮像時のストロボ発光量を事前に定める撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that preliminarily determines a flash emission amount at the time of capturing a still image by preliminary light emission.

従来より、カメラ等の撮像装置において、外光だけで撮影を行うと主被写体が露光不足となる場合に、露光量を補うために補助光を発光して撮影するストロボ撮影を行うことがある。このとき、主被写体が露光不足となる場合としては単純に暗い環境下での撮影の場合や、明るい環境下であっても、例えば逆光などの状態で、背景は明るいのに主被写体だけが露光不足となるような場合がある。   2. Description of the Related Art Conventionally, in an imaging device such as a camera, when shooting is performed with only external light, when the main subject is underexposed, strobe shooting may be performed in which auxiliary light is emitted to capture the amount of exposure. At this time, if the main subject is underexposed, it is simply a case of shooting in a dark environment, or even in a bright environment, for example, when the background is bright but only the main subject is exposed in a backlit state. There may be a shortage.

後者のように背景は明るいのに主被写体だけが露光不足となるような場合は、通常は背景を適正な明るさとするために露光時間は短くし、その上で主被写体も適正な明るさとするためにストロボを発光して撮影する。このとき、いわゆるコンパクトタイプのカメラでは撮影前にあらかじめ予備発光をして発光量の過不足を検出し、撮影時の本発光量を決定する予備発光方式が一般的である。   When the background is bright but only the main subject is underexposed, as in the latter case, the exposure time is usually shortened in order to obtain the appropriate brightness for the background, and the main subject is also set to the appropriate brightness. Therefore, take a picture with a flash. At this time, a so-called compact type camera generally uses a preliminary light emission method in which preliminary light emission is performed in advance before photographing to detect the excess or shortage of the light emission amount and the main light emission amount at the time of photographing is determined.

一方で、撮像装置に使用される撮像素子には、CMOSセンサのように、モニタリングはラインごとに順次露光・読み出しをするためにフレーム内で露光タイミングがずれてしまう読み出しモードで動作するセンサを使用しているものがある。このようなセンサでは、予備発光時に露光時間があるところよりも短くなると、どのタイミングでストロボを発光させても、フレーム内の全てのラインにストロボ光を寄与させることができなくなる。   On the other hand, the imaging device used in the imaging device uses a sensor that operates in a readout mode in which the exposure timing is shifted within the frame in order to perform exposure and readout sequentially for each line, such as a CMOS sensor. There is something to do. In such a sensor, if the exposure time is shorter than the time when there is preliminary light emission, the strobe light cannot be contributed to all the lines in the frame no matter what timing the light is emitted.

この場合、正しい輝度分布を得ることができなくなるため、適正な発光量を得るのは困難となる。このため、特許文献1では、予備発光時に複数回のストロボ発光をすることで、フレーム全面に均等にストロボ光を寄与させる方法が提案されている。   In this case, since it becomes impossible to obtain a correct luminance distribution, it is difficult to obtain an appropriate light emission amount. For this reason, Patent Document 1 proposes a method in which strobe light is uniformly contributed to the entire frame surface by performing strobe light emission a plurality of times during preliminary light emission.

特開2009−55287号公報JP 2009-55287 A

しかし、特許文献1の手法により、ソフト制御で複数回のストロボ発光を実施してフレーム全面に均等にストロボ光を当てることは発光量・発光タイミングの制御がシビアで困難であり、また、ハード的にFP発光を実現するにはコストがかかってしまう。   However, it is difficult to control the amount of light emission and the timing of light emission by applying the strobe light multiple times by software control and applying the strobe light uniformly to the entire frame by the method of Patent Document 1, and it is difficult In addition, it is expensive to realize FP light emission.

そこで、本発明は、簡易な構成によって、フレーム全体に予備発光の光が寄与しない状態において、主被写体を適正な明るさとすることが可能なCMOSセンサを備える撮像装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an imaging apparatus including a CMOS sensor that can make a main subject have appropriate brightness in a state where preliminary light does not contribute to the entire frame with a simple configuration. .

本発明に係る撮像装置は、被写体を照射するストロボを制御する機能を有する撮像装置であって、ローリングシャッタ方式の撮像素子と、ストロボ発光を伴う静止画撮影の直前にストロボ発光の発光量を決めるためモニタリング中にストロボを発光させる予備発光手段と、予備発光時の撮像素子の露光量を測光する予備発光測光手段と、モニタリング中の撮像画像に基づいて予備発光測光手段で測光する測光領域を決定する測光領域決定手段とを有し、予備発光手段を実行する際、撮像素子の露光フレームのシャッター速度がストロボ同調速度よりも速く、かつ、測光領域決定手段によって決定された測光領域に予備発光が寄与しない場合は、測光領域に予備発光が寄与するように予備発光時の露光フレームのシャッター速度を遅くし、かつ、シャッター速度を遅くする段数分に相当する絞りを絞って予備発光をする事を特徴とする。   An image pickup apparatus according to the present invention is an image pickup apparatus having a function of controlling a strobe for illuminating a subject, and determines a light emission amount of a strobe light emission immediately before shooting an image sensor using a rolling shutter method and a strobe light emission. Therefore, preliminary light emission means that emits strobe light during monitoring, preliminary light emission light measurement means that measures the exposure amount of the image sensor during preliminary light emission, and a photometry area that is measured by the preliminary light emission measurement means based on the captured image being monitored When the preliminary light emission means is executed, the shutter speed of the exposure frame of the image sensor is faster than the strobe tuning speed, and preliminary light emission is performed in the photometry area determined by the photometry area determination means. If it does not contribute, slow down the shutter speed of the exposure frame during preliminary light emission so that the preliminary light emission contributes to the photometry area, and Characterized in that the preliminary light emission squeezing diaphragm corresponding to the number of stages that slow down the shutter speed.

また、モニタリング中の撮像画像に基づいて主要被写体を検出する主要被写体検出手段を有し、測光領域決定手段は、主要被写体検出手段によって検出された主要被写体の位置に基づいて測光領域を決定することが好ましい。   Further, it has a main subject detecting means for detecting a main subject based on the captured image being monitored, and the photometric area determining means determines the photometric area based on the position of the main subject detected by the main subject detecting means. Is preferred.

さらに、主要被写体検出手段は人物の顔を検出する顔検出手段であっても良い。   Further, the main subject detection means may be a face detection means for detecting a human face.

また、主要被写体検出手段はユーザーの指定した被写体を追尾して主要被写体の位置を検出し続ける被写体追尾手段であっても良い。   Further, the main subject detection means may be subject tracking means that tracks the subject specified by the user and continues to detect the position of the main subject.

本発明によれば、簡易な構成によって、フレーム全体に予備発光の光が寄与しない状態において、主被写体を適正な明るさとすることが可能なCMOSセンサを備える撮像装置を提供することが可能となる。   According to the present invention, it is possible to provide an imaging device including a CMOS sensor capable of setting a main subject to appropriate brightness in a state where preliminary light emission does not contribute to the entire frame with a simple configuration. .

本発明の第1の実施形態に係るデジタルカメラの(a)正面図であり、(b)上面図であり、(c)背面図である。1A is a front view, FIG. 1B is a top view, and FIG. 1C is a rear view of the digital camera according to the first embodiment of the present invention. 図1のデジタルカメラのシステム構成を表すブロック図である。It is a block diagram showing the system configuration | structure of the digital camera of FIG. 図2の信号処理部の構成を表すブロック図である。It is a block diagram showing the structure of the signal processing part of FIG. 本発明の第1の実施形態に係る発光寄与領域と露光時間と発光時間との関係を表すグラフである。It is a graph showing the relationship between the light emission contribution area | region which concerns on the 1st Embodiment of this invention, exposure time, and light emission time. 本発明の第1の実施形態に係る発光タイミングを設定するフロー図である。It is a flowchart which sets the light emission timing which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る発光寄与領域と露光時間と発光時間との関係を表すグラフである。It is a graph showing the relationship between the light emission contribution area | region which concerns on the 1st Embodiment of this invention, exposure time, and light emission time. 本発明の第2の実施形態に係る発光タイミングを設定するフロー図である。It is a flowchart which sets the light emission timing which concerns on the 2nd Embodiment of this invention.

以下、本発明を図示の実施形態に基づいて説明する。
〈実施形態1〉
(デジタルカメラの外観構成)
図1(a)、(b)、(c)に示すように、本実施形態に係るデジタルカメラ1の上面側には、レリーズボタン(シャッタボタン)2、電源ボタン3、撮影・再生切替ダイアル4が設けられており、デジタルカメラ1の正面(前面)側には、撮影レンズ系5を有する鏡胴ユニット6、フラッシュであるストロボ発光部7、光学ファインダ8が設けられている。
Hereinafter, the present invention will be described based on the illustrated embodiments.
<Embodiment 1>
(Appearance structure of digital camera)
As shown in FIGS. 1A, 1B, and 1C, a release button (shutter button) 2, a power button 3, a shooting / playback switching dial 4 are provided on the upper surface side of the digital camera 1 according to the present embodiment. In the front (front) side of the digital camera 1, a lens barrel unit 6 having a photographing lens system 5, a flash light emitting unit 7 that is a flash, and an optical viewfinder 8 are provided.

デジタルカメラ1の背面側には、液晶モニタ(LCD)9、光学ファインダ8の接眼レンズ部8a、広角側ズーム(W)スイッチ10、望遠側ズーム(T)スイッチ11、メニュー(MENU)ボタン12、確定ボタン(OKボタン)13等が設けられている。また、デジタルカメラ1の側面内部には、撮影した画像データを保存するためのメモリカード32(図2参照)を収納するメモリカード収納部15が設けられている。   On the back side of the digital camera 1, a liquid crystal monitor (LCD) 9, an eyepiece 8a of an optical viewfinder 8, a wide-angle zoom (W) switch 10, a telephoto zoom (T) switch 11, a menu (MENU) button 12, A confirmation button (OK button) 13 and the like are provided. Further, a memory card storage unit 15 for storing a memory card 32 (see FIG. 2) for storing captured image data is provided inside the side surface of the digital camera 1.

(デジタルカメラのシステム構成)
図2に示すように、このデジタルカメラ1は、鏡胴ユニットの撮影レンズ系5、絞りユニット・メカシャッタユニット22を通して入射される被写体画像が受光面上に結像する固体撮像素子としてのCMOS23、CMOSから出力される電気信号(デジタルRGB画像信号)を処理する信号処理部27、鏡胴ユニットを駆動するモータドライバ28、カメラ全体を制御するCPU29、データを一時的に格納するSDRAM42、カメラ外部との通信ドライバ31、カメラと着脱可能なメモリカード32、信号処理部からの映像出力信号をLCD表示可能な信号に変換する表示コントローラおよび実際にそれを表示するLCDからなる表示部33、カメラユーザが操作可能な操作部34、制御部から発光開始・停止を制御できるストロボ発光部7、ストロボ発光用のメインコンデンサ36、等を有している。
(Digital camera system configuration)
As shown in FIG. 2, the digital camera 1 includes a CMOS 23 as a solid-state imaging device on which a subject image incident through a photographing lens system 5 of a lens barrel unit, a diaphragm unit / mechanical shutter unit 22 is formed on a light receiving surface, A signal processing unit 27 that processes electrical signals (digital RGB image signals) output from the CMOS, a motor driver 28 that drives the lens barrel unit, a CPU 29 that controls the entire camera, an SDRAM 42 that temporarily stores data, Communication driver 31, a memory card 32 that can be attached to and detached from the camera, a display controller that converts a video output signal from the signal processing unit into a signal that can be displayed on the LCD, and a display unit 33 that actually displays the LCD. Operation unit 34 that can be operated, strobe emission that can control the start / stop of light emission from the control unit Part 7 has main capacitor 36 for flash emission, and the like.

鏡胴ユニット6は、ズームレンズやフォーカスレンズ等を有する撮影レンズ系5、絞りユニット・メカシャッタユニット22を備えており、撮影レンズ系5、絞りユニット・メカシャッタユニット22の各駆動ユニットは、モータドライバ28によって駆動される。モータドライバ28は、信号処理部の制御部であるCPU29からの駆動信号により駆動制御される。   The lens barrel unit 6 includes a photographic lens system 5 having a zoom lens, a focus lens, and the like, and an aperture unit / mechanical shutter unit 22. The drive units of the photographic lens system 5 and the aperture unit / mechanical shutter unit 22 are motors. It is driven by a driver 28. The motor driver 28 is driven and controlled by a drive signal from a CPU 29 that is a control unit of the signal processing unit.

CMOS23は、2次元に配列した受光素子で結像した光学像を電荷に変換し、隣接する駆動部26から送信される読出し信号タイミングで外部に電気信号として出力する。CMOSを構成する複数の画素上にRGB原色フィルタ(以下、「RGBフィルタ」という)が配置されており、RGB3原色に対応した電気信号(デジタルRGB画像信号)が出力される。   The CMOS 23 converts an optical image formed by the two-dimensionally arranged light receiving elements into electric charges, and outputs them as electric signals to the outside at a read signal timing transmitted from the adjacent drive unit 26. RGB primary color filters (hereinafter referred to as “RGB filters”) are arranged on a plurality of pixels constituting the CMOS, and electrical signals (digital RGB image signals) corresponding to the three primary colors of RGB are output.

図3を参照すると、信号処理部27は、CMOSから出力されるRAW−RGBデータを取り込むCMOSインターフェース40(以下、「CMOSI/F」という)と、SDRAM42を制御するメモリコントローラ44と、取り込んだRAW−RGBデータを表示や記録が可能なYUV形式の画像データに変換するYUV変換部46と、表示や記録される画像データのサイズに合わせて画像サイズを変更するリサイズ処理部48と、画像データの表示出力を制御する表示出力制御部50と、画像データをJPEG形成などで記録するためのデータ圧縮部52と、画像データをメモリカードへ書き込み、又はメモリカードに書き込まれた画像データを読み出すメディアインターフェース54(以下、「メディアI/F」という)と、操作部34からの操作入力情報に基づき、ROM56に記憶された制御プログラム58に基づいてデジタルカメラ1全体のシステム制御等を行う制御部であるCPU29を備えている。   Referring to FIG. 3, the signal processing unit 27 includes a CMOS interface 40 (hereinafter referred to as “CMOS I / F”) that captures RAW-RGB data output from the CMOS, a memory controller 44 that controls the SDRAM 42, and a captured RAW. A YUV conversion unit 46 that converts RGB data into YUV format image data that can be displayed and recorded, a resize processing unit 48 that changes the image size in accordance with the size of the image data to be displayed and recorded, A display output control unit 50 for controlling display output, a data compression unit 52 for recording image data by JPEG formation, etc., and a media interface for writing image data to a memory card or reading image data written to a memory card 54 (hereinafter referred to as “media I / F”) and an operation unit Based on the operation input information from the 4, it includes a CPU29 as a control unit for performing the digital camera 1 as a whole system control or the like based on a control program 58 stored in the ROM 56.

SDRAM42には、CMOSI/F40に取り込まれたRAW−RGBデータが保存されると共に、YUV変換部46で変換処理されたYUVデータ(YUV形式の画像データ)が保存され、更に、データ圧縮部52で圧縮処理されたJPEG形成などの画像データ等が保存される。なお、YUVデータのYUVとは、輝度データ(Y)と、色差(輝度データと青色(B)データの差分(U)と、輝度データと赤色(R)の差分(V))の情報で色を表現する形式である。   The SDRAM 42 stores RAW-RGB data captured by the CMOS I / F 40, and stores YUV data (YUV format image data) converted by the YUV conversion unit 46. Further, the SDRAM 42 stores the data. The compressed image data such as JPEG formation is stored. YUV of YUV data is information on luminance data (Y), color difference (difference (U) between luminance data and blue (B) data, and difference (V) between luminance data and red (R)). Is a format that expresses

また、操作部34は、デジタルカメラ1(図1(a)、(b)、(c)参照)の外観表面に設けられているレリーズボタン2、電源ボタン3、撮影・再生切替ダイアル4、広角側ズームスイッチ10、望遠側ズームスイッチ11、メニューボタン12、確定ボタン13等であり、撮影者の操作によって所定の動作指示信号がCPU29に入力される。   The operation unit 34 includes a release button 2, a power button 3, a photographing / playback switching dial 4, a wide angle provided on the external surface of the digital camera 1 (see FIGS. 1A, 1B, and 1C). A zoom switch 10 on the side, a zoom switch 11 on the telephoto side, a menu button 12, a confirmation button 13, and the like, and a predetermined operation instruction signal is input to the CPU 29 by the operation of the photographer.

(デジタルカメラのモニタリング動作、静止画撮影動作)
次に、図1〜2を参照し、上記デジタルカメラ1のモニタリング動作と静止画撮影動作について説明する。このデジタルカメラ1は、静止画撮影モード時には、以下に説明するようなモニタリング動作を実行しながら静止画撮影動作が行われる。
(Digital camera monitoring and still image shooting)
Next, the monitoring operation and still image shooting operation of the digital camera 1 will be described with reference to FIGS. In the still image shooting mode, the digital camera 1 performs a still image shooting operation while executing a monitoring operation as described below.

先ず、撮影者が電源ボタン3をONし、撮影・再生切替ダイアル4を撮影モードに設定することで、デジタルカメラ1が撮影モードで起動する。電源ボタン3がONされて、撮影・再生切替ダイアル4が撮影モードに設定されたことをCPU29が検知すると、CPU29はモータドライバ28に制御信号を出力して、鏡胴ユニット6を撮影可能な位置に移動させ、かつ、CMOS23、信号処理部27、SDRAM42(図3参照)、ROM56、液晶モニタ9等を起動させる。   First, when the photographer turns on the power button 3 and sets the photographing / playback switching dial 4 to the photographing mode, the digital camera 1 is activated in the photographing mode. When the CPU 29 detects that the power button 3 is turned on and the photographing / playback switching dial 4 is set to the photographing mode, the CPU 29 outputs a control signal to the motor driver 28 so that the lens barrel unit 6 can be photographed. And the CMOS 23, the signal processing unit 27, the SDRAM 42 (see FIG. 3), the ROM 56, the liquid crystal monitor 9 and the like are activated.

そして、鏡胴ユニット6の撮影レンズ系5を被写体に向けることにより、撮影レンズ系5を通して入射される被写体画像がCMOS23の各画素の受光面上に結像する。そして、CMOS23の受光素子から出力される被写体画像に応じた電気信号(アナログRGB画像信号)は、CDS/PGA24を介してA/D変換部(ADC)25に入力され、A/D変換部25により12ビット(bit)のRAW−RGBデータに変換する。   Then, by directing the photographing lens system 5 of the lens barrel unit 6 toward the subject, a subject image incident through the photographing lens system 5 is formed on the light receiving surface of each pixel of the CMOS 23. Then, an electrical signal (analog RGB image signal) corresponding to the subject image output from the light receiving element of the CMOS 23 is input to the A / D converter (ADC) 25 via the CDS / PGA 24, and the A / D converter 25. Is converted into 12-bit (RAW) RGB data.

図3を参照すると、このRAW−RGBデータは、信号処理部27のCMOSI/F40に取り込まれてメモリコントローラを介してSDRAM42に保存される。そして、SDRAM42から読み出されたRAW−RGBデータは、後述するように、ブロックごとに分割されたゲインをかける等、必要な画像処理をかけられた後、YUV変換部46で表示可能な形式であるYUVデータ(YUV信号)に変換された後に、メモリコントローラ44を介してSDRAM42にYUVデータが保存される。   Referring to FIG. 3, the RAW-RGB data is taken into the CMOS I / F 40 of the signal processing unit 27 and stored in the SDRAM 42 via the memory controller. The RAW-RGB data read from the SDRAM 42 is subjected to necessary image processing, such as applying a gain divided for each block, as will be described later, and then displayed in a format that can be displayed by the YUV conversion unit 46. After being converted into certain YUV data (YUV signal), the YUV data is stored in the SDRAM 42 via the memory controller 44.

そして、SDRAM42からメモリコントローラ44を介して読み出したYUVデータは、表示出力制御部50を介して表示部33へ送られ、撮影画像(動画)が表示される。上述した表示部33に撮影画像を表示しているモニタリング時においては、CMOSI/F40による画素数の間引き処理により1/30秒の時間で1フレームを読み出している。   The YUV data read from the SDRAM 42 via the memory controller 44 is sent to the display unit 33 via the display output control unit 50, and a captured image (moving image) is displayed. At the time of monitoring in which a captured image is displayed on the display unit 33 described above, one frame is read out in a time of 1/30 second by thinning out the number of pixels by the CMOS I / F 40.

なお、このモニタリング動作時は、電子ファインダとして機能する表示部33に撮影画像が表示されているだけで、まだレリーズボタン2が押圧(半押も含む)操作されていない状態である。   In this monitoring operation, the photographed image is only displayed on the display unit 33 functioning as an electronic viewfinder, and the release button 2 is not yet pressed (including half-pressed).

この撮影画像の表示部33への表示によって、撮影画像を撮影者が確認することができる。また、図示しないが、表示出力制御部50からTVビデオ信号として出力して、ビデオケーブルを介して外部のTV(テレビ)に撮影画像(動画)を表示することもできる。   The photographer can confirm the photographed image by displaying the photographed image on the display unit 33. Although not shown, the display output control unit 50 can output a TV video signal and display a captured image (moving image) on an external TV (television) via a video cable.

一方、以下に詳述するように、信号処理部のCMOSI/F40によって取り込まれたRAW−RGBデータから、AF(自動合焦)評価値、AE(自動露出)評価値、AWB(オートホワイトバランス)評価値が算出される。   On the other hand, as described in detail below, AF (automatic focus) evaluation value, AE (automatic exposure) evaluation value, AWB (auto white balance) are obtained from RAW-RGB data captured by the CMOS I / F 40 of the signal processing unit. An evaluation value is calculated.

AF評価値は、例えば高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって算出される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AF動作時(合焦検出動作時)には、撮影レンズ系内の各フォーカスレンズ位置におけるAF評価値を取得して、その極大になる点を合焦検出位置としてAF動作が実行される。   The AF evaluation value is calculated by, for example, the output integrated value of the high frequency component extraction filter or the integrated value of the luminance difference between adjacent pixels. When in the in-focus state, the edge portion of the subject is clear, so the high frequency component is the highest. By using this, at the time of AF operation (focus detection operation), AF evaluation values at each focus lens position in the photographing lens system are acquired, and AF operation is performed with the maximum point as the focus detection position. Is executed.

AE評価値とAWB評価値は、RAW−RGBデータにおけるRGB値のそれぞれの積分値から算出される。例えば、CMOS23の全画素の受光面に対応した画面を256エリアに等分割(水平16分割、垂直16分割)し、それぞれのエリアのRGB積算を算出する。   The AE evaluation value and the AWB evaluation value are calculated from the integrated values of the RGB values in the RAW-RGB data. For example, the screen corresponding to the light receiving surface of all the pixels of the CMOS 23 is equally divided into 256 areas (16 horizontal divisions and 16 vertical divisions), and the RGB integration of each area is calculated.

そして、CPU29は、算出されたRGB積算値を読み出す。すなわち、CMOSI/F40からRAW−RGBデータが検波部60へ送信され、AE/AWB検波部62において、RGB積算値データが作成される。RGBデータは、メモリコントローラ44を介してSDRAM42へ送信される。CPU29は、SDRAM42からRGB積算データを読み出す。   Then, the CPU 29 reads the calculated RGB integrated value. That is, the RAW-RGB data is transmitted from the CMOS I / F 40 to the detection unit 60, and the RGB integrated value data is created in the AE / AWB detection unit 62. The RGB data is transmitted to the SDRAM 42 via the memory controller 44. The CPU 29 reads RGB integrated data from the SDRAM 42.

AE処理では、画面のそれぞれのエリアの輝度を算出して、輝度分布から適正な露光量が決定される。決定した露光量に基づいて、露光条件(CMOSの電子シャッタ回数、絞りユニットの絞り値等)が設定される。また、AWB処理では、RGBの分布から被写体の光源の色に合わせたAWBの制御値が決定される。このAWB処理により、YUV変換部でYUVデータに変換処理するときのホワイトバランスが調整される。なお、上述のAE処理とAWB処理は、モニタリング時には連続的に行われている。   In the AE process, the brightness of each area of the screen is calculated, and an appropriate exposure amount is determined from the brightness distribution. Based on the determined exposure amount, exposure conditions (CMOS electronic shutter frequency, aperture value of the aperture unit, etc.) are set. In the AWB process, an AWB control value that matches the color of the light source of the subject is determined from the RGB distribution. By this AWB process, the white balance when the YUV conversion unit performs conversion processing to YUV data is adjusted. Note that the above-described AE process and AWB process are continuously performed during monitoring.

そして、上述したモニタリング動作時に、レリーズボタン2が押圧(半押しから全押し)操作されて静止画撮影動作が開始されると、合焦位置検出動作であるAF動作と静止画記録処理が行われる。   When the release button 2 is pressed (half-pressed to fully pressed) during the monitoring operation described above and a still image shooting operation is started, an AF operation that is a focus position detection operation and a still image recording process are performed. .

即ち、レリーズボタン2が押圧(半押しから全押し)操作されると、CPU29からモータドライバへの駆動指令により撮影レンズ系5のフォーカスレンズが移動し、例えば、いわゆる山登りAFと称されるコントラスト評価方式のAF動作が実行される。   That is, when the release button 2 is pressed (half-pressed to fully pressed), the focus lens of the photographing lens system 5 is moved by a drive command from the CPU 29 to the motor driver. For example, contrast evaluation called so-called hill-climbing AF is performed. The AF operation of the method is executed.

AF(合焦)対象範囲が無限から至近までの全領域であった場合、撮影レンズ系5のフォーカスレンズは、至近から無限、又は無限から至近までの間の各フォーカス位置に移動し、CMOSI/F40で算出されている各フォーカス位置におけるAF評価値をCPU29が読み出す。すなわち、RAW−RGBデータがCMOSI/F40から検波部60へ送信され、AF検波部64でAF評価値データが作成される。作成されたAF評価値データは、メモリコントローラ44を介してSDRAM42へ送信される。CPU29は、メモリコントローラ44を介してSDRAM42からAF評価値データを読み出す。そして、各フォーカス位置のAF評価値が極大になる点を合焦位置としてフォーカスレンズを合焦位置に移動させ、合焦させる。   When the AF (focusing) target range is the entire region from infinity to close, the focus lens of the photographing lens system 5 moves to each focus position from close to infinity, or from infinity to close, and CMOS I / The CPU 29 reads the AF evaluation value at each focus position calculated in F40. That is, RAW-RGB data is transmitted from the CMOS I / F 40 to the detection unit 60, and AF evaluation value data is created by the AF detection unit 64. The created AF evaluation value data is transmitted to the SDRAM 42 via the memory controller 44. The CPU 29 reads AF evaluation value data from the SDRAM 42 via the memory controller 44. Then, the focus lens is moved to the in-focus position with the point where the AF evaluation value at each focus position is maximized as the in-focus position, and in-focus.

そして、上述のAE処理が行われ、露光完了時点で、CPU29からモータドライバ28への駆動指令によりメカシャッタユニット22が閉じられ、CMOS23の受光素子から静止画用のアナログRGB画像信号が出力される。そして、上述のモニタリング時と同様に、A/D変換部25によりRAW−RGBデータに変換される。   Then, the above-described AE process is performed, and when the exposure is completed, the mechanical shutter unit 22 is closed by a drive command from the CPU 29 to the motor driver 28, and an analog RGB image signal for a still image is output from the light receiving element of the CMOS 23. . Then, as in the above monitoring, the A / D converter 25 converts the data into RAW-RGB data.

そして、このRAW−RGBデータは、信号処理部27のCMOSI/F40に取り込まれ、YUV変換部46でYUVデータに変換されて、メモリコントローラ44を介してSDRAM42に保存される。そして、このYUVデータはSDRAM42から読み出されて、リサイズ処理部48で記録画素数に対応するサイズに変換され、データ圧縮部52でJPEG形式等の画像データへと圧縮される。圧縮されたJPEG形式等の画像データは、SDRAM42に書き戻された後にメモリコントローラ44を介してSDRAM42から読み出され、メディアI/F54を介してメモリカード32に保存される。   The RAW-RGB data is taken into the CMOS I / F 40 of the signal processing unit 27, converted into YUV data by the YUV conversion unit 46, and stored in the SDRAM 42 via the memory controller 44. The YUV data is read from the SDRAM 42, converted into a size corresponding to the number of recorded pixels by the resizing processing unit 48, and compressed to image data in the JPEG format or the like by the data compression unit 52. The compressed image data in the JPEG format or the like is written back to the SDRAM 42, read out from the SDRAM 42 through the memory controller 44, and stored in the memory card 32 through the media I / F 54.

(予備発光による本発光量算出)
予備発光方式によるストロボの本発光量算出手段について説明する。
ユーザーから撮影操作が入力されると、CPU29はCMOS23の駆動モードを予備発光用の駆動モードに変更する。そして、CPU29は、CMOS23の露光タイミングに合わせてストロボ発光部7(図1参照)に発光信号を送り、ストロボを発光させる。ストロボを発光したときのフレームがCMOS23から取り込まれると、信号処理部27はそのフレームの輝度情報を、格子状のブロックごとに算出する。
(Calculation of main light emission by preliminary light emission)
A description will be given of the main flash amount calculation means of the strobe by the preliminary light emission method.
When a photographing operation is input from the user, the CPU 29 changes the drive mode of the CMOS 23 to a drive mode for preliminary light emission. Then, the CPU 29 sends a light emission signal to the strobe light emitting unit 7 (see FIG. 1) in accordance with the exposure timing of the CMOS 23 to cause the strobe to emit light. When the frame when the strobe is emitted is fetched from the CMOS 23, the signal processing unit 27 calculates the luminance information of the frame for each grid block.

ここで、予め決められた、あるいは、予備発光時の輝度情報の輝度分布に基づいて決定される測光領域の輝度平均を算出する。CPU29は、算出された輝度平均の目標輝度に対しての差分を算出し、目標輝度に対しての差分、予備発光量、予備発光時の露出制御値、本発光時の露出制御値に基づいて本発光量を算出する。   Here, the luminance average of the photometric area determined in advance or determined based on the luminance distribution of the luminance information at the time of preliminary light emission is calculated. The CPU 29 calculates a difference of the calculated average brightness with respect to the target brightness, and based on the difference with respect to the target brightness, the preliminary light emission amount, the exposure control value during the preliminary light emission, and the exposure control value during the main light emission. The main light emission amount is calculated.

ここで、CMOSのようにラインごとに露光タイミングがずれる、ローリングシャッタで予備発光を実施する場合、図4(a)に示すように、露光時間が十分に長い場合には全てのラインが露光中となる期間が存在し、ストロボ光がフレームの全面に寄与することができるが、図4(b)に示すように、露光時間が短い場合には全てのラインが露光中となる期間が存在しなくなるため、ストロボを発光してもストロボ光がフレームの一部分にしか寄与しなくなってしまう。   Here, when preliminary light emission is performed with a rolling shutter in which the exposure timing is shifted for each line as in CMOS, as shown in FIG. 4A, when the exposure time is sufficiently long, all lines are under exposure. The strobe light can contribute to the entire surface of the frame. However, as shown in FIG. 4B, when the exposure time is short, there is a period in which all lines are under exposure. Therefore, even if the flash is emitted, the flash light only contributes to a part of the frame.

なお、撮影時の本発光においては、ローリングシャッタではなく、メカニカルシャッターを併用した一括リセット方式の電子シャッター方式となるため、露光中にストロボ発光を実施すれば必ずフレーム全面にストロボ光が寄与することになる。   Note that the main flash during shooting is not a rolling shutter, but a batch reset electronic shutter that also uses a mechanical shutter. Therefore, if the flash is emitted during exposure, the flash will always contribute to the entire frame. become.

(フローの説明)
図5で顔検出結果に基づいて測光領域を決定して発光タイミングを設定するフローについて説明する。
(Description of flow)
A flow for determining the photometric area based on the face detection result and setting the light emission timing in FIG. 5 will be described.

ユーザーがカメラに対して撮影操作を実行すると、カメラは撮影操作を検出し(S501−Yes)、AE処理を実行して撮影時および予備発光時の露光時間を決定する(S502)。ここで、予備発光の露光時間が予備発光時のストロボ同調速度よりも短いかどうかを判定する(S503)。予備発光の露光時間がストロボ同調速度よりも短い場合(S503−Yes)、CPU(主要被写体検出手段)(顔検出手段)29はモニタリング画像内で人物の顔を検出する処理を実行する(S504)。顔が検出できた場合(S505−Yes)、CPU(測光領域決定手段)は人物の顔を測光領域として設定し、人物の顔の中心付近に予備発光が寄与するように予備発光時の露光時間を修正する(S506)。   When the user performs a shooting operation on the camera, the camera detects the shooting operation (S501-Yes) and executes an AE process to determine the exposure time during shooting and preliminary light emission (S502). Here, it is determined whether or not the exposure time of preliminary light emission is shorter than the strobe tuning speed at the time of preliminary light emission (S503). When the exposure time of the preliminary light emission is shorter than the strobe synchronization speed (S503-Yes), the CPU (main subject detection means) (face detection means) 29 executes a process for detecting a human face in the monitoring image (S504). . When the face can be detected (S505-Yes), the CPU (photometric area determination means) sets the person's face as the photometric area, and the exposure time during the preliminary light emission contributes to the vicinity of the center of the person's face. Is corrected (S506).

このとき、例えば図6のような撮影状況において、当初の予備発光時露光時間が1/500秒であった場合(図6(a))、人物の顔に対して予備発光の光が十分に当たらないが、人物の顔に十分に光が当たるよう、予備発光時の露光時間を1/250秒に修正する(図6(b))。人物の顔に対して予備発光の光が十分に当たるように露光時間を長くすると、長くした分だけ外光の影響を受けやすくなり、測光精度が悪くなってしまう。そこで、予備発光時の露光時間を長くした分だけ絞りを絞る(S507)。   At this time, for example, in the shooting state as shown in FIG. 6, if the initial preliminary light exposure time is 1/500 second (FIG. 6A), the preliminary light is sufficiently applied to the human face. Although not hitting, the exposure time at the time of preliminary light emission is corrected to 1/250 seconds so that the human face is sufficiently exposed to light (FIG. 6B). If the exposure time is increased so that preliminary light is sufficiently applied to the face of a person, the exposure time is easily affected by the increased amount of light, resulting in poor photometric accuracy. Therefore, the aperture is narrowed down by the length of the exposure time during preliminary light emission (S507).

CPU(予備発光手段)は決定した露光時間、絞り値で、センサの露光タイミングに合わせて予備発光を実施する(S508)。CPU(予備発光測光手段)は信号処理部を通して予備発光での輝度値を取得し、予備発光での輝度値に基づいて本発光量を決定する(S509)。決定された本発光量で本発光を実施し、撮影する(S510)。   The CPU (preliminary light emitting means) performs preliminary light emission in accordance with the exposure timing of the sensor with the determined exposure time and aperture value (S508). The CPU (preliminary light metering means) obtains the luminance value in the preliminary light emission through the signal processing unit, and determines the main light emission amount based on the luminance value in the preliminary light emission (S509). The main light emission is performed with the determined main light emission amount, and photographing is performed (S510).

以上のようにすることで、ローリングシャッタでの予備発光で、主被写体が画面の端にある場合でも、予備発光で主被写体に最適なストロボ発光量を決定し、適正な明るさで撮影をすることが可能となる。   By doing so, even if the main subject is at the edge of the screen with preliminary light emission with the rolling shutter, the optimal flash emission amount for the main subject is determined by preliminary light emission, and shooting is performed with appropriate brightness. It becomes possible.

すなわち、主被写体の検出によりストロボの測光領域を決定し、測光領域の位置に応じて予備発光の発光タイミングを決定することにより、フレーム全体に予備発光の光が照射しない状態において、予備発光時のシャッター速度を遅くすることで測光領域に予備発光が照射するようにし、シャッター速度を遅くする分絞りを絞ることで外光の影響を抑えることで、CMOSセンサのカメラで明るい環境下でストロボ撮影をするような場合でも主被写体を適正な明るさとすることが可能となる。   In other words, by determining the flash photometry area by detecting the main subject and determining the pre-flash emission timing according to the position of the photometry area, the pre-flash light is not irradiated on the entire frame. By slowing down the shutter speed, preliminary light emission is emitted to the photometry area, and by reducing the aperture by the amount that slows down the shutter speed, the effect of external light is suppressed, so flash photography can be performed in a bright environment with a CMOS sensor camera. Even in such a case, the main subject can be set to an appropriate brightness.

〈実施形態2〉
次に図7を参照し、被写体追尾情報に基づいて測光領域を決定して発光タイミングを設定するフローについて説明する。第1の実施形態との違いは、被写体を追尾する機能が追加されることである。
<Embodiment 2>
Next, with reference to FIG. 7, a flow for determining a photometric area based on subject tracking information and setting a light emission timing will be described. The difference from the first embodiment is that a function for tracking a subject is added.

CPU(被写体追尾手段)29はユーザーによる追尾被写体指示操作があると(S701)、モニタリング画像に対して被写体追尾処理を実施する(S702)。被写体追尾処理は、被写体追尾が成功し続けている間、ユーザーによる解除操作がない限り追尾をし続ける。追尾が失敗した場合は、追尾処理を中止し、再びユーザーによる追尾被写体指示操作が入らない限り追尾処理は実施しない(S703−No)。被写体追尾が継続しているとき(S703−Yes)、ユーザーによる撮影指示があると(S704−Yes)、CPUはAE処理を実行して撮影時および予備発光時の露光時間を決定する(S705)。   When there is a tracking subject instruction operation by the user (S701), the CPU (subject tracking means) 29 performs subject tracking processing on the monitoring image (S702). In the subject tracking process, while subject tracking continues to be successful, tracking continues unless there is a release operation by the user. If tracking fails, the tracking process is stopped, and the tracking process is not performed unless a tracking subject instruction operation by the user is entered again (No in S703). When subject tracking continues (S703-Yes), if there is a shooting instruction from the user (S704-Yes), the CPU executes an AE process to determine the exposure time during shooting and preliminary light emission (S705). .

ここで、予備発光の露光時間が予備発光時のストロボ同調速度よりも短いかどうかを判定する(S706)。予備発光の露光時間がストロボ同調速度よりも短い場合(S706−Yes)、CPU29は追尾被写体を測光領域とし、追尾被写体の中心ライン付近に予備発光が寄与するように予備発光時の露光時間を修正する(S707)。そして、追尾被写体に対して予備発光の光が十分に当たるように露光時間を長くした分だけ絞りを絞る(S708)。   Here, it is determined whether or not the exposure time of preliminary light emission is shorter than the strobe tuning speed at the time of preliminary light emission (S706). If the exposure time of the preliminary light emission is shorter than the strobe synchronization speed (S706-Yes), the CPU 29 sets the tracking subject as the photometry area, and corrects the exposure time during the preliminary light emission so that the preliminary light emission contributes near the center line of the tracking subject. (S707). Then, the aperture is narrowed by the length of the exposure time so that the preliminary emission light is sufficiently applied to the tracking subject (S708).

CPU29(図3参照)は決定した露光時間、絞り値で、CMOS23の露光タイミングに合わせて予備発光を実施する(S709)。CPU29は信号処理部27を通して予備発光での輝度値を取得し、予備発光での輝度値に基づいて本発光量を決定する(S710)。決定された本発光量で本発光を実施し、撮影する(S711)。   The CPU 29 (see FIG. 3) performs preliminary light emission in accordance with the exposure timing of the CMOS 23 with the determined exposure time and aperture value (S709). The CPU 29 acquires the luminance value in the preliminary light emission through the signal processing unit 27, and determines the main light emission amount based on the luminance value in the preliminary light emission (S710). The main light emission is performed with the determined main light emission amount, and photographing is performed (S711).

以上のようにすることで、主被写体が画面の端にあり、かつ、ローリングシャッターで露光時間が短いような状態でも、予備発光で主被写体に最適なストロボ発光量を決定し、適正な明るさで撮影をすることが可能となる。   In this way, even when the main subject is at the edge of the screen and the exposure time is short with the rolling shutter, the optimal flash output for the main subject is determined by preliminary flash and the appropriate brightness is achieved. It becomes possible to shoot with.

すなわち、主被写体の検出によりストロボの測光領域を決定し、測光領域の位置に応じて予備発光の発光タイミングを決定することにより、フレーム全体に予備発光の光が照射しない状態において、予備発光時のシャッター速度を遅くすることで測光領域に予備発光が照射するようにし、シャッター速度を遅くする分絞りを絞ることで外光の影響を抑えることで、CMOSセンサのカメラで明るい環境下でストロボ撮影をするような場合でも主被写体を適正な明るさとすることが可能となる。   In other words, by determining the flash photometry area by detecting the main subject and determining the pre-flash emission timing according to the position of the photometry area, the pre-flash light is not irradiated on the entire frame. By slowing down the shutter speed, preliminary light emission is emitted to the photometry area, and by reducing the aperture by the amount that slows down the shutter speed, the effect of external light is suppressed, so flash photography can be performed in a bright environment with a CMOS sensor camera. Even in such a case, the main subject can be set to an appropriate brightness.

1 デジタルカメラ(撮像装置)
7 ストロボ発光部(ストロボ)
22 絞り
23 CMOS(撮像素子)
29 CPU(予備発光手段、予備発光測光手段、測光領域決定手段、主要被写体検出手段)
1 Digital camera (imaging device)
7 Strobe flash unit (strobe)
22 Aperture
23 CMOS (imaging device)
29 CPU (preliminary light emission means, preliminary light emission photometry means, photometry area determination means, main subject detection means)

Claims (4)

被写体を照射するストロボを制御する機能を有する撮像装置であって、
ローリングシャッタ方式の撮像素子と、
ストロボ発光を伴う静止画撮影の直前に前記ストロボ発光の発光量を決めるためモニタリング中にストロボを発光させる予備発光手段と、
前記予備発光時の撮像素子の露光量を測光する予備発光測光手段と、
モニタリング中の撮像画像に基づいて前記予備発光測光手段で測光する測光領域を決定する測光領域決定手段とを有し、
前記予備発光手段を実行する際、前記撮像素子の露光フレームのシャッター速度がストロボ同調速度よりも速く、
かつ、前記測光領域決定手段によって決定された測光領域に予備発光が寄与しない場合は、前記測光領域に予備発光が寄与するように予備発光時の露光フレームのシャッター速度を遅くし、
かつ、シャッター速度を遅くする段数分に相当する絞りを絞って予備発光をする事を特徴とする撮像装置。
An imaging apparatus having a function of controlling a strobe that irradiates a subject,
A rolling shutter image sensor;
Preliminary light emission means for emitting a strobe during monitoring in order to determine the light emission amount of the strobe light immediately before taking a still image with strobe light emission,
Preliminary light-emission metering means for measuring the exposure amount of the image sensor at the time of preliminary light emission;
Photometric area determining means for determining a photometric area to be measured by the preliminary light-emission photometric means based on a captured image being monitored;
When executing the preliminary light emission means, the shutter speed of the exposure frame of the image sensor is faster than the strobe tuning speed,
And, if the preliminary light emission does not contribute to the photometric area determined by the photometric area determination means, the shutter speed of the exposure frame at the time of preliminary light emission is slowed so that the preliminary light emission contributes to the photometric area,
An image pickup apparatus that performs preliminary light emission by narrowing an aperture corresponding to the number of steps for reducing the shutter speed.
モニタリング中の撮像画像に基づいて主要被写体を検出する主要被写体検出手段を有し、前記測光領域決定手段は、前記主要被写体検出手段によって検出された主要被写体の位置に基づいて測光領域を決定することを特徴とする請求項1に記載の撮像装置。   A main subject detecting unit for detecting a main subject based on a captured image being monitored; and the photometric region determining unit determines a photometric region based on a position of the main subject detected by the main subject detecting unit. The imaging apparatus according to claim 1. 前記主要被写体検出手段は人物の顔を検出する顔検出手段であることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the main subject detection unit is a face detection unit that detects a human face. 前記主要被写体検出手段はユーザーの指定した被写体を追尾して主要被写体の位置を検出し続ける被写体追尾手段とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the main subject detection unit is a subject tracking unit that continues to detect the position of the main subject by tracking the subject specified by the user.
JP2012281604A 2012-12-25 2012-12-25 Imaging apparatus Pending JP2014127770A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012281604A JP2014127770A (en) 2012-12-25 2012-12-25 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012281604A JP2014127770A (en) 2012-12-25 2012-12-25 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2014127770A true JP2014127770A (en) 2014-07-07

Family

ID=51406984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012281604A Pending JP2014127770A (en) 2012-12-25 2012-12-25 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2014127770A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074447A (en) * 2016-10-31 2018-05-10 京セラ株式会社 Imaging device, imaging system, subject monitoring system, and control method for imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074447A (en) * 2016-10-31 2018-05-10 京セラ株式会社 Imaging device, imaging system, subject monitoring system, and control method for imaging device

Similar Documents

Publication Publication Date Title
JP2007264196A (en) Strobe control unit and method
JP5169318B2 (en) Imaging apparatus and imaging method
JP2018072554A (en) Imaging device and focus adjustment method
JP6752667B2 (en) Image processing equipment and image processing methods and programs
JP2017108309A (en) Imaging apparatus and imaging method
JP4885902B2 (en) Imaging apparatus and control method thereof
JP6758950B2 (en) Imaging device, its control method and program
JP5618765B2 (en) Imaging apparatus and control method thereof
JP2012163679A (en) Imaging device, stroboscope control method, and stroboscope control program
JP2007028546A (en) Imaging apparatus
JP4869801B2 (en) Imaging device
JP2015050733A (en) Exposure control apparatus, exposure control method, control program, and imaging apparatus
JP6410416B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6225463B2 (en) Imaging apparatus, imaging method, and recording medium
JP6294607B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5418553B2 (en) Imaging apparatus and imaging method using the same
JP2014127770A (en) Imaging apparatus
JP4789776B2 (en) Imaging apparatus and imaging method
JP2008085638A (en) Photographing device and method
US9525815B2 (en) Imaging apparatus, method for controlling the same, and recording medium to control light emission
JP5266077B2 (en) Imaging apparatus and control method thereof
JP6601062B2 (en) Imaging control apparatus, imaging control method, and program
JP5720382B2 (en) Imaging device
JP2008268361A (en) Photographing device
JP2010141650A (en) Camera and photographing method of camera

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20150327