JP6336316B2 - Imaging apparatus, control method, and program - Google Patents

Imaging apparatus, control method, and program Download PDF

Info

Publication number
JP6336316B2
JP6336316B2 JP2014075718A JP2014075718A JP6336316B2 JP 6336316 B2 JP6336316 B2 JP 6336316B2 JP 2014075718 A JP2014075718 A JP 2014075718A JP 2014075718 A JP2014075718 A JP 2014075718A JP 6336316 B2 JP6336316 B2 JP 6336316B2
Authority
JP
Japan
Prior art keywords
image
aperture
aperture diameter
diaphragm
limit value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014075718A
Other languages
Japanese (ja)
Other versions
JP2015197609A (en
Inventor
能登 悟郎
悟郎 能登
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014075718A priority Critical patent/JP6336316B2/en
Publication of JP2015197609A publication Critical patent/JP2015197609A/en
Application granted granted Critical
Publication of JP6336316B2 publication Critical patent/JP6336316B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、制御方法およびプログラムに関し、特に撮影後に所定の被写体距離に合焦した画像を生成する技術に関する。   The present invention relates to an imaging apparatus, a control method, and a program, and more particularly to a technique for generating an image focused on a predetermined subject distance after shooting.

デジタルカメラ等の撮像装置の絞りを調整することで、ユーザは所望の被写界深度を有する画像を撮影することができる。一方で、撮影シーンの被写界深度の調整は、撮影時のみならず撮影後にも行うことが求められている。   By adjusting the aperture of an imaging apparatus such as a digital camera, the user can capture an image having a desired depth of field. On the other hand, it is required to adjust the depth of field of a shooting scene not only during shooting but also after shooting.

撮像装置の中には、撮像面に入射した被写体からの光束の強度分布をその入射方向の情報とともに光線空間情報(Light Field Information)として記録可能な撮像装置がある。このような撮像装置では、撮影により記録された光線空間情報から、撮影後に所定の被写界深度を有する画像を生成(再構成)することができる。また光線空間情報からは、被写界深度を調整した画像だけでなく、撮影時に合焦していた被写体とは異なる被写体に焦点を合わせた、いわゆるリフォーカスした画像を生成することができる。特許文献1には、交換可能な撮影レンズを有する、光線空間情報を記録可能な撮像装置が開示されている。   Among imaging devices, there is an imaging device capable of recording intensity distribution of a light beam from a subject incident on an imaging surface as light field information together with information on the incident direction. In such an imaging apparatus, an image having a predetermined depth of field can be generated (reconstructed) from the light space information recorded by shooting. Also, from the light space information, it is possible to generate not only an image in which the depth of field is adjusted but also a so-called refocused image that focuses on a subject different from the subject focused at the time of shooting. Japanese Patent Application Laid-Open No. 2004-228561 discloses an imaging device that has a replaceable photographic lens and can record light space information.

特開2011−043581号公報JP 2011-043581 A

ところで、撮影時の絞り口径によっては、得られた光線空間情報から被写界深度を調整した画像や所望の被写体に合焦した画像を生成できないことがある。即ち、このような画像の生成には様々な入射方向を有する光束を撮像素子に受光させる必要があるが、絞り口径が小さく設定されることで入射する光束が制限され、所望の条件の画像を生成できない場合がある。従って、撮影後に所望の条件の画像を生成可能にするためには、撮影時の絞り口径に適切な下限値を設ける必要があるが、従来そのような制御を行う撮像装置はなかった。特許文献1は、撮像レンズのF値がマイクロレンズのF値よりも小さい値に設定された(有効口径が大きい)場合の迷光の発生を防止するために、設定可能な絞りの開口径に上限値を設定することは開示しているが、下限値の設定については開示していなかった。   By the way, depending on the aperture diameter at the time of shooting, an image in which the depth of field is adjusted from the obtained light space information or an image focused on a desired subject may not be generated. That is, in order to generate such an image, it is necessary to cause the imaging device to receive a light beam having various incident directions. However, by setting the aperture diameter to be small, the incident light beam is limited, and an image of a desired condition can be obtained. It may not be generated. Therefore, in order to be able to generate an image with a desired condition after shooting, it is necessary to provide an appropriate lower limit value for the aperture diameter at the time of shooting. However, there has been no image pickup apparatus that performs such control conventionally. In Patent Document 1, an upper limit is set on the aperture diameter that can be set in order to prevent stray light from occurring when the F value of the imaging lens is set to a value smaller than the F value of the microlens (the effective aperture is large). Although the setting of the value is disclosed, the setting of the lower limit value is not disclosed.

本発明は、上述の従来技術の問題点に鑑みてなされたものであり、撮影後に異なる条件の画像を生成可能な光線空間情報を出力する撮像装置、制御方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to provide an imaging apparatus, a control method, and a program that output light space information that can generate images with different conditions after imaging. To do.

この課題を解決するため、例えば本発明の撮像装置は以下の構成を備える。すなわち、分割瞳領域の各々を通過した光束を記録した画素信号であって、複数の被写体距離のいずれかに合焦させた再構成画像を生成可能な画素信号を出力する撮像装置であって、画素信号の撮影にあたり絞りの開口径の下限値を、複数の分割瞳領域を通過した光束が開口を通過可能な値に制御する制御手段と、絞りの開口径を変更する変更手段と、を有し、変更手段は、異なる複数の条件の再構成画像を生成可能な画素信号を出力するための撮影モードが設定された場合において、ユーザにより下限値を下回る絞りの開口径が設定された場合に、絞りの開口径を下限値に変更する、ことを特徴とする。
In order to solve this problem, for example, an imaging apparatus of the present invention has the following configuration. That is, an imaging device that outputs a pixel signal that records a light flux that has passed through each of the divided pupil regions and that can generate a reconstructed image that is focused on one of a plurality of subject distances, There are control means for controlling the lower limit of the aperture diameter of the aperture to a value that allows the light beam that has passed through the plurality of divided pupil regions to pass through the aperture, and change means for changing the aperture diameter of the aperture when photographing the pixel signal. In the case where a photographing mode for outputting a pixel signal capable of generating a reconstructed image with a plurality of different conditions is set, the changing means is set when the aperture diameter of the diaphragm that is lower than the lower limit is set by the user. The aperture diameter of the diaphragm is changed to a lower limit value .

本発明によれば、撮影後に異なる条件の画像を生成可能な光線空間情報を出力することが可能になる。   According to the present invention, it is possible to output light space information capable of generating images with different conditions after shooting.

本発明の実施形態に係る撮像装置の一例としてのデジタルカメラ100とレンズ102の機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a digital camera 100 and a lens 102 as an example of an imaging apparatus according to an embodiment of the present invention. デジタルカメラ100の背面図Rear view of digital camera 100 実施形態1に係るデジタルカメラ100の光学系を模式的に示す図1 schematically shows an optical system of a digital camera 100 according to Embodiment 1. FIG. 撮影時の表示部258の表示例を示す図The figure which shows the example of a display of the display part 258 at the time of imaging | photography. 実施形態1に係るリフォーカス優先撮影モードで撮影する場合の、一連の処理を示すフローチャート7 is a flowchart showing a series of processing when shooting is performed in the refocus priority shooting mode according to the first embodiment. 実施形態1に係る絞り値の設定を説明するための図The figure for demonstrating the setting of the aperture value which concerns on Embodiment 1. FIG. 実施形態1に係る像生成処理の一連の処理を示すフローチャート7 is a flowchart showing a series of image generation processing according to the first embodiment. 実施形態1に係る像シフト処理の一連の処理を示すフローチャート7 is a flowchart showing a series of image shift processing according to the first embodiment. 像の再構成処理を模式的に示す図The figure which shows the reconstruction process of the image typically 実施形態2に係るリフォーカス優先撮影モードで撮影する場合の一連の処理を示すフローチャート8 is a flowchart showing a series of processing when shooting is performed in the refocus priority shooting mode according to the second embodiment. 絞り140の開口径の大きさと被写体からの光線が撮像素子252上に結像する状態との関係を模式的に示す図The figure which shows typically the relationship between the magnitude | size of the aperture diameter of the aperture stop 140, and the state in which the light ray from a to-be-photographed object image-forms on the image pick-up element 252.

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では撮像装置の一例として、被写体からの光束の強度および入射角度の情報を有する画素値から構成される光線空間情報(LFデータ)を記録可能なデジタルカメラに本発明を適用した例を説明する。しかし、本発明はLFデータを記録可能なデジタルカメラに限らず、絞り値を調整してLFデータを取得可能な任意の機器にも適用可能である。また、以下の説明では、LFデータを再構成して得られる画像を再構成画像と呼ぶ。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, as an example of the imaging apparatus, an example in which the present invention is applied to a digital camera capable of recording light space information (LF data) composed of pixel values having information on the intensity and incident angle of a light beam from a subject. explain. However, the present invention is not limited to a digital camera that can record LF data, but can be applied to any device that can acquire LF data by adjusting an aperture value. In the following description, an image obtained by reconstructing LF data is referred to as a reconstructed image.

(1 デジタルカメラの構成)
図1は、本発明の実施形態に係る撮像装置の一例としてのデジタルカメラ100とレンズ102の機能構成例を示すブロック図である。本実施形態におけるカメラシステムは、デジタルカメラ100に対して着脱可能なレンズ102内に撮影光学系101が設けられている。
(1 Digital camera configuration)
FIG. 1 is a block diagram illustrating a functional configuration example of a digital camera 100 and a lens 102 as an example of an imaging apparatus according to an embodiment of the present invention. In the camera system according to the present embodiment, a photographing optical system 101 is provided in a lens 102 that can be attached to and detached from the digital camera 100.

被写体からの光束は撮影光学系101を介して撮像素子252の撮像面に結像する。撮影光学系101はズームレンズ110を有しており、超音波モータやステッピングモータを駆動源とするズームレンズ駆動部111によって光軸方向に駆動可能である。ズームレンズ電圧ドライバ113は、ズームレンズ駆動部111を駆動制御する電圧を発生する。   The light flux from the subject forms an image on the imaging surface of the imaging element 252 via the photographing optical system 101. The photographing optical system 101 includes a zoom lens 110, and can be driven in the optical axis direction by a zoom lens driving unit 111 using an ultrasonic motor or a stepping motor as a driving source. The zoom lens voltage driver 113 generates a voltage for driving and controlling the zoom lens driving unit 111.

ズーム位置検出部112は、光軸Iに沿ったズームレンズ110の位置を検出するズームエンコーダである。ズーム位置検出部112は、焦点距離値に応じたパルス信号をズームレンズ制御部105に出力する。ズームレンズ制御部105は、ズームレンズ駆動部111を制御し、例えばユーザがデジタルカメラ100もしくはレンズ102に不図示のスイッチにより設定した焦点距離になる光軸I上の位置にズームレンズ110が駆動されるように追従制御を行う。またズームレンズ制御部105は、ズーム位置検出部112が出力するパルス信号を取り込む。ズームレンズ制御部105は、ユーザが設定した焦点距離になる光軸I上の位置(目標位置)、ズームレンズ110の現在位置情報などに基づいて駆動信号を演算し、このデジタル駆動信号をズームレンズ電圧ドライバ113に出力する。ズームレンズ電圧ドライバ113は、入力された駆動信号(駆動電圧)に応じて、ズームレンズ駆動部111に電力を供給するドライバ部である。ズームレンズ電圧ドライバ113は、駆動信号に対し、スイッチングを行い、ズームレンズ駆動部111に電圧を印加してズームレンズ駆動部111の駆動を行う。   The zoom position detection unit 112 is a zoom encoder that detects the position of the zoom lens 110 along the optical axis I. The zoom position detection unit 112 outputs a pulse signal corresponding to the focal length value to the zoom lens control unit 105. The zoom lens control unit 105 controls the zoom lens driving unit 111 so that, for example, the zoom lens 110 is driven to a position on the optical axis I where the focal length is set by the user using a switch (not shown) on the digital camera 100 or the lens 102. Follow-up control is performed. Further, the zoom lens control unit 105 takes in the pulse signal output from the zoom position detection unit 112. The zoom lens control unit 105 calculates a drive signal based on a position (target position) on the optical axis I that becomes a focal length set by the user, current position information of the zoom lens 110, and the like, and uses the digital drive signal as a zoom lens. Output to the voltage driver 113. The zoom lens voltage driver 113 is a driver unit that supplies power to the zoom lens driving unit 111 in accordance with an input driving signal (driving voltage). The zoom lens voltage driver 113 switches the drive signal and applies a voltage to the zoom lens drive unit 111 to drive the zoom lens drive unit 111.

また撮影光学系101は、AFレンズ120を有しており、超音波モータやステッピングモータを駆動源とするAFレンズ駆動部121によって光軸方向に駆動可能である。AFレンズ電圧ドライバ123は、AFレンズ駆動部121を駆動制御する電圧を発生する。フォーカス位置検出部122は、光軸Iに沿ったAFレンズ120の位置を検出するフォーカスエンコーダである。フォーカス位置検出部122は、被写体距離値に応じたパルス信号をAFレンズ制御部104に出力する。AFレンズ制御部104は、AFレンズ駆動部121を制御し、例えばユーザのデジタルカメラ100のレリーズスイッチ191の操作により検出された被写体距離となる光軸I上の位置にAFレンズ120が駆動されるように追従制御を行う部分である。またAFレンズ制御部104は、フォーカス位置検出部122が出力するパルス信号を取り込む。AFレンズ制御部104は、被写体距離になる光軸I上の位置(目標位置)、AFレンズ120の現在位置情報などに基づいて駆動信号を演算し、このデジタル駆動信号をAFレンズ電圧ドライバ123に出力する。   The photographing optical system 101 includes an AF lens 120 and can be driven in the optical axis direction by an AF lens driving unit 121 using an ultrasonic motor or a stepping motor as a driving source. The AF lens voltage driver 123 generates a voltage for driving and controlling the AF lens driving unit 121. The focus position detection unit 122 is a focus encoder that detects the position of the AF lens 120 along the optical axis I. The focus position detection unit 122 outputs a pulse signal corresponding to the subject distance value to the AF lens control unit 104. The AF lens control unit 104 controls the AF lens driving unit 121, and the AF lens 120 is driven to a position on the optical axis I that is the subject distance detected by the operation of the release switch 191 of the user's digital camera 100, for example. This is the part that performs the follow-up control. The AF lens control unit 104 captures a pulse signal output from the focus position detection unit 122. The AF lens control unit 104 calculates a drive signal based on the position (target position) on the optical axis I that is the subject distance, the current position information of the AF lens 120, and the like, and this digital drive signal is sent to the AF lens voltage driver 123. Output.

AFレンズ電圧ドライバ123は、入力された駆動信号(駆動電圧)に応じて、AFレンズ駆動部121に電力を供給するドライバ部である。AFレンズ電圧ドライバ123は、駆動信号に対し、スイッチングを行い、AFレンズ駆動部121に電圧を印加し、AFレンズ駆動部121の駆動を行う。   The AF lens voltage driver 123 is a driver unit that supplies power to the AF lens driving unit 121 in accordance with an input driving signal (driving voltage). The AF lens voltage driver 123 performs switching on the driving signal, applies a voltage to the AF lens driving unit 121, and drives the AF lens driving unit 121.

また撮影光学系101は、絞り140を有しており、ステッピングモータ等を駆動源とする絞り駆動部141によって絞り140の開口の大きさが制御される。絞り制御部106は、絞り駆動部141を制御し、例えば撮影する被写体の明るさに応じて適正露光量となる絞りの値を演算するとともに、該絞り値となる駆動信号を演算して絞り駆動部141に出力する。また、後述するように絞り制御部106は、絞り設定スイッチ194においてユーザが設定した絞り値、あるいはボディCPU109からの指示に応じて駆動信号を演算し、絞り駆動部141に出力する。   The photographing optical system 101 has a diaphragm 140, and the size of the aperture of the diaphragm 140 is controlled by a diaphragm driving unit 141 that uses a stepping motor or the like as a driving source. The aperture control unit 106 controls the aperture drive unit 141 to calculate an aperture value that is an appropriate exposure amount according to, for example, the brightness of the subject to be photographed, and to calculate a drive signal that is the aperture value to drive the aperture. Output to the unit 141. Further, as will be described later, the aperture control unit 106 calculates a drive signal according to the aperture value set by the user with the aperture setting switch 194 or an instruction from the body CPU 109 and outputs the drive signal to the aperture drive unit 141.

レンズCPU103は、レンズ102側の種々の制御を行う中央処理装置である。レンズCPU103内には、ズームレンズ制御部105と、AFレンズ制御部104及び絞り制御部106が設けられている。レンズCPU103は、レンズ102とデジタルカメラ100との間に設けられたレンズ接点190を介して、ボディCPU109との間で通信が可能である。EEPROM131は、レンズ102に関する種々の固有情報であるレンズデータなどを格納する不揮発性の記憶部である。レンズ用メモリ132は、レンズCPU103が演算処理を行う際に種々のデータを格納する揮発性の記憶部である。   The lens CPU 103 is a central processing unit that performs various controls on the lens 102 side. In the lens CPU 103, a zoom lens control unit 105, an AF lens control unit 104, and an aperture control unit 106 are provided. The lens CPU 103 can communicate with the body CPU 109 via a lens contact 190 provided between the lens 102 and the digital camera 100. The EEPROM 131 is a non-volatile storage unit that stores lens data that is various kinds of unique information regarding the lens 102. The lens memory 132 is a volatile storage unit that stores various data when the lens CPU 103 performs arithmetic processing.

撮像素子252は、例えば固体撮像素子の1つであるCMOSセンサである。任意の画素へのランダムアクセスが可能であり、ディスプレイ用に間引いた読み出しが容易に行えるため、表示部258において高い表示レートで画像を表示することができる。撮像素子252は、上述した特長を利用し、ディスプレイ画像出力動作(撮像素子252の受光領域のうち一部を間引いた領域での読み出し)および高精彩画像出力動作(全受光領域での読み出し)を行う。   The image sensor 252 is a CMOS sensor that is one of solid-state image sensors, for example. Since random access to an arbitrary pixel is possible and readout that is thinned out for display can be easily performed, an image can be displayed on the display portion 258 at a high display rate. The image sensor 252 utilizes the above-described features, and performs a display image output operation (reading in a region where a part of the light receiving region of the image sensor 252 is thinned) and a high-definition image output operation (reading in the entire light receiving region). Do.

撮像素子252と撮影光学系101との間にはマイクロレンズアレイ(MLA)20が配設されており、MLA20上にはマイクロレンズが格子状に並んでいる。1つのマイクロレンズには、撮像素子の複数の光電変換素子が対応付けられており、マイクロレンズに入射した光は該複数の光電変換素子に結像されて光電変換される。1つのマイクロレンズに対応付けられた光電変換素子の各々は、分割された瞳領域の各々を通過した光束に対応した画素信号を出力するためLFデータが得られる。なお、MLA20の機能や配置の詳細については図3を用いて後述する。   A microlens array (MLA) 20 is disposed between the imaging element 252 and the photographing optical system 101, and the microlenses are arranged in a lattice pattern on the MLA20. One microlens is associated with a plurality of photoelectric conversion elements of an image sensor, and light incident on the microlens is imaged on the plurality of photoelectric conversion elements and subjected to photoelectric conversion. Since each of the photoelectric conversion elements associated with one microlens outputs a pixel signal corresponding to the light beam that has passed through each of the divided pupil regions, LF data is obtained. Details of the functions and arrangement of the MLA 20 will be described later with reference to FIG.

また、後述するように撮像素子252から得られるピント評価量および適当な露光量に基づいて、ボディCPU109は適切に撮影光学系101を調整する。該調整によって被写体からの反射光は適切な光量で撮像素子252に露光されるとともに、撮像素子252近傍で被写体像が結像する。ボディCPU109は、後述するように撮影画像のデフォーカス量(ボケ量)に基づいて主被写体の判定を行い、レンズCPU103を介してAFレンズ120の駆動を制御する。   Further, as will be described later, the body CPU 109 appropriately adjusts the photographing optical system 101 based on the focus evaluation amount obtained from the image sensor 252 and the appropriate exposure amount. By this adjustment, reflected light from the subject is exposed to the image sensor 252 with an appropriate amount of light, and a subject image is formed in the vicinity of the image sensor 252. As will be described later, the body CPU 109 determines the main subject based on the defocus amount (blur amount) of the captured image, and controls the driving of the AF lens 120 via the lens CPU 103.

画像処理部150は、内部にA/D変換器、ホワイトバランス回路、ガンマ補正回路、補間演算回路等を有しており、撮像素子252から入力されたLFデータに対して各種処理を行なって記録用の画像を生成する。画像処理部150で行われる各種処理には、後述する像シフト処理、像生成処理、相関計算処理が含まれる。また、画像処理部150は、生成した画像を記録部に出力を行うとともに、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。さらに画像処理部150はボディCPU109の指示により生成した画像を表示部258に出力する。   The image processing unit 150 includes an A / D converter, a white balance circuit, a gamma correction circuit, an interpolation calculation circuit, and the like. The image processing unit 150 performs various processes on the LF data input from the image sensor 252 and records it. Generate an image for Various processes performed by the image processing unit 150 include an image shift process, an image generation process, and a correlation calculation process, which will be described later. In addition, the image processing unit 150 outputs the generated image to the recording unit, and compresses an image, a moving image, audio, and the like using a predetermined method. Further, the image processing unit 150 outputs an image generated according to an instruction from the body CPU 109 to the display unit 258.

ボディCPU109は、例えばCPUやMPUなどのプログラマブルプロセッサであり、例えば不図示の不揮発性メモリに記憶されたプログラムを読み出し、メモリ197に展開して実行することによりカメラシステム全体の種々の制御を行う。   The body CPU 109 is a programmable processor such as a CPU or MPU, for example, and performs various controls of the entire camera system by reading out a program stored in a non-volatile memory (not shown), developing the program in the memory 197, and executing the program.

ボディCPU109は、レリーズスイッチ191が操作されるとレリーズスイッチ191が半押し、又は、全押しされたことを検知し、撮像素子252の駆動、画像処理部150の動作などを制御する。ボディCPU109は、後述する撮影モードに応じて算出した絞り値に基づいて絞り駆動部141を制御するため、レンズCPU103との間で通信を行う。ボディCPU109は、さらに表示部258によって液晶モニタ等に情報表示を行う情報表示装置の各セグメントの状態を制御する。   When the release switch 191 is operated, the body CPU 109 detects that the release switch 191 is half-pressed or fully pressed, and controls the driving of the image sensor 252 and the operation of the image processing unit 150. The body CPU 109 communicates with the lens CPU 103 in order to control the aperture driving unit 141 based on an aperture value calculated according to a shooting mode described later. The body CPU 109 further controls the state of each segment of the information display device that displays information on a liquid crystal monitor or the like by the display unit 258.

レリーズスイッチ191は、図示しないレリーズボタンの半押し動作(SW1のON)あるいはレリーズボタンの全押し動作(SW2のON)を検出する。レリーズボタンの半押し動作の検出により、一連の撮影準備動作(測光動作や焦点調節動作等)が開始され、レリーズボタンの全押し動作(SW2のON)の検出により、撮影動作(撮像素子252から読み出されたLFデータの記録媒体への記録)が開始させる。   The release switch 191 detects a half-pressing operation of a release button (not shown) (SW1 is turned on) or a release button full-pressing operation (SW2 is turned on). A series of shooting preparation operations (photometry operation, focus adjustment operation, etc.) is started by detecting the half-press operation of the release button, and a shooting operation (from the image sensor 252) by detecting the release button full-press operation (SW2 ON). Recording of the read LF data on a recording medium) is started.

図2は本実施形態のデジタルカメラ100の背面図の一例を示している。選択スイッチ192は任意方向の操作が可能な選択スイッチで、不図示の公知の撮影メニューの項目を選択したり、後述するように、ユーザが主被写体を選択したりするときに用いるスイッチである。   FIG. 2 shows an example of a rear view of the digital camera 100 of the present embodiment. The selection switch 192 is a selection switch that can be operated in an arbitrary direction, and is a switch that is used when a user selects a well-known shooting menu item (not shown) or a user selects a main subject as will be described later.

決定スイッチ193は、不図示の公知の撮影メニューにおいてユーザが操作を決定をしたり、後述するように、ユーザが主被写体を決定したりするときに用いるスイッチである。また、絞り設定スイッチ194は、ユーザが不図示の操作ダイヤルを操作して絞り値を設定することができるスイッチである。   The decision switch 193 is a switch used when the user decides an operation in a well-known shooting menu (not shown) or when the user decides a main subject as will be described later. The aperture setting switch 194 is a switch that allows the user to set an aperture value by operating an operation dial (not shown).

メインスイッチ195はデジタルカメラ100を起動させるためのスイッチである。メインスイッチ195は2つのポジション(195−1,195−2)が選択可能なスイッチである。195−1のポジションにメインスイッチ195をセットしたときは「OFF」を示し、デジタルカメラ100はスリープ状態となる。また195−2のポジションにメインスイッチ195をセットしたときは「ON」を示し、デジタルカメラ100はスリープ状態から駆動状態となり、各種スイッチの操作等を受け付けて静止画や動画の撮影のための動作を行う状態となる。   A main switch 195 is a switch for starting up the digital camera 100. The main switch 195 is a switch that can select two positions (195-1, 195-2). When the main switch 195 is set to the position 195-1, “OFF” is indicated, and the digital camera 100 enters a sleep state. When the main switch 195 is set to the position 195-2, “ON” is indicated, and the digital camera 100 is changed from the sleep state to the drive state, and accepts the operation of various switches to operate for taking a still image or a moving image. It will be in the state to perform.

モードスイッチ196は、デジタルカメラ100の撮影モードを設定するためのスイッチである。ユーザは、少なくともユーザが設定した撮影条件を優先する撮影が可能なモードと、「リフォーカス優先撮影モード」とを設定することができる。本実施形態において「リフォーカス優先撮影モード」とは、例えば主被写体に合焦した撮影を行った後に、撮影時とは異なる被写体距離に合焦させた(例えば主被写体以外の被写体に合焦させた)画像を生成可能なLFデータを取得する撮影モードをいう。   The mode switch 196 is a switch for setting the shooting mode of the digital camera 100. The user can set at least a mode in which shooting that gives priority to the shooting conditions set by the user and a “refocus priority shooting mode” can be set. In this embodiment, the “refocus priority shooting mode” refers to, for example, focusing on a main subject and then focusing on a subject distance different from that at the time of shooting (for example, focusing on a subject other than the main subject). This is a shooting mode for acquiring LF data that can generate an image.

メモリ197は、実際の記憶部に加えて記録に必要な処理回路を備えている。   The memory 197 includes a processing circuit necessary for recording in addition to an actual storage unit.

表示部258はデジタルカメラ100の背面に取り付けられており、例えば撮影時や再生時に、LFデータから生成された画像データを表示する。また、撮影環境や撮影光学系101の状態等の情報を表示する場合、ボディCPU109は該情報を示すGUIデータを表示部9に表示させる。表示部258は、例えば有機EL素子により構成すれば消費電力を小さくできるとともに、表示部258の薄型化を図ることができ、ひいてはデジタルカメラ100の省電力化および小型化を図ることができる。   The display unit 258 is attached to the back surface of the digital camera 100, and displays image data generated from LF data at the time of shooting or playback, for example. Further, when displaying information such as the photographing environment and the state of the photographing optical system 101, the body CPU 109 causes the display unit 9 to display GUI data indicating the information. For example, if the display unit 258 is configured by an organic EL element, power consumption can be reduced, and the display unit 258 can be thinned. As a result, power saving and downsizing of the digital camera 100 can be achieved.

図3は、本実施形態における撮影光学系を模式的に示す図である。本実施形態では、光線の位置に加えて角度の情報を取得したLFデータを取得する。本実施形態では、LFデータの取得のために撮影光学系101の結像面近傍にMLA20を配置するとともに、MLA20を構成する1つのマイクロレンズに対して複数の画素を対応させている。   FIG. 3 is a diagram schematically showing a photographing optical system in the present embodiment. In the present embodiment, LF data obtained by acquiring angle information in addition to the position of the light beam is acquired. In the present embodiment, the MLA 20 is disposed in the vicinity of the imaging plane of the photographing optical system 101 for acquiring LF data, and a plurality of pixels are associated with one microlens constituting the MLA 20.

図3(a)は撮像素子252とMLA20の関係を模式的に示している。図3(b)は撮像素子252の画素とMLA20の対応を模式的に示す図である。図3(c)はMLA20によってMLA20の下に設けられた画素が特定の瞳領域と対応付けられることを示している。   FIG. 3A schematically shows the relationship between the image sensor 252 and the MLA 20. FIG. 3B is a diagram schematically illustrating the correspondence between the pixels of the image sensor 252 and the MLA 20. FIG. 3C shows that the pixels provided under the MLA 20 by the MLA 20 are associated with a specific pupil region.

図3(a)に示すように、撮像素子252上にはMLA20が設けられており、MLA20の前側主点は撮影光学系101の結像面近傍になるように配置されている。本実施形態では撮像素子252上のMLA20は、各マイクロレンズの前側主点が撮影光学系101の結像面近傍となるように配置される。また図3(a)の正面図(z軸負の方向にMLA20を見た図)に示されるように、MLA20は撮像素子252の光電変換素子(以下、画素という)を覆うように配置されている。   As shown in FIG. 3A, the MLA 20 is provided on the image sensor 252, and the front principal point of the MLA 20 is arranged in the vicinity of the imaging plane of the photographing optical system 101. In the present embodiment, the MLA 20 on the image sensor 252 is arranged so that the front principal point of each microlens is in the vicinity of the imaging plane of the photographing optical system 101. 3A, the MLA 20 is arranged so as to cover a photoelectric conversion element (hereinafter referred to as a pixel) of the image sensor 252, as shown in the front view (a view of the MLA 20 viewed in the negative z-axis direction). Yes.

ここで、MLA20の各マイクロレンズには、図2(b)に示されるように撮像素子252の複数の画素が対応付けられている。図3(b)に示す格子状の枠は、撮像素子252の各画素を示している。20a,20b,20c,20dはMLA20を構成する各マイクロレンズを示す。図3(b)に示すように、マイクロレンズ1つに対して複数の画素が割り当てられており、図3(b)の例では25個の画素が1つのマイクロレンズに対して設けられている(各マイクロレンズの大きさは画素の大きさの5倍×5倍の大きさである)。   Here, as shown in FIG. 2B, a plurality of pixels of the image sensor 252 are associated with each microlens of the MLA 20. A grid-like frame shown in FIG. 3B indicates each pixel of the image sensor 252. Reference numerals 20a, 20b, 20c, and 20d denote the respective microlenses constituting the MLA 20. As shown in FIG. 3B, a plurality of pixels are assigned to one microlens, and in the example of FIG. 3B, 25 pixels are provided for one microlens. (The size of each microlens is 5 × 5 times the size of the pixel).

また図3(c)は、MLA20の各マイクロレンズに対応付けられた撮像素子252の画素に結像される光束と、撮影光学系101の瞳領域との対応関係を示している。図3(c)では便宜上、1つのマイクロレンズの主点を通りY軸と直交するXZ断面について示した該マイクロレンズ及びレンズに対応付けられた撮像素子252の画素と、Z軸と直交する射出瞳面30(XY平面)を示した瞳領域とを同一平面に示している。図3(c)において画素21、22、23、24、25は、例えば図3(b)の画素21a〜25aと対応しており、それぞれ分割瞳領域を通過した光束が結像される。つまり、MLA20のマイクロレンズによって画素21〜25の各々は撮影光学系101の射出瞳面上の特定の分割瞳領域と共役になるように設計されている。図3(c)の例では、画素21と領域31が、画素22と領域32が、画素23と領域33が、画素24と領域34、画素25と領域35がそれぞれ対応している。従って、マイクロレンズの位置、及び射出瞳面と撮像素子6の距離が定まることにより、該マイクロレンズに対応付けられた画素の各々に入射する光束の入射角度の情報が実質的に取得可能である。   FIG. 3C shows a correspondence relationship between the light beam focused on the pixel of the image sensor 252 associated with each microlens of the MLA 20 and the pupil region of the photographing optical system 101. In FIG. 3C, for convenience, the pixel of the image sensor 252 associated with the microlens and the lens shown in the XZ section passing through the principal point of one microlens and orthogonal to the Y axis, and the emission orthogonal to the Z axis. The pupil region showing the pupil plane 30 (XY plane) is shown on the same plane. In FIG. 3C, pixels 21, 22, 23, 24, and 25 correspond to, for example, the pixels 21a to 25a in FIG. 3B, and light beams that have passed through the divided pupil regions are imaged. That is, each of the pixels 21 to 25 is designed to be conjugate with a specific divided pupil region on the exit pupil plane of the photographing optical system 101 by the micro lens of the MLA 20. In the example of FIG. 3C, the pixel 21 and the region 31 correspond to the pixel 22 and the region 32, the pixel 23 and the region 33, the pixel 24 and the region 34, and the pixel 25 and the region 35, respectively. Accordingly, by determining the position of the microlens and the distance between the exit pupil plane and the image sensor 6, information on the incident angle of the light beam incident on each of the pixels associated with the microlens can be substantially acquired. .

図4は、いわゆるライブビュー撮影時に表示部258に表示される被写体像の様子を示している。図4において、表示部258には、被写体像258aと撮影条件(シャッタ速度、絞り値、ISO感度等)や露出レベル表示、電池残量表示等の撮影情報258bが表示されている。図4の例では、主被写体310は主被写体であり、その他の被写体320、330、もしくは、340は主被写体以外の被写体である。   FIG. 4 shows the state of the subject image displayed on the display unit 258 during so-called live view shooting. In FIG. 4, the display unit 258 displays a subject image 258a and shooting information (258b) such as shooting conditions (shutter speed, aperture value, ISO sensitivity, etc.), exposure level display, and battery level display. In the example of FIG. 4, the main subject 310 is a main subject, and the other subjects 320, 330, or 340 are subjects other than the main subject.

また被写体像258a表示部内には、複数のAF検出枠301が設けられている。撮像素子252からのピント検出結果に基づいて選択されたAF検出枠302は別の表示形態(色違いでの表示等)で表示されるため、ユーザは合焦している主被写体部を知ることができる。   A plurality of AF detection frames 301 are provided in the subject image 258a display unit. Since the AF detection frame 302 selected based on the focus detection result from the image sensor 252 is displayed in another display form (display with different colors, etc.), the user knows the main subject portion in focus. Can do.

なお、デジタルカメラ100の選択スイッチ192と決定スイッチ193を用いれば、撮像素子252からのピント検出結果によらず、ユーザは複数のAF検出枠301の中から合焦させたい任意の位置のAF検出枠を選択可能である。ユーザが選択したAF検出枠302に基づいて、撮像素子252からのピント検出結果から主被写体310までの距離を演算することで撮影された画像がボケた画像になることを防止する。   If the selection switch 192 and the determination switch 193 of the digital camera 100 are used, the user can detect an AF at any position desired to be focused from among the plurality of AF detection frames 301 regardless of the focus detection result from the image sensor 252. A frame can be selected. Based on the AF detection frame 302 selected by the user, the captured image is prevented from being blurred by calculating the distance to the main subject 310 from the focus detection result from the image sensor 252.

(2 像生成処理および像シフトの概要)
再構成画像を生成するための像生成処理および像シフト処理の概要について図9を用いて説明する。
(2 Overview of image generation processing and image shift)
An overview of image generation processing and image shift processing for generating a reconstructed image will be described with reference to FIG.

図9(b)は、撮像素子252が被写体像に係る光束を捕捉した面(取得面)について、再構成画像の各画素を生成する際に加算される画素を示している。図9(b)において、画素X1,i、X2,i、X3,i、X4,i、X5,iはそれぞれ、分割瞳領域1〜5の各々を通過してiで規定される位置のマイクロレンズに入射した光束に対応する画素を示している。図9では説明を簡単にするためLFデータは、瞳を1つの方向に5分割した分割瞳領域を定義し、各マイクロレンズについて該分割瞳領域の各々を通過した光束を記録したものであるとする。従って、図9(b)において縦方向には同一のマイクロレンズに対応する画素が並び、横方向には対応する光束が通過した分割瞳領域が同一である画素が並んでいる。物理的な位置との関係においては、X1,iは図3(c)の領域21から得られるデータを、X2,iは図3(c)の領域22から得られるデータを、以下添え字の3、4、5は領域23、24、25に対応していることを示している。 FIG. 9B shows pixels that are added when each pixel of the reconstructed image is generated with respect to the surface (acquisition surface) on which the imaging element 252 captures the light beam related to the subject image. In FIG. 9B, each of the pixels X1 , i , X2 , i , X3 , i , X4 , i , and X5 , i is defined by i through each of the divided pupil regions 1-5. The pixel corresponding to the light beam incident on the microlens at the position is shown. In FIG. 9, for simplicity of explanation, the LF data defines a divided pupil region obtained by dividing the pupil into five in one direction, and records the light flux that has passed through each of the divided pupil regions for each microlens. To do. Accordingly, in FIG. 9B, pixels corresponding to the same microlens are arranged in the vertical direction, and pixels having the same divided pupil region through which the corresponding light flux has passed are arranged in the horizontal direction. In relation to the physical position, X 1, i is attached with data obtained from the area 21 in FIG. 3C, and X 2, i is attached with data obtained from the area 22 in FIG. The letters 3, 4, and 5 indicate that they correspond to the areas 23, 24, and 25, respectively.

取得面に対応する焦点状態の再構成画像を生成するためには、図9(b)に破線で示すように各マイクロレンズに対応する画素の画素値を加算すればよい(像生成処理)。具体的には、X1,i、X2,i、X3,i、X4,i、X5,iの画素値の和Siを求めることにより、iで規定される位置のマイクロレンズに対応する、再構成画像の画素値を得ることができる。また、再構成画像を生成する際に中央の分割瞳領域3を通過した光束に対応する画素値のみを使用した場合、瞳を絞った状態と等価、即ち撮像素子に入射する光束を中央の分割瞳を通過する光束に制限した場合と等価な画像となる。このため、得られる再構成画像は、全画素を加算して得られる画像よりも被写界深度が深い画像となる。 In order to generate a reconstructed image in a focus state corresponding to the acquisition surface, pixel values of pixels corresponding to each microlens may be added (image generation processing) as shown by a broken line in FIG. 9B. Specifically, by obtaining the sum S i of the pixel values of X 1, i , X 2, i , X 3, i , X 4, i , X 5, i , the microlens at the position defined by i The pixel value of the reconstructed image corresponding to can be obtained. Further, when only a pixel value corresponding to the light beam that has passed through the central divided pupil region 3 is used when generating a reconstructed image, it is equivalent to a state in which the pupil is narrowed, that is, the light beam incident on the image sensor is divided into the center. An image equivalent to a case where the light flux passing through the pupil is limited is obtained. For this reason, the obtained reconstructed image is an image having a deeper depth of field than an image obtained by adding all the pixels.

次に図9(a)に示されるように、取得面よりも被写体寄りに規定される面(再構成面1)について再構成画像を生成する場合を考える。図3で説明したように、本実施形態の撮影光学系101は、各画素に入射する光束を特定の分割瞳領域に限定しているために、入射角度が既知である。この角度に沿って再構成面での各画素の位置を再構成する。具体的にはX1,iのように分割瞳領域の添え字が1のものは図9(d)において41に示すような角度で入射しているとする。分割瞳領域2、3、4、5はそれぞれ42、43、44、45に対応する。このとき再構成面1でのマイクロレンズXiに入射した光束は、取得面においては、Xi-2からXi+2に分散して入射していることになる。より具体的には、X1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散している。再構成面1に対応する焦点状態の再構成画像を生成するためには、図9(a)に破線で示すように、入射角度に応じてシフトさせた画素を加算すれば良いことが分かる。再構成面1における再構成画像を生成するため、分割瞳領域が1のものは右に2画素、分割瞳領域が2のものは右に1画素、分割瞳領域が3のものはシフトなし、分割瞳領域が4のものは左に1画素、分割瞳領域が5のものは左に2画素、それぞれシフトさせる。これにより各画素について入射角度に応じたシフト量を与えることができる。このように光束の入射方向に基づいて再構成面における対応する画素をシフトさせることを像シフト処理と呼ぶ。 Next, as shown in FIG. 9A, consider a case where a reconstructed image is generated for a surface (reconstructed surface 1) that is defined closer to the subject than the acquisition surface. As described with reference to FIG. 3, the imaging optical system 101 of the present embodiment limits the luminous flux incident on each pixel to a specific divided pupil region, and thus the incident angle is known. The position of each pixel on the reconstruction plane is reconstructed along this angle. Specifically, it is assumed that a segmented pupil region with a subscript of 1 such as X 1, i is incident at an angle as indicated by 41 in FIG. The divided pupil regions 2, 3, 4, and 5 correspond to 42, 43, 44, and 45, respectively. At this time, the light beam incident on the microlens X i on the reconstruction surface 1 is scattered and incident from X i −2 to X i + 2 on the acquisition surface. More specifically, it is distributed in X1 , i-2 , X2 , i-1 , X3 , i , X4 , i + 1 , and X5 , i + 2 . In order to generate a reconstructed image in the focus state corresponding to the reconstructed plane 1, it is understood that pixels shifted according to the incident angle may be added, as indicated by a broken line in FIG. In order to generate a reconstructed image on the reconstruction plane 1, one with a divided pupil region of 1 has two pixels on the right, one with two divided pupil regions has one pixel on the right, and one with three divided pupil regions has no shift. When the divided pupil region is 4, the pixel is shifted to the left by 1 pixel, and when the divided pupil region is 5, the pixel is shifted to the left by 2 pixels. Thereby, the shift amount according to the incident angle can be given to each pixel. Shifting the corresponding pixel on the reconstruction surface based on the incident direction of the light beam in this way is called image shift processing.

その後、図9(a)の縦方向に(即ち各分割瞳領域について)加算することで再構成面1に対応する焦点状態の再構成画像の画素値を得ることができる。具体的には、この再構成画像の画素値は、X1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2の和Siであり、Xiに入射した光の角度方向の積分値を得ることができる。これにより再構成面1での再構成画像が得られる。 Thereafter, by adding in the vertical direction of FIG. 9A (that is, for each divided pupil region), the pixel value of the reconstructed image in the focus state corresponding to the reconstruction plane 1 can be obtained. Specifically, the pixel value of this reconstructed image is the sum S i of X 1, i-2 , X 2, i-1 , X 3, i , X 4, i + 1 , X 5, i + 2. Therefore, the integral value in the angular direction of the light incident on X i can be obtained. Thereby, a reconstructed image on the reconstructed surface 1 is obtained.

ここで、図9(d)に示すように、再構成面1においてXiに輝点があるとすると、光束は取得面に対してX1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散し、いわゆるボケ状態にある。しかしながら、再構成面1での再構成画像を生成すると、再びXiに輝点が生成されコントラストの高い像が得られる。図9(c)から分かるように、再構成面2においても再構成面と同様に像を生成することができる。再構成面を配置する方向が異なるとシフトさせる方向を反転させれば良い。 Here, as shown in FIG. 9 (d), if the reconstructed surface 1 and the X i is the bright spot, X 1, i-2, X 2 on the obtained surface light flux, i-1, X 3, i , X 4, i + 1 , X 5, i + 2 are dispersed and are in a so-called blurred state. However, when a reconstructed image on the reconstruction surface 1 is generated, a bright spot is generated again on X i and an image with high contrast is obtained. As can be seen from FIG. 9C, an image can be generated on the reconstruction plane 2 as well as on the reconstruction plane. What is necessary is just to reverse the direction to shift, if the directions which arrange | position a reconstruction surface differ.

以上説明した像生成処理および像シフト処理によって、撮影時には合焦していない撮影画像の任意の被写体(例えば、図4に示した被写体320、330、もしくは、340)に合焦させる再構成画像を生成することが可能となる。   By the image generation process and the image shift process described above, a reconstructed image to be focused on an arbitrary subject (for example, the subject 320, 330, or 340 shown in FIG. 4) that is not focused at the time of shooting. Can be generated.

(3 リフォーカス優先撮影モードにおける撮影の一連の動作)
ユーザが撮影モードをリフォーカス優先撮影モードに設定して撮影を行う場合の一連の処理を図5に示すフローチャートを用いて説明する。
(3 series of shooting operations in refocus priority shooting mode)
A series of processes when the user performs shooting while setting the shooting mode to the refocus priority shooting mode will be described with reference to the flowchart shown in FIG.

フローチャートに対応する処理は、ボディCPU109が、例えば不揮発性メモリに記憶されている処理プログラムを読み出し、メモリ197に展開して実行することにより実現することができる。本処理は例えばメインスイッチ195に対する操作が検出された場合に開始される。   The processing corresponding to the flowchart can be realized by the body CPU 109 reading, for example, a processing program stored in the nonvolatile memory, developing the program in the memory 197, and executing it. This process is started when, for example, an operation on the main switch 195 is detected.

まずS1010においてボディCPU109は、メインスイッチ195がONであるかどうかの判定を行う。ボディCPU109は、メインスイッチ195がOFFであれば、デジタルカメラ100はスリープ状態となるため処理を終了する。ボディCPU109はメインスイッチ195がONであるときは処理をS1020へ進める。   First, in S1010, the body CPU 109 determines whether or not the main switch 195 is ON. If the main switch 195 is OFF, the body CPU 109 ends the process because the digital camera 100 enters the sleep state. The body CPU 109 advances the process to S1020 when the main switch 195 is ON.

S1020においてボディCPU109は、モードスイッチ196がリフォーカス優先撮影モードに設定されているかを判定する。ボディCPU109は、撮影モードがリフォーカス優先撮影モードに設定されているときは処理をS1030に進め、リフォーカス優先撮影モードに設定されていないときは処理をS1250に進める。   In step S1020, the body CPU 109 determines whether the mode switch 196 is set to the refocus priority shooting mode. The body CPU 109 advances the process to S1030 when the shooting mode is set to the refocus priority shooting mode, and advances the process to S1250 when the shooting mode is not set to the refocus priority shooting mode.

S1030においてボディCPU109は、ユーザが絞り設定スイッチ194を用いて設定する絞り値に対して、絞り値の値を大きくする側(以下、小絞り側という)に制限を設ける。小絞り側の絞り値の制限について、図6を用いて説明する。   In step S <b> 1030, the body CPU 109 sets a limit on the side on which the aperture value is increased (hereinafter referred to as the small aperture side) with respect to the aperture value set by the user using the aperture setting switch 194. The restriction of the aperture value on the small aperture side will be described with reference to FIG.

図3(c)において示したように、画素21〜25は、例えば図3(b)の画素21a〜25aと対応しており、それぞれ分割瞳領域を通過した光束が結像される。一方で、撮影光学系101において絞り140の開口径が小さくなると、分割瞳領域を通過した光束の一部が遮られ、限られた画素例えば画素23(対応する画素23a)に光束が結像される。また、図9において示したように、取得面と異なる再構成面に対応する再構成画像を生成するためには、入射方向の異なる複数の分割瞳領域を通過した光束を受光することが必要である。換言すれば、絞り140によって例えば各マイクロレンズ下の中心の画素に光束が制限されるときは、像シフト処理が制限されて再構成画像の生成ができないこととなる。   As shown in FIG. 3C, the pixels 21 to 25 correspond to, for example, the pixels 21a to 25a in FIG. 3B, and light beams that have passed through the divided pupil regions are imaged. On the other hand, when the aperture diameter of the stop 140 is reduced in the photographing optical system 101, a part of the light beam that has passed through the divided pupil region is blocked, and the light beam is imaged on a limited pixel, for example, the pixel 23 (corresponding pixel 23a). The Further, as shown in FIG. 9, in order to generate a reconstructed image corresponding to a reconstructed surface different from the acquisition surface, it is necessary to receive a light beam that has passed through a plurality of divided pupil regions having different incident directions. is there. In other words, when the light beam is restricted to the central pixel below each microlens by the diaphragm 140, for example, the image shift process is restricted and a reconstructed image cannot be generated.

このため、絞り140を制御する際の開口径の下限値を規定するための絞り値Fminを設定する。絞り値Fminは、絞りの開口径の下限値を複数の分割瞳領域を通過した光束が通過可能な開口径の値にするように設定される。分割瞳領域を対応する画素で表すと、例えば絞り値Fminは、MLA20を構成する各マイクロレンズ20aのFナンバーをf、1つのマイクロレンズに対して格子状に配列された画素群の一列の画素数をnとして、以下のように定義される。
min= nf/3(nが奇数のとき)
min= nf/2(nが偶数のとき)
図6(a)は、例えば一列分の画素数が5個(n=奇数)の場合に、マイクロレンズ20aの中心に配列されている画素23aの周囲に配列された画素が被写体からの光束を受光している様子を示している。図6(a)のハッチングで示した各画素は被写体からの光束を受光している画素である。即ち、絞り値Fminに対応する絞りの開口径により画素23aの周囲に配列された画素22a、24a、23aa、23ab、23ac、23ad、23ae、23afに被写体からの光束が入射する。同様に、図6(b)は、例えば一列分の画素数が4個(n=偶数)の場合、マイクロレンズ20aの中心に配列された画素22a、23a、22aa、22abに被写体からの光束が入射する。このように複数の分割瞳領域を通過した光束を受光可能にすることで、LFデータから再構成画像の生成が可能になる。
For this reason, an aperture value F min for defining the lower limit value of the aperture diameter when controlling the aperture 140 is set. The aperture value F min is set so that the lower limit value of the aperture diameter of the aperture is set to a value of an aperture diameter through which a light beam that has passed through a plurality of divided pupil regions can pass. When the divided pupil region is represented by corresponding pixels, for example, the aperture value F min is an F number of each microlens 20a constituting the MLA 20, and f is a column of a pixel group arranged in a grid with respect to one microlens. It is defined as follows, where n is the number of pixels.
F min = nf / 3 (when n is an odd number)
F min = nf / 2 (when n is an even number)
In FIG. 6A, for example, when the number of pixels for one column is five (n = odd number), the pixels arranged around the pixel 23a arranged at the center of the microlens 20a emit light from the subject. It shows a state of receiving light. Each pixel indicated by hatching in FIG. 6A is a pixel that receives a light beam from a subject. That is, the light beam from the subject is incident on the pixels 22a, 24a, 23aa, 23ab, 23ac, 23ad, 23ae, and 23af arranged around the pixel 23a with the aperture diameter corresponding to the aperture value Fmin . Similarly, in FIG. 6B, for example, when the number of pixels for one column is four (n = even number), the luminous flux from the subject is applied to the pixels 22a, 23a, 22aa, and 22ab arranged at the center of the microlens 20a. Incident. Thus, by making it possible to receive a light beam that has passed through a plurality of divided pupil regions, a reconstructed image can be generated from LF data.

ボディCPU109は、Fminを小絞り側の制限値として設定する。絞り設定スイッチ194において設定可能な絞り値は、例えば、開放側の絞り値はレンズ102の撮影光学系101の開放絞り値であるF2.8から、小絞り側はFminまでに制限されることとなる。 The body CPU 109 sets F min as the limit value on the small aperture side. The aperture value that can be set by the aperture setting switch 194 is, for example, that the aperture value on the open side is limited from F2.8, which is the open aperture value of the photographing optical system 101 of the lens 102, to F min on the small aperture side. It becomes.

S1040においてボディCPU109は、レリーズスイッチ191の半押し動作が行われたかどうかの判断を行う。ボディCPU109は反押し動作が行われていると判断したときは処理をS1050へ進める。   In S1040, the body CPU 109 determines whether or not the release switch 191 is half-pressed. When the body CPU 109 determines that the counter-pressing operation is being performed, the process proceeds to S1050.

S1050においてボディCPU109は、ユーザが絞り設定スイッチ194にて設定した絞り値を読み込み、S1030において設定された絞り値(Fmin)の制限値を超えたかを判断する。即ち、ボディCPU109は、ユーザにより指定されている絞りの開口径が再構成画像を生成可能な開口径の下限値を下回るかを判断する。ボディCPU109は、ユーザの設定した絞り値が制限値を超えている場合は処理をS1050に処理を進め、制限値を超えていない場合は処理をS1300へ進める。 In S1050, the body CPU 109 reads the aperture value set by the user with the aperture setting switch 194, and determines whether the limit value of the aperture value ( Fmin ) set in S1030 has been exceeded. That is, the body CPU 109 determines whether the aperture diameter of the aperture designated by the user is below the lower limit value of the aperture diameter that can generate the reconstructed image. The body CPU 109 advances the process to S1050 when the aperture value set by the user exceeds the limit value, and advances the process to S1300 when it does not exceed the limit value.

S1300においてボディCPU109は、S1050において読み込んだユーザの設定した絞り値を、レンズ接点190を介してレンズCPU103に送信する。絞り制御部106は設定された絞り値に応じて絞り駆動部141を駆動制御し、絞り140をユーザの設定した絞り値に相当する開口径にする。ボディCPU109はその後処理をS1080へ進める。   In step S <b> 1300, the body CPU 109 transmits the aperture value set by the user read in step S <b> 1050 to the lens CPU 103 via the lens contact 190. The aperture control unit 106 controls the aperture drive unit 141 according to the set aperture value so that the aperture 140 has an aperture diameter corresponding to the aperture value set by the user. Thereafter, the body CPU 109 advances the process to step S1080.

S1060においてボディCPU109は、表示部258内に例えば「絞り値が制限値を超えました。制限値に設定変更します」等の警告表示を行って、ユーザの設定した絞り値が制限値を超えたことをユーザに通知すると共に、ボディCPU109は設定された絞り値を制限値に変更して、S1070に処理を進める。   In S1060, the body CPU 109 displays a warning message such as “the aperture value has exceeded the limit value. The setting value will be changed to the limit value” in the display unit 258, and the aperture value set by the user exceeds the limit value. The body CPU 109 changes the set aperture value to the limit value and advances the process to S1070.

S1070においてボディCPU109は、S1060にて設定した制限値の絞り値を、レンズ接点190を介してレンズCPU103に送信する。そして、その制限値の絞り値に応じて絞り制御部106は絞り駆動部141を駆動制御し、絞り140を設定された制限値である絞り値に相当する開口径にする。その後、ボディCPU109はS1080に処理を進める。   In S1070, the body CPU 109 transmits the aperture value of the limit value set in S1060 to the lens CPU 103 via the lens contact 190. Then, the diaphragm control unit 106 drives and controls the diaphragm driving unit 141 in accordance with the diaphragm value of the limit value so that the diaphragm 140 has an aperture diameter corresponding to the diaphragm value that is the set limit value. Thereafter, the body CPU 109 advances the process to S1080.

S1080においてボディCPU109は、撮像素子252を適当な時間露光して、読み出す(A/D変換する)ことによりデータを取得する。なお、露光時間と露光量から撮影において適当な露出量を計算するようにしてもよい。   In S1080, the body CPU 109 obtains data by exposing the image sensor 252 for an appropriate time and reading (A / D conversion). Note that an appropriate exposure amount in photographing may be calculated from the exposure time and the exposure amount.

S1090においてボディCPU109は、相関計算処理を行う。相関計算処理では、いわゆる位相差AFによるピント位置を求めることができる。相関計算処理は、予め設定された評価位置の数(いわゆるAF検出枠の数)に対応して繰り返し演算を行う。相関計算処理は、適切に設定された評価枠(評価対象の領域)の大きさに応じた画素数の範囲で相関計算を行う。相関計算は例えばΣ|Ai − Bi|により計算すれば良い。ここで、Aiは特定の瞳領域を通過したi番目の画素の輝度を示している。BiはAiとは異なる瞳領域を通過したi番目の画素の輝度を示している。例えば図3において、画素22に対応する画素を並べたものをAi、画素24に対応する画素を並べたものをBiとすれば良い。また相関計算の評価値は、予め設定された評価点の数(焦点合わせの探索を行うピントの深さに対応)だけ得られる。上記に示したΣ|Ai − Bi|という評価式においては、相関値が小さくなった個所が最もピント状態が良い個所に対応している。相関評価値が最良となる点を相関量評価に基づく最良ピント位置として格納する。   In S1090, the body CPU 109 performs correlation calculation processing. In the correlation calculation process, a focus position by so-called phase difference AF can be obtained. In the correlation calculation process, calculation is repeatedly performed in accordance with a preset number of evaluation positions (so-called number of AF detection frames). In the correlation calculation process, the correlation calculation is performed within the range of the number of pixels corresponding to the size of the appropriately set evaluation frame (evaluation target region). The correlation calculation may be performed by, for example, Σ | Ai−Bi |. Here, Ai indicates the luminance of the i-th pixel that has passed through a specific pupil region. Bi represents the luminance of the i-th pixel that has passed through a pupil region different from Ai. For example, in FIG. 3, the pixel array corresponding to the pixel 22 may be Ai, and the pixel array corresponding to the pixel 24 may be Bi. Further, the correlation calculation evaluation values are obtained by the number of preset evaluation points (corresponding to the focus depth at which the focus search is performed). In the evaluation formula Σ | Ai−Bi | shown above, the location where the correlation value is small corresponds to the location with the best focus state. The point with the best correlation evaluation value is stored as the best focus position based on the correlation amount evaluation.

S1100においてボディCPU109は、S1090において求めたピント位置から各AF検出枠301でのデフォーカス量を算出する。   In S1100, the body CPU 109 calculates the defocus amount in each AF detection frame 301 from the focus position obtained in S1090.

S1110においてボディCPU109は、S1100で求めた各AF検出枠301でのデフォーカス量からユーザが主被写体としている被写体を判定する。具体的には、ボディCPU109は例えば各AF検出枠301でのデフォーカス量の分布状況やその絶対値の差から、ある特定の値及びその近傍のデフォーカス量となっているAF検出枠301の数が多いエリアを特定する。ボディCPU109はそのエリア内の被写体を主被写体310と判定すると共に、そのエリアで一番デフォーカス量が小さいものをピント位置のAF検出枠302として表示する(図4参照)。あるいは、前述のようにユーザが選択スイッチ192により合焦させたい位置のAF検出枠302を指定した場合、ボディCPU109は指定されたAF検出枠302におけるデフォーカス量と類似するデフォーカス量を持つAF検出枠を特定しても良い。このとき、該AF検出枠が分布するエリア内の被写体を主被写体310と判定しても良い。なお、ユーザが主被写体310を指定する場合は、ボディCPU109表示部258内に例えば「主被写体を選択/決定して下さい」等の表示を行えば、ユーザにとっては利便性が向上する。また、撮影範囲内(図4で被写体像258a)においてAF検出領域外(AF検出枠301が配置されていない領域)となる被写体(例えば、被写体330及び340)に対してもS1060の処理によりデフォーカス量が得られている。このためボディCPU109は主被写体310以外の被写体のデフォーカス量をメモリ197に記憶させても良い。   In S1110, the body CPU 109 determines the subject that the user is the main subject from the defocus amount in each AF detection frame 301 obtained in S1100. Specifically, the body CPU 109 determines, for example, the AF detection frame 301 that has a specific value and a defocus amount in the vicinity thereof from the distribution state of the defocus amount in each AF detection frame 301 and the difference between the absolute values. Identify areas with large numbers. The body CPU 109 determines that the subject in the area is the main subject 310 and displays the subject with the smallest defocus amount in the area as the AF detection frame 302 at the focus position (see FIG. 4). Alternatively, when the user designates the AF detection frame 302 at a position to be focused by the selection switch 192 as described above, the body CPU 109 performs AF with a defocus amount similar to the defocus amount in the designated AF detection frame 302. A detection frame may be specified. At this time, the subject in the area where the AF detection frame is distributed may be determined as the main subject 310. When the user designates the main subject 310, if the display such as “Please select / determine the main subject” is displayed in the body CPU 109 display unit 258, the convenience for the user is improved. Also, a subject (for example, subjects 330 and 340) that is outside the AF detection region (the region where the AF detection frame 301 is not disposed) within the photographing range (subject image 258a in FIG. 4) is also processed by the processing of S1060. Focus amount is obtained. Therefore, the body CPU 109 may store the defocus amount of subjects other than the main subject 310 in the memory 197.

S1120においてボディCPU109は、S1110の演算結果をレンズ接点190を介してレンズCPU103へ送信して、AFレンズ120を駆動させる。ボディCPU109はS1110により求まった主被写体310が合焦状態となる位置にAFレンズ120を移動させる。   In S1120, the body CPU 109 transmits the calculation result of S1110 to the lens CPU 103 via the lens contact 190, and drives the AF lens 120. The body CPU 109 moves the AF lens 120 to a position where the main subject 310 obtained in S1110 is in a focused state.

S1130において画像処理部150は、ボディCPU109の指示に応じて像生成処理を行う。像生成処理の動作の詳細は図8を用いて後述するが、これにより撮像素子252に結像した主被写体310の像がメモリ197に生成される。   In step S <b> 1130, the image processing unit 150 performs image generation processing in accordance with an instruction from the body CPU 109. Details of the operation of the image generation processing will be described later with reference to FIG. 8, and an image of the main subject 310 formed on the image sensor 252 is thereby generated in the memory 197.

S1140においてボディCPU109は、S1130にて生成された主被写体310に合焦した画像を撮影前のプレビュー画像として表示部258に表示する。   In S1140, the body CPU 109 displays the image focused on the main subject 310 generated in S1130 on the display unit 258 as a preview image before photographing.

S1150においてボディCPU109は、ユーザが絞り設定スイッチ194を操作することによって絞り値が変更されたかを判断する。これは、S1140で表示部258に表示されたプレビュー画像を確認後、撮影前にユーザが絞り値を変更してから撮影する場合があるためである。ボディCPU109はすでに取得している絞り値と絞り設定スイッチ194の絞り値を比較して、絞り値が異なる場合は処理をS1050に進め、変更されていない場合はS1150に処理を進める。   In S1150, the body CPU 109 determines whether the aperture value has been changed by the user operating the aperture setting switch 194. This is because, after confirming the preview image displayed on the display unit 258 in S1140, the user may shoot after changing the aperture value before shooting. The body CPU 109 compares the already obtained aperture value with the aperture value of the aperture setting switch 194, and if the aperture value is different, the process proceeds to S1050, and if not changed, the process proceeds to S1150.

S1160においてボディCPU109は、レリーズスイッチ191が全部押し込まれたか(SW2がオンになったかどうか)の判断を行う。ボディCPU109はレリーズスイッチ191が全部押し込まれていないときはS1060に戻り、全部押し込まれているときはS1170に処理を進める。   In S1160, the body CPU 109 determines whether or not the release switch 191 has been fully depressed (whether or not SW2 is turned on). The body CPU 109 returns to S1060 when the release switch 191 is not fully depressed, and proceeds to S1170 when all the release switches 191 are depressed.

S1170において、ボディCPU109は撮影動作を制御すると共に、撮像素子252に結像した主被写体310の像を、公知の画像処理技術を経て画像処理部150で処理した記録画像としてメモリ197もしくは不図示の記録媒体に記録する。   In S <b> 1170, the body CPU 109 controls the photographing operation, and the image of the main subject 310 formed on the image sensor 252 is recorded as a recorded image processed by the image processing unit 150 through a known image processing technique, or the memory 197 or not illustrated. Record on a recording medium.

S1180においてボディCPU109は、S1170で生成した記録画像を表示部258に表示する。これにより、ユーザは撮影直後に主被写体310に合焦した画像を確認および取得することができる。   In S1180, the body CPU 109 displays the recorded image generated in S1170 on the display unit 258. Thereby, the user can confirm and acquire an image focused on the main subject 310 immediately after shooting.

S1190においてボディCPU109は、メインスイッチ195がOFFになったかどうかのボディCPU109が判断を行い、メインスイッチ195がOFFの場合は処理をS1040に戻し、メインスイッチ195がONの場合は一連の処理を終了する。   In S1190, the body CPU 109 determines whether or not the main switch 195 is turned off. If the main switch 195 is turned off, the process returns to S1040. If the main switch 195 is turned on, the series of processes is terminated. To do.

一方、S1250においてボディCPU109は、絞り値の制限を解除する。これにより、ユーザは自分が意図する絞り値で被写体を撮影することが可能になる。   On the other hand, in S1250, the body CPU 109 releases the restriction on the aperture value. As a result, the user can photograph the subject with the aperture value intended by the user.

S1260において、通常の撮影動作を行なって処理を終了する。なおS1260の動作は公知の動作でありため詳細な説明を省略する。   In S1260, a normal photographing operation is performed and the process is terminated. Since the operation in S1260 is a known operation, detailed description thereof is omitted.

(4 像生成処理の動作)
上述の像生成処理の動作について、図7を用いて説明する。なお本実施形態においては取得したLFデータはS1140においてプレビュー表示を行うために再構成画像が生成される。このため、取得面において入射した光束を再現した画像を生成するものであるから、像シフト処理を行うことなく像生成処理が行われる。
(4 Image generation processing operations)
The operation of the above-described image generation process will be described with reference to FIG. In this embodiment, a reconstructed image is generated for previewing the acquired LF data in S1140. For this reason, an image in which the incident light beam is reproduced on the acquisition surface is generated, so that the image generation process is performed without performing the image shift process.

S1610において、画像処理部150はS1640における加算処理のための領域のデータを初期化する(0で埋める)。このときのデータ領域の大きさはMLA20のマイクロレンズの数量あれば良い。   In step S <b> 1610, the image processing unit 150 initializes the area data for the addition process in step S <b> 1640 (fills with 0). The size of the data area at this time may be the number of micro lenses of the MLA 20.

S1620からS1660はMLA20のマイクロレンズ数に基づくループを形成している。S1620において、MLA20を構成するマイクロレンズの数に応じてループ計算が実行される。例えば、図3に示した例では、元の撮像素子の画素数を25分割(瞳分割の数)した数がマイクロレンズの数となる。画像処理部150はマイクロレンズの数だけループ処理を行なうと処理をS1670に進める。   S1620 to S1660 form a loop based on the number of micro lenses of MLA20. In S1620, a loop calculation is executed according to the number of microlenses constituting the MLA 20. For example, in the example illustrated in FIG. 3, the number of micro lenses is the number obtained by dividing the number of pixels of the original image sensor by 25 (number of pupil divisions). When the image processing unit 150 performs the loop processing for the number of microlenses, the process proceeds to S1670.

S1630からS1660はさらに瞳分割の数に応じたループを形成している。画像処理部150は瞳分割の数だけループ処理を行うと処理をS1660に進める。即ち再び処理はS1620へ戻る。   S1630 to S1660 further form a loop according to the number of pupil divisions. When the image processing unit 150 performs the loop processing for the number of pupil divisions, the process proceeds to S1660. That is, the process returns to S1620 again.

S1640において、画像処理部150は処理対象であるマイクロレンズに対応する画素の画素値を加算する。瞳分割の数に応じた数だけループ計算が実行されると、例えば、図3に示した例では、25個に分割されていた画素について、25個のそれぞれの瞳位置からの光束を受光した画素が加算される。また図9の例では各マイクロレンズXiについて、画素値の和Siが求められる。画素値の総和シフト量が画素の整数倍でない場合は、S1640において、適切に内分されながら加算される(重なっている面積に応じて適切に加算すれば良い)。 In step S1640, the image processing unit 150 adds the pixel values of the pixels corresponding to the microlens that is the processing target. When the loop calculation is executed by the number corresponding to the number of pupil divisions, for example, in the example shown in FIG. 3, light beams from 25 pupil positions are received with respect to the pixels divided into 25 pixels. Pixels are added. In the example of FIG. 9, the sum S i of pixel values is obtained for each microlens X i . If the total shift amount of the pixel values is not an integer multiple of the pixels, in S1640, addition is performed while being appropriately divided (addition may be appropriately performed according to the overlapping area).

S1670において、呼び出し元のS1130に戻る。   In step S1670, the process returns to the calling source S1130.

以上本実施形態における一連の動作を説明した。なお本実形態では、絞り値の制限値をマイクロレンズのFナンバーと光束を受光する画素数により規定するものして説明したが、絞り値の制限値の設定方法はこれに限らない。画像解析によって得られる被写体の特徴量に基づいて制限値を設定してもよい。例えば、公知の顔検出処理で得られる顔領域の被写体距離と深度の情報に基づいて、顔領域のリフォーカスが可能な範囲で絞り値を制限することなどが考えられる。   The series of operations in the present embodiment has been described above. In this embodiment, the limit value of the aperture value is defined by the F number of the microlens and the number of pixels that receive the light beam. However, the method for setting the limit value of the aperture value is not limited to this. The limit value may be set based on the feature amount of the subject obtained by image analysis. For example, it is conceivable to limit the aperture value within a range where the refocusing of the face area is possible based on the subject distance and depth information of the face area obtained by a known face detection process.

以上説明したように、本実施形態では絞りの開口径の下限値を複数の分割瞳領域を通過した光束が通過可能にする値にすることで、再構成可能なLFデータを取得できるようにした。即ち撮影後に異なる条件の画像を生成可能なLFデータを出力することが可能になる。また本実施形態ではリフォーカス優先撮影モードに設定されているときは絞り値を再構成可能なLFデータを取得可能な絞り値に制限するようにした。これによりユーザが絞り値を増大させてLFデータを取得しようとする場合であっても撮影後に異なる条件の画像を生成可能なLFデータを出力することが可能になる。   As described above, in this embodiment, the lower limit value of the aperture diameter of the stop is set to a value that allows a light beam that has passed through a plurality of divided pupil regions to pass, so that reconfigurable LF data can be acquired. . That is, it is possible to output LF data that can generate images with different conditions after shooting. Further, in this embodiment, when the refocus priority shooting mode is set, the aperture value is limited to an aperture value that can be reconstructed LF data. This makes it possible to output LF data that can generate images with different conditions after shooting even when the user attempts to acquire LF data by increasing the aperture value.

さらに本実施形態では、絞り値を再構成可能なLFデータを取得可能な絞り値に制限した場合、ユーザに対する通知を行なうようにした。これによりユーザが絞り値を増大させた操作を行っても、ユーザは撮影後に異なる条件の画像を生成可能なLFデータが出力されることを認識することができる。   Furthermore, in this embodiment, when the aperture value is limited to an aperture value that can be reconstructed LF data, the user is notified. Thus, even when the user performs an operation with an increased aperture value, the user can recognize that LF data capable of generating an image with different conditions is output after shooting.

(実施形態2)
上述した実施形態1では、リフォーカス優先撮影モードに設定されている場合に、異なる条件の再構成画像をLFデータから生成できなくなる絞り値をユーザが設定できないように制御する方法について説明した。本実施形態では、ユーザに所望の絞り値の設定を許容した上で、ユーザの所望する絞り値に対応する画像を提示しつつ、異なる条件の再構成画像を生成可能なLFデータを記録する方法について説明する。本実施形態の説明において、デジタルカメラ100の機能構成は実施形態1と同一であるものとし、説明は省略する。
(Embodiment 2)
In the first embodiment described above, a method has been described in which when the refocus priority shooting mode is set, control is performed so that the user cannot set an aperture value at which a reconstructed image with different conditions cannot be generated from LF data. In the present embodiment, a method for recording LF data capable of generating a reconstructed image under different conditions while presenting an image corresponding to a user's desired aperture value while allowing the user to set a desired aperture value Will be described. In the description of the present embodiment, the functional configuration of the digital camera 100 is assumed to be the same as that of the first embodiment, and the description thereof is omitted.

(1 絞りを設定した場合の再構成画像の生成の概要)
図11を用いて、異なる条件の再構成画像をLFデータから生成できなくなる絞り値がユーザにより設定された場合に、対応する再構成画像をLFデータから生成する原理について説明する。
(1 Outline of generation of reconstructed image when aperture is set)
The principle of generating a corresponding reconstructed image from LF data when a user has set an aperture value at which a reconstructed image with different conditions cannot be generated from LF data will be described with reference to FIG.

図11は絞り140の開口径と、撮像素子252上に結像する物体(被写体)からの光束の関係を示している。図11では、それぞれ51は物体平面を、51a、51bは物体上の適当な点を、52は撮影光学系101の瞳平面を、61、62はMLA20上の特定のマイクロレンズをそれぞれ示している。また、撮像素子252、MLA20、領域31〜35は図3で示すものにそれぞれ対応している。   FIG. 11 shows the relationship between the aperture diameter of the diaphragm 140 and the luminous flux from the object (subject) imaged on the image sensor 252. In FIG. 11, 51 indicates an object plane, 51a and 51b indicate appropriate points on the object, 52 indicates a pupil plane of the photographing optical system 101, and 61 and 62 indicate specific microlenses on the MLA 20, respectively. . Further, the imaging element 252, the MLA 20, and the areas 31 to 35 correspond to those shown in FIG.

物体上の点51aから出射して瞳平面上の領域31及び33を通過する光束を実線で、物体上の点51bから出射して瞳平面上の領域31及び33を通過する光束を破線で図示した。図11の例では、図3にて説明したように、撮影光学系101の結像面近傍にMLA20を配置することで、撮像素子6と撮影光学系101の瞳平面52が共役の関係にある。さらに、物体平面51とMLA20が共役の関係にある。このため物体上の点51aから出た光束はマイクロレンズ61に、51bを出た光束はマイクロレンズ62に到達し、領域31から35それぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。   Illustrated by a solid line is a light beam that is emitted from the point 51a on the object and passes through the regions 31 and 33 on the pupil plane, and is represented by a broken line that is emitted from the point 51b on the object and passes through the regions 31 and 33 on the pupil plane. did. In the example of FIG. 11, as described with reference to FIG. 3, the MLA 20 is arranged in the vicinity of the imaging plane of the photographing optical system 101, so that the imaging device 6 and the pupil plane 52 of the photographing optical system 101 are in a conjugate relationship. . Furthermore, the object plane 51 and the MLA 20 are in a conjugate relationship. Therefore, the light beam emitted from the point 51a on the object reaches the microlens 61, the light beam emitted from the point 51b reaches the microlens 62, and the light beams that have passed through the regions 31 to 35 respectively correspond to those provided below the microlens. Reach the pixel.

例えば絞り140の開口径が所定の絞り値に設定された場合、該開口径を介した被写体からの光束は、瞳平面52に矢印71で示した領域(領域32〜34の全ておよび領域31及び35の一部)を通過する光束となる。そして瞳平面52を通過した光束はMLA20の下のそれぞれ対応する画素(図3(c)では画素21〜25)に到達する。各光束を受光した画素の情報に対して像生成処理を行うことで、設定された所定の絞り値に対応した被写界深度を有する被写体像を得ることができる。   For example, when the aperture diameter of the aperture 140 is set to a predetermined aperture value, the luminous flux from the subject through the aperture diameter is the area indicated by the arrow 71 on the pupil plane 52 (all the areas 32 to 34 and the area 31 and 35). The light beams that have passed through the pupil plane 52 reach the corresponding pixels (pixels 21 to 25 in FIG. 3C) under the MLA 20. By performing image generation processing on the information of the pixels that receive each light beam, it is possible to obtain a subject image having a depth of field corresponding to a set predetermined aperture value.

一方、像シフト処理を行うことにより絞りを絞った状態と等価な再構成画像を得ることができる。所望の再構成画像の絞り値に対応した仮想的な絞りの開口径が矢印72で与えられているとする。被写体からの光束は瞳平面52では矢印72で示した領域(領域32〜34のほぼ全て)を通過する光束となる。そして該光束はMLA20の下のそれぞれ対応する画素(図3(c)では画素22〜24)に到達する。つまり、仮想的に到達した光束に対応する画素値を用いればより絞りを絞った状態と等価な再構成画像が生成される。即ち現に光束を受光した画素21〜25のうちの画素22〜24の情報を用いて再構成画像を生成することができる。よって、より大きな開口径に絞りを制限して現に取得した画素の情報を用いて、より開口径の小さな再構成画像を得ることができる。換言すれば、撮影後にユーザの設定した被写界深度に変更した再構成画像を得ることができる。   On the other hand, by performing image shift processing, a reconstructed image equivalent to a state in which the aperture is reduced can be obtained. It is assumed that a virtual aperture diameter corresponding to a desired reconstructed image aperture value is given by an arrow 72. The luminous flux from the subject becomes a luminous flux that passes through the area indicated by the arrow 72 (almost all of the areas 32 to 34) on the pupil plane 52. The luminous flux reaches the corresponding pixels (pixels 22 to 24 in FIG. 3C) under the MLA 20 respectively. That is, a reconstructed image equivalent to a state where the aperture is further reduced is generated by using a pixel value corresponding to the light beam that has virtually reached. That is, a reconstructed image can be generated using information of the pixels 22 to 24 among the pixels 21 to 25 that actually receive the light flux. Therefore, it is possible to obtain a reconstructed image having a smaller aperture diameter by using the pixel information that is actually acquired by limiting the aperture to a larger aperture diameter. In other words, a reconstructed image that has been changed to the depth of field set by the user after shooting can be obtained.

図10は実施形態2に係るリフォーカス優先撮影モードで撮影する場合の一連の処理を示すフローチャートである。以下、図10を用いて、撮影後にユーザが絞り値コントロール処理を行う場合の動作について説明する。   FIG. 10 is a flowchart showing a series of processing when shooting is performed in the refocus priority shooting mode according to the second embodiment. Hereinafter, the operation when the user performs the aperture value control process after shooting will be described with reference to FIG.

S3010からS3060、及び、S3310、S3320、S3400の動作は、それぞれ実施形態1で説明したS1010からS1060、及びS1250、S1260、S1300に対応するため、説明を省略する。   The operations from S3010 to S3060, and S3310, S3320, and S3400 correspond to S1010 to S1060, and S1250, S1260, and S1300 described in the first embodiment, respectively, and thus the description thereof is omitted.

S3070においてボディCPU109は、S3050(S1050)において比較に用いた、ユーザにより設定された絞り値をメモリ197に記憶させ、S3080に処理を進める。   In S3070, the body CPU 109 stores the aperture value set by the user used for comparison in S3050 (S1050) in the memory 197, and advances the process to S3080.

S3080からS3190の動作は、実施形態1で説明したS1070からS1180に対応するため、その説明を省略する。   Since the operations from S3080 to S3190 correspond to S1070 to S1180 described in the first embodiment, the description thereof is omitted.

S3200においてボディCPU109は、S3180で撮影した主被写体に合焦した撮影画像に対して、被写界深度を変更するのかどうかのユーザからの入力を指示を待つ。具体的には、主被写体310に合焦した画像を表示部258に表示すると共に、例えば「絞り値の変更を行いますか?」等の表示を行って、ユーザが被写界深度を変更するかどうかの確認を行う。このとき「Yes」および「No」の表示等を行い、選択スイッチ192等により「Yes」という表示が選択された場合、S3210に処理を進める。一方、「No」という表示が選択された場合、ボディCPU109はS3290に処理を進める。   In step S3200, the body CPU 109 waits for an instruction from the user to change whether or not to change the depth of field for the captured image focused on the main subject captured in step S3180. Specifically, an image focused on the main subject 310 is displayed on the display unit 258 and a display such as “Do you want to change the aperture value?” Is displayed to change the depth of field by the user. Check whether or not. At this time, “Yes” and “No” are displayed, and if “Yes” is selected by the selection switch 192 or the like, the process proceeds to S3210. On the other hand, when the display of “No” is selected, the body CPU 109 advances the process to S3290.

S3210においてボディCPU109は、S3070にてメモリ197に記憶させた、ユーザにより設定された絞り値を取得する。   In step S3210, the body CPU 109 acquires the aperture value set by the user and stored in the memory 197 in step S3070.

S3220においてボディCPU109は、ユーザにより設定された絞り値が小絞り側の制限値を超えているかを判断する。該制限値を超えていると判断したときは、S3220に処理を進め、該制限値を超えていないと判断したときは、処理をS3500に進める。S3500においてボディCPU109は、ユーザが絞り設定スイッチ194にて入力した絞り値を取得すると、S3230に処理を進める。   In S3220, the body CPU 109 determines whether the aperture value set by the user exceeds the limit value on the small aperture side. If it is determined that the limit value is exceeded, the process proceeds to S3220. If it is determined that the limit value is not exceeded, the process proceeds to S3500. In step S3500, when the body CPU 109 acquires the aperture value input by the user using the aperture setting switch 194, the process proceeds to step S3230.

S3230においてボディCPU109は、ユーザにより設定された絞り値あるいはS3500において取得した絞り値を用いて、該絞り値に対応する再構成画像を生成するため各マイクロレンズ位置に対して像シフト処理を行う。像シフト処理の動作を図8に示す。ボディCPU109は、処理をS1710に進め、画像処理部150に像シフト処理を実行させる。   In step S3230, the body CPU 109 performs image shift processing on each microlens position to generate a reconstructed image corresponding to the aperture value using the aperture value set by the user or the aperture value acquired in step S3500. The operation of the image shift process is shown in FIG. The body CPU 109 advances the process to step S1710, and causes the image processing unit 150 to execute image shift processing.

S1710からS1760はループを形成し、瞳分割の数に応じた数だけループ計算が実行される。例えば、図3に示した例では、瞳領域は25個に分割されていたので、25個のそれぞれの瞳位置に応じた計算がなされる。図9を用いて説明したように、再構成画像の生成においては同じ再構成面であっても入射角度が異なると像をシフトさせる量が異なる。瞳分割の数に応じたループの処理は、各入射角度に応じて各画素のシフト量を計算するためのものである。   S1710 to S1760 form a loop, and the loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 3, the pupil region is divided into 25 areas, so that calculations are performed according to the 25 pupil positions. As described with reference to FIG. 9, in the generation of a reconstructed image, the amount of image shift differs when the incident angle is different even on the same reconstructed surface. The loop processing according to the number of pupil divisions is for calculating the shift amount of each pixel according to each incident angle.

S1710では、画像処理部150は処理が瞳分割の数分行われたかを判定し、処理回数が瞳分割の数より少ないときは処理をS1730に進め、処理回数が瞳分割の数に達したときは処理をループを終了してS1770に処理を進める。   In step S1710, the image processing unit 150 determines whether the processing has been performed for the number of pupil divisions. If the number of processes is smaller than the number of pupil divisions, the process proceeds to step S1730. If the number of processes reaches the number of pupil divisions, The process ends the loop and proceeds to S1770.

S1720において画像処理部150は、瞳位置情報を取得する。瞳位置情報は、撮像素子252上の各画素とMLA20との対応関係が保存されており、各画素がどの分割瞳領域の光線を受光しているかを示す情報である。   In step S1720, the image processing unit 150 acquires pupil position information. The pupil position information is information indicating which division pupil region receives the light beam in which the correspondence between each pixel on the image sensor 252 and the MLA 20 is stored.

S1730において画像処理部150は取得した瞳位置情報に基づいて現在処理対象となっている各分割瞳領域での像シフト量を計算する。   In step S <b> 1730, the image processing unit 150 calculates the image shift amount in each divided pupil region currently being processed based on the acquired pupil position information.

S1740では、S1730の情報を元に同じ入射角の光線を得ている(同じ分割瞳領域からの光線を得ている)画素をシフトさせる。同じ入射角の光線を得ている画素は例えば図3(b)の25aと25bが該当する。このような画素がMLA20を構成するマイクロレンズの数だけ存在している。   In S1740, pixels that have obtained light rays having the same incident angle (obtained light rays from the same divided pupil region) are shifted based on the information in S1730. For example, pixels 25a and 25b in FIG. 3B correspond to pixels that obtain light rays having the same incident angle. There are as many such pixels as the number of microlenses constituting the MLA 20.

S1760において画像処理部150は、呼び出し元のS3230に処理を戻す。   In step S1760, the image processing unit 150 returns the processing to the calling source S3230.

S3240において画像処理部150は、S3230においてシフトされた画素を用いて、像生成処理を動作させる。これにより、ユーザが設定した絞り値によって得られる被写界深度の再構成画像が生成される。   In S3240, the image processing unit 150 operates the image generation process using the pixels shifted in S3230. As a result, a reconstructed image having a depth of field obtained by the aperture value set by the user is generated.

S3250においてボディCPU109は、S3240にて生成された再構成画像をプレビュー画像として表示部258に表示する。   In S3250, the body CPU 109 displays the reconstructed image generated in S3240 on the display unit 258 as a preview image.

S3260においてボディCPU109は、表示した再構成画像に対するユーザからの入力を待つ。具体的には、表示部258に表示している、被写界深度を変更した画像と共に、例えば「この被写界深度でよろしいですか?」等の表示を行って、ユーザが望んでいた被写界深度を有する画像が得られたどうかの確認を行う。この時、さらに「OK」と「キャンセル」の表示等があり、ユーザにより「OK」選択された場合、ボディCPU109はユーザが望んでいた被写界深度を有する画像が得られたと判断して、S3270に処理を進める。一方、ユーザにより「キャンセル」が選択された場合、ユーザが望んでいた被写界深度を有する画像が得られなかったと判断して、S3600に処理を進める。   In step S3260, the body CPU 109 waits for an input from the user with respect to the displayed reconstructed image. Specifically, together with the image with the changed depth of field displayed on the display unit 258, for example, “Are you sure you want to use this depth of field?” It is confirmed whether an image having a depth of field is obtained. At this time, when “OK” and “Cancel” are further displayed and “OK” is selected by the user, the body CPU 109 determines that an image having the depth of field desired by the user has been obtained, The process proceeds to S3270. On the other hand, if “cancel” is selected by the user, it is determined that an image having the depth of field desired by the user has not been obtained, and the process proceeds to S3600.

S3270においてボディCPU109は、生成した再構成画像をメモリ197や不図示の記録媒体に保存するかどうかの確認を行う。具体的には、ボディCPU109は表示部258に再構成画像を表示すると共に、例えば「保存しますか?」等の表示を行って再構成画像を保存するかどうかの確認を行う。このとき、さらにボディCPU109は「する」と「しない」の表示をさせ、ユーザにより「する」が選択された場合、S3280に処理を進める。一方、ボディCPU109は、ユーザにより「しない」が選択された場合、処理をS3700へ進める。   In step S3270, the body CPU 109 confirms whether the generated reconstructed image is to be stored in the memory 197 or a recording medium (not illustrated). Specifically, the body CPU 109 displays the reconstructed image on the display unit 258 and also displays, for example, “Do you want to save?” To confirm whether the reconstructed image is to be saved. At this time, the body CPU 109 further displays “Yes” and “No”, and if “Yes” is selected by the user, the process proceeds to S3280. On the other hand, if “NO” is selected by the user, the body CPU 109 advances the process to step S3700.

S3280においてボディCPU109は、再構成画像をS3180にて記録した主被写体310に合焦した画像の名前とは別の名前でメモリ197や不図示の記録媒体に保存して、処理をS3290へ進める。   In S3280, the body CPU 109 stores the reconstructed image in the memory 197 or a recording medium (not shown) with a name different from the name of the image focused on the main subject 310 recorded in S3180, and advances the process to S3290.

S3290においてボディCPU109は、S1190同様の処理を行い、一連の動作を終了させる。   In S3290, the body CPU 109 performs the same process as S1190, and ends the series of operations.

一方、S3600においてボディCPU109は、ユーザが絞り設定スイッチ194を操作して絞り値を変更したかどうかを判定する。ボディCPU109が設定スイッチ194による信号から絞り値が変更されたと判定した場合は、S3230に戻って、一連の動作を繰り返す。一方、絞り値が変更されていないときは再びS3600に処理を戻してユーザのよる入力を待つ。また、S3700においてボディCPU109は、S3240にてメモリ197に生成した再構成画像を消去して、S3290へ進める。   On the other hand, in S3600, the body CPU 109 determines whether or not the user has changed the aperture value by operating the aperture setting switch 194. If the body CPU 109 determines that the aperture value has been changed from the signal from the setting switch 194, the process returns to S3230 and a series of operations are repeated. On the other hand, when the aperture value has not been changed, the process returns to S3600 again to wait for input from the user. In step S3700, the body CPU 109 deletes the reconstructed image generated in the memory 197 in step S3240, and proceeds to step S3290.

なお、実施形態2では撮影後にユーザに被写界深度の変更有無を確認してから該処理の実行を行っている。しかし例えばユーザの設定した絞り値が制限値よりも小絞り側である場合には、撮影後に自動的に被写界深度を変更するような撮影モードを設定すれば、ユーザの利便性はさらに向上し得る。本発明ではデジタルカメラ100とレンズ102が着脱可能であるとしたが、これに限定せず、デジタルカメラ100とレンズ102が一体化しているデジタルカメラでも上記で説明したのと同様な効果が得られることは言うまでもない。   In the second embodiment, the process is executed after confirming whether the user has changed the depth of field after shooting. However, for example, when the aperture value set by the user is smaller than the limit value, the user convenience is further improved by setting a shooting mode that automatically changes the depth of field after shooting. Can do. In the present invention, the digital camera 100 and the lens 102 are detachable. However, the present invention is not limited to this, and a digital camera in which the digital camera 100 and the lens 102 are integrated can provide the same effects as described above. Needless to say.

以上説明したように、本実施形態においては、絞りの開口径の下限値を複数の分割瞳領域を通過した光束が通過可能にする値にすることで、再構成可能なLFデータを取得し、ユーザによる指示に基づいて再構成画像の生成を行った。これにより、撮影時にユーザが所定の絞り値を超えて絞り値を増大させた場合であってもユーザの所望の再構成画像を生成できる。   As described above, in the present embodiment, reconfigurable LF data is acquired by setting the lower limit value of the aperture diameter of the diaphragm to a value that allows the light beam that has passed through the plurality of divided pupil regions to pass through. A reconstructed image was generated based on an instruction from the user. Thereby, even when the user increases the aperture value beyond the predetermined aperture value at the time of shooting, the user's desired reconstructed image can be generated.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

100…デジタルカメラ、109…ボディCPU、140…絞り、141…絞り駆動部、196…モードスイッチ、252…撮像素子、258…表示部 DESCRIPTION OF SYMBOLS 100 ... Digital camera, 109 ... Body CPU, 140 ... Aperture, 141 ... Aperture drive part, 196 ... Mode switch, 252 ... Image sensor, 258 ... Display part

Claims (7)

分割瞳領域の各々を通過した光束を記録した画素信号であって、複数の被写体距離のいずれかに合焦させた再構成画像を生成可能な画素信号を出力する撮像装置であって、
前記画素信号の撮影にあたり絞りの開口径の下限値を、複数の分割瞳領域を通過した光束が開口を通過可能な値に制御する制御手段と、
前記絞りの開口径を変更する変更手段と、を有し、
前記変更手段は、異なる複数の条件の再構成画像を生成可能な画素信号を出力するための撮影モードが設定された場合において、ユーザにより前記下限値を下回る絞りの開口径が設定された場合に、前記絞りの開口径を前記下限値に変更する、ことを特徴とする撮像装置。
An image pickup apparatus that outputs a pixel signal that records a light flux that has passed through each of the divided pupil regions and that can generate a reconstructed image focused on any of a plurality of subject distances,
Control means for controlling the lower limit value of the aperture diameter of the diaphragm for photographing the pixel signal to a value at which the light flux that has passed through the plurality of divided pupil regions can pass through the aperture ;
Changing means for changing the aperture diameter of the diaphragm,
In the case where a photographing mode for outputting a pixel signal capable of generating a reconstructed image with a plurality of different conditions is set, the changing means is set when the aperture diameter of the diaphragm that is lower than the lower limit value is set by the user. An imaging apparatus , wherein the aperture diameter of the diaphragm is changed to the lower limit value .
前記変更手段により前記絞りの開口径が前記下限値に変更された場合に、前記絞りの開口径が変更されたことを通知する通知手段をさらに有することを特徴とする請求項に記載の撮像装置。 The imaging according to claim 1 , further comprising notification means for notifying that the aperture diameter of the diaphragm has been changed when the aperture diameter of the diaphragm is changed to the lower limit value by the changing means. apparatus. 撮影を行い、前記画素信号を出力する撮像手段と、
前記撮像手段により出力された前記画素信号から再構成画像を生成する生成手段をさらに有することを特徴とする請求項1又は2に記載の撮像装置。
Imaging means for performing imaging and outputting the pixel signal;
The imaging apparatus according to claim 1 or 2, characterized by further comprising a generating means for generating a reconstructed image from the pixel signal outputted by the imaging means.
前記生成手段は、ユーザにより前記下限値を下回る絞りの開口径が設定された場合に、前記下限値の開口径で撮影して出力された画素信号から前記設定された開口径に対応する再構成画像を生成することを特徴とする請求項に記載の撮像装置。 When the aperture diameter of the diaphragm that is lower than the lower limit value is set by the user, the generation unit reconstructs the pixel signal that is captured and output with the aperture diameter of the lower limit value and that corresponds to the set aperture diameter The imaging apparatus according to claim 3 , wherein an image is generated. 前記生成手段により生成された再構成画像を表示する表示手段をさらに有し、
前記表示手段は、ユーザにより前記下限値を下回る絞りの開口径が設定されて撮影が行われた場合に、前記設定された開口径に対応する再構成画像を撮影後に表示することを特徴とする請求項に記載の撮像装置。
Further comprising display means for displaying the reconstructed image generated by the generating means;
The display means displays a reconstructed image corresponding to the set aperture diameter after shooting when the user sets a diaphragm aperture diameter lower than the lower limit value and performs shooting. The imaging device according to claim 4 .
分割瞳領域の各々を通過した光束を記録した画素信号であって、複数の被写体距離のいずれかに合焦させた再構成画像を生成可能な画素信号を出力する撮像装置の制御方法であって、
制御手段が、前記画素信号の撮影にあたり絞りの開口径の下限値を、複数の分割瞳領域を通過した光束が開口を通過可能な値に制御する制御工程と、
変更手段が、前記絞りの開口径を変更する変更工程と、を有し、
前記変更工程では、異なる複数の条件の再構成画像を生成可能な画素信号を出力するための撮影モードが設定された場合において、ユーザにより前記下限値を下回る絞りの開口径が設定された場合に、前記絞りの開口径を前記下限値に変更する、ことを特徴とする撮像装置の制御方法。
A method of controlling an imaging apparatus that outputs a pixel signal that records a light flux that has passed through each of divided pupil regions and that can generate a reconstructed image focused on one of a plurality of subject distances. ,
A control step in which the control means controls the lower limit value of the aperture diameter of the diaphragm when photographing the pixel signal to a value at which the light beam that has passed through the plurality of divided pupil regions can pass through the aperture ;
A changing step of changing the aperture diameter of the diaphragm,
In the changing step, when a photographing mode for outputting a pixel signal capable of generating a reconstructed image having a plurality of different conditions is set, and when an aperture diameter of the diaphragm lower than the lower limit value is set by the user A method for controlling an imaging apparatus , wherein the aperture diameter of the diaphragm is changed to the lower limit value .
コンピュータを、請求項1乃至のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。 The program for functioning a computer as each means of the imaging device of any one of Claims 1 thru | or 5 .
JP2014075718A 2014-04-01 2014-04-01 Imaging apparatus, control method, and program Expired - Fee Related JP6336316B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014075718A JP6336316B2 (en) 2014-04-01 2014-04-01 Imaging apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014075718A JP6336316B2 (en) 2014-04-01 2014-04-01 Imaging apparatus, control method, and program

Publications (2)

Publication Number Publication Date
JP2015197609A JP2015197609A (en) 2015-11-09
JP6336316B2 true JP6336316B2 (en) 2018-06-06

Family

ID=54547303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014075718A Expired - Fee Related JP6336316B2 (en) 2014-04-01 2014-04-01 Imaging apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP6336316B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7091048B2 (en) * 2017-10-11 2022-06-27 キヤノン株式会社 Image pickup device and its control method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8570427B2 (en) * 2009-01-28 2013-10-29 Nikon Corporation Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function
JP4692654B2 (en) * 2009-02-20 2011-06-01 株式会社ニコン Imaging apparatus and image processing program
JP5424679B2 (en) * 2009-03-18 2014-02-26 キヤノン株式会社 Imaging apparatus and signal processing apparatus
JP5532741B2 (en) * 2009-08-19 2014-06-25 株式会社ニコン Imaging device
JP5917158B2 (en) * 2012-01-13 2016-05-11 キヤノン株式会社 Imaging apparatus, control method thereof, and imaging system

Also Published As

Publication number Publication date
JP2015197609A (en) 2015-11-09

Similar Documents

Publication Publication Date Title
US9279955B2 (en) Image pickup apparatus, control method thereof, and program
US9516213B2 (en) Image processing apparatus, image capturing apparatus, and control method thereof
US10009533B2 (en) Image pickup apparatus and control method thereof with contrast focus evaluation
US9344617B2 (en) Image capture apparatus and method of controlling that performs focus detection
JP2013214096A (en) Method and system for image stabilization
JP5914192B2 (en) Imaging apparatus and control method thereof
US9554054B2 (en) Imaging apparatus and its control method and program
US20180270409A1 (en) Image pickup apparatus and image pickup system
JP2012113171A (en) Imaging device and control method therefor
JP6952222B2 (en) Imaging device
US9591203B2 (en) Image processing apparatus, image processing method, recording medium, and image pickup apparatus
JP2013161065A (en) Imaging device
JP6608194B2 (en) Image processing apparatus, control method therefor, and program
JP2013080093A (en) Imaging apparatus
JP2017032646A (en) Image-capturing device and method for controlling the same
JP2013113857A (en) Imaging device, and control method therefor
JP6336316B2 (en) Imaging apparatus, control method, and program
US9871961B2 (en) Image processing apparatus and image processing method generating a time-lapse moving image
JP6400152B2 (en) REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD
JP6157290B2 (en) REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, AND PROGRAM
JP2015139018A (en) Electronic apparatus and control program
JP2017009942A (en) Imaging device
JP5968026B2 (en) Imaging apparatus and control method thereof
JP2017011628A (en) Imaging device
JP2015154112A (en) Image processing device, method for controlling the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180502

R151 Written notification of patent or utility model registration

Ref document number: 6336316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees