JP2015025960A - Focus detection system, focus detection method, program, and image capturing device - Google Patents

Focus detection system, focus detection method, program, and image capturing device Download PDF

Info

Publication number
JP2015025960A
JP2015025960A JP2013155730A JP2013155730A JP2015025960A JP 2015025960 A JP2015025960 A JP 2015025960A JP 2013155730 A JP2013155730 A JP 2013155730A JP 2013155730 A JP2013155730 A JP 2013155730A JP 2015025960 A JP2015025960 A JP 2015025960A
Authority
JP
Japan
Prior art keywords
image
pixel data
focus detection
reconstructed image
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013155730A
Other languages
Japanese (ja)
Inventor
友美 渡邉
Tomomi Watanabe
友美 渡邉
木村 正史
Masashi Kimura
正史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013155730A priority Critical patent/JP2015025960A/en
Publication of JP2015025960A publication Critical patent/JP2015025960A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To realize high-precision, high-speed contrast AF without driving lenses.SOLUTION: A focus detection system detects focus by acquiring pixel data representing object light intensity distribution formed by an image capturing optical system, which includes an image capturing lens, and angle information and includes: image generation means which generates reconfigured images at image reconfiguration positions from the pixel data; addition control means which updates unit pixels of the reconfigured images in accordance with a minimum value of the number of pixels added to form a unit pixel of the reconfigured images; contrast evaluation means which generates contrast evaluation values of the reconfigured images using the updated unit pixels; and focus evaluation means which detects a focal position of the object light based on the contrast evaluation values of the reconfigured images generated at different image reconfiguration positions.

Description

本発明は、デジタルカメラに代表される撮像装置に適用可能な焦点検出システムに関し、特にライトフィールドデータを用いたオートフォーカス(以下AF)のための焦点検出システムおよび焦点検出方法に関する。   The present invention relates to a focus detection system applicable to an imaging apparatus typified by a digital camera, and more particularly to a focus detection system and focus detection method for autofocus (hereinafter referred to as AF) using light field data.

従来、ピント調整のためのオートフォーカス装置として、デジタル一眼レフカメラはいわゆる位相差AFを、デジタルコンパクトカメラはコントラストAFを備えた装置が一般的である。これらのAFの特徴として、コントラストAFは厳密なピント合わせが可能であるが、像の取得の際にレンズ駆動を必要とするため、AF処理が位相差AFに比べて遅いという欠点があった。   Conventionally, as an autofocus device for focus adjustment, a digital single-lens reflex camera generally has a so-called phase difference AF, and a digital compact camera has a contrast AF. As a feature of these AFs, contrast AF enables precise focusing, but has a drawback that AF processing is slower than phase difference AF because lens driving is required for image acquisition.

また、近年は「Light Field Photography」と呼ばれる手法を用いた撮像装置(Light Field Camera)が提案されている。この撮像装置は従来の撮影光学系に加えてマイクロレンズアレイを設けることで、撮像素子から得られるデータが(ライトフィールドデータ)、受光面における光の強度分布に加えて光線の角度情報をも含む。この情報に基づいて任意の視点や方向の画像を再構成できるようになっている。   In recent years, an imaging device (Light Field Camera) using a technique called “Light Field Photography” has been proposed. In this imaging apparatus, a microlens array is provided in addition to the conventional imaging optical system, so that data obtained from the imaging element (light field data) includes not only the light intensity distribution on the light receiving surface but also the angle information of the light beam. . Based on this information, an image of an arbitrary viewpoint and direction can be reconstructed.

例えば、特許文献1では、瞳分割によって撮像素子から得られた情報を用いてレンズ駆動をすることなく像の再構成によってコントラストAFを行う方法が開示されている。   For example, Patent Document 1 discloses a method of performing contrast AF by image reconstruction without driving a lens using information obtained from an image sensor by pupil division.

特開2009−258610号公報JP 2009-258610 A

しかしながら、上述の特許文献に開示された従来技術では、複数のLight Field Cameraの光学構成のうち1例について像の再構成によるコントラストAF方法が述べられているが、この手法をそのまま他の光学構成に適用しても、像の再構成及び像の再構成によるピント合わせが十分高精度に行うことが出来ない場合がある。   However, in the prior art disclosed in the above-mentioned patent document, a contrast AF method by image reconstruction is described for one example of the optical configuration of a plurality of Light Field Cameras. In some cases, the image reconstruction and the focusing by the image reconstruction cannot be performed with sufficiently high accuracy.

そこで、本発明の目的は、図7(b)や(c)の光学構成を用いて得たライトフィールドデータを用いた再構成によるコントラストAFにおいて起こる精度低下の問題を解決することである。特に、上記問題の解決により、高速かつ高精度なコントラストAFの実現を可能にする焦点検出システムを提供することを目的とする。 Therefore, an object of the present invention is to solve the problem of accuracy reduction that occurs in contrast AF due to reconstruction using light field data obtained by using the optical configuration of FIGS. 7B and 7C. In particular, an object of the present invention is to provide a focus detection system that can realize high-speed and high-precision contrast AF by solving the above problem.

上記目的を達成するため、本発明によれば、撮影レンズを含む撮影光学系で形成される被写体の光学像の強度分布と角度情報を与える画素データを取得して焦点検出を行う焦点検出システムは、画素データから、画像再構成位置における再構成画像を生成する画像生成手段と、再構成画像の単位画素を生成するために加算される画素データの数を検出して保持する保持手段と、保持された加算数の最小値を検出し、再構成画像の単位画素を、最小値に従って更新する加算制御手段と、更新された単位画素を用いて、再構成画像のコントラスト評価値を生成するコントラスト評価手段と、異なる画像再構成位置で生成された再構成画像のコントラスト評価値に基づいて、被写体の光学像の焦点位置を検出するピント評価手段とを備える。   To achieve the above object, according to the present invention, there is provided a focus detection system that performs focus detection by acquiring pixel data that gives intensity distribution and angle information of an optical image of a subject formed by a shooting optical system including a shooting lens. Image generating means for generating a reconstructed image at the image reconstruction position from the pixel data, holding means for detecting and holding the number of pixel data added to generate unit pixels of the reconstructed image, and holding A contrast evaluation unit that detects a minimum value of the added number and updates a unit pixel of the reconstructed image according to the minimum value, and generates a contrast evaluation value of the reconstructed image using the updated unit pixel Means and focus evaluation means for detecting the focal position of the optical image of the subject based on the contrast evaluation values of the reconstructed images generated at different image reconstruction positions.

本発明によれば、レンズ駆動をすることなく高精度かつ高速にAFを行うことを可能にした撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of performing AF with high accuracy and high speed without driving a lens.

本発明の実施例に係る焦点検出システムを適用した撮像装置のシステム構成を示す図The figure which shows the system configuration | structure of the imaging device to which the focus detection system based on the Example of this invention is applied. 本発明の実施例の撮像装置の光学系に瞳分割を模式的に示す図The figure which shows pupil division typically in the optical system of the imaging device of the Example of this invention 本発明の実施例に係る焦点検出システムの焦点検出動作のフローチャートを示す図The figure which shows the flowchart of the focus detection operation | movement of the focus detection system which concerns on the Example of this invention. 画像の再構成方法を説明するための図Diagram for explaining image reconstruction method 複数の位置での画像の再構成方法を説明するための図The figure for demonstrating the reconstruction method of the image in several positions 本発明の実施例に係る焦点検出システムにおける加算領域制御を説明するための図The figure for demonstrating addition area | region control in the focus detection system based on the Example of this invention. Light Field Cameraの光学系の構成を模式的に示す図The figure which shows typically the structure of the optical system of Light Field Camera

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

以下、図1から図7を参照して、本発明の第1の実施例に係る焦点検出システムを、それを適用した撮影装置を例にして説明する。   Hereinafter, a focus detection system according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 7 by taking an imaging apparatus to which the focus detection system is applied as an example.

図1は撮影装置100であるデジタルカメラおよびレンズの電気的構成を示すブロック図である。撮像装置100は、カメラ101およびレンズ102からなるカメラシステムであり、撮像系、画像処理系、記録再生系、制御系を有する。撮像系は、撮影光学系103 、撮像素子106を含み、画像処理系は、画像処理部107を含む。また、記録再生系は、メモリ部108、表示部109を含み、制御系は、カメラシステム制御部105、操作検出部110、およびレンズシステム制御部112、レンズ駆動部113を含む。レンズ駆動部113は、焦点調節のために焦点レンズ、ブレ補正レンズ、絞りなどを駆動することができる。   FIG. 1 is a block diagram showing an electrical configuration of a digital camera and a lens that are the photographing apparatus 100. The imaging apparatus 100 is a camera system including a camera 101 and a lens 102, and includes an imaging system, an image processing system, a recording / reproducing system, and a control system. The imaging system includes a photographing optical system 103 and an imaging element 106, and the image processing system includes an image processing unit 107. The recording / reproducing system includes a memory unit 108 and a display unit 109, and the control system includes a camera system control unit 105, an operation detection unit 110, a lens system control unit 112, and a lens driving unit 113. The lens driving unit 113 can drive a focus lens, a shake correction lens, a diaphragm, and the like for focus adjustment.

撮像系は、物体からの光(被写体の光学像)を、撮影レンズを有する撮影光学系103を介して撮像素子106の撮像面に結像する光学処理系である。撮像素子106表面(受光面)にはマイクロレンズが格子状に配置してあり、いわゆるマイクロレンズアレイ(以下 MLA)を形成している。MLAは本実施例において、瞳分割手段を構成する。MLAの機能や配置の詳細については図2を用いて後述する。後述するように、撮像素子106の出力信号からピント評価量/適当な露光量が得られるので、この信号に基づいて適切に撮影光学系103が調節されることで、適切な光量の物体光を撮像素子106に露光するとともに、撮像素子106の近傍で被写体像が結像する。   The imaging system is an optical processing system that forms an image of light from an object (an optical image of a subject) on the imaging surface of the imaging element 106 via a photographic optical system 103 having a photographic lens. Microlenses are arranged in a lattice pattern on the surface of the image sensor 106 (light receiving surface), forming a so-called microlens array (hereinafter referred to as MLA). The MLA constitutes pupil dividing means in this embodiment. Details of the functions and arrangement of the MLA will be described later with reference to FIG. As will be described later, since the focus evaluation amount / appropriate exposure amount is obtained from the output signal of the image sensor 106, the photographing optical system 103 is appropriately adjusted based on this signal, so that an appropriate amount of object light can be obtained. While the image sensor 106 is exposed, a subject image is formed in the vicinity of the image sensor 106.

画像処理部7は、内部にA/D変換器、ホワイトバランス部、ガンマ補正部、補間演算部等を有しており、記録用の画像を生成することができる。また、本発明の要部である、現像部、コントラスト評価部、相関計算部等を含めることもできる。本実施例ではこれらの要素はカメラシステム制御内に焦点検出システムとして配置する場合を想定して記載する。   The image processing unit 7 includes an A / D converter, a white balance unit, a gamma correction unit, an interpolation calculation unit, and the like, and can generate a recording image. In addition, a developing unit, a contrast evaluation unit, a correlation calculation unit, and the like, which are main parts of the present invention, can be included. In this embodiment, these elements are described assuming that they are arranged as a focus detection system in the camera system control.

メモリ部108は実際の記憶部に加えて記録に必要な処理部を備えている。メモリ部は、記録部へ出力を行うとともに、表示部109に出力する像を生成、保存する。また、メモリ部108は、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。   The memory unit 108 includes a processing unit necessary for recording in addition to an actual storage unit. The memory unit outputs to the recording unit and generates and stores an image to be output to the display unit 109. In addition, the memory unit 108 compresses images, moving images, sounds, and the like using a predetermined method.

カメラシステム制御部105は、撮像の際のタイミング信号などを生成して出力するとともに、外部操作に応動して撮像系、画像処理系、記録再生系をそれぞれ制御する。例えば、不図示のシャッターレリーズ釦の押下を操作検出部110が検出して、撮像素子106の駆動、画像処理部107の動作、メモリ部108の圧縮処理などを制御する。さらに表示部109によって液晶モニタ等に情報表示を行う情報表示装置の各セグメントの状態を制御する。   The camera system control unit 105 generates and outputs a timing signal at the time of imaging, and controls the imaging system, the image processing system, and the recording / reproducing system in response to an external operation. For example, the operation detection unit 110 detects pressing of a shutter release button (not shown), and controls driving of the image sensor 106, operation of the image processing unit 107, compression processing of the memory unit 108, and the like. Further, the state of each segment of the information display device that displays information on a liquid crystal monitor or the like is controlled by the display unit 109.

制御系の撮影光学系の調節動作について説明する。カメラシステム制御部105には画像処理部107が接続されており、撮像素子106からの信号に基づいて撮影に適切な焦点位置、絞り位置を求める。カメラシステム制御部105は、電気接点111を介してレンズシステム制御部112に指令を出し、レンズシステム制御部112はレンズ駆動部113を適切に制御する。さらにレンズシステム制御部112には不図示の手ぶれ検出センサが接続されており、手ぶれ補正を行うモードにおいては、手ぶれ検出センサの信号に基づいてレンズ駆動部113を介してブレ補正レンズを適切に制御する。   The adjustment operation of the taking optical system of the control system will be described. An image processing unit 107 is connected to the camera system control unit 105, and an appropriate focal position and aperture position for photographing are obtained based on a signal from the image sensor 106. The camera system control unit 105 issues a command to the lens system control unit 112 via the electrical contact 111, and the lens system control unit 112 appropriately controls the lens driving unit 113. Furthermore, a camera shake detection sensor (not shown) is connected to the lens system control unit 112, and in the camera shake correction mode, the camera shake correction sensor is appropriately controlled based on the signal of the camera shake detection sensor. To do.

ここで、Light Field Cameraで提案されている複数のマイクロレンズの配置方法を図7を用いて説明する。図7において、106は撮像素子を、220はMLAを、231から235は瞳領域を、751は被写体平面を、751a,751bは被写体上の適当な点を、752は撮影光学系の瞳平面を示している。図7(b)および7(c)に示した106aは仮想的な撮像素子を、220aは仮想的なMLAを示している。これらは、図7(a)との対応関係を明確にするための参考として示した。図7(a)の例では、撮影光学系103の結像面近傍にMLA220を配置することで、撮像素子106と撮影光学系の瞳平面752が共役の関係にある。図7(b)の例では、MLA220で撮影光学系103からの光束を結像させ、その結像面に撮像素子106を設ける。このように配置することで、被写体平面751と撮像素子106は共役の関係にある。被写体上の点は、瞳平面上の通過領域によって、撮像素子の異なる位置にそれぞれ結像される。図7(c)の例では、MLA220で撮影光学系103からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子106を設ける。このように配置することで、被写体平面751と撮像素子106は共役の関係にある。   Here, a method for arranging a plurality of microlenses proposed by the Light Field Camera will be described with reference to FIG. In FIG. 7, 106 is an image sensor, 220 is MLA, 231 to 235 are pupil regions, 751 is a subject plane, 751a and 751b are appropriate points on the subject, and 752 is a pupil plane of the photographing optical system. Show. In FIGS. 7B and 7C, 106a indicates a virtual image sensor, and 220a indicates a virtual MLA. These are shown as a reference for clarifying the correspondence with FIG. In the example of FIG. 7A, the MLA 220 is disposed in the vicinity of the imaging plane of the photographing optical system 103 so that the imaging element 106 and the pupil plane 752 of the photographing optical system are in a conjugate relationship. In the example of FIG. 7B, the MLA 220 forms an image of the light beam from the photographing optical system 103, and the image sensor 106 is provided on the image formation surface. By arranging in this way, the object plane 751 and the image sensor 106 are in a conjugate relationship. The points on the subject are imaged at different positions of the image sensor by the passing area on the pupil plane. In the example of FIG. 7C, the MLA 220 re-images the light beam from the photographing optical system 103 (this is called re-imaging because the light beam once imaged is diffused). An image sensor 106 is provided on the image plane. By arranging in this way, the object plane 751 and the image sensor 106 are in a conjugate relationship.

図7(a)は、Light Field Cameraの光学構成の一例であり、図7(b)と(c)はその他のLight Field Cameraの光学構成の例である。どの光学構成でも図7(a)と同様にLight Fieldの情報を取得することが出来るが、像の再構成方法が異なる。   FIG. 7A is an example of the optical configuration of the Light Field Camera, and FIGS. 7B and 7C are examples of the optical configuration of the other Light Field Camera. Light field information can be obtained in any optical configuration as in FIG. 7A, but the image reconstruction method is different.

すなわち、特許文献1では、図7(c)のLight Field光学系の像の再構成によるコントラストAF方法は開示されているが、図7(b)および(c)の光学構成でのコントラストAFについては十分に述べられていない。図7(b)および(c)の光学構成では、ある焦点面内の画像をリフォーカスにより生成する場合に、通常通りにリフォーカスの演算を行い、画素をシフトして加算していくと、面内で加算画素数に違いが出てくる為、加算後に得られる画像がボケ具合などの異なる画像が生成されてしまい、AFなどの評価値を取る際に誤判別をする可能性がある。そこで、本実施形態では、図7(b)や(c)の光学構成を用いて得たライトフィールドデータを用いた再構成によるコントラストAFでは、1つの再構成画像内で単位画素毎の加算画素数が略等しくなるようにリフォーカスを行って得られる再構成画像を用いてコントラストAFを行うことを特徴とする。   That is, Patent Document 1 discloses a contrast AF method by reconstructing an image of the Light Field optical system in FIG. 7C, but contrast AF in the optical configuration in FIGS. 7B and 7C is disclosed. Is not adequately stated. In the optical configurations of FIGS. 7B and 7C, when an image in a certain focal plane is generated by refocusing, refocusing calculation is performed as usual, and pixels are shifted and added. Since there is a difference in the number of added pixels in the plane, a different image such as a blurred state is generated after the addition, and there is a possibility of erroneous determination when taking an evaluation value such as AF. Therefore, in this embodiment, in contrast AF by reconstruction using light field data obtained by using the optical configurations of FIGS. 7B and 7C, the addition pixel for each unit pixel in one reconstructed image Contrast AF is performed using a reconstructed image obtained by performing refocusing so that the numbers are substantially equal.

図2は、本実施例における撮影光学系の要部を説明するための図である。本発明の焦点検出システムを適用するためには、いわゆる光線空間情報(ライトフィールドデータ)等といわれる光線の位置(強度分布)に加えて角度の情報を含む画素データを取得する必要がある。本実施例では、角度情報の取得のために撮影光学系103の結像面近傍にMLA200を配置するとともに、MLA200を構成する1つのレンズに対して複数の画素を対応させている。   FIG. 2 is a diagram for explaining a main part of the photographing optical system in the present embodiment. In order to apply the focus detection system of the present invention, it is necessary to acquire pixel data including angle information in addition to the position (intensity distribution) of the light beam, which is so-called light space information (light field data). In the present embodiment, the MLA 200 is disposed in the vicinity of the imaging plane of the photographing optical system 103 for obtaining angle information, and a plurality of pixels are associated with one lens constituting the MLA 200.

図2(a)は撮像素子106とMLA200の関係を模式的に示す図である。図2(b)は撮像素子の画素とMLAの対応を模式的に示す図である。図2(c)はMLAによってMLA下に設けられた画素が特定の瞳領域と対応づけられることを示す図である。   FIG. 2A is a diagram schematically illustrating the relationship between the image sensor 106 and the MLA 200. FIG. 2B is a diagram schematically showing the correspondence between the pixels of the image sensor and the MLA. FIG. 2C is a diagram showing that pixels provided under the MLA by the MLA are associated with a specific pupil region.

図2(a)に示すように撮像素子106上にはMLA200が設けられており、MLA200の前側主点は撮影光学系103の結像面の近傍になるように配置されている。図2(a)は撮影装置の横からと、正面からMLAを見た図であり、撮影装置正面から見るとMLA200のレンズが撮像素子106上の画素を覆うように配置されている。なお、図2(a)ではMLA200を構成する各マイクロレンズを見やすくするために、大きく記載したが、実際には各マイクロレンズ220は画素の数倍程度の大きさしかない(実際の大きさについては図2(b)を用いて説明する)。   As shown in FIG. 2A, the MLA 200 is provided on the image sensor 106, and the front principal point of the MLA 200 is arranged in the vicinity of the imaging plane of the photographing optical system 103. FIG. 2A is a view of the MLA as viewed from the side and from the front of the photographing apparatus. The lens of the MLA 200 is disposed so as to cover the pixels on the image sensor 106 when viewed from the front of the photographing apparatus. In FIG. 2A, the micro lenses constituting the MLA 200 are illustrated in order to make the micro lenses easy to see. However, each micro lens 220 is actually only about several times as large as a pixel (about the actual size). Will be described with reference to FIG.

図2(b)は図2(a)の装置正面からの図を一部拡大した図である。図2(b)に示す格子状の枠は、撮像素子106の各画素を示している。一方、MLA200を構成する各マイクロレンズは太い円220a,220b,220c,220dで示した。図2(b)から明らかなようにマイクロレンズ1つに対して複数の画素が割り当てられており、図2(b)の例では、12行x12列=144個の画素が1つのマイクロレンズに対して設けられている。すなわち各マイクロレンズの大きさは画素の大きさの12倍x12倍の大きさである。   FIG. 2B is a partially enlarged view from the front of the apparatus of FIG. A grid-like frame shown in FIG. 2B indicates each pixel of the image sensor 106. On the other hand, each microlens constituting the MLA 200 is indicated by thick circles 220a, 220b, 220c, and 220d. As apparent from FIG. 2B, a plurality of pixels are assigned to one microlens. In the example of FIG. 2B, 12 rows × 12 columns = 144 pixels are assigned to one microlens. It is provided for. That is, the size of each microlens is 12 times x 12 times the size of the pixel.

図2(c)は撮像素子106を、マイクロレンズ220の光軸を含みセンサの長手方向が図の横方向になるように切断した図である。図2(c)の221、222、223、224、225等の長方形部分は撮像素子106の画素(1つの光電変換部)を示している。図中Δxは画素のピッチを示している。一方、図2(c)の上方に示した図は撮影光学系103の射出瞳面を示している。実際には、図2(c)の下方に示したセンサの図と方向を合わせると、射出瞳面は図2(c)の紙面垂直方向(y方向)になるが、説明のために投影方向を変化させている。また、図2(c)においては説明を簡単にするために、1次元の投影/信号処理について説明する。実際の装置においては、これを容易に2次元に拡張することができる。   FIG. 2C is a diagram in which the image sensor 106 is cut so that the longitudinal direction of the sensor includes the optical axis of the microlens 220 and the lateral direction of the sensor is in the horizontal direction of the drawing. Rectangular portions such as 221, 222, 223, 224, and 225 in FIG. 2C indicate pixels (one photoelectric conversion unit) of the image sensor 106. In the figure, Δx represents the pixel pitch. On the other hand, the figure shown above FIG. 2C shows the exit pupil plane of the photographing optical system 103. Actually, when the direction is aligned with the sensor diagram shown in the lower part of FIG. 2 (c), the exit pupil plane is in the direction perpendicular to the plane of FIG. 2 (c) (y direction). Is changing. In FIG. 2C, one-dimensional projection / signal processing will be described to simplify the description. In an actual device, this can be easily extended to two dimensions.

図2(c)の画素221、222、223、224、225は、図2(b)の画素221a、222a、223a、224a、225aとそれぞれ対応する位置関係にある。図2(c)の例では画素221と領域231が、画素222と領域232が、画素223と領域233が、画素224と領域234、画素225と領域235がそれぞれ対応している。すなわち画素221には撮影光学系103の射出瞳面上の領域231を通過した光束の情報が入射する。他の画素も同様である。結果として、瞳面上での光線の通過領域と撮像素子106上の受光領域との位置関係から角度の情報を取得することが可能となる。また、現像時に出力される画像の各画素(単位画素)はこの角度情報を積分した形で表される。図2(c)の例では一マイクロレンズ下に12×12=144個の撮像素子が配置されているので撮像面では12×12=144個のセンサの情報を加算して出力時の単位画素を形成する。本文中では、この角度情報が積分された出力時の一画素を出力単位画素と呼ぶ。   The pixels 221, 222, 223, 224, and 225 in FIG. 2C are in a positional relationship corresponding to the pixels 221a, 222a, 223a, 224a, and 225a in FIG. In the example of FIG. 2C, the pixel 221 and the region 231 correspond to the pixel 222 and the region 232, the pixel 223 and the region 233, the pixel 224 and the region 234, and the pixel 225 and the region 235, respectively. That is, information on the light beam that has passed through the region 231 on the exit pupil plane of the photographing optical system 103 is incident on the pixel 221. The same applies to the other pixels. As a result, it is possible to obtain angle information from the positional relationship between the light ray passage area on the pupil plane and the light receiving area on the image sensor 106. Each pixel (unit pixel) of the image output at the time of development is expressed by integrating this angle information. In the example of FIG. 2C, since 12 × 12 = 144 image sensors are arranged below one microlens, information on 12 × 12 = 144 sensors is added on the imaging surface, and unit pixels at the time of output Form. In the present text, one pixel at the time of output in which the angle information is integrated is called an output unit pixel.

本実施例の撮影光学系を利用して、撮像素子106の信号からピント評価値(ピント位置)を得る処理について図3を用いて説明する。   Processing for obtaining a focus evaluation value (focus position) from a signal from the image sensor 106 using the imaging optical system of the present embodiment will be described with reference to FIG.

図3は、本実施例に係る焦点検出システムがピント評価値を得るために実行する動作のフローチャートを示す図である。本フローチャートに従った焦点検出動作は、カメラシステム制御部105のCPUが、図示しないメモリに記憶されているプログラムを実行して、撮像装置の各部を制御することで実現される。   FIG. 3 is a diagram illustrating a flowchart of operations executed by the focus detection system according to the present embodiment to obtain a focus evaluation value. The focus detection operation according to this flowchart is realized by the CPU of the camera system control unit 105 executing a program stored in a memory (not shown) to control each unit of the imaging apparatus.

図3(a)はピント評価値を得る動作全体のフローチャートを、図3(b)は画像生成動作のフローチャートを、図3(c)は加算制御動作のフローチャートをそれぞれ示す。また、図3(d)はコントラスト評価値計算動作のフローチャートを、図3(e)はピント評価動作のフローチャートをそれぞれ示す。これらの動作を、図3(a)から各ステップ順に説明する。   3A shows a flowchart of the entire operation for obtaining the focus evaluation value, FIG. 3B shows a flowchart of the image generation operation, and FIG. 3C shows a flowchart of the addition control operation. FIG. 3D shows a flowchart of the contrast evaluation value calculation operation, and FIG. 3E shows a flowchart of the focus evaluation operation. These operations will be described in the order of each step from FIG.

ステップS301はピント評価値取得動作の開始を示している。例えば、図1の操作検出部110が撮影者による特定の動作(例えばレリーズボタンの押下)を検出した時などが該当する。   Step S301 indicates the start of the focus evaluation value acquisition operation. For example, this is the case when the operation detection unit 110 in FIG. 1 detects a specific action (for example, pressing of the release button) by the photographer.

ステップS302では、カメラシステム制御部105が撮像素子106および画像処理部107を制御して、撮像動作を一回行って画素データ(ライトフィールドデータ)を取得する。この画像データから再構成画像を生成することで、レンズ駆動することなく、コントラスト評価値に基づくAFによりピント位置を得ることが出来る。   In step S <b> 302, the camera system control unit 105 controls the image sensor 106 and the image processing unit 107, performs an imaging operation once, and acquires pixel data (light field data). By generating a reconstructed image from this image data, the focus position can be obtained by AF based on the contrast evaluation value without driving the lens.

ステップS303からステップS307はループを形成する。本ループでは、評価位置を予め与えられた初期値から終了値まで適宜設定された間隔でずらしながら、各評価位置における像生成、加算制御、コントラスと評価値計算を行う。上記初期値は粗調/微調で異なるように設定することができ、ステップS303では、粗調時の間隔および調整範囲を粗く広く設定し、微調時には細かく狭く設定する以下、粗くピント検出を行う動作を粗調、精密にピント検出を行う動作を微調と呼ぶことにする。   Steps S303 to S307 form a loop. In this loop, image generation, addition control, contrast, and evaluation value calculation are performed at each evaluation position while shifting the evaluation position from a predetermined initial value to an end value at an appropriately set interval. The initial value can be set to be different for coarse / fine adjustment. In step S303, the coarse adjustment interval and adjustment range are set coarsely and broadly, and fine adjustment is finely fined. The operation of performing coarse adjustment and fine focus detection is called fine adjustment.

ステップS304では像生成動作を行う。画像生成の動作の詳細は図3(b)のフローチャートを用いて後述する。
ステップS305では加算制御動作を行う。本動作では、各出力単位画素の画素加算数を統一する。加算制御動作の詳細は図3(c)のフローチャートを用いて後述する。
ステップS306ではコントラスト評価動作を行う。コントラスト評価動作の詳細は、図3(d)のフローチャートを用いて後述する。
ステップS307で、画像の再構成と評価値取得のループ動作を終了する。
In step S304, an image generation operation is performed. Details of the image generation operation will be described later with reference to the flowchart of FIG.
In step S305, an addition control operation is performed. In this operation, the number of added pixels of each output unit pixel is unified. Details of the addition control operation will be described later with reference to the flowchart of FIG.
In step S306, a contrast evaluation operation is performed. Details of the contrast evaluation operation will be described later with reference to the flowchart of FIG.
In step S307, the image reconstruction and evaluation value acquisition loop operations are terminated.

ステップS308ではステップS307で得られた結果(ステップS307では、ループを形成しているので、ピント位置を変化させながら複数の評価値が得られている)に基づいて、ピント評価動作を行い、ピント位置を決定する。ピント評価動作の詳細は図3(e)のフローチャートを用いて後述する。   In step S308, a focus evaluation operation is performed based on the result obtained in step S307 (in step S307, since a loop is formed, a plurality of evaluation values are obtained while changing the focus position), the focus evaluation operation is performed. Determine the position. Details of the focus evaluation operation will be described later with reference to the flowchart of FIG.

ステップS309で、焦点検出システムの動作を終了する。この一連の動作により、レンズを従来のコントラスト検出のようにピント面付近を往復させることなく、高速にかつ精度を保ったままピント面を検出することが可能となる。   In step S309, the operation of the focus detection system is terminated. By this series of operations, it is possible to detect the focus surface at high speed and with high accuracy without reciprocating the vicinity of the focus surface of the lens as in conventional contrast detection.

次に、図3(b)、4および5を用いて像生成動作の詳細を説明する。なお、本実施例においては、現像面(=再構成面)の画像の計算を、瞳領域に応じて像をシフト(XY方向へ移動)することで実現している。この現像方法は一例であって、別の現像アルゴリズムを用いても良い。   Next, details of the image generation operation will be described with reference to FIGS. In this embodiment, calculation of the image on the development surface (= reconstruction surface) is realized by shifting (moving in the XY direction) the image according to the pupil region. This developing method is an example, and another developing algorithm may be used.

ステップS321は現像動作の開始を示している。ステップS322からステップS326はループを形成している。ステップS322では瞳分割数に応じた数だけループ計算が実行される。像の再構成を考えると、同じ再構成面であっても入射角度が異なると(射出瞳が十分遠い場合には、通過する瞳領域が異なることとほぼ同義)像をシフトさせる量が異なる。これを適宜、現像計算に反映させるためのループである。   Step S321 indicates the start of the developing operation. Steps S322 to S326 form a loop. In step S322, the loop calculation is executed by the number corresponding to the number of pupil divisions. Considering the reconstruction of the image, the amount of shifting the image is different if the incident angle is different even if the reconstruction plane is the same (when the exit pupil is sufficiently far away, it is almost synonymous with the fact that the passing pupil region is different). This is a loop for appropriately reflecting this in development calculation.

ステップS324では、ステップS323からのデータをもとに、評価位置に対応する各瞳領域でのシフト量を計算する。ステップS323には、各画素とMLAとの対応関係が保存されており、各画素がどの瞳領域の光線を受光しているかが分かる情報が格納されている。
ステップS325ではステップS323の情報をもとに同じ入射角の光線を得ている(同じ瞳領域からの光線を得ている)画素をシフトさせる。
ステップS326で像シフトの一連の動作を終了する。
In step S324, the shift amount in each pupil region corresponding to the evaluation position is calculated based on the data from step S323. In step S323, the correspondence between each pixel and the MLA is stored, and information indicating which pupil region of each pixel is receiving light is stored.
In step S325, pixels that have obtained light rays with the same incident angle (obtain light rays from the same pupil region) are shifted based on the information in step S323.
In step S326, a series of image shift operations is terminated.

ステップS327では、ステップS331での加算のための領域のデータを初期化(0で埋める)する。   In step S327, the area data for addition in step S331 is initialized (filled with 0).

ステップS328からステップS334はループを形成している。ステップS328では、MLAを構成するマイクロレンズの数に応じてループ計算が実行される。例えば、図2に示した例では、元の撮像素子の画素数÷144(瞳分割数)がマイクロレンズの数、即ち本ループ処理で生成される出力単位画素の数となる。   Steps S328 to S334 form a loop. In step S328, loop calculation is executed according to the number of microlenses constituting the MLA. For example, in the example shown in FIG. 2, the number of pixels of the original image sensor ÷ 144 (number of pupil divisions) is the number of microlenses, that is, the number of output unit pixels generated by this loop processing.

ステップS329からステップS332はさらにループを形成している。ステップS329では、瞳分割数に応じた数だけループ計算が実行され、一つの出力単位画素が生成される。例えば、図2に示した例では、25に分割されていたので、25のそれぞれの瞳位置からの光束が存在する。   Steps S329 to S332 further form a loop. In step S329, the loop calculation is executed by the number corresponding to the number of pupil divisions, and one output unit pixel is generated. For example, in the example shown in FIG. 2, since the light is divided into 25, there are light fluxes from 25 pupil positions.

ステップS330では、各瞳領域からの光束に対して加算を行う領域か否かの判断がなされる。図4および5を用いて後述するように、像生成動作では、出力単位画素の加算すべき画素が指示される。加算すべき画素に該当するときは、ステップS331に進んで加算を行う。その他の場合は、ステップS332に進む。なお、ステップS325で決定されたシフト量が画素の整数倍でない場合は、ステップS331の加算において、適宜内分しながら加算する(重なっている面積に応じて適宜加算すればよい)。   In step S330, a determination is made as to whether or not it is an area where addition is performed for the light flux from each pupil area. As will be described later with reference to FIGS. 4 and 5, in the image generation operation, a pixel to be added to the output unit pixel is designated. When the pixel corresponds to the pixel to be added, the process proceeds to step S331 to perform addition. In other cases, the process proceeds to step S332. If the shift amount determined in step S325 is not an integral multiple of the pixel, the addition in step S331 is performed while appropriately dividing the amount (addition may be made as appropriate depending on the overlapping area).

ステップS332で、出力単位画素を生成するために行う加算処理の一連の動作を終了する。
ステップS333では、各出力単位画素で加算した画素数を記録する。ここで記録した加算画素の情報に基づいて、後述する加算制御動作を行なう。
ステップS334で一連の動作を終了し、ステップS335で、呼び出し元のステップS304に戻る。
In step S332, a series of operations of addition processing performed to generate an output unit pixel ends.
In step S333, the number of pixels added in each output unit pixel is recorded. Based on the information of the added pixels recorded here, an addition control operation described later is performed.
In step S334, the series of operations is terminated, and in step S335, the process returns to the caller step S304.

ここで、上述した図3(b)の像生成動作で行われる像の再構成位置での出力単位画素の生成方法について、図4、図5を用いて具体的に説明する。   Here, the generation method of the output unit pixel at the image reconstruction position performed in the image generation operation of FIG. 3B described above will be specifically described with reference to FIGS.

始めに、撮影光学系の構成が図7(b)の構成である場合の画像の再構成方法を、図4を用いて説明する。図4において、一点鎖線は主レンズ400を通過するがマイクロレンズ220には入射しない光線を示している。なお、図示するように、マイクロレンズ220は、メインレンズ400の結像面ではない位置におかれている。メインレンズ面は図1の撮影光学系103で示した主点にあたる。この撮影光学系の場合に、再構成面Iの出力単位画素I−aを得る方法を説明する。   First, an image reconstruction method in the case where the configuration of the photographing optical system is the configuration of FIG. 7B will be described with reference to FIG. In FIG. 4, an alternate long and short dash line indicates a light beam that passes through the main lens 400 but does not enter the microlens 220. As shown in the figure, the microlens 220 is placed at a position other than the image plane of the main lens 400. The main lens surface corresponds to the principal point indicated by the photographing optical system 103 in FIG. A method for obtaining the output unit pixel Ia on the reconstruction surface I in the case of this photographing optical system will be described.

まず、出力単位画素と各マイクロレンズ220の頂点を線で結ぶ。この時、直線がメインレンズ400内に含まれる画素を選ぶ。図4では、出力単位画素からマイクロレンズ220の頂点に向かって5本の直線が引かれているが、このうち点線で示した上下の2本はメインレンズ内を通らないので選ばれない。次に、図4で選ばれた3本の直線が通る画素の情報(図4中で黒塗りで示した画素)を足し合わせることで再構成面I−aでの出力単位画素は生成される。このように任意の再構成面での出力単位画素を生成することが出来る。   First, the output unit pixel and the apex of each microlens 220 are connected by a line. At this time, a pixel whose straight line is included in the main lens 400 is selected. In FIG. 4, five straight lines are drawn from the output unit pixel toward the apex of the microlens 220. Of these, the upper and lower two shown by dotted lines do not pass through the main lens and are not selected. Next, the output unit pixel on the reconstruction plane Ia is generated by adding the information of the pixels through which the three straight lines selected in FIG. 4 pass (pixels shown in black in FIG. 4). . In this way, an output unit pixel on an arbitrary reconstruction plane can be generated.

次に図5を用いて再構成面内の位置、デフォーカス量による出力単位画素での画素加算数の違いについて述べる。図5では再構成面Iの出力単位画素I−a,I−bと再構成面II(デフォーカス量が違う)の出力単位画素II−aにおける加算画素を示している。上述した規則に従って、それぞれの出力単位画素中の加算画素の数を求めると、出力単位画素I−aでは3画素加算だったものが、出力単位画素I−bでは4画素加算、出力単位画素II−aでは6画素加算となる。このように再構成面内の位置およびデフォーカス量によって加算する画素の数が異なる。このように出力単位画素中の加算画素数が異なることは、各出力単位画素でFナンバーが異なり、ボケ量が変化してしまうことを意味し、AF時に悪影響を及ぼす。   Next, the difference in the number of pixel additions in the output unit pixel depending on the position in the reconstruction plane and the defocus amount will be described with reference to FIG. FIG. 5 shows the addition pixels in the output unit pixels Ia and Ib on the reconstruction plane I and the output unit pixel II-a on the reconstruction plane II (with different defocus amounts). When the number of added pixels in each output unit pixel is obtained in accordance with the rules described above, the output unit pixel I-a has been added by 3 pixels, but the output unit pixel I-b has 4 pixels added, and the output unit pixel II. At -a, 6 pixels are added. Thus, the number of pixels to be added differs depending on the position in the reconstruction plane and the defocus amount. The difference in the number of added pixels in the output unit pixel in this way means that the F number is different for each output unit pixel and the amount of blur changes, which has an adverse effect during AF.

本実施例では、後述する加算制御により出力単位画素の加算画素数を同数で統一して再構成画像を生成することで上記悪影響を抑制する。   In the present embodiment, the above adverse effect is suppressed by generating the reconstructed image by unifying the same number of output unit pixels by addition control described later.

また、図5から明らかなように、撮像面からのデフォーカス量が大きくなるほど加算画素数の変化が大きくなる。従って、AF時におおまかにピント位置を探す粗調時では、デフォーカス量の変化が大きくなるので、加算制御を動作させる。しかし、ピント面付近でピント精度を上げるために複数像の再構成を行う微調時では、デフォーカスの変化は小さいので、加算制御の動作を停止させても良い。即ち、評価位置のずらし間隔の大きさに従って、加算制御動作のオン、オフを切り替える構成にしてもよい。   Further, as apparent from FIG. 5, the change in the number of added pixels increases as the defocus amount from the imaging surface increases. Accordingly, during rough adjustment in which the focus position is roughly searched during AF, the change in the defocus amount becomes large, and the addition control is operated. However, during fine adjustment in which a plurality of images are reconstructed in order to increase the focusing accuracy near the focusing surface, the defocusing change is small, and the addition control operation may be stopped. That is, the addition control operation may be switched on and off according to the size of the evaluation position shift interval.

次に図3(c)および6を用いて加算制御の動作の詳細を説明する。   Next, details of the operation of the addition control will be described with reference to FIGS.

ステップS341は加算制御動作の開始を示している。   Step S341 indicates the start of the addition control operation.

ステップS342からS345まではループを形成している。ステップS342ではMLAを構成するマイクロレンズの数に応じてループ計算が実行される。例えば、図2に示した例では、元の撮像素子の画素数÷144(瞳分割数)がマイクロレンズの数となる。
ステップS343では、ステップS333で保持されたそれぞれの出力単位画素の加算画素数を呼び出す。
ステップS344では、読み出した加算画素数の最小値(最小加算数)を検出して記録する。例えば図5では、出力単位画素I―aでの3画素が最小加算数となる。ステップS345でループ処理を終了する。
Steps S342 to S345 form a loop. In step S342, loop calculation is executed according to the number of microlenses constituting the MLA. For example, in the example illustrated in FIG. 2, the number of microlenses is the number of pixels of the original image sensor ÷ 144 (number of pupil divisions).
In step S343, the number of added pixels of each output unit pixel held in step S333 is called.
In step S344, the minimum value (minimum addition number) of the read addition pixel number is detected and recorded. For example, in FIG. 5, three pixels in the output unit pixel Ia are the minimum addition number. In step S345, the loop processing ends.

ステップS346からS350まではループを形成している。画像再構成位置を、予め与えられた初期値から終了値までの範囲で、適宜設定されたステップずつずらしながら、記録された最小加算数に従って像生成の計算を行う。ステップS346では、初期値を粗調/微調で異なるように設定することが可能であり、粗調時は粗く広く設定し、微調時は細かく狭く設定するようにする。   Steps S346 to S350 form a loop. Image generation calculation is performed according to the recorded minimum addition number while shifting the image reconstruction position by an appropriately set step within a range from a predetermined initial value to an end value. In step S346, the initial value can be set so as to be different depending on whether the adjustment is rough or fine, and is set to be coarse and wide at the time of coarse adjustment, and finely and narrowly set at the time of fine adjustment.

ステップS347では、出力単位画素の加算画素数がステップS344で記録された最小値であるか否かの判定を行う。加算画素数が最小値である場合は、図3(b)で得られた出力単位画素のデータの更新をしない。加算画素数が最小値でない場合は、ステップS348に進む。   In step S347, it is determined whether or not the added pixel number of the output unit pixel is the minimum value recorded in step S344. When the number of added pixels is the minimum value, the data of the output unit pixel obtained in FIG. 3B is not updated. If the number of added pixels is not the minimum value, the process proceeds to step S348.

ステップS348では図3(b)の像生成部動作を行い、出力単位画素の値を生成する。但し、加算画素数を、ステップS344で記録した最小加算値とし、使用する画素は図6を用いて後述するように選択する。   In step S348, the operation of the image generation unit shown in FIG. 3B is performed to generate the value of the output unit pixel. However, the number of added pixels is the minimum added value recorded in step S344, and the pixels to be used are selected as described later with reference to FIG.

ステップS349では、ステップS348で生成された値で出力単位画素のデータを更新する。ステップS350でループを終了し、ステップS351において、呼び出し元のステップS305に戻る。   In step S349, the data of the output unit pixel is updated with the value generated in step S348. In step S350, the loop is terminated, and in step S351, the process returns to the caller step S305.

ここで、図6を用いて加算制御動作で出力単位画素の加算画素数を制限する場合の好ましい制限方法について説明する。図6は出力単位画素I‐aとI‐bにおいて加算される画素をメインレンズ400の瞳面上に投影した場合を模式的に示す図である。出力単位画素I‐aの投影は黒塗りの領域I‐a‐1〜I‐a‐3であり、出力単位画素出力単位画素I‐bの投影は点塗り領域I‐b‐1〜I‐b‐4である。出力単位画素の瞳情報はなるべく同位置でることが望ましいことから、I‐a‐1乃至I‐a‐3とI‐b‐1乃至I‐b‐4の中から近い瞳情報を得られるものを選ぶと良い。つまり、図6では、出力単位画素I‐bを4画素加算から3画素加算にする際には、I‐b‐1を省いて、I‐b‐2+I‐b‐3+I‐b‐4により出力単位画素I‐bを形成するのが良い。またこの時、((I‐b‐1+I‐b‐2)÷2)+I‐b‐3+I‐b‐4などとして各画素出力の重み付けを変えて出力単位画素を生成しても良い。また、最小加算数の制限でなく、瞳上のケラレ等を考慮して、瞳面上に画素を投影した際の最小面積で加算制御を行っても良い。   Here, a preferable limiting method when the number of added pixels of the output unit pixel is limited by the addition control operation will be described with reference to FIG. FIG. 6 is a diagram schematically showing a case where the pixels added in the output unit pixels Ia and Ib are projected on the pupil plane of the main lens 400. The projection of the output unit pixel Ia is a black area Ia-1 to Ia-3, and the projection of the output unit pixel output unit pixel Ib is a spot area Ib-1 to I- b-4. Since it is desirable that the pupil information of the output unit pixel be at the same position as much as possible, it is possible to obtain close pupil information from Ia-1 to Ia-3 and Ib-1 to Ib-4 It is good to choose. In other words, in FIG. 6, when the output unit pixel Ib is changed from 4 pixel addition to 3 pixel addition, Ib-1 is omitted and output by Ib-2 + Ib-3 + Ib-4. The unit pixel Ib may be formed. At this time, the output unit pixel may be generated by changing the weight of each pixel output as ((I−b−1 + I−b−2) ÷ 2) + I−b−3 + I−b−4. Further, the addition control may be performed with the minimum area when pixels are projected on the pupil plane in consideration of the vignetting on the pupil, not the limitation of the minimum addition number.

また、各単位画素の取る加算数は、上述した再構成画像を構成する単位画素全体における最小加算数だけではなく、コントラスト評価を行う領域に対応する単位画素において同じ加算数をとっていれば他の加算数が設定されてもよい。他の加算数を設定する場合も、統一した加算数として所定の数が使えるかどうかを判定するためには、最小画素数の検出は有効であるが、明らかに最小画素数を下回る加算数で等しくさせる場合には、特に最小画素数の検出も必要なく、加算数を設定して良い。また、本実施例では、コントラスト評価値計算に用いる再構成画像を、一旦再構成位置に従って画素データを加算して各単位画素を生成させて、それから最小の加算数でない単位画素の画素データを、画素データを選択して最小の加算数の単位画素データに更新する方法を用いた。しかし、各単位画素の加算数は、再構成画像を生成しなくても各単位画素を生成するための加算画素データを特定する演算でわかるので、ステップS331、ステップS349を省略し、再構成画像内で等しくさせる加算数を演算により決定した後に、ステップS348にて各単位画素を決定した加算数に従って生成しても良い。   Further, the number of additions taken by each unit pixel is not limited to the above-described minimum addition number in the entire unit pixels constituting the reconstructed image, but may be any value if the same addition number is taken in the unit pixels corresponding to the contrast evaluation area. May be set. Even when other numbers of additions are set, detection of the minimum number of pixels is effective for determining whether a predetermined number can be used as a unified number of additions. However, the number of additions clearly below the minimum number of pixels is effective. In order to make them equal, it is not necessary to detect the minimum number of pixels, and the number of additions may be set. Further, in this embodiment, the reconstructed image used for the contrast evaluation value calculation is temporarily added to the pixel data according to the reconstructed position to generate each unit pixel, and then the pixel data of the unit pixel that is not the minimum addition number, A method of selecting pixel data and updating it to unit pixel data having the minimum number of additions was used. However, since the addition number of each unit pixel can be obtained by calculation for specifying addition pixel data for generating each unit pixel without generating a reconstructed image, steps S331 and S349 are omitted, and the reconstructed image is obtained. After the number of additions to be equalized is determined by calculation, each unit pixel may be generated according to the number of additions determined in step S348.

次に、図3(d)を用いてコントラスト評価値計算の動作の詳細を説明する。 Next, details of the operation of contrast evaluation value calculation will be described with reference to FIG.

ステップS361はコントラスト評価動作の開始を示している。   Step S361 indicates the start of the contrast evaluation operation.

ステップS362では、コントラスト評価を行う評価点の数と、評価枠の大きさを設定する。評価点数を多くすると画面全体を覆うことが可能となるが、評価に時間がかかるという問題がある。操作検出部110で検出されたユーザーの設定などにより適宜設定する。一方、評価枠の大きさは、大きくすると局所的にはあまりパターンを有していないテクスチャであっても焦点検出が可能となるが、あまりにも大きくなると距離の異なる被写体の像を同時に評価するいわゆる遠近競合が発生してしまう。これらの問題を解決できるように、評価枠の大きさを適宜設定する。   In step S362, the number of evaluation points for contrast evaluation and the size of the evaluation frame are set. If the number of evaluation points is increased, the entire screen can be covered, but there is a problem that the evaluation takes time. This is set as appropriate based on user settings detected by the operation detection unit 110. On the other hand, when the size of the evaluation frame is increased, focus detection is possible even for textures that do not have a pattern locally, but when the texture is too large, images of subjects with different distances are simultaneously evaluated. Perspective conflict will occur. The size of the evaluation frame is appropriately set so that these problems can be solved.

ステップS363では、再構成画像の各単位画素の信号に対して適切なフィルタリングを行う。適切なフィルタリングとしては、粗調時にはより低周波に着目したフィルタリングを行い、微調時には粗調時に比べて高周波に着目したフィルタリングを行うとよい。このようにフィルタリングの特性を変更することで、ローカルミニマムを避けつつ焦点検出精度を向上することが可能となる。   In step S363, appropriate filtering is performed on the signal of each unit pixel of the reconstructed image. Appropriate filtering may be performed by focusing on a lower frequency during coarse adjustment, and by focusing on a higher frequency than during coarse adjustment during fine adjustment. By changing the filtering characteristics in this way, it is possible to improve the focus detection accuracy while avoiding the local minimum.

ステップS364からステップS367はループを形成している。ステップS364では、ステップS362で決定された各評価点に対応した評価値を得るように、設定された評価点について繰り返し演算を行う。
ステップS365ではフィルタリング処理された評価枠内の一ラインの最大値をピークホールドする。
Steps S364 to S367 form a loop. In step S364, the set evaluation points are repeatedly calculated so as to obtain evaluation values corresponding to the evaluation points determined in step S362.
In step S365, the maximum value of one line in the filtered evaluation frame is peak-held.

ステップS366では、S365でピークホールドされた一ラインの最大値を、評価枠内の行について足し合わせることで、評価値を計算する。   In step S366, the evaluation value is calculated by adding the maximum value of one line peak-held in S365 for the rows in the evaluation frame.

本実施例では上記のような方法でコントラスト評価値を得たが、ピント変動にともなうコントラスト評価値で有れば他の計算方法を活用してもよい。例えば、二次コントラストを一次コントラストの二乗で割り込み輝度値を無次元化した評価値を用いる方法などが考えられる。次いで、ステップS368において、呼び出し元のステップS306に戻る。   In this embodiment, the contrast evaluation value is obtained by the method as described above. However, other calculation methods may be used as long as the contrast evaluation value is associated with the focus fluctuation. For example, a method of using an evaluation value obtained by making the secondary contrast the square of the primary contrast and making the interrupt luminance value dimensionless can be considered. Next, in step S368, the process returns to the caller step S306.

次に、図3(e)を用いてピント評価の動作の詳細を説明する。
ステップS371はピント評価部の動作開始を示している。
Next, details of the focus evaluation operation will be described with reference to FIG.
Step S371 indicates the start of the operation of the focus evaluation unit.

ステップS372からステップS376まではループを形成している。ステップS372では、図3(a)のステップS303からS307までのループにおいてコントラスト評価値計算で得られた複数の評価値から最大値、二番目に大きい値、三番目に大きい値を演算により得る。   Steps S372 to S376 form a loop. In step S372, the maximum value, the second largest value, and the third largest value are obtained by calculation from the plurality of evaluation values obtained by the contrast evaluation value calculation in the loop from step S303 to S307 in FIG.

ステップS373では、得られた評価値の最大値をEVMaxとしてピークホールドする。
ステップS374では、得られた評価値の中から二番目に大きい値をEVMax2としてピークホールドする。
ステップS375では、得られた評価値の中から三番目に大きい値をEVMax3としてピークホールドする。ステップS376でループを終了する。
In step S373, the maximum value of the obtained evaluation values is peak-held as EVMax.
In step S374, the second largest value among the obtained evaluation values is peak-held as EVMax2.
In step S375, the third largest value among the obtained evaluation values is peak-held as EVMax3. In step S376, the loop is terminated.

ステップS377では、ステップS373で得られたEVMaxとステップS375で得られたEVMax3を通る直線を表す式L1を求める。   In step S377, an equation L1 representing a straight line passing through EVMax obtained in step S373 and EVMax3 obtained in step S375 is obtained.

ステップS378では、ステップS377で得られたL1と傾きが逆で、ステップS374で得られたEVMax2を通る直線を表す式L2を求める。   In step S378, an equation L2 representing a straight line passing through EVMax2 obtained in step S374 is obtained, which has an inclination opposite to that of L1 obtained in step S377.

ステップS379では、ステップS377で得られた直線の式L1とステップS378で得られた直線の式L2の交点のx座標(def座標)をピント位置として求める。撮像装置は、求められたピント位置の情報に基づいて撮影光学系を駆動して焦点調節を行う。   In step S379, the x coordinate (def coordinate) of the intersection of the straight line equation L1 obtained in step S377 and the straight line equation L2 obtained in step S378 is obtained as the focus position. The imaging apparatus performs focus adjustment by driving the photographing optical system based on the obtained focus position information.

本実施例では上記のような方法でピント評価値を得たが、得られた複数のコントラスト評価値からピークの位置を算出できるものであれば他の計算方法でも活用できる。例えば、得られた4点のコントラスト評価値から二次関数近似を行い、頂点の値をピーク位置とする方法でも良い。ステップS380で呼び出し元のステップS308に戻る。   In this embodiment, the focus evaluation value is obtained by the method as described above. However, any other calculation method can be used as long as the peak position can be calculated from the obtained plurality of contrast evaluation values. For example, a method may be used in which quadratic function approximation is performed from the obtained four contrast evaluation values, and the value of the vertex is set as the peak position. In step S380, the process returns to the caller step S308.

以上説明したように、本実施例によると、レンズ駆動をすることなくAFを行う場合も、出力単位画素中の加算画素数を制限することで高速かつピント精度の高いAFを行うことを可能にした撮像装置を提供することが出来る。   As described above, according to the present embodiment, even when AF is performed without driving the lens, it is possible to perform high-speed AF with high focus accuracy by limiting the number of added pixels in the output unit pixel. An image pickup apparatus can be provided.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

上述した実施形態において図3の各処理は、各処理の機能を実現する為のプログラムをメモリから読み出してカメラシステム制御部105のCPUが実行することによりその機能を実現させるものである。   In the above-described embodiment, each process in FIG. 3 is realized by reading a program for realizing the function of each process from the memory and executing it by the CPU of the camera system control unit 105.

尚、上述した構成に限定されるものではなく、図3に示した各処理の全部または一部の機能を、専用のハードウェアにより実現してもよい。また、上述したメモリは、光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリや、CD−ROM等の読み出しのみが可能な記憶媒体、RAM以外の揮発性のメモリであってもよい。また、それらの組合せによるコンピュータ読み取り、書き込み可能な記憶媒体より構成されてもよい。   Note that the present invention is not limited to the above-described configuration, and all or some of the functions shown in FIG. 3 may be realized by dedicated hardware. The memory described above may be a non-volatile memory such as a magneto-optical disk device or a flash memory, a storage medium that can only be read such as a CD-ROM, or a volatile memory other than a RAM. Moreover, you may comprise from the computer-readable / writable storage medium by those combination.

また、図3に示した各処理の機能を実現する為のプログラムをコンピュータ読み取り可能な記憶媒体に記録して、この記憶媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。具体的には、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含む。   3 is recorded in a computer-readable storage medium, and the program recorded in the storage medium is read into the computer system and executed. May be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. Specifically, the program read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

また、「コンピュータ読み取り可能な記憶媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記憶媒体」とは、一定時間プログラムを保持しているものも含むものとする。例えば、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発メモリ(RAM)も含む。   The “computer-readable storage medium” refers to a storage device such as a flexible disk, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk built in a computer system. Furthermore, the “computer-readable storage medium” includes a medium that holds a program for a certain period of time. For example, it includes a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上記プログラムは、前述した機能の一部を実現する為のものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体等のプログラムプロダクトも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体およびプログラムプロダクトは、本発明の範疇に含まれる。   A program product such as a computer-readable recording medium in which the above program is recorded can also be applied as an embodiment of the present invention. The above program, recording medium, transmission medium, and program product are included in the scope of the present invention.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

Claims (15)

撮影レンズを含む撮影光学系で形成される被写体の光学像の強度分布と角度情報を与える画素データを取得して焦点検出を行う焦点検出システムにおいて、
前記画素データから、画像再構成位置における再構成画像を生成する画像生成手段と、
前記再構成画像の各単位画素を生成するために加算される画素データの数を検出して保持する保持手段と、
前記保持された加算数の最小値を検出し、前記再構成画像の単位画素を、前記最小値に従って更新する加算制御手段と、
更新された単位画素を用いて、前記再構成画像のコントラスト評価値を生成するコントラスト評価手段と、
異なる画像再構成位置で生成された再構成画像の前記コントラスト評価値に基づいて、前記被写体の光学像の焦点位置を検出するピント評価手段と、
を備えたことを特徴とする焦点検出システム。
In a focus detection system for performing focus detection by acquiring pixel data that gives intensity distribution and angle information of an optical image of a subject formed by a shooting optical system including a shooting lens,
Image generating means for generating a reconstructed image at an image reconstruction position from the pixel data;
Holding means for detecting and holding the number of pixel data to be added to generate each unit pixel of the reconstructed image;
An addition control means for detecting a minimum value of the held addition number and updating a unit pixel of the reconstructed image according to the minimum value;
Contrast evaluation means for generating a contrast evaluation value of the reconstructed image using the updated unit pixel;
Focus evaluation means for detecting a focal position of the optical image of the subject based on the contrast evaluation value of the reconstructed image generated at a different image reconstruction position;
A focus detection system comprising:
前記加算制御手段は、前記画素データを画像再構成位置に従って単位画素毎に加算する際に、前記単位画素を生成するために加算される画素データの数が前記最小値より大きくなる単位画素では、前記最小値が検出された単位画素で加算された画素データの前記角度情報に対応する瞳領域の画素データを選択して加算することで単位画素を更新することを特徴とする請求項1に記載の焦点検出システム。   In the unit pixel in which the number of pixel data added to generate the unit pixel is larger than the minimum value when the addition control unit adds the pixel data for each unit pixel according to the image reconstruction position, The unit pixel is updated by selecting and adding pixel data of a pupil region corresponding to the angle information of the pixel data added by the unit pixel in which the minimum value is detected. Focus detection system. 前記画像生成手段は、前記画像再構成位置の範囲および間隔を設定する設定手段を有し、前記加算制御手段は、前記画像再構成位置の間隔に従って加算のオン、オフを切り替えることを特徴とする請求項1又は2に記載の焦点検出システム。   The image generation means includes setting means for setting a range and interval of the image reconstruction position, and the addition control means switches on / off of addition according to the interval of the image reconstruction position. The focus detection system according to claim 1 or 2. 前記コントラスト評価手段は、再構成画像のフィルタリング手段を有し、前記画像再構成位置の間隔に従って前記フィルタリング手段の特性を変更することを特徴とする請求項3に記載の焦点検出システム。   The focus detection system according to claim 3, wherein the contrast evaluation unit includes a reconstructed image filtering unit, and changes a characteristic of the filtering unit according to an interval between the image reconstruction positions. 前記画像生成手段は、前記画像再構成位置に従って前記画素データのシフト量を決定し、前記シフト量に従って画素データを重み付けして加算することにより前記出力単位画素を生成することを特徴とする請求項1乃至4のいずれか一項に記載の焦点検出システム。   The image generation unit determines the shift amount of the pixel data according to the image reconstruction position, and generates the output unit pixel by weighting and adding the pixel data according to the shift amount. The focus detection system according to any one of 1 to 4. 前記コントラスト評価手段は、前記コントラスト評価値を生成する評価位置を再構成画像に設定する設定手段をさらに備えることを特徴とする請求項1乃至5のいずれか一項に記載の焦点検出システム。   The focus detection system according to claim 1, wherein the contrast evaluation unit further includes a setting unit that sets an evaluation position for generating the contrast evaluation value in a reconstructed image. 撮影レンズを含む撮影光学系で形成される被写体の光学像の強度分布と角度情報を与える画素データを取得して焦点検出を行う焦点検出システムにおいて、
前記再構成画像の各単位画素を生成するために加算される画素データの数が等しくなるように、前記画素データから、画像再構成位置における再構成画像を生成する画像生成手段と、
前記再構成画像のコントラスト評価値を算出する算出手段と、
異なる画像再構成位置で生成された再構成画像の前記コントラスト評価値に基づいて、前記被写体の焦点位置を検出するピント評価手段と、
を備えたことを特徴とする焦点検出システム。
In a focus detection system for performing focus detection by acquiring pixel data that gives intensity distribution and angle information of an optical image of a subject formed by a shooting optical system including a shooting lens,
Image generating means for generating a reconstructed image at an image reconstruction position from the pixel data so that the number of pixel data added to generate each unit pixel of the reconstructed image is equal;
Calculating means for calculating a contrast evaluation value of the reconstructed image;
Focus evaluation means for detecting a focus position of the subject based on the contrast evaluation value of the reconstructed image generated at a different image reconstruction position;
A focus detection system comprising:
撮影レンズを含む撮影光学系と、
前記撮影レンズの瞳分割を行う瞳分割手段と、
前記撮影光学系と瞳分割手段によって形成された被写体の光学像を光電変換して画素データを生成する撮像手段と、
前記画素データから、画像再構成位置における再構成画像を生成する画像生成手段と、
前記再構成画像の単位画素を生成するために加算される画素データの数を検出して保持する保持手段と、
前記保持された加算数の最小値を検出し、前記再構成画像の単位画素を、前記最小値に従って更新する加算制御手段と、
更新された単位画素を用いて、前記再構成画像のコントラスト評価値を生成するコントラスト評価手段と、
異なる画像再構成位置で生成された再構成画像の前記コントラスト評価値に基づいて、前記被写体の光学像の焦点位置を検出するピント評価手段と、
前記検出された焦点位置に従って前記撮影光学系を制御する焦点調節手段を
備えることを特徴とする撮像装置。
A taking optical system including a taking lens;
Pupil dividing means for dividing the pupil of the photographing lens;
Imaging means for photoelectrically converting an optical image of a subject formed by the photographing optical system and pupil dividing means to generate pixel data;
Image generating means for generating a reconstructed image at an image reconstruction position from the pixel data;
Holding means for detecting and holding the number of pixel data to be added to generate unit pixels of the reconstructed image;
An addition control means for detecting a minimum value of the held addition number and updating a unit pixel of the reconstructed image according to the minimum value;
Contrast evaluation means for generating a contrast evaluation value of the reconstructed image using the updated unit pixel;
Focus evaluation means for detecting a focal position of the optical image of the subject based on the contrast evaluation value of the reconstructed image generated at a different image reconstruction position;
An imaging apparatus comprising: a focus adjusting unit that controls the photographing optical system according to the detected focal position.
撮影レンズを含む撮影光学系で形成される被写体の光学像の強度分布と角度情報を与える画素データを取得して焦点検出を行う焦点検出方法において、
前記画素データから、画像再構成位置における再構成画像を生成する画像生成ステップと、
前記再構成画像の単位画素を生成するために加算される画素データの数を検出して保持する保持ステップと、
前記保持された加算数の最小値を検出し、前記再構成画像の単位画素を、前記最小値に従って更新する加算制御ステップと、
更新された単位画素を用いて、前記再構成画像のコントラスト評価値を生成するコントラスト評価ステップと、
異なる画像再構成位置で生成された再構成画像の前記コントラスト評価値に基づいて、前記被写体の光学像の焦点位置を検出するピント評価ステップと、
を備えたことを特徴とする焦点検出方法。
In a focus detection method for performing focus detection by acquiring pixel data that gives intensity distribution and angle information of an optical image of a subject formed by a shooting optical system including a shooting lens,
An image generation step of generating a reconstructed image at an image reconstruction position from the pixel data;
A holding step for detecting and holding the number of pixel data to be added to generate the unit pixel of the reconstructed image;
An addition control step of detecting a minimum value of the held addition number and updating a unit pixel of the reconstructed image according to the minimum value;
A contrast evaluation step for generating a contrast evaluation value of the reconstructed image using the updated unit pixel;
A focus evaluation step of detecting a focus position of the optical image of the subject based on the contrast evaluation value of the reconstructed image generated at a different image reconstruction position;
A focus detection method comprising:
撮影レンズを含む撮影光学系で形成される被写体の光学像の強度分布と角度情報を与える画素データを取得して焦点検出を行う焦点検出方法において、
前記再構成画像の各単位画素を生成するために加算される画素データの数が等しくなるように、前記画素データから、画像再構成位置における再構成画像を生成する画像生成ステップと、
前記再構成画像のコントラスト評価値を算出する算出ステップと、
異なる画像再構成位置で生成された再構成画像の前記コントラスト評価値に基づいて、前記被写体の焦点位置を検出するピント評価ステップと、
を備えたことを特徴とする焦点検出方法。
In a focus detection method for performing focus detection by acquiring pixel data that gives intensity distribution and angle information of an optical image of a subject formed by a shooting optical system including a shooting lens,
An image generation step of generating a reconstructed image at an image reconstruction position from the pixel data, so that the number of pixel data added to generate each unit pixel of the reconstructed image is equal;
A calculation step of calculating a contrast evaluation value of the reconstructed image;
A focus evaluation step of detecting a focus position of the subject based on the contrast evaluation value of the reconstructed image generated at a different image reconstruction position;
A focus detection method comprising:
撮影レンズを含む撮影光学系で形成される被写体の光学像の強度分布と角度情報を与える画素データを取得して焦点検出を行う焦点検出システムを制御するプログラムであり、
コンピュータを、
前記画素データから、画像再構成位置における再構成画像を生成する画像生成手段、
前記再構成画像の単位画素を生成するために加算される画素データの数を検出して保持する保持手段、
前記保持された加算数の最小値を検出し、前記再構成画像の単位画素を、前記最小値に従って更新する加算制御手段、
更新された単位画素を用いて、前記再構成画像のコントラスト評価値を生成するコントラスト評価手段、
異なる画像再構成位置で生成された再構成画像の前記コントラスト評価値に基づいて、前記被写体の光学像の焦点位置を検出するピント評価手段、
として機能させるプログラム。
A program for controlling a focus detection system that performs focus detection by acquiring pixel data that gives intensity distribution and angle information of an optical image of a subject formed by a shooting optical system including a shooting lens,
Computer
Image generation means for generating a reconstructed image at an image reconstruction position from the pixel data;
Holding means for detecting and holding the number of pixel data to be added to generate the unit pixel of the reconstructed image;
Addition control means for detecting a minimum value of the held addition number and updating a unit pixel of the reconstructed image according to the minimum value;
Contrast evaluation means for generating a contrast evaluation value of the reconstructed image using the updated unit pixel,
Focus evaluation means for detecting a focus position of the optical image of the subject based on the contrast evaluation value of the reconstructed image generated at a different image reconstruction position;
Program to function as.
撮影レンズを含む撮影光学系で形成される被写体の光学像の強度分布と角度情報を与える画素データを取得して焦点検出を行う焦点検出システムを制御するプログラムであり、
コンピュータを、
前記再構成画像の各単位画素を生成するために加算される画素データの数が等しくなるように、前記画素データから、画像再構成位置における再構成画像を生成する画像生成手段、
前記再構成画像のコントラスト評価値を算出する算出手段、
異なる画像再構成位置で生成された再構成画像の前記コントラスト評価値に基づいて、前記被写体の焦点位置を検出するピント評価手段、
として機能させるプログラム。
A program for controlling a focus detection system that performs focus detection by acquiring pixel data that gives intensity distribution and angle information of an optical image of a subject formed by a shooting optical system including a shooting lens,
Computer
Image generating means for generating a reconstructed image at an image reconstruction position from the pixel data so that the number of pixel data added to generate each unit pixel of the reconstructed image is equal;
Calculating means for calculating a contrast evaluation value of the reconstructed image;
Focus evaluation means for detecting a focus position of the subject based on the contrast evaluation values of the reconstructed images generated at different image reconstruction positions;
Program to function as.
請求項11または12のプログラムを記録したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium recording the program according to claim 11 or 12. コンピュータを、請求項1乃至7のいずれか一項に記載された焦点検出システムの各手段として機能させるプログラム。   The program which functions a computer as each means of the focus detection system as described in any one of Claims 1 thru | or 7. コンピュータを、請求項1乃至7のいずれか一項に記載された焦点検出システムの各手段として機能させるプログラムを格納した記憶媒体。   A storage medium storing a program that causes a computer to function as each unit of the focus detection system according to any one of claims 1 to 7.
JP2013155730A 2013-07-26 2013-07-26 Focus detection system, focus detection method, program, and image capturing device Withdrawn JP2015025960A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013155730A JP2015025960A (en) 2013-07-26 2013-07-26 Focus detection system, focus detection method, program, and image capturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013155730A JP2015025960A (en) 2013-07-26 2013-07-26 Focus detection system, focus detection method, program, and image capturing device

Publications (1)

Publication Number Publication Date
JP2015025960A true JP2015025960A (en) 2015-02-05

Family

ID=52490663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013155730A Withdrawn JP2015025960A (en) 2013-07-26 2013-07-26 Focus detection system, focus detection method, program, and image capturing device

Country Status (1)

Country Link
JP (1) JP2015025960A (en)

Similar Documents

Publication Publication Date Title
US9279955B2 (en) Image pickup apparatus, control method thereof, and program
US9451148B2 (en) Image recording apparatus and image reproducing apparatus
JP5914192B2 (en) Imaging apparatus and control method thereof
JP6021306B2 (en) Imaging apparatus and control method thereof
JP5943596B2 (en) Imaging device
JP6397281B2 (en) Imaging apparatus, control method thereof, and program
JP5784395B2 (en) Imaging device
US20150287208A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP6103969B2 (en) Imaging apparatus, control method thereof, and program
JP7169773B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP2015049330A (en) Interchangeable lens, imaging device, control method of interchangeable lens and imaging device, and control program thereof
JP2014135562A (en) Image pickup device and control method thereof
JP5893412B2 (en) Imaging apparatus and control method thereof
JP6188290B2 (en) Ranging device, imaging device, focus evaluation method, program, and storage medium
JP5973784B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2015025960A (en) Focus detection system, focus detection method, program, and image capturing device
JP5968081B2 (en) Imaging apparatus and control method thereof
JP2013254114A (en) Imaging device, control method and program
JP5142807B2 (en) Imaging apparatus and control method thereof
JP2016220016A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6016567B2 (en) Correlation calculation device, imaging device, correlation calculation method, program, and storage medium
JP7271316B2 (en) Imaging device and its control method
JP2009038589A (en) Imaging apparatus
JP2015154112A (en) Image processing device, method for controlling the same, and program
JP2014222268A (en) Imaging device and imaging device control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160722

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20161201